생성형 AI 기술의 급격한 발전과 그 활용 범위의 확대는 개인정보 침해라는 새로운 보안 위협을 증폭시키고 있다. 한국관광공사에서 발표한 보고서에 따르면, 생성형 AI 모델은 사용자의 데이터를 학습하고 분석하여 맞춤형 콘텐츠를 제공하는 과정에서 개인정보 유출 및 악용 가능성이 매우 높다는 경고를 보내고 있다. 특히, 생성형 AI 모델이 학습에 사용하는 데이터의 종류와 규모가 증가함에 따라, 개인정보 침해 위험 또한 그만큼 높아지고 있는 상황이다.
최근 국회 과학기술정보정보통신위원회는 생성형 AI 기술의 급성장과 더불어, 개인정보 보호에 대한 심각성을 인지하고 관련 규제 강화 방안 마련에 대한 논의를 시작했다. 이 자리에서 참석자들은 AI 모델 학습에 사용되는 데이터의 출처를 명확히 관리하고, 개인정보 자기결정권 행사 및 데이터 삭제를 위한 메커니즘을 마련하는 것이 시급하다는 데 의견을 일치했다.
현재 개인정보보호법은 AI 모델 학습에 사용되는 데이터에 대한 명확한 규정을 두고 있지 않다. 따라서, AI 모델 개발 및 활용 시 데이터 수집, 이용, 제공 등에 대한 투명성을 확보하고, 사용자의 동의를 얻는 절차를 강화해야 한다. 또한, AI 모델의 학습 과정에서 개인정보가 어떻게 활용되는지 모니터링하고, 문제가 발생했을 경우 신속하게 대응할 수 있는 시스템을 구축해야 한다.
이러한 노력과 더불어, 생성형 AI 모델 개발 기업들은 데이터 보안 기술을 강화하고, 개인정보 보호를 위한 자체적인 정책 및 기술 개발에 투자해야 한다. 특히, رمز(encryption) 기술을 활용하여 개인정보를 암호화하고, 데이터 접근 권한을 엄격하게 관리하는 등 기술적인 안전장치를 마련해야 한다.
정부 또한, 생성형 AI 산업의 혁신을 저해하지 않으면서도, 개인정보 보호를 위한 규제 마련에 적극적으로 동참해야 한다. ‘인공지능 기본법’ 개정을 통해 생성형 AI 모델 개발 및 활용에 대한 기준을 명확히 하고, 데이터 거버넌스 체계를 구축하는 등 제도적 기반을 마련해야 한다.
관련 전문가들은 “생성형 AI 기술의 잠재력을 가늠할 수 있지만, 개인정보 침해라는 위험을 간과해서는 안 된다”고 지적한다. “AI 기술 발전과 더불어 개인정보 보호를 위한 노력 또한 병행될 때 비로소 안전하고 지속 가능한 AI 생태계를 구축할 수 있을 것이다”라고 강조했다.
향후 정부는 AI 기술 개발과 더불어 개인정보 보호 전문가, 법률 전문가, 기술 전문가 등으로 구성된 ‘AI 개인정보 보호 위원회’를 설립하여, 생성형 AI 기술의 개인정보 침해 위험을 지속적으로 평가하고, 필요한 규제 및 기술 개발 방향을 제시할 것으로 예상된다.