생성형 인공지능(AI)의 급속한 발전과 광범위한 활용이 가속화되면서, 개인정보 유출이라는 심각한 ‘사고’의 위험이 커지고 있다. 급증하는 AI 기술 도입 속에서 개인정보를 안전하게 보호하기 위한 실질적인 대책 마련이 시급한 상황이다. 이러한 배경 속에서 정부는 생성형 AI 개발 및 활용 과정에서 발생할 수 있는 개인정보 침해 문제를 해결하기 위한 구체적인 지침을 담은 ‘개인정보 처리 안내서’를 공개하며, AI 기술 발전이라는 ‘고속도로’ 위에 개인정보 보호라는 ‘안전 가드레일’을 세우겠다는 의지를 밝혔다.
이번에 공개된 안내서는 생성형 AI 모델 개발 및 활용 단계에서 발생하는 개인정보 처리의 기준과 원칙을 명확히 제시한다. 특히, AI 모델 학습 과정에서 비식별화되지 않은 개인정보가 포함될 경우 발생할 수 있는 재식별 위험을 최소화하고, AI 서비스 이용 과정에서 개인정보가 부적절하게 수집, 이용, 제공되는 것을 방지하는 데 초점을 맞추고 있다. 또한, AI 서비스 제공자는 이용자의 개인정보 수집 및 활용 동의 절차를 투명하게 공개하고, 이용자가 자신의 개인정보에 대한 통제권을 행사할 수 있도록 하는 방안을 안내한다. 이를 통해 개인정보의 오남용 가능성을 원천적으로 차단하고, 정보 주체의 권익을 보호하는 것을 목표로 한다.
이러한 개인정보 처리 안내서의 적용은 생성형 AI 기술의 건전한 발전과 확산을 위한 필수적인 조치로 평가된다. 개인정보 유출에 대한 불안감이 해소된다면, 기업과 기관들은 보다 적극적으로 AI 기술을 도입하고 혁신적인 서비스를 개발하는 데 집중할 수 있을 것이다. 또한, 정보 주체 역시 안심하고 AI 기술을 활용할 수 있게 되어, AI가 가져올 사회 전반의 긍정적인 변화를 더욱 빠르게 체감할 수 있을 것으로 기대된다. 결국, 이번 안내서는 AI 고속도로 위에 튼튼한 가드레일을 설치함으로써, 기술 발전의 혜택을 누리면서도 개인정보라는 중요한 가치를 안전하게 지켜나갈 수 있는 기반을 마련하는 중요한 발걸음이 될 것이다.

