AI 시스템의 급격한 발전과 함께 안전에 대한 우려도 커지고 있는 가운데, 이러한 문제를 해결하기 위한 국제적인 논의의 장이 한국에서 열린다. 과학기술정보통신부(이하 과기정통부)가 주최하고 한국전자통신연구원 인공지능안전연구소가 주관하는 ‘2025 인공지능 안전 서울 포럼(Seoul Forum on AI Safety & Security, 이하 SFASS)’이 10월 28일부터 29일까지 서울 호텔 나루 엠갤러리에서 개최된다.
이번 포럼은 ‘보다 안전한 인공지능 세상을 향한 글로벌 협력(Global Cooperation for a Safer AI Future)’이라는 주제 아래, 국내외 학계, 산업계, 정부 관계자 등 150여 명의 전문가들이 한자리에 모인다. 참가자들은 현재 AI 안전 거버넌스, 평가, 그리고 레드티밍(red teaming)으로 대표되는 AI 취약점 검증 과정의 현주소를 면밀히 점검하고, 앞으로 나아가야 할 국제 협력 방안을 심도 있게 논의할 예정이다. 특히 레드티밍은 모의 공격을 통해 AI 모델의 잠재적 위험 요소를 사전에 파악하고 개선하는 AI 안전 관리의 핵심 절차로 주목받고 있다.
포럼 첫째 날인 10월 28일에는 각국의 AI 안전 연구소들이 AI 안전 확보를 위해 추진해온 활동들을 공유한다. 또한 프론티어 AI 모델 개발에 앞장서는 기관들의 노력과 AI 평가 전문 기관들의 체계 및 방법론도 소개될 예정이다. 일본, 싱가포르, 유럽연합(EU) 등 여러 국가의 AI 안전 연구소(AISI) 핵심 리더들이 참여하여 각 기관의 성과와 미래 계획을 발표하고, 실질적인 국제 협력 방안을 모색한다. 더불어 국내 LG AI연구원, 네이버 클라우드와 더불어 해외의 앤트로픽(Anthropic), 구글(Google), 세이퍼 AI(Safer AI), 스케일 AI(Scale AI), CARMA(Center for AI Risk Management & Alignment) 등 유수의 AI 개발 기업 및 기관들이 참여하여 AI 모델의 안전성 확보 및 평가 체계 구축에 대한 논의를 이어간다. 한국 인공지능안전연구소 실무 책임자들이 참여하는 ‘Korea AISI 대화 세션’에서는 한국의 AI 안전 평가, 정책, 연구 추진 방향을 공유하며 국제 사회와의 발맞춤을 강조할 전망이다.
둘째 날인 10월 29일에는 AI 안전 평가 방법론에 초점을 맞춘 기술 중심의 워크샵이 진행된다. 엠엘커먼스(MLCommons), METR, 앤트로픽(Anthropic), 에포크 AI(Epoch AI), FLI(Future of Life Institute), 옥스퍼드 대학(Oxford University) 등 세계적인 AI 평가 기관 및 연구자들이 세션 연사로 참여하여 최신 기술 동향과 발전 방향을 제시한다. 또한, 프론티어 AI 모델을 대상으로 한 실습 기반의 레드티밍 세션이 마련되어 현장에서의 실질적인 AI 안전 점검 역량을 강화할 계획이다. 특히 이번 포럼에서는 한국 인공지능안전연구소와 미국 AI 전문 기업 스케일 AI(Scale AI) 간의 양해각서(MOU) 체결식이 진행되어, AI 안전 연구 및 평가 분야에서의 글로벌 협력 기반을 더욱 공고히 할 것으로 기대된다.
이번 ‘2025 인공지능 안전 서울 포럼’은 AI 시스템이 야기할 수 있는 다양한 위험을 식별하고, 평가하며, 이를 완화하기 위한 기술적 접근 방안을 모색하는 중요한 계기가 될 것이다. 더불어 국가 간 AI 안전 거버넌스 협력 체계를 더욱 강화하는 국제적 논의의 장을 한국이 주도적으로 열어간다는 점에서 큰 의미를 갖는다.