AI 안전, 국제 협력 강화 나선다… 2025 서울 포럼 개최

AI 기술의 급속한 발전 속에서 안전성 확보라는 중대한 과제가 전 세계적으로 부상하고 있다. 이러한 배경 속에서 국내외 AI 안전 전문가들이 한자리에 모여 국제 협력 방안을 모색하는 ‘2025 인공지능 안전 서울 포럼(Seoul Forum on AI Safety & Security, SFASS)’이 10월 28일부터 29일까지 서울 호텔 나루 엠갤러리에서 개최된다.

이번 포럼은 ‘보다 안전한 인공지능 세상을 향한 글로벌 협력(Global Cooperation for a Safer AI Future)’을 주제로, 급증하는 AI 시스템의 위험을 효과적으로 식별하고 평가하며 완화하기 위한 방안을 논의한다. 국내외 학계, 산업계, 정부 관계자 등 150여 명의 전문가들이 참여하는 이번 행사는 AI 안전 거버넌스, 평가 체계, 그리고 레드티밍(red teaming)의 현황을 점검하고 국제 협력의 구체적인 방향을 설정하는 데 초점을 맞춘다. 특히, AI 모델의 취약점, 편향, 악용 가능성을 검증하고 위험 요인을 선제적으로 식별·개선하는 레드티밍은 AI 안전 관리의 핵심 절차로 주목받고 있다.

포럼 첫날인 28일에는 AI 안전 확보를 위한 각국의 인공지능안전연구소(AISI)의 활동과 성과, 그리고 프론티어 AI 모델 개발 기관의 노력들이 소개될 예정이다. 일본, 싱가포르, 유럽연합(EU) 등 각국 AISI 소장들이 참여하여 각 기관의 최신 연구 성과와 향후 계획을 공유하며 실질적인 국제 협력 방안을 모색한다. 또한, 국내 LG AI연구원, 네이버 클라우드를 비롯해 해외의 앤트로픽(Anthropic), 구글(Google), 세이퍼 AI(Safer AI), 스케일 AI(Scale AI), CARMA(Center for AI Risk Management & Alignment) 등 유수의 AI 개발 기업 및 기관들이 참여하여 AI 모델의 안전성 확보와 평가 체계 구축에 대한 심도 깊은 논의를 이어갈 계획이다. 마지막으로, 한국 인공지능안전연구소 실무책임자들이 참여하는 ‘Korea AISI 대화 세션’에서는 한국의 AI 안전 평가, 정책, 연구 추진 방향이 공유된다.

둘째 날인 29일에는 AI 안전 평가 방법론을 주제로 한 기술 논의 중심의 워크샵이 진행된다. 엠엘커먼스(MLCommons), METR, 앤트로픽(Anthropic), 에포크 AI(Epoch AI), FLI(Future of Life Institute), 옥스퍼드 대학(Oxford University) 등 세계적인 AI 평가기관 및 연구자들이 세션 연사로 나서 혁신적인 평가 방법론을 제시한다. 이와 함께, 프론티어 AI 모델을 대상으로 한 실습 기반의 레드티밍 세션도 마련되어 참석자들이 AI 모델의 취약점을 직접 점검하고 개선하는 경험을 쌓을 수 있도록 한다. 특히, 한국 인공지능안전연구소와 미국 AI 전문 기업 스케일 AI(Scale AI) 간의 양해각서(MOU) 체결식이 진행될 예정으로, 이는 AI 안전 연구와 평가 협력의 글로벌 기반을 한층 강화하는 계기가 될 것으로 기대된다.

이번 ‘2025 인공지능 안전 서울 포럼’은 한국이 AI 시스템의 위험을 식별, 평가, 완화하기 위한 기술적 접근을 모색하고, 국가 간 AI 안전 거버넌스 협력 체계를 공고히 하는 국제적 논의의 장을 주도적으로 열어간다는 점에서 그 의미가 매우 크다. 지속적인 국제 협력을 통해 보다 안전하고 신뢰할 수 있는 AI 세상을 만들어 나가는 데 중요한 발판을 마련할 것으로 전망된다.

Comments

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다