AI 위험, 이제 시민이 직접 신고하고 해결책 찾는다

얼마 전 아버지께서 건강기능식품 홍보 영상을 보내주셨다. 전문가처럼 보이는 사람이 제품 효능을 설명하는 영상이었지만, 자세히 보니 AI가 만든 가짜 전문가였다. 말투, 표정, 자막까지 자연스러워 구별하기 어려웠다. 이처럼 AI 기술이 일상 깊숙이 들어왔지만, 신뢰할 수 있는 정보와 위험을 제보할 창구는 부족했다. 이러한 고민 끝에 방송통신위원회가 운영하는 ‘생성형 AI 이용자 참여 플랫폼’을 알게 되었다.

이 플랫폼은 AI 이용 중 겪는 위험이나 불편 사례를 직접 제보하고, 관련 통계 및 분석 정보를 확인할 수 있는 곳이다. 시민 제보자, 전문 검증단, AI 사업자, 규제 기관 등 네 주체가 협력하여 AI 위험을 관리하는 거버넌스 체계를 갖추고 있다. 플랫폼에 접속하면 허위 정보, 저작권 침해, 불법 범죄 방조, 개인정보 침해 등 일상에서 마주칠 수 있는 다양한 AI 위험 유형을 한눈에 파악할 수 있다.

특히 인상적인 점은 문제 발생 시 프롬프트(질문 )까지 함께 제출하게 되어 있다는 것이다. 이를 통해 어떤 질문에 어떤 문제가 발생했는지 정확한 데이터를 축적하고, 실질적인 방지 대책을 마련하는 데 기여할 수 있다. 또한 신고 접수 후 처리 상황과 결과를 직접 확인할 수 있어, 이용자가 변화를 이끌어가는 주체로 참여할 수 있다는 점에서 의미가 크다.

주변 사람들의 경험을 들어보니 AI로 인한 위험은 이미 우리 가까이에 있었다. 어머니는 AI가 만든 가짜 전문가 영상을 실제 의료 정보로 믿을 뻔했고, 대학생 친구는 AI가 생성한 잘못된 정보로 과제 준비에 혼란을 겪었다. 세대를 불문하고 “AI가 너무 자연스러워 판단하기 어렵다” 또는 “어디에 신고해야 할지 몰랐다”는 공통된 어려움을 토로했다.

AI 기술의 확산만큼이나 위험 또한 증가하는 지금, 안전한 AI 생태계 구축을 위해서는 정부 정책뿐만 아니라 국민들의 적극적인 참여가 필수적이다. ‘생성형 AI 이용자 참여 플랫폼’은 단순한 신고 창구를 넘어, 국민이 정책 과정에 참여하고 건강한 AI 이용 문화를 만드는 참여형 안전 생태계의 시작이 될 것이다. 더 많은 이용자가 이 플랫폼을 통해 AI 위험을 함께 예방하고, 모두가 안심하고 AI 기술을 사용할 수 있기를 기대한다.

Comments

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다