과기정통부, 'AI신뢰·안전성 컨퍼런스' 개최…책임있는 AI 개발·활용 현황 공유

Photo Image
제2회 인공지능 신뢰성 대상 & AI 신뢰 안전성 컨퍼런스가 26일 서울 용산구 피스앤파크 컨벤션에서 열렸다. 손승현 한국정보통신기술협회장이 개회사를 하고 있다.이동근기자 foto@etnews.com

과학기술정보통신부가 26일 서울 용산동 피스앤파크컨벤션에서 인공지능(AI) 분야 대기업·스타트업, 연구자 등 200여명이 참여하는 가운데 'AI신뢰·안전성 컨퍼런스'를 개최했다.

이번 컨퍼런스는 글로벌 차원의 AI신뢰·안전성 관련 기술·정책 동향을 공유하고, 2024년 정부지원 연구결과물의 주요성과와 민간 이행현황을 점검하기 위해 마련됐다.

AI분야 세계적 석학인 몬트리올대 요슈아 벤지오 교수는 기조강연에서 “AI안전 확보를 위한 정책과 과학이 중요하다”며 “최첨단 AI모델의 위험에 대한 효과적 관리를 위해 국내법과 국제협약간 상호조화가 필요하다”고 밝혔다.

이어진 두 번째 기조강연에서 오혜연 한국과학기술원(KAIST) AI연구원장은 글로벌 AI생태계에서의 AI안전·신뢰성을 발표했다. AI기술의 언어·문화적 포용성, 격차 문제 등이 글로벌 사회에 미치는 영향을 소개하고, AI안전 정책의 추진전략을 소개했다.

이날 컨퍼런스에는 국내 기업 6개사가 참여해 책임있는 AI 개발·활용 현황을 공유했다.

지난 5월 개최된 'AI글로벌포럼'에서 국내외 14개 기업은 'AI서울기업서약'에 참여해 책임있는 AI개발·활용 보장 등에 대한 자발적 이행을 약속한 바 있다. 이에 삼성전자, 네이버, 카카오, SK텔레콤, KT, LG AI연구원 등 국내 6개 기업이 모두 참여해 이행현황을 공유했다.

네이버는 AI 안전성 실천 체계 'AI Safety Framework(ASF)'를 6월 수립했다.

카카오는 10월부터 AI 위험관리체계를 구축·운영하고, 삼성전자는 소비자 가전(CE) 제공자로서 온디바이스AI에 대한 신뢰·안전성을 수립·운영하고 있다.

SKT는 AI 거버넌스 기본원칙을 구체화한 'AI행동규범'을 수립하고, KT는 안전하고 신뢰할 수 있는 AI서비스 개발을 위한 '책임있는(Responsible) AI프레임워크를 수립했다.

LG AI연구원은 AI위험을 사전에 파악하고 해결하는 'AI윤리영향평가'를 3월부터 전 프로젝트 적용 중이다.

과기정통부와 TTA는 민간 AI업계와 함께 한 '생성형 AI레드팀 챌린지' 성과를 일부 공유했다. 향후 이를 활용한 생성형 AI안전 프레임체계를 구축, 국내 기업의 AI 신뢰·안전성을 확보할 수 있도록 지원할 계획이다.

송상훈 과기정통부 정보통신정책실장은 “민간자율에 기반한 책임있는 AI개발·활용 문화가 확산될 수 있도록 정책 지원을 강화하는 한편, 첨단AI로 인한 잠재적 위험에 대비해 AI안전연구소를 출범하고 국가차원에서 체계적으로 대응해 나가겠다”고 강조했다.


김명희 기자 noprint@etnews.com


브랜드 뉴스룸