김명주 서울여대 교수, “챗GPT 보안 문제 해결 못하면 AI 산업 침체될 것”

Photo Image
한국IT리더스포럼 5월 정기조찬회가 21일 서울 강남구 JW메리어트호텔에서 열렸다. 김명주 서울여대 교수가 'AI & Security'를 주제로 강연하고 있다.박지호기자 jihopress@etnews.com

“서울 AI 정상회담의 주제도 안정성이다. AI 기술은 안정성 문제에 발목잡히면 산업 침체기를 겪을 수 있다.”

김명주 서울여대 정보보호학부 교수는 21일 서울 서초구 JW메리어트호텔에서 열린 '한국IT리더스포럼' 조찬회에서 인공지능(AI) 기술은 통제 문제에 직면해있다고 강조했다.

김 교수는 “AI 기술의 원조는 구글로 AI 모델도 갖고 있었고, 오픈AI 보다 기술력도 뛰어났지만 사회적 위험, 윤리적 문제가 있어 기술 공개를 하지 않았다”며 “스타트업인 오픈AI는 구글보다 앞서나가기 위해 보안, 안정성 문제를 크게 고민하지 않았던 것”이라고 말했다.

오픈AI는 최근 'AI 안전팀'을 해체시켰다. AI 안전팀은 AI 기술 통제 방법을 연구하는 조직으로 오픈AI가 'AI 윤리' 문제를 크게 고려하지 않는다는 의미다.

그는 “지난해 챗GPT는 사용자들이 사용한 대화 목록이 유출되는 사고를 겪었다”며 “다행히 대화 내용까지는 유출되지 않아서 소송을 피했지만, 만약 대화 내용까지 유출됐으면 오픈AI는 회사가 무너질 정도의 대규모 소송을 당했을 것”이라고 말했다.

대화 내용에는 기업의 사적인 데이터, 전략부터 개인 사생활까지 포함돼 있다.

Photo Image
한국IT리더스포럼 5월 정기조찬회가 21일 서울 강남구 JW메리어트호텔에서 열렸다. 김명주 서울여대 교수가 'AI & Security'를 주제로 강연하고 있다.박지호기자 jihopress@etnews.com

김 교수는 “챗GPT 유료 버전을 사용하고 있는 사용자들의 신용카드 정보가 유출된 사고도 있었다”고 덧붙였다.

이중에는 한국인도 687명 있었다. 개인정보보호위원회는 신고의무 위반으로 오픈AI에 과태료 360만원을 부과하기도 했다.

오픈AI는 해킹 문제를 해결하기 위해 지난 2023년 4월 11일 버그바운티 프로그램을 시작했다. 버그바운티는 서비스의 취약점을 발견한 사람에게 포상금을 지급하는 제도다. 올해 4월 29일 기준 오픈AI에서 발견된 보안 문제는 총 81개다.

오픈AI가 최소 81개의 보안문제를 가진 상태에서 서비스를 개시한 것이다. 조 바이든 미국 대통령이 지난 10월 'AI행정명령'에서 AI 기업에 레드팀을 요구한 배경이기도 하다.

김 교수는 “기술 개발에만 몰두하는 것이 아니라 AI 기술의 문제점이 나올 때 여러 시각에서 바라볼 수 있는 공론장이 필요한 시기”라며 “공론장에서 다양한 의견을 공유하고 합의에 이를 뒤에 윤리, 시민 역량, AI 기본법 등으로 AI 기술을 통제해나가는 과정이 필요하다”고 설명했다.


박두호 기자 walnut_park@etnews.com

AI

브랜드 뉴스룸