헬렌 토너 前 오픈AI 이사, “선도적 AI 기업일수록 위험 정보 공유해야”

Photo Image
헬렌 토너 전 오픈AI 이사회 이사

“선도적 인공지능(AI) 기업들은 자신들이 개빌한 기술의 기능과 위험에 대한 정보를 대중과 공유하고, 이러한 도구가 잘못됐을 때 더 많은 데이터를 수집해야 한다.”

챗GPT 개발사 오픈AI 이사회 멤버였던 헬렌 토너가 15일(현지시간) 캐나다 밴쿠버에서 열린 TED 콘퍼런스에서 이같이 밝혔다고 블룸버그통신이 보도했다.

그의 발언은 기업이 AI 분야에서 일정 수준 영향력을 갖추게 되면 자사가 제공하는 AI 기술이 대중과 사회에 미칠 영향을 파악하고 그에 따른 책임감을 가져야 한다는 의미로 해석된다.

토너는 AI를 더 잘 관리할 수 있는 방법에 대해 “기술 회사들은 비행기 추락에 대응하는 '사고 보고 메커니즘'과 유사한 메커니즘을 설정할 수 있다”며 “이를 통해 기업은 AI 기반 사이버 공격과 같은 상황에서 무엇이 잘못됐는지에 대한 데이터를 수집할 수 있다”고 설명했다.

이어 “나는 약 8년 동안 이러한 AI 정책 및 거버넌스 문제를 연구해 왔다”며 “그 과정에서 정부가 이 기술을 관리하기 위해 어떻게 노력하고 있는지 자세히 살펴볼 수 있었고 업계 내부에서도 한두 사례를 봤다”고 말했다.

토너는 지난해 말 오픈AI 이사회 사임 후 처음으로 공개석상에 모습을 드러냈다. 토너는 지난해 11월 샘 올트먼 오픈AI 최고경영자(CEO)를 오픈AI에서 해임한 이사회 일원이었다.

그녀는 당시 올트먼을 해임한 것에 대해 “올트먼 해임은 AI 시스템이 책임감 있게 구축되도록 보장하는 오픈AI 이사회 의무와 일치한다”며 “그를 해임함으로써 오픈AI가 강화되고 임무를 더 잘 수행할 수 있을 것이라고 믿었다”고 주장했다.

그러나 오픈AI 직원 90%가 그의 해임에 반대, 올트먼은 해임 5일 만에 오픈AI에 복귀했다. 이후 오픈AI는 이사진 전면 교체를 밝혔고 토너 역시 오픈AI 이사회에서 사임했다.


현대인 기자 modernman@etnews.com

AI

브랜드 뉴스룸