올트먼 오픈AI CEO “AGI 위험 예방에 지침서 없다”

Photo Image
샘 올트먼 오픈AI CEO. [사진= 오픈AI 제공]

샘 올트먼 오픈AI 최고경영자(CEO)와 그렉 브록만 사장이 인공지능(AI) 안전·윤리 담당 부서 '슈퍼얼라인먼트' 팀 해체 등 논란에 반박했다.

19일 이들은 X를 통해 “오픈AI는 일반인공지능(AGI) 위험성과 기회에 대한 인식을 높여 세계가 AGI에 대비할 수 있도록 했다”면서 “딥러닝의 확장 가능성을 입증하고 그 영향력을 분석했으며, AGI 국제 규제를 최초 제안하고 AI 시스템의 치명적 위험을 평가하는 과학을 개척했다”고 밝혔다.

그러면서 “오픈AI는 점점 더 능력 있는 시스템의 안전한 배포를 위한 기초를 마련해왔다”며 “GPT-4를 안전하게 출시하기 위해 많은 작업을 수행했고, 배포 과정에서 얻은 교훈을 통해 모델 행동과 남용 모니터링을 지속 개선해왔다”고 덧붙였다.

이들은 슈퍼얼라인먼트 방식이 AGI 위험을 예방할 수 있다는 주장에 반박했다. 올트먼과 브록만은 “AGI로 가는 길에 대한 입증된 블레이북(지침서)는 아직 없다”면서 “경험적인 이해가 나아갈 방향을 제시하는 데 도움이 될 수 있다고 생각한다. 오픈AI는 긍정적인 측면을 제공하는 동시에 심각한 위험을 완화하기 위해 노력하고 있다”고 거듭 강조했다.

이번 성명은 오픈AI가 AGI를 사전 통제하기 위해 출범한 슈퍼얼라인먼트 팀을 전격 해체한 직후 발표됐다.

슈퍼얼라인먼트는 초지능 AI가 인간이 원하는 대로 행동하게 만드는 기술이다. 인간 능력을 넘어 스스로 판단하고 행동하는 AGI가 등장하더라도 사람에게 해를 끼치지 않고, 유익하게 사용되도록 조절하는 방법을 연구하는 것이 목표다.

해당 팀은 일리야 수츠케버가 이끌었지만, 컴퓨팅 자원 배분 문제로 사내 갈등이 폭증한 바 있다. 슈퍼얼라인먼트 팀이 그래픽처리장치(GPU) 등 컴퓨팅 자원 20%을 배분 받으면서 AI 개발 속도를 지연했다는 목소리가 나왔다.

해당 팀원들은 줄줄이 회사를 떠났다. 슈츠케버 외에 레오폴드 아셴브레너와 파벨 이즈마일로프가 회사 기밀 유출로 해고됐고, 윌리엄 손더스는 지난 2월 퇴사했다. 또 AI 정책 및 거버넌스 연구원인 컬렌 오키프와 다니엘 코코타일로도 회사를 떠난 것으로 추정된다.


류태웅 기자 bigheroryu@etnews.com

AI

브랜드 뉴스룸