오픈AI, '군사 및 전쟁' 목적 사용 정책 완화

Photo Image

챗GPT를 개발한 오픈AI가 자사 인공지능(AI) 이용 정책에서 군사용나 전쟁 목적으로 기술 사용을 금지하는 내용을 삭제했다.

인터셉, 엔가젯 등 외신에 따르면 오픈AI가 최근 자사 홈페이지에 게시된 이용 정책에서 '군사와 전쟁' 등에 자사 기술 사용을 금지한다는 명시적 문장을 삭제한 것으로 나타났다.

단, 거대언어모델(LLM)과 같은 오픈AI 기술을 사용해 자신이나 타인에게 해를 끼치는 행위를 하지 말라는 내용은 유지했다.

오픈AI는 GPT를 세계적으로 이용하는 상황이 됐기 때문에 이용 정책이나 원칙을 더욱 이해하기 쉽고 보편적으로 다가갈 수 있도록 수정하는 과정이라고 설명했다. 기억하기 쉽고 적용하기 쉬운 일련의 보편적인 원칙을 만드는 게 목표라는 것이다.

그러나 자신이나 타인에게 해를 끼치는 행위를 하지 말라는 부분에 군사적 사용을 금지하는 것도 포함하는지에 대해서는 정확하게 입장을 밝히지 않았다.

일각에선 이러한 정책 수정이 오픈AI가 국방부 등과 같은 정부 기관과 합법적으로 협력할 수 있는 길을 열어둔 것이라고 의미를 부여했다. 현재 오픈AI가 제공하는 기술은 직접적으로 군사용으로 사용되지 않지만 코드 작성, 조달 업무와 같은 주변 지원 작업은 제공이 가능하다.

일부 해외 연구진은 오픈AI의 새로운 정책이 기술 사용에서의 안전보다 합법성을 강조하는 것으로 비춰진다고 해석했다. AI를 활용한 군사적 목적의 사용을 금지한다는 점을 명확히 밝힌 기존 문장과 달리, 이번 정책 수정은 유연성과 법 준수를 강조한다는 점에서 뚜렷한 차이가 있다는 분석이다.

오픈AI 측은 “우리 도구가 사람에게 해를 끼치거나 무기를 개발하거나 통신 감시를 위해 사용되거나 다른 사람에게 부상을 입히고 재산을 파괴하는데 사용되는 것을 허용하지 않는다”며 “그러나 국가 안보 차원에서 우리의 중요한 인프라와 산업을 보호하기 위한 새로운 사이버 보안 도구 개발을 위해 이미 미 국방부 산하 고등연구계획국(DARPA)과 협력하고 있다”고 밝혔다.


김명희 기자 noprint@etnews.com

AI