글로벌 상호인정이 가능한 범위에서 기업에 인공지능(AI) 기본법상 고영향 AI 안전성 확보 의무를 부여한다. 경쟁사 등 부당한 민원이나 신고에 따른 사실조사는 이뤄지지 않도록 원천 봉쇄한다.
과학기술정보통신부와 AI기본법 하위법령 정비단 시행령 초안에 이같은 내용이 포함된 것으로 확인됐다. 글로벌 상호인정에 근거한 법 적용으로 국내 기업과 해외 기업 간 역차별 가능성을 최소화하고, AI기본법에 명시된 사실조사에 대한 사업자들이 가진 우려를 해소하기 위한 결정이다.
과기정통부는 지난 11일부터 업계에 AI기본법상 투명성과 안전성, 사실조사 조문 관련 내용을 구체화한 시행령 초안에 대해 의견수렴을 하고 있다. <본지 4월 15일자 9면 참조>

시행령 초안은 AI기본법 제31조에 규정된 고영향·생성형 AI 제품이나 서비스를 제공할 때 기업이 AI 투명성 확보를 위한 설명을 계약서나 이용약관·사용설명서·디바이스 등에 기재하는 방식으로 사전 고지하게 했다. 생성형 AI 결과물은 사람이나 기계가 판독할 수 있는 선에서, 딥페이크 결과물은 사용자가 명확하게 인식하도록 표시해야 한다.
AI 안전성 확보 의무를 준수해야 하는 AI 시스템은 학습에 사용된 누적 연산량이 10의 26승 플롭스(flops) 이상인 AI 시스템 중에 기술 발전 수준과 위험도를 고려, 과기정통부 장관이 고시한 기준에 해당되는 경우로 제한할 계획이다.
특히 누적 연산량 계산, 위험 식별 등 안전성 의무 준수 대상 판단은 글로벌 상호인정 확보가 가능한 선에서 규제한다. 10의 26승 플롭스 기준 자체가 AI기업에 투명성·안전성 의무 부과 여부를 정하는 미국 정부 행정명령에 근거한 것인 만큼 AI안전연구소 글로벌 네트워크 등을 통해 긴밀히 협조할 것으로 예상된다.
사실조사 미실시 요건도 명확히 한다. 과기정통부가 검토한 결과, 이해관계나 부적절한 목적에 따른 무분별한 민원이나 신고라고 판단되면 조사를 실시하지 않는다는 방침이다.
이외에도 AI 제품, AI 서비스에 대한 개념과 업계·학계에서 법상 개념이 모호하다고 지적된 AI개발사업자와 이용사업자, AI 이용자사업자와 이용자 등에 대한 정의를 구체화한 것으로 알려졌다.
과기정통부는 대기업, 스타트업과 AI 관련 협·단체, 학계, 시민단체 등 그룹별로 최소 두 차례 이상 AI기본법 하위법령에 대한 의견을 수렴할 예정이다. 2차 회의에서 고영향 AI 등 다른 쟁점에 대한 의견수렴에 나설 것으로 예상된다.
업계 관계자는 “다른 조항까지 검토해야 정확히 판단할 수 있겠지만 AI 기술·서비스 투명성이나 안전성 확보 관련 납득 가능한 수준에서 시행령이 설정된 것으로 보인다”면서 “확정안은 규제가 아닌 AI산업 진흥이라는 목적성이 뚜렷해야 하고, 법률 시행에 따른 국내외 기업 간 역차별을 금지하는 조문이 반드시 포함돼야 한다”고 주문했다.
박종진 기자 truth@etnews.com