맨디언트, “견고한 거버넌스로 생성형 AI 보안 강화해야”

Photo Image
ⓒ게티이미지뱅크

기업이 생성형 인공지능(AI) 도입으로 인한 내부정보 유출 등 사이버 보안 문제에 관심을 갖지만, 정작 AI 거버넌스가 취약하다거나 데이터를 부실하게 관리하는 등 잠재적인 보안 실수를 저지르고 있다는 지적이 나온다.

구글 클라우드 자회사인 글로벌 사이버 보안 기업 맨디언트는 최근 자사 블로그를 통해 생성형 AI 보안에서 기업들이 자주 범하는 실수를 지적하고 개선 방안을 제시했다.

맨디언트는 가장 대표적인 실수로 견고한 생성형 AI 거버넌스를 구축하지 않는 것을 꼽았다. 거버넌스가 부실할 경우 일반 생성형 AI를 업무용으로 그대로 사용해 보안과 프라이버시 리스크를 높인다. 반면 지나치게 엄격한 거버넌스를 적용하면 직원들이 우회로로 '쉐도우 AI'를 활용하기도 한다.

맨디언트는 두 사례 모두 형태에만 집중하면서 관리가 소홀하고 단순화된 거버넌스로 접근한 결과라며 탄탄한 생성형 AI 거버넌스 구조를 설계하라고 조언했다. 그 방법 중 하나로 이해관계자의 피드백을 바탕으로 반복적이고 유연하며 명확한 커뮤니케이션을 갖춘 접근법을 권장했다.

부실한 데이터 관리도 도마 위에 올렸다. 데이터 수집부터 정제, 라벨링까지 전 과정에 드는 노력과 반복 작업의 중요성을 등한시해 발생하는 문제다. 이는 AI 개발을 저해하는 등 다양한 부정적 결과를 불러올 수 있다. 맨디언트는 이 문제 역시 데이터 수집·정제·표준화를 위한 데이터 거버넌스 관행을 도입하는 게 해결책이라고 밝혔다.

기업은 또 내부용 챗봇이나 거대언어모델(LLM) 기반 기술에 과도한 접근 권한을 부여하는 우를 범하기도 한다. 이는 개인 정보나 금융 데이터 등 민감한 정보에 대한 허가되지 않은 유출이나 침해를 유발할 수 있다.

맨디언트는 엄격한 역할 기반 접근 제어(RBAC·Role-based Access Control)를 적용하고 최소 권한 원칙을 준수할 것을 권고했다. 또 AI 시스템은 해당 업무에 필요한 데이터와 리소스에만 접근하도록 설정하고, 정기적으로 권한을 점검·업데이트해야 한다고 강조했다.

상속된 취약점(Inherited vulnerabilityes)도 예의주시해야 한다. 다수 AI 모델이 상호 간, 또는 다른 시스템과 연결된 상황에서 하나의 모델 취약점이 전체 환경을 위협할 위험이 크다는 의미다. AI 모델은 복잡하고 불투명해 기반 모델로부터 물려받은 취약점을 식별하기 어려울 수 있다. 제3자가 개발했거나 파인튜닝(미세조정)한 AI 모델을 꼼꼼히 점검하지 않으면, 기업은 모르는 사이에 보안 위협에 노출될 우려가 있다. 제3자나 파인튜닝한 AI 모델을 도입하기 전 철저한 사전 검증이 필요한 이유다.

아울러 기업은 퍼블릭 생성형 AI만 사이버 위협을 내재하고 있다는 인식을 갖기 쉽다. 맨디언트는 하지만 내부자 위협, 사고로 인한 데이터 노출, 내부 네트워크 취약점 등 내부용 AI도 위험을 내포하고 있는 만큼, 퍼블릭과 내부용에 관계없이 모든 AI 툴에 일관성 있고 엄격한 보안 조치를 적용해야 한다고 강조했다.


조재학 기자 2jh@etnews.com


브랜드 뉴스룸