SK쉴더스, LLM 취약점 진단 가이드 발간

Photo Image

SK쉴더스가 인공지능(AI) 보안 위협에 선제적으로 대응하기 위해 거대언어모델(LLM) 애플리케이션 취약점 진단 가이드를 발간했다.

앞서 SK쉴더스는 올해 주요 보안 위협 중 하나로 AI 기반 해킹 증가를 꼽은 바 있다. 특히 경량화 거대언어모델(sLLM)을 겨냥한 해킹과 LLM의 구조적 취약점을 악용한 데이터 조작 및 유출 공격이 심화할 것으로 내다봤다.

실제 오픈AI의 챗GPT와 구글의 제미나이와 같은 LLM 기반 애플리케이션은 데이터 및 사용자 입력 처리 방식의 독특한 특성으로 인해 기존 정보기술(IT) 시스템과 다른 보안 위협에 취약해 철저한 대비가 필요하다.


이번 가이드는 LLM 통합, 에이전트, 모델의 세 가지 핵심 영역의 보안 이슈를 다루고 있다. 특히 14개의 주요 취약점을 위험도에 따라 3단계로 분류해 점검 방법과 대응 방안을 제시하고 있다.

대표적인 보안 위협으론 '프롬프트 인젝션'과 '응용프로그램인터페이스(API) 매개 변수 변조', '검색증강생성(RAG) 데이터 오염' 등을 거론했다.

이러한 보안 위협을 예방하기 위해선 사용자와 시스템 명령어(프롬프트)를 분리하고, 데이터 흐름 점검 및 데이터 검증 절차를 강화해야 한다고 강조했다. 또 LLM의 코드 실행 유무에 따라 샌드박스를 활용해 악성코드 실행을 방지하고, RAG 활용 시 권한 없는 데이터 접근을 차단하기 위해 그룹별 권한 관리 체계를 구축할 것을 권고했다. 아울러 다층보안체계(MLS) 도입으로 데이터 오염 및 권한 상승 공격을 방지할 수 있다고 설명했다.

김병무 SK쉴더스 사이버보안부문장(부사장)은 “AI 기술은 편리함을 제공하지만 기술적 불안정으로 인해 보안 취약점이 악용될 경우 심각한 해킹 사고가 발생할 수 있다”며 “이번 가이드는 기업·기관이 직면할 수 있는 AI 보안 문제를 예방하는 동시에 신뢰할 수 있는 AI 시스템을 구축하는 데 실질적 도움을 줄 것으로 기대된다”고 밝혔다.


조재학 기자 2jh@etnews.com

브랜드 뉴스룸