"유용한 만큼 위험한 LLM·AI 서비스"…우리 조직에 필요한 보안 전략은?
[디지털데일리 김보민기자] 생성형 인공지능(AI) 시대가 빠르게 성장하고 있다. 기업들은 사내 업무 환경은 물론, 기업과 개인고객(B2B·B2C) 사업에서도 생성형 AI 기술을 더하기 위해 대규모 투자와 인력 투입을 아끼지 않는 추세다. 누구나 쉽고 편하게 자사 서비스를 누릴 수 있게 하겠다는 취지다.
그러나 생성형 AI가 가져온 편리함의 이면에는 신규 보안 위협에 대한 우려가 깔려 있다. 기업이 AI 서비스와 거대언어모델(LLM) 영역에서 보안 체계를 강화하지 않는 이상, 데이터 유출과 악성 공격으로부터 자유로워질 수 없다는 의미다. AI 도입 초기 단계부터 각 조직에 맞는 맞춤형 전략이 필요한 이유다.
이스트시큐리티는 10일 디지털데일리 <DD튜브> 플랫폼에서 열린 '생성형 AI 시대, 기업의 LLM 보안 위협에 대응하는 필수 보안 전략' 웨비나를 통해 최신 보안 위협을 알고 안전한 AI 도입을 위한 대안이 필요하다고 조언했다.
◆ 콘텐츠 왜곡부터 LLM 악용까지…보안 위협 '빨간불'
이규원 이스트시큐리티 솔루션컨설팅팀 팀장은 웨비나 발표를 통해 "비즈니스 성장과 맞물려 LLM과 AI 서비스를 이용하는 과정에서 보안 위협을 받는 사례가 발생하고 있다"며 "위협을 막을 취약점이 무엇이고, 어떻게 대응할지가 기업에 주요 고민거리로 자리를 잡았다"고 밝혔다.
이 팀장은 AI 및 LLM 사용이 급증하면서 세 가지 영역에서 위협이 거세지고 있다고 진단했다. 첫째로 언급한 위협은 '왜곡'이다. 챗GPT로 생성형 AI 서비스가 널리 사용되면서, 사실과 다른 정보를 내뱉는 환각현상(할루시네이션)에 대한 고민이 커지고 있는 시점이다.
이 팀장은 "LLM이 상상력을 발휘해 실제 없었던 일을 기정사실화해 답변하는 경우가 있다"며 "사실인지 거짓인지 판별이 어렵고, 사실과 정확성을 검증하는 절차를 거쳐야 해 시간도 소요된다"고 말했다.
두 번째로 언급한 위협은 LLM 악용이다. 생성형 AI 서비스를 도입하거나 개발하기 위해서는 기본 재료인 LLM을 활용하는 것이 필수적이라, 기업을 침투하기 위한 좋은 도구로도 악용되는 분위기다. 이 팀장은 "업무나 개인적인 목적으로 상용 GPT 서비스를 사용하는 것이 아니라, 피싱에 쓸 이메일 내용과 콘텐츠를 생산하는 데 악용되기도 한다"며 "악성 프로그램 개발 기법을 조사하거나 악성 감지를 우회하는 방법을 찾는 악질적인 목적도 포착되고 있다"고 사례를 소개했다.
세 번째로는 이러한 악성 서비스가 음성시장을 통해 판매되고 있다고 꼬집었다. 이 팀장은 "더 큰 문제는 서비스 주체 회사에서 지속적인 보안관리 필터링을 제공하더라도, 제약이 없는 비공개 LLM 챗봇 서비스의 경우 다크웹 등을 통해 판매가 되거나 홍보되고 있다"며 "악의적인 활동을 위한 챗GPT 서비스가 개발되고 해커 등에 판매된다는 의미"라고 부연했다.
이 밖에도 사용자 정보를 무단 활용하거나, 프롬프트를 통해 악의적 명령을 내리는 위협도 가해지고 있다. 취약점 CVE(Common Vulnerabilities and Exposures) 정보를 악용하는 위협 행위자들도 등장하고 있다. 이 팀장은 "CVE 정보를 활용해 공격이 가능한 AI 에이전트를 개발하기도 한다"고 진단했다.
◆ AI 위협, 철통보안으로 막아야…실시간 탐지·차단 필요
주요국들은 이러한 AI 보안 위협에 대응하기 위한 작업에 나선 상태다. 이 팀장은 "미국의 경우, 승인되지 않은 클라우드 서비스 저장소에 하원과 관련된 데이터가 유출될 가능성이 존재한다고 판단해 윈도 단말기에서 코파일럿 LLM 서비스를 제거하는 조치를 내렸다"며 "행정기관에서 사용하는 AI 서비스에 대해서는 안전장치를 마련하도록 서비스 업체들에 촉구하는 상황"이라고 분위기를 전했다.
국내에서도 AI 서비스는 물론 LLM을 대상으로 위협을 가하는 사건 사고가 이어지고 있다. 이 팀장은 "상용 챗GPT보다는 내부에서 자체 업무용으로 사용하는 LLM 서비스를 별도로 구축하고 위험을 줄일 보안 솔루션을 추가하는 데 초점이 맞춰지고 있다"고 말했다.
이날 이스트시큐리티는 조직이 고려해야 할 대응 전략으로 ▲LLM 서비스로 인한 개인정보 및 사내 기밀정보 유출 가능성 인지 ▲LLM 서비스 내 보안 기능을 넘어 고객사 자체적 보안 및 감사 관리 ▲개인정보보호위원회 등 LLM 관련 개인정보보호 취약점 개선 권고사항 준수 ▲공개 데이터 학습 시 중요 개인 식별정보 제거 및 개인정보 침해 최소화 노력 ▲오픈LLM을 활용한 민감정보 유출 및 공격을 큰 위협으로 인식 ▲실시간 모니터링, 접근(액세스) 제어 등 AI 관련 보안 솔루션 검토 등 여섯 가지를 제시했다.
이 팀장은 이스트시큐리티의 AI 보안 제품군 '알약 xLLM'을 대안으로 제시했다. 그는 "내부에서 업무를 수행해 생산된 정보가 외부 서비스로 전달되기 전 원천적으로 보안 조치를 취할 수 있도록 한 LLM 보안 솔루션"이라며 "LLM을 사용하는 과정에서 경고 알림, 대응 내역 수집, 보고 및 위협 대응 등을 종합 제공할 수 있다"고 설명했다.
알약 xLLM을 관통하는 키워드는 '실시간'이다. 수시로 위협을 탐지하고 차단하는 데 특화돼 있기 때문이다. 아울러 개인정보 탐지 및 익명화, 악성 콘텐츠 및 유해 표현 탐지, 자격증명 탐지에도 특화돼 있다. 기업은 AI 활용에 대한 정보보안 거버넌스를 달성하고 가시성을 확보할 수 있다.
이 팀장은 웨비나 말미 기자와의 질의응답에서 "알약 xLLM은 기업이 AI 기술을 안전하게 도입하고 활용할 수 있는 기반을 제공한다"며 "생산성 향상은 물론 데이터와 자산 보호라는 두 가지 목표를 동시에 달성할 수 있다"고 말했다.
한편 알약 xLLM은 API 서버 방식을 통해 외부 AI 서비스와 연동이 가능하다. 현재 프리뷰 단계에 있고 정식 출시를 앞두고 있다.
K-디지털 트윈 서비스 수출모델 무엇?…디플정위, 결과보고회 개최
2024-12-27 23:34:34태국·사우디아라비아, 'K-OTT' 이용 의향 70~80% 이상
2024-12-27 21:14:53유상임 장관 "권한대행 탄핵은 내각 무력화"…야당의원과 '설전'까지
2024-12-27 20:54:47[오징어게임2 이펙트] "물 들어올 때 노 젓자"…LGU+, '핑크가드 팝업' 오픈
2024-12-27 17:40:20