[챗GPT보안] "생성AI, 피싱에 악용되면 피해 규모 커질 것…정부 대응책 마련 중"
[디지털데일리 서정윤 기자] 생성AI 플랫폼인 챗GPT가 피싱 메일을 보내거나 악성코드를 배포하는 데 악용될 수 있다는 우려에 과학기술정보통신부와 관련 부처가 대책 마련에 나섰다.
김정희 한국인터넷진흥원(KISA) 실장은 13일 오후 서울 송파구에서 진행된 '챗GPT 등 생성형 인공지능(AI) 보안 위협 대응 방안' 토론회에서 "챗GPT는 실생활에서 AI와 공생할 수 있다는 걸 보여준 기술이기도 하지만 여러 한계와 악용의 우려가 있는 상황이기도 하다"며 "특히 사이버공격과 범죄에 악용될 수 있어 정부 차원에서 다양한 대응책을 마련하고 있다"고 밝혔다.
김 실장은 특히 챗GPT가 피싱과 악성코드에 악용될 수 있다고 우려했다. KISA에 따르면 사이버공격의 90% 이상이 피싱 메일로부터 시작된다. 국내 공공기관에서 발생한 사이버 공격을 분석했을 때 74% 이상이 피싱 메일 공격 형태를 띠고 있기도 했다. 김 실장은 챗GPT를 활용하면 보다 정교한 피싱 메일을 만들어낼 수 있다고 지적했다.
김 실장은 "AI가 작성한 메일과 사람이 작성한 메일에 대한 식별 능력을 구분하는 등의 기술이 필요할 수 있어 관련 부분에 대한 기술적 보완책이 마련돼야 한다"며 "피싱 메일과 관련한 공격 속도가 기존과 상당히 다른 양상으로 번져질 것이기 때문에 기존과 다른 조치를 어떻게 신속하게 진행할 수 있을지도 함께 고려해야 한다"고 강조했다.
챗GPT에서 경로를 우회하는 방식으로 악성코드를 만들어낼 수 있다는 지적도 있었다. 김 실장은 "예전에는 고도의 기술이 필요하다고 생각되던 해킹 기술의 진입장벽이 낮아졌다"며 "이로 인한 피해규모도 기하급수적으로 늘어날 것으로 생각하고 있다"고 설명했다.
김 실장은 "생성AI가 제작한 악성코드에 대한 탐지, 분석, 정보 공유 강화 등에 대한 고민이 필요하다"며 "별도의 체계가 아니라 수십년간 국가적으로 운영해왔던 침해사고 대응 체계와 어떻게 유기적으로 함께 갈 수 있을지가 포인트가 돼 선제적인 조치들이 마련돼야 할 것"이라고 말했다.
다만 생성형 AI는 방어 입장에서의 보안 업계에 새로운 기회를 가져올 거라는 주장도 나왔다. 김 실장은 "실제 AI 기술을 악용해 발생할 수 있는 공격과 AI 기술을 활용해 방어할 수 있는 기술 사이의 공방전이 끊임없이 계속될 것으로 보인다"며 "이런 기술 개발들은 보안 생태계에서의 게임체인저 역할을 하며 다양한 변화를 주도하고 시장 규모를 키울 수 있다"고 강조했다.
임종훈 대표, 한미사이언스 주식 105만주 매각… 상속세 납부 목적, 이면에 불가피한 속사정?
2024-11-15 18:04:20최윤범 고려아연 회장 “이사회 의장직 내려놓겠다”… 삼성∙보잉 사례 참고했나
2024-11-15 17:19:23[DD퇴근길] 네이버 밴드, 美 MAU 600만 돌파…IT서비스업계, 연말인사 포인트는
2024-11-15 16:53:04비트코인이 불지른 가상화폐 ‘불장’… 금융당국, '이상거래' 모니터링 강화
2024-11-15 16:20:20