[챗GPT보안] "생성AI로 새로운 보이스피싱 생길 수 있어…기업 보안 우려도"
[디지털데일리 서정윤 기자] 챗GPT로 대표되는 생성AI가 일상 속에 자연스럽게 들어오며, 보안 위협도 커지고 있다. AI 전문가들은 생성AI를 통해 새로운 종류의 보이스피싱이나 해킹이 증가할 수 있다며 우려를 보냈다. 기업들은 챗GPT를 통해 고객정보나 대외비 정보가 노출될 수 있다며 사용을 고심하고 있다.
이상근 고려대 교수는 13일 오후 서울 송파구에서 진행된 '챗GPT 등 생성형 AI 보안 위협 대응 방안' 토론회에서 "챗GPT는 '빙'이라는 마이크로소프트의 검색엔진을 활용해 최신 이슈를 검색해주기도 한다"며 "지난 4월에 관련 내용이 패치된 이후 챗GPT가 보안 취약점을 알려주고 공격 원리와 공격하는 코드까지 찾아줬다"고 설명했다.
그러면서 "챗GPT를 사용하면 사이버보안을 강화할 수도 있지만 동시에 해킹에 악용될 가능성도 높다"며 "정부·군·민간이 협력해 대응할 수 있도록 생태계 구축이 필요하다"고 밝혔다.
보안 전문가들도 챗GPT를 활용해 새로운 종류의 사이버위협들이 등장할 수 있다고 지적했다. 곽규복 LG CNS 보안사업담당 위원은 "다크웹을 모니터링하다 보면 해커들이 챗GPT를 활용해 해킹하는 방법을 공유하는 걸 볼 수 있었다"며 "초보 해커들의 진입장벽이 대단히 낮아졌다"고 지적했다.
윤두식 지란지교시큐리티 대표는 "챗GPT 등장 이후 스팸메일과 피싱메일이 확실히 많이 증가했다"며 "배송 메일을 사칭하는 등 일반인들이 속기 쉬운 경우가 많아 관련한 교육이 필요하다"고 지적했다.
윤 대표는 앞으로 생성AI를 활용한 보이스피싱이 증가할 거라고도 전망했다. 윤 대표는 "3초 정도의 목소리 녹음본만 있다면 누군가의 목소리를 똑같이 흉내낼 수 있다"며 "자녀나 부모에게 전화해 실제 가족인 것처럼 속인다면 대국민 피해가 어마어마할 것으로 보인다"고 강조했다. 그러면서 "과학기술정보통신부는 물론 경찰, 학계, 통신사 모두가 협업해 대응방안을 만들어야 한다"고 주장했다.
이날 토론회에서는 챗GPT를 기업 업무에 활용할 경우 고객정보나 대외비가 AI 학습에 쓰일 수 있다는 우려도 나왔다. 각 기업은 챗GPT를 제한적인 목적으로만 사용하는 등 다양한 방법으로 대응하고 있었다.
곽규복 위원은 "LG CNS에서는 챗GPT를 쓰지 못하게 막거나 사용하더라도 폐쇄된 환경에서만 쓸 수 있게끔 하고 있다"며 "고객의 개인정보가 혹시라도 들어가 또 다른 학습 데이터로 활용돼 다른데서 유출될 위협은 없는지 철저하게 모니터링하고 있다"고 말했다.
KT는 지난 4월 챗GPT 사용 10계명을 만들고 직원들에게 배포했다. 박환석 KT 정보보안단IT부문 상무보는 "기업정보나 개인정보가 올라갈 수 있기 때문에 사내에서 개인적인 용도로 챗GPT를 사용할 수 없으며, 기업의 도메인을 사용하는 것 등을 금지하고 있다"고 말했다.
박 상무보는 "KT가 사용하는 소스코드가 챗GPT에 올라갔을 때 오히려 그것이 KT를 공격하는 도구가 될 수 있다"고 덧붙였다.
과기정통부는 연구반을 통해 챗GPT로 인해 발생할 수 있는 사이버위협을 연구하고 조만간 대응책을 마련할 예정이다. 정창림 과기정통부 정보보호네트워크정책관은 "하나하나 잘 고려하며 가이드라인이나 공격에 대한 대응체계 강화, R&D 정책, 인력 양성, 법제도 개선 등을 종합적으로 검토하겠다"고 말했다.
임종훈 대표, 한미사이언스 주식 105만주 매각… 상속세 납부 목적, 이면에 불가피한 속사정?
2024-11-15 18:04:20최윤범 고려아연 회장 “이사회 의장직 내려놓겠다”… 삼성∙보잉 사례 참고했나
2024-11-15 17:19:23[DD퇴근길] 네이버 밴드, 美 MAU 600만 돌파…IT서비스업계, 연말인사 포인트는
2024-11-15 16:53:04비트코인이 불지른 가상화폐 ‘불장’… 금융당국, '이상거래' 모니터링 강화
2024-11-15 16:20:20