AI

아첨꾼 된 챗GPT…오픈AI, AI 모델 안전성 평가 공개

이나연 기자
오픈AI 챗GPT [ⓒ 연합뉴스]
오픈AI 챗GPT [ⓒ 연합뉴스]

[디지털데일리 이나연기자] 챗GPT 개발사 오픈AI가 자사 AI 모델이 유해 콘텐츠 생성, 탈옥(안전 장치를 우회해 제한된 콘텐츠 생성), 환각 등의 다양한 테스트에서 어떤 점수를 받았는지를 보여준다.

오픈AI는 14일(현지시간) 자사 AI 모델에 대한 안전성 평가 결과를 발표하는 '안전성 평가 허브'(Safety Evaluations Hub)라는 웹페이지를 공개한다고 밝혔다.

회사 측은 "관련 지표에서 중요한 업데이트가 있을 때마다 갱신하겠다"며 "안전성 평가 결과 일부를 공개해 오픈AI 시스템의 안전성 성과를 더 쉽게 이해할 수 있을 것"이라고 전했다.

오픈AI가 AI 모델 투명성을 강화하는 것은 최근 자사 일부 모델을 둘러싼 논란 때문으로 풀이된다.

정보기술(IT) 전문 매체 테크크런치 등 외신에 따르면 지난 몇 달간 오픈AI는 일부 대표 모델에 대해 안전성 테스트를 급하게 진행하고, 다른 모델에 대해 기술 보고서를 공개하지 않았다. 또 지난 3월 말 챗GPT 기본 모델인 'GPT-4o'의 업데이트 이후 사용자 불만이 커지면서 최근 업데이트를 전면 취소하기도 했다.

GPT-4o가 업데이트 되면서 챗GPT를 이용할 때 문맥이나 상황과 맞지 않는 반응이 나올 때가 있었기 때문이다. 일례로, 일부 사용자 사이에서는 동물을 죽였다거나 금주 약속을 깼다는 얘기에도 "훌륭하다"는 '생뚱맞은 칭찬'을 받았다는 경험담이 나왔다.

샘 올트먼 오픈AI 최고경영자(CEO)는 지난달 28일 엑스(X·옛 트위터)를 통해 "최근 몇 번의 GPT-4o 업데이트 이후 AI 성격이 너무 아첨을 하고 성가시게 바뀌었다"며 "좋은 부분도 있지만, 최대한 빨리 수정 작업을 진행하고 있다"고 전한 바 있다.

이나연 기자
lny@ddaily.co.kr
기자의 전체기사 보기 기자의 전체기사 보기
디지털데일리가 직접 편집한 뉴스 채널