아첨꾼 된 챗GPT…오픈AI, AI 모델 안전성 평가 공개
[디지털데일리 이나연기자] 챗GPT 개발사 오픈AI가 자사 AI 모델이 유해 콘텐츠 생성, 탈옥(안전 장치를 우회해 제한된 콘텐츠 생성), 환각 등의 다양한 테스트에서 어떤 점수를 받았는지를 보여준다.
오픈AI는 14일(현지시간) 자사 AI 모델에 대한 안전성 평가 결과를 발표하는 '안전성 평가 허브'(Safety Evaluations Hub)라는 웹페이지를 공개한다고 밝혔다.
회사 측은 "관련 지표에서 중요한 업데이트가 있을 때마다 갱신하겠다"며 "안전성 평가 결과 일부를 공개해 오픈AI 시스템의 안전성 성과를 더 쉽게 이해할 수 있을 것"이라고 전했다.
오픈AI가 AI 모델 투명성을 강화하는 것은 최근 자사 일부 모델을 둘러싼 논란 때문으로 풀이된다.
정보기술(IT) 전문 매체 테크크런치 등 외신에 따르면 지난 몇 달간 오픈AI는 일부 대표 모델에 대해 안전성 테스트를 급하게 진행하고, 다른 모델에 대해 기술 보고서를 공개하지 않았다. 또 지난 3월 말 챗GPT 기본 모델인 'GPT-4o'의 업데이트 이후 사용자 불만이 커지면서 최근 업데이트를 전면 취소하기도 했다.
GPT-4o가 업데이트 되면서 챗GPT를 이용할 때 문맥이나 상황과 맞지 않는 반응이 나올 때가 있었기 때문이다. 일례로, 일부 사용자 사이에서는 동물을 죽였다거나 금주 약속을 깼다는 얘기에도 "훌륭하다"는 '생뚱맞은 칭찬'을 받았다는 경험담이 나왔다.
샘 올트먼 오픈AI 최고경영자(CEO)는 지난달 28일 엑스(X·옛 트위터)를 통해 "최근 몇 번의 GPT-4o 업데이트 이후 AI 성격이 너무 아첨을 하고 성가시게 바뀌었다"며 "좋은 부분도 있지만, 최대한 빨리 수정 작업을 진행하고 있다"고 전한 바 있다.
이해진 네이버, 첫 해외 일정으로 실리콘밸리行…글로벌 AI 투자 본격 시동
2025-05-16 18:43:15"경찰도 전기자전거 구독"…스왑, 서울경찰청 시범 공급
2025-05-16 18:42:14알뜰폰 증가률 1%대 회복…1만원 5G 요금제 효과 가시화?
2025-05-16 17:40:35NOL 인터파크투어, 항공권 취소·환불 수수료 무료 프로모션 진행
2025-05-16 17:32:09코인베이스, 해킹 사고로 주가 급락했지만… 비트코인 등 암호화폐 시세엔 영향없어
2025-05-16 17:26:13