[디지털데일리 양원모 기자] 전 세계 인공지능(AI) 전문가, 정보 기술(IT) 업계 경영자들이 "AI가 인류에 심각한 위험성을 미칠 수 있다"며최첨단 AI 시스템의 개발을 일시 중단하자는 내용의 공개 서한을 내놨다.
지난 28일(현지 시각) 영국 BBC, 로이터통신에 따르면 미국 비영리 단체 '삶의 미래 연구소'(FLI)는 이날 유명 인사 1000여명의 서명을 받아 이 같은 내용이 담긴 서한을 공개했다.
서한에는 일론 머스크 테슬라 최고경영자(CEO)를 비롯해 ▲애플 공동 창업자 스티브 워즈니악 ▲스테빌리티.AI 최고 CEO 에마드 모스타크 ▲에번 샤프 핀터레스트 CEO ▲베스트셀러 작가인 유발 하라리 ▲스튜어트 러셀 버클리 캘리포니아대 컴퓨터과학과 교수 ▲'딥러닝의 창시자' 요슈아 벤지오 몬트리올대 교수 ▲알파벳 산하 AI 기업 딥마인드 연구진 등이 이름을 올렸다.
이들은 "독립적인 전문가들에 의해 공동의 안전 협약이 개발, 시행되고 감사를 받을 때까지 오픈AI의 최신 거대언어모델(LLM) 'GPT-4'를 능가하는 AI 시스템의 개발을 6개월간 멈춰야 한다"며 "강력한 AI 시스템은 그 효과가 긍정적이고 그 위험을 관리할 수 있다는 확신이 있을 때만 개발돼야 한다"고 했다.
그러면서 인간과 경쟁하는 AI 시스템이 경제적·정치적 혼란을 통해 사회와 문명에 미칠 수 있는 잠재적 위험에 대해 구체적으로 설명하고, 개발자들에게 규제 당국자들과 협력할 것을 촉구했다.
FLI에 따르면 오픈AI의 샘 올트먼 CEO는 이 서한에 서명하지 않았다. 다만 올트먼 CEO는 최근 인터뷰에서 "AI 개발에서 중요한 시점에 개발 속도를 줄이는 것이 중요할 것으로 보인다"고 밝힌 바 있다.