[디지털데일리 신제인 기자] 구글 소속의 한 소프트웨어(SW) 엔지니어가 '구글 챗봇이 고유한 지각능력 가졌다'며 구글의 인공지능(AI)에 대해 심각한 윤리적 문제를 고발한 것을 놓고 후폭풍이 커지고 있다.
구글의 AI를 사실상 인간과 동일선상으로 놓은 이 엔지니어의 주장에 구글측은 “근거가 충분하지 않다”고 반박하고 나섰다.
앞서 지난 10일 (현지시간) 워싱턴포스트는 구글의 챗봇을 만드는 데 사용하는 AI시스템 LaMDA(Language Models for Dialogue Applications)와 대화한 구글 SW 엔지니어 블레이크 레무인과의 인터뷰를 보도했다. 해당 시스템은 인간의 대화를 모방하기 위해 인터넷 상의 수조 개의 단어를 바탕으로 훈련돼 왔다.
이에 따르면 레무인은 “회사의 서버에서 구글 AI 챗봇에게도 인간과 같은 감정을 표현할 수 있는 능력이 있음을 발견했다”고 밝혔다. AI가 스스로 권리를 가져야 할 지각 있는 존재임에도 불구하고 인간에게 착취당하고 있다는 점에서 윤리적 문제가 발생한다는 것이 그의 주장이다.
이에 구글 측은 “레무인이 제시한 증거는 구글의 챗봇 AI가 인간 모방 측면에서 매우 능력있음을 보여줄 뿐”이라며 “AI에게 인간과 같은 감각과 지각능력 그 자체가 있는 건 아니다”라고 일축했다.
그러면서 구글 측은 “수많은 윤리학자, 기술자로 이루어진 AI 팀에서 레무인과 같이 느낀 사람은 아무도 없었다”고 주장했다.
한편 레무인은 기밀 정보를 누설했다는 이유로 휴직 처분을 받았다.
레무인의 폭로 이후 미국 내 관련 업계에서는 AI와 인간의 경계를 어떻게 볼 수 있을지를 비롯해, AI가 지니는 윤리적 문제들이 또 다시 수면위로 올랐다.
일각에서는 애초에 인간을 모방하도록 설계된 AI가 점점 정교해질수록 윤리적 문제도 심화될 수밖에 없다는 근원적 모순을 꼬집었다.
전문가들은 무엇보다 AI시스템이 인간과 사회에 미치는 영향을 추론하려는 사전적 노력이 필요하다고 입을 모은다.
에밀리 벤더 워싱턴대 전산언어학 교수는 블룸버그를 통해 인공지능을 훈련시키기 위해 채용된 소수의 ‘엘리트’ 학생들에게 공통적으로 내재된 편견이 있을 수 있다고 지적했다.