김소월의 시(詩) ‘진달래꽃’의 마지막 구절이다. 시 전체에 흐르는 감상은 한(恨)의 역설(逆說)이다. 절대 울지 않을 것이라고 다짐했지만 막상 떠난다면 폭풍 오열하게될 모습이 눈에 선하다.
‘가시는 걸음 걸음 놓인 그 꽃을 사뿐히 즈려밟고 가시옵소서’
‘내가 뿌려준 꽃을 밟으면서까지 매정하게 꼭 나를 떠나야 하겠느냐’는 원망과 미련이 뒤섞였다. 직설 화법대신 역설적인 말과 행위로 본심을 더욱 절실하게 전한다.
‘운수좋은 날’처럼 한국 문학에선 이처럼 역설적 표현들이 많다. 사람들이 가끔씩 혼동을 하는 것이 문제지만 일상 대화에서도 ‘역설’은 그 자체로 훌륭한 표현 기법이다.
시 ‘진달래꽃’을 AI 번역기 프로그램에 돌려 영어로 번역해 보았다. 예상했던대로 직설적 영어 문장의 나열로 전환된다. 시어(詩語)가 가지는 과도한 함축때문에 문장이 매끄럽게 완성되지 않았다.
그래서 문장을 조금 보정해 번역했다.
물론 시의 의미를 아는 사람은 영문 번역 텍스트도 그런 감성으로 인식하겠지만 처음 접하는 외국인들이 ‘역설’의 미학은 커녕 ‘쏘 쿨’(So Cool)이라며 엉뚱하게 반응할지 모른다.‘눈물을 흘리지 않겠다’는 역설의 미학이 결국 증발해버린다.
일상생활에서 나도 모르게 쓰고 있는 역설적 표현들을 AI 번역기로 돌리면 과연 말하는 사람의 함의가 제대로 전달될 수 있을까.
최근 콜센터 직원들중 일부가 AI기반의 기계로 대체되고, 비쥬얼이 갖춰진 인공인간이 대신 은행 객장에서 손님을 맞이하기 시작했다. 이는 현재의 자연어 ‘음성 인식’ 기술을 기업들이 어느정도 신뢰하기 때문이다. 그렇다 하더라도 여전히 근본적인 의문이 남는다. .
◆‘음성 인식’이 아니라 ‘음성 이해’의 영역은 본질적으로 다르다
결국 이 단계에서 음성의 ‘인식’(Recognition)과 ‘해석’(Interpretation)이 문제에 직면하게된다. 또한 음성 인증(Verification)의 문제와도 엄밀히 구분된다.
그동안 음성 인식은 당연히 ‘해석’을 포함하는 것으로 인식됐으나, 실제로는 ‘역설’적 표현의 사례에서 보듯 이는 완전히 다른 영역으로 보는 것이다. 음성을 AI가 100% 완벽하게 인식해 이를 텍스트로 전환할 수 있다고 하더라도 결국 정확한 말의 진의(眞意)까지 완벽해야만 한다. 그래야 진정한 의미의 AI 대화가 가능해지기 때문이다.
국내 핀테크 기업인 웹케시는 지난 10월, KT와 함께 기업에서 활용할 수 있는 언어서비스인 ‘에스크 아바타’를 출시했는데 이런 인식에서 접근한 사례다. 개념 자체는 심플하다. 회사 관계자가 음성으로 질문하면 AI비서가 관련한 정보를 찾아준다.
이 회사 윤완수 부회장(사진)은 이처럼 음성 인식에서 벗어나 ‘비즈니스적인 언어 해석’을 강조한다.
일반 기업, 유통, 금융, 물류 등 각 산업군마다 그들이 통상적으로 업무에 사용하는 언어적 표현과 의미가 다 다를 수 있다. 이처럼 각 산업별로 디테일하게 ‘업무용 언어’를 학습시켜 업무에 손쉽게 활용할 수 있도록 비즈니스 음성 서비스 패키지로 내놓겠다는 전략이다.
다만 윤 부회장의 생각대로, 음성의 인식과 해석을 번거롭게 각각 구분하는 것이 맞는 방법일지는 아직 모른다. 굳이 이를 분리할 필요없이 음성 인식과 해석이 동시에 발전할 경우도 가정해 볼 수 있기 때문이다. 물론 그러한 진화된 음석인식 및 해석 기술이 제시될지는 지켜봐야 한다.
◆‘자연어’ 처리의 놀라운 발전 속도… '인식'과 '이해'의 간극을 동시에 해결할 수 있을까
음성의 인식과 해석은 각각 다른 영역이라고 했지만 언젠가 기술이 이 간극을 극복하게 된다면 상황은 또 달라질 수 있다.
논리적으로 따져본다면, ‘진달래꽃’에 나오는 매우 역설적인 표현들도 결국 제대로 이해하는 수준까지 데이터를 끊임없이 축적하면 되는 것이다.
이런 점에서 지난 10일부터 11일까지 이틀간 진행된 ‘라인(LINE) 디벨로퍼 데이 2021’에서 발표된 음성인식 기술은 매우 흥미로웠다.
라인은 다양한 사업 영역에서 확보되는 데이터를 ‘인포메이션 유니버스’라는 하나의 데이터 플랫폼으로 모으고 있는데, 현재 290페타바이트(PB)의 규모라고 밝혔다. 또 매월 10PB가량씩 증가하고 있다. 이를 활용해 공통의 머신러닝(ML) 플랫폼을 구축했다. 이러한 물적 인프라 기반위에서 네이버와 라인이 공동으로 개발 중인 음성인식 서비스가 ‘AI 하이퍼클로바’(HyperCLOVA)다.
라인에 따르면, 경쟁사인 MS가 1750억개의 매개변수(라미터)를 가진 오픈AI사의 ‘GPT-3’를 활용하는데 GPT-3의 경우 학습한 언어의 93%가 영어 학습이다. 반면 하이퍼클로바는 한국어와 일본어를 중점으로 현재 각각 2040억, 390억개의 매개변수를 가졌다. 2022년에는 일본어로만 2040억개의 매개변수를 갖춘 일본어 모델을 구축할 계획이라고 밝혔다. 방대한 데이터의 축적과 비례해 사람간의 대화처럼 보다 진화된 ‘자연어 처리’가 가능할 것으로 예상된다.
실제로 라인측은 시연을 통해, AI 데이터의 활용 범위를 늘렸는데 그 단계를 확대할수록 보다 정확한 의미를 해석해 냈으며, 결국에는 ‘인식’과 ‘해석’의 간극이 지속적으로 줄어들었다.
물론 세상은 계속 변화하고 새로운 언어와 의미가 지속적으로 창출되고 소멸되고 있다. 빅데이터 축적과 AI분석 능력이 그 속도를 과연 따라 잡을 수 있을지는 여전히 미지수다.
현재 국내외에서 다양한 형태의 AI 인식 솔루션이 쏟아지고 있다. 어떤 방향으로 흘러가게될지는 모르겠지만 ‘음성’이 새로운 비즈니스 키워드로 진화하고 있는 것은 분명해보인다.
웹케시 윤완수 부회장은 “이제 마우스(Mouse)의 시대에서 마우스(Mouth)의 시대로 넘어가고 있다. 이는 향후 10년을 지배할 핵심 이슈가 될 것”이라고 예상했는데, 앞으로 시장이 어느 속도로 움직이게 될 것인지 주목된다.