네이버는 왜 한국어 AI 모델을 만들었나…“‘글로벌 기술 종속’ 막는다”
[디지털데일리 권하영기자] “네이버에서 초대규모 AI 언어 모델을 개발한다고 했을 때 이런 의문이 많았다. 왜 네이버가 그 많은 자원을 투자해 별도의 AI 모델을 독자적으로 만드냐는 것이다.”
이에 대한 네이버의 대답은 “글로벌 기술 종속을 막기 위해서”다. 네이버 클로바 CIC의 박우명 개발자<사진>는 “한국어에 맞는 빅(Big) AI 모델을 확보하지 못한다면, 글로벌 기업이 강력한 영어 모델 기반의 다양한 서비스를 만들어낼 때 우리는 그들이 제공하는 제한적인 한국어 성능의 모델을 사용할 수밖에 없다”고 강조했다.
25일 네이버는 ‘네이버 AI 나우(NAVER AI NOW)’ 컨퍼런스를 온라인으로 개최, ‘초대규모 인공지능(Hyperscale AI)’인 ‘하이퍼클로바(HyperCLOVA)’를 국내 기업 최초로 공개했다.
현재 초대규모 AI 언어모델의 대표적인 사례로는 샌프란시스코 AI 연구소인 오픈(Open) AI가 만든 3세대 언어 예측 모델인 ‘GPT-3’가 꼽힌다. 단순히 정해진 답을 하는 AI가 아니라, 인간처럼 생각하고 판단하는 능력을 갖춘 것이 핵심이다.
하이퍼클로바는 오픈 AI의 GPT-3(175B)를 뛰어넘는 204B(2040억개) 파라미터(매개변수) 규모로 개발됐다. AI 모델의 크기를 나타내는 파라미터의 수가 높을수록, AI는 더 많은 문제를 해결할 수 있게 된다. 특히 하이퍼클로바는 GPT-3보다 한국어 데이터를 6500배 이상 학습한, 현재 전세계에서 가장 큰 한국어 초거대 언어모델이다.
박우명 개발자는 “현재 전 세계 인터넷상 언어 분포를 보면 영어가 60.3%, 그 외 0.6% 비중을 차지하는 한국어를 비롯해 다른 언어의 비중이 결코 작지 않다”면서 “하지만 GPT-3에서 학습한 언어 비중을 보면 영어가 93% 비중으로 대부분을 차지하고, 한국어 비중은 0.1% 미만에 그친다”고 소개했다. GPT-3는 사실상 영어 전용 모델이며 그밖의 언어, 특히 한국어는 생성 능력이 제한적인 셈이다.
영어 기반 학습 데이터가 대부분인 GPT-3와 달리, 하이퍼클로바는 한국어 비중이 97%에 달한다. 이는 한국어에 최적화한 언어모델을 개발함으로써, AI 주권을 확보한다는 의미도 된다. 박우명 개발자는 “한국어 모델이 없다면 이는 기술 종속 현살뿐만 아니라 한국어 기반 AI 서비스 성장의 명확한 한계로 작용할 것”이라며 “하이퍼클로바는 이러한 문제의식으로 GPT-3의 영어 능력에 필적하거나 더 뛰어난 한국어 능력을 가진 모델 개발에 착수한 결과”라고 설명했다.
이를 위해 네이버는 지난 10월 국내 기업 최초로 700 페타플롭(PF) 성능의 슈퍼컴퓨터를 도입, 대용량 데이터 처리를 위한 인프라를 갖췄다. 국내 최대 인터넷 플랫폼을 운영하며 쌓아온 대규모 데이터 처리 능력도 중요한 경쟁력이다. 네이버는 하이퍼클로바 개발을 위해 5600억개 토큰의 한국어 대용량 데이터를 구축했다.
그는 “우리가 초대형 언어 모델을 통해 얻고자 하는 건 단순 분류 능력만 아니라, 다양한 형태의 글을 이해하고 생성하는 능력”이라며 “최근 모델 크기의 증가 속도는 현대의 GPU 발전 속도보다 훨씬 빠르기 때문에 급속도로 커지는 모델을 학습하려면 1장 이상의 GPU에서 효과적으로 모델을 학습할 기술이 필요하다”고 말했다.
<권하영 기자>kwonhy@ddaily.co.kr
[IT백과] 생성형AI의 진화 ‘AI 에이전트’, 기존 AI 비서와 뭐가 다를까?
2024-12-21 13:27:59[종합] AI 초격차 확보 공고히 한 오픈AI…12일간 여정 끝엔 ‘쩐의전쟁’ 남았다
2024-12-21 11:15:25오픈AI, o1보다 더 강력한 o3 예고…개발자·연구자 대상 사전 테스트 실시
2024-12-21 08:02:48