붙어보자 유튜브… 네이버 ‘프리즘’ 동영상 기술력 살펴보니
[디지털데일리 이형두기자] “‘동영상 라이브 서비스가 별거냐’ 라고 할 수 있다. 그러나 대용량 글로벌 서비스는 다른 문제다. 한국에만 서버를 두면 지구 반대편까지 라이브를 지원할 수 없다. 해당 지역에서 라이브 시청이 잦은 것도 아니다. 어디에 서버를 둬야 품질 떨어지지 않고 서비스가 가능할까, 서버는 몇 대를 둬야 유튜브와 품질 경쟁이 가능할까. 순간적으로 몰리는 트래픽은 어떻게 대응할까, 이런 고민과 문제를 풀어나가고 있다.” (네이버 정윤호 테크 리더)
네이버의 올해 핵심 과업은 동영상 중심의 체질개선이다. 지난해부터 네이버TV 플랫폼을 개방하고 블로그를 개편하는 등 동영상 부문을 강화해 왔다. 선봉은 네이버 동영상 기술 플랫폼 ‘프리즘’이다. 영상 실시간 송출과 동영상 편집 모두 가능하다.
15일 네이버(대표 한성숙)는 서울 강남구 D2스타트업팩토리에서 '네이버테크포럼‘ 행사를 열고 네이버 동영상 라이브 플랫폼에 적용된 기술을 소개했다.
동영상 라이브 플랫폼은 송출구간-스트리밍 서버 처리 및 전달구간(미디어서버)-재생구간으로 구성돼 있다. 네이버 브이라이브의 경우 글로벌 시청자가 많다. 좋아하는 연예인과 대화 기회를 놓치려 하지 않는다. 전 세계 유저들이 동시에 접속하면 아무리 CDN(Contents Delivery Network)을 쓴다고 해도, 원본 데이터까지 요청이 이어진다. 미디어서버의 부담이 커지게 된다.
ABP 기술의 중요성은 갈수록 높아지는 추세다. 많은 실시간 영상 송출이 실내가 아니라 외부에서 스마트폰을 통해 이뤄지기 때문이다. 안정된 네트워크 환경이 갖춰진 실내와 달리 외부 환경은 변수가 많다. 무선랜연결(WIFI)이나 롱텀에볼루션(LTE) 통신은 장소에 따라 통신 품질이 떨어질 수 있다.
수신자의 통신환경이 나쁜 것은 큰 문제가 아니다. 혼자 버퍼링이 걸린다. 그러나 송출자의 통신 환경은 수만명 시청자에게 동시에 광역 버퍼링을 유발할 수 있다. 특히 네트워크 품질이 균일하지 못한 동남아시아 등지에서 송출 품질은 문제가 커진다. 이런 경우, 통신환경을 빠르게 판단해 전송할 영상 품질을 선택하는 기술이 ABP다.
예전에는 RTT(Round Trip Time) 방식으로 네트워크 상태를 판단했다. 비디오나 오디오 데이터가 전송되는 시간을 측정해 적절한 화질을 요청하는 형태다. 실시간 송출에는 적용하기 어려운 기술이다. 판단하기 위한 데이터의 사이즈가 작고, 불연속적이며, 크기가 일정하지 않기 때문이다. 편차가 높아 RTT 측정 방식을 사용할 수 없다.
네이버는 전송 시간 대신 프레임의 길이나 크기, 형태 등 유의미한 정보를 획득하는 방식을 개발했다. 또 퍼블리셔가 데이터를 송출하기 전 버퍼링을 준비할 때, 버퍼 안에 들어왔던 시간 및 나갔던 시간 정보를 종합한다. 여기에 네이버가 축적한 네트워크 판단 정책을 더해 네트워크 적정 판단을 가능케 하는 기술을 개발했다.
네이버 김정명 테크리더는 “ABP 다음 단계는 딥러닝 기술을 더해서 현재 네트워크 상태를 파악하는 것”이라며 “다만 꼭 딥러닝을 통해서 판단한다고 더 잘 판단되는 것은 아니다. 시도를 통해 다른 방법이 구현될 수 있는 지 연구하는 단계, 2018년 특허 출원을 완료했다”고 말했다.
◆네이버의 기술 내재화, '지연은 없애고 화질은 더 좋게' = 네이버 프리즘 플랫폼의 또 다른 핵심 경쟁력은 초저지연 기술 ‘ULL(Ultra Low Latency)’이다. 송출자가 영상을 찍어 보내는 시점과 시청자가 받는 시점 차이를 최소화하는 기술을 뜻한다. 네이버는 10초 수준이었던 지연시간을 2초대까지 6.5초나 줄였다.
영상 지연시간(레이턴시)은 송출자가 미디어서버로 전송하는 시간, 미디어서버에서 영상을 처리하는 시간, 시청자에게로 전송하는 시간이 합쳐진 값이다. 통상 실시간 동영상 플랫폼은 애플이 개발한 ‘HLS(Http Live Streaming)' 프로토콜을 쓴다. HLS는 안정적인 서비스에 초점을 맞췄기 때문에 레이턴시가 최대 9~20초까지 발생한다. 이 정도 시간차가 발생하면 이미 라이브 서비스라고 보기 어렵다. 방송자와 시청자 간 원활한 소통이 불가능하다.
네이버는 송출과 재생 내재화 기술은 갖고 있었지만 미디어서버 스트리밍 엔진 기술은 갖고 있지 않았다. ‘와우자’ 등 주류 상용 엔진을 썼지만 이 레이턴시를 줄이기 어려웠다. 신규 기술을 개발해도 도입이 어려웠고, 하드웨어 효율성 증대에도 한계가 있었다.
이 때문에 네이버는 1년 동안 엔진 내재화를 위한 기술 개발을 진행했다. 지난해 상용 엔진을 내재화 엔진으로 교체했고, 이 덕분에 ULL 등 네이버의 특장점이라고 할 수 있는 기술들을 선보일 수 있다. 지난해 ULL 기술을 브이라이브 서비스에 적용해 성공적인 결과를 거뒀다. 지금까지 총 6400건, 16만시간 라이브 방송을 진행하는 동안 문제는 발생하지 않았다.
현재 트위치, 페이스북, 인스타그램의 동영상 서비스는 ULL 기술을 지원하지 않는 것으로 알려져 있다. 유튜브는 일반, LL(Low latency), ULL 3가지 옵션을 지원한다.
통상 플랫폼에서 동영상 품질을 올리려면 높은 비트레이트를 설정하거나 좋은 코덱을 쓰면 된다. 네이버의 경우 비트레이트 설정은 해상도 별로 최적화가 이미 이뤄졌기 때문에 더 개선할 요소가 없는 상태다.
대부분 실시간 영상 플랫폼은 송출 프로토콜로 RTMP(Real Time Messaging Protocol)를 쓴다. 구현이 용이하기 때문에 송출 프로토콜로 적용이 적합하고 대체가 어렵다. 그러나 RTMP는 최종 업데이트가 2012년 12월로 정보기술(IT) 업게에서는 오래된 프로토콜로 평가된다. 최대 지원 가능 코덱이 H264코덱으로 한계점이 명확하다.
네이버는 송출, 재생, 미디어서버 엔진까지 내재화에 성공했기 때문에 RTMP 프로토콜을 HEVC를 지원할 수 있게 변환(커스터마이징)할 수 있었다. 이를 통해 지난해 8월부터 브이라이브 서비스에 기존 대비 고화질인 HEVC 코덱 적용에 성공했다.
네이버 강인철 테크 리더는 "2019년 로드맵으로는, ULL 두번째 버전을 통해 1초대 혹은 그 이하의 레이턴시를 경험하실 수 있도록 기술 개발을 열심히 진행하고 있다"며 "그리고 더 많은 미디어 코덱 오버레이를 지원하는 기술을 개발해, 좀 더 다양한 방송을 송출할 수 있도록 할 계획"이라고 말했다.
<이형두 기자>dudu@ddaily.co.kr
오픈AI, o1보다 더 강력한 o3 예고…개발자·연구자 대상 사전 테스트 실시
2024-12-21 08:02:48뒤숭숭한 정국에도 매서운 이복현… "금융지주사 검사 결과 발표, 원칙대로 '매운맛' 유지"
2024-12-20 17:36:50[DD퇴근길] 우티, 티맵 손 떼고 우버 단독체제…넷플릭스에 올라탄 SBS
2024-12-20 17:11:09