신진우·한동수 KAIST 교수팀 연구···딥러닝 기반 비디오 스트리밍 기술 개발

열악한 인터넷 환경에서도 고품질, 고화질 비디오를 시청할 수 있는 기술이 나왔다. 

KAIST(총장 신성철)는 신진우·한동수 전기·전자공학부 교수팀이 딥러닝 기술을 이용한 인터넷 비디오 전송 기술을 개발했다고 30일 밝혔다. 

이 기술에는 유튜브, 넷플릭스 등에서 비디오를 사용자에게 전송할 때 사용하는 적응형 스트리밍(HTTP adaptive streaming) 비디오 전송기술과 딥러닝 기술인 심층 콘볼루션 신경망(CNN) 기반 초해상화 기술이 접목됐다.

기존의 적응형 스트리밍은 시시각각 변화하는 인터넷 대역폭에 맞춰 스트리밍 중인 비디오 화질을 실시간으로 조절한다. 이와 관련된 알고리즘이 연구되고 있지만 네트워크 환경이 좋지 않으면 어느 알고리즘이라도 고화질 비디오를 감상할 수 없다는 한계가 있다.

연구팀은 적응형 스트리밍에 초해상화를 접목해 문제를 해결했다. 기존 방식은 비디오 시청 시 긴 영상을 짧은 시간의 여러 비디오 조각으로 나눠 내려받는다. 서버는 비디오를 미리 일정 시간 길이로 나눠 준비한다. 

이와 달리 연구팀은 추가로 신경망 조각을 비디오 조각처럼 내려받게 했다. 비디오 서버는 각 비디오에 대해 학습이 된 신경망을 제공하며 사용자 컴퓨터의 사양을 고려해 다양한 크기의 신경망을 제공한다.

제일 큰 신경망의 크기는 총 2메가바이트(MB)이며 비디오에 비해 크기다 작다. 신경망을 사용자 비디오 플레이어에서 다운받을 때는 여러 개의 조각으로 나눠 내려받는다. 신경망의 일부만 다운받아도 조금 떨어지는 성능의 초해상화 기술을 이용할 수 있도록 설계했다.

사용자의 컴퓨터에서는 동영상 시청과 함께 병렬적으로 심층 콘볼루션 신경망(CNN) 기반의 초해상화 기술을 사용해 비디오 플레이어 버퍼에 저장된 저화질 비디오를 고화질로 바꾼다. 모든 과정이 실시간으로 이뤄지면서 사용자들이 고화질 비디오를 시청할 수 있다.

연구팀이 개발한 시스템을 이용하면 최대 26.9%의 적은 인터넷 대역폭으로도 최신 적응형 스트리밍과 같은 체감 품질(QoE, Quality of Experience)을 제공할 수 있다. 또한 같은 인터넷 대역폭이 주어진 경우에는 최신 적응형 스트리밍보다 평균 40% 높은 체감 품질을 제공할 수 있다.

이 시스템은 딥러닝 방식을 이용해 기존의 비디오 압축 방식보다 더 많은 압축을 이뤄낸 것이다.

한동수 교수는 "지금은 데스크톱에서만 구현했지만 앞으로 모바일 기기에서도 작동하도록 발전시킬 예정"이라며 "이 기술은 현재 유튜브, 넷플릭스 등 스트리밍 기업에서 사용하는 비디오 전송 시스템에 적용한 것으로 실용성에 의미가 있다"고 말했다. 

이번 연구는 IITP 방송통신연구개발 사업의 지원을 받아 여현호, 정영목, 김재홍 학생이 주도했다. 연구 결과는 격년으로 개최되는 컴퓨터 시스템 분야 학술회의인 '유즈닉스 OSDI(USENIX OSDI)'에서 지난 10일 발표됐으며, 국제 특허 출원을 완료했다.

기술 개념도.<자료=KAIST 제공>
기술 개념도.<자료=KAIST 제공>
저작권자 © 헬로디디 무단전재 및 재배포 금지