미디어연구본부 14개 핵심기술 선보여
360VR, 지상파 재난알림, 비디오 노이즈 제거 등

상하좌우 앞뒤로 움직이면 공간 차이가 느껴지는 VR기기, 지상파에서 재난 알림을 내보내는 기술, 압축한 비디오의 노이즈를 제거하는 기술 등.

ETRI(한국전자통신연구원·원장 김명준)가 6일 '미디어연구본부 테크데이' 행사를 열고 14개 방송·미디어 기술을 선보였다. 

미디어연구본부는 시공간 제약을 뛰어넘는 초실감 서비스를 실현하는 차세대 원천기술을 개발한다. 이날 전시된 기술은 연구본부의 5개 연구실에서 나온 올해의 대표 성과들이다. 연구개발 과제를 이끄는 연구원들은 전시장에 나와 직접 기술을 설명했다.

이날 소개된 기술은 ▲ATSC 3.0 기반 방송·통신 융합 서비스 ▲ATSC 3.0 공시청 시스템 ▲ATSC 3.0 채널 본딩 시스템 ▲딥러닝 기반 비디오 압축 노이즈 제거 기술 ▲디지털 시네마·모바일 오디오 기술 ▲UWV 실황중계 기술 ▲실시간 8K VR 동영상 생성 기술 ▲Omnidirectional 6DoF 360VR 영상 획득 기술 ▲LF 디스플레이 정합오차 보정 기술 ▲인터랙티브 미디어 창작 기술 ▲인터넷 오브 미디어 기술 ▲지상파 UHD 재난방송 서비스 기술 ▲테이블탑형 홀로그래픽 디스플레이 ▲리소그래피 기반 광시야각 초고해상도 홀로그램이다.

조승현 미디어부호화연구실 박사가 '딥러닝 기반 비디오 압축 노이즈 제거 기술'을 설명하고 있다. 비디오는 전송을 위해 압축을 거치는데 이때 데이터 손실이 일어나고 100% 복원되지 못한다. 전송된 비디오에는 원본에 없던 바둑판 모양, 반복되는 선, 색 손실 등 노이즈가 나타난다. 연구팀은 딥러닝으로 노이즈를 최대한 억제하는 기술을 개발했다. 그 결과 일반 코덱을 사용했을 때보다 화질이 31% 정도 올라갔다. <사진=한효정 기자>
조승현 미디어부호화연구실 박사가 '딥러닝 기반 비디오 압축 노이즈 제거 기술'을 설명하고 있다. 비디오는 전송을 위해 압축을 거치는데 이때 데이터 손실이 일어나고 100% 복원되지 못한다. 전송된 비디오에는 원본에 없던 바둑판 모양, 반복되는 선, 색 손실 등 노이즈가 나타난다. 연구팀은 딥러닝으로 노이즈를 최대한 억제하는 기술을 개발했다. 그 결과 일반 코덱을 사용했을 때보다 화질이 31% 정도 올라갔다. <사진=한효정 기자>

Omnidirectional 6DoF 360VR을 체험하는 방문객. 기존 VR을 쓰면 고정된 자리에서 좌우 시야의 변화만 감지할 수 있지만, 360VR은 앞, 뒤, 위, 아래, 좌, 우 6개 방향으로 움직여도 공간 이동의 차이를 느끼게 해준다. <사진=한효정 기자>
Omnidirectional 6DoF 360VR을 체험하는 방문객. 기존 VR을 쓰면 고정된 자리에서 좌우 시야의 변화만 감지할 수 있지만, 360VR은 앞, 뒤, 위, 아래, 좌, 우 6개 방향으로 움직여도 공간 이동의 차이를 느끼게 해준다. <사진=한효정 기자>

지상파 UHD에서 재난방송 알림을 송출한 예시 화면. 자막과 함께 경보음, 영상, 지진대피요령 등 정보를 화면에 띄울 수 있다. 원하지 않는 사용자는 끌 수 있고 원할 때 다시 확인도 된다. 이 기술은 옥외전광판, 버스, 지하철, 다중시설 등 공공장소에서 재난경보 서비스로 시범 활용 중이다. <사진=한효정 기자>
지상파 UHD에서 재난방송 알림을 송출한 예시 화면. 자막과 함께 경보음, 영상, 지진대피요령 등 정보를 화면에 띄울 수 있다. 원하지 않는 사용자는 끌 수 있고 원할 때 다시 확인도 된다. 이 기술은 옥외전광판, 버스, 지하철, 다중시설 등 공공장소에서 재난경보 서비스로 시범 활용 중이다. <사진=한효정 기자>

5G연동 방송서비스 기술 시연을 하는 모습. (왼쪽부터) 이재영 책임연구원, 권선형 연구원. <사진=ETRI 제공>
5G연동 방송서비스 기술 시연을 하는 모습. (왼쪽부터) 이재영 책임연구원, 권선형 연구원. <사진=ETRI 제공>

영화 등 기존 영상을 활용해 사용자가 영상을 재창작하는 '인터랙티브 미디어 창작 기술'. 사용자가 시나리오를 쓰면 프로그램이 각 씬에 맞는 영상을 찾아준다. 예를 들어 '떨어진다'를 입력하면 낙하하는 영상을 찾아낸다. 사용자는 영상들을 이어붙여 자신만의 콘텐츠를 만들 수 있다. <사진=한효정 기자>
영화 등 기존 영상을 활용해 사용자가 영상을 재창작하는 '인터랙티브 미디어 창작 기술'. 사용자가 시나리오를 쓰면 프로그램이 각 씬에 맞는 영상을 찾아준다. 예를 들어 '떨어진다'를 입력하면 낙하하는 영상을 찾아낸다. 사용자는 영상들을 이어붙여 자신만의 콘텐츠를 만들 수 있다. <사진=한효정 기자>

3D를 구현하는 렌즈 어레이와 디스플레이. 나안식 3D 디스플레이에서 렌즈 어레이와 디스플레이가 잘못 정렬될 경우 이미지가 왜곡된다. 실감미디어연구실 김준수 박사팀은 교정 알고리즘으로 이미지를 자동으로 보정하는 기술을 개발했다. <사진=한효정 기자>
3D를 구현하는 렌즈 어레이와 디스플레이. 나안식 3D 디스플레이에서 렌즈 어레이와 디스플레이가 잘못 정렬될 경우 이미지가 왜곡된다. 실감미디어연구실 김준수 박사팀은 교정 알고리즘으로 이미지를 자동으로 보정하는 기술을 개발했다. <사진=한효정 기자>

ATSC 3.0 기반 방송통신 융합 서비스 시현. 이 기술은 방송 신호가 끊기는 등 수신환경이 불안해질 때 방송망을 통신망(LTE와 5G 등) 신호로 전환해 끊김 없는 화면을 내보낸다. TV와 스마트폰 DMB 등에 적용할 수 있다. <사진=한효정 기자>
ATSC 3.0 기반 방송통신 융합 서비스 시현. 이 기술은 방송 신호가 끊기는 등 수신환경이 불안해질 때 방송망을 통신망(LTE와 5G 등) 신호로 전환해 끊김 없는 화면을 내보낸다. TV와 스마트폰 DMB 등에 적용할 수 있다. <사진=한효정 기자>
 
저작권자 © 헬로디디 무단전재 및 재배포 금지