KR102070434B1 - 시스템 데이터를 포함하는 오디오 비트스트림을 디코딩하는 방법 및 장치 - Google Patents

시스템 데이터를 포함하는 오디오 비트스트림을 디코딩하는 방법 및 장치 Download PDF

Info

Publication number
KR102070434B1
KR102070434B1 KR1020177018026A KR20177018026A KR102070434B1 KR 102070434 B1 KR102070434 B1 KR 102070434B1 KR 1020177018026 A KR1020177018026 A KR 1020177018026A KR 20177018026 A KR20177018026 A KR 20177018026A KR 102070434 B1 KR102070434 B1 KR 102070434B1
Authority
KR
South Korea
Prior art keywords
audio
system data
type
data
engine
Prior art date
Application number
KR1020177018026A
Other languages
English (en)
Other versions
KR20170095260A (ko
Inventor
전상배
김선민
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20170095260A publication Critical patent/KR20170095260A/ko
Application granted granted Critical
Publication of KR102070434B1 publication Critical patent/KR102070434B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43632Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • H04N21/43635HDMI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6581Reference data, e.g. a movie identifier for ordering a movie or a product identifier in a home shopping application
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 오디오를 디코딩하는 방법은, 오디오 패킷들로 구성된 비트스트림을 수신하는 단계; 수신된 비트스트림에 포함된 오디오 패킷을 디코딩하는 단계; 디코딩 된 패킷의 타입을 추출하는 단계; 추출된 패킷의 타입이 시스템 메타데이터에 해당하는 패킷으로부터 시스템 데이터를 획득하는 단계; 및 획득된 시스템 데이터를 시스템 엔진에 전달하는 단계;를 포함하고, 시스템 데이터는, 시스템 엔진의 타입에 대한 정보 및 시스템 데이터의 길이에 대한 정보 중 적어도 하나를 포함한다.

Description

시스템 데이터를 포함하는 오디오 비트스트림을 디코딩하는 방법 및 장치
본 발명은 시스템 데이터를 포함하는 오디오 비트스트림을 디코딩하는 방법 및 그 장치에 대한 것으로, 보다 상세하게는, MPEG-H 3D 오디오 스트림 패킷을 이용하여 시스템 데이터를 전달하고 복원 및 이용하는 방법 및 장치에 관한 것이다.
방송 생태계 환경의 변화에 따라, 지상파 방송은 지상파 전송을 통해 사용자에게 제공되는 경우보다 셋탑 박스 등을 이용한 재전송을 통해 사용자에게 제공되는 경우가 더 많은 비중을 차지한다.
지상파 방송 신호가 셋탑 박스 등을 이용하여 재전송되는 경우, 셋탑 박스와 TV의 인터페이스를 위해서 주로 고화질 멀티미디어 인터페이스, 즉 HDMI(High Definition Multimedia Interface)가 이용된다. 그러나, HDMI는 오디오 데이터 및 비디오 데이터 이외의 데이터, 예를 들어 시스템 데이터를 전달하기 위한 인터페이스는 제공하지 않기 때문에 시스템 데이터는 HDMI 를 통해 TV로 전달될 수 없다.
이와 같은 경우 사용자가 양방향 방송 서비스 또는 하이브리드 방송 서비스를 이용하기 위해서는 셋탑 박스로부터 방송 사업자로 전달되는 채널을 이용해야 하며 TV 단독으로는 양방향 방송을 위한 매개체로 기능할 수 없다.
HDMI는 음향이나 영상의 전송을 위한 별도의 압축과정을 거치지 않기 때문에 복원을 위한 별도의 하드웨어나 소프트웨어가 필요하지 않으며, 디지털 컨텐츠의 품질 열화 없이 컨텐츠를 전송할 수 있는 장점이 있다. 하지만, 상술한 바와 같이 HDMI는 오디오 데이터 및 비디오 데이터 이외의 데이터, 예를 들어 시스템 데이터를 전달하기 위한 인터페이스는 제공하지 않기 때문에 시스템 데이터는 HDMI 를 통해 TV로 전달될 수 없다.
본 발명은 전술한 종래 기술의 문제점을 해결하며, HDMI를 통해 전달되는 오디오 비트스트림을 이용하여 시스템 데이터를 전달하는 것을 그 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.
상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 오디오를 디코딩하는 방법은, 오디오 패킷들로 구성된 비트스트림을 수신하는 단계; 수신된 비트스트림에 포함된 오디오 패킷을 디코딩하는 단계; 디코딩 된 패킷의 타입을 추출하는 단계; 추출된 패킷의 타입이 시스템 메타데이터에 해당하는 패킷으로부터 시스템 데이터를 획득하는 단계; 및 획득된 시스템 데이터를 시스템 엔진에 전달하는 단계;를 포함하고, 시스템 데이터는, 시스템 엔진의 타입에 대한 정보 및 시스템 데이터의 길이에 대한 정보 중 적어도 하나를 포함한다.
본 발명의 또 다른 실시예에 따르면, 수신하는 단계는, HDMI(High Definition Multimedia Interface)를 통해 오디오 비트스트림을 수신한다.
본 발명의 또 다른 실시예에 따르면, 시스템 데이터는, 획득한 시스템 데이터의 이용 여부를 결정하는 단계;를 더 포함한다.
본 발명의 또 다른 실시예에 따르면, 시스템 엔진의 타입은, MMT(MPEG Media Transport) 및 DASH(Dynamic Adaptive Streaming over HTTP) 중 적어도 하나를 나타낸다.
본 발명의 또 다른 실시예에 따르면, 시스템 데이터는, 시스템 데이터에 대한 위치 정보에 기초하여 획득된다.
본 발명의 또 다른 실시예에 따르면, 시스템 데이터에 대한 위치 정보는, 시스템 데이터가 위치하는 URL을 나타낸다.
본 발명의 또 다른 실시예에 따르면, 비트스트림은 MHAS(MPEG-H 3D Audio Stream)이다.
상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 오디오를 디코딩하는 장치는, 오디오 패킷들로 구성된 비트스트림을 수신하는 수신부; 수신된 비트스트림에 포함된 오디오 패킷을 디코딩하는 디코딩부; 디코딩 된 패킷의 타입을 추출하고, 추출된 패킷의 타입이 시스템 메타데이터에 해당하는 패킷으로부터 시스템 데이터를 획득하는 제어부; 및 획득된 시스템 데이터를 시스템 엔진에 전달하는 송신부;를 포함하고, 시스템 데이터는 시스템 엔진의 타입에 대한 정보 및 시스템 데이터의 길이에 대한 정보 중 적어도 하나를 포함한다.
본 발명의 또 다른 실시예에 따르면, 수신부는, HDMI(High Definition Multimedia Interface)를 통해 오디오 비트스트림을 수신한다.
본 발명의 또 다른 실시예에 따르면, 제어부는 획득된 시스템 데이터의 이용 여부를 결정한다.
본 발명의 또 다른 실시예에 따르면, 시스템 엔진의 타입은, MMT(MPEG Media Transport) 및 DASH(Dynamic Adaptive Streaming over HTTP) 중 적어도 하나를 나타낸다.
본 발명의 또 다른 실시예에 따르면, 시스템 데이터는, 시스템 데이터에 대한 위치 정보에 기초하여 획득된다.
본 발명의 또 다른 실시예에 따르면, 시스템 데이터에 대한 위치 정보는, 시스템 데이터가 위치하는 URL을 나타낸다.
본 발명의 또 다른 실시예에 따르면, 비트스트림은 MHAS(MPEG-H 3D Audio Stream)이다.
한편, 본 발명의 일 실시예에 따르면, 전술한 방법을 실행하기 위한 프로그램 및 상기 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램 및 상기 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체가 더 제공된다.
본 발명에 의하면, 컨텐츠 제작자는 MPEG-H 규격에 정의된 오디오 코덱을 이용하여 인코딩함으로써 시스템 데이터를 포함하는 오디오 비트스트림을 생성할 수 있다. 셋탑 박스는, TV와 연결된 인터페이스가 교체될 필요없이, HDMI 를 이용하여 시스템 데이터를 포함하는 오디오 스트림을 TV로 전달할 수 있다. TV는 MPEG-H 규격에 정의된 오디오 코덱을 이용하여 수신된 오디오 비트스트림을 디코딩함으로써 시스템 데이터를 획득할 수 있다.
도 1 은 지상파 방송의 전송 경로의 일 실시예를 나타내는 도면이다.
도 2 는 본 발명의 일 실시예에 따른 지상파 방송의 전송 경로의 일 실시예를 나타내는 도면이다.
도 3 은 본 발명의 일 실시예에 따른 오디오 디코딩 장치를 포함하는 컨텐츠 재생 장치의 세부 구성도이다.
도 4 는 본 발명의 일 실시예에 따른 오디오 디코딩 방법의 순서도이다.
도 5 는 본 발명의 또 다른 실시예에 따른 오디오 디코딩 방법의 순서도이다.
도 6 은 본 발명의 또 다른 실시예에 따른 오디오 디코딩 방법의 순서도이다.
도 7 은 본 발명의 일 실시예에 따른 MHAS 패킷의 페이로드를 처리하는 신택스를 설명하기 위한 도면이다.
도 8 은 본 발명의 일 실시예에 따른 MHAS 패킷 타입에 대한 MHASPacketType의 값들을 나타내는 도면이다.
도 9 는 본 발명의 일 실시예에 따른 시스템 데이터 패킷을 처리하는 신택스를 설명하기 위한 도면이다.
도 10 은 본 발명의 일 실시예에 따른 시스템 데이터 패킷을 처리하는 신택스를 설명하기 위한 도면이다.
도 11 은 본 발명의 또 다른 실시예에 따른 시스템 데이터 패킷을 처리하는 신택스를 설명하기 위한 도면이다.
도 12 는 프로그램 식별자를 이용하여 시스템 데이터 패킷을 처리하는 방법을 설명하기 위한 도면이다.
도 13 은 본 발명의 일 실시예에 따른 SysMetaPacketConfig의 동작을 설명하기 위한 도면이다.
도 14 는 본 발명의 일 실시예에 따른 SysMetaPacket의 동작을 설명하기 위한 도면이다.
도 15 는 본 발명의 또 다른 실시예에 따른 SysMetaPacket의 동작을 설명하기 위한 도면이다.
도 16 은 본 발명의 일 실시예에 따른 시스템 레벨의 동작 개요를 도시한 도면이다.
발명의 실시를 위한 최선의 형태
상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.
상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 오디오를 디코딩하는 방법은, 오디오 패킷들로 구성된 비트스트림을 수신하는 단계; 수신된 비트스트림에 포함된 오디오 패킷을 디코딩하는 단계; 디코딩 된 패킷의 타입을 추출하는 단계; 추출된 패킷의 타입이 시스템 메타데이터에 해당하는 패킷으로부터 시스템 데이터를 획득하는 단계; 및 획득된 시스템 데이터를 시스템 엔진에 전달하는 단계;를 포함하고, 시스템 데이터는, 시스템 엔진의 타입에 대한 정보 및 시스템 데이터의 길이에 대한 정보 중 적어도 하나를 포함한다.
발명의 실시를 위한 형태
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다.
예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다.
도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이하 본 명세서에서 사용되는 용어의 의미는 다음과 같다.
시스템 데이터는 멀티미디어 전송을 위한 전송 계층(Transport Layer)과 관련된 정보일 수 있다.
시스템 데이터는 MMT 또는 DASH 등과 같은 시스템 엔진과 관련된 데이터로, MIME (Multipurpose Internet Mail Extensions) 구조를 따를 수 있으며, DASH 미디어 표현 기술(MPD, Media Presentation Description) 또는 MMT 시그널링 메시지를 의미할 수 있다.
MMT 계층 구조는 인캡슐레이션 계층(Encapsulation Layer), 전달 계층(Delivery Layer) 및 시그널링 계층(Signaling Layer)의 기능 영역을 포함한다. MMT 계층은 전송 계층 상에서 동작한다.
시스템 데이터는 시스템 데이터의 위치에 대한 정보를 포함할 수 있으며, 이 때 시스템 데이터의 위치에 대한 정보는 시스템 데이터가 위치하는 URL을 나타낼 수 있다.
시스템 엔진은 DASH 엔진 (Dynamic Adaptive Streaming over HTTP) 또는 MMT (MPEG Media Transport)엔진을 의미할 수 있다.
시스템 데이터에는 시스템 엔진의 타입에 대한 정보가 포함될 수 있으며, 시스템 엔진의 타입에 대한 정보는 시스템 데이터에 대응되는 레퍼런스로, MMT 엔진 또는 DASH 엔진과 같은 시스템 엔진을 나타낼 수 있다.
MMT는 MEPG 멀티미디어 전송을 위한 트랜스포트 계층 표준으로 방송, 인터넷 멀티미디어 응용 분야 등에서 사용되기 위한 표준으로 푸시(push) 기반 서비스를 목표로 하고 있다.
DASH는 적응적 비디오 스트리밍에 대한 표준으로 MMT에서 분리하여 먼저 표준화되었으며, 풀(pull) 기반 서비스를 목표로 멀티미디어 데이터의 조각 즉 세그먼트 파일의 형식과 이에 관련된 정보를 포함하는 메타데이터인 MPD(Multimedia Presentation Description) 형식을 규정하고 있다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1 은 지상파 방송의 전송 경로의 일 실시예를 나타내는 도면이다.
컨텐츠 제공자(100, programmer)는 크게 두가지 방법으로 컨텐츠를 사용자에게 제공할 수 있다.
사용자에게 컨텐츠를 제공하는 첫번째 방법은 지상파 방송 사업자(200, network)에서 수행하는 무선 송신을 통해 컨텐츠를 제공하는 방법이다. 지상파 방송 사업자(200)는, 지상파 방송국(210)의 송신탑을 통해 지상파 방송을 위한 신호를 송출한다. 이 때, 통신탑을 통해 송출되는 지상파 방송을 위한 신호는 전파의 형태로 지상을 통해 전달되며 오디오 신호, 비디오 신호 및 시스템 데이터시스템 데이터가 포함된다.
컨텐츠 재생장치(600)는 대표적으로 TV(Television)가 있으며, 컨텐츠 재생장치(600)는 옥외 안테나 등을 이용하여 지상파 방송을 위한 신호를 수신할 수 있다. 컨텐츠 재생장치에 수신된 지상파 방송을 위한 신호는 오디오 신호, 비디오 신호 및 시스템 데이터가 포함되므로 컨텐츠 재생장치(600)는 오디오 컨텐츠를 디코딩하기 위한 오디오 코덱(610), 비디오 컨텐츠를 디코딩하기 위한 비디오 코덱(620) 및 시스템 데이터를 처리하기 위한 시스템 엔진(630)을 포함할 수 있다.
UHD(Ultra High Definition) 컨텐츠는 국제 규격인 MPEG(Moving Picture Experts Group) 규격에 맞추어 인코딩되어 전송되며 그 중 시스템 데이터는 고효율 비디오 코딩인 MPEG-H 전송 계층 표준을 만족한다.
데이터 방송은, 리턴 채널 또는 리턴 신호의 유무에 따라 단방향 방송과 양방향 방송으로 구별할 수 있다. ATSC 1.0등 데이터 방송 초기에는 단방향 방송을 중심으로 개발이 진행되었다. 그러나, 최근에는 기존의 방송 신호에 부가적인 데이터가 첨가되어 전송되고, 사용자들은 TV를 보면서 방송 프로그램과 관련된 정보 및 기타 정보를 검색하거나 수신할 수 있는 양방향 방송이 함께 제공되고 있다.
이와 같이 단방향 방송 및 양방향 방송을 모두 제공하는 하이브리드 방송에서, TV는 컨텐츠와 사용자의 상호작용(interaction)을 위한 매개체로 기능할 수 있으며 TV는 하이브리드 기능을 구현하기 위해 인터넷 망(700)에 연결될 수 있도록 설계되어 있다.
사용자에게 컨텐츠를 제공하는 두번째 방법은 다채널 방송 사업자(400, Multichannel Video Programming Distributer)등이 제공하는 유선 송신을 통해 지상파 컨텐츠를 재전송하는 방법이다. 다채널 방송 사업자(400)는 미국 연방 통신 위원회(FCC, Federal Communications Commission)에 규정된 비디오 프로그래밍 서비스를 전달하는 서비스 제공자로, FCC 규정에 의하면 “a person such as, but not limited to, a cable operator, a multichannel multipoint distribution service, a direct broadcast satellite service, or a television receive-only satellite program distributor, who makes available for purchase, by subscribers or customers, multiple channels of video programming” 라고 정의되어 있다.
다채널 방송 사업자(400)는 케이블TV?위성TV?IPTV 등이 포함되고, 실시간 채널을 편성해 방송 채널 사용 사업자(Program Provider)의 콘텐츠를 방영하는 사업자를 의미한다. 다채널 방송 사업자(400)와 관련된 최근 동향은 수평결합의 활성화, 콘텐츠 전송 대가 비용의 증가, 실시간 OTT(over the top) 서비스의 출시를 들 수 있으며, 북미 중 캐나다에서는 BDU(Broadcast Distribution Undertaking)라는 이름으로 규정되어 있다.
다채널 방송 사업자(400)는 지상파 방송 사업자(200) 또는 케이블 방송 사업자(300, cable network)로부터 전달된 방송 컨텐츠를 재송신함으로써 사용자에게 방송 컨텐츠를 제공한다. 다채널 방송 사업자(400)로부터 재송신된 방송 컨텐츠는 각각의 다채널 방송 사업자에게 특화된 셋탑 박스(500, Set-top Box)로 수신된다.
셋탑 박스(500)로 수신되는 방송 컨텐츠는 인코딩 된 비트스트림의 형태로 오디오 데이터, 비디오 데이터 및 시스템 데이터를 포함할 수 있다. 셋탑 박스(500)는 비디오 데이터를 디코딩하기 위한 비디오 코덱(510)을 포함할 수 있다. 셋탑 박스(500)는 수신된 오디오 비트스트림(810) 또는 오디오 PCM 및 수신된 비디오 데이터가 디코딩된 로우(raw) 비디오 데이터(820)를 컨텐츠 재생장치(600)로 전달한다.
컨텐츠 재생장치(600)는 셋탑 박스(500)로부터 전달된 디코딩된 비디오 데이터(820) 또는 오디오 PCM을 바로 재생할 수 있다. 또한, 컨텐츠 재생장치(600)에는 오디오 컨텐츠를 디코딩하기 위한 오디오 코덱(610)이 포함될 수 있으므로, 컨텐츠 재생장치(600)는 셋탑 박스(500)로부터 전달된 오디오 비트스트림(810)를 디코딩하여 오디오 컨텐츠를 재생할 수 있다.
이 때, 셋탑 박스(500)와 컨텐츠 재생장치(600)의 인터페이스는 주로 고화질 멀티미디어 인터페이스, 즉 HDMI(High Definition Multimedia Interface)가 이용된다. HDMI는 비압축 방식의 디지털 비디오/오디오 인터페이스 규격으로, HDMI를 이용하면 기존의 아날로그 인터페이스를 이용하는 것보다 고품질의 음향 및 영상을 감상할 수 있다.
HDMI는 PC와 디스플레이의 인터페이스 표준 규격인 DVI를 AV 전자제품용으로 변경한 것으로, 영상신호와 음향신호를 압축하지 않고 전송하는 디지털 방식의 인터페이스로, HDMI를 지원하는 셋탑박스, DVD 재생기 등의 멀티미디어 소스에서 PC와 TV를 포함하는 AV기기, 모니터 등의 장치 사이 인터페이스를 제공한다.
HDMI는 음향이나 영상의 전송을 위한 별도의 압축과정을 거치지 않기 때문에 복원을 위한 별도의 하드웨어나 소프트웨어가 필요하지 않다. 그러나, HDMI는 오디오 데이터 및 비디오 데이터 이외의 데이터, 예를 들어 시스템 데이터를 전달하기 위한 인터페이스는 제공하지 않기 때문에 시스템 데이터는 HDMI 를 통해 컨텐츠 재생 장치(600)로 전달될 수 없다.
따라서 HDMI 케이블(800)을 통해 셋탑박스(500)와 컨텐츠 재생 장치(600)가 연결된 경우, 광대역 연결을 위해 요구되는 하이브리드 방송 데이터 또는 시스템 데이터는 컨텐츠 재생 장치(600)로 전달되지 않는다.
이와 같은 경우 사용자가 양방향 방송 서비스를 이용하기 위해서는 셋탑 박스(500)로부터 다채널 방송 사업자(400)로 전달되는 리턴 채널(520)을 이용해야 하며 컨텐츠 재생 장치(600) 단독으로는 컨텐츠와 사용자의 상호작용(interaction)을 위한 매개체로 기능할 수 없다.
도 2 는 본 발명의 일 실시예에 따른 지상파 방송의 전송 경로를 나타내는 도면이다.
도 2 에 개시된 실시예는, 다채널 방송 사업자(400, Multichannel Video Programming Distributer)가 제공하는 유선 송신을 통해 지상파 컨텐츠를 재전송하는 방법에 대한 것으로, 다채널 방송 사업자(400)로부터 재송신된 방송 컨텐츠가 각각의 다채널 방송 사업자에게 특화된 셋탑 박스(500)로 수신되는 점은 도 1 에 개시된 실시예와 동일하다.
그러나, 도 1 에 개시된 실시예에서, HDMI를 통해 컨텐츠 재생 장치(600)로 전달된 데이터에는 시스템 데이터가 포함되지 않기 때문에 셋탑 박스(500)를 통해 재전송된 컨텐츠를 제공받는 사용자는 양방향 방송 서비스를 이용할 수 없다.
도 1 에 개시된 실시예에서 시스템 데이터를 추가로 전송하기 위해서는 어떠한 전송 채널이 이용될 수 있는지 및 어떠한 데이터를 전송할지 여부가 결정되어야 한다. 오디오 비트스트림을 시스템 데이터를 전달하기 위한 운반자(캐리지, carriage)로 이용하는 경우, 셋탑 박스(500)를 통해 재전송된 컨텐츠를 제공받는 사용자도 양방향 방송 서비스를 이용할 수 있다.
즉, 도 2 에 개시된 실시예와 같이 오디오 데이터에 시스템 데이터를 포함하여 인코딩하는 경우, 다채널 방송 사업자(400)로부터 재전송되는 컨텐츠 중 오디오 데이터에 시스템 데이터에 대한 정보가 포함된다. 따라서 지상파 방송 컨텐츠가 셋탑박스(500)를 통해 재전송되더라도 시스템 데이터는 HDMI 의 오디오 채널을 통해 컨텐츠 재생 장치(600)로 전달될 수 있다.
구체적으로, 컨텐츠 제공자(100)는 방송 컨텐츠의 오디오 데이터를 인코딩할 때 시스템 데이터를 포함하여 인코딩한다. 지상파 방송 사업자(200) 또는 케이블 방송 사업자(300)는 컨텐츠 제공자(100)로부터 전달받은 방송 컨텐츠를 다채널 방송 사업자(400)에게 전달하고, 다채널 방송 사업자(400)는 지상파 방송 사업자(200) 또는 케이블 방송 사업자(300)로부터 전달된 방송 컨텐츠를 사용자의 셋탑 박스(500)로 재전송한다.
셋탑 박스(500)로 수신되는 방송 컨텐츠는 인코딩 된 비트스트림의 형태로 오디오 데이터, 비디오 데이터 및 시스템 데이터를 포함할 수 있다. 이 때, 셋탑 박스(500)로 수신되는 시스템 데이터는 오디오 데이터에 포함되지 않은 다른 시스템 데이터일 수 있다.
셋탑 박스(500)는 비디오 데이터를 디코딩하기 위한 비디오 코덱(510)을 포함할 수 있다. 셋탑 박스(500)는 수신된 오디오 비트스트림(811)을 컨텐츠 재생장치(600)로 전달하며, 수신된 비디오 데이터가 디코딩된 로우(raw) 비디오 데이터(820)를 컨텐츠 재생장치(600)로 전달한다. 이 때, 오디오 비트스트림은 시스템 시그널링을 위한 시스템 데이터를 포함하는 압축된 MPEG-H 오디오 스트림일 수 있다.
컨텐츠 재생장치(600)에는 오디오 컨텐츠를 디코딩하기 위한 오디오 코덱(611)이 포함될 수 있으므로, 컨텐츠 재생장치(600)는 셋탑 박스(500)로부터 전달된 오디오 비트스트림(810)을 디코딩하여 오디오 컨텐츠를 재생할 수 있다.
본 발명의 또 다른 실시예에 따르면, 다른 컨텐츠 제공 주체에 해당하는 지상파 방송 사업자(200), 케이블 방송 사업자(300) 또는 다채널 방송 사업자(400)가 오디오 비트스트림에 시스템 데이터가 포함되도록 오디오 데이터를 인코딩할 수 있다.
여러 전송 채널 중에서 오디오 전송 채널을 이용하여 시스템 데이터를 전달하는 경우의 장점은 다음과 같다.
오디오 비트스트림은 HDMI를 통하여 셋탑 박스에서 TV, 즉 컨텐츠 재생 장치로 데이터를 전송할 때 가장 좋은 운반자가 될 수 있으며 MPEG-H 3D 오디오 스트림 (MHAS, MPEG-H 3D Audio Stream)은 유연한 스킴(scheme)을 가진다. 따라서, 도 2 에 개시된 실시예와 같이 오디오 비트스트림을 시스템 데이터를 전달하기 위한 운반자(carriage)로 이용하는 경우 MPEG-H 3D 오디오 스트림을 활용할 수 있다.
이와 같은 경우, 시스템 데이터는 MHAS 패킷 내에 캡슐화(encapsulation)되어 MHAS 오디오 데이터 스트림의 일부가 된다.
MPEG 시스템 표준은 기능성 용어가 잘 정의되어 있으며 안정성이 제공된다. 또한, 실 사용 형태에서 MPEG 시스템 수신기는 TV인 경우가 대부분일 것으로 예상되며, TV는 MPEG 오디오가 이미 구현되어 있으므로 MPEG 표준에 따르는 오디오 비트스트림의 처리가 가능하다. 즉, MPEG-H 3D 오디오 비트스트림을 데이터 전달자로 이용하는 경우, MPEG 시스템의 신택스(syntax)를 바로 이용할 수 있다.
이와 같이 MPEG-H 3D 오디오 비트스트림을 데이터 전달자로 이용하면, 도 2 에 도시된 바와 같이 HDMI 연결을 통해 시스템 데이터를 MHAS 패킷으로 전송함으로써 시스템 데이터를 이용하는 서비스 시나리오를 구현할 수 있다.
도 3 은 본 발명의 일 실시예에 따른 오디오 디코딩 장치를 포함하는 컨텐츠 재생 장치(600)의 세부 구성도이다.
도 3 에 도시된 바와 같이, 본 발명의 일 실시예에 따른 오디오 디코딩 장치를 포함하는 컨텐츠 재생 장치(600)는 수신부(310), 송신부(320), 디코딩부(330), 재생부(340), 제어부(350) 및 저장부(360)를 포함한다.
수신부(310)는, 셋탑 박스로부터 전송되는 컨텐츠 등을 수신한다. 실시예에 따라 셋탑 박스를 거치지 않고 전송되는 컨텐츠를 함께 수신할 수 있으나, 본 명세서에서는 그에 대한 설명은 생략한다.
셋탑 박스와 컨텐츠 재생 장치가 HDMI를 통해 연결되어 있는 경우, 수신부(310)를 통해 수신되는 신호는 디코딩된 로우(raw) 비디오 데이터 및 디코딩되지 않은 오디오 스트림이 된다. HDMI에는 시스템 데이터의 전송을 위한 별도의 채널이 없으므로 시스템 데이터는 HDMI를 통해 독립적으로 수신될 수 으나, 본 발명의 일 실시예에 따르면 시스템 데이터는 오디오 비트스트림에 포함되어 있으므로 HDMI를 통해 수신될 수 있다.
송신부(320)는, 디코딩부(330)로부터 전달된, 복원된 시스템 데이터를 시스템 엔진으로 전송한다.
디코딩부(330)는, 수신된 컨텐츠를 인코딩 할 때 사용된 코덱에 따라 수신된 컨텐츠를 디코딩한다. 컨텐츠 재생 장치(600)가 TV인 경우, 디코딩부(330)는 비디오 디코딩 및 오디오 디코딩을 모두 수행할 수 있다. 셋탑 박스(500)와 연결된 HDMI를 통해 컨텐츠를 수신한 경우, 수신된 비디오는 이미 디코딩되어 있으므로 수신된 오디오 비트스트림에 대해서만 디코딩을 수행한다.
본 발명의 일 실시에에 따르면 오디오 비트스트림은 시스템 데이터를 포함하고 있으므로, 오디오 비트스트림의 디코딩 결과로 복원된 오디오 신호와 함께 복원된 시스템 데이터를 획득할 수 있다. 디코딩부(330)는 획득된 시스템 데이터를 시스템 데이터가 해당하는 시스템 엔진으로 전달할 수 있다.
재생부(340)는, 복원된 비디오 또는 오디오를 디스플레이 또는 스피커 등을 통해 재생한다.
제어부(350)는, 컨텐츠 재생 장치(600) 전체의 동작을 제어하며 컨텐츠 재생 장치(600)가 복원된 컨텐츠를 재생하고, 획득된 시스템 데이터를 시스템 엔진으로 전달할 수 있도록 수신부(310), 송신부(320), 디코딩부(330), 재생부(340) 및 저장부(360)를 제어한다.
제어부(350)는 수신부(310)를 통해 수신된 오디오 비트스트림에 기초하여 오디오 비트스트림에 포함된 시스템 데이터의 이용 여부를 판단할 수 있다. 제어부(350)의 판단 결과 시스템 데이터를 이용하는 것으로 판단되면, 디코딩(330)부는 추출된 시스템 데이터를 시스템 엔진으로 전송하기 위해 시스템 데이터를 전송부(320)로 전달한다.
저장부(360)는, 컨텐츠 재생 장치(600)가 컨텐츠를 복원하고, 재생하기 위하여 필요한 각종의 정보 및 시스템 데이터를 처리하기 위하여 필요한 각종의 정보를 저장한다. 도 4 는 본 발명의 일 실시예에 따른 오디오 디코딩 방법의 순서도이다.
컨텐츠 재생 장치(600)는 수신부(310)를 통해 컨텐츠를 수신(410)한다. 셋탑 박스와 컨텐츠 재생 장치가 HDMI를 통해 연결되어 있는 경우, 수신부(310)를 통해 수신되는 신호는 디코딩 된 로우(raw) 비디오 데이터 및 디코딩되지 않은 오디오 스트림이 된다.
컨텐츠 재생 장치의 디코딩부(330)는 오디오 인코딩 시 사용된 코덱에 따라 수신된 오디오 비트스트림을 디코딩(420)한다.
본 발명의 일 실시에에 따르면 오디오 비트스트림은 시스템 데이터를 포함하고 있므로, 오디오 비트스트림의 디코딩 결과로 복원된 오디오 신호와 함께 복원된 시스템 데이터를 획득(430)할 수 있다.
디코딩부(330)는 또한 획득된 시스템 데이터를 시스템 엔진으로 전달(440)할 수 있다.
도 5 는 본 발명의 또 다른 실시예에 따른 오디오 디코딩 방법의 순서도이다.
오디오 비트스트림은 시스템 데이터를 전달하기 위한 좋은 운반자에 해당한다. 그러나, 시스템 데이터의 용량이 과도하게 커지게 되면 오디오 비트스트림의 크기가 커지게 되므로 오디오 데이터를 위해 필요한 충분한 용량(대역폭)을 보장하지 못하는 경우가 발생할 수 있다. 따라서, 오디오 데이터의 용량을 충분히 확보하기 위해 시스템 데이터의 용량을 제한할 필요가 있다.
이와 같은 경우, 시스템 데이터를 오디오 비트스트림에 그대로 포함시킬 수 없다. 따라서, 본 발명의 또 다른 실시에에 따르면 시스템 데이터를 특정 위치(서버)등에 저장하고, 오디오 비트스트림에는 시스템 데이터의 위치를 포함할 수 있다. 이 때 시스템 데이터의 위치는 URL(Uniform Resource Locator)일 수 있다.
예를 들어, 오디오 비트스트림에 포함될 수 있는 시스템 데이터의 최대 길이를 256bytes 로 제한하고, 시스템 데이터의 크기가 최대 길이를 초과하는 경우는 오디오 비트스트림에 시스템 데이터가 위치하는 URL을 포함시키는 것이다.
도 5 에 개시된 실시예는 도 4 에 개시된 실시예와 유사하며, 도 4 에 개시된 실시예와 비교하여 시스템 데이터의 위치를 획득(530)하는 과정만 추가된다.
도 6 은 본 발명의 또 다른 실시예에 따른 오디오 디코딩 방법의 순서도이다.
컨텐츠 재생 장치(600)는 수신부(310)를 통해 컨텐츠를 수신(610)한다. 셋탑 박스와 컨텐츠 재생 장치가 HDMI를 통해 연결되어 있는 경우, 수신부(310)를 통해 수신되는 신호는 디코딩 된 로우(raw) 비디오 데이터 및 디코딩되지 않은 오디오 스트림이 된다.
컨텐츠 재생 장치의 디코딩부(330)는 오디오 인코딩 시 사용된 코덱에 따라 수신된 오디오 비트스트림을 디코딩(620)한다.
본 발명의 일 실시에에 따르면 오디오 비트스트림은 시스템 데이터를 포함하고 있므로, 오디오 비트스트림의 디코딩 결과로 복원된 오디오 신호와 함께 복원된 시스템 데이터를 획득(630)할 수 있다.
이 때, 시스템 데이터는 그 시스템 데이터가 적용될 시스템 엔진에 따른 구조 또는 신택스를 가질 수 있다. 따라서, 시스템 데이터를 처리하기 위해 시스템 엔진의 타입을 확인(640)하는 과정이 먼저 수행되어야 한다. 시스템 엔진은 시스템 타입에 대한 파라미터인 sysType이 나타내는 DASH 엔진 (Dynamic Adaptive Streaming over HTTP) 또는 MMT (MPEG Media Transport)엔진을 의미할 수 있다.
이 때, 시스템 타입에 정의된 시스템 엔진이 존재하지 않는 경우, 시스템 데이터는 이용되지 않는 것으로 판단되고 시스템 데이터는 무시된다. 시스템 타입에 정의된 시스템 엔진이 존재한다면 시스템 데이터는 이용되지 않는 것으로 판단되고 시스템 데이터는 시스템 엔진 타입에 해당하는 시스템 엔진으로 전달(650)된다.
도 6 에 개시된 실시예는 도 4 에 개시된 실시예와 유사하며, 도 4 에 개시된 실시예와 비교하여 시스템 엔진 타입을 획득(640)하는 과정이 추가되며, 시스템 데이터를 전달(430)하는 과정이 획득된 타입에 해당하는 시스템 엔진으로 시스템 데이터를 전달(650)하도록 수정된다.
이하 도 7 내지 도 16 에 개시된 실시예에서는 MPEG-H 3D 오디오의 MHAS 패킷을 이용하여 MPEG 시스템 데이터를 전송하는 방법을 설명한다.
도 7 내지 도 15 를 참조하여 다양한 실시예에 따른 시스템 데이터를 나타내는 신택스들을 개시한다.
MPEG-H 3D 오디오의 MHAS 패킷을 이용하여 MPEG 시스템 데이터를 전송하는 경우, 각 용어는 다음과 같이 정의될 수 있다.
시스템 데이터는 (1) 어떤 컨텐츠가 재생될지, (2) 스크린의 어느 부분에서 컨텐츠가 재생될지, 또는(3) 언제 컨텐츠의 재생이 시작될지 등을 나타내는 정보를 포함한다.
시스템 데이터는 MMT 또는 DASH 등과 같은 시스템 엔진과 관련된 데이터로, 시스템 데이터가 있는 위치를 나타내는 MIME (Multipurpose Internet Mail Extensions) 구조를 따르는 DASH 미디어 표현 기술(MPD, Media Presentation Description) 또는 MMT 시그널링 메시지를 의미할 수 있다.
시스템 패킷은 타입, 레이블 및 길이 등의 헤더를 포함하는 완전한 MHAS 패킷을 의미하며 패킷은 변경되지 않은 상태로 시스템 엔진에 전달될 수 있다. 시스템 패킷은 패킷 확장 여부에 대한 정보 또는 시스템 데이터의 버전 등의 정보를 포함할 수 있다.
또는, 시스템 패킷에서 추출된 시스템 데이터가 시스템 엔진으로 전달될 수 있다.
시스템 메시지는 MPEG-H 3D 오디오 디코더에 의해 생성되고 오디오 디코더 외부의 시스템으로 전달되는 메시지로, 프로그램 식별자(program ID), 시스템 타입(sysType), 시스템 데이터 위치(sysDataLocation) 및 갱신여부(isUpdated)등의 파라미터와 그 조합을 의미할 수 있다. 각 메시지에 대해서는 후술한다.
시스템 데이터 URL은 시스템 데이터가 위치하는 URL을 의미한다. 시스템 데이터 URL의 메타타입(metaType)이 UTF-8(SYS_META_UTF8)이면, sysDataLocation(후술함)이 시스템 데이터의 URL을 나타낸다. 시스템 데이터 URL의 메타타입(metaType)이 고정 64비트 Uimsbf 바이너리 (SYS_META_FIXED_64)이면 sysDataLocation64가 시스템 데이터의 URL을 나타낸다.
시스템 엔진은 시스템 타입에 대한 파라미터인 sysType이 나타내는 DASH 엔진 (Dynamic Adaptive Streaming over HTTP) 또는 MMT (MPEG Media Transport)엔진을 의미할 수 있다.
시스템은 MPEG-H 3D 오디오가 구현된 하드웨어인 UHD TV 등을 의미하며 MPEG-H 3D 디코더는 시스템 내부에 구현되어 있다.
컨텐츠 재생 장치(600)는 도 7 내지 도 16 에서 예시된 적어도 하나의 신택스의 순서 및 비트수에 따라, 데이터 스트림으로부터 시스템 데이터를 위한 파라미터들을 획득하고 판독할 수 있다.
도 7 은 본 발명의 일 실시예에 따른 MHAS 패킷의 페이로드를 처리하는 신택스를 설명하기 위한 도면이다.
MHASPacketPayload (7000)는 MPEG-H 3D 오디오의 MHAS 패킷 타입에 따라 페이로드를 처리하는 신택스로, MHASPacketPayload(7000)에서 구성 부분 및 파서(parser)를 도 7 과 같이 MHASPacketType(7010)의 PACTYP_SYSMETA(7020)를 이용하도록 정의할 수 있다. MPEG-H 코덱에 정의되어 있는 MHASPacketPayload 함수를 도 7 과 같이 수정함으로써 MPEG 시스템 데이터를 전송하기 위해 MHAS 패킷을 사용하도록 구현할 수 있다.
즉, MPEG-H 3D 오디오의 MHAS 패킷 타입인 MHASPacketType(7010)이 시스템 메타데이터인 PACTYP_SYSMETA(7020)에 해당하면, SysMetaPacket을 호출(7030)하도록 하는 것이다.
도 8 은 본 발명의 일 실시예에 따른 MHAS 패킷 타입에 대한 MHASPacketType의 값들을 나타내는 도면이다.
MPEG-H 3D 오디오의 MHAS 패킷 타입 MHASPacketType(7010)이 PACTYP_FILLDATA인 경우 MHASPacketType는 0의 값을 가지며(8010), MHAS 패킷 길이만큼 데이터를 채운다.
MPEG-H 3D 오디오의 MHAS 패킷 타입이 PACTYP_SYSMETA(7020)인 경우 MHASPacketType(7010)은 15의 값을 가지며(8150), SysMetaPacket을 호출하여 시스템 메타 데이터를 획득(7030)하고 시스템으로 전달한다.
MHASPacketType(7010)이 16 이상의 값을 갖는 경우는 MHAS 패킷 타입이 정의되지 않고 유보된 경우를 의미한다.
도 9 는 본 발명의 일 실시예에 따른 시스템 데이터 패킷을 처리하는 신택스를 설명하기 위한 도면이다.
MHAS 패킷 타입이 PACTYP_SYSMETA에 해당하는 경우, 도 9 에 개시된 바와 같이 ‘SysMetaPacket’(9000)를 이용해 시스템 데이터가 구성된다.
‘SysMetaPacket’(9000)는 dataLen(9020) 바이트 크기를 갖는 시스템 데이터 sysData(9030)를 읽어서 sysType(9010)에 해당하는 시스템으로 전송하도록 정의된다.
sysType(9010)은 8비트의 uimsbf로, 시스템 데이터가 사용되는 MIME 타입 또는 시스템 데이터 sysData(9030)가 전송될 시스템 엔진의 타입을 나타낸다.
dataLen(9020)은 시스템 데이터의 길이를 나타내며, 시스템 데이터의 최대 길이는 256 바이트로 제한될 수 있다. 이와 같이 시스템 데이터의 길이가 제한되기 때문에 시스템 데이터의 크기가 256 바이트를 초과하는 경우는 시스템 데이터 대신 DASH MPD 또는 MMT PA(Package Access) 시그널링 메시지의 위치를 나타내는 URL를 오디오 비트스트림에 포함하여 전달할 수 있다.
도 10 은 본 발명의 일 실시예에 따른 시스템 데이터 패킷을 처리하는 신택스를 설명하기 위한 도면이다.
도 10 은 sysType(9010)의 신택스로, 도 10 의 첫번째 열(column)은 sysType(9010)이 가질 수 있는 각 시스템 엔진 타입을 나타낸다. 도 10의 두번째 열은 각 시스템 엔진의 타입에 따른 sysType(9010)의 값을, 세번째 열은 각 시스템 엔진의 타입에 해당하는 MIME 타입을 나타낸다.
sysType(9010)이 정의되지 않은 경우, sysType 값은 0이며 해당하는 MIME 타입 역시 정의되지 않는다.
sysType(9010)이 MMT인 경우, sysType 값은 1이며 해당하는 MIME 타입은 애플리케이션/MMT 시그널링 및 xml(extensible markup language)가 된다.
sysType(9010)이 DASH인 경우, sysType 값은 2이며 해당하는 MIME 타입은 애플리케이션/DASH 시그널링 및 xml(extensible markup language)가 된다.
sysType 값이 3-255인 경우는 타입의 정의가 유보(reserved)되어 있으며, 구체적으로 그 값이 3-127인 경우는 ISO(International Organization for Standardization)를 위해, 그 값이 128-255인 경우는 사용자 설정을 위해 그 정의가 유보되어 있다.
시스템 엔진의 타입에 해당하는 sysType은 MIME 형식을 따를 수 있지만, MIME 형식을 따르지 않을 수도 있으며 이와 같은 경우 경우 MIME 타입 정보는 무시된다.
sysType(9010)이 정의되지 않거나 유보된 경우 시스템 데이터는 폐기된다.
도 11 은 본 발명의 또 다른 실시예에 따른 시스템 데이터 패킷을 처리하는 신택스를 도시한다.
상술한 바와 같이, 오디오 비트스트림을 위한 데이터 용량이 제한되어 있으므로 시스템 데이터의 용량이 큰 경우 시스템 데이터 전부를 오디오 비트스트림에 포함시킬 수 없다. 따라서 시스템 데이터의 최대 길이는 258 바이트로 제한되며 시스템 데이터의 크기가 258 바이트를 초과하는 경우는 시스템 데이터 대신 시스템 데이터의 위치를 오디오 비트스트림에 포함시킬 수 있다.
‘SysMetaPacket’(1100)는 sysType(1110), sysDataLocation(1130), 및 isDataUpdated(1140)의 세개 필드를 읽어온다.
sysType(1110)은 8비트의 uimsbf로, 시스템 데이터가 사용되는 MIME 타입 및 시스템 데이터 sysData(1130)가 전송될 시스템 엔진의 타입을 나타낸다.
dataLen(1120)은 시스템 데이터의 길이를 나타내며, 시스템 데이터의 최대 길이는 258 바이트로 제한될 수 있다. 이와 같이 시스템 데이터의 길이가 제한되기 때문에 시스템 데이터의 크기가 258 바이트를 초과하는 경우는 시스템 데이터 대신 DASH MPD 또는 MMT PA시그널링 메시지의 위치를 나타내는 URL를 오디오 비트스트림에 포함하여 전달할 수 있다.
sysDataLocation(1130)은 8*dataLen 비트의 bslbf (bit string left bit first)로, 시스템 데이터가 위치하는 URL을 나타낼 수 있다.
isDataUpdated(1140)는 sysDataLocation(1130)의 시스템 데이터가 변경되었는지를 나타내는 불리안(Boolean) 플래그로, 불필요한 패칭 수행을 방지하고 효율적인 패칭을 수행하기 위해 지정된다.
도 12 에서는 프로그램 식별자를 이용하여 시스템 데이터 패킷을 처리하는 방법을 개시한다.
도 12 의 ‘SysMetaPacketConfig’(1200)는 일 실시예에 따른 시스템 데이터 구성을 처리하는 신택스를 나타낸다. MHAS 패킷 타입이 PACTYP_SYSMETA에 해당하는 경우 도 7 과 같이 ‘SysMetaPacketConfig’(1200)가 추가로 정의될 수 있다.
‘SysMetaPacketConfig’(1200)는 시스템의 잘못된 실행을 방지하기 위해 프로그램 식별자(1210, programID)를 읽어온다. 프로그램 식별자(1210)는 32비트의 uimsbf(unsigned integer most significant bit first) 이다.
프로그램 식별자(1210)는 현재 프로그램의 특유한 식별자를 나타내거나 현재 프로그램이 시스템 데이터 캐리지를 사용하는지 여부를 나타낸다. 즉, 프로그램 식별자(1210)는 읽어온 시스템 데이터가 현재 재생되고 있는 프로그램에 대해 유효한지 여부를 확인하기 위해 이용된다.
프로그램 식별자 programID의 초기값을 0으로 설정하고, 채널 변경 등으로 인해 프로그램이 변경된 경우 programID를 갱신한다. SysMetaPacket를 호출하기 전에 SysMetaPacketConfig를 먼저 호출하여 programID를 확인함으로써 시스템 데이터 캐리지 사용 여부 및 시스템 데이터가 재생되고 있는 프로그램에 대해 유효한지 여부를 확인할 수 있다.
예를 들어, 방송 채널이 변경되었을 때, 다른 프로그램 식별자가 읽혀지면 시스템은 다른 프로그램 식별자에 대한, 그 이전의 모든 시스템 메시지를 삭제한다. 현재 프로그램이 시스템 데이터 캐리지를 사용하지 않을 때 프로그램 식별자는 0(0x0000)으로 설정되며 시스템은 그 이전의 모든 시스템 메시지를 삭제할 수 있다.
이하 도 13 내지 도 15 를 참조하여 SysMetaPacketConfig 및 SysMetaPacket의 동작을 보다 자세히 설명한다.
도 13 은 본 발명의 일 실시예에 따른 SysMetaPacketConfig의 동작을 개시한다.
SysMetaPacketConfig에서 programID가 읽어지면, 그 필드값이 변경될 때 programID에 해당하는 시스템 메시지는 시스템으로 전송된다. 시스템 메시지 내의 programID에 기초하여 시스템은 그 이전의 시스템 데이터를 리셋해야 하는, 소스 디바이스의 채널 변경 등의, 이벤트를 알 수 있다. 이 때 SysMetaPacketConfig에서, 도 13과 같이 결정된 시스템 메시지가 시스템으로 전송된다.
도 14 는 본 발명의 일 실시예에 따른 SysMetaPacket의 동작을 개시한다.
SysMetaPacket이 실행되면, MPEG-H 3D 오디오 디코더는 MIIME 타입, 데이터 URL 현재의 프로그램 식별자를 도 14와 같이 통합하여 시스템 메시지인 msg를 생성한다.
도 15 는 본 발명의 또 다른 실시예에 따른 SysMetaPacket의 동작을 개시한다.
불필요한 패칭 수행을 방지하기 위해, MPEG-H 3D 오디오 디코더는 sysDataLocation이 변경되거나, sysDataLocation이 변경되지는 않았지만 해당 링크의 시스템 데이터가 도 15와 같이 변경되는 경우에만 시스템 데이터 msg를 시스템에 전달하도록 구현될 수 있다.
MPEG-H 3D 오디오 디코더는 시스템이 sysDataLocation에 위치하는 시스템 데이터를 패치하여 시스템이 시스템 데이터를 시스템 엔진에 전송할 수 있도록 시스템 메시지를 생성하고 전달한다. sysDataLocation에 위치하는 시스템 데이터는 DASH PMD 또는 MMT 시그널링 메시지로, MIME 타입을 따를 수 있다.
이상에서는 시스템이 sysDataLocation에 위치하는 시스템 데이터를 패치하여 시스템 데이터를 시스템 엔진으로 전송할 수 있는 인터페이스를 제공하기 위한 MPEG-H 3D 오디오 디코더의 동작을 설명하였다.
도 16 은 본 발명의 일 실시예에 따른 시스템 레벨의 동작 개요를 도시한 도면이다.
MPEG-H 3D 오디오 신호를 시스템 데이터 운반자로 이용하기 위해서는 MPEG-H 3D 오디오 디코더와 시스템 엔진이 서로 상호작용해야 하며, 시스템은 시스템 데이터를 패치하고 시스템 엔진에 시스템 데이터를 전달하기 위해 다음과 같은 동작이 구현되어야 한다.
(1) SysMetaPacket에 의해 생성된 시스템 메시지 msg가 수신되면, 시스템은 시스템 내에 타겟 시스템 엔진이 존재하고, 시스템에 광대역 네트워크가 연결되어 있는지 여부에 기초하여 시스템 메시지 msg를 처리할 수 있는지를 확인한다.
(2) 확인 결과 처리할 수 있다면, 메시지 내의 url 필드에 정의된 시스템 데이터를 패치(fetch) 한다. 만일 URL이 이전에 수신된 URL과 동일하고 isUPdated 가 0이라면, 시스템은 시스템 데이터를 패치하지 않을 수 있다.
(3) MIME 타입 설명에 해당하는 시스템 엔진으로 패치된 시스템 데이터를 전송한다.
또한, 프로그램이 변경된 경우 기존에 로딩된 시스템 메시지 및 데이터를 삭제(clear)하기 위해 이벤트를 탐지(detect)해야 한다.
(1) SysMetaPacketConfig에 의해 생성된, mProgID 필드만 가지는 msg 가 오디오 디코더로부터 수신되면, 시스템은 mProgID와 이전에 수신된 mProgID를 비교한다. 만일 두개가 서로 상이하다면, mProgID가 아닌 다른 programID와 관련된 모든 동작과 버퍼를 삭제하여 다른 프로그램에 속하는 모든 시스템 데이터를 삭제한다.
(2) mProgID가 변경되면, 시스템은 시스템 엔진에 프로그램이 변경되었으므로, 이전의 프로그램에 대한, 기존에 로딩된 시스템 동작은 실행되지 않는다는 시스템 메시지를 전송한다.
본 발명의 일 실시예에 따른 오디오 디코딩 장치를 포함하는 컨텐츠 재생 장치는 TV일 수 있으며, 본 발명의 또다른 일 실시예에 따른 시스템 엔진은 MMT 엔진일 수 있다.
MHASPacketType이 PACTYP_SYSMETA인 MHAS 패킷이 MPEG-H 3D 오디오 디코더에 전달되면, 디코더는 디코딩된 PCM 데이터를 재생부(미도시)로 전송하고, 시스템 패킷을 MMT 엔진으로 전송한다(1’).
만일, 시스템 데이터의 용량이 커서 시스템 패킷에 시스템 데이터가 아닌 시스템 데이터의 위치가 포함되어 있다면, 디코더는 시스템 메시지를 처리하기 위한 데몬(demon)으로 시스템 패킷을 전송(1)한다. 데몬은 시스템 메시지에 포함된 위치에 기초하여 시스템 데이터를 패치(2)하고, 패치하여 얻은 시스템 데이터를 MMT 엔진으로 전송(3)한다.
MMT 엔진은 수신한 시스템 패킷 또는 시스템 데이터를 이용하여 MMT PA메시지를 패치하고, MMT PA 메시지를 해석한다.
이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항과 한정된 실시예 및 도면에 의하여 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐, 본 발명이 상기 실시예에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정과 변경을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.

Claims (15)

  1. 오디오 패킷들로 구성된 비트스트림을 수신하는 단계;
    상기 수신된 비트스트림에 포함된 오디오 패킷의 타입을 추출하는 단계;
    상기 오디오 패킷의 타입이 시스템 메타데이터에 해당하는 경우, 상기 오디오 패킷으로부터 시스템 데이터 및 시스템 엔진의 타입을 나타내는 정보를 획득하는 단계;
    상기 시스템 엔진의 타입을 나타내는 정보가 정의되는 값을 가지는 경우, 상기 시스템 엔진의 타입을 나타내는 정보에 해당하는 시스템 엔진에 상기 오디오 패킷을 전달하는 단계; 및
    상기 시스템 엔진의 타입을 나타내는 정보가 정의되지 않는 값을 가지는 경우, 상기 오디오 패킷을 폐기하는 단계를 포함하는,
    오디오를 디코딩하는 방법.
  2. 제 1 항에 있어서,
    상기 시스템 엔진의 타입은,
    MMT(MPEG Media Transport) 및 DASH(Dynamic Adaptive Streaming over HTTP) 중 적어도 하나를 나타내는,
    오디오를 디코딩하는 방법.
  3. 제 1 항에 있어서,
    상기 수신하는 단계는,
    상기 획득된 시스템 데이터의 이용 여부를 결정하는 단계;를 더 포함하는,
    오디오를 디코딩하는 방법.
  4. 제 1 항에 있어서,
    HDMI(High Definition Multimedia Interface)를 통해 오디오 비트스트림을 수신하는,
    오디오를 디코딩하는 방법.
  5. 삭제
  6. 삭제
  7. 제 1 항에 있어서,
    상기 비트스트림은 MHAS(MPEG-H 3D Audio Stream)인,
    오디오를 디코딩하는 방법.
  8. 오디오 패킷들로 구성된 비트스트림을 수신하는 수신부;
    상기 수신된 비트스트림에 포함된 오디오 패킷의 타입을 추출하고, 상기 오디오 패킷의 타입이 시스템 메타데이터에 해당하는 경우, 상기 오디오 패킷으로부터 시스템 데이터 및 시스템 엔진의 타입을 나타내는 정보를 획득하는 제어부; 및
    상기 시스템 엔진의 타입을 나타내는 정보가 정의되는 값을 가지는 경우, 상기 시스템 엔진의 타입을 나타내는 정보에 해당하는 시스템 엔진에 상기 오디오 패킷을 전달하는 송신부;를 포함하고,
    상기 제어부는, 상기 시스템 엔진의 타입을 나타내는 정보가 정의되지 않는 값을 가지는 경우, 상기 오디오 패킷을 폐기하는 것을 특징으로 하는,
    오디오를 디코딩하는 장치.
  9. 제 8 항에 있어서,
    상기 시스템 엔진의 타입은,
    MMT(MPEG Media Transport) 및 DASH(Dynamic Adaptive Streaming over HTTP) 중 적어도 하나를 나타내는,
    오디오를 디코딩하는 장치.
  10. 제 8 항에 있어서,
    상기 제어부는, 상기 획득된 시스템 데이터의 이용 여부를 결정하는,
    오디오를 디코딩하는 장치.
  11. 제 8 항에 있어서,
    상기 수신부는,
    HDMI(High Definition Multimedia Interface)를 통해 오디오 비트스트림을 수신하는,
    오디오를 디코딩하는 장치.
  12. 삭제
  13. 삭제
  14. 제 8 항에 있어서,
    상기 비트스트림은 MHAS(MPEG-H 3D Audio Stream)인,
    오디오를 디코딩하는 장치.
  15. 제 1 항 내지 제 4 항 및 제 7 항 중 어느 한 항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체.
KR1020177018026A 2015-02-14 2016-02-15 시스템 데이터를 포함하는 오디오 비트스트림을 디코딩하는 방법 및 장치 KR102070434B1 (ko)

Applications Claiming Priority (15)

Application Number Priority Date Filing Date Title
US201562116424P 2015-02-14 2015-02-14
US62/116,424 2015-02-14
US201562116533P 2015-02-15 2015-02-15
US62/116,533 2015-02-15
US201562117746P 2015-02-18 2015-02-18
US62/117,746 2015-02-18
US201562166056P 2015-05-25 2015-05-25
US62/166,056 2015-05-25
US201562173665P 2015-06-10 2015-06-10
US62/173,665 2015-06-10
US201562181089P 2015-06-17 2015-06-17
US62/181,089 2015-06-17
US201562238832P 2015-10-08 2015-10-08
US62/238,832 2015-10-08
PCT/KR2016/001508 WO2016129976A1 (ko) 2015-02-14 2016-02-15 시스템 데이터를 포함하는 오디오 비트스트림을 디코딩하는 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20170095260A KR20170095260A (ko) 2017-08-22
KR102070434B1 true KR102070434B1 (ko) 2020-01-28

Family

ID=56615563

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177018026A KR102070434B1 (ko) 2015-02-14 2016-02-15 시스템 데이터를 포함하는 오디오 비트스트림을 디코딩하는 방법 및 장치

Country Status (5)

Country Link
US (3) US10217471B2 (ko)
EP (1) EP3240195B1 (ko)
KR (1) KR102070434B1 (ko)
CN (2) CN107430860B (ko)
WO (1) WO2016129976A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9755235B2 (en) 2014-07-17 2017-09-05 Ada Technologies, Inc. Extreme long life, high energy density batteries and method of making and using the same
EP3756355A1 (en) 2018-02-22 2020-12-30 Dolby International AB Method and apparatus for processing of auxiliary media streams embedded in a mpeg-h 3d audio stream
WO2019203627A1 (ko) * 2018-04-20 2019-10-24 엘지전자 주식회사 트랜지션 이펙트에 관한 오디오 데이터를 송수신하는 방법 및 그 장치

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7394406B2 (en) * 2002-12-17 2008-07-01 Broadcom Corporation Method and system for generating high definition multimedia interface (HDMI) codewords using a TMDS encoder/decoder
JP4828906B2 (ja) * 2004-10-06 2011-11-30 三星電子株式会社 デジタルオーディオ放送でのビデオサービスの提供及び受信方法、並びにその装置
EP1783769A4 (en) * 2005-02-18 2011-11-30 Panasonic Corp CONTINUOUS REPRODUCTION DEVICE AND CONTINUOUS POWER SUPPLY DEVICE
US20080259211A1 (en) * 2007-04-23 2008-10-23 Nokia Corporation Using Subtitles for Other Purposes
CN101772961B (zh) * 2007-08-02 2012-07-11 索尼公司 图像处理装置
US8660516B2 (en) * 2008-09-17 2014-02-25 Telefonaktiebolaget Lm Ericsson (Publ) Emergency notification method and a node
EP2343907A4 (en) * 2008-10-10 2012-06-20 Lg Electronics Inc RECEPTION SYSTEM AND METHOD OF PROCESSING DATA
KR20100092693A (ko) * 2009-02-13 2010-08-23 엘지전자 주식회사 영상신호 처리방법 및 시스템
JP5604827B2 (ja) * 2009-08-21 2014-10-15 ソニー株式会社 送信装置、受信装置、プログラム、及び通信システム
JP5569339B2 (ja) * 2010-11-02 2014-08-13 富士通株式会社 基地局、検出装置、通信システムおよび検出方法
KR101664424B1 (ko) * 2012-07-05 2016-10-10 엘지전자 주식회사 디지털 서비스 신호 처리 방법 및 장치
US9479886B2 (en) * 2012-07-20 2016-10-25 Qualcomm Incorporated Scalable downmix design with feedback for object-based surround codec
JP2016521500A (ja) * 2013-04-16 2016-07-21 エルジー エレクトロニクス インコーポレイティド 放送伝送装置、放送受信装置、放送伝送装置の動作方法及び放送受信装置の動作方法
TWM487509U (zh) * 2013-06-19 2014-10-01 杜比實驗室特許公司 音訊處理設備及電子裝置
GB2516824A (en) * 2013-07-23 2015-02-11 Nokia Corp An apparatus, a method and a computer program for video coding and decoding
KR102189223B1 (ko) 2014-07-10 2020-12-10 삼성디스플레이 주식회사 유기 발광 표시 장치, 그 구동 방법 및 제조 방법

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Iraj Sodagar. The mpeg-dash standard for multimedia streaming over the internet. IEEE MultiMedia, 2011.*
Shuichi Aoki, et al. Effective usage of MMT in broadcasting systems. IEEE International Symposium on Broadband Multimedia Systems and Broadcasting (BMSB). 2013.10.08.*
Stephan Schreiner, et al. Extensions to the MHAS syntax. ISO/IEC JTC1/SC29/WG11 m33601. 2014.06.02.*
Stephan Schreiner, et al. Transport of User Interaction Data in an MPEG-H Bitstream. ISO/IEC JTC1/SC29/WG11 m33608. 2014.06.02.*

Also Published As

Publication number Publication date
KR20170095260A (ko) 2017-08-22
EP3240195A1 (en) 2017-11-01
US10891965B2 (en) 2021-01-12
US20180033443A1 (en) 2018-02-01
US10217471B2 (en) 2019-02-26
CN113113031A (zh) 2021-07-13
CN107430860A (zh) 2017-12-01
CN107430860B (zh) 2021-04-30
US20200219520A1 (en) 2020-07-09
US10672410B2 (en) 2020-06-02
WO2016129976A1 (ko) 2016-08-18
US20190147899A1 (en) 2019-05-16
EP3240195B1 (en) 2020-04-01
CN113113031B (zh) 2023-11-24
EP3240195A4 (en) 2017-12-13

Similar Documents

Publication Publication Date Title
US11317138B2 (en) Method and apparatus for transmitting or receiving service signaling for broadcasting service
US9621931B2 (en) Method of processing non-real time service and broadcast receiver
US10070188B2 (en) Method of processing non-real time service and broadcast receiver
US8307393B2 (en) Method of processing non-real time service and broadcast receiver
US10891965B2 (en) Method and apparatus for decoding audio bitstream including system data
US10887242B2 (en) Apparatus for transmitting broadcast signal, apparatus for receiving broadcast signal, method for transmitting broadcast signal and method for receiving broadcast signal
US20180359495A1 (en) Apparatus for broadcast signal transmission, apparatus for broadcast signal reception, method for broadcast signal transmission, and method for broadcast signal reception
US11770595B2 (en) Transmission apparatus, transmission method, reception apparatus, and reception method
KR102391586B1 (ko) 시청각 콘텐츠 스트림을 mpeg2 사설 섹션내에 캡슐화하는 방법, mpeg2 전송 스트림 내에 멀티플렉스되어질 mpeg2 사설 섹션내에 시청각 콘텐츠를 캡슐화하는 장치, 디지털 tv용의 양방향 어플리케이션, 사용자 장치, 시청각 콘텐츠 또는 데이터의 전송을 위한 방법 및 데이터 네트워크를 위한 통신 프로토콜

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant