WO2015065037A1 - Hevc 기반의 ip 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치 - Google Patents

Hevc 기반의 ip 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치 Download PDF

Info

Publication number
WO2015065037A1
WO2015065037A1 PCT/KR2014/010237 KR2014010237W WO2015065037A1 WO 2015065037 A1 WO2015065037 A1 WO 2015065037A1 KR 2014010237 W KR2014010237 W KR 2014010237W WO 2015065037 A1 WO2015065037 A1 WO 2015065037A1
Authority
WO
WIPO (PCT)
Prior art keywords
video stream
information
video
hevc
stream
Prior art date
Application number
PCT/KR2014/010237
Other languages
English (en)
French (fr)
Inventor
황수진
서종열
윤준희
오현묵
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to JP2016518088A priority Critical patent/JP6280212B2/ja
Priority to US15/023,278 priority patent/US9854333B2/en
Priority to KR1020167006601A priority patent/KR101797504B1/ko
Publication of WO2015065037A1 publication Critical patent/WO2015065037A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8451Structuring of content, e.g. decomposing content into time segments using Advanced Video Coding [AVC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23611Insertion of stuffing data into a multiplex stream, e.g. to obtain a constant bitrate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6112Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving terrestrial transmission, e.g. DVB-T
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]

Definitions

  • the present invention relates to the transmission and reception of broadcast signals. More specifically, the present invention relates to a method and / or apparatus for transmitting / receiving a broadcast signal for providing an HEVC-based IP broadcast service.
  • HbbTV a European hybrid TV that combines real-time broadcasting and data broadcasting through a broadband network, is being used in each country and laying the foundation for its spread. In addition to public broadcasting, private broadcasters are releasing HbbTV services. Europe is leading the market. Due to low development costs and favorable commercial launches, not only UK and Switzerland but also Eastern European broadcasters are interested in HbbTV. In recent years, HbbTV has introduced technology that combines copper recognition, personalization, and multi-screen.
  • Hybrid Broadcast Broadband is a converged TV technology standard and service that started with German and French broadcasters in order to create new broadcasts by combining contents / services of existing broadcasts and contents / services of the Internet. Means.
  • the HbbTV standard has great strengths in development costs and timely release because only a few new technical elements are introduced to create a standard, and most of them reuse certain existing and validated standards as they are.
  • the current HbbTV standard provides only AVC codec-based SD / HD 25fps, so it is necessary to provide HEVC-based high-definition media service in accordance with the trend of consumers requiring high-definition.
  • An object of the present invention is to solve the above-described problems, and to provide a method and / or apparatus for transmitting and receiving broadcast signals in order to provide a HEVC-based broadcast service.
  • an object of the present invention is to provide a high-definition broadcasting service by further defining a video profile suitable for HEVC-based services.
  • an object of the present invention is to provide a high quality broadcast service by further defining a video attribute suitable for HEVC-based services.
  • an object of the present invention is to provide a signaling method for identifying a HEVC based service at a system level.
  • an object of the present invention is to provide a signaling method for knowing the characteristics of HEVC-based services at the system level.
  • an object of the present invention is to provide a method for transmitting information about HEVC-based services through an IP network.
  • the broadcast signal transmission method comprises the steps of encoding video data to generate a video stream, information indicating that the generated video stream is a HEVC video stream, information indicating the characteristics of the generated video stream and the Generating signaling information including any one of information indicating that the broadcast service based on the generated video stream is an HEVC-based broadcast service, multiplexing the generated video stream and signaling information, and the multiplexed broadcast stream It may include the step of transmitting.
  • the signaling information includes at least one of a Program Map Table (PMT), an Event Information Table (EIT), and a Service Description Table (SDT), wherein the PMT includes information indicating that the HEVC video stream is provided.
  • the EIT may include information indicating a characteristic of the video stream
  • the SDT may include information indicating that the HEVC is a broadcast service based on the HEVC.
  • the signaling information may include information indicating a wide brightness range of the generated video stream.
  • the signaling information may include color adjustment information for enhanced color representation of the generated video stream.
  • the information representing the characteristics of the video stream may include codec information, resolution information, frame rate information, and bit number information used to represent colors from black to white.
  • the information representing the characteristics of the video stream may include tier information for identifying whether the generated video stream is a stream for broadcasting or a stream for storage.
  • the signaling information may have a table section form or an XML form.
  • a broadcast signal receiving apparatus includes a receiver for receiving a multiplexed broadcast stream, a demultiplexer for extracting video streams and signaling information from the received multiplexed broadcast stream, wherein the signaling information is the And any one of information indicating that the extracted video stream is an HEVC video stream, information indicating characteristics of the extracted video stream, and information indicating that a broadcast service based on the extracted video stream is an HEVC-based broadcast service.
  • the video decoder may decode the extracted video stream using the extracted signaling information.
  • the signaling information includes at least one of a Program Map Table (PMT), an Event Information Table (EIT), and a Service Description Table (SDT), wherein the PMT includes information indicating that the HEVC video stream is provided.
  • the EIT may include information indicating a characteristic of the video stream
  • the SDT may include information indicating that the HEVC is a broadcast service based on the HEVC.
  • the signaling information may include information indicating a wide brightness range of the generated video stream.
  • the signaling information may include color adjustment information for enhanced color representation of the generated video stream.
  • the information representing the characteristics of the video stream may include codec information, resolution information, frame rate information, and bit number information used to represent colors from black to white.
  • the information representing the characteristics of the video stream may include tier information for identifying whether the generated video stream is a stream for broadcasting or a stream for storage.
  • the signaling information may have a table section form or an XML form.
  • An apparatus for transmitting broadcast signals includes an encoder for generating a video stream by encoding video data, information indicating that the generated video stream is an HEVC video stream, information indicating characteristics of the generated video stream, and A signaling information generator for generating signaling information including any one of information indicating that the broadcast service based on the generated video stream is an HEVC-based broadcast service, a multiplexer for multiplexing the generated video stream and signaling information; It may include a transmitter for transmitting the multiplexed broadcast stream.
  • a method for receiving a broadcast signal comprising: receiving a multiplexed broadcast stream, extracting a video stream and signaling information from the received multiplexed broadcast stream, wherein the signaling information is extracted One of information indicating that a video stream is an HEVC video stream, information indicating a characteristic of the extracted video stream, and information indicating that a broadcast service based on the extracted video stream is an HEVC-based broadcast service; And decoding the extracted video stream by using the received signaling information.
  • FIG. 1 is a diagram illustrating a configuration of a program map table (PMT) according to an embodiment of the present invention.
  • EIT event information table
  • component_descriptor is a diagram illustrating a configuration of a component descriptor (component_descriptor) according to an embodiment of the present invention.
  • FIG. 4 illustrates a description of stream_content and component_type according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating a configuration of a wide area brightness range descriptor including wide area brightness range information according to an embodiment of the present invention.
  • FIG. 6 is a diagram illustrating a configuration of global brightness range information (dynamic_range_transformation_metadata) according to an embodiment of the present invention.
  • FIG. 7 is a diagram illustrating a configuration of a color adjustment information descriptor including color adjustment information according to an embodiment of the present invention.
  • color_management_metadata is a diagram illustrating a configuration of color adjustment information (color_management_metadata) according to an embodiment of the present invention.
  • SDT service description table
  • service_descriptor 10 is a diagram illustrating a configuration of a service descriptor (service_descriptor) according to an embodiment of the present invention.
  • FIG. 11 is a diagram illustrating a service_type for identifying an HEVC-based broadcast service according to an embodiment of the present invention.
  • FIG. 12 illustrates system formats, video formats, and audio formats used in HbbTV according to an embodiment of the present invention.
  • FIG. 13 is a diagram illustrating system formats, video formats, and audio formats used in a video system having a 25 Hz frame rate according to an embodiment of the present invention.
  • FIG. 14 is a diagram illustrating system formats, video formats, and audio formats used in a video system having a 30 Hz frame rate according to an embodiment of the present invention.
  • FIG. 15 is a diagram illustrating a video format in xml form for providing a HEVC service according to an embodiment of the present invention.
  • 16 illustrates a video format using termID according to an embodiment of the present invention.
  • FIG. 17 is a diagram illustrating a video format using termID to provide a HEVC-based broadcast service according to an embodiment of the present invention.
  • FIG. 18 is a diagram illustrating a video profile for providing an HEVC service according to an embodiment of the present invention.
  • FIG. 19 illustrates a video attribute type according to an embodiment of the present invention.
  • FIG. 20 is a diagram illustrating a video attribute according to an embodiment of the present invention.
  • 21 is a diagram illustrating a video attribute in xml form according to an embodiment of the present invention.
  • FIG. 22 illustrates AspectRatioOrgType and AspectRatioDisplayType according to an embodiment of the present invention.
  • FIG. 23 is a diagram illustrating AFDBarType according to an embodiment of the present invention.
  • 25 is a diagram illustrating video attributes for providing UHD service according to an embodiment of the present invention.
  • 26 is a diagram illustrating a structure of a broadcast reception device according to an embodiment of the present invention.
  • FIG. 27 is a diagram illustrating a process of a broadcast signal transmission method according to an embodiment of the present invention.
  • FIG. 28 is a diagram showing the structure of a broadcast signal receiving apparatus according to an embodiment of the present invention.
  • 29 is a diagram showing the structure of a broadcast signal transmission apparatus according to an embodiment of the present invention.
  • FIG. 30 is a view showing a broadcast signal receiving method according to an embodiment of the present invention.
  • FIG. 1 is a diagram illustrating a configuration of a program map table (PMT) according to an embodiment of the present invention.
  • PMT is a table_id field, section_syntax_indicator field, section_length field, program_number field, version_number field, current_next_indicator field, section_number field, last_section_number field, PCR_PID field, program_info_length field, descriptor (), stream_type field, elementary_PID field, It includes an ES_info_length field, a descriptor () and / or a CRC_32 field.
  • the table_id field identifies the type of table.
  • the table_id field may serve to indicate that this table section is a section constituting the PMT.
  • the section_syntax_indicator field represents the format of a table section following this field. If the value of this field is 0, this table section is in short format. If the value of this field is 1, the table section follows the general long format.
  • the section_length field represents the length of this table section. Since the section_length field represents the length from the field to the end of the table section, the actual length of the table section may be 3 bytes plus the value indicated by the sercion_length field.
  • the program_number field identifies each program service or virtual channel existing in the transport stream.
  • the version_number field represents a version number of a private table section.
  • the receiver may find the most recent table section stored in the memory using this field and the current_next_indicator field to be described later.
  • the current_next_indicator field If the value indicated by the current_next_indicator field is 1, this indicates that the currently transmitted table is valid. If 0, the currently transmitted table is not valid now but will be valid later.
  • the section_number field indicates which section of the table this section is.
  • the last_section_number field indicates the sequence number of the last section among the sections configuring the table.
  • the PCR_PID field represents a packet ID in which a program clock reference (PCR) for a program service exists.
  • the program_info_length field represents the length of a descriptor indicating a program information (program_info) that follows.
  • descriptor () means a descriptor indicating information on a program corresponding to the corresponding table section.
  • the stream_type field represents the type of each unit stream constituting the program described in this table.
  • This field may indicate that the video stream constituting the program is a video stream encoded by the HEVC codec, that is, an HEVC video stream.
  • this field may have a value of 0x24 or 0x25. If the value indicated by this field is 0x24, this field may indicate that the corresponding video stream is an HEVC video stream or an HEVC temporal video sub-bitstream. If the value indicated by this field is 0x25, this field may indicate that the corresponding video stream is an HEVC temporal video subset of the HEVC video stream according to an embodiment of the present invention.
  • the above-described HEVC temporal video sub-bitstream may mean a substream included in one video stream. That is, HEVC provides itself with temporal scalability, where a stream defined by one temporal id may mean a sub-bitstream.
  • the above-described HEVC temporal video subset may mean a stream not included in the above-described sub-bitstream.
  • one of the aforementioned subsets may be one stream, several subsets may be one stream, and one subset may be multiple streams.
  • the elementary_PID field indicates a packet ID of each unit stream constituting the program described in this table.
  • the ES_info_length field indicates the length of a descriptor indicating information (ES_info) for each unit stream that follows.
  • the descriptor () means a descriptor indicating information about one unit stream among the unit streams constituting the program described in this table.
  • the CRC_32 field represents a CRC value used to check whether there is an error in data included in the table section.
  • the PMT according to an embodiment of the present invention may be transmitted in band through MPEG-TS, and the entire PSI information including the PMT may be transmitted through IP in xml form.
  • EIT event information table
  • EIT is a table_id field, section_syntax_indicator field, section_length field, service_id field, version_number field, current_next_indicator field, section_number field, last_section_number field, transport_stream_id field, original_network_id field, segment_last_section_number field, last_table_id field, event_id field Field, duration field, running_status field, free_CA_mode field, descriptors_loop_length field, descriptor () and / or CRC_32 field.
  • the table_id field identifies the type of table.
  • the table_id field may serve to indicate that this table section is a section constituting the EIT.
  • the section_syntax_indicator field represents the format of a table section following this field. If the value of this field is 0, this table section is in short format. If the value of this field is 1, the table section follows the general long format.
  • the section_length field represents the length of this table section.
  • the section_length field may indicate the length from this field to the end of the table section.
  • the service_id field identifies each service existing in the transport stream.
  • the service_id field may have the same function as the program_number field in the PMT.
  • the version_number field represents a version number of a private table section.
  • the receiver may find the most recent table section stored in the memory using this field and the current_next_indicator field to be described later.
  • the current_next_indicator field If the value indicated by the current_next_indicator field is 1, this indicates that the currently transmitted table is valid. If 0, the currently transmitted table is not valid now but will be valid later.
  • the section_number field indicates which section of the table this section is.
  • the last_section_number field indicates the sequence number of the last section among the sections configuring the table.
  • the transport_stream_id field identifies a transport stream (TS) to be described in this table.
  • the original_network_id field may identify the first broadcast station that transmitted the service or event described in this table.
  • the segment_last_section_number field indicates the last section number of the segment when the sub table exists. If the sub table is not segmented, the value indicated by this field may represent the same value as the value indicated by the last_section_number field.
  • last_table_id field Indicates the last table_id used.
  • the event_id field identifies each event and has a unique value within one service.
  • the start_time field represents the start time of the corresponding event.
  • the duration field indicates the duration of the event. For example, if the program lasts for 1 hour 45 minutes 30 seconds, the duration field may indicate a value of 0x014530.
  • the running_status field represents the state of a corresponding event.
  • a value represented by the free_CA_mode field is 0, indicating that component streams constituting the service are not scrambled, and a value of 1 indicates that access to one or more streams is controlled by the CA system.
  • the CA system is an abbreviation of Conditional Access System, and means a system that provides a function of encrypting broadcast content and a function of decrypting a broadcast by only a contractor to watch broadcast content in order to limit viewing of the broadcast to a contractor.
  • the descriptors_loop_length field represents a value obtained by adding lengths of descriptors following this field.
  • descriptor () means a descriptor describing each event.
  • the component descriptor according to an embodiment of the present invention may correspond to the above descriptor ().
  • the above-described component descriptor may be located in the EIT and may indicate a feature of the video or audio stream included in the corresponding event. A detailed description of the component descriptor will be given later in the drawings.
  • the wide-range brightness range descriptor and the color adjustment information descriptor to be described later may correspond to the above descriptor ().
  • the CRC_32 field represents a CRC value used to check whether there is an error in data included in the table section.
  • the EIT according to an embodiment of the present invention may be transmitted in a table form in the TS and may be transmitted by IP streaming in xml form.
  • component_descriptor is a diagram illustrating a configuration of a component descriptor (component_descriptor) according to an embodiment of the present invention.
  • the component descriptor includes a descriptor_tag field, a descriptor_length field, a stream_content field, a component_type field, a component_tag field, an ISO_639_language_code field, and / or a text_char field.
  • the descriptor_tag field identifies that this descriptor is a component descriptor according to an embodiment of the present invention.
  • the descriptor_length field may indicate the length of this descriptor.
  • the stream_content field may indicate the type of the stream.
  • the component_type field may indicate a type of video or audio data.
  • the component_tag field has the same value as the component_tag field of the stream identifier descriptor.
  • the ISO_639_language_code field may identify a language of a component.
  • the text_char field may represent a text description of the component stream.
  • An embodiment of the present invention may signal information on a HEVC codec based video stream using a stream_content field and a component_type field. That is, an embodiment of the present invention can grasp the characteristics of the video stream included in the corresponding event or service using the above two fields.
  • the stream_content field and the component_type field may indicate characteristics of a video stream, and more specifically, may indicate codec information, resolution information, frame rate information, bit depth information, tier information, and the like of the video stream.
  • the bit depth information may mean the number of bits used to represent the color from black to white
  • the tier information may mean information for distinguishing whether the corresponding video stream is a stream for broadcasting or a stream for storing in a receiver. .
  • the receiving device may determine whether the corresponding event can be decoded using the information included in the above-described component descriptor.
  • FIG. 4 illustrates a description of stream_content and component_type according to an embodiment of the present invention.
  • the stream_content field may indicate that the corresponding video stream is an HEVC video stream.
  • the component_type field may be defined from 0x01 to 0x20. If the component_type field is 0x01, this field may indicate that the corresponding video stream is a video stream having an HEVC SD resolution, a 4: 3 aspect ratio, a frame rate of 25 Hz, and a bit depth of 8 bits. . If the component_type field is 0x02, this field may indicate that the corresponding video stream is a video stream having an HEVC SD resolution, a 16: 9 aspect ratio, a frame rate of 25 Hz, and a bit depth of 8 bits. .
  • this field may indicate that the corresponding video stream is a video stream having an HEVC SD resolution, a 16: 9 or higher aspect ratio, a frame rate of 25 Hz, and a bit depth of 8 bits.
  • this field may indicate that the corresponding video stream is a video stream having an HEVC SD resolution, a 4: 3 aspect ratio, a frame rate of 30 Hz, and a bit depth of 8 bits.
  • the component_type field is 0x05, this field may indicate that the corresponding video stream is a video stream having an HEVC SD resolution, a 16: 9 aspect ratio, a frame rate of 30 Hz, and a bit depth of 8 bits. .
  • this field may indicate that the corresponding video stream is a video stream having an HEVC SD resolution, a 16: 9 aspect ratio, a frame rate of 30 Hz, and a bit depth of 8 bits.
  • this field indicates that the video stream has a HEVC HD resolution, an aspect ratio of 4: 3 or 16: 9, a frame rate of 25 Hz, and a bit depth of 8 bits. May indicate that When the component_type field is 0x08, this field may indicate that the corresponding video stream is a video stream having an HEVC HD resolution, a 16: 9 or higher aspect ratio, a frame rate of 25 Hz, and a bit depth of 8 bits. .
  • this field may indicate that the corresponding video stream is a video stream having an HEVC HD resolution, an aspect ratio of 4: 3, a frame rate of 30 Hz, and a bit depth of 8 bits.
  • this field may indicate that the corresponding video stream is a video stream having an HEVC HD resolution, a 16: 9 aspect ratio, a frame rate of 30 Hz, and a bit depth of 8 bits.
  • the component_type field is 0x0B, this field may indicate that the corresponding video stream is a video stream having an HEVC HD resolution, a 16: 9 aspect ratio, a frame rate of 30 Hz, and a bit depth of 8 bits. .
  • this field may indicate that the video stream is a HEVC 4K UHD resolution, a 16: 9 aspect ratio, a frame rate of 25 Hz, and a bit depth of 8 bits. have.
  • the component_type field is 0x12, this field indicates that the video stream has a HEVC 4K UHD resolution, a wide screen (16: 9 or higher) aspect ratio, a frame rate of 25 Hz, and a bit-depth of 8 bits. It may indicate that it is a video stream.
  • the component_type field is 0x13, this field may indicate that the video stream is a HEVC 4K UHD resolution, a 16: 9 aspect ratio, a frame rate of 30 Hz, and a bit depth of 8 bits.
  • the component_type field is 0x14, this field indicates that the video stream has a HEVC 4K UHD resolution, a wide screen (16: 9 or higher) aspect ratio, a frame rate of 30 Hz, and a bit-depth of 8 bits. It may indicate that it is a video stream. If the component_type field is 0x15, this field may indicate that the video stream is a HEVC 4K UHD resolution, a 16: 9 aspect ratio, a frame rate of 50 Hz, and a bit depth of 8 bits. have.
  • the component_type field is 0x16, this field indicates that the video stream has a HEVC 4K UHD resolution, a wide screen (16: 9 or higher) aspect ratio, a frame rate of 50 Hz, and a bit-depth of 8 bits. It may indicate that it is a video stream. If the component_type field is 0x17, this field may indicate that the video stream is a HEVC 4K UHD resolution, a 16: 9 aspect ratio, a frame rate of 60 Hz, and a bit depth of 8 bits. have. If the component_type field is 0x18, this field indicates that the video stream has HEVC 4K UHD resolution, wide screen (16: 9 or higher) aspect ratio, 60Hz frame rate, and 8-bit bit-depth.
  • this field may indicate that the video stream has a HEVC 4K UHD resolution, a 16: 9 aspect ratio, a frame rate of 25 Hz, and a bit depth of 10 bits. have. If the component_type field is 0x1A, this field indicates that the video stream has a HEVC 4K UHD resolution, a wide screen (16: 9 or higher) aspect ratio, a frame rate of 25 Hz, and a bit-depth of 10 bits. It may indicate that it is a video stream.
  • the component_type field is 0x1B, this field may indicate that the video stream is a video stream having HEVC 4K UHD resolution, 16: 9 aspect ratio, 30 Hz frame rate, and 10 bit bit-depth. have.
  • the component_type field is 0x1C, this field indicates that the video stream has a HEVC 4K UHD resolution, a wide screen (16: 9 or higher) aspect ratio, a frame rate of 30 Hz, and a bit-depth of 10 bits. It may indicate that it is a video stream.
  • the component_type field is 0x1D, this field may indicate that the video stream has a HEVC 4K UHD resolution, a 16: 9 aspect ratio, a frame rate of 50 Hz, and a bit depth of 10 bits.
  • the component_type field is 0x1E, this field indicates that the video stream has a HEVC 4K UHD resolution, a wide screen (16: 9 or higher) aspect ratio, a frame rate of 50 Hz, and a bit-depth of 10 bits. It may indicate that it is a video stream.
  • the component_type field is 0x1F, this field may indicate that the video stream is a video stream having HEVC 4K UHD resolution, 16: 9 aspect ratio, 60 Hz frame rate, and 10 bit bit-depth. have.
  • the component_type field is 0x20, this field indicates that the video stream has HEVC 4K UHD resolution, aspect ratio of wide screen (16: 9 or higher), frame rate of 60 Hz, and bit-depth of 10 bits. It may indicate that it is a video stream.
  • the component_type according to an embodiment of the present invention is based on a video stream having a chroma format of 4: 2: 0 for 4K UHD.
  • content of 12-bit bit depth may be further defined by allocating component_type 0x21 to 0x29.
  • the component_type 0x29 to 0x38 may be allocated to further include a 4: 2: 2 chroma format for 4K UHD.
  • component_type 0x38 to 0x47 may be allocated to further include content of an 8K UHD video stream.
  • FIG. 5 is a diagram illustrating a configuration of a wide area brightness range descriptor including wide area brightness range information according to an embodiment of the present invention.
  • the dynamic_range_transformation_info_descriptor may be referred to as a global brightness range descriptor.
  • the global brightness range descriptor includes a descriptor_tag field, a descriptor_length field, a number_of_HDR_info field and / or a dynamic_range_transformation_metadata field (wide brightness range information).
  • the descriptor_tag field identifies that this descriptor is a global brightness range descriptor according to an embodiment of the present invention.
  • the descriptor_length field may indicate the length of this descriptor.
  • the number_of_HDR_info field may indicate the number of wide area brightness range information to be described later.
  • the dynamic_range_transformation_metadata field may be referred to as global brightness range information according to an embodiment of the present invention, which will be described later.
  • the global brightness range descriptor according to an embodiment of the present invention may be included in the EIT.
  • Wide brightness range information according to an embodiment of the present invention may be expressed in addition to the above-described component_type.
  • the global brightness range information may be independently signaled at the descriptor level in the EIT.
  • FIG. 6 is a diagram illustrating a configuration of global brightness range information (dynamic_range_transformation_metadata) according to an embodiment of the present invention.
  • Dynamic_range_transformation_metadata may be referred to as global brightness range information.
  • the wide-range brightness range information includes a luminance_max field, a luminance_min field, a luminance_upper_bound field, a luminance_lower_bound field, a number_luminance_upper_bound_diff field, and / or a luminance_upper_bound_diff [i] field.
  • the luminance_max field represents the maximum reference brightness expressed in the video stream. That is, the maximum value of the brightness range DR is shown.
  • the luminance_min field represents the minimum reference brightness expressed in the video stream. That is, the minimum value of the brightness range DR is shown.
  • the luminance_upper_bound field represents the maximum value (in nit) of the luminance range that must be expressed among the luminance ranges represented in the video stream.
  • the luminance_lower_bound field represents the minimum value (in nit) of the brightness range that must be expressed among the brightness ranges represented in the video stream.
  • the number_luminance_upper_bound_diff field represents the number of variables used to extend the above-described luminance_upper_bound or luminance_lower_bound.
  • the luminance_upper_bound_diff [i] field represents information about an area extended by the above-described extension of luminance_upper_bound or luminance_lower_bound.
  • Wide brightness range information may represent information indicating a wide brightness range of the video stream, and may be included in a wide brightness range descriptor in the EIT.
  • FIG. 7 is a diagram illustrating a configuration of a color adjustment information descriptor including color adjustment information according to an embodiment of the present invention.
  • UHD_color_management_info_descriptor may be referred to as a color adjustment information descriptor.
  • the color adjustment information descriptor includes a descriptor_tag field, a descriptor_length field, a number_of_color_info field, and / or a color_management_metadata field (color adjustment information).
  • the descriptor_tag field identifies that this descriptor is a color adjustment information descriptor according to an embodiment of the present invention.
  • the descriptor_length field may indicate the length of this descriptor.
  • the number_of_color_info field may indicate the number of color adjustment information to be described later.
  • the color_management_metadata field may be referred to as color adjustment information according to an embodiment of the present invention, and a detailed description thereof will be described later.
  • the color adjustment information descriptor according to an embodiment of the present invention may be included in the EIT.
  • Color adjustment information according to an embodiment of the present invention may be expressed in addition to the above-described component_type. However, in order to prevent the component_type from continuously increasing, color adjustment information may be independently signaled at the descriptor level in the EIT.
  • color_management_metadata is a diagram illustrating a configuration of color adjustment information (color_management_metadata) according to an embodiment of the present invention.
  • the color_management_metadata according to an embodiment of the present invention may be referred to as color adjustment information.
  • Color adjustment information includes a gamut_mapping_flag field, a reference_black_luminance_level field, a reference_white_luminance_level field, a color_gamut field, a color_primary_r_x field, a color_primary_r_y field, a color_primary_g_x field, a color_primary_g_y field, a color_primary_or color_pri_b_x_x_y_b_x field.
  • the gamut_mapping_flag field indicates whether improved gamut is used compared to the default gamut. If the field value of the gamut designation flag information is "0", it indicates that the default standard gamut is used. If the field value is "1", it indicates that any gamut is used.
  • the reference_black_luminance_level field may indicate the minimum brightness of the recommended display brightness range required for playing the video stream.
  • the reference_white_luminance_level field may indicate the maximum brightness among the recommended display brightness ranges required for playing the video stream.
  • the color_gamut field represents a standard color space that can represent the color of the video stream. This field may indicate the color representation range of the display and / or the position on the color space of the reference color (Red, Green, Blue).
  • the color_primary_r_x field indicates the x coordinate of a red color in an arbitrary color space when an arbitrary color space other than the standard color space is designated.
  • the color_primary_r_y field indicates the y coordinate of a red color in an arbitrary color space when an arbitrary color space other than the standard color space is designated.
  • the color_primary_g_x field indicates the x-coordinate of the color drawn in an arbitrary color space when an arbitrary color space other than the standard color space is designated.
  • the color_primary_g_y field indicates the y coordinate of the color drawn in the arbitrary color space when an arbitrary color space other than the standard color space is designated.
  • the color_primary_b_x field indicates the x coordinate of a blue color in an arbitrary color space when an arbitrary color space other than the standard color space is designated.
  • the color_primary_b_y field indicates the y coordinate of a blue color in an arbitrary color space when an arbitrary color space other than the standard color space is designated.
  • Color adjustment information according to an embodiment of the present invention may be included in the color adjustment information descriptor in the EIT.
  • SDT service description table
  • SDT is a table_id field, section_syntax_indicator field, section_length field, transport_stream_id field, version_number field, current_next_indicator field, section_number field, last_section_number field, original_network_id field, service_id field, EIT_schedule_flag field, EIT_present_ running_stating_stating_ Field, descriptors_loop_length field, descriptor () and / or CRC_32 field.
  • the table_id field identifies the type of table.
  • the table_id field may serve to indicate that this table section is a section constituting the SDT.
  • the section_syntax_indicator field represents the format of a table section following this field. If the value of this field is 0, this table section is in short format. If the value of this field is 1, the table section follows the general long format.
  • the section_length field represents the length of this table section.
  • the section_length field may indicate the length from this field to the end of the table section.
  • the transport_stream_id field identifies a transport stream (TS) to be described in this table.
  • the version_number field represents a version number of a private table section.
  • the receiver may find the most recent table section stored in the memory using this field and the current_next_indicator field to be described later.
  • the current_next_indicator field If the value indicated by the current_next_indicator field is 1, this indicates that the currently transmitted table is valid. If 0, the currently transmitted table is not valid now but will be valid later.
  • the section_number field indicates which section of the table this section is.
  • the last_section_number field indicates the sequence number of the last section among the sections configuring the table.
  • the original_network_id field may identify the first broadcast station that transmitted the service described in this table.
  • the service_id field identifies each service existing in the transport stream.
  • the service_id field may have the same function as the program_number field in the PMT.
  • EIT schedule flag EIT schedule flag
  • EIT_present_following_flag field If the value indicated by the EIT_present_following_flag field is 1, it indicates that EIT_present_following information for a service exists in the current TS, and 0 indicates that it does not exist.
  • the running_status field represents the status of a service. For example, if the value of the running_status field is 1, the service is "not running”, 2 is "starts in a few seconds", 3 is "pausing", 4 is "running”, 5 is It may indicate "service off-air”.
  • a value represented by the free_CA_mode field is 0, indicating that component streams constituting the service are not scrambled, and a value of 1 indicates that access to one or more streams is controlled by the CA system.
  • the CA system is an abbreviation of Conditional Access System, and means a system that provides a function of encrypting broadcast content and a function of decrypting a broadcast by only a contractor to watch broadcast content in order to limit viewing of the broadcast to a contractor.
  • the descriptors_loop_length field represents a value obtained by adding lengths of descriptors following this field.
  • descriptor () means a descriptor describing each service.
  • the service descriptor (service_descriptor) according to an embodiment of the present invention may correspond to the above descriptor (). Detailed description thereof will be described later in the drawings.
  • the CRC_32 field represents a CRC value used to check whether there is an error in data included in the table section.
  • service_descriptor 10 is a diagram illustrating a configuration of a service descriptor (service_descriptor) according to an embodiment of the present invention.
  • the service descriptor includes a descriptor_tag field, a descriptor_length field, a service_type field, a service_provider_name_length field, and / or a service_name_length field.
  • the descriptor_tag field may identify this descriptor.
  • the descriptor_length field may indicate the length of this descriptor.
  • the service_type field may represent that the corresponding service is an HEVC-based broadcast service. According to an embodiment of the present invention, this field may indicate that a broadcast service based on the corresponding video stream is an HEVC based broadcast service. Details of this field will be described later in the following drawings.
  • the service_provider_name_length field may indicate the length of a service provider name represented by the following char.
  • the service_name_length field may indicate the length of a service name represented by the following char.
  • SDT may be transmitted in a table form in the TS and may be transmitted by IP streaming in the xml form.
  • FIG. 11 is a diagram illustrating a service_type for identifying an HEVC-based broadcast service according to an embodiment of the present invention.
  • the service_type according to an embodiment of the present invention may correspond to information indicating that a broadcast service based on a video stream is an HEVC-based broadcast service.
  • service_type may indicate that the corresponding broadcast service is a digital television service having an H.265 / HEVC codec and having an SD resolution.
  • service_type is 0x20, this field may indicate that the corresponding broadcast service is an NVOD time-shifted service having an H.265 / HEVC codec and having an SD resolution.
  • service_type is 0x21, this field may indicate that the corresponding broadcast service is an NVOD reference service having an H.265 / HEVC codec and having an SD resolution.
  • service_type is 0x22, this field may indicate that the corresponding broadcast service is a digital television service having an H.265 / HEVC codec and using HD resolution.
  • service_type is 0x23
  • this field may indicate that the corresponding broadcast service is an NVOD time-shifted service having an H.265 / HEVC codec and having an SD resolution.
  • service_type is 0x24
  • this field may indicate that the corresponding broadcast service is an NVOD reference service having an H.265 / HEVC codec and having an HD resolution.
  • service_type is 0x25
  • this field may indicate that the corresponding broadcast service is a digital television service having an H.265 / HEVC codec and UHD-1A resolution.
  • service_type is 0x26
  • this field may indicate that the corresponding broadcast service is an NVOD time-shifted service having an H.265 / HEVC codec and having a UHD-1A resolution.
  • service_type is 0x27
  • this field may indicate that the corresponding broadcast service is an NVOD reference service having an H.265 / HEVC codec and using UHD-1A resolution.
  • service_type is 0x28
  • this field may indicate that the corresponding broadcast service is a digital television service having an H.265 / HEVC codec and having a UHD-1B resolution.
  • service_type is 0x29
  • this field may indicate that the corresponding broadcast service is an NVOD time-shifted service having an H.265 / HEVC codec and having a UHD-1B resolution.
  • this field may indicate that the corresponding broadcast service is an NVOD reference service having an H.265 / HEVC codec and using UHD-1B resolution.
  • the above-described UHD-1A may represent a 4K resolution and a frame rate of 50p / 60p
  • the UHD-1B may represent a 4K resolution and a frame rate of 100p / 120p.
  • a broadcast service having 4K resolution and 25p / 30p and a broadcast service having 8K resolution may also be signaled.
  • FIG. 12 illustrates system formats, video formats, and audio formats used in HbbTV according to an embodiment of the present invention.
  • AVC_SD_25 and / or AVC_HD_25 may be used as a video format
  • HEAAC and / or E-AC3 may be used as an audio format
  • a MIME Type Video / mpeg can be used.
  • the terminal may support the same subtitle format that is transmitted through a broadcast in which content is transmitted through broadband.
  • AVC_SD_25 and / or AVC_HD_25 can be used as the video format
  • HEAAC and E-AC3 may be used and video / mp4 may be used as the MIME type.
  • the video format AVC_SD_25 may represent a video stream having an AVC codec, SD resolution, and a frame rate of 25 fps.
  • the terminal when the above-described E-AC3 is supported for the content received through broadcast, the terminal may support the E-AC3 for the content received through the broadband.
  • Terminals can support E-AC3 for content received by the broadband connection when it is supported for the broadcast connection
  • FIG. 13 is a diagram illustrating system formats, video formats, and audio formats used in a video system having a 25 Hz frame rate according to an embodiment of the present invention.
  • AVC_HD_25, AVC_SD_25, AVC_SP_25 and / or AVC_3D_25 may be used as the video format
  • HEAAC, HEAAC2, HEAAC_MPS, MPEG1_L2, MPEG1_L2_MPS as the audio format
  • AC3, E-AC3 and / or DTS may be used
  • video / mpeg or video / mp2t may be used as the MIME type.
  • AVC_HD_25, AVC_SD_25, AVC_SP_25 and / or AVC_3D_25 can be used as the video format and HEAAC, HEAAC2, HEAAC_MPS, MPEG1_L2, MPEG1_L2_MPS, AC3, E-AC3 and / or DTS are used as the audio formats.
  • Video / vnd.dlna.mpeg-tts can be used as MIME type.
  • AVC_HD_25, AVC_SD_25, AVC_SP_25 and / or AVC_3D_25 can be used as the video format and HEAAC, HEAAC2, HEAAC_MPS, MPEG1_L2, MPEG1_L2_MPS, AC3, E-AC3 and / or DTS are used as the audio formats.
  • Video / mp4 can be used as MIME type.
  • MPEG2_SD_25 and / or MPEG2_SP_25 may be used as a video format
  • MPEG1_L2, MPEG1_L2_MPS, AC3 and / or E-AC3 may be used as an audio format. It can be used, and video / mpeg or video / mp2t can be used as the MIME type.
  • MPEG2_SD_25 and / or MPEG2_SP_25 may be used as the video format
  • MPEG1_L2, MPEG1_L2_MPS, AC3 and / or E-AC3 may be used as the audio format
  • video / vnd.dlna as the MIME type. mpeg-tts can be used.
  • AVC_HD_25 and / or AVC_SD_25 may be used for HbbTV according to an embodiment of the present invention.
  • FIG. 14 is a diagram illustrating system formats, video formats, and audio formats used in a video system having a 30 Hz frame rate according to an embodiment of the present invention.
  • AVC_HD_30, AVC_SD_30, AVC_SP_30 and / or AVC_3D_30 may be used as the video format
  • HEAAC, HEAAC2, HEAAC_MPS, MPEG1_L2, MPEG1_L2_MPS as the audio format
  • AC3, E-AC3 and / or DTS may be used
  • video / mpeg or video / mp2t may be used as the MIME type.
  • AVC_HD_30, AVC_SD_30, AVC_SP_30 and / or AVC_3D_30 can be used as the video format and HEAAC, HEAAC2, HEAAC_MPS, MPEG1_L2, MPEG1_L2_MPS, AC3, E-AC3 and / or DTS are used as the audio formats.
  • Video / vnd.dlna.mpeg-tts can be used as MIME type.
  • AVC_HD_30, AVC_SD_30, AVC_SP_30 and / or AVC_3D_30 can be used as the video format and HEAAC, HEAAC2, HEAAC_MPS, MPEG1_L2, MPEG1_L2_MPS, AC3, E-AC3 and / or DTS are used as the audio formats.
  • Video / mp4 can be used as MIME type.
  • a video format used in HbbTV may be further defined for HEVC-based broadcast service.
  • HEVC_SD_25, HEVC_SD_30, etc. may be further defined, and in case of HD resolution, HEVC_HD_25, HEVC_HD_30, HEVC_HD_50, HEVC_HD_60, etc. may be further defined, and in case of UHD resolution, HEVC_UHD_25, HEVC_UHD_30, HEVC_UHD_50 And the like may be further defined.
  • a higher frame rate format may be defined and used in AVC as well as HEVC in order to provide high quality service.
  • AVC_HD_50, AVC_HD_60, and the like may be further defined.
  • FIG. 15 is a diagram illustrating a video format in xml form for providing a HEVC service according to an embodiment of the present invention.
  • a video format of HEVC, UHD, and higher frame rate may be further defined to provide an HEVC-based broadcast service.
  • HEVC_UHD_25 may be defined as a video format, which has a frame rate of 25 Hz of UHD resolution encoded using an H.265 / HEVC codec. It can indicate video.
  • HEVC_UHD_30 may be defined as a video format, which may indicate that the video has a frame rate of 30 Hz of UHD resolution encoded using the H.265 / HEVC codec.
  • HEVC_UHD_50 may be defined as a video format, which may indicate that the video has a frame rate of 50 Hz of UHD resolution encoded using the H.265 / HEVC codec.
  • HEVC_UHD_60 may be defined as a video format, which may indicate that the video has a frame rate of 60 Hz of UHD resolution encoded using the H.265 / HEVC codec.
  • HEVC_HD_25 may be defined as a video format, which may indicate that the video has a frame rate of 25 Hz of HD resolution encoded using the H.265 / HEVC codec.
  • HEVC_HD_30 may be defined as a video format, which may indicate that the video has a frame rate of 30 Hz of HD resolution encoded using the H.265 / HEVC codec.
  • HEVC_SD_30 may be defined as a video format, which may indicate that the video has a frame rate of 30 Hz of SD resolution encoded using the H.265 / HEVC codec.
  • AVC_HD_30 may be defined as a video format, which may indicate that the video has a frame rate of 30 Hz of HD resolution encoded using the H.264 / AVC codec.
  • AVC_SD_30 may be defined as a video format, which may indicate that the video has a frame rate of 30 Hz of SD resolution encoded using the H.264 / AVC codec.
  • the above-described video format information may correspond to information representing characteristics of a video stream, may be included in a descriptor in an EIT, and may be transmitted in the form of xml and / or table.
  • 16 illustrates a video format using termID according to an embodiment of the present invention.
  • termID 1 indicates MPEG-1 video
  • termID 2 indicates MPEG-2 video
  • termID 2.1 indicates MPEG-2 video simple profile
  • termID 2.2 indicates MPEG-2 video main profile
  • TermID 2.1.1 indicates MPEG-2 video simple profile and main level
  • termID 2.2.1 indicates MPEG-2 video main profile and low level
  • termID 2.2.2 indicates MPEG-2 video main profile and main level
  • Term ID 2.2.3 may indicate an MPEG-2 video main profile and a high 1440 level
  • term ID 2.2.4 may indicate an MPEG-2 video main profile and a high level. That is, termID may indicate the type of codec, the type of profile, and the type of level in stages.
  • FIG. 17 is a diagram illustrating a video format using termID to provide a HEVC-based broadcast service according to an embodiment of the present invention.
  • termID in case of HEVC, termID may be designated as 9, main profile may be designated as 9.1, main10 profile is 9.2, and still picture profile is designated as 9.3.
  • a profile to be extended may be specified in 9.4, 9.5, etc. as described above.
  • Tier and level can be defined for each profile.
  • a tier according to an embodiment of the present invention may be named tier information, and a main tier may be defined as 1 and a higher tier may be defined as 2.
  • Level according to an embodiment of the present invention can be represented by 3.0, 3.1, 3.2 ⁇ 6.0, 6.1, 6.2, each level may be defined by any one value of 1 to 18.
  • termID 9.1.1.1 may indicate HEVC video coding format
  • termID 9.3.1.18 may indicate HEVC video coding format, still picture profile, main tier and level 6.2. .
  • the tier according to an embodiment of the present invention may be used to determine the limit of bitrate along with the level.
  • the higher tier and the main tier according to an embodiment of the present invention may have a difference in maximum bitrate.
  • the maximum bitrate in the main tier is up to 40000 (1000 bits / s), but in the high tier, the maximum bitrate is 160000 ( 1000bits / s). Therefore, a stream having a main tier according to an embodiment of the present invention can be used mostly as a stream for broadcasting, and a stream having a higher tier can be used as a stream for storage at most broadcasting stations.
  • the above-described video format information may correspond to information representing characteristics of a video stream, may be included in a descriptor in an EIT, and may be transmitted in the form of xml and / or table.
  • FIG. 18 is a diagram illustrating a video profile for providing an HEVC service according to an embodiment of the present invention.
  • one video profile may be defined in the system format_video format_audio format order based on the above-described video format.
  • the video profile may be represented by TS_AVC_HD_25_HEAAC, TS_HEVC_HD_60_HEAAC, and the like.
  • the format of the video profile may be expressed as a system format (transport format) _videoformat (codec_resolution_framerate) _audioformat (audiocodec).
  • MP4_HEVC_SD_30_HEAAC may be defined as a video profile, and the video profile may have MP4 as a system format, HEVC as a video codec, SD as a resolution, 30fps as a frame rate, and HEAAC as an audio codec. You can have video / mp4 as the MIME type and dash as the transmission method.
  • MP4_HEVC_HD_30_HEAAC can be defined, and this video profile can have MP4 as system format, HEVC as video codec, HD as resolution, 30fps as frame rate, HEAAC as audio codec, video / mp4 as MIME type, and transmission method. You can have dash.
  • MP4_HEVC_HD_50_HEAAC can be defined, and this video profile can have MP4 as system format, HEVC as video codec, HD as resolution, 50fps as frame rate, HEAAC as audio codec, video / mp4 as MIME type, and transmission method. You can have dash.
  • MP4_HEVC_HD_60_HEAAC can be defined, and this video profile can have MP4 as system format, HEVC as video codec, HD as resolution, 60fps as frame rate, HEAAC as audio codec, video / mp4 as MIME type, and transmission method. You can have dash.
  • MP4_HEVC_UHD_25_HEAAC can be defined as a video profile, and this video profile can have MP4 as the system format, HEVC as the video codec, UHD as the resolution, 25fps as the frame rate, HEAAC as the audio codec, and video / mp4 as the MIME type. You can have dash.
  • MP4_HEVC_UHD_30_HEAAC can be defined as a video profile, and this video profile can have MP4 as the system format, HEVC as the video codec, UHD as the resolution, 30fps as the frame rate, HEAAC as the audio codec, and video / mp4 as the MIME type. You can have dash.
  • MP4_HEVC_UHD_50_HEAAC can be defined as a video profile, and this video profile can have MP4 as the system format, HEVC as the video codec, UHD as the resolution, 50fps as the frame rate, HEAAC as the audio codec, and video / mp4 as the MIME type. You can have dash.
  • MP4_HEVC_UHD_60_HEAAC can be defined as video profile, and this video profile can have MP4 as system format, HEVC as video codec, UHD as resolution, 60fps as frame rate, HEAAC as audio codec, video / mp4 as MIME type, transmission method You can have dash.
  • TS_HEVC_SD_30_HEAAC can be defined as a video profile. This video profile can have TS as system format, HEVC as video codec, SD as resolution, 30fps as frame rate, HEAAC as audio codec, and video / mpeg as MIME type. have.
  • TS_HEVC_HD_30_HEAAC can be defined as a video profile, and this video profile can have TS as system format, HEVC as video codec, HD as resolution, 30fps as frame rate, HEAAC as audio codec, and video / mpeg as MIME type. have.
  • TS_HEVC_HD_50_HEAAC can be defined as a video profile, this video profile can have TS as system format, HEVC as video codec, HD as resolution, 50fps as frame rate, HEAAC as audio codec, and video / mpeg as MIME type.
  • TS_HEVC_HD_60_HEAAC can be defined as a video profile and this video profile can have TS as system format, HEVC as video codec, HD as resolution, 60fps as frame rate, HEAAC as audio codec, and video / mpeg as MIME type. have.
  • TS_HEVC_UHD_25_HEAAC can be defined as a video profile, and this video profile can have TS as system format, HEVC as video codec, UHD as resolution, 25fps as frame rate, HEAAC as audio codec, and video / mpeg as MIME type.
  • TS_HEVC_UHD_30_HEAAC can be defined as a video profile. This video profile can have TS as system format, HEVC as video codec, UHD as resolution, 30fps as frame rate, HEAAC as audio codec, and video / mpeg as MIME type.
  • TS_HEVC_UHD_50_HEAAC can be defined as a video profile.
  • This video profile can have TS as system format, HEVC as video codec, UHD as resolution, 50fps as frame rate, HEAAC as audio codec, and video / mpeg as MIME type.
  • TS_HEVC_UHD_60_HEAAC can be defined as a video profile, and this video profile can have TS as system format, HEVC as video codec, UHD as resolution, 60fps as frame rate, HEAAC as audio codec, and video / mpeg as MIME type. have.
  • the above-described video profile information may correspond to information representing the characteristics of the video stream, may be included in a descriptor in the EIT, and may be transmitted in the form of xml and / or table.
  • FIG. 19 illustrates a video attribute type according to an embodiment of the present invention.
  • a video attribute type may be delivered in xml form.
  • a VideoAttributesType includes a Coding element, a Scan element, a HorizontalSize element, a VerticalSize element, an AspectRatio element, a Color element, a FrameRate element, a BitRate element, and / or a PictureFormat element. Detailed description of each element described above will be described later in the drawings.
  • the element information included in the above-described video attribute type may correspond to information representing the characteristics of the video stream, may be included in a descriptor in the EIT, and may be transmitted in the form of xml and / or table. Can be.
  • FIG. 20 is a diagram illustrating a video attribute according to an embodiment of the present invention.
  • the VideoAttributesType includes a Coding element, a Scan element, a HorizontalSize element, a VerticalSize element, an AspectRatio element, a Color element, a FrameRate element, a BitRate element, and / or a PictureFormat element.
  • the Scan element may be connected to ScanType
  • the AspectRatio element may be connected to AspectRatioType and / or type elements
  • the Color element may be connected to ColorTypeType, ColorType and / or type elements.
  • VideoAttributesType may indicate a set of elements that describe the characteristics of the video. (A complex type defining a set of elements that describe video characteristics)
  • the Coding element may indicate a coding format of the video. (The coding format of the video.This term should be taken from the MPEG-7 "VisualCodingFormatCS" classification scheme listed in clause B.2.34 of ISO / IEC 15938-5 [2]) This element may be signaled in the format codec_profile_level. .
  • tier information may be used to classify a profile. Tier information may indicate main or high. main indicates video for broadcast service and high indicates video for storage in the studio. In the same profile / level, the maximum bitrate defined according to the tier information may vary.
  • the type of the tier may be added to this element, and the type of the tier may be added to the video attribute type for signaling.
  • tier information is included in the coding element, an embodiment of the present invention may signal a video stream in a codec_profile_tier_level format. For example, when a 10-bit 4K UHD 60p video coded for HEVC-based broadcasting service is provided, the corresponding video may be signaled as HEVC Video Main10 profile Main tier @ Level 5.1. That is, signaling information may be extended by adding tier information such as HEVC Video Main Profile Main tier @ Level ⁇ 3.0 ⁇ 6.2 ⁇ , HEVC Video Main 10 Profile Main tier @ Level ⁇ 3.0 ⁇ 6.2 ⁇ .
  • the scan element may indicate a scan type of the video. (The scan type of the video)
  • the HorizontalSize element may indicate a horizontal size in pixels of the video.
  • the element according to an embodiment of the present invention may include 2160 for 4K UHD service, 4320 for 8K UHD service, and the like.
  • the VerticalSize element may indicate a vertical size in pixels of the video.
  • the element according to an embodiment of the present invention may include 3840 for 4K UHD service, 7680 for 8K UHD service, and the like.
  • the AspectRatio element may indicate an aspect ratio of a video.
  • the aspect ratio of the video There may be two aspect ratios associated with a program: the original aspect ratio that the program is available in and the aspect ratio of a particular instance of the programme The ratio can be classified into two types. The first is the original aspect ratio available to the program, and the second is the aspect ratio for a particular instance of the program.
  • AspectRatio may be represented by RatioType (H: V) and may be connected with AspectRatioType and / or AspectRatioTypeType.
  • the values that can be provided in AspectRatioTypeType are publication and Original values.
  • AspectRatioTypeType according to an embodiment of the present invention may include AFD bar related information. Detailed description of the above-described AFD bar will be described later in the following drawings.
  • the color element may indicate a color format of the video.
  • the element according to an embodiment of the present invention may be associated with ColorTypeType and ColorType and may be classified into color, blackAndWhite, blackAndWhiteAndColor, and colorized.
  • the FrameRate element may indicate the frame rate of the video. (An element expressing the frame rate of the video) According to an embodiment of the present invention, this element may include higher frame rates such as 30, 50, and 60 fps, and may support fractional frame rates as well as integer frame rates.
  • the BitRate element may indicate the bit rate of the video stream.
  • This element may indicate the bitrate of the entire stream including the video stream.
  • this element may be classified and signaled as min, max and average.
  • the maximum bit rate of the entire stream including SD resolution may be 4000kbits / s
  • the maximum bit rate of the entire stream including HD resolution may be 10000kbits / s
  • the total for HEVC-based UHD services The maximum bit rate of the stream can be 30000kbits / s.
  • the maximum bit rate described above may vary depending on the type of service provided. Detailed description of the above-described bit rate will be described later in the description of related drawings.
  • the PictureFormat element may indicate the format of the video image. (An element to define the format of the video image from a predefined list (PictureFormatCS Classification Scheme) .When this element is not provided in an XML instance document, the video format can be assumed to be "2D Video”)
  • This element may represent 2D video, Plano-Stereoscopic Video, Frame-Compatible 3D, Side-by-Side 3D Format, Top-and-Bottom 3D Format, and the like.
  • ScanType may indicate interlaced or progressive. (A simple enumerated type defining the allowable values of the ScanType element above.ScanType can take on the value interlaced or progressive)
  • AspectRatioType may indicate the aspect ratio of a program. (Denotes the aspect ratio of the program.This element can denote the aspect ratio of the original program as well as that of its instances, through the use of type attribute)
  • the AspectRatioType can have a type element whose type aspect ratio is original. It can indicate whether it is a publication or not. (Denotes whether the specified aspect ratio is associated with the original program (original) or its published instance (publication) . The default value of the attribute is original)
  • ColorTypeType may indicate a value corresponding to the above-described Color element.
  • a simple enumerated type defining the allowable values of the ColorType instantiated in the Color element above.Allowed values are: color-the content was produced using a color video format; blackAndWhite-the content was produced using a black and white video format; blackAndWhiteAndColor -the content contains a mixture of video that was originally produced in color and content that was produced in black and white; colorized-the content was originally produced using a black and white video format and color was added after original production)
  • ColorType may indicate a complex type of color format. (A complex type, with a single attribute describing the color format using one of the ColorTypeType values)
  • a ColorType may have a type element, and the type element may indicate a type of a color format.
  • the element information included in the above-described video attribute type may correspond to information representing the characteristics of the video stream, may be included in a descriptor in the EIT, and may be transmitted in the form of xml and / or table. Can be.
  • 21 is a diagram illustrating a video attribute in xml form according to an embodiment of the present invention.
  • VideoAttributesType may be defined through xml.
  • ScanType may indicate interlaced and / or progressive
  • ColorTypeType may have color, blackAndWhite, blackAndWhiteAndColor and / or colorized values
  • AspectRatioType may have orginal and / or publication values.
  • FIG. 22 illustrates AspectRatioOrgType and AspectRatioDisplayType according to an embodiment of the present invention.
  • An embodiment of the present invention may define AspectRatioOrgType and AspectRatioDisplayType to indicate AFDbar related information.
  • AFD according to an embodiment of the present invention is an abbreviation of Active Format Description, it is possible to suitably show different types of broadcast video on television sets having different aspect ratios.
  • the AFDbar may represent a tool used for the function of the AFD.
  • AspectRatioOrgType according to an embodiment of the present invention may indicate an aspect ratio at the time of photographing, and AspectRatioDisplayType may indicate an aspect ratio finally displayed.
  • An embodiment of the present invention may signal PostProcessingFlag in order to insert an AFDbar or determine scaling and / or crop.
  • the above-described PostProcessingFlag may indicate 1 when postprocessing such as AFDbar insertion, scaling, crop, etc. is required in the video screen, and 0 when postprocessing is not required.
  • aspect ratio may be 4: 3, 01 may be 16: 9, and 10 may be 21: 9.
  • aspect ratio according to an embodiment of the present invention may be referred to as an aspect ratio.
  • the above-described AspectRatioOrgType and AspectRatioDisplayType related information may correspond to information representing characteristics of a video stream, may be included in a descriptor in an EIT, and may be transmitted in the form of xml and / or table.
  • FIG. 23 is a diagram illustrating AFDBarType according to an embodiment of the present invention.
  • the aspect ratio when the aspect ratio is different by comparing AspectRatioOrgType and AspectRatioDisplayType described above in the previous drawings, it may be determined whether to insert an AFDbar.
  • whether to insert the AFDbar may be determined using PostProcessingFlag and / or AFDBarType.
  • PostProcessingFlag is 1, an embodiment of the present invention may signal using AFDBarType as to how to insert, scale or crop an AFDbar.
  • AFDBarType when AFDBarType according to an embodiment of the present invention is 00, an embodiment of the present invention scales the image asymmetrically to fit the size of the display, and if AFDBarType is 01, the image according to the aspect ratio. Can be symmetrically scaled and the rest cropped.
  • AFDBarType is 10
  • AspectRatioOrgType is larger than AspectRatioDisplayType
  • an embodiment of the present invention can insert a Letterbox into an image. Can be inserted.
  • the above-described information related to PostProcessingFlag and / or AFDBarType may correspond to information representing characteristics of a video stream, may be included in a descriptor in an EIT, and transmitted in the form of xml and / or table. have.
  • BitRateType may include a variable element, a minimum element, an average element and / or a maximum element.
  • BitRateType may define the bit rate of the content item. (A complex type that defines the bit rate for a content item expressed in bits per second.The datavalue associated with this type defines the average bitrate if the bitrate is variable)
  • the variable element may indicate whether the bit rate is fixed or variable. (Indicates whether the BitRate is variable or fixed.If the BitRate is variable, three optional attributes can be used to specify the minimum, maximum and average bitrates)
  • the minimum element may indicate the minimum value of the bit rate. (Indicates the minimum numerical value for the BitRate in case of variable bit rate)
  • the average element may indicate an average value of the bit rate. (Indicates the average numerical value for the BitRate in case of variable bit rate)
  • the maximum element may indicate the maximum value of the bit rate. (Indicates the maximum numerical value for the BitRate in case of variable bit rate)
  • the above-described BitRateType, variable element, minimum element, average element, and / or maximum element related information may correspond to information representing the characteristics of the video stream, may be included in a descriptor in the EIT, and xml And / or in the form of a table.
  • 25 is a diagram illustrating video attributes for providing UHD service according to an embodiment of the present invention.
  • Bit-depth, HDR, Color primary and / or Chroma subsampling may be further defined to provide UHD service according to an embodiment of the present invention.
  • bit-depth may indicate how many bits to display from black to white.
  • the bit-depth may have 8, 10, 12 bits, and the like.
  • the bit-depth according to an embodiment of the present invention may correspond to bit number information used for representing a color from black to white.
  • HDR may correspond to information indicating a wide brightness range according to an embodiment of the present invention.
  • An embodiment of the present invention may signal the minimum brightness and the maximum brightness by dividing the above-mentioned wide brightness range into minimum / maximum brightness.
  • the global brightness range information may be signaled by min.luminance indicating minimum brightness and max.luminance value indicating maximum brightness.
  • Another embodiment of the present invention may specify a profile that distinguishes the wide brightness range.
  • Conventional capacity may be specified as having a brightness range of at least 0.1 cd / m2 and at most 100 cd / m2, and Mid.capacity may be designated as having a brightness range of at least 0.001 cd / m2 and at most 1000 cd / m2.
  • the high capacity may be designated as having a brightness range of at least 0.0001 cd / m 2 and at most 10000 cd / m 2.
  • the color primary may correspond to color adjustment information and may distinguish color coordinates representing color.
  • the color primary may indicate standard color spaces BT.709, BT.2020, DCI-P3, and the like, and may indicate a randomly designated color space.
  • x and y coordinate values for RGB and white points may be further signaled. At this time, since the sum of the x, y and z coordinates is 1, the z coordinate value may not be signaled.
  • Chroma subsampling may represent the amount of information of the Chroma component compared to the Luma component when encoding.
  • Chroma subsampling may have a value of 4: 2: 0, 4: 2: 2, 4: 4: 4, and the like.
  • bit-depth, HDR, color primary and / or chroma subsampling may correspond to information indicating the characteristics of a video stream, may be included in a descriptor in an EIT, and may be included in an xml and / or table. Can be sent in the form.
  • 26 is a diagram illustrating a specific structure of a broadcast reception device according to an embodiment of the present invention.
  • a broadcast reception device includes a demultiplexer (TP / IP Demux) 26010, a channel manager (26020), a signaling information processor (PSI / SI / PSIP processor) 26030, a video buffer ( Video Input Buffer and Control 26040, HEVC Video Decoder 26050, Video Processor 26060, Audio Input Buffer and Control 26070 Audio Decoder 26080, Audio Decoder 26080 An audio processor 26090 and / or an output control and synchronization 26100.
  • TP / IP Demux demultiplexer
  • 26020 channel manager
  • PSI / SI / PSIP processor signaling information processor
  • a video buffer Video Input Buffer and Control 26040, HEVC Video Decoder 26050, Video Processor 26060, Audio Input Buffer and Control 26070 Audio Decoder 26080, Audio Decoder 26080
  • the demultiplexer classifies the PSI / PSIP / SI section information, the video and the audio information necessary for channel information identification, and delivers the classified packets to the signaling information processor, the video decoder (or video buffer) and the audio decoder (or audio buffer), respectively.
  • the above-described PSI / PSIP / SI section information may be provided in a table form or may be provided in an xml form.
  • the demultiplexer according to an embodiment of the present invention may include a receiver, and the receiver may receive a broadcast stream multiplexed by a transmitter.
  • the demultiplexer may extract a video stream and / or signaling information from the received multiplexed broadcast stream.
  • the above-described signaling information may include any one of information indicating that the extracted video stream is an HEVC video stream, information indicating characteristics of the extracted video stream, and information indicating that a broadcast service based on the extracted video stream is an HEVC-based broadcast service. It may include one.
  • the channel manager can use the information parsed from the section data to determine which channels are available and perform the tasks necessary to create a channel related list.
  • the signaling information processor may extract information necessary for operations of the demultiplexer, the channel manager, and the UI.
  • the signaling information may include at least one of a program map table (PMT), an event information table (EIT), and a service description table (SDT), and the above-described PMT indicates that it is an HEVC video stream.
  • PMT program map table
  • EIT event information table
  • SDT service description table
  • the EIT may include information indicating characteristics of the video stream
  • the SDT may include information indicating that the broadcast service is based on HEVC.
  • the signaling information may include information indicating a wide brightness range of the video stream and may include color adjustment information for improved color representation of the video stream.
  • the information indicative of the characteristics of the video stream described above may include codec information, resolution information, frame rate information and / or bit number information used to indicate color from black to white and determine whether the video stream is for broadcast. It may include tier information for identifying whether the stream is for storage.
  • the video processor may perform processes such as color space conversion, de-interlacing, frame rate conversion, and the like on the decoded image through the video decoder.
  • the video processor may convert the video to adjust the display environment to provide an optimal color or to express the content optimally within a target brightness range suitable for the intention of the creator.
  • the video buffer may store the video stream before it is delivered to the video decoder.
  • the video decoder may decode the extracted video stream using the signaling information extracted by the demultiplexer.
  • the audio buffer may store the audio stream before it is delivered to the audio decoder.
  • the audio decoder may decode the audio stream separated by the demultiplexer described above.
  • the audio processor may perform an additional process for reproducing the decoded data through the audio decoder.
  • the output controller may perform a task for synchronizing video data with audio data.
  • FIG. 27 is a diagram illustrating a process of a broadcast signal transmission method according to an embodiment of the present invention.
  • the broadcast signal transmission method may go through the following process.
  • a transmitter may generate a video stream by encoding video data.
  • an AVC or HEVC codec may be used.
  • the transmitting side may generate signaling information.
  • the signaling information indicates that the generated video stream is an HEVC video stream, information representing characteristics of the generated video stream, and a broadcast service based on the generated video stream is an HEVC-based broadcast service. It may include any one of the information.
  • the transmitting side may multiplex the generated video stream and the signaling information.
  • a video stream, an audio stream, signaling information, and the like may be multiplexed into one broadcast stream.
  • the above-mentioned one broadcast stream may correspond to MPEG-2 TS.
  • the transmitting side may transmit the multiplexed broadcast stream.
  • the transmitter may transmit the multiplexed broadcast stream through a terrestrial broadcast network, a cable network, and / or an internet network.
  • the signaling information may include at least one of a program map table (PMT), an event information table (EIT), and a service description table (SDT).
  • PMT may include information indicating that the HEVC video stream
  • EIT event information table
  • SDT service description table
  • the signaling information may include information indicating a wide brightness range of the video stream. Detailed description thereof has been described above with reference to FIGS. 5 and 6.
  • the signaling information may include color adjustment information for enhanced color representation of the video stream. Detailed description thereof has been described above with reference to FIGS. 7 and 8.
  • the information representing the characteristics of the video stream may include codec information, resolution information, frame rate information, and bit number information used to represent colors from black to white. Detailed description thereof has been described above with reference to FIGS. 12, 13, 14, 15, 16, and 25.
  • the information representing the characteristics of the video stream may include tier information for distinguishing whether the generated video stream is a stream for broadcasting or a stream for storage. Detailed description thereof has been provided above with reference to FIG. 17.
  • the signaling information may have a table section form or an XML form, and the signaling information may be transmitted through a broadcasting network and / or an internet network.
  • FIG. 28 is a diagram showing the structure of a broadcast signal receiving apparatus according to an embodiment of the present invention.
  • the broadcast signal receiving apparatus 28010 may include a receiver 28020, a demultiplexer 2830, and / or a video decoder 28040.
  • the receiver may receive the multiplexed broadcast stream at the transmitter.
  • the demultiplexer may extract a video stream and / or signaling information from the received multiplexed broadcast stream.
  • the signaling information may include any one of information indicating that the extracted video stream is an HEVC video stream, information indicating characteristics of the extracted video stream, and information indicating that a broadcast service based on the extracted video stream is an HEVC-based broadcast service. It may include.
  • the video decoder may decode the extracted video stream using the extracted signaling information.
  • 29 is a diagram showing the structure of a broadcast signal transmission apparatus according to an embodiment of the present invention.
  • the broadcast signal transmission apparatus 29010 may include a video encoder 29020, a signaling information generator 29030, a multiplexer 29040, and / or a transmitter 29050.
  • the video encoder may generate video stream by encoding the video data.
  • the signaling information generator may generate signaling information including information indicating that the video stream is an HEVC video stream, information indicating a characteristic of the video stream, and / or information indicating that a broadcast service based on the video stream is an HEVC based broadcast service. have.
  • the multiplexer may multiplex the video stream and the signaling information.
  • the transmitter may transmit the multiplexed broadcast stream.
  • a configuration corresponding to the process of the broadcast signal transmission method according to the embodiment of the present invention described with reference to FIG. 27 among the configurations of the broadcast signal transmission apparatus according to an embodiment of the present invention is the same as the corresponding process of the broadcast signal transmission method described above Can play a role.
  • FIG. 30 is a view showing a broadcast signal receiving method according to an embodiment of the present invention.
  • the broadcast signal reception method includes the steps of receiving a multiplexed broadcast stream (S30010), extracting a video stream and signaling information from the multiplexed broadcast stream (S30020), and / or extracting the signaling information. It may include the step (S30030) of decoding the extracted video stream using.
  • the receiving device may receive the multiplexed broadcast stream.
  • the receiver apparatus extracts the video stream and / or signaling information from the multiplexed broadcast stream.
  • the signaling information includes information indicating that the extracted video stream is an HEVC video stream, information indicating characteristics of the extracted video stream, and / or information indicating that a broadcast service based on the extracted video stream is an HEVC based broadcast service. can do.
  • the extracted apparatus may decode the extracted video stream by using the extracted signaling information.
  • the receiving apparatus may decode the extracted video stream by using the extracted signaling information.
  • a process corresponding to the configuration of the broadcast signal receiving apparatus according to an embodiment of the present invention described with reference to FIG. 26 and / or 28 of the broadcast signal receiving method according to an embodiment of the present invention may be performed by the above-described broadcast signal receiving apparatus. It can play the same role as the corresponding configuration.
  • Apparatus and method according to the present invention is not limited to the configuration and method of the embodiments described as described above, the above-described embodiments may be selectively all or part of each embodiment so that various modifications can be made It may be configured in combination.
  • the image processing method of the present invention can be implemented as a processor-readable code on a processor-readable recording medium provided in the network device.
  • the processor-readable recording medium includes all kinds of recording devices that store data that can be read by the processor. Examples of processor-readable recording media include ROM, RAM, CD-M, magnetic tape, floppy disk, optical data storage, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet. do.
  • the processor-readable recording medium can also be distributed over network coupled computer systems so that the processor-readable code is stored and executed in a distributed fashion.
  • the present invention can be used throughout the broadcasting industry.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 발명은 HEVC 기반의 IP 방송 서비스 제공을 위한 방송 신호의 송수신 방법 및 장치에 관한 것이다. 본 발명의 일 실시예에 따른 방송 신호 송신 방법은 비디오 데이터를 인코딩하여 비디오 스트림을 생성하는 단계, 상기 생성된 비디오 스트림이 HEVC 비디오 스트림임을 나타내는 정보, 상기 생성된 비디오 스트림의 특성을 나타내는 정보 및 상기 생성된 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보 중 어느 하나를 포함하는 시그널링 정보를 생성하는 단계, 상기 생성된 비디오 스트림 및 시그널링 정보를 다중화하는 단계, 상기 다중화된 방송 스트림을 전송하는 단계를 포함한다.

Description

HEVC 기반의 IP 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치
본 발명은 방송 신호의 송수신에 관한 것이다. 보다 상세하게는, HEVC 기반의 IP 방송 서비스 제공을 위한 방송 신호의 송수신 방법 및/또는 장치에 관한 것이다.
실시간 방송과 브로드밴드망을 통한 테이터방송을 결합한 유럽식 하이브리드TV인 HbbTV가 각국에서 사용화되며 확산의 기반을 마련하고 있다. 공용방송뿐만 아니라 민영방송들도 HbbTV 서비스를 내놓고 있는 유럽이 시장 확산을 주도하고 있다. 개발 비용이 낮고 신속한 상용 서비스 출시에 유리하다는 점 때문에 영국과 스위스뿐만 아니라 동유럽 방송사들도 HbbTV에 관심을 보이고 있다. 최근에는 HbbTV에 동장인식이나, 개인화, 멀티 스크린 등을 접목하는 기술이 발표되기도 했다.
HbbTV는 Hybrid Broadcast Broadband라는 명칭에서도 알 수 있듯이, 기존 방송의 컨텐츠/서비스와 인터넷의 컨텐츠/서비스를 융합하여 새로운 방송을 만들어 보자는 취지에서 독일과 프랑스 방송사들을 중심으로 시작된 융합형 TV 기술 표준이자 서비스를 의미한다.
HbbTV 표준은 소수의 새로운 기술 요소만 새로 도입하여 표준을 만들고, 대부분 이미 존재하고 검증된 특정 표준을 그대로 재사용하였기 때문에 개발 비용 및 적시 출시에 큰 강점을 가지고 있다. 다만, 현재 HbbTV 표준은 AVC 코덱 기반의 SD/HD 25fps만을 제공하고 있으므로 고화질을 요구하는 소비자의 트렌드에 맞게 HEVC 기반의 고화질 미디어 서비스를 제공할 필요가 있다.
본 발명이 이루고자 하는 과제는, 전술한 문제점을 해결하기 위한 것으로 HEVC 기반의 방송 서비스를 제공하기 위하여 방송 신호를 송수신하는 방법 및/또는 장치를 제공하는 것이다.
나아가, 본 발명이 이루고자 하는 과제는, HEVC 기반의 서비스에 적합한 video profile을 추가로 정의하여 고화질의 방송 서비스를 제공하는 것이다.
나아가, 본 발명이 이루고자 하는 과제는, HEVC 기반의 서비스에 적합한 video attribute를 추가로 정의하여 고화질의 방송 서비스를 제공하는 것이다.
나아가, 본 발명이 이루고자 하는 과제는, 시스템 레벨에서 HEVC 기반 서비스임을 알 수 있도록 하는 시그널링 방법을 제공하는 것이다.
나아가, 본 발명이 이루고자 하는 과제는, 시스템 레벨에서 HEVC 기반 서비스의 특성을 알 수 있도록 하는 시그널링 방법을 제공하는 것이다.
나아가, 본 발명이 이루고자 하는 과제는, HEVC 기반의 서비스에 관한 정보들을 IP망을 통하여 전송하는 방법을 제공하는 것이다.
본 발명의 일 실시예에 따른 방송 신호 송신 방법은 비디오 데이터를 인코딩하여 비디오 스트림을 생성하는 단계, 상기 생성된 비디오 스트림이 HEVC 비디오 스트림임을 나타내는 정보, 상기 생성된 비디오 스트림의 특성을 나타내는 정보 및 상기 생성된 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보 중 어느 하나를 포함하는 시그널링 정보를 생성하는 단계, 상기 생성된 비디오 스트림 및 시그널링 정보를 다중화하는 단계, 상기 다중화된 방송 스트림을 전송하는 단계를 포함할 수 있다.
바람직하게는, 상기 시그널링 정보는 PMT (Program Map Table), EIT (Event Information Table) 및 SDT (Service Description Table) 중 적어도 어느 하나를 포함하고, 상기 PMT는 상기 HEVC 비디오 스트림임을 나타내는 정보를 포함하고, 상기 EIT는 상기 비디오 스트림의 특성을 나타내는 정보를 포함하고, 상기 SDT는 상기 HEVC 기반의 방송 서비스임을 나타내는 정보를 포함할 수 있다.
바람직하게는, 상기 시그널링 정보는 상기 생성된 비디오 스트림의 광역 밝기 범위를 나타내는 정보를 포함할 수 있다.
바람직하게는, 상기 시그널링 정보는 상기 생성된 비디오 스트림의 향상된 색상 표현을 위한 색감 조정 정보를 포함할 수 있다.
바람직하게는, 상기 비디오 스트림의 특성을 나타내는 정보는 코덱 정보, 해상도 정보, 프레임 속도 정보 및 블랙부터 화이트까지의 색상을 나타내는데 사용되는 비트수 정보를 포함할 수 있다.
바람직하게는, 상기 비디오 스트림의 특성을 나타내는 정보는 상기 생성된 비디오 스트림이 방송을 위한 스트림인지 저장을 위한 스트림인지를 구분하는 티어 정보를 포함할 수 있다.
바람직하게는, 상기 시그널링 정보는 테이블 섹션 (table section) 형태 또는 XML 형태를 가질 수 있다.
본 발명의 다른 일 실시예에 따른 방송 신호 수신 장치는 다중화된 방송 스트림을 수신하는 수신부, 상기 수신한 다중화된 방송 스트림에서 비디오 스트림 및 시그널링 정보를 추출하는 역다중화부, 여기서, 상기 시그널링 정보는 상기 추출된 비디오 스트림이 HEVC 비디오 스트림임을 나타내는 정보, 상기 추출된 비디오 스트림의 특성을 나타내는 정보 및 상기 추출된 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보 중 어느 하나를 포함하고, 상기 추출된 시그널링 정보를 이용하여 상기 추출된 비디오 스트림을 디코딩하는 비디오 디코더를 포함할 수 있다.
바람직하게는, 상기 시그널링 정보는 PMT (Program Map Table), EIT (Event Information Table) 및 SDT (Service Description Table) 중 적어도 어느 하나를 포함하고, 상기 PMT는 상기 HEVC 비디오 스트림임을 나타내는 정보를 포함하고, 상기 EIT는 상기 비디오 스트림의 특성을 나타내는 정보를 포함하고, 상기 SDT는 상기 HEVC 기반의 방송 서비스임을 나타내는 정보를 포함할 수 있다.
바람직하게는, 상기 시그널링 정보는 상기 생성된 비디오 스트림의 광역 밝기 범위를 나타내는 정보를 포함할 수 있다.
바람직하게는, 상기 시그널링 정보는 상기 생성된 비디오 스트림의 향상된 색상 표현을 위한 색감 조정 정보를 포함할 수 있다.
바람직하게는, 상기 비디오 스트림의 특성을 나타내는 정보는 코덱 정보, 해상도 정보, 프레임 속도 정보 및 블랙부터 화이트까지의 색상을 나타내는데 사용되는 비트수 정보를 포함할 수 있다.
바람직하게는, 상기 비디오 스트림의 특성을 나타내는 정보는 상기 생성된 비디오 스트림이 방송을 위한 스트림인지 저장을 위한 스트림인지를 구분하는 티어 정보를 포함할 수 있다.
바람직하게는, 상기 시그널링 정보는 테이블 섹션 (table section) 형태 또는 XML 형태를 가질 수 있다.
본 발명의 다른 일 실시예에 따른 방송 신호 송신 장치는 비디오 데이터를 인코딩하여 비디오 스트림을 생성하는 인코더, 상기 생성된 비디오 스트림이 HEVC 비디오 스트림임을 나타내는 정보, 상기 생성된 비디오 스트림의 특성을 나타내는 정보 및 상기 생성된 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보 중 어느 하나를 포함하는 시그널링 정보를 생성하는 시그널링 정보 생성부, 상기 생성된 비디오 스트림 및 시그널링 정보를 다중화하는 다중화부, 상기 다중화된 방송 스트림을 전송하는 전송부를 포함할 수 있다.
본 발명의 다른 일 실시예에 따른 방송 신호 수신 방법은 다중화된 방송 스트림을 수신하는 단계, 상기 수신한 다중화된 방송 스트림에서 비디오 스트림 및 시그널링 정보를 추출하는 단계, 여기서, 상기 시그널링 정보는 상기 추출된 비디오 스트림이 HEVC 비디오 스트림임을 나타내는 정보, 상기 추출된 비디오 스트림의 특성을 나타내는 정보 및 상기 추출된 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보 중 어느 하나를 포함하고, 상기 추출된 시그널링 정보를 이용하여 상기 추출된 비디오 스트림을 디코딩하는 단계를 포함할수 있다.
본 발명에 따르면, HEVC 기반의 방송 서비스를 제공할 수 있는 효과가 있다.
본 발명에 따르면, HEVC 기반의 서비스에 적합한 video profile을 이용하여 고화질의 HEVC 기반의 방송 서비스를 제공할 수 있는 효과가 있다.
본 발명에 따르면, HEVC 기반의 서비스에 적합한 video attribute를 이용하여 고화질의 HEVC 기반의 방송 서비스를 제공할 수 있는 효과가 있다.
본 발명에 따르면, 시스템 레벨에서 HEVC 기반 서비스임을 알 수 있는 효과가 있다.
본 발명에 따르면, 시스템 레벨에서 HEVC 기반 서비스의 특성을 알 수 있는 효과가 있다.
본 발명에 따르면, HEVC 기반 서비스 및/또는 HEVC 기반 서비스에 대한 관련 정보를 방송망 및/또는 IP망을 통해 전송할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 PMT (Program Map Table)의 구성을 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 EIT (Event Information Table)의 구성을 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른 컴포넌트 디스크립터 (component_descriptor)의 구성을 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 stream_content 및 component_type의 설명을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 광역 밝기 범위 정보를 포함하는 광역 밝기 범위 디스크립터의 구성을 나타낸 도면이다.
도 6은 본 발명의 일 실시예에 따른 광역 밝기 범위 정보 (dynamic_range_transformation_metadata)의 구성을 나타낸 도면이다.
도 7은 본 발명의 일 실시예에 따른 색감 조정 정보를 포함하는 색감 조정 정보 디스크립터의 구성을 나타낸 도면이다.
도 8은 본 발명의 일 실시예에 따른 색감 조정 정보 (color_management_metadata)의 구성을 나타낸 도면이다.
도 9는 본 발명의 일 실시예에 따른 SDT (Service Description Table)의 구성을 나타낸 도면이다.
도 10은 본 발명의 일 실시예에 따른 서비스 디스크립터 (service_descriptor)의 구성을 나타낸 도면이다.
도 11은 본 발명의 일 실시예에 따른 HEVC 기반의 방송 서비스를 식별하는 service_type의 설명을 나타낸 도면이다.
도 12는 본 발명의 일 실시예에 따른 HbbTV에서 사용하는 system formats, video formats 및 audio formats를 나타낸 도면이다.
도 13은 본 발명의 일 실시예에 따라, 25Hz 프레임 속도를 갖는 비디오 시스템에서 사용되는 system formats, video formats 및 audio formats를 나타낸 도면이다.
도 14은 본 발명의 일 실시예에 따라, 30Hz 프레임 속도를 갖는 비디오 시스템에서 사용되는 system formats, video formats 및 audio formats를 나타낸 도면이다.
도 15는 본 발명의 일 실시예에 따른 HEVC 서비스를 제공하기 위한 video format을 xml 형태로 나타낸 도면이다.
도 16은 본 발명의 일 실시예에 따라 termID를 사용하여 video format을 나타낸 도면이다.
도 17은 본 발명의 일 실시예에 따른 HEVC 기반의 방송 서비스를 제공하기 위하여 termID를 사용하여 video format를 나타낸 도면이다.
도 18은 본 발명의 일 실시예에 따른 HEVC 서비스 제공을 위한 video profile을 나타낸 도면이다.
도 19는 본 발명의 일 실시예에 따른 video attribute type를 나타낸 도면이다.
도 20은 본 발명의 일 실시예에 따른 video attribute에 대한 설명을 나타낸 도면이다.
도 21은 본 발명의 일 실시예에 따른 video attribute를 xml 형태로 나타낸 도면이다.
도 22는 본 발명의 일 실시예에 따른 AspectRatioOrgType 및 AspectRatioDisplayType을 나타낸 도면이다.
도 23은 본 발명의 일 실시예에 따른 AFDBarType을 나타낸 도면이다.
도 24는 본 발명의 일 실시예에 따른 BitRateType 을 나타낸 도면이다.
도 25는 본 발명의 일 실시예에 따른 UHD 서비스 제공을 위한 video attributes를 나타낸 도면이다.
도 26은 본 발명의 일 실시예에 따른 방송 수신 장치의 구조를 나타낸 도면이다.
도 27은 본 발명의 일 실시예에 따른 방송 신호 송신 방법의 과정을 나타낸 도면이다.
도 28은 본 발명의 일 실시예에 따른 방송 신호 수신 장치의 구조를 나타낸 도면이다.
도 29는 본 발명의 일 실시예에 따른 방송 신호 송신 장치의 구조를 나타낸 도면이다.
도 30는 본 발명의 일 실시예에 따른 방송 신호 수신 방법을 나타낸 도면이다.
이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 실시예를 상세하게 설명하지만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
도 1은 본 발명의 일 실시예에 따른 PMT (Program Map Table)의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 PMT는 table_id 필드, section_syntax_indicator 필드, section_length 필드, program_number 필드, version_number 필드, current_next_indicator 필드, section_number 필드, last_section_number 필드, PCR_PID 필드, program_info_length 필드, descriptor(), stream_type 필드, elementary_PID 필드, ES_info_length 필드, descriptor() 및/또는 CRC_32 필드를 포함한다.
table_id 필드는 테이블의 타입을 식별한다. table_id 필드는 당해 테이블 섹션이 PMT를 구성하는 섹션임을 나타내는 역할을 할 수 있다.
section_syntax_indicator 필드는 당해 필드 이후에 따라오는 테이블 섹션의 포맷을 나타낸다. 당해 필드의 값이 0이면 당해 테이블 섹션은 short 포맷임을 나타낸다. 당해 필드의 값이 1이면 당해 테이블 섹션은 일반적인 long 포맷을 따른다.
section_length 필드는 당해 테이블 섹션의 길이를 나타낸다. section_length 필드는 당해 필드 이후부터 당해 테이블 섹션의 끝까지의 길이를 나타내므로 당해 테이블 섹션의 실제 길이는 sercion_length 필드가 나타내는 값에 3 바이트를 더한 값이 될 수 있다.
program_number 필드는 트랜스 포트 스트림 안에 존재하는 각 프로그램 서비스 또는 가상 채널 (virtual channel)을 식별한다.
version_number 필드는 프라이빗 테이블 섹션 (private table section)의 버전 넘버를 나타낸다. 수신기는 당해 필드와 후술할 current_next_indicator 필드를 이용해서 메모리에 저장되어 있는 테이블 섹션 중 가장 최근의 것을 찾아 낼 수 있다.
current_next_indicator 필드가 나타내는 값이 1이면 현재 전송되는 테이블이 유효하다는 것을 나타내고 0이면 현재 전송되는 테이블이 현재는 유효하지 않지만 이후에 유효할 것이라는 것을 나타낸다.
section_number 필드는 당해 섹션이 당해 테이블의 몇 번째 섹션인지를 나타낸다.
last_section_number 필드는 당해 테이블을 구성하고 있는 섹션 중에 마지막 섹션의 순번을 나타낸다.
PCR_PID 필드는 프로그램 서비스를 위한 PCR (Program Clock Reference)이 존재하는 패킷 ID (packet ID)를 나타낸다.
program_info_length 필드는 이후에 따라오는 프로그램 정보 (program_info)를 나타내는 디스크립터의 길이를 나타낸다.
descriptor()는 당해 테이블 섹션에 해당하는 프로그램에 대한 정보를 나타내는 디스크립터를 의미한다.
stream_type 필드는 당해 테이블이 설명하고 있는 프로그램을 구성하는 각 단위 스트림의 종류를 나타낸다. 이 필드는 프로그램을 구성하는 비디오 스트림이 HEVC 코덱에 의해 인코딩된 비디오 스트림 즉, HEVC 비디오 스트림임을 나타낼 수 있다. 예를 들어, 이 필드는 0x24 또는 0x25 값을 가질 수 있다. 이 필드가 나타내는 값이 0x24이면, 이 필드는 해당 비디오 스트림이 HEVC 비디오 스트림 또는 HEVC temporal video sub-bitstream임을 나타낼 수 있다. 이 필드가 나타내는 값이 0x25이면, 이 필드는 해당 비디오 스트림이 본 발명의 일 실시예에 따른 HEVC 비디오 스트림의 HEVC temporal video subset임을 나타낼 수 있다. 상술한 HEVC temporal video sub-bitstream는 하나의 비디오 스트림에 포함된 서브 스트림을 의미할 수 있다. 즉, HEVC는 temporal scalability를 자체적으로 제공하는데, 여기서 하나의 temporal id로 정의된 스트림이 sub-bitstream을 의미할 수 있다. 상술한 HEVC temporal video subset은 상술한 sub-bitstream에 포함되지 않는 스트림을 의미할 수 있다. 여기서, 상술한 subset 하나가 하나의 스트림이 될 수 있고, 여러 개의 subset이 하나의 스트림이 될 수 있고, 하나의 subset이 여러 개의 스트림이 될 수 있다.
elementary_PID 필드는 당해 테이블이 설명하고 있는 프로그램을 구성하는 각 단위 스트림의 패킷 ID (packet ID)를 나타낸다.
ES_info_length 필드는 이후에 따라오는 각 단위 스트림에 대한 정보 (ES_info)를 나타내는 디스크립터의 길이를 나타낸다.
descriptor()는 당해 테이블이 설명하고 있는 프로그램을 구성하는 단위 스트림들 중에 하나의 단위 스트림에 대한 정보를 나타내는 디스크립터를 의미한다.
CRC_32 필드는 당해 테이블 섹션에 포함된 데이터에 오류가 있는지 확인하기 위하여 사용되는 CRC 값을 나타낸다.
본 발명의 일 실시예에 따른 PMT는 MPEG-TS를 통하여 In band로 전송될 수 있고 PMT를 포함한 PSI 정보 전체가 xml 형태로 IP를 통하여 전송될 수 있다.
도 2는 본 발명의 일 실시예에 따른 EIT (Event Information Table)의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 EIT는 table_id 필드, section_syntax_indicator 필드, section_length 필드, service_id 필드, version_number 필드, current_next_indicator 필드, section_number 필드, last_section_number 필드, transport_stream_id 필드, original_network_id 필드, segment_last_section_number 필드, last_table_id 필드, event_id 필드, start_time 필드, duration 필드, running_status 필드, free_CA_mode 필드, descriptors_loop_length 필드, descriptor() 및/또는 CRC_32 필드를 포함한다.
table_id 필드는 테이블의 타입을 식별한다. table_id 필드는 당해 테이블 섹션이 EIT를 구성하는 섹션임을 나타내는 역할을 할 수 있다.
section_syntax_indicator 필드는 당해 필드 이후에 따라오는 테이블 섹션의 포맷을 나타낸다. 당해 필드의 값이 0이면 당해 테이블 섹션은 short 포맷임을 나타낸다. 당해 필드의 값이 1이면 당해 테이블 섹션은 일반적인 long 포맷을 따른다.
section_length 필드는 당해 테이블 섹션의 길이를 나타낸다. section_length 필드는 당해 필드 이후부터 당해 테이블 섹션의 끝까지의 길이를 나타낼 수 있다.
service_id 필드는 트랜스포트 스트림 안에 존재하는 각 서비스를 식별한다. service_id 필드는 PMT에서 program_number 필드와 그 기능이 동일할 수 있다.
version_number 필드는 프라이빗 테이블 섹션 (private table section)의 버전 넘버를 나타낸다. 수신기는 당해 필드와 후술할 current_next_indicator 필드를 이용해서 메모리에 저장되어 있는 테이블 섹션 중 가장 최근의 것을 찾아 낼 수 있다.
current_next_indicator 필드가 나타내는 값이 1이면 현재 전송되는 테이블이 유효하다는 것을 나타내고 0이면 현재 전송되는 테이블이 현재는 유효하지 않지만 이후에 유효할 것이라는 것을 나타낸다.
section_number 필드는 당해 섹션이 당해 테이블의 몇 번째 섹션인지를 나타낸다.
last_section_number 필드는 당해 테이블을 구성하고 있는 섹션 중에 마지막 섹션의 순번을 나타낸다.
transport_stream_id 필드는 당해 테이블에서 설명하고자 하는 트랜스포트 스트림 (TS)을 식별한다.
original_network_id 필드는 당해 테이블에서 기술하는 서비스 또는 이벤트를 전송한 최초의 방송국을 식별할 수 있다.
segment_last_section_number 필드는 sub table이 존재하는 경우 해당 세그먼트의 마지막 섹션 넘버를 나타낸다. sub table이 분절되지 않는 경우 당해 필드가 나타내는 값은 last_section_number 필드가 나타내는 값과 동일한 값을 나타낼 수 있다.
last_table_id 필드 사용된 마지막 table_id를 나타낸다.
event_id 필드는 각각의 이벤트를 식별하며 하나의 서비스 내에서 유일한 값을 갖는다.
start_time 필드는 해당 이벤트의 시작시간을 나타낸다.
duration 필드는 해당 이벤트의 지속시간을 나타낸다. 예를 들어 1시간 45분 30초간 지속되는 프로그램이라면 duration 필드는 0x014530 값을 나타낼 수 있다.
running_status 필드는 해당 이벤트의 상태를 나타낸다.
free_CA_mode 필드가 나타내는 값이 0이면 서비스를 구성하는 컴포넌트 스트림들이 스크램블되어 있지 않음을 나타내고, 1이면 하나 이상의 스트림에 대한 접근이 CA 시스템에 의해 조절됨을 나타낸다. CA 시스템은 Conditional Access System의 약어로서 방송의 시청을 계약자로 한정하기 위해서 방송 컨텐츠의 암호화 기능과 계약자만이 암호를 풀어 방송 컨텐츠를 시청할 수 있는 기능을 제공하는 시스템을 의미한다.
descriptors_loop_length 필드는 당해 필드 이후에 따라오는 디스크립터들의 길이를 더한 값을 나타낸다.
descriptor()는 각 이벤트에 대하여 기술하는 디스크립터를 의미한다. 본 발명의 일 실시예에 따른 컴포넌트 디스크립터는 상술한 descriptor()에 해당할 수 있다. 상술한 컴포넌트 디스크립터는 EIT 내에 위치하고 해당 이벤트에 포함된 비디오 또는 오디오 스트림의 특징을 나타낼 수 있다. 컴포넌트 디스크립터에 대한 상세한 설명은 다음 도면에서 후술한다. 후술할 광역 밝기 범위 디스크립터 및 색감 조정 정보 디스크립터는 상술한 descriptor()에 해당할 수 있다.
CRC_32 필드는 당해 테이블 섹션에 포함된 데이터에 오류가 있는지 확인하기 위하여 사용되는 CRC 값을 나타낸다.
본 발명의 일 실시예에 따른 EIT는 TS 내에 table 형태로 전송될 수 있고 xml 형태로 IP streaming에 의하여 전송될 수 있다.
도 3은 본 발명의 일 실시예에 따른 컴포넌트 디스크립터 (component_descriptor)의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 컴포넌트 디스크립터는 descriptor_tag 필드, descriptor_length 필드, stream_content 필드, component_type 필드, component_tag 필드, ISO_639_language_code 필드 및/또는 text_char 필드를 포함한다.
descriptor_tag 필드는 이 디스크립터가 본 발명의 일 실시예에 따른 컴포넌트 디스크립터임을 식별한다.
descriptor_length 필드는 이 디스크립터의 길이를 나타낼 수 있다.
stream_content 필드는 스트림의 타입을 나타낼 수 있다.
component_type 필드는 비디오 또는 오디오 데이터의 타입을 나타낼 수 있다.
component_tag 필드는 스트림 식별자 디스크립터 (stream identifier descriptor)의 component_tag 필드와 같은 값을 갖는다.
ISO_639_language_code 필드는 컴포넌트의 언어를 식별할 수 있다.
text_char 필드는 컴포넌트 스트림의 텍스트 설명을 나타낼 수 있다.
본 발명의 일 실시예는 stream_content 필드 및 component_type 필드를 이용하여 HEVC 코덱 기반의 비디오 스트림에 대한 정보를 시그널링 할 수 있다. 즉, 본 발명의 일 실시예는 상술한 두 필드를 이용하여 해당 이벤트 또는 서비스에 포함된 비디오 스트림의 특성을 파악할 수 있다. 본 발명의 일 실시예에 따른 stream_content 필드 및 component_type 필드는 비디오 스트림의 특성을 나타낼 수 있고, 보다 구체적으로 비디오 스트림의 코덱 정보, 해상도 정보, 프레임 속도 정보, 비트 심도 정보, 티어 정보 등을 나타낼 수 있다. 여기서, 비트 심도 정보는 블랙 색상부터 화이트까지의 색상을 나타내는데 사용되는 비트수를 의미하고 티어 정보는 해당 비디오 스트림이 방송을 위한 스트림인지 수신기에 저장해 두기 위한 스트림인지를 구분하는 정보를 의미할 수 있다.
본 발명의 일 실시예에 따른 수신 장치는 상술한 컴포넌트 디스크립터에 포함된 정보를 이용하여 해당 이벤트를 디코딩할 수 있는지 여부를 판단할 수 있다.
도 4는 본 발명의 일 실시예에 따른 stream_content 및 component_type의 설명을 나타낸 도면이다.
본 발명의 일 실시예에 따른 stream_content 필드가 0x09인 경우, 이 필드는 해당 비디오 스트림이 HEVC 비디오 스트림임을 나타낼 수 있다.
본 발명의 일 실시예에 따른 component_type 필드는 0x01부터 0x20까지 정의될 수 있다. component_type 필드가 0x01인 경우, 이 필드는 해당 비디오 스트림이 HEVC SD 해상도, 4:3의 화면비, 25Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x02인 경우, 이 필드는 해당 비디오 스트림이 HEVC SD 해상도, 16:9의 화면비, 25Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x03인 경우, 이 필드는 해당 비디오 스트림이 HEVC SD 해상도, 16:9 이상의 화면비, 25Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x04인 경우, 이 필드는 해당 비디오 스트림이 HEVC SD 해상도, 4:3의 화면비, 30Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x05인 경우, 이 필드는 해당 비디오 스트림이 HEVC SD 해상도, 16:9의 화면비, 30Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x06인 경우, 이 필드는 해당 비디오 스트림이 HEVC SD 해상도, 16:9 이상의 화면비, 30Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x07인 경우, 이 필드는 해당 비디오 스트림이 HEVC HD 해상도, 4:3 또는 16:9의 화면비, 25Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x08인 경우, 이 필드는 해당 비디오 스트림이 HEVC HD 해상도, 16:9 이상의 화면비, 25Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x09인 경우, 이 필드는 해당 비디오 스트림이 HEVC HD 해상도, 4:3의 화면비, 30Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x0A인 경우, 이 필드는 해당 비디오 스트림이 HEVC HD 해상도, 16:9의 화면비, 30Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x0B인 경우, 이 필드는 해당 비디오 스트림이 HEVC HD 해상도, 16:9 이상의 화면비, 30Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x11인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, 16:9의 화면비, 25Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x12인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, wide screen (16:9 이상)의 화면비, 25Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x13인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, 16:9의 화면비, 30Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x14인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, wide screen (16:9 이상)의 화면비, 30Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x15인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, 16:9의 화면비, 50Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x16인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, wide screen (16:9 이상)의 화면비, 50Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x17인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, 16:9의 화면비, 60Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x18인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, wide screen (16:9 이상)의 화면비, 60Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x19인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, 16:9의 화면비, 25Hz의 프레임 속도 (framerate), 10비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x1A인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, wide screen (16:9 이상)의 화면비, 25Hz의 프레임 속도 (framerate), 10비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x1B인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, 16:9의 화면비, 30Hz의 프레임 속도 (framerate), 10비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x1C인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, wide screen (16:9 이상)의 화면비, 30Hz의 프레임 속도 (framerate), 10비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x1D인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, 16:9의 화면비, 50Hz의 프레임 속도 (framerate), 10비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x1E인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, wide screen (16:9 이상)의 화면비, 50Hz의 프레임 속도 (framerate), 10비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x1F인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, 16:9의 화면비, 60Hz의 프레임 속도 (framerate), 10비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x20인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, wide screen (16:9 이상)의 화면비, 60Hz의 프레임 속도 (framerate), 10비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다.
본 발명의 일 실시예에 따른 component_type은 4K UHD에 대하여 4:2:0의 크로마 포맷 (chroma format)의 비디오 스트림을 기준으로 하였다. 본 발명의 다른 일 실시예는 component_type 0x21부터 0x29을 할당하여 12비트의 비트 심도에 대한 내용을 추가로 정의할 수 있다. 또한, component_type 0x29부터 0x38을 할당하여 4K UHD에 대하여 4:2:2의 크로마 포맷을 추가로 포함할 수 있다. 또한, component_type 0x38부터 0x47을 할당하여 8K UHD 비디오 스트림에 대한 내용을 추가로 포함할 수 있다.
도 5는 본 발명의 일 실시예에 따른 광역 밝기 범위 정보를 포함하는 광역 밝기 범위 디스크립터의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 dynamic_range_transformation_info_descriptor는 광역 밝기 범위 디스크립터로 명명될 수 있다.
본 발명의 일 실시예에 따른 광역 밝기 범위 디스크립터는 descriptor_tag 필드, descriptor_length 필드, number_of_HDR_info 필드 및/또는 dynamic_range_transformation_metadata 필드 (광역 밝기 범위 정보)를 포함한다.
descriptor_tag 필드는 이 디스크립터가 본 발명의 일 실시예에 따른 광역 밝기 범위 디스크립터임을 식별한다.
descriptor_length 필드는 이 디스크립터의 길이를 나타낼 수 있다.
number_of_HDR_info 필드는 후술할 광역 밝기 범위 정보의 개수를 나타낼 수 있다.
dynamic_range_transformation_metadata 필드는 본 발명의 일 실시예에 따른 광역 밝기 범위 정보로 명명될 수 있고, 이에 대한 상세한 설명은 후술한다.
본 발명의 일 실시예에 따른 광역 밝기 범위 디스크립터는 EIT에 포함될 수 있다. 본 발명의 일 실시예에 따른 광역 밝기 범위 정보는 전술한 component_type에 추가되어 표현될 수 있다. 하지만, component_type이 계속적으로 증가하는 것을 막기 위하여 광역 밝기 범위 정보는 독립적으로 EIT 내의 디스크립터 레벨에서 시그널링될 수 있다.
도 6은 본 발명의 일 실시예에 따른 광역 밝기 범위 정보 (dynamic_range_transformation_metadata)의 구성을 나타낸 도면이다.
본 발명의 일 실시예 따른 dynamic_range_transformation_metadata는 광역 밝기 범위 정보로 명명될 수 있다.
본 발명의 일 실시예에 따른 광역 밝기 범위 정보는 luminance_max 필드, luminance_min 필드, luminance_upper_bound 필드, luminance_lower_bound 필드, number_luminance_upper_bound_diff 필드 및/또는 luminance_upper_bound_diff[i] 필드를 포함한다.
luminance_max 필드는 해당 비디오 스트림에서 표현된 최대 기준 밝기를 나타낸다. 즉, 밝기 범위 (DR)의 최대값을 나타낸다.
luminance_min 필드는 해당 비디오 스트림에서 표현된 최소 기준 밝기를 나타낸다. 즉, 밝기 범위 (DR)의 최소값을 나타낸다.
luminance_upper_bound 필드는 해당 비디오 스트림에서 표현된 밝기 범위 중 필수적으로 표현되어야 하는 밝기 범위의 최대값 (nit 단위)을 나타낸다.
luminance_lower_bound 필드는 해당 비디오 스트림에서 표현된 밝기 범위 중 필수적으로 표현되어야 하는 밝기 범위의 최소값 (nit 단위)을 나타낸다.
number_luminance_upper_bound_diff 필드는 상술한 luminance_upper_bound 또는 luminance_lower_bound를 확장하기 위하여 사용되는 변수의 개수를 나타낸다.
luminance_upper_bound_diff[i] 필드는 상술한 luminance_upper_bound 또는 luminance_lower_bound의 확장에 의해 확장된 영역에 대한 정보를 나타낸다.
본 발명의 일 실시예에 따른 광역 밝기 범위 정보는 비디오 스트림의 광역 밝기 범위를 나타내는 정보를 나타낼 수 있고, EIT 내의 광역 밝기 범위 디스크립터에 포함될 수 있다.
도 7은 본 발명의 일 실시예에 따른 색감 조정 정보를 포함하는 색감 조정 정보 디스크립터의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 UHD_color_management_info_descriptor는 색감 조정 정보 디스크립터로 명명될 수 있다.
본 발명의 일 실시예에 따른 색감 조정 정보 디스크립터는 descriptor_tag 필드, descriptor_length 필드, number_of_color_info 필드 및/또는 color_management_metadata 필드 (색감 조정 정보)를 포함한다.
descriptor_tag 필드는 이 디스크립터가 본 발명의 일 실시예에 따른 색감 조정 정보 디스크립터임을 식별한다.
descriptor_length 필드는 이 디스크립터의 길이를 나타낼 수 있다.
number_of_color_info 필드는 후술할 색감 조정 정보의 개수를 나타낼 수 있다.
color_management_metadata 필드는 본 발명의 일 실시예에 따른 색감 조정 정보로 명명될 수 있고, 이에 대한 상세한 설명은 후술한다.
본 발명의 일 실시예에 따른 색감 조정 정보 디스크립터는 EIT에 포함될 수 있다. 본 발명의 일 실시예에 따른 색감 조정 정보는 전술한 component_type에 추가되어 표현될 수 있다. 하지만, component_type이 계속적으로 증가하는 것을 막기 위하여 색감 조정 정보는 독립적으로 EIT 내의 디스크립터 레벨에서 시그널링될 수 있다.
도 8은 본 발명의 일 실시예에 따른 색감 조정 정보 (color_management_metadata)의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 color_management_metadata는 색감 조정 정보로 명명될 수 있다.
본 발명의 일 실시예에 따른 색감 조정 정보는 gamut_mapping_flag 필드, reference_black_luminance_level 필드, reference_white_luminance_level 필드, color_gamut 필드, color_primary_r_x 필드, color_primary_r_y 필드, color_primary_g_x 필드, color_primary_g_y 필드, color_primary_b_x 필드 및/또는 color_primary_b_y 필드를 포함한다.
gamut_mapping_flag 필드는 기본 설정된 개멋 (gamut)에 비해 향상된 개멋이 사용되는지 여부를 나타낸다. 개멋 지정 플래그 정보의 필드 값이 "0"인 경우 기본 설정된 표준 개멋이 사용됨을 나타내고, 필드 값이 "1"인 경우 임의의 개멋이 사용됨을 나타낸다.
reference_black_luminance_level 필드는 해당 비디오 스트림을 재생하기 위해 필요한 권장 디스플레이 밝기 범위 중 최소 밝기를 나타낼 수 있다.
reference_white_luminance_level 필드는 해당 비디오 스트림을 재생하기 위해 필요한 권장 디스플레이 밝기 범위 중 최대 밝기를 나타낼 수 있다.
color_gamut 필드는 해당 비디오 스트림의 색감을 표현할 수 있는 표준 색공간을 나타낸다. 이 필드는 디스플레이의 색상 표현 범위 및/또는 기준 색상 (Red, Green, Blue)의 색공간 상 위치를 나타낼 수 있다.
color_primary_r_x 필드는 표준 색공간이 아닌 임의의 색공간을 지정하는 경우 임의의 색공간에서 레드 색상의 x좌표를 나타낸다.
color_primary_r_y 필드는 표준 색공간이 아닌 임의의 색공간을 지정하는 경우 임의의 색공간에서 레드 색상의 y좌표를 나타낸다.
color_primary_g_x 필드는 표준 색공간이 아닌 임의의 색공간을 지정하는 경우 임의의 색공간에서 그린 색상의 x좌표를 나타낸다.
color_primary_g_y 필드는 표준 색공간이 아닌 임의의 색공간을 지정하는 경우 임의의 색공간에서 그린 색상의 y좌표를 나타낸다.
color_primary_b_x 필드는 표준 색공간이 아닌 임의의 색공간을 지정하는 경우 임의의 색공간에서 블루 색상의 x좌표를 나타낸다.
color_primary_b_y 필드는 표준 색공간이 아닌 임의의 색공간을 지정하는 경우 임의의 색공간에서 블루 색상의 y좌표를 나타낸다.
본 발명의 일 실시예에 따른 색감 조정 정보는 EIT 내의 색감 조정 정보 디스크립터에 포함될 수 있다.
도 9는 본 발명의 일 실시예에 따른 SDT (Service Description Table)의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 SDT는 table_id 필드, section_syntax_indicator 필드, section_length 필드, transport_stream_id 필드, version_number 필드, current_next_indicator 필드, section_number 필드, last_section_number 필드, original_network_id 필드, service_id 필드, EIT_schedule_flag 필드, EIT_present_following_flag 필드, running_status 필드, free_CA_mode 필드, descriptors_loop_length 필드, descriptor() 및/또는 CRC_32 필드를 포함한다.
table_id 필드는 테이블의 타입을 식별한다. table_id 필드는 당해 테이블 섹션이 SDT를 구성하는 섹션임을 나타내는 역할을 할 수 있다.
section_syntax_indicator 필드는 당해 필드 이후에 따라오는 테이블 섹션의 포맷을 나타낸다. 당해 필드의 값이 0이면 당해 테이블 섹션은 short 포맷임을 나타낸다. 당해 필드의 값이 1이면 당해 테이블 섹션은 일반적인 long 포맷을 따른다.
section_length 필드는 당해 테이블 섹션의 길이를 나타낸다. section_length 필드는 당해 필드 이후부터 당해 테이블 섹션의 끝까지의 길이를 나타낼 수 있다.
transport_stream_id 필드는 당해 테이블에서 설명하고자 하는 트랜스포트 스트림 (TS)을 식별한다.
version_number 필드는 프라이빗 테이블 섹션 (private table section)의 버전 넘버를 나타낸다. 수신기는 당해 필드와 후술할 current_next_indicator 필드를 이용해서 메모리에 저장되어 있는 테이블 섹션 중 가장 최근의 것을 찾아 낼 수 있다.
current_next_indicator 필드가 나타내는 값이 1이면 현재 전송되는 테이블이 유효하다는 것을 나타내고 0이면 현재 전송되는 테이블이 현재는 유효하지 않지만 이후에 유효할 것이라는 것을 나타낸다.
section_number 필드는 당해 섹션이 당해 테이블의 몇 번째 섹션인지를 나타낸다.
last_section_number 필드는 당해 테이블을 구성하고 있는 섹션 중에 마지막 섹션의 순번을 나타낸다.
original_network_id 필드는 당해 테이블에서 기술하는 서비스를 전송한 최초의 방송국을 식별할 수 있다.
service_id 필드는 트랜스포트 스트림 안에 존재하는 각 서비스를 식별한다. service_id 필드는 PMT에서 program_number 필드와 그 기능이 동일할 수 있다.
EIT_schedule_flag 필드가 나타내는 값이 1이면 현재 TS 안에 서비스를 위한 EIT 스케쥴 정보 (EIT schedule flag)가 존재함을 나타내고, 0이면 존재하지 않음을 나타낸다.
EIT_present_following_flag 필드가 나타내는 값이 1이면 현재 TS 안에 서비스를 위한 EIT_present_following 정보가 존재함을 나타내고, 0이면 존재하지 않음을 나타낸다.
running_status 필드는 서비스의 상태를 나타낸다. 예를 들어, running_status 필드의 값이 1이면 서비스가 "not running" 임을 나타내고, 2이면 "starts in a few seconds" 임을 나타내고, 3이면 "pausing" 임을 나타내고, 4이면 "running" 임을 나타내고, 5이면 "service off-air" 임을 나타낼 수 있다.
free_CA_mode 필드가 나타내는 값이 0이면 서비스를 구성하는 컴포넌트 스트림들이 스크램블되어 있지 않음을 나타내고, 1이면 하나 이상의 스트림에 대한 접근이 CA 시스템에 의해 조절됨을 나타낸다. CA 시스템은 Conditional Access System의 약어로서 방송의 시청을 계약자로 한정하기 위해서 방송 컨텐츠의 암호화 기능과 계약자만이 암호를 풀어 방송 컨텐츠를 시청할 수 있는 기능을 제공하는 시스템을 의미한다.
descriptors_loop_length 필드는 당해 필드 이후에 따라오는 디스크립터들의 길이를 더한 값을 나타낸다.
descriptor()는 각 서비스에 대하여 기술하는 디스크립터를 의미한다. 본 발명의 일 실시예에 따른 서비스 디스크립터 (service_descriptor)는 상술한 descriptor()에 해당할 수 있다. 이에 대한 상세한 설명은 다음 도면에서 후술한다.
CRC_32 필드는 당해 테이블 섹션에 포함된 데이터에 오류가 있는지 확인하기 위하여 사용되는 CRC 값을 나타낸다.
도 10은 본 발명의 일 실시예에 따른 서비스 디스크립터 (service_descriptor)의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 서비스 디스크립터는 descriptor_tag 필드, descriptor_length 필드, service_type 필드, service_provider_name_length 필드 및/또는 service_name_length 필드를 포함한다.
descriptor_tag 필드는 이 디스크립터를 식별할 수 있다.
descriptor_length 필드는 이 디스크립터의 길이를 나타낼 수 있다.
service_type 필드는 해당 서비스가 HEVC 기반의 방송 서비스임을 나타낼 수 있다. 본 발명의 일 실시예에 따르면, 이 필드는 해당 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타낼 수 있다. 이 필드에 대한 상세한 설명은 다음 도면에서 후술한다.
service_provider_name_length 필드는 다음의 char로 표시되는 서비스 프로바이터 이름의 길이를 나타낼 수 있다.
service_name_length 필드는 다음의 char로 표시되는 서비스 이름의 길이를 나타낼 수 있다.
본 발명의 일 실시예에 따른 SDT는 TS 내에 table 형태로 전송될 수 있고 xml 형태로 IP streaming에 의하여 전송될 수 있다.
도 11은 본 발명의 일 실시예에 따른 HEVC 기반의 방송 서비스를 식별하는 service_type의 설명을 나타낸 도면이다.
본 발명의 일 실시예에 따른 service_type은 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보에 해당할 수 있다.
본 발명의 일 실시예에 따른 service_type이 0x1F이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 SD 해상도를 갖는 digital television service임을 나타낼 수 있다. service_type이 0x20이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 SD 해상도를 갖는 NVOD time-shifted service임을 나타낼 수 있다. service_type이 0x21이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 SD 해상도를 갖는 NVOD reference service임을 나타낼 수 있다. service_type이 0x22이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 HD 해상도를 갖는 digital television service임을 나타낼 수 있다. service_type이 0x23이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 SD 해상도를 갖는 NVOD time-shifted service임을 나타낼 수 있다. service_type이 0x24이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 HD 해상도를 갖는 NVOD reference service임을 나타낼 수 있다. service_type이 0x25이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 UHD-1A 해상도를 갖는 digital television service임을 나타낼 수 있다. service_type이 0x26이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 UHD-1A 해상도를 갖는 NVOD time-shifted service임을 나타낼 수 있다. service_type이 0x27이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 UHD-1A 해상도를 갖는 NVOD reference service임을 나타낼 수 있다. service_type이 0x28이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 UHD-1B 해상도를 갖는 digital television service임을 나타낼 수 있다. service_type이 0x29이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 UHD-1B 해상도를 갖는 NVOD time-shifted service임을 나타낼 수 있다. service_type이 0x2A이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 UHD-1B 해상도를 갖는 NVOD reference service임을 나타낼 수 있다. 여기서, 상술한 UHD-1A는 4K 해상도 및 50p/60p의 프레임 속도 (framerate)를 나타낼 수 있고, UHD-1B는 4K 해상도 및 100p/120p의 프레임 속도를 나타낼 수 있다. 또한, 4K 해상도 및 25p/30p를 갖는 방송 서비스와 8K 해상도를 갖는 방송 서비스도 시그널링될 수 있다.
도 12는 본 발명의 일 실시예에 따른 HbbTV에서 사용하는 system formats, video formats 및 audio formats를 나타낸 도면이다.
본 발명의 일 실시예에 따라, MPEG-2 TS가 system format으로 사용되는 경우 video format으로는 AVC_SD_25 및/또는 AVC_HD_25가 사용될 수 있고 audio format으로는 HEAAC 및/또는 E-AC3가 사용될 수 있고 MIME Type으로는 video/mpeg가 사용될 수 있다. MPEG-2 TS가 system format으로 사용되는 경우 단말은 컨텐츠가 브로드밴드를 통하여 전송되는 방송을 통하여 전송되는 같은 subtitle format을 지원할 수 있다. (Terminals can support the same subtitle formats for content received by the broadband connection as are supported for the broadcast connection) MP4가 system format으로 사용되는 경우 video format으로는 AVC_SD_25 및/또는 AVC_HD_25가 사용될 수 있고 audio format으로는 HEAAC 및/또는 E-AC3가 사용될 수 있고 MIME Type으로는 video/mp4가 사용될 수 있다. 예를 들어, video format AVC_SD_25는 AVC 코덱이 사용되고 SD 해상도를 갖고 25 fps의 프레임속도를 갖는 비디오 스트림을 나타낼 수 있다.
본 발명의 일 실시예에 따르면, 상술한 E-AC3가 방송을 통해 수신된 컨텐츠에 대하여 지원되는 경우 단말은 브로드밴드를 통해 수신된 컨텐츠에 대하여도 E-AC3를 지원할 수 있다. (Terminals can support E-AC3 for content received by the broadband connection when it is supported for the broadcast connection)
도 13은 본 발명의 일 실시예에 따라, 25Hz 프레임 속도를 갖는 비디오 시스템에서 사용되는 system formats, video formats 및 audio formats를 나타낸 도면이다.
본 발명의 일 실시예에 따라, MPEG-2 TS가 system format으로 사용되는 경우 video format으로는 AVC_HD_25, AVC_SD_25, AVC_SP_25 및/또는 AVC_3D_25가 사용될 수 있고 audio format으로는 HEAAC, HEAAC2, HEAAC_MPS, MPEG1_L2, MPEG1_L2_MPS, AC3, E-AC3 및/또는 DTS가 사용될 수 있고 MIME Type으로는 video/mpeg 또는 video/mp2t가 사용될 수 있다. TTS가 system format으로 사용되는 경우 video format으로는 AVC_HD_25, AVC_SD_25, AVC_SP_25 및/또는 AVC_3D_25가 사용될 수 있고 audio format으로는 HEAAC, HEAAC2, HEAAC_MPS, MPEG1_L2, MPEG1_L2_MPS, AC3, E-AC3 및/또는 DTS가 사용될 수 있고 MIME Type으로는 video/vnd.dlna.mpeg-tts 가 사용될 수 있다. MP4가 system format으로 사용되는 경우 video format으로는 AVC_HD_25, AVC_SD_25, AVC_SP_25 및/또는 AVC_3D_25가 사용될 수 있고 audio format으로는 HEAAC, HEAAC2, HEAAC_MPS, MPEG1_L2, MPEG1_L2_MPS, AC3, E-AC3 및/또는 DTS가 사용될 수 있고 MIME Type으로는 video/mp4 가 사용될 수 있다.
본 발명의 다른 일 실시에에 따라, MPEG-2 TS가 system format으로 사용되는 경우 video format으로는 MPEG2_SD_25 및/또는 MPEG2_SP_25가 사용될 수 있고 audio format으로는 MPEG1_L2, MPEG1_L2_MPS, AC3 및/또는 E-AC3가 사용될 수 있고 MIME Type으로는 video/mpeg 또는 video/mp2t가 사용될 수 있다. TTS가 system format으로 사용되는 경우 video format으로는 MPEG2_SD_25 및/또는 MPEG2_SP_25가 사용될 수 있고 audio format으로는 MPEG1_L2, MPEG1_L2_MPS, AC3 및/또는 E-AC3가 사용될 수 있고 MIME Type으로는 video/vnd.dlna.mpeg-tts가 사용될 수 있다.
본 발명의 일 실시예에 따르면, 이 도면에 도시된 video format 중에서 TS 및/또는 MP4가 system format으로 사용되는 경우에, AVC_HD_25 및/또는 AVC_SD_25가 본 발명의 일 실시예에 따른 HbbTV에 사용될 수 있다.
도 14은 본 발명의 일 실시예에 따라, 30Hz 프레임 속도를 갖는 비디오 시스템에서 사용되는 system formats, video formats 및 audio formats를 나타낸 도면이다.
본 발명의 일 실시예에 따라, MPEG-2 TS가 system format으로 사용되는 경우 video format으로는 AVC_HD_30, AVC_SD_30, AVC_SP_30 및/또는 AVC_3D_30가 사용될 수 있고 audio format으로는 HEAAC, HEAAC2, HEAAC_MPS, MPEG1_L2, MPEG1_L2_MPS, AC3, E-AC3 및/또는 DTS가 사용될 수 있고 MIME Type으로는 video/mpeg 또는 video/mp2t가 사용될 수 있다. TTS가 system format으로 사용되는 경우 video format으로는 AVC_HD_30, AVC_SD_30, AVC_SP_30 및/또는 AVC_3D_30가 사용될 수 있고 audio format으로는 HEAAC, HEAAC2, HEAAC_MPS, MPEG1_L2, MPEG1_L2_MPS, AC3, E-AC3 및/또는 DTS가 사용될 수 있고 MIME Type으로는 video/vnd.dlna.mpeg-tts 가 사용될 수 있다. MP4가 system format으로 사용되는 경우 video format으로는 AVC_HD_30, AVC_SD_30, AVC_SP_30 및/또는 AVC_3D_30가 사용될 수 있고 audio format으로는 HEAAC, HEAAC2, HEAAC_MPS, MPEG1_L2, MPEG1_L2_MPS, AC3, E-AC3 및/또는 DTS가 사용될 수 있고 MIME Type으로는 video/mp4 가 사용될 수 있다.
본 발명의 일 실시예에 따르면, HEVC 기반의 방송 서비스를 위하여 HbbTV에서 사용되는 video format이 추가로 정의될 수 있다. SD 해상도의 경우, HEVC_SD_25, HEVC_SD_30 등이 추가로 정의될 수 있고, HD 해상도의 경우, HEVC_HD_25, HEVC_HD_30, HEVC_HD_50, HEVC_HD_60 등이 추가로 정의될 수 있고, UHD 해상도의 경우, HEVC_UHD_25, HEVC_UHD_30, HEVC_UHD_50, HEVC_UHD_60 등이 추가로 정의될 수 있다. 또한, 본 발명의 일 실시예에 따르면, 고화질의 서비스를 제공하기 위하여 HEVC뿐만 아니라 AVC에서도 높은 프레임 속도 포맷 (higher frame rate format)이 정의되고 사용될 수 있다. 예를 들어, AVC_HD_50, AVC_HD_60 등이 추가로 정의될 수 있다.
도 15는 본 발명의 일 실시예에 따른 HEVC 서비스를 제공하기 위한 video format을 xml 형태로 나타낸 도면이다.
본 발명의 일 실시예에 따르면, HEVC 기반의 방송 서비스를 제공하기 위하여 HEVC, UHD 및 higher frame rate의 video format이 추가로 정의될 수 있다.
본 발명의 일 실시예에 따른 HEVC 기반의 방송 서비스를 제공하기 위하여, HEVC_UHD_25가 video format으로 정의될 수 있고, 이 포맷은 H.265/HEVC 코덱을 사용해 encoding된 UHD 해상도의 25Hz의 프레임 속도를 갖는 video임을 나타낼 수 있다. HEVC_UHD_30가 video format으로 정의될 수 있고, 이 포맷은 H.265/HEVC 코덱을 사용해 encoding된 UHD 해상도의 30Hz의 프레임 속도를 갖는 video임을 나타낼 수 있다. HEVC_UHD_50가 video format으로 정의될 수 있고, 이 포맷은 H.265/HEVC 코덱을 사용해 encoding된 UHD 해상도의 50Hz의 프레임 속도를 갖는 video임을 나타낼 수 있다. HEVC_UHD_60가 video format으로 정의될 수 있고, 이 포맷은 H.265/HEVC 코덱을 사용해 encoding된 UHD 해상도의 60Hz의 프레임 속도를 갖는 video임을 나타낼 수 있다. HEVC_HD_25가 video format으로 정의될 수 있고, 이 포맷은 H.265/HEVC 코덱을 사용해 인코딩된 HD 해상도의 25Hz의 프레임 속도를 갖는 video임을 나타낼 수 있다. HEVC_HD_30가 video format으로 정의될 수 있고, 이 포맷은 H.265/HEVC 코덱을 사용해 encoding된 HD 해상도의 30Hz의 프레임 속도를 갖는 video임을 나타낼 수 있다. HEVC_SD_30가 video format으로 정의될 수 있고, 이 포맷은 H.265/HEVC 코덱을 사용해 encoding된 SD 해상도의 30Hz의 프레임 속도를 갖는 video임을 나타낼 수 있다. AVC_HD_30가 video format으로 정의될 수 있고, 이 포맷은 H.264/AVC 코덱을 사용해 encoding된 HD 해상도의 30Hz의 프레임 속도를 갖는 video임을 나타낼 수 있다. AVC_SD_30가 video format으로 정의될 수 있고, 이 포맷은 H.264/AVC 코덱을 사용해 encoding된 SD 해상도의 30Hz의 프레임 속도를 갖는 video임을 나타낼 수 있다.
본 발명의 일 실시예에 따르면 상술한 video format 정보는 비디오 스트림의 특성을 나타내는 정보에 해당할 수 있고, EIT 내의 디스크립터에 포함될 수 있고, xml 및/또는 table의 형태로 전송될 수 있다.
도 16은 본 발명의 일 실시예에 따라 termID를 사용하여 video format을 나타낸 도면이다.
본 발명의 일 실시예에 따른 termID 1은 MPEG-1 video임을 나타내고, termID 2는 MPEG-2 video임을 나타내고, termID 2.1은 MPEG-2 video simple profile을 나타내고, termID 2.2는 MPEG-2 video main profile을 나타내고, termID 2.1.1은 MPEG-2 video simple profile 및 main level을 나타내고, termID 2.2.1은 MPEG-2 video main profile 및 low level을 나타내고, termID 2.2.2은 MPEG-2 video main profile 및 main level을 나타내고, termID 2.2.3은 MPEG-2 video main profile 및 high 1440 level을 나타내고, termID 2.2.4은 MPEG-2 video main profile 및 high level을 나타낼 수 있다. 즉, termID는 단계별로 코덱의 종류, profile의 종류, level의 종류를 나타낼 수 있다.
도 17은 본 발명의 일 실시예에 따른 HEVC 기반의 방송 서비스를 제공하기 위하여 termID를 사용하여 video format를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, HEVC의 경우, termID는 9로 지정될 수 있고 main profile은 9.1, main10 profile은 9.2, still picture profile은 9.3으로 지정되어 시그널링될 수 있다. 추가로 profile을 확장하는 경우에도 상술한 방법과 같이 9.4, 9.5 등에 확장하고자하는 profile을 지정할 수 있다. 각 profile에 대하여 tier와 level이 정의될 수 있다. 본 발명의 일 실시예에 따른 tier는 티어 정보로 명명될 수 있고, main tier는 1로 higher tier는 2로 정의될 수 있다. 본 발명의 일 실시예에 따른 level은 3.0, 3.1, 3.2 ~6.0, 6.1, 6.2까지 나타낼 수 있고, 각 level은 1 내지 18 중 어느 하나의 값으로 정의될 수 있다. 예를 들어, termID 9.1.1.1은 HEVC video coding format, main profile, main tier 및 level 3.0을 나타낼 수 있고, termID 9.3.1.18은 HEVC video coding format, still picture profile, main tier 및 level 6.2를 나타낼 수 있다.
본 발명의 일 실시예에 따른 tier는 level과 함께 bitrate의 한계를 정하는 데 사용될 수 있다. 본 발명의 일 실시예에 따른 higher tier와 main tier는 maximum bitrate에서 차이가 존재할 수 있다. 예를 들면, 4K의 해상도 및/또는 60p의 프레임 속도를 갖는 video를 decoding할 수 있는 level 5.1에서, main tier인 경우 maximum bitrate는 40000 (1000bits/s)까지 이지만 high tier인 경우 maximum bitrate는 160000 (1000bits/s)일 수 있다. 따라서, 본 발명의 일 실시예에 따른 main tier를 갖는 스트림은 대부분 방송을 위한 스트림으로 사용될 수 있고, higher tier를 갖는 스트림은 대부분 방송국단에서 저장을 위한 스트림으로 사용될 수 있다.
본 발명의 일 실시예에 따르면 상술한 video format 정보는 비디오 스트림의 특성을 나타내는 정보에 해당할 수 있고, EIT 내의 디스크립터에 포함될 수 있고, xml 및/또는 table의 형태로 전송될 수 있다.
도 18은 본 발명의 일 실시예에 따른 HEVC 서비스 제공을 위한 video profile을 나타낸 도면이다.
본 발명의 일 실시예에 따르면, 전술한 video format을 기반으로 하여 system format_video format_audio format 순서로 하나의 video profile이 정의될 수 있다. 예를 들어, video profile은 TS_AVC_HD_25_HEAAC, TS_HEVC_HD_60_HEAAC 등으로 표현될 수 있다. 보다 구체적으로, video profile의 형식은 system format(전송format)_videoformat(codec_resolution_framerate)_audioformat(audiocodec)으로 표현될 수 있다.
본 발명의 일 실시예에 따르면, video profile로서 MP4_HEVC_SD_30_HEAAC가 정의될 수 있고 이 video profile은 system format으로 MP4, video codec으로 HEVC, resolution으로 SD, frame rate로 30fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mp4, 전송 방식으로 dash를 가질 수 있다. video profile로서 MP4_HEVC_HD_30_HEAAC가 정의될 수 있고 이 video profile은 system format으로 MP4, video codec으로 HEVC, resolution으로 HD, frame rate로 30fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mp4, 전송 방식으로 dash를 가질 수 있다. video profile로서 MP4_HEVC_HD_50_HEAAC가 정의될 수 있고 이 video profile은 system format으로 MP4, video codec으로 HEVC, resolution으로 HD, frame rate로 50fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mp4, 전송 방식으로 dash를 가질 수 있다. video profile로서 MP4_HEVC_HD_60_HEAAC가 정의될 수 있고 이 video profile은 system format으로 MP4, video codec으로 HEVC, resolution으로 HD, frame rate로 60fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mp4, 전송 방식으로 dash를 가질 수 있다. video profile로서 MP4_HEVC_UHD_25_HEAAC가 정의될 수 있고 이 video profile은 system format으로 MP4, video codec으로 HEVC, resolution으로 UHD, frame rate로 25fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mp4, 전송 방식으로 dash를 가질 수 있다. video profile로서 MP4_HEVC_UHD_30_HEAAC가 정의될 수 있고 이 video profile은 system format으로 MP4, video codec으로 HEVC, resolution으로 UHD, frame rate로 30fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mp4, 전송 방식으로 dash를 가질 수 있다. video profile로서 MP4_HEVC_UHD_50_HEAAC가 정의될 수 있고 이 video profile은 system format으로 MP4, video codec으로 HEVC, resolution으로 UHD, frame rate로 50fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mp4, 전송 방식으로 dash를 가질 수 있다. video profile로서 MP4_HEVC_UHD_60_HEAAC가 정의될 수 있고 이 video profile은 system format으로 MP4, video codec으로 HEVC, resolution으로 UHD, frame rate로 60fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mp4, 전송 방식으로 dash를 가질 수 있다. video profile로서 TS_HEVC_SD_30_HEAAC가 정의될 수 있고 이 video profile은 system format으로 TS, video codec으로 HEVC, resolution으로 SD, frame rate로 30fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mpeg을 가질 수 있다. video profile로서 TS_HEVC_HD_30_HEAAC가 정의될 수 있고 이 video profile은 system format으로 TS, video codec으로 HEVC, resolution으로 HD, frame rate로 30fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mpeg을 가질 수 있다. video profile로서 TS_HEVC_HD_50_HEAAC가 정의될 수 있고 이 video profile은 system format으로 TS, video codec으로 HEVC, resolution으로 HD, frame rate로 50fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mpeg을 가질 수 있다. video profile로서 TS_HEVC_HD_60_HEAAC가 정의될 수 있고 이 video profile은 system format으로 TS, video codec으로 HEVC, resolution으로 HD, frame rate로 60fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mpeg을 가질 수 있다. video profile로서 TS_HEVC_UHD_25_HEAAC가 정의될 수 있고 이 video profile은 system format으로 TS, video codec으로 HEVC, resolution으로 UHD, frame rate로 25fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mpeg을 가질 수 있다. video profile로서 TS_HEVC_UHD_30_HEAAC가 정의될 수 있고 이 video profile은 system format으로 TS, video codec으로 HEVC, resolution으로 UHD, frame rate로 30fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mpeg을 가질 수 있다. video profile로서 TS_HEVC_UHD_50_HEAAC가 정의될 수 있고 이 video profile은 system format으로 TS, video codec으로 HEVC, resolution으로 UHD, frame rate로 50fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mpeg을 가질 수 있다. video profile로서 TS_HEVC_UHD_60_HEAAC가 정의될 수 있고 이 video profile은 system format으로 TS, video codec으로 HEVC, resolution으로 UHD, frame rate로 60fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mpeg을 가질 수 있다.
본 발명의 일 실시예에 따르면 상술한 video profile 정보는 비디오 스트림의 특성을 나타내는 정보에 해당할 수 있고, EIT 내의 디스크립터에 포함될 수 있고, xml 및/또는 table의 형태로 전송될 수 있다.
도 19는 본 발명의 일 실시예에 따른 video attribute type를 나타낸 도면이다.
본 발명의 일 실시예에 따른 HbbTV에서 비디오와 관련된 정보를 전달하기 위하여 video attribute type를 xml 형태로 전달할 수 있다.
이 도면에 도시된 바와 같이, 본 발명의 일 실시예에 따른 VideoAttributesType는 Coding 엘레먼트, Scan 엘레먼트, HorizontalSize 엘레먼트, VerticalSize 엘레먼트, AspectRatio 엘레먼트, Color 엘레먼트, FrameRate 엘레먼트, BitRate 엘레먼트 및/또는 PictureFormat 엘레먼트를 포함한다. 상술한 각 엘레먼트에 대한 상세한 설명은 다음 도면에서 후술한다.
본 발명의 일 실시예에 따르면 상술한 video attribute type에 포함된 엘레먼트 정보는 비디오 스트림의 특성을 나타내는 정보에 해당할 수 있고, EIT 내의 디스크립터에 포함될 수 있고, xml 및/또는 table의 형태로 전송될 수 있다.
도 20은 본 발명의 일 실시예에 따른 video attribute에 대한 설명을 나타낸 도면이다.
본 발명의 일 실시예에 따른 VideoAttributesType는 Coding 엘레먼트, Scan 엘레먼트, HorizontalSize 엘레먼트, VerticalSize 엘레먼트, AspectRatio 엘레먼트, Color 엘레먼트, FrameRate 엘레먼트, BitRate 엘레먼트 및/또는 PictureFormat 엘레먼트를 포함한다. 그리고, Scan 엘레먼트는 ScanType과 연결될 수 있고, AspectRatio 엘레먼트는 AspectRatioType 및/또는 type 엘레먼트와 연결될 수 있고, Color 엘레먼트는 ColorTypeType, ColorType 및/또는 type 엘레먼트와 연결될 수 있다.
VideoAttributesType는 비디오의 특성을 설명하는 엘레먼트들의 집합을 나타낼 수 있다. (A complex type defining a set of elements that describe video characteristics)
Coding 엘레먼트는 비디오의 코딩 포맷을 나타낼 수 있다. (The coding format of the video. This term should be taken from the MPEG-7 "VisualCodingFormatCS" classification scheme listed in clause B.2.34 of ISO/IEC 15938-5 [2]) 이 엘레먼트는 codec_profile_level 형식으로 시그널링될 수 있다. 본 발명의 일 실시예에 따른 HEVC의 경우, profile을 분류하는데 tier 정보를 사용할 수 있다. tier 정보는 main 또는 high를 나타낼 수 있다. main은 방송 서비스를 위한 비디오임을 나타내고, high는 스튜디오단에서 저장을 위한 비디오임을 나타낼 수 있다. 동일한 profile/level에서도 tier 정보에 따라 정의된 최대 bitrate가 달라질 수 있다. 본 발명의 일 실시예는 이 엘레먼트에 tier의 타입을 추가할 수 있고 video attribute type에 tier의 타입을 추가하여 시그널링할 수 있다. Coding 엘레먼트에 tier 정보가 포함된다면 본 발명의 일 실시예는 비디오 스트림을 codec_profile_tier_level 형식으로 시그널링할 수 있다. 예를 들어, HEVC를 기초로 한 방송 서비스를 위해 코딩한 10bit의 4K UHD 60p의 비디오를 제공하는 경우 해당 비디오는 HEVC Video Main10 profile Main tier @ Level 5.1로 시그널링될 수 있다. 즉, HEVC Video Main Profile Main tier @ Level {3.0~6.2}, HEVC Video Main 10 Profile Main tier @ Level {3.0~6.2} 등과 같이 티어 정보가 추가되어 시그널링이 확장될 수 있다.
Scan 엘레먼트는 비디오의 scan 타입을 나타낼 수 있다. (The scan type of the video)
HorizontalSize 엘레먼트는 비디오의 픽셀에서 수평 크기를 나타낼 수 있다. (The horizontal size in pixels of the video) 본 발명의 일 실시예에 따른 이 엘레먼트는 4K UHD 서비스를 위하여 2160, 8K UHD 서비스를 위하여 4320 등을 포함할 수 있다.
VerticalSize 엘레먼트는 비디오의 픽셀에서 수직 크기를 나타낼 수 있다. (The vertical size in pixels of the video) 본 발명의 일 실시예에 따른 이 엘레먼트는 4K UHD 서비스를 위하여 3840, 8K UHD 서비스를 위하여 7680 등을 포함할 수 있다.
AspectRatio 엘레먼트는 비디오의 화면비를 나타낼 수 있다. (The aspect ratio of the video. There may be two aspect ratios associated with a programme: the original aspect ratio that the programme is available in and the aspect ratio of a particular instance of the programme) 본 발명의 일 실시예에 따른 aspect ratio는 두 가지로 분류될 수 있다. 첫 번째는 프로그램에서 이용가능한 Original aspect ratio, 두 번째는 프로그램의 특정 instance에 대한 aspect ratio이다. AspectRatio는 RatioType(H:V)로 표시될 수 있고, AspectRatioType 및/또는 AspectRatioTypeType과 연결될 수 있다. AspectRatioTypeType에서 제공될 수 있는 값은 publication과 Original 값이다. 본 발명의 일 실시예에 따른 AspectRatioTypeType은 AFD bar 관련 정보를 포함할 수 있다. 상술한 AFD bar에 대한 상세한 설명은 다음 도면에서 후술한다.
Color 엘레먼트는 비디오의 색상 포맷을 나타낼 수 있다. (The colour format of the video (e.g. black and white)) 본 발명의 일 실시예에 따른 이 엘레먼트는 ColorTypeType과 ColorType과 연결될 수 있고 color, blackAndWhite, blackAndWhiteAndColor 및 colorized로 분류될 수 있다.
FrameRate 엘레먼트는 비디오의 프레임 속도를 나타낼 수 있다. (An element expressing the frame rate of the video) 본 발명의 일 실시예에 따른 이 엘레먼트는 30, 50, 60fps와 같은 higher frame rate를 포함할 수 있고 integer frame rate뿐만 아니라 fractional frame rate도 지원할 수 있다.
BitRate 엘레먼트는 비디오 스트림의 비트 레이트를 나타낼 수 있다. (An element to define the bit rate of the video stream) 본 발명의 일 실시예에 따른 이 엘레먼트는 비디오 스트림을 포함한 전체 스트림의 bitrate를 나타낼 수 있다. 여기서, 이 엘레먼트는 min, max 및 average로 분류되어 시그널링될 수 있다. 예를 들면, SD 해상도를 포함한 전체 스트림의 최대 bit rate는 4000kbits/s가 될 수 있고, HD 해상도를 포함한 전체 스트림의 최대 bit rate는 10000kbits/s가 될 수 있고, HEVC 기반의 UHD 서비스를 위한 전체 스트림의 최대 bit rate는 30000kbits/s가 될 수 있다. 상술한 최대 bit rate는 제공되는 서비스의 종류에 따라 달라질 수 있다. 상술한 bit rate에 대한 상세한 설명은 관련 도면에 대한 설명 부분에서 후술한다.
PictureFormat 엘레먼트는 비디오 이미지의 포맷을 나타낼 수 있다. (An element to define the format of the video image from a predefined list (PictureFormatCS Classification Scheme). When this element is not provided in an XML instance document, the video format can be assumed to be "2D Video") 본 발명의 일 실시예에 따른 이 엘레먼트는 2D video, Plano-Stereoscopic Video, Frame-Compatible 3D, Side-by-Side 3D Format, Top-and-Bottom 3D Format 등을 나타낼 수 있다.
ScanType은 interlaced 또는 progressive를 나타낼 수 있다. (A simple enumerated type defining the allowable values of the ScanType element above. ScanType can take on the value interlaced or progressive)
AspectRatioType은 프로그램의 화면비를 나타낼 수 있다. (Denotes the aspect ratio of the programme. This element can denote the aspect ratio of the original programme as well as that of its instances, through the use of type attribute) AspectRatioType은 type 엘레먼트를 가질 수 있는데, type 엘레먼트는 화면비가 original인지 publication인지를 나타낼 수 있다. (Denotes whether the specified aspect ratio is associated with the original programme (original) or its published instance (publication). The default value of the attribute is original)
ColorTypeType은 상술한 Color 엘레먼트에 해당하는 값을 나타낼 수 있다. (A simple enumerated type defining the allowable values of the ColorType instantiated in the Color element above. Allowed values are: color - the content was produced using a colour video format; blackAndWhite - the content was produced using a black and white video format; blackAndWhiteAndColor - the content contains a mixture of video that was originally produced in colour and content that was produced in black and white; colorized - the content was originally produced using a black and white video format and colour was added after original production)
ColorType은 색상 포맷의 complex type을 나타낼 수 있다. (A complex type, with a single attribute describing the colour format using one of the ColorTypeType values) ColorType은 type 엘레먼트를 가질 수 있고, type 엘레먼트는 색상 포맷의 타입을 나타낼 수 있다.
본 발명의 일 실시예에 따르면 상술한 video attribute type에 포함된 엘레먼트 정보는 비디오 스트림의 특성을 나타내는 정보에 해당할 수 있고, EIT 내의 디스크립터에 포함될 수 있고, xml 및/또는 table의 형태로 전송될 수 있다.
도 21은 본 발명의 일 실시예에 따른 video attribute를 xml 형태로 나타낸 도면이다.
이 도면에 도시된 바와 같이, VideoAttributesType에 포함된 엘레먼트들은 xml을 통하여 정의될 수 있다.
본 발명의 일 실시예에 따른, ScanType은 interlaced 및/또는 progressive를 나타낼 수 있고 ColorTypeType은 color, blackAndWhite, blackAndWhiteAndColor 및/또는 colorized 값을 가질 수 있고 AspectRatioType은 orginal 및/또는 publication 값을 가질 수 있다.
이 도면에 도시된 어트리뷰트 또는 엘레먼트 중에서 이전 도면에서 설명된 어트리뷰트 또는 엘레먼트와 동일한 명칭을 가진 것들은 동일한 의미를 나타낼 수 있다.
도 22는 본 발명의 일 실시예에 따른 AspectRatioOrgType 및 AspectRatioDisplayType을 나타낸 도면이다.
본 발명의 일 실시예는 AFDbar 관련 정보를 나타내기 위하여 AspectRatioOrgType 및 AspectRatioDisplayType을 정의할 수 있다. 본 발명의 일 실시예에 따른 AFD는 Active Format Description의 약어로서 서로 다른 화면 비율을 갖는 텔레비전 세트에 다른 형태의 방송 영상을 적합하게 보여줄 수 있게 할 수 있다. AFDbar는 AFD의 기능에 이용되는 도구를 나타낼 수 있다. 본 발명의 일 실시예에 따른 AspectRatioOrgType은 촬영 당시 aspect ratio를 나타내고, AspectRatioDisplayType는 최종적으로 디스플레이되는 aspect ratio를 나타낼 수 있다. 본 발명의 일 실시예는 AFDbar를 삽입하거나 scaling 및/또는 crop을 판단하기 위하여 PostProcessingFlag를 시그널링할 수 있다. 상술한 PostProcessingFlag는 비디오 화면에 AFDbar 삽입, scaling, crop 등의 후처리가 필요한 경우 1을 나타내고 후처리가 필요없는 경우 0을 나타낼 수 있다.
이 도면에 도시된 바와 같이, AspectRatioOrgType 및/또는 AspectRatioDisplayType이 00이면, aspect ratio는 4:3을 나타내고, 01이면, 16:9를 나타내고, 10이면, 21:9를 나타낼 수 있다. 여기서, 본 발명의 일 실시예에 따른 aspect ratio는 화면비로 명명될 수 있다.
본 발명의 일 실시예에 따르면 상술한 AspectRatioOrgType 및 AspectRatioDisplayType 관련 정보는 비디오 스트림의 특성을 나타내는 정보에 해당할 수 있고, EIT 내의 디스크립터에 포함될 수 있고, xml 및/또는 table의 형태로 전송될 수 있다.
도 23은 본 발명의 일 실시예에 따른 AFDBarType을 나타낸 도면이다.
본 발명의 일 실시예는 이전 도면에서 전술한 AspectRatioOrgType와 AspectRatioDisplayType를 비교하여 aspect ratio가 다른 경우, AFDbar의 삽입 여부를 판단할 수 있다. 여기서, AFDbar의 삽입 여부는 PostProcessingFlag 및/또는 AFDBarType를 이용하여 판단할 수 있다. PostProcessingFlag가 1인 경우, 본 발명의 일 실시예는 AFDbar를 어떤 형태로 삽입, scaling 또는 crop할 것인지에 대하여 AFDBarType을 이용하여 시그널링할 수 있다.
이 도면에 도시된 바와 같이, 본 발명의 일 실시예에 따른 AFDBarType이 00이면, 본 발명의 일 실시예는 display의 size에 맞게 영상을 비대칭으로 scaling시키고, AFDBarType이 01이면, aspect ratio에 맞게 영상을 대칭적으로 scaling시키고 나머지 부분을 crop할 수 있다. AFDBarType이 10이면 즉, AspectRatioOrgType이 AspectRatioDisplayType보다 크면 본 발명의 일 실시예는 영상에 Letterbox를 삽입할 수 있고, AFDBarType이 11이면 즉, AspectRatioOrgType이 AspectRatioDisplayType보다 작으면 본 발명의 일 실시예는 영상에 Pillarbox를 삽입할 수 있다.
본 발명의 일 실시예에 따르면 상술한 PostProcessingFlag 및/또는 AFDBarType 관련 정보는 비디오 스트림의 특성을 나타내는 정보에 해당할 수 있고, EIT 내의 디스크립터에 포함될 수 있고, xml 및/또는 table의 형태로 전송될 수 있다.
도 24는 본 발명의 일 실시예에 따른 BitRateType 을 나타낸 도면이다.
본 발명의 일 실시예에 따른 BitRateType은 variable 엘레먼트, minimum 엘레먼트, average 엘레먼트 및/또는 maximum 엘레먼트를 포함할 수 있다.
BitRateType은 컨텐트 아이템의 비트레이트를 정의할 수 있다. (A complex type that defines the bit rate for a content item expressed in bits per second. The datavalue associated with this type defines the average bitrate if the bitrate is variable)
variable 엘레먼트는 비트레이트가 고정되어 있는지 변동가능한지 여부를 나타낼 수 있다. (Indicates whether the BitRate is variable or fixed. If the BitRate is variable, three optional attributes can be used to specify the minimum, maximum and average bitrates)
minimum 엘레먼트는 비트레이트의 최소값을 나타낼 수 있다. (Indicates the minimum numerical value for the BitRate in case of variable bit rate)
average 엘레먼트는 비트레이트의 평균값을 나타낼 수 있다. (Indicates the average numerical value for the BitRate in case of variable bit rate)
maximum 엘레먼트는 비트레이트의 최대값을 나타낼 수 있다. (Indicates the maximum numerical value for the BitRate in case of variable bit rate)
본 발명의 일 실시예에 따르면 상술한 BitRateType, variable 엘레먼트, minimum 엘레먼트, average 엘레먼트 및/또는 maximum 엘레먼트관련 정보는 비디오 스트림의 특성을 나타내는 정보에 해당할 수 있고, EIT 내의 디스크립터에 포함될 수 있고, xml 및/또는 table의 형태로 전송될 수 있다.
도 25는 본 발명의 일 실시예에 따른 UHD 서비스 제공을 위한 video attributes를 나타낸 도면이다.
본 발명의 일 실시예에 따른 UHD 서비스를 제공하기 위하여 bit-depth, HDR, Color primary 및/또는 Chroma subsampling이 추가로 정의될 수 있다.
이 도면에 도시된 바와 같이, bit-depth는 블랙부터 화이트까지 몇 비트를 사용해서 내타낼 것인지를 나타낼 수 있다. 예를 들어, bit-depth는 8, 10, 12비트 등을 가질 수 있다. 본 발명의 일 실시예에 따른 bit-depth는 블랙부터 화이트까지의 색상을 나타내는데 사용되는 비트수 정보에 해당할 수 있다.
본 발명의 일 실시예에 따른 HDR은 본 발명의 일 실시예에 따른 광역 밝기 범위를 나타내는 정보에 해당할 수 있다. 본 발명의 일 실시예는 상술한 광역 밝기 범위를 최소/최대 밝기로 구분하여 최소 밝기 및 최대 밝기를 시그널링할 수 있다. 광역 밝기 범위 정보는 최소 밝기를 나타내는 min.luminance 및 최대 밝기를 나타내는 max.luminance 값에 의하여 시그널링될 수 있다. 본 발명의 다른 일 실시예는 광역 밝기 범위를 구분하는 profile을 지정할 수 있다. 예를 들어, Conventional capacity는 최소 0.1cd/m2, 최대 100cd/m2의 밝기 범위를 갖는 것으로 지정될 수 있고, Mid.capacity는 최소 0.001cd/m2, 최대 1000cd/m2의 밝기 범위를 갖는 것으로 지정될 수 있고, High capacity는 최소 0.0001cd/m2, 최대 10000cd/m2의 밝기 범위를 갖는 것으로 지정될 수 있다.
본 발명의 일 실시예에 따른 Color primary는 색감 조정 정보에 해당할 수 있고, color를 표현하는 색좌표를 구분할 수 있다. 예를 들어, Color primary는 표준 색공간인 BT.709, BT.2020, DCI-P3 등을 나타낼 수 있고 임의로 지정된 색공간을 나타낼 수 있다. 본 발명의 일 실시예는 임의로 색공간을 지정하는 경우, RGB와 화이트 포인트에 대한 x좌표, y좌표값을 추가로 시그널링할 수 있다. 이 때, x좌표, y좌표 및 z좌표의 합은 1이므로 z좌표값은 시그널링하지 않을 수 있다.
본 발명의 일 실시예에 따른 Chroma subsampling은 인코딩할 때 Luma 성분 대비 Chroma 성분의 정보량을 나타낼 수 있다. 예를 들어, Chroma subsampling는 4:2:0, 4:2:2, 4:4:4 등의 값을 가질 수 있다.
본 발명의 일 실시예에 따른, bit-depth, HDR, Color primary 및/또는 Chroma subsampling은 비디오 스트림의 특성을 나타내는 정보에 해당할 수 있고, EIT 내의 디스크립터에 포함될 수 있고, xml 및/또는 table의 형태로 전송될 수 있다.
도 26은 본 발명의 일 실시예에 따른 방송 수신 장치의 구체적인 구조를 나타낸 도면이다.
본 발명의 일 실시예에 따른 방송 수신 장치는 역다중화부 (TP/IP Demux; 26010), 채널 관리자 (Channel Manager; 26020), 시그널링 정보 처리부 (PSI/SI/PSIP processor; 26030), 비디오 버퍼 (Video Input Buffer and Control; 26040), 비디오 디코더 (HEVC Video Decoder; 26050), 비디오 처리부 (Video Processor; 26060), 오디오 버퍼 (Audio Input Buffer and Control; 26070), 오디오 디코더 (Audio Decoder; 26080), 오디오 처리부 (Audio Processor; 26090) 및/또는 출력 제어부 (Output control and synchronization; 26100)을 포함한다.
역다중화부는 채널 정보 파악에 필요한 PSI/PSIP/SI section 정보, 비디오 및 오디오 정보를 분류하고 분류된 패킷을 각각 시그널링 정보 처리부, 비디오 디코더 (또는 비디오 버퍼) 및 오디오 디코더 (또는 오디오 버퍼)로 전달할 수 있다. 여기서 상술한 PSI/PSIP/SI section 정보는 table 형태로 제공될 수도 있고, xml 형태로 제공될 수도 있다. 본 발명의 일 실시예에 따른 역다중부는 수신부를 포함할 수 있고, 상술한 수신부는 송신측에서 다중화된 방송 스트림을 수신할 수 있다. 역다중화부는 수신한 다중화된 방송 스트림에서 비디오 스트림 및/또는 시그널링 정보를 추출할 수 있다. 여기서, 상술한 시그널링 정보는 추출된 비디오 스트림이 HEVC 비디오 스트림임을 나타내는 정보, 추출된 비디오 스트림의 특성을 나타내는 정보 및 추출된 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보 중 어느 하나를 포함할 수 있다.
채널 관리자는 섹션 데이터로부터 파싱된 정보를 이용하여 어떤 채널이 수신 가능한지 파악할 수 있고 채널 관련 목록을 만드는데 필요한 작업을 수행할 수 있다.
시그널링 정보 처리부는 역다중화부, 채널 관리자 및 UI 등의 동작에 필요한 정보를 추출할 수 있다. 본 발명의 일 실시예에 따른 시그널링 정보는 PMT (Program Map Table), EIT (Event Information Table) 및 SDT (Service Description Table) 중 적어도 어느 하나를 포함할 수 있고, 상술한 PMT는 HEVC 비디오 스트림임을 나타내는 정보를 포함하고, EIT는 비디오 스트림의 특성을 나타내는 정보를 포함하고, SDT는 HEVC 기반의 방송 서비스임을 나타내는 정보를 포함할 수 있다. 나아가, 시그널링 정보는 비디오 스트림의 광역 밝기 범위를 나타내는 정보를 포함할 수 있고 비디오 스트림의 향상된 색상 표현을 위한 색감 조정 정보를 포함할 수 있다. 나아가, 상술한 비디오 스트림의 특성을 나타내는 정보는 코덱 정보, 해상도 정보, 프레임 속도 정보 및/또는 블랙부터 화이트까지의 색상을 나타내는데 사용되는 비트수 정보를 포함할 수 있고 비디오 스트림이 방송을 위한 스트림인지 저장을 위한 스트림인지를 구분하는 티어 정보를 포함할 수 있다.
비디오 처리부는 비디오 디코더를 거쳐 복호화된 영상에 대하여 color space conversion, de-interlacing, frame rate conversion 등의 과정을 수행할 수 있다. 비디오 처리부는 디스플레이 환경을 조정하여 최적의 색감을 제공할 수 있도록 하거나 제작자의 의도에 맞는 목표 밝기 범위 내에서 컨텐츠를 최적으로 표현할 수 있도록 비디오를 변환할 수 있다.
비디오 버퍼는 비디오 스트림이 비디오 디코더에 전달되기 전에 비디오 스트림을 저장할 수 있다.
비디오 디코더는 상술한 역다중화부에서 추출된 시그널링 정보를 이용하여 추출된 비디오 스트림을 디코딩할 수 있다.
오디오 버퍼는 오디오 스트림이 오디오 디코더에 전달되기 전에 오디오 스트림을 저장할 수 있다.
오디오 디코더는 상술한 역다중화부에서 분리된 오디오 스트림을 디코딩할 수 있다.
오디오 처리부는 오디오 디코더를 거쳐 복호화된 데이터에 대하여 재생을 위한 부가과정을 수행할 수 있다.
출력 제어부는 비디오 데이터와 오디오 데이터의 동기화를 맞추기 위한 작업을 수행할 수 있다.
도 27은 본 발명의 일 실시예에 따른 방송 신호 송신 방법의 과정을 나타낸 도면이다.
이 도면에 도시된 바와 같이, 본 발명의 일 실시예에 따른 방송 신호 송신 방법은 다음과 같은 과정을 거칠 수 있다. 먼저, 본 발명의 일 실시예에 따른 송신측은 비디오 데이터를 인코딩하여 비디오 스트림을 생성할 수 있다. (S27010) 여기서, AVC 또는 HEVC 코덱이 사용될 수 있다. 다음으로, 송신측은 시그널링 정보를 생성할 수 있다. (S27020) 여기서, 시그널링 정보는 생성된 비디오 스트림이 HEVC 비디오 스트림임을 나타내는 정보, 상기 생성된 비디오 스트림의 특성을 나타내는 정보 및 상기 생성된 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보 중 어느 하나를 포함할 수 있다. 여기서, 시그널링 정보에 포함된 정보에 관한 상세한 설명은 도 1, 2, 3, 4, 9, 11에 대한 설명 부분에서 전술하였다. 다음으로, 송신측은 생성된 비디오 스트림 및 시그널링 정보를 다중화할 수 있다. (S27030) 본 발명의 일 실시예에 따르면 비디오 스트림, 오디오 스트림, 시그널링 정보 등은 하나의 방송 스트림으로 다중화될 수 있다. 여기서, 상술한 하나의 방송 스트림은 MPEG-2 TS에 해당할 수 있다. 다음으로, 송신측은 다중화된 방송 스트림을 전송할 수 있다. (S27040) 여기서, 송신측은 다중화된 방송 스트림을 지상파 방송망, 케이블망 및/또는 인터넷망을 통하여 전송할 수 있다.
본 발명의 다른 일 실시예에 따르면, 시그널링 정보는 PMT (Program Map Table), EIT (Event Information Table) 및 SDT (Service Description Table) 중 적어도 어느 하나를 포함할 수 있다. 상술한 PMT는 상기 HEVC 비디오 스트림임을 나타내는 정보를 포함할 수 있고, 상술한 EIT는 상기 비디오 스트림의 특성을 나타내는 정보를 포함할 수 있고, 상술한 SDT는 상기 HEVC 기반의 방송 서비스임을 나타내는 정보를 포함할 수 있다. 여기서, 상술한 PMT, EIT, SDT에 대한 설명은 도 1, 2, 9에 대한 설명 부분에서 전술하였다.
본 발명의 다른 일 실시예에 따르면, 시그널링 정보는 비디오 스트림의 광역 밝기 범위를 나타내는 정보를 포함할 수 있다. 이에 대한 상세한 설명은 도 5, 6에 대한 설명 부분에서 전술하였다.
본 발명의 다른 일 실시예에 따르면, 시그널링 정보는 비디오 스트림의 향상된 색상 표현을 위한 색감 조정 정보를 포함할 수 있다. 이에 대한 상세한 설명은 도 7, 8에 대한 설명 부분에서 전술하였다.
본 발명의 다른 일 실시예에 따르면, 비디오 스트림의 특성을 나타내는 정보는 코덱 정보, 해상도 정보, 프레임 속도 정보 및 블랙부터 화이트까지의 색상을 나타내는데 사용되는 비트수 정보를 포함할 수 있다. 이에 대한 상세한 설명은 도 12, 13, 14, 15, 16, 25에 대한 설명 부분에서 전술하였다.
본 발명의 다른 일 실시예에 따르면, 비디오 스트림의 특성을 나타내는 정보는 상기 생성된 비디오 스트림이 방송을 위한 스트림인지 저장을 위한 스트림인지를 구분하는 티어 정보를 포함할 수 있다. 이에 대한 상세한 설명은 도 17에 대한 설명 부분에서 전술하였다.
본 발명의 다른 일 실시예에 따르면, 시그널링 정보는 테이블 섹션 형태 또는 XML 형태를 가질 수 있고, 시그널링 정보는 방송망 및/또는 인터넷망을 통하여 전송될 수 있다.
도 28은 본 발명의 일 실시예에 따른 방송 신호 수신 장치의 구조를 나타낸 도면이다.
본 발명의 일 실시예에 따른 방송 신호 수신 장치 (28010)는 수신부 (28020), 역다중화부 (28030) 및/또는 비디오 디코더 (28040)을 포함할 수 있다.
수신부는 송신측에서 다중화된 방송 스트림을 수신할 수 있다.
역다중화부는 수신한 다중화된 방송 스트림에서 비디오 스트림 및/또는 시그널링 정보를 추출할 수 있다. 여기서, 시그널링 정보는 추출된 비디오 스트림이 HEVC 비디오 스트림임을 나타내는 정보, 추출된 비디오 스트림의 특성을 나타내는 정보 및 추출된 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보 중 어느 하나를 포함할 수 있다.
비디오 디코더는 추출된 시그널링 정보를 이용하여 추출된 비디오 스트림을 디코딩할 수 있다.
본 발명의 일 실시예에 따른 방송 신호 수신 장치의 구조에 대한 상세한 설명은 도 26의 설명 부분에서 전술하였다.
도 29는 본 발명의 일 실시예에 따른 방송 신호 송신 장치의 구조를 나타낸 도면이다.
본 발명의 일 실시예에 따른 방송 신호 송신 장치 (29010)는 비디오 인코더 (29020), 시그널링 정보 생성부 (29030), 다중화부 (29040) 및/또는 전송부 (29050)를 포함할 수 있다.
비디오 인코더는 비디오 데이터를 인코딩하여 비디오 스트림을 생성할 수 있다.
시그널링 정보 생성부는 비디오 스트림이 HEVC 비디오 스트림임을 나타내는 정보, 비디오 스트림의 특성을 나타내는 정보 및/또는 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보를 포함하는 시그널링 정보를 생성할 수 있다.
다중화부는 비디오 스트림 및 시그널링 정보를 다중화할 수 있다.
전송부는 다중화된 방송 스트림을 전송할 수 있다.
본 발명의 일 실시예에 따른 방송 신호 송신 장치의 구성 중 도 27에서 설명한 본 발명의 일 실시예에 따른 방송 신호 송신 방법의 과정과 대응되는 구성은 상술한 방송 신호 송신 방법의 대응되는 과정과 동일한 역할을 수행할 수 있다.
도 30는 본 발명의 일 실시예에 따른 방송 신호 수신 방법을 나타낸 도면이다.
본 발명의 일 실시예에 따른 방송 신호 수신 방법은 다중화된 방송 스트림을 수신하는 단계 (S30010), 다중화된 방송 스트림에서 비디오 스트림 및 시그널링 정보를 추출하는 단계 (S30020) 및/또는 추출된 시그널링 정보를 이용하여 추출된 비디오 스트림을 디코딩하는 단계 (S30030)를 포함할 수 있다.
다중화된 방송 스트림을 수신하는 단계 (S30010)에서 수신 장치는 다중화된 방송 스트림을 수신할 수 있다.
다중화된 방송 스트림에서 비디오 스트림 및 시그널링 정보를 추출하는 단계 (S30020)에서 수신 장치는 수신한 다중화된 방송 스트림에서 비디오 스트림 및/또는 시그널링 정보를 추출할 수 있다. 여기서, 시그널링 정보는 추출된 비디오 스트림이 HEVC 비디오 스트림임을 나타내는 정보, 추출된 비디오 스트림의 특성을 나타내는 정보 및/또는 추출된 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보를 포함할 수 있다.
추출된 시그널링 정보를 이용하여 추출된 비디오 스트림을 디코딩하는 단계 (S30030)에서 수신 장치는 추출된 시그널링 정보를 이용하여 추출된 비디오 스트림을 디코딩할 수 있다.
본 발명의 일 실시예에 따른 방송 신호 수신 방법의 과정 중 도 26 및/또는 도 28에서 설명한 본 발명의 일 실시예에 따른 방송 신호 수신 장치의 구성과 대응되는 과정은 상술한 방송 신호 수신 장치의 대응되는 구성과 동일한 역할을 수행할 수 있다.
설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시 예들을 병합하여 새로운 실시 예를 구현하도록 설계하는 것도 가능하다. 그리고, 당업자의 필요에 따라, 이전에 설명된 실시 예들을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록 매체를 설계하는 것도 본 발명의 권리범위에 속한다.
본 발명에 따른 장치 및 방법은 상술한 바와 같이 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상술한 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 발명의 영상 처리 방법은 네트워크 디바이스에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD--M, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.
그리고, 당해 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양 발명의 설명은 보충적으로 적용될 수가 있다.
발명의 실시를 위한 형태는 전술한 바와 같이, 발명의 실시를 위한 최선의 형태로 상술되었다.
본 발명은 방송 산업 전반에서 이용 가능하다.

Claims (16)

  1. 비디오 데이터를 인코딩하여 비디오 스트림을 생성하는 단계;
    상기 생성된 비디오 스트림이 HEVC (High Efficiency Video Coding) 비디오 스트림임을 나타내는 정보, 상기 생성된 비디오 스트림의 특성을 나타내는 정보 및 상기 생성된 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보 중 어느 하나를 포함하는 시그널링 정보를 생성하는 단계;
    상기 생성된 비디오 스트림 및 시그널링 정보를 다중화하는 단계;
    상기 다중화된 방송 스트림을 전송하는 단계;
    를 포함하는 방송 신호 송신 방법.
  2. 제 1 항에 있어서,
    상기 시그널링 정보는 PMT (Program Map Table), EIT (Event Information Table) 및 SDT (Service Description Table) 중 적어도 어느 하나를 포함하고,
    상기 PMT는 상기 HEVC 비디오 스트림임을 나타내는 정보를 포함하고, 상기 EIT는 상기 비디오 스트림의 특성을 나타내는 정보를 포함하고, 상기 SDT는 상기 HEVC 기반의 방송 서비스임을 나타내는 정보를 포함하는 방송 신호 송신 방법.
  3. 제 1 항에 있어서,
    상기 시그널링 정보는 상기 생성된 비디오 스트림의 광역 밝기 범위를 나타내는 정보를 포함하는 방송 신호 송신 방법.
  4. 제 1 항에 있어서,
    상기 시그널링 정보는 상기 생성된 비디오 스트림의 향상된 색상 표현을 위한 색감 조정 정보를 포함하는 방송 신호 송신 방법.
  5. 제 1 항에 있어서,
    상기 비디오 스트림의 특성을 나타내는 정보는 코덱 정보, 해상도 정보, 프레임 속도 정보 및 블랙부터 화이트까지의 색상을 나타내는데 사용되는 비트수 정보를 포함하는 방송 신호 송신 방법.
  6. 제 5 항에 있어서,
    상기 비디오 스트림의 특성을 나타내는 정보는 상기 생성된 비디오 스트림이 방송을 위한 스트림인지 저장을 위한 스트림인지를 구분하는 티어 정보를 포함하는 방송 신호 송신 방법.
  7. 제 1 항에 있어서,
    상기 시그널링 정보는 테이블 섹션 (table section) 형태 또는 XML 형태를 갖는 방송 신호 송신 방법.
  8. 다중화된 방송 스트림을 수신하는 수신부;
    상기 수신한 다중화된 방송 스트림에서 비디오 스트림 및 시그널링 정보를 추출하는 역다중화부,
    여기서, 상기 시그널링 정보는 상기 추출된 비디오 스트림이 HEVC 비디오 스트림임을 나타내는 정보, 상기 추출된 비디오 스트림의 특성을 나타내는 정보 및 상기 추출된 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보 중 어느 하나를 포함하고;
    상기 추출된 시그널링 정보를 이용하여 상기 추출된 비디오 스트림을 디코딩하는 비디오 디코더;
    를 포함하는 방송 신호 수신 장치.
  9. 제 8 항에 있어서,
    상기 시그널링 정보는 PMT (Program Map Table), EIT (Event Information Table) 및 SDT (Service Description Table) 중 적어도 어느 하나를 포함하고,
    상기 PMT는 상기 HEVC 비디오 스트림임을 나타내는 정보를 포함하고, 상기 EIT는 상기 비디오 스트림의 특성을 나타내는 정보를 포함하고, 상기 SDT는 상기 HEVC 기반의 방송 서비스임을 나타내는 정보를 포함하는 방송 신호 수신 장치.
  10. 제 8 항에 있어서,
    상기 시그널링 정보는 상기 생성된 비디오 스트림의 광역 밝기 범위를 나타내는 정보를 포함하는 방송 신호 수신 장치.
  11. 제 8 항에 있어서,
    상기 시그널링 정보는 상기 생성된 비디오 스트림의 향상된 색상 표현을 위한 색감 조정 정보를 포함하는 방송 신호 수신 장치.
  12. 제 8 항에 있어서,
    상기 비디오 스트림의 특성을 나타내는 정보는 코덱 정보, 해상도 정보, 프레임 속도 정보 및 블랙부터 화이트까지의 색상을 나타내는데 사용되는 비트수 정보를 포함하는 방송 신호 수신 장치.
  13. 제 12 항에 있어서,
    상기 비디오 스트림의 특성을 나타내는 정보는 상기 생성된 비디오 스트림이 방송을 위한 스트림인지 저장을 위한 스트림인지를 구분하는 티어 정보를 포함하는 방송 신호 수신 장치.
  14. 제 8 항에 있어서,
    상기 시그널링 정보는 테이블 섹션 (table section) 형태 또는 XML 형태를 갖는 방송 신호 수신 장치.
  15. 비디오 데이터를 인코딩하여 비디오 스트림을 생성하는 비디오 인코더;
    상기 생성된 비디오 스트림이 HEVC 비디오 스트림임을 나타내는 정보, 상기 생성된 비디오 스트림의 특성을 나타내는 정보 및 상기 생성된 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보 중 어느 하나를 포함하는 시그널링 정보를 생성하는 시그널링 정보 생성부;
    상기 생성된 비디오 스트림 및 시그널링 정보를 다중화하는 다중화부;
    상기 다중화된 방송 스트림을 전송하는 전송부;
    를 포함하는 방송 신호 송신 장치.
  16. 다중화된 방송 스트림을 수신하는 단계;
    상기 수신한 다중화된 방송 스트림에서 비디오 스트림 및 시그널링 정보를 추출하는 단계,
    여기서, 상기 시그널링 정보는 상기 추출된 비디오 스트림이 HEVC 비디오 스트림임을 나타내는 정보, 상기 추출된 비디오 스트림의 특성을 나타내는 정보 및 상기 추출된 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보 중 어느 하나를 포함하고;
    상기 추출된 시그널링 정보를 이용하여 상기 추출된 비디오 스트림을 디코딩하는 단계;
    를 포함하는 방송 신호 수신 방법.
PCT/KR2014/010237 2013-10-29 2014-10-29 Hevc 기반의 ip 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치 WO2015065037A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016518088A JP6280212B2 (ja) 2013-10-29 2014-10-29 Hevcベースのip放送サービスの提供のための放送信号送受信方法及び装置
US15/023,278 US9854333B2 (en) 2013-10-29 2014-10-29 Method and apparatus for transmitting and receiving broadcast signal for providing HEVC based IP broadcast service
KR1020167006601A KR101797504B1 (ko) 2013-10-29 2014-10-29 Hevc 기반의 ip 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361897205P 2013-10-29 2013-10-29
US61/897,205 2013-10-29
US201361898452P 2013-10-31 2013-10-31
US61/898,452 2013-10-31

Publications (1)

Publication Number Publication Date
WO2015065037A1 true WO2015065037A1 (ko) 2015-05-07

Family

ID=53004552

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/010237 WO2015065037A1 (ko) 2013-10-29 2014-10-29 Hevc 기반의 ip 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치

Country Status (4)

Country Link
US (1) US9854333B2 (ko)
JP (1) JP6280212B2 (ko)
KR (1) KR101797504B1 (ko)
WO (1) WO2015065037A1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017069935A (ja) * 2015-09-30 2017-04-06 日立マクセル株式会社 放送受信装置
JP2017069934A (ja) * 2015-09-29 2017-04-06 日立マクセル株式会社 放送受信装置
JP2017069933A (ja) * 2015-09-28 2017-04-06 日立マクセル株式会社 放送受信装置
JP2017069937A (ja) * 2015-10-01 2017-04-06 日立マクセル株式会社 放送受信装置
JP2018006877A (ja) * 2016-06-28 2018-01-11 シャープ株式会社 映像伝送装置、表示装置、映像表示システム、映像配信装置、映像配信システム、映像送受信システム、プログラム、記録媒体、および映像伝送方法
CN108141614A (zh) * 2015-09-23 2018-06-08 艾锐势有限责任公司 信号传送传输流中的高动态范围和宽色域内容
JP2018532294A (ja) * 2015-08-20 2018-11-01 エルジー エレクトロニクス インコーポレイティド 放送信号送信装置、放送信号受信装置、放送信号送信方法、及び放送信号受信方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PT3217672T (pt) * 2014-11-07 2021-04-19 Sony Corp Aparelho de transmissão, método de transmissão, aparelho de receção e método de receção
US20190075325A1 (en) * 2016-03-30 2019-03-07 Lg Electronics Inc. Method and apparatus for transmitting and receiving broadcast signals
US11049219B2 (en) 2017-06-06 2021-06-29 Gopro, Inc. Methods and apparatus for multi-encoder processing of high resolution content
US11109067B2 (en) * 2019-06-26 2021-08-31 Gopro, Inc. Methods and apparatus for maximizing codec bandwidth in video applications
US11228781B2 (en) 2019-06-26 2022-01-18 Gopro, Inc. Methods and apparatus for maximizing codec bandwidth in video applications
US11481863B2 (en) 2019-10-23 2022-10-25 Gopro, Inc. Methods and apparatus for hardware accelerated image processing for spherical projections

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012105265A1 (en) * 2011-02-03 2012-08-09 Panasonic Corporation Systems and methods for encoding and decoding video which support compatibility functionality to legacy video players
WO2013015596A2 (ko) * 2011-07-26 2013-01-31 엘지전자 주식회사 비디오 스트림 전송 장치, 비디오 스트림 수신 장치, 비디오 스트림 전송 방법 및 비디오 스트림 수신 방법
US20130113880A1 (en) * 2011-11-08 2013-05-09 Jie Zhao High Efficiency Video Coding (HEVC) Adaptive Loop Filter
WO2013137697A1 (ko) * 2012-03-16 2013-09-19 엘지전자 주식회사 영상 정보 저장 방법 및 영상 정보 파싱 방법 그리고 이를 이용하는 장치
US20130272371A1 (en) * 2012-04-16 2013-10-17 Sony Corporation Extension of hevc nal unit syntax structure

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003018562A (ja) 2001-06-29 2003-01-17 Hitachi Ltd コンテンツ提供方法、コンテンツ受信端末およびセキュリティモジュール
JP2004282415A (ja) 2003-03-17 2004-10-07 Toshiba Corp 電子機器及び番組情報取得方法
JP2009088737A (ja) 2007-09-28 2009-04-23 Hitachi Ltd 放送受信装置
US20120151327A1 (en) * 2009-06-08 2012-06-14 Samsung Electronics Co., Ltd. Method and apparatus for providing a remote user interface
KR101612553B1 (ko) * 2009-10-09 2016-04-27 삼성전자주식회사 리모트 사용자 인터페이스 서버와 리모트 사용자 인터페이스 클라이언트간의 인터페이스를 위한 장치 및 방법
JP5559614B2 (ja) 2010-04-21 2014-07-23 日立マクセル株式会社 受信装置および受信方法
EP2432232A1 (en) 2010-09-19 2012-03-21 LG Electronics, Inc. Method and apparatus for processing a broadcast signal for 3d (3-dimensional) broadcast service
KR20140000685A (ko) 2010-11-02 2014-01-03 엘지전자 주식회사 디지털 방송 신호 수신 장치 및 방법
US9357197B2 (en) * 2012-05-24 2016-05-31 Dolby Laboratories Licensing Corporation Multi-layer backwards-compatible video delivery for enhanced dynamic range and enhanced resolution formats
BR112015004393B1 (pt) * 2012-09-07 2023-01-17 Sony Corporation Dispositivos e métodos de transmissão e recepção

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012105265A1 (en) * 2011-02-03 2012-08-09 Panasonic Corporation Systems and methods for encoding and decoding video which support compatibility functionality to legacy video players
WO2013015596A2 (ko) * 2011-07-26 2013-01-31 엘지전자 주식회사 비디오 스트림 전송 장치, 비디오 스트림 수신 장치, 비디오 스트림 전송 방법 및 비디오 스트림 수신 방법
US20130113880A1 (en) * 2011-11-08 2013-05-09 Jie Zhao High Efficiency Video Coding (HEVC) Adaptive Loop Filter
WO2013137697A1 (ko) * 2012-03-16 2013-09-19 엘지전자 주식회사 영상 정보 저장 방법 및 영상 정보 파싱 방법 그리고 이를 이용하는 장치
US20130272371A1 (en) * 2012-04-16 2013-10-17 Sony Corporation Extension of hevc nal unit syntax structure

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018532294A (ja) * 2015-08-20 2018-11-01 エルジー エレクトロニクス インコーポレイティド 放送信号送信装置、放送信号受信装置、放送信号送信方法、及び放送信号受信方法
US10869053B2 (en) 2015-09-23 2020-12-15 Arris Enterprises Llc Signaling high dynamic range and wide color gamut content in transport streams
JP2020182233A (ja) * 2015-09-23 2020-11-05 アリス エンタープライジズ エルエルシーArris Enterprises Llc トランスポートストリームにおける高ダイナミックレンジおよび広色域コンテンツの伝達
JP7066786B2 (ja) 2015-09-23 2022-05-13 アリス エンタープライジズ エルエルシー トランスポートストリームにおける高ダイナミックレンジおよび広色域コンテンツの伝達
CN113365069A (zh) * 2015-09-23 2021-09-07 艾锐势有限责任公司 存储视频比特流的计算机可读存储装置和方法
CN108141614A (zh) * 2015-09-23 2018-06-08 艾锐势有限责任公司 信号传送传输流中的高动态范围和宽色域内容
JP2018530237A (ja) * 2015-09-23 2018-10-11 アリス エンタープライジズ エルエルシーArris Enterprises Llc トランスポートストリームにおける高ダイナミックレンジおよび広色域コンテンツの伝達
CN113365070A (zh) * 2015-09-23 2021-09-07 艾锐势有限责任公司 包括提供传输流的处理器的设备和提供视频的方法
CN113365068A (zh) * 2015-09-23 2021-09-07 艾锐势有限责任公司 包括接收传输流的处理器的设备和解码视频的方法
CN108141614B (zh) * 2015-09-23 2021-06-18 艾锐势有限责任公司 信号传送传输流中的高动态范围和宽色域内容
US11146807B2 (en) 2015-09-23 2021-10-12 Arris Enterprises Llc Signaling high dynamic range and wide color gamut content in transport streams
US11695947B2 (en) 2015-09-23 2023-07-04 Arris Enterprises Llc Signaling high dynamic range and wide color gamut content in transport streams
JP2020036342A (ja) * 2015-09-28 2020-03-05 マクセル株式会社 表示制御方法
JP2017069933A (ja) * 2015-09-28 2017-04-06 日立マクセル株式会社 放送受信装置
JP2019180103A (ja) * 2015-09-28 2019-10-17 マクセル株式会社 表示制御方法
JP2017069934A (ja) * 2015-09-29 2017-04-06 日立マクセル株式会社 放送受信装置
JP2020061780A (ja) * 2015-09-29 2020-04-16 マクセル株式会社 放送システム
JP2020061779A (ja) * 2015-09-29 2020-04-16 マクセル株式会社 受信装置
JP2020061782A (ja) * 2015-09-30 2020-04-16 マクセル株式会社 放送システム
JP2020145744A (ja) * 2015-09-30 2020-09-10 マクセル株式会社 放送システム
JP2020145743A (ja) * 2015-09-30 2020-09-10 マクセル株式会社 表示装置
JP2017069935A (ja) * 2015-09-30 2017-04-06 日立マクセル株式会社 放送受信装置
JP2020061781A (ja) * 2015-09-30 2020-04-16 マクセル株式会社 受信装置
JP2019024270A (ja) * 2015-10-01 2019-02-14 マクセル株式会社 番組コンテンツの伝送、受信、および表示方法、および送受信システム
JP2019024269A (ja) * 2015-10-01 2019-02-14 マクセル株式会社 表示制御方法および受信装置
JP2020080566A (ja) * 2015-10-01 2020-05-28 マクセル株式会社 表示制御方法
JP2017069937A (ja) * 2015-10-01 2017-04-06 日立マクセル株式会社 放送受信装置
JP2020102850A (ja) * 2015-10-01 2020-07-02 マクセル株式会社 表示制御方法
JP2018006877A (ja) * 2016-06-28 2018-01-11 シャープ株式会社 映像伝送装置、表示装置、映像表示システム、映像配信装置、映像配信システム、映像送受信システム、プログラム、記録媒体、および映像伝送方法

Also Published As

Publication number Publication date
KR101797504B1 (ko) 2017-11-15
JP6280212B2 (ja) 2018-02-14
JP2016537847A (ja) 2016-12-01
US20160360295A1 (en) 2016-12-08
KR20160048821A (ko) 2016-05-04
US9854333B2 (en) 2017-12-26

Similar Documents

Publication Publication Date Title
WO2015065037A1 (ko) Hevc 기반의 ip 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치
WO2015102449A1 (ko) 컬러 개멋 리샘플링을 기반으로 하는 방송 신호 송수신 방법 및 장치
WO2015152635A1 (ko) 신호 송수신 장치 및 신호 송수신 방법
WO2011093677A2 (en) Method and apparatus for transmitting digital broadcasting stream using linking information about multi-view video stream, and method and apparatus for receiving the same
WO2015072754A1 (ko) Hdr 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치
WO2011093676A2 (en) Method and apparatus for generating data stream for providing 3-dimensional multimedia service, and method and apparatus for receiving the data stream
WO2015126144A1 (ko) 파노라마 서비스를 위한 방송 신호 송수신 방법 및 장치
WO2011049337A2 (ko) 방송 신호 송수신 방법 및 그를 이용한 방송 수신 장치
WO2009125961A1 (en) Method of transmitting and receiving broadcasting signal and apparatus for receiving broadcasting signal
WO2014204227A1 (ko) 신호 송수신 장치 및 신호 송수신 장치의 제어 방법
WO2015008986A1 (ko) 하이브리드 방송 시스템의 방송 신호를 송신/수신하는 방법 및 장치
WO2011062385A2 (ko) 방송 신호 송수신 방법 및 그를 이용한 방송 수신 장치
WO2014025207A1 (en) A method and an apparatus for processing a broadcast signal including an interactive broadcast service
WO2016182371A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2011132883A2 (ko) 인터넷 기반 컨텐츠 송수신 방법 및 그를 이용한 송수신 장치
WO2015080414A1 (ko) 트릭 플레이 서비스 제공을 위한 방송 신호 송수신 방법 및 장치
WO2012030158A2 (en) Method and apparatus for processing and receiving digital broadcast signal for 3-dimensional display
WO2011132879A2 (ko) 인터넷 기반 컨텐츠 송수신 방법 및 그를 이용한 송수신 장치
WO2015034306A1 (ko) 디지털 방송 시스템에서 고화질 uhd 방송 컨텐츠 송수신 방법 및 장치
WO2017135673A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2012030176A2 (ko) 3d (3-dimentional) 방송 서비스를 위한 방송 신호 처리 방법 및 장치
WO2015126117A1 (ko) 방송 신호 송수신 방법 및 장치
WO2012050405A2 (ko) 디지털 수신기 및 디지털 수신기에서의 3d 컨텐트 처리방법
WO2012030177A2 (ko) 디지털 수신기 및 디지털 수신기에서의 3d 컨텐트 처리 방법
WO2016163603A1 (ko) Xml 자막에 기반한 방송 서비스를 위한 방송 신호 송수신 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14857520

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20167006601

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15023278

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2016518088

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14857520

Country of ref document: EP

Kind code of ref document: A1