KR20150127415A - 디지털 디바이스 및 상기 디지털 디바이스에서 서비스 처리 방법 - Google Patents

디지털 디바이스 및 상기 디지털 디바이스에서 서비스 처리 방법 Download PDF

Info

Publication number
KR20150127415A
KR20150127415A KR1020140054189A KR20140054189A KR20150127415A KR 20150127415 A KR20150127415 A KR 20150127415A KR 1020140054189 A KR1020140054189 A KR 1020140054189A KR 20140054189 A KR20140054189 A KR 20140054189A KR 20150127415 A KR20150127415 A KR 20150127415A
Authority
KR
South Korea
Prior art keywords
video data
high resolution
resolution video
data
service
Prior art date
Application number
KR1020140054189A
Other languages
English (en)
Other versions
KR102218908B1 (ko
Inventor
정우성
박재한
김종석
맹홍재
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020140054189A priority Critical patent/KR102218908B1/ko
Priority to US14/705,443 priority patent/US9848248B2/en
Priority to CN201520292660.1U priority patent/CN204929037U/zh
Publication of KR20150127415A publication Critical patent/KR20150127415A/ko
Application granted granted Critical
Publication of KR102218908B1 publication Critical patent/KR102218908B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43632Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • H04N21/43635HDMI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440218Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6547Transmission by server directed to the client comprising parameters, e.g. for client setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 명세서에서는 서비스 시스템, 디지털 디바이스 및 그 서비스 처리방법에 대한 다양한 실시예(들)이 개시된다. 여기서, 본 발명에 따른 초고해상도 비디오 데이터 처리 장치의 일 예는, 제1 초고해상도 비디오 데이터와 상기 제1 초고해상도 비디오 데이터를 위한 시그널링 데이터가 포함된 신호를 수신하는 수신부; 상기 신호로부터 시그널링 데이터를 디코딩하는 디코더; 사용자로부터 상기 식별된 제1 초고해상도 비디오 데이터의 가변 요청이 수신하는 사용자 인터페이스부; 디코딩된 시그널링 데이터로부터 상기 비디오 데이터가 제1 초고해상도 비디오 데이터임을 식별하고, 수신된 사용자의 가변 요청에 따라 상기 제1 초고해상도 비디오 데이터를 제2 초고해상도 비디오 데이터로 가변 처리하도록 제어하는 제어부; 및 가변 처리된 제2 초고해상도 비디오 데이터를 출력하는 출력부를 포함한다.

Description

디지털 디바이스 및 상기 디지털 디바이스에서 서비스 처리 방법{DIGITAL DEVICE AND METHOD OF PROCESSING A SERVICE THEREOF}
본 발명은 디지털 디바이스 및 상기 디지털 디바이스에서 서비스 처리 방법에 관한 것으로, 더욱 상세하게는 디지털 디바이스에서 초고해상도 비디오 데이터를 포함한 서비스 처리를 위한 장치 및 방법에 관한 것이다.
방송 환경은 아날로그 방송이 종료되고 디지털 방송이 전면적으로 시행되면서 급격한 변화가 이루어지고 있다. 한편, 디지털 환경에서는 DTV와 모바일 기기의 경계가 모호해지고 컨버전스(convergence)의 분위기가 무르익고 있다. 이러한 디지털 환경 흐름 속에 DTV는 스크린의 크기가 모바일 기기에 비해 상대적으로 크며 디지털 방송의 활성화에 따른 사용자의 요구에 따라 종래 SD(Standard Definition), HD(High Definition), 풀-HD(Full-High Definition)에 이어 더욱 선명한 화질의 서비스를 원하고 있다.
이러한 사용자의 요구와 함께 최근 비디오 신호 처리 속도가 빨라지면서 초고해상도 비디오 데이터를 인코딩/디코딩(encoding/decoding)하는 코딩 방식(coding method)이 연구되고 있다. 엠펙 규격(MPEG Standard)에서도 초고해상도 비디오 데이터의 처리를 위한 코딩 방식에 대해 논의하고 일부 정의하고 있다. 다만, 초고해상도 비디오 데이터의 코딩과 코딩된 비디오 데이터의 전송을 위한 시스템적인 지원은 다른 문제이다. 즉, 엠펙 비디오 또는 코덱 규격에서 초고해상도 비디오 데이터까지 코딩 가능한 코딩 방식에 대해서는 정의하나 코딩된 비디오 데이터를 포함한 신호의 송수신 등을 위한 시스템 규격을 포함한 여타 규격에서는 이에 대해 여전히 정의하고 있지 않아 여전히 초고해상도 비디오 서비스를 하기에는 무리가 있다. 이러한 초고해상도 비디오 서비스는, 비록 초고해상도 비디오 데이터를 코딩하는 방법이 중요하나 송/수신단 사이에 코딩된 초고해상도 비디오 데이터를 포함한 신호 송/수신에 대해 충분한 논의가 필요하며, 종래 시스템과 호환성 문제도 무시하여서는 안 된다.
전술한 바와 같이, 본격적으로 초고해상도 TV 서비스 시대가 다가오고 있으며, 이러한 초고해상도 TV 서비스로 현재 논의되고 있는 것이 4K, 8K 등이 논의되고 있다.
다만, 여전히 규격이나 제조업체에서는 초고해상도 TV 서비스를 위해 규격에서 명확하게 정의된 내용이 없어 칩, 인터페이스 등에 대해 확정하지 못하고 있는 실정이다.
본 발명의 일 과제는, 종래 풀-HD TV 서비스를 넘어 4K, 8K 등 초고해상도 서비스(UHD (ultra high definition) service)를 하나의 TV를 통해 서비스하기 위한 디바이스 구성을 제공하는 것이다.
본 발명의 다른 과제는, 입력되는 초고해상도 서비스의 타입에 관계없이 하나의 디바이스에서 모든 초고해상도 서비스를 제공하는 것이다.
본 발명의 또 다른 과제는, 입력 소스와 사용자의 선택에 따라 4K 또는 8K 등 초고해상도 서비스를 사용자에게 제공할 수 있는 플렉서빌러티(flexibility)를 구비한 디바이스를 제공하는 것이다.
본 발명의 또 다른 과제는, 4K 초고해상도 서비스 지원을 위한 디바이스로부터 간단하게 8K 초고해상도 서비스 지원 디바이스로 확장성을 보장함으로써 칩, 하드웨어, 소프트웨어 플랫폼 등 설계 편의와 사용자의 요청에 적응적인 초고해상도 서비스 지원 디바이스를 지원하는 것이다.
본 발명에서 이루고자 하는 기술적 과제는 상기 언급한 기술적 과제로 제한되지 않으며, 언급하지 않은 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 명세서에서는 디지털 디바이스 및 상기 디지털 디바이스에서 서비스 처리 방법에 대한 다양한 실시예(들)이 개시된다.
본 발명에 따른 초고해상도 비디오 데이터 처리 방법의 일실시예는, 제1 초고해상도 비디오 데이터와 상기 제1 초고해상도 비디오 데이터를 위한 시그널링 데이터가 포함된 신호를 수신하는 단계; 상기 신호로부터 시그널링 데이터를 디코딩하고, 디코딩된 시그널링 데이터로부터 상기 비디오 데이터가 제1 초고해상도 비디오 데이터임을 식별하는 단계; 사용자로부터 상기 식별된 제1 초고해상도 비디오 데이터의 가변 요청이 수신하는 단계; 수신된 사용자의 가변 요청에 따라 상기 제1 초고해상도 비디오 데이터를 제2 초고해상도 비디오 데이터로 가변 처리하는 단계; 및 가변 처리된 제2 초고해상도 비디오 데이터를 출력하는 단계를 포함하여 이루어진다.
본 발명에 따른 초고해상도 비디오 데이터 처리 장치의 일 예는, 제1 초고해상도 비디오 데이터와 상기 제1 초고해상도 비디오 데이터를 위한 시그널링 데이터가 포함된 신호를 수신하는 수신부; 상기 신호로부터 시그널링 데이터를 디코딩하는 디코더; 사용자로부터 상기 식별된 제1 초고해상도 비디오 데이터의 가변 요청이 수신하는 사용자 인터페이스부; 디코딩된 시그널링 데이터로부터 상기 비디오 데이터가 제1 초고해상도 비디오 데이터임을 식별하고, 수신된 사용자의 가변 요청에 따라 상기 제1 초고해상도 비디오 데이터를 제2 초고해상도 비디오 데이터로 가변 처리하도록 제어하는 제어부; 및 가변 처리된 제2 초고해상도 비디오 데이터를 출력하는 출력부를 포함한다.
본 발명에서 얻을 수 있는 기술적 해결 수단은 이상에서 언급한 해결 수단들로 제한되지 않으며, 언급하지 않은 또 다른 해결 수단들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명에 따르면,
첫째, 종래 풀-HD TV 서비스를 넘어 4K, 8K 등 초고해상도 서비스(UHD (ultra high definition) service)를 하나의 TV를 통해 서비스하기 위한 디바이스 구성을 제공할 수 있다.
둘째, 입력되는 초고해상도 서비스의 타입에 관계없이 하나의 디바이스에서 모든 초고해상도 서비스를 제공할 수 있다.
셋째, 입력 소스(input source)와 사용자의 선택에 따라 4K 또는 8K 등 초고해상도 서비스를 사용자에게 제공할 수 있는 플렉서빌러티(flexibility)를 구비한 디바이스를 제공할 수 있다.
넷째, 4K 초고해상도 서비스 지원을 위한 디바이스로부터 간단하게 8K 초고해상도 서비스 지원 디바이스로 확장성을 보장함으로써 칩, 하드웨어, 소프트웨어 플랫폼 등 설계 편의와 사용자의 요청에 적응적인 초고해상도 서비스 지원 디바이스를 지원할 수 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 디지털 디바이스가 포함된 서비스 시스템의 일 예를 개략적으로 나타낸 도면,
도 2는 HD 비디오 컨텐트와 UHD 비디오 컨텐트를 비교하여 설명하기 위해 도시한 도면,
도 3은 초고해상도 비디오 서비스 시스템의 블록도를 도시한 도면,
도 4는 디지털 디바이스의 일 실시예를 설명하기 위해 도시한 구성 블록도,
도 5는 디지털 디바이스의 다른 실시예를 설명하기 위해 도시한 구성 블록도,
도 6은 디지털 디바이스의 또 다른 실시예를 설명하기 위해 도시한 구성 블록도,
도 7은 도 4 내지 6의 제어부의 상세 구성의 일 실시예를 설명하기 위해 도시한 구성 블록도,
도 9는 본 발명의 일실시예에 따른 디지털 디바이스의 제어수단을 도시한 도면,
도 10은 본 발명에 일실시예에 따른 4k 초고해상도 서비스 처리 구성 블록도를 도시한 도면,
도 11 내지 14는 초고해상도 서비스 처리를 위한 시그널링 데이터를 설명하기 위해 도시한 도면,
도 15는 본 발명의 일실시예에 따른 4k 초고해상도 서비스 처리 구성을 통해 8k 초고해상도 서비스 처리를 위한 구성 블록도를 도시한 도면,
도 16은 본 발명의 다른 실시예에 따른 4k 초고해상도 서비스 처리 구성을 통해 8k 초고해상도 서비스 처리를 위한 구성 블록도를 도시한 도면,
도 17은 본 발명의 일 실시예에 따른 4k 초고해상도 서비스 처리 구성을 통해 8k 초고해상도 서비스 처리 시에 심리스 UI(Seamless UI) 제공을 위한 방법을 설명하기 위해 도시한 도면,
도 18은 본 발명의 일 실시예에 따른 초고해상도 서비스 처리 방법을 설명하기 위해 도시한 도면, 그리고
도 19는 본 발명의 다른 실시예에 따른 초고해상도 서비스 처리 방법을 설명하기 위해 도시한 도면이다.
이하에서는 도면을 참조하여 본 발명에 따른 다양한 실시예(들)을 상세하게 설명한다.
본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈", "부" 등은 단지 명세서 작성의 용이함을 고려하여 부여되는 것으로서, 필요에 따라 양자는 혼용될 수도 있다. 또한, "제1-", "제2-" 등과 같이 서수로 기술한 경우에도 그것이 순서를 의미하기보다는 해당 용어의 설명 편의를 위한 것일 뿐, 그러한 용어나 서수에 한정되는 것은 아니다.
또한, 본 명세서에서 사용되는 용어도, 본 발명의 기술 사상에 따른 기능을 고려하여 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 다만, 특정한 경우는 출원인이 임의로 선정한 용어도 있으나, 이에 대해서는 관련 설명 부분에서 그 의미를 기술할 것이다. 따라서, 해당 용어를 단지 그 명칭이 아니라 그가 가진 실질적인 의미와 본 명세서 전반에 걸쳐 기술된 내용을 토대로 해석되어야 함을 밝혀 둔다.
첨부된 도면과 그에 기재된 내용을 참조하여 이하에서는 다양한 실시예(들)을 상세하게 기술하면, 다음과 같다. 이때, 본 명세서 또는/및 도면에 기술된 내용은 실시 예로서 그에 한정되지 않으며 그 권리범위는 특허청구범위를 통해 결정되어야 한다.
이하 본 명세서에서 기술되는 “초고해상도 비디오 데이터”라 함은, FHD(Full high definition) 해상도의 약 4배(4K) 또는 16배(8K) 정도의 해상도를 가진 비디오 데이터를 말하는 것으로, 상기 4K는 울트라 데퍼니션(UD: Ultra Definition)이라고 하고, 8K는 울트라 하이 데퍼니션(UHD: Ultra High Definition)이라 부르기도 한다. 다만, 상기 용어는 관련 표준이나 업계에서 아직 정확한 명칭이 결정되지 않고 혼용되고 있어 임의적이다. 본 명세서에서는 초고해상도 비디오 데이터를 UHD 비디오 데이터로 명명하여 설명한다.
그리고 “디지털 디바이스”라 함은 예를 들어, 데이터, 컨텐트, 서비스 등을 송신, 수신, 처리 및 출력 중 적어도 하나를 수행 가능한 모든 디지털 디바이스를 포함한다. 상기 디지털 디바이스는, 유/무선 네트워크(wire/wireless network)를 통하여 다른 디지털 디바이스, 외부 서버 등과 페어링 또는 연결(pairing or connecting)(이하 '페어링')되어 데이터를 송수신하며, 필요 시 상기 송수신 전에 변환할 수 있다. 상기 디지털 디바이스는 예를 들어, 네트워크 TV, HBBTV(Hybrid Broadcast Broadband TV), 스마트 TV, IPTV, PC 등과 같은 고정형 디바이스(stand device)와, PDA(Personal Digital Assistant), 스마트 폰, 태블릿 PC, 노트북 등과 같은 모바일 디바이스(mobile device or handheld device)를 모두 포함할 수 있다. 한편, 본 명세서에서는 편의상 후술하는 도 4에서는 디지털 TV를, 도 5에서는 모바일 디바이스를 디지털 디바이스의 일 실시예로 도시하고 설명한다.
한편, 본 명세서에서 기술되는 “유/무선 네트워크”라 함은, 디지털 디바이스들 또는 디지털 디바이스와 외부 서버 사이에서 페어링 또는/및 데이터 송수신을 위해 다양한 통신 규격 내지 프로토콜을 지원하는 통신 네트워크를 통칭한다. 이러한 유/무선 네트워크는 규격에 의해 현재 또는 향후 지원될 통신 네트워크와 그를 위한 통신 프로토콜을 모두 포함할 수 있는바 예컨대, USB(Universal Serial Bus), CVBS(Composite Video Banking Sync), 컴포넌트, S-비디오(아날로그), DVI(Digital Visual Interface), HDMI(High Definition Multimedia Interface), RGB, D-SUB와 같은 유선 연결을 위한 통신 규격 내지 프로토콜과, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), DLNA(Digital Living Network Alliance), WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), LTE(Long Term Evolution), Wi-Fi 다이렉트와 같은 무선 연결을 위한 통신 규격에 의하여 형성될 수 있다.
이하 본 명세서에서 단지 디지털 디바이스로 명명하는 경우에는 문맥에 따라 고정형 디바이스 또는 모바일 디바이스를 의미하거나 양자를 모두 포함하는 의미일 수도 있다.
한편, 디지털 디바이스는 예컨대, 방송 수신 기능, 컴퓨터 기능 내지 지원, 적어도 하나의 외부 입력을 지원하는 지능형 디바이스로서, 상술한 유/무선 네트워크를 통해 이메일(e-mail), 웹 브라우징(web browsing), 뱅킹(banking), 게임(game), 애플리케이션(application) 등을 지원할 수 있다. 더불어, 상기 디지털 디바이스는, 수기 방식의 입력 장치, 터치-스크린, 공간 리모콘 등 적어도 하나의 입력 또는 제어수단(이하 ‘입력수단’)을 지원하기 위한 인터페이스를 구비할 수 있다. 디지털 디바이스는, 표준화된 범용 OS를 이용할 수 있다. 예를 들어, 디지털 디바이스는 범용의 OS 커널(kernel) 상에 다양한 애플리케이션을 추가(adding), 삭제(deleting), 수정(amending), 업데이트(updating) 등을 할 수 있으며, 그를 통해 더욱 사용자 친화적인(user-friendly) 환경을 구성하여 제공할 수 있다.
한편, 본 명세서에서 기술되는 외부 입력은, 외부 입력 디바이스 즉, 상술한 디지털 디바이스와 유/무선으로 연결되어 그를 통해 관련 데이터를 송/수신하여 처리 가능한 모든 입력 수단 내지 디지털 디바이스를 포함한다. 여기서, 상기 외부 입력은 예를 들어, HDMI, 플레이 스테이션(play station)이나 엑스 박스(X-Box)와 같은 게임 디바이스, 스마트 폰, 태블릿 PC, 프린터기, 스마트 TV와 같은 디지털 디바이스들을 모두 포함한다.
또한, 본 명세서에서 기술되는 “서버”라 함은, 클라이언트(client) 즉, 상술한 디지털 디바이스로 데이터를 공급 또는/및 수신할 수 있는 디지털 디바이스 혹은 시스템을 의미하며 프로세서(processor)로 불리기도 한다. 상기 서버로 예컨대, 웹 페이지 내지 웹 컨텐트를 제공하는 포털 서버(portal server), 광고 데이터를 제공하는 광고 서버, 컨텐트를 제공하는 컨텐트 서버, SNS(Social Network Service) 서비스를 제공하는 SNS 서버, 제조업체에서 제공하는 서비스 서버, 유료 서비스를 제공하는 유료 서비스 서버 등이 포함될 수 있다.
이하 첨부된 도면을 참조하면 본 발명을 더욱 상세하게 설명하면, 다음과 같다.
도 1은 디지털 디바이스를 포함한 서비스 시스템(service system)의 일 예를 개략적으로 나타낸 도면이다.
디지털 디바이스를 포함한 서비스 시스템은, 컨텐트 제공자(content provider)(10), 서비스 제공자(service provider)(20), 네트워크 제공자(network provider)(30) 및 HNED(Home Network End User)(Customer)(40)를 포함한다. 여기서, HNED(40)는 예를 들어, 클라이언트(100) 즉, 디지털 디바이스를 의미할 수 있다.
컨텐트 제공자(10)는, 각종 컨텐트를 제작하여 제공한다. 이러한 컨텐트 제공자(10)로 도 1에 도시된 바와 같이, 지상파 방송 송출자, 케이블 방송 사업자(cable SO(System Operator)) 또는 MSO(Multiple SO), 위성 방송 송출자, 다양한 인터넷 방송 송출자, 개인 컨텐트 제공자들 등을 예시할 수 있다. 한편, 컨텐트 제공자(10)는, 방송 컨텐트 외에도 다양한 애플리케이션 등을 제공한다.
서비스 제공자(20)는, 컨텐트 제공자(10)가 제공하는 컨텐트를 서비스 패키지화하여 HNED(40)로 제공한다. 예를 들어, 도 1의 서비스 제공자(20)는, 제1 지상파 방송, 제2 지상파 방송, 케이블 MSO, 위성 방송, 다양한 인터넷 방송, 애플리케이션 등을 패키지화하여 HNED(40)에게 제공한다.
서비스 제공자(20)는, 유니-캐스트(uni-cast) 또는 멀티-캐스트(multi-cast) 방식으로 클라이언트(100)에 서비스를 제공한다. 한편, 서비스 제공자(20)는 데이터를 미리 등록된 다수의 클라이언트(100)로 한꺼번에 전송할 수 있는데, 이를 위해 IGMP(Internet Group Management Protocol) 프로토콜 등을 이용할 수 있다.
상술한 컨텐트 제공자(10)와 서비스 제공자(20)는, 동일한 개체일 수 있다. 예를 들어, 컨텐트 제공자(10)가 제작한 컨텐트를 서비스 패키지화하여 HNED(40)로 제공함으로써 서비스 제공자(20)의 기능도 함께 수행하거나 그 반대일 수도 있다.
네트워크 제공자(30)는, 컨텐트 제공자(10) 또는/및 서비스 제공자(20)와 클라이언트(100) 사이의 데이터 교환을 위한 네트워크 망을 제공한다.
클라이언트(100)는, 홈 네트워크를 구축하여 데이터를 송수신할 수 있다.
한편, 서비스 시스템 내 컨텐트 제공자(10) 또는/및 서비스 제공자(20)는 전송되는 컨텐트의 보호를 위해 제한 수신(conditional access) 또는 컨텐트 보호(content protection) 수단을 이용할 수 있다. 이 경우, 클라이언트(100)는 상기 제한 수신이나 컨텐트 보호에 대응하여 케이블카드(CableCARD)(POD: Point of Deployment), DCAS(Downloadable CAS) 등과 같은 처리 수단을 이용할 수 있다.
그 밖에, 클라이언트(100)도 네트워크 망을 통해, 양방향 서비스를 이용할 수 있다. 이러한 경우, 오히려 클라이언트(100)가 컨텐트 제공자의 기능을 수행할 수도 있으며, 기존 서비스 제공자(20)는 이를 수신하여 다시 다른 클라이언트로 전송할 수도 있다.
도 1에서 컨텐트 제공자(10) 또는/및 서비스 제공자(20)는 본 발명과 관련된 초고해상도 비디오 데이터를 포함한 서비스(이하 ‘초고해상도 서비스’)를 제공하는 서버에 해당할 수 있다. 이 경우, 상기 서버는 필요에 따라 네트워크 제공자(30)도 소유 또는 포함하는 의미일 수 있다. 이하 특별히 언급하지 않더라도 서비스 또는 서비스 데이터는 본 발명과 관련하여, 초고해상도 비디오 데이터 또는 그를 포함한 서비스를 포함하는 의미로 사용될 수 있다.
한편, 본 발명에 따른 초고해상도 서비스 처리와 관련하여, 초고해상도에 대해 간략하게 살펴보면, 다음과 같다. 이하에서는 ATSC 시스템에서 초고해상도 서비스 처리를 일 실시예로 하여 설명한다.
도 2는 HD 비디오 컨텐트와 UHD 비디오 컨텐트를 비교하여 설명하기 위해 도시한 도면이다.
ATSC(Advanced Television System Committee) 시스템은 하나의 채널(channel)을 통한 데이터 전송률은 약 19.39Mbps이다.
하지만, 널리 알려진 MPEG-2로 코딩한 비디오 데이터는 도 2에 도시된 바와 같이, 1920*1080의 풀-HD급 비디오 데이터는 데이터량이 약 746 Mbps로 상기 MPEG-2로 코딩 후 용량이 15Mbps 정도이고, 1280*720의 HD급 비디오 데이터는 데이터량이 약 660Mbps로 상기 MPEG-2로 코딩 후 용량이 약 13Mbps 정도이다. 따라서, 이러한 풀-HD 또는 HD급 비디오 데이터는 상기 ATSC 시스템 내 하나의 채널에 실어 전송할 수 있다.
하지만, 도 2에 도시된 바와 같이, 3840*2160의 4k 초고해상도 비디오 데이터는 데이터량이 3Gbps로 상기 HD급의 비디오 데이터에 비해 약 4배이고 상기 MPEG-2가 아닌 H.264로 코딩하더라도 코딩 후 용량이 약 30Mbps이고, 7680*4320의 8k 초고해상도 비디오 데이터는 데이터량이 12Gbps로 상기 HD급의 비디오 데이터에 비해 약 16배이고 상기 H.264로 코딩 후 용량도 120Mbps 정도이다.
다시 말해, 전술한 ATSC 시스템의 하나의 채널을 통해 4k 또는 8k 초고해상도 비디오 데이터를 기존 코덱으로 코딩하더라도 전송하는 것이 불가능하다. 따라서, 이를 해결하기 위해서는 크게 두 가지 방법이 존재할 수 있다. 하나는 상기 종래 코덱에 비하여 보다 압축 효율이 좋은 코덱을 이용하는 것이고, 다른 하나는 채널을 효율적으로 사용하는 것이다.
전자의 경우에는, 현재 비디오 규격에서, H.265 즉, HEVC를 정의하고 논의 중에 있다. 다만, 현재, HEVC에 의하더라도 4k 초고해상도 비디오 데이터의 경우 약 15Mbps의 용량이 되고, 8k 초고해상도 비디오 데이터는 60Mbps의 용량이 된다. 따라서, 상기 HEVC를 이용하더라도 4k 초고해상도 비디오 데이터는 상기 ATSC 시스템의 채널을 통해 전송 가능하나, 8k 초고해상도 비디오 데이터의 경우에는 여전히 하나의 채널을 통해 전송하는 것이 불가능하다.
후자의 경우에는, 채널을 효율적으로 사용하는 것으로, 종래 3DTV와 유사하게 듀얼-채널 또는 멀티-채널을 이용하거나 일부는 지상파 또는 케이블을 통해 전송하고 나머지는 IP 등 서로 다른 매체를 이용하여 전송하는 방식이 있다. 이에 따를 경우에는 복수의 채널을 이용함으로써 8k 초고해상도 비디오 데이터의 전송도 가능하게 된다. 한편, 이와 같은 경우에는, 매체, 채널 등의 차이를 수신기에서 정확하게 알고 처리할 수 있도록 시그널링을 정확하게 하는 것이 요구된다.
도 3은 초고해상도 비디오 서비스 시스템의 블록도를 도시한 도면이다.
도 3을 참조하면, 초고해상도 비디오 서비스 시스템은 송신단과 수신단으로 구분된다.
송신단은 다시 컨텐트 프로바이더(content provider)(310)와 서비스 프로바이더(service provider)(320)로 구분된다.
컨텐트 프로바이더(310)는 UHD(4K/8K) 비디오 데이터를 제작하여, 서비스 프로바이더(320)로 전송한다. 이러한 컨텐트 프로바이더(310)는 지상파 방송국(broadcast station), 케이블 헤드엔드(cable headend), 개인 서버(private server) 등 UHD 컨텐트를 제작 가능한 모든 소스(source)를 포함할 수 있다.
서비스 프로바이더(320)는 상기 컨텐트 프로바이더(210)에서 제작된 UHD 컨텐트를 수신하여 네트워크(network)를 통해 수신단으로 서비스하는 모든 소스를 포함할 수 있다. 상기에서, 네트워크라 함은 예컨대, 지상파(terrestrial), 케이블(cable), 위성(satellite), IP(Internet Protocol) 등과 같은 매체(media)를 포함하거나 지원하는 개념이다. 이때, 상기 UHD 컨텐트를 제작하는 컨텐트 프로바이더(310)와 상기 제작된 UHD 컨텐트를 서비스하는 서비스 프로바이더(320)는 동일한 개체(entity)일 수도 있고 다른 개체일 수도 있다.
상기 서비스 프로바이더(320)는 비디오 인코더(322), 다중화/전송부(324) 및 채널 코딩/변조부(326)을 포함할 수 있다. 한편, 상기에서 서비스 프로바이더(320)는 도 3에 도시된 구성 이외에 도시되진 않았으나 UHD 컨텐트의 전송, 처리 등을 위해 필요한 구성요소(들)를 더 포함할 수 있다. 그 밖에, 상기 서비스 프로바이더(320)의 구성으로 도 3에 도시된 각 구성은 그 기능에 따라 복수의 구성으로 구분될 수도 있고 하나의 통합 모듈화될 수도 있다.
비디오 인코더(322)는 제작된 UHD 컨텐트를 서비스하기 위해 필요한 인코딩 작업을 수행한다. 이때, 상기 인코딩 작업은 코딩 방식에 대한 표준에서 정의한 비디오 코덱을 적용할 수 있는데 이러한 비디오 코덱으로 예컨대, 전술한 HEVC 코덱이 이용될 수 있다.
다중화/전송부(324)는 비디오 인코더(322)를 통해 인코딩되어 수신되는 UHD 컨텐트를 다중화하여 수신단으로 신호 전송을 위한 전송 스트림(TS: Transport Stream)을 생성한다.
채널 코딩/변조부(326)는 다중화/전송부(324)를 통해 생성된 전송 스트림 패킷들(TPs: Transport stream packets)을 포함한 신호를 변조하고 코딩된 채널을 통해 수신단(350)으로 전송한다.
도 3을 참조하면, 수신단(350)은 복조/TP 디코더(362), 역다중화부(364), 비디오 디코더(366) 및 비디오 처리부(368)를 포함하여 구성된다. 여기서, 수신단(350)은 비록 도 3에서는 상기 4개의 구성을 도시하였으나 이에 한정되지 않으며, UHD 비디오 데이터를 포함한 UHD 서비스를 구성하여 화면을 통해 출력하기 위해 필요한 구성을 더 포함할 수도 있다.
복조/TP 디코더(362)는 튜닝되는 채널을 통해 수신되는 신호를 상술한 변조 방식에 대응되는 복조 방식으로 복조하고, 복조된 신호로부터 전송 스트림 패킷들(TPs)을 추출하여 디코딩한다.
역다중화부(364)는 디코딩된 신호로부터 추출된 전송 스트림 패킷들(TPs)로부터 PID(Packet Identifier) 필터링을 통해 비디오, 오디오, 시그널링 정보(signaling information) 등을 역다중화한다.
비디오 디코더(366)는 역다중화부(364)를 통해 역다중화된 UHD 비디오 데이터를 역다중화된 시그널링 정보를 참고하여 인코딩 방식에 대응되는 디코딩 방식으로 디코딩한다.
비디오 처리부(368)는 비디오 디코더(366)를 통해 디코딩된 UHD 비디오 데이터를 이용하여 UHD 서비스 등 사용자의 요청에 따른 서비스 구현을 위한 비디오 데이터를 처리한다. 여기서, 비디오 처리부(368)는 UHD 서비스 등을 위해 스케일러, FRC(Frame Rate Converter), 포맷터(formatter) 등 다양한 구성을 포함할 수 있다.
상기에서, 시그널링 정보는 MPEG PSI(Program Specific Information), ATSC PSIP(Program and System Information Protocol), DVB-SI(Service Information) 등 표준에서 정의하고 있는 모든 시그널링 정보를 포함할 수 있다. 비록 본 명세서에서는 주로 ATSC PSI/PSIP을 기초로 설명하나, DVB-SI 등에도 적용 가능함은 자명하다. 한편, 상기 시그널링 정보는 표준에 따라 시스템 정보, 서비스 정보 등의 용어로 명명될 수도 있다. 그 밖에, 도 3에서는 4k를 예시하였으나, 8k에도 동일 또는 유사한 방식이 적용됨을 미리 밝혀둔다.
이하에서는 도 3에서 수신단의 상세 구성에 대한 다양한 실시예를 도시하고 설명한다.
본 발명의 일 실시예에 따른 초고해상도 비디오 데이터 처리 장치는, 제1 초고해상도 비디오 데이터와 상기 제1 초고해상도 비디오 데이터를 위한 시그널링 데이터가 포함된 신호를 수신하는 수신부, 상기 신호로부터 시그널링 데이터를 디코딩하는 디코더, 사용자로부터 상기 식별된 제1 초고해상도 비디오 데이터의 가변 요청이 수신하는 사용자 인터페이스부, 디코딩된 시그널링 데이터로부터 상기 비디오 데이터가 제1 초고해상도 비디오 데이터임을 식별하고, 수신된 사용자의 가변 요청에 따라 상기 제1 초고해상도 비디오 데이터를 제2 초고해상도 비디오 데이터로 가변 처리하도록 제어하는 제어부 및 가변 처리된 제2 초고해상도 비디오 데이터를 출력하는 출력부를 포함한다.
여기서, 상기 제1 초고해상도 비디오 데이터는 4k 초고해상도 비디오 데이터이고, 상기 제2 초고해상도 비디오 데이터는 8k 초고해상도 비디오 데이터일 수 있으며, 상기 제1 초고해상도 비디오 데이터는, HDMI 입력, 지상파, 케이블 및 IP 중 적어도 하나의 매체 내지 인터페이스를 통해 입력될 수 있다.
그리고 상기 시그널링 데이터는, PSI/PSIP 방식, DVB-SI 방식 또는 SEI message 중 적어도 하나를 포함할 수 있다.
또한, 상기 제어분는, 상기 제1 초고해상도 비디오 데이터를 상기 제2 초고해상도 비디오 데이터로 처리하기 위해 복수의 FRC 처리부를 포함하여 멀티-FRC 구조를 통해 가변 처리를 제어할 수 있다.
한편, 상기 멀티-FRC 구조는, 상기 가변 처리를 위해 모든 FRC가 케스케이스(cascade) 방식으로 연결될 수 있고, 상기 가변 처리를 위해 복수의 FRC가 듀얼 방식으로 연결될 수도 있다.
또한, 상기 제어부는, 상기 멀티-FRC 구조로부터 2개의 FRC가 인에이블되도록 제어하여, 제1 초고해상도 비디오 데이터를 8k 60Hz 전용의 제2 초고해상도 비디오 데이터로 가변 처리되도록 제어할 수 있고, 상기 멀티-FRC 구조로부터 2개의 FRC가 인에이블되도록 제어하여, 제1 초고해상도 비디오 데이터를 8k 120Hz 전용의 제2 초고해상도 비디오 데이터로 가변 처리되도록 제어할 수 있다.
또는, 본 발명의 다른 실싱예에 따른 초고해상도 비디오 데이터 처리 장치는, 제1 초고해상도 비디오 데이터와 상기 제1 초고해상도 비디오 데이터를 위한 시그널링 데이터가 포함된 신호를 수신하는 수신부, 상기 신호로부터 시그널링 데이터를 디코딩하는 디코더, 디코딩된 시그널링 데이터로부터 상기 비디오 데이터가 초고해상도 비디오 데이터임을 식별하고, 식별된 초고해상도 비디오 데이터가 8k 초고해상도 비디오 데이터이면, 멀티-FRC 구조를 통해 FRC 처리하도록 제어하는 제어부 및 FRC 처리된 8k 초고해상도 비디오 데이터를 출력하는 출력부를 포함한다.
도 4는 디지털 디바이스의 일 실시예를 설명하기 위해 도시한 구성 블록도이다. 여기서, 도 4는 예를 들어, 도 1의 클라이언트(100)에 해당할 수 있으며, 전술한 디지털 디바이스를 의미한다.
디지털 디바이스(400)는, 네트워크 인터페이스부(Network Interface)(401), TCP/IP 매니저(TCP/IP Manager)(402), 서비스 전달 매니저(Service Delivery Manager)(403), SI 디코더(404), 역다중화부(Demux)(405), 오디오 디코더(Audio Decoder)(406), 비디오 디코더(Video Decoder)(407), 디스플레이부(Display A/V and OSD Module)(408), 서비스 제어 매니저(Service Control Manager)(409), 서비스 디스커버리 매니저(Service Discovery Manager)(410), SI&메타데이터 데이터베이스(SI&Metadata DB)(411), 메타데이터 매니저(Metadata Manager)(412), 서비스 매니저(413), UI 매니저(414) 등을 포함하여 구성된다.
네트워크 인터페이스부(401)는, 네트워크 망을 통하여 IP 패킷(들) 또는 IP 데이터그램(들)(이하 IP 패킷(들)이라 한다)을 수신하거나 전송한다. 일 예로, 네트워크 인터페이스부(401)는 네트워크 망을 통해 서비스 제공자(320)로부터 서비스, 컨텐트 등을 수신한다. 상기에서, IP 패킬 또는 IP 데이터그램은 본 발명과 관련하여, 초고해상도 비디오 데이터를 포함한 초고해상도 서비스를 포함한다.
TCP/IP 매니저(402)는, 디지털 디바이스(400)로 수신되는 IP 패킷들과 디지털 디바이스(400)가 전송하는 IP 패킷들에 대하여 즉, 소스와 목적지 사이의 패킷 전달에 관여한다. 상기 TCP/IP 매니저(402)는 수신된 패킷(들)을 적절한 프로토콜에 대응하도록 분류하고, 서비스 전달 매니저(405), 서비스 디스커버리 매니저(410), 서비스 제어 매니저(409), 메타데이터 매니저(412) 등으로 상기 분류된 패킷(들)을 출력한다.
서비스 전달 매니저(403)는, 수신되는 서비스 데이터의 제어를 담당한다. 예를 들어, 서비스 전달 매니저(403)는 실시간 스트리밍(real-time streaming) 데이터를 제어하는 경우에는 RTP/RTCP를 사용할 수 있다. 상기 실시간 스트리밍 데이터를 RTP를 사용하여 전송하는 경우, 서비스 전달 매니저(403)는 상기 수신된 데이터 패킷을 RTP에 따라 파싱(parsing)하여 역다중화부(405)로 전송하거나 서비스 매니저(413)의 제어에 따라 SI&메타데이터 데이터베이스(411)에 저장한다. 그리고 서비스 전달 매니저(403)는 RTCP를 이용하여 상기 네트워크 수신 정보를 서비스를 제공하는 서버 측에 피드백(feedback)한다.
역다중화부(405)는, 수신된 패킷을 오디오, 비디오, SI(System Information) 데이터 등으로 역다중화하여 각각 오디오/비디오 디코더(406/407), SI 디코더(404)에 전송한다.
SI 디코더(404)는, 역다중화된 SI 데이터 즉, PSI(Program Specific Information), PSIP(Program and System Information Protocol), DVB-SI(Digital Video Broadcasting-Service Information) 등의 서비스 정보를 디코딩한다. 또한, SI 디코더(404)는, 디코딩된 서비스 정보들을 SI&메타데이터 데이터베이스(411)에 저장할 수 있다. 저장된 서비스 정보는 예를 들어, 사용자의 요청 등에 의해 해당 구성에 의해 독출되어 이용될 수 있다.
오디오/비디오 디코더(406/407)는, 역다중화된 각 오디오 데이터와 비디오 데이터를 디코딩한다. 이렇게 디코딩된 오디오 데이터 및 비디오 데이터는 디스플레이부(408)를 통하여 사용자에게 제공된다.
애플리케이션 매니저는 예를 들어, UI 매니저(414)와 서비스 매니저(413)를 포함하여 디지털 디바이스(400)의 제어부 기능을 수행할 수 있다. 애플리케이션 매니저는, 디지털 디바이스(400)의 전반적인 상태를 관리하고 사용자 인터페이스를 제공하며, 다른 매니저를 관리할 수 있다.
UI 매니저(414)는, 사용자를 위한 GUI(Graphic User Interface)를 OSD(On Screen Display) 등을 이용하여 제공하며, 사용자로부터 키 입력을 받아 상기 입력에 따른 디바이스 동작을 수행한다. 예를 들어, UI 매니저(214)는 사용자로부터 채널 선택에 관한 키 입력을 받으면 상기 키 입력 신호를 서비스 매니저(413)에 전송한다.
서비스 매니저(413)는, 서비스 전달 매니저(403), 서비스 디스커버리 매니저(410), 서비스 제어 매니저(409), 메타데이터 매니저(412) 등 서비스와 연관된 매니저를 제어한다.
또한, 서비스 매니저(413)는, 채널 맵(channel map)을 만들고 사용자 인터페이스 매니저(414)로부터 수신한 키 입력에 따라 상기 채널 맵을 이용하여 채널을 선택하다. 그리고 상기 서비스 매니저(413)는 SI 디코더(404)로부터 채널의 서비스 정보를 전송받아 선택된 채널의 오디오/비디오 PID(Packet Identifier)를 역다중화부(405)에 설정한다. 이렇게 설정되는 PID는 상술한 역다중화 과정에 이용된다. 따라서, 역다중화부(405)는 상기 PID를 이용하여 오디오 데이터, 비디오 데이터 및 SI 데이터를 필터링(filtering) 한다.
서비스 디스커버리 매니저(410)는, 서비스를 제공하는 서비스 제공자를 선택하는데 필요한 정보를 제공한다. 상기 서비스 매니저(413)로부터 채널 선택에 관한 신호를 수신하면, 서비스 디스커버리 매니저(410)는 상기 정보를 이용하여 서비스를 찾는다.
서비스 제어 매니저(409)는, 서비스의 선택과 제어를 담당한다. 예를 들어, 서비스 제어 매니저(409)는 사용자가 기존의 방송 방식과 같은 생방송(live broadcasting) 서비스를 선택하는 경우 IGMP 또는 RTSP 등을 사용하고, VOD(Video on Demand)와 같은 서비스를 선택하는 경우에는 RTSP를 사용하여 서비스의 선택, 제어를 수행한다. 상기 RTSP 프로토콜은 실시간 스트리밍에 대해 트릭 모드(trick mode)를 제공할 수 있다. 또한, 서비스 제어 매니저(409)는 IMS(IP Multimedia Subsystem), SIP(Session Initiation Protocol)를 이용하여 IMS 게이트웨이(450)를 통하는 세션을 초기화하고 관리할 수 있다. 상기 프로토콜들은 일 실시 예이며, 구현 예에 따라 다른 프로토콜을 사용할 수도 있다.
메타데이터 매니저(412)는, 서비스와 연관된 메타데이터를 관리하고 상기 메타데이터를 SI&메타데이터 데이터베이스(411)에 저장한다.
SI&메타데이터 데이터베이스(411)는, SI 디코더(404)가 디코딩한 서비스 정보, 메타데이터 매니저(412)가 관리하는 메타데이터 및 서비스 디스커버리 매니저(410)가 제공하는 서비스 제공자를 선택하는데 필요한 정보를 저장한다. 또한, SI&메타데이터 데이터베이스(411)는 시스템에 대한 세트-업 데이터 등을 저장할 수 있다.
SI&메타데이터 데이터베이스(411)는, 비휘발성 메모리(Non-Volatile RAM: NVRAM) 또는 플래시 메모리(flash memory) 등을 사용하여 구현될 수도 있다.
한편, IMS 게이트웨이(450)는, IMS 기반의 IPTV 서비스에 접근하기 위해 필요한 기능들을 모아 놓은 게이트웨이이다.
도 5는 디지털 디바이스의 다른 실시예를 설명하기 위해 도시한 구성 블록도이다. 특히, 도 5는 디지털 디바이스의 다른 실시예로서 모바일 디바이스의 구성 블록도를 예시한 것이다.
도 5를 참조하면, 모바일 디바이스(500)는, 무선 통신부(510), A/V(Audio/Video) 입력부(520), 사용자 입력부(530), 센싱부(540), 출력부(550), 메모리(560), 인터페이스부(570), 제어부(580) 및 전원 공급부(590) 등을 포함할 수 있다. 도 4에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 모바일 디바이스가 구현될 수도 있다.
무선 통신부(510)는, 모바일 디바이스(500)와 무선 통신 시스템 사이 또는 모바일 디바이스와, 모바일 디바이스가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 또는 그 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(510)는 방송 수신 모듈(511), 이동통신 모듈(512), 무선 인터넷 모듈(513), 근거리 통신 모듈(514) 및 위치정보 모듈(515) 등을 포함할 수 있다.
방송 수신 모듈(511)은, 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 여기서, 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.
방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(512)에 의해 수신될 수 있다.
방송 관련 정보는 다양한 형태 예를 들어, EPG(Electronic Program Guide) 또는 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.
방송수신 모듈(511)은 예를 들어, ATSC, DVB-T(Digital Video Broadcasting-Terrestrial), DVB-S(Satellite), MediaFLO(Media Forward Link Only), DVB-H(Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 방송수신 모듈(511)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.
방송수신 모듈(511)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는, 메모리(560)에 저장될 수 있다.
이동통신 모듈(512)은, 이동 통신망 상에서 기지국, 외부 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 무선 신호는, 음성 신호, 화상 통화 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선인터넷 모듈(513)은, 무선 인터넷 접속을 위한 모듈을 포함하여, 모바일 디바이스(500)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.
근거리통신 모듈(514)은, 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee, RS-232, RS-485 등이 이용될 수 있다.
위치정보 모듈(515)은, 모바일 디바이스(500)의 위치정보 획득을 위한 모듈로서, GPS(Global Position System) 모듈을 예로 할 수 있다.
A/V 입력부(520)는, 오디오 또는/및 비디오 신호 입력을 위한 것으로, 이에는 카메라(521)와 마이크(522) 등이 포함될 수 있다. 카메라(521)는, 화상통화 모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(551)에 표시될 수 있다.
카메라(521)에서 처리된 화상 프레임은, 메모리(560)에 저장되거나 무선 통신부(510)를 통하여 외부로 전송될 수 있다. 카메라(521)는, 사용 환경에 따라 2개 이상이 구비될 수도 있다.
마이크(522)는, 통화 모드 또는 녹음 모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향신호를 입력 받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는, 통화 모드인 경우 이동통신 모듈(512)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(522)에는 외부의 음향 신호를 입력 받는 과정에서 발생하는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
사용자 입력부(530)는, 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(530)는, 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠(jog wheel), 조그 스위치(jog switch) 등으로 구성될 수 있다.
센싱부(540)는, 모바일 디바이스(500)의 개폐 상태, 모바일 디바이스(500)의 위치, 사용자 접촉 유무, 모바일 디바이스의 방위, 모바일 디바이스의 가속/감속 등과 같이 모바일 디바이스(500)의 현재 상태를 감지하여 모바일 디바이스(500)의 동작 제어를 위한 센싱 신호를 발생시킨다. 예를 들어, 모바일 디바이스(500)가 이동되거나 기울어진 경우 모바일 디바이스의 위치 내지 기울기 등을 센싱할 수 있다. 또한, 전원 공급부(590)의 전원 공급 여부, 인터페이스부(570)의 외부 디바이스 결합 여부 등도 센싱할 수도 있다. 한편, 센싱부(540)는, NFC(Near Field Communication)를 포함한 근접 센서(541)를 포함할 수 있다.
출력부(550)는, 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(551), 음향 출력 모듈(552), 알람부(553), 및 햅틱 모듈(554) 등이 포함될 수 있다.
디스플레이부(551)는, 모바일 디바이스(500)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 모바일 디바이스가 통화 모드인 경우 통화와 관련된 UI 또는 GUI를 표시한다. 모바일 디바이스(500)가 화상 통화 모드 또는 촬영 모드인 경우에는, 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.
디스플레이부(551)는, 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이 중에서 적어도 하나를 포함할 수 있다.
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(551)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(551)가 차지하는 영역을 통해 단말기 바디(body)의 후방에 위치한 사물을 볼 수 있다.
모바일 디바이스(500)의 구현 형태에 따라 디스플레이부(551)가 2개 이상 존재할 수 있다. 예를 들어, 모바일 디바이스(500)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.
디스플레이부(551)와 터치 동작을 감지하는 센서(이하 '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(551)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.
터치 센서는 디스플레이부(551)의 특정 부위에 가해진 압력 또는 디스플레이부(551)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(580)로 전송한다. 이로써, 제어부(580)는 디스플레이부(351)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.
터치스크린에 의해 감싸지는 모바일 디바이스의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(541)가 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.
상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.
이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.
상기 근접 센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다.
음향출력모듈(552)은, 호신호 수신, 통화 모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(510)로부터 수신되거나 메모리(560)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(552)은 모바일 디바이스(500)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(552)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.
알람부(553)는, 모바일 디바이스(500)의 이벤트 발생을 알리기 위한 신호를 출력한다. 모바일 디바이스에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(553)는, 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(551)나 음성 출력 모듈(552)을 통해서도 출력될 수 있어서, 그들(551,552)은 알람부(553)의 일부로 분류될 수도 있다.
햅틱 모듈(haptic module)(554)은, 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(554)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(554)이 발생하는 진동의 세기와 패턴 등은 제어 가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
햅틱 모듈(554)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.
햅틱 모듈(554)은, 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(554)은, 모바일 디바이스(500)의 구성 태양에 따라 2개 이상이 구비될 수 있다.
메모리(560)는, 제어부(580)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰 북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(560)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
메모리(560)는, 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 모바일 디바이스(500)는 인터넷(internet)상에서 상기 메모리(560)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
인터페이스부(570)는, 모바일 디바이스(500)에 연결되는 모든 외부 디바이스와의 통로 역할을 한다. 인터페이스부(570)는 외부 디바이스로부터 데이터를 전송받거나, 전원을 공급받아 모바일 디바이스(500) 내부의 각 구성 요소에 전달하거나, 모바일 디바이스(500) 내부의 데이터가 외부 디바이스로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O 포트, 이어폰 포트 등이 인터페이스부(570)에 포함될 수 있다.
식별모듈은 모바일 디바이스(500)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기와 연결될 수 있다.
인터페이스부(570)는, 이동단말기(500)가 외부 크래들(cradle)과 연결될 때, 상기 크래들로부터의 전원이 상기 이동단말기(500)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은, 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.
제어부(580)는, 통상적으로 모바일 디바이스의 전반적인 동작을 제어한다. 예를 들어, 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(580)는, 멀티 미디어 재생을 위한 멀티미디어 모듈(581)을 구비할 수도 있다. 멀티미디어 모듈(581)은, 제어부(580) 내에 구현될 수도 있고, 제어부(580)와 별도로 구현될 수도 있다.
제어부(580)는, 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다.
전원공급부(590)는, 제어부(580)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다.
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays, 프로세서, 제어기, 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(580) 자체로 구현될 수 있다.
소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 애플리케이션으로 소프트웨어 코드가 구현될 수 있다. 여기서, 소프트웨어 코드는, 메모리(560)에 저장되고, 제어부(580)에 의해 실행될 수 있다.
도 6은 디지털 디바이스의 또 다른 실시 예를 설명하기 위해 도시한 구성 블록도이다.
디지털 디바이스(600)의 다른 예는, 방송 수신부(605), 외부장치 인터페이스부(635), 저장부(640), 사용자입력 인터페이스부(650), 제어부(670), 디스플레이부(680), 오디오 출력부(685), 전원 공급부(690) 및 촬영부(미도시)를 포함할 수 있다. 여기서, 상기 방송 수신부(605)는, 적어도 하나의 튜너(610), 복조부(620) 및 네트워크 인터페이스부(630)를 포함할 수 있다. 다만, 경우에 따라, 상기 방송 수신부(605)는 튜너(610)와 복조부(620)는 구비하나 네트워크 인터페이스부(630)는 포함하지 않을 수 있으며 그 반대의 경우일 수도 있다. 또한, 상기 방송 수신부(605)는 도시되진 않았으나, 다중화부(multiplexer)를 구비하여 상기 튜너(610)를 거쳐 복조부(620)에서 복조된 신호와 상기 네트워크 인터페이스부(630)를 거쳐 수신된 신호를 다중화할 수도 있다. 그 밖에 상기 방송 수신부(625)는 역시 도시되진 않았으나, 역다중화부(demultiplexer)를 구비하여 상기 다중화된 신호를 역다중화하거나 상기 복조된 신호 또는 상기 네트워크 인터페이스부(630)를 거친 신호를 역다중화할 수 있다.
튜너(610)는, 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널 또는 기저장된 모든 채널을 튜닝하여 RF 방송 신호를 수신한다. 또한, 튜너(610)는, 수신된 RF 방송 신호를 중간 주파수(Intermediate Frequency; IF) 신호 혹은 베이스밴드(baseband) 신호로 변환한다.
예를 들어, 수신된 RF 방송 신호가 디지털 방송 신호이면 디지털 IF 신호(DIF)로 변환하고, 아날로그 방송 신호이면 아날로그 베이스밴드 영상 또는 음성 신호(CVBS/SIF)로 변환한다. 즉, 튜너(610)는 디지털 방송 신호 또는 아날로그 방송 신호를 모두 처리할 수 있다. 튜너(610)에서 출력되는 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)는 제어부(670)로 직접 입력될 수 있다.
또한, 튜너(610)는, ATSC(Advanced Television System Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다.
한편, 튜너(610)는, 안테나를 통해 수신되는 RF 방송 신호 중 채널 기억 기능을 통하여 저장된 모든 방송 채널의 RF 방송 신호를 순차로 튜닝 및 수신하여 이를 중간 주파수 신호 혹은 베이스 밴드 신호로 변환할 수 있다.
복조부(620)는, 튜너(610)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조한다. 예를 들어, 튜너(410)에서 출력되는 디지털 IF 신호가 ATSC 방식인 경우, 복조부(620)는 예컨대, 8-VSB(8-Vestigal Side Band) 복조를 수행한다. 또한, 복조부(620)는 채널 복호화를 수행할 수도 있다. 이를 위해 복조부(620)는 트렐리스 디코더(Trellis Decoder), 디인터리버(De-interleaver), 및 리드 솔로먼 디코더(Reed-Solomon Decoder) 등을 구비하여, 트렐리스 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.
예를 들어, 튜너(610)에서 출력되는 디지털 IF 신호가 DVB 방식인 경우, 복조부(620)는 예컨대, COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다. 또한, 복조부(620)는, 채널 복호화를 수행할 수도 있다. 이를 위해, 복조부(620)는, 컨벌루션 디코더(convolution decoder), 디인터리버, 및 리드-솔로먼 디코더 등을 구비하여, 컨벌루션 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.
복조부(620)는, 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때, 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 일 예로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일 수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더(header)와 184 바이트의 페이로드(payload)를 포함할 수 있다.
한편, 상술한 복조부(620)는, ATSC 방식과, DVB 방식에 따라 각각 별개로 구비되는 것이 가능하다. 즉, 디지털 디바이스는 ATSC 복조부와 DVB 복조부를 각각 별개로 구비할 수 있다.
복조부(620)에서 출력한 스트림 신호는 제어부(670)로 입력될 수 있다. 제어부(670)는 역다중화, 영상/음성 신호 처리 등을 제어하고, 디스플레이부(680)를 통해 영상을, 오디오 출력부(685)를 통해 음성의 출력을 제어할 수 있다.
외부장치 인터페이스부(635)는 디지털 디바이스(600)에 다양한 외부장치가 인터페이싱되도록 환경을 제공한다. 이를 위해, 외부장치 인터페이스부(635)는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다.
외부장치 인터페이스부(635)는, DVD(Digital Versatile Disk), 블루-레이(Blu-ray), 게임디바이스, 카메라, 캠코더, 컴퓨터(노트북, 태블릿), 스마트 폰, 블루투스 디바이스(Bluetooth device), 클라우드(Cloud) 등과 같은 외부 장치와 유/무선으로 접속될 수 있다. 외부장치 인터페이스부(635)는 연결된 외부 장치를 통하여 외부에서 입력되는 영상, 음성 또는 데이터(이미지 포함) 신호를 디지털 디바이스의 제어부(670)로 전달한다. 제어부(670)는 처리된 영상, 음성 또는 데이터 신호를 연결된 외부 장치로 출력되도록 제어할 수 있다. 이를 위해, 외부장치 인터페이스부(635)는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 더 포함할 수 있다.
A/V 입출력부는, 외부 장치의 영상 및 음성 신호를 디지털 디바이스(600)로 입력할 수 있도록, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, RGB 단자, D-SUB 단자 등을 포함할 수 있다.
무선 통신부는, 다른 전자디바이스와 근거리 무선 통신을 수행할 수 있다. 디지털 디바이스(600)는 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), DLNA(Digital Living Network Alliance) 등의 통신 프로토콜에 따라 다른 전자 디바이스와 네트워크 연결될 수 있다.
또한, 외부장치 인터페이스부(635)는, 다양한 셋톱-박스와 상술한 각종 단자 중 적어도 하나를 통해 접속되어, 셋톱-박스와 입력/출력 동작을 수행할 수도 있다.
한편, 외부장치 인터페이스부(635)는, 인접하는 외부장치 내의 애플리케이션 또는 애플리케이션 목록을 수신하여, 제어부(670) 또는 저장부(640)로 전달할 수 있다.
네트워크 인터페이스부(630)는, 디지털 디바이스(600)를 인터넷 망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 네트워크 인터페이스부(630)는, 유선 네트워크와의 접속을 위해 예를 들어, 이더넷(Ethernet) 단자 등을 구비할 수 있으며, 무선 네트워크와의 접속을 위해 예를 들어, WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등을 이용할 수 있다.
네트워크 인터페이스부(630)는, 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 디지털 디바이스와 데이터를 송신 또는 수신할 수 있다. 특히, 디지털 디바이스(600)에 미리 등록된 다른 사용자 또는 다른 디지털 디바이스 중 선택된 사용자 또는 선택된 디지털 디바이스에, 상기 디지털 디바이스(600)에 저장된 일부의 컨텐트 데이터를 송신할 수 있다.
한편, 네트워크 인터페이스부(630)는, 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다. 그 외, 컨텐트 제공자 또는 네트워크 운영자가 제공하는 컨텐트 또는 데이터들을 수신할 수 있다. 즉, 네트워크를 통하여 컨텐트 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐트 및 그와 관련된 정보를 수신할 수 있다. 또한, 네트워크 운영자가 제공하는 펌웨어(firmware)의 업데이트 정보 및 업데이트 파일을 수신할 수 있다. 또한, 인터넷 또는 컨텐트 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.
또한, 네트워크 인터페이스부(630)는, 네트워크를 통해, 공중에 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수 있다.
저장부(640)는, 제어부(670) 내의 각 신호 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다.
또한, 저장부(640)는 외부장치 인터페이스부(635) 또는 네트워크 인터페이스부(630)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. 저장부(640)는, 채널 기억 기능을 통하여 소정 방송 채널에 관한 정보를 저장할 수 있다.
저장부(640)는, 외부장치 인터페이스부(635) 또는 네트워크 인터페이스부(630)로부터 입력되는 애플리케이션 또는 애플리케이션 목록을 저장할 수 있다.
또한, 저장부(640)는, 후술하여 설명하는 다양한 플랫폼(platform)을 저장할 수도 있다.
저장부(640)는, 예를 들어 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM), 롬(EEPROM 등) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 디지털 디바이스(600)는, 저장부(640) 내에 저장되어 있는 컨텐트 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일, 애플리케이션 파일 등)을 재생하여 사용자에게 제공할 수 있다.
도 6은 저장부(640)가 제어부(670)와 별도로 구비된 실시 예를 도시하고 있으나, 본 발명의 범위는 이에 한정되지 않는다. 즉, 저장부(640)는 제어부(670) 내에 포함될 수도 있다.
사용자 입력 인터페이스부(650)는, 사용자가 입력한 신호를 제어부(670)로 전달하거나, 제어부(670)의 신호를 사용자에게 전달한다.
예를 들어, 사용자 입력 인터페이스부(650)는, RF 통신 방식, 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치로부터 전원 온/오프, 채널 선택, 화면 설정 등의 제어 신호를 수신하여 처리하거나, 제어부(670)의 제어 신호를 원격제어장치로 송신하도록 처리할 수 있다.
또한, 사용자 입력 인터페이스부(650)는, 전원 키, 채널 키, 볼륨 키, 설정치 등의 로컬 키(미도시)에서 입력되는 제어 신호를 제어부(670)에 전달할 수 있다.
사용자 입력 인터페이스부(650)는, 사용자의 제스처(gesture)를 센싱(sensing)하는 센싱부(미도시)로부터 입력되는 제어 신호를 제어부(470)에 전달하거나, 제어부(670)의 신호를 센싱부(미도시)로 송신할 수 있다. 여기서, 센싱부(미도시)는, 터치 센서, 음성 센서, 위치 센서, 동작 센서 등을 포함할 수 있다.
제어부(670)는, 튜너(610), 복조부(620) 또는 외부장치 인터페이스부(635)를 통하여 입력되는 스트림을 역다중화하거나 역다중화된 신호들을 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다.
제어부(670)에서 처리된 영상 신호는, 디스플레이부(680)로 입력되어 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(670)에서 영상 처리된 영상 신호는 외부장치 인터페이스부(635)를 통하여 외부 출력장치로 입력될 수 있다.
제어부(670)에서 처리된 음성 신호는 오디오 출력부(685)로 오디오 출력될 수 있다. 또한, 제어부(670)에서 처리된 음성 신호는 외부장치 인터페이스부(635)를 통하여 외부 출력장치로 입력될 수 있다.
도 6에서는 도시되어 있지 않으나, 제어부(670)는 역다중화부, 영상 처리부 등을 포함할 수 있다.
제어부(670)는, 디지털 디바이스(600)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(670)는, 튜너(610)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 RF 방송을 튜닝(tuning)하도록 제어할 수 있다.
제어부(670)는, 사용자 입력 인터페이스부(650)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 디지털 디바이스(600)를 제어할 수 있다. 특히, 네트워크에 접속하여 사용자가 원하는 애플리케이션 또는 애플리케이션 목록을 디지털 디바이스(600) 내로 다운로드 받을 수 있도록 할 수 있다.
예를 들어, 제어부(670)는, 사용자 입력 인터페이스부(650)를 통하여 수신한 소정 채널 선택 명령에 따라 선택한 채널의 신호가 입력되도록 튜너(610)를 제어한다. 그리고 선택한 채널의 영상, 음성 또는 데이터 신호를 처리한다. 제어부(670)는, 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 디스플레이부(680) 또는 오디오 출력부(685)를 통하여 출력될 수 있도록 한다.
다른 예로, 제어부(670)는, 사용자 입력 인터페이스부(650)를 통하여 수신한 외부장치 영상 재생 명령에 따라, 외부장치 인터페이스부(635)를 통하여 입력되는 외부 장치, 예를 들어, 카메라 또는 캠코더로부터의, 영상 신호 또는 음성 신호가 디스플레이부(680) 또는 오디오 출력부(685)를 통해 출력될 수 있도록 한다.
한편, 제어부(670)는, 영상을 표시하도록 디스플레이부(680)를 제어할 수 있다. 예를 들어, 튜너(610)를 통해 입력되는 방송 영상, 또는 외부장치 인터페이스부(635)를 통해 입력되는 외부 입력 영상, 또는 네트워크 인터페이스부를 통해 입력되는 영상, 또는 저장부(640)에 저장된 영상을, 디스플레이부(680)에 표시하도록 제어할 수 있다. 이때, 디스플레이부(680)에 표시되는 영상은, 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.
또한, 제어부(670)는, 컨텐트를 재생하도록 제어할 수 있다. 이때의 컨텐트는, 디지털 디바이스(600) 내에 저장된 컨텐트, 또는 수신된 방송 컨텐트, 외부로부터 입력되는 외부 입력 컨텐트일 수 있다. 컨텐트는, 방송 영상, 외부 입력 영상, 오디오 파일, 정지 영상, 접속된 웹 화면, 및 문서 파일 중 적어도 하나일 수 있다.
한편, 제어부(670)는, 애플리케이션 보기 항목에 진입하는 경우, 디지털 디바이스(600) 내 또는 외부 네트워크로부터 다운로드 가능한 애플리케이션 또는 애플리케이션 목록을 표시하도록 제어할 수 있다.
제어부(670)는, 다양한 사용자 인터페이스와 더불어, 외부 네트워크로부터 다운로드 되는 애플리케이션을 설치 및 구동하도록 제어할 수 있다. 또한, 사용자의 선택에 의해, 실행되는 애플리케이션에 관련된 영상이 디스플레이부(680)에 표시 되도록 제어할 수 있다.
한편, 도면에 도시하지 않았지만, 채널 신호 또는 외부 입력 신호에 대응하는 썸네일 이미지를 생성하는 채널 브라우징 처리부가 더 구비되는 것도 가능하다.
채널 브라우징 처리부는, 복조부(520)에서 출력한 스트림 신호(TS) 또는 외부장치 인터페이스부(535)에서 출력한 스트림 신호 등을 입력받아, 입력되는 스트림 신호로부터 영상을 추출하여 썸네일 영상을 생성할 수 있다. 생성된 썸네일 영상은 그대로 또는 부호화되어 제어부(670)로 입력될 수 있다. 또한, 생성된 썸네일 영상은 스트림 형태로 부호화되어 제어부(670)로 입력되는 것도 가능하다. 제어부(670)는 입력된 썸네일 영상을 이용하여 복수의 썸네일 영상을 구비하는 썸네일 리스트를 디스플레이부(680)에 표시할 수 있다. 한편, 이러한 썸네일 리스트 내의 썸네일 영상들은 차례로 또는 동시에 업데이트 될 수 있다. 이에 따라 사용자는 복수의 방송 채널의 내용을 간편하게 파악할 수 있게 된다.
디스플레이부(680)는, 제어부(670)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부장치 인터페이스부(635)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R, G, B 신호로 변환하여 구동 신호를 생성한다.
디스플레이부(680)는 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 등이 가능할 수 있다.
한편, 디스플레이부(680)는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.
오디오 출력부(685)는, 제어부(670)에서 음성 처리된 신호, 예를 들어, 스테레오 신호, 3.1 채널 신호 또는 5.1 채널 신호를 입력 받아 음성으로 출력한다. 음성 출력부(685)는 다양한 형태의 스피커로 구현될 수 있다.
한편, 사용자의 제스처를 감지하기 위해, 상술한 바와 같이, 터치 센서, 음성 센서, 위치 센서, 동작 센서 중 적어도 하나를 구비하는 센싱부(미도시)가 디지털 디바이스(600)에 더 구비될 수 있다. 센싱부(미도시)에서 감지된 신호는 사용자입력 인터페이스부(650)를 통해 제어부(670)로 전달될 수 있다.
한편, 사용자를 촬영하는 촬영부(미도시)가 더 구비될 수 있다. 촬영부(미도시)에서 촬영된 영상 정보는 제어부(670)에 입력될 수 있다.
제어부(670)는, 촬영부(미도시)로부터 촬영된 영상, 또는 센싱부(미도시)로부터의 감지된 신호를 각각 또는 조합하여 사용자의 제스처를 감지할 수도 있다.
전원 공급부(690)는, 디지털 디바이스(600) 전반에 걸쳐 해당 전원을 공급한다.
특히, 시스템 온 칩(System On Chip; SOC)의 형태로 구현될 수 있는 제어부(670)와, 영상 표시를 위한 디스플레이부(680), 및 오디오 출력을 위한 오디오 출력부(685)에 전원을 공급할 수 있다.
이를 위해, 전원 공급부(690)는, 교류 전원을 직류 전원으로 변환하는 컨버터(미도시)를 구비할 수 있다. 한편, 예를 들어, 디스플레이부(680)가 다수의 백라이트 램프를 구비하는 액정 패널로서 구현되는 경우, 휘도 가변 또는 디밍(dimming) 구동을 위해, PWM 동작 가능한 인버터(미도시)를 더 구비할 수도 있다.
원격제어장치(700)는, 사용자 입력을 사용자입력 인터페이스부(650)로 송신한다. 이를 위해, 원격제어장치(700)는, 블루투스, RF 통신, 적외선(IR) 통신, UWB, 지그비 방식 등을 사용할 수 있다.
또한, 원격제어장치(700)는, 사용자입력 인터페이스부(650)에서 출력한 영상, 음성 또는 데이터 신호 등을 수신하여, 이를 원격제어장치(700)에서 표시하거나 음성 또는 진동을 출력할 수 있다.
상술한 디지털 디바이스(600)는, 고정형 또는 이동형의 ATSC 방식 또는 DVB 방식의 디지털 방송 신호의 처리가 가능한 디지털 방송 수신기일 수 있다.
그 밖에 본 발명에 따른 디지털 디바이스는 도시된 구성 중 필요에 따라 일부 구성을 생략하거나 반대로 도시되진 않은 구성을 더 포함할 수도 있다. 한편, 디지털 디바이스는 상술한 바와 달리, 튜너와 복조부를 구비하지 않고, 네트워크 인터페이스부 또는 외부장치 인터페이스부를 통해서 컨텐트를 수신하여 재생할 수도 있다.
도 7은 상술한 제어부의 상세 구성의 일 실시예를 설명하기 위해 도시한 구성 블록도이다.
제어부의 일 예는, 역다중화부(710), 영상 처리부(720), OSD(On-Screen Display) 생성부(740), 믹서(mixer)(750), 프레임 레이트 변환부(Frame Rate Conveter; FRC)(755), 및 포맷터(formatter)(760)를 포함할 수 있다. 그 외 상기 제어부는 도시되진 않았으나 음성 처리부와 데이터 처리부를 더 포함할 수 있다.
역다중화부(710)는, 입력되는 스트림을 역다중화한다. 예를 들어, 역다중화부(710)는 입력되는 MPEG-2 TS 영상, 음성 및 데이터 신호로 역다중화할 수 있다. 여기서, 역다중화부(710)에 입력되는 스트림 신호는, 튜너 또는 복조부 또는 외부장치 인터페이스부에서 출력되는 스트림 신호일 수 있다.
영상 처리부(720)는, 역다중화된 영상 신호의 영상 처리를 수행한다. 이를 위해, 영상 처리부(720)는, 영상 디코더(725) 및 스케일러(735)를 구비할 수 있다.
영상 디코더(425)는 역다중화된 영상 신호를 복호하며, 스케일러(435)는 복호된 영상 신호의 해상도를 디스플레이부에서 출력 가능하도록 스케일링(scaling)한다.
영상 디코더(725)는 다양한 규격을 지원할 수 있다. 예를 들어, 영상 디코더(725)는 영상 신호가 MPEG-2 규격으로 부호화된 경우에는 MPEG-2 디코더의 기능을 수행하고, 영상 신호가 DMB(Digital Multimedia Broadcasting) 방식 또는 H.264 규격으로 부호화된 경우에는 H.264 디코더의 기능을 수행할 수 있다. 영상 디코더(725)는 초고해상도 비디오 데이터와 관련하여, H.265(HEVC) 규격으로 부호화된 경우에는 H.265 디코덩의 기능을 수행할 수도 있다.
한편, 영상 처리부(720)에서 복호된 영상 신호는, 믹서(750)로 입력된다.
OSD 생성부(740)는, 사용자 입력에 따라 또는 자체적으로 OSD 데이터를 생성한다. 예를 들어, OSD 생성부(740)는 사용자입력 인터페이스부의 제어 신호에 기초하여 디스플레이부(580)의 화면에 각종 데이터를 그래픽(Graphic)이나 텍스트(Text) 형태로 표시하기 위한 데이터를 생성한다. 생성되는 OSD 데이터는, 디지털 디바이스의 사용자 인터페이스 화면, 다양한 메뉴 화면, 위젯(widget), 아이콘(Icon), 시청률 정보(viewing rate information) 등의 다양한 데이터를 포함한다.
OSD 생성부(740)는, 방송 영상의 자막 또는 EPG에 기반한 방송 정보를 표시하기 위한 데이터를 생성할 수도 있다.
믹서(750)는, OSD 생성부(740)에서 생성된 OSD 데이터와 영상 처리부에서 영상 처리된 영상 신호를 믹싱하여 포맷터(760)로 제공한다. 복호된 영상 신호와 OSD 데이터가 믹싱됨으로 인하여, 방송 영상 또는 외부 입력 영상 상에 OSD가 오버레이(overlay) 되어 표시된다.
프레임 레이트 변환부(FRC)(755)는, 입력되는 영상의 프레임 레이트(frame rate)를 변환한다. 예를 들어, 프레임 레이트 변환부(755)는 입력되는 60Hz 영상의 프레임 레이트를 디스플레이부의 출력 주파수에 따라 예를 들어, 120Hz 또는 240Hz의 프레임 레이트를 가지도록 변환할 수 있다. 상기와 같이, 프레임 레이트를 변환하는 방법에는 다양한 방법이 존재할 수 있다. 일 예로, 프레임 레이트 변환부(755)는 프레임 레이트를 60Hz에서 120Hz로 변환하는 경우, 제1 프레임과 제2 프레임 사이에 동일한 제1 프레임을 삽입하거나, 제1 프레임과 제2 프레임으로부터 예측된 제3 프레임을 삽입함으로써 변환할 수 있다. 다른 예로, 프레임 레이트 변환부(755)는 프레임 레이트를 60Hz에서 240Hz로 변환하는 경우, 기존 프레임 사이에 동일한 프레임 또는 예측된 프레임을 3개 더 삽입하여 변환할 수 있다. 한편, 별도의 프레임 변환을 수행하지 않는 경우에는 프레임 레이트 변환부(755)를 바이패스(bypass) 할 수도 있다.
포맷터(760)는, 입력되는 프레임 레이트 변환부(755)의 출력을 디스플레이부의 출력 포맷에 맞게 변경한다. 예를 들어, 포맷터(760)는 R, G, B 데이터 신호를 출력할 수 있으며, 이러한 R, G, B 데이터 신호는, 낮은 전압 차분 신호(Low voltage differential signaling, LVDS) 또는 mini-LVDS로 출력될 수 있다. 또한, 포맷터(760)는 입력되는 프레임 레이트 변환부(555)의 출력이 3D 영상 신호인 경우에는 디스플레이부의 출력 포맷에 맞게 3D 형태로 구성하여 출력함으로써, 상기 디스플레이부를 통해 3D 서비스를 지원할 수도 있다.
한편, 제어부 내 음성 처리부(미도시)는, 역다중화된 음성 신호의 음성 처리를 수행할 수 있다. 이러한 음성 처리부(미도시)는 다양한 오디오 포맷을 처리하도록 지원할 수 있다. 일 예로, 음성 신호가 MPEG, AAC, HE-AAC, AC-3, BSAC 등의 포맷으로 부호화된 경우에도 이에 대응되는 디코더를 구비하여 처리할 수 있다.
또한, 제어부 내 음성 처리부(미도시)는, 베이스(Base), 트레블(Treble), 음량 조절 등을 처리할 수 있다.
제어부 내 데이터 처리부(미도시)는, 역다중화된 데이터 신호의 데이터 처리를 수행할 수 있다. 예를 들어, 데이터 처리부는 역다중화된 데이터 신호가 부호화된 경우에도 이를 복호할 수 있다. 여기서, 부호화된 데이터 신호로는, 각 채널에서 방영되는 방송 프로그램의 시작시각, 종료시각 등의 방송 정보가 포함된 EPG 정보일 수 있다.
한편, 상술한 디지털 디바이스는 본 발명에 따른 예시로서, 각 구성요소는 실제 구현되는 디지털 디바이스의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라, 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나 하나의 구성요소가 2 이상의 구성요소로 세분화될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시 예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
한편, 디지털 디바이스는, 장치 내에 저장된 영상 또는 입력되는 영상의 신호 처리를 수행하는 영상신호 처리장치일 수 있다. 영상신호 처리장치의 다른 예로는, 도 6에서 도시된 디스플레이부(680)와 오디오 출력부(685)가 제외된 셋톱-박스(STB), 상술한 DVD 플레이어, 블루-레이 플레이어, 게임 디바이스, 컴퓨터 등이 더 예시될 수 있다.
도 8은 초고해상도 서비스를 처리하는 수신기 구성 블록도의 일 실시예를 설명하기 위해 도시한 도면이다.
도 8을 참조하면, 수신기는 수신부(미도시), 역다중화부(810), SI 프로세서(820), 채널 매니저(830) 및 신호 처리부(840)을 포함하여 구성된다.
수신부는, 특정 채널을 튜닝하여 튜닝된 채널을 통해 신호를 수신하는 튜너(tuner)와 상기 수신된 신호를 변조 방식에 대응하여 복조하는 복조부(demodulator)를 포함할 수 있다. 여기서, 상기 수신부는 예컨대, IP를 통해 초고해상도 서비스 데이터를 수신하기 위해 네트워크 인터페이스를 더 포함할 수 있다.
역다중화부(810)는, 채널 정보 파악에 필요한 시그널링 데이터, 비디오 데이터, 오디오 데이터를 PID 필터링 등을 통해 역다중화한다. 역다중화된 시그널링 데이터는 SI 처리부(820)로 전송되고, 역다중화된 오디오/비디오 데이터는 신호 처리부(840)로 전송된다.
SI 프로세서(820)는 UHD 서비스 구현을 위한 전송단의 시그널링 데이터에 대한 섹션 데이터를 수신하여 처리하고 도시되진 않았으나, 내외부에 연결된 데이터베이스에 저장할 수 있다. 한편, SI 프로세서(820)는 상기 시그널링 데이터 중 채널 정보를 채널 맵 생성을 위한 채널 매니저(830)로 전송한다. 채널 매니저(830)는 수신되는 채널 관련 시그널링 데이터에 기초하여 채널 맵을 생성하여 수신기의 튜닝, 채널 접근 등에 관여한다. 이러한 시그널링 데이터는 전술한 MPEG PSI, ATSC PSIP, DVB-SI 등 관련 표준에서 정의한 시그널링 정보들을 포함한다.
신호 처리부(840)는, 비디오 처리부와 오디오 처리부로 구성된다.
비디오 처리부는 비디오 버퍼/제어부(842), 비디오 디코더(844) 및 비디오 프로세서(846)을 포함하여 구성된다. 비디오 버퍼/제어부(842)는 역다중화부(810)에서 역다중화된 UHD 비디오 데이터를 수신하여 일시 저장하고, FIFO 또는 MIMO 방식으로 비디오 디코더(844)로 출력한다. 비디오 디코더(844)는 수신되는 UHD 비디오 데이터를 인코딩 방식에 대응되는 디코딩 방식을 이용하여 디코딩한다. 비디오 프로세서(846)는 디코딩된 비디오 데이터를 수신하여 디스플레이부 또는 연결된 디스플레이 디바이스로 전송하기 위해 필요한 처리를 수행한다.
오디오 처리부는 오디오 버퍼/제어부(852), 오디오 디코더(854) 및 오디오 프로세서(856)을 포함하여 구성된다. 오디오 버퍼/제어부(852)는 역다중화부(810)에서 역다중화된 UHD 비디오 데이터에 대한 오디오 데이터를 수신하여 일시 저장하고, FIFO 또는 MIMO 방식으로 오디오 디코더(854)로 출력한다. 오디오 디코더(854)는 수신되는 오디오 데이터에 대한 인코딩 방식에 대응되는 디코딩 방식으로 디코딩한다. 오디오 프로세서(856)는 디코딩된 오디오 데이터를 수신하여 비디오 데이터에 싱크를 맞춰 내장 또는 외부 스피커를 통해 출력하기 위해 필요한 처리를 수행한다.
포맷터(860)는 비디오 프로세서(846)와 오디오 프로세서(856)의 동작을 제어한다. 예를 들어, 포맷터(860)는 UHD 서비스를 위해 비디오 데이터와 오디오 데이터의 싱크와 출력부의 출력 주파수에 따라 3D 포맷 작업을 수행 또는 제어하는 신호를 비디오 프로세서(846) 또는/및 오디오 프로세서(856)로 전달한다.
도 9는 전술한 디지털 디바이스의 제어수단을 도시한 도면이다.
디지털 디바이스(900)를 제어하기 위해 상기 디지털 디바이스(900) 상에 구비된 프론트 패널(front panel)(미도시)이나 제어수단이 이용된다.
한편, 제어수단은 유, 무선 통신 가능한 사용자 인터페이스 디바이스(UID; User Interface Device)로써, 주로 디지털 디바이스(900)의 제어 목적으로 구현된 리모컨(910), 키보드(930), 포인팅 디바이스(920), 터치패드(touch-pad) 등이 포함되나, 상기 디지털 디바이스(600)에 연결된 외부 입력 전용의 제어수단 역시 포함될 수 있다. 그 밖에, 디지털 디바이스(900) 제어 목적이 아니나 모드 전환 등을 통해 상기 디지털 디바이스(900)를 제어하는 스마트 폰, 태블릿 PC 등 모바일 디바이스 등도 제어수단에 포함된다. 다만, 본 명세서에서는 편의상 포인팅 디바이스를 일 실시예로 하여 설명하나, 이에 한정되는 것은 아니다.
제어수단은, 블루투스, RFID(Radio Frequency Identification), 적외선 통신(IrDA), UWB, 지그비, DLNA(Digital Living Network Alliance), RS 등의 통신 프로토콜을 필요에 따라 적어도 하나 이상 채용하여 디지털 디바이스와 통신 가능하다.
리모컨(910)은, 디지털 디바이스(900) 제어를 위해 필요한 다양한 키 버튼들이 구비된 통상의 제어수단을 말한다.
포인팅 디바이스(920)는, 자이로 센서(Gyro Sensor) 등을 탑재하여 사용자의 움직임, 압력, 회전 등에 기초하여 디지털 디바이스(900)의 화면상에 대응되는 포인터(pointer)를 구현하여 상기 디지털 디바이스(900)에 소정 제어 명령을 전달한다. 이러한 포인팅 디바이스(920)는, 매직 리모컨, 매직 컨트롤러 등 다양한 이름으로 명명될 수 있다.
키보드(930)는, 디지털 디바이스(900)가 종래 방송만을 제공하던 것을 넘어 지능형 통합 디지털 디바이스로서 웹 브라우저, 애플리케이션, SNS(Social Network Service) 등 다양한 서비스를 제공함에 따라 종래 리모컨(910)만으로는 제어가 쉽지 않아 이를 보완하여 PC의 키보드와 유사하게 구현하여 텍스트 등의 입력 편의를 도모하기 위해 구현되었다.
한편, 리모컨(910), 포인팅 디바이스(920), 키보드(930) 등 제어수단은, 필요에 따라 터치패드를 구비함으로써 텍스트 입력, 포인터 이동, 사진 내지 동영상의 확대/축소 등 더욱 편리하고 다양한 제어 목적에 이용할 수 있다.?
이하에서는 첨부된 도면을 참조하여, 본 발명에 따른 다양한 실시예들을 설명한다.
전술한 바와 같이, 본 명세서에서는 종래 풀-HD TV 서비스를 넘어 4K, 8K 등 초고해상도 서비스(UHD (ultra high definition) service)를 하나의 TV를 통해 서비스하기 위한 디바이스 구성을 제공할 수 있고, 입력되는 초고해상도 서비스의 타입에 관계없이 하나의 디바이스에서 모든 초고해상도 서비스를 제공할 수 있으며, 입력 소스(input source)와 사용자의 선택에 따라 4K 또는 8K 등 초고해상도 서비스를 사용자에게 제공할 수 있는 플렉서빌러티(flexibility)를 구비한 디바이스를 제공할 수 있고, 4K 초고해상도 서비스 지원을 위한 디바이스로부터 간단하게 8K 초고해상도 서비스 지원 디바이스로 확장성을 보장함으로써 칩, 하드웨어, 소프트웨어 플랫폼 등 설계 편의와 사용자의 요청에 적응적인 초고해상도 서비스 지원 디바이스를 지원할 수 있다.
현재 논의되고 있는 초고해상도 서비스로는 상술한 바와 같이, 4k와 8k 두 종류가 있으나, 이는 추후 기술의 발전과 시장의 요청에 따라 더욱 선명하고 고화질의 초고해상도 서비스가 요구될 것이다. 현재는, 제조업체에서 4k 전용 또는 8k 전용의 초고해상도 서비스를 처리하는 디지털 디바이스만을 제조하고 있으나, 이는 시장의 환경 변화나 규격 정의, 요구 등에 따라 계속하여 서비스 환경이 변동됨에 반해 비용, 효율 측면에서 플렉서빌러티가 떨어진다.
이하 본 명세서에서는 4k 초고해상도 서비스 처리 구성을 응용하여 8k 더 나아가 그 보다 더욱 개선된 초고해상도 서비스까지 처리 가능한 구조와 방법을 제안하고자 한다.
도 10은 본 발명에 일 실시예에 따른 4k 초고해상도 서비스 처리 구성 블록도를 도시한 도면이다.
여기서, 4k 초고해상도 서비스 즉, 입력 소스는 다양한 경로를 통해 전송된다.
예컨대, 도 10의 좌측에는 입력 소스를 전달하기 위한 복수의 인터페이스가 도시되어 있다. 이러한 입력 소스로는 HDMI와 같은 외부 입력, 에어(Air), 케이블(cable), IP(Internet Protocol)와 같은 매체 등이 존재할 수 있다.
초고해상도 서비스 처리부(1010)는 상기 입력 소스들로부터 서비스를 수신하기 위해 필요한 인터페이스를 구비한다. 이러한 인터페이스로는, HDMI 단자, 튜너, 네트워크 인터페이스 등이 존재할 수 있다.
디지털 디바이스는 이렇게 입력 소스로부터 서비스가 수신되면, 상기 서비스를 식별하고 그에 따라 전술한 바와 같이, 복조부, 역다중화부, SI 처리부, 디코더 등을 통해 적절한 가공, 처리를 한다. 이렇게 처리된 서비스 데이터는 출력부를 통해 출력된다.
이때, 상기에서 디지털 디바이스는 입력되는 서비스의 식별을 통해 상기 입력 서비스가 2k 즉, 풀-HD 서비스인 경우에는 상기 초고해상도 서비스 처리부(1010)의 디코더를 통해 바로 출력부로 풀-HD 서비스 데이터를 출력한다.
다만, 상기에서 디지털 디바이스는 입력되는 서비스의 식별을 통해 상기 입력 서비스가 4k 또는 8k 초고해상도 서비스인 경우에는 상기 초고해상도 서비스 처리부(1010)의 처리만으로는 출력부에서 초고해상도 서비스를 출력하기 어렵다. 따라서, 식별된 서비스 데이터가 초고해상도 서비스인 경우에는 상기 초고해상도 서비스 처리부(1010)를 거친 서비스 데이터를 FRC(1020)를 통해 재가공한 후에 출력부를 통해 사용자에게 제공된다.
이를 위해, 디지털 디바이스는 입력 서비스가 초고해상도 서비스인지 아닌지 식별하는 것이 중요하다. 또한, 디지털 디바이스에서 입력 서비스가 초고해상도 서비스로 식별된 경우에는 추가로 상기 식별된 초고해상도 서비스가 4k인지 아니면 8k인지 식별할 수 있어야 한다.
이는 상기 입력 서비스와 함께 전송되는 시그널링 데이터의 파싱을 통해 알 수 있다. 여기서, 시그널링 데이터는 입력 소스에 따라 다양한 형태로 정의되어 수신기로 전달될 수 있으며, 수신기는 이를 적절히 처리하여야만 상기 입력 소스를 제대로 처리할 수 있다.
도 11 내지 14는 초고해상도 서비스 처리를 위한 시그널링 데이터를 설명하기 위해 도시한 도면이다.
여기서, 본 명세서에서는 지상파나 케이블과 같이, 방송국을 통해 초고해상도 서비스가 제공되는 경우에 상기 초고해상도 서비스를 처리하기 위해 정의되는 시그널링 데이터를 예시하고 설명한다. 한편, 이러한 시그널링 데이터는 ATSC 시스템에서 이용하는 PSI/PSIP 데이터를 일 실시예로 하여 설명하나, 본 발명이 이에 한정되는 것은 아니다. 또한, 본 발명의 이해를 돕고 설명의 편의상 시그널링 데이터는 상기 시스템에서 주로 이용하는 테이블 형태로 정의한다.
먼저, PSI에는 다수의 테이블 형태의 시그널링 데이터가 존재하는데 PAT(Program Association Table), PMT(Program Map Table) 등이 본 발명과 관련될 수 있다. 다만, 편의상 도 11에서는 PMT를 예시하였다.
이하, 도 11뿐만 아니라 도 12 내지 14에 도시된 테이블 형태의 시그널링 데이터는 미리 정의된 바에 따라 필요한 데이터를 필드 형태로 정의하고 있다. 다만, 도시된 테이블에 포함된 모든 필드에 대해 설명은 표준서 등에 정의된 내용을 기초하고 여기서 그 상세한 설명은 생략한다. 대신, 본 발명과 관련된 필드 또는 그 필드의 정의 내지 이용에 대해서만 간략하게 기술함을 밝혀둔다.
한편, 본 발명에서는 기존 시그널링 데이터를 그대로 이용하고, 초고해상도 서비스와 관련된 데이터는 디스크립터 형태로 정의되는 것을 일 실시예로 한다.
도 11의 PMT는 프로그램 단위와 엘리멘터리 스트림 단위의 서비스 데이터를 정의 가능하다. 예컨대, program_info_length 필드 다음의 루프 구조 내에 속한 디스크립터를 새롭게 정의하거나 기존의 디스크립터의 값을 정의하여 프로그램 단위로 서비스가 초고해상도 서비스인지 아닌지를 정의하여 수신기에서 이를 파싱함으로써 해당 프로그램이 초고해상도 서비스를 위한 프로그램인지 아닌지를 식별할 수 있다. 이때, 필요에 따라 상기 디스크립터는 초고해상도 서비스인 경우에는 4k 또는 8k 초고해상도 서비스까지 식별 가능하도록 정의할 수 있다.
한편, ES_info_length 필드 이후의 루프 내 디스크립터에서는 엘리멘터리 스트림 단위로 시그널링 데이터를 정의 가능하고, 이때 해당 비디오 엘리멘터리 스트림이 초고해상도 비디오 서비스를 위한 ES 여부를 식별할 수 있도록 정의하고 수신기에서 이를 알 수 있도록 한다. 이때, 역시 본 디스크립터는 해당 비디오 엘리멘터리 스트림이 초고해상도 비디오 서비스를 위한 비디오 엘리멘터리 스트림인 경우에 추가로 4k 또는 8k 초고해상도 서비스에 대한 정의도 가능하다.
도 12 내지 13은 각각, PSIP 데이터 중 VCT(Virtual Channel Table)와 EIT(Event Information Table)를 도시한 것이다. 여기서, VCT는 가상 채널에 대한 채널 정보를 정의하고, EIT는 상기 정의되는 가상 채널 내에 이벤트에 대한 정보를 정의한다.
먼저, 도 12를 참조하면, VCT에서는 program_number를 통해 전술한 PMT와 연결되고, service_type 필드에서 해당 가상 채널을 통해 전송되는 서비스가 초고해상도 서비스인지 유무를 정의할 수 있다. 이 경우, 초고해상도 서비스 중에서도 4k 또는 8k 여부까지 정의할 수 있다. 또는, 전술한 도 11의 PMT와 같이, VCT 내의 디스크립터 형태로 초고해상도 서비스 유무를 정의하여 수신기에서 처리 가능하도록 전달할 수도 있다.
한편, 도 13을 참조하면, EIT에서는 source_id를 통해 VCT를 통해 식별되는 특정 가상 채널과 연결되고, 해당 가상 채널을 통해 전달되는 이벤트가 초고해상도 서비스를 위한 이벤트인지 아니지를 식별 가능하도록 정의할 수도 있다. 이 경우, EIT에서는 도 11과 같이, 디스크립터 형태로 정의할 수 있으며, 초고해상도 서비스인 경우에는 4k와 8k까지 구분되도록 정의할 수 있다.
마지막으로, 도 14는 SEI message를 정의한 것으로, 이는 예컨대, 비디오 데이터의 헤더에 포함되어 전달되는 시그널링 데이터이다. SEI message는 전술한 시그널링 데이터의 처리 경로와는 조금 다른데 예컨대, 도 11 내지 13의 시그널링 데이터는 예컨대, 튜너나 케이블을 통해 수신된 후에 역다중화부에서 일차로 필터링된 후에 SI 디코더에서 처리된 후에 비디오 디코더에서 해당 비디오 데이터 처리에 이용되나, SEI message는 비디오 데이터 자체의 헤더에 포함된 것으로, 비디오 디코더에서 파싱되어 즉시 이용될 수 있다. 따라서, SEI message를 통해 디코딩되는 비디오 데이터가 풀-HD(2k) 비디오 데이터인지 아니면 초고해상도 비디오 데이터인지 식별 가능하며, 경우에 따라 초고해상도 비디오 데이터인 경우에도 4k인지 아니면 8k인지 여부까지 식별 가능하다.
이와 같이, 시그널링 데이터는 입력 소스를 적절히 처리하기 위해 필요한 데이터로서 추후 사용자의 요청에 대해서도 적절하게 대응하기 위해 필요하다.
전술한 바와 같이, 시그널링 정보는 다음과 같은 정보 중 적어도 하나 이상을 정의하고 송수신단 사이에 제공되어야 할 것이다. 이하에서 설명하는 각 정보를 위한 테이블과 디스크립터는 기존에 존재하던 테이블과 디스크립터에 기 정의된 값을 그대로 이용하거나 새로운 값을 정의할 수도 있고, 새로운 테이블과 새로운 디스크립터를 정의할 수도 있다.
우선, 제1 정보는, 초고해상도 서비스 데이터를 포함한 신호 즉, 전송 스트림(TS)의 스트림 타입을 식별하는 정보도 포함한다.
제2 정보는, 전송되는 서비스가 초고해상도 서비스인지 아닌지를 식별하는 정보이다.
제3 정보는, 제2 정보에 기초할 때, 상기 전송되는 서비스가 초고해상도 서비스이면, 해당 UHD 서비스가 4k 서비스인지 8k 서비스인지 식별하는 정보이다.
제4 정보는, 제1 내지 제3 정보에 기초하여 초고해상도 서비스 데이터가 어떤 방식으로 전송되는지 전송 방식을 식별하는 정보이다.
전술한 바와 같이, 제1 정보는, 신호 즉, 전송 스트림(TS) 내 해당 스트림이 비디오 스트림인지 여부를 판별한다. 상기 제1 정보는 도 11의 PMT 내 stream_type 필드를 통해 식별 가능하다. 따라서, 수신기는 ES(Elementary Stream) 단위로 해당 스트림이 비디오 스트림 여부를 식별하여 비디오 디코더를 통해 디코딩할 수 있다. 여기서, PMT 내 stream_type 필드는 이미 각 스트림에 대해 정의된 값이 존재한다. 따라서, 본 발명에 따라 초고해상도 서비스를 포함한 비디오 스트림에 대해서는 상기 기 정의된 값을 이용하거나 새로운 값을 정의하여 시그널링할 수 있다. 왜냐하면, 본 발명에 따른 초고해상도 서비스를 위해서는 현재 MPEG PMT stream_type 필드에서 기 정의하지 않은 HEVC 코덱을 이용하여 인코딩되었기 때문이다.
전술한 제1 정보가 신호에 대한 식별에 대한 내용이었다면, 제2 정보는 상기 식별된 신호에 포함된 서비스를 식별하기 위한 것이다. 서비스 타입에 대해서는 현재 관련 표준들에서 다양하게 정의하고 있다. 종래 관련 표준들에서는 서비스 시그널링을 위한 테이블 또는/및 디스크립터를 통해 서비스 타입에 대해 정의하고 있으나, 아직 초고해상도 서비스에 대한 서비스 타입 정의는 이루어지고 있지 않아 수신기에서 서비스 식별에 어려움이 있을 수 있다. 따라서, 관련 표준들에서 초고해상도 서비스에 대한 서비스 타입 정의가 요구된다.
한편, 상기 초고해상도 서비스 타입 시그널링 정보가 DVB 방식으로 정의되는 경우에는 NIT(Network Information Table), SDT(Service Description Table), EIT(Event Information Table) 등과 관련 디스크립터 형태로 정의될 수 있다. 예컨대, DVB-SI 내에서는 component_descriptor를 정의하여 서비스를 구성하는 컴포넌트들에 대해 다양한 값들을 정의하여 식별하는데, 본 발명에 따른 UHD 서비스의 경우에도 적절하게 stream_content 필드값과 component_type 필드 값을 정의하여 UHD 서비스를 식별하고, 상기 식별되는 UHD 서비스에 대한 DVB 서브타이틀(subtitle)도 식별할 수 있다.
제3 정보는, 전술한 제2 정보에 의해 식별된 초고해상도 서비스에 따라 해당 초고해상도 서비스가 4k 서비스인지 8k 서비스인지를 식별한다. 한편, 이러한 제3 정보는 예컨대, 제2 정보에 의해 미리 식별될 수도 있으며, 그 경우 상기 제3 정보는 별도로 정의되지 않을 수도 있다. 예컨대, 제3 정보는 PSI 방식에서 도 11의 PMT에 속한 프로그램 또는 ES 레벨의 디스크립터로 정의될 수도 있다. 제3 정보는 PSIP 방식에서 도 12의 VCT, 도 13의 EIT 등의 source_id나 service_type 필드 정보를 이용하여 정의될 수 있다.
제3 정보는 DVB 방식에서 NIT의 network_id, transport_stream_id, original_network_id 중 적어도 하나 이상 또는 상기 NIT에 속한 디스크립터, SDT의 transport_stream_id, original_network_id, service_id 중 적어도 하나 이상 필드 또는 SDT에 속한 디스크립터, EIT의 service_id, transport_stream_id, original_network_id 또는 상기 EIT에 속한 디스크립터 등을 통해 정의될 수 있다. 한편, 제3 정보는 식별되는 초고해상도 서비스 사이에 링크가 가능하다. 예컨대, DVB-SI 내 linkage_descriptor와 extended_linkage_descriptor를 이용하여 초고해상도 서비스와 관련된 다른 초고해상도 서비스를 반대로 정의할 수 있다.
제4 정보는, 제1 내지 제3 정보에 기초하여 초고해상도 서비스 데이터가 어떤 방식으로 전송되는지 전송 방식을 식별하는 정보이다. 상기 제4 정보는 예컨대, 전술한 제3 정보와 동일한 방식 즉, 상기 PSI의 PAT, PMT, PSIP의 MGT, VCT, EIT, DVB-SI의 NIT, SDT, EIT 등이나 상기 테이블들에 속한 디스크립터로 정의 가능하다. 또는 전혀 새로운 UHD 서비스 전송 테이블이나 디스크립터를 정의할 수도 있다. 상기 제4 정보는 적어도 하나 이상의 다음 필드들을 포함할 수 있다. num_linked_media 필드는, 원본 초고해상도 방송을 구현하기 위해 현재 전달 매체 외에 다른 서비스나 매체를 통해 제공되는 연계 미디어의 개수를 나타낼 수 있다. linked_media_type 필드는 연계된 미디어의 종류를 나타낼 수 있는 필드인데, 이 필드 00이면, 동일한 방송 전송 매체 중 다른 서비스, 채널 또는 프로그램에 현재 기술하고자 하는 프로그램(서비스)의 연계된 정보가 전송됨을 나타낼 수 있다. linked_media_type가 01이면 프로그램에 현재 기술하고자 하는 프로그램(서비스)의 연관된 정보가 인터넷과 같은 다른 전송매체를 통해 전송될 수 있음을 나타낼 수 있다. Linked_media_sync_type 필드는, 연결될 UHD 서브 서비스가 수신기에서 어떻게 획득되어 동기화될 수 있는지를 예시한다.
UHD 서비스와 관련하여, 시그널링 정보의 시나리오의 하나는 다음과 같다. UHD 스트림에 포함되는 연관된 스트림이 동일한 미디어 매체로 전달될 경우(linked_media_type==0)는 Linked_UHD_sub_service_type, associated_service_TSID, associated_service_original_network_id, associated_service_id를 포함할 수 있고, UHD 스트림에 포함되는 연관된 스트림이 다른 미디어 매체로 전달될 경우(linked_media_type==1)는, Linked_UHD_sub_service_type, internet_linkage_information()를 포함할 수 있다.
그 밖에, UHD 서비스와 관련한 시그널링 정보는, 제1 내지 제4 정보에 또는 새롭게 정의되는 정보에 다음과 같은 필드들 중 적어도 하나 이상을 더 포함할 수 있다. associated_service_TSID 필드는, 완전한 초고해상도 서비스를 제공하기 위해 이 디스크립터가 기술하고 있는 프로그램(서비스)와 결합될 스트림을 포함한 프로그램(서비스)에 대한 transport_stream_id 값을 나타낼 수 있다. associated_service_original_network_id 필드는, 완전한 UHD 서비스를 제공하기 위해 이 디스크립터가 기술하고 있는 프로그램(서비스)과 결합될 스트림을 포함한 서비스의 original_network_id 값을 나타낼 수 있다. associated_service_id 필드는, 완전한 UHD 서비스를 제공하기 위해 이 디스크립터가 기술하고 있는 프로그램(서비스)과 결합될 스트림을 포함한 서비스의 service_id 값을 나타낼 수 있다. service_id 이외에 유사한 방식으로 linked_program_number 필드를 포함할 수도 있다.
이 경우 linked_program_number는 PMT의 program_number 필드와 유사한 의미를 가지는 것으로서, 결합 가능한 스트림에 대한 프로그램 번호를 식별한다. internet_linkage_information는 완전한 UHD 프로그램(서비스)를 제공하기 위해 연결된 인터넷 연결 정보를 표시하는 것으로서, (1) IP 어드레스 정보가 32 비트 또는 128 비트인지, (2) IP address 정보 (3) Port number 정보, (4) 추가 스트림에 대한 URI(Uniform Resource Identifier)와 같은 부가 정보, (5) available time slot (예를 들어, 서비스 전송을 위한 start time, expiration time 등) 중 적어도 하나 이상을 포함할 수 있다.
한편, 시그널링 정보는 다음 필드들 중 적어도 하나 이상을 더 포함할 수 있다.
UHD_service_type으로, 현재 기술되는 스트림에 따른 서비스만으로 지원 가능한 서브 서비스의 종류를 나타낼 수 있다. 예를 들어, UHD_service_type 필드가 000인 경우, 현재 서비스 내에 단독으로 출력 가능한 스트림이 전혀 없음을 나타낼 수 있다. 즉, 이 필드는 현재 기술되는 스트림 내에는 non-compatible stream만 존재하고, UHD 서비스를 위해 현재의 기술되는 서비스(프로그램) 외에, 다른 서비스 또는 미디어를 통해 추가적인 데이터를 수신할 수 있음을 나타낼 수 있다. UHD_service_type 필드가 001인 경우, 현재 기술되는 UHD 서비스 내에 HD compatible stream 이 포함되지만, 4K UHD 또는 8K UHD 서비스를 단독으로 지원할 수는 없음을 나타낼 수 있다. 따라서, UHD 서비스를 위해 현재 기술되는 서비스(프로그램)에서 제공되는 데이터 외에도, 다른 서비스 또는 미디어를 통해 추가적인 데이터를 수신할 수 있음을 나타낼 수 있다. UHD_service_type 필드가 010인 경우, 현재 기술되는 UHD 서비스 내에 4K UHD compatible stream은 포함되지만, HD 또는 8K UHD 서비스 단독으로 지원할 수는 없음을 나타낼 수 있다. 따라서, UHD 서비스를 위해 현재 기술되는 서비스(프로그램)에서 제공되는 데이터 외에도, 다른 서비스 또는 미디어를 통해 추가적인 데이터를 수신할 수 있음을 나타낼 수 있다. UHD_service_type 필드가 011인 경우, 현재 기술되는 UHD 서비스 내에 원본 UHD 방송 지원에 필요한 모든 스트림이 포함되어 있음을 나타낼 수 있다. 여기서 원본 UHD 방송이란, original_UHD_resolution 값에 해당하는 UHD 방송을 의미한다. 여기서, original_UHD_resolution 필드가 00인 경우 3840x2160의 4k UHD 해상도를, 01이 경우 7680×4320의 8k UHD 해상도를 나타낼 수 있다. 여기에 표시하지는 않았지만, 4096×2160의 해상도의 화면 포맷도 original_UHD_resolution 필드 값에 시그널링될 수도 있다. 그런 경우, HD compatibility를 위해 해당 스트림의 비디오 인코딩 과정에서 크롭 렉텡귤러(crop rectangle) 관련 파라미터 (frame_crop_left_offset, frame_crop_right_offset, frame_crop_top_offset, frame_crop_bottom_offset 등)을 추가로 사용할 수도 있다. 이때, 비디오 디코더는 출력 데이터를 1920×1080으로 설정하거나 바 데이터(bar data)를 이용해 HD compatible 한 비디오 신호를 구성하는 방법 등을 사용할 수 있다. Linked_media_sync_type 필드는, 링크된 UHD 비디오를 어떻게 얻을 수 있는지 기술하는 필드이다. 예시한 바와 같이 서브 스트림 또는 서브 비디오가 UHD 서비스를 위한 비디오 컴포넌트가 될 수 있다. 그리고, 서브 스트림은 또는 서브 비디오는 하나 이상의 방송 채널을 이용하여 전송될 수도 있고, 하나 이상의 방송 채널과 다른 물리 매체를 통해 전송될 수도 있다. 예를 들어 제 1 서브 스트림은 지상파 방송 채널로 전송되고, 제 2, 3, 4 서브 스트림은 인터넷의 IP 스트림으로 전송되는 예가 그 예가 될 수 있다. 따라서, 별개의 전송 수단을 통해 전송되는 비디오 컴포넌트들이 전송될 경우 어떻게 동기될 수 있는지 시그널링될 수 있다. 따라서, 싱크로너스 딜리버리(synchronous delivery)는 두 개 이상의 컴포넌트가 실시간 전송되는 경우를 나타내고, 이 경우 수신기에서 이 두 개 이상의 컴포넌트들은 동기화되어 표출된다. 어싱크로너스 딜리버리(asynchronous delivery)는 어느 하나의 컴포넌트가 비실시간으로 전송될 경우를 나타내는데 이 경우 수신기는 제 1 컴포넌트를 미리 저장된 후 이후에 전송되는 다른 컴포넌트를 수신하여 이들 컴포넌트를 함께 동기하여 표출한다. 예를 들어 Linked_media_sync_type 필드 값이 000인 경우, 링크된 UHD 서브 스트림(서비스)들에 대해, 싱크로너스 UHD 딜리버리(synchronous UHD delivery)만 가능하다는 것을 나타낸다. 따라서, 이 경우 링크된 UHD 서브 스트림(서비스)들은 실시간 전송되고 서로 동기화되어 UHD 서비스 표출이 가능하다. Linked_media_sync_type 필드 값이 001인 경우, 링크된 UHD 서브 스트림(서비스)들에 대해 어싱크로너스 UHD 딜리버리(asynchronous UHD delivery)가 가능하고, 링크 정보(예를 들면, associated_service_TSID, associated_service_original_network_id, associated_service_id, internet_linkage_information 등)에 의해 참조되는 UHD 서브 스트림(서비스)들이 이후에 전송된다는 것을 의미한다. 따라서, 이 경우 링크된 UHD 서브 스트림(서비스)들은 비실시간 전송되고 수신기는 링크 정보를 수신하면 비실시간으로 전송되는 UHD 서브 스트림(서비스)들을 서로 동기화하여 UHD 서비스 표출을 할 수 있다. Linked_media_sync_type 필드 값이 010인 경우, 링크된 UHD 서브 스트림(서비스)들에 대해 어싱크로너스 UHD 딜리버리(asynchronous UHD delivery)가 가능하고, 링크 정보(예를 들면, associated_service_TSID, associated_service_original_network_id, associated_service_id, internet_linkage_information 등)에 의해 참조되는 UHD 서브 스트림(서비스)들이 이미 전송되었다는 것을 의미한다. 따라서, 이 경우 링크된 UHD 서브 스트림(서비스)들은 이미 비실시간 전송되었고 수신기는 링크 정보를 이용하여 서로 다른 시점에 전송된 UHD 서브 스트림(서비스)들을 서로 동기화하여 UHD 서비스 표출을 할 수 있다. Linked_media_sync_type 필드 값이 011인 경우, 링크된 UHD 서브 스트림(서비스)들에 대해 싱크로너스 UHD 딜리버리(synchronous UHD delivery)와 어싱크로너스 UHD 딜리버리(asynchronous UHD delivery) 모두가 가능하고, 링크 정보(예를 들면, associated_service_TSID, associated_service_original_network_id, associated_service_id, internet_linkage_information 등)에 의해 참조되는 UHD 서브 스트림(서비스)들이 추후 다시 재전송되거나 현재 이벤트와 동시에 전송되고 있음을 나타낸다. Linked_media_sync_type 필드 값이 100인 경우, 링크된 UHD 서브 스트림(서비스)들에 대해 싱크로너스 UHD 딜리버리(synchronous UHD delivery)와 어싱크로너스 UHD 딜리버리(asynchronous UHD delivery) 모두가 가능하고, 링크 정보(예를 들면, associated_service_TSID, associated_service_original_network_id, associated_service_id, internet_linkage_information 등)에 의해 참조되는 UHD 서브 스트림(서비스)들이 이미 전송되었고 현재 이벤트와 동시에 전송되고 있음을 나타낸다. 서브 스트림 디스크립터는 각 스트림 별 서술자를 포함할 수 있다. 그런데 이런 경우, 각 스트림의 호환성 및 샘플링 팩터(sampling factor) 정보는 알 수 있지만, 원본 UHD 방송의 전체 구성 정보에 대해서는 없으므로 UHD 방송을 제공하기 위해 program/channel/service 레벨에서 제공해야 하는 UHDTV 방송의 전체 구성 정보를 시그널링할 수 있다. 해당 정보로는 구성 스트림의 개수, 각 스트림이 포함된 채널/서비스 정보, 각 스트림이 실시간으로 전송되는지 비실시간으로 전송되는지 여부 등이 있을 수 있으며 이에 대해서는 컴바인 디스크립터에서 해당 정보를 기술하였다. 각 채널에서 제공되는 UHD sub-service 들의 동기화 여부에 따라 수신기의 동작이 달라질 수 있으므로, 본 발명에서는 이를 고려한 시그널링을 개시하였다. 즉, UHD sub-service는 모두 동기화되어 받는 즉시 실시간으로 출력될 수도 있고, 또는 비동기식으로 구성되어 일부 또는 전체가 일단 수신단에 저장된 후에, 나중에 온 컴퍼넌트들과 결합되어 출력되는 경우도 있을 수 있다.
비디오 엘리먼터리 스트림의 헤더는 도 14에서 예시한 SEI(Supplemental Enhancement Information) 메세지의 포맷을 가질 수 있다.
도 14는 비디오 엘리먼터리 스트림의 SEI payload의 포맷을 예시한다. SEI 페이로드의 페이로드 타입이 5인 경우, user_data_registered_itu_t_t35()에 따른 페이로드 포맷을 가질 수 있다.
여기서, user_identitier 필드는 0x4741 3934의 값을 가질 수 있고, user_structure는 이하에서 예시한 형식을 가질 수 있다. 그리고, user_data_type_code가 0x1B 인 경우 user_data_type_structure()는 UHD 비디오를 서브 샘플링한 방식에 따른 서브 스트림을 기술하는 UHD_sampling_info의 정보가 포함될 수 있다.
비디오 엘리먼터리 스트림의 SEI(Supplemental enhancement information) message의 형식으로, SEI message의 payloadType이 37인 경우 샘플링 정보(UHD_sampling_info)가 포함될 수 있다.
도 15는 본 발명의 일 실시예에 따른 4k 초고해상도 서비스 처리 구성을 통해 8k 초고해상도 서비스 처리를 위한 구성 블록도를 도시한 도면이다.
도 15를 참조하면, 입력되는 신호는 4k 60Hz의 초고해상도 비디오 데이터이다. 이는 도시된 바와 같이, 지상파나 케이블을 통해 수신될 수도 있고, HDMI 인터페이스를 통해 또는 USB를 통해 입력될 수 있다.
이렇게 입력된 4k 60Hz의 초고해상도 비디오 데이터는 초고해상도 서비스 처리부를 포함한 메인 SoC(1510)에서 4k 60Hz로 처리된 후에 출력부를 통해 FRC 처리부로 전달된다.
이때, 본 발명에 따른 FRC 처리부는 싱글-FRC 구조를 가질 수도 있고, 멀티-FRC 구조를 가질 수 있는데, 도 15에서는 멀티-FRC 구조를 도시한 것이다. 여기서, 입력 데이터가 4k 60Hz의 초고해상도 비디오 데이터인 경우에는, 싱글 FRC 구조와 같이, 싱글 FRC 만으로 처리된다.
각 FRC는 입력 인터페이스부와 출력 인터페이스부, MEMC, 4K T-con 등을 포함하여 구성된다.
여기서, 입력 인터페이스부는 상기 초고해상도 서비스 처리부(메인 SoC)(1510)로부터 소스를 전달받는 구성이고, 출력 인터페이스부는 처리된 초고해상도 비디오 데이터를 출력부를 전달하는 구성이다. 한편, 입력 인터페이스는 사용자의 요청이나 입력 데이터가 8k 초고해상도 비디오 데이터로 식별되는 경우에는 다음 FRC로 전달하는 역할도 한다.
한편, 입력 인터페이스부는 4k 또는 8k 초고해상도 비디오 데이터뿐만 아니라 OSD 데이터도 수신한다. 이때, OSD 데이터는 입력 데이터와 같은 포맷을 가진다. 즉, 입력 데이터가 4k 60Hz의 초고해상도 비디오 데이터이면 그에 따라 출력될 수 있도록 4k 30Hz의 OSD 데이터가 될 수 있다.
MEMC부는, 입력되는 4k 60Hz 초고해상도 비디오 데이터와 4k 30Hz OSD 데이터를 MEMC 처리한다.
4k T-con은, MEMC 처리된 비디오 데이터와 OSD 데이터는 8k 120Hz로 가변 처리를 한다.
N개의 FRC로 구성된 멀티-FRC를 예시하는데, 본 명세서에서는 본 발명의 이해를 돕고 설명의 편의를 위해 4개를 예시한다. 따라서, 상기 N은 4일 수 있다.
제1 FRC(1520)는, 입력 데이터로부터 1/4에 해당하는 4k 60Hz 초고해상도 데이터(제1 영역 데이터)가 2k*4k 120Hz가 되고, 이는 제1 8k 120Hz 초고해상도 데이터가 된다.
제2 FRC(1530)는, 입력 데이터로부터 1/4에 해당하는 4k 60Hz 초고해상도 데이터(제2 영역 데이터)가 2k*4k 120Hz가 되고, 이는 제2 8k 120Hz 초고해상도 데이터가 된다.
제3 FRC(1540)는, 입력 데이터로부터 1/4에 해당하는 4k 60Hz 초고해상도 데이터(제3 영역 데이터)가 2k*4k 120Hz가 되고, 이는 제3 8k 120Hz 초고해상도 데이터가 된다.
제4 FRC(1550)는, 입력 데이터로부터 1/4에 해당하는 4k 60Hz 초고해상도 데이터(제4 영역 데이터)가 2k*4k 120Hz가 되고, 이는 제4 8k 120Hz 초고해상도 데이터가 된다.
이때, 각 FRC는 원본 4k 60Hz 초고해상도 데이터로부터 각각 미리 처리할 영역을 나누어서 개별 처리한다. 이는 제1 FRC(1520)에서 해당 영역에 대한 데이터를 처리한 후 또는 처리와 동시에 제2 FRC(1530)로 전달하고, 제2 FRC(1530)도 동일한 방식으로 제3 FRC(1540)으로 전달하고, 제3 FRC(1540) 역시 동일한 방식으로 제4 FRC(1550)으로 전달함으로써 중복되는 영역의 처리를 미연에 방지할 수 있다.
이렇게 n개의 FRC로부터 처리된 각 영역의 8k 120Hz 초고해상도 비디오 데이터를 취합하여 믹서나 아웃풋 포맷터에서 적절히 처리함으로써 출력부에서는 4k 60Hz 초고해상도 비디오 데이터를 8k 120Hz 초고해상도 비디오 데이터로 처리 가능하게 된다.
도 15에서는 n개의 FRC 즉, 멀티-FRC 구조가 케스케이드(cascade) 방식으로 연결되었다.
한편, 상기 n개의 FRC 구조는 입력 데이터에 따라 그리고 사용자의 요청에 따라 n개 중 1개 또는 복수 개의 FRC가 인에이블되어 입력되는 초고해상도 비디오 데이터를 적절히 처리하게 된다.
예컨대, n개 중 1개의 FRC만 인에이블된 경우에는, 4k 초고해상도 비디오 데이터의 처리가 가능하다. N개 중 2개의 FRC가 인에이블된 경우에는 8k 60Hz의 초고해상도 비디오 데이터의 처리가 가능하다. 또한, n개 중 4개의 FRC가 인에이블된 경우에는 8k 120Hz의 초고해상도 비디오 데이터의 처리가 가능하다.
한편, 본 발명에서는 OSD 데이터 역시, 사용자의 요청에 따라 적절하게 처리될 수 있도록 할당되고 인에이블되는 FRC에서 초고해상도 비디오 데이터와 함께 처리함으로써 사용자에게 불편함을 최소화할 수 있다.
도 16은 본 발명의 다른 실시예에 따른 4k 초고해상도 서비스 처리 구성을 통해 8k 초고해상도 서비스 처리를 위한 구성 블록도를 도시한 도면이다.
도 16은 도 15와 달리 싱글 시스템이 아닌 듀얼 시스템을 구현한 것이다. 이하에서는 도 15와 상이한 점을 위주로 설명하고 그와 동일 유사한 부분은 전술한 내용을 원용한다.
즉, 도 16에서는 듀얼 즉, 두 개의 4k 60Hz 초고해상도 비디오 데이터가 입력되고, 이를 각각 8k 초고해상도 비디오 데이터로 처리한다.
도 16에서도 초고해상도 처리부를 포함한 메인 SoC(1610)를 거쳐 n을 4로 하여 각 4k 60Hz 초고해상도 비디오 데이터에 2개의 FRC를 할당함에 따라 출력되는 각 8k 초고해상도 비디오 데이터는 60Hz가 된다. 따라서, n의 숫자를 더 늘리면 즉, FRC를 더 구비하면, 8k 120Hz 초고해상도 비디오 데이터의 처리도 당연히 가능하다.
한편, 도 16에서는 듀얼로 입력되는 각 4k 60Hz 초고해상도 비디오 데이터를 처리하기 위해 초고해상도 비디오 처리부(메인 SoC)(1610)는 도 15와 달리 4k 60Hz 초고해상도 비디오 디코더를 2개 구비한다. 또한, 다른 구성 역시, 도 15의 배를 가질 수 있다.
또한, 상기 듀얼로 입력되는 각 4k 60Hz 초고해상도 비디오 데이터는 각각 서로 다른 매체나 인터페이스를 통해 동시 또는 이시에 입력될 수 있다.
제1 4k 60Hz 초고해상도 비디오 데이터는 제1 FRC(1622)와 제2 FRC(1624)에서 각각 1/2 영역을 나누어 처리하여 결국 하나의 8k 60Hz 초고해상도 비디오 데이터를 출력한다.
제2 4k 60Hz 초고해상도 비디오 데이터는 제3 FRC(1632)와 제4 FRC(1634)에서 각각 1/2 영역을 나누어 처리하여 결국 또 다른 하나의 8k 60Hz 초고해상도 비디오 데이터를 출력한다.
한편, 도시되진 않았으나, 입력된 신호에 포함된 비디오 데이터가 8k 초고해상도 비디오 데이터인 경우에는 초고해상도 서비스 처리부에서 디코딩하지 않고, 이를 바로 멀티-FRC로 전달하여, 각 FRC에서 적절히 처리될 수도 있다.
한편, 도 10에서와 같이, 멀티-FRC 구조에서는 풀-HD 비디오 데이터는 FRC를 거치지 않음으로써 처리 가능하고, 입력되는 비디오 데이터가 풀-HD 비디오 데이터인 경우에는 FRC를 적절히 할당하고 인에이블하여 초고해상도 비디오 데이터로 가변 처리도 가능하다.
도 17은 본 발명의 일 실시예에 따른 4k 초고해상도 서비스 처리 구성을 통해 8k 초고해상도 서비스 처리 시에 심리스 UI(Seamless UI) 제공을 위한 방법을 설명하기 위해 도시한 도면이다.
본 발명에 따라 풀-HD 또는 4k 초고해상도 비디오 데이터를 8k 초고해상도 비디오 데이터로 가변 처리하는 경우에는 전술한 바와 같이, OSD 데이터 등 UI 등도 그에 따라 동일한 포맷으로 처리해 줄 필요가 있다.
다만, 이는 단지 FRC 처리만으로는 심리스하게 처리하는 것이 용이하지 않아 무손실 프레임 버퍼 압축 알고리즘, 제로-카피 오퍼레이션 등을 활용할 수 있다. 이러한 무손실 프레임 버퍼 압축 알고리즘, 제로-카피 오퍼레이션 등의 방식은 종래 공지된 내용을 이용한 것으로 본 명세서에서 이에 대한 상세한 설명은 생략한다. 다만, 이러한 무손실 프레임 버퍼 압축 알고리즘, 제로-카피 오퍼레이션 등은 원래 정의된 방식이 아니라 본 발명에서 심리스 UI 제공을 위해 이용되는 것이다.
도 17을 참조하면, 비디오 디코더(1710)는 입력되는 초고해상도 비디오 데이터를 디코딩하고 비디오 메모리에 일시 저장 후에 GPU 메모리(1712)로 전달한다.
3D GPU(1720)는 홈 대시보드, 3D 애플리케이션, 브라우저, 게임 등의 애플리케이션에 관한 OSD 데이터 또는 UI 데이터를 처리하고 이를 GPU 메모리로 전달한다.
3D GPU(1740)는 각 GPU 메모리로부터 저장된 데이터를 수신하여 CPU(1750)로 전달하거나 2D Gfx 처리부(1760)로 전달한다. CPU(1750)는 3D GPU(1740)와 Gfx 메모리로부터 수신한 데이터를 처리한 후에 2D Gfx 처리부(1760)로 전달한다.
2D Gfx(1730)는 Air, MHEG, TTX, ACAP, 홈 메뉴와 같은 애플리케이션을 처리하고 Gfx 메모리에 일시 저장한다.
GPU 메모리에 일시 저장된 데이터는 3D GPU(1740)로 전달되고, 이후 Gfx 메모리에 저장된 데이터와 함께 2D Gfx 처리부(1760)에서 최종 콤포지션, 로테이션, 그래픽 효과 처리를 하여 최종 이미지가 형성이 된다. 이때, 형성되는 최종 이미지는 초고해상도 비디오 데이터와 각종 OSD, UI 데이터가 콤포지션된 이미지 데이터가 된다.
이러한 이미지 데이터는 프레임 버퍼 메모리에 일시 저장된 후에 순차로 출력부를 통해 출력된다.
이를 통해, 시스템 전반적인 안정성을 확보하여 최적화 양산 시간을 단축할 수 있고, 복잡한 멀티-태스킹에도 대응할 수 있으며, 초고해상도 비디오 데이터의 출력의 경우에도 적절한 UI를 제공 가능하며, 실시간으로 UI 사이즈를 변경하거나 아이콘 등의 이동 등 변경 처리가 가능해진다. 또한, 메모리를 효율적으로 사용 가능하며, 3D GPU의 태스킹 성능을 높일 수 있다.
도 18은 본 발명의 일 실시예에 따른 초고해상도 서비스 처리 방법을 설명하기 위해 도시한 도면이고, 도 19는 본 발명의 다른 실시예에 따른 초고해상도 서비스 처리 방법을 설명하기 위해 도시한 도면이다.
도 18을 참조하면, 디지털 디바이스는 제1 초고해상도 비디오 데이터(4k)와 상기 제1 초고해상도 비디오 데이터를 위한 시그널링 데이터가 포함된 신호를 수신한다(S1810).
디지털 디바이스는, 상기 신호로부터 시그널링 데이터를 디코딩(파싱)(S1820)하고, 디코딩된 시그널링 데이터로부터 상기 비디오 데이터가 제1 초고해상도 비디오 데이터임을 식별한다(S1830).
디지털 디바이스는, 사용자로부터 상기 식별된 제1 초고해상도 비디오 데이터의 제2 초고해상도 비디오 데이터(8k)로 가변 요청을 수신되는지 판단한다(S1840).
상기 S1840 단계의 가변 요청이 수신되지 않으면, 파싱된 시그널링 데이터에 기초하여 싱글-FRC를 통해 초고해상도 비디오 데이터를 디코딩하고(S1842), 디코딩된 4k 초고해상도 비디오 데이터를 출력(S1850)한다.
다만, 상기 S1840 단계의 가변 요청이 수신된 경우에는, 멀티-FRC를 통해 4k 초고해상도 비디오 데이터를 가변 처리한다(S1844).
이후 가변 처리된 8k 초고해상도 비디오 데이터를 출력한다(S1850).
도 19를 참조하면, 디지털 디바이스는, 제1 초고해상도 비디오 데이터와 상기 제1 초고해상도 비디오 데이터를 위한 시그널링 데이터가 포함된 신호를 수신한다(S1910).
디지털 디바이스는, 상기 신호로부터 시그널링 데이터를 디코딩(S1920)하고, 디코딩된 시그널링 데이터로부터 상기 비디오 데이터가 초고해상도 비디오 데이터임을 식별한다(S1930).
디지털 디바이스는, 식별된 초고해상도 비디오 데이터가 4k인지 아니면 8k인지 판단한다(S1940).
상기 S1940 판단 결과, 식별된 초고해상도 비디오 데이터가 8k 초고해상도 비디오 데이터이면, 멀티-FRC를 통해 가변 처리한다(S1944).
그러나, S1940 판단 결과, 식별된 초고해상도 비디오 데이터가 4k 초고해상도 비디오 데이터이면, 싱글-FRC를 통해 처리한다(S1942).
이후 S1942에서 싱글-FRC 처리된 4k 초고해상도 비디오 데이터 또는 S1944에서 멀티-FRC 처리된 8k 초고해상도 비디오 데이터를 출력한다(S1950).
여기서, 상기 제1 초고해상도 비디오 데이터는 4k 초고해상도 비디오 데이터이고, 상기 제2 초고해상도 비디오 데이터는 8k 초고해상도 비디오 데이터일 수 있다.
그리고, 상기 제1 초고해상도 비디오 데이터는, HDMI 입력, 지상파, 케이블 및 IP 중 적어도 하나의 매체 내지 인터페이스를 통해 입력되는 것일 수 있으며, 상기 시그널링 데이터는, PSI/PSIP 방식, DVB-SI 방식 또는 SEI message 중 적어도 하나를 포함할 수 있다.
또한, 상기 가변 처리는, 상기 제1 초고해상도 비디오 데이터를 상기 제2 초고해상도 비디오 데이터로 처리하기 위해 복수의 FRC 처리부를 포함하여 멀티-FRC 구조를 통해 이루어질 수 있다. 상기 멀티-FRC 구조는, 상기 가변 처리를 위해 모든 FRC가 케스케이스(cascade) 방식으로 연결될 수 있다. 상기 밀티-FRC 구조는, 상기 가변 처리를 위해 복수의 FRC가 듀얼 방식으로 연결되는 것일 수 있다. 한편, 상기 멀티-FRC 구조로부터 2개의 FRC가 인에이블되면, 제1 초고해상도 비디오 데이터를 8k 60Hz 전용의 제2 초고해상도 비디오 데이터로 가변 처리할 수 있다. 또한, 상기 멀티-FRC 구조로부터 2개의 FRC가 인에이블되면, 제1 초고해상도 비디오 데이터를 8k 120Hz 전용의 제2 초고해상도 비디오 데이터로 가변 처리할 수 있다.
이상 상술한 본 발명에 따를 경우, 종래 풀-HD TV 서비스를 넘어 4K, 8K 등 초고해상도 서비스(UHD service)를 하나의 TV를 통해 서비스하기 위한 디바이스 구성을 제공할 수 있고, 입력되는 초고해상도 서비스의 타입에 관계없이 하나의 디바이스에서 모든 초고해상도 서비스를 제공할 수 있으며, 입력 소스(input source)와 사용자의 선택에 따라 4K 또는 8K 등 초고해상도 서비스를 사용자에게 제공할 수 있는 플렉서빌러티(flexibility)를 구비한 디바이스를 제공할 수 있고, 4K 초고해상도 서비스 지원을 위한 디바이스로부터 간단하게 8K 초고해상도 서비스 지원 디바이스로 확장성을 보장함으로써 칩, 하드웨어, 소프트웨어 플랫폼 등 설계 편의와 사용자의 요청에 적응적인 초고해상도 서비스 지원 디바이스를 지원할 수 있다.
본 명세서에서 개시하는 디지털 디바이스 및 상기 디지털 디바이스에서 서비스 처리 방법은 상기 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 명세서에서 개시된 디지털 디바이스의 동작방법은 디지털 디바이스에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM(Read Only Memory), RAM(Random Access Memory), CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 인터넷을 통한 전송 등과 같은 캐리어-웨이브(carrier-wave)의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
한편, 본 명세서에서는 첨부된 도면을 참조하여 설명하였으나, 이는 실시 예일 뿐 특정 실시 예에 한정되지 아니하며, 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 변형실시가 가능한 다양한 내용도 청구범위에 따른 권리범위에 속한다. 또한, 그러한 변형실시들이 본 발명의 기술 사상으로부터 개별적으로 이해되어서는 안 된다.
401: 네트워크 인터페이스부 402: TCP/IP 매니저
403: 서비스 전달 매니저 404: SI 디코더
405: 역다중화부 406: 오디오 디코더
407: 비디오 디코더 408: 디스플레이부
409: 서비스 제어 매니저 410: 서비스 디스커버리 매니저
411: SI & 메타데이터 데이터베이스 412: 메타데이터 매니저
413: 서비스 매니저 414: UI 매니저

Claims (20)

  1. 제1 초고해상도 비디오 데이터와 상기 제1 초고해상도 비디오 데이터를 위한 시그널링 데이터가 포함된 신호를 수신하는 단계;
    상기 신호로부터 시그널링 데이터를 디코딩하고, 디코딩된 시그널링 데이터로부터 상기 비디오 데이터가 제1 초고해상도 비디오 데이터임을 식별하는 단계;
    사용자로부터 상기 식별된 제1 초고해상도 비디오 데이터의 가변 요청이 수신하는 단계;
    수신된 사용자의 가변 요청에 따라 상기 제1 초고해상도 비디오 데이터를 제2 초고해상도 비디오 데이터로 가변 처리하는 단계; 및
    가변 처리된 제2 초고해상도 비디오 데이터를 출력하는 단계를 포함하여 이루어지는 초고해상도 비디오 데이터 처리 방법.
  2. 제1항에 있어서,
    상기 제1 초고해상도 비디오 데이터는 4k 초고해상도 비디오 데이터이고, 상기 제2 초고해상도 비디오 데이터는 8k 초고해상도 비디오 데이터인 것을 특징으로 하는 초고해상도 비디오 데이터 처리 방법.
  3. 제2항에 있어서,
    상기 제1 초고해상도 비디오 데이터는, HDMI 입력, 지상파, 케이블 및 IP 중 적어도 하나의 매체 내지 인터페이스를 통해 입력되는 것을 특징으로 하는 초고해상도 비디오 데이터 처리 방법.
  4. 제2항에 있어서,
    상기 시그널링 데이터는,
    PSI/PSIP 방식, DVB-SI 방식 또는 SEI message 중 적어도 하나를 포함하는 것을 특징으로 하는 초고해상도 비디오 데이터 처리 방법.
  5. 제2항에 있어서,
    상기 가변 처리는,
    상기 제1 초고해상도 비디오 데이터를 상기 제2 초고해상도 비디오 데이터로 처리하기 위해 복수의 FRC 처리부를 포함하여 멀티-FRC 구조를 통해 이루어지는 것을 특징으로 하는 초고해상도 비디오 데이터 처리 방법.
  6. 제5항에 있어서,
    상기 멀티-FRC 구조는,
    상기 가변 처리를 위해 모든 FRC가 케스케이스(cascade) 방식으로 연결되는 것을 특징으로 하는 초고해상도 비디오 데이터 처리 방법.
  7. 제5항에 있어서,
    상기 밀티-FRC 구조는,
    상기 가변 처리를 위해 복수의 FRC가 듀얼 방식으로 연결되는 것을 특징으로 하는 초고해상도 비디오 데이터 처리 방법.
  8. 제5항에 있어서,
    상기 멀티-FRC 구조로부터 2개의 FRC가 인에이블되면, 제1 초고해상도 비디오 데이터를 8k 60Hz 전용의 제2 초고해상도 비디오 데이터로 가변 처리하는 것을 특징으로 하는 초고해상도 비디오 데이터 처리 방법.
  9. 제5항에 있어서,
    상기 멀티-FRC 구조로부터 2개의 FRC가 인에이블되면, 제1 초고해상도 비디오 데이터를 8k 120Hz 전용의 제2 초고해상도 비디오 데이터로 가변 처리하는 것을 특징으로 하는 초고해상도 비디오 데이터 처리 방법.
  10. 제1 초고해상도 비디오 데이터와 상기 제1 초고해상도 비디오 데이터를 위한 시그널링 데이터가 포함된 신호를 수신하는 단계;
    상기 신호로부터 시그널링 데이터를 디코딩하고, 디코딩된 시그널링 데이터로부터 상기 비디오 데이터가 초고해상도 비디오 데이터임을 식별하는 단계;
    식별된 초고해상도 비디오 데이터가 8k 초고해상도 비디오 데이터이면, 멀티-FRC 구조를 통해 FRC 처리하는 단계; 및
    FRC 처리된 8k 초고해상도 비디오 데이터를 출력하는 단계를 포함하여 이루어지는 초고해상도 비디오 데이터 처리 방법.
  11. 제1 초고해상도 비디오 데이터와 상기 제1 초고해상도 비디오 데이터를 위한 시그널링 데이터가 포함된 신호를 수신하는 수신부;
    상기 신호로부터 시그널링 데이터를 디코딩하는 디코더;
    사용자로부터 상기 식별된 제1 초고해상도 비디오 데이터의 가변 요청이 수신하는 사용자 인터페이스부;
    디코딩된 시그널링 데이터로부터 상기 비디오 데이터가 제1 초고해상도 비디오 데이터임을 식별하고, 수신된 사용자의 가변 요청에 따라 상기 제1 초고해상도 비디오 데이터를 제2 초고해상도 비디오 데이터로 가변 처리하도록 제어하는 제어부; 및
    가변 처리된 제2 초고해상도 비디오 데이터를 출력하는 출력부를 포함하는 초고해상도 비디오 데이터 처리 장치.
  12. 제11항에 있어서,
    상기 제1 초고해상도 비디오 데이터는 4k 초고해상도 비디오 데이터이고, 상기 제2 초고해상도 비디오 데이터는 8k 초고해상도 비디오 데이터인 것을 특징으로 하는 초고해상도 비디오 데이터 처리 장치.
  13. 제12항에 있어서,
    상기 제1 초고해상도 비디오 데이터는, HDMI 입력, 지상파, 케이블 및 IP 중 적어도 하나의 매체 내지 인터페이스를 통해 입력되는 것을 특징으로 하는 초고해상도 비디오 데이터 처리 장치.
  14. 제12항에 있어서,
    상기 시그널링 데이터는,
    PSI/PSIP 방식, DVB-SI 방식 또는 SEI message 중 적어도 하나를 포함하는 것을 특징으로 하는 초고해상도 비디오 데이터 처리 장치.
  15. 제12항에 있어서,
    상기 제어부는,
    상기 제1 초고해상도 비디오 데이터를 상기 제2 초고해상도 비디오 데이터로 처리하기 위해 복수의 FRC 처리부를 포함하여 멀티-FRC 구조를 통해 가변 처리를 제어하는 것을 특징으로 하는 초고해상도 비디오 데이터 처리 장치.
  16. 제15항에 있어서,
    상기 멀티-FRC 구조는,
    상기 가변 처리를 위해 모든 FRC가 케스케이스(cascade) 방식으로 연결되는 것을 특징으로 하는 초고해상도 비디오 데이터 처리 장치.
  17. 제15항에 있어서,
    상기 멀티-FRC 구조는,
    상기 가변 처리를 위해 복수의 FRC가 듀얼 방식으로 연결되는 것을 특징으로 하는 초고해상도 비디오 데이터 처리 장치.
  18. 제15항에 있어서,
    상기 제어부는,
    상기 멀티-FRC 구조로부터 2개의 FRC가 인에이블되도록 제어하여, 제1 초고해상도 비디오 데이터를 8k 60Hz 전용의 제2 초고해상도 비디오 데이터로 가변 처리되도록 제어하는 것을 특징으로 하는 초고해상도 비디오 데이터 처리 장치.
  19. 제15항에 있어서,
    상기 제어부는,
    상기 멀티-FRC 구조로부터 2개의 FRC가 인에이블되도록 제어하여, 제1 초고해상도 비디오 데이터를 8k 120Hz 전용의 제2 초고해상도 비디오 데이터로 가변 처리되도록 제어하는 것을 특징으로 하는 초고해상도 비디오 데이터 처리 장치.
  20. 제1 초고해상도 비디오 데이터와 상기 제1 초고해상도 비디오 데이터를 위한 시그널링 데이터가 포함된 신호를 수신하는 수신부;
    상기 신호로부터 시그널링 데이터를 디코딩하는 디코더;
    디코딩된 시그널링 데이터로부터 상기 비디오 데이터가 초고해상도 비디오 데이터임을 식별하고, 식별된 초고해상도 비디오 데이터가 8k 초고해상도 비디오 데이터이면, 멀티-FRC 구조를 통해 FRC 처리하도록 제어하는 제어부; 및
    FRC 처리된 8k 초고해상도 비디오 데이터를 출력하는 출력부를 포함하는 초고해상도 비디오 데이터 처리 장치.
KR1020140054189A 2014-05-07 2014-05-07 디지털 디바이스 및 상기 디지털 디바이스에서 서비스 처리 방법 KR102218908B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020140054189A KR102218908B1 (ko) 2014-05-07 2014-05-07 디지털 디바이스 및 상기 디지털 디바이스에서 서비스 처리 방법
US14/705,443 US9848248B2 (en) 2014-05-07 2015-05-06 Digital device and method of processing service thereof
CN201520292660.1U CN204929037U (zh) 2014-05-07 2015-05-07 数字装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140054189A KR102218908B1 (ko) 2014-05-07 2014-05-07 디지털 디바이스 및 상기 디지털 디바이스에서 서비스 처리 방법

Publications (2)

Publication Number Publication Date
KR20150127415A true KR20150127415A (ko) 2015-11-17
KR102218908B1 KR102218908B1 (ko) 2021-02-23

Family

ID=54368981

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140054189A KR102218908B1 (ko) 2014-05-07 2014-05-07 디지털 디바이스 및 상기 디지털 디바이스에서 서비스 처리 방법

Country Status (3)

Country Link
US (1) US9848248B2 (ko)
KR (1) KR102218908B1 (ko)
CN (1) CN204929037U (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102186481B1 (ko) * 2019-05-31 2020-12-03 주식회사 마루이엔지 Atsc 3.0 기반의 지상파 uhdtv 방송 전송용 임베디드 시스템
US11715410B2 (en) 2020-04-29 2023-08-01 Samsung Electronics Co., Ltd. Display apparatus and control method thereof

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8560719B2 (en) * 2011-09-14 2013-10-15 Mobitv, Inc. Fragment server directed device fragment caching
JP6127964B2 (ja) * 2013-12-26 2017-05-17 ソニー株式会社 信号切換装置および信号切換装置の動作制御方法
WO2016166631A1 (en) 2015-04-13 2016-10-20 Semiconductor Energy Laboratory Co., Ltd. Decoder, receiver, and electronic device
CN105306866A (zh) * 2015-10-27 2016-02-03 青岛海信电器股份有限公司 帧率转换方法及装置
CN105704407B (zh) * 2016-01-29 2017-12-22 京东方科技集团股份有限公司 一种显示处理装置、设备及方法
US9800819B2 (en) * 2016-02-19 2017-10-24 Sony Corporation Methodologies and apparatus for reducing delays when receiving, processing, or switching content
CN108156409B (zh) * 2016-12-06 2020-11-24 杭州海康威视数字技术股份有限公司 图像处理方法、设备和***
US11178204B1 (en) * 2017-02-23 2021-11-16 Cox Communications, Inc. Video processor to enhance color space and/or bit-depth
US10643298B2 (en) * 2018-02-14 2020-05-05 Realtek Semiconductor Corporation Video processing system and processing chip
FR3083950B1 (fr) * 2018-07-12 2021-04-30 Ubicast Procede de visualisation d’elements graphiques issus d’un flux video composite encode
CN109743383B (zh) * 2018-12-29 2020-07-03 浩德科技股份有限公司 自适应云计算信道处理平台
CN110072135A (zh) * 2019-05-29 2019-07-30 深圳创维-Rgb电子有限公司 5g电视、基于5g电视的视频播放方法及可读存储介质
CN112449229B (zh) * 2019-09-04 2022-01-28 海信视像科技股份有限公司 一种音画同步处理方法及显示设备
CN114125526B (zh) * 2021-12-24 2024-03-15 北京淳中科技股份有限公司 一种屏幕镜像方法及装置
US20230338843A1 (en) * 2022-04-25 2023-10-26 Mediatek Inc. Image Processing Device and Image Processing Method for Game Loop

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090034108A (ko) * 2007-10-02 2009-04-07 엘지전자 주식회사 영상기기 및 이를 이용한 해상도 조절 방법
US20100128169A1 (en) * 2008-11-26 2010-05-27 Samsung Electronics Co., Ltd. Frame rate conversion apparatus and method for ultra definition image
US20130276046A1 (en) * 2012-04-13 2013-10-17 Electronics And Telecommunications Research Institute Receiving apparatus for receiving a plurality of signals through different paths and method for processing signals thereof
KR101323608B1 (ko) * 2013-07-29 2013-11-01 (주)진명아이앤씨 Uhd급 매트릭스 스위치 장치 및 그 방법
US20130307927A1 (en) * 2012-05-16 2013-11-21 Samsung Electronics Co., Ltd. Content receiving device, display device, and method thereof

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110126346A (ko) * 2010-05-17 2011-11-23 엘지전자 주식회사 해상도 선택 메뉴 제공 방법 및 방송 수신 장치
GB2513140B (en) * 2013-04-16 2016-05-04 Canon Kk Methods, devices, and computer programs for streaming partitioned timed media data
US9038095B2 (en) * 2013-07-03 2015-05-19 Sony Corporation Methods, information providing system, and reception apparatus for distribution of at least one content version
US20150015782A1 (en) * 2013-07-12 2015-01-15 Vixs Systems, Inc. Video processing device for reformatting an audio/video signal and methods for use therewith
US9582852B2 (en) * 2014-04-11 2017-02-28 Vixs Systems, Inc. Video scaling using multiple video paths

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090034108A (ko) * 2007-10-02 2009-04-07 엘지전자 주식회사 영상기기 및 이를 이용한 해상도 조절 방법
US20100128169A1 (en) * 2008-11-26 2010-05-27 Samsung Electronics Co., Ltd. Frame rate conversion apparatus and method for ultra definition image
US20130276046A1 (en) * 2012-04-13 2013-10-17 Electronics And Telecommunications Research Institute Receiving apparatus for receiving a plurality of signals through different paths and method for processing signals thereof
US20130307927A1 (en) * 2012-05-16 2013-11-21 Samsung Electronics Co., Ltd. Content receiving device, display device, and method thereof
KR101323608B1 (ko) * 2013-07-29 2013-11-01 (주)진명아이앤씨 Uhd급 매트릭스 스위치 장치 및 그 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102186481B1 (ko) * 2019-05-31 2020-12-03 주식회사 마루이엔지 Atsc 3.0 기반의 지상파 uhdtv 방송 전송용 임베디드 시스템
US11715410B2 (en) 2020-04-29 2023-08-01 Samsung Electronics Co., Ltd. Display apparatus and control method thereof

Also Published As

Publication number Publication date
CN204929037U (zh) 2015-12-30
US9848248B2 (en) 2017-12-19
US20150326923A1 (en) 2015-11-12
KR102218908B1 (ko) 2021-02-23

Similar Documents

Publication Publication Date Title
KR102218908B1 (ko) 디지털 디바이스 및 상기 디지털 디바이스에서 서비스 처리 방법
US11019373B2 (en) Multimedia device and control method therefor
KR102063075B1 (ko) 서비스 시스템, 디지털 기기 및 그 서비스 처리 방법
KR101763593B1 (ko) 컨텐츠 동기화 방법 및 그 방법을 채용한 사용자 단말기
KR101850719B1 (ko) 서비스 시스템 및 디지털 수신기에서 서비스 제공 방법
EP3316592A1 (en) Display device and control method therefor
KR102348957B1 (ko) 디지털 디바이스 및 그 제어 방법
KR20150075010A (ko) 디지털 디바이스 및 그 제어 방법
KR102381142B1 (ko) 이동 단말기 및 그 제어 방법
KR20160065504A (ko) 멀티미디어 디바이스 및 그 제어 방법
KR101687611B1 (ko) 사용자 인터페이스 제공 방법 및 그 방법을 채용한 시스템
KR20170047547A (ko) 디스플레이 디바이스 및 그 제어 방법
KR20150128010A (ko) 디스플레이 디바이스 및 상기 디스플레이 디바이스에서 컨텐트 처리 방법
KR101715945B1 (ko) 오디오 기기의 오디오 출력 자동 제어 방법
KR20160023419A (ko) 디스플레이 디바이스 및 상기 디스플레이 디바이스에서 vod 서비스 처리 방법
KR20160009415A (ko) 외부 입력장치와 컨텐츠 연동이 가능한 영상표시장치
KR20140098597A (ko) 디지털 기기 및 그 신호 처리 방법
KR20140076119A (ko) 디지털 디바이스 및 그 신호 처리방법
KR20130030952A (ko) 디지털 시스템 및 디지털 시스템에서의 서비스 데이터 처리 방법
KR20160004562A (ko) 디스플레이 디바이스 및 그 제어 방법
KR20170031898A (ko) 디스플레이 디바이스 및 그 제어 방법
KR20150128009A (ko) 디스플레이 디바이스 및 상기 디스플레이 디바이스에서 컨텐트 처리 방법
KR20130127022A (ko) 디지털 수신기 및 디지털 수신기에서의 컨텐트 제어 방법
KR20120125939A (ko) 서비스 시스템 및 디지털 수신기에서 서비스 제공 방법
KR20150061328A (ko) 디지털 디바이스 및 상기 디지털 디바이스에서 서비스 처리 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant