KR20130101928A - 영상표시기기 및 그 동작 방법 - Google Patents

영상표시기기 및 그 동작 방법 Download PDF

Info

Publication number
KR20130101928A
KR20130101928A KR1020120023053A KR20120023053A KR20130101928A KR 20130101928 A KR20130101928 A KR 20130101928A KR 1020120023053 A KR1020120023053 A KR 1020120023053A KR 20120023053 A KR20120023053 A KR 20120023053A KR 20130101928 A KR20130101928 A KR 20130101928A
Authority
KR
South Korea
Prior art keywords
audio signal
image
depth
outputting
moving direction
Prior art date
Application number
KR1020120023053A
Other languages
English (en)
Inventor
강민구
이쌍수
김성만
조기형
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020120023053A priority Critical patent/KR20130101928A/ko
Publication of KR20130101928A publication Critical patent/KR20130101928A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • H04N5/602Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals for digital sound signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명의 실시 예에 따른 영상표시기기의 동작 방법은 영상 신호를 입력 받는 단계와 상기 입력된 영상 신호 내의 오브젝트의 이동 방향 또는 오브젝트의 깊이를 산출하는 단계 및 상기 산출된 오브젝트의 이동 방향 또는 오브젝트의 깊이에 대응하는 오디오 신호를 출력하는 단계를 포함한다.
본 발명의 다양한 실시 예에 따르면, 영상 신호 내의 오브젝트의 이동 방향에 따라 오디오 신호를 출력하여 사용자에게 입체적인 음향을 제공할 수 있다.
또한, 영상 신호 내의 오브젝트의 위치에 따라 오디오 신호를 출력하여 사용자에게 입체적인 음향을 제공할 수 있다.
또한, 영상 신호 내의 오브젝트의 깊이에 따라 오디오 신호를 출력하여 사용자에게 입체적인 음향을 제공할 수 있다.

Description

영상표시기기 및 그 동작 방법{IMAGE DISPLAY APPARATUS AND METHOD FOR OPERATING THEREOF}
본 발명은 영상표시기기 및 그 동작방법에 관한 것으로, 보다 상세하게는 오브젝트의 이동 방향 또는 오브젝트의 깊이에 따라 오디오 신호를 출력할 수 있는 영상표시기기 및 그 동작 방법에 관한 것이다.
영상표시기기는 사용자가 시청할 수 있는 영상을 표시하는 기능을 갖춘 장치이다. 사용자는 영상표시기기를 통하여 방송을 시청할 수 있다. 영상표시기기는 방송국에서 송출되는 방송신호 중 사용자가 선택한 방송을 디스플레이부에 표시한다. 현재 방송은 전세계적으로 아날로그 방송에서 디지털 방송으로 전환하고 있는 추세이다.
디지털 방송은 디지털 영상 및 음성 신호를 송출하는 방송을 의미한다. 디지털 방송은 아날로그 방송에 비해, 외부 잡음에 강해 데이터 손실이 작으며, 에러 정정에 유리하며, 해상도가 높고, 선명한 화면을 제공한다. 또한, 디지털 방송은 아날로그 방송과 달리 양방향 서비스가 가능하다.
또한 최근에는 입체 영상에 대한 다양한 연구가 진행되고 있으며, 컴퓨터 그래픽에서뿐만 아니라 다른 다양한 환경 및 기술에서도 입체 영상 기술이 점점 더 보편화되고 실용화되고 있다.
한편, 영상 기술의 발전과 더불어 음향에 대한 사용자의 관심이 증대되고 있으며, 특히, 입체 음향 기술이 눈부시게 발전하고 있다. 입체 음향 기술은 사용자의 주위에 복수 개의 스피커를 배치하여, 사용자가 정위감과 임장감을 느낄 수 있도록 한다.
그러나, 입체 음향 기술에서는 영상 신호 내의 오브젝트 이동 또는 깊이에 대응하는 음향 효과를 제공하는데 한계가 있다.
본 발명은 영상 신호 내의 오브젝트의 이동 방향에 따라 오디오 신호를 출력할 수 있는 영상표시기기 및 그의 동작 방법의 제공을 목적으로 한다.
본 발명은 영상 신호 내의 오브젝트의 위치에 따라 오디오 신호를 출력할 수 있는 영상표시기기 및 그의 동작 방법의 제공을 목적으로 한다.
본 발명은 영상 신호 내의 오브젝트의 깊이에 따라 오디오 신호를 출력할 수 있는 영상표시기기 및 그의 동작 방법의 제공을 목적으로 한다.
본 발명의 실시 예에 따른 영상표시기기의 동작 방법은 영상 신호를 입력 받는 단계와 상기 입력된 영상 신호 내의 오브젝트의 이동 방향 또는 오브젝트의 깊이를 산출하는 단계 및 상기 산출된 오브젝트의 이동 방향 또는 오브젝트의 깊이에 대응하는 오디오 신호를 출력하는 단계를 포함한다.
본 발명의 또 다른 실시 예에 따른 영상표시기기는 영상을 표시하는 디스플레이부와 오디오 신호를 출력하는 오디오 출력부 및 입력되는 영상 신호 내의 오브젝트의 이동 방향 또는 오브젝트의 깊이를 산출하고, 상기 산출된 오브젝트의 이동 방향 또는 오브젝트의 깊이에 대응하는 오디오 신호를 출력하도록 제어하는 제어부를 포함한다.
한편, 상기 영상표시기기의 동작 방법은 컴퓨터에서 실행시키기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록매체로 구현될 수 있다.
본 발명의 실시 예에 따르면, 다음과 같은 효과가 있다.
첫째, 영상 신호 내의 오브젝트의 이동 방향에 따라 오디오 신호를 출력하여 사용자에게 입체적인 음향을 제공할 수 있다.
둘째, 영상 신호 내의 오브젝트의 위치에 따라 오디오 신호를 출력하여 사용자에게 입체적인 음향을 제공할 수 있다.
셋째, 영상 신호 내의 오브젝트의 깊이에 따라 오디오 신호를 출력하여 사용자에게 입체적인 음향을 제공할 수 있다.
한편 그 외의 다양한 효과는 후술될 본 발명의 실시 예에 따른 상세한 설명에서 직접적 또는 암시적으로 개시될 것이다.
도 1은 본 발명의 일 실시 예에 따른 영상표시기기(100)의 내부 블록도이다.
도 2는 본 발명의 일 실시 예에 따라, 4채널 스피커가 배치되어 있는 영상표시기기(100)의 대략적인 구성을 설명하기 위한 도면이다.
도 3은 본 발명의 제1 실시 예에 따른 영상표시기기의 동작 방법을 설명한 흐름도이다.
도 4는 오브젝트(A)가 디스플레이부(180)의 하단에서 상단으로 이동 시 영상표시기기(100)의 동작을 설명하기 위한 도면이다.
도 5는 오브젝트가 디스플레이부(180)의 좌측에서 우측으로 포물선을 그리며 이동 시 영상표시기기(100)의 동작을 설명하기 위한 도면이다.
도 6은 오브젝트가 원거리에서 근거리로 이동 시 영상표시기기(100)의 동작을 설명하기 위한 도면이다.
도 7은 오브젝트가 디스플레이부(180) 중심의 작은 점의 형상으로부터 큰 점의 형상으로 변하는 경우, 영상표시기기(100)의 동작방법을 설명하기 위한 도면이다.
도 8은 본 발명의 제2 실시 예에 따른 영상표시기기(100)의 동작 방법을 설명한 흐름도이다.
도 9는 깊이(d1)을 갖는 3D 오브젝트(1120)를 구비하는 3D 영상(1110)이 디스플레이부(180)에 표시되는 것을 예시한다.
도 10은 깊이(d2)를 갖는 3D 오브젝트(1220)를 구비하는 3D 영상(1210)이 디스플레이부(180)(180)에 표시되는 것을 예시한다.
이하에서는, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.
도 1은 본 발명의 일 실시예에 따른 영상표시기기의 내부 블록도이다.
도 1을 참조하면, 본 발명의 일실시예에 의한 영상표시기기(100)는 튜너(110), 복조부(120), 외부장치 인터페이스부(130), 네트워크 인터페이스부(135), 저장부(140), 사용자입력 인터페이스부(150), 제어부(170), 디스플레이부(180), 오디오 출력부(185), 및 3D 시청장치(195)를 포함할 수 있다.
튜너(110)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널 또는 기저장된 모든 채널에 해당하는 RF 방송 신호를 선택한다. 또한, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성신호로 변환한다.
예를 들어, 선택된 RF 방송 신호가 디지털 방송 신호이면 디지털 IF 신호(DIF)로 변환하고, 아날로그 방송 신호이면 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)로 변환한다. 즉, 튜너(110)는 디지털 방송 신호 또는 아날로그 방송 신호를 처리할 수 있다. 튜너(110)에서 출력되는 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)는 제어부(170)로 직접 입력될 수 있다.
또한, 튜너(110)는 ATSC(Advanced Television System Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다.
한편, 튜너(110)는, 본 발명에서 안테나를 통해 수신되는 RF 방송 신호 중 채널 기억 기능을 통하여 저장된 모든 방송 채널의 RF 방송 신호를 순차적으로 선택하여 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환할 수 있다.
복조부(120)는 튜너(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다.
예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 ATSC 방식인 경우, 복조부(120)는 8-VSB(7-Vestigal Side Band) 복조를 수행한다. 또한, 복조부(120)는 채널 복호화를 수행할 수도 있다. 이를 위해 복조부(120)는 트렐리스 디코더(Trellis Decoder), 디인터리버(De-interleaver), 및 리드 솔로먼 디코더(Reed Solomon Decoder) 등을 구비하여, 트렐리스 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.
예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 DVB 방식인 경우, 복조부(120)는 COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다. 또한, 복조부(120)는, 채널 복호화를 수행할 수도 있다. 이를 위해, 복조부(120)는, 컨벌루션 디코더(convolution decoder), 디인터리버, 및 리드-솔로먼 디코더 등을 구비하여, 컨벌루션 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.
복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 일예로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.
한편, 상술한 복조부(120)는, ATSC 방식과, DVB 방식에 따라 각각 별개로 구비되는 것이 가능하다. 즉, ATSC 복조부와, DVB 복조부로 구비되는 것이 가능하다.
복조부(120)에서 출력한 스트림 신호는 제어부(170)로 입력될 수 있다. 제어부(170)는 역다중화, 영상/음성 신호 처리 등을 수행한 후, 디스플레이부(180)에 영상을 출력하고, 오디오 출력부(185)로 음성을 출력한다.
외부장치 인터페이스부(130)는, 접속된 외부 장치(190)와 데이터를 송신 또는 수신할 수 있다. 이를 위해, 외부장치 인터페이스부(130)는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다.
외부장치 인터페이스부(130)는, DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북) 등과 같은 외부 장치(190)와 유/무선으로 접속될 수 있다. 외부장치 인터페이스부(130)는 접속된 외부 장치(190)를 통하여 외부에서 입력되는 영상, 음성 또는 데이터 신호를 영상표시기기(100)의 제어부(170)로 전달한다. 또한, 제어부(170)에서 처리된 영상, 음성 또는 데이터 신호를 연결된 외부 장치로 출력할 수 있다. 이를 위해, 외부장치 인터페이스부(130)는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다.
A/V 입출력부는, 외부 장치의 영상 및 음성 신호를 영상표시기기(100)로 입력할 수 있도록, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, RGB 단자, D-SUB 단자 등을 포함할 수 있다.
무선 통신부는, 다른 전자기기와 근거리 무선 통신을 수행할 수 있다. 영상표시기기(100)는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), DLNA(Digital Living Network Alliance) 등의 통신 규격에 따라 다른 전자기기와 네트워크 연결될 수 있다.
또한, 외부장치 인터페이스부(130)는, 다양한 셋탑 박스와 상술한 각종 단자 중 적어도 하나를 통해 접속되어, 셋탑 박스와 입력/출력 동작을 수행할 수도 있다.
한편, 외부장치 인터페이스부(130)는, 3D 시청장치(195)와 데이터를 송수신할 수 있다.
네트워크 인터페이스부(135)는, 영상표시기기(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 네트워크 인터페이스부(135)는, 유선 네트워크와의 접속을 위해, 이더넷(Ethernet) 단자 등을 구비할 수 있으며, 무선 네트워크와의 접속을 위해, WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등이 이용될 수 있다.
네트워크 인터페이스부(135)는, 네트워크를 통해, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크를 통하여 인터넷, 컨텐츠 제공자 등으로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다. 또한, 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있다. 또한, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.
또한, 네트워크 인터페이스부(135)는, 예를 들어, IP(internet Protocol) TV와 접속되어, 양방향 통신이 가능하도록, IPTV용 셋탑 박스에서 처리된 영상, 음성 또는 데이터 신호를 수신하여 제어부(170)로 전달할 수 있으며, 제어부(170)에서 처리된 신호들을 IPTV용 셋탑 박스로 전달할 수 있다.
한편, 상술한 IPTV는, 전송네트워크의 종류에 따라 ADSL-TV, VDSL-TV, FTTH-TV 등을 포함하는 의미일 수 있으며, TV over DSL, Video over DSL, TV overIP(TVIP), Broadband TV(BTV) 등을 포함하는 의미일 수 있다. 또한, IPTV는 인터넷 접속이 가능한 인터넷 TV, 풀브라우징 TV를 포함하는 의미일 수도 있다.
저장부(140)는, 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다.
또한, 저장부(140)는 외부장치 인터페이스부(130)로 입력되는 영상, 음성 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. 또한, 저장부(140)는, 채널 맵 등의 채널 기억 기능을 통하여 소정 방송 채널에 관한 정보를 저장할 수 있다.
저장부(140)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬(EEPROM 등) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 영상표시기기(100)는, 저장부(140) 내에 저장되어 있는 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일 등)을 재생하여 사용자에게 제공할 수 있다.
도 1은 저장부(140)가 제어부(170)와 별도로 구비된 실시예를 도시하고 있으나, 본 발명의 범위는 이에 한정되지 않는다. 저장부(140)는 제어부(170) 내에 포함될 수 있다.
사용자입력 인터페이스부(150)는, 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달한다.
예를 들어, 사용자입력 인터페이스부(150)는, RF(Radio Frequency) 통신 방식, 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 사용자 입력 신호를 수신하거나, 제어부(170)로부터의 신호를 원격제어장치(200)로 송신할 수 있다.
또한, 예를 들어, 사용자입력 인터페이스부(150)는, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 사용자 입력 신호를 제어부(170)에 전달할 수 있다.
또한, 예를 들어, 사용자입력 인터페이스부(150)는, 사용자의 제스처를 센싱하는 센싱부(미도시)로부터 입력되는 사용자 입력 신호를 제어부(170)에 전달하거나, 제어부(170)로부터의 신호를 센싱부(미도시)로 송신할 수 있다. 여기서, 센싱부(미도시)는, 터치 센서, 음성 센서, 위치 센서, 동작 센서 등을 포함할 수 있다.
제어부(170)는, 튜너(110) 또는 복조부(120) 또는 외부장치 인터페이스부(130)를 통하여, 입력되는 스트림을 역다중화하거나, 역다중화된 신호들을 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다.
제어부(170)에서 영상 처리된 영상 신호는 디스플레이부(180)로 입력되어, 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수 있다.
제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 음향 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수 있다.
도 1에는 도시되어 있지 않으나, 제어부(170)는 역다중화부, 영상처리부 등을 포함할 수 있다. 이에 대해서는 도 2를 참조하여 후술한다.
그 외, 제어부(170)는, 영상표시기기(100) 내의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(170)는 튜너(110)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다.
또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상표시기기(100)를 제어할 수 있다.
예를 들어, 제어부(170)는, 사용자입력 인터페이스부(150)를 통하여 수신한 소정 채널 선택 명령에 따라 선택한 채널의 신호가 입력되도록 튜너(110)를 제어한다. 그리고, 선택한 채널의 영상, 음성 또는 데이터 신호를 처리한다. 제어부(170)는, 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 디스플레이부(180) 또는 오디오 출력부(185)를 통하여 출력될 수 있도록 한다.
다른 예로, 제어부(170)는, 사용자입력 인터페이스부(150)를 통하여 수신한 외부장치 영상 재생 명령에 따라, 외부장치 인터페이스부(130)를 통하여 입력되는 외부 장치(190), 예를 들어, 카메라 또는 캠코더로부터의 영상 신호 또는 음성 신호가 디스플레이부(180) 또는 오디오 출력부(185)를 통해 출력될 수 있도록 한다.
한편, 제어부(170)는, 영상을 표시하도록 디스플레이부(180)를 제어할 수 있다. 예를 들어, 튜너(110)를 통해 입력되는 방송 영상, 외부장치 인터페이스부(130)를 통해 입력되는 외부 입력 영상 또는 네트워크 인터페이스부(135)를 통해 입력되는 영상 또는 저장부(140)에 저장된 영상을 디스플레이부(180)에 표시하도록 제어할 수 있다.
이때, 디스플레이부(180)에 표시되는 영상은, 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.
한편, 제어부(170)는 디스플레이부(180)에 표시되는 영상 중에, 소정 오브젝트에 대해 3D 오브젝트로 생성하여 표시되도록 한다. 예를 들어, 오브젝트는, 접속된 웹 화면(신문, 잡지 등), EPG(Electronic Program Guide), 다양한 메뉴, 위젯, 아이콘, 정지 영상, 동영상, 텍스트 중 적어도 하나일 수 있다.
이러한 3D 오브젝트는, 디스플레이부(180)에 표시되는 영상과 다른 깊이를 가지도록 처리될 수 있다. 바람직하게는 3D 오브젝트가 디스플레이부(180)에 표시되는 영상에 비해 돌출되어 보이도록 처리될 수 있다.
한편, 제어부(170)는, 촬영부(미도시)로부터 촬영된 영상에 기초하여, 사용자의 위치를 인식한다. 예를 들어, 사용자와 영상표시기기(100)간의 거리(z축 좌표)를 파악할 수 있다. 그 외, 사용자 위치에 대응하는 디스플레이부(180) 내의 x축 좌표, 및 y축 좌표를 파악할 수 있다.
한편, 도면에 도시하지 않았지만, 채널 신호 또는 외부 입력 신호에 대응하는 썸네일 영상을 생성하는 채널 브라우징 처리부가 더 구비되는 것도 가능하다. 채널 브라우징 처리부는, 복조부(120)에서 출력한 스트림 신호(TS) 또는 외부장치 인터페이스부(130)에서 출력한 스트림 신호 등을 입력받아, 입력되는 스트림 신호로부터 영상을 추출하여 썸네일 영상을 생성할 수 있다. 생성된 썸네일 영상은 그대로 또는 부호화되어 제어부(170)로 입력될 수 있다. 또한, 생성된 썸네일 영상은 스트림 형태로 부호화되어 제어부(170)로 입력되는 것도 가능하다. 제어부(170)는 입력된 썸네일 영상을 이용하여 복수의 썸네일 영상을 구비하는 썸네일 리스트를 디스플레이부(180)에 표시할 수 있다. 이때의 썸네일 리스트는, 디스플레이부(180)에 소정 영상을 표시한 상태에서 일부 영역에 표시되는 간편 보기 방식으로 표시되거나, 디스플레이부(180)의 대부분 영역에 표시되는 전체 보기 방식으로 표시될 수 있다. 이러한 썸네일 리스트 내의 썸네일 영상은 순차적으로 업데이트 될 수 있다.
디스플레이부(180)는, 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호, 제어 신호 또는 외부장치 인터페이스부(130)에서 수신되는 영상 신호, 데이터 신호, 제어 신호 등을 변환하여 구동 신호를 생성한다.
디스플레이부(180)는 PDP, LCD, OLED, 플렉시블 디스플레이부(flexible display)등이 가능하며, 특히, 본 발명의 실시예에 따라, 3차원 디스플레이부(3D display)가 가능한 것이 바람직하다.
3차원 영상 시청을 위해 디스플레이부(180)는, 추가 디스플레이부 방식과 단독 디스플레이부 방식으로 나뉠 수 있다.
단독 디스플레이부 방식은, 별도의 추가 디스플레이부, 예를 들어 안경(glass) 등이 없이, 디스플레이부(180) 단독으로 3D 영상을 구현할 수 있는 것으로서, 그 예로, 렌티큘라 방식, 파라랙스 베리어(parallax barrier) 등 다양한 방식이 적용될 수 있다.
한편, 추가 디스플레이부 방식은, 디스플레이부(180) 외에 추가 디스플레이부를 사용하여 3D 영상을 구현할 수 있는 것으로서, 그 예로, 헤드 마운트 디스플레이부(HMD) 타입, 안경 타입 등 다양한 방식이 적용될 수 있다. 또한, 안경 타입은, 편광 안경 타입 등의 패시브(passive) 방식과, 셔터 글래스(ShutterGlass) 타입 등의 액티브(active) 방식으로 다시 나뉠 수 있다. 한편, 헤드 마운트 디스플레이부 타입에서도 패시브 방식과 액티브 방식으로 나뉠 수 있다.
본 발명의 실시에에서는, 입체 영상 시청을 위해, 3D용 추가 디스플레이부(195)로 3D용 글래스를 중심으로 기술한다. 3D용 글래스(195)는, 패시브 방식의 편광 글래스 또는 액티브 방식의 셔트 글래스를 포함할 수 있으며, 상술한 헤드 마운트 타입도 포함하는 개념으로 기술된다.
한편, 디스플레이부(180)는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.
오디오 출력부(185)는, 제어부(170)에서 음성 처리된 신호를 입력 받아 오디오 신호를 출력한다. 오디오 출력부(185)는 다양한 형태의 스피커로 구현될 수 있다. 일 실시예에서 오디오 출력부(185)는 4채널 스피커를 포함할 수 있고, 이에 대해서는 도 2에서 자세히 설명한다.
한편, 사용자의 제스처를 감지하기 위해, 상술한 바와 같이, 터치 센서, 음성 센서, 위치 센서, 동작 센서 중 적어도 하나를 구비하는 센싱부(미도시)가 영상표시기기(100)에 더 구비될 수 있다. 센싱부(미도시)에서 감지된 신호는 사용자입력 인터페이스부(150)를 통해 제어부(170)로 전달된다.
제어부(170)는, 촬영부(미도시)로부터 촬영된 영상, 또는 센싱부(미도시)로부터의 감지된 신호를 각각 또는 조합하여 사용자의 제스처를 감지할 수 있다.
원격제어장치(200)는, 사용자 입력을 사용자입력 인터페이스부(150)로 송신한다. 이를 위해, 원격제어장치(200)는, 블루투스(Bluetooth), RF(Radio Frequency) 통신, 적외선(IR) 통신, UWB(Ultra Wideband), 지그비(ZigBee) 방식 등을 사용할 수 있다. 또한, 원격제어장치(200)는, 사용자입력 인터페이스부(150)에서 출력한 영상, 음성 또는 데이터 신호 등을 수신하여, 이를 원격제어장치(200)에서 표시하거나 음성 출력할 수 있다.
상술한 영상표시기기(100)는, 고정형으로서 ATSC 방식(7-VSB 방식)의 디지털 방송, DVB-T 방식(COFDM 방식)의 디지털 방송, ISDB-T 방식(BST-OFDM방식)의 디지털 방송 등 중 적어도 하나를 수신 가능한 디지털 방송 수신기일 수 있다. 또한, 이동형으로서 지상파 DMB 방식의 디지털 방송, 위성 DMB 방식의 디지털 방송, ATSC-M/H 방식의 디지털 방송, DVB-H 방식(COFDM 방식)의 디지털 방송, 미디어플로(Media Foward Link Only) 방식의 디지털 방송 등 중 적어도 하나를 수신 가능한 디지털 방송 수신기일 수 있다. 또한, 케이블, 위성통신, IPTV 용 디지털 방송 수신기일 수도 있다.
한편, 본 명세서에서 기술되는 영상표시기기는, TV 수상기, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 등이 포함될 수 있다.
한편, 도 1에 도시된 영상표시기기(100)의 블록도는 본 발명의 일 실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 영상표시기기(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
도 2는 본 발명의 일 실시 예에 따라, 4채널 스피커가 배치되어 있는 영상표시기기(100)의 대략적인 구성을 설명하기 위한 도면이다.
영상표시기기(100)는 4채널 스피커를 포함할 수 있다. 여기서, 4개는 예시에 불과하다. 4채널 스피커는 각각 제1 채널 내지 제4 채널 스피커라 명명될 수 있다.
영상표시기기(100)의 디스플레이부(180)는 4개의 표시영역으로 구분될 수 있다. 4개의 표시영역은 각각 제1 표시영역(180a), 제2 표시영역(180b), 제3 표시영역(180c), 제4 표시영역(180d)으로 구분될 수 있다. 4채널 스피커는 각각 4개의 표시영역에 위치할 수 있다. 4채널 스피커는 영상표시기기(100)의 후방에 배치될 수도 있고, 영상표시기기(100)의 전방에 배치될 수도 있다.
제1 채널 스피커(185a) 및 제2 채널 스피커(185b)는 영상표시기기(100)의 상단에 위치할 수 있고, 제3 채널 스피커(185c) 및 제4 채널 스피커(185d)는 영상표시기기(100)의 하단에 위치할 수 있다. 일 실시 예에서 제1 채널 스피커(185a) 및 제2 채널 스피커(185b) 사이의 수평거리는 제3 채널 스피커(185c) 및 제4 채널 스피커(185d) 사이의 거리와 일치할 수 있고, 제1 채널 스피커(185a) 및 제4 채널 스피커(185d)의 수직거리는 제2 채널 스피커(185b) 및 제3 채널 스피커(185c)의 수직거리와 일치할 수 있다.
도 3은 본 발명의 제1 실시 예에 따른 영상표시기기의 동작 방법을 설명한 흐름도이다.
먼저, 제어부(170)는 2D 영상 신호를 수신할 수 있다(S101). 영상 신호는 실시간 방송 신호일 수 있고, 어플리케이션의 실행 시에 출력되는 영상 신호일 수도 있다.
그 후, 제어부(170)는 2D 영상 신호에 포함된 오브젝트가 2차원 이동을 하는지 판단할 수 있다(S103). 오브젝트는 영상표시기기(100)가 출력하는 영상 신호 내에 포함된 사물이나, 사람, 동물, 식물 등의 피사체를 지칭할 수 있다.
오브젝트의 2차원적인 이동은 입체적인 3차원 이동이 아닌 평면 상에서의 움직임을 의미할 수 있다. 즉, 오브젝트의 2차원적인 이동은 평면 상에서 상, 하, 좌, 우로의 움직임을 의미할 수 있다.
상기 판단결과, 오브젝트가 2차원 이동을 하는 것으로 판단된 경우, 제어부(170)는 오브젝트의 이동에 대한 모션 벡터를 실시간으로 추출한다(S105). 모션 벡터(Motion Vector)란, 오브젝트의 이동에 대해 크기와 방향을 갖는 벡터를 의미한다. 제어부(170)는 산출부(160)를 통해 오브젝트의 중심점을 기준으로 오브젝트의 이동에 대한 모션 벡터를 실시간으로 추출할 수 있다. 즉, 산출부(160)는 오브젝트의 이전 움직임과 이후 움직임을 벡터를 통해 좌표를 산출하여 오브젝트의 움직임을 추출할 수 있다. 산출부(160)는 제어부(170)내에 포함될 수 있고, 또는 제어부(170)와 별도로 구성될 수 있다.
그 후, 제어부(170)는 오브젝트의 이동 방향에 따른 오디오 신호를 제공하도록 스피커를 제어한다(S107).
일 실시 예에서 오브젝트가 디스플레이부(180)의 하단에서 상단으로 이동 시 제어부(170)는 오브젝트가 하단에서 상단으로 이동하는 것과 같은 오디오 신호를 제공하도록 4채널 스피커를 제어할 수 있다.
일 실시 예에서 오브젝트가 디스플레이부(180)의 좌측에서 우측으로 이동 시 제어부(170)는 오브젝트가 좌측에서 우측으로 이동하는 것과 같은 오디오 신호를 제공하도록 4채널 스피커를 제어할 수 있다.
일 실시 예에서 제어부(170)는 오브젝트의 하단에서 상단으로의 이동, 좌측에서 우측으로의 이동을 동시에 고려한 오디오 신호를 출력하도록 4채널 스피커를 제어할 수 있다.
일 실시 예에서 제어부(170)는 오브젝트가 이동하는 속도를 반영하여 오디오 신호를 제공하도록 4채널 스피커를 제어할 수 있다.
만약, 상기 판단결과, 오브젝트가 2차원적인 이동을 하지 않고, 정지하고 있는 경우, 제어부(170)는 오브젝트의 위치에 대응하는 스피커를 통해 오디오 신호를 제공하도록 제어한다(S109).
일 실시 예에서 오브젝트가 제1 표시영역에 위치한 경우, 제어부(170)는 제1 채널 스피커에서 출력되는 오디오 신호를 나머지 스피커에서 출력되는 오디오 신호보다 커지도록 스피커들을 제어할 수 있다.
일 실시 예에서 복수 개의 오브젝트 움직임이 있는 경우, 제어부(170)는 가장 이동량이 많은 오브젝트의 이동을 기준으로 오디오 신호를 출력하도록 스피커를 제어할 수 있다. 여기서, 이동량이 가장 많은 오브젝트는 단위 시간 당 가장 이동이 많은 오브젝트일 수 있다. 단위 시간은 0.1초 일 수 있으나, 이는 예시에 불과하다.
일 실시 예에서 복수 개의 오브젝트 움직임이 있는 경우, 제어부(170)는 가장 크기가 큰 오브젝트의 이동을 기준으로 오디오 신호를 출력하도록 스피커를 제어할 수 있다.
도 4는 내지 도 6은 도 3의 영상표시기기(100)의 동작 방법의 다양한 예를 설명하기 위한 도면이다.
도 4는 오브젝트(A)가 디스플레이부(180)의 하단에서 상단으로 이동 시 영상표시기기(100)의 동작을 설명하기 위한 도면이다.
오브젝트(A)가 디스플레이부(180)의 하단에서 상단으로 이동 시 제어부(170)는 영상표시기기(100)의 하단에 위치한 제3 채널 스피커(185c) 및 제4 채널 스피커(185d)에서 출력되는 오디오 신호를 주요음에서 배경음으로 변경하도록 4채널 스피커를 제어하고, 영상표시기기(100)의 상단에 위치한 제1 채널 스피커(185a) 및 제2 채널 스피커(185b)에서 출력되는 오디오 신호를 배경음에서 주요음으로 변경하도록 4채널 스피커를 제어할 수 있다.
즉, 영상표시기기(100)는 음 분리 기술을 이용하여 오디오 신호를 출력할 수 있다. 음 분리 기술은 주요음과 배경음을 구별하여 사용자에게 실감하는 음향을 제공하기 위한 기술이다. 여기서, 주요음은 사용자에게 직접적으로 전달하고자 하는 음을 의미할 수 있으며, 배경음은 영상 신호의 주위 환경이나 배경음악과 같은 주요음을 제외한 나머지 음을 포함하는 음을 의미할 수 있다.
영상표시기기(100)는 오브젝트의 이동에 대응되는 오디오 신호를 출력하여 사용자에게 실감하는 음향을 제공할 수 있다.
도 5는 오브젝트가 디스플레이부(180)의 좌측에서 우측으로 포물선을 그리며 이동 시 영상표시기기(100)의 동작을 설명하기 위한 도면이다.
오브젝트(B)가 제3 표시영역(180c)에 위치할 시, 제어부(170)는 오브젝트(B)와 가장 가까이 위치한 제3 채널 스피커(185c)에서 출력되는 오디오 신호를 크게 하고, 그 다음으로 오브젝트(B)와 가까이 위치한 제2 채널 스피커(185b)에서 출력되는 오디오 신호를 크게 하고, 그 다음으로 제4 채널 스피커(185d), 제1 채널 스피커(185a) 순으로 오디오 신호의 세기를 낮게 출력하도록 제어한다.
영상표시기기(100)는 오브젝트의 이동에 대응되는 오디오 신호를 출력하여 사용자에게 실감하는 음향을 제공할 수 있다.
도 6은 오브젝트가 원거리에서 근거리로 이동 시 영상표시기기(100)의 동작을 설명하기 위한 도면이다.
오브젝트(C)가 제1 표시영역(180a)에 위치할 시, 제어부(170)는 오브젝트(C)와 가장 가까이 위치한 제1 채널 스피커(185a)에서 출력되는 오디오 신호를 크게 한다.
이 상태에서, 원거리에 위치한 오브젝트(C)가 근거리로 이동하면, 오브젝트(C)의 크기는 도 6에서 도시된 바와 같이 커진다. 일 실시 예에서 오브젝트(C)가 기준점으로부터 원거리에 있는 경우, 원거리 음향은 디스플레이부(180)의 상단에 위치한 제1 채널 스피커(185a), 제2 채널 스피커(185b)에서 반사되는 반사음으로 출력되고, 오브젝트(C)가 기준점으로부터 근거리로 점점 이동 하는 경우, 근거리 음향은 디스플레이부(180)의 하단에 위치한 제3 채널 스피커(185c) 및 제4 채널 스피커(185d)를 통해 직접음으로 출력될 수 있다. 여기서, 기준점은 디스플레이부(180)의 중심점을 의미할 수 있으나. 이에 한정될 필요는 없다. 여기서, 반사음은 4채널 스피커를 통해 출력된 음이 평면 또는 곡면에서 반사된 음을 의미할 수 있고, 직접음은 4채널 스피커를 통해 출력된 음을 의미할 수 있다.
영상표시기기(100)는 오브젝트의 이동에 대응되는 오디오 신호를 출력하여 사용자에게 실감하는 입체 음향을 제공할 수 있다.
도 7은 오브젝트가 디스플레이부(180) 중심의 작은 점의 형상으로부터 큰 점의 형상으로 변하는 경우, 영상표시기기(100)의 동작방법을 설명하기 위한 도면이다.
도 7을 참고하면, 오브젝트(D)가 디스플레이부(180) 중심에 위치한 작은 점의 형상을 가지고 있는 상태에서 큰 점의 형상을 갖는 상태로 변하는 경우, 제어부(170)는 작은 점의 형상을 가지고 있는 상태보다 오브젝트(D)의 크기가 점점 커질수록 출력되는 오디오 신호도 점점 커지도록 제1 내지 제4 채널 스피커(185a, 185b, 185c, 185d)를 제어할 수 있다.
영상표시기기(100)는 오브젝트의 이동에 대응된 오디오 신호를 출력하여 사용자에게 실감하는 입체 음향을 제공할 수 있다.
도 8은 본 발명의 제2 실시 예에 따른 영상표시기기(100)의 동작 방법을 설명한 흐름도이다.
먼저, 제어부(170)는 3D 영상 신호를 입력 받는다(S201). 입력되는 3D 영상은, 외부 장치로부터 외부 입력 영상, 네트워크를 통해 컨텐츠 제공자로부터 입력된 영상, 튜너에서 수신되는 방송 신호로부터의 방송 영상 또는 저장부에 저장된 영상일 수 있다.
한편, 제어부(170)는 입력되는 영상이 3D 영상인 지에 대해 판단할 수 있다. 예를 들어, 입력되는 영상 스트림의 헤더 또는 메타 데이터 내에 3D 영상인지 여부를 나타내는 정보를 수신하여, 이를 기초로, 3D 영상인지 여부를 판단할 수 있다.
그 후, 제어부(170)는 오브젝트의 깊이 정보를 추출한다(S203). 제어부(170)는 입력되는 3D 영상의 복호화 시 또는 복호화 후 포맷 변환시에 3D 영상의 깊이를 산출할 수 있다.
예를 들어, 입력되는 3D 영상이, MPEG-C Part 3 방식으로 부호화되어, 색차 영상과 깊이 영상으로 각각이 부호화되는 경우, 제어부(170)는 영상처리부를 통해 깊이 영상을 복호화함으로써, 깊이를 산출할 수 있다.
이러한 깊이는, 프레임 단위로 생성되거나, 프레임 내의 오브젝트 별로 생성되는 것도 가능하다. 예를 들어, 프레임 내의 3D 오브젝트의 개수가 1개인 경우, 해당 오브젝트의 깊이에 기초하여, 해당 프레임의 깊이를 산출하는 것이 가능하다. 또한, 프레임 내의 3D 오브젝트의 개수가 복수개인 경우, 복수개의 깊이를 이용하여, 평균값을 해당 프레임의 깊이로 산출하는 것이 가능하다.
그 후, 제어부(170)는 산출된 오브젝트의 깊이를 통해 3D 오디오 신호 처리가 필요한지를 판단할 수 있다(S205). 일 실시 예에서 제어부(170)는 산출된 오브젝트의 깊이 변화가 임계 치 이상인지 여부에 따라 3D 오디오 신호 처리가 필요한지 여부를 결정할 수 있다.
이에 따라, 오브젝트의 깊이 변화가 임계 치 이상인 경우, 제어부(170)는 사운드 주밍(Sound Zooming) 기술을 이용해 3D 오디오 신호를 처리할 수 있다. 사운드 주밍(Sound Zooming) 기술은 스피커에서 출력되는 음간의 중첩효과를 통해 음향의 직진성을 부각시키는 기술이다.
즉, 오브젝트의 깊이 변화가 임계 치 이상인 경우, 제어부(170)는 4채널 스피커를 제어하여 오디오 줌인 신호를 오프(OFF)에서 온(ON)으로 변경할 수 있다.
만약, 제어부(170)는 오브젝트의 깊이 변화가 임계 치 미만 인 경우, 4채널 스피커를 제어하여 오디오 줌인 신호를 온(ON)에서 오프(OFF)로 변경할 수 있다.
한편, 제어부(170)는 오브젝트의 깊이를 산출하여 3D 오디오 신호 처리가 필요한 것으로 판단된 경우, 산출된 오브젝트의 깊이에 대응하여, 입력 오디오 신호를 3D 신호로 처리한다(S207).
그 후, 제어부(170)는 3D 신호로 처리된 오디오 신호를 출력한다(S209).
한편, 제어부(170)는 오브젝트의 깊이를 산출하여 3D 오디오 신호 처리가 필요한 것으로 판단되지 않는 경우, 입력된 오디오 신호를 처리하고, 출력한다(S211).
도 9는 깊이(d1)을 갖는 3D 오브젝트(1120)를 구비하는 3D 영상(1110)이 디스플레이부(180)에 표시되는 것을 예시한다.
이에 따라, 오디오 출력부(185)에서는, 해당 3D 영상 오브젝트(1120)의 상, 하, 좌, 우 이동방향에 따라 신호 처리된 오디오 신호가 4채널 스피커를 통해 출력된다.
이때 오디오 신호는, 깊이(d1)가 소정치 미만이어서, 깊이에 대응하는 오디오 신호를 출력하지 못하는 경우를 예시한다. 이와 같이 출력되는 오디오 신호는, 3D 시청장치(195)를 착용하고 영상(1110)을 시청중인 사용자(1105)에게, 깊이에 대응하는 입체 영상을 제공하지 못하게 된다. 즉, 사용자(1105)에 이격되어 오디오 신호(1130)가 출력되는 것으로 된다.
다음으로 도 10은 깊이(d2)를 갖는 3D 오브젝트(1220)를 구비하는 3D 영상(1210)이 디스플레이부(180)(180)에 표시되는 것을 예시한다. 도 9에 비해, 깊이가 더 커졌으며, 소정 치 이상의 깊이를 가지므로, 입력되는 오디오 신호가 3D 오디오 신호 처리되게 된다.
도 10에서는, 도 9에 비해, 제4 채널 스피커의 오디오 신호(1235)가 강조되어, 출력되는 것을 예시한다. 이와 같이 출력되는 오디오 신호(1230)는, 3D 시청장치(195)를 착용하고 영상(1210)을 시청중인 사용자(1105) 부근에서 출력되는 것으로 된다. 따라서, 3D 영상의 깊이에 따라 입체 음향을 구현할 수 있게 된다.
한편, 도 9 내지 도 10에서는 영상 내의 오브젝트의 깊이에 의해, 오디오 신호의 3D 신호 처리를 하는 것을 예로 들었으나, 이에 한정되지 않으며, 영상 내에 복수의 오브젝트가 있는 경우, 각각의 오브젝트의 깊이를 이용하여, 즉, 평균 깊이를 이용하여, 오디오 신호의 3D 신호 처리를 수행하는 것도 가능하다. 또한, 각 오브젝트 별 깊이에 기초하여, 각 오브젝트에 대응하는 오디오 신호의 3D 신호 처리를 별개로 수행하는 것도 가능하다.
상술한 본 발명에 따른 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해 되어서는 안될 것이다.
100: 영상표시기기
110: 튜너부
120: 복조부
130: 외부장치 인터페이스부
135: 네트워크 인터페이스부
140: 저장부
150: 사용자 입력 인터페이스부
160: 산출부
170: 제어부
180: 디스플레이부
195: 3D 시청장치
200: 원격제어장치

Claims (16)

  1. 영상표시기기의 동작 방법에 있어서,
    영상 신호를 입력 받는 단계;
    상기 입력된 영상 신호 내의 오브젝트의 이동 방향 또는 오브젝트의 깊이를 산출하는 단계; 및
    상기 산출된 오브젝트의 이동 방향 또는 오브젝트의 깊이에 대응하는 오디오 신호를 출력하는 단계를 포함하는 영상표시기기의 동작 방법.
  2. 제1항에 있어서, 상기 오브젝트의 이동 방향을 산출하는 단계는,
    상기 오브젝트의 이동에 대한 모션 벡터를 산출하여 상기 오브젝트의 이동 방향을 산출하는 단계를 포함하는 포함하는 영상표시기기의 동작 방법.
  3. 제2항에 있어서,
    상기 오브젝트의 이동에 대한 모션 벡터의 산출하는 단계는 상기 오브젝트의 이전 움직임과 이후 움직임 간 벡터의 차이를 통해 상기 오브젝트의 좌표를 산출하는 단계를 포함하는 영상표시기기의 동작 방법.
  4. 제1항에 있어서, 상기 오디오 신호를 출력하는 단계는,
    상기 오브젝트의 이동 속도를 반영하여 상기 반영된 이동 속도에 대응하는 오디오 신호를 출력하는 단계를 포함하는 영상표시기기의 동작 방법.
  5. 제1항에 있어서, 상기 오디오 신호를 출력하는 단계는,
    상기 오브젝트의 이동 방향에 따라 주요음과 배경음을 이용해 상기 오디오 신호를 출력하는 단계를 포함하는 영상표시기기의 동작 방법.
  6. 제1항에 있어서, 상기 오디오 신호를 출력하는 단계는,
    상기 오브젝트의 이동 방향에 따라 직접음과 반사음을 이용해 상기 오디오 신호를 출력하는 단계를 포함하는 영상표시기기의 동작 방법.
  7. 제1항에 있어서, 상기 오디오 신호를 출력하는 단계는,
    상기 오브젝트의 깊이 변화가 임계 치 이상인 경우, 상기 오브젝트의 깊이 변화에 대응하는 오디오 신호를 출력하는 단계를 포함하는 영상표시기기의 동작 방법.
  8. 제1항에 있어서,
    상기 영상표시기기는 4채널 스피커를 포함하고,
    상기 오디오 신호를 출력하는 단계는,
    상기 오브젝트의 이동 방향 또는 상기 오브젝트의 깊이에 대응하여 상기 4채널 스피커의 세기를 조절하여 오디오 신호 출력을 단계를 포함하는 영상표시기기의 동작 방법.
  9. 영상을 표시하는 디스플레이부;
    오디오 신호를 출력하는 오디오 출력부; 및
    입력되는 영상 신호 내의 오브젝트의 이동 방향 또는 오브젝트의 깊이를 산출하고, 상기 산출된 오브젝트의 이동 방향 또는 오브젝트의 깊이에 대응하는 오디오 신호를 출력하도록 제어하는 제어부를 포함하는 영상표시기기.
  10. 제9항에 있어서, 상기 제어부는,
    상기 오브젝트의 이동에 대한 모션 벡터를 산출하여 상기 오브젝트의 이동 방향을 산출하는 영상표시기기.
  11. 제10항에 있어서, 상기 제어부는,
    상기 오브젝트의 이전 움직임과 이후 움직임 간 벡터의 차이를 통해 상기 오브젝트의 좌표를 산출하는 영상표시기기.
  12. 제9항에 있어서, 상기 제어부는,
    상기 오브젝트의 이동 속도를 반영하여 상기 반영된 이동 속도에 대응하는 오디오 신호를 출력하도록 제어하는 영상표시기기.
  13. 제9항에 있어서, 상기 제어부는,
    상기 오브젝트의 이동 방향에 따라 주요음과 배경음을 이용해 상기 오디오 신호를 출력하도록 제어하는 영상표시기기.
  14. 제9항에 있어서, 상기 제어부는,
    상기 오브젝트의 이동 방향에 따라 직접음과 반사음을 이용해 상기 오디오 신호를 출력하도록 제어하는 영상표시기기.
  15. 제9항에 있어서, 상기 제어부는,
    상기 오브젝트의 깊이 변화가 임계 치 이상인 경우, 상기 오브젝트의 깊이 변화에 대응하는 오디오 신호를 출력하도록 제어하는 영상표시기기.
  16. 제9항에 있어서,
    상기 오디오 출력부는 4채널 스피커를 포함하고,
    상기 제어부는,
    상기 오브젝트의 이동 방향 또는 상기 오브젝트의 깊이에 대응하여 상기 4채널 스피커의 세기를 조절하여 오디오 신호 출력하도록 제어하는 영상표시기기.
KR1020120023053A 2012-03-06 2012-03-06 영상표시기기 및 그 동작 방법 KR20130101928A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120023053A KR20130101928A (ko) 2012-03-06 2012-03-06 영상표시기기 및 그 동작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120023053A KR20130101928A (ko) 2012-03-06 2012-03-06 영상표시기기 및 그 동작 방법

Publications (1)

Publication Number Publication Date
KR20130101928A true KR20130101928A (ko) 2013-09-16

Family

ID=49451902

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120023053A KR20130101928A (ko) 2012-03-06 2012-03-06 영상표시기기 및 그 동작 방법

Country Status (1)

Country Link
KR (1) KR20130101928A (ko)

Similar Documents

Publication Publication Date Title
US9609381B2 (en) Method for playing contents
KR101349276B1 (ko) 영상표시장치 및 그 동작방법
US8803873B2 (en) Image display apparatus and image display method thereof
EP2393081A2 (en) Method for operating an image display apparatus and an image display apparatus
US20120050267A1 (en) Method for operating image display apparatus
CN102550031B (zh) 图像显示装置及其操作方法
KR20140109168A (ko) 영상 처리 장치 및 그 방법
KR20110082380A (ko) 영상표시장치 및 그 동작방법
KR101708648B1 (ko) 영상표시장치 및 그 동작 방법
US20130291017A1 (en) Image display apparatus and method for operating the same
KR102158210B1 (ko) 음성 인식 장치 및 그 방법
KR102478460B1 (ko) 표시장치와 그 영상 처리 방법
KR20130101928A (ko) 영상표시기기 및 그 동작 방법
KR101730323B1 (ko) 3d 시청 장치, 영상표시장치 및 그 동작방법
KR20170025562A (ko) 영상표시장치 및 그것의 제어방법
KR20150024198A (ko) 영상 처리 장치 및 그 방법
KR101737367B1 (ko) 영상표시장치 및 그 동작방법
KR101176500B1 (ko) 영상표시장치 및 그 동작방법
KR20110134087A (ko) 영상표시장치 및 그 동작방법
KR20160024273A (ko) 영상표시장치 및 그것의 제어 방법
KR101691801B1 (ko) 멀티비전 시스템
KR20120119133A (ko) 영상표시장치의 동작 방법
KR20110133296A (ko) 3d 영상시청장치 및 그 동작방법
KR20170024843A (ko) 영상표시장치 및 그것의 제어방법
KR20120034836A (ko) 영상표시장치 및 그 동작방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application