KR20110052306A - 영상표시장치 및 그 동작방법 - Google Patents

영상표시장치 및 그 동작방법 Download PDF

Info

Publication number
KR20110052306A
KR20110052306A KR1020090109289A KR20090109289A KR20110052306A KR 20110052306 A KR20110052306 A KR 20110052306A KR 1020090109289 A KR1020090109289 A KR 1020090109289A KR 20090109289 A KR20090109289 A KR 20090109289A KR 20110052306 A KR20110052306 A KR 20110052306A
Authority
KR
South Korea
Prior art keywords
image
signal
data
display
external device
Prior art date
Application number
KR1020090109289A
Other languages
English (en)
Other versions
KR101611263B1 (ko
Inventor
유경희
구상준
장세훈
김운영
이형남
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020090109289A priority Critical patent/KR101611263B1/ko
Priority to US12/905,376 priority patent/US8760503B2/en
Priority to EP10830191.2A priority patent/EP2499833B1/en
Priority to CN201080051465.XA priority patent/CN102598678B/zh
Priority to PCT/KR2010/007993 priority patent/WO2011059259A2/en
Publication of KR20110052306A publication Critical patent/KR20110052306A/ko
Application granted granted Critical
Publication of KR101611263B1 publication Critical patent/KR101611263B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명은 영상표시장치 및 그 동작방법에 관한 것이다. 본 발명의 실시예에 따른 영상표시장치의 동작방법은, 3D 영상 신호를 수신하여 3D 영상으로 표시하는 영상표시장치의 동작 방법으로서, 영상을 표시하는 단계와, 접속된 외부장치를 검출하는 단계와, 검출된 외부장치로부터 데이터를 수신하는 단계와, 수신 데이터를 나타내는 3D 오브젝트를 생성하는 단계와, 생성된 3D 오브젝트를 표시하는 단계를 포함하며, 3D 오브젝트는 영상과 서로 다른 깊이(depth)를 가지도록 신호 처리된다. 이에 의해, 외부장치와의 전송되는 데이터를 나타내는 오브젝트를 입체감 있게 제공할 수 있게 된다.
입체 영상

Description

영상표시장치 및 그 동작방법{Apparatus for displaying image and method for operating the same}
본 발명은 영상표시장치 그 동작방법에 관한 것이며, 더욱 상세하게는 입체 영상을 표시할 수 있는 영상표시장치 또는 영상표시방법에 관한 것이다.
영상표시장치는 사용자가 시청할 수 있는 영상을 표시하는 기능을 갖춘 장치이다. 사용자는 영상표시장치를 통하여 방송을 시청할 수 있다. 영상표시장치는 방송국에서 송출되는 방송신호 중 사용자가 선택한 방송을 디스플레이에 표시한다. 현재 방송은 전세계적으로 아날로그 방송에서 디지털 방송으로 전환하고 있는 추세이다.
디지털 방송은 디지털 영상 및 음성 신호를 송출하는 방송을 의미한다. 디지털 방송은 아날로그 방송에 비해, 외부 잡음에 강해 데이터 손실이 작으며, 에러 정정에 유리하며, 해상도가 높고, 선명한 화면을 제공한다. 또한, 디지털 방송은 아날로그 방송과 달리 양방향 서비스가 가능하다.
또한 최근에는 입체 영상에 대한 다양한 연구가 진행되고 있으며, 컴퓨터 그래픽에서 뿐만 아니라 다른 다양한 환경 및 기술에서도 입체 영상 기술이 점점 더 보편화되고 실용화되고 있다. 또한 상술한 디지털 방송에서도 입체 영상을 송신할 수 있으며, 이를 재생하기 위한 장치에 대한 개발 역시 진행 중에 있다.
본 발명의 목적은, 사용자 편의성을 증대할 수 있는 영상표시장치 및 그 동작방법을 제공함에 있다.
본 발명의 또 다른 목적은, 외부장치와의 사이에서 전송되는 데이터를 나타내는 오브젝트를 입체감 있게 제공할 수 있는 영상표시장치 및 그 동작방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치의 동작 방법은, 3D 영상 신호를 수신하여 3D 영상으로 표시하는 영상표시장치의 동작 방법으로서, 영상을 표시하는 단계와, 접속된 외부장치를 검출하는 단계와, 검출된 외부장치로부터 데이터를 수신하는 단계와, 수신 데이터를 나타내는 3D 오브젝트를 생성하는 단계와, 생성된 3D 오브젝트를 표시하는 단계를 포함하며, 3D 오브젝트는 영상과 서로 다른 깊이(depth)를 가지도록 신호 처리된다.
또한, 상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치의 동작 방법은, 3D 영상 신호를 수신하여 3D 영상으로 표시하는 영상표시장치의 동작 방법으로서, 영상을 표시하는 단계와, 접속된 외부장치를 검출하는 단계와, 검출된 외부장치에 데이터를 송신하는 단계와, 송신 데이터를 나타내는 3D 오브젝트를 생성하는 단계와, 생성된 3D 오브젝트를 표시하는 단계를 포함하며, 3D 오브젝트는 영상과 서로 다른 깊이(depth)를 가지도록 신호 처리된다.
또한, 상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치는, 3D 영상 신호를 수신하여 3D 영상으로 표시하는 영상표시장치으로서, 입력 신호를 신호 처리하여 영상 신호를 출력하고, 접속된 외부장치로부터 수신되는 데이터 또는 접속된 외부장치로 송신되는 데이터를 나타내는 3D 오브젝트를 생성하는 제어부와, 3D 오브젝트 및 출력된 영상 신호에 따른 영상을 표시하는 디스플레이를 포함하며, 3D 오브젝트는 영상과 다른 깊이(depth)를 가지도록 신호 처리된다.
본 발명의 실시예에 따르면, 외부장치와 전송되는 데이터를 나타내는 3D 오브젝트를 영상과 다른 깊이(depth)를 가지도록 신호처리함으로써, 사용자는 외부장치와 전송되는 데이터를 나타내는 오브젝트를 입체감을 가지고 시청할 수 있게 된다.
한편, 전송되는 데이터를 나타내는 3D 오브젝트를 데이터의 이동에 따라 표시 크기 및 깊이 중 적어도 하나를 가변하여 표시함으로써, 사용자가 직관적으로 데이터 이동을 파악할 수 있게 된다.
한편, 접속된 외부장치의 접속 상태에 따라 3D 오브젝트의 표시를 가변함으로써, 사용자는 직관적으로 전송되는 데이터의 전송 상태를 파악할 수 있게 된다.
한편, 복수개의 외부장치로부터 데이터가 전송되는 경우, 전송되는 데이터를 나타내는 오브젝트를 외부장치 별로 다르게 표시함으로써, 사용자는 어느 외부장치로부터 데이터가 전송되는 지를 직관적으로 파악할 수 있게 된다.
또한, 외부장치의 관리 메뉴를 3D 오브젝트로 표시함으로써, 사용자는 외부 장치의 관리, 접근 등을 용이하게 할 수 있게 된다.
결국, 사용자는, 영상 시청시 해당 영상의 시청에 방해되지 않는 범위에서, 외부장치와의 사이에서 전송되는 데이터를 나타내는 입체 영상을 제공 받을 수 있게 된다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.
도 1은 본 발명의 일 실시예에 따른 영상표시장치의 내부 블록도이다.
도 1을 참조하면, 본 발명의 일실시예에 의한 영상표시장치(100)는 튜너(110), 복조부(120), 외부신호입출력부(130), 저장부(140), 인터페이스부(150), 센싱부(미도시), 제어부(170), 디스플레이(180), 음향출력부(185)를 포함할 수 있다.
튜너(110)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널 또는 기저장된 모든 채널에 해당하는 RF 방송 신호를 선택한다. 또한, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성신호로 변환한다.
예를 들어, 선택된 RF 방송 신호가 디지털 방송 신호이면 디지털 IF 신 호(DIF)로 변환하고, 아날로그 방송 신호이면 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS SIF)로 변환한다. 즉, 튜너(110)는 디지털 방송 신호 또는 아날로그 방송 신호를 처리할 수 있다. 튜너부(110)에서 출력되는 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS SIF)는 신호처리부(180)로 직접 입력될 수 있다.
또한, 튜너(110)는 ATSC(Advanced Television System Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다.
한편, 튜너(110)는, 본 발명에서 안테나를 통해 수신되는 RF 방송 신호 중 채널 기억 기능을 통하여 저장된 모든 방송 채널의 RF 방송 신호를 순차적으로 선택하여 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환할 수 있다. 이는, 디스플레이(180)에 방송 채널에 해당하는 복수의 썸네일 영상을 포함하는 썸네일 리스트를 도시하기 위한 것이다. 이에 따라, 튜너(110)는, 선택 채널 또는 기저장된 모든 채널의 RF 방송 신호를 순차적/주기적으로 수신하는 것이 가능하다.
복조부(120)는 튜너(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다.
예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 ATSC 방식인 경우, 복조부(120)는 8-VSB(8-Vestigal Side Band) 복조를 수행한다. 또한, 복조부(120)는 채널 복호화를 수행할 수도 있다. 이를 위해 복조부(120)는 트렐리스 디코더(Trellis Decoder), 디인터리버(De-interleaver), 및 리드 솔로먼 디코더(Reed Solomon Decoder) 등을 구비하여, 트렐리스 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.
예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 DVB 방식인 경우, 복조부(120)는 COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다. 또한, 복조부(120)는, 채널 복호화를 수행할 수도 있다. 이를 위해, 복조부(120)는, 컨벌루션 디코더(convolution decoder), 디인터리버, 및 리드-솔로먼 디코더 등을 구비하여, 컨벌루션 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.
복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 일예로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.
한편, 상술한 복조부(120)는, ATSC 방식과, DVB 방식에 따라 각각 별개로 구비되는 것이 가능하다. 즉, ATSC 복조부와, DVB 복조부로 구비되는 것이 가능하다.
복조부(120)에서 출력한 스트림 신호는 제어부(170)로 입력될 수 있다. 제어부(170)는 역다중화 및 신호 처리 등을 수행한 후, 디스플레이(180)에 영상을 출력하고, 음향출력부(185)로 음성을 출력한다.
외부신호입출력부(130)는 외부 장치와 영상표시장치(100)을 연결할 수 있다. 이를 위해, 외부신호입출력부(130)는, A/V 입출력부 또는 무선 통신부를 포함할 수 있다.
외부신호입출력부(130)는, DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북) 등과 같은 외부 장치와 유/무선으로 연결된다. 외부신호입출력부(130)는 연결된 외부 장치를 통하여 외부에서 입력되는 영상, 음성 또는 데이터 신호를 영상표시장치(100)의 제어부(170)로 전달한다. 또한, 제어부(170)에서 처리된 영상, 음성 또는 데이터 신호를 연결된 외부 장치로 출력할 수 있다.
A/V 입출력부는, 외부 장치의 영상 및 음성 신호를 영상표시장치(100)로 입력할 수 있도록, 이더넷(Ethernet)단자, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, RGB 단자, D-SUB 단자 등을 포함할 수 있다.
무선 통신부는 무선 인터넷 접속을 수행할 수 있다. 영상표시장치(100)는 무선 통신부를 통해 무선 인터넷 접속될 수 있다. 무선 인터넷 접속을 위해, WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등이 이용될 수 있다.
또한, 무선 통신부는, 다른 전자기기와 근거리 무선 통신을 수행할 수 있다. 영상표시장치(100)는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee) 등의 통신 규격에 따라 다른 전자기기와 네트워크 연결될 수 있다.
또한, 외부신호입출력부(130)는, 다양한 셋탑 박스와 상술한 각종 단자 중 적어도 하나를 통해 접속되어, 셋탑 박스와 입력/출력 동작을 수행할 수도 있다.
예를 들어, 셋탑 박스가 IP(internet Protocol) TV용 셋탑 박스인 경우, 양방향 통신이 가능하도록, IP TV용 셋탑 박스에서 처리된 영상, 음성 또는 데이터 신호를 제어부(170)로 전달할 수 있으며, 제어부(170)에서 처리된 신호들을 IP TV용 셋탑 박스로 전달할 수 있다.
한편, 상술한 IPTV는, 전송네트워크의 종류에 따라 ADSL-TV, VDSL-TV, FTTH-TV 등을 포함하는 의미일 수 있으며, TV over DSL, Video over DSL, TV overIP(TVIP), Broadband TV(BTV) 등을 포함하는 의미일 수 있다. 또한, IPTV는 인터넷 접속이 가능한 인터넷 TV, 풀브라우징 TV를 포함하는 의미일 수도 있다.
또한, 외부신호입출력부(130)는 영상 또는 음성 통화를 할 수 있는 통신망과 연결될 수 있다. 통신망은 LAN을 통하여 연결되는 방송형 통신망, 공중전화망, 이동통신망 등을 포함하는 의미일 수 있다.
저장부(140)는, 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터신호를 저장할 수도 있다.
또한, 저장부(140)는 외부신호입출력부(130)로 입력되는 영상, 음성 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. 또한, 저장부(140)는, 채 널 기억 기능을 통하여 소정 방송 채널에 관한 정보를 저장할 수 있다.
저장부(140)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬(EEPROM 등) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 영상표시장치(100)는, 저장부(140) 내에 저장되어 있는 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일 등)을 재생하여 사용자에게 제공할 수 있다.
도 1은 저장부(140)가 제어부(170)와 별도로 구비된 실시예를 도시하고 있으나, 본 발명의 범위는 이에 한정되지 않는다. 저장부(140)는 제어부(170) 내에 포함될 수 있다.
인터페이스부(150)는, 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달한다. 예를 들어, 인터페이스부(150)는, RF(Radio Frequency) 통신 방식, 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 사용자 입력 신호를 수신하거나, 제어부(170)로부터의 신호를 원격제어장치(200)로 송신할 수 있다. 센싱부(미도시)는, 원격제어장치(200)를 사용하지 않는 사용자가 영상표시장치(100)로 사용자 명령을 입력할 수 있도록 한다. 센싱부(미도시)의 구체적인 구성은 후술한다.
제어부(170)는, 튜너(110)와 복조부(120) 또는 외부신호입출력부(130)를 통하여 입력되는 스트림을 역다중화하고 역다중화된 신호들을 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다. 그 외 영상표시장치(100) 내의 전반적인 동작을 제어할 수 있다. 제어부(170)는 인터페이스부(150) 또는 센싱부(미도시)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상표시장치(100)를 제어할 수 있다.
도 1에는 도시되어 있지 않으나, 제어부(170)는 역다중화부, 영상처리부, 음성처리부 등을 포함할 수 있다.
제어부(170)는 튜너(110)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다.
제어부(170)는 수신되는 스트림 신호, 일예로 MPEG-2 TS를 역다중화하여, 각각 영상, 음성 및 데이터 신호로 분리할 수 있다. 여기서, 제어부(170)에 입력되는 스트림 신호는 튜너(110), 복조부(120) 또는 외부신호입출력부(130)에서 출력되는 스트림 신호일 수 있다.
또한, 제어부(170)는, 역다중화된 영상 신호의 영상 처리를 수행할 수 있다. 예를 들어, 역다중화된 영상 신호가 부호화된 영상 신호인 경우, 영상 복호화를 수행할 수 있다. 특히, 영상 복호화시, 역다중화된 영상 신호가, 2D 영상 및 3D 영상이 혼합된 신호인 경우, 또는 2D 영상 신호 또는 3D 영상 신호만으로 이루어진 경우, 이 해당 코덱(codec)에 따라 2D 영상 복호화 또는 3D 영상 복호화를 수행할 수 있다. 제어부(170)의 2D 영상 또는 3D 영상의 신호 처리 동작에 대해서는 이하의 도 3을 참조하여 상세히 설명하기로 한다.
또한, 제어부(170)는 영상 신호의 밝기(brightness), 틴트(Tint) 및 색 조(Color) 조절 등을 처리할 수 있다.
제어부(170)에서 영상 처리된 영상 신호는 디스플레이(180)로 입력되어, 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부신호입출력부(130)를 통하여 외부 출력장치로 입력될 수 있다.
또한, 제어부(170)는 역다중화된 음성 신호의 음성 처리를 수행할 수 있다. 예를 들어, 역다중화된 음성 신호가 부호화된 음성 신호인 경우, 이를 복호화할 수 있다. 구체적으로, 역다중화된 음성 신호가 MPEG-2 규격의 부호화된 음성 신호인 경우, MPEG-2 디코더에 의해 복호화될 수 있다. 또한, 역다중화된 음성 신호가 지상파 DMB(Digital Multimedia Broadcasting) 방식에 따른 MPEG 4 BSAC(Bit Sliced Arithmetic Coding) 규격의 부호화된 음성 신호인 경우, MPEG 4 디코더에 의해 복호화될 수 있다. 또한, 역다중화된 음성 신호가 위성 DMB 방식 또는 DVB-H에 따른 MPEG 2의 AAC(Advanced Audio Codec) 규격의 부호화된 음성 신호인 경우, AAC 디코더에 의해 복호화될 수 있다.
또한, 제어부(170)는 베이스(Base), 트레블(Treble), 음량 조절 등을 처리할 수 있다.
제어부(170)에서 처리된 음성 신호는 음향출력부(185)로 음향 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부신호입출력부(130)를 통하여 외부 출력장치로 입력될 수 있다.
또한, 제어부(170)는 역다중화된 데이터 신호의 데이터 처리를 수행할 수 있 다. 예를 들어, 역다중화된 데이터 신호가 부호화된 데이터 신호인 경우, 이를 복호화할 수 있다. 부호화된 데이터 신호는, 각 채널에서 방영되는 방송프로그램의 시작시간, 종료시간 등의 방송정보를 포함하는 EPG(Electronic Progtam Guide) 정보일 수 있다. 예를 들어, EPG 정보는, ATSC방식인 경우, TSC-PSIP(ATSC-Program and System Information Protocol) 정보일 수 있으며, DVB 방식인 경우, DVB-SI(DVB-Service Information) 정보를 포함할 수 있다. ATSC-PSIP 정보 또는 DVB-SI 정보는, 상술한 스트림, 즉 MPEG-2 TS의 헤더(4 byte)에 포함되는 정보일 수 있다.
또한, 제어부(170)는 OSD(On Screen Display) 처리를 수행할 수 있다. 구체적으로 제어부(170)는, 영상 처리된 영상 신호와, 데이터 처리된 데이터 신호 중 적어도 하나 또는 원격제어장치(200)를 통하여 입력되는 사용자 입력 신호에 기초하여, 디스플레이(180)의 화면에 각종 정보를 그래픽(Graphic)이나 텍스트(Text)로 표시하기 위한 신호를 생성할 수 있다. 생성된 OSD 신호는 영상 처리된 영상 신호 및 데이터 처리된 데이터 신호와 함께, 디스플레이(180)에 입력될 수 있다.
상술한, 그래픽 또는 텍스트 디스플레이를 위하여 생성된 신호는 영상표시장치(100)의 사용자 인터페이스 화면, 다양한 메뉴 화면, 위젯, 아이콘 등의 다양한 데이터를 포함할 수 있다.
한편, 제어부(170)는, OSD 신호 생성시, 해당 OSD 신호를 2D 영상 신호 또는 3D 영상 신호로 구현할수 있다. 이에 대해서는 이하의 도 3을 참조하여 상세히 설명하기로 한다.
또한, 제어부(170)는, 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)를 입 력받아, 신호 처리를 수행한다. 여기서, 제어부(170)에 입력되는 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)는 튜너(110) 또는 외부신호입출력부(130)에서 출력된 아날로그 베이스 밴드 영상/음성신호일 수 있다. 신호 처리된 영상 신호는 디스플레이(180)로 입력되어 영상 표시되며, 신호 처리된 음성 신호는 음향출력부(185), 예를 들어 스피커로 입력되어 음성 출력되게 된다.
한편, 도면에 도시하지 않았지만, 채널 신호 또는 외부 입력 신호에 대응하는 썸네일 영상을 생성한는 채널 브라우징 처리부가 더 구비되는 것도 가능하다. 채널 브라우징 처리부는, 복조부(120)에서 출력한 스트림 신호(TS) 또는 외부신호입출력부(130)에서 출력한 스트림 신호 등을 입력 받아, 입력되는 스트림 신호로부터 영상을 추출하여 썸네일 영상을 생성할 수 있다. 생성된 썸네일 영상은 그대로 또는 부호화되어 제어부(170)로 입력될 수 있다. 또한, 생성된 썸네일 영상은 스트림 형태로 부호화되어 제어부(170)로 입력되는 것도 가능하다. 제어부(170)는 입력된 썸네일 영상을 이용하여 복수의 썸네일 영상을 구비하는 썸네일 리스트를 디스플레이(180)에 표시할 수 있다.
제어부(170)는 인터페이스부(150)를 통하여 원격제어장치(200)가 전송한 신호를 수신할 수 있다. 제어부(170)는 수신한 신호를 통하여 사용자가 원격제어장치(200)로 입력한 명령을 판별하고 그에 대응하도록 영상표시장치(100)를 제어한다. 일예로, 사용자가 소정 채널 선택명령을 입력하면, 제어부(170)는 선택한 채널의 신호가 입력되도록 튜너(110)를 제어한다. 또한, 선택한 채널의 영상, 음성 또는 데이터 신호를 처리한다. 제어부(170)는, 사용자가 선택한 채널 정보 등이 처리 한 영상 또는 음성신호와 함께 디스플레이(180) 또는 음향출력부(185)를 통하여 출력될 수 있도록 한다.
또 다른 예로, 사용자는 원격제어장치(200)를 통하여 다른 종류의 영상 또는 음성 출력 명령을 입력할 수 있다. 사용자는 방송 신호 대신 외부신호입출력부(130)를 통하여 입력되는 카메라 또는 캠코더 영상 신호를 시청하기를 원할 수 있다. 이 경우 제어부(170)는 외부신호입출력부(130)를 통하여 입력되는 영상 신호 또는 음성 신호가 디스플레이(180) 또는 음향출력부(185)를 통해 출력되도록 할 수 있다.
제어부(170)는 영상표시장치(100) 내에 구비되는 센싱부(미도시) 중 하나인 로컬 키(미도시)로 입력된 사용자 명령을 판별하고 그에 대응하도록 영상표시장치(100)를 제어할 수 있다. 일예로, 사용자는 로컬 키를 통하여 영상표시장치(100) 온/오프 명령, 채널 변경 명령, 볼륨 변경 명령 등을 입력할 수 있다. 로컬 키는 영상표시장치(100)에 형성된 버튼이나 키로 이루어질 수 있다. 제어부(170)는 로컬 키의 조작 여부를 판별하고 그에 따라 영상표시장치(100)를 제어할 수 있다.
디스플레이(180)는, 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부신호입출력부(130)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R,G,B 신호로 변환하여 구동 신호를 생성한다.
디스플레이(180)는 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display)등이 가능하며, 특히, 본 발명의 실시예에 따라, 3차원 디스플레이(3D display)가 가능한 것이 바람직하다.
이를 위해 디스플레이(180)는, 추가 디스플레이 방식과 단독 디스플레이 방식으로 나뉠 수 있다.
단독 디스플레이 방식은, 별도의 추가 디스플레이, 예를 들어 안경 등이 없이, 디스플레이(180) 단독으로 3D 영상을 구현할 수 있는 것으로서, 그 예로, 렌티큘라 방식, 파라랙스 베리어(parallax barrier) 등 다양한 방식이 적용될 수 있다.
한편, 추가 디스플레이 방식은, 디스플레이(180) 외에 추가 디스플레이를 사용하여 3D 영상을 구현할 수 있는 것으로서, 그 예로, 헤드 마운트 디스플레이(HMD) 타입, 안경 타입 등 다양한 방식이 적용될 수 있다. 또한, 안경 타입은, 편광 안경 타입, 셔터 글래스(ShutterGlass) 타입, 스펙트럼 필터 타입 등이 적용될 수 있다.
한편, 디스플레이(180)는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.
음향출력부(185)는, 제어부(170)에서 음성 처리된 신호, 예를 들어, 스테레오 신호, 3.1 채널 신호 또는 5.1 채널 신호를 입력 받아 음성으로 출력한다. 음성 출력부(185)는 다양한 형태의 스피커로 구현될 수 있다.
원격제어장치(200)는, 사용자 입력을 인터페이스부(150)로 송신한다. 이를 위해, 원격제어장치(200)는, 블루투스(Bluetooth), RF(Radio Frequency) 통신, 적외선(IR) 통신, UWB(Ultra Wideband), 지그비(ZigBee) 방식 등을 사용할 수 있다. 또한, 원격제어장치(200)는, 인터페이스부(150)에서 출력한 영상, 음성 또는 데이터 신호 등을 수신하여, 이를 원격제어장치(200)에서 표시하거나 음성 출력할 수 있다.
한편, 도면에서는 도시하지 않았지만, 본 발명의 실시에에 따른 영상표시장치(100)는, 센싱부(미도시)를 더 포함할 수 있다. 센싱부(미도시)는, 터치 센서, 음성 센서, 위치 센서, 동작 센서 등을 포함할 수 있다.
터치 센서는 디스플레이(180)를 구성하는 터치스크린일 수 있다. 터치 센서는 사용자가 터치스크린을 터치하는 위치 또는 세기 등을 센싱할 수 있다. 음성 센서는 사용자 음성 또는 사용자가 발생시키는 다양한 소리를 센싱할 수 있다. 위치 센서는 사용자의 위치를 센싱할 수 있다. 동작 센서는 사용자의 제스처 동작 등을 센싱할 수 있다. 위치 센서 또는 동작 센서는 적외선 감지 센서 또는 카메라로 구성될 수 있으며, 영상표시장치(100)와 사용자 사이의 거리, 사용자의 움직임 유무, 사용자의 손동작 등을 센싱할 수 있다.
상술한 각 센서는 사용자의 음성, 터치, 위치, 동작들을 센싱한 결과를 별도의 센싱신호 처리부(미도시)로 전달하거나, 또는 센싱 결과를 1차적으로 해석하고 그에 상응하는 센싱 신호를 생성하여 제어부(170)로 입력할 수 있다.
센싱신호 처리부(미도시)는 센싱부(미도시)에서 생성된 신호를 처리하여, 제어부(170)로 전달할 수 있다.
상술한 영상표시장치(100)는, 고정형으로서 ATSC 방식(8-VSB 방식)의 디지털 방송, DVB-T 방식(COFDM 방식)의 디지털 방송, ISDB-T 방식(BST-OFDM방식)의 디지털 방송 등 중 적어도 하나를 수신 가능한 디지털 방송 수신기일 수 있다. 또한, 이동형으로서 지상파 DMB 방식의 디지털 방송, 위성 DMB 방식의 디지털 방송, ATSC-M/H 방식의 디지털 방송, DVB-H 방식(COFDM 방식)의 디지털 방송, 미디어플로(Media Foward Link Only) 방식의 디지털 방송 등 중 적어도 하나를 수신 가능한 디지털 방송 수신기일 수 있다. 또한, 케이블, 위성통신, IPTV 용 디지털 방송 수신기일 수도 있다.
한편, 본 명세서에서 기술되는 영상표시장치는, TV 수상기, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 등이 포함될 수 있다.
한편, 도 1에 도시된 영상표시장치(100)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 영상표시장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
도 2는 도 1의 영상표시장치에 접속 가능한 외부장치의 일예를 도시한 도면이다. 도시된 바와 같이, 본 발명에 의한 영상표시장치(100)는 외부신호입출력부(130)를 통하여 외부 장치와 유/무선으로 접속될 수 있다.
본 실시예에서 영상표시장치(100)와 연결될 수 있는 외부 장치는, 예를 들어, 카메라(211), 스크린형 원격제어장치(212), 셋톱박스(213), 게임기기(214), 컴 퓨터(215), 이동통신 단말기(216) 등이 있을 수 있다.
영상표시장치(100)는 외부신호입출력부(130)를 통하여 연결된 외부 장치의 그래픽 유저 인터페이스 화면을 디스플레이(180)에 표시할 수 있다. 사용자는 외부 장치와 영상표시장치(100)를 접속하고, 외부 장치에서 재생 중인 영상 또는 저장된 영상을 영상표시장치(100)를 통하여 시청할 수 있다.
또한, 영상표시장치(100)는 외부신호입출력부(130)를 통하여 연결된 외부 장치에서 재생 중인 음성 또는 저장된 음성을 음향출력부(185)를 통하여 출력할 수 있다.
영상표시장치(100)와 외부신호입출력부(130)를 통하여 연결된 외부 장치의 데이터, 예를 들어, 정지 영상 파일, 동영상 파일, 음악 파일 또는 텍스트 파일은, 영상표시장치(100) 내부의 저장부(140)에 저장될 수 있다.
영상표시장치(100)는 저장부(140)에 저장된 정지 영상 파일, 동영상 파일, 음악 파일 또는 텍스트 파일을 외부 장치와의 연결이 해제된 뒤에도 디스플레이(180)에 표시하거나, 음향출력부(185)를 통해 출력할 수 있다.
영상표시장치(100)는 외부신호입출력부(130)를 통하여 이동통신 단말기(216) 혹은 통신망과 연결되면, 영상 또는 음성통화를 위한 화면을 디스플레이(180)에 표시할 수 있다. 또한 영상표시장치(100)는 영상 또는 음성통화를 위한 음성을 음향출력부(185)를 통해 출력할 수 있다. 사용자는 이동통신 단말기(216) 혹은 통신망과 연결된 영상표시장치(100)를 이용하여 영상 또는 음성 통화를 할 수 있다.
도 3은 도 1의 제어부의 내부 블록도의 일예를 도시한 도면이며, 도 4는 도 3의 포맷터에서 2D 영상 신호와 3D 영상 신호의 분리를 보여주는 도면이고, 도 5는 도 3의 포맷터에서 출력되는 3D 영상의 다양한 포맷을 보여주는 도면이고, 도 6은 도 3의 포맷터에서 출력되는 3D 영상의 스케일링을 설명하기 위해 참조되는 도면이다.
본 발명의 일실시예에 의한 제어부(170)는, 영상처리부(310), 포맷터(320), OSD 생성부 (330), 및 믹서(340)를 포함할 수 있다.
먼저, 도 3(a)에 도시된 바와 같이, 제어부(170)는, 영상처리부(310)에서 복호화된 영상 신호에 기초하여 포맷터(320)에서 복수 시점의 영상으로 분리하여 처리할 수 있으며, 믹서(340)는 OSD 생성부 (330)에서 별도로 생성된 복수 시점 영상 신호와, 포맷터(320)에서 출력되는 복수 시점의 영상 신호를 믹싱할 수 있다.
영상 처리부(310)는, 튜너(110)와 복조부(120)를 거친 방송 신호 또는 외부신호입출력부(130)를 거친 외부입력신호 중 영상 신호를 처리할 수 있다.
한편, 영상 처리부(310)에 입력되는 신호는 상술한 바와 같이, 스트림 신호가 역다중화된 신호일수 있다.
예를 들어, 역다중화된 영상 신호가 MPEG-2 규격의 부호화된 2D 영상 신호인 경우, MPEG-2 디코더에 의해 복호화될 수 있다.
또한, 예를 들어, 역다중화된 2D 영상 신호가, DMB(Digital Multimedia Broadcasting) 방식 또는 DVB-H에 따른 H.264 규격의 부호화된 영상 신호인 경우, H.264 디코더에 의해 복호화될 수 있다.
또한, 예를 들어, 역다중화된 영상 신호가, MPEC-C part 3 의 깊이(depth) 영상인 경우, MPEC-C 디코더에 의해 복호화될 수 있다. 또한, 시차(disparity) 정보가 복호화될 수도 있다.
또한, 예를 들어, 역다중화된 영상 신호가 MVC (Multi-view Video Coding)에 따른 멀티 시점 영상인 경우 MVC 디코더에 의해 복호화될 수 있다.
또한, 예를 들어, 역다중화된 영상 신호가 FTV(Free-viewpoint TV)에 따른 자유 시점 영상인 경우, FTV 디코더에 의해 복호화될 수 있다.
한편, 영상 처리부(310)에서 복호화된 영상 신호는, 2D 영상 신호만 있는 경우, 2D 영상 신호와 3D 영상 신호가 혼합된 경우, 및 3D 영상 신호만 있는 경우로 구분될 수 있다.
한편, 영상 처리부(310)에서 복호화된 영상 신호는, 상술한 바와 같이, 다양한 포맷의 3D 영상 신호일 수 있다. 예를 들어, 색차 영상(color image) 및 깊이 영상(depth image)으로 이루어진 3D 영상 신호일 수 있으며, 또는 복수 시점 영상 신호로 이루어진 3D 영상 신호 등일 수 있다. 복수 시점 영상 신호는, 예를 들어, 좌안 영상 신호와 우안 영상 신호를 포함할 수 있다.
여기서, 3D 영상 신호의 포맷은, 도 5와 같이, 좌안 영상 신호(L)와 우안 영상 신호(R)를 좌,우로 배치하는 사이드 바이 사이드(Side by Side) 포맷(도 5a), 상,하로 배치하는 탑 다운(Top / Down) 포맷(도 5b), 시분할로 배치하는 프레임 시퀀셜(Frame Sequential) 포맷(도 5c), 좌안 영상 신호와 우안 영상 신호를 라인 별로 혼합하는 인터레이스 (Interlaced) 포맷(도 5d), 좌안 영상 신호와 우안 영상 신호를 박스 별로 혼합하는 체커 박스(Checker Box) 포맷(도 5e) 등일 수 있다.
한편, 영상 처리부(310)는, 복호화된 영상 신호에 캡션 또는 데이터 방송 등과 관련된 영상 신호가 포함된 경우, 이를 분리하여, OSD 생성부(330)로 출력할 수 있다. 캡션 또는 데이터 방송 등과 관련된 영상 신호는, OSD 생성부(330)에서 3D 오브젝트로 생성될 수 있다.
포맷터(320)는, 복호화된 영상 신호를 입력 받아, 2D 영상 신호와 3D 영상 신호를 분리할 수 있다. 그리고, 3D 영상 신호를 복수 시점의 영상 신호로 분리할 수 있다. 예를 들어, 좌안 영상 신호와 우안 영상 신호로 분리할 수 있다.
복호화된 영상 신호가 2D 영상 신호인지 또는 3D 영상 신호인지 여부는, 해당 영상 신호가 3D 영상임을 나타내는 스트림의 헤더(header) 내의 3D 영상 플래그(flag) 또는 3D 영상 메타 데이터(meta data) 또는 3D 영상의 포맷 정보(format information) 등을 참조하여 판단할 수 있다.
이러한 3D 영상 플래그, 3D 영상 메타 데이터는, 또는 3D 영상의 포맷 정보는, 3D 영상 정보 외에, 3D 영상의 위치 정보, 영역 정보 또는 크기 정보를 포함할 수도 있다.
한편, 3D 영상 플래그, 3D 영상 메타 데이터 또는 3D 영상의 포맷 정보는, 스트림 역다중화시에 복호화되어 포맷터(320)에 입력될 수 있다.
포맷터(320)는, 3D 영상 플래그, 3D 영상 메타 데이터 또는 3D 영상의 포맷 정보를 이용하여, 복호화된 영상 신호로부터 3D 영상 신호를 분리할 수 있다.
그리고, 포맷터(320)는, 3D 영상의 포맷 정보를 기반으로, 소정 포맷의 3D 영상 신호를 재조합하여, 복수 시점의 3D 영상 신호를 생성할 수 있다. 예를 들어, 좌완 영상 신호와 우안 영상 신호로 분리할 수 있다.
도 4는, 영상처리부(310)에서 수신되는 복호화된 영상 신호로부터 2D 영상 신호와 3D 영상 신호가 분리되고, 포맷터(320)에서 3D 영상 신호가 재조합되어 좌완 영상 신호와 우안 영상 신호로로 분리되는 것을 보여준다.
먼저 도 4(a)와 같이, 제1 영상 신호(410)가 2D 영상 신호이고, 제2 영상 신호(420)가 3D 영상 신호인 경우, 포맷터(320)는 제1 영상 신호(410)와 제2 영상 신호(420)를 분리하며, 다시 제2 영상 신호를 좌안 영상 신호(423)와 우안 영상 신호(426)로 분리할 수 있다. 한편, 제1 영상 신호(410)는, 디스플레이(180)에 표시되는 메인 영상에 대응할 수 있으며, 제2 영상 신호(420)는, 디스플레이(180)에 표시되는 PIP 영상에 대응할 수 있다.
다음, 도 4(b)와 같이, 제1 영상 신호(410) 및 제2 영상 신호(420) 모두가 3D 영상 신호인 경우, 포맷터(320)는 이를 각각 분리하고, 제1 영상 신호(410) 및 제2 영상 신호(420) 각각을 좌안 영상 신호(413,423)와 우안 영상 신호(416,426)로 분리할 수 있다.
다음, 도 4(c)와 같이, 제1 영상 신호(410)가 3D 영상 신호이고, 제2 영상 신호(420)가 2D 영상 신호인 경우, 포맷터(320)는 제1 영상 신호(410)을 좌안 영상 신호(413)와 우안 영상 신호(416)로 분리할 수 있다.
다음, 도 4(d) 및 도 4(e)와 같이, 제1 영상 신호(410) 및 제2 영상 신호(420) 중 어느 하나가 3D 영상 신호이고, 다른 하나가 2D 영상 신호인 경우, 2D 영상 신호는 3D 영상 신호로 전환될 수 있다. 이러한 전환은 사용자의 입력에 따라 수행될 수 있다.
예를 들어, 3D 영상 생성 알고리즘에 따라 2D 영상 신호 내에서 에지(edge)를 검출하고, 검출된 에지(edge)에 따른 오브젝트를 3D 영상 신호로 분리하여 생성할 수 있다. 또한, 예를 들어, 3D 영상 생성 알고리즘에 따라 2D 영상 신호 내에서, 선택 가능한 오브젝트를 검출하고, 해당 오브젝트를 3D 영상 신호로 분리하여 생성하는 것도 가능하다. 이때, 생성된 3D 영상 신호는 상술한 바와 같이, 좌안 영상 신호(L)와 우안 영상 신호(R)로 분리될 수 있다. 한편, 2D 영상 신호 중 3D 영상 신호로 생성된 오브젝트 영역을 제외한 부분은 새로운 2D 영상 신호로 출력될 수 있다.
한편, 제1 영상 신호(410) 및 제2 영상 신호(420) 모두가 2D 영상 신호인 경우, 도 4(f)와 같이 어느 하나의 2D 영상 신호만 3D 영상 생성 알고리즘에 따라 3D 영상 신호로 전환될 수 있다. 또는 도 4(g)와 같이 모든 2D 영상 신호가 3D 영상 생성 알고리즘에 따라 3D 영상 신호로 전환될 수도 있다.
한편, 포맷터(320)는, 3D 영상 플래그, 3D 영상 메타 데이터 또는 3D 영상의 포맷 정보가 있는 경우, 이를 이용하여 3D 영상 신호 인지 등을 판별하며, 3D 영상 플래그, 3D 영상 메타 데이터 및 3D 영상의 포맷 정보가 없는 경우, 상술한 바와 같이 3D 영상 생성 알고리즘을 이용하여 3D 영상 신호 인지 등을 판별할 수 있다.
한편, 포맷터(320)에서 출력되는 3D 영상 신호는 좌안 영상 신호(413 또는 423)와 우안 영상(416 또는 426) 신호로 분리되고, 도 5에 예시된 포맷 중 어느 하나의 포맷으로 출력될 수 있다. 이때, 2D 영상 신호는, 포맷터(320)에서 별도의 신 호처리 없이 그대로 출력되거나 또는 3D 영상 신호의 포맷에 따라 해당 포맷으로 변형되어 출력될 수도 있다.
도 5는 본 실시예의 포맷터(320)를 통하여 생성될 수 있는 3D 영상 신호 포맷에 관한 설명에 참조되는 도이다. 본 실시예의 포맷터(320)는 좌안 영상 신호(L)과 우안 영상 신호(R)를 좌,우로 배치하는 사이드 바이 사이드(Side by Side) 포맷a), 상,하로 배치하는 탑 다운(Top / Down) 포맷(b), 시분할로 배치하는 프레임 시퀀셜(Frame Sequential) 포맷(c), 좌안 영상 신호와 우안 영상 신호를 라인 별로 혼합하는 인터레이스 (Interlaced) 포맷(d), 좌안 영상 신호와 우안 영상 신호를 박스 별로 혼합하는 체커 박스(Checker Box) 포맷(e) 등 다양한 포맷의 3D 영상 신호를 출력할 수 있다.
한편, 사용자는 도 5에 예시된 포맷 중 어느 하나를 출력 포맷으로 선택할 수도 있다. 사용자가 탑 다운(Top / Down) 포맷을 포맷터(320)의 출력 포맷으로 선택한 경우, 포맷터(320)는 입력되는 다른 포맷, 예를 들어 사이드 바이 사이드(Side by Side) 포맷의 3D 영상 신호를 재조합하여, 좌안 영상 신호와 우안 영상 신호로 분리한 후, 탑 다운(Top / Down) 포맷으로 변형하여 출력할 수 있다.
한편, 포맷터(320)에 입력되는 3D 영상 신호는 방송 영상 신호 또는 외부 입력 신호일수 있으며, 그 자체로 소정 깊이(depth)를 갖는 3D 영상 신호일 수 있다. 이에 따라, 포맷터(320)는, 해당 깊이를 갖는 3D 영상 신호를 좌안 영상 신호와 우안 영상 신호로 분리할 수 있다.
한편, 서로 다른 깊이를 가지는 3D 영상 신호는 깊이 차이로 인하여 서로 다 른 좌안 영상 신호와 우안 영상 신호로 분리될 수 있다. 즉, 3D 영상 신호의 깊이에 따라 좌안 영상 신호와 우안 영상 신호는 변경될 수 있다.
한편, 사용자의 입력 또는 설정에 따라, 3D 영상 신호의 깊이를 변경하는 경우, 포맷터(320)는, 변경된 깊이에 따라 각각 해당하는 좌안 영상 신호와 우안 영상 신호로 분리할 수 있다.
또한, 포맷터(320)는, 3D 영상 신호를 스케일링할 수 있다. 구체적으로는 3D 영상 신호 내의 3D 오브젝트를 스케일링할 수 있다.
도 6을 참조하면, 포맷터(320)는 3D 영상 신호를 다양한 방식으로 스케일링할 수 있다.
도 6(a)와 같이, 3D 영상 신호 또는 3D 영상 신호 내의 3D 오브젝트를 일정 비율로 전체적으로 확대 또는 축소할 수 있으며, 또한 도 6(b)와 같이, 3D 오브젝트를 부분적으로 확대 또는 축소(사다리꼴 형태)할 수도 있다. 또한, 도 6(c)와 같이, 3D 오브젝트를 적어도 일부를 회전(평행 사변형 형태)시킬 수도 있다. 이러한 스케일링을 통해, 3D 영상 신호 또는 3D 영상 신호 내의 3D 오브젝트에 입체감 즉, 3D 효과(effect)를 강조할 수 있게 된다.
한편, 도 6의 3D 영상 신호는 도 4(a)의 제2 영상 신호에 대응하는 좌안 영상 신호 또는 우안 영상 신호일 수 있다. 즉, PIP 영상에 대응하는 좌안 영상 신호또는 우안 영상 신호일 수 있다.
결국, 포맷터(320)는, 복호화된 영상 신호를 수신하여, 2D 영상 신호 또는 3D 영상 신호를 분리하며, 3D 영상 신호를 좌안 영상 신호와 우안 영상 신호로 다 시 분리할 수 있다. 그리고, 좌안 영상 신호와 우안 영상 신호를 스케일링하여, 도 5와 같은 소정 포맷으로 출력할 수 있다. 한편, 스케일링은 출력 포맷 형성 후 수행되는 것도 가능하다.
OSD 생성부(330)는, 사용자 입력에 따라 또는 자체적으로 OSD 신호를 생성한다. 생성되는 OSD 신호는, 2D OSD 오브젝트 또는 3D OSD 오브젝트를 포함할 수 있다.
2D OSD 오브젝트 또는 3D OSD 오브젝트 인지 여부는, 사용자 입력에 따라 또는 오브젝트의 크기 또는 선택 가능한 오브젝트인지 여부 등에 따라 결정될 수 있다.
OSD 생성부(330)는, 복호화된 영상 신호를 입력받아 처리하는 포맷터(320)와 달리, 바로 2D OSD 오브젝트 또는 3D OSD 오브젝트를 생성하여 출력할 수 있다. 한편, 3D OSD 오브젝트는 도 6과 같이, 다양한 방식으로 스케일링되어 출력될 수 있다. 또한, 깊이에 따라 출력되는 3D OSD 오브젝트는 가변할 수 있다.
출력시의 포맷은, 도 5에 도시된 바와 같이, 좌안용과 우안용이 결합된 다양한 포맷 중 어느 하나일 수 있다. 이때 출력 포맷은 포맷터(320)의 출력 포맷과 동일하게 된다. 예를 들어, 사용자가 탑 다운(Top / Down) 포맷을 포맷터(320)의 출력 포맷으로 선택한 경우, OSD 생성부(330)의 출력 포맷은 탑 다운(Top / Down) 포맷으로 결정된다.
한편, OSD 생성부(330)는, 영상 처리부(310)로부터, 캡션 또는 데이터 방송 등과 관련된 영상 신호를 입력받아, 캡션 또는 데이터 방송 등과 관련된 OSD 신호 를 출력할 수도 있다. 이때의 OSD 신호는, 상술한 바와 같이, 2D OSD 오브젝트 또는 3D OSD 오브젝트일 수 있다.
믹서(340)는, 포맷터(340)에서 출력되는 영상 신호와 OSD 생성부에서 출력되는 OSD 신호를 믹싱하여 출력한다. 출력되는 영상 신호는 디스플레이(180)에 입력된다.
한편, 제어부(170) 내부의 내부 블록도는 도 3(b)와 같이 구성될 수도 있다. 도 3(b)의 영상처리부(310), 포맷터(320), 및 OSD 생성부(330), 및 믹서(340)는 도 3(a)와 유사하며, 이하에서는 그 차이점을 기술한다.
일단, 믹서(340)는, 영상처리부(310)로부터의 복호화된 영상 신호와 OSD 생성부(330)에서 생성된 OSD 신호를 믹싱한다. 믹서(340)의 출력을 포맷터(320)에서 입력 받아 처리하므로, 3D 오브젝트 자체를 생성하고 해당 포맷에 맞게 출력하는 도 3(a)의 OSD 생성부(330)와 달리, 도 3(b)의 OSD 생성부(330)는 3D 오브젝트에 대응하는 OSD 신호를 생성하면 충분하다.
포맷터(320)는, 이러한 OSD 신호와 복호화된 영상 신호를 입력받아, 상술한 바와 같이, 3D 영상 신호를 분리하고, 3D 영상 신호를 복수 시점 영상 신호로 분리한다. 예를 들어, 3D 영상 신호는 좌안 영상 신호와 우안 영상 신호로 분리될 수 있으며, 분리된 좌안 영상 신호와 우안 영상 신호는 도 6과 같이 스케일링 처리되어 도 5에 도시된 소정 포맷으로 출력될 수 있다.
한편, 도 3에 도시된 제어부(170)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 제어부(170)의 사양에 따라 통 합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
도 7은 도 1의 영상표시장치에 표시되는 영상의 일예를 도시한 도면이다.
도면을 참조하면, 영상표시장치(100)는 도 5에 도시된 3D 영상 포맷 중 탑 다운 방식에 적합하도록 3D 영상을 표시할 수 있다.
도 7a는, 영상표시장치(100)에서 영상 재생이 중단된 경우, 디스플레이(180)에 표시되는 영상을 도시한다. 탑 다운 포맷은 도시된 바와 같이 상하로 복수시점 영상을 배열한다. 따라서, 영상 재생이 중단된 경우, 도 7a에 도시된 바와 같이, 상하가 분리된 영상(351, 352)이 디스플레이(180)에 표시된다.
한편, 예를 들어, 편광 안경 등 추가 디스플레이 방식에 의하여 3D 영상 등을 표시하는 경우, 사용자가 편광 안경 등을 착용하지 아니하면, 시청하는 영상의 초점이 맞지 아니한다.
즉, 도 7b에 도시된 바와 같이, 편광 안경 등을 착용하지 않고 시청하는 경우, 3D 오브젝트(353a, 353b, 353c)의 초점이 맞지 아니할 수 있다. 디스플레이(180)에 표시되는 영상(353)도 그러할 수 있다.
도 7c는 도 7b에 도시된 영상표시장치(100)의 화면을 편광 안경 등을 착용하고 시청하는 경우, 사용자에게 보여지는 영상(354) 및 3D 오브젝트(354a, 354b, 354c)의 초점이 맞는 것을 보여준다. 이때, 3D 오브젝트(354a, 354b, 354c)는 사용자를 향하여 돌출되도록 보이게 된다.
한편, 단독 디스플레이 방식에 따라 3D 영상을 표시하는 영상표시장치의 경우, 사용자가 편광 안경 등을 착용하지 않아도 사용자에게 보여지는 영상 및 3D 오브젝트는 도 7c와 같을 수 있다.
한편, 본 명세서에서의 오브젝트는, 오브젝트는 영상표시장치(100)의 음성 출력 레벨, 채널 정보, 현재 시간 등 영상표시장치(100)에 관한 정보 또는 영상표시장치(100)에서 표시하고 있는 영상에 관한 정보를 나타내는 이미지 또는 텍스트를 포함할 수 있다.
일예로, 오브젝트는 영상표시장치(100)의 디스플레이(180)에 표시되는 볼륨 조절 버튼, 채널 조절 버튼, 영상표시장치 제어 메뉴, 아이콘, 네비게이션 탭, 스크롤 바, 프로그래시브 바, 텍스트 박스, 윈도우 중 하나일 수 있다.
이러한 오브젝트를 통해, 사용자는 영상표시장치(100)에 관한 정보 또는 영상표시장치(100)에서 표시하고 있는 영상에 관한 정보를 인지할 수 있다. 또한 영상표시장치(100)에 표시된 오브젝트를 통하여 영상표시장치(100)로 명령을 입력할 수 있다.
한편, 본 명세서에서는 사용자 방향으로 돌출되는 3D 오브젝트의 깊이(depth)는 + 로 설정하며, 디스플레이(180) 또는 디스플레이(180)에 표시되는 2D 영상 또는 3D 영상의 깊이(depth)는 0 으로 설정한다. 그 외 디스플레이(180) 내로 오목하게 표현되는 3D 오브젝트의 깊이(depth)는 - 로 설정한다. 결국, 그 시청자 방향으로 돌출될수록 그 깊이(depth)는 더 커지는 것으로 한다.
한편, 본 명세서에서의 3D 오브젝트는, 입체감을 가지도록 처리된 오브젝트로서, 도 6에서 예시된 스케일링에 의해 입체감을 갖는 오브젝트 또는 깊이를 달리 갖는 오브젝트를 포함한다.
한편, 도 7c에서는 3D 오브젝트의 예로, PIP 영상 등을 예시하나, 이에 한정되지 않으며, 방송 프로그램 정보를 나타내는 EPG, 영상표시장치의 다양한 메뉴, 위젯, 아이콘 등이 될 수 있다.
도 8은 본 발명의 실시예에 따른 영상표시장치의 동작 방법을 보여주는 순서도이다. 도 8의 영상표시장치의 동작 방법은 영상표시장치에서 외부장치로 데이터가 수신되는 경우, 수신되는 데이터를 나타내는 3D 오브젝트의 표시를 설명하기 위한 도면이다.
도 8을 참조하면, 먼저 접속된 외부장치를 검출한다(S810).
외부 장치와의 접속은, 유선 또는 무선이 가능하며, 도 1의 외부신호입출력부(130)를 통해 접속될 수 있다.
제어부(170)는, 외부 장치와 송수신되는 데이터양 또는 신호의 세기 또는 외부 장치에 공급되는 전원(예를 들어, USB 전원 5V) 등에 기초하여, 외부 장치 접속 여부를 판단할 수 있다.
다음, 검출된 외부장치가 복수개인지 여부를 판단한다(S815). 검출된 외부장치가 복수개인 경우, 복수의 외부장치 중 적어도 하나의 외부장치를 선택받는다(S820).
검출된 외부장치가 복수개인 경우, 디스플레이(180) 상에 복수의 외부장치를 나타내는 오브젝트가 표시될 수 있으며, 사용자는 원격제어장치(200) 등을 이용하여, 적어도 하나의 외부장치를 선택할 수 있다.
한편, 접속된 외부장치를 나타내는 3D 오브젝트가 생성되어, 표시되는 것도 가능하다. 검출된 외부장치가 복수개인 경우, 접속된 외부장치를 나타내는 복수의 3D 오브젝트가 표시될 수 있다. 접속된 외부장치를 나타내는 복수의 3D 오브젝트는, 디스플레이(180)에 표시되는 2D 영상 또는 3D 영상의 깊이와 다른 것이 바람직하다. 이에 의해 사용자는 접속된 외부 장치를 직관적으로 파악할 수 있게 된다. 사용자는, 제스쳐 또는 원격제어장치(200)의 입력을 통해, 복수의 3D 오브젝트 중 적어도 하나를 선택할 수 있다.
한편, 검출된 외부장치가 1 개인 경우, 제825 단계(S825)가 바로 수행될 수 있다.
다음, 외부장치 내의 컨텐츠를 표시한다(S825). 검출된 외부장치가 복수개인 경우, 선택된 외부장치 내의 컨텐츠를 표시할 수 있으며, 검출된 외부장치가 1 개인 경우, 해당하는 외부장치 내의 컨텐츠를 표시할 수 있다.
이때, 제어부(170)는, 영상표시장치(100)에서 재생 또는 표시 가능한 컨텐츠와 불가능한 컨텐츠를 구분하여 표시하도록 제어할 수 있다. 예를 들어, 외부장치 내의 동영상 파일의 압축 코덱(codec)이 제어부(170) 내에 구비되지 않는 경우, 제어부(170)는 해당 동영상 파일을 재생 불가능한 컨텐츠로 분류하여 재생 가능한 컨텐츠와 그 표시를 달리하도록 제어할 수 있다. 예를 들어, 크기, 밝기, 투명도, 색 상, 흔들림 중 적어도 하나를 가변하여, 재생 가능한 컨텐츠와 재생 불가능한 컨텐츠를 구분하여 표시할 수 있다.
한편, 외부장치 내의 컨텐츠 표시는, 외부장치의 관리 메뉴가 표시된 상태에서, 관리 메뉴 중 컨텐츠 보기(open)가 선택된 경우에 수행될 수 있다. 한편, 이러한 관리 메뉴는, 3D 오브젝트로 표시될 수 있으며, 풀 다운 메뉴 형식, 팝 업 메뉴 형식으로 표시될 수 있다. 또한, 슬라이드 메뉴 형식에 따라, 접속된 외부장치를 나타내는 3D 오브젝트가 사라지면서, 관리 메뉴를 나타내는 3D 오브젝트가 표시되는 것도 가능하다. 관리 메뉴를 나타내는 3D 오브젝트를 표시함으로써, 사용자는 선택한 외부장치에 대한 다양한 메뉴를 선택할 수 있게 되어 편의성이 증대될 수 있다. 한편, 관리 메뉴는 3D 오브젝트 외에 2D 오브젝트로 표시되는 것도 가능하다. 이 경우, 디스플레이(180) 상에 표시될 수 있다.
다음, 수신할 컨텐츠를 선택한다(S830). 예를 들어, 관리 메뉴 중 컨텐츠 보기(open) 등에 의해, 외부장치 내의 컨텐츠들이 표시된 상태에서, 사용자의 제스처 동작 또는 원격제어장치(200)의 입력을 통해, 수신할 컨텐츠가 선택될 수 있다.
다음, 데이터 수신 명령이 있는 지 여부를 판단한다(S835). 영상표시장치(100)에서 외부장치의 컨텐츠를 수신할 지 여부를 결정하는 데이터 수신 명령이 입력될 수 있다.
한편, 도면에는 도시하지 않았지만, 데이터 수신 명령의 입력이 있는 지 여부를 판단하기 전에, 영상표시장치(100) 내의 저장부(140)의 용량, 저장 가능한 용량 등을 사용자에게 통지하는 것도 가능하다. 예를 들어, 디스플레이(180) 상에, 선택된 컨텐츠를 저장할 용량이 부족하다거나 충분하다거나 하는 것을 나타내는 오브젝트가 표시될 수도 있다. 이러한 오브젝트를 참조하여, 사용자는 선택된 컨텐츠를 수신할 지 여부를 결정할 수 있다.
다음, 데이터 수신 명령이 있는 경우, 외부장치로부터 데이터를 수신한다(S840). 수신되는 데이터는 선택된 컨텐츠에 대응하는 데이터로서, 예를 들어, 정지 영상 파일, 동영상 파일, 음성 파일, 텍스트 파일 중 적어도 하나를 포함할 수 있다. 수신되는 데이터는, 외부신호입출력부(130)를 통해 수신되어, 제어부(170)에서 처리될 수 있다. 예를 들어, 저장부(140)에 저장되거나, 디스플레이(180)에 표시될 수 있다.
다음, 수신되는 데이터를 나타내는 3D 오브젝트를 생성한다(S845). 제어부(170)는, 수신되는 데이터를 나타내는 3D 오브젝트를 생성한다. 한편, 3D 오브젝트는 수신되는 데이터를 나타내는 이미지일 수 있다.
구체적으로, 영상처리부(310)에서 수신되는 데이터를 기반으로 신호 처리하고, 포맷터(320)에서 3D 오브젝트를 생성할 수 있다. 이때, 3D 오브젝트의 깊이는 디스플레이(180) 또는 디스플레이(180)에 표시되는 영상과 다르게 설정될 수 있다.
한편, 제어부(170), 특히 포맷터(320)는, 데이터 이동에 따라, 수신되는 데이터를 나타내는 복수의 3D 오브젝트의 표시 크기 및 깊이 중 적어도 하나가 가변하도록 신호처리할 수 있다. 데이터 이동에 따라, 포맷터(320)는 스케일링시 그 비율을 점점 증가시키거나 감소시킬 수 있다. 또한, 그 깊이를 점점 증가시키거나 감소시킬 수 있다.
한편, 포맷터(320)는, 깊이가 클수록, 좌안용 3D 오브젝트와 우안용 3D 오브젝트의 거리감(disparity)이 작아지게 신호 처리할 수 있다.
이렇게 처리된 좌안용 3D 오브젝트와 우안용 3D 오브젝트는 도 5의 예시된 포맷 중 어느 하나의 포맷에 맞추어 출력될 수 있다.
다음, 생성된 3D 오브젝트를 표시한다(S850). 제어부(180)는, 생성된 3D 오브젝트를 표시하도록 제어한다. 생성된 3D 오브젝트는 상술한 바와 같이, 디스플레이(180)에 표시되는 영상과 다른 깊이를 가지도록, 예를 들어 + 의 깊이를 가지도록, 신호 처리 되었으므로, 입체감을 가지고, 표시되게 된다. 상술한 다양한 디스플레이 방식 중, 예를 들어, 안경 타입 방식인 경우, 사용자는 안경을 착용시, 생성된 3D 오브젝트가 돌출되어 보이는 것으로 인지할 수 있다.
특히, 데이터 이동에 따라, 복수의 3D 오브젝트의 표시 크기 및 깊이 중 적어도 하나가 가변하도록 신호처리되었기에, 사용자는 복수의 3D 오브젝트를 통해 직관적으로 데이터 이동을 인지할 수 있게 된다.
다음, 접속 상태를 판별하고(S855), 접속 상태에 따라, 3D 오브젝트를 가변하여 표시한다(S860).
제어부(170)는, 외부장치로부터 수신되는 신호의 세기, 데이터 양 등에 기초하여 접속 상태를 파악할 수 있다. 특히, 무선 환경에 따라 3D 오브젝트를 가변하여 표시할 수 있다.
예를 들어, 접속 상태에 따라, 3D 오브젝트의 크기, 밝기, 투명도, 색상, 흔들림 중 적어도 하나를 가변하여 표시할 수 있다. 접속 상태가 양호한 경우, 밝기 를 밝게하거나 할 수 있으며, 접속 상태가 불량한 경우, 밝기를 어둡게 한다던지 또는 3D 오브젝트의 흔들림 표시를 수행하는 것도 가능하다. 이러한, 가변 표시에 의해, 사용자는 직관적으로 접속 상태를 인지할 수 있게 된다.
한편, 수신 데이터를 나타내는 영상을 생성하고(S870), 생성된 영상을 디스플레이에 표시할 수 있다(S875). 제어부(170)는, 외부장치로부터 수신되는 데이터를 나타내는 영상 또는 썸네일 이미지를 생성하고 생성된 영상 또는 썸네일 이미지를 디스플레이(180)에 표시하도록 제어할 수 있다.
예를 들어, 제어부(170)는, 외부장치로부터 수신되는 데이터에 대응하는 영상 또는 썸네일 이미지를 생성하고, 이를 디스플레이(180) 상에 표시할 수 있다.
썸네일 이미지가 표시되는 경우, 디스플레이(180)의 일부 영역에 표시될 수 있으며, 수신되는 데이터를 나타내는 영상이 표시되는 경우, 디스플레이(180)의 전 영역에 걸쳐 표시될 수 있다.
이에 따라, 사용자는 외부장치로부터 수신되는 데이터를 3D 오브젝트 외에 디스플레이(180) 상에서도 인지할 수 있게 된다.
한편, 제820 단계(S820)에서 복수개의 외부장치가 선택된 경우, 각 외부장치로부터 데이터를 동시 또는 순차적으로 수신할 수 있다. 동시에 복수개의 외부장치로부터 데이터를 수신하는 경우, 수신되는 데이터를 나타내는 3D 오브젝트를 외부장치 별로 구분하여 표시할 수 있다. 물론, 수신되는 데이터를 나타내는 3D 오브젝트는 디스플레이(180)에 표시되는 영상과 그 깊이가 다르게 설정된다.
예를 들어, 각 외부장치 별로 3D 오브젝트의 표시좌표, 크기, 밝기, 투명도, 색상, 흔들림 중 적어도 하나를 가변하여 표시할 수 있다. 또한, 수신되는 데이터에 대응하는 영상 또는 썸네일 이미지를 생성하고, 이를 디스플레이(180) 상에 표시하는 경우, 생성된 영상 또는 썸네일 이미지를 각 외부장치 별로 디스플레이(180)의 다른 영역에 표시하는 것도 가능하다.
도 9 내지 도 19는 도 8의 영상표시장치의 동작 방법의 다양한 예를 설명하기 위해 참조되는 도면이다.
먼저, 도 9는, 디스플레이(180)에 영상(910)이 표시된 상태에서, 카메라로부터 수신되는 정지 영상 파일을 나타내는 3D 오브젝트가 입체적으로 표시되는 것을 도시한다. 3D 오브젝트(942,943,944,945 또는 946,947,948,949)는 영상(910)과 깊이(depth)가 다르며, 상술한 바와 같이 + 깊이를 가지도록 설정된다. 이에 따라 사용자는 3D 오브젝트(942,943,944,945 또는 946,947,948,949)가 돌출되는 것으로 인지할 수 있다.
한편, 복수의 3D 오브젝트 중 전송되는 순서에 따라, 각 데이터를 나타내는 3D 오브젝트의 깊이가 다를 수 있다. 도 9(a)에 도시된 바와 같이, 참조번호 942의 3D 오브젝트의 깊이가 가장 크며, 참조번호 945의 3D 오브젝트의 깊이가 가장 작게 설정될 수 있다.
한편, 도 9(a)에 도시된 3D 오브젝트(942,943,944,945)는 입체감을 위해, 동시에 표시되나 이에 한정되지 않으며, 순차적으로 표시되는 것도 가능하다.
한편, 카메라를 나타내는 3D 오브젝트(922)가 도면과 같이 표시되는 경우, 카메라를 나타내는 3D 오브젝트(922)의 깊이는, 수신되는 정지 영상 파일을 나타내 는 3D 오브젝트(942,943,944,945 또는 946,947,948,949)의 깊이 보다 크게 설정될 수 있다.
한편, 디스플레이(180) 상에는 정지 영상 파일 수신 중임을 나타내는 오브젝트(905)가 표시될 수 있다. 또한, 수신되는 데이터의 전송율, 전송량, 전송 소요 시간, 전송 속도, 전송 완료 시간, 전송 완료시까지 남은 시간, 영상표시장치 내의 저장 공간의 남은량 중 적어도 하나를 보여주는 오브젝트가 표시될 수도 있다. 도면에서는, 이 중에서 수신되는 정지 영상 파일의 전송율을 나타내는 오브젝트(955)를 예시한다.
도 9(a)에서는 정지 영상 파일이 수신되기 시작하므로, 그 전송율은 대략 0 % 를 나타내며, 도 9(b)에서는 정지 영상 피일의 수신이 어느 정도 진행된 것을 나타낸다. 이에 따라 도 9(b)에서는, 기 수신된 정지 영상 파일을 나타내는 3D 오브젝트(942,943,944,945)가 디스플레이(180) 상에 또는 그 부근에 쌓이는 것 처럼 표시될 수 있다. 이를 위해, 도 9(b)의 3D 오브젝트(942,943,944,945)의 깊이는 도 9(a)에 비해 작아질 수 있다. 한편, 도 9(b)에서는 신규로 수신되는 정지 영상 파일을 나타내는 3D 오브젝트(946,947,948,949)가 더 표시된다. 결국, 사용자는 정지 영상 파일의 전송 상태를 직관적으로 파악할 수 있게 된다.
다음, 도 10은, 도 9와 같이, 디스플레이(180)에 영상(910)이 표시된 상태에서, 카메라로부터 수신되는 정지 영상 파일을 나타내는 3D 오브젝트가 입체적으로 표시되는 것을 도시한다. 도 9와 달리, 수신 완료된 정지 영상 파일을 나타내는 영상 또는 썸네일 이미지가 디스플레이 상에 표시될 수 있다.
도 10(b)는, 수신 완료된 정지 영상 파일을 나타내는 썸네일 이미지(952,953,954,955)를 구비하는 영상(920)이 디스플레이(180)의 일부 영역에 표시되는 것을 예시한다. 이에 따라, 사용자는 외부장치로부터 수신되는 데이터를 3D 오브젝트 외에 디스플레이(180) 상에서도 인지할 수 있게 된다.
다음, 도 11은, 수신되는 데이터를 나타내는 복수의 3D 오브젝트의 표시 크기가 가변되게 보이도록 하는 것을 예시한다. 디스플레이(180)에 영상(910)이 표시된 상태에서, 카메라로부터 수신되는 정지 영상 파일을 나타내는 3D 오브젝트(1142,1143,1144 또는 1146,1147,1148)가 입체적으로 표시되며, 3D 오브젝트의 깊이가 작아질수록, 그 표시 크기가 커지는 것을 예시한다. 도 11(a)에 도시된 바와 같이, 참조번호 1142의 3D 오브젝트의 깊이가 가장 크므로 그 표시 크기는 가장 작으며, 참조번호 1144의 3D 오브젝트의 깊이가 가장 작으므로 그 표시크기는 가장 작게 설정될 수 있다.
3D 오브젝트의 크기가 영상표시장치에 가까울수록 커지므로, 사용자는 직관적으로 데이터 이동을 파악할 수 있게 된다.
다음, 도 12는, 수신되는 데이터를 나타내는 복수의 3D 오브젝트의 표시 크기가 가변되면서, 수신 완료된 데이터가 디스플레이 상에 영상으로 표현되는 것을 예시한다.
도 11과 유사하게, 카메라로부터 수신되는 데이터를 나타내는 복수의 3D 오브젝트(1242,1243,1244 또는 1246,1247,1248)가 입체적으로 표시되며, 3D 오브젝트의 깊이가 작아질수록, 그 표시 크기가 커지는 것을 예시한다.
한편, 수신 완료된 정지 영상 파일을 나타내는 영상 또는 썸네일 이미지가 디스플레이(180) 상에 표시될 수 있다.
도 12(b)는, 수신 완료된 정지 영상 파일을 나타내는 썸네일 이미지(1210)가 3D 영상으로서 펄럭이면서 디스플레이(180) 부근에 표시되는 것을 예시한다.
도 12(c)는, 수신 완료된 정지 영상 파일을 나타내는 썸네일 이미지(1220)가 디스플레이(180) 상의 전 영역에 표시되는 것을 예시한다.
이에 따라, 사용자는 외부장치로부터 수신되는 데이터를 3D 오브젝트 외에 디스플레이(180) 부근 또는 디스플레이(180) 상에서도 인지할 수 있게 된다.
도 13은, 디스플레이(180)에 영상(910)이 표시된 상태에서, DVD 플레이어로부터 수신되는 동영상 파일을 나타내는 3D 오브젝트가 입체적으로 표시되는 것을 도시한다. 3D 오브젝트(1342,1343,1344,1345)는 영상(910)과 깊이(depth)가 다르며, 상술한 바와 같이 + 깊이를 가지도록 설정된다. 이에 따라 사용자는 3D 오브젝트(1342,1343,1344,1345)가 돌출되는 것으로 인지할 수 있다.
한편, 동영상 파일을 나타내는 3D 오브젝트(1342,1343,1344,1345)는 썸네일 이미지 또는 썸네일 동영상으로 표시될 수 있다. 도면에서는 썸네일 이미지를 예시한다.
한편, DVD 플레이어를 나타내는 3D 오브젝트(928)가 도면과 같이 표시되는 경우, DVD 플레이어를 나타내는 3D 오브젝트(928)의 깊이는, 수신되는 동영상 파일을 나타내는 3D 오브젝트(1342,1343,1344,1345)의 깊이 보다 크게 설정될 수 있다.
한편, 디스플레이(180) 상에는 동영상 파일 수신 중임을 나타내는 오브젝 트(1305)가 표시될 수 있다. 또한, 수신되는 데이터의 전송율, 전송량, 전송 소요 시간, 전송 속도, 전송 완료 시간, 전송 완료시까지 남은 시간, 영상표시장치 내의 저장 공간의 남은량 중 적어도 하나를 보여주는 오브젝트가 표시될 수도 있다. 결국, 사용자는 동영상 파일의 전송 상태를 직관적으로 파악할 수 있게 된다.
한편, 동영상 파일 전송시에도 도 10 내지 도 12의 내용이 적용될 수 있다.
도 14는, 디스플레이(180)에 영상(1410)이 표시된 상태에서, PMP로부터 수신되는 음악 파일을 나타내는 3D 오브젝트가 입체적으로 표시되는 것을 도시한다. 3D 오브젝트(1442,1443,1444,1445)는 영상(1410)과 깊이(depth)가 다르며, 상술 바와 같이 + 깊이를 가지도록 설정된다. 이에 따라 사용자는 3D 오브젝트(1442,1443,1444,1445)가 돌출되는 것으로 인지할 수 있다.
한편, 음악 파일을 나타내는 3D 오브젝트(1442,1443,1444,1445)는, 도면과 같이, 음악 파일에 대응하는 썸네일 이미지로 표시될 수 있다.
한편, PMP를 나타내는 3D 오브젝트(924)가 도면과 같이 표시되는 경우, PMP를 나타내는 3D 오브젝트(924)의 깊이는, 수신되는 음악 파일을 나타내는 3D 오브젝트(1442,1443,1444,1445)의 깊이 보다 크게 설정될 수 있다.
한편, 디스플레이(180) 상에는 음악 파일 수신 중임을 나타내는 오브젝트(1405)가 표시될 수 있다. 그 외, 상술한 바와 같이, 수신되는 데이터의 전송율 등을 보여주는 오브젝트가 표시될 수도 있다. 결국, 사용자는 음악 파일의 전송 상태를 직관적으로 파악할 수 있게 된다.
한편, 음악 파일 전송시에도 도 10 내지 도 12의 내용이 적용될 수 있다.
도 15는, 디스플레이(180)에 영상(1510)이 표시된 상태에서, 카메라로부터 수신되는 정지 영상 파일을 나타내는 3D 오브젝트가 입체적으로 표시되는 것을 도시한다. 3D 오브젝트(1542,1543,1544)는 영상(1510)과 깊이(depth)가 다르며, 상술 바와 같이 + 깊이를 가지도록 설정된다. 특히, 3D 오브젝트(1542,1543,1544)는, 도면과 같이 슬라이드 방식으로 표시될 수 있다. 이에 따라 사용자는 3D 오브젝트1542,1543,1544)가 돌출되는 것으로 인지할 수 있다.
한편, 디스플레이(180) 상에는 정지 영상 파일 수신 중임을 나타내는 오브젝트(1505)가 표시될 수 있다.
다음, 도 16은, 디스플레이(180)에 영상(910)이 표시된 상태에서, 외부 장치와 영상표시장치(100)와의 접속 상태에 따라, 외부 장치로부터 수신되는 데이터를 나타내는 3D 오브젝트의 크기, 밝기, 투명도, 색상, 흔들림 중 적어도 하나를 가변시켜 표시하는 것을 예시한다.
도 16(a)와 같이 무선 환경이 양호한 경우, 카메라로부터 수신되는 데이터를 나타내는 3D 오브젝트(942,943,944,945)는 선명하게 표시될 수 있으며, 도 16(b)와 같이 무선 환경이 양호하지 않은 경우, 카메라로부터 수신되는 데이터를 나타내는 3D 오브젝트(962,963,964,965)는 흐릿하게 표시될 수 있다. 이때, 무선 접속 환경을 나타내는 무선 접속 아이콘(1632,1633)을 디스플레이(180) 상에 표시하는 것도 가능하다.
한편, 제어부(170)는, 수신되는 무선 신호의 세기에 기초하여, 접속 상태를 파악할 수 있다.
다음, 도 17은, 접속된 외부장치가 복수인 경우, 각 외부장치로부터 수신되는 데이터를 나타내는 3D 오브젝트를 각각 표시하고, 수신 완료된 데이터를 나타내는 영상 또는 썸네일 이미지는 디스플레이(180)의 서로 다른 영역에 표시하는 것을 예시한다.
도면에서는, 카메라로부터 수신되는 데이터를 나타내는 3D 오브젝트(1742,1743,1744,1745)와 PMP로부터 수신되는 데이터를 나타내는 3D 오브젝트(1752,1753,1754,1755)가 각각 표시되는 것을 예시한다.
또한, 카메라로부터 수신 완료된 데이터를 나타내는 썸네일 이미지(1746,1747)를 포함하는 영상(1710)은 디스플레이(180)의 일 영역에 표시되며, PMP로부터 수신 완료된 데이터를 나타내는 썸네일 이미지(175,1757)를 포함하는 영상(1720)은 디스플레이(180)의 다른 영역에 표시되는 것을 예시한다.
이에 따라, 복수의 외부장치로부터 데이터 수신시, 사용자는 구분하여 데이터 전송을 직관적으로 파악할 수 있게 된다.
다음, 도 18은, 접속된 외부장치가 복수인 경우, 각 외부장치로부터 수신되는 데이터를 나타내는 3D 오브젝트를 각각 표시하고, 각 외부장치 별로, 크기, 밝기, 투명도, 색상 중 적어도 하나가 가변되어 표시되는 것을 예시한다. 도면에서는 외부장치 별로 투명도가 다른 것을 예시한다.
도면과 같이, 카메라로부터 수신되는 데이터를 나타내는 3D 오브젝트(1842,1843,1844,1845)는 선명하게 표시될 수 있으며, PMP로부터 수신되는 데이터를 나타내는 3D 오브젝트(1852,1853,1854,1855)는 흐릿하게 표시될 수 있다.
이에 따라, 복수의 외부장치로부터 데이터 수신시, 사용자는 구분하여 데이터 전송을 직관적으로 파악할 수 있게 된다.
다음, 도 19는, 외부장치로부터 영상표시장치로 데이터 수신 과정을 예시하는 도면이다.
도면을 참조하면, 영상표시장치(100)는, 디스플레이(180)에 영상(910)이 표시된 상태에서, 도 19(a)와 같이, 접속된 외부 장치를 검색한다. 이때, 디스플레이(180)에는 외부 장치 검색 중임을 나타내는 오브젝트(1905)가 표시될 수 있다.
제어부(170)는, 외부 장치와 송수신되는 데이터양 또는 신호 세기 또는 외부 장치에 공급되는 전원(예를 들어, USB 전원 5V) 등에 기초하여, 외부 장치 접속 여부를 판단할 수 있다.
외부 장치와의 접속은, 유선 또는 무선이 가능하며, 도 1의 외부신호입출력부(130)를 통해 접속될 수 있다.
검색 결과에 따라, 제어부(170)는, 접속된 외부 장치를 나타내는 3D 오브젝트를 생성하고, 도 19(b)와 같이 생성된 3D 오브젝트(922,924,926,928,930)를 표시한다.
도 19(b)에서는, 카메라, PMP, 셋탑 박스, DVD 플레이어, 게임기(game console)가 모두 접속되어 각각 해당하는 3D 오브젝트(922,924,926,928,930)가 표시되는 것을 도시한다.
이때, 영상(910)과 각 3D 오브젝트(922,924,926,928,930)의 깊이는 다르게 설정되며, 각 3D 오브젝트(922,924,926,928,930)는, 해당하는 깊이에 따라 돌출 정 도가 달리 표시될 수 있다.
3D 오브젝트(922,924,926,928,930)는 도면과 같이 어안(魚眼) 형상으로 표시될 수 있으며, 그 외 원형(circle) 형상 또는 다면체 형상으로 표시될 수 있다. 또한, 디스플레이(180)에 표시되는 영상(910)의 원활한 시청을 위해, 디스플레이(180)의 모서리 부근에 배치되는 것도 가능하다.
한편, 상술한 바와 같이, 접속 상태 등에 따라 3D 오브젝트(922,924,926,928,930) 표시를 가변하는 것도 가능하다.
한편, 표시되는 3D 오브젝트(922,924,926,928,930) 중 어느 하나가 선택되는 경우, 도 19c 같이, 선택된 3D 오브젝트(922)에 대응하는 외부장치의 관리 메뉴(1910)가 표시될 수 있다.
괸리 메뉴(1910)는 도면과 같이, 풀 다운(pull-down) 메뉴 형태로 표시될 수 있으나, 이에 한정되지 않으며 팝업(pop-up) 메뉴 형태로 표시되는 것도 가능하다. 또한, 슬라이드 방식으로, 선택된 3D 오브젝트(922)의 표시가 사라지고, 관리 메뉴(1910)가 표시되는 것도 가능하다.
한편, 이러한 관리 메뉴는, 도면에 도시된 바와 같이, 3D 오브젝트일 수 있으며, 이에 따라, 디스플레이(180)에 표시되는 영상(910)과 다른 깊이를 가질 수 있다.
관리 메뉴는 다양한 항목이 배치될 수 있으나, 도면에서는, 영상표시장치(100)로의 데이터 전송을 위한 "전송(transfer)", 영상표시장치(100)와의 접속을 해제하는 "접속해제(disconnection)", 및 외부장치 내의 파일을 열어 보기 가능한 "열기(open)"를 예시한다.
한편, 3D 오브젝트의 선택은, 사용자의 제스처 동작 또는 원격제어장치(200)의 입력 등에 따라 수행될 수 있다. 이에 의해, 사용자는 접속된 외부장치에 대한 다양한 동작을 수행할 수 있게 된다.
한편, 관리 메뉴 중 "열기(open)"가 선택된 경우, 도 19d와 같이, 해당 외부장치 내의 컨텐츠를 표시할 수 있다. 그리고, 표시되는 컨텐츠 중 영상표시장치(100)로 전송할 컨텐츠가 선택될 수 있다.
다음, 영상표시장치(100)는 외부장치로부터 선택된 컨텐츠의 수신 여부에 대한 명령을 입력받는다. 예를 들어, 도 19(e)와 같이 "receive OK?" 라는 오브젝트(1930)가 디스플레이(180)에 표시될 수 있다. 이에 의해 사용자는 사용자의 제스처 동작 또는 원격제어장치(200)의 입력 등에 따라 컨텐츠의 수신 여부에 대한 명령을 입력할 수 있다. 한편, 오브젝트(1930)는 디스플레이(180)에 표시되는 영상(910)과 다른 깊이를 가지는 3D 오브젝트일 수도 있다.
컨텐츠 수신 명령이 입력된 경우, 도 19(f)와 같이, 디스플레이(180)에 영상(1810)이 표시된 상태에서, 외부장치로부터 수신되는 데이터를 나타내는 3D 오브젝트(1942,1943,1944,1945)가 입체적으로 표시되게 된다. 한편, 디스플레이(180) 상에는 데이터 수신 중임을 나타내는 오브젝트(1915)가 표시될 수 있다.
도 20은 본 발명의 실시예에 따른 영상표시장치의 동작 방법을 보여주는 순서도이다. 도 20의 영상표시장치의 동작 방법은 영상표시장치에서 외부장치로 데이터가 송신되는 경우, 송신되는 데이터를 나타내는 3D 오브젝트의 표시를 설명하기 위한 도면이다. 도 20의 순서도는 도 8의 순서도에 대응하며, 이하에서는 그 차이점을 중심으로 기술한다.
도 20을 참조하면, 먼저 접속된 외부장치를 검출한다(S2010). 외부 장치와의 접속은, 유선 또는 무선이 가능하며, 도 1의 외부신호입출력부(130)를 통해 접속될 수 있다.
다음, 검출된 외부장치가 복수개인지 여부를 판단한다(S2015). 검출된 외부장치가 복수개인 경우, 복수의 외부장치 중 적어도 하나의 외부장치를 선택받는다(S2020). 사용자는 원격제어장치(200) 등을 이용하여, 적어도 하나의 외부장치를 선택할 수 있다.
한편, 검출된 외부장치가 1 개인 경우, 제2025 단계(S2025)가 바로 수행될 수 있다.
다음, 영상표시장치 내의 컨텐츠를 표시한다(S2025). 영상표시장치(100) 내의 컨텐츠 표시는, 영상표시장치(100)의 관리 메뉴가 표시된 상태에서, 관리 메뉴 중 컨텐츠 보기(open)가 선택된 경우에 수행될 수 있다. 한편, 이러한 관리 메뉴는, 풀 다운 메뉴 형식, 팝 업 메뉴 형식으로 표시될 수 있다. 또한, 슬라이드 메뉴 형식에 따라, 디스플레이(180) 상에 표시되는 영상이 사라지면서, 관리 메뉴가 표시되는 것도 가능하다.
다음, 송신할 컨텐츠를 선택한다(S2030). 예를 들어, 관리 메뉴 중 컨텐츠 보기(open) 등에 의해, 영상표시장치(100) 내의 컨텐츠들이 표시된 상태에서, 사용자의 제스처 동작 또는 원격제어장치(200)의 입력을 통해, 송신할 컨텐츠가 선택될 수 있다. 한편, 검출된 외부장치가 복수개인 경우, 외부장치 별로 송신할 컨텐츠를 선택할 수 있다.
다음, 데이터 송신 명령이 있는 지 여부를 판단한다(S2035). 영상표시장치(100)에서 외부장치로 컨텐츠를 송신할 지 여부를 결정하는 데이터 송신 명령이 입력될 수 있다.
한편, 도면에는 도시하지 않았지만, 데이터 송신 명령의 입력이 있는 지 여부를 판단하기 전에, 외부장치 내의 저장부(미도시)의 용량, 저장 가능한 용량 등을 사용자에게 통지하는 것도 가능하다. 예를 들어, 디스플레이(180) 상에, 선택된 컨텐츠를 저장할 용량이 부족하다거나 충분하다거나 하는 것을 나타내는 오브젝트가 표시될 수도 있다. 이러한 오브젝트를 참조하여, 사용자는 선택된 컨텐츠를 송신할 지 여부를 결정할 수 있다.
다음, 데이터 송신 명령이 있는 경우, 외부장치로부터 데이터를 송신한다(S2040). 송신되는 데이터는 선택된 컨텐츠에 대응하는 데이터로서, 예를 들어, 정지 영상 파일, 동영상 파일, 음성 파일, 텍스트 파일 중 적어도 하나를 포함할 수 있다. 송신되는 데이터는, 외부신호입출력부(130)를 통해 송신될 수 있다.
다음, 송신되는 데이터를 나타내는 3D 오브젝트를 생성한다(S2045). 제어부(170)는, 송신되는 데이터를 나타내는 3D 오브젝트를 생성한다. 한편, 3D 오브젝트는 송신되는 데이터를 나타내는 이미지일 수 있다.
구체적으로, 영상처리부(310)에서 송신되는 데이터를 기반으로 신호 처리하고, 포맷터(320)에서 3D 오브젝트를 생성할 수 있다. 이때, 3D 오브젝트의 깊이는 디스플레이(180) 또는 디스플레이(180)에 표시되는 영상과 다르게 설정될 수 있다.
한편, 제어부(170), 특히 포맷터(320)는, 데이터 이동에 따라, 송신되는 데이터를 나타내는 복수의 3D 오브젝트의 표시 크기 및 깊이 중 적어도 하나가 가변하도록 신호처리할 수 있다. 데이터 이동에 따라, 포맷터(320)는 스케일링시 그 비율을 점점 증가시키거나 감소시킬 수 있다. 또한, 그 깊이를 점점 증가시키거나 감소시킬 수 있다.
한편, 포맷터(320)는, 깊이가 클수록, 좌안용 3D 오브젝트와 우안용 3D 오브젝트의 거리감(disparity)이 작아지게 신호 처리할 수 있다.
이렇게 처리된 좌안용 3D 오브젝트와 우안용 3D 오브젝트는 도 5의 예시된 포맷 중 어느 하나의 포맷에 맞추어 출력될 수 있다.
다음, 생성된 3D 오브젝트를 표시한다(S2050). 제어부(180)는, 생성된 3D 오브젝트를 표시하도록 제어한다. 생성된 3D 오브젝트는 상술한 바와 같이, 디스플레이(180)에 표시되는 영상과 다른 깊이를 가지도록, 예를 들어 + 의 깊이를 가지도록, 신호 처리 되었으므로, 입체감을 가지고, 표시되게 된다. 상술한 다양한 디스플레이 방식 중, 예를 들어, 안경 타입 방식인 경우, 사용자는 안경을 착용시, 생성된 3D 오브젝트가 돌출되어 보이는 것으로 인지할 수 있다.
특히, 데이터 이동에 따라, 복수의 3D 오브젝트의 표시 크기 및 깊이 중 적어도 하나가 가변하도록 신호처리되었기에, 사용자는 복수의 3D 오브젝트를 통해 직관적으로 데이터 이동을 인지할 수 있게 된다.
다음, 접속 상태를 판별하고(S2055), 접속 상태에 따라, 3D 오브젝트를 가변 하여 표시한다(S2060).
제어부(170)는, 외부장치로부터 송신되는 신호의 세기, 데이터 양 등에 기초하여 접속 상태를 파악할 수 있다. 특히, 무선 환경에 따라 3D 오브젝트를 가변하여 표시할 수 있다.
예를 들어, 접속 상태에 따라, 3D 오브젝트의 크기, 밝기, 투명도, 색상, 흔들림 중 적어도 하나를 가변하여 표시할 수 있다. 접속 상태가 양호한 경우, 밝기를 밝게하거나 할 수 있으며, 접속 상태가 불량한 경우, 밝기를 어둡게 한다던지 또는 3D 오브젝트의 흔들림 표시를 수행하는 것도 가능하다. 이러한, 가변 표시에 의해, 사용자는 직관적으로 접속 상태를 인지할 수 있게 된다.
한편, 제2020 단계(S2020)에서 복수개의 외부장치가 선택된 경우, 각 외부장치로 데이터를 동시 또는 순차적으로 송신할 수 있다. 동시에 복수개의 외부장치로데이터를 송신하는 경우, 송신되는 데이터를 나타내는 3D 오브젝트를 외부장치 별로 구분하여 표시할 수 있다. 물론, 송신되는 데이터를 나타내는 3D 오브젝트는 디스플레이(180)에 표시되는 영상과 그 깊이가 다르게 설정된다.
예를 들어, 각 외부장치 별로 3D 오브젝트의 표시좌표, 크기, 밝기, 투명도, 색상, 흔들림 중 적어도 하나를 가변하여 표시할 수 있다.
도 21 내지 도 27은 도 20의 영상표시장치의 동작 방법의 다양한 예를 설명하기 위해 참조되는 도면이다.
먼저, 도 21은, 도 9에 대응하는 도면으로서, 디스플레이(180)에 영상(910)이 표시된 상태에서, 카메라로 송신되는 정지 영상 파일을 나타내는 3D 오브젝트가 입체적으로 표시되는 것을 도시한다. 3D 오브젝트(2142,2143,2144,2145)는 디스플레이(180)에 영상(910)과 깊이(depth)가 다르며, 상술한 바와 같이 + 깊이를 가지도록 설정된다. 이에 따라 사용자는 3D 오브젝트(2142,2143,2144,2145)가 돌출되는 것으로 인지할 수 있다.
한편, 디스플레이(180) 상에는 정지 영상 파일 송신 중임을 나타내는 오브젝트(2105)가 표시될 수 있다. 또한, 송신되는 데이터의 전송율, 전송량, 전송 소요 시간, 전송 속도, 전송 완료 시간, 전송 완료시까지 남은 시간, 외부장치 내의 저장 공간의 남은량 중 적어도 하나를 보여주는 오브젝트가 표시될 수도 있다. 도면에서는, 이 중에서 송신되는 정지 영상 파일의 전송율을 나타내는 오브젝트(2155)를 예시한다. 결국, 사용자는 정지 영상 파일의 전송 상태를 직관적으로 파악할 수 있게 된다.
다음, 도 22는, 도 11에 대응하는 도면으로서, 송신되는 데이터를 나타내는 복수의 3D 오브젝트의 표시 크기가 가변되게 보이도록 하는 것을 예시한다. 디스플레이(180)에 영상(910)이 표시된 상태에서, 카메라로부터 송신되는 정지 영상 파일을 나타내는 3D 오브젝트(2242,2243,2244)가 입체적으로 표시되며, 3D 오브젝트의 깊이가 커질질수록, 그 표시 크기가 커지는 것을 예시한다. 3D 오브젝트의 크기가 외부장치에 가까울수록 커지므로, 사용자는 직관적으로 데이터 이동을 파악할 수 있게 된다.
다음, 도 23은, 도 13에 대응하는 도면으로서, 디스플레이(180)에 영상(2310)이 표시된 상태에서, PMP로 송신되는 동영상 파일을 나타내는 3D 오브젝트 가 입체적으로 표시되는 것을 도시한다. 3D 오브젝트(2342,2343,2344,2345)는 영상(2310)과 깊이(depth)가 다르며, 상술한 바와 같이 + 깊이를 가지도록 설정된다. 이에 따라 사용자는 3D 오브젝트(2342,2343,2344,2345)가 돌출되는 것으로 인지할 수 있다.
한편, 동영상 파일을 나타내는 3D 오브젝트(2342,2343,2344,2345)는 썸네일 이미지 또는 썸네일 동영상으로 표시될 수 있다. 도면에서는 썸네일 이미지를 예시한다.
한편, 디스플레이(180) 상에는 동영상 파일 송신 중임을 나타내는 오브젝트(2305)가 표시될 수 있다. 또한, 송신되는 데이터의 전송율 등을 보여주는 오브젝트가 표시될 수도 있다. 결국, 사용자는 동영상 파일의 전송 상태를 직관적으로 파악할 수 있게 된다.
다음, 도 24는, 도 14에 대응하는 도면으로서, 디스플레이(180)에 영상(2410)이 표시된 상태에서, PMP로 송신되는 음악 파일을 나타내는 3D 오브젝트가 입체적으로 표시되는 것을 도시한다. 3D 오브젝트(2442,2443,2444,2445)는 영상(2410)과 깊이(depth)가 다르며, 상술 바와 같이 + 깊이를 가지도록 설정된다. 이에 따라 사용자는 3D 오브젝트(2442,2443,2444,2445)가 돌출되는 것으로 인지할 수 있다.
한편, 음악 파일을 나타내는 3D 오브젝트(2442,2443,2444,2445)는, 도면과 같이, 음악 파일에 대응하는 썸네일 이미지로 표시될 수 있다.
한편, 디스플레이(180) 상에는 음악 파일 송신 중임을 나타내는 오브젝 트(2405)가 표시될 수 있다. 그 외, 상술한 바와 같이, 송신되는 데이터의 전송율 등을 보여주는 오브젝트가 표시될 수도 있다. 결국, 사용자는 음악 파일의 전송 상태를 직관적으로 파악할 수 있게 된다.
다음, 도 25는, 도 16에 대응하는 도면으로서, 디스플레이(180)에 영상(910)이 표시된 상태에서, 외부 장치와 영상표시장치(100)와의 접속 상태에 따라, 외부 장치로 송신되는 데이터를 나타내는 3D 오브젝트의 크기, 밝기, 투명도, 색상, 흔들림 중 적어도 하나를 가변시켜 표시하는 것을 예시한다.
도 25(a)와 같이 무선 환경이 양호한 경우, 카메라로 송신되는 데이터를 나타내는 3D 오브젝트(2542,2543,2544,2545)는 선명하게 표시될 수 있으며, 도 25(b)와 같이 무선 환경이 양호하지 않은 경우, 카메라로 송신되는 데이터를 나타내는 3D 오브젝트(2562,2563,25964,2565)는 흐릿하게 표시될 수 있다. 이때, 무선 접속 환경을 나타내는 무선 접속 아이콘(2532,2533)을 디스플레이(180) 상에 표시하는 것도 가능하다. 한편, 제어부(170)는, 송신되는 무선 신호의 세기에 기초하여, 접속 상태를 파악할 수 있다.
다음, 도 26은, 도 18에 대응하는 도면으로서, 접속된 외부장치가 복수인 경우, 각 외부장치로 송신되는 데이터를 나타내는 3D 오브젝트를 각각 표시하고, 각 외부장치 별로, 크기, 밝기, 투명도, 색상 중 적어도 하나가 가변되어 표시되는 것을 예시한다. 도면에서는 외부장치 별로 투명도가 다른 것을 예시한다.
도면과 같이, 카메라로 송신되는 데이터를 나타내는 3D 오브젝트(2642,2643,2644,2645)는 선명하게 표시될 수 있으며, PMP로 송신되는 데이터를 나타내는 3D 오브젝트(2652,2653,2654,2655)는 흐릿하게 표시될 수 있다.
이에 따라, 복수의 외부장치로부터 데이터 송신시, 사용자는 구분하여 데이터 전송을 직관적으로 파악할 수 있게 된다.
다음, 도 27은, 도 19에 대응하는 도면으로서, 영상표시장치로부터 외부장치로 데이터 송신 과정을 예시하는 도면이다.
도면을 참조하면, 영상표시장치(100)는, 디스플레이(180)에 영상(2710)이 표시된 상태에서, 도 27(a)와 같이, 접속된 외부 장치를 검색한다. 이때, 디스플레이(180)에는 외부 장치 검색 중임을 나타내는 오브젝트(2705)가 표시될 수 있다.
검색 결과에 따라, 제어부(170)는, 접속된 외부 장치를 나타내는 3D 오브젝트를 생성하고, 도 27(b)와 같이 생성된 3D 오브젝트(922,924,926,928,930)를 표시한다.
도 27(b)에서는, 카메라, PMP, 셋탑 박스, DVD 플레이어, 게임기(game console)가 모두 접속되어 각각 해당하는 3D 오브젝트(922,924,926,928,930)가 표시되는 것을 도시한다.
이때, 영상(2710)과 각 3D 오브젝트(922,924,926,928,930)의 깊이는 다르게 설정되며, 각 3D 오브젝트(922,924,926,928,930)는, 해당하는 깊이에 따라 돌출 정도가 달리 표시될 수 있다.
한편, 도 27(c)와 같이, 영상표시장치(100) 내의 컨텐츠를 표시할 수 있다. 그리고, 표시되는 컨텐츠 중 외부장치로 전송할 컨텐츠가 선택될 수 있다.
다음, 영상표시장치(100)는 외부장치로 선택된 컨텐츠의 송신 여부에 대한 명령을 입력받는다. 예를 들어, 도 27(d)와 같이 "transfer OK?" 라는 오브젝트(2720)가 디스플레이(180)에 표시될 수 있다. 사용자는 사용자의 제스처 동작 또는 원격제어장치(200)의 입력 등에 따라 컨텐츠의 송신 여부에 대한 명령을 입력할 수 있다. 한편, 오브젝트(2720)는 디스플레이(180)에 표시되는 영상(2710)과 다른 깊이를 가지는 3D 오브젝트일 수도 있다.
컨텐츠 송신 명령이 입력된 경우, 도 27(e)와 같이, 디스플레이(180)에 영상(2710)이 표시된 상태에서, 외부장치로 송신되는 데이터를 나타내는 3D 오브젝트(2742,2743,2744,2745)가 입체적으로 표시되게 된다. 한편, 디스플레이(180) 상에는 데이터 송신 중임을 나타내는 오브젝트(2715)가 표시될 수 있다.
본 발명에 따른 영상표시장치 및 그 동작방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 발명의 영상표시장치의 동작방법은 영상표시장치에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연 결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
도 1은 본 발명의 일 실시예에 따른 영상표시장치의 내부 블록도이다.
도 2는 도 1의 영상표시장치에 접속 가능한 외부장치의 일예를 도시한 도면이다.
도 3은 도 1의 제어부의 내부 블록도의 일예를 도시한 도면이다.
도 4는 도 3의 포맷터에서 2D 영상 신호와 3D 영상 신호의 분리를 보여주는 도면이다.
도 5는 도 3의 포맷터에서 출력되는 3D 영상의 다양한 포맷을 보여주는 도면이다.
도 6은 도 3의 포맷터에서 출력되는 3D 영상의 스케일링을 설명하기 위해 참조되는 도면이다.
도 7은 도 1의 영상표시장치에 표시되는 영상의 일예를 도시한 도면이다.
도 8은 본 발명의 실시예에 따른 영상표시장치의 동작 방법을 보여주는 순서도이다.
도 9 내지 도 19는 도 8의 영상표시장치의 동작 방법의 다양한 예를 설명하기 위해 참조되는 도면이다.
도 20은 본 발명의 실시예에 따른 영상표시장치의 동작 방법을 보여주는 순서도이다.
도 21 내지 도 27은 도 20의 영상표시장치의 동작 방법의 다양한 예를 설명하기 위해 참조되는 도면이다.

Claims (33)

  1. 3D 영상 신호를 수신하여 3D 영상으로 표시하는 영상표시장치의 동작방법에 있어서,
    영상을 표시하는 단계;
    접속된 외부장치를 검출하는 단계;
    상기 검출된 외부장치로부터 데이터를 수신하는 단계;
    상기 수신 데이터를 나타내는 3D 오브젝트를 생성하는 단계; 및
    상기 생성된 3D 오브젝트를 표시하는 단계;를 포함하며,
    상기 3D 오브젝트는 상기 영상과 서로 다른 깊이(depth)를 가지도록 신호 처리되는 것을 특징으로 하는 영상표시장치의 동작방법.
  2. 제1항에 있어서,
    상기 검출된 외부장치 내의 컨텐츠를 표시하는 단계; 및
    상기 컨텐츠 중 수신할 컨텐츠를 선택받는 단계;를 더 포함하고,
    상기 수신 데이터는 상기 선택된 컨텐츠에 대응하는 데이터인 것을 특징으로 하는 영상표시장치의 동작방법.
  3. 제2항에 있어서,
    상기 상기 검출된 외부장치 내의 컨텐츠를 표시 단계는,
    상기 영상표시장치에서 재생 또는 표시 가능한 컨텐츠와 불가능한 컨텐츠를구분하여 표시하는 것을 특징으로 하는 영상표시장치의 동작방법.
  4. 제1항 또는 제2항에 있어서,
    상기 검출된 외부장치 내의 데이터의 수신 여부에 대한 명령을 입력받는 단계;를 더 포함하며,
    데이터 수신 명령에 따라 상기 데이터를 수신하는 것을 특징으로 하는 영상표시장치의 동작방법.
  5. 제1항에 있어서,
    상기 검출된 외부장치가 복수개인 경우, 상기 복수개의 외부장치 중 적어도 하나를 선택받는 단계;를 더 포함하며,
    상기 선택된 외부장치로부터 데이터를 수신하는 것을 특징으로 하는 영상표시장치의 동작방법.
  6. 제5항에 있어서,
    상기 선택된 외부장치가 복수개인 경우, 각 외부장치로부터 수신되는 데이터를 나타내는 3D 오브젝트가 생성되며, 상기 생성된 3D 오브젝트는 상기 영상과 서로 다른 깊이(depth)를 가지도록 신호 처리되는 것을 특징으로 하는 영상표시장치의 동작방법.
  7. 제1항에 있어서,
    상기 검출된 외부장치를 나타내는 3D 오브젝트를 생성하는 단계; 및
    상기 외부장치를 나타내는 3D 오브젝트를 표시하는 단계;를 더 포함하며,
    상기 외부장치를 나타내는 3D 오브젝트는 상기 영상과 서로 다른 깊이(depth)를 가지도록 신호 처리되는 것을 특징으로 하는 영상표시장치의 동작방법.
  8. 제1항에 있어서,
    상기 3D 오브젝트는,
    상기 영상과 다른 깊이를 가지도록 복수 시점 영상으로 분리되어 처리된 영상인 것을 특징으로 하는 영상표시장치의 동작방법.
  9. 제1항에 있어서,
    상기 외부장치의 관리 메뉴를 표시하는 단계;를 더 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  10. 제9항에 있어서,
    상기 관리 메뉴는, 풀 다운 메뉴 또는 팝 업 메뉴인 것을 특징으로 하는 영상표시장치의 동작방법.
  11. 제9항에 있어서,
    상기 관리 메뉴에 대응하는 3D 오브젝트를 생성하는 단계;를 더 포함하며,
    상기 관리 메뉴에 대응하는 3D 오브젝트는 상기 영상과 다른 깊이(depth)를 가지도록 신호 처리되는 것을 특징으로 하는 영상표시장치의 동작방법.
  12. 제1항에 있어서,
    상기 3D 오브젝트 생성 단계는,
    상기 데이터의 이동에 따라, 상기 복수의 3D 오브젝트의 표시 크기 및 깊이 중 적어도 하나가 가변되게 보이도록 신호 처리하는 것을 특징으로 하는 영상표시장치의 동작방법.
  13. 제1항에 있어서,
    상기 수신되는 데이터의 전송율, 전송량, 전송 소요 시간, 전송 속도, 전송 완료 시간, 전송 완료시까지 남은 시간, 영상표시장치 내의 저장 공간의 남은량 중 적어도 하나를 보여주는 오브젝트를 표시하는 단계;를 더 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  14. 제1항에 있어서,
    상기 영상표시장치와의 접속 상태에 따라, 상기 3D 오브젝트의 크기, 밝기, 투명도, 색상 중 적어도 하나를 가변시켜 표시하는 단계;를 더 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  15. 제1항에 있어서,
    상기 수신된 데이터를 나타내는 제2 영상을 생성하는 단계; 및
    상기 생성된 제2 영상을 디스플레이에 표시하는 단계;를 더 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  16. 제15항에 있어서,
    상기 제2 영상은 상기 디스플레이의 적어도 일부 영역에 표시하는 것을 특징으로 하는 영상표시장치의 동작방법.
  17. 제15항에 있어서,
    복수개 외부장치에서 데이터가 수신되는 경우, 상기 수신된 데이터를 나타내는 제2 영상은, 상기 외부장치 별로, 상기 디스플레이의 다른 영역에 표시되거나, 크기, 밝기, 투명도, 색상 중 적어도 하나가 가변되어 표시되는 것을 특징으로 하는 영상표시장치의 동작방법.
  18. 제1항에 있어서,
    복수개 외부장치에서 데이터가 수신되는 경우, 상기 수신된 데이터를 나타내 는 3D 오브젝트는, 상기 외부장치 별로, 표시좌표, 크기, 밝기, 투명도, 색상 중 적어도 하나가 가변되어 표시되는 것을 특징으로 하는 영상표시장치의 동작방법.
  19. 제1항에 있어서,
    상기 데이터는,
    정지 영상 파일, 동영상 파일, 음성 파일, 텍스트 파일 중 적어도 하나를 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  20. 3D 영상 신호를 수신하여 3D 영상으로 표시하는 영상표시장치의 동작방법에 있어서,
    영상을 표시하는 단계;
    접속된 외부장치를 검출하는 단계;
    상기 검출된 외부장치에 데이터를 송신하는 단계;
    상기 송신 데이터를 나타내는 3D 오브젝트를 생성하는 단계; 및
    상기 생성된 3D 오브젝트를 표시하는 단계;를 포함하며,
    상기 3D 오브젝트는 상기 영상과 서로 다른 깊이(depth)를 가지도록 신호 처리되는 것을 특징으로 하는 영상표시장치의 동작방법.
  21. 제20항에 있어서,
    상기 영상표시장치 내의 컨텐츠를 표시하는 단계; 및
    상기 컨텐츠 중 수신할 컨텐츠를 선택받는 단계;를 더 포함하고,
    상기 송신 데이터는 상기 선택된 컨텐츠에 대응하는 데이터인 것을 특징으로 하는 영상표시장치의 동작방법.
  22. 제20항 또는 제21항에 있어서,
    상기 검출된 외부장치 내의 데이터의 송신 여부에 대한 명령을 입력받는 단계;를 더 포함하며,
    데이터 송신 명령에 따라 상기 데이터를 송신하는 것을 특징으로 하는 영상표시장치의 동작방법.
  23. 제20항에 있어서,
    상기 검출된 외부장치가 복수개인 경우, 상기 복수개의 외부장치 중 적어도하나를 선택받는 단계;를 더 포함하며,
    상기 선택된 외부장치에 데이터를 송신하는 것을 특징으로 하는 영상표시장치의 동작방법.
  24. 제31항에 있어서,
    상기 선택된 외부장치가 복수개인 경우, 각 외부장치에 송신되는 데이터를 나타내는 3D 오브젝트가 생성되며, 상기 생성된 3D 오브젝트는 상기 영상과 서로 다른 깊이(depth)를 가지도록 신호 처리되는 것을 특징으로 하는 영상표시장치의 동작방법.
  25. 제20항에 있어서,
    상기 검출된 외부장치를 나타내는 3D 오브젝트를 생성하는 단계; 및
    상기 외부장치를 나타내는 3D 오브젝트를 표시하는 단계;를 더 포함하며,
    상기 외부장치를 나타내는 3D 오브젝트는 상기 영상과 서로 다른 깊이(depth)를 가지도록 신호 처리되는 것을 특징으로 하는 영상표시장치의 동작방법.
  26. 제20항에 있어서,
    상기 3D 오브젝트는,
    상기 영상과 다른 깊이를 가지도록 복수 시점 영상으로 분리되어 처리된 영상인 것을 특징으로 하는 영상표시장치의 동작방법.
  27. 제20항에 있어서,
    상기 3D 오브젝트 생성 단계는,
    상기 데이터의 이동에 따라, 상기 복수의 3D 오브젝트의 표시 크기 및 깊이
    중 적어도 하나가 가변되게 보이도록 신호 처리하는 것을 특징으로 하는 영상표시장치의 동작방법.
  28. 제20항에 있어서,
    상기 영상표시장치와의 접속 상태에 따라, 상기 3D 오브젝트의 크기, 밝기, 투명도, 색상 중 적어도 하나를 가변시켜 표시하는 단계;를 더 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  29. 제20항에 있어서,
    상기 데이터는,
    정지 영상 파일, 동영상 파일, 음성 파일, 텍스트 파일 중 적어도 하나를 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  30. 3D 영상 신호를 수신 또는 하여 3D 영상으로 표시하는 영상표시장치에 있어서,
    입력 신호를 신호 처리하여 영상 신호를 출력하고, 접속된 외부장치로부터 수신되는 데이터 또는 접속된 외부장치로 송신되는 데이터를 나타내는 3D 오브젝트를 생성하는 제어부; 및
    상기 3D 오브젝트 및 상기 출력된 영상 신호에 따른 영상을 표시하는 디스플레이;를 포함하며,
    상기 3D 오브젝트는 상기 영상과 다른 깊이(depth)를 가지도록 신호 처리되는 것을 특징으로 하는 영상 표시 장치.
  31. 제30항에 있어서,
    상기 제어부는,
    상기 입력 신호 중 영상 신호를 복호화하는 영상 처리부;
    상기 복호화된 영상 신호에 기초하여 3D 영상 신호를 분리하고, 상기 3D 영상 신호에 기초하여 복수 시점 영상 신호를 생성하는 포맷터;
    상기 포맷터와 별도의 복수 시점 영상 신호를 생성하는 OSD 생성부; 및
    상기 포맷터의 출력 신호와 상기 OSD 생성부의 출력 신호를 믹싱하는 믹서;를 포함하는 것을 특징으로 하는 영상 표시 장치.
  32. 제30항에 있어서,
    상기 제어부는,
    상기 입력 신호 중 영상 신호를 복호화하는 영상 처리부;
    OSD 신호를 생성하는 OSD 생성부;
    상기 복호화된 영상 신호와 상기 OSD 신호를 믹싱하는 믹서; 및
    상기 믹싱된 신호에 기초하여 3D 영상 신호를 분리하고, 상기 3D 영상 신호에 기초하여 복수 시점 영상 신호를 생성하는 포맷터;를 포함하는 것을 특징으로 하는 영상 표시 장치.
  33. 제30항에 있어서,
    선택되는 채널의 방송 신호를 수신하거나 기저장된 채널의 방송 신호를 수신 하는 튜너; 및
    외부장치로부터 외부 신호를 입력받는 외부신호입출력부;를 더 포함하는 것을 특징으로 하는 영상 표시 장치.
KR1020090109289A 2009-11-12 2009-11-12 영상표시장치 및 그 동작방법 KR101611263B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020090109289A KR101611263B1 (ko) 2009-11-12 2009-11-12 영상표시장치 및 그 동작방법
US12/905,376 US8760503B2 (en) 2009-11-12 2010-10-15 Image display apparatus and operation method therefor
EP10830191.2A EP2499833B1 (en) 2009-11-12 2010-11-12 Image display apparatus and operation method therefor
CN201080051465.XA CN102598678B (zh) 2009-11-12 2010-11-12 图像显示设备及其操作方法
PCT/KR2010/007993 WO2011059259A2 (en) 2009-11-12 2010-11-12 Image display apparatus and operation method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090109289A KR101611263B1 (ko) 2009-11-12 2009-11-12 영상표시장치 및 그 동작방법

Publications (2)

Publication Number Publication Date
KR20110052306A true KR20110052306A (ko) 2011-05-18
KR101611263B1 KR101611263B1 (ko) 2016-04-11

Family

ID=43973887

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090109289A KR101611263B1 (ko) 2009-11-12 2009-11-12 영상표시장치 및 그 동작방법

Country Status (5)

Country Link
US (1) US8760503B2 (ko)
EP (1) EP2499833B1 (ko)
KR (1) KR101611263B1 (ko)
CN (1) CN102598678B (ko)
WO (1) WO2011059259A2 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012030177A3 (ko) * 2010-09-01 2012-05-31 엘지전자 주식회사 디지털 수신기 및 디지털 수신기에서의 3d 컨텐트 처리 방법
KR101337558B1 (ko) * 2012-05-14 2013-12-06 주식회사 넥서스칩스 고해상도 영상 또는 입체 영상의 허브기능을 구비한 모바일단말기 및 그 모바일단말기를 이용하여 고해상도 영상 또는 입체 영상 제공 방법

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5172991B2 (ja) * 2011-05-30 2013-03-27 株式会社東芝 三次元映像処理装置および鑑賞位置チェック方法
CN107105212A (zh) 2011-06-21 2017-08-29 Lg电子株式会社 用于处理3维广播服务的广播信号的方法和设备
US20130169755A1 (en) * 2011-12-28 2013-07-04 Samsung Electronics Co., Ltd. Signal processing device for processing plurality of 3d content, display device for displaying the content, and methods thereof
JP6009824B2 (ja) * 2012-05-29 2016-10-19 株式会社東芝 電子機器、制御方法およびプログラム
US20150253946A1 (en) * 2014-03-10 2015-09-10 Verizon Patent And Licensing Inc. Method and apparatus for transferring files based on user interaction
KR20160088102A (ko) * 2015-01-15 2016-07-25 삼성전자주식회사 네트워크에서 연결 상태를 표시하기 위한 장치 및 방법
US10978018B2 (en) 2018-05-29 2021-04-13 Samsung Electronics Co., Ltd. Virtual reality resource management for virtual reality head mounted display devices
JP7324037B2 (ja) * 2019-04-18 2023-08-09 キヤノン株式会社 データ転送装置およびその制御方法、プログラム
CN112188181B (zh) * 2019-07-02 2023-07-04 中强光电股份有限公司 图像显示设备、立体图像处理电路及其同步信号校正方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5739844A (en) * 1994-02-04 1998-04-14 Sanyo Electric Co. Ltd. Method of converting two-dimensional image into three-dimensional image
US6330008B1 (en) * 1997-02-24 2001-12-11 Torrent Systems, Inc. Apparatuses and methods for monitoring performance of parallel computing
US6243093B1 (en) 1998-09-14 2001-06-05 Microsoft Corporation Methods, apparatus and data structures for providing a user interface, which exploits spatial memory in three-dimensions, to objects and which visually groups matching objects
BR0213202A (pt) 2001-10-11 2004-08-31 Yappa Corp Sistema de exibição de imagem 3d baseado na rede
US7581182B1 (en) 2003-07-18 2009-08-25 Nvidia Corporation Apparatus, method, and 3D graphical user interface for media centers
US7567987B2 (en) * 2003-10-24 2009-07-28 Microsoft Corporation File sharing in P2P group shared spaces
EP1877982A1 (en) 2005-04-25 2008-01-16 Yappa Corporation 3d image generation and display system
EP2010999A4 (en) * 2006-04-21 2012-11-21 Google Inc SYSTEM FOR ORGANIZING AND VISUALIZING DISPLAY OBJECTS
US7661071B2 (en) 2006-07-14 2010-02-09 Microsoft Corporation Creation of three-dimensional user interface

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012030177A3 (ko) * 2010-09-01 2012-05-31 엘지전자 주식회사 디지털 수신기 및 디지털 수신기에서의 3d 컨텐트 처리 방법
US9386295B2 (en) 2010-09-01 2016-07-05 Lg Electronics Inc. Digital receiver and method for processing 3D content in the digital receiver
KR101337558B1 (ko) * 2012-05-14 2013-12-06 주식회사 넥서스칩스 고해상도 영상 또는 입체 영상의 허브기능을 구비한 모바일단말기 및 그 모바일단말기를 이용하여 고해상도 영상 또는 입체 영상 제공 방법

Also Published As

Publication number Publication date
US20110109728A1 (en) 2011-05-12
CN102598678A (zh) 2012-07-18
WO2011059259A3 (en) 2011-10-13
KR101611263B1 (ko) 2016-04-11
EP2499833B1 (en) 2017-07-19
EP2499833A4 (en) 2013-09-11
US8760503B2 (en) 2014-06-24
CN102598678B (zh) 2015-03-11
EP2499833A2 (en) 2012-09-19
WO2011059259A2 (en) 2011-05-19

Similar Documents

Publication Publication Date Title
KR101647722B1 (ko) 영상표시장치 및 그 동작방법
KR101611263B1 (ko) 영상표시장치 및 그 동작방법
KR101631451B1 (ko) 영상표시장치 및 그 동작방법
KR101627214B1 (ko) 영상표시장치 및 그 동작방법
US9609381B2 (en) Method for playing contents
KR101349276B1 (ko) 영상표시장치 및 그 동작방법
CN102550031B (zh) 图像显示装置及其操作方法
EP2424257A2 (en) Video display apparatus and operating method therefor
KR101635567B1 (ko) 영상표시장치 및 그 동작방법
KR20110082380A (ko) 영상표시장치 및 그 동작방법
US20130291017A1 (en) Image display apparatus and method for operating the same
KR20110090640A (ko) 영상표시장치 및 그 동작방법
KR101679570B1 (ko) 영상표시장치 및 그 동작방법
KR20120062428A (ko) 영상표시장치 및 그 동작방법
KR101176500B1 (ko) 영상표시장치 및 그 동작방법
KR20110134087A (ko) 영상표시장치 및 그 동작방법
KR101737367B1 (ko) 영상표시장치 및 그 동작방법
KR101730423B1 (ko) 영상표시장치 및 그 동작 방법
KR20110133296A (ko) 3d 영상시청장치 및 그 동작방법
KR20110076324A (ko) 영상표시장치 및 그 제어방법
KR20110110612A (ko) 영상표시장치 및 그 동작방법
KR20110093445A (ko) 영상표시장치 및 그 동작방법
KR20110130993A (ko) 컨텐츠 제어 방법 및 그를 이용한 컨텐츠 재생 장치
KR20120034995A (ko) 영상표시장치 및 그 동작방법
KR20110134094A (ko) 영상표시장치 및 그 동작방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant