KR20130076347A - Image display apparatus, and method for operating the same - Google Patents

Image display apparatus, and method for operating the same Download PDF

Info

Publication number
KR20130076347A
KR20130076347A KR1020110144903A KR20110144903A KR20130076347A KR 20130076347 A KR20130076347 A KR 20130076347A KR 1020110144903 A KR1020110144903 A KR 1020110144903A KR 20110144903 A KR20110144903 A KR 20110144903A KR 20130076347 A KR20130076347 A KR 20130076347A
Authority
KR
South Korea
Prior art keywords
image
eye image
unit
luminance component
left eye
Prior art date
Application number
KR1020110144903A
Other languages
Korean (ko)
Other versions
KR101880479B1 (en
Inventor
정제석
이태환
송병철
이봉수
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020110144903A priority Critical patent/KR101880479B1/en
Publication of KR20130076347A publication Critical patent/KR20130076347A/en
Application granted granted Critical
Publication of KR101880479B1 publication Critical patent/KR101880479B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PURPOSE: An image display image and an operation method thereof are provided to change a luminance component of the boundary region of a 3D object that is extracted using parallax between a left eye image and a right and to display the 3D image having the boundary region of the changed luminance component, thereby improving stereoscopic effect of the 3D image. CONSTITUTION: An image display device extracts a left eye image and a right eye image from an input image (S910). The image display device extracts a 3D object using parallax between the left eye image and the right eye image (S920). The image display device changes a luminance component of the boundary region of the 3D image (S940). The image display device displays the 3D image having the boundary region of the changed luminance component (S950). [Reference numerals] (AA) Start; (BB) Finish; (S910) Extract a left eye image and a right eye image from an input image; (S920) Extract a 3D object from one of the left eye image and the right eye image using binocular parallax between the extracted left eye image and right eye image; (S930) Label one or more 3D objects in case a plurality of 3D objects is extracted; (S940) Label one or more 3D objects in case a plurality of 3D objects is extracted; (S950) Display a 3D image comprising the boundary region of a varied brightness component

Description

영상표시장치, 및 그 동작방법{Image display apparatus, and method for operating the same}[0001] The present invention relates to an image display apparatus and a method of operating the same,

본 발명은 영상표시장치, 및 그 동작방법에 관한 것이며, 더욱 상세하게는 3D 영상 표시시 입체감을 향상시킬 수 있는 영상표시장치, 및 그 동작방법에 관한 것이다.The present invention relates to an image display apparatus and a method of operating the same, and more particularly, to an image display apparatus and a method of operating the same that can enhance a three-dimensional effect when displaying a 3D image.

영상표시장치는 사용자가 시청할 수 있는 영상을 표시하는 기능을 갖춘 장치이다. 사용자는 영상표시장치를 통하여 방송을 시청할 수 있다. 영상표시장치는 방송국에서 송출되는 방송신호 중 사용자가 선택한 방송을 디스플레이에 표시한다. 현재 방송은 전세계적으로 아날로그 방송에서 디지털 방송으로 전환하고 있는 추세이다. A video display device is a device having a function of displaying an image that a user can view. The user can view the broadcast through the video display device. A video display device displays a broadcast selected by a user among broadcast signals transmitted from a broadcast station on a display. Currently, broadcasting is changing from analog broadcasting to digital broadcasting around the world.

디지털 방송은 디지털 영상 및 음성 신호를 송출하는 방송을 의미한다. 디지털 방송은 아날로그 방송에 비해, 외부 잡음에 강해 데이터 손실이 작으며, 에러 정정에 유리하며, 해상도가 높고, 선명한 화면을 제공한다. 또한, 디지털 방송은 아날로그 방송과 달리 양방향 서비스가 가능하다. Digital broadcasting refers to broadcasting in which digital video and audio signals are transmitted. Digital broadcasting is more resistant to external noise than analog broadcasting, so it has less data loss, is advantageous for error correction, has a higher resolution, and provides a clearer picture. Also, unlike analog broadcasting, digital broadcasting is capable of bidirectional service.

본 발명의 목적은, 3D 영상 표시시 입체감을 향상시킬 수 있는 영상표시장치, 및 그 동작방법을 제공함에 있다.SUMMARY OF THE INVENTION An object of the present invention is to provide an image display apparatus and a method of operating the same, which can improve a three-dimensional effect when displaying a 3D image.

또한, 본 발명의 다른 목적은, 3D 영상 시청시 어지러움을 감소시킬 수 있는 영상표시장치, 및 그 동작방법을 제공함에 있다.Another object of the present invention is to provide an image display apparatus capable of reducing dizziness when viewing 3D images, and an operation method thereof.

상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치의 동작방법은, 입력되는 영상으로부터 좌안 영상과 우안 영상을 추출하는 단계와, 추출된 좌안 영상과 우안 영상 사이의 시차를 이용하여, 3D 오브젝트를 추출하는 단계와, 3D 오브젝트의 경계 영역의 휘도 성분을 가변시키는 단계와, 가변된 휘도 성분의 경계 영역을 구비하는 3D 영상을 표시하는 단계를 포함한다.The operation method of the image display device according to an embodiment of the present invention for achieving the above object, the step of extracting the left eye image and the right eye image from the input image, by using the time difference between the extracted left eye image and the right eye image, Extracting the 3D object; varying the luminance component of the boundary region of the 3D object; and displaying a 3D image having the boundary region of the variable luminance component.

또한, 상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치는, 입력되는 영상으로부터 좌안 영상과 우안 영상을 추출하는 영상 추출부와, 추출된 좌안 영상과 우안 영상 사이의 시차를 이용하여, 3D 오브젝트를 추출하는 3D 오브젝트 추출부와, 3D 오브젝트의 경계 영역의 휘도 성분을 가변시키는 휘도 가변부와, 가변된 휘도 성분의 경계 영역을 구비하는 3D 영상을 표시하는 디스플레이를 포함한다. In addition, the image display device according to an embodiment of the present invention for achieving the above object, by using an image extraction unit for extracting the left eye image and the right eye image from the input image, by using the time difference between the extracted left eye image and the right eye image And a display configured to display a 3D image including a 3D object extraction unit for extracting a 3D object, a luminance variable unit for varying a luminance component of a boundary region of the 3D object, and a boundary region of the variable luminance component.

본 발명의 실시예에 따르면, 좌안 영상과 우안 영상 사이의 시차를 이용하여, 3D 오브젝트를 추출하고, 추출된 3D 오브젝트의 경계 영역의 휘도 성분을 가변시키고, 가변된 휘도 성분의 경계 영역을 구비하는 3D 영상을 표시함으로써, 3D 영상 표시시 입체감을 향상시킬 수 있게 된다.According to an embodiment of the present invention, a 3D object is extracted using a parallax between a left eye image and a right eye image, the luminance component of the boundary region of the extracted 3D object is varied, and the boundary region of the variable luminance component is provided. By displaying a 3D image, it is possible to improve a three-dimensional effect when displaying a 3D image.

즉, 돌출되어 보일 수 있는 3D 오브젝트의 선명도(sharpeness)를 조절함으로써, 3D 영상 표시시 입체감을 향상시킬 수 있게 된다. That is, by adjusting the sharpness of the 3D object that can be seen to protrude, it is possible to improve the three-dimensional effect when displaying the 3D image.

또한, 3D 오브젝트의 깊이 조절 없이, 3D 오브젝트의 선명도만을 조절함으로써, 3D 영상 시청시 사용자가 느끼는 어지러움을 감소시킬 수 있게 된다.In addition, by adjusting only the sharpness of the 3D object without adjusting the depth of the 3D object, it is possible to reduce the dizziness that the user feels when viewing the 3D image.

한편, 복수의 3D 오브젝트들 중 최대 깊이를 갖는 3D 오브젝트, 즉 입체감에 가장 큰 영향을 갖는 3D 오브젝트에 대해 선명도를 조절함으로써, 3D 영상 표시시 입체감을 향상시킬 수 있게 된다. Meanwhile, by adjusting the sharpness of the 3D object having the maximum depth among the plurality of 3D objects, that is, the 3D object having the greatest effect on the stereoscopic feeling, the stereoscopic feeling may be improved when displaying the 3D image.

도 1은 본 발명의 영상표시장치의 외관을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 영상표시장치의 내부 블럭도이다.
도 3는 도 2의 제어부의 내부 블럭도이다.
도 4는 3D 영상의 다양한 포맷을 보여주는 도면이다.
도 5는 도 4의 포맷에 따라 시청장치의 동작을 보여주는 도면이다.
도 6은 본 발명의 실시예에 따른 3D 영상 신호의 다양한 스케일링 방식을 나타낸 도면이다.
도 7은 좌안 영상과 우안 영상에 의해 상이 맺히는 것을 설명하는 도면이다.
도 8은 좌안 영상과 우안 영상의 간격에 따른 3D 영상의 깊이를 설명하는 도면이다.
도 9는 본 발명의 일실시예에 따른 영상표시장치의 동작방법을 보여주는 순서도이다.
도 10 내지 도 14d는 도 9의 영상표시장치의 동작방법의 다양한 예를 설명하기 위해 참조되는 도면이다.
1 is a view showing an appearance of a video display device of the present invention.
2 is an internal block diagram of an image display apparatus according to an embodiment of the present invention.
3 is an internal block diagram of the control unit of FIG.
4 is a diagram showing various formats of a 3D image.
5 is a diagram showing the operation of the viewing apparatus according to the format of FIG.
6 is a diagram illustrating various scaling methods of a 3D image signal according to an exemplary embodiment of the present invention.
FIG. 7 is a diagram illustrating an image formed by a left eye image and a right eye image.
8 is a view for explaining the depth of the 3D image according to the interval between the left eye image and the right eye image.
9 is a flowchart illustrating an operation method of an image display apparatus according to an embodiment of the present invention.
10 to 14D are diagrams for describing various examples of an operation method of the image display apparatus of FIG. 9.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. Hereinafter, with reference to the drawings will be described the present invention in more detail.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.The suffix "module" and " part "for components used in the following description are given merely for convenience of description, and do not give special significance or role in themselves. Accordingly, the terms "module" and "part" may be used interchangeably.

도 1은 본 발명의 영상표시장치의 외관을 도시한 도면이다.1 is a view showing an appearance of a video display device of the present invention.

도 1을 참조하면, 본 발명의 일실시예에 의한, 영상표시장치(100)는, 영상표시를 위한 장치로서, 고정형 영상표시장치 또는 이동형 영상표시장치일 수 있다. Referring to FIG. 1, an image display apparatus 100 according to an embodiment of the present invention may be a fixed image display apparatus or a mobile image display apparatus.

본 발명의 실시예에 따르면, 영상표시장치(100)는, 3D 영상의 신호 처리를 수행할 수 있다. 예를 들어, 영상표시장치(100)에 입력되는 3D 영상이, 복수 시점 영상으로 구성되는 경우, 좌안 영상과 우안 영상을 각각 신호 처리하고, 도 4의 포맷에 따라, 좌안 영상과 우안 영상을 배열하여, 해당 포맷에 따라, 3D 영상을 표시할 수 있다.According to the embodiment of the present invention, the image display apparatus 100 can perform signal processing of a 3D image. For example, when the 3D image input to the image display apparatus 100 is composed of a plurality of view-point images, the left-eye image and the right-eye image are subjected to signal processing, and the left- , And a 3D image can be displayed in accordance with the format.

한편, 본 명세서에서 기술되는 영상표시장치(100)는, TV 수상기, 모니터, 프로젝터, 노트북 컴퓨터(notebook computer), 디지털 방송용 단말기, 핸드폰, 스마트 폰, 태블릿 pc 등이 포함될 수 있다.Meanwhile, the video display device 100 described in the present specification may include a TV receiver, a monitor, a projector, a notebook computer, a digital broadcasting terminal, a mobile phone, a smart phone, and a tablet PC.

도 2는 본 발명의 일 실시예에 따른 영상표시장치의 내부 블럭도이다. 2 is an internal block diagram of an image display apparatus according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일실시예에 의한 영상표시장치(100)는 방송 수신부(105), 외부장치 인터페이스부(130), 저장부(140), 사용자입력 인터페이스부(150), 센서부(미도시), 제어부(170), 디스플레이(180), 오디오 출력부(185), 및 시청장치(195)를 포함할 수 있다.2, an image display apparatus 100 according to an exemplary embodiment of the present invention includes a broadcast receiving unit 105, an external device interface unit 130, a storage unit 140, a user input interface unit 150, (Not shown), a control unit 170, a display 180, an audio output unit 185, and a viewing device 195.

방송 수신부(105)는, 튜너부(110), 복조부(120), 및 네트워크 인터페이스부(130)를 포함할 수 있다. 물론, 필요에 따라, 튜너부(110)와 복조부(120)를 구비하면서 네트워크 인터페이스부(130)는 포함하지 않도록 설계하는 것도 가능하며, 반대로 네트워크 인터페이스부(130)를 구비하면서 튜너부(110)와 복조부(120)는 포함하지 않도록 설계하는 것도 가능하다. The broadcast receiving unit 105 may include a tuner unit 110, a demodulation unit 120, and a network interface unit 130. Of course, it is possible to design the network interface unit 130 not to include the tuner unit 110 and the demodulation unit 120 as necessary, and to provide the network interface unit 130 with the tuner unit 110 And the demodulation unit 120 are not included.

튜너부(110)는, 안테나(50)를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널 또는 기저장된 모든 채널에 해당하는 RF 방송 신호를 선택한다. 또한, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성신호로 변환한다. The tuner unit 110 selects an RF broadcast signal corresponding to a channel selected by the user or all pre-stored channels among RF (Radio Frequency) broadcast signals received through the antenna 50. Also, the selected RF broadcast signal is converted into an intermediate frequency signal, a baseband image, or a voice signal.

예를 들어, 선택된 RF 방송 신호가 디지털 방송 신호이면 디지털 IF 신호(DIF)로 변환하고, 아날로그 방송 신호이면 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)로 변환한다. 즉, 튜너부(110)는 디지털 방송 신호 또는 아날로그 방송 신호를 처리할 수 있다. 튜너부(110)에서 출력되는 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)는 제어부(170)로 직접 입력될 수 있다.For example, if the selected RF broadcast signal is a digital broadcast signal, it is converted into a digital IF signal (DIF). If the selected RF broadcast signal is an analog broadcast signal, it is converted into an analog baseband image or voice signal (CVBS / SIF). That is, the tuner unit 110 can process a digital broadcast signal or an analog broadcast signal. The analog baseband video or audio signal (CVBS / SIF) output from the tuner unit 110 can be directly input to the controller 170.

또한, 튜너부(110)는 ATSC(Advanced Television System Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다. The tuner unit 110 may receive an RF broadcast signal of a single carrier according to an Advanced Television System Committee (ATSC) scheme or an RF broadcast signal of a plurality of carriers according to a DVB (Digital Video Broadcasting) scheme.

한편, 튜너부(110)는, 본 발명에서 안테나를 통해 수신되는 RF 방송 신호 중 채널 기억 기능을 통하여 저장된 모든 방송 채널의 RF 방송 신호를 순차적으로 선택하여 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환할 수 있다. Meanwhile, the tuner unit 110 sequentially selects RF broadcast signals of all broadcast channels stored through a channel memory function among the RF broadcast signals received through the antenna in the present invention, and sequentially selects RF broadcast signals of the intermediate frequency signal, baseband image, . ≪ / RTI >

한편, 튜너부(110)는, 복수 채널의 방송 신호를 수신하기 위해, 복수의 튜너를 구비하는 것이 가능하다. 또는, 복수 채널의 방송 신호를 동시에 수신하는 단일 튜너도 가능하다.On the other hand, the tuner unit 110 may be provided with a plurality of tuners in order to receive broadcast signals of a plurality of channels. Alternatively, a single tuner that simultaneously receives broadcast signals of a plurality of channels is also possible.

복조부(120)는 튜너부(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다. The demodulator 120 receives the digital IF signal DIF converted by the tuner 110 and performs a demodulation operation.

복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. The demodulation unit 120 may perform demodulation and channel decoding, and then output a stream signal TS. In this case, the stream signal may be a signal multiplexed with a video signal, an audio signal, or a data signal.

복조부(120)에서 출력한 스트림 신호는 제어부(170)로 입력될 수 있다. 제어부(170)는 역다중화, 영상/음성 신호 처리 등을 수행한 후, 디스플레이(180)에 영상을 출력하고, 오디오 출력부(185)로 음성을 출력한다. The stream signal output from the demodulator 120 may be input to the controller 170. The control unit 170 performs demultiplexing, video / audio signal processing, and the like, and then outputs an image to the display 180 and outputs audio to the audio output unit 185.

외부장치 인터페이스부(130)는, 접속된 외부 장치(190)와 데이터를 송신 또는 수신할 수 있다. 이를 위해, 외부장치 인터페이스부(130)는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다. The external device interface unit 130 can transmit or receive data with the connected external device 190. [ To this end, the external device interface unit 130 may include an A / V input / output unit (not shown) or a wireless communication unit (not shown).

외부장치 인터페이스부(130)는, DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북), 셋탑 박스 등과 같은 외부 장치와 유/무선으로 접속될 수 있으며, 외부 장치와 입력/출력 동작을 수행할 수도 있다. The external device interface unit 130 can be connected to an external device such as a DVD (Digital Versatile Disk), a Blu ray, a game device, a camera, a camcorder, a computer , And may perform an input / output operation with an external device.

A/V 입출력부는, 외부 장치의 영상 및 음성 신호를 입력받을 수 있다. 한편, 무선 통신부는, 다른 전자기기와 근거리 무선 통신을 수행할 수 있다. The A / V input / output unit can receive video and audio signals from an external device. Meanwhile, the wireless communication unit can perform short-range wireless communication with other electronic devices.

네트워크 인터페이스부(135)는, 영상표시장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 예를 들어, 네트워크 인터페이스부(135)는, 네트워크를 통해, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. The network interface unit 135 provides an interface for connecting the video display device 100 to a wired / wireless network including the Internet network. For example, the network interface unit 135 can receive, via the network, content or data provided by the Internet or a content provider or a network operator.

저장부(140)는, 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다. The storage unit 140 may store a program for each signal processing and control in the control unit 170 or may store the processed video, audio, or data signals.

또한, 저장부(140)는 외부장치 인터페이스부(130)로 입력되는 영상, 음성 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. 또한, 저장부(140)는, 채널 맵 등의 채널 기억 기능을 통하여 소정 방송 채널에 관한 정보를 저장할 수 있다. In addition, the storage unit 140 may perform a function for temporarily storing video, audio, or data signals input to the external device interface unit 130. [ In addition, the storage unit 140 may store information on a predetermined broadcast channel through a channel memory function such as a channel map.

도 2의 저장부(140)가 제어부(170)와 별도로 구비된 실시예를 도시하고 있으나, 본 발명의 범위는 이에 한정되지 않는다. 저장부(140)는 제어부(170) 내에 포함될 수 있다. Although the storage unit 140 of FIG. 2 is provided separately from the control unit 170, the scope of the present invention is not limited thereto. The storage unit 140 may be included in the controller 170.

사용자입력 인터페이스부(150)는, 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달한다. The user input interface unit 150 transmits a signal input by the user to the control unit 170 or a signal from the control unit 170 to the user.

예를 들어, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 사용자 입력 신호를 송신/수신하거나, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 사용자 입력 신호를 제어부(170)에 전달하거나, 사용자의 제스처를 센싱하는 센서부(미도시)로부터 입력되는 사용자 입력 신호를 제어부(170)에 전달하거나, 제어부(170)로부터의 신호를 센서부(미도시)로 송신할 수 있다. (Not shown), such as a power key, a channel key, a volume key, and a set value, from the remote control apparatus 200, (Not shown) that senses a user's gesture to the control unit 170 or transmits a signal from the control unit 170 to the control unit 170 It is possible to transmit it to the sensor unit (not shown).

제어부(170)는, 튜너부(110) 또는 복조부(120) 또는 외부장치 인터페이스부(130)를 통하여, 입력되는 스트림을 역다중화하거나, 역다중화된 신호들을 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다. The control unit 170 demultiplexes the input stream or processes the demultiplexed signals through the tuner unit 110 or the demodulation unit 120 or the external device interface unit 130 so as to output the video or audio output Signals can be generated and output.

제어부(170)에서 영상 처리된 영상 신호는 디스플레이(180)로 입력되어, 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수 있다. The video signal processed by the controller 170 may be input to the display 180 and displayed as an image corresponding to the video signal. Also, the image signal processed by the controller 170 may be input to the external output device through the external device interface unit 130.

제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 음향 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수 있다. The audio signal processed by the control unit 170 may be output to the audio output unit 185 as an audio signal. The audio signal processed by the controller 170 may be input to the external output device through the external device interface unit 130. [

도 2에는 도시되어 있지 않으나, 제어부(170)는 역다중화부, 영상처리부 등을 포함할 수 있다. 이에 대해서는 도 3을 참조하여 후술한다.Although not shown in FIG. 2, the controller 170 may include a demultiplexer, an image processor, and the like. This will be described later with reference to FIG.

그 외, 제어부(170)는, 영상표시장치(100) 내의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(170)는 튜너부(110)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다. In addition, the control unit 170 can control the overall operation in the video display device 100. [ For example, the control unit 170 may control the tuner unit 110 to control the tuning of the RF broadcast corresponding to the channel selected by the user or the previously stored channel.

또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상표시장치(100)를 제어할 수 있다. In addition, the controller 170 may control the image display apparatus 100 by a user command or an internal program input through the user input interface unit 150.

한편, 제어부(170)는, 영상을 표시하도록 디스플레이(180)를 제어할 수 있다. 이때, 디스플레이(180)에 표시되는 영상은, 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.Meanwhile, the control unit 170 may control the display 180 to display an image. In this case, the image displayed on the display 180 may be a still image or a video, and may be a 2D image or a 3D image.

한편, 제어부(170)는 디스플레이(180)에 표시되는 영상 중에, 소정 2D 오브젝트에 대해 3D 오브젝트로 생성하여 표시되도록 할 수 있다. 예를 들어, 오브젝트는, 접속된 웹 화면(신문, 잡지 등), EPG(Electronic Program Guide), 다양한 메뉴, 위젯, 아이콘, 정지 영상, 동영상, 텍스트 중 적어도 하나일 수 있다. Meanwhile, the controller 170 may generate a 3D object for a predetermined 2D object among the images displayed on the display 180, and display the 3D object. For example, the object may be at least one of a connected web screen (newspaper, magazine, etc.), EPG (Electronic Program Guide), various menus, widgets, icons, still images, moving images, and text.

이러한 3D 오브젝트는, 디스플레이(180)에 표시되는 영상과 다른 깊이를 가지도록 처리될 수 있다. 바람직하게는 3D 오브젝트가 디스플레이(180)에 표시되는 영상에 비해 돌출되어 보이도록 처리될 수 있다. Such a 3D object may be processed to have a different depth than the image displayed on the display 180. [ Preferably, the 3D object may be processed to appear protruding from the image displayed on the display 180.

한편, 제어부(170)는, 촬영부(미도시)로부터 촬영된 영상에 기초하여, 사용자의 위치를 인식할 수 있다. 예를 들어, 사용자와 영상표시장치(100)간의 거리(z축 좌표)를 파악할 수 있다. 그 외, 사용자 위치에 대응하는 디스플레이(180) 내의 x축 좌표, 및 y축 좌표를 파악할 수 있다.On the other hand, the control unit 170 can recognize the position of the user based on the image photographed from the photographing unit (not shown). For example, the distance (z-axis coordinate) between the user and the image display apparatus 100 can be grasped. In addition, the x-axis coordinate and the y-axis coordinate in the display 180 corresponding to the user position can be grasped.

한편, 도면에 도시하지 않았지만, 채널 신호 또는 외부 입력 신호에 대응하는 썸네일 영상을 생성하는 채널 브라우징 처리부가 더 구비되는 것도 가능하다. 채널 브라우징 처리부는, 복조부(120)에서 출력한 스트림 신호(TS) 또는 외부장치 인터페이스부(130)에서 출력한 스트림 신호 등을 입력받아, 입력되는 스트림 신호로부터 영상을 추출하여 썸네일 영상을 생성할 수 있다. 생성된 썸네일 영상은 복호화딘 영상 등과 함께 스트림 복호화되어 제어부(170)로 입력될 수 있다. 제어부(170)는 입력된 썸네일 영상을 이용하여 복수의 썸네일 영상을 구비하는 썸네일 리스트를 디스플레이(180)에 표시할 수 있다. Although not shown in the drawing, a channel browsing processing unit for generating a channel signal or a thumbnail image corresponding to an external input signal may be further provided. The channel browsing processing unit receives the stream signal TS output from the demodulation unit 120 or the stream signal output from the external device interface unit 130 and extracts an image from an input stream signal to generate a thumbnail image . The generated thumbnail image may be stream-decoded together with a decoded image and input to the controller 170. The control unit 170 may display a thumbnail list having a plurality of thumbnail images on the display 180 using the input thumbnail image.

이때의 썸네일 리스트는, 디스플레이(180)에 소정 영상을 표시한 상태에서 일부 영역에 표시되는 간편 보기 방식으로 표시되거나, 디스플레이(180)의 대부분 영역에 표시되는 전체 보기 방식으로 표시될 수 있다. 이러한 썸네일 리스트 내의 썸네일 영상은 순차적으로 업데이트 될 수 있다. At this time, the thumbnail list may be displayed in a simple view mode displayed on a partial area in a state where a predetermined image is displayed on the display 180, or in a full viewing mode displayed in most areas of the display 180. The thumbnail images in the thumbnail list can be sequentially updated.

디스플레이(180)는, 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호, 제어 신호 또는 외부장치 인터페이스부(130)에서 수신되는 영상 신호, 데이터 신호, 제어 신호 등을 변환하여 구동 신호를 생성한다. The display 180 converts an image signal, a data signal, an OSD signal, a control signal, or an image signal, a data signal, a control signal received from the external device interface unit 130 processed by the controller 170, and generates a driving signal. Create

디스플레이(180)는 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display)등이 가능하며, 또한, 3차원 디스플레이(3D display)가 가능할 수도 있다. The display 180 may be a PDP, an LCD, an OLED, a flexible display, or the like, and may also be capable of a 3D display.

이러한, 3차원 영상 시청을 위해, 디스플레이(180)는, 추가 디스플레이 방식과 단독 디스플레이 방식으로 나뉠 수 있다.In order to view the three-dimensional image, the display 180 may be divided into an additional display method and a single display method.

단독 디스플레이 방식은, 별도의 추가 디스플레이, 예를 들어 안경(glass) 등이 없이, 디스플레이(180) 단독으로 3D 영상을 구현할 수 있는 것으로서, 그 예로, 렌티큘라 방식, 파라랙스 베리어(parallax barrier) 등 다양한 방식이 적용될 수 있다. The single display method can implement a 3D image only on the display 180 without a separate additional display, for example, glass, and examples thereof include a lenticular method, a parallax barrier, and the like Various methods can be applied.

한편, 추가 디스플레이 방식은, 디스플레이(180) 외에 시청장치(195)로서 추가 디스플레이를 사용하여, 3D 영상을 구현할 수 있는 것으로서, 그 예로, 헤드 마운트 디스플레이(HMD) 타입, 안경 타입 등 다양한 방식이 적용될 수 있다. In addition, the additional display method can implement a 3D image using an additional display as the viewing device 195 in addition to the display 180. For example, various methods such as a head mount display (HMD) type and a glasses type are applied .

한편, 안경 타입은, 편광 안경 타입 등의 패시브(passive) 방식과, 셔터 글래스(ShutterGlass) 타입 등의 액티브(active) 방식으로 다시 나뉠 수 있다. 그리고, 헤드 마운트 디스플레이 타입에서도 패시브 방식과 액티브 방식으로 나뉠 수 있다.On the other hand, the spectacle type may be divided into a passive system such as a polarized glasses type and an active system such as a shutter glass type. In addition, the head mounted display can be divided into a passive type and an active type.

한편, 시청장치(195)는, 입체 영상 시청이 가능한 3D용 글래스일 수도 있다. 3D용 글래스(195)는, 패시브 방식의 편광 글래스 또는 액티브 방식의 셔터 글래스를 포함할 수 있으며, 상술한 헤드 마운트 타입도 포함하는 개념일 수 있다. On the other hand, the viewing apparatus 195 may be a 3D glass for stereoscopic viewing. The glass 195 for 3D may include a passive polarizing glass or an active shutter glass, and may be a concept including the head mount type described above.

예를 들어, 시청장치(195)가 편광 글래스인 경우, 좌안 글래스는, 좌안용 편광 글래스로, 우안 글래스는 우안용 편광 글래스로 구현될 수 있다.For example, when the viewing apparatus 195 is a polarizing glass, the left eye glass can be realized as a left eye polarizing glass, and the right eye glass can be realized as a right eye polarizing glass.

다른 예로, 시청장치(195)가 셔터 글래스인 경우, 좌안 글래스와 우안 글래스는 서로 교대로, 개폐될 수 있다. As another example, when the viewing apparatus 195 is a shutter glass, the left eye glass and the right eye glass can be alternately opened and closed.

한편, 디스플레이(180)는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.Meanwhile, the display 180 may be configured as a touch screen and used as an input device in addition to the output device.

오디오 출력부(185)는, 제어부(170)에서 음성 처리된 신호를 입력 받아 음성으로 출력한다. The audio output unit 185 receives the signal processed by the control unit 170 and outputs it as a voice.

촬영부(미도시)는 사용자를 촬영한다. 촬영부(미도시)는 1 개의 카메라로 구현되는 것이 가능하나, 이에 한정되지 않으며, 복수 개의 카메라로 구현되는 것도 가능하다. 한편, 촬영부(미도시)는 디스플레이(180) 상부에 영상표시장치(100)에 매립되거나 또는 별도로 배치될 수 있다. 촬영부(미도시)에서 촬영된 영상 정보는 제어부(170)에 입력될 수 있다. A photographing unit (not shown) photographs the user. The photographing unit (not shown) may be implemented by a single camera, but the present invention is not limited thereto, and may be implemented by a plurality of cameras. On the other hand, the photographing unit (not shown) may be embedded in the image display device 100 on the upper side of the display 180 or may be disposed separately. The image information photographed by the photographing unit (not shown) may be input to the control unit 170.

제어부(170)는, 촬영부(미도시)로부터 촬영된 영상, 또는 센서부(미도시)로부터의 감지된 신호 각각 또는 그 조합에 기초하여 사용자의 제스처를 감지할 수 있다. The control unit 170 can detect the gesture of the user based on each of the images photographed from the photographing unit (not shown) or the signals sensed from the sensor unit (not shown) or a combination thereof.

원격제어장치(200)는, 사용자 입력을 사용자입력 인터페이스부(150)로 송신한다. 이를 위해, 원격제어장치(200)는, 블루투스(Bluetooth), RF(Radio Frequency) 통신, 적외선(IR) 통신, UWB(Ultra Wideband), 지그비(ZigBee) 방식 등을 사용할 수 있다. 또한, 원격제어장치(200)는, 사용자입력 인터페이스부(150)에서 출력한 영상, 음성 또는 데이터 신호 등을 수신하여, 이를 원격제어장치(200)에서 표시하거나 음성 출력할 수 있다.The remote control apparatus 200 transmits the user input to the user input interface unit 150. [ To this end, the remote control apparatus 200 can use Bluetooth, RF (radio frequency) communication, infrared (IR) communication, UWB (Ultra Wideband), ZigBee, or the like. Also, the remote control apparatus 200 can receive the video, audio, or data signal output from the user input interface unit 150 and display it or output it by the remote control apparatus 200.

한편, 도 2에 도시된 영상표시장치(100)의 블럭도는 본 발명의 일실시예를 위한 블럭도이다. 블럭도의 각 구성요소는 실제 구현되는 영상표시장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블럭에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.Meanwhile, a block diagram of the image display apparatus 100 shown in FIG. 2 is a block diagram for an embodiment of the present invention. Each component of the block diagram can be integrated, added, or omitted according to the specifications of the image display apparatus 100 actually implemented. That is, two or more constituent elements may be combined into one constituent element, or one constituent element may be constituted by two or more constituent elements, if necessary. The functions performed in each block are for the purpose of describing the embodiments of the present invention, and the specific operations and apparatuses do not limit the scope of rights of the present invention.

한편, 영상표시장치(100)는 도 2에 도시된 바와 달리, 도 2의 도시된 튜너부(110)와 복조부(120)를 구비하지 않고, 네트워크 인터페이스부(130) 또는 외부장치 인터페이스부(135)를 통해서, 영상 컨텐츠를 수신하고, 이를 재생할 수도 있다.2, the video display apparatus 100 does not include the tuner unit 110 and the demodulation unit 120 shown in FIG. 2, but may be connected to the network interface unit 130 or the external device interface unit 135 to play back the video content.

한편, 영상표시장치(100)는, 장치 내에 저장된 영상 또는 입력되는 영상의 신호 처리를 수행하는 영상신호 처리장치의 일예이다, 영상신호 처리장치의 다른 예로는, 도 2에서 도시된 디스플레이(180)와 오디오 출력부(185)가 제외된 셋탑 박스, 상술한 DVD 플레이어, 블루레이 플레이어, 게임기기, 컴퓨터 등이 더 예시될 수 있다. On the other hand, the image display apparatus 100 is an example of a video signal processing apparatus that performs signal processing of an image stored in the apparatus or an input image. Another example of the image signal processing apparatus includes a display 180 shown in FIG. 2, A set-top box excluding the audio output unit 185, a DVD player, a Blu-ray player, a game machine, a computer, and the like may be further exemplified.

도 3는 도 2의 제어부의 내부 블럭도이고, 도 4는 3D 영상의 다양한 포맷을 보여주는 도면이며, 도 5는 도 4의 포맷에 따라 시청장치의 동작을 보여주는 도면이다.FIG. 3 is an internal block diagram of the control unit of FIG. 2, FIG. 4 is a diagram illustrating various formats of a 3D image, and FIG. 5 is a diagram illustrating operations of a viewing apparatus according to the format of FIG.

도면을 참조하여 설명하면, 본 발명의 일실시예에 의한 제어부(170)는, 역다중화부(310), 영상 처리부(320), 프로세서(330), OSD 생성부(340), 믹서(345), 프레임 레이트 변환부(350), 및 포맷터(360)를 포함할 수 있다. 그 외 오디오 처리부(미도시), 데이터 처리부(미도시)를 더 포함할 수 있다.The control unit 170 includes a demultiplexing unit 310, an image processing unit 320, a processor 330, an OSD generating unit 340, a mixer 345, A frame rate conversion unit 350, and a formatter 360. [0031] An audio processing unit (not shown), and a data processing unit (not shown).

역다중화부(310)는, 입력되는 스트림을 역다중화한다. 예를 들어, MPEG-2 TS가 입력되는 경우 이를 역다중화하여, 각각 영상, 음성 및 데이터 신호로 분리할 수 있다. 여기서, 역다중화부(310)에 입력되는 스트림 신호는, 튜너부(110) 또는 복조부(120) 또는 외부장치 인터페이스부(130)에서 출력되는 스트림 신호일 수 있다.The demultiplexer 310 demultiplexes the input stream. For example, when an MPEG-2 TS is input, it can be demultiplexed into video, audio, and data signals, respectively. The stream signal input to the demultiplexer 310 may be a stream signal output from the tuner 110 or the demodulator 120 or the external device interface 130.

영상 처리부(320)는, 역다중화된 영상 신호의 영상 처리를 수행할 수 있다. 이를 위해, 영상 처리부(320)는, 영상 디코더(325), 및 스케일러(335)를 구비할 수 있다. The image processor 320 may perform image processing of the demultiplexed image signal. For this, the image processing unit 320 may include a video decoder 325 and a scaler 335.

영상 디코더(325)는, 역다중화된 영상신호를 복호화하며, 스케일러(335)는, 복호화된 영상신호의 해상도를 디스플레이(180)에서 출력 가능하도록 스케일링(scaling)을 수행한다.The video decoder 325 decodes the demultiplexed video signal and the scaler 335 performs scaling so that the resolution of the decoded video signal can be output from the display 180.

영상 디코더(325)는 다양한 규격의 디코더를 구비하는 것이 가능하다. The video decoder 325 can include a decoder of various standards.

한편, 영상 처리부(320)에서 복호화된 영상 신호는, 2D 영상 신호만 있는 경우, 2D 영상 신호와 3D 영상 신호가 혼합된 경우, 및 3D 영상 신호만 있는 경우로 구분될 수 있다. On the other hand, the image signal decoded by the image processing unit 320 can be divided into a case where there is only a 2D image signal, a case where a 2D image signal and a 3D image signal are mixed, and a case where there is only a 3D image signal.

예를 들어, 외부 장치(190)로부터 입력되는 외부 영상 신호 또는 튜너부(110)에서 수신되는 방송 신호의 방송 영상 신호가, 2D 영상 신호만 있는 경우, 2D 영상 신호와 3D 영상 신호가 혼합된 경우, 및 3D 영상 신호만 있는 경우로 구분될 수 있으며, 이에 따라, 이후의 제어부(170), 특히 영상 처리부(320) 등에서 신호 처리되어, 각각 2D 영상 신호, 2D 영상 신호와 3D 영상 신호의 혼합 신호, 3D 영상 신호가 출력될 수 있다.For example, when an external video signal input from the external device 190 or a broadcast video signal of a broadcast signal received from the tuner unit 110 includes only a 2D video signal, when a 2D video signal and a 3D video signal are mixed And a case where there is only a 3D video signal. Accordingly, the controller 170, particularly, the image processing unit 320 and the like can process the 2D video signal, the mixed video signal of the 2D video signal and the 3D video signal, , A 3D video signal can be output.

한편, 영상 처리부(320)에서 복호화된 영상 신호는, 다양한 포맷의 3D 영상 신호일 수 있다. 예를 들어, 색차 영상(color image) 및 깊이 영상(depth image)으로 이루어진 3D 영상 신호일 수 있으며, 또는 복수 시점 영상 신호로 이루어진 3D 영상 신호 등일 수 있다. 복수 시점 영상 신호는, 예를 들어, 좌안 영상 신호와 우안 영상 신호를 포함할 수 있다. Meanwhile, the image signal decoded by the image processing unit 320 may be a 3D image signal in various formats. For example, a 3D image signal composed of a color image and a depth image, or a 3D image signal composed of a plurality of view image signals. The plurality of viewpoint image signals may include, for example, a left eye image signal and a right eye image signal.

여기서, 3D 영상 신호의 포맷은, 도 4와 같이, 좌안 영상 신호(L)와 우안 영상 신호(R)를 좌,우로 배치하는 사이드 바이 사이드(Side by Side) 포맷(도 4a), 상,하로 배치하는 탑 다운(Top / Down) 포맷(도 4b), 시분할로 배치하는 프레임 시퀀셜(Frame Sequential) 포맷(도 4c), 좌안 영상 신호와 우안 영상 신호를 라인 별로 혼합하는 인터레이스 (Interlaced) 포맷(도 4d), 좌안 영상 신호와 우안 영상 신호를 박스 별로 혼합하는 체커 박스(Checker Box) 포맷(도 4e) 등일 수 있다.4, the format of the 3D video signal is a side-by-side format (Fig. 4A) in which the left eye image signal L and the right eye image signal R are arranged left and right, A frame sequential format (FIG. 4C) for arranging in a time division manner, an interlaced format (FIG. 4B) for mixing the left eye image signal and the right eye image signal line by line 4d), a checker box format (FIG. 4e) for mixing the left eye image signal and the right eye image signal box by box, and the like.

프로세서(330)는, 영상표시장치(100) 내 또는 제어부(170) 내의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(330)는 튜너(110)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다. The processor 330 may control the overall operation in the image display apparatus 100 or in the control unit 170. [ For example, the processor 330 may control the tuner 110 to select a channel selected by the user or an RF broadcast corresponding to a previously stored channel.

또한, 프로세서(330)는, 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상표시장치(100)를 제어할 수 있다. In addition, the processor 330 may control the image display apparatus 100 by a user command or an internal program input through the user input interface unit 150. [

또한, 프로세서(330)는, 네트워크 인터페이스부(135) 또는 외부장치 인터페이스부(130)와의 데이터 전송 제어를 수행할 수 있다. In addition, the processor 330 may perform data transfer control with the network interface unit 135 or the external device interface unit 130.

또한, 프로세서(330)는, 제어부(170) 내의 역다중화부(310), 영상 처리부(320), OSD 생성부(340) 등의 동작을 제어할 수 있다. The processor 330 may control operations of the demultiplexing unit 310, the image processing unit 320, the OSD generating unit 340, and the like in the controller 170.

OSD 생성부(340)는, 사용자 입력에 따라 또는 자체적으로 OSD 신호를 생성한다. 예를 들어, 사용자 입력 신호에 기초하여, 디스플레이(180)의 화면에 각종 정보를 그래픽(Graphic)이나 텍스트(Text)로 표시하기 위한 신호를 생성할 수 있다. 생성되는 OSD 신호는, 영상표시장치(100)의 사용자 인터페이스 화면, 다양한 메뉴 화면, 위젯, 아이콘 등의 다양한 데이터를 포함할 수 있다. 또한, 생성되는 OSD 신호는, 2D 오브젝트 또는 3D 오브젝트를 포함할 수 있다. The OSD generator 340 generates an OSD signal according to a user input or itself. For example, based on a user input signal, a signal for displaying various information in a graphic or text form on the screen of the display 180 can be generated. The generated OSD signal may include various data such as a user interface screen of the video display device 100, various menu screens, a widget, and an icon. In addition, the generated OSD signal may include a 2D object or a 3D object.

또한, OSD 생성부(340)는, 원격제어장치(200)로부터 입력되는 포인팅 신호에 기초하여, 디스플레이에 표시 가능한, 포인터를 생성할 수 있다. 특히, 이러한 포인터는, 포인팅 신호 처리부에서 생성될 수 있으며, OSD 생성부(240)는, 이러한 포인팅 신호 처리부(미도시)를 포함할 수 있다. 물론, 포인팅 신호 처리부(미도시)가 OSD 생성부(240) 내에 구비되지 않고 별도로 마련되는 것도 가능하다.The OSD generating unit 340 can generate a pointer that can be displayed on the display based on the pointing signal input from the remote control device 200. [ In particular, such a pointer may be generated by the pointing signal processor, and the OSD generator 240 may include such a pointing signal processor (not shown). Of course, a pointing signal processing unit (not shown) may be provided separately from the OSD generating unit 240.

믹서(345)는, OSD 생성부(340)에서 생성된 OSD 신호와 영상 처리부(320)에서 영상 처리된 복호화된 영상 신호를 믹싱할 수 있다. 이때, OSD 신호와 복호화된 영상 신호는 각각 2D 신호 및 3D 신호 중 적어도 하나를 포함할 수 있다. 믹싱된 영상 신호는 프레임 레이트 변환부(350)에 제공된다.The mixer 345 may mix the OSD signal generated by the OSD generator 340 and the decoded video signal processed by the image processor 320. At this time, the OSD signal and the decoded video signal may include at least one of a 2D signal and a 3D signal. The mixed video signal is supplied to a frame rate converter 350.

프레임 레이트 변환부(Frame Rate Conveter, FRC)(350)는, 입력되는 영상의 프레임 레이트를 변환할 수 있다. 한편, 프레임 레이트 변환부(350)는, 별도의 프레임 레이트 변환 없이, 그대로 출력하는 것도 가능하다. A frame rate converter (FRC) 350 can convert the frame rate of an input image. On the other hand, the frame rate converter 350 can output the frame rate without conversion.

포맷터(360)는, 프레임 레이트 변환된 3D 영상의 좌안 영상 프레임과 우안 영상 프레임을 배열할 수 있다. 그리고, 3D 시청 장치(195)의 좌안 글래스와 우안 글래스의 개방을 위한 동기 신호(Vsync)를 출력할 수 있다.The formatter 360 may arrange the left eye image frame and the right eye image frame of the frame rate-converted 3D image. The left eye glass of the 3D viewing apparatus 195 and the synchronization signal Vsync for opening the right eye glass can be output.

한편, 포맷터(Formatter)(360)는, 믹서(345)에서 믹싱된 신호, 즉 OSD 신호와 복호화된 영상 신호를 입력받아, 2D 영상 신호와 3D 영상 신호를 분리할 수 있다.The formatter 360 receives the mixed signal, i.e., the OSD signal and the decoded video signal, from the mixer 345, and separates the 2D video signal and the 3D video signal.

한편, 본 명세서에서, 3D 영상 신호는 3D 오브젝트를 포함하는 것을 의미하며, 이러한 오브젝트의 예로는 PIP(picuture in picture) 영상(정지 영상 또는 동영상), 방송 프로그램 정보를 나타내는 EPG, 다양한 메뉴, 위젯, 아이콘, 텍스트, 영상 내의 사물, 인물, 배경, 웹 화면(신문, 잡지 등) 등이 있을 수 있다.In the present specification, a 3D video signal means a 3D object. Examples of the 3D object include a picuture in picture (PIP) image (still image or moving picture), an EPG indicating broadcasting program information, Icons, texts, objects in images, people, backgrounds, web screens (newspapers, magazines, etc.).

한편, 포맷터(360)는, 3D 영상 신호의 포맷을 변경할 수 있다. 예를 들어, 도 4에 예시된 다양한 포맷 중 어느 하나의 포맷으로 변경할 수 있다. 이에 따라, 해당 포맷에 따라, 도 5와 같이, 안경 타입의 시청장치의 동작이 수행될 수 있다. On the other hand, the formatter 360 can change the format of the 3D video signal. For example, it can be changed to any one of various formats exemplified in FIG. Thus, according to the format, the operation of the eyeglass type viewing apparatus can be performed as shown in Fig.

먼저, 도 5(a)는, 포맷터(360)가 도 4의 포맷 중 프레임 시퀀셜 포맷으로 정렬하여 출력하는 경우, 3D용 글래스(195), 특히 셔터 글래스(195)의 동작을 예시한다.5A illustrates operation of the 3D-use glass 195, particularly, the shutter glass 195 when the formatter 360 arranges and outputs the frames in the frame sequential format of the format shown in FIG. 4. FIG.

즉, 디스플레이(180)에 좌안 영상(L)이 표시된 경우, 셔터 글래스(195)의 좌안 글래스가 개방, 우안 글래스가 닫히는 것을 예시하며, 우안 영상(R)이 표시된 경우, 셔터 글래스(195)의 좌안 글래스가 닫히고, 우안 글래스가 개방되는 것을 예시한다.That is, when the left eye image L is displayed on the display 180, the left eye glass of the shutter glass 195 is opened and the right eye glass is closed. When the right eye image R is displayed, The left eye glass is closed, and the right eye glass is opened.

한편, 도 5(b)는, 포맷터(360)가 도 4의 포맷 중 사이드 바이 사이드 포맷으로 정렬하여 출력하는 경우, 3D용 글래스(195), 특히 편광 글래스(195)의 동작을 예시한다. 한편, 도 5(b)에서 적용되는 3D용 글래스(195)는, 셔터 글래스일 수 있으며, 이때의 셔터 글래스는 좌안 글래스와 우안 글래스 모두가 개방된 상태를 유지하여, 편광 글래스 처럼 동작할 수도 있다. On the other hand, FIG. 5B illustrates the operation of the 3D-use glass 195, particularly the polarizing glass 195, when the formatter 360 arranges and outputs the side-by-side format of the format shown in FIG. On the other hand, the 3D glass 195 applied in FIG. 5 (b) may be a shutter glass, and the shutter glass at this time may be operated as a polarizing glass by keeping both the left-eye glass and right-eye glass open .

한편, 포맷터(360)는, 2D 영상 신호를 3D 영상 신호로 전환할 수도 있다. 예를 들어, 3D 영상 생성 알고리즘에 따라, 2D 영상 신호 내에서 에지(edge) 또는 선택 가능한 오브젝트를 검출하고, 검출된 에지(edge)에 따른 오브젝트 또는 선택 가능한 오브젝트를 3D 영상 신호로 분리하여 생성할 수 있다. 이때, 생성된 3D 영상 신호는, 상술한 바와 같이, 좌안 영상 신호(L)와 우안 영상 신호(R)로 분리되어 정렬될 수 있다. Meanwhile, the formatter 360 may convert the 2D video signal into a 3D video signal. For example, according to a 3D image generation algorithm, an edge or a selectable object is detected in a 2D image signal, and an object or a selectable object according to the detected edge is separated into a 3D image signal and is generated . At this time, the generated 3D image signal can be separated into the left eye image signal L and the right eye image signal R, as described above.

한편, 도면에서는 도시하지 않았지만, 포맷터(360) 이후에, 3D 효과(3-dimensional effect) 신호 처리를 위한 3D 프로세서(미도시)가 더 배치되는 것도 가능하다. 이러한 3D 프로세서(미도시)는, 3D 효과의 개선을 위해, 영상 신호의 밝기(brightness), 틴트(Tint) 및 색조(Color) 조절 등을 처리할 수 있다. 예를 들어, 근거리는 선명하게, 원거리는 흐리게 만드는 신호 처리 등을 수행할 수 있다. 한편, 이러한 3D 프로세서의 기능은, 포맷터(360)에 병합되거나 영상처리부(320) 내에 병합될 수 있다. 이에 대해서는 도 6 등을 참조하여 후술한다.Although not shown in the drawing, it is also possible that a 3D processor (not shown) for 3-dimensional effect signal processing is further disposed after the formatter 360. The 3D processor (not shown) can process the brightness, tint, and color of the image signal to improve the 3D effect. For example, it is possible to perform signal processing such as making the near field clear and the far field blurring. On the other hand, the functions of such a 3D processor can be merged into the formatter 360 or merged into the image processing unit 320. [ This will be described later with reference to FIG. 6 and the like.

한편, 제어부(170) 내의 오디오 처리부(미도시)는, 역다중화된 음성 신호의 음성 처리를 수행할 수 있다. 이를 위해 오디오 처리부(미도시)는 다양한 디코더를 구비할 수 있다.Meanwhile, the audio processing unit (not shown) in the control unit 170 can perform the audio processing of the demultiplexed audio signal. To this end, the audio processing unit (not shown) may include various decoders.

또한, 제어부(170) 내의 오디오 처리부(미도시)는, 베이스(Base), 트레블(Treble), 음량 조절 등을 처리할 수 있다. In addition, the audio processing unit (not shown) in the control unit 170 can process a base, a treble, a volume control, and the like.

제어부(170) 내의 데이터 처리부(미도시)는, 역다중화된 데이터 신호의 데이터 처리를 수행할 수 있다. 예를 들어, 역다중화된 데이터 신호가 부호화된 데이터 신호인 경우, 이를 복호화할 수 있다. 부호화된 데이터 신호는, 각 채널에서 방영되는 방송프로그램의 시작시간, 종료시간 등의 방송정보를 포함하는 EPG(Electronic Progtam Guide) 정보일 수 있다. The data processing unit (not shown) in the control unit 170 can perform data processing of the demultiplexed data signal. For example, if the demultiplexed data signal is a coded data signal, it can be decoded. The encoded data signal may be EPG (Electronic Program Guide) information including broadcast information such as a start time and an end time of a broadcast program broadcasted on each channel.

한편, 도 3에서는 OSD 생성부(340)와 영상 처리부(320)으로부터의 신호를 믹서(345)에서 믹싱한 후, 포맷터(360)에서 3D 처리 등을 하는 것으로 도시하나, 이에 한정되지 않으며, 믹서가 포맷터 뒤에 위치하는 것도 가능하다. 즉, 영상 처리부(320)의 출력을 포맷터(360)에서 3D 처리하고, OSD 생성부(340)는 OSD 생성과 함께 3D 처리를 수행한 후, 믹서(345)에서 각각의 처리된 3D 신호를 믹싱하는 것도 가능하다.3, the signals from the OSD generating unit 340 and the image processing unit 320 are mixed in the mixer 345 and then 3D processed in the formatter 360. However, the present invention is not limited to this, May be located behind the formatter. That is, the output of the image processing unit 320 is 3D-processed by the formatter 360, and the OSD generating unit 340 performs 3D processing together with the OSD generation. Thereafter, the processed 3D signals are mixed by the mixer 345 It is also possible to do.

한편, 도 3에 도시된 제어부(170)의 블럭도는 본 발명의 일실시예를 위한 블럭도이다. 블럭도의 각 구성요소는 실제 구현되는 제어부(170)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. Meanwhile, the block diagram of the controller 170 shown in FIG. 3 is a block diagram for an embodiment of the present invention. Each component of the block diagram can be integrated, added, or omitted according to the specifications of the control unit 170 actually implemented.

특히, 프레임 레이트 변환부(350), 및 포맷터(360)는 제어부(170) 내에 마련되지 않고, 각각 별도로 구비될 수도 있다.In particular, the frame rate converter 350 and the formatter 360 are not provided in the controller 170, but may be separately provided.

도 6은 본 발명의 실시예에 따른 3D 영상 신호의 다양한 스케일링 방식을 나타낸 도면이다. 6 is a diagram illustrating various scaling methods of a 3D image signal according to an exemplary embodiment of the present invention.

도면을 참조하면, 3D 효과(3-dimensional effect) 증대를 위해, 제어부(170)는 3D 효과 신호 처리를 수행할 수 있다. 그 중에서, 특히 3D 영상 내의 3D 오브젝트의 크기 또는 기울기 조절 등을 수행할 수 있다.Referring to the drawing, in order to increase the 3-dimensional effect, the controller 170 may perform 3D effect signal processing. Among them, in particular, the size or tilt of the 3D object in the 3D image may be adjusted.

도 6(a)와 같이, 3D 영상 신호 또는 3D 영상 신호 내의 3D 오브젝트(510)를 일정 비율로 전체적으로 확대 또는 축소(512)할 수 있으며, 또한 도 6(b) 및 도 6(c)와 같이, 3D 오브젝트를 부분적으로 확대 또는 축소(사다리꼴 형상, 514, 516)할 수도 있다. 또한, 도 6(d)와 같이, 3D 오브젝트의 적어도 일부를 회전(평행 사변형 형상, 518)시킬 수도 있다. 이러한 스케일링(크기 조절) 또는 기울기 조절을 통해, 3D 영상 또는 3D 영상 내의 3D 오브젝트의 입체감 즉, 3D 효과(3-dimensional effect)를 강조할 수 있게 된다.The 3D object 510 in the 3D image signal or the 3D image signal can be enlarged or reduced 512 as a whole at a certain ratio as shown in FIG. 6 (a), and also, as shown in FIG. 6 (b) , The 3D object may be partially enlarged or reduced (trapezoidal shape, 514, 516). 6 (d), at least a portion of the 3D object may be rotated (parallelogram shape 518). This scaling (scaling) or skew adjustment can emphasize the 3D effect of a 3D object in a 3D image or a 3D image, that is, a 3D effect.

한편, 기울기(slope)가 커질수록, 도 6(b) 또는 도 6(c)와 같이, 사다리꼴 형상(514,516)의 평행한 양변의 길이 차가 커지거나, 도 6(d)와 같이, 회전각이 더 커지게 된다.On the other hand, as the slope becomes larger, as shown in FIG. 6 (b) or 6 (c), the length difference between the parallel sides of the trapezoidal shapes 514 and 516 increases, or as shown in FIG. 6 (d), the rotation angle is increased. It gets bigger.

한편, 이러한 크기 조절 또는 기울기 조절은, 포맷터(360)에서 3D 영상 신호가 소정 포맷으로 정렬된 후 수행될 수 있다. 또는 영상처리부(320) 내의 스케일러(335)에서 수행되는 것이 가능하다. 한편, OSD 생성부(340)는, 3D 효과 강조를 위해, 생성되는 OSD를 도 6에서 예시한 바와 같은 형상으로 오브젝트를 생성하는 것도 가능하다.The size adjustment or the tilt adjustment may be performed after the 3D image signal is aligned in a predetermined format in the formatter 360. [ Or in the scaler 335 in the image processing unit 320. [ On the other hand, the OSD generating unit 340 may generate an object in a shape as illustrated in FIG. 6 for the OSD generated for 3D effect enhancement.

한편, 도면에서는 도시하지 않았지만, 3D 효과(3-dimensional effect)를 위한 신호 처리로서, 도 6에서 예시한 크기 조절 또는 기울기 조절 등 외에, 영상 신호 또는 오브젝트의 밝기(brightness), 틴트(Tint) 및 색조(Color) 조절 등의 신호 처리가 수행되는 것도 가능하다. 예를 들어, 근거리는 선명하게, 원거리는 흐리게 만드는 신호 처리 등을 수행할 수 있다. 한편, 이러한 3D 효과를 위한 신호 처리는, 제어부(170) 내에서 수행되거나, 별도의 3D 프로세서를 통해 수행될 수 있다. 특히, 제어부(170) 내에서 수행되는 경우, 상술한 크기 조절 또는 기울기 조절 등과 함께, 포맷터(360)에서 수행되거나, 또는 영상처리부((320) 내에서 수행되는 것이 가능하다. Although not shown in the drawing, signal processing for a 3D effect (3-dimensional effect) may be performed by adjusting the brightness, tint, and brightness of an image signal or object, It is also possible that signal processing such as color adjustment is performed. For example, it is possible to perform signal processing such as making the near field clear and the far field blurring. The signal processing for the 3D effect may be performed in the controller 170 or may be performed through a separate 3D processor. Particularly, when it is performed in the control unit 170, it is possible to perform it in the formatter 360 or in the image processing unit 320 together with the above-described size adjustment or tilt adjustment.

도 7은 좌안 영상과 우안 영상에 의해 상이 맺히는 것을 설명하는 도면이며, 도 8은 좌안 영상과 우안 영상의 간격에 따른 3D 영상의 깊이를 설명하는 도면이다. FIG. 7 is a view for explaining how images are formed by a left eye image and a right eye image, and FIG. 8 is a view for explaining depths of a 3D image according to an interval between a left eye image and a right eye image.

먼저, 도 7을 참조하면, 복수의 영상 또는 복수의 오브젝트들(615,625,635,645)이 예시된다. First, referring to FIG. 7, a plurality of images or a plurality of objects 615, 625, 635, and 645 are illustrated.

먼저, 제1 오브젝트(615)는, 제1 좌안 영상신호에 기초하는 제1 좌안 영상(611,L)과 제1 우안 영상신호에 기초하는 제1 우안 영상(613,R)를 포함하며, 제1 좌안 영상(611,L)과 제1 우안 영상(613,R)의 간격은 디스플레이(180) 상에서 d1 인 것이 예시된다. 이때, 사용자는 좌안(601)과 제1 좌안 영상(611)을 연결하는 연장선, 및 우안(603)과 제1 우안 영상(603)을 연결하는 연장선이 교차되는 지점에, 상이 맺히는 것처럼 인식한다. 따라서 사용자는 제1 오브젝트(615)가 디스플레이(180) 보다 뒤에 위치하는 것으로 인식한다. First, the first object 615 includes a first left eye image 611 (L) based on the first left eye image signal and a first right eye image 613 (R) based on the first right eye image signal, It is exemplified that the interval between the first left eye image 611, L and the first right eye image 613, R is d1 on the display 180. [ At this time, the user recognizes that an image is formed at an intersection of an extension line connecting the left eye 601 and the first left eye image 611 and an extension line connecting the right eye 603 and the first right eye image 603. Accordingly, the user recognizes that the first object 615 is positioned behind the display 180. [

다음, 제2 오브젝트(625)는, 제2 좌안 영상(621,L)과 제2 우안 영상(623,R)를 포함하며, 서로 겹쳐져 디스플레이(180)에 표시되므로, 그 간격은 0 인 것이 예시된다. 이에 따라, 사용자는 제2 오브젝트(625)가 디스플레이(180) 상에 위치 것으로 인식한다. Next, since the second object 625 includes the second left eye image 621, L and the second right eye image 623, R and overlaps with each other and is displayed on the display 180, do. Accordingly, the user recognizes that the second object 625 is located on the display 180. [

다음, 제3 오브젝트(635)와 제4 오브젝트(645)는, 각각 제3 좌안 영상(631,L)과 제2 우안 영상(633,R), 제4 좌안 영상(641,L)과 제4 우안 영상(643,R)를 포함하며, 그 간격이 각각 d3, d4 인 것이 예시된다. Next, the third object 635 and the fourth object 645 are arranged in the order of the third left eye image 631, L, the second right eye image 633, R, the fourth left eye image 641, Right eye image 643 (R), and their intervals are d3 and d4, respectively.

상술한 방식에 따라, 사용자는 상이 맺히는 위치에, 각각 제3 오브젝트(635)와 제4 오브젝트(645)가 위치하는 것으로 인식하며, 도면에서는, 각각 디스플레이(180) 보다 앞에 위치하는 것으로 인식한다. According to the above-described method, the user recognizes that the third object 635 and the fourth object 645 are positioned at positions where the images are formed, respectively, and recognizes that they are located before the display 180 in the drawing.

이때, 제4 오브젝트(645)가 제3 오브젝트(635) 보다 더 앞에, 즉 더 돌출되는 것으로 인식되며, 이는 제4 좌안 영상(641,L)과 제4 우안 영상(643,R)의 간격(d4)이, 제3 좌안 영상(631,L)과 제3 우안 영상(633,R)의 간격(d3) 보다 더 큰 것에 기인한다.At this time, it is recognized that the fourth object 645 is projected before the third object 635, that is, more protruded than the third object 635. This is because the interval between the fourth left eye image 641, L and the fourth right eye image 643, d4 is larger than the interval d3 between the third left eye image 631, L and the third right eye image 633, R. [

한편, 본 발명의 실시예에서는, 디스플레이(180)와 사용자에게 인식되는 오브젝트(615,625,635,645) 사이의 거리를 깊이(depth)로 표현한다. 이에 따라, 디스플레이(180)보다 뒤에 위치하고 있는 것처럼 사용자에게 인식되는 경우의 깊이(depth)는 음의 값(-)을 가지는 것으로 하며, 디스플레이(180)보다 앞에 위치하고 있는 것처럼 사용자에게 인식되는 경우의 깊이(depth)는 양의 값(+)을 가지는 것으로 한다. 즉, 사용자 방향으로 돌출 정도가 더 클수록, 깊이의 크기는 더 커지게 된다.Meanwhile, in the embodiment of the present invention, the distance between the display 180 and the objects 615, 625, 635, and 645 recognized by the user is represented by a depth. Accordingly, it is assumed that the depth when the user is recognized as being positioned behind the display 180 has a negative value (-), and the depth when the user is recognized as being positioned before the display 180 (depth) has a positive value (+). That is, the greater the degree of protrusion in the user direction, the greater the depth.

도 8을 보면, 도 8(a)의 좌안 영상(701)과 우안 영상(702) 간의 간격(a)이, 도 8(b)에 도시된 좌안 영상(701)과 우안 영상(702) 간의 간격(b)이 더 작은 경우, 도 8(a)의 3D 오브젝트의 깊이(a')가 도 8(b)의 3D 오브젝트의 깊이(b') 보다 더 작은 것을 알 수 있다. 8, the interval a between the left eye image 701 and the right eye image 702 in FIG. 8A is smaller than the interval between the left eye image 701 and the right eye image 702 shown in FIG. 8 (b) it is understood that the depth a 'of the 3D object in FIG. 8 (a) is smaller than the depth b' of the 3D object in FIG. 8 (b).

이와 같이, 3D 영상이 좌안 영상과 우안 영상으로 예시되는 경우, 좌안 영상과 우안 영상 간의 간격에 의해, 사용자 입장에서 상이 맺히는 것으로 인식되는 위치가 달라지게 된다. 따라서, 좌안 영상과 우안 영상의 표시간격을 조절함으로써, 좌안 영상과 우안 영상으로 구성되는 3D 영상 또는 3D 오브젝트의 깊이를 조절할 수 있게 된다.In this way, when the 3D image is exemplified as the left eye image and the right eye image, the positions recognized as images are different depending on the interval between the left eye image and the right eye image. Accordingly, by adjusting the display intervals of the left eye image and the right eye image, the depth of the 3D image or the 3D object composed of the left eye image and the right eye image can be adjusted.

도 9는 본 발명의 일실시예에 따른 영상표시장치의 동작방법을 보여주는 순서도이고, 도 10 내지 도 14d는 도 9의 영상표시장치의 동작방법의 다양한 예를 설명하기 위해 참조되는 도면이다.9 is a flowchart illustrating a method of operating an image display apparatus according to an exemplary embodiment of the present invention, and FIGS. 10 to 14D are views for explaining various examples of the method of operating the image display apparatus of FIG. 9.

먼저, 영상표시장치(100)의 제어부(170)는, 영상을 수신한다. 수신되는 영상은, 방송 수신부(105)를 통한 방송 영상, 외부장치 인터페이스부(130) 또는 네트워크 인터페이스부(135)를 통한 외부 입력 영상, 또는 저장부(140)를 통한 저장 영상일 수 있다. First, the control unit 170 of the video display device 100 receives an image. The received image may be a broadcast image through the broadcast receiving unit 105, an external input image through the external device interface unit 130 or the network interface unit 135, or a stored image through the storage unit 140.

다음, 영상표시장치(100)의 영상 추출부(1010)는, 입력되는 영상으로부터 좌안 영상과 우안 영상을 추출한다(S910). 예를 들어, 영상 추출부(1010)는, 포맷터(360) 내에 구비될 수 있다. 이때, 포맷터(360)는, 도 3에 에 도시한 바와 같이, 제어부(170) 내에 구비될 수 있으나, 이와 달리, 제어부(170)와 별도로 마련될 수 있다. 이하에서는, 포맷터(36)가 제어부(170) 내에 구비되는 것을 전제로 기술한다.Next, the image extractor 1010 of the image display apparatus 100 extracts a left eye image and a right eye image from the input image (S910). For example, the image extractor 1010 may be provided in the formatter 360. 3, the formatter 360 may be provided in the control unit 170, but may be provided separately from the control unit 170. FIG. In the following description, it is assumed that the formatter 36 is provided in the controller 170.

영상표시장치(100)의 제어부(170)는, 영상, 특히 3D 영상을 입력받을 수 있다. 3D 영상은, 복수 시점 영상으로서, 좌안 영상과 우안 영상으로 구분되거나, 색차 영상과 깊이 영상으로 구분될 수 있다.The controller 170 of the image display apparatus 100 may receive an image, particularly a 3D image. The 3D image may be divided into a left eye image and a right eye image, or a color difference image and a depth image.

영상표시장치(100)의 포맷터(360), 특히 영상 추출부(1010)는, 수신되는 복수 시점 영상에서 좌안 영상과 우안 영상을 추출할 수 있다. 또는 영상 추출부(1010)는, 입력되는 색차 영상과 깊이 영상을 이용하여, 좌안 영상과 우안 영상을 추출할 수 있다.The formatter 360 of the image display apparatus 100, in particular, the image extractor 1010 may extract a left eye image and a right eye image from the received multiple view images. Alternatively, the image extractor 1010 may extract a left eye image and a right eye image by using the input color difference image and the depth image.

한편, 영상표시장치(100)의 제어부(170)는, 입력되는 영상이, 2D 영상인 경우, 이를 3D 영상으로 전환할 수 있다. 포맷터(360), 특히 영상 추출부(1010)가, 2D 영상을 3D 영상으로 전환할 수 있다. 그리고, 영상 추출부(1010)는, 전환된 3D 영상으로부터 좌안 영상과 우안 영상을 추출할 수 있다.The controller 170 of the image display apparatus 100 may convert the input image into a 3D image when the input image is a 2D image. The formatter 360, in particular, the image extractor 1010 may convert a 2D image into a 3D image. The image extractor 1010 may extract a left eye image and a right eye image from the converted 3D image.

도 11a는 영상 추출부(1010)에서 추출된 좌안 영상(1110)과 우안 영상(1120)을 예시한다.11A illustrates a left eye image 1110 and a right eye image 1120 extracted by the image extractor 1010.

좌안 영상(1110)과 우안 영상(1120)은, 공통의 백그라운드 이미지를 구비할 수 있으며, 각각 그 위치가 다른, 제1 오브젝트(1112,1122)와 제2 오브젝트(1115,1125)를 구비할 수 있다. The left eye image 1110 and the right eye image 1120 may have a common background image, and may include first objects 1112 and 1122 and second objects 1115 and 1125 having different positions, respectively. have.

다음, 영상표시장치(100)는, 추출된 좌안 영상과 우안 영상 사이의 시차를 이용하여, 3D 오브젝트를 추출한다(S920). 포맷터(360), 특히 3D 오브젝트 추출부(1020)는, 추출된 좌안 영상과 우안 영상 사이의 시차를 이용하여, 3D 오브젝트를 추출한다.Next, the image display apparatus 100 extracts a 3D object using the disparity between the extracted left eye image and the right eye image (S920). The formatter 360, particularly the 3D object extractor 1020, extracts the 3D object by using a parallax between the extracted left eye image and the right eye image.

도 11b를 참조하면, 좌안 영상 내의 제1 오브젝트(1112)와, 우안 영상 내의 제1 오브젝트(1122)는 그 위치가 다르며, 따라서, 제1 시차(D1)를 갖는다. 한편, 좌안 영상 내의 제2 오브젝트(1115)와, 우안 영상 내의 제2 오브젝트(1125)는 그 위치가 다르며, 따라서, 제2 시차(D2)를 갖는다.Referring to FIG. 11B, the position of the first object 1112 in the left eye image and the first object 1122 in the right eye image are different from each other, and thus have a first parallax D1. On the other hand, the position of the second object 1115 in the left eye image and the second object 1125 in the right eye image are different, and thus have a second parallax D2.

3D 오브젝트 추출부(1020)는, 좌안 영상과 우안 영상 사이에 시차를 갖는, 오브젝트를 3D 오브젝트로서 추출한다. 이에 따라, 좌안 영상(1110)과 우안 영상(1120) 내의, 제1 오브젝트(1112,1122)는, 제1 3D 오브젝트로서 추출되며, 제2 오브젝트(1115,1125)는, 제2 3D 오브젝트로서 추출될 수 있다.The 3D object extraction unit 1020 extracts an object having a parallax between the left eye image and the right eye image as a 3D object. Accordingly, the first objects 1112 and 1122 in the left eye image 1110 and the right eye image 1120 are extracted as the first 3D object, and the second objects 1115 and 1125 are extracted as the second 3D object. Can be.

한편, 좌안 영상(1110)과 우안 영상(1120) 내의 각 3D 오브젝트는, 디스플레이(180) 표시시, 도 11c와 같이 표시될 수 있다. Meanwhile, each 3D object in the left eye image 1110 and the right eye image 1120 may be displayed as shown in FIG. 11C when the display 180 is displayed.

즉, 제1 3D 오브젝트(1130)가 제1 시차(D1)에 대응하여, 제1 깊이(Da)를 가지는 것으로 인식될 수 있으며, 제2 3D 오브젝트(1135)가 제2 시차(D2)에 대응하여, 제2 깊이(Db)를 가지는 것으로 인식될 수 있다. That is, the first 3D object 1130 may be recognized as having a first depth Da in response to the first parallax D1, and the second 3D object 1135 may correspond to the second parallax D2. Thus, it may be recognized as having a second depth Db.

한편, 도 11c에서는, 제1 3D 오브젝트(1130)가 제2 3D 오브젝트(1135)에 비해 더 큰 깊이를 가지는 것을 알 수 있다.Meanwhile, in FIG. 11C, it can be seen that the first 3D object 1130 has a greater depth than the second 3D object 1135.

한편, 본 발명의 실시예에서는, 입체감 향상을 위한 기법으로, 3D 오브젝트의 깊이 조절 없이, 3D 오브젝트의 선명도만을 조절하는 방안을 제시한다. 이러한 방법에 의하면, 3D 영상 표시시 입체감을 향상시킬 수 있게 되며, 3D 영상 시청시 사용자가 느끼는 어지러움을 감소시킬 수 있게 된다.On the other hand, in an embodiment of the present invention, as a technique for improving the three-dimensional effect, it proposes a method of adjusting only the sharpness of the 3D object, without adjusting the depth of the 3D object. According to this method, it is possible to improve the stereoscopic feeling when displaying the 3D image, and to reduce the dizziness that the user feels when viewing the 3D image.

이하에서는, 3D 오브젝트 추출의 구체적인 방법을 기술한다.Hereinafter, a specific method of 3D object extraction will be described.

3D 오브젝트 추출부(1020)는, 도 11b의 좌안 영상(1110)과 우안 영상(1120) 내의 3D 오브젝트 추출을 위해, 좌안 영상(1110) 내의 블록과 우안 영상(1120) 내의 블록을 매칭하는 블록 매칭 기법을 이용한다.The 3D object extractor 1020 matches a block in the left eye image 1110 and a block in the right eye image 1120 to extract a 3D object in the left eye image 1110 and the right eye image 1120 of FIG. 11B. Use technique.

3D 오브젝트 추출부(1020)는, 블록 매칭을 이용해서 각 픽셀 또는 각 블록의 시차(disparity)를 측정한다. 한편, 시차 측정을 위해, 블록 매칭 외의 다른 방법을 사용하는 것도 가능하다.The 3D object extractor 1020 measures the disparity of each pixel or each block using block matching. On the other hand, for parallax measurement, it is also possible to use a method other than block matching.

한편, 좌안 영상(1110)과 우안 영상(1120)은, 정규화(rectification)되어 있으므로, 동일 높이의 블록에 대해서만 블록 매칭을 수행할 수 있다. Meanwhile, since the left eye image 1110 and the right eye image 1120 are normalized, block matching may be performed only on blocks having the same height.

3D 오브젝트 추출부(1020)는, 좌안 영상 또는 우안 영상 내에, 시차 별로, 픽셀 또는 블록의 빈도수(magnitude)를 나타내는 히스트그램을 생성할 수 있다. 도 12a는 시차별 픽셀 또는 블록의 빈도수(magnitude)를 나타내는 히스트그램을 예시한다.The 3D object extractor 1020 may generate a histogram indicating a frequency of a pixel or a block for each parallax in the left eye image or the right eye image. 12A illustrates a histogram representing the magnitude of a parallax pixel or block.

도 12a를 참조하면, 시차가 작은 경우, 동일한 시차를 갖는 픽셀 또는 블록의 빈도수가 커지며, 시차가 커질수록, 동일한 시차를 갖는 픽셀 또는 블록의 빈도수가 작아지는 것을 알 수 있다. 즉, 시차가 작은 경우는, 동일한 배경 영상일 수 있으며, 시차가 큰 경우는, 3D 오브젝트일 가능성이 높게 된다.Referring to FIG. 12A, when the parallax is small, the frequency of pixels or blocks having the same parallax increases, and as the parallax increases, the frequency of the pixels or blocks having the same parallax decreases. That is, when the parallax is small, it may be the same background image, and when the parallax is large, the possibility of being a 3D object becomes high.

도 12a의 시차가 작은 제1 영역(1210)은 배경(background) 영역을 의미할 수 있으며, 시차가 큰 제2 영역(1220)은 돌출 표시 가능한 3D 오브젝트(foreground) 영역을 의미할 수 있다.The first area 1210 having a small parallax of FIG. 12A may mean a background area, and the second area 1220 having a large parallax may mean a 3D object area that can be protruded and displayed.

한편, 3D 오브젝트 추출을 위해서는 기준 시차(Dth)를 정할 필요가 있다. 예를 들어, 도 12b와 같이, 제1 영역(1210) 내의 제1 피크(P1)와 제2 영역(1220) 내의 제2 피크(P2)를 이용하여, 기준 시차(Dth)를 정할 수 있다. 예를 들어, 제1 피크(P1)에 해당하는 시차와 제2 피크(P2)에 해당하는 시차에 대한 소정 비율로, 기준 시차(Dth)를 정할 수 있다. 도 12b는, 소정 비율에 따라 정해진 기준 시차(Dth)를 예시한다.On the other hand, in order to extract the 3D object, it is necessary to determine the reference parallax Dth. For example, as illustrated in FIG. 12B, the reference parallax Dth may be determined using the first peak P1 in the first region 1210 and the second peak P2 in the second region 1220. For example, the reference parallax Dth may be determined by a predetermined ratio between the parallax corresponding to the first peak P1 and the parallax corresponding to the second peak P2. 12B illustrates a reference parallax Dth determined according to a predetermined ratio.

이에 따라, 기준 시차(Dth) 보다 큰 시차를 갖는 픽셀 또는 블록들은, 3D 오브젝트에 해당할 수 있다. 3D 오브젝트 추출부(1020)는, 이러한 기준 시차를 이용하여, 좌안 영상과 우안 영상 내의 각각의 3D 오브젝트를 추출할 수 있다.Accordingly, pixels or blocks having parallax greater than the reference parallax Dth may correspond to 3D objects. The 3D object extractor 1020 may extract each 3D object in the left eye image and the right eye image by using the reference parallax.

즉, 3D 오브젝트 추출부(1020)는, 도 11b와 같이, 좌안 영상(1110)과 우안 영상(1120) 내의, 제1 오브젝트(1112,1122)를, 제1 3D 오브젝트로 추출하며, 제2 오브젝트(1115,1125)를, 제2 3D 오브젝트로 추출할 수 있다.That is, the 3D object extraction unit 1020 extracts the first objects 1112 and 1122 in the left eye image 1110 and the right eye image 1120 as the first 3D object, as shown in FIG. 11B, and the second object. (1115, 1125) can be extracted as a second 3D object.

다음, 영상표시장치(100)는, 추출된 3D 오브젝트가 복수개인 경우, 복수의 3D 오브젝트를 라벨링(labeling)할 수 있다(S930). Next, when there are a plurality of extracted 3D objects, the image display apparatus 100 may label the plurality of 3D objects (S930).

포맷터(360)는, 추출된 3D 오브젝트가 복수개인 경우, 그 중 어느 하나의 3D 오브젝트를 선택할 수 있다. 이를 위해, 라벨링을 수행할 수 있다.When there are a plurality of extracted 3D objects, the formatter 360 may select one of the 3D objects. For this purpose, labeling can be performed.

도 13은 마스크를 이용한 라벨링 기법을 예시한다. 두 개의 라벨링 마스크(label 1, label 2) 중 제1 라벨링 마스크(label 1)는, 좌안 영상(1110)과 우안 영상(1120) 내의, 제1 오브젝트(1112,1122)를 선택하며, 두 개의 라벨링 마스크(label 1, label 2) 중 제2 라벨링 마스크(label 2)는, 좌안 영상(1110)과 우안 영상(1120) 내의, 제1 오브젝트(1115,1125)를 제거할 수 있다.13 illustrates a labeling technique using a mask. The first labeling mask label 1 of the two labeling masks label 1 and label 2 selects the first objects 1112 and 1122 in the left eye image 1110 and the right eye image 1120, and two labelings. The second labeling mask label 2 of the masks label 1 and label 2 may remove the first objects 1115 and 1125 in the left eye image 1110 and the right eye image 1120.

이에 따라, 복수의 3D 오브젝트 중, 좌안 영상(1110)과 우안 영상(1120) 내의, 제1 오브젝트(1112,1122)만을 대표 3D 오브젝트로 추출할 수 있다. 즉, 시차가 가장 큰 3D 오브젝트를 대표 3D 오브젝트로서 추출할 수 있다.Accordingly, among the plurality of 3D objects, only the first objects 1112 and 1122 in the left eye image 1110 and the right eye image 1120 may be extracted as the representative 3D object. That is, the 3D object with the largest parallax can be extracted as a representative 3D object.

다음, 추출된 3D 오브젝트의 경계 영역의 휘도 성분을 가변시킨다(S940). 그리고, 가변된 휘도 성분의 경계 영역을 구비하는 3D 영상을 표시한다(S950).Next, the luminance component of the boundary region of the extracted 3D object is varied (S940). In operation S950, a 3D image including a boundary area of the variable luminance component is displayed.

포맷터(360), 특히 휘도 가변부(1040)는, 추출된 3D 오브젝트의 경계 영역의 휘도 성분을 가변시킬 수 있다. 복수의 3D 오브젝트가 추출된 경우, 각 3D 오브젝트의 경계 영역의 휘도 성분을 가변시킬 수 있다. 한편, 제930 단계에서, 라벨링이 수행되어, 대표 3D 오브젝트가 추출된 경우, 대표 3D 오브젝트에 대해서만 경계 영역의 휘도 성분을 가변시킬 수 있다.The formatter 360, in particular, the luminance variable unit 1040 may vary the luminance component of the boundary region of the extracted 3D object. When a plurality of 3D objects are extracted, the luminance component of the boundary region of each 3D object may be varied. Meanwhile, in operation 930, when labeling is performed to extract the representative 3D object, the luminance component of the boundary region may be changed only for the representative 3D object.

경계 영역에 대응하는 각 픽셀의 휘도(luma) 성분 가변은, 영상의 선명도(sharpness)를 조절하는 것에 대응하는 것으로서, 본 발명의 실시예에 따르면, 휘도 성분 가변에 의해, 3D 오브젝트의 선명도를 증가시키도록 한다.The change in the luminance component of each pixel corresponding to the boundary region corresponds to adjusting the sharpness of the image. According to an embodiment of the present invention, the change in the luminance component increases the sharpness of the 3D object. Let's do it.

도 14a는 선명도 조절을 위한 마스크를 예시한다. 선명도 조절을 위한 마스크(1410)는, 3X3의 크기로서, 휘도 조절을 위한, 계수(C(0,0),C(-1,0),C(1,0),C(0,1),C(0,1))가 설정될 수 있다. 도면을 참조하면, 해당 픽셀의, 좌측, 우측, 상측, 하측 픽셀을 이용하여, 선명도 조절을 수행하는 것을 알 수 있다.14A illustrates a mask for sharpness adjustment. The mask 1410 for sharpness adjustment is a size of 3 × 3, and the coefficients C (0,0), C (-1,0), C (1,0), C (0,1) for luminance adjustment , C (0, 1)) may be set. Referring to the drawings, it can be seen that the sharpness adjustment is performed using the left, right, top, and bottom pixels of the corresponding pixel.

도 14b는 선명도 조절을 위한 마스크의 일예를 예시한다.14B illustrates an example of a mask for sharpness adjustment.

선명도 조절을 위한 마스크(1410)는, 3X3의 크기로서, 해당 픽셀의 계수(C(0,0))가 '4' 값을 가질 수 있으며, 그 외의 주변 픽셀의 계수(C(-1,0),C(1,0),C(0,1),C(0,1))가 '-1' 값을 가질 수 있다.The mask 1410 for adjusting the sharpness is a size of 3 × 3, and the coefficient C (0,0) of the corresponding pixel may have a value of '4', and the coefficient C (-1,0 of other peripheral pixels). ), C (1,0), C (0,1), C (0,1)) may have a value of '-1'.

한편, 선명도 조절을 위한 마스크(1410)의 크기는, 추출된 3D 오브젝트의 깊이가 클수록, 커질 수 있다. 예를 들어, (3X3)의 크기가 아닌 (9X9)의 크기를 사용할 수 있다.Meanwhile, the size of the mask 1410 for adjusting sharpness may increase as the depth of the extracted 3D object increases. For example, you can use a size of (9X9) rather than a size of (3X3).

한편, 선명도 조절을 위한 마스크(1410)의 계수는, 추출된 3D 오브젝트의 깊이가 클수록, 커질 수 있다. 예를 들어, 해당 픽셀의 해당 픽셀의 계수(C(0,0))가 '4' 값이 아닌 '8' 값을 가질 수 있으며, 그 외의 주변 픽셀의 계수(C(-1,0),C(1,0),C(0,1),C(0,1))가 '-2' 값을 가질 수 있다.Meanwhile, the coefficient of the mask 1410 for adjusting the sharpness may increase as the depth of the extracted 3D object increases. For example, the coefficient C (0,0) of the corresponding pixel of the pixel may have a value of '8' rather than a '4' value, and the coefficients of other peripheral pixels C (-1,0), C (1,0), C (0,1), C (0,1) may have a value of '-2'.

휘도 가변부(1040)는, 이러한 마스크를 사용하여, 추출된 3D 오브젝트 또는 대표 3D 오브젝트의 경계 영역에 대한, 휘도 성분을 가변할 수 있다.The luminance variable unit 1040 may use this mask to vary the luminance component of the boundary region of the extracted 3D object or the representative 3D object.

이에 따라, 도 14c와 같이, 휘도 가변 전에, 3D 오브젝트의 경계 영역(1420)의 휘도 레벨 차(L1과 L2)가 급격하다가, 휘도 가변 후에, 3D 오브젝트의 경계 영역(1430)의 휘도 레벨 차(L1과 L2)가 완만하게 변할 수 있다.Accordingly, as shown in FIG. 14C, the luminance level difference L1 and L2 of the boundary region 1420 of the 3D object is sharp before the luminance change, and after the luminance change, the luminance level difference of the boundary region 1430 of the 3D object ( L1 and L2) may change slowly.

즉, 휘도 가변부(1040)는, 3D 오브젝트(foreground) 영역에서 배경 영역(background)으로 갈수록, 그 휘도 성분을 순차적으로 감소시킬 수 있다.That is, the luminance variable unit 1040 may sequentially decrease the luminance component from the 3D object area to the background area.

한편, 라벨링이 수행된 경우, 휘도 가변부(1040)는, 복수의 3D 오브젝트 중 깊이가 최대인 3D 오브젝트의 경계 영역의 휘도 성분을 가변시킬 수 있다.Meanwhile, when labeling is performed, the luminance variable unit 1040 may vary the luminance component of the boundary region of the 3D object having the maximum depth among the plurality of 3D objects.

한편, 상술한 바와 같이, 3D 오브젝트의 깊이에 따라, 마스크(1410)의 계수를 가변할 수 있으므로, 휘도 가변부(1040)는, 3D 오브젝트의 깊이에 따라, 3D 오브젝트의 경계 영역의 휘도 성분을 변화량을 가변시킬 수 있다. 예를 들어, 깊이가 증가할수록, 경계 영역의 휘도 성분을 변화량은 증가할 수 있다.On the other hand, as described above, the coefficient of the mask 1410 can be varied according to the depth of the 3D object, so that the luminance variable unit 1040 adjusts the luminance component of the boundary region of the 3D object according to the depth of the 3D object. The amount of change can be varied. For example, as the depth increases, the amount of change in the luminance component of the boundary region may increase.

도 14d는, 3D 오브젝트의 선명도(sharpeness)를 조절이 수행된 경우, 3D 오브젝트를 포함하는 3D 영상을 예시한다.14D illustrates a 3D image including a 3D object when adjusting sharpness of the 3D object is performed.

도 14d를 도 11c와 비교하면, 3D 오브젝트의 선명도(sharpeness)를 조절이 수행된 제1 3D 오브젝트(1430)의 경계 영역이 더 부드럽게 표시되는 것을 알 수 있다. 한편, 3D 오브젝트의 선명도(sharpeness)를 조절이 수행되지 않은 제2 3D 오브젝트(1135)는 별다른 변화가 없는 것을 알 수 있다.Comparing FIG. 14D with FIG. 11C, it can be seen that the boundary area of the first 3D object 1430 in which the sharpness of the 3D object is adjusted is displayed more smoothly. On the other hand, it can be seen that there is no change in the second 3D object 1135 in which the sharpness of the 3D object is not performed.

이와 같이, 3D 오브젝트의 선명도(sharpeness)를 조절함으로써, 3D 영상 표시시 입체감을 향상시킬 수 있게 된다.In this way, by adjusting the sharpness of the 3D object, it is possible to improve a three-dimensional effect when displaying a 3D image.

본 발명에 따른 영상표시장치, 및 그 동작방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The image display device and the method of operating the same according to the present invention are not limited to the configuration and method of the embodiments described as described above, but the embodiments are all or all of the embodiments so that various modifications can be made. Some may be optionally combined.

한편, 본 발명의 영상표시장치의 동작방법은 영상표시장치에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the operation method of the image display apparatus of the present invention can be implemented as a code that can be read by a processor on a recording medium readable by a processor included in the image display apparatus. The processor-readable recording medium includes all kinds of recording apparatuses in which data that can be read by the processor is stored. Examples of the recording medium that can be read by the processor include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet . In addition, the processor-readable recording medium may be distributed over network-connected computer systems so that code readable by the processor in a distributed fashion can be stored and executed.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.

Claims (18)

입력되는 영상으로부터 좌안 영상과 우안 영상을 추출하는 단계;
상기 추출된 좌안 영상과 우안 영상 사이의 시차를 이용하여, 3D 오브젝트를 추출하는 단계;
상기 3D 오브젝트의 경계 영역의 휘도 성분을 가변시키는 단계; 및
상기 가변된 휘도 성분의 경계 영역을 구비하는 3D 영상을 표시하는 단계;를 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
Extracting a left eye image and a right eye image from an input image;
Extracting a 3D object using the parallax between the extracted left eye image and right eye image;
Varying a luminance component of a boundary region of the 3D object; And
And displaying a 3D image having a boundary area of the variable luminance component.
제1항에 있어서,
상기 휘도 성분 가변 단계는,
상기 3D 오브젝트의 깊이에 따라, 상기 3D 오브젝트의 경계 영역의 휘도 성분을 변화량을 가변시키는 것을 특징으로 하는 영상표시장치의 동작방법.
The method of claim 1,
The step of varying the luminance component,
And varying the amount of change in the luminance component of the boundary region of the 3D object in accordance with the depth of the 3D object.
제1항에 있어서,
상기 휘도 성분 가변 단계는,
상기 3D 오브젝트 영역에서 배경 영역으로 갈수록, 그 휘도 성분을 순차적으로 감소시키는 것을 특징으로 하는 영상표시장치의 동작방법.
The method of claim 1,
The step of varying the luminance component,
And gradually decreasing luminance components from the 3D object area to the background area.
제1항에 있어서,
상기 휘도 성분 가변 단계는,
마스킹 기법에 의해 수행되는 것을 특징으로 하는 영상표시장치의 동작방법.
The method of claim 1,
The step of varying the luminance component,
A method of operating an image display device, characterized in that performed by a masking technique.
제1항에 있어서,
상기 추출된 3D 오브젝트가 복수개인 경우, 복수의 3D 오브젝트를 라벨링하는 단계;를 더 포함하고,
상기 휘도 성분 가변 단계는,
상기 라벨링된 3D 오브젝트에 대해 수행하는 것을 특징으로 하는 영상표시장치의 동작방법.
The method of claim 1,
Labeling a plurality of 3D objects when there are a plurality of extracted 3D objects;
The step of varying the luminance component,
Operating on the labeled 3D object.
제1항에 있어서,
상기 휘도 성분 가변 단계는,
복수의 3D 오브젝트 중 깊이가 최대인 3D 오브젝트의 경계 영역의 휘도 성분을 가변시키는 것을 특징으로 하는 영상표시장치의 동작방법.
The method of claim 1,
The step of varying the luminance component,
A method of operating an image display apparatus, characterized by varying a luminance component of a boundary area of a 3D object having a maximum depth among a plurality of 3D objects.
제1항에 있어서,
상기 3D 오브젝트 추출 단계는,
상기 좌안 영상과 상기 우안 영상을, 픽셀 단위 또는 소정 블럭 단위로 매칭하는 단계;
상기 매칭된 픽셀들 간 또는 블럭들 간의 시차를 측정하는 단계;
상기 측정된 시차 중 기준 시차 이상의 시차를 가지는 픽셀들 또는 블럭들을 3D 오브젝트로 결정하는 단계;를 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
The method of claim 1,
The 3D object extraction step,
Matching the left eye image and the right eye image on a pixel basis or on a predetermined block basis;
Measuring parallax between the matched pixels or blocks;
And determining pixels or blocks having parallaxes greater than or equal to a standard parallax among the measured parallaxes as a 3D object.
제1항에 있어서,
상기 3D 오브젝트 추출 단계는,
상기 좌안 영상과 상기 우안 영상에서, 각각 해당하는 3D 오브젝트를 추출하는 것을 특징으로 하는 영상표시장치의 동작방법.
The method of claim 1,
The 3D object extraction step,
And a corresponding 3D object is extracted from the left eye image and the right eye image, respectively.
입력되는 영상으로부터 좌안 영상과 우안 영상을 추출하는 영상 추출부;
상기 추출된 좌안 영상과 우안 영상 사이의 시차를 이용하여, 3D 오브젝트를 추출하는 3D 오브젝트 추출부;
상기 3D 오브젝트의 경계 영역의 휘도 성분을 가변시키는 휘도 가변부; 및
상기 가변된 휘도 성분의 경계 영역을 구비하는 3D 영상을 표시하는 디스플레이;를 포함하는 것을 특징으로 하는 영상표시장치.
An image extractor configured to extract a left eye image and a right eye image from an input image;
A 3D object extracting unit which extracts a 3D object by using the parallax between the extracted left eye image and right eye image;
A luminance variable unit configured to vary a luminance component of a boundary area of the 3D object; And
And a display configured to display a 3D image having a boundary area of the variable luminance component.
제9항에 있어서,
상기 휘도 가변부는,
상기 3D 오브젝트의 깊이에 따라, 상기 3D 오브젝트의 경계 영역의 휘도 성분을 변화량을 가변시키는 것을 특징으로 하는 영상표시장치.
10. The method of claim 9,
Wherein the luminance-
And an amount of change in the luminance component of the boundary region of the 3D object in accordance with the depth of the 3D object.
제9항에 있어서,
상기 휘도 가변부는,
상기 3D 오브젝트 영역에서 배경 영역으로 갈수록, 그 휘도 성분을 순차적으로 감소시키는 것을 특징으로 하는 영상표시장치.
10. The method of claim 9,
Wherein the luminance-
And gradually reduce the luminance component from the 3D object area to the background area.
제9항에 있어서,
상기 휘도 가변부는,
복수의 3D 오브젝트 중 깊이가 최대인 3D 오브젝트의 경계 영역의 휘도 성분을 가변시키는 것을 특징으로 하는 영상표시장치.
10. The method of claim 9,
Wherein the luminance-
And a luminance component of a boundary area of a 3D object having a maximum depth among a plurality of 3D objects.
제9항에 있어서,
상기 3D 오브젝트 추출부는,
상기 좌안 영상과 상기 우안 영상을, 픽셀 단위 또는 소정 블럭 단위로 매칭하고, 상기 매칭된 픽셀들 간 또는 블럭들 간의 시차를 측정하며, 상기 측정된 시차 중 기준 시차 이상의 시차를 가지는 픽셀들 또는 블럭들을 3D 오브젝트로 결정하는 것을 특징으로 하는 영상표시장치.
10. The method of claim 9,
The 3D object extraction unit,
Matching the left eye image and the right eye image in a pixel unit or a predetermined block unit, measuring a parallax between the matched pixels or blocks, and pixels or blocks having a parallax greater than or equal to a reference parallax among the measured parallaxes. And a 3D object.
제9항에 있어서,
상기 3D 오브젝트 추출부는,
상기 좌안 영상과 상기 우안 영상에서, 각각 해당하는 3D 오브젝트를 추출하는 것을 특징으로 하는 영상표시장치.
10. The method of claim 9,
The 3D object extraction unit,
And a corresponding 3D object is extracted from the left eye image and the right eye image, respectively.
제9항에 있어서,
외부장치로부터 외부 입력 신호를 수신하는 인터페이스부;를 더 포함하며,
상기 입력 영상은 외부 입력 영상인 것을 특징으로 하는 영상표시장치.
10. The method of claim 9,
And an interface unit configured to receive an external input signal from an external device.
And the input image is an external input image.
제9항에 있어서,
방송 신호를 수신하는 방송 수신부;를 더 포함하며,
상기 입력 영상은 방송 영상인 것을 특징으로 하는 영상표시장치.
10. The method of claim 9,
It further includes a broadcast receiving unit for receiving a broadcast signal,
And the input image is a broadcast image.
제9항에 있어서,
상기 영상 추출부, 상기 3D 오브젝트 추출부, 및 상기 휘도 가변부를 포함하는 포맷터;를 더 포함하는 것을 특징으로 하는 영상표시장치.
10. The method of claim 9,
And a formatter including the image extracting unit, the 3D object extracting unit, and the brightness variable unit.
제9항에 있어서,
상기 영상 추출부, 상기 3D 오브젝트 추출부, 및 상기 휘도 가변부를 포함하는 제어부;를 더 포함하는 것을 특징으로 하는 영상표시장치.
10. The method of claim 9,
And a controller including the image extractor, the 3D object extractor, and the brightness variable unit.
KR1020110144903A 2011-12-28 2011-12-28 Image display apparatus, and method for operating the same KR101880479B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110144903A KR101880479B1 (en) 2011-12-28 2011-12-28 Image display apparatus, and method for operating the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110144903A KR101880479B1 (en) 2011-12-28 2011-12-28 Image display apparatus, and method for operating the same

Publications (2)

Publication Number Publication Date
KR20130076347A true KR20130076347A (en) 2013-07-08
KR101880479B1 KR101880479B1 (en) 2018-07-23

Family

ID=48989973

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110144903A KR101880479B1 (en) 2011-12-28 2011-12-28 Image display apparatus, and method for operating the same

Country Status (1)

Country Link
KR (1) KR101880479B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11239364A (en) * 1996-08-07 1999-08-31 Sanyo Electric Co Ltd Method for stereoscopic sense adjustment and its device
KR20110092077A (en) * 2010-02-08 2011-08-17 엘지전자 주식회사 Image display device with a 3d object based on 2d image signal and operation controlling method for the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11239364A (en) * 1996-08-07 1999-08-31 Sanyo Electric Co Ltd Method for stereoscopic sense adjustment and its device
KR20110092077A (en) * 2010-02-08 2011-08-17 엘지전자 주식회사 Image display device with a 3d object based on 2d image signal and operation controlling method for the same

Also Published As

Publication number Publication date
KR101880479B1 (en) 2018-07-23

Similar Documents

Publication Publication Date Title
US8872900B2 (en) Image display apparatus and method for operating the same
KR101924058B1 (en) Image display apparatus, and method for operating the same
KR101349276B1 (en) Video display device and operating method therefor
US20110102321A1 (en) Image display apparatus and method for controlling the image display apparatus
KR20110052771A (en) Image display device and operating method for the same
KR20150116302A (en) Image display apparatus, server and method for operating the same
KR102147214B1 (en) Image display apparatus, and method for operating the same
KR101855939B1 (en) Method for operating an Image display apparatus
KR20120034996A (en) Image display apparatus, and method for operating the same
KR20130026236A (en) Image display apparatus, and method for operating the same
KR101801141B1 (en) Apparatus for displaying image and method for operating the same
KR20130076349A (en) Image display apparatus, and method for operating the same
KR101880479B1 (en) Image display apparatus, and method for operating the same
KR102014149B1 (en) Image display apparatus, and method for operating the same
KR101836846B1 (en) Image display apparatus, and method for operating the same
KR20140055124A (en) Image display apparatus, and method for operating the same
KR20120062428A (en) Image display apparatus, and method for operating the same
KR101878808B1 (en) Image display apparatus and method for operating the same
KR20130068964A (en) Method for operating an image display apparatus
KR101882214B1 (en) Image display apparatus, server and method for operating the same
KR101176500B1 (en) Image display apparatus, and method for operating the same
KR101825669B1 (en) Image display apparatus, and method for operating the same
KR101890323B1 (en) Image display apparatus, settop box and method for operating the same
KR20140098512A (en) Image display apparatus, and method for operating the same
KR101716144B1 (en) Image display apparatus, and method for operating the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant