KR20120107418A - Method and apparatus for controlling depth of sound - Google Patents

Method and apparatus for controlling depth of sound Download PDF

Info

Publication number
KR20120107418A
KR20120107418A KR1020110088372A KR20110088372A KR20120107418A KR 20120107418 A KR20120107418 A KR 20120107418A KR 1020110088372 A KR1020110088372 A KR 1020110088372A KR 20110088372 A KR20110088372 A KR 20110088372A KR 20120107418 A KR20120107418 A KR 20120107418A
Authority
KR
South Korea
Prior art keywords
depth
sound
parallax
image
level
Prior art date
Application number
KR1020110088372A
Other languages
Korean (ko)
Inventor
정상오
김현수
전병문
김규운
방준원
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US13/425,061 priority Critical patent/US8958565B2/en
Priority to PCT/KR2012/001980 priority patent/WO2012128535A2/en
Publication of KR20120107418A publication Critical patent/KR20120107418A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • H04N5/602Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals for digital sound signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Stereophonic System (AREA)

Abstract

PURPOSE: A method for controlling the depth of a sound and a control device thereof are provided to output a 3D sound corresponding to the depth of a 3D image. CONSTITUTION: A sound depth control device measures a depth change value of an extracted object(S110). When the depth change value of the object is a meaningful depth change, the device determines a depth level conversion target object(S120,S130). The device converts a depth value of the determined object into a depth level of a sound(S140). The device reflects the depth level of the sound to an audio signal corresponding to the object(S150). [Reference numerals] (AA) Start; (BB) No; (CC) Yes; (DD) End; (S100) Object extraction; (S110) Measuring a depth change value; (S120) Meaningful depth change?; (S130) Determining a depth level conversion target object; (S140) Converting a sound level; (S150) Outputting a disparity change reflected sound

Description

음향의 깊이 제어방법 및 제어장치{METHOD AND APPARATUS FOR CONTROLLING DEPTH OF SOUND}Sound depth control method and control device {METHOD AND APPARATUS FOR CONTROLLING DEPTH OF SOUND}

본 발명은 음향의 깊이 제어방법 및 장치에 관한 것으로, 보다 상세하게는 양안시차 영상 내에 존재하는 객체의 깊이에 대응하여 오디오 신호를 출력할 수 있도록 하는 음향의 깊이 제어방법 및 장치에 관한 것이다. The present invention relates to a sound depth control method and apparatus, and more particularly, to a depth control method and apparatus for outputting an audio signal corresponding to the depth of an object present in the binocular parallax image.

관련 기술의 발전으로 인해 입체영상에서 사물의 입체 정보를 얻는 기술이 게임, 감시 카메라, 차량용 카메라 등 많은 분야에 응용에 활용되고 있다. 그러나 입체영상에서 실시간으로 깊이 정보 등의 입체 정보를 추출하여 활용하는 응용 예는 아직 충분히 개발되어 있지 않다. 현재의 3D 컨텐츠의 경우, 시청자가 느끼는 영상과 음향의 개별적인 효과는 잘 표현되어 있지만, 입체영상의 입체감에 적합한 음향을 출력하는 기술은 컨텐츠의 제작 시 제작자가 얼마나 잘 반영하는가에 그 효과가 한정되어 있다. 한편, 제작자가 사물의 입체감을 음향에 반영하는 것은 매우 어렵다. 또한, 현재까지 입체영상 시스템의 급속한 확대 및 기존의 영상을 입체영상으로 출력하는 기술도 대두되고 있으나, 기존의 수 많은 컨텐츠에서 영상의 입체감을 음향에 적절히 반영하는 것이 어렵다. Due to the development of related technologies, technology for obtaining stereoscopic information of objects in stereoscopic images is being applied to many fields such as games, surveillance cameras, and vehicle cameras. However, application examples of extracting and using stereoscopic information such as depth information in real time from stereoscopic images have not been sufficiently developed. In the case of the current 3D content, the individual effects of the image and sound felt by the viewer are well expressed, but the technology for outputting sound suitable for the stereoscopic effect of the 3D image is limited to how well the creator reflects the content when producing the content. have. On the other hand, it is very difficult for the producer to reflect the three-dimensional sense of the object in the sound. In addition, up to now, a technology for rapidly expanding a stereoscopic image system and outputting a conventional image as a stereoscopic image is emerging, but it is difficult to properly reflect the stereoscopic sense of the image in sound in many existing contents.

따라서 입체영상 자체의 사물에서 시청자가 느끼는 시각적인 거리감을 음향 시스템의 입체감에 반영하여 입체 거리 정보를 연동한 입체 음향을 구현하는 것이 요구되고 있다. Therefore, it is required to implement stereoscopic sound in conjunction with stereoscopic distance information by reflecting the visual distance felt by the viewer from the object of the stereoscopic image itself to the stereoscopic sense of the acoustic system.

종래기술에서 오디오 신호에서 거리감(depth)를 만들기 위해서는 단순히 소리의 레벨을 조절하거나, 인공잔향의 정도를 이용하거나, 초기 반사음(early reflection)의 정도(time interval level)를 이용하여 거리감을 재생하였다. 그러나 이러한 기존의 알고리즘을 사용하더라도 물리적인 스피커 위치에서 소리가 커지거나 작게 들릴 뿐, 물리적인 스피커 위치로부터 청취자의 머리 앞까지 소리의 깊이를 변화시키도록 하는 것은 불가능하였다. In the prior art, to create a depth in the audio signal, the distance is reproduced by simply adjusting the sound level, using the degree of artificial reverberation, or using the time interval level of early reflection. However, even with such an existing algorithm, it was impossible to make the sound louder or smaller at the physical speaker position, and to change the depth of the sound from the physical speaker position to the front of the listener's head.

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로, 본 발명의 목적은 입체영상의 표시 시 영상의 깊이 즉, 시차에 대응하여 오디오 신호를 출력할 수 있는 음향의 깊이 제어방법 및 장치를 제공하는 데 있다. The present invention is to solve the above problems, an object of the present invention is to provide a depth control method and apparatus for outputting an audio signal corresponding to the depth of the image, that is, parallax when displaying a stereoscopic image have.

또한, 본 발명의 다른 목적은 입체영상의 표시 시 영상 내의 객체를 추출하고 객체의 이동에 대응하여 오디오 신호를 출력할 수 있는 음향의 깊이 제어방법 및 장치를 제공하는 데 있다. In addition, another object of the present invention is to provide a method and apparatus for controlling depth of sound capable of extracting an object in an image and outputting an audio signal in response to movement of the object when displaying a stereoscopic image.

또한, 본 발명의 다른 목적은 입체영상 내의 객체의 의미 있는 시차변화를 판별하고 이를 오디오 신호에 반영할 수 있는 음향의 깊이 제어방법 및 장치를 제공하는 데 있다. In addition, another object of the present invention is to provide a method and apparatus for controlling depth of sound that can determine meaningful parallax variation of an object in a stereoscopic image and reflect the same in an audio signal.

상기 목적을 달성하기 위한 본 발명의 제1 실시예에 따른 음향의 깊이 제어방법은 영상에서 적어도 하나의 객체를 추출하는 단계, 영상 내에서의 객체의 움직임에 따른 깊이 변화 값을 측정하는 단계 및 깊이 값을 음향의 깊이 레벨로 변환하는 단계를 포함한다. According to a first aspect of the present invention, there is provided a method of controlling depth of a sound, including extracting at least one object from an image, measuring a depth change value according to movement of an object in the image, and depth. Converting the value to a depth level of the sound.

이때, 음향의 깊이 제어방법은 객체의 깊이 변화가 의미 있는 깊이 변화인지를 판단하는 단계 및 의미 있는 깊이 변화 값을 가지는 객체 중 음향의 깊이 레벨로 변환할 객체를 결정하는 단계를 더 포함할 수 있다.In this case, the depth control method of the sound may further include determining whether the depth change of the object is a meaningful depth change, and determining an object to be converted to a depth level of the sound among objects having a meaningful depth change value. .

본 발명의 제2 실시예에 따른 음향의 깊이 제어방법은 양안시차 영상으로부터 시차에 따른 픽셀 수를 나타내는 시차 히스토그램을 획득하는 단계 및 시차 히스토그램으로부터 음향의 깊이 레벨을 결정하는 단계를 포함한다. A depth control method of a sound according to a second embodiment of the present invention includes obtaining a parallax histogram indicating the number of pixels according to parallax from a binocular parallax image, and determining a depth level of the sound from the parallax histogram.

이때, 시차 히스토그램을 획득하는 단계는 양안시차 영상을 복수의 영역으로 분할하는 단계, 분할된 복수의 영역에 대하여 가중치를 적용하는 단계, 및 가중치에 따라 시차 히스토그램을 구하는 단계를 포함할 수 있다. In this case, the obtaining of the parallax histogram may include dividing the binocular parallax image into a plurality of regions, applying a weight to the plurality of divided regions, and obtaining a parallax histogram according to the weights.

또한, 음향의 깊이 레벨을 결정하는 단계는 시차 히스토그램에서 시차의 크기에 따른 복수의 시차 구간을 정의하는 단계, 정의된 복수의 시차 구간에서의 픽셀 수의 합을 구하는 단계 및 시차 구간에서의 픽셀 수의 합에 대응하는 음향의 깊이 레벨을 정하는 단계를 포함할 수 있다. The determining of the depth level of the sound may include defining a plurality of parallax sections according to the magnitude of the parallax in a parallax histogram, obtaining a sum of the number of pixels in the defined plurality of parallax sections, and the number of pixels in the parallax section. And determining a depth level of the sound corresponding to the sum of.

본 발명의 제1 실시예에 따른 음향의 깊이 제어장치는 영상에서 적어도 하나의 객체를 추출하는 객체 추출부, 영상 내에서의 객체의 움직임에 따른 깊이 변화 값을 측정하는 시차 측정부 및 깊이 값을 음향의 깊이 레벨로 변환하는 레벨 변환부를 포함한다. An apparatus for controlling the depth of sound according to a first embodiment of the present invention includes an object extractor which extracts at least one object from an image, a parallax measurement unit that measures a depth change value according to the movement of an object in the image, and a depth value. And a level converting unit converting the sound depth level.

이때, 시차 측정부는 객체의 깊이 변화가 의미 있는 깊이 변화인지를 판단하고, 의미 있는 깊이 변화 값을 가지는 객체 중 음향의 깊이 레벨로 변환할 객체를 결정할 수 있다. In this case, the parallax measurement unit may determine whether the depth change of the object is a meaningful depth change, and determine an object to be converted to a sound depth level among objects having a meaningful depth change value.

한편, 본 발명의 제2 실시예에 따른 음향의 깊이 제어장치는 양안시차 영상으로부터 시차에 따른 픽셀 수를 나타내는 시차 히스토그램을 획득하는 시차 측정부 및 시차 히스토그램으로부터 음향의 깊이 레벨을 결정하는 레벨 변환부를 포함한다. On the other hand, the depth control apparatus of the sound according to the second embodiment of the present invention is a parallax measurement unit for obtaining a parallax histogram indicating the number of pixels according to the parallax from the binocular parallax image and a level converter for determining the depth level of the sound from the parallax histogram Include.

이때, 시차 측정부는 양안시차 영상을 복수의 영역으로 분할하고, 분할된 복수의 영역에 대하여 가중치를 적용하며, 가중치에 따라 시차 히스토그램을 구할 수 있다. In this case, the parallax measurement unit may divide the binocular parallax image into a plurality of regions, apply weights to the plurality of divided regions, and obtain a parallax histogram according to the weights.

또한, 레벨 변환부는 시차 히스토그램에서 시차의 크기에 따른 복수의 시차 구간을 정의하고, 정의된 복수의 시차 구간에서의 픽셀 수의 합을 구하며, 시차 구간에서의 픽셀 수의 합에 대응하는 음향의 깊이 레벨을 정할 수 있다. In addition, the level converting unit defines a plurality of parallax sections according to the magnitude of the parallax in the parallax histogram, obtains a sum of the number of pixels in the defined plurality of parallax sections, and a sound depth corresponding to the sum of the number of pixels in the parallax sections. You can set the level.

본 발명에 의하면, 입체영상의 깊이에 대응하는 입체 음향을 출력할 수 있게 되어 시청자에게 보다 현장감 있는 음향을 제공하게 된다. According to the present invention, it is possible to output a three-dimensional sound corresponding to the depth of the three-dimensional image to provide a more realistic sound to the viewer.

또한, 본 발명에 의하면, 입체영상 내에서의 객체의 이동에 대응하는 입체 음향을 출력할 수 있게 되므로 시청자에게 보다 현장감 있는 음향을 제공하게 된다. In addition, according to the present invention, it is possible to output a three-dimensional sound corresponding to the movement of the object in the three-dimensional image to provide a more realistic sound to the viewer.

또한, 본 발명에 의하면, 입체영상 내에서 객체의 의미 있는 깊이 변화만을 음향에 반영할 수 있게 되므로 시청자에게 조화로운 영상과 음향을 제공할 수 있게 된다. In addition, according to the present invention, only the meaningful depth change of the object in the stereoscopic image can be reflected in the sound, thereby providing a harmonious image and sound to the viewer.

도 1은 본 발명의 제1 실시예에 따른 음향의 깊이 제어방법을 나타낸 순서도이다.
도 2 및 도 3은 객체의 깊이 변화가 의미 있는 깊이 변화인지의 여부를 판단하는 방법을 예시한 순서도이다.
도 4는 음향의 깊이 레벨로 변환할 객체를 결정하는 방법을 예시한 순서도이다.
도 5는 균일 양자화 방법에 따라 음향의 깊이 레벨을 산출하는 것을 나타낸 개념도이다.
도 6은 비균일 양자화 방법에 따라 음향의 깊이 레벨을 산출하는 것을 나타낸 개념도이다.
도 7은 산출된 음향의 깊이 레벨을 오디오 신호에 적용하는 방법을 나타낸 순서도이다.
도 8 내지 도 10는 화면 상의 객체와 시청자 간의 위치관계를 나타낸 개략도이다.
도 11은 본 발명의 제2 실시예에 따른 음향의 깊이 제어방법을 나타낸 순서도이다.
도 12는 본 발명의 제2 실시예에서 추출되는 시차 맵을 예시한 개략도이다.
도 13은 본 발명의 제2 실시예에서 추출되는 시차 히스토그램을 예시한 개략도이다.
도 14는 본 발명의 제2 실시예에서 시차 구간으로 정의되는 히스토그램을 예시한 개략도이다.
도 15은 본 발명의 실시예에 따른 음향의 깊이 제어장치의 적용이 가능한 영상표시장치를 예시한 블록도이다.
도 16은 도 15의 제어부를 도시한 블록도이다.
도 17는 본 발명의 실시예에 따른 음향의 깊이 제어장치를 나타낸 블록도이다.
도 18은 도 16의 오디오 처리부를 나타낸 블록도이다.
1 is a flowchart illustrating a sound depth control method according to a first embodiment of the present invention.
2 and 3 are flowcharts illustrating a method of determining whether a change in depth of an object is a change in depth.
4 is a flowchart illustrating a method of determining an object to convert to a depth level of sound.
5 is a conceptual diagram illustrating calculating a depth level of sound according to a uniform quantization method.
6 is a conceptual diagram illustrating calculating a depth level of sound according to a non-uniform quantization method.
7 is a flowchart illustrating a method of applying the calculated depth level to an audio signal.
8 to 10 are schematic diagrams illustrating a positional relationship between an object on a screen and a viewer.
11 is a flowchart illustrating a sound depth control method according to a second embodiment of the present invention.
12 is a schematic diagram illustrating a parallax map extracted in a second embodiment of the present invention.
13 is a schematic diagram illustrating a parallax histogram extracted in a second embodiment of the present invention.
14 is a schematic diagram illustrating a histogram defined as a parallax interval in a second embodiment of the present invention.
15 is a block diagram illustrating an image display apparatus to which an apparatus for controlling depth of sound according to an exemplary embodiment of the present invention is applicable.
FIG. 16 is a block diagram illustrating the controller of FIG. 15.
17 is a block diagram illustrating an apparatus for controlling depth of sound according to an exemplary embodiment of the present invention.
18 is a block diagram illustrating an audio processor of FIG. 16.

이하에서는 도면을 참조하여 본 발명의 실시예를 보다 상세하게 설명한다. 도 1은 본 발명의 제1 실시예에 따른 입체영상의 객체에 시차에 대응하는 음향의 깊이 제어방법을 나타낸 순서도이다. 이하에서 도 1을 참조하여 음향의 깊이 제어방법에 대하여 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. 1 is a flowchart illustrating a depth control method of a sound corresponding to parallax to an object of a stereoscopic image according to a first embodiment of the present invention. Hereinafter, the depth control method of the sound will be described in detail with reference to FIG. 1.

먼저, 양안 시차 영상을 이용하여 영상 내에 존재하는 적어도 하나의 객체를 추출한다(S100). 즉, 영상 내에서 객체를 추출하여 분석하고자 하는 관심영역을 추출한다. 이를 통해서 배경 영역과 사물을 구분해 내고, 불필요한 사물을 제거하여 분석 대상을 단순화할 수 있다. 이때, 확률분포 계산 방법에 의해 객체를 추출하거나, 특징점 추출 방법으로 객체를 추출할 수 있다. 또한, 입력 영상의 종류 및 계산의 복잡도를 고려하여 상기와 같은 두 가지 방법을 선택적으로 또는 혼용하여 보다 정확하게 객체를 추출해 낼 수 있다. First, at least one object existing in the image is extracted using the binocular parallax image (S100). That is, the region of interest to be analyzed is extracted by extracting an object from the image. Through this, it is possible to distinguish the background area from the object and to simplify the analysis object by removing unnecessary objects. In this case, an object may be extracted by a probability distribution calculation method, or an object may be extracted by a feature point extraction method. In addition, in consideration of the type of input image and the complexity of the calculation, the above two methods may be selectively or mixed to extract an object more accurately.

확률분포 계산 방법에서는 기본적으로 히스토그램을 사용할 수 있지만 영상의 특성에 맞는 다양한 확률 모델을 적용하거나 확률 분포를 추정하는 방법에 의해서 그 성능을 향상 시킬 수 있다. In the probability distribution calculation method, the histogram can be used basically, but the performance can be improved by applying various probability models suitable for the characteristics of the image or estimating the probability distribution.

특징점 추출 방법에서는 영상의 에지 등을 검출하고 이를 바탕으로 한 물체의 윤곽선을 추출하거나, 회전이나 크기에 불변인 특징을 추출하는 방법에 의해 객체를 추출한다. In the feature point extraction method, an object is extracted by detecting an edge of an image and extracting an outline of an object based on the image, or extracting a feature that is invariant in rotation or size.

다음으로, 추출된 객체의 깊이 변화 값을 측정한다(S110). 추출한 객체의 움직임을 프레임 단위로 추적하여, 프레임간의 객체의 움직임에 따른 깊이 정보의 변화 값을 측정한다. Next, the depth change value of the extracted object is measured (S110). The change of the depth information according to the movement of the object between frames is measured by tracking the movement of the extracted object in units of frames.

예를 들어, 입력되는 입체영상이 MPEG-C Part 3 방식으로 부호화되어, 색차 영상과 깊이 영상으로 각각이 부호화되는 경우 복호화된 영상으로부터 객체의 깊이를 산출할 수 있다. For example, when the input stereoscopic image is encoded by the MPEG-C Part 3 scheme, and each of the input stereoscopic image is encoded into the chrominance image and the depth image, the depth of the object may be calculated from the decoded image.

또 다른 예로써, 입력되는 입체영상이 MPEG-2 등의 방식으로 부호화되어, 좌안 영상과 우안 영상으로 각각이 부호화되는 경우, 좌안 영상과 우안 영상을 복호화한 후, 좌안 영상과 우안 영상의 시차 정보로부터 객체의 깊이를 산출할 수 있다. As another example, when an input stereoscopic image is encoded by a method such as MPEG-2 and each is encoded into a left eye image and a right eye image, after decoding the left eye image and the right eye image, disparity information between the left eye image and the right eye image We can calculate the depth of the object from

한편, 본 실시예에서 디스플레이 화면과 사용자에게 인식되는 객체 사이의 거리를 깊이(depth)로 표현한다. 이에 따라, 객체가 화면보다 뒤에 위치하고 있는 것처럼 사용자에게 인식되는 경우의 깊이(depth)는 음의 값(-)을 가지는 것으로 하며, 객체가 화면보다 앞에 위치하고 있는 것처럼 사용자에게 인식되는 경우의 깊이(depth)는 양의 값(+)을 가지는 것으로 정의한다. 즉, 사용자 방향으로 돌출 정도가 더 클수록, 객체의 깊이의 크기는 더 커지게 된다. 이때, 좌안 영상과 우안 영상 간의 간격이 클수록 입체영상에서 객체의 깊이가 더 커지게 된다. Meanwhile, in the present embodiment, the distance between the display screen and the object recognized by the user is expressed as a depth. Accordingly, the depth when the object is recognized by the user as if it is located behind the screen has a negative value (-), and the depth when the object is recognized by the user as when the object is located before the screen. ) Is defined as having a positive value (+). That is, the greater the degree of protrusion in the direction of the user, the larger the size of the depth of the object. In this case, the greater the distance between the left eye image and the right eye image, the greater the depth of the object in the stereoscopic image.

입체영상이 좌안 영상과 우안 영상으로 예시되는 경우, 좌안 영상과 우안 영상 간의 간격에 의해, 사용자 입장에서 상이 맺히는 것으로 인식되는 위치가 달라지게 된다. 따라서, 좌안 영상과 우안 영상의 표시간격을 조절함으로써, 좌안 영상과 우안 영상으로 구성되는 입체영상 또는 3D 객체의 깊이를 조절할 수 있게 된다. When a stereoscopic image is illustrated as a left eye image and a right eye image, a position recognized as image formation from a user's point of view varies depending on the distance between the left eye image and the right eye image. Therefore, by adjusting the display interval of the left eye image and the right eye image, it is possible to adjust the depth of the stereoscopic image or 3D object composed of the left eye image and the right eye image.

다음으로, 객체의 깊이 값을 음향의 깊이 레벨로 변환할 대상이 되는 의미 있는 깊이 변화인지의 여부를 판단(S120)한다. 즉, 의미 있는 객체의 시차변화만을 음향의 깊이 레벨에 반영하도록 한다. 먼저 객체의 깊이가 커지는 경우에 대한 판단 방법의 예를 도 2를 참조하여 설명한다. Next, it is determined whether or not the depth value of the object is a meaningful depth change to be converted to the depth level of the sound (S120). That is, only the parallax change of the meaningful object is reflected in the depth level of the sound. First, an example of a determination method for a case in which the depth of an object increases is described with reference to FIG. 2.

변환 여부를 판단하고자 하는 현재 프레임을 k라고 가정할 때, 먼저, k번째 프레임에서의 객체의 깊이의 변화 값(Δdk)이 충분히 큰지를 판단한다(S210). 즉, K번째 프레임에서의 객체의 깊이와 K-1번째 프레임에서의 객체의 깊이의 차이(Δdk)가 미리 설정한 양의 제1 기준 값(T1)보다 큰지를 판단한다. 이때, k번째 프레임에서 깊이 변화 값(Δdk)이 미리 설정한 기준 값(T1)보다 크거나 같다면 해당 객체의 깊이 변화를 의미 있는 깊이 변화로 판단한다(S220).When it is assumed that the current frame to determine whether to convert the k, first, it is determined whether the change value (Δd k ) of the depth of the object in the k-th frame is large enough (S210). That is, it is determined whether the difference Δd k between the depth of the object in the K-th frame and the depth of the object in the K−1 frame is greater than a predetermined first reference value T 1 . In this case, if the depth change value Δd k is greater than or equal to the preset reference value T 1 in the k-th frame, the depth change of the corresponding object is determined as a meaningful depth change (S220).

이때, k번째 프레임에서 깊이 변화 값(Δdk)이 미리 설정한 기준 값(T1)보다 작다면 k번째 프레임 직전의 프레임인 k-1번째 프레임에서의 객체의 깊이의 변화 값(Δdk -1)이 충분히 큰지를 판단한다(S230). 즉, K-1번째 프레임에서의 객체의 깊이와 K-2번째 프레임에서의 객체의 깊이의 차이(Δdk -1)가 미리 설정한 양의 제2 기준 값(T2)보다 큰지를 판단한다. 여기에서, 제2 기준 값(T2)은 전술한 제1 기준 값(T1)보다는 충분히 작은 값을 갖도록 설정할 수 있다. 이때, k-1번째 프레임에서 깊이 변화 값(Δdk -1)이 미리 설정한 기준 값(T1)보다 작다면 의미 있는 변화로 판단하지 않는다.At this time, if the depth change value Δd k in the k-th frame is smaller than the preset reference value T 1 , the change value of the object depth Δd k in the frame k-1, which is the frame immediately before the k-th frame. It is determined whether 1 ) is large enough (S230). That is, it is determined whether the difference Δd k -1 between the depth of the object in the K-1th frame and the depth of the object in the K-2th frame is greater than a preset second reference value T 2 . . Here, the second reference value T 2 may be set to have a value sufficiently smaller than the aforementioned first reference value T 1 . In this case, if the depth change value Δd k −1 is smaller than the preset reference value T 1 in the k−1th frame, it is not determined as a meaningful change.

만일 k-1번째 프레임에서 깊이 변화 값(Δdk -1)이 기준 값 이상이라면, k-2번째 프레임에서 객체의 깊이 변화 값(Δdk -2)이 충분히 큰지를 판단한다(S240). 즉, K-2번째 프레임에서의 객체의 깊이와 K-1번째 프레임에서의 객체의 깊이의 차이(Δdk -2)가 제2 기준 값(T2)보다 큰지를 판단한다. If the depth change value Δd k -1 is greater than or equal to the reference value in the k−1th frame, it is determined whether the depth change value Δd k −2 of the object is large enough in the k 2th frame (S240). That is, it is determined whether the difference Δd k -2 between the depth of the object in the K-2th frame and the depth of the object in the K-1th frame is greater than the second reference value T 2 .

이때, k-2번째 프레임에서도 객체의 깊이 변화 값(Δdk -2)이 제2 기준 값(T2) 이상이라면 객체의 깊이 변화 값은 연속적으로 2프레임 이상 충분히 증가한 상태로 판단할 수 있다. 이 경우, 현재 프레임 k에서의 객체의 깊이 변화 값(Δdk)이 충분히 증가하였는지 여부를 판단(S250)하여 의미 있는 깊이 변화인지의 여부를 결정한다. 즉, K번째 프레임에서의 객체의 깊이와 K-1번째 프레임에서의 객체의 깊이의 차이(Δdk)가 제2 기준 값(T2) 이상이면 객체가 의미 있는 깊이 방향의 움직임을 가진 것으로 간주한다(S220). In this case, even when the depth change value Δd k −2 of the object is equal to or greater than the second reference value T 2 , the depth change value of the object may be sufficiently increased in two or more frames continuously. In this case, it is determined whether or not the depth change value Δd k of the object in the current frame k is sufficiently increased (S250) to determine whether it is a meaningful depth change. That is, if the difference (Δd k ) between the depth of the object in the Kth frame and the depth of the object in the K-1th frame is greater than or equal to the second reference value T 2 , the object is considered to have a meaningful depth direction movement. (S220).

그러나, k-2번째 프레임에서 깊이의 변화 값(Δdk -2)이 충분히 크지 않다면, 즉, 기준 값보다 작다면, 객체는 k-1번째 프레임에서부터 의미 있는 깊이 변화가 발생하고 있음을 알 수 있다. 이 경우에는 k번째 프레임에서 객체의 깊이 변화 값(Δdk)은 일시적인 것일 수 있다. 따라서 깊이 변화 값 여부를 판별하는 제2 기준 값(T2)보다 충분히 큰 깊이 변화 값을 가지는 경우에만 객체가 의미 있는 깊이 방향의 움직임을 시작한 것으로 간주한다(S220). 즉, k번째 프레임에서 객체의 깊이 변화 값(Δdk)과 k-1번째 프레임에서 객체의 깊이 변화 값(Δdk)을 비교하여(S260), k번째 프레임에서 객체의 깊이 변화 값(Δdk)이 k-1번째 프레임에서 객체의 깊이 변화 값(Δdk)보다 크거나 같은 경우에 깊이 변화를 의미 있는 변화로 결정한다(S220).However, if the depth change value Δd k -2 in the k-2 frame is not large enough, i.e., less than the reference value, the object knows that a significant depth change occurs from the k-1 frame. have. In this case, the depth change value Δd k of the object in the k-th frame may be temporary. Therefore, the object is considered to have started a meaningful depth movement only when the depth change value is sufficiently larger than the second reference value T 2 for determining whether the depth change value is present (S220). That is, the depth of the change value of the object in the k-th frame (Δd k) and k-1 in the second frame compared to the depth of the change value of the object (Δd k) (S260), the depth changes the value of the object in k-th frame (Δd k If) is greater than or equal to the depth change value Δd k of the object in the k−1th frame, the depth change is determined as a meaningful change (S220).

다만, 현재 프레임 k에서의 객체의 깊이 변화 값(Δdk)과 제2 기준 값(T2)을 비교하는 단계(S250)와 k번째 프레임에서 객체의 깊이 변화 값(Δdk)과 k-1번째 프레임에서 객체의 깊이 변화 값(Δdk)을 비교하는 단계(S260)에서 판단한 결과가 의미 있는 변화로 판단되지 않는 경우, k번째 프레임에서 변화 값이 계속적으로 증가상태에 있고 k-1번째의 변화 값이 충분히 큰 경우에는 의미 있는 변화로 결정한다. 즉, k번째 프레임에서 객체의 깊이 변화 값(Δdk)이 0보다 크고, K-1번째 프레임에서 객체의 깊이 변화 값이 제1 기준 값(T1)보다 큰 경우에는 의미 있는 변화로 판단한다(S270). However, comparing the depth change value Δd k of the object in the current frame k with the second reference value T 2 (S250) and the depth change value Δd k of the object in the k th frame and k-1. If the result determined in the step S260 of comparing the depth change value Δd k of the object in the first frame is not determined to be a meaningful change, the change value is continuously increased in the k-th frame and the k-1 th If the change value is large enough, it is decided as a meaningful change. That is, if the depth change value Δd k of the object is greater than 0 in the k -th frame and the depth change value of the object is greater than the first reference value T 1 in the K-1th frame, it is determined as a meaningful change. (S270).

다음으로, 객체의 깊이가 작아지는 경우에 대한 판단 방법의 예를 도 3을 참조하여 설명한다. 이하에서, 영상 내에서 객체의 깊이의 변화 값은 깊이가 작아지는 경우에 음의 값을 가지는 것으로 정의한다. 다만, 깊이의 변화 값의 크기 즉, 변화 값의 절대값은 항상 양의 값을 가지게 된다. 따라서 이하에서 언급하는 깊이의 변화 값과 변화 값의 크기는 구분되어 이해되어야 한다. Next, an example of the determination method for the case where the depth of the object becomes small will be described with reference to FIG. 3. Hereinafter, the change value of the depth of the object in the image is defined as having a negative value when the depth decreases. However, the magnitude of the change value of the depth, that is, the absolute value of the change value always has a positive value. Therefore, the change value of the depth and the magnitude of the change value mentioned below are to be understood separately.

변환 여부를 판단하고자 하는 현재 프레임을 k라고 가정할 때, 먼저, k번째 프레임에서의 객체의 깊이의 변화 값(Δdk)의 크기가 충분히 큰지를 판단한다(S310). 즉, K번째 프레임에서의 객체의 깊이와 K-1번째 프레임에서의 객체의 깊이의 변화 값(Δdk)이 미리 설정한 음의 제3 기준 값(T3)보다 작은지를 판단한다. 이때, k번째 프레임에서 깊이의 변화 값(Δdk)이 제3 기준 값(T3)보다 작거나 같다면, 즉 깊이 변화 값의 크기가 크거나 같다면, 객체의 깊이 변화를 의미 있는 깊이 변화로 판단한다(S320).When it is assumed that the current frame to determine whether to convert the k, first, it is determined whether the size of the change value Δd k of the depth of the object in the k-th frame is large enough (S310). That is, it is determined whether the change value Δd k of the depth of the object in the K-th frame and the depth of the object in the K−1 frame is smaller than the negative third reference value T 3 set in advance. At this time, if the change value Δd k of the depth in the k-th frame is less than or equal to the third reference value T 3 , that is, the size of the change value is greater than or equal to the depth, the depth change of the object is meaningful. It is determined as (S320).

이때, k번째 프레임에서 깊이 변화 값(Δdk)이 미리 설정한 기준 값(T3)보다 크다면, 즉, 변화 값의 크기가 작다면, k번째 프레임 직전의 프레임인 k-1번째 프레임에서의 객체의 깊이의 변화 값(Δdk -1)의 크기가 충분히 큰지를 판단(S330)한다. 즉, K-1번째 프레임에서의 객체의 깊이와 K-2번째 프레임에서의 객체의 깊이의 차이(Δdk -1)가 미리 설정한 음의 기준 값(T4)보다 작은 지 즉, 변화 값의 크기가 큰지를 판단한다. 이때, k-1번째 프레임에서 깊이 변화 값(Δdk -1)이 미리 설정한 음의 값을 가지는 제4 기준 값(T4)보다 크다면 즉, 변화 값의 크기가 작다면 의미 있는 깊이 변화로 판단하지 않는다(S320).At this time, if the depth change value Δd k in the k-th frame is larger than the preset reference value T 3 , that is, the magnitude of the change value is small, in the k-1th frame, the frame immediately before the k-th frame, It is determined whether the size of the change value Δd k −1 of the depth of the object is sufficiently large (S330). That is, the change value of the difference between the depth of the object in the K-1th frame and the depth of the object in the K-2th frame Δd k -1 is smaller than the preset negative reference value T 4 . Determine if the size of is large. In this case, if the depth change value Δd k −1 is larger than the fourth reference value T 4 having a preset negative value in the k−1th frame, that is, the size of the change value is small, the meaningful depth change is significant. Do not determine as (S320).

만일 k-1번째 프레임에서 깊이 변화 값(Δdk -1)이 제4 기준 값(T4) 이하라면, k-2번째 프레임에서 객체의 깊이 변화 값(Δdk -2)의 크기가 충분히 큰지를 판단한다(S340). 즉, K-2번째 프레임에서의 객체의 깊이와 K-1번째 프레임에서의 객체의 깊이의 차이(Δdk -2)가 음의 제4 기준 값(T4)보다 작은지를 즉, 변화 값의 크기가 큰 지를 판단한다. If the depth change value Δd k -1 is less than or equal to the fourth reference value T 4 in the k-1th frame, the depth change value Δd k -2 of the object is large enough in the k - 2th frame. Determine (S340). That is, whether the difference (Δd k -2 ) between the depth of the object in the K-2th frame and the depth of the object in the K-1th frame is smaller than the negative fourth reference value T 4 , that is, the change value Determine if the size is large.

이때, k-2번째 프레임에서도 객체의 깊이 변화 값(Δdk -2)이 제4 기준 값(T4) 이하라면 객체의 깊이 변화 값은 연속적으로 2프레임 이상 충분히 증가한 상태로 판단할 수 있다. 이 경우, 현재 프레임 k에서의 객체의 깊이 변화 값(Δdk)이 충분히 증가하였는지 여부를 판단하여(S350) 의미 있는 깊이 변화인지의 여부를 결정한다. 즉, K번째 프레임에서의 객체의 깊이와 K-1번째 프레임에서의 객체의 깊이의 차이(Δdk)가 음의 제4 기준 값(T4) 이하이면 객체가 의미 있는 깊이 방향의 움직임을 가진 것으로 간주한다(S320). In this case, even when the depth change value Δd k −2 of the object is equal to or less than the fourth reference value T 4 , the depth change value of the object may be sufficiently increased in two or more frames continuously. In this case, it is determined whether or not the depth change value Δd k of the object in the current frame k is sufficiently increased (S350). That is, when the difference Δd k between the depth of the object in the Kth frame and the depth of the object in the K-1th frame is less than or equal to the fourth negative reference value T 4 , the object has a meaningful depth direction movement. It is regarded as (S320).

그러나, k-2번째 프레임에서 깊이의 변화 값(Δdk -2)이 충분히 크지 않다면, 즉, 음의 제4 기준 값(T4)보다 크다면, 객체는 k-1번째 프레임에서부터 의미 있는 깊이 변화가 발생하고 있음을 알 수 있다. 이 경우에는 k번째 프레임에서 객체의 깊이 변화 값(Δdk)은 일시적인 것일 수 있다. 따라서 깊이 변화 값 여부를 판별하는 음의 제4 기준 값(T4)보다 충분히 작은 경우에만, 즉, 변화 값의 크기가 큰 경우에만, 객체가 의미 있는 깊이 방향의 움직임을 시작한 것으로 간주한다(S320). 즉, k번째 프레임에서 객체의 깊이 변화 값(Δdk)과 k-1번째 프레임에서 객체의 깊이 변화 값(Δdk)을 비교하여(S360), k번째 프레임에서 객체의 깊이 변화 값(Δdk)이 k-1번째 프레임에서 객체의 깊이 변화 값(Δdk)보다 작거나 같은 경우에 깊이 변화를 의미 있는 깊이 변화로 결정한다(S320).However, if the change value Δd k -2 of the depth in the k-2th frame is not large enough, that is, larger than the negative fourth reference value T 4 , the object has a significant depth from the k-1th frame. It can be seen that a change is occurring. In this case, the depth change value Δd k of the object in the k-th frame may be temporary. Therefore, the object is considered to have started the movement in the meaningful depth direction only when it is sufficiently smaller than the negative fourth reference value T 4 , which determines whether the depth change value is large, that is, when the magnitude of the change value is large (S320). ). That is, the depth of the change value of the object in the k-th frame (Δd k) and k-1 in the second frame compared to the depth of the change value of the object (Δd k) (S360), the depth changes the value of the object in k-th frame (Δd k If) is less than or equal to the depth change value Δd k of the object in the k−1th frame, the depth change is determined as a meaningful depth change (S320).

다만, 현재 프레임 k에서의 객체의 깊이 변화 값(Δdk)과 제4 기준 값(T4)을 비교하는 단계(S350)와 k번째 프레임에서 객체의 깊이 변화 값(Δdk)과 k-1번째 프레임에서 객체의 깊이 변화 값(Δdk)을 비교하는 단계(S360)에서 판단한 결과가 의미 있는 깊이 변화로 판단되지 않는 경우, k번째 프레임에서 변화 값이 계속적으로 감소상태에 있고, 즉, 변화 값의 크기가 증가상태에 있고, k-1번째의 변화 값의 크기가 충분히 큰 경우에는 의미 있는 깊이 변화로 결정한다(S320). 즉, k번째 프레임에서 객체의 깊이 변화 값(Δdk)이 0보다 작고, K-1번째 프레임에서 객체의 깊이 변화 값이 음의 제3 기준 값(T3)보다 작은 경우(S370)에는 의미 있는 깊이 변화로 결정한다. However, comparing the depth change value Δd k of the object in the current frame k with the fourth reference value T 4 (S350) and the depth change value Δd k and k-1 of the object in the kth frame. When the result determined in the step S360 of comparing the depth change value Δd k of the object in the first frame is not determined to be a meaningful depth change, the change value is continuously reduced in the kth frame, that is, the change is made. If the magnitude of the value is in the increasing state and the magnitude of the k-th change value is sufficiently large, it is determined as a meaningful depth change (S320). That is, if the depth change value Δd k of the object is smaller than 0 in the k th frame and the depth change value of the object is smaller than the negative third reference value T 3 in the K-1 th frame (S370) Determined by the depth change.

상기와 같은 과정을 통해 객체의 깊이 변화 값을 음향 효과 레벨로 변환 대상이 되는 의미 있는 깊이 변화로 결정한 경우, 영상 내에는 하나 이상의 객체들이 존재할 수 있으므로, 결정된 객체 중 어느 객체에 대하여 실제 음향 깊이 레벨을 변환할 것인지 결정한다(S130). When the depth change value of the object is determined as a meaningful depth change to be converted into the sound effect level through the above process, since one or more objects may exist in the image, the actual sound depth level of any of the determined objects is determined. It is determined whether to convert (S130).

도 4는 실제 음향 깊이 레벨을 변환할 대상 객체를 선택하는 방법을 예시한 순서도이다. 먼저, 의미 있는 깊이 변화로 결정된 객체의 개수를 판단한다(S410). 이때, k 번째 프레임에서 객체가 1개이면 결정된 해당 객체의 레벨을 출력하도록 결정한다(S420). 4 is a flowchart illustrating a method of selecting a target object for converting an actual sound depth level. First, the number of objects determined by the meaningful depth change is determined (S410). At this time, if there is one object in the k-th frame, it is determined to output the determined level of the corresponding object (S420).

또한, 결정된 객체가 2개 이상 존재하는 경우에는, 이중 프레임 k 에서 k-2까지의 깊이 레벨 변화 값의 합의 절대값이 가장 큰 객체가 하나만 존재하는 지 판단하고(S430), 해당되는 객체에 대한 음향 깊이 레벨을 변환한다(S420). 만일 동일한 레벨 변화 값의 합의 절대값을 가지는 객체가 2이상 존재한다면 현재의 레벨값이 가장 큰 객체의 레벨을 선택하여(S440) 변환한다.In addition, when there are two or more determined objects, it is determined whether only one object having the largest absolute value of the sum of the depth level change values from the double frames k to k-2 exists (S430), and for the corresponding object. The sound depth level is converted (S420). If there are two or more objects having the absolute value of the sum of the same level change value, the level of the object having the largest current level value is selected and converted (S440).

한편, 결정된 객체가 한 개도 존재하지 않는다면 객체 근접도 기반의 레벨 평가를 수행하여 최종적인 음향 깊이 레벨 변환여부를 판단한다. On the other hand, if no determined object exists, it is determined whether or not the final sound depth level conversion is performed by performing level estimation based on object proximity.

즉, 도 4에 도시한 바와 같이, 현재 프레임 k에 존재하는 객체들 중에서 깊이 레벨이 제5 기준 값(T5)보다 큰 객체가 존재하는 지 판단하고(S450), 이것을 의미 있는 객체로 판단하여 입체 사운드 효과 레벨로 변환한다(S420). 만일, 현재 프레임 k에 존재하는 객체들 중에 깊이 레벨이 충분히 큰 객체가 없다면, 이전 M 프레임 동안의 구간에 최소 1개의 객체의 깊이 레벨이 제5 기준 값(T5)보다 큰 경우가 있는지 판단하여(S460), 존재하는 경우에 해당 객체의 음향 깊이 레벨로 변환하며(S420), 아닐 경우에는 최종적인 음향 깊이 레벨로 변환하지 않는다(S470). 이와 같은 방법으로 어떤 근접한 객체의 음향 깊이 레벨이 출현할 경우, 최소 M 프레임 동안 그 값을 유지시켜줌으로써 청취자가 음의 변화를 인지할 시간을 보장하도록 할 수 있게 된다.That is, as shown in FIG. 4, it is determined whether an object having a depth level larger than the fifth reference value T 5 exists among objects existing in the current frame k (S450), and this is determined as a meaningful object. The stereo sound effect level is converted (S420). If none of the objects present in the current frame k has a sufficiently large depth level, it is determined whether a depth level of at least one object is greater than a fifth reference value T 5 in a section during a previous M frame. If present (S460), and if present to convert to the sound depth level of the object (S420), otherwise it does not convert to the final sound depth level (S470). In this way, when the sound depth level of a nearby object appears, it maintains that value for at least M frames so that the listener can guarantee time to notice the change in sound.

다음으로, 상기와 같은 방법에 따라 결정된 객체의 깊이 값을 음향의 깊이 레벨로 변환한다(S140). 이때, 검출된 깊이 값의 범위를 음향의 깊이 레벨 값으로 직접적으로 맵핑하는 균일 양자화 방법을 사용하거나 또는 양안 시차의 범위에 따라 차등적으로 음향의 깊이 레벨 값을 할당하는 비균일 양자화 방법을 통해서 음향의 깊이 레벨로 변환할 수 있다. Next, the depth value of the object determined according to the above method is converted into the depth level of the sound (S140). In this case, the sound may be uniformly quantized by directly mapping the detected range of depth values to the depth level of the sound or by a non-uniform quantization method that allocates the depth level of the sound differentially according to the range of binocular parallax. Can be converted to a depth level of.

도 5는 균일 양자화(uniform quantizing) 방법으로 양안시차 레벨들을 음향의 깊이 레벨로 변환하는 것을 나타낸 것을 예시한 도면이고, 도 6은 비균일 양자화(non-uniform quantizing) 방법으로 양안시차 레벨들을 음향의 깊이 레벨로 변환하는 것을 예시한 도면이다. FIG. 5 illustrates conversion of binocular parallax levels into a depth level of sound by a uniform quantizing method, and FIG. 6 illustrates binocular parallax levels by a non-uniform quantizing method. A diagram illustrating conversion to a depth level.

비균일 양자화 방법에서는 아주 가깝거나 아주 먼 객체들의 깊이를 대략적으로 양자화하고, 중간범위의 객체들의 깊이를 상대적으로 상세히 양자화함으로써 애매한 범위의 움직임에 대해 더 상세한 음향의 레벨을 할당할 수 있다. In the non-uniform quantization method, roughly quantizing the depths of very close or very distant objects, and quantizing the depths of the midrange objects in relative detail, can assign more detailed levels of sound for an ambiguous range of motion.

다음으로, 음향의 깊이 레벨을 객체에 대응하는 오디오 신호에 반영하여 출력한다(S140). 도 7은 음향의 깊이 레벨을 반영하는 것을 보다 상세하게 나타낸 순서도이다. 이하에서는 도 7을 참고하여 이에 대하여 설명한다. Next, the depth level of the sound is reflected on the audio signal corresponding to the object and output. 7 is a flow chart illustrating in more detail the reflection of the depth level of the sound. Hereinafter, this will be described with reference to FIG. 7.

먼저, 오디오 신호에 대해 음상 정위(Sound image Localization)를 제어(S610)한다. 여기서, 음상 정위는 감각적으로 지각되는 음상의 위치를 의미한다. 예를 들어, 좌, 우 채널의 스테레오 오디오 신호에 대해, 각 채널의 오디오 신호가 동일한 경우, 음상 정위는, 좌측 스피커 및 우측 스피커의 중간일 수 있다.First, sound image localization is controlled with respect to the audio signal (S610). Here, the sound image position means a position of a sound image that is sensed perceptually. For example, with respect to the stereo audio signals of the left and right channels, when the audio signals of the respective channels are the same, the sound image orientation may be the middle of the left speaker and the right speaker.

음상을 정위시키는 방법은, 예를 들어, 청취자의 각 귀에 도달하는 음성 신호의 위상차(시간 차)와 레벨 비율(음압 레벨 비율)에 기초하여, 음장 공간에서의 특정 위치(특정 방향)에 음원을 느끼게 하도록 할 수 있다. The method of orienting the sound image is, for example, based on the phase difference (time difference) and the level ratio (sound pressure level ratio) of the speech signal reaching each ear of the listener, the sound source at a specific position (specific direction) in the sound field space. You can feel it.

이러한 음상 정위 제어를 위해, 본 실시예에서는, 입력되는 복호화된 오디오 신호에 대해, 머리전달함수(Head-Related Transfer Function, FRTF) 필터링을 사용한다. For this sound phase control, this embodiment uses Head-Related Transfer Function (FRTF) filtering on the input decoded audio signal.

머리전달함수는 임의의 위치를 갖는 음원에서 나오는 음파와 귀의 고막에 도달하는 음파 사이의 전달함수(transfer function)를 의미하는 것으로, 실제 청취자의 귀 속 또는 사람의 모양을 한 모형의 귀 속에 마이크를 넣고, 특정 각도에 대해 오디오 신호의 임펄스 응답을 측정함으로써 획득할 수 있다. The head transfer function refers to a transfer function between sound waves coming from an arbitrary source and sound waves reaching the ear tympanic membrane. A microphone is placed in the ears of an actual listener or in the shape of a person. Can be obtained by measuring the impulse response of the audio signal for a particular angle.

이러한 머리전달함수는 음원의 방위와 고도에 따라 그 값이 달라진다. 또한, 청취자의 머리 모양, 머리 크기 또는 귀의 모양 등과 같은 신체 특성에 의해 달라질 수 있다. These head transfer functions vary depending on the orientation and altitude of the sound source. It may also vary depending on physical characteristics such as the listener's head shape, head size or ear shape.

한편, 본 발명의 실시예에서는 전술한 입체영상의 깊이(depth)에 대응하여 생성된 음향의 깊이 레벨에 따라 머리전달함수가 가변된다. 예를 들어, 음향의 깊이 레벨에 대응하여 음원의 위치가 가변하는 것으로 가정하고, 해당 깊이에 따른 음원을 기준으로, 각각의 머리전달함수를 설정할 수 있다. 즉, 음향의 깊이 레벨에 따라 머리전달함수의 계수가 결정된다. 또한, 주파수 별로 머리전달함수의 계수가 달라질 수 있다. 특히, 음향의 깊이 레벨이 클수록, 또는 음향의 깊이 레벨의 변화 값이 클수록, 고주파 성분이 제거되도록 머리전달함수의 계수 조정을 수행할 수 있다. Meanwhile, in the exemplary embodiment of the present invention, the head transfer function is varied according to the depth level of the sound generated corresponding to the depth of the stereoscopic image described above. For example, it is assumed that the position of the sound source varies in response to the depth level of the sound, and each head transfer function may be set based on the sound source according to the depth. That is, the coefficient of the head transfer function is determined according to the depth level of the sound. In addition, the coefficient of the head transfer function may vary for each frequency. In particular, the larger the depth level of the sound or the larger the change value of the depth level of the sound, the greater the coefficient adjustment of the head transfer function may be performed to remove the high frequency component.

도 8 내지 도 10은 화면(1100) 내에 객체(1000)가 배치되는 것을 예시한다. 도 8은 객체(1000)가 깊이를 갖지 않는 경우를 예시하고 있다. 여기서, 객체(1000)에 음원이 있는 것으로 가정하면, 음원과 시청자(1200) 사이의 각도는 θ1으로 설정되며, 그 거리는 L1으로 설정된다. 8 to 10 illustrate that the object 1000 is disposed in the screen 1100. 8 illustrates a case where the object 1000 does not have a depth. Here, assuming that there is a sound source in the object 1000, the angle between the sound source and the viewer 1200 is set to θ1, the distance is set to L1.

도 9는 객체(1000)가 깊이(d1)를 가지며, 화면(1100)으로부터 돌출되는 것을 예시한다. 여기서, 객체(1000)에 음원이 있는 것으로 가정하면, 음원과 시청자(1200) 사이의 각도는 θ2으로 설정되며, 그 거리는 L2으로 설정된다. 9 illustrates that the object 1000 has a depth d1 and protrudes from the screen 1100. Herein, it is assumed that the object 1000 has a sound source, and the angle between the sound source and the viewer 1200 is set to θ2, and the distance is set to L2.

도 10은 객체(1000)가 깊이(d2)를 가지며, 화면(1100)으로부터 더 돌출되는 것을 예시한다. 여기서, 객체(1000)에 음원이 있는 것으로 가정하면, 음원과 시청자(1200) 사이의 각도는 θ3으로 설정되며, 그 거리는 L3으로 설정된다.10 illustrates that the object 1000 has a depth d2 and protrudes further from the screen 1100. Here, it is assumed that the object 1000 has a sound source, and the angle between the sound source and the viewer 1200 is set to θ3, and the distance is set to L3.

도 8 내지 도 10에 도시된 바와 같이, 객체(1000)의 깊이가 클수록 시청자(1200)와의 거리는 작아지게 된다. 이와 같이, 객체가 서로 다른 깊이를 가지는 경우, 각 깊이에 대응하는 깊이 레벨에 따른 머리전달함수를 구비하고, 머리전달함수 필터링을 수행한다. As shown in FIGS. 8 to 10, the greater the depth of the object 1000, the smaller the distance from the viewer 1200. As described above, when the objects have different depths, the head transfer function according to the depth level corresponding to each depth is provided, and the head transfer function filtering is performed.

이와 같이, 입체영상의 깊이에 따른 머리전달함수를 이용한 음상 정위 방법은 공간감이나 현실감과 같은 3차원 효과를 제공할 수 있게 된다. As described above, the sound image positioning method using the head transfer function according to the depth of the stereoscopic image can provide a three-dimensional effect such as a sense of space or reality.

한편, 머리전달함수 필터링은 모노 채널 기반으로 수행될 수 있다. 예를 들어, 모노 채널 오디오 신호를, 제1 머리전달함수에 대한 임펄스 응답, 및 제2 머리 전달함수에 대한 임펄스 응답과, 각각 컨벌루션하여 좌측 오디오 신호 및 우측 오디오 신호를 생성할 수 있다. 이에 따라, 음상 정위를 수행할 수 있다. Meanwhile, head transfer function filtering may be performed based on a mono channel. For example, the mono channel audio signal may be convolved with an impulse response to the first head transfer function and an impulse response to the second head transfer function, respectively, to generate a left audio signal and a right audio signal. Accordingly, sound image positioning can be performed.

한편, 다채널의 오디오 신호가 입력되는 경우, 각 채널 별로 각각 머리전달함수 필터링을 수행하고, 각각 좌측 오디오 신호 및 우측 오디오 신호를 생성하며, 최종적으로 이를 합산하여 출력할 수 있다. On the other hand, when a multi-channel audio signal is input, the head transfer function filtering may be performed for each channel, and the left and right audio signals may be generated, respectively, and finally summed and output.

다음으로, 음상 정위 제어된 오디오 신호를 서브 밴드 분석 필터링한다(S620). 즉, 서브 밴드 분석 필터 뱅크를 구비하여, 음상 정위 제어된 오디오 신호를 주파수 신호로 변환시킨다. 이때, 필터링된 오디오 신호의 서브 밴드는 32개의 서브 밴드 또는 64개의 서브 밴드일 수 있다. Subsequently, the subband analysis filtering is performed on the audio localization controlled audio signal (S620). That is, a subband analysis filter bank is provided to convert the audio-position-determined audio signal into a frequency signal. In this case, the subbands of the filtered audio signal may be 32 subbands or 64 subbands.

다음으로, 대역별로 분리된 주파수 대역별로 위상(phase)을 조정한다(S630). 이러한 위상 조정은 음향의 깊이 레벨 또는 음향의 깊이 레벨의 변화 값에 기반하여 수행될 수 있다. 음향의 깊이 레벨이 클수록 또는 음향의 깊이 레벨의 변화 값이 클수록, 위상을 증가시키는 것이 바람직하다. 위상 증가 시 상한까지 증가시키는 것이 가능하다. 한편, 음향의 깊이 레벨이 거의 없는 경우 또는 음향의 깊이 레벨의 변화 값이 거의 없는 경우, 즉 소정치 미만인 경우, 위상 조정은 수행되지 않을 수 있다. Next, a phase is adjusted for each frequency band separated for each band (S630). This phase adjustment may be performed based on a change value of the sound depth level or the sound depth level. It is desirable to increase the phase as the depth level of the sound is larger or the change value of the depth level of the sound is larger. It is possible to increase to the upper limit when the phase increases. On the other hand, if there is little depth level of the sound or if there is little change value of the depth level of the sound, i.e., less than a predetermined value, phase adjustment may not be performed.

예를 들어, 소정 주파수의 오디오 신호의 위상을 180도 증가시킨 경우, 해당 오디오 신호는 사용자 방향으로 더 돌출되어 출력되는 것으로 파악될 수 있다. For example, when the phase of an audio signal of a predetermined frequency is increased by 180 degrees, the audio signal may be seen to protrude further toward the user.

위상 조정 방법은, 다양한 방법으로 수행될 수 있다. 예를 들어, 특정 주파수 범위에 대해서만 밴드 혹은 대역을 나누어 채널간의 부호를 바꾸거나, 특정 주파수 범위에 대해서 그룹으로 묶어서 채널간의 부호를 바꾸거나, 모든 주파수 대역에서 각각 독립적으로 채널간의 위상을 조절하거나, 특정 주파수 범위에 대해서만 밴드 혹은 대역을 나누어 채널간의 위상을 조절하거나, 특정 주파수 범위에 대해서 그룹으로 묶어서 채널간의 위상을 조절할 수 있다. The phase adjustment method may be performed in various ways. For example, you can change the sign between channels by dividing the band or band only for a certain frequency range, change the sign between channels by grouping them in a specific frequency range, or adjust the phase between channels independently in each frequency band, The phases between channels can be adjusted by dividing bands or bands only for a specific frequency range, or the phases between channels can be controlled by grouping them for a specific frequency range.

또한, 음향의 깊이 레벨이 클수록, 또는 음향의 깊이 레벨의 변화 값이 클수록, 고주파 성분이 제거되도록 위상 조정을 수행할 수 있다. In addition, as the depth level of the sound increases or the change value of the depth level of the sound increases, phase adjustment may be performed so that a high frequency component is removed.

다음으로, 대역별로 분리된 주파수 대역별로 게인(gain)을 조정한다(S640). 게인 조정은 검출된 음향의 깊이 레벨 또는 음향의 깊이 레벨의 변화 값에 기반하여 수행될 수 있다. 검출된 음향의 깊이 레벨이 클수록 또는 음향의 깊이 레벨의 변화 값이 클수록, 게인을 증가시키는 것이 바람직하다. Next, a gain is adjusted for each frequency band separated for each band (S640). The gain adjustment may be performed based on the detected value of the depth level of the sound or the depth level of the sound. As the depth level of the detected sound is larger or the change value of the depth level of the sound is larger, it is desirable to increase the gain.

예를 들어, 검출된 음향의 깊이 레벨이 2배로 커지는 경우, 게인은 4배로 증가시킬 수 있으며, 음향의 깊이 레벨이 4배로 커지는 경우, 게인은 8배로 증가시킬 수 있다. 이에 음향의 깊이 레벨에 대응하여 오디오 신호의 줌밍(zooming) 하고자 하는 대역을 강조할 수 있게 된다. For example, if the depth level of the detected sound is doubled, the gain can be increased by four times, and if the depth level of the sound is increased by four times, the gain can be increased by eight times. Accordingly, the band to zoom the audio signal can be emphasized corresponding to the depth level of the sound.

게인 조정 방법은 다양한 방법으로 수행될 수 있다. 예를 들어, 모든 주파수 대역에서 각각 독립적으로 게인을 조절 하거나, 특정 주파수 범위에 대해서만 밴드 혹은 대역을 나누어 게인을 조절하거나, 특정 주파수 범위에 대해서 그룹으로 묶어서 그룹별로 게인을 조절할 수 있다. The gain adjustment method may be performed in various ways. For example, the gain can be adjusted independently in all frequency bands, the gain can be adjusted by dividing the band or band only for a specific frequency range, or the gain can be adjusted for each group by grouping the band for a specific frequency range.

예를 들어, 주파수 대역이 1000Hz 내지 4000Hz인 경우 게인을 조정하고 그 외의 주파수 대역에서는 게인 조정을 하지 않을 수 있다. For example, the gain may be adjusted when the frequency band is 1000 Hz to 4000 Hz, and the gain may not be adjusted in other frequency bands.

또한, 음향의 깊이 레벨이 클수록 또는 음향의 깊이 레벨의 변화 값이 클수록, 고주파 성분이 제거되도록 게인 조정을 수행할 수 있다. Also, as the depth level of the sound increases or the change value of the depth level of the sound increases, the gain adjustment may be performed so that the high frequency component is removed.

다음으로, 주파수 밴드별로 위상 또는 게인 조정된 오디오 신호를 서브 밴드 합성 필터링한다(S650). 즉, 서브 밴드 합성 필터 뱅크를 이용하여, 개의 서브 밴드 또는 64개의 서브 밴드 등으로 구분된 서브 밴드를 합성한다. 이에 따라, 최종적으로, 깊이에 따라, 음상 정위, 위상 조정, 게인 조정 등이 수행된 오디오 신호가 출력되게 된다. 이러한 오디오 신호는 깊이에 따라 줌밍(zooming) 출력되어, 청취자 머리 앞에서 출력되는 것으로 인지할 수 있게 된다. Next, the subband synthesis filtering is performed on the audio signal whose phase or gain is adjusted for each frequency band (S650). That is, subbands divided into 3 subbands, 64 subbands, or the like are synthesized using the subband synthesis filter bank. Accordingly, an audio signal in which sound image positioning, phase adjustment, gain adjustment, and the like has been performed is finally output according to the depth. The audio signal is zoomed according to the depth, and can be recognized as being output in front of the listener's head.

한편, 상기와 같은 음향의 깊이 레벨에 따른, 음상 정위, 위상 조정, 게인 조정 등은 각각 선택적으로 수행되는 것도 가능하다. 즉, 음상 정위, 위상 조정 또는 게인 조정 중 적어도 하나가 음향의 깊이 레벨에 대응하여, 수행될 수 있다. 예를 들어, 음향의 깊이 레벨에 대응하는 위상 조정만이 수행되거나, 음향의 깊이 레벨에 대응하는 게인 조정만이 수행될 수도 있다. 또는 음향의 깊이 레벨에 따른 음상 정위를 전제로, 선택적으로 위상 조정 또는 깊이 조정이 수행되는 것도 가능하다. On the other hand, according to the depth level of the sound, the image positioning, phase adjustment, gain adjustment, etc. may be selectively performed respectively. That is, at least one of sound image positioning, phase adjustment, or gain adjustment may be performed corresponding to the depth level of the sound. For example, only the phase adjustment corresponding to the depth level of the sound may be performed, or only the gain adjustment corresponding to the depth level of the sound may be performed. Alternatively, it is also possible to selectively perform phase adjustment or depth adjustment on the assumption of sound image positioning according to the depth level of the sound.

이하에서는 본 발명의 제2 실시예에 따른 음향의 깊이 제어방법에 대하여 도 11 내지 도 14를 참조하여 상세하게 설명한다. Hereinafter, a depth control method of a sound according to a second exemplary embodiment of the present invention will be described in detail with reference to FIGS. 11 to 14.

도 11은 본 발명의 제2 실시예에 따른 음향의 깊이 제어방법을 나타낸 순서도이다. 본 발명의 제2 실시예에 따른 음향의 깊이 제어방법에서는, 먼저, 양안시차 영상으로부터 시차에 따른 픽셀 수를 나타내는 시차 히스토그램을 획득(S710)한다. 11 is a flowchart illustrating a sound depth control method according to a second embodiment of the present invention. In the sound depth control method according to the second embodiment of the present invention, first, a parallax histogram indicating the number of pixels according to parallax is obtained from a binocular parallax image (S710).

예를 들어, 양안시차 영상으로부터 시차 맵(disparity map)을 추출하고, 도 12에 예시한 바와 같이, 이를 복수의 화면영역(w1, w2, w3)로 분할하고, 분할된 복수의 화면영역에 대하여 가중치를 적용한다. 이때, 화면의 중앙영역이 다른 영역보다 중요하다고 전제하여, 화면영역을 중앙영역(w1), 중간영역(w2) 및 주변영역(w3)로 분할하고, 중앙영역(w1), 중간영역(w2) 및 주변영역(w3)의 순서로 높은 가중치를 적용하는 것을 예시하였다. 다만, 이는 본원 발명을 예시하기 위한 것으로, 이와 다른 방법으로 화면영역을 분할하는 것도 가능하다. For example, a disparity map is extracted from a binocular parallax image, and as illustrated in FIG. 12, the disparity map is divided into a plurality of screen regions w1, w2, and w3, and a plurality of divided screen regions are provided. Apply weights. At this time, assuming that the center area of the screen is more important than other areas, the screen area is divided into a center area w1, a middle area w2 and a peripheral area w3, and the center area w1 and the middle area w2 And applying high weights in the order of the peripheral region w3. However, this is for illustrating the present invention, and it is also possible to divide the screen area by other methods.

도 13은 상기와 같이 화면영역에 따라 가중치가 적용된 시차 히스토그램을 예시한 개략도이다. 이때, 히스토그램의 가로축은 시차의 크기를 나타내고, 세로축은 각 시차의 크기에 해당되는 픽셀 수를 나타낸다. FIG. 13 is a schematic diagram illustrating a parallax histogram to which a weight is applied according to the screen area as described above. In this case, the horizontal axis of the histogram represents the size of parallax, and the vertical axis represents the number of pixels corresponding to the size of each parallax.

다음으로, 시차 히스토그램으로부터 음향의 깊이 레벨을 결정(S720)한다. 이때, 도 14에 도시한 바와 같이, 시차 히스토그램에서 시차의 크기에 따른 복수의 시차 구간을 정의하고, 정의된 복수의 시차 구간에서의 픽셀 수의 합을 구하며, 시차 구간에서의 픽셀 수의 합에 대응하여 음향의 깊이 레벨을 정할 수 있다. Next, the depth level of the sound is determined from the parallax histogram (S720). In this case, as illustrated in FIG. 14, a parallax histogram defines a plurality of parallax sections according to the magnitude of parallax, obtains a sum of the number of pixels in the defined plurality of parallax sections, and adds the sum of the number of pixels in the parallax section. Correspondingly, the depth level of the sound can be determined.

이때, 전체 히스토그램 구간의 가로축 즉, 시차축을 따라 원하는 레벨의 개수만큼 균등하게 또는 비균등하게 나누고, 각 레벨 구간내의 히스토그램을 더하는 방식으로 레벨 구간별 시차 히스토그램을 구한다. 이때, 시청자와 가까운 시차 구간부터 해당 시차구간의 히스토그램이 임계 값(threshold)을 넘을 경우, 일정크기 이상의 객체에 입체감이 있는 것으로 판단하여 이에 대응하여 음향의 깊이 레벨을 결정할 수 있다.At this time, the parallax histogram for each level section is obtained by dividing the histogram in each level section evenly or evenly by the number of desired levels along the horizontal axis of the entire histogram section, that is, the parallax axis. In this case, when the histogram of the parallax interval from the parallax close to the viewer exceeds the threshold, it may be determined that the object having a certain size or more has a three-dimensional effect and correspondingly determine the depth level of the sound.

다음으로, 상기와 같이 결정된 음향의 깊이 레벨을 반영하여 출력(S730)한다. 이때, 음향의 깊이 레벨을 반영하여 출력하는 방법은 제1 실시예에서 설명한 것과 동일하게 수행될 수 있으므로 여기에서는 그 상세한 설명을 생략한다. Next, it outputs by reflecting the depth level of the sound determined as described above (S730). In this case, the method of reflecting the sound depth level may be performed in the same manner as described in the first embodiment, and thus detailed description thereof will be omitted.

이하에서는, 본 발명의 실시예에 따른 음향 깊이 제어장치 및 음향 깊이 제어장치가 적용되는 영상표시장치에 대하여 상세하게 설명한다. Hereinafter, an image display apparatus to which the sound depth control apparatus and the sound depth control apparatus according to the embodiment of the present invention are applied will be described in detail.

도 15은 본 발명의 실시예에 따른 음향의 깊이 제어장치(이하, 음향 깊이 제어부)가 포함되어 적용될 수 있는 영상표시장치를 예시한 블록도이다. FIG. 15 is a block diagram illustrating an image display apparatus including a sound depth control apparatus (hereinafter, referred to as an acoustic depth controller) according to an embodiment of the present invention.

도 15을 참조하면 영상표시장치(100)는 튜너(110), 복조부(120), 외부장치 인터페이스부(130), 네트워크 인터페이스부(140), 저장부(150), 사용자입력 인터페이스부(160), 제어부(170), 디스플레이부(180), 오디오 출력부(190), 3D 시청장치(200) 및 원격제어장치(210)를 포함한다. Referring to FIG. 15, the image display apparatus 100 includes a tuner 110, a demodulator 120, an external device interface unit 130, a network interface unit 140, a storage unit 150, and a user input interface unit 160. ), A control unit 170, a display unit 180, an audio output unit 190, a 3D viewing apparatus 200, and a remote control apparatus 210.

튜너(110)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널 또는 기 저장된 모든 채널에 해당하는 RF 방송 신호를 선택한다. 또한, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성신호로 변환한다. The tuner 110 selects an RF broadcast signal corresponding to a channel selected by a user or all pre-stored channels among RF (Radio Frequency) broadcast signals received through an antenna. Also, the selected RF broadcast signal is converted into an intermediate frequency signal, a baseband image, or a voice signal.

예를 들어, 선택된 RF 방송 신호가 디지털 방송 신호이면 디지털 IF 신호(DIF)로 변환하고, 아날로그 방송 신호이면 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)로 변환한다. 즉, 튜너(110)는 디지털 방송 신호 또는 아날로그 방송 신호를 처리할 수 있다. 튜너(110)에서 출력되는 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)는 제어부(170)로 직접 입력될 수 있다. For example, if the selected RF broadcast signal is a digital broadcast signal, it is converted into a digital IF signal (DIF). If the selected RF broadcast signal is an analog broadcast signal, it is converted into an analog baseband image or voice signal (CVBS / SIF). That is, the tuner 110 may process a digital broadcast signal or an analog broadcast signal. The analog baseband video or audio signal CVBS / SIF output from the tuner 110 may be directly input to the controller 170.

또한, 튜너(110)는 ATSC(Advanced Television System Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다. Also, the tuner 110 can receive RF carrier signals of a single carrier according to an Advanced Television System Committee (ATSC) scheme or RF carriers of a plurality of carriers according to a DVB (Digital Video Broadcasting) scheme.

한편, 튜너(110)는 본 발명에서 안테나를 통해 수신되는 RF 방송 신호 중 채널 기억 기능을 통하여 저장된 모든 방송 채널의 RF 방송 신호를 순차적으로 선택하여 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환할 수 있다. Meanwhile, the tuner 110 sequentially selects RF broadcast signals of all broadcast channels stored through a channel memory function among RF broadcast signals received through an antenna in the present invention, and converts them into intermediate frequency signals or baseband video or audio signals. can do.

복조부(120)는 튜너(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다. The demodulator 120 receives the digital IF signal DIF converted by the tuner 110 and performs a demodulation operation.

예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 ATSC 방식인 경우, 복조부(120)는 8-VSB(7-Vestigal Side Band) 복조를 수행한다. 또한, 복조부(120)는 채널 복호화를 수행할 수도 있다. 이를 위해 복조부(120)는 트렐리스 디코더(Trellis Decoder), 디인터리버(De-interleaver), 및 리드 솔로먼 디코더(Reed Solomon Decoder) 등을 구비하여, 트렐리스 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다. For example, when the digital IF signal output from the tuner 110 is an ATSC scheme, the demodulator 120 performs 7-VSB (7-Vestigal Side Band) demodulation. Also, the demodulation unit 120 may perform channel decoding. To this end, the demodulator 120 includes a trellis decoder, a de-interleaver, and a reed solomon decoder to perform trellis decoding, deinterleaving, Solomon decoding can be performed.

예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 DVB 방식인 경우, 복조부(120)는 COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다. 또한, 복조부(120)는, 채널 복호화를 수행할 수도 있다. 이를 위해, 복조부(120)는, 컨벌루션 디코더(convolution decoder), 디인터리버, 및 리드-솔로먼 디코더 등을 구비하여, 컨벌루션 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다. For example, when the digital IF signal output from the tuner 110 is a DVB scheme, the demodulator 120 performs COFDMA (Coded Orthogonal Frequency Division Modulation) demodulation. Also, the demodulation unit 120 may perform channel decoding. For this, the demodulator 120 may include a convolution decoder, a deinterleaver, and a reed-solomon decoder to perform convolutional decoding, deinterleaving, and reed solomon decoding.

복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 일례로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다. The demodulation unit 120 may perform demodulation and channel decoding, and then output a stream signal TS. In this case, the stream signal may be a signal multiplexed with a video signal, an audio signal, or a data signal. For example, the stream signal may be an MPEG-2 Transport Stream (TS) multiplexed with an MPEG-2 standard video signal, a Dolby AC-3 standard audio signal, and the like. Specifically, the MPEG-2 TS may include a header of 4 bytes and a payload of 184 bytes.

한편, 상술한 복조부(120)는, ATSC 방식과, DVB 방식에 따라 각각 별개로 구비되는 것이 가능하다. 즉, ATSC 복조부와, DVB 복조부로 구비되는 것이 가능하다. On the other hand, the demodulator 120 described above can be provided separately according to the ATSC system and the DVB system. That is, it can be provided as an ATSC demodulation unit and a DVB demodulation unit.

복조부(120)에서 출력한 스트림 신호는 제어부(170)로 입력된다. 제어부(170)는 역다중화, 영상/음성 신호 처리 등을 수행한 후, 디스플레이부(180)에 영상을 출력하고, 오디오 출력부(190)로 음성을 출력한다. The stream signal output from the demodulator 120 is input to the controller 170. After performing demultiplexing, image / audio signal processing, and the like, the controller 170 outputs an image to the display unit 180 and outputs an audio to the audio output unit 190.

외부장치 인터페이스부(130)는 외부 장치와 데이터를 송신 또는 수신할 수 있도록 구성된다. 이를 위해, 외부장치 인터페이스부(130)는 A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다. The external device interface unit 130 is configured to transmit or receive data with the external device. To this end, the external device interface unit 130 may include an A / V input / output unit (not shown) or a wireless communication unit (not shown).

예를 들어, 외부장치 인터페이스부(130)는 DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북) 등과 같은 외부 장치와 유/무선으로 접속될 수 있다. 외부장치 인터페이스부(130)는 접속된 외부 장치를 통하여 외부에서 입력되는 영상, 음성 또는 데이터 신호를 영상표시장치(100)의 제어부(170)로 전달한다. 또한, 제어부(170)에서 처리된 영상, 음성 또는 데이터 신호를 연결된 외부 장치로 출력할 수 있다. 이를 위해, 외부장치 인터페이스부(130)는 A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다. For example, the external device interface unit 130 may be connected to an external device such as a digital versatile disk (DVD), a Blu-ray, a game device, a camera, a camcorder, a computer (laptop), or the like by wire or wireless. . The external device interface unit 130 transmits an image, audio, or data signal input from the outside to the controller 170 of the image display device 100 through the connected external device. In addition, the controller 170 may output an image, audio, or data signal processed by the controller 170 to a connected external device. To this end, the external device interface unit 130 may include an A / V input / output unit (not shown) or a wireless communication unit (not shown).

이때, A/V 입출력부는 외부 장치의 영상 및 음성 신호를 영상표시장치(100)로 입력할 수 있도록, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, RGB 단자, D-SUB 단자 등을 포함할 수 있다. In this case, the A / V input / output unit may input a video and audio signal of an external device to the video display device 100, such as a USB terminal, a Composite Video Banking Sync (CVBS) terminal, a component terminal, an S-video terminal (analog), It may include a DVI (Digital Visual Interface) terminal, an HDMI (High Definition Multimedia Interface) terminal, an RGB terminal, a D-SUB terminal, and the like.

또한, 무선 통신부는 다른 전자기기와 근거리 무선 통신을 수행할 수 있도록 구성된다. 영상표시장치(100)는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), DLNA(Digital Living Network Alliance) 등의 통신 규격에 따라 다른 전자기기와 네트워크 연결될 수 있다. In addition, the wireless communication unit is configured to perform short-range wireless communication with other electronic devices. The image display apparatus 100 may communicate with Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and Digital Living Network Alliance (DLNA). Depending on the specification, it can be networked with other electronic devices.

또한, 외부장치 인터페이스부(130)는 다양한 셋탑 박스와 상술한 각종 단자 중 적어도 하나를 통해 접속되어, 셋탑 박스와 입력/출력 동작을 수행할 수도 있다. 한편, 외부장치 인터페이스부(130)는 3D 시청장치(200)와 데이터를 송수신할 수 있도록 구성된다. In addition, the external device interface unit 130 may be connected through at least one of the various set top boxes and the various terminals described above to perform input / output operations with the set top box. On the other hand, the external device interface unit 130 is configured to transmit and receive data with the 3D viewing device 200.

네트워크 인터페이스부(140)는 영상표시장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 네트워크 인터페이스부(140)는 유선 네트워크와의 접속을 위한 이더넷(Ethernet) 단자 등을 구비할 수 있으며, 무선 네트워크와의 접속을 위한 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 단자 등을 구비할 수 있다. The network interface unit 140 provides an interface for connecting the image display apparatus 100 to a wired / wireless network including an internet network. The network interface unit 140 may include an Ethernet terminal for connecting to a wired network, and includes a WLAN (Wi-Fi), a Wibro (Wireless broadband), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA) communication standard terminal, and the like.

네트워크 인터페이스부(140)는 네트워크를 통해, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신하도록 구성된다. 즉, 네트워크를 통하여 인터넷, 컨텐츠 제공자 등으로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다. 또한, 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있다. 또한, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다. The network interface unit 140 is configured to receive content or data provided by the Internet or a content provider or a network operator through a network. That is, it can receive contents and related information such as movies, advertisements, games, VOD, broadcasting signals, etc., provided from the Internet, a content provider, and the like through a network. In addition, the update information and the update file of the firmware provided by the network operator can be received. It may also transmit data to the Internet or content provider or network operator.

또한, 네트워크 인터페이스부(140)는 예를 들어, IP(internet Protocol) TV와 접속되어, 양방향 통신이 가능하도록, IPTV용 셋탑 박스에서 처리된 영상, 음성 또는 데이터 신호를 수신하여 제어부(170)로 전달할 수 있으며, 제어부(170)에서 처리된 신호들을 IPTV용 셋탑 박스로 전달할 수 있다. In addition, the network interface unit 140 is connected to, for example, an IP (Internet Protocol) TV, and receives a video, audio, or data signal processed in an IPTV set-top box to enable bidirectional communication to the controller 170. In addition, the signals processed by the controller 170 may be transmitted to the set-top box for the IPTV.

한편, 상술한 IPTV는, 전송네트워크의 종류에 따라 ADSL-TV, VDSL-TV, FTTH-TV 등을 포함하는 의미일 수 있으며, TV over DSL, Video over DSL, TV overIP(TVIP), Broadband TV(BTV) 등을 포함하는 의미일 수 있다. 또한, IPTV는 인터넷 접속이 가능한 인터넷 TV, 풀브라우징 TV를 포함하는 의미일 수도 있다. Meanwhile, the above-described IPTV may mean ADSL-TV, VDSL-TV, FTTH-TV, etc. according to the type of transmission network, and include TV over DSL, Video over DSL, TV overIP (TVIP), and Broadband TV ( BTV) and the like. In addition, IPTV may also mean an Internet TV capable of accessing the Internet, or a full browsing TV.

저장부(150)는 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다.The storage 150 may store a program for processing and controlling each signal in the controller 170, or may store a signal-processed video, audio, or data signal.

또한, 저장부(150)는 외부장치 인터페이스부(130)로 입력되는 영상, 음성 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있으며, 채널 맵 등의 채널 기억 기능을 통하여 소정 방송 채널에 관한 정보를 저장할 수 있다. In addition, the storage unit 150 may perform a function for temporarily storing an image, audio, or data signal input to the external device interface unit 130. The storage unit 150 may store a predetermined broadcast channel through a channel storage function such as a channel map. Information can be stored.

저장부(150)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬(EEPROM 등) 중 적어도 하나의 타입의 저장매체로 구성될 수 있다. 영상표시장치(100)는 저장부(150) 내에 저장되어 있는 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일 등)을 재생하여 사용자에게 제공할 수 있다. The storage unit 150 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory), RAM, ROM (EEPROM, etc.) may be composed of at least one type of storage medium. The image display device 100 may provide a user with a file (video file, still image file, music file, document file, etc.) stored in the storage unit 150.

도 15은 저장부(150)가 제어부(170)와 별도로 구비된 실시예를 도시하고 있으나, 본 발명의 범위는 이에 한정되지 않으며, 저장부(150)가 제어부(170) 내에 포함되도록 구성될 수 있다. 15 illustrates an embodiment in which the storage unit 150 is provided separately from the control unit 170, but the scope of the present invention is not limited thereto, and the storage unit 150 may be configured to be included in the control unit 170. have.

사용자입력 인터페이스부(160)는 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달한다. The user input interface unit 160 transmits a signal input by the user to the controller 170 or transmits a signal from the controller 170 to the user.

예를 들어, 사용자입력 인터페이스부(160)는 RF(Radio Frequency) 통신 방식, 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(210)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 사용자 입력 신호를 수신하거나, 제어부(170)로부터의 신호를 원격제어장치(210)로 송신할 수 있다. For example, the user input interface unit 160 may power on / off, select a channel, and set a screen from the remote controller 210 according to various communication methods such as a radio frequency (RF) communication method and an infrared (IR) communication method. It may receive a user input signal such as, or transmit a signal from the controller 170 to the remote controller 210.

또한, 예를 들어, 사용자입력 인터페이스부(160)는 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 사용자 입력 신호를 제어부(170)에 전달할 수 있다. In addition, for example, the user input interface unit 160 may transmit a user input signal input from a local key (not shown) such as a power key, a channel key, a volume key, and a set value to the controller 170.

또한, 사용자입력 인터페이스부(160)는 사용자의 제스처를 센싱하는 센싱부(미도시)로부터 입력되는 사용자 입력 신호를 제어부(170)에 전달하거나, 제어부(170)로부터의 신호를 센싱부(미도시)로 송신할 수 있다. 여기서, 센싱부(미도시)는, 터치 센서, 음성 센서, 위치 센서, 동작 센서 등을 포함할 수 있다. In addition, the user input interface unit 160 transmits a user input signal input from a sensing unit (not shown) that senses a user's gesture to the controller 170 or transmits a signal from the controller 170 to the sensing unit (not shown). ) Can be sent. Here, the sensing unit (not shown) may include a touch sensor, an audio sensor, a position sensor, an operation sensor, and the like.

제어부(170)는 튜너(110) 또는 복조부(120) 또는 외부장치 인터페이스부(130)를 통하여, 입력되는 스트림을 역다중화하거나, 역다중화된 신호들을 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다. The control unit 170 demultiplexes the input stream or processes the demultiplexed signals through the tuner 110, the demodulator 120, or the external device interface unit 130, and outputs a signal for video or audio output. Can be generated and printed.

제어부(170)에서 영상 처리된 영상 신호는 디스플레이부(180)로 입력되어, 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수 있다. The image signal processed by the controller 170 may be input to the display unit 180 and displayed as an image corresponding to the image signal. In addition, the image signal processed by the controller 170 may be input to the external output device through the external device interface unit 130.

제어부(170)에서 처리된 음성 신호는 오디오 출력부(190)로 음향 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수 있다. The voice signal processed by the controller 170 may be sound output to the audio output unit 190. In addition, the voice signal processed by the controller 170 may be input to the external output device through the external device interface unit 130.

도 15에는 도시되어 있지 않으나, 제어부(170)는 역다중화부, 영상처리부 등을 포함할 수 있다. 이에 대하여는 후술한다. Although not shown in FIG. 15, the controller 170 may include a demultiplexer, an image processor, and the like. This will be described later.

또한, 제어부(170)는 영상표시장치(100) 내의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(170)는 튜너(110)를 제어하여, 사용자가 선택한 채널 또는 기 저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다. In addition, the controller 170 may control overall operations of the image display apparatus 100. For example, the controller 170 may control the tuner 110 to control tuning of an RF broadcast corresponding to a channel selected by a user or a pre-stored channel.

또한, 제어부(170)는 사용자입력 인터페이스부(160)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상표시장치(100)를 제어할 수 있다. In addition, the controller 170 may control the image display apparatus 100 by a user command or an internal program input through the user input interface unit 160.

예를 들어, 제어부(170)는, 사용자입력 인터페이스부(160)를 통하여 수신한 소정 채널 선택 명령에 따라 선택한 채널의 신호가 입력되도록 튜너(110)를 제어한다. 그리고, 선택한 채널의 영상, 음성 또는 데이터 신호를 처리한다. 제어부(170)는, 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 디스플레이부(180) 또는 오디오 출력부(190)를 통하여 출력될 수 있도록 한다. For example, the controller 170 controls the tuner 110 to input a signal of a selected channel according to a predetermined channel selection command received through the user input interface unit 160. Then, video, audio, or data signals of the selected channel are processed. The controller 170 allows the channel information selected by the user to be output through the display unit 180 or the audio output unit 190 together with the processed image or audio signal.

다른 예로, 제어부(170)는, 사용자입력 인터페이스부(160)를 통하여 수신한 외부장치 영상 재생 명령에 따라, 외부장치 인터페이스부(130)를 통하여 입력되는 외부 장치, 예를 들어, 카메라 또는 캠코더로부터의 영상 신호 또는 음성 신호가 디스플레이부(180) 또는 오디오 출력부(190)를 통해 출력될 수 있도록 한다. As another example, the controller 170 may, for example, receive an external device image playback command received through the user input interface unit 160, from an external device input through the external device interface unit 130, for example, a camera or a camcorder. The video signal or the audio signal may be output through the display unit 180 or the audio output unit 190.

한편, 제어부(170)는 영상을 표시하도록 디스플레이부(180)를 제어할 수 있다. 예를 들어, 튜너(110)를 통해 입력되는 방송 영상, 외부장치 인터페이스부(130)를 통해 입력되는 외부 입력 영상 또는 네트워크 인터페이스부(140)를 통해 입력되는 영상 또는 저장부(150)에 저장된 영상을 디스플레이부(180)에 표시하도록 제어할 수 있다. The controller 170 may control the display 180 to display an image. For example, a broadcast image input through the tuner 110, an external input image input through the external device interface unit 130, or an image input through the network interface unit 140, or an image stored in the storage unit 150. May be controlled to be displayed on the display unit 180.

이때, 디스플레이부(180)에 표시되는 영상은 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 입체영상일 수 있다. In this case, the image displayed on the display unit 180 may be a still image or a video, and may be a 2D image or a stereoscopic image.

한편, 제어부(170)는 디스플레이부(180)에 표시되는 영상 중에, 소정 객체에 대해 3D 객체로 생성하여 표시되도록 한다. 예를 들어, 객체는, 접속된 웹 화면(신문, 잡지 등), EPG(Electronic Program Guide), 다양한 메뉴, 위젯, 아이콘, 정지 영상, 동영상, 텍스트 중 적어도 하나일 수 있다. Meanwhile, the controller 170 may generate and display a 3D object for a predetermined object in the image displayed on the display 180. For example, the object may be at least one of a connected web screen (newspaper, magazine, etc.), an electronic program guide (EPG), various menus, widgets, icons, still images, videos, and text.

이러한 3D 객체는 디스플레이부(180)에 표시되는 영상과 다른 깊이를 가지도록 처리되며, 바람직하게는 3D 객체가 디스플레이부(180)에 표시되는 영상에 비해 돌출되어 보이도록 처리될 수 있다. 이때, 제어부(170)는 음향 깊이 제어부를 포함하여 양안시차를 가지는 입체영상으로부터 객체를 추출하고, 객체의 깊이 변화를 판별하며, 이를 음향 효과의 레벨로 변환하여 오디오 출력부(190)로 출력한다. 이에 대하여는 후술한다. The 3D object may be processed to have a depth different from that of the image displayed on the display 180, and may be preferably processed so that the 3D object protrudes compared to the image displayed on the display 180. In this case, the controller 170 includes an acoustic depth controller to extract an object from a stereoscopic image having binocular disparity, determine a change in the depth of the object, and convert it to a level of sound effect and output it to the audio output unit 190. . This will be described later.

디스플레이부(180)는 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호, 제어 신호 또는 외부장치 인터페이스부(130)에서 수신되는 영상 신호, 데이터 신호, 제어 신호 등을 변환하여 구동 신호를 생성한다. The display unit 180 converts an image signal, a data signal, an OSD signal, a control signal, or an image signal, a data signal, a control signal received from the external device interface unit 130 processed by the controller 170, and generates a driving signal. Create

디스플레이부(180)는 3차원 디스플레이(3D display)가 가능한 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display)등으로 구성될 수 있다. The display unit 180 may be configured of a PDP, an LCD, an OLED, a flexible display capable of a 3D display, and the like.

본 발명의 실시예에서 3차원 영상 시청을 위한 디스플레이부(180)는 추가 디스플레이 방식 또는 단독 디스플레이 방식으로 구성될 수 있다. In the embodiment of the present invention, the display unit 180 for viewing a 3D image may be configured by an additional display method or a single display method.

단독 디스플레이 방식은 별도의 추가 디스플레이, 예를 들어 안경(glass) 등이 없이, 디스플레이부(180) 단독으로 입체영상을 구현할 수 있는 것으로서, 그 예로, 렌티큘라 방식, 파라랙스 베리어(parallax barrier) 등 다양한 방식이 적용될 수 있다. The independent display method may implement a three-dimensional image by the display unit 180 alone, without an additional display, for example, glasses, for example, a lenticular method, a parallax barrier, or the like. Various methods can be applied.

한편, 추가 디스플레이 방식은 디스플레이부(180) 외에 추가 디스플레이를 사용하여 입체영상을 구현할 수 있는 것으로서, 그 예로, 헤드 마운트 디스플레이(HMD) 타입, 안경 타입 등 다양한 방식이 적용될 수 있다. 또한, 안경 타입은, 편광 안경 타입 등의 패시브(passive) 방식과, 셔터 글래스(ShutterGlass) 타입 등의 액티브(active) 방식으로 구성될 수 있다. 또한, 헤드 마운트 디스플레이 타입에서도 패시브 방식과 액티브 방식으로 구성될 수 있다. Meanwhile, the additional display method may implement a stereoscopic image by using an additional display in addition to the display unit 180. For example, various methods such as a head mounted display (HMD) type and a glasses type may be applied. In addition, the spectacle type may be configured in a passive manner such as a polarized glasses type and an active manner such as a shutter glass type. In addition, the head mounted display type may be configured in a passive manner and an active manner.

한편, 디스플레이부(180)는 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다. The display unit 180 may be configured as a touch screen and used as an input device in addition to the output device.

오디오 출력부(190)는 제어부(170)에서 음성 처리된 신호, 예를 들어, 스테레오 신호, 3.1 채널 신호 또는 5.1 채널 신호를 입력 받아 음성으로 출력한다. 음성 출력부(185)는 다양한 형태의 스피커로 구현될 수 있다. The audio output unit 190 receives a signal processed by the controller 170, for example, a stereo signal, a 3.1 channel signal, or a 5.1 channel signal, and outputs a voice signal. The voice output unit 185 may be implemented by various types of speakers.

한편, 사용자의 제스처를 감지하기 위해, 상술한 바와 같이, 터치 센서, 음성 센서, 위치 센서, 동작 센서 중 적어도 하나를 구비하는 센싱부(미도시)가 영상표시장치(100)에 더 구비될 수 있다. 센싱부(미도시)에서 감지된 신호는 사용자입력 인터페이스부(160)를 통해 제어부(170)로 전달된다. Meanwhile, in order to detect a gesture of a user, as described above, a sensing unit (not shown) including at least one of a touch sensor, a voice sensor, a position sensor, and a motion sensor may be further provided in the image display apparatus 100. have. The signal detected by the sensing unit (not shown) is transmitted to the controller 170 through the user input interface unit 160.

제어부(170)는 촬영부(미도시)로부터 촬영된 영상, 또는 센싱부(미도시)로부터의 감지된 신호를 각각 또는 조합하여 사용자의 제스처를 감지할 수 있다. The controller 170 may detect a user's gesture by combining or combining the images captured by the photographing unit (not shown) or the detected signal from the sensing unit (not shown).

원격제어장치(210)는 사용자 입력을 사용자입력 인터페이스부(160)로 송신한다. 이를 위해, 원격제어장치(210)는, 블루투스(Bluetooth), RF(Radio Frequency) 통신, 적외선(IR) 통신, UWB(Ultra Wideband), 지그비(ZigBee) 방식 등을 사용할 수 있다. 또한, 원격제어장치(210)는, 사용자입력 인터페이스부(160)에서 출력한 영상, 음성 또는 데이터 신호 등을 수신하여, 이를 원격제어장치(210)에서 표시하거나 음성 출력할 수 있다. The remote controller 210 transmits the user input to the user input interface unit 160. To this end, the remote control device 210 may use Bluetooth, RF (Radio Frequency) communication, infrared (IR) communication, UWB (Ultra Wideband), ZigBee (ZigBee) method and the like. In addition, the remote controller 210 may receive an image, an audio or a data signal output from the user input interface unit 160, and display or output the audio from the remote controller 210.

상술한 영상표시장치(100)는, 고정형으로서 ATSC 방식(7-VSB 방식)의 디지털 방송, DVB-T 방식(COFDM 방식)의 디지털 방송, ISDB-T 방식(BST-OFDM방식)의 디지털 방송 등 중 적어도 하나를 수신 가능한 디지털 방송 수신기일 수 있다. 또한, 이동형으로서 지상파 DMB 방식의 디지털 방송, 위성 DMB 방식의 디지털 방송, ATSC-M/H 방식의 디지털 방송, DVB-H 방식(COFDM 방식)의 디지털 방송, 미디어플로(Media Foward Link Only) 방식의 디지털 방송 등 중 적어도 하나를 수신 가능한 디지털 방송 수신기일 수 있다. 또한, 케이블, 위성통신, IPTV 용 디지털 방송 수신기일 수도 있다. The video display device 100 described above is a fixed type of ATSC (7-VSB) digital broadcasting, DVB-T (COFDM) digital broadcasting, ISDB-T (BST-OFDM) digital broadcasting, and the like. It may be a digital broadcast receiver capable of receiving at least one. In addition, as a mobile type, digital broadcasting of terrestrial DMB system, digital broadcasting of satellite DMB system, digital broadcasting of ATSC-M / H system, digital broadcasting of DVB-H system (COFDM system) and media flow link only system It may be a digital broadcast receiver capable of receiving at least one of digital broadcasts. It may also be a digital broadcast receiver for cable, satellite communications, or IPTV.

한편, 본 명세서에서 기술되는 영상표시장치는, TV 수상기, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 등이 포함될 수 있다. On the other hand, the video display device described in the present specification is a TV receiver, a mobile phone, a smart phone (notebook computer), a digital broadcasting terminal, PDA (Personal Digital Assistants), PMP (Portable Multimedia Player), etc. May be included.

한편, 도 15에 도시된 영상표시장치(100)는 본 발명을 예시하기 위한 것으로, 실제 구현되는 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다. On the other hand, the image display device 100 shown in FIG. 15 is for illustrating the present invention, and may be integrated, added, or omitted depending on the actual implementation. That is, two or more constituent elements may be combined into one constituent element, or one constituent element may be constituted by two or more constituent elements, if necessary. In addition, the functions performed in each block are intended to illustrate the embodiments of the present invention, and the specific operations and apparatuses do not limit the scope of the present invention.

도 16는 도 15의 제어부(170)를 예시한 블록도이다. 도 16에 도시한 바와 같이, 제어부(170)는 역다중화부(220), 영상 처리부(230), 오디오 처리부(240), OSD 생성부(250), 믹서(260), 프레임 레이트 변환부(270), 포맷터(280), 및 음향 깊이 제어부(290)를 포함할 수 있다. 그 외, 도시하지 않았으나, 제어부(170)는 데이터 처리부를 더 포함할 수도 있다. FIG. 16 is a block diagram illustrating the controller 170 of FIG. 15. As illustrated in FIG. 16, the controller 170 may include a demultiplexer 220, an image processor 230, an audio processor 240, an OSD generator 250, a mixer 260, and a frame rate converter 270. ), A formatter 280, and a sound depth controller 290. In addition, although not shown, the controller 170 may further include a data processor.

역다중화부(220)는 입력되는 스트림을 역다중화한다. 예를 들어, MPEG-2 TS가 입력되는 경우 이를 역다중화하여 각각 영상, 음성 및 데이터 신호로 분리할 수 있다. 여기서, 역다중화부(220)에 입력되는 스트림 신호는 튜너(110) 또는 복조부(120) 또는 외부장치 인터페이스부(130)에서 출력되는 스트림 신호일 수 있다. The demultiplexer 220 demultiplexes an input stream. For example, when an MPEG-2 TS is input, the MPEG-2 TS may be demultiplexed and separated into video, audio, and data signals, respectively. Here, the stream signal input to the demultiplexer 220 may be a stream signal output from the tuner 110, the demodulator 120, or the external device interface 130.

영상 처리부(230)는 역다중화된 영상 신호의 영상 처리를 수행할 수 있다. 이를 위해, 영상 처리부(230)는 영상 디코더(232) 및 스케일러(234)를 포함한다. The image processor 230 may perform image processing of the demultiplexed image signal. To this end, the image processor 230 includes an image decoder 232 and a scaler 234.

영상 디코더(232)는 역다중화된 영상신호를 복호화하며, 스케일러(234)는 복호화된 영상신호의 해상도를 디스플레이부(180)에서 출력 가능하도록 스케일링(scaling)을 수행한다. The image decoder 232 decodes the demultiplexed image signal, and the scaler 234 performs scaling to output the resolution of the decoded image signal on the display unit 180.

영상 디코더(232)는 다양한 규격의 디코더를 구비하는 것이 가능하다. 예를 들어, 영상 디코더(232)는 MPEG-2 디코더, H.264 디코더, MPEC-C 디코더(MPEC-C part 3), MVC 디코더, FTV 디코더 중 적어도 하나를 구비할 수 있다. 또한, 영상 디코더(232)는 입체영상 신호를 복호화하기 위한 입체영상 디코더를 포함할 수 있다. The video decoder 232 may include decoders of various standards. For example, the image decoder 232 may include at least one of an MPEG-2 decoder, an H.264 decoder, an MPEC-C decoder (MPEC-C part 3), an MVC decoder, and an FTV decoder. Also, the image decoder 232 may include a stereoscopic image decoder for decoding the stereoscopic image signal.

이때, 입체영상 디코더로 입력되는 역다중화된 영상신호는 예를 들어, MVC (Multi-view Video Coding)로 부호화된 영상 신호이거나, dual AVC로 부호화된 영상 신호이거나, 각각 부호화된 좌안 영상 신호와 우안 영상 신호가 혼합된 신호일 수 있다. In this case, the demultiplexed video signal input to the stereoscopic video decoder may be, for example, a video signal encoded by MVC (Multi-view Video Coding), a video signal encoded by dual AVC, or an encoded left eye video signal and a right eye, respectively. The video signal may be a mixed signal.

상술한 바와 같이, 입력되는 신호가 부호화된 좌안 영상 신호와 우안 영상 신호가 혼합된 신호인 경우, 2D 영상 디코더를 그대로 사용할 수 있다. 예를 들어, 역다중화된 영상 신호가 MPEG-2 규격의 부호화된 영상 신호이거나, AVC 규격의 부호화된 영상 신호인 경우, MPEG-2 디코더 또는 AVC 디코더에 의해 복호화될 수 있다. As described above, when the input signal is a mixed signal of an encoded left eye image signal and right eye image signal, the 2D image decoder may be used as it is. For example, when the demultiplexed video signal is an MPEG-2 standard encoded video signal or an AVC standard encoded video signal, the demultiplexed video signal may be decoded by an MPEG-2 decoder or an AVC decoder.

한편, 입체영상 디코더는, MVC 디코더로서, 기본 시점 디코더(Base View Decoder)와 확장 시점 디코더(Extended View Decoder)를 구비할 수 있다. Meanwhile, the stereoscopic decoder may include a base view decoder and an extended view decoder as an MVC decoder.

예를 들어, 입체영상 디코더에 입력되는 부호화된 입체영상 신호 중 확장 시점 영상 신호(Extended View Video)가 MVC로 부호화된 경우, 이를 복호화하기 위해서는, 대응하는 기본 시점 영상 신호(Base View Video)를 복호화해야 한다. 이를 위해, 기본 시점 디코더에서 복호화된 기본 시점 영상 신호가 확장 시점 디코더로 전달된다. For example, when an extended view video signal (Extended View Video) of the encoded stereoscopic image signals input to the stereoscopic image decoder is encoded by MVC, in order to decode them, the corresponding base view video signal (Base View Video) is decoded. Should be. To this end, the base view video signal decoded by the base view decoder is transmitted to the extended view decoder.

결국, 입체영상 디코더에서 출력되는 복호화된 입체영상 신호는, 확장 시점 디코더의 복호화가 완료될 때까지 소정 딜레이(delay)를 가지게 되며, 결국, 복호화된 기본 시점 영상 신호(Base View Video)와 복호화된 확장 시점 영상 신호(Extended View Video)가 혼합되어 출력되게 된다. As a result, the decoded stereoscopic image signal output from the stereoscopic image decoder has a predetermined delay until the decoding of the extended view decoder is completed, and finally, the decoded base view video signal and the decoded base view video signal are decoded. The extended view video signal is mixed and output.

또한, 예를 들어, 입체영상 디코더에 입력되는 부호화된 입체영상 신호 중 확장 시점 영상 신호(Extended View Video)가 AVC로 부호화된 경우는, 상술한 MVC의 경우와 달리, 확장 시점 영상 신호(Extended View Video)와 기본 시점 영상 신호(Base View Video)가 동시에(parallel) 복호화가 가능하게 된다. 이에 따라, 기본 시점 디코더와 확장 시점 디코더는 독립적으로 복호 동작을 수행하게 된다. 한편, 복호화된 기본 시점 영상 신호(Base View Video)와 복호화된 확장 시점 영상 신호(Extended View Video)가 혼합되어 출력되게 된다. Also, for example, when the extended view video signal (Extended View Video) of the encoded stereoscopic video signal input to the stereoscopic video decoder is encoded by AVC, unlike the case of MVC described above, the extended view video signal (Extended View video signal) Video and base view video can be decoded at the same time. Accordingly, the base view decoder and the extended view decoder independently perform the decoding operation. The decoded base view video signal and the decoded extended view video signal are mixed and output.

한편, 입체영상 디코더는 도면과 달리, 색차 영상 디코더와 깊이 영상 디코더를 구비하는 것도 가능하다. 즉, 입체 영상이 색차 영상(color image)과, 깊이 영상(depth image)을 구분되어 부호화된 경우, 이를 복호하하기 색차 영상 디코더에서 색차 영상을 복호화하고, 깊이 영상 디코더에서 깊이 영상을 복호화하는 것이 가능하다. 이때, 깊이 영상 복호화를 위해, 색차 영상이 참조 영상으로 사용되는 것도 가능하다. On the other hand, unlike the figure, the stereoscopic image decoder may include a chrominance image decoder and a depth image decoder. That is, when a stereoscopic image is encoded by dividing a color image and a depth image separately, decoding the color difference image by a color difference image decoder and decoding the depth image by a depth image decoder is performed. It is possible. In this case, the color difference image may be used as the reference image for decoding the depth image.

한편, 영상 처리부(230)에서 복호화된 영상 신호는, 2D 영상 신호만 있는 경우, 2D 영상 신호와 입체영상 신호가 혼합된 경우, 및 입체영상 신호만 있는 경우로 구분될 수 있다. Meanwhile, the video signal decoded by the image processor 230 may be classified into a case in which only a 2D image signal is present, a case in which a 2D image signal and a stereoscopic image signal are mixed, and a case in which only a stereoscopic image signal is present.

예를 들어, 외부 장치로부터 입력되는 외부 영상 신호 또는 튜너(110)에서 수신되는 방송 신호의 방송 영상 신호가, 2D 영상 신호만 있는 경우, 2D 영상 신호와 입체영상 신호가 혼합된 경우, 및 입체영상 신호만 있는 경우로 구분될 수 있으며, 이에 따라, 이후의 영상 처리부(230)에서 신호 처리되어, 각각 2D 영상 신호, 2D 영상 신호와 입체영상 신호의 혼합 신호, 입체영상 신호가 출력될 수 있다. For example, when a broadcast video signal of an external video signal input from an external device or a broadcast signal received by the tuner 110 includes only a 2D video signal, a 2D video signal and a 3D video signal are mixed, and a 3D video The signal may be classified into a case in which only a signal is present. Accordingly, a signal may be processed by the image processor 230, and thus a mixed signal of a 2D image signal, a 2D image signal and a stereoscopic image signal, and a stereoscopic image signal may be output.

한편, 영상 처리부(230)에서 복호화된 영상 신호는, 다양한 포맷의 입체영상 신호일 수 있다. 예를 들어, 색차 영상(color image) 및 깊이 영상(depth image)으로 이루어진 입체영상 신호일 수 있으며, 또는 복수 시점 영상 신호로 이루어진 입체영상 신호 등일 수 있다. 복수 시점 영상 신호는 예를 들어, 좌안 영상 신호와 우안 영상 신호를 포함할 수 있다. The image signal decoded by the image processor 230 may be a stereoscopic image signal having various formats. For example, the image may be a stereoscopic image signal including a color image and a depth image, or may be a stereoscopic image signal including a plurality of viewpoint image signals. The multi-view video signal may include, for example, a left eye video signal and a right eye video signal.

여기서 입체영상 신호의 포맷은 좌안 영상 신호(L)와 우안 영상 신호(R)를 좌우로 배치하는 사이드 바이 사이드(Side by Side) 포맷, 상하로 배치하는 탑 다운(Top / Down) 포맷, 시분할로 배치하는 프레임 시퀀셜(Frame Sequential) 포맷, 좌안 영상 신호와 우안 영상 신호를 라인 별로 혼합하는 인터레이스 (Interlaced) 포맷, 좌안 영상 신호와 우안 영상 신호를 박스 별로 혼합하는 체커 박스(Checker Box) 포맷 중 어느 하나일 수 있다. The format of the 3D video signal is a side by side format in which the left eye video signal L and the right eye video signal R are disposed left and right, a top down format arranged up and down, and a time division. Any one of the following frame sequential formats, an interlaced format that mixes the left and right eye signals into lines, and a checker box format that mixes the left and right eye signals into boxes Can be.

OSD 생성부(250)는 사용자 입력에 따라 또는 자체적으로 OSD 신호를 생성한다. 예를 들어, 사용자 입력 신호에 기초하여, 디스플레이부(180)의 화면에 각종 정보를 그래픽(Graphic)이나 텍스트(Text)로 표시하기 위한 신호를 생성한다. 생성되는 OSD 신호는 영상표시장치(100)의 사용자 인터페이스 화면, 다양한 메뉴 화면, 위젯, 아이콘 등의 다양한 데이터를 포함할 수 있다. 또한, 생성되는 OSD 신호는, 2D 객체 또는 3D 객체를 포함할 수 있다. The OSD generator 250 generates an OSD signal according to a user input or itself. For example, a signal for displaying various types of information on a screen of the display unit 180 as a graphic or text is generated based on a user input signal. The generated OSD signal may include various data such as a user interface screen, various menu screens, widgets, and icons of the image display apparatus 100. In addition, the generated OSD signal may include a 2D object or a 3D object.

믹서(260)는 OSD 생성부(250)에서 생성된 OSD 신호와 영상 처리부(230)에서 영상 처리된 복호화된 영상 신호를 믹싱한다. 이때, OSD 신호와 복호화된 영상 신호는 각각 2D 신호 및 3D 신호 중 적어도 하나를 포함할 수 있다. 믹싱된 영상 신호는 프레임 레이트 변환부(270)에 제공된다. The mixer 260 mixes the OSD signal generated by the OSD generator 250 and the decoded image signal processed by the image processor 230. In this case, the OSD signal and the decoded video signal may each include at least one of a 2D signal and a 3D signal. The mixed video signal is provided to the frame rate converter 270.

프레임 레이트 변환부(Frame Rate Conveter, FRC)(270)는 입력되는 영상의 프레임 레이트를 변환한다. 예를 들어, 60Hz의 프레임 레이트를 120Hz 또는 240Hz로 변환한다. 60Hz의 프레임 레이트를 120Hz로 변환하는 경우, 제1 프레임과 제2 프레임 사이에, 동일한 제1 프레임을 삽입하거나, 제1 프레임과 제2 프레임으로부터 예측된 제3 프레임을 삽입하는 것이 가능하다. 60Hz의 프레임 레이트를 240Hz로 변환하는 경우, 동일한 프레임을 3개 더 삽입하거나, 예측된 프레임을 3개 삽입하는 것이 가능하다. The frame rate converter (FRC) 270 converts the frame rate of the input image. For example, a 60Hz frame rate is converted to 120Hz or 240Hz. When converting a frame rate of 60 Hz to 120 Hz, it is possible to insert the same first frame or insert a third frame predicted from the first frame and the second frame between the first frame and the second frame. When converting a frame rate of 60 Hz to 240 Hz, it is possible to insert three more identical frames or three predicted frames.

한편, 이러한 프레임 레이트 변환부(270)는, 별도의 프레임 레이트 변환 없이, 입력되는 프레임 레이트를 그대로 출력하는 것도 가능하다. 바람직하게는, 2D 영상 신호가 입력되는 경우, 프레임 레이트를 그대로 출력할 수 있다. 한편, 입체영상 신호가 입력되는 경우, 프레임 레이트를 상술한 바와 같이 가변하는 것이 가능하다. The frame rate converter 270 may output the input frame rate as it is without additional frame rate conversion. Preferably, when the 2D video signal is input, the frame rate can be output as it is. On the other hand, when a stereoscopic image signal is input, the frame rate can be varied as described above.

포맷터(Formatter)(280)는, 믹서(260)에서 믹싱된 신호, 즉 OSD 신호와 복호화된 영상 신호를 입력 받아, 2D 영상 신호와 입체영상 신호를 분리한다.The formatter 280 receives the mixed signal, that is, the OSD signal and the decoded video signal, and separates the 2D video signal and the 3D video signal from the mixer 260.

한편, 포맷터(280)는 입체영상 신호의 포맷을 변경할 수 있다. 예를 들어, 포맷터(280)는 입체영상 신호의 포맷을 사이드 바이 사이드(Side by Side) 포맷, 탑 다운(Top / Down) 포맷, 프레임 시퀀셜(Frame Sequential) 포맷, 인터레이스 (Interlaced) 포맷, 체커 박스(Checker Box) 포맷 중 어느 하나로 변경할 수 있다.The formatter 280 may change the format of the stereoscopic image signal. For example, the formatter 280 may format the stereoscopic image signal in side by side format, top / down format, frame sequential format, interlaced format, and checker box. You can change to any of the (Checker Box) formats.

포맷터(280)는 2D 영상 신호를 입체영상 신호로 전환할 수도 있다. 예를 들어, 입체영상 생성 알고리즘에 따라, 2D 영상 신호 내에서 에지(edge) 또는 선택 가능한 객체를 검출하고, 검출된 에지(edge)에 따른 객체 또는 선택 가능한 객체를 입체영상 신호로 분리하여 생성할 수 있다. 이때, 생성된 입체영상 신호는, 상술한 바와 같이, 좌안 영상 신호와 우안 영상 신호로 분리되어 정렬될 수 있다. The formatter 280 may convert a 2D image signal into a stereoscopic image signal. For example, according to a stereoscopic image generation algorithm, an edge or a selectable object is detected within a 2D image signal, and an object or a selectable object according to the detected edge is separated into a stereoscopic image signal to be generated. Can be. In this case, the generated stereoscopic image signal may be separated into a left eye image signal and a right eye image signal, and aligned as described above.

음향 깊이 제어부(290)는 포맷터(280)로부터 출력된 양안시차 영상에서 객체의 깊이 변화를 판별하여 음향 효과의 레벨을 결정하여 이를 오디오 처리부(240)로 출력한다. 양안 시차 영상은 영상 내 각각의 픽셀들이 좌우 영상의 불일치 (disparity) 의 정도나 깊이 (depth) 따라 다른 레벨 값을 가지게 되는 영상을 의미한다. The sound depth controller 290 determines the level of the sound effect by determining the depth change of the object in the binocular parallax image output from the formatter 280, and outputs the level of the sound effect to the audio processor 240. A binocular parallax image is an image in which each pixel in the image has a different level value according to the degree or depth of disparity of the left and right images.

도 17은 음향 깊이 제어부(290)을 예시한 블록도이다. 도 17에 도시한 바와 같이, 음향 깊이 제어부(290)는 양안시차 영상에서 객체를 추출하는 객체 추출부(292), 양안시차 영상 내에서의 객체의 움직임에 따른 깊이 변화 값을 획득하고, 깊이 값을 음향의 깊이 레벨로 변환할 지의 여부를 판단하는 시차 측정부(294) 및 깊이 값을 음향의 깊이 레벨로 변환하는 레벨 변환부(296)을 포함한다. 17 is a block diagram illustrating the sound depth controller 290. As illustrated in FIG. 17, the sound depth controller 290 obtains a depth change value according to the movement of an object in the object extraction unit 292, which extracts an object from the binocular parallax image, and the depth value. A parallax measurement unit 294 for determining whether to convert the sound into a depth level of the sound, and a level conversion unit 296 for converting the depth value into the depth level of the sound.

객체 추출부(292)는 양안 시차 영상을 이용하여 영상 내에 존재하는 객체를 추출한다. 이를 통해서 배경 영역과 사물을 구분해 내고, 불필요한 사물을 제거하여 분석 대상을 단순화할 수 있다. 이때, 객체 추출부(292)는 확률분포 계산 방법에 의해 객체를 추출하는 확률분포 계산부(298)과 특징점 추출 방법으로 객체를 추출하는 특징점 추출부(300)를 포함한다. 본 발명에서 입력 영상의 종류 및 계산의 복잡도를 고려하여 상기와 같은 두 가지 방법을 선택적으로 또는 혼용하여 보다 정확하게 객체를 추출해 낼 수 있다. The object extractor 292 extracts an object existing in the image by using a binocular parallax image. Through this, it is possible to distinguish the background area from the object and to simplify the analysis object by removing unnecessary objects. In this case, the object extractor 292 includes a probability distribution calculator 298 for extracting an object by a probability distribution calculation method and a feature point extractor 300 for extracting an object by a feature point extraction method. In the present invention, in consideration of the type of input image and the complexity of calculation, the above two methods can be selectively or mixed to extract an object more accurately.

확률분포 계산부(298)는 기본적으로 히스토그램을 사용할 수 있지만 영상의 특성에 맞는 다양한 확률 모델을 적용하거나 확률 분포를 추정하는 방법에 의해서 그 성능을 향상 시킬 수 있다. The probability distribution calculator 298 may basically use a histogram, but may improve its performance by applying various probability models suitable for characteristics of an image or estimating a probability distribution.

특징점 추출부(300)는 영상의 에지 등을 검출하고 이를 바탕으로 한 물체의 윤곽선을 추출하거나, 회전이나 크기에 불변인 특징을 추출하는 방법에 의해 객체를 추출한다. The feature point extractor 300 detects an edge of an image and extracts an outline of an object based on the image, or extracts an object that is invariant to rotation or size.

시차 측정부(294)는 객체 추출부(292)에서 추출한 객체의 움직임을 프레임 단위로 추적하여, 프레임간의 객체의 움직임에 따른 깊이 정보의 변화 값을 측정한다. The parallax measurement unit 294 tracks the movement of the object extracted by the object extraction unit 292 in units of frames, and measures a change value of depth information according to the movement of the object between frames.

예를 들어, 입력되는 입체영상이 MPEG-C Part 3 방식으로 부호화되어, 색차 영상과 깊이 영상으로 각각이 부호화되는 경우 영상처리부(220)에서 복호화된 영상으로부터 객체의 깊이를 산출할 수 있다. For example, when the input stereoscopic image is encoded by the MPEG-C Part 3 scheme, and each of the input stereoscopic image is encoded into the chrominance image and the depth image, the image processor 220 may calculate the depth of the object from the decoded image.

또한, 예를 들어, 입력되는 입체영상이 MPEG-2 등의 방식으로 부호화되어, 좌안 영상과 우안 영상으로 각각이 부호화되는 경우, 일단 좌안 영상과 우안 영상을 복호화한 후, 좌안 영상과 우안 영상의 시차 정보로부터 객체의 깊이를 산출할 수 있다. In addition, for example, when an input stereoscopic image is encoded by a method such as MPEG-2, and each is encoded into a left eye image and a right eye image, once the left eye image and the right eye image are decoded, The depth of the object can be calculated from the parallax information.

한편, 시차 측정부(294)는 객체의 시차변화를 입체 음향의 깊이 레벨로 변환할 것인지에 대한 여부를 결정한다. 즉, 시차 측정부(294)는 객체의 깊이 변화 중 의미 있는 깊이 변화인지의 여부를 판단하고, 이중 특정한 객체에 대한 깊이 변화만을 음향의 깊이 레벨에 반영하도록 제어한다. 구체적인 판단 방법은 도 2 내지 도 4를 참조하여 상술한 바와 같으며, 상술한 판단 방법은 시차 측정부(294)에서 처리될 수 있다. On the other hand, the parallax measurement unit 294 determines whether to convert the parallax change of the object to the depth level of the stereo sound. That is, the parallax measurement unit 294 determines whether the depth change of the object is a meaningful depth change, and controls to reflect only the depth change of the specific object in the depth level of the sound. A detailed determination method is as described above with reference to FIGS. 2 to 4, and the above-described determination method may be processed by the parallax measurement unit 294.

시차 측정부(294)에서 영상의 깊이 변화를 음향 효과 레벨로 변환하도록 결정하는 경우, 레벨 변환부(296)는 시차 측정부(294)에서 측정한 영상의 양안 깊이 레벨을 음향의 깊이 레벨로 변환한다. 레벨 변환부(296)에서는 객체의 움직임에 의한 깊이 변화 값에 따라서 음향에 필요한 레벨 값으로 변환한다. 이때, 레벨 변환부(296)는 검출된 깊이 값의 범위를 음향의 깊이 레벨 값으로 직접적으로 맵핑하는 균일 양자화 방법을 사용하거나 또는 양안 시차의 범위에 따라 차등적으로 음향의 깊이 레벨 값을 할당하는 비균일 양자화 방법을 통해서 음향의 깊이 레벨로 변환할 수 있다. 전술한 바와 같이, 비균일 양자화 방법에서는 아주 가깝거나 아주 먼 객체들의 깊이를 대략적으로 양자화하고, 중간범위의 객체들의 깊이를 상대적으로 상세히 양자화함으로써 애매한 범위의 움직임에 대해 더 상세한 음향의 레벨을 할당할 수 있다. When the parallax measurement unit 294 determines to convert the depth change of the image into the sound effect level, the level converter 296 converts the binocular depth level of the image measured by the parallax measurement unit 294 into the depth level of the sound. do. The level converting unit 296 converts the level value required for the sound according to the depth change value caused by the movement of the object. At this time, the level converter 296 uses a uniform quantization method that directly maps the detected depth value range to the depth level value of the sound, or differentially allocates the depth level value of the sound according to the range of binocular parallax. Non-uniform quantization can be used to convert sound depth levels. As described above, the non-uniform quantization method can assign a more detailed level of sound for an ambiguous range of motion by roughly quantizing the depths of very close or very distant objects and quantizing the depths of the midrange objects in relatively detail. Can be.

한편, 시차 측정부(294)는 양안시차 영상으로부터 시차에 따른 픽셀 수를 나타내는 시차 히스토그램을 획득하고, 레벨 변환부는 시차 히스토그램으로부터 음향의 깊이 레벨을 결정할 수도 있다. Meanwhile, the parallax measurement unit 294 may obtain a parallax histogram indicating the number of pixels according to parallax from the binocular parallax image, and the level converter may determine the depth level of the sound from the parallax histogram.

이때, 시차 측정부(294)는 양안시차 영상 즉, 시차 맵을 복수의 영역으로 분할하고, 분할된 복수의 영역에 대하여 가중치를 적용하며, 가중치에 따라 시차 히스토그램을 구할 수 있다. In this case, the parallax measurement unit 294 may divide a binocular parallax image, that is, a parallax map into a plurality of regions, apply weights to the divided regions, and obtain a parallax histogram according to the weights.

예를 들어, 시차 측정부(294)는 양안시차 영상으로부터 시차 맵(disparity map)을 추출하고, 도 12에 예시한 바와 같이, 이를 복수의 화면영역(w1, w2, w3)로 분할하고, 분할된 복수의 화면영역에 대하여 가중치를 적용한다. 이때, 화면의 중앙영역이 다른 영역보다 중요하다고 전제하여, 화면영역을 중앙영역(w1), 중간영역(w2) 및 주변영역(w3)로 분할하고, 중앙영역(w1), 중간영역(w2) 및 주변영역(w3)의 순서로 높은 가중치를 적용하는 것을 예시하였다. 다만, 이는 본원 발명을 예시하기 위한 것으로, 이와 다른 방법으로 화면영역을 분할하는 것도 가능하다. For example, the parallax measurement unit 294 extracts a disparity map from a binocular parallax image, and divides it into a plurality of screen regions w1, w2, and w3 as illustrated in FIG. 12. Weights are applied to the plurality of screen areas. At this time, assuming that the center area of the screen is more important than other areas, the screen area is divided into a center area w1, a middle area w2 and a peripheral area w3, and the center area w1 and the middle area w2 And applying high weights in the order of the peripheral region w3. However, this is for illustrating the present invention, and it is also possible to divide the screen area by other methods.

도 13은 상기와 같이 화면영역에 따라 가중치가 적용된 시차 히스토그램을 예시한 개략도이다. 이때, 히스토그램의 가로축은 시차의 크기를 나타내고, 세로축은 각 시차의 크기에 해당되는 픽셀 수를 나타낸다. FIG. 13 is a schematic diagram illustrating a parallax histogram to which a weight is applied according to the screen area as described above. In this case, the horizontal axis of the histogram represents the size of parallax, and the vertical axis represents the number of pixels corresponding to the size of each parallax.

레벨 변환부(296)는 시차 히스토그램으로부터 음향의 깊이 레벨을 결정한다. 이때, 도 14에 도시한 바와 같이, 레벨 변환부(296)는 시차 히스토그램에서 시차의 크기에 따른 복수의 시차 구간을 정의하고, 정의된 복수의 시차 구간에서의 픽셀 수의 합을 구하며, 시차 구간에서의 픽셀 수의 합에 대응하여 음향의 깊이 레벨을 정할 수 있다. The level converter 296 determines the depth level of the sound from the parallax histogram. At this time, as shown in FIG. 14, the level converter 296 defines a plurality of parallax sections according to the magnitude of the parallax in the parallax histogram, obtains the sum of the number of pixels in the defined plurality of parallax sections, and the parallax section The depth level of the sound may be determined according to the sum of the number of pixels in.

이때, 전체 히스토그램 구간의 가로축 즉, 시차축을 따라 원하는 레벨의 개수만큼 균등하게 또는 비균등하게 나누고, 각 레벨 구간내의 히스토그램을 더하는 방식으로 레벨 구간별 시차 히스토그램을 구한다. 이때, 시청자와 가까운 시차 구간부터 해당 시차구간의 히스토그램이 임계 값(threshold)을 넘을 경우, 일정크기 이상의 객체에 입체감이 있는 것으로 판단하여 이에 대응하여 음향의 깊이 레벨을 결정할 수 있다.At this time, the parallax histogram for each level section is obtained by dividing the histogram in each level section evenly or evenly by the number of desired levels along the horizontal axis of the entire histogram section, that is, the parallax axis. In this case, when the histogram of the parallax interval from the parallax close to the viewer exceeds the threshold, it may be determined that the object having a certain size or more has a three-dimensional effect and correspondingly determine the depth level of the sound.

오디오 처리부(240)는 역다중화된 음성 신호의 음성 처리를 수행할 수 있다. 이를 위해 오디오 처리부(240)는, 도 18에 예시된 바와 같이, 오디오 디코더(302), 음상 정위부(304), 크로스 토크 저감부(cross-talk canceller, 306), 서브밴드 분석부(subband analysis unit, 308), 위상 조정부(frequency dependent phase controller, 310), 게인 조정부(frequency dependent gain controller, 312) 및 서브밴드 합성부(314)를 포함한다. The audio processor 240 may perform voice processing of the demultiplexed voice signal. For this purpose, as illustrated in FIG. 18, the audio processor 240 may include an audio decoder 302, an audio image localization unit 304, a cross-talk canceler 306, and a subband analysis unit. unit 308, a frequency dependent phase controller 310, a frequency dependent gain controller 312, and a subband synthesis unit 314.

오디오 디코더(302)는 다양한 방식으로 부호화된 오디오 신호를 복호화하기 위해 다양한 디코더를 구비한다. The audio decoder 302 includes various decoders to decode audio signals encoded in various ways.

예를 들어, 오디오 디코더(302)는 역다중화된 음성 신호가 MPEG-2 규격의 부호화된 음성 신호인 경우, MPEG-2 디코더에 의해 복호화될 수 있다. 또한, 역다중화된 음성 신호가 지상파 DMB(Digital Multimedia Broadcasting) 방식에 따른 MPEG 4 BSAC(Bit Sliced Arithmetic Coding) 규격의 부호화된 음성 신호인 경우, MPEG 4 디코더에 의해 복호화될 수 있다. 또한, 역다중화된 음성 신호가 위성 DMB 방식 또는 DVB-H에 따른 MPEG 2의 AAC(Advanced Audio Codec) 규격의 부호화된 음성 신호인 경우, AAC 디코더에 의해 복호화될 수 있다. 또한, 역다중화된 음성 신호가 돌비(Dolby) AC-3 규격의 부호화된 음성 신호인 경우, AC-3 디코더에 의해 복호화될 수 있다. For example, the audio decoder 302 may be decoded by the MPEG-2 decoder when the demultiplexed speech signal is an encoded speech signal of the MPEG-2 standard. In addition, when the demultiplexed speech signal is an encoded speech signal of MPEG 4 Bit Sliced Arithmetic Coding (BSAC) standard according to the terrestrial digital multimedia broadcasting (DMB) scheme, it may be decoded by an MPEG 4 decoder. In addition, when the demultiplexed speech signal is an encoded audio signal of the AAC (Advanced Audio Codec) standard of MPEG 2 according to the satellite DMB scheme or DVB-H, it may be decoded by the AAC decoder. In addition, when the demultiplexed speech signal is a encoded speech signal of the Dolby AC-3 standard, it may be decoded by the AC-3 decoder.

음상 정위부(304)는 입력되는 복호화된 오디오 신호에 대해 음상 정위를 제어한다. 여기서, 음상 정위(Sound image Localization)는 감각적으로 지각되는 음상의 위치를 의미한다. 예를 들어, 좌, 우 채널의 스테레오 오디오 신호에 대해, 각 채널의 오디오 신호가 동일한 경우, 음상 정위는, 좌측 스피커 및 우측 스피커의 중간일 수 있다. The sound image positioning unit 304 controls the sound image positioning on the input decoded audio signal. Here, the sound image localization means a position of a sensory perceptually perceived sound image. For example, with respect to the stereo audio signals of the left and right channels, when the audio signals of the respective channels are the same, the sound image orientation may be the middle of the left speaker and the right speaker.

음상을 정위시키는 방법은, 예를 들어, 청취자의 각 귀에 도달하는 음성 신호의 위상차(시간 차)와 레벨 비율(음압 레벨 비율)에 기초하여, 음장 공간에서의 특정 위치(특정 방향)에 음원을 느끼게 하도록 할 수 있다. The method of orienting the sound image is, for example, based on the phase difference (time difference) and the level ratio (sound pressure level ratio) of the speech signal reaching each ear of the listener, the sound source at a specific position (specific direction) in the sound field space. You can feel it.

이러한 음상 정위 제어를 위해, 본 실시예에서는, 입력되는 복호화된 오디오 신호에 대해, 머리전달함수(Head-Related Transfer Function) 필터링을 사용한다.For such sound phase control, in the present embodiment, head-related transfer function filtering is used for the input decoded audio signal.

머리전달함수는 임의의 위치를 갖는 음원에서 나오는 음파와 귀의 고막에 도달하는 음파 사이의 전달함수(transfer function)를 의미하는 것으로, 실제 청취자의 귀 속 또는 사람의 모양을 한 모형의 귀 속에 마이크를 넣고, 특정 각도에 대해 오디오 신호의 임펄스 응답을 측정함으로써 획득할 수 있다. The head transfer function refers to a transfer function between sound waves coming from an arbitrary source and sound waves reaching the ear tympanic membrane. A microphone is placed in the ears of an actual listener or in the shape of a person. Can be obtained by measuring the impulse response of the audio signal for a particular angle.

이러한 머리전달함수는 음원의 방위와 고도에 따라 그 값이 달라진다. 또한, 청취자의 머리 모양, 머리 크기 또는 귀의 모양 등과 같은 신체 특성에 의해 달라질 수 있다. These head transfer functions vary depending on the orientation and altitude of the sound source. It may also vary depending on physical characteristics such as the listener's head shape, head size or ear shape.

한편, 본 발명의 실시예에서는 전술한 입체영상의 깊이(depth)에 대응하여 생성된 음향의 깊이 레벨에 따라 머리전달함수가 가변된다. 예를 들어, 음향의 깊이 레벨에 대응하여 음원의 위치가 가변하는 것으로 가정하고, 해당 깊이에 따른 음원을 기준으로, 각각의 머리전달함수를 설정할 수 있다. 즉, 음향의 깊이 레벨에 따라 머리전달함수의 계수가 결정된다. 또한, 주파수 별로 머리전달함수의 계수가 달라질 수 있다. 특히, 음향의 깊이 레벨이 클수록, 또는 음향의 깊이 레벨의 변화 값이 클수록, 고주파 성분이 제거되도록 머리전달함수의 계수 조정을 수행할 수 있다. Meanwhile, in the exemplary embodiment of the present invention, the head transfer function is varied according to the depth level of the sound generated corresponding to the depth of the stereoscopic image described above. For example, it is assumed that the position of the sound source varies in response to the depth level of the sound, and each head transfer function may be set based on the sound source according to the depth. That is, the coefficient of the head transfer function is determined according to the depth level of the sound. In addition, the coefficient of the head transfer function may vary for each frequency. In particular, the larger the depth level of the sound or the larger the change value of the depth level of the sound, the greater the coefficient adjustment of the head transfer function may be performed to remove the high frequency component.

한편, 음향의 깊이 레벨에 따른 머리전달함수 또는 머리전달함수의 계수 정보는 저장부(150)에 저장될 수 있다. Meanwhile, the head transfer function or the coefficient information of the head transfer function according to the depth level of the sound may be stored in the storage 150.

이와 같이, 입체영상의 깊이에 따른 머리전달함수를 이용한 음상 정위 방법은 공간감이나 현실감과 같은 3차원 효과를 제공할 수 있게 된다. As described above, the sound image positioning method using the head transfer function according to the depth of the stereoscopic image can provide a three-dimensional effect such as a sense of space or reality.

한편, 머리전달함수 필터링은 모노 채널 기반으로 수행될 수 있다. 예를 들어, 모노 채널 오디오 신호를, 제1 머리전달함수에 대한 임펄스 응답, 및 제2 머리 전달함수에 대한 임펄스 응답과, 각각 컨벌루션하여 좌측 오디오 신호 및 우측 오디오 신호를 생성할 수 있다. 이에 따라, 음상 정위를 수행할 수 있다. Meanwhile, head transfer function filtering may be performed based on a mono channel. For example, the mono channel audio signal may be convolved with an impulse response to the first head transfer function and an impulse response to the second head transfer function, respectively, to generate a left audio signal and a right audio signal. Accordingly, sound image positioning can be performed.

한편, 다채널의 오디오 신호가 입력되는 경우, 각 채널 별로 각각 머리전달함수 필터링을 수행하고, 각각 좌측 오디오 신호 및 우측 오디오 신호를 생성하며, 최종적으로 이를 합산하여 출력할 수 있다. On the other hand, when a multi-channel audio signal is input, the head transfer function filtering may be performed for each channel, and the left and right audio signals may be generated, respectively, and finally summed and output.

크로스 토크 저감부(306)는 음상 정위 제어된 오디오 신호의 크로스 토크 저감을 위한 신호 처리를 수행한다. 즉, 왼쪽 귀에 도달하도록 연산 처리되어 발신된 음이 오른쪽 귀에도 도달하여 가상 음원의 방향을 인식할 수 없게 되는 것(크로스 토크 현상)을 방지하기 위하여, 이를 지우기 위한 부가 오디오 신호를 발신할 수 있다. The crosstalk reducing unit 306 performs signal processing for reducing crosstalk of the audio signal controlled by the sound image positioning. That is, in order to prevent the transmitted sound reaching the left ear from reaching the right ear and not recognizing the direction of the virtual sound source (cross talk phenomenon), an additional audio signal for erasing it may be transmitted. .

예를 들어, 크로스 토크 저감부(306)는 우측 채널의 오디오 신호 및 좌측 채널의 오디오 신호의 차이 신호에 대해서 지연 시간을 가진 다수의 잔향 성분을 부가할 수도 있다. For example, the crosstalk reduction unit 306 may add a plurality of reverberation components having a delay time to the difference signal between the audio signal of the right channel and the audio signal of the left channel.

이에 따라, 크로스 토크 저감부(306)를 통과한 좌측 오디오 신호와 우측 오디오 신호는 청취자의 해당 귀(좌측 귀, 우측 귀)에만 들리게 된다. Accordingly, the left audio signal and the right audio signal that have passed through the crosstalk reduction unit 306 are heard only by the corresponding ears (left ear, right ear) of the listener.

한편, 크로스 토크 저감을 위한 신호 처리는, 시간 영역을 기반으로 수행되나 이에 한정되지 않고, 주파수 영역을 기반으로 수행되는 것도 가능하다. Meanwhile, signal processing for crosstalk reduction may be performed based on the time domain, but is not limited thereto and may be performed based on the frequency domain.

한편, 크로스 토크 저감부(306)는 선택적으로 구비되는 것도 가능하다. 즉, 영상 정위부(420)으로부터 출력되는 좌측 오디오 신호와 우측 오디오 신호를 바로 서브 밴드 분석부(308)로 입력시키는 것도 가능하다. On the other hand, the crosstalk reduction unit 306 may be selectively provided. That is, the left audio signal and the right audio signal output from the image positioning unit 420 may be directly input to the sub band analyzer 308.

서브밴드 분석부(308)는 음상 정위 제어된 오디오 신호를 서브 밴드 분석 필터링한다. 즉, 서브 밴드 분석 필터 뱅크를 구비하여, 음상 정위 제어된 오디오 신호를 주파수 신호로 변환시킨다. 서브 밴드 분석부(308)에서 필터링된 오디오 신호의 서브 밴드는 32개의 서브 밴드 또는 64개의 서브 밴드일 수 있다. The subband analyzing unit 308 performs subband analysis filtering on the audio positioning controlled audio signal. That is, a subband analysis filter bank is provided to convert the audio-position-determined audio signal into a frequency signal. The subbands of the audio signal filtered by the subband analyzer 308 may be 32 subbands or 64 subbands.

이와 같이 주파수 대역 별로 구분된 오디오 신호는 이하의 위상 조정부(310), 및 게인 조정부(312)에서 주파수 대역 별로, 또는 주파수 대역 그룹별로 위상 조정 또는 게인 조정이 수행될 수 있다. As described above, the audio signal divided for each frequency band may be subjected to phase adjustment or gain adjustment for each frequency band or for each frequency band group in the following phase adjustment unit 310 and gain adjustment unit 312.

위상 조정부(310)는 대역별로 분리된 주파수 대역별로 위상(phase)을 조정한다. 이러한 위상 조정은 음향의 깊이 레벨 또는 음향의 깊이 레벨의 변화 값에 기반하여 수행될 수 있다. 음향의 깊이 레벨이 클수록 또는 음향의 깊이 레벨의 변화 값이 클수록, 위상을 증가시키는 것이 바람직하다. 위상 증가 시 상한까지 증가시키는 것이 가능하다. 한편, 음향의 깊이 레벨이 거의 없는 경우 또는 음향의 깊이 레벨의 변화 값이 거의 없는 경우, 즉 소정치 미만인 경우, 위상 조정은 수행되지 않을 수 있다. The phase adjuster 310 adjusts a phase for each frequency band separated for each band. This phase adjustment may be performed based on a change value of the sound depth level or the sound depth level. It is desirable to increase the phase as the depth level of the sound is larger or the change value of the depth level of the sound is larger. It is possible to increase to the upper limit when the phase increases. On the other hand, if there is little depth level of the sound or if there is little change value of the depth level of the sound, i.e., less than a predetermined value, phase adjustment may not be performed.

예를 들어, 소정 주파수의 오디오 신호의 위상을 180도 증가시킨 경우, 해당 오디오 신호는 사용자 방향으로 더 돌출되어 출력되는 것으로 파악될 수 있다. For example, when the phase of an audio signal of a predetermined frequency is increased by 180 degrees, the audio signal may be seen to protrude further toward the user.

위상 조정 방법은, 다양한 방법으로 수행될 수 있다. 예를 들어, 특정 주파수 범위에 대해서만 밴드 혹은 대역을 나누어 채널간의 부호를 바꾸거나, 특정 주파수 범위에 대해서 그룹으로 묶어서 채널간의 부호를 바꾸거나, 모든 주파수 대역에서 각각 독립적으로 채널간의 위상을 조절하거나, 특정 주파수 범위에 대해서만 밴드 혹은 대역을 나누어 채널간의 위상을 조절하거나, 특정 주파수 범위에 대해서 그룹으로 묶어서 채널간의 위상을 조절할 수 있다. The phase adjustment method may be performed in various ways. For example, you can change the sign between channels by dividing the band or band only for a certain frequency range, change the sign between channels by grouping them in a specific frequency range, or adjust the phase between channels independently in each frequency band, The phases between channels can be adjusted by dividing bands or bands only for a specific frequency range, or the phases between channels can be controlled by grouping them for a specific frequency range.

또한, 음향의 깊이 레벨이 클수록, 또는 음향의 깊이 레벨의 변화 값이 클수록, 고주파 성분이 제거되도록 위상 조정을 수행할 수 있다. In addition, as the depth level of the sound increases or the change value of the depth level of the sound increases, phase adjustment may be performed so that a high frequency component is removed.

게인 조정부(312)는 대역별로 분리된 주파수 대역별로 게인(gain)을 조정한다. 이러한 게인 조정은, 검출된 음향의 깊이 레벨 또는 음향의 깊이 레벨의 변화 값에 기반하여 수행될 수 있다. 검출된 음향의 깊이 레벨이 클수록 또는 음향의 깊이 레벨의 변화 값이 클수록, 게인을 증가시키는 것이 바람직하다. The gain adjusting unit 312 adjusts gain for each frequency band separated for each band. This gain adjustment can be performed based on the detected value of the depth level of the sound or the depth level of the sound. As the depth level of the detected sound is larger or the change value of the depth level of the sound is larger, it is desirable to increase the gain.

예를 들어, 검출된 음향의 깊이 레벨이 2배로 커지는 경우, 게인은 4배로 증가시킬 수 있으며, 음향의 깊이 레벨이 4배로 커지는 경우, 게인은 8배로 증가시킬 수 있다. 이에 음향의 깊이 레벨에 대응하여 오디오 신호의 줌밍(zooming) 하고자 하는 대역을 강조할 수 있게 된다. For example, if the depth level of the detected sound is doubled, the gain can be increased by four times, and if the depth level of the sound is increased by four times, the gain can be increased by eight times. Accordingly, the band to zoom the audio signal can be emphasized corresponding to the depth level of the sound.

게인 조정 방법은 다양한 방법으로 수행될 수 있다. 예를 들어, 모든 주파수 대역에서 각각 독립적으로 게인을 조절 하거나, 특정 주파수 범위에 대해서만 밴드 혹은 대역을 나누어 게인을 조절하거나, 특정 주파수 범위에 대해서 그룹으로 묶어서 그룹별로 게인을 조절할 수 있다. The gain adjustment method may be performed in various ways. For example, the gain can be adjusted independently in all frequency bands, the gain can be adjusted by dividing the band or band only for a specific frequency range, or the gain can be adjusted for each group by grouping the band for a specific frequency range.

예를 들어, 주파수 대역이 1000Hz 내지 4000Hz인 경우 게인을 조정하고 그 외의 주파수 대역에서는 게인 조정을 하지 않을 수 있다. For example, the gain may be adjusted when the frequency band is 1000 Hz to 4000 Hz, and the gain may not be adjusted in other frequency bands.

또한, 음향의 깊이 레벨이 클수록 또는 음향의 깊이 레벨의 변화 값이 클수록, 고주파 성분이 제거되도록 게인 조정을 수행할 수 있다. Also, as the depth level of the sound increases or the change value of the depth level of the sound increases, the gain adjustment may be performed so that the high frequency component is removed.

서브밴드 합성부(314)는 주파수 밴드별로 위상 또는 게인 조정된 오디오 신호를 서브 밴드 합성 필터링한다. 즉, 서브 밴드 합성 필터 뱅크를 구비하여, 개의 서브 밴드 또는 64개의 서브 밴드 등으로 구분된 서브 밴드를 합성한다. 이에 따라, 최종적으로, 깊이에 따라, 음상 정위, 위상 조정, 게인 조정 등이 수행된 오디오 신호가 출력되게 된다. 이러한 오디오 신호는 깊이에 따라 줌밍(zooming) 출력되어, 청취자 머리 앞에서 출력되는 것으로 인지할 수 있게 된다. The subband synthesis unit 314 performs subband synthesis filtering on the audio signal whose phase or gain is adjusted for each frequency band. That is, a subband synthesis filter bank is provided to synthesize subbands divided into four subbands, 64 subbands, or the like. Accordingly, an audio signal in which sound image positioning, phase adjustment, gain adjustment, and the like has been performed is finally output according to the depth. The audio signal is zoomed according to the depth, and can be recognized as being output in front of the listener's head.

한편, 음향의 깊이 레벨에 따른, 음상 정위, 위상 조정, 게인 조정 등은 각각 선택적으로 수행되는 것도 가능하다. 즉, 음상 정위, 위상 조정 또는 게인 조정 중 적어도 하나가 음향의 깊이 레벨에 대응하여, 수행될 수 있다. 예를 들어, 음향의 깊이 레벨에 대응하는 위상 조정만이 수행되거나, 음향의 깊이 레벨에 대응하는 게인 조정만이 수행될 수도 있다. 또는 음향의 깊이 레벨에 따른 음상 정위를 전제로, 선택적으로 위상 조정 또는 깊이 조정이 수행되는 것도 가능하다. Meanwhile, sound image positioning, phase adjustment, gain adjustment, and the like, depending on the depth level of the sound, may be selectively performed. That is, at least one of sound image positioning, phase adjustment, or gain adjustment may be performed corresponding to the depth level of the sound. For example, only the phase adjustment corresponding to the depth level of the sound may be performed, or only the gain adjustment corresponding to the depth level of the sound may be performed. Alternatively, it is also possible to selectively perform phase adjustment or depth adjustment on the assumption of sound image positioning according to the depth level of the sound.

한편, 도면에서는 도시하지 않았지만, 오디오 디코더(302)와 음상 정위부(304) 사이에 채널 분리부가 구비되는 것도 가능하다. Although not shown in the drawing, a channel separator may be provided between the audio decoder 302 and the sound image positioning unit 304.

채널 분리부는 입력되는 오디오 신호를 채널 별로 분리한다. 예를 들어, 오디오 신호 중 리어 채널(rear channel)과 프론트 채널(front channel)로 분리할 수 있다. 리어 채널은, 영상표시장치(100)의 후방에서 출력되는 오디오 신호이며, 프론트 채널은 영상표시장치(100)의 전방에서 출력되는 오디오 신호일 수 있다. 그 외 5.1 채널 등으로 분리하거나, 스테레오인 경우 좌측 채널과 우측 채널로 구분하는 것도 가능하다. The channel separator separates the input audio signal for each channel. For example, the audio signal may be separated into a rear channel and a front channel. The rear channel may be an audio signal output from the rear of the image display apparatus 100, and the front channel may be an audio signal output from the front of the image display apparatus 100. In addition, it can be divided into 5.1 channels, or in the case of stereo, it can be divided into the left channel and the right channel.

또한, 제어부(170) 내의 오디오 처리부(240)는, 베이스(Base), 트레블(Treble), 음량 조절 등을 처리할 수 있다. In addition, the audio processor 240 in the controller 170 may process a base, a treble, a volume control, and the like.

제어부(170) 내의 데이터 처리부(미도시)는, 역다중화된 데이터 신호의 데이터 처리를 수행할 수 있다. 예를 들어, 역다중화된 데이터 신호가 부호화된 데이터 신호인 경우, 이를 복호화할 수 있다. 부호화된 데이터 신호는, 각 채널에서 방영되는 방송프로그램의 시작시간, 종료시간 등의 방송정보를 포함하는 EPG(Electronic Progtam Guide) 정보일 수 있다. 예를 들어, EPG 정보는, ATSC방식인 경우, ATSC-PSIP(ATSC-Program and System Information Protocol) 정보일 수 있으며, DVB 방식인 경우, DVB-SI(DVB-Service Information) 정보를 포함할 수 있다. ATSC-PSIP 정보 또는 DVB-SI 정보는, 상술한 스트림, 즉 MPEG-2 TS의 헤더(2 byte)에 포함되는 정보일 수 있다. The data processor (not shown) in the controller 170 may perform data processing of the demultiplexed data signal. For example, when the demultiplexed data signal is an encoded data signal, it may be decoded. The encoded data signal may be EPG (Electronic Progtam Guide) information including broadcast information such as a start time and an end time of a broadcast program broadcasted in each channel. For example, the EPG information may be ATSC-PSIP (ATSC-Program and System Information Protocol) information in the case of the ATSC scheme, and may include DVB-Service Information (DVB-SI) in the case of the DVB scheme. . The ATSC-PSIP information or the DVB-SI information may be information included in the aforementioned stream, that is, the header (2 bytes) of the MPEG-2 TS.

한편, 도 16에서는 OSD 생성부(250)와 영상 처리부(230)으로부터의 신호를 믹서(260)에서 믹싱한 후, 포맷터(280)에서 3D 처리 등을 하는 것으로 도시하나, 이에 한정되지 않으며, 믹서가 포맷터 뒤에 위치하는 것도 가능하다. 즉, 영상 처리부(230)의 출력을 포맷터(280)에서 3D 처리하고, OSD 생성부(250)는 OSD 생성과 함께 3D 처리를 수행한 후, 믹서(260)에서 각각의 처리된 3D 신호를 믹싱하는 것도 가능하다. Meanwhile, although FIG. 16 illustrates that the signals from the OSD generator 250 and the image processor 230 are mixed in the mixer 260 and then the 3D process is performed in the formatter 280, the present invention is not limited thereto. May be located after the formatter. That is, the output of the image processor 230 is 3D processed by the formatter 280, and the OSD generator 250 performs 3D processing together with OSD generation, and then mixes each processed 3D signal in the mixer 260. It is also possible.

한편, 도 16에 도시된 제어부(170)는 본 발명을 예시하기 위한 것으로, 도 16의 각 구성요소는 실제 구현되는 제어부(170)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. Meanwhile, the controller 170 illustrated in FIG. 16 is for illustrating the present invention, and each component of FIG. 16 may be integrated, added, or omitted according to the specifications of the controller 170 that is actually implemented.

특히, 프레임 레이트 변환부(270), 포맷터(280) 및 음향 깊이 제어부(290)는 제어부(170) 내에 마련되지 않고, 각각 별도로 구비될 수도 있다. In particular, the frame rate converter 270, the formatter 280, and the sound depth controller 290 are not provided in the controller 170, but may be separately provided.

본 발명에 따른 영상표시장치 및 그 동작방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다. The image display apparatus and the operation method thereof according to the present invention are not limited to the configuration and method of the embodiments described above, but the embodiments may be applied to all or some of the embodiments May be selectively combined.

한편, 본 발명의 영상표시장치의 동작방법은 영상표시장치에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다. Meanwhile, the operation method of the image display apparatus of the present invention can be implemented as a code that can be read by a processor on a recording medium readable by a processor included in the image display apparatus. The processor-readable recording medium includes all kinds of recording apparatuses in which data that can be read by the processor is stored. Examples of the processor-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet. . The processor-readable recording medium can also be distributed over network coupled computer systems so that the processor-readable code is stored and executed in a distributed fashion.

상기에서 본 발명의 바람직한 실시예에 대하여 설명하였지만, 본 발명은 이에 한정되는 것이 아니고 특허청구범위와 발명의 상세한 설명 및 첨부한 도면의 범위 안에서 여러 가지로 변형하여 실시하는 것이 가능하고 이 또한 본 발명의 범위에 속하는 것은 당연하다. While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, Of course.

Claims (10)

영상에서 적어도 하나의 객체를 추출하는 단계,
상기 영상 내에서의 상기 객체의 움직임에 따른 깊이 변화 값을 측정하는 단계, 및
상기 객체의 깊이 값을 음향의 깊이 레벨로 변환하는 단계
를 포함하는 음향의 깊이 제어방법.
Extracting at least one object from an image,
Measuring a depth change value according to the movement of the object in the image, and
Converting the depth value of the object to a depth level of sound
Sound depth control method comprising a.
제1 항에 있어서,
상기 객체의 깊이 변화가 의미 있는 깊이 변화인지를 판단하는 단계, 및
의미 있는 깊이 변화 값을 가지는 객체 중 음향의 깊이 레벨로 변환할 객체를 결정하는 단계
를 더 포함하는 음향의 깊이 제어방법.
The method according to claim 1,
Determining whether the depth change of the object is a meaningful depth change, and
Determining an object to be converted to a sound depth level among objects having a meaningful depth change value
Depth control method of the sound further comprising.
양안시차 영상으로부터 시차에 따른 픽셀 수를 나타내는 시차 히스토그램을 획득하는 단계, 및
상기 시차 히스토그램으로부터 음향의 깊이 레벨을 결정하는 단계
를 포함하는 음향의 깊이 제어방법.
Obtaining a parallax histogram representing the number of pixels according to parallax from a binocular parallax image, and
Determining a depth level of sound from the parallax histogram
Sound depth control method comprising a.
제3 항에 있어서,
상기 시차 히스토그램을 획득하는 단계는,
상기 양안시차 영상을 복수의 영역으로 분할하는 단계,
상기 분할된 복수의 영역에 대하여 가중치를 적용하는 단계, 및
상기 가중치에 따라 상기 시차 히스토그램을 구하는 단계
를 포함하는 음향의 깊이 제어방법.
The method of claim 3,
Acquiring the parallax histogram,
Dividing the binocular parallax image into a plurality of regions;
Applying weights to the divided plurality of regions, and
Obtaining the parallax histogram according to the weight
Sound depth control method comprising a.
제3 항에 있어서,
상기 음향의 깊이 레벨을 결정하는 단계는,
상기 시차 히스토그램에서 상기 시차의 크기에 따른 복수의 시차 구간을 정의하는 단계,
상기 정의된 복수의 시차 구간에서의 상기 픽셀 수의 합을 구하는 단계, 및
상기 시차 구간에서의 상기 픽셀 수의 합에 대응하는 상기 음향의 깊이 레벨을 정하는 단계
를 포함하는 음향의 깊이 제어방법.
The method of claim 3,
Determining the depth level of the sound,
Defining a plurality of parallax sections according to the magnitude of the parallax in the parallax histogram,
Obtaining a sum of the number of pixels in the defined plurality of parallax intervals, and
Determining a depth level of the sound corresponding to the sum of the number of pixels in the parallax interval
Sound depth control method comprising a.
영상에서 적어도 하나의 객체를 추출하는 객체 추출부,
상기 영상 내에서의 상기 객체의 움직임에 따른 깊이 변화 값을 측정하는 시차 측정부, 및
상기 객체의 깊이 값을 음향의 깊이 레벨로 변환하는 레벨 변환부
를 포함하는 음향의 깊이 제어장치.
An object extractor which extracts at least one object from an image,
A parallax measurement unit measuring a depth change value according to the movement of the object in the image, and
A level converting unit converting the depth value of the object into a depth level of sound
Depth control device of the sound comprising a.
제6 항에 있어서,
상기 시차 측정부는,
상기 객체의 깊이 변화가 의미 있는 깊이 변화인지를 판단하고, 의미 있는 깊이 변화 값을 가지는 객체 중 음향의 깊이 레벨로 변환할 객체를 결정하는 음향의 깊이 제어장치.
The method of claim 6,
The parallax measurement unit,
And determining whether the depth change of the object is a meaningful depth change, and determining an object to be converted into a sound depth level among objects having a meaningful depth change value.
양안시차 영상으로부터 시차에 따른 픽셀 수를 나타내는 시차 히스토그램을 획득하는 시차 측정부, 및
상기 시차 히스토그램으로부터 음향의 깊이 레벨을 결정하는 레벨 변환부
를 포함하는 음향의 깊이 제어장치.
A parallax measurement unit for obtaining a parallax histogram representing the number of pixels according to parallax from a binocular parallax image, and
A level converter for determining a depth level of sound from the parallax histogram
Depth control device of the sound comprising a.
제8 항에 있어서,
상기 시차 측정부는,
상기 양안시차 영상을 복수의 화면영역으로 분할하고, 상기 분할된 복수의 화면영역에 대하여 가중치를 적용하며, 상기 가중치에 따라 상기 시차 히스토그램을 구하는 음향의 깊이 제어장치.
The method of claim 8,
The parallax measurement unit,
And dividing the binocular parallax image into a plurality of screen regions, applying weights to the divided screen regions, and obtaining the parallax histogram according to the weights.
제8 항에 있어서,
상기 레벨 변환부는,
상기 시차 히스토그램에서 상기 시차의 크기에 따른 복수의 시차 구간을 정의하고, 상기 정의된 복수의 시차 구간에서의 상기 픽셀 수의 합을 구하며, 상기 시차 구간에서의 상기 픽셀 수의 합에 대응하는 상기 음향의 깊이 레벨을 정하는 음향의 깊이 제어장치.
The method of claim 8,
The level converting unit,
Defining a plurality of parallax sections according to the magnitude of the parallax in the parallax histogram, obtaining a sum of the number of pixels in the defined plurality of parallax sections, and the sound corresponding to the sum of the number of pixels in the parallax section A sound depth control device that determines the depth level of the sound.
KR1020110088372A 2011-03-21 2011-09-01 Method and apparatus for controlling depth of sound KR20120107418A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/425,061 US8958565B2 (en) 2011-03-21 2012-03-20 Apparatus for controlling depth/distance of sound and method thereof
PCT/KR2012/001980 WO2012128535A2 (en) 2011-03-21 2012-03-20 Apparatus for controlling depth/distance of sound and method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20110024853 2011-03-21
KR1020110024853 2011-03-21

Publications (1)

Publication Number Publication Date
KR20120107418A true KR20120107418A (en) 2012-10-02

Family

ID=47279420

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110088372A KR20120107418A (en) 2011-03-21 2011-09-01 Method and apparatus for controlling depth of sound

Country Status (1)

Country Link
KR (1) KR20120107418A (en)

Similar Documents

Publication Publication Date Title
KR101717787B1 (en) Display device and method for outputting of audio signal
US8958565B2 (en) Apparatus for controlling depth/distance of sound and method thereof
US8665321B2 (en) Image display apparatus and method for operating the same
US8593510B2 (en) Image display apparatus and operating method thereof
US9191651B2 (en) Video display apparatus and operating method therefor
US20120182402A1 (en) Video display device and operating method therefor
KR101611263B1 (en) Apparatus for displaying image and method for operating the same
KR20110086415A (en) Image display device and operation controlling method for the same
KR20110082380A (en) Apparatus for displaying image and method for operating the same
KR20110134327A (en) Method for processing image and image display device thereof
KR20120034996A (en) Image display apparatus, and method for operating the same
KR20110090640A (en) Image display device and operating method for the same
KR101679570B1 (en) Image display apparatus and method for operating the same
KR20120104022A (en) Multimedia apparatus with sound effect function, sound effect apparatus and method for applying sound effect
KR20120107418A (en) Method and apparatus for controlling depth of sound
KR101758274B1 (en) A system, a method for displaying a 3-dimensional image and an apparatus for processing a 3-dimensional image
KR20120062428A (en) Image display apparatus, and method for operating the same
KR101804912B1 (en) An apparatus for displaying a 3-dimensional image and a method for displaying subtitles of a 3-dimensional image
KR101176500B1 (en) Image display apparatus, and method for operating the same
KR20110134087A (en) Image display apparatus and method for operating the same
KR20110133296A (en) Apparatus for viewing 3d image and method for operating the same
KR101737367B1 (en) Image display apparatus and method for operating the same
KR20110134094A (en) Image display apparatus and method for operating the same
KR20120140425A (en) Apparatus and method for processing three-dimensional image
KR20130056762A (en) Image display apparatus and method for operating the same