KR20110014067A - Method and system for transformation of stereo content - Google Patents

Method and system for transformation of stereo content Download PDF

Info

Publication number
KR20110014067A
KR20110014067A KR1020090113357A KR20090113357A KR20110014067A KR 20110014067 A KR20110014067 A KR 20110014067A KR 1020090113357 A KR1020090113357 A KR 1020090113357A KR 20090113357 A KR20090113357 A KR 20090113357A KR 20110014067 A KR20110014067 A KR 20110014067A
Authority
KR
South Korea
Prior art keywords
depth map
image
depth
pixel
stereo
Prior art date
Application number
KR1020090113357A
Other languages
Korean (ko)
Inventor
아르템 콘스탄티노비치 이그나토프
옥사나 바실리예브나 죠산
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to EP20100171778 priority Critical patent/EP2293586A1/en
Priority to US12/849,119 priority patent/US20110032341A1/en
Publication of KR20110014067A publication Critical patent/KR20110014067A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/002Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: A method and a system for transformation of stereo contents are provided to generate a stereo image of a reduced parallax by forming a modified stereo image based on a new image for a right eye and an initial image for a left eye. CONSTITUTION: A system calculates an initial depth map, and the calculation for the initial depth map is performed by a local matching method of a stereo view. The system removes abnormal pixels from an original depth map(202). Through the position variation of the images for left and right eyes, the system performs the adjustment of recognition of depths for the 3D TV contents.

Description

스테레오 컨텐트의 변환 방법 및 시스템{Method and system for transformation of stereo content}Method and system for transformation of stereo content

본 발명은 스테레오 이미지 및 비디오 정보를 처리하는 방법 및 시스템에 관한 것으로, 더욱 상세하게는 3D 비디오를 시청함에 있어서 눈의 피로를 감소시키기 위한 스테레오 컨텐트의 변환에 관한 방법 및 장치들에 관한 것이다.The present invention relates to a method and system for processing stereo image and video information, and more particularly, to a method and apparatus for the conversion of stereo content to reduce eye fatigue in watching 3D video.

3D (three-dimensional) TV는 일련의 이차원 이미지뿐만 아니라 삼차원 씬의 이미지들을 시청자에게 제공하는 3D TV가 현대 TV를 대신하게 될 것으로 예상된다. 3D TV 장치의 기능의 요구사항 중 하나는 시청에 있어서 향상된 안락함을 추구하고자 하는 시청자의 희망에 따라 깊이의 변화의 가능성을 제공하는 것이다. 이미지의 깊이의 제어의 가능성을 제공하기 위해서는, 새로운 뷰(이미지)를 합성하는 문제를 해결하는 것이 필요하다. 이미지의 입력 스테레오 쌍(stereo pairs)에 기초하여 계산되는 시차/깊이맵(disparity/depth map)으로부터 수신한 정보를 이용하여 새로운 가상 뷰(virtual view)는 합성된다. 변화된 깊이를 가지는 합성된 스테레오 쌍의 품질은 실제로 깊이맵의 품질에 달려있기 때문에, 정확한 시차 계산은 매우 어려운 문제이다. 따라서 3D 컨텐트를 시연하는 동안, 가상 뷰를 합성하기 위한 방법을 적 용할 기회를 가지기 위한 계속된 처리로 원시(최초) 시차/깊이맵을 생성하기 위해서 소정의 스테레오 쌍의 매칭(matching) 방법을 적용하는 것이 필요하다.Three-dimensional (3D) TVs are expected to replace modern TVs, which provide not only a series of two-dimensional images but also images of three-dimensional scenes to viewers. One of the requirements of the functionality of the 3D TV device is to provide the possibility of varying depths in accordance with the viewer's desire to seek enhanced comfort in viewing. In order to provide the possibility of controlling the depth of the image, it is necessary to solve the problem of composing a new view (image). A new virtual view is synthesized using the information received from the disparity / depth map calculated based on the input stereo pairs of the image. Accurate parallax computation is very difficult because the quality of the synthesized stereo pair with varying depth actually depends on the quality of the depth map. Therefore, while demonstrating 3D content, we apply a matching method of a given stereo pair to generate a raw (first) parallax / depth map with continued processing to have the opportunity to apply the method for synthesizing a virtual view. It is necessary to do

시차(disparity) 계산 또는 스테레오 쌍의 매칭 과정은 스테레오 뷰에 서 바이-픽셀 매핑 또는 포인트-위드-포인트 매핑(by-pixel mapping or point-with-point mapping)의 검출 문제를 맞이하게 된다. 둘 또는 그 이상의 이미지들은 카메라 세트들로부터 입력되고, 연결 맵(시차맵)은 출력으로 수신되고, 다른 이미지에서 유사한 포인트에 대하여 한 이미지의 각각의 포인트의 매핑을 디스플레이한다. 수신된 시차는 근처의 객체들에 대해서는 큰 값으로 표현될 것이고, 먼 객체들에 대해서는 작은 값으로 표현될 것이다. 따라서 변이 맵은 스테이지의 깊이의 반전으로 고려되는 것이 가능하다.Disparity calculation or matching of stereo pairs faces the problem of detection of bi-pixel mapping or point-with-point mapping in stereo views. Two or more images are input from the camera sets, a connection map (parallax map) is received as an output, and displays a mapping of each point of one image to similar points in another image. The received parallax will be represented by a large value for nearby objects and a small value for distant objects. Thus, the disparity map can be considered as an inversion of the depth of the stage.

스테레오 쌍의 매칭 알고리즘은 현재 픽셀의 근처에서 동작하는 로컬 알고리즘(local algorithm)과 전체 이미지에서 동작하는 전역 알고리즘(global algorithm)으로 나뉠 수 있다. 로컬 알고리즘은 지원 윈도우(support window)에서 시차의 계산된 함수는 평활하다는 가정에서 출발한다. 로컬 알고리즘의 수행의 결과는 일반적으로 매우 정확하지 않으나, 실시간 어플리케이션에서는 적용할 만하다. 반면에, 전역 알고리즘은 평활화의 양 함수(explicit function)를 사용하며, 그 후에 최적화 문제를 해결한다. 일반적으로, 그래프 섹션의 동적 프로그래밍 또는 알고리즘과 같은 복잡한 계산 방법의 사용을 요구한다.The matching algorithm of the stereo pair can be divided into a local algorithm operating near the current pixel and a global algorithm operating on the entire image. The local algorithm starts with the assumption that the calculated function of parallax in the support window is smooth. The result of running a local algorithm is generally not very accurate, but is applicable in real time applications. Global algorithms, on the other hand, use an explicit function of smoothing, which then solves the optimization problem. In general, this requires the use of complex computational methods, such as dynamic programming or algorithms in graph sections.

프로토타입의 결점은 다음과 같다. 프로토타입 방법에서, “배경” 모드 또는 “전경+배경”모드에서 입력 비디오를 어떻게 분류하는지 설명이 없다. 게다가, 시차방법에 의한 측정이 명확하지 않다. 시차맵의 계산은 매우 복잡한 태스크(task)이므로, 시차맵 계산의 방법은 정확하게 검출되어야 하며, 동시에 기존의 방법보다는 낮지 않은 품질을 제공하도록 하드웨어에 그것을 적용할 능력이 있어야 한다. 게다가, 하드웨어에 구현을 위해서는, 디바이스의 비용을 가능한 한 낮게 메모리의 자원을 사용하는 것이 중요하다. 따라서 계산의 횟수와 메모리의 볼륨에 대하여 낮은 요구사항을 가지는 고품질의 깊이 생성에 기초한 깊이 계산의 방법의 개발이 필요하다.The drawbacks of the prototype are: In the prototype method, there is no explanation how to classify the input video in "background" mode or "foreground + background" mode. In addition, the measurement by the parallax method is not clear. Since the calculation of the parallax map is a very complex task, the method of parallax map calculation must be accurately detected and at the same time have the ability to apply it to the hardware to provide a lower quality than conventional methods. In addition, for implementation in hardware, it is important to use the resources of the memory as low as possible the cost of the device. Therefore, it is necessary to develop a depth calculation method based on high quality depth generation with low requirements for the number of calculations and the volume of memory.

본 발명이 해결하고자 하는 기술적 과제는 3D 비디오를 시청할 때, 눈의 피로를 감소시키기 위한 스테레오 컨텐트의 변환 장치 및 방법을 제공하며, 다른 경우에는 3D TV 수신기에서 시연동안 깊이의 인식에 확실한 제어를 제공한다.SUMMARY OF THE INVENTION The technical problem to be solved by the present invention provides an apparatus and method for converting stereo content to reduce eye fatigue when watching 3D video, and in other cases, provides a definite control on the recognition of depth during the demonstration in a 3D TV receiver. do.

상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따라, 3D 비디오를 시청할 때, 눈의 피로를 감소시키기 위한 스테레오 컨텐트를 변환하는 방법에 있어서, 상기 3D 비디오로부터 스테레오 이미지에 대한 최초 깊이 맵(initial depth map)을 계산하는 단계; 상기 깊이맵을 평활화하는 단계; 눈의 피로 측정에 따라 깊이 지각 파라미터(depth perception parameter)를 변화하는 단계; 및 상기 깊이 지각 파라미터에 따라 새로운 스테레오 이미지를 생성하는 단계를 포함한다.According to an embodiment of the present invention for solving the above technical problem, a method of converting stereo content for reducing eye fatigue when watching 3D video, the initial depth map for the stereo image from the 3D video ( calculating an initial depth map; Smoothing the depth map; Changing the depth perception parameter in accordance with eye fatigue measurements; And generating a new stereo image according to the depth perception parameter.

상기 기술적 과제를 해결하기 위한 본 발명의 다른 실시예에 따라, 3D 비디오를 시청할 때 눈의 피로를 감소시키기 위한 스테레오 컨텐트 변환 시스템에 있어서, 입력된 스테레오 이미지에 기초하여 깊이맵을 계산하고, 상기 깊이맵을 평활화하는 깊이맵 계산 및 평활화부; 깊이 지각을 조정하는 깊이 제어부; 및 상기 조정된 깊이 지각에 따라 새로운 스테레오 이미지를 생성하는 시각화부를 포함한다.According to another embodiment of the present invention for solving the technical problem, in the stereo content conversion system for reducing eye fatigue when watching 3D video, calculating a depth map based on the input stereo image, the depth Depth map calculation and smoothing unit for smoothing the map; A depth controller for adjusting the depth perception; And a visualization unit generating a new stereo image according to the adjusted depth perception.

스테레오 컨텐트에 기초한 깊이의 계산은 특히, 균일 사이트(비-텍스쳐 영역)(uniform site(non-texture area)), 깊이 불연속 사이트, 폐색 사이트(occlusion site) 및 모호한 결정을 유도하는 반복되는 그림(템플릿)에 대한 표면에 대하여 복잡한 태스크이다. 이것은, 신뢰성이 있거나 명백한 깊이 세트 값은 매우 적다는 것을 의미한다. 예를 들어, 이들 영역들은 오직 한 이미지에서는 관찰이 가능하므로, 예를 들어, 폐색(예를 들어, 블로킹된) 영역들에 대한 어떤 깊이 값들은 매칭을 통하여 계산이 되지 않는다. 고 품질의 가상 뷰 합성 과정은 1) 조밀 깊이맵(dense depth map), 2) 객체의 가장자리와 정확하게 일치하는 깊이의 정확한 가장자리, 3) 객체의 한계 안에서 깊이의 레벨화된 값을 요구한다.Depth calculations based on stereo content are particularly useful for uniform sites (non-texture areas), depth discontinuities, occlusion sites, and repeated pictures (templates) that lead to ambiguous decisions. This is a complex task for surfaces. This means that there is very little reliable or apparent depth set value. For example, these areas are observable in only one image, so that some depth values for, for example, occluded (eg, blocked) areas are not calculated through matching. The high quality virtual view synthesis process requires 1) a dense depth map, 2) an exact edge of depth that exactly matches the edge of the object, and 3) a leveled value of depth within the limits of the object.

이와 관련하여, 가상 뷰(virtual view)의 합성 과정은 눈에 보이는 아티팩트(artifact)를 생성하지 못했고, 실제 깊이에 대한 최대 근사화를 제공하기 위해서는 모호한 깊이 값을 검출하고 교정하는 것이 필요하다. 종래 기술의 해법은 기본적으로 동적 프로그래밍, 그래프 섹션, 세그먼테이션에 의한 스테레오 쌍의 매칭 등과 같은 다양한 최적화 전략을 사용한다. 그러나 그러한 해법들은 높은 계산 리소스를 요구하고, 아티팩트가 없고, 뷰의 합성에 적합한 부드러운 깊이맵을 생성하지 못한다.In this regard, the synthesis process of the virtual view did not produce visible artifacts, and it is necessary to detect and correct ambiguous depth values in order to provide maximum approximation to the actual depth. The prior art solutions basically use various optimization strategies such as dynamic programming, graph sections, matching of stereo pairs by segmentation, and the like. However, such solutions require high computational resources, no artifacts, and do not produce a smooth depth map suitable for compositing the view.

제공된 방법에서는 시차 계산에 대한 전역(global) 방법을 사용한 최적화보다는 로컬 윈도우에서 빠른 최초 깊이맵 정련(initial depth map refinement)에 집중할 것이다. 최초 깊이맵은 스테레오 뷰의 로컬 매칭 방법으로 획득될 수 있다. 일반적으로, 그러한 종류의 깊이는 특히 로우 텍스쳐링된 영역(areas with low texture) 및 폐색 영역에서 매우 잡음이 많다. 이 방법의 중요 아이디어는 평활화에 대하여 가중치 평균 필터(weighted average filter) 및 레퍼런스 컬러 이미지(reference color image) 및 신뢰성 높은 깊이 픽셀에 기초한 최초 깊이맵 정련을 사용하는 것으로 이루어져 있다. 일정한 근처에서 유사한 컬러를 가진 픽셀에 대한 깊이 값은 유사하다는 가정이 이루어진다. 따라서 신뢰성 높은 깊이 값은 컬러의 유사성 및 레퍼런스 컬러 이미지에서의 근접성에 기초하여 불확실한 픽셀에 부여될 수 있다. 게다가, 그러한 필터링은 신뢰성있는 깊이로 픽셀을 특정하고, 조밀하고 평활한 깊이 맵을 형성하여, 깊이맵에 대한 상기 요구 사항을 만족시킨다.The method provided will focus on initial initial depth map refinement in the local window rather than optimization using the global method for parallax calculation. The initial depth map may be obtained by a local matching method of the stereo view. In general, such kind of depth is very noisy, especially in areas with low texture and occlusion. An important idea of this method consists in using a weighted average filter and reference color image and initial depth map refinement based on reliable depth pixels for smoothing. The assumption is made that the depth values for pixels with similar color in a given vicinity are similar. Thus, a reliable depth value can be assigned to an uncertain pixel based on the similarity of color and proximity in the reference color image. In addition, such filtering specifies pixels with reliable depth and forms a dense and smooth depth map, meeting the above requirements for depth maps.

제공된 방법은 현재 픽셀이 비이상적인지(신뢰성 없는지) 아닌지에 대해 다수의 기술적 정의를 사용한다. 신뢰성 없는 픽셀은 필터링 과정으로부터 그들의 예외에 대하여 마스크(mask)의 어떤 값에 의하여 마킹된다. 다양한 기술들이 픽셀의 신뢰성 평가를 위하여 사용될 수 있다. 제안된 방법에서 깊이 값의 크로스-체크가 좌측 또는 우측에 적용될 수 있다. 다른 말로, 대응되는 포인트에 좌측 및 우측에서 깊이 값의 차이가 임계값보다 적은 경우, 깊이 값은 신뢰성 있는 것으로 간주된다. 그렇지 않으면, 그들은 비이상적인 것으로 마킹되고, 평활화 과정에서 삭제된다. 그러나 객체의 폐색 또는 깊이맵의 잡음이 있는 경우 비이상적 픽셀의 성공적인 처리를 위하여 큰 커널(kernel)을 가진 필터가 요구된다. 제공된 방법은 필터의 커널의 크기의 감소를 위해서 재귀적 구현에 기초하고 있다. 재귀적 구현은 필터링의 결과가 최초 버퍼에 저장된다. 이는 좀 더 적은 반복으로 좀 더 빠른 알고리즘의 컨버전스(convergence)를 이끌 수 있다.The provided method uses a number of technical definitions as to whether the current pixel is non-ideal (unreliable) or not. Unreliable pixels are marked by some value of a mask for their exception from the filtering process. Various techniques can be used to evaluate the reliability of the pixel. In the proposed method a cross-check of the depth value can be applied to the left or the right. In other words, if the difference in depth values at the left and right at the corresponding point is less than the threshold, the depth value is considered to be reliable. Otherwise, they are marked non-ideal and deleted during the smoothing process. However, in the case of object occlusion or noise in the depth map, a filter with a large kernel is required for successful processing of non-ideal pixels. The method provided is based on a recursive implementation for reducing the kernel's size of the filter. In a recursive implementation, the result of the filtering is stored in the initial buffer. This can lead to faster convergence of algorithms with fewer iterations.

제공된 방법에서, 깊이맵에서 비이상적 픽셀을 검출하는 아이디어가 분석되었다. 원시 깊이 맵의 잡음을 제거하기 위하여, 히스토그램의 분석이 적용되었다. 깊이맵의 잡음 값은 히스토그램의 낮고 높은 가장자리에서 웨이브에 의하여 표현된다. 도 7(c)를 참조하라. 히스토그램의 컷이 비이상적 픽셀을 제거하기 위하여 그 가장자리에 적용되었다. 메모리의 라인에 저장된 정보에 기초하여 구성된 로컬 히스토그램을 사용하고, 그 결과 전체 이미지를 작업할 필요가 없기 때문에, 히스토그램의 컷 방법은 하드웨어에서 구현하기에 적합하다.In the provided method, the idea of detecting non-ideal pixels in the depth map was analyzed. To remove the noise of the raw depth map, the histogram analysis was applied. The noise value of the depth map is represented by the wave at the low and high edges of the histogram. See Figure 7 (c). Cuts in the histogram were applied to the edges to remove non-ideal pixels. The method of cutting the histogram is suitable for implementation in hardware because it uses a local histogram constructed based on the information stored in the line of memory, and as a result does not need to work on the entire image.

로우 텍스쳐링된 사이트에서 최초 깊이맵의 노이즈를 효과적으로 제거하기 위하여, 그러한 사이트에서 깊이 평활화 알고리즘은 평활화 필터를 더 강하게 설정하여 처리한다. 대응하는 컬러 이미지의 하이 텍스쳐링된 사이트 및 로우 텍스쳐링된 사이트의 이진 마스킹을 위하여 특별한 그래디언트 필터를 사용한다. 그래디언트 필터는 로컬 윈도우에서 네 가지 형태의 그래디언트를 계산하기 때문에, 하드웨어에서 구현하기에 적합하다.In order to effectively remove the noise of the original depth map at the low texturized site, the depth smoothing algorithm at such a site sets and processes the smoothing filter more strongly. A special gradient filter is used for the binary masking of the high textured and low textured sites of the corresponding color image. The gradient filter is suitable for hardware implementation because it computes four different gradients in the local window.

본 발명의 일 실시예에서, 방법은 높은 품질의 깊이맵을 생성하고, 뷰의 합성에 깊이 인식의 조정된 파라미터를 제공한다. 도 13은 본 발명의 일 실시예에 따른 적용의 결과를 나타낸다. 결과들은 알고리즘의 3회 반복으로 메모리의 라인 일곱 개의 사용으로 수신된다. 이들 예로부터, 로컬 윈도우에서 동작하는 매우 적은 반복 동안 깊이맵의 노이즈를 정련하는 능력을 부여하는 것을 볼 수 있다. 그래픽 요소를 가진 본 발명의 본질이 더 기술될 것이다.In one embodiment of the invention, the method produces a high quality depth map and provides adjusted parameters of depth perception to the composition of the view. Figure 13 shows the results of the application according to one embodiment of the present invention. The results are received with the use of seven lines of memory in three iterations of the algorithm. From these examples, one can see that it gives the ability to refine the noise of the depth map during very few iterations operating in the local window. The nature of the invention with graphical elements will be further described.

첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 3D 비디오를 시청할 때, 눈의 피로를 감소시키기 위한 스테레오 컨텐트 변환 시스템을 나타내는 도면이다. 도 1을 참조하면, 시스템은 각각 서로 연결되어 있으며, 깊이맵의 계산 및 평활화부(block of computation and smoothing of depth map; 101), 깊이 제어부(block of depth control; 102) 및 시각화부(block of visualization; 103)를 포함한다. 계산 및 평활화부(101)는 스테레오 이미지(스테레오-뷰 이미지)에 기초하여 깊이맵을 계산한다. 본질적으로, 깊이맵은 깊이 제어부(102)에 의하여 조정된 깊이의 인식 파라미터들에 따라 시각화부(103)에 의한 새로운 스테레오- 이미지(변환된 스테레오-뷰)의 생성을 필요로 한다. 계산 및 평활화부(101)는 아래에 상세하게 기술된다.1 is a diagram illustrating a stereo content conversion system for reducing eye fatigue when watching 3D video according to an embodiment of the present invention. Referring to FIG. 1, the systems are connected to each other, and a block of computation and smoothing of depth map 101, a block of depth control 102, and a block of visualization; The calculation and smoothing unit 101 calculates a depth map based on the stereo image (stereo-view image). In essence, the depth map requires the creation of a new stereo-image (transformed stereo-view) by the visualization unit 103 in accordance with the recognition parameters of the depth adjusted by the depth control unit 102. The calculation and smoothing unit 101 is described in detail below.

도 2는 본 발명의 일 실시예에 따른 3D 비디오를 시청할 때 눈의 피로를 감소시키기 위한 스테레오 컨텐트의 변환에 관한 방법을 나타내는 흐름도이다. 3D 비디오를 시청할 때 눈의 피로를 감소시키기 위한 스테레오 컨텐트의 변환에 관한 방법의 구현을 단계별로 고려할 것이다.2 is a flowchart illustrating a method for converting stereo content to reduce eye strain when watching 3D video according to an embodiment of the present invention. We will consider step by step the implementation of a method for the conversion of stereo content to reduce eye strain when watching 3D video.

단계 201에서, 최초 깊이맵의 계산이 이루어진다. 최초 깊이맵(initial depth map)의 계산은 일반적인 스테레오 뷰의 로컬 매칭 방법을 이용하여 수행된다. 원시 깊이맵(raw depth map)이 최초 깊이맵의 계산 단계에서 계산된 후에, 깊이 제어 방법은 깊이맵의 평활화 단계인 202 단계로 이동한다. 202 단계는 원시 깊이맵으로부터 비이상적인 픽셀들(abnormal pixels)을 제거하고, 깊이 인식 파라미터들에 따라 뷰의 표현에 적합하게 하기 위한 것이다. 깊이맵의 평활화 방법은 아래에 자세히 기술될 것이다.In step 201, an initial depth map is calculated. The calculation of the initial depth map is performed using the local matching method of the general stereo view. After the raw depth map is calculated in the calculation step of the initial depth map, the depth control method moves to step 202, which is a smoothing step of the depth map. Step 202 is to remove the abnormal pixels from the raw depth map and to fit the representation of the view according to the depth recognition parameters. The method of smoothing the depth map will be described in detail below.

깊이 제어 방법의 다음 단계인 단계 203은 관찰 가능한 3D TV 컨텐트의 깊이 인식의 조정(adjustment of recognition of depth)으로 이루어진다. 그것은 좌안 및 우안에 대한 이미지들의 위치 변환으로 수행된다. 본 발명의 일 실시예에서, 0 에서 1까지 변화하는 파라미터 D는 깊이 파라미터의 지각(perception)을 제어한다. 파라미터 D는 우측 뷰의 위치에 대응한다. 공간에서 좌안과 우안에 대한 이미지들이 일치할 경우, 값 1은 입력 스테레오 뷰의 컨피그레이션(configuration)에 대응하고, 0 값은 단안 (單眼) 표현의 경우를 의미한다. 이 파라미터의 설정에 있어서 신뢰할 수 있는 값은 0.1에서 1까지의 범위에 있다.Step 203, the next step in the depth control method, consists of an adjustment of recognition of depth of observable 3D TV content. It is done by repositioning the images for the left and right eyes. In one embodiment of the invention, the parameter D, which varies from 0 to 1, controls the perception of the depth parameter. Parameter D corresponds to the position of the right view. If the images for the left and right eyes in space coincide, a value of 1 corresponds to the configuration of the input stereo view, and a value of 0 means for monocular representation. The reliable value for setting this parameter is in the range of 0.1 to 1.

단계 204에서, 깊이 제어 방법은 파라미터 D의 값에 기초하여 우안에 대한 새로운 뷰를 형성한다. 단계 203에서 계산된 깊이맵으로서 시차맵에 기초하여, 우안에 대한 새로운 뷰는 보간에 의하여 합성될 수 있고, 좌안과 우안에 대한 최초 이미지들 사이에 픽셀들의 매핑을 나타낸다. 우안에 대한 새로운 이미지와 같이 좌안에 대한 최초 이미지는 수정된 스테레오 이미지를 형성하고, 최초 스테레오 이미지와 비교하여 감소된 시차(parallax)를 가진다. 감소된 시차(parallax)를 가진 생성된 스테레오 이미지는 3D TV를 오랫동안 시청 동안, 눈의 피로를 감소시킨다.At step 204, the depth control method forms a new view for the right eye based on the value of parameter D. Based on the parallax map as the depth map calculated in step 203, a new view for the right eye can be synthesized by interpolation, indicating the mapping of pixels between the left and right eye images. Like the new image for the right eye, the initial image for the left eye forms a modified stereo image and has a reduced parallax compared to the original stereo image. The generated stereo image with reduced parallax reduces eye fatigue while watching 3D TV for a long time.

도 3은 본 발명의 일 실시예에 따른 재귀적 필터링(recursive filtration)에 기초한 깊이맵 평활화 시스템을 나타내는 블록 다이어그램이다.3 is a block diagram illustrating a depth map smoothing system based on recursive filtration according to an embodiment of the present invention.

도 3을 참조하면, 깊이맵 평활화 시스템은 전처리부(block of pre-processing; 320), 최초 깊이맵 계산부(block of computation of initial depth map; 330), 깊이맵 평활화부(block 340 of smoothing of a depth map; 340) 및 시간 필터링부(temporal filtering; 350)를 포함한다. 스테레오 이미지는 평활화 시스템에서 입력 데이터로서 사용된다. 스테레오 이미지는 분리된 이미지의 형태로 제공될 수도 있고, 비디오 프레임들에 기초하여 이루어진 형태로 제공될 수도 있 고, 스테레오-카메라로부터 수신할 수도 있다. 다수의 카메라에 의하여 찍는 경우, 선택된 카메라들로부터의 이미지 쌍은 스테레오 이미지를 형성할 수 있다. 필요한 계산을 수행한 후에 깊이맵 평활화 시스템은 선택된 뷰에 대하여 밀집 깊이맵(dense depth map)을 생성한다.Referring to FIG. 3, the depth map smoothing system includes a block of pre-processing 320, a block of computation of initial depth map 330, and a depth map smoothing block 340 of smoothing of a depth map 340 and temporal filtering 350. Stereo images are used as input data in the smoothing system. The stereo image may be provided in the form of a separate image, may be provided based on video frames, or may be received from a stereo-camera. When taken by multiple cameras, image pairs from selected cameras may form a stereo image. After performing the necessary calculations, the depth map smoothing system generates a dense depth map for the selected view.

전처리부(320)는 최초 깊이맵 계산부(330) 및 깊이맵 평활화부(340)에서의 효과적인 처리를 위하여 스테레오 이미지를 준비한다. 전처리부(320)는 스테레오 이미지 전처리부(block of pre-processing of the stereo image; 321) 및 레퍼런스 이미지 세그먼테이션부(block of segmentation of the reference image; 322)를 포함한다. 스테레오 이미지 전처리부(321)는 두 개의 주 기능을 가진다. 첫째, 최초 스테레오 이미지로부터 각각의 뷰에 대응하는 분리된 이미지들을 선택한다. 이미지들은 레퍼런스 및 매칭에 따라 다시 나뉜다. 레퍼런스 이미지는, 스테레오 쌍으로부터 생성된, 깊이맵이 평활화되기 위한 이미지이다. 매칭 이미지는 스테레오 쌍과는 다른 이미지이다. 따라서 레퍼런스 깊이맵은 레퍼런스 이미지에 관한 깊이맵이고, 매칭 깊이맵은 매칭 이미지의 맵이다.The preprocessor 320 prepares a stereo image for effective processing in the initial depth map calculator 330 and the depth map smoother 340. The preprocessor 320 includes a block of pre-processing of the stereo image 321 and a block of segmentation of the reference image 322. The stereo image preprocessor 321 has two main functions. First, select separate images corresponding to each view from the original stereo image. The images are subdivided by reference and matching. The reference image is an image for smoothing the depth map generated from the stereo pair. The matching image is an image different from the stereo pair. Thus, the reference depth map is a depth map for the reference image, and the matching depth map is a map of the matching image.

입력 비디오 스트림은 다양한 포맷으로 코딩될 수 있다. 가장 널리 퍼진 포맷들은 좌우 오리엔테이션(orientation), 상하 오리엔테이션, 체스보드 포맷 및 시간 사이트에서 프레임들이 분리된 좌우 오리엔테이션의 사용에 기초하고 있다. 좌우 오리엔테이션(501) 및 상하 오리엔테이션(502)의 예가 도 5(a) 및 도 5(b)에 도시되어 있다. 도 5(a) 및 도(b)는 다양한 스테레오 프레임의 오리엔테이션의 예를 나타내는 도면이다. 도 5(a)는 좌우 오리엔테이션을 가지는 스테레오 프레임을 나 타내고 있으며, 도 5(b)는 상하 오리엔테이션을 가지는 스테레오 프레임을 나타내고 있다. 깊이맵의 계산을 위해서는, 최초 컬러 이미지들은 노이즈를 제거하는 공간 필터(spatial filter)에 의하여 처리되어야 한다. 이를 위해서 가우스 필터(Gauss's filter)를 사용하는 것이 가능하다. 그러나 어떠한 필터도 적용될 수 있다. 이런 기능들은 스테레오 이미지 전처리부(321)에 의하여 구현된다. 레퍼런스 이미지 세그먼테이션부(322)는 레퍼런스 이진 마스크(reference binary mask)를 생성한다. 이진 마스크는 하이 텍스쳐링 및 로우 텍스쳐링된 사이트(sites with the high and low texture)에서 이미지의 세그먼테이션에 대응한다. 사이트가 로우 텍스쳐링된 것으로 간주되는 경우, 이진 마스크의 픽셀들은 유닛(unit)으로 인덱싱된다. 다른 경우, 사이트가 하이 텍스쳐링된 것으로 간주되는 경우 마스크의 픽셀들은 0으로 인덱싱된다. 그래디언트 필터(Gradient filter)는 텍스쳐의 근거 수준(degree of evidence)을 검출하는 로컬 윈도우(local window)에서 사용된다.The input video stream can be coded in various formats. The most prevalent formats are based on the use of left and right orientation, top and bottom orientation, chessboard format, and left and right orientation with frames separated at the time site. Examples of left and right orientation 501 and up and down orientation 502 are shown in Figs. 5 (a) and 5 (b). 5 (a) and (b) are diagrams showing examples of orientation of various stereo frames. FIG. 5 (a) shows a stereo frame having left and right orientation, and FIG. 5 (b) shows a stereo frame having up and down orientation. For the calculation of the depth map, the original color images must be processed by a spatial filter to remove noise. It is possible to use a Gaussian filter for this purpose. However, any filter can be applied. These functions are implemented by the stereo image preprocessor 321. The reference image segmentation unit 322 generates a reference binary mask. Binary masks correspond to segmentation of the image at sites with the high and low texture. If the site is considered to be low textured, the pixels of the binary mask are indexed in units. In other cases, the pixels of the mask are indexed to zero if the site is considered high textured. Gradient filters are used in the local window to detect the degree of evidence of the texture.

최초 깊이맵 계산부(330)는 로컬 매칭의 표준적인 방법을 사용하여 깊이맵의 근사 계산(approximate computation)을 수행한다. 이것은 레퍼런스 깊이맵 계산부(block of computation of a reference depth map; 331) 및 매칭 깊이맵 계산부( block of computation of matching depth map; 332)에서 구현된다. 최초 깊이맵 계산부(330)의 다른 기능들은 근사 깊이맵(approximate depth map)에서 비정상적인 픽셀들(abnormal pixels)을 검출하는데 관계한다. 이 맵의 크로스-체크(cross-check)가 깊이맵의 연속성 체크부(block of checking of consistency of depth map; 334)에 의하여 수행되는 동안, 깊이맵의 히스토그램의 컷(cut)은 레퍼런스 깊 이맵의 히스토그램 분석부(block of the analysis of the histogram of a reference depth map; 333)에서 수행된다. 마킹된 비정상적인 픽셀들로 이루어진 레퍼런스 및 매칭 깊이맵들은 최초 깊이맵 계산부(330)의 출력이 된다.The first depth map calculator 330 performs approximate computation of the depth map using a standard method of local matching. This is implemented in a block of computation of a reference depth map 331 and a block of computation of matching depth map 332. Other functions of the original depth map calculator 330 relate to detecting abnormal pixels in an approximate depth map. While the cross-check of this map is performed by the block of checking of consistency of depth map 334, the cut of the histogram of the depth map is determined by the reference depth map. The histogram analysis unit (block of the analysis of the histogram of a reference depth map; 333). Reference and matching depth maps composed of marked abnormal pixels become an output of the initial depth map calculator 330.

깊이맵 평활화부(340)는 원시 깊이맵들(매칭 및 레퍼런스 깊이맵)의 재귀적 필터링에 의하여 깊이맵을 정련(refine)한다. 깊이맵은 깊이맵 필터링부(block of filtration of depth; 342)에서 필터링된다. 필요한 반복의 수는 반복 제어부(block of control of iterations; 341)에 의하여 정해진다. 각각의 반복 제어부(341)가 필터링 과정 동안 컨버전스 기준(criteria of convergence)을 계산한다. 본 발명의 바람직한 일 실시예에서는, 컨버전스 기준의 구현에 있어서 두 개의 변수들이 아래에 설명될 것이다. 컨버전스 기준의 첫 번째 변수는 시차맵의 인접 계산들 사이에 나머지 이미지(residual image)를 계산한다. 나머지 픽셀들의 합은 시차맵의 계산의 컨버전스 임계값 Tdec1을 초과해서는 안 된다. 컨버전스 기준은 깊이맵 필터링의 반복 횟수로써 다른 방법에 의하여 형식으로 나타내져야 한다. 반복의 수가 시차맵 계산의 컨버전스 임계값 Tdec2를 초과하는 경우, 필터링 과정은 종료한다.The depth map smoothing unit 340 refines the depth map by recursive filtering of raw depth maps (matching and reference depth maps). The depth map is filtered by a block of filtration of depth 342. The number of iterations required is determined by the block of control of iterations 341. Each iteration control unit 341 calculates a criterion of convergence during the filtering process. In one preferred embodiment of the present invention, two variables in the implementation of the convergence criteria will be described below. The first variable of the convergence criterion calculates the residual image between adjacent calculations of the parallax map. The sum of the remaining pixels must not exceed the convergence threshold T dec1 of the calculation of the parallax map. The convergence criterion is the number of iterations of depth map filtering and must be expressed in a different way. If the number of iterations exceeds the convergence threshold T dec2 of the disparity map calculation, the filtering process ends.

후처리부(block of post-processing; 343)는 계산된 깊이맵들을 최종적으로 특정하는 것을 목적으로 한다. 즉, 후처리부(343)는 측정된 깊이 맵을 최종 정련을 목적으로 한다. 본 발명의 바람직한 일 실시예에서는, 후처리부(343)는 중간값 필터부(block of median filter; 미도시)로 구성된다. 중간값 필터링은 최신 기술로 알려져 있다. 따라서 중간값 필터부에 대해서는 설명하지 않기로 한다. 이미지의 품질을 향상시키기 위한 다른 관점의 필터들이 후처리부(343)의 목적을 변화시키지 않은 채 후처리부(343)에 적용될 수 있다. 결국, 평활화된 깊이맵(레퍼런스 및 매칭 깊이맵)을 수신하는 것이 요구된다.The block of post-processing 343 aims to finally specify the calculated depth maps. That is, the post-processing unit 343 aims to final refine the measured depth map. In one preferred embodiment of the present invention, the post processor 343 is comprised of a block of median filter (not shown). Median filtering is known in the state of the art. Therefore, the intermediate value filter section will not be described. Filters of other aspects for improving the quality of the image may be applied to the post processor 343 without changing the purpose of the post processor 343. As a result, it is required to receive the smoothed depth map (reference and matching depth map).

시간 필터부(350)는 시간으로 깊이맵을 필터링한다. 시간 필터부(350)는 대응하는 컬러 이미지들로 이루어진 다수의 깊이 프레임들을 저장하는 프레임의 버퍼(buffer of frame; 351)와 대응하는 컬러 이미지들로부터의 정보를 이용하여 깊이맵의 인터프레임 필터링을 수행하는 깊이맵 시간 필터부(block of temporal filter of depth; 352)로 구성된다.The time filter unit 350 filters the depth map by time. The temporal filter unit 350 performs interframe filtering of the depth map using information from the color images corresponding to the buffer of the frame 351 storing a plurality of depth frames of the corresponding color images. A depth map temporal filter (block of temporal filter of depth) 352 is performed.

도 4는 본 발명의 일 실시예에 따른 재귀적 필터링에 기초한 깊이맵의 평활화 방법에 대한 구체적인 흐름도를 나타내는 도면이다. 재귀적 필터링에 기초한 깊이의 평활화 방법에 대하여 단계별 구현을 고려할 것이다. 단계 401은 컬러 이미지들을 전처리한다. 전처리는 작은 윈도우, 예를 들어 5×5 픽셀들에서 가우스 필터에 의하여 컬러 이미지들을 필터링한다. 필터링의 결과는 컬러 이미지들의 노이즈에 의하여 억제된다. 인접한 픽셀들의 가중 평균(weighed averaging)이 깊이맵의 평활화에 사용됨으로써, 본질적으로 깊이맵의 평활화의 품질에 영향을 준다. 가중치는 컬러 이미지들에 기초하여 계산된다. 4 is a flowchart illustrating a detailed method of smoothing a depth map based on recursive filtering according to an embodiment of the present invention. A step-by-step implementation will be considered for the depth smoothing method based on recursive filtering. Step 401 preprocesses the color images. The preprocessing filters the color images by a Gaussian filter in a small window, for example 5x5 pixels. The result of the filtering is suppressed by the noise of the color images. The weighted averaging of adjacent pixels is used to smooth the depth map, thereby essentially affecting the quality of the depth map smoothing. The weight is calculated based on the color images.

단계 402는 레퍼런스 깊이맵의 히스토그램을 분석 및 컷하는 깊이의 평활화 방법이다. 히스토그램의 컷은 깊이맵의 노이즈를 억제하기 위하여 사용된다. 원시 깊이맵은 비이상적 픽셀들의 중요한 개수를 포함할 수 있다. 폐색 사이트 및 로우 텍스쳐링된 사이트에서의 부정확한 매칭 때문에 노이즈는 나타날 수 있다. 본 발명의 일 실시예에서는 두 개의 임계값, 히스토그램의 하부에 임계값 B 및 히스토그램의 상부에 임계값 T를 제공한다. 이들 임계값들은 비이상적 픽셀들에 대하여 α및 β %로부터 자동적으로 계산된다. α는 모든 이미지 픽셀에 대한 히스토그램의 컷 하부 아래에 있는 이미지의 픽셀들의 비율에 대응되고, β는 모든 이미지 픽셀에 대한 히스토그램의 컷 상부 위에 있는 픽셀들의 비율에 대응하며, 임계값 B와 T는 아래의 수학식 1 및 수학식 2와 같이 계산된다.Step 402 is a depth smoothing method of analyzing and cutting the histogram of the reference depth map. Cuts in the histogram are used to suppress noise in the depth map. The raw depth map may contain a significant number of non-ideal pixels. Noise may appear due to incorrect matching at occlusion sites and low textured sites. One embodiment of the present invention provides two thresholds, a threshold B at the bottom of the histogram and a threshold T at the top of the histogram. These thresholds are automatically calculated from α and β% for non-ideal pixels. α corresponds to the ratio of pixels in the image below the cut bottom of the histogram for all image pixels, β corresponds to the ratio of pixels above the cut top of the histogram for all image pixels, and thresholds B and T are below Is calculated as in Equation 1 and Equation 2 below.

Figure 112009071819593-PAT00001
Figure 112009071819593-PAT00001

Figure 112009071819593-PAT00002
Figure 112009071819593-PAT00002

수학식 1 및 수학식 2에서 H(c)는 히스토그램의 값, M은 1바이트가 255와 같은 최대 픽셀 레벨, Nx는 이미지의 폭이며, Ny는 이미지의 높이를 나타낸다. 예를 들어, 이미지의 픽셀의 α=β=5%에 대응하는 임계값의 예가 도 6에 도시되어 있다. 도6은 깊이의 히스토그램을 나타내는 도면으로, 도 6에서 히스토그램의 가장 어두운 사이트의 5%와 가장 밝은 사이트의 5%가 검정색으로 표시되어 있다. 이 경우 B 는 48 및 T는 224의 값을 가진다. 깊이맵의 히스토그램의 컷의 하나의 예가 도 7(a) 내지 도 7(c)에 더 도시되어 있다. 도 7(a) 내지 도 7(c)는 깊이의 히스토그램의 컷에 대한 예를 나타낸 도면으로, 도 7(a)는 컬러 이미지이고, 도 7(b)는 대응되는 깊이맵이고, 도 7(c)는 가장 어두운 픽셀의 6 %와 가장 밝은 픽셀의 3%에 대한 임계 컷의 깊이 히스토그램을 나타내고 있다. 도 7(c)에서의 히스토그램은 이미지의 모든 데이터를 사용하여 구성된다. 그러나 하드웨어의 구현에 있어서, 로컬 히스토그램은 메모리 라인에서 현재 이용 가능한 정보에 기초하여 계산될 수 있다.In Equation 1 and Equation 2, H (c) is the value of the histogram, M is the maximum pixel level 1 byte equal to 255, N x is the width of the image, N y represents the height of the image. For example, an example of a threshold corresponding to α = β = 5% of the pixels of the image is shown in FIG. 6. 6 shows a histogram of depth, in which 5% of the darkest sites and 5% of the brightest sites of the histogram are shown in black. In this case B has a value of 48 and T has a value of 224. One example of a cut of the histogram of the depth map is further shown in Figs. 7 (a) to 7 (c). 7 (a) to 7 (c) are diagrams showing examples of cuts of histograms of depth, FIG. 7 (a) is a color image, FIG. 7 (b) is a corresponding depth map, and FIG. 7 ( c) shows the histogram of the depth of the critical cut for 6% of the darkest pixel and 3% of the lightest pixel. The histogram in Fig. 7 (c) is constructed using all the data of the image. However, in hardware implementations, the local histogram can be calculated based on the information currently available on the memory line.

다음으로 단계 403에서, 깊이맵의 연속성(균일성) (consistency(uniformity))을 체크한다. 과정은 깊이맵이 정확하게 계산되기 위하여 연속적인 픽셀들을 검출한다. 제공된 깊이맵 평활화 방법은 비이상적 픽셀들을 검출하기 위하여 크로스-체크하는데 기초하고 있다.Next, in step 403, the consistency (uniformity) of the depth map is checked. The process detects successive pixels in order for the depth map to be calculated correctly. The provided depth map smoothing method is based on cross-checking to detect non-ideal pixels.

도 8에 따라 절차는 다음과 같이 구현된다.According to FIG. 8, the procedure is implemented as follows.

1. 레퍼런스 시차맵의 벡터(레퍼런스 시차 벡터; reference disparity vector; ‘RDV’)는 레퍼런스 깊이맵의 값에 기초하여 계산된다.1. The vector of the reference parallax map (reference disparity vector; 'RDV') is calculated based on the value of the reference depth map.

2. RDV를 통하여 디스플레이된 매칭 깊이맵의 값을 추출 2. Extract the value of the matching depth map displayed through RDV

3. 매칭 시차맵의 벡터(매칭 시차 벡터; matching disparity vector; ‘MDV’)는 매칭 깊이맵의 값에 기초하여 계산된다.3. The vector of the matching disparity map (matching disparity vector; 'MDV') is calculated based on the value of the matching depth map.

4. RDV와 MDV 절대값의 시차맵의 차이(시차 차이; disparity difference; ‘DD’)가 계산된다.4. The difference (disparity difference; DD) of the disparity map between the absolute values of RDV and MDV is calculated.

5. DD가 임계치를 초과하는 경우, 레퍼런스 시차맵의 픽셀은 비이상적인 것 으로 마킹된다.5. If the DD exceeds the threshold, the pixels of the reference parallax map are marked as non-ideal.

깊이의 크로스-체크의 절차에 따라 마킹된 노이즈 픽셀들을 가지는 깊이맵의 예가 도 9(c)에 도시되어 있다. 도 9(a) 내지 도 9(c)는 깊이의 크로스-체크의 예를 나타내는 도면으로, 도 9(a)는 깊이의 좌측 이미지이고, 도 9(b)는 깊이의 우측 이미지이고, 도 9(c)는 검정색으로 마킹된 비이상적 픽셀로 이루어진 좌측 깊이를 나타내고 있다. 시차맵의 크로스-체크에 대한 임계값은 2로 설정되었고, 노이즈 픽셀들은 0으로 마킹된 결과가 도 9(c)에 나타나 있다.An example of a depth map with noise pixels marked according to the procedure of cross-checking of depth is shown in FIG. 9 (c). 9 (a) to 9 (c) show examples of cross-check of depth, in which FIG. 9 (a) is a left image of depth, FIG. 9 (b) is a right image of depth, and FIG. 9 (c) shows the left depth of the non-ideal pixel marked with black. The threshold value for the cross-check of the parallax map is set to 2, and the noise pixels are marked with 0, and the result is shown in FIG. 9C.

단계 404에서, 하이 및 로우 텍스쳐링된 사이트들에서 레퍼런스 컬러 이미지의 이진 세그먼테이션을 수행한다. 이를 위해서, 네 방향에서 그래디언트들이 계산된다. 이 들 방향은 수평, 수직 및 대각선 방향이다. 대응되는 방향의 인접 픽셀들의 절대 차이의 합으로서 그래디언트들이 계산된다. 모든 그래디언트의 값이 소정의 임계값보다 아래인 경우 픽셀들은 로우 텍스쳐링 처리된 것으로 간주되고, 그렇지 않은 경우에는 하이 텍스쳐링 처리된 것으로 간주된다. 이는 다음과 같이 공식화된다.In step 404, binary segmentation of the reference color image is performed at the high and low textured sites. To do this, gradients are calculated in four directions. These directions are horizontal, vertical and diagonal directions. Gradients are calculated as the sum of the absolute differences of adjacent pixels in the corresponding direction. The pixels are considered low texturized if the values of all the gradients are below a predetermined threshold, otherwise they are considered high texturized. It is formulated as follows.

Figure 112009071819593-PAT00003
Figure 112009071819593-PAT00003

BS는 좌표 (x, y)를 가진 픽셀에 대한 세그먼테이션의 이진 마스크이고, 값 255는 로우 텍스쳐링된 이미지의 픽셀에 대응되고, 값 0은 하이 텍스쳐링된 이미지의 픽셀에 대응한다.BS is a binary mask of segmentation for a pixel with coordinates (x, y), a value of 255 corresponds to a pixel of a low textured image, and a value of 0 corresponds to a pixel of a high textured image.

도 10(a) 내지 도 10(c)는 세그먼테이션의 이진 마스크로 된 컬러 이미지의 예를 나타내는 도면이다. 구체적으로, 도 10(a) 내지 도 10(c)는 하이 텍스쳐링된 사이트 및 로우 텍스쳐링된 사이트에서 이미지의 이진 세그먼테이션의 예를 나타낸 도면이다. 도 10(a)는 컬러 이미지이고, 도 10(b)는 대응되는 깊이맵이고, 도 10(c)는 이진 세그먼테이션의 마스크를 나타내고 있다. 도 10(c)에서, 하이 텍스쳐링된 사이트는 검정색으로 마킹되었고, 로우 텍스쳐링된 사이트는 하얀색으로 마킹되었다. 도 10(a) 내지 도 10(c)를 참조하면, 적용된 세그먼테이션 방법은 로우 텍스쳐링된 사이트와 하이 텍스쳐링된 사이트에서의 이미지를 성공적으로 세그먼트한 것을 나타내고 있다. 동시에, 방법은 객체의 가장자리, 예를 들어 홍어와 해저지반 사이(검정색의 타원형으로 표시된)를 검출한다. 아티팩트의 발생을 피하기 위해서 객체의 가장자리는 깊이맵에서 주의 깊게 처리되어야 한다는 것은 중요한 특징이다. 10 (a) to 10 (c) are diagrams showing an example of a color image with a binary mask of segmentation. Specifically, FIGS. 10A to 10C illustrate examples of binary segmentation of an image at high textured sites and low textured sites. FIG. 10A shows a color image, FIG. 10B shows a corresponding depth map, and FIG. 10C shows a mask of binary segmentation. In FIG. 10 (c), the high textured sites are marked black and the low textured sites are marked white. Referring to Figures 10 (a) to 10 (c), the applied segmentation method shows successful segmentation of the image at the low texturized site and the high texturized site. At the same time, the method detects the edge of the object, for example between the skate and the seabed (marked with a black oval). An important feature is that the edges of objects must be carefully handled in the depth map to avoid artifacts.

로우 텍스쳐링 및 하이 텍스쳐링 된 사이트에서 좌측 컬러 이미지의 이진 세그먼테이션 후에, 평활화 방법은 필터링의 주 사이클(main cycle)인 단계 405-408로 이동한다. 처리의 시작 시에 반복 인덱스(index of iterations)는 0으로 설정된다. 그 후에, 반복 인덱스는 평활화의 각각의 반복 후에 증가한다. 인덱스가 반복의 횟수와 같아지는 경우, 필터링의 사이클이 오픈된다. 그 전에, 평활화 방법의 다음 단계인 단계 406에서, 세그먼테이션의 이진 마스크에 따라 픽셀의 타입(type)을 검출한다. 단계 408에서, 픽셀이 하이 텍스쳐링된 것으로 간주되는 경우, 깊이맵의 평활화 필터는 디폴트 설정이 적용되고, 그렇지 않은 경우, 픽셀이 로우 텍스 쳐링된 것으로 간주되는 경우에는, 평활화 필터는 노이즈를 더 억압할 수 있도록 하기 위한 더 강한 평활화 설정이 적용된다.After binary segmentation of the left color image at the low texturing and high texturing sites, the smoothing method moves to steps 405-408, which is the main cycle of filtering. At the start of processing, the index of iterations is set to zero. Thereafter, the iteration index increases after each iteration of smoothing. If the index is equal to the number of iterations, the cycle of filtering is opened. Before that, in step 406, the next step of the smoothing method, the type of pixel is detected according to the binary mask of the segmentation. In step 408, if the pixel is considered high textured, the depth map's smoothing filter is applied with default settings; otherwise, if the pixel is considered low textured, the smoothing filter will suppress the noise further. A stronger smoothing setting is applied to make this possible.

깊이맵의 평활화 필터(smoothing filter)의 동작에 대한 알고리즘이 도 11에 나타나 있다. 어떻게 하드웨어에서 효과적으로 적용될 수 있는지 설명된다. 알고리즘은 이미지 전체 대신에, 로컬 이미지의 정정(correction)이 기록되어 있는 메모리의 버퍼들에서 동작한다. 표 1은 알고리즘의 설명에 사용되는 메모리 버퍼 결과이다.An algorithm for the operation of the smoothing filter of the depth map is shown in FIG. How it can be applied effectively in hardware is described. The algorithm operates on buffers in memory where the correction of the local image is recorded instead of the entire image. Table 1 shows the results of the memory buffer used to describe the algorithm.

메모리 버퍼 인덱스Memory buffer index 기록된 데이터 설명Recorded data description 버퍼 사이즈Buffer size 1One 레퍼런스 컬러 이미지로부터의 로컬 사이트Local site from the reference color image 커널 사이즈 * 라인 수 * 컬러 채널 수Kernel Size * Number of Lines * Number of Color Channels 22 레퍼런스 깊이맵으로부터의 로컬 사이트Local site from reference depth map 커널 사이즈 * 라인 수Kernel Size * Number of Lines 33 레퍼런스 시차맵의 벡터에 의하여 디스플레이된 매칭 컬러 이미지의 픽셀들Pixels of the matching color image displayed by the vector of the reference parallax map 커널 사이즈 * 라인 수 * 컬러 채널 수Kernel Size * Number of Lines * Number of Color Channels

깊이맵 평활화에 대한 필터링 방법의 구현을 단계별로 고려하자. 알고리즘의 입력에 있어서, 컬러 이미지의 스테레오 쌍(좌측 및 우측) 및 컬러 이미지들 중에서 하나에 대하여 계산된 원시 깊이맵이 필요하다. 위에 기술된 분류에 따라, 깊이맵의 평활화가 수행된 스테레오 쌍으로부터의 이미지는 레퍼런스 컬러 이미지(reference color image; 'RCI')로 명명되고, 반면에 다른 이미지는 매칭 컬러 이미지(matching color image; ‘MCI’)로 명명된다. 따라서 평활화된 깊이맵은 레퍼런스 깊이맵(reference depth; 'RD')로 명명된다. 좌측 원시 깊이맵을 레퍼런스 깊이맵으로 간주한다. 처리는 우측 원시 깊이맵과 유사하다. Consider step-by-step the implementation of a filtering method for depth map smoothing. At the input of the algorithm, a raw depth map calculated for one of the stereo pairs (left and right) and the color images of the color image is needed. According to the classification described above, the image from the stereo pair on which the depth map is smoothed is named a reference color image ('RCI'), while the other image is a matching color image (' MCI '). Therefore, the smoothed depth map is called a reference depth map (RD). Consider the left raw depth map as the reference depth map. The process is similar to the right primitive depth map.

도 11은 평활화의 반복 1회의 과정을 나타낸다. 반복의 횟수가 1 이상인 경우, RD 메모리에 결과를 기록하고, 입력으로 업데이트된 데이터를 가진 동일한 메모리 버퍼를 사용하기 위하여 깊이맵의 전체 이미지를 처리하는 것이 필요하다.11 shows one process of repetition of smoothing. If the number of iterations is one or more, it is necessary to write the result to RD memory and process the entire image of the depth map in order to use the same memory buffer with updated data as input.

도 11을 참조하면, 단계 1101에서, 레퍼런스 컬러 이미지(RCI)로부터 픽셀의 영역을 메모리 1에 복사한다. 윈도우의 높이는 이용 가능한 라인의 수와 동일하여야 한다. 단계 1102에서, 레퍼런스 깊이(RD)로부터 픽셀을 메모리 2에 복사한다. 단계 1103에서, 원시 깊이맵이 비이상적인지 아닌지를 확인한다. 히스토그램의 분석에 의하여 계산된 임계값 B 및 T가 사용된다.Referring to FIG. 11, in step 1101, an area of a pixel is copied from the reference color image RCI to memory 1. The height of the window should be equal to the number of lines available. In step 1102, the pixel is copied from the reference depth RD to memory 2. In step 1103, it is checked whether the raw depth map is non-ideal. The thresholds B and T calculated by the analysis of the histogram are used.

수학식 3은 깊이맵의 범위를 확인하는 식이다.Equation 3 is to check the range of the depth map.

B < d(x+x1, y+y1) <TB <d (x + x 1 , y + y 1 ) <T

수학식 3에서 d(x, y)는 좌표 (x+x1, y+y1)을 가진 원 깊이맵의 픽셀이며, (x, y)는 필터링이 수행되는 동안 깊이맵의 현재 픽셀의 이미지의 좌표이고, x1, y1은 메모리 2에 기록된 레퍼런스 깊이맵의 픽셀들의 인덱스들이다.In Equation 3, d (x, y) is a pixel of a circle depth map with coordinates (x + x 1 , y + y 1 ), and (x, y) is an image of the current pixel of the depth map while filtering is performed. Where x 1 and y 1 are the indices of the pixels of the reference depth map recorded in memory 2.

단계 1104에서, 만약, 수학식 3이 유지되지 않는다면, 대응되는 깊이맵의 픽셀 d(x+x1, y+y1)은 픽셀 d(x, y)의 필터링에 대해서는 고려되지 않는다. 메모리 2로부터의 다음 픽셀은 메모리 2로부터 모든 픽셀이 체크되기 전까지 처리를 위하여 평가된다. 모든 픽셀들이 비이상적인 것으로 식별되는 경우, 깊이맵의 현재 픽셀은 동작이 수행되지 않는다. 대체로 원시 깊이맵은 많은 양의 에러 픽셀들을 포함한다. 작은 윈도우를 가진 필터에 의하여 그러한 영역을 효과적으로 필터링하기 위해 서는, 재귀적 필터를 적용한다. 현재 픽셀의 필터링 결과는 최초 깊이맵에 기록된다. 깊이맵의 정확한 값을 에러 영역에 분배한다.In step 1104, if equation 3 is not maintained, the pixels d (x + x 1 , y + y 1 ) of the corresponding depth map are not taken into account for the filtering of pixels d (x, y). The next pixel from memory 2 is evaluated for processing until all pixels from memory 2 are checked. If all pixels are identified as non-ideal, the current pixel of the depth map is not operated. Usually the raw depth map contains a large amount of error pixels. To filter such areas effectively by a filter with a small window, we apply a recursive filter. The filtering result of the current pixel is recorded in the initial depth map. Distribute the exact value of the depth map to the error domain.

단계 1105에서, 메모리 2에 기록된 깊이맵의 픽셀들에 기초하여 시차맵의 값들을 계산한다. 깊이맵의 값들로부터 시차맵의 벡터의 계산 후에, 대응되는 시차맵들은 매칭 컬러 이미지(MCI)에서 컬러 픽셀들에 대한 좌표들로 사용된다. 그 후에, 단계 1106에서, 시차맵에 의하여 부여된 MCI로부터의 픽셀들은 메모리 3에 복사된다.In step 1105, the values of the parallax map are calculated based on the pixels of the depth map recorded in the memory 2. After calculation of the vector of parallax map from the values of the depth map, the corresponding parallax maps are used as coordinates for the color pixels in the matching color image (MCI). Thereafter, in step 1106, pixels from the MCI given by the parallax map are copied to memory 3.

도 12를 참조하면, 본 발명의 일 실시예에서 깊이맵을 더 평활하게 하는 중요 아이디어는 필터 윈도우에 위치한 깊이맵의 픽셀의 가중치 평균의 적용으로 원시 레퍼런스 깊이맵을 특정한다. 도 12는 깊이의 필터링에 대한 원리를 나타내는 도면이다. 컬러 이미지들로부터 수신한 정보를 이용하여 필터의 가중치들이 계산된다. 모든 이미지들(RCI, MCI, RD)에서 픽셀의 공간 좌표들이 식별된다. 가중치 계산 동안 평활화 필터는 두 개의 컬러 거리를 계산하여야 한다. 아래에 거리의 계산 절차가 기술된다.Referring to FIG. 12, in an embodiment of the present invention, an important idea of smoothing the depth map is to specify the raw reference depth map by applying a weighted average of pixels of the depth map located in the filter window. 12 is a diagram illustrating the principle of depth filtering. The weights of the filter are calculated using the information received from the color images. In all images RCI, MCI, RD the spatial coordinates of the pixel are identified. During the weighting calculation, the smoothing filter must calculate two color distances. The procedure for calculating the distance is described below.

단계 1107에서, 레퍼런스 컬러 이미지(1210)에서 현재 컬러 픽셀 Ic(1211)와 레퍼런스 픽셀 Ir(1212) 간의 제 1 거리(1214)가 계산된다. 두 픽셀들은 메모리 1에 기록된다. 현재 메트릭스는 유클리디언 거리를 나타내고 아래의 수학식 4와 같이 계산된다.In step 1107, a first distance 1214 between the current color pixel I c 1211 and the reference pixel I r 1212 in the reference color image 1210 is calculated. Two pixels are written to memory 1. The current matrix represents the Euclidean distance and is calculated as in Equation 4 below.

Figure 112009071819593-PAT00004
Figure 112009071819593-PAT00004

수학식 4에서 각각의 컬러 채널 차이의 제곱이 합산되며, 그 후에, 제곱근이 추출된다.In Equation 4, the squares of the respective color channel differences are summed, and then the square root is extracted.

단계 1108에서, 레퍼런스 픽셀 Ir(1212)과 최종(타겟) 픽셀 It(1221)와의 제 2 컬러 거리(1223)를 계산한다. 최종픽셀(1221)은 픽셀 Ir(1221)의 시차맵의 벡터에 의하여 디스플레이되는 매칭 컬러 이미지(1220)에서의 픽셀이다. 시차맵은 수평 시차맵인 일차원이기 때문에, Ir(1212)과 It(1221)은 동일한 인덱스를 가진 라인에 놓여있다. 수학식 4는 컬러 거리의 계산에 사용될 수 있다. In step 1108, a second color distance 1223 between the reference pixel I r 1212 and the final (target) pixel I t 1221 is calculated. The final pixel 1221 is the pixel in the matching color image 1220 displayed by the vector of the parallax map of the pixel I r 1221. Since the parallax map is one-dimensional, which is a horizontal parallax map, I r 1212 and I t 1221 lie on a line with the same index. Equation 4 can be used to calculate the color distance.

두 컬러 거리의 계산을 종료한 후에, 레퍼런스 깊이맵 픽셀의 가중치 계산이 아래의 수학식 5와 같이 수행된다.After finishing the calculation of the two color distances, the weight calculation of the reference depth map pixel is performed as shown in Equation 5 below.

Figure 112009071819593-PAT00005
Figure 112009071819593-PAT00005

C()는 픽셀의 컬러 비교에 사용되는 함수이며,

Figure 112009071819593-PAT00006
는 레퍼런스 이미지에 서 레퍼런스 픽셀에 대한 깊이맵 평활화에 대한 파라미터이며,
Figure 112009071819593-PAT00007
는 매칭 이미지에서 타겟 픽셀에 대한 깊이맵 평활화에 대한 파라미터이며, (xr, yr)은 레퍼런스 픽셀의 좌표이며, (xt, yt)는 타겟 픽셀의 좌표이다. 일차원 깊이맵에서는 yt=yr이다.C () is a function used for color comparison of pixels.
Figure 112009071819593-PAT00006
Is a parameter for smoothing the depth map for the reference pixel in the reference image.
Figure 112009071819593-PAT00007
Is a parameter for smoothing the depth map for the target pixel in the matching image, (x r , y r ) is the coordinate of the reference pixel, and (x t , y t ) is the coordinate of the target pixel. In a one-dimensional depth map, y t = y r .

단계 409에서 레퍼런스 깊이맵의 각각의 픽셀에 대한 가중치 계산을 종료한 후에, 알고리즘은 단계 410인 가중치 평균 계산 단계로 이동한다. 가중치 평균의 값은 아래의 수학식 6과 같이 계산된다.After completing the weight calculation for each pixel of the reference depth map in step 409, the algorithm moves to the weighted average calculation step in step 410. The value of the weighted average is calculated as in Equation 6 below.

Figure 112009071819593-PAT00008
Figure 112009071819593-PAT00008

dout(xc,yc)는 좌표 (xc,yc)인 현재 픽셀에 대한 깊이맵 평활화의 결과를 의미하고, din(xr,yr)은 좌표 (xr=xc+p,yr=yc+s)인 레퍼런스 픽셀에 대한 원시 깊이맵을 의미하며, wr은 레퍼런스 깊이맵의 픽셀의 가중치를 나타내고, 인덱스 p는 X 방향으로 -L/2에서 L/2까지 변화시키며, 인덱스 s는 Y방향으로 -K/2에서 k/2까지 변화시키며, 규준화 팩터(normalizing factor)는 아래의 수학식 7과 같이 계산된다.d out (x c , y c ) means the result of the depth map smoothing for the current pixel at coordinates (x c , y c ), and d in (x r , y r ) is the coordinate (x r = x c + p , y r = y c + s ), the raw depth map for the reference pixel, w r represents the weight of the pixel in the reference depth map, and the index p is from -L / 2 to L / 2 in the X direction. The index s changes from -K / 2 to k / 2 in the Y direction, and a normalizing factor is calculated as shown in Equation 7 below.

Figure 112009071819593-PAT00009
Figure 112009071819593-PAT00009

결국, 단계 1111에서, 필터링의 결과 dout(xc,yc)는 메모리 RD에 저장된다.As a result, in step 1111, the result of filtering d out (x c , y c ) is stored in the memory RD.

단계 909에서, 깊이맵의 평활화 필터링에서 소정의 횟수의 반복 수행 후에, 깊이맵 평활화 알고리즘은 레퍼런스 깊이맵을 후처리하는 단계로 이동한다. 본 발명의 일 실시예에서, 중간값 필터는 이 목적으로 사용되고, 시차맵의 펄스 노이즈를 효과적으로 검출한다. 단계 1110에서, 레퍼런스 깊이맵이 후처리동안 평활화된 후에, 레퍼런스 깊이맵은 메모리 RD에 저장된다. In step 909, after performing a predetermined number of iterations in the smoothing filtering of the depth map, the depth map smoothing algorithm moves to postprocessing the reference depth map. In one embodiment of the present invention, the median filter is used for this purpose and effectively detects the pulse noise of the parallax map. In step 1110, after the reference depth map is smoothed during post processing, the reference depth map is stored in the memory RD.

3D 비디오를 시청하는 동안 블링킹(blinking) 또는 바운스(bounce) 현상의 결과를 제거하기 위하여, 이동 평균(sliding average)의 형태에서 시간 필터는 깊이맵에 적용될 수 있다. 시간 필터는 다수의 평활화된 깊이맵들을 사용하고, 퍼스넬 버퍼(personnel buffer; 351)에 저장되고, 깊이맵의 필터링된 프레임을 시간의 현재 마크에 대하여 출력을 부여한다.In order to eliminate the consequences of blinking or bounce while watching 3D video, a temporal filter in the form of a sliding average may be applied to the depth map. The temporal filter uses a number of smoothed depth maps, is stored in a personalnel buffer 351, and gives output to the current frame of time a filtered frame of the depth map.

도 13은 본 발명의 일 실시예에 따른 적용의 결과를 나타낸다. 도 13(a) 및 도 13(b)는 본 발명의 일 실시예에 따른 깊이의 평활화 결과를 나타내는 도면으로, 도 13(a) 및 도 13(b)에서 윗 그림은 최초 깊이맵, 중간 그림은 대응되는 컬러 이미지, 아래 그림은 평활화된 깊이맵을 나타낸다. 결과들은 알고리즘의 3회 반복으로 메모리의 라인 일곱 개의 사용으로 수신된다. 이들 예로부터, 로컬 윈도우에서 동작하는 매우 적은 반복 동안 깊이맵의 노이즈를 정련하는 능력을 부여하는 것을 볼 수 있다.Figure 13 shows the results of the application according to one embodiment of the present invention. 13 (a) and 13 (b) show a result of smoothing depth according to an embodiment of the present invention. In FIGS. 13 (a) and 13 (b), the upper figure shows an initial depth map and an intermediate figure. Is the corresponding color image, and the figure below shows a smoothed depth map. The results are received with the use of seven lines of memory in three iterations of the algorithm. From these examples, one can see that it gives the ability to refine the noise of the depth map during very few iterations operating in the local window.

이상 설명한 바와 같은 3D 비디오를 시청할 때, 눈의 피로를 감소시키기 위한 스테레오 컨텐트를 변환하는 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 매체를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 디스크 관리 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다. When watching 3D video as described above, the method for converting stereo content to reduce eye fatigue can also be embodied as computer readable code on a computer readable recording medium. Computer-readable recording media include all kinds of recording media on which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. In addition, functional programs, codes, and code segments for implementing the disk management method may be easily inferred by programmers in the art to which the present invention belongs.

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far I looked at the center of the preferred embodiment for the present invention. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.

산업적인 활용의 주 영역은 3D TV 장치에서 컨텐트의 처리이다. 현재 3D TV에서 문제 중의 하나는 TV 시청에 있어서 눈의 피로와 연결된 시청자의 불만을 제거하는 것이다. 그러한 문제가 일어나는 중요한 원인은 스테레오스코픽 이미지를 시청하는데 있어서 개인적인 차이와 선호도 때문이다. 성별, 나이, 인종 등은 시각적 시스템의 고유의 특징에서 각각의 개인은 고유함으로써 스테레오스코피에 있어서 선호도에 영향을 준다. 스테레오 시퀀스의 전달에서 부적합한 컨텐트는 눈의 피로를 유발한다. 이런 복잡한 현상들은 깊이 신호 사이의 시차, 크로스 노이즈, 충돌, 기타 등등의 높은 값들과 같은 많은 파라미터에 의존한다.The main area of industrial use is the processing of content in 3D TV devices. One of the problems with current 3D TVs is eliminating viewer complaints associated with eye strain in watching TV. An important cause of such problems is the personal differences and preferences in viewing stereoscopic images. Gender, age, and race influence preferences in stereoscopy by being unique to each individual in the unique characteristics of the visual system. Inappropriate content in the delivery of stereo sequences causes eye strain. These complex phenomena rely on many parameters such as parallax between depth signals, high values of cross noise, collisions, and so on.

본 발명의 일 실시예는 높은 품질과 신뢰성 있는 시차/깊이맵의 생성을 위한 스테레오 카메라들에 직접적인 적용이 가능하다. 또한, 본 발명의 일 실시예는 두 개의 분리된 비디오 스트림이 3D 스트림을 형성하고 스테레오 매칭 요구되는 멀티-카메라 시스템 또는 특정 장치에 적용이 가능하다. One embodiment of the present invention is directly applicable to stereo cameras for generating high quality and reliable parallax / depth map. In addition, an embodiment of the present invention is applicable to a multi-camera system or a specific device in which two separate video streams form a 3D stream and require stereo matching.

도 1은 본 발명의 일 실시예에 따른 3D 비디오를 시청할 때, 눈의 피로를 감소시키기 위한 스테레오 컨텐트의 변환 시스템을 나타내는 블록 다이어그램이다.1 is a block diagram illustrating a system for converting stereo content to reduce eye fatigue when watching 3D video according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 3D 비디오를 시청할 때 눈의 피로를 감소시키기 위한 스테레오 컨텐트의 변환에 관한 방법을 나타내는 흐름도이다.2 is a flowchart illustrating a method for converting stereo content to reduce eye strain when watching 3D video according to an embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따른 깊이맵의 계산 및 평활화에 관한 시스템을 나타내는 블록 다이어그램이다.3 is a block diagram illustrating a system for calculating and smoothing a depth map according to an embodiment of the present invention.

도 4는 본 발명의 일 실시예에 따른 재귀적 필터링에 기초하여 깊이맵을 평활화하는 방법에 관한 흐름도를 나타내는 도면이다.4 is a flowchart illustrating a method of smoothing a depth map based on recursive filtering according to an embodiment of the present invention.

도 5(a) 및 도(b)는 다양한 스테레오 프레임의 오리엔테이션의 예를 나타내는 도면이다.5 (a) and (b) are diagrams showing examples of orientation of various stereo frames.

도 6은 히스토그램의 가장 어두운 사이트의 5%와 가장 밝은 사이트의 5%가 검정색으로 표시된 깊이의 히스토그램을 나타내는 도면이다. FIG. 6 shows a histogram of depth where 5% of the darkest sites and 5% of the brightest sites of the histogram are shown in black.

도 7(a) 내지 도 7(c)는 깊이의 히스토그램의 컷에 대한 예를 나타낸 도면이다. 도 7(a)는 컬러 이미지이고, 도 7(b)는 대응되는 깊이맵이고, 도 7(c)는 가장 어두운 픽셀의 6 %와 가장 밝은 픽셀의 3%에 대한 임계 컷의 깊이 히스토그램을 나타낸 도면이다.7 (a) to 7 (c) are diagrams showing examples of cuts of histograms of depth. Fig. 7 (a) is a color image, Fig. 7 (b) is a corresponding depth map, and Fig. 7 (c) shows the depth histogram of the threshold cut for 6% of the darkest pixels and 3% of the lightest pixels. Drawing.

도 8은 깊이의 크로스-체크 방법에 관한 흐름도를 나타내는 도면이다.8 is a flowchart showing a cross-checking method of depth.

도 9(a) 내지 도 9(c)는 깊이의 크로스-체크의 예를 나타내는 도면이다. 도 9(a)는 깊이의 좌측 이미지이고, 도 9(b)는 깊이의 우측 이미지이고, 도 9(c)는 검 정색으로 마킹된 비이상적 픽셀로 이루어진 좌측 깊이를 나타내는 도면이다.9 (a) to 9 (c) are diagrams showing examples of cross-check of depth. FIG. 9 (a) is a left image of depth, FIG. 9 (b) is a right image of depth, and FIG. 9 (c) is a diagram showing the left depth of non-ideal pixels marked in black.

도 10(a) 내지 도 10(b)는 하이 텍스쳐링된 사이트 및 로우 텍스쳐링된 사이트에서 이미지의 이진 세그먼테이션의 예를 나타낸 도면이다. 도 10(a)는 컬러 이미지이고, 도 10(b)는 대응되는 깊이맵이고, 도 10(c)는 이진 세그먼테이션의 마스크(하이 텍스쳐링된 사이트는 검정색으로 마킹되었고, 로우 텍스쳐링된 사이트는 하얀색으로 마킹됨)를 나타내는 도면이다.10 (a) to 10 (b) illustrate examples of binary segmentation of an image at high textured sites and low textured sites. Fig. 10 (a) is a color image, Fig. 10 (b) is a corresponding depth map, and Fig. 10 (c) shows a mask of binary segmentation (high textured sites are marked in black, low textured sites in white). Marked).

도 11은 본 발명의 일 실시예에 따른 깊이의 필터링 방법에 관한 흐름도를 나타내는 도면이다.11 is a flowchart illustrating a depth filtering method according to an embodiment of the present invention.

도 12는 깊이의 필터링에 대한 원리를 나타내는 도면이다.12 is a diagram illustrating the principle of depth filtering.

도 13(a) 및 도 13(b)는 본 발명의 일 실시예에 따른 깊이의 평활화 결과를 나타내는 도면이다. 도 13(a) 및 도 13(b)에서 윗 그림은 최초 깊이맵, 중간 그림은 대응되는 컬러 이미지, 아래 그림은 평활화된 깊이맵을 나타낸다.13 (a) and 13 (b) are diagrams showing a result of smoothing depth according to an embodiment of the present invention. 13 (a) and 13 (b), the upper figure shows the initial depth map, the middle figure shows the corresponding color image, and the lower figure shows the smoothed depth map.

Claims (24)

3D 비디오를 시청할 때, 눈의 피로를 감소시키기 위한 스테레오 컨텐트를 변환하는 방법에 있어서,In a method of converting stereo content to reduce eye strain when watching 3D video, 상기 3D 비디오로부터 스테레오 이미지에 대한 최초 깊이 맵(initial depth map)을 계산하는 단계;Calculating an initial depth map for a stereo image from the 3D video; 상기 깊이맵을 평활화하는 단계;Smoothing the depth map; 눈의 피로 측정에 따라 깊이 지각 파라미터(depth perception parameter)를 변화하는 단계; 및Changing the depth perception parameter in accordance with eye fatigue measurements; And 상기 깊이 지각 파라미터에 따라 새로운 스테레오 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 스테레오 컨텐트 변환 방법.And generating a new stereo image according to the depth perceptual parameter. 제 1 항에 있어서,The method of claim 1, 상기 깊이 지각 파라미터는 사용자의 의도에 따라 변화하는 것을 특징으로 하는 스테레오 컨텐트 변환 방법.The depth perception parameter is changed according to the user's intention. 제 1 항에 있어서,The method of claim 1, 상기 깊이 지각 파라미터는 0부터 1까지 변화하며, 상기 깊이 지각 파라미터는 우안에 대한 뷰(view)의 위치에 대응하고, 상기 깊이 지각 파라미터의 값에서 1은 최초 스테레오 이미지의 컨피그레이션에 대응하고, 값 0은 단안 뷰의 경우를 나 타내며, 공간에서 좌안과 우안의 이미지가 동일한 경우, 상기 대응되는 깊이 지각 파라미터는 0.1부터 1까지의 범위로 설정되는 것을 특징으로 하는 스테레오 컨텐트 변환 방법. The depth perception parameter varies from 0 to 1, the depth perception parameter corresponding to the position of the view with respect to the right eye, in the value of the depth perception parameter 1 corresponds to the configuration of the original stereo image, and a value of 0 Represents a monocular view, and if the images of the left eye and the right eye are the same in space, the corresponding depth perception parameter is set in a range from 0.1 to 1. 제 3 항에 있어서, The method of claim 3, wherein 상기 우안에 대한 뷰는 상기 계산된 깊이맵에 기초하여 보간(interpolation)을 이용하여 합성되고, 상기 우안의 뷰의 위치는 상기 깊이 지각 파라미터에 의하여 표현되는 것을 특징으로 하는 스테레오 컨텐트 변환 방법. And the view for the right eye is synthesized using interpolation based on the calculated depth map, and the position of the view of the right eye is represented by the depth perception parameter. 제 4 항에 있어서,The method of claim 4, wherein 상기 우안에 대한 합성된 뷰는 최초 스테레오 이미지와 비교하여 더 낮은 시차(parallax)를 가지는 수정된 스테레오 이미지의 형성을 위하여 좌안에 대한 최초 이미지와 같이 사용되는 것을 특징으로 하는 스테레오 컨텐트 변환 방법. And wherein the synthesized view for the right eye is used as the original image for the left eye to form a modified stereo image having a lower parallax compared to the original stereo image. 제 1 항에 있어서, The method of claim 1, 상기 깊이 맵을 평활화하는 단계는 최초 깊이맵 필터링의 연속적인 반복에 기초하여 수행되고,Smoothing the depth map is performed based on successive iterations of initial depth map filtering, 상기 입력 스테레오 이미지를 전처리하는 단계;Preprocessing the input stereo image; 상기 최초 깊이 맵을 계산하는 단계;Calculating the initial depth map; 상기 계산된 깊이맵의 히스트그램을 분석하고 컷하는 단계;Analyzing and cutting the histogram of the calculated depth map; 상기 계산된 깊이맵의 연속성을 체크하는 단계;Checking the continuity of the calculated depth map; 하이 텍스쳐링된 사이트 및 로우 텍스쳐링된 사이트에 따라 레퍼런스 컬러 이미지의 이진 마스크를 형성하는 단계;Forming a binary mask of a reference color image according to the high textured site and the low textured site; 연속성있는 깊이맵의 필터링 반복에 의하여 레퍼런스 깊이맵 및 매칭 깊이맵을 평활화하는 단계;Smoothing the reference depth map and the matching depth map by filtering repetition of the continuous depth map; 상기 하이 텍스쳐링된 사이트 및 로우 텍스쳐링된 사이트에서의 상기 레퍼런스 이미지의 이진 마스크에 따라 상기 레퍼런스 깊이맵을 필터링하는 단계;Filtering the reference depth map according to the binary mask of the reference image at the high textured site and the low textured site; 상기 레퍼런스 깊이맵 및 매칭 깊이맵을 후처리하는 단계; 및Post-processing the reference depth map and the matching depth map; And 상기 레퍼런스 깊이맵 및 매칭 깊이맵을 시간 필터링하는 단계를 포함하는 것을 특징으로 하는 스테레오 컨텐트 변환 방법. And temporally filtering the reference depth map and the matching depth map. 제 6 항에 있어서,The method of claim 6, 상기 입력 스테레오 이미지의 전처리 단계는 로컬 필터에 의한 평활화를 이용하여 수행되는 것을 특징으로 하는 스테레오 컨텐트 변환 방법. And preprocessing the input stereo image using smoothing by a local filter. 제 6 항에 있어서,The method of claim 6, 상기 깊이맵의 로컬 히스토그램은 계산되고, 그 후에 컷되는 것을 특징으로 하는 스테레오 컨텐트 변환 방법. And the local histogram of the depth map is calculated and then cut. 제 6 항에 있어서,The method of claim 6, 상기 깊이맵의 히스토그램은 임계값 B 및 T에 의하여 컷되고,The histogram of the depth map is cut by thresholds B and T, 상기 B는 수학식
Figure 112009071819593-PAT00010
에 의하여 계산되고, 상기 T는 수학식
Figure 112009071819593-PAT00011
에 의하여 계산되며,
B is an equation
Figure 112009071819593-PAT00010
Is calculated by the equation
Figure 112009071819593-PAT00011
Calculated by
상기 H(c)는 히스토그램의 값, 상기 M은 1바이트가 255와 같은 최대 픽셀 레벨, 상기 Nx는 이미지의 폭이며, 상기 Ny는 이미지의 높이를 나타내며, 상기 α는 모든 이미지 픽셀에 대한 상기 히스토그램의 컷 하부의 아래에 있는 이미지 픽셀의 비율에 대응되고, 상기 β는 모든 이미지 픽셀에 대한 상기 히스토그램의 컷 상부 위에 있는 이미지 픽셀의 비율에 대응되는 것을 특징으로 하는 스테레오 컨텐트 변환 방법. Where H (c) is the value of the histogram, M is the maximum pixel level where 1 byte is equal to 255, N x is the width of the image, N y is the height of the image, and α is for all image pixels. And β corresponds to the ratio of the image pixels above the cut top of the histogram to all the image pixels, wherein the β corresponds to the ratio of the image pixels below the cut bottom of the histogram.
제 6 항에 있어서,The method of claim 6, 상기 깊이맵의 연속성을 체크하는 단계는 상기 깊이맵의 크로스-체크를 이용하여 수행되는 것을 특징으로 하는 스테레오 컨텐트 변환 방법. And checking the continuity of the depth map is performed using a cross-check of the depth map. 제 6 항에 있어서,The method of claim 6, 상기 레퍼런스 컬러 이미지의 이진 마스크는 The binary mask of the reference color image is
Figure 112009071819593-PAT00012
Figure 112009071819593-PAT00012
으로 정의되며, 상기 BS는 좌표 (x, y)를 가진 픽셀에 대한 세그먼테이션의 이진 마스크이고, 상기 값 255는 로우 텍스쳐링된 이미지의 픽셀에 대응되고, 상기 값 0은 하이 텍스쳐링된 이미지의 픽셀에 대응되며, 상기 gradients(x,y)는 수평, 수직 및 대각선에 의한 그래디언트 측정에 대한 함수이며, 상기 그래디언트들은 대응되는 방향에서 인접 픽셀의 절대값 차이의 합에 의하여 계산되고, 그래디언트들의 값들은 사이트가 로우 텍스쳐링된 사이트로서 인식되기 위해서는 Grad Th의 범위 안에 있어야 하며, 그렇지 않은 경우에는 사이트는 하이 텍스쳐링된 사이트로서 인식되는 것을 특징으로 하는 스테레오 컨텐트 변환 방법. Where BS is a binary mask of segmentation for a pixel with coordinates (x, y), the value 255 corresponds to a pixel of a low textured image, and the value 0 corresponds to a pixel of a high textured image The gradients (x, y) are functions of gradient measurement by horizontal, vertical and diagonal, the gradients are calculated by the sum of the absolute difference of adjacent pixels in the corresponding direction, and the values of the gradients In order to be recognized as a low texturized site, the content must be in the range of Grad Th, otherwise the site is recognized as a high texturized site.
제 6 항에 있어서, The method of claim 6, k번째 반복에 대한 시차맵의 필터링은 The filtering of the parallax map for the k iterations
Figure 112009071819593-PAT00013
으로 표현되고, 상기 dk(xc,yc)는 좌표 (xc,yc)인 현재 픽셀의 k번째 반복에 대한 깊이맵을 의미하고, 상기 dk-1(xr,yr)은 좌표 (xr=xc+p,yr=yc+s)인 레퍼런스 픽셀에 대한 (k-1)번째 반 복에 대한 깊이맵을 의미하며, 상기 wr(xr,yr)은 레퍼런스 픽셀의 가중치를 나타내고, 상기 인덱스 p는 X 방향으로 -L/2에서 L/2까지 변화시키며, 상기 인덱스 s는 Y방향으로 -K/2에서 k/2까지 변화시키며, 상기 규준화 팩터(normalizing factor)는
Figure 112009071819593-PAT00013
Where d k (x c , y c ) is a depth map for the k th iteration of the current pixel having coordinates (x c , y c ), and d k-1 (x r , y r ) Denotes a depth map for the (k-1) th iteration for a reference pixel with coordinates (x r = x c + p , y r = y c + s ), wherein w r (x r , y r ) Denotes the weight of the reference pixel, the index p varies from -L / 2 to L / 2 in the X direction, the index s varies from -K / 2 to k / 2 in the Y direction, and the normalization factor (normalizing factor)
Figure 112009071819593-PAT00014
으로 계산되는 것을 특징으로 하는 스테레오 컨텐트 변환 방법.
Figure 112009071819593-PAT00014
Stereo content conversion method characterized in that the calculated.
제 12 항에 있어서,13. The method of claim 12, 상기 깊이맵의 필터의 가중치 wrThe weight w r of the filter of the depth map is
Figure 112009071819593-PAT00015
으로 계산되며, 상기 C()는 픽셀의 컬러 비교에 사용되는 함수이며, 상기
Figure 112009071819593-PAT00016
는 레퍼런스 이미지에서 레퍼런스 픽셀에 대한 깊이맵 평활화에 대한 파라미터이며, 상기
Figure 112009071819593-PAT00017
는 매칭 이미지에서 타겟 픽셀에 대한 깊이맵 평활화에 대한 파라미터이며, (xr, yr)은 레퍼런스 픽셀의 좌표이며, 상기 (xt, yt)는 타겟 픽셀의 좌표인 것을 특징으로 하는 스테레오 컨텐트 변환 방법.
Figure 112009071819593-PAT00015
C () is a function used for color comparison of pixels, and
Figure 112009071819593-PAT00016
Is a parameter for smoothing the depth map for the reference pixel in the reference image,
Figure 112009071819593-PAT00017
Is a parameter for smoothing the depth map of the target pixel in the matching image, (x r , y r ) is the coordinate of the reference pixel, and (x t , y t ) is the stereo content of the target pixel. Transformation method.
제 13 항에 있어서,The method of claim 13, 상기 픽셀의 비교에 이용되는 상기 함수 C()는 The function C () used to compare the pixels is
Figure 112009071819593-PAT00018
으로 정의되고, 상기 IT(xc,yc)는 대응되는 컬러 채널에서 현재 픽셀의 강도(intensity)를 나타내고, 상기 IT(xr,yr)는 대응되는 컬러 채널에서 레퍼런스 픽셀의 강도를 나타내는 것을 특징으로 하는 스테레오 컨텐트 변환 방법.
Figure 112009071819593-PAT00018
Where I T (x c , y c ) represents the intensity of the current pixel in the corresponding color channel, and I T (x r , y r ) represents the intensity of the reference pixel in the corresponding color channel. Stereo content conversion method characterized in that the.
제 12 항에 있어서,13. The method of claim 12, 상기 필터의 가중치 wr는 0이며, 깊이맵의 대응되는 픽셀이 비이상적인 경우, if((d(xr,yr)<B) OR (d(xr,yr)>T)) wr(xr,yr)=0과 같은 비율(ratio)이 사용되며, 상기 d(xr,yr)은 레퍼런스 깊이맵의 픽셀이며, 상기 wr(xr,yr)은 레퍼런스 깊이맵의 가중치이며, 상기 B와 T는 히스토그램의 처리에 수신한 임계값을 나타내는 것을 특징으로 하는 스테레오 컨텐트 변환 방법.The weight w r of the filter is 0 and if ((d (x r , y r ) <B) OR (d (x r , y r )> T)) w when the corresponding pixel of the depth map is non-ideal A ratio equal to r (x r , y r ) = 0 is used, wherein d (x r , y r ) is a pixel of a reference depth map and w r (x r , y r ) is a reference depth And a weight of a map, wherein B and T represent threshold values received for processing a histogram. 제 13 항에 있어서,The method of claim 13, 상기 하이 텍스쳐링 및 로우 텍스쳐링된 사이트에서 이미지의 이진 세그먼테 이션에 따라 필터의 파라미터 상기
Figure 112009071819593-PAT00019
Figure 112009071819593-PAT00020
가 사용되어 설정되는 것을 특징으로 하는 스테레오 컨텐트 변환 방법.
The parameter of the filter according to the binary segmentation of the image at the high texturing and low texturing sites
Figure 112009071819593-PAT00019
And
Figure 112009071819593-PAT00020
Is used and set.
제 6 항에 있어서,The method of claim 6, 상기 깊이맵의 후처리 단계는 중간값 필터를 이용하여 수행되는 것을 특징으로 하는 스테레오 컨텐트 변환 방법.And the post-processing step of the depth map is performed using a median filter. 제 6 항에 있어서,The method of claim 6, 상기 시간 필터링 단계는 이동 평균의 필터를 이용하여 수행되는 것을 특징으로 하는 스테레오 컨텐트 변환 방법.And the time filtering step is performed using a filter of a moving average. 3D 비디오를 시청할 때 눈의 피로를 감소시키기 위한 스테레오 컨텐트 변환 시스템에 있어서,In a stereo content conversion system for reducing eye strain when watching 3D video, 입력된 스테레오 이미지에 기초하여 깊이맵을 계산하고, 상기 깊이맵을 평활화하는 깊이맵 계산 및 평활화부;A depth map calculation and smoothing unit configured to calculate a depth map based on the input stereo image and to smooth the depth map; 깊이 지각을 조정하는 깊이 제어부; 및A depth controller for adjusting the depth perception; And 상기 조정된 깊이 지각에 따라 새로운 스테레오 이미지를 생성하는 시각화부를 포함하는 것을 특징으로 하는 스테레오 컨텐트 변환 시스템.And a visualization unit for generating a new stereo image according to the adjusted depth perception. 제 19 항에 있어서,The method of claim 19, 상기 깊이맵 계산 및 평활화부는, The depth map calculation and smoothing unit, 상기 입력된 스테레오 이미지를 전처리(pre-processing)하는 전처리부;A pre-processing unit for pre-processing the input stereo image; 깊이맵의 근사 계산(approximate computation)을 수행하는 최초 깊이맵 계산부;An initial depth map calculator for performing approximate computation of the depth map; 원시 깊이맵의 재귀적 필터링에 의하여 상기 깊이맵을 정련하여 평활화하는 깊이맵 평활화부; 및A depth map smoothing unit to refine and smooth the depth map by recursive filtering of an original depth map; And 상기 평활화된 깊이맵을 시간으로 필터링하는 시간 필터링부를 포함하는 것을 특징으로 하는 스테레오 컨텐트 변환 시스템.And a time filtering unit for filtering the smoothed depth map by time. 제 20 항에 있어서,The method of claim 20, 상기 전처리부는, The preprocessing unit, 상기 입력된 스테레오 이미지로부터 레퍼런스 이미지 및 매칭 이미지를 분리하는 스테레오 이미지 전처리부; 및A stereo image preprocessor for separating a reference image and a matching image from the input stereo image; And 레퍼런스 이진 마스크(reference)를 생성하는 레퍼런스 이미지 세그먼테이션부를 포함하는 것을 특징으로 하는 스테레오 컨텐트 변환 시스템.And a reference image segmentation unit for generating a reference binary mask. 제 21 항에 있어서,The method of claim 21, 상기 최초 깊이맵 계산부는, The first depth map calculator, 상기 스테레오 이미지 전처리부로부터 수신한 레퍼런스 이미지에 대한 깊이 맵을 계산하는 레퍼런스 깊이맵 계산부;A reference depth map calculator configured to calculate a depth map of a reference image received from the stereo image preprocessor; 상기 스테레오 이미지 전처리부로부터 수신한 매칭 이미지에 대한 깊이맵을 계산하는 매칭 깊이맵 계산부;A matching depth map calculator for calculating a depth map of the matching image received from the stereo image preprocessor; 상기 레퍼런스 깊이맵의 히스토그램을 컷(cut)하는 레퍼런스 깊이맵의 히스토그램 분석부; 및A histogram analysis unit of a reference depth map that cuts the histogram of the reference depth map; And 상기 레퍼런스 깊이맵과 상기 매칭 깊이맵을 크로스-체크(cross-check)하는 깊이맵 연속성 체크부를 포함하는 것을 특징으로 하는 스테레오 컨텐트 변환 시스템.And a depth map continuity checker which cross-checks the reference depth map and the matching depth map. 제 20 항에 있어서,The method of claim 20, 상기 깊이맵 평활화부는, The depth map smoothing unit, 상기 재귀적 필터링의 반복의 횟수를 결정하는 반복 제어부;A repetition control unit which determines the number of repetitions of the recursive filtering; 상기 깊이맵을 필터링하는 깊이맵 필터링부; 및A depth map filter to filter the depth map; And 상기 필터링된 깊이맵을 특정하는 후처리부를 포함하는 것을 특징으로 하는 스테레오 컨텐트 변환 시스템.And a post-processing unit to specify the filtered depth map. 제 20 항에 있어서,The method of claim 20, 상기 시간 필터링부는, The time filtering unit, 상기 깊이맵에서 컬러 이미지들로 이루어진 적어도 하나 이상의 깊이 프레임을 저장하는 깊이맵 프레임 버퍼; 및A depth map frame buffer for storing at least one depth frame of color images in the depth map; And 상기 컬러 이미지들에 포함된 소정의 정보를 이용하여 상기 깊이맵의 인터프레임 필터링을 수행하는 깊이맵 시간 필터부를 포함하는 것을 특징으로 하는 스테레오 컨텐트 변환 시스템.And a depth map temporal filter configured to perform interframe filtering of the depth map by using predetermined information included in the color images.
KR1020090113357A 2009-08-04 2009-11-23 Method and system for transformation of stereo content KR20110014067A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP20100171778 EP2293586A1 (en) 2009-08-04 2010-08-03 Method and system to transform stereo content
US12/849,119 US20110032341A1 (en) 2009-08-04 2010-08-03 Method and system to transform stereo content

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
RU2009129700 2009-08-04
RU2009129700/09A RU2423018C2 (en) 2009-08-04 2009-08-04 Method and system to convert stereo content

Publications (1)

Publication Number Publication Date
KR20110014067A true KR20110014067A (en) 2011-02-10

Family

ID=43773454

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090113357A KR20110014067A (en) 2009-08-04 2009-11-23 Method and system for transformation of stereo content

Country Status (2)

Country Link
KR (1) KR20110014067A (en)
RU (1) RU2423018C2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013077510A1 (en) * 2011-11-23 2013-05-30 에스케이플래닛 주식회사 Method and device for measuring stereoscopic effect, stability or fallibility of three-dimensional stereoscopic image
KR101299697B1 (en) * 2011-12-14 2013-08-26 전자부품연구원 Apparatus and method for soft decision masking of blob detect
KR101332628B1 (en) * 2011-11-23 2013-11-25 에스케이플래닛 주식회사 Method and system for measuring a quality of three-dimensional image
KR20140030658A (en) * 2012-09-03 2014-03-12 엘지이노텍 주식회사 Apparatus for stereo matching
KR101470693B1 (en) * 2012-07-31 2014-12-08 엘지디스플레이 주식회사 Image data processing method and stereoscopic image display using the same
KR101681766B1 (en) * 2015-08-27 2016-12-12 광주과학기술원 Method for Generating Depth Image

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9521418B2 (en) * 2011-07-22 2016-12-13 Qualcomm Incorporated Slice header three-dimensional video extension for slice header prediction
RU2489743C1 (en) * 2012-02-08 2013-08-10 Владимир Николаевич Антипов Method of training cognitive perception
TWI586143B (en) * 2012-04-05 2017-06-01 皇家飛利浦電子股份有限公司 Three dimensional [3d] source device, method and record carrier for providing 3d video signal fortransferring to 3d destination device, and 3d destination device for receiving 3d video signal from 3d source device
WO2013153523A2 (en) * 2012-04-13 2013-10-17 Koninklijke Philips N.V. Depth signaling data
US9349169B2 (en) 2012-05-17 2016-05-24 The Regents Of The University Of California Sampling-based multi-lateral filter method for depth map enhancement and codec
RU2639686C2 (en) * 2012-07-20 2017-12-21 Конинклейке Филипс Н.В. Metadata for depth filtration
RU2493602C1 (en) * 2012-08-10 2013-09-20 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Method and system for selecting key frames from video sequences
EP3416381A1 (en) * 2017-06-12 2018-12-19 Thomson Licensing Method and apparatus for providing information to a user observing a multi view content

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013077510A1 (en) * 2011-11-23 2013-05-30 에스케이플래닛 주식회사 Method and device for measuring stereoscopic effect, stability or fallibility of three-dimensional stereoscopic image
KR101332628B1 (en) * 2011-11-23 2013-11-25 에스케이플래닛 주식회사 Method and system for measuring a quality of three-dimensional image
KR101299697B1 (en) * 2011-12-14 2013-08-26 전자부품연구원 Apparatus and method for soft decision masking of blob detect
KR101470693B1 (en) * 2012-07-31 2014-12-08 엘지디스플레이 주식회사 Image data processing method and stereoscopic image display using the same
US9355455B2 (en) 2012-07-31 2016-05-31 Lg Display Co., Ltd. Image data processing method and stereoscopic image display using the same
KR20140030658A (en) * 2012-09-03 2014-03-12 엘지이노텍 주식회사 Apparatus for stereo matching
KR101681766B1 (en) * 2015-08-27 2016-12-12 광주과학기술원 Method for Generating Depth Image

Also Published As

Publication number Publication date
RU2009129700A (en) 2011-02-10
RU2423018C2 (en) 2011-06-27

Similar Documents

Publication Publication Date Title
KR20110014067A (en) Method and system for transformation of stereo content
US20210042952A1 (en) Systems and Methods for Hybrid Depth Regularization
US10963993B2 (en) Image noise intensity estimation method, image noise intensity estimation device, and image recognition device
US20110032341A1 (en) Method and system to transform stereo content
US9171372B2 (en) Depth estimation based on global motion
EP3311361B1 (en) Method and apparatus for determining a depth map for an image
US20140009462A1 (en) Systems and methods for improving overall quality of three-dimensional content by altering parallax budget or compensating for moving objects
KR100846513B1 (en) Method and apparatus for processing an image
TW201432622A (en) Generation of a depth map for an image
WO2012071356A1 (en) Depth estimation based on global motion
US20140340486A1 (en) Image processing system, image processing method, and image processing program
TWI457853B (en) Image processing method for providing depth information and image processing system using the same
US20150248745A1 (en) Processing stereo images
KR20110133416A (en) Video processing method for 3d display based on multi-thread scheme
RU2419880C2 (en) Method and apparatus for calculating and filtering disparity map based on stereo images
Wang et al. Stereoscopic image retargeting based on 3D saliency detection
Tallón et al. Upsampling and denoising of depth maps via joint-segmentation
Hwang et al. Stereo image quality assessment using visual attention and distortion predictors
CN111274851A (en) Living body detection method and device
Srikakulapu et al. Depth estimation from single image using defocus and texture cues
CN116342519A (en) Image processing method based on machine learning
KR101760463B1 (en) Method and Apparatus for correcting a depth map
KR101581586B1 (en) Compensation method for noise of depth image
Ryu et al. Synthesis quality prediction model based on distortion intolerance
KR101629414B1 (en) Method of image extraction based on human factors and apparatus thereof

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination