KR20100065037A - Apparatus and method for extracting depth information - Google Patents

Apparatus and method for extracting depth information Download PDF

Info

Publication number
KR20100065037A
KR20100065037A KR1020090030315A KR20090030315A KR20100065037A KR 20100065037 A KR20100065037 A KR 20100065037A KR 1020090030315 A KR1020090030315 A KR 1020090030315A KR 20090030315 A KR20090030315 A KR 20090030315A KR 20100065037 A KR20100065037 A KR 20100065037A
Authority
KR
South Korea
Prior art keywords
depth information
viewpoint image
image
color similarity
depth
Prior art date
Application number
KR1020090030315A
Other languages
Korean (ko)
Other versions
KR101086274B1 (en
Inventor
엄기문
방건
김태원
장은영
허남호
이수인
김진웅
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20100065037A publication Critical patent/KR20100065037A/en
Application granted granted Critical
Publication of KR101086274B1 publication Critical patent/KR101086274B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: An apparatus and a method for extracting depth information are provided to divide a reference viewpoint image into segments, thereby decreasing errors in depth information due to discontinuity. CONSTITUTION: An image input unit(101) inputs a reference viewpoint image and an object viewpoint image. A depth information input unit(103) inputs initial depth information about the reference viewpoint image. An image dividing unit(105) divides the reference viewpoint image into a plurality of areas by comparing the color similarity of the reference viewpoint image and the initial depth information. The first depth information generating unit(107) generates final depth information in which the initial depth information is corrected.

Description

깊이정보 추출 장치 및 추출 방법.{APPARATUS AND METHOD FOR EXTRACTING DEPTH INFORMATION}Depth information extraction device and extraction method. {APPARATUS AND METHOD FOR EXTRACTING DEPTH INFORMATION}

본 발명은 기준시점 영상에 대한 보다 개선된 깊이정보를 생성하는 깊이정보 추출 장치 및 추출 방법에 관한 것이다.The present invention relates to a depth information extraction apparatus and an extraction method for generating more improved depth information for a reference view image.

본 발명은 지식경제부의 IT원천기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다.[과제관리번호 : 2008-F-011-01, 과제명 : 차세대 DTV핵심기술개발]The present invention is derived from a study conducted as part of the IT source technology development project of the Ministry of Knowledge Economy. [Task management number: 2008-F-011-01, Task name: Next-generation DTV core technology development]

시점이 각각 다른 복수의 카메라로부터 얻은 영상에 대한 정확한 변이/깊이 정보를 얻기 위한 방법은 오랫동안 컴퓨터 비전 분야에서 연구되어 왔으며, 아직까지도 많은 연구가 이루어지고 있다. 일반적으로 스테레오 정합(stereo matching)을 통하여 영상에 대한 변이/깊이 정보를 추출한다. 스테레오 정합이란 시점이 각각 다른 복수의 카메라로부터 획득한 기준시점 영상과 대상시점 영상의 대응점(correspondence point)을 찾는 과정을 말한다. The method for obtaining accurate disparity / depth information about images obtained from a plurality of cameras having different viewpoints has been studied for a long time in the field of computer vision, and many studies have been made. In general, disparity / depth information about an image is extracted through stereo matching. Stereo matching refers to a process of finding a correspondence point between a reference view image and a target view image acquired from a plurality of cameras having different viewpoints.

이하 스테레오 정합을 보다 자세히 설명하기로 한다. 두 대의 카메라로부터 획득된 영상 중 하나를 기준시점 영상으로 설정하고, 다른 영상을 기준시점 영상의 비교 대상인 대상시점 영상으로 설정할 경우, 촬영 객체는 기준시점 영상 및 대상시점 영상에 화소로 표현되는데 촬영 객체에 대한 화소는 시점의 차이로 기준시점 영상 및 대상시점 영상에서 각각 다른 위치에 존재한다. 스테레오 정합을 통해 기준시점 영상 및 대상시점 영상에서 촬영 객체에 대한 위치가 획득되며, 기준시점 영상 및 대상시점 영상에서의 촬영 객체에 대한 위치에 대한 차이 정도를 변이(disparity)라고 한다. 세 대 이상의 카메라가 이용되어 스테레오 정합이 수행될 수 있으며, 설정에 따라 기준시점 영상과 대상시점 연상은 변경될 수 있다. The stereo matching will be described in more detail below. When one of the images obtained from two cameras is set as the reference viewpoint image, and the other image is set as the target viewpoint image to which the reference viewpoint image is compared, the photographing object is represented as pixels in the reference viewpoint image and the target viewpoint image. The pixels with respect to are present at different positions in the reference view image and the target view image due to differences in viewpoints. The position of the photographing object in the reference viewpoint image and the target viewpoint image is acquired through stereo matching, and the degree of difference in the position of the photographing object in the reference viewpoint image and the target viewpoint image is called disparity. Three or more cameras may be used to perform stereo matching, and the reference viewpoint image and the target viewpoint association may be changed according to the setting.

한편, 깊이(depth)는 촬영 객체와 카메라 사이의 거리 정도를 나타내며 변이와 밀접한 관계에 있다. 촬영 객체가 카메라로부터 멀리 떨어져 있을수록 변이 값은 작아지며 깊이 값은 커지고, 촬영 객체가 카메라로부터 가까이 있을수록 변이값은 커지며 깊이 값은 작아지기 때문이다. 결국, 깊이와 변이는 반비례 관계에 있다고 할 수 있으며, 변이 정보로부터 깊이 정보를 얻을 수 있거나 깊이 정보로부터 변이 정보를 얻을 수 있다. 한편, 영상의 형태로 저장된 변이/깊이 정보를 변이/깊이 지도(disparity/ depth map)라고 한다.Depth represents the distance between the photographing object and the camera and is closely related to the variation. The farther away the object is from the camera, the smaller the variance value and the greater the depth value. The closer the object is to the camera, the larger the variance value and the smaller the depth value. As a result, it can be said that the depth and the variation are inversely related, and the depth information can be obtained from the variation information, or the variation information can be obtained from the depth information. Meanwhile, the disparity / depth information stored in the form of an image is called a disparity / depth map.

스테레오 정합을 통해 얻은 깊이정보는 영상의 특성, 즉 조명 조건의 변화, 텍스처, 차폐 영역의 존재로 인하여 깊이정보의 신뢰성이 낮은 문제점이 있다. 이러한 문제점을 해결하기 위하여 영상을 컬러가 유사한 여러 개의 영역(segment)으로 나누고, 기준시점 영상과 대상시점 영상 사이에 대응되는 영역을 기반으로 스테레오 정합을 수행하는 연구들이 많이 이뤄지고 있다. 이러한 기법들은 임의의 영역 내에 깊이가 동일 또는 연속적으로 변화한다는 가정하에 수행되는데, 텍스처가 있는 영역이나 깊이 값의 불연속이 나타나는 경계 지점, 예를 들어 객체와 배경의 경계 지점처럼 깊이 값이 급격히 변하는 지점에서는 오히려 깊이 정보의 오차가 증가할 수 있다. Depth information obtained through stereo matching has a problem that reliability of depth information is low due to the characteristics of an image, that is, a change in lighting conditions, a texture, and a presence of a shielding area. In order to solve this problem, a lot of researches have been conducted to divide an image into several segments having similar colors and perform stereo matching based on a region corresponding to a reference viewpoint image and a target viewpoint image. These techniques are carried out on the assumption that the depth changes in any area equally or continuously, where the depth value changes drastically, such as a textured area or a boundary point where discontinuities in the depth value appear, for example, the boundary point between the object and the background. In contrast, the error of depth information may increase.

또한 종래의 변이/깊이 정보 추출 방법은 영상의 프레임 별로 독립적으로 변이/깊이 정보를 추출함으로써, 이전 프레임과 현재 프레임 사이의 실제 깊이정보가 유사하여야 함에도 불구하고 심하게 왜곡되는 결과가 나타날 수 있는 문제가 있다.  In addition, the conventional method of extracting the variation / depth information extracts the variation / depth information independently for each frame of the image, so that the result may be severely distorted even though the actual depth information between the previous frame and the current frame should be similar. have.

본 발명은 상기 문제점을 해결하기 위하여 제안된 것으로서, 기준시점 영상에서 컬러 유사도에 따른 영역 내에 깊이 값의 불연속으로 인한 깊이정보의 오류를 개선하는데 그 목적이 있다.The present invention has been proposed to solve the above problems, and an object thereof is to improve an error of depth information due to discontinuity of a depth value in an area according to color similarity in a reference view image.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention, which are not mentioned above, can be understood by the following description, and more clearly by the embodiments of the present invention. Also, it will be readily appreciated that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.

상기 목적을 달성하기 위한 본 발명은 기준시점 영상 및 대상시점 영상을 입력받아 저장하는 영상 입력부; 상기 기준시점 영상에 대한 초기 깊이정보를 입력받아 저장하는 깊이정보 입력부; 상기 기준시점 영상의 컬러 유사도 및 상기 초기 깊이정보를 이용하여, 상기 기준시점 영상을 복수의 영역으로 분할하는 영상 분할부; 및 상기 분할된 복수의 영역 각각을 상기 대상시점 영상에 대응시키고, 대응되는 영역 사이의 컬러 유사도를 이용하여, 상기 초기 깊이정보가 보정된 최종 깊이정보를 생성하는 제1깊이정보 생성부를 포함하는 깊이정보 추출 장치를 제공한다. The present invention for achieving the above object is an image input unit for receiving and storing the reference viewpoint image and the target viewpoint image; A depth information input unit configured to receive and store initial depth information of the reference viewpoint image; An image dividing unit dividing the reference viewpoint image into a plurality of areas by using the color similarity of the reference viewpoint image and the initial depth information; And a first depth information generator that corresponds to each of the divided regions to correspond to the target viewpoint image, and generates final depth information of which the initial depth information is corrected using color similarity between corresponding regions. Provided is an information extraction apparatus.

또한 상기 목적을 달성하기 위한 본 발명은 기준시점 영상 및 대상시점 영상을 입력받아 저장하는 단계; 상기 기준시점 영상에 대한 초기 깊이정보를 입력받아 저장하는 단계; 상기 기준시점 영상의 컬러 유사도 및 상기 초기 깊이정보를 이용하여, 상기 기준시점 영상을 복수의 영역으로 분할하는 단계; 및 상기 분할된 복수의 영역 각각을 상기 대상시점 영상에 대응시키고, 대응되는 영역 사이의 컬러 유사도를 이용하여, 상기 초기 깊이정보가 보정된 최종 깊이정보를 생성하는 단계를 포함하는 깊이정보 추출 방법을 제공한다.In addition, the present invention for achieving the above object is a step of receiving and storing the reference viewpoint image and the target viewpoint image; Receiving and storing initial depth information of the reference view image; Dividing the reference view image into a plurality of areas by using color similarity of the reference view image and the initial depth information; And generating final depth information of which the initial depth information is corrected by using each of the divided regions to correspond to the target viewpoint image, and using color similarity between corresponding regions. to provide.

본 발명에 따르면, 기준시점 영상에 대한 컬러 유사도 및 깊이 카메라로부터 획득할 수 있는 기준시점 영상에 대한 깊이정보를 이용하여 기준시점 영상을 복수의 영역으로 분할한다. 따라서 컬러 유사도에 따른 영역내에 깊이 값이 불연속하 는 경계 지점을 재분할할 수 있으며 영역내 깊이 값의 불연속에 따른 깊이정보의 오류를 개선할 수 있는 효과가 있다.According to the present invention, the reference view image is divided into a plurality of regions using color similarity with respect to the reference view image and depth information of the reference view image that can be obtained from the depth camera. Therefore, the boundary point where the depth value is discontinuous in the region according to the color similarity can be subdivided, and the error of depth information due to the discontinuity of the depth value in the region can be improved.

먼저 본 발명에 따른 깊이정보 추출 장치에 대한 개념을 간단히 설명하면 다음과 같다.First, the concept of the depth information extraction apparatus according to the present invention will be briefly described.

본 발명에 따른 깊이정보 추출 장치는 기준시점 영상을 복수의 영역으로 분할하고 분할된 영역별로 기준시점 영상의 깊이정보를 생성한다. 이 때, 본 발명에 따른 깊이정보 추출 장치는 컬러 유사도를 이용하여 기준시점 영상을 복수의 영역으로 분할하되, 초기 깊이정보를 추가로 이용하여 분할한다. 여기서, 초기 깊이정보는 깊이 카메라 등으로부터 얻어질 수 있다. 따라서 본 발명에 따른 깊이정보 추출 장치는 예를 들어 컬러 유사도에 따라 분할된 영역에 깊이 값의 불연속이 존재할 경우, 초기 깊이정보를 이용하여 깊이 값의 불연속에 따라 영역을 재분할할 수 있다. 결국, 본 발명에 따르면 영역 내 깊이 값의 불연속이 나타나는 경계 지점이 초기 깊이정보에 의해 재분할되므로 컬러 유사도에 따라 분할된 영역의 깊이 값의 불연속에 따른 깊이정보의 오차가 개선될 수 있다. An apparatus for extracting depth information according to the present invention divides a reference view image into a plurality of regions and generates depth information of the reference view image for each divided region. At this time, the depth information extracting apparatus according to the present invention divides the reference view image into a plurality of regions using color similarity, but further divides the image using the initial depth information. Here, the initial depth information may be obtained from a depth camera or the like. Therefore, when the depth information extraction apparatus according to the present invention has a discontinuity of the depth value in the divided region according to the color similarity, for example, the depth information extracting apparatus may repartition the region according to the discontinuity of the depth value. As a result, according to the present invention, since the boundary point at which the discontinuity of the depth value in the region appears is subdivided by the initial depth information, the error of the depth information according to the discontinuity of the depth value of the divided region may be improved according to the color similarity.

그리고 본 발명에 따른 깊이정보 추출 장치는 기준시점 영상의 최종 깊이정보를 생성할 때, 기준시점 영상의 이전 프레임의 깊이정보를 이용하여 현재 프레임의 최종 깊이정보를 생성한다. 여기서, 최종 깊이정보란 초기 깊이정보가 보정된 깊이정보로 본 발명에 따른 깊이정보 추출 장치에 의해 최종적으로 생성되는 깊이 정보이다. 따라서 본 발명에 따르면 배경영역과 같이 이전 프레임과 현재 프레임이 거의 동일할 경우 이전 프레임과 현재 프레임의 깊이정보의 연속성이 유지될 수 있다. 여기서, 깊이정보의 연속성이란 실질적으로 동일한 이전 및 현재 프레임의 깊이정보가 동일성을 유지함을 의미한다.The depth information extracting apparatus according to the present invention generates final depth information of the current frame by using depth information of a previous frame of the reference view image when generating final depth information of the reference view image. Here, the final depth information is depth information of which the initial depth information is corrected and is finally generated by the depth information extraction apparatus according to the present invention. Therefore, according to the present invention, when the previous frame and the current frame are almost the same as the background area, continuity of depth information of the previous frame and the current frame can be maintained. Here, the continuity of the depth information means that the depth information of the previous and current frames that are substantially the same maintains the same.

이하 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있도록 상세히 설명하기 위하여, 본 발명의 가장 바람직한 실시예를 첨부 도면을 참조하여 설명하기로 한다.DETAILED DESCRIPTION Hereinafter, the most preferred embodiments of the present invention will be described with reference to the accompanying drawings so that those skilled in the art may easily implement the technical idea of the present invention.

도 1은 본 발명의 일실시예에 따른 깊이정보 추출 장치를 나타내는 도면이다. 1 is a view showing a depth information extraction apparatus according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명에 따른 깊이정보 추출 장치는 영상 입력부(101), 깊이정보 입력부(103), 영상 분할부(105) 및 제1깊이정보 생성부(107)를 포함한다.As shown in FIG. 1, the apparatus for extracting depth information according to the present invention includes an image input unit 101, a depth information input unit 103, an image divider 105, and a first depth information generator 107.

영상 입력부(101)는 기준시점 영상 및 대상시점 영상을 입력받아 저장한다. 기준시점 영상 및 대상시점 영상은 카메라로부터 획득되어 입력될 수 있으며, 영상 입력부(101)는 입력된 기준시점 영상 및 대상시점 영상의 동기를 맞추어 프레임 별로 저장할 수 있다. 본 발명에 따르면, 영상 입력부(101)는 복수의 대상시점 영상을 입력받을 수 있으며, 영상 입력부(101)는 기준시점 영상 및 복수의 대상시점 영상의 동기를 맞추어 프레임 별로 저장할 수 있다.The image input unit 101 receives and stores a reference view image and a target view image. The reference view image and the target view image may be obtained from a camera and input, and the image input unit 101 may store the frames for each frame in synchronization with the input reference view image and the target view image. According to the present invention, the image input unit 101 may receive a plurality of target viewpoint images, and the image input unit 101 may store the frames for each frame in synchronization with the reference viewpoint image and the plurality of target viewpoint images.

깊이정보 입력부(103)는 기준시점 영상에 대한 초기 깊이정보를 입력받아 저장한다. 상기된 바와 같이, 초기 깊이정보는 깊이 카메라로부터 영상의 형태로 획득되어 입력될 수 있다. 초기 깊이정보는 기준시점 영상과 동일 시간에 획득되고, 깊이정보 입력부(103)는 기준시점 영상과 초기 깊이정보의 동기를 맞추어 프레임 별로 저장함이 바람직하다. 여기서, 초기 깊이정보가 기준시점 영상과 동일 시간에 획득된다는 것은 예를 들어, 기준시점 영상의 제1프레임에 대한 깊이 값이 초기 깊이정보 영상의 제1프레임에 포함됨을 의미한다. The depth information input unit 103 receives and stores initial depth information about the reference view image. As described above, the initial depth information may be acquired and input in the form of an image from the depth camera. The initial depth information is acquired at the same time as the reference viewpoint image, and the depth information input unit 103 preferably stores the frames for each frame in synchronization with the reference viewpoint image and the initial depth information. Here, when the initial depth information is acquired at the same time as the reference view image, for example, a depth value for the first frame of the reference view image is included in the first frame of the initial depth information image.

영상 분할부(105)는 기준시점 영상의 컬러 유사도 및 초기 깊이정보를 이용하여, 상기 기준시점 영상을 복수의 영역으로 분할한다. 영상 분할부(105)는 평균 이동 알고리즘 및 split-and-merge 알고리즘 등을 이용하여 기준시점 영상을 분할할 수 있다.The image divider 105 divides the reference view image into a plurality of regions by using color similarity and initial depth information of the reference view image. The image splitter 105 may split the reference view image using an average shift algorithm and a split-and-merge algorithm.

보다 자세히, 영상 분할부(105)는 먼저 컬러 유사도에 따라 기준시점 영상을 복수의 영역으로 분할한다. 그리고 영상 분할부(105)는 컬러 유사도에 따라 분할되 영역에 깊이 값이 불연속하는 경계 지점이 존재할 경우 초기 깊이정보를 이용하여 분할된 영역을 재분할할 수 있다. 이 때 영상 분할부(105)는 분할된 영역 내에 대한 초기 깊이정보의 평균값에 따라 분할된 영역을 재분할 수 있는데, 분할된 영역의 화소에 대한 초기 깊이정보와 초기 깊이정보의 평균값의 차이가 기 설정된 임계값(TH1)보다 클 경우 분할된 영역을 재분할할 수 있다.In more detail, the image divider 105 first divides the reference view image into a plurality of regions according to the color similarity. The image divider 105 may repartition the divided region using initial depth information when there is a boundary point where the depth value is discontinuous in the region divided according to the color similarity. In this case, the image splitter 105 may subdivide the divided region according to the average value of the initial depth information of the divided region, and the difference between the initial depth information and the average value of the initial depth information of the pixels of the divided region may be preset. If it is larger than the threshold value TH1, the divided region may be subdivided.

제1깊이정보 생성부(107)는 영상 분할부(105)에서 분할된 복수의 영역 각각을 대상시점 영상에 대응시킨다. 그리고 제1깊이정보 생성부(107)는 대응되는 영역 사이의 컬러 유사도를 이용하여 초기 깊이정보가 보정된 최종 깊이정보를 생성한다. The first depth information generator 107 associates each of the plurality of regions divided by the image divider 105 with the target viewpoint image. The first depth information generator 107 generates final depth information with initial depth information corrected using color similarity between corresponding areas.

깊이 카메라가 제공하는 초기 깊이정보는 해상도에 제약이 있다. 즉, 깊이 카메라는 고해상도의 깊이정보를 제공하기 어려우며 기준시점 영상에 대한 대략적인 깊이정보를 제공한다. 본 발명에 따른 깊이정보 추출 장치는 최종적으로 초기 깊이정보가 보정된 최종 깊이정보를 생성한다. 제1깊이정보 생성부(107)는 스테레오 정합 등을 통하여 초기 깊이정보보다 신뢰도가 높은 최종 깊이정보를 생성하기 때문에 초기 깊이정보를 보정하여 기준시점 영상에 대한 최종 깊이정보를 생성한다고 할 수 있다. 제1깊이정보 생성부(107)는 도 2에서 보다 자세히 후술된다.Initial depth information provided by the depth camera is limited in resolution. That is, it is difficult for a depth camera to provide high resolution depth information and to provide approximate depth information for a reference view image. The depth information extracting apparatus according to the present invention finally generates final depth information in which the initial depth information is corrected. Since the first depth information generator 107 generates final depth information having higher reliability than the initial depth information through stereo matching, the first depth information generator 107 may correct the initial depth information to generate final depth information on the reference view image. The first depth information generator 107 will be described later in more detail with reference to FIG. 2.

정리하면, 본 발명에 따른 깊이정보 추출 장치는 기준시점 영상에 대한 컬러 유사도 및 초기 깊이정보를 이용하여 기준시점 영상을 분할한다. 따라서 컬러 유사도에 따라 분할된 영역에 깊이 값이 불연속하는 경계 지점이 존재할 경우, 컬러 유사도에 따라 분할된 영역은 초기 깊이정보에 의해 재분할될 수 있으며, 영역 내에 존재하는 깊이 값의 불연속에 따른 깊이정보의 오차가 개선될 수 있다.In summary, the depth information extracting apparatus according to the present invention divides the reference view image by using color similarity and initial depth information of the reference view image. Therefore, when there is a boundary point where the depth value is discontinuous in the divided region according to the color similarity, the divided region according to the color similarity may be subdivided by the initial depth information, and the depth information according to the discontinuity of the depth value existing in the region. The error of can be improved.

한편, 상기된 바와 같이 본 발명에 따른 깊이정보 추출 장치가 생성한 깊이정보는 변이정보와의 관계에 따라 변이정보로 변환될 수 있다.Meanwhile, as described above, the depth information generated by the depth information extracting apparatus according to the present invention may be converted into variation information according to the relationship with the variation information.

본 발명에 따른 깊이정보 추출 장치는 제2깊이정보 생성부(109)를 더 포함할 수 있는데, 제2깊이정보 생성부(109)는 도 2에서 자세히 설명하기로 한다.The apparatus for extracting depth information according to the present invention may further include a second depth information generator 109, which will be described in detail with reference to FIG. 2.

도 2는 도 1에 도시된 제1깊이정보 생성부(107)를 보다 상세하게 나타낸 도 면이다.FIG. 2 is a diagram illustrating in detail the first depth information generator 107 shown in FIG. 1.

도 2에 도시된 바와 같이, 본 발명에 따른 제1깊이정보 생성부(107)는 기준 깊이정보 선택부(201), 유사도 판단부(203) 및 스테레오 정합부(205)를 포함한다.As shown in FIG. 2, the first depth information generation unit 107 according to the present invention includes a reference depth information selection unit 201, a similarity determination unit 203, and a stereo matching unit 205.

기준 깊이정보 선택부(201)는 기준시점 영상의 이전 프레임과 현재 프레임 사이의 움직임 정도에 따라, 상기 기준시점 영상의 이전 프레임의 영역의 깊이 값을 기준 깊이정보로 선택한다. 여기서, 이전 프레임과 현재 프레임 사이의 움직임 정도란 이전 및 현재 프레임 각각에 존재하는 객체나 배경 장면등의 위치 차이를 의미한다.The reference depth information selecting unit 201 selects the depth value of the region of the previous frame of the reference viewpoint image as reference depth information according to the degree of movement between the previous frame and the current frame of the reference viewpoint image. Here, the degree of movement between the previous frame and the current frame means a position difference between an object or a background scene existing in each of the previous and current frames.

이 때, 기준 깊이정보 선택부(201)는 기준시점 영상의 이전 프레임과 현재 프레임의 대응되는 영역 별로 움직임 정도를 판단할 수 있는데, 일실시예로서 하기의 [수학식 1]에 따라 움직임 정도를 판단할 수 있다.At this time, the reference depth information selector 201 may determine the degree of motion for each corresponding area of the previous frame and the current frame of the reference view image. As an embodiment, the degree of motion may be determined according to Equation 1 below. You can judge.

한편, 기준 깊이정보란 후술되는 유사도 판단부(203)에서 이전 프레임과 현재 프레임의 대응되는 영역 별로 컬러 유사도를 판단함에 있어서, 기준이 되는 깊이 값이다. 자세히 후술되겠지만 유사도 판단부(203)는 기준 깊이정보에서 기 설정된 값만큼 가감한 범위내에서 가상시점 영상과 대상시점 영상의 소정 영역간 컬러 유사도를 판단한다.On the other hand, the reference depth information is a depth value as a reference in determining the color similarity for each corresponding area of the previous frame and the current frame in the similarity determination unit 203 to be described later. Although described below in detail, the similarity determining unit 203 determines the color similarity between a predetermined region of the virtual viewpoint image and the target viewpoint image within a range added or subtracted by a predetermined value from the reference depth information.

1)이전 프레임의 영역(S)과 현재 프레임의 영역(S’)의 화소 비율 > 기 설정된 임계값(TH2, 예: 85%) 1) The pixel ratio of the area S of the previous frame to the area S ′ of the current frame> a preset threshold value TH2 (eg, 85%).

2) 이전 프레임의 영역(S)과 현재 프레임의 영역(S’)내 화소 간 컬러 차이 < 기 설정된 임계값(TH3)2) Color difference between the area S of the previous frame and the area S ′ of the current frame < the preset threshold TH3

3) 이전 프레임의 영역(S)과 현재 프레임의 영역(S’)내 화소 간 초기 깊이정보(값) 차이 < 기 설정된 임계값(TH4) 3) Difference in Initial Depth Information (Value) between Pixels in the Area S of the Previous Frame and the Area S ′ of the Current Frame <Preset Threshold TH4

상기 [수학식 1]에서 현재 프레임의 영역(S’)은 이전 프레임의 영역(S)에 대응되는 영역이다. 즉, 기준 깊이정보 선택부(201)는 이전 프레임과 현재 프레임의 화소 비율, 컬러 차이 및 깊이 값 차이를 기 설정된 임계값과 비교하여 움직임 정도를 판단할 수 있다. 상기 [수학식 1]의 조건이 만족될 경우 현재 프레임의 영역(S’)과 이전 프레임의 영역(S)은 정적인 예를 들어, 배경 영역일 확률이 높으므로 기준 깊이정보 선택부(201)는 이전 프레임의 초기 깊이정보를 기준 깊이정보로 선택할 수 있다. 또한 기준 깊이정보 선택부(201)는 이전 프레임의 초기 깊이정보와 현재 프레임의 초기 깊이정보를 평균한 값을 기준 깊이정보로 선택하거나 이전 프레임에 대한 최종 깊이정보를 기준 깊이정보로 선택할 수 있다. 이 때 이전 프레임에 대한 최종 깊이정보는 후술되는 스테레오 정합부(205)로부터 제공받을 수 있다.In Equation 1, the area S ′ of the current frame is an area corresponding to the area S of the previous frame. That is, the reference depth information selector 201 may determine the degree of motion by comparing the pixel ratio, color difference, and depth value difference between the previous frame and the current frame with a preset threshold. When the condition of Equation 1 is satisfied, the reference depth information selection unit 201 is because the region S 'of the current frame and the region S of the previous frame have a high probability of being a static background, for example. May select initial depth information of the previous frame as reference depth information. In addition, the reference depth information selector 201 may select a value obtained by averaging initial depth information of the previous frame and initial depth information of the current frame as reference depth information, or select final depth information of the previous frame as reference depth information. At this time, the final depth information for the previous frame may be provided from the stereo matching unit 205 to be described later.

그리고 기준 깊이정보 선택부(201)는 상기 [수학식 1]의 세 가지 조건을 모두 고려하여 움직임 정도를 판단하거나 또는 일부만을 고려하여 움직임 정도를 판단할 수 있다. The reference depth information selecting unit 201 may determine the degree of movement in consideration of all three conditions of Equation 1, or may determine the degree of movement in consideration of only a part thereof.

한편, 움직임 정도 판단 결과, [수학식 1]의 조건이 만족되지 않거나 이전 프레임에 대한 초기 깊이정보가 존재하지 않는 경우 기준 깊이정보 선택부(201)는 현재 프레임에 대한 초기 깊이정보를 기준 깊이정보로 선택한다.On the other hand, as a result of determining the movement degree, if the condition of [Equation 1] is not satisfied or the initial depth information for the previous frame does not exist, the reference depth information selecting unit 201 uses the reference depth information for the initial depth information for the current frame. To select.

유사도 판단부(203)는 상기된 바와 같이, 기준 깊이정보에서 기 설정된 값만큼 가감한 범위내에서 영역 별로 기준시점 영상과 대상시점 영상의 컬러 유사도를 판단한다. 컬러 유사도는 SSD(Sum of Squared Distance) 또는 NCC(Normalized Cross Correlation) 등의 유사함수에 의해 판단될 수 있다. 기준 깊이정보에서 기 설정된 값만큼 가감한 범위(search_depth(x, y))는 하기의 [수학식 2]로 표현될 수 있다.As described above, the similarity determination unit 203 determines the color similarity between the reference viewpoint image and the target viewpoint image for each region within a range added or subtracted by a predetermined value in the reference depth information. The color similarity may be determined by a similar function such as a sum of squared distance (SSD) or a normalized cross correlation (NCC). The range (search_depth (x, y)) added or subtracted by a predetermined value in the reference depth information may be expressed by Equation 2 below.

Base_depth(x, y) - error_rate*Base_depth(x, y) < search_depth(x, y) < Base_depth(x, y) + error_rate*Base_depth(x, y)Base_depth (x, y)-error_rate * Base_depth (x, y) <search_depth (x, y) <Base_depth (x, y) + error_rate * Base_depth (x, y)

상기 [수학식 2]에서 Base_depth(x, y)는 기준 깊이정보 선택부(201)에서 선택된 기준 깊이정보를 나타내며, error_rate는 기준 깊이정보의 오차를 고려해 설정되는 1보다 작은 값이다.In Equation 2, Base_depth (x, y) represents reference depth information selected by the reference depth information selecting unit 201, and error_rate is a value smaller than 1 set in consideration of an error of the reference depth information.

이하 유사도 판단부(203)가 기준 깊이정보를 이용하여 컬러 유사도를 판단하는 과정을 자세히 설명한다.Hereinafter, the similarity determination unit 203 will be described in detail the process of determining the color similarity using the reference depth information.

예를 들어, 기준시점 영상과 대상시점 영상을 제공하는 카메라가 X축으로 평행하고 기준 깊이정보로부터 변환된 기준시점 영상과 대상시점 영상 간 변이정보 (값)가 '4'일 경우 유사도 판단부(203)는 4 - 0.5*4 < search_depth(x, y) < 4 + 0.5*4 의 범위 내에서 기준시점 영상과 대상시점 영상의 컬러 유사도를 판단한다. 즉, 기준시점 영상의 소정 영역의 좌표 값이 (3, 3)일 경우 유사도 판단부(203)는 대상시점 영상의 좌표 값이 (1, 3) ~ (5, 3)인 범위 내에서 기준시점 영상과 컬러 유사도를 비교 판단할 수 있다. 깊이정보와 변이정보는 밀접한 관련이 있으므로 상기 예시에서는 변이정보가 이용되어 설명되어 있다. 기준시점 영상과 대상시점 영상은 다른 시점으로 촬영된 영상이다. 따라서 기준시점 영상으로부터 얻어진 기준 깊이정보가 대상시점 영상에 그대로 적용될 수 없으며, 유사도 판단부(203)는 소정 범위내에서 컬러 유사도를 판단한다.For example, when the camera providing the base view image and the target view image is parallel to the X axis and the variation information (value) between the base view image and the target view image converted from the reference depth information is '4', the similarity determination unit ( 203 determines color similarity between the reference view image and the target view image within a range of 4-0.5 * 4 <search_depth (x, y) <4 + 0.5 * 4. That is, when the coordinate value of the predetermined region of the reference viewpoint image is (3, 3), the similarity determination unit 203 may reference the reference viewpoint within the range of (1, 3) to (5, 3) coordinate values of the target viewpoint image. The image and color similarity may be compared and determined. Since the depth information and the variation information are closely related, the variation information is described in the above example. The reference viewpoint image and the target viewpoint image are images captured at different viewpoints. Therefore, the reference depth information obtained from the reference viewpoint image cannot be applied to the target viewpoint image as it is, and the similarity determination unit 203 determines the color similarity within a predetermined range.

한편, 차폐에 의해 깊이 값이 부정확한 화소가 영역내에 포함되어 있는 경우, 유사도 판단부(203)의 컬러 유사도 판단결과에 오류가 존재할 수 있다. 따라서 유사도 판단부(203)는 컬러 유사도 판단의 오류를 감소시키기 위해 각 영역 내 화소의 컬러 값의 차이에 대한 평균에서 가장 큰 편차를 가지는 화소를 컬러 유사도 판단 과정에서 제외시키고 컬러 유사도를 판단할 수 있다. 이 때 유사도 판단부(203)는 화소의 컬러 값의 차이에 대한 표준 편차가 기 설정된 임계값(TH5)보다 작아지거나, 또는 표준 편차가 변화가 없거나, 또는 최대 반복 횟수에 도달할 때까지 반복해 컬러 유사도를 판단할 수 있다. 또한 유사도 판단부(203)는 평면 근사화 과정 및 비용함수 최적화 등을 통하여 컬러 유사도 판단의 오류를 감소시킬 수 있다.On the other hand, when a pixel having an incorrect depth value is included in the region due to shielding, an error may exist in the color similarity determination result of the similarity determination unit 203. Accordingly, the similarity determination unit 203 may determine the color similarity by excluding the pixel having the largest deviation from the average of the difference of the color values of the pixels in each region in the color similarity determination process in order to reduce errors in the color similarity determination. have. At this time, the similarity determination unit 203 repeats until the standard deviation for the difference in the color value of the pixel is smaller than the preset threshold TH5, or the standard deviation is unchanged, or reaches the maximum number of repetitions. Color similarity can be determined. In addition, the similarity determination unit 203 may reduce the error of the color similarity determination through the planar approximation process and the cost function optimization.

스테레오 정합부(205)는 유사도 판단부(203)에 의한 컬러 유사도 판단 결 과, 가장 컬러 유사도가 높은 영역 간 스테레오 정합하여 최종 깊이정보를 생성한다. The stereo matching unit 205 determines the color similarity by the similarity determination unit 203, and generates final depth information by stereo matching between the regions having the highest color similarity.

스테레오 정합을 통해 기준시점 영상과 대상시점 영상의 대응영역(화소)이 추출되고 최종 깊이정보가 생성된다. 이 때 스테레오 정합부(205)는 기준시점 영상의 현재 프레임의 초기 깊이정보, 또는 이전 프레임에서 얻어진 깊이정보를 통해 얻어진 컬러 유사도를 비교하여 가장 유사도가 높은 영역에 대응되는 영역 간 스테레오 정합을 통해 기준시점 영상의 최종 깊이정보를 생성할 수 있다. Through stereo matching, a corresponding region (pixel) of the reference viewpoint image and the target viewpoint image is extracted and final depth information is generated. At this time, the stereo matching unit 205 compares the color similarity obtained through the initial depth information of the current frame of the reference view image or the depth information obtained from the previous frame, and then performs the stereo matching between the regions corresponding to the region having the highest similarity. Final depth information of the view image may be generated.

스테레오 정합부(205)는 스테레오 정합 방법 이외에도 실루엣 기반 방법(shape from Silhoutte), 부피 기반 모델링 방법인 복셀 컬러링(Vixel Coloring), 카메라 이동에 의해 촬영된 다시점 객체에 대한 3차원 정보를 계산하는 움직임 기반 모양 추적 방법(Shape from Motion)을 기반으로 최종 깊이정보를 생성할 수 있다. 최종 깊이정보는 3차원 공간 상의 점 구름(point cloud) 또는 3차원 모델로 변환될 수 있다.In addition to the stereo matching method, the stereo matching unit 205 includes a silhouette-based method, a volume-based modeling method of voxel coloring, and a motion for calculating three-dimensional information about a multi-view object photographed by camera movement. Final depth information can be generated based on a shape shape tracking method. The final depth information may be converted into a point cloud or a three-dimensional model in the three-dimensional space.

정리하면, 본 발명에 따른 깊이정보 추출 장치는 이전 프레임의 깊이정보를 기초로 현재 프레임의 깊이정보를 생성한다. 따라서 본 발명에 따르면, 배경 영역과 같이 이전 프레임과 현재 프레임이 거의 동일할 경우 이전 프레임과 현재 프레임의 깊이정보의 연속성이 유지될 수 있다. In summary, the depth information extracting apparatus according to the present invention generates the depth information of the current frame based on the depth information of the previous frame. Therefore, according to the present invention, when the previous frame and the current frame are almost the same as the background area, the continuity of the depth information of the previous frame and the current frame can be maintained.

한편, 도 1에 도시된 제2깊이정보 생성부(109)는 기준시점 영상 및 대상시점 영상을 제공하는 카메라의 정보를 이용하여 기준시점 영상에 대한 최종 깊이정보를 대상시점 영상으로 투영시켜, 대상시점 영상에 대한 깊이정보를 생성한다. Meanwhile, the second depth information generator 109 illustrated in FIG. 1 projects the final depth information of the reference viewpoint image to the target viewpoint image by using information of a camera providing the reference viewpoint image and the target viewpoint image. Depth information about the viewpoint image is generated.

본 발명에 따른 깊이정보 추출 장치는 카메라 보정부(미도시)를 더 포함할 수 있는데, 카메라 보정부는 영상 입력부(101)로 입력된 기준시점 영상 및 대상시점 영상을 이용하여 카메라 보정(calibration)을 통해 초점 거리 등의 카메라 정보와 각 시점에 따른 상호 위치 관계를 나타내는 기반 행렬을 계산한다. 제2깊이정보 생성부(109)는 기반 행렬을 기초로 제1깊이정보 생성부(107)에서 생성되는 기준시점 영상에 대한 최종깊이 정보를 대상시점 영상으로 투영시킬 수 있다.The apparatus for extracting depth information according to the present invention may further include a camera correction unit (not shown). The camera correction unit performs camera calibration using a reference viewpoint image and a target viewpoint image inputted to the image input unit 101. By calculating the matrix based on the camera information such as the focal length and the positional relationship between each viewpoint. The second depth information generator 109 may project the final depth information of the reference view image generated by the first depth information generator 107 to the target view image based on the base matrix.

투영 결과, 기준시점 영상과 대상시점 영상의 시점 차이에 의해 홀(hole)이 발생할 경우 제2깊이정보 생성부(109)는 주변 화소의 깊이 값을 이용해 홀을 보간하여 대상시점 영상에 대한 깊이정보를 생성할 수 있다.As a result of the projection, when a hole is generated due to a difference in viewpoint between the reference viewpoint image and the target viewpoint image, the second depth information generator 109 interpolates the hole using the depth value of the neighboring pixel to depth information about the target viewpoint image. Can be generated.

이상은 본 발명이 장치적 관점에 의해 설명되었으나, 본 발명에 따른 깊이정보 추출 장치를 구성하는 각 구성 요소의 동작은 프로세스 관점에 의해 용이하게 파악될 수 있다. 따라서 본 발명에 따른 깊이정보 추출 장치에 포함된 구성 요소의 동작은 본 발명의 원리에 따라 각각 깊이정보 추출 방법에 포함된 단계로 이해될 수 있다. 이하 도 3 및 도 4를 참조하여 본 발명에 따른 깊이정보 추출 방법을 설명한다.Although the present invention has been described in terms of the apparatus, the operation of each component constituting the depth information extracting apparatus according to the present invention can be easily understood from the process point of view. Therefore, the operation of the components included in the depth information extraction apparatus according to the present invention can be understood as the steps included in each depth information extraction method according to the principles of the present invention. Hereinafter, a method of extracting depth information according to the present invention will be described with reference to FIGS. 3 and 4.

도 3은 본 발명의 일실시예에 따른 깊이정보 추출 방법을 나타내는 흐름도이다.3 is a flowchart illustrating a method of extracting depth information according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 본 발명에 따른 깊이정보 추출 방법은 단계 S301로부터 시작된다. 단계 S301에서 기준시점 영상 및 대상시점 영상이 입력되어 저장 된다. 기준시점 영상 및 대상시점 영상은 카메라로부터 획득되고 입력되어 동기가 맞춰져 저장될 수 있다.As shown in Fig. 3, the depth information extraction method according to the present invention starts from step S301. In operation S301, the reference view image and the target view image are input and stored. The reference view image and the target view image may be obtained from a camera, input, and synchronized and stored.

단계 S303에서 기준시점 영상에 대한 초기 깊이정보가 입력되어 저장된다. 초기 깊이정보는 깊이 카메라로부터 획득되어 입력될 수 있으며, 기준시점 영상과 동일 시간에 획득됨이 바람직하다. In operation S303, initial depth information of a reference view image is input and stored. The initial depth information may be obtained from the depth camera and input, and may be obtained at the same time as the reference view image.

단계 S305에서 기준시점 영상의 컬러 유사도 및 초기 깊이정보가 이용되어, 기준시점 영상이 복수의 영역으로 분할된다. 보다 자세히, 단계 S305에서 컬러 유사도에 따라 분할된 영역에 깊이 값의 불연속 경계 지점이 존재하는 경우 초기 깊이정보에 의해 재분할될 수 있다. 이 때, 분할된 영역의 화소에 대한 초기 깊이정보와 초기 깊이정보의 평균값의 차이가 기 설정된 임계값(TH1)보다 클 경우 분할된 영역이 재분할될 수 있다.In operation S305, the color similarity and the initial depth information of the reference viewpoint image are used to divide the reference viewpoint image into a plurality of regions. In more detail, when there is a discontinuous boundary point of the depth value in the divided region according to the color similarity in step S305, it may be re-divided by the initial depth information. In this case, when the difference between the average value of the initial depth information and the initial depth information of the pixels of the divided region is greater than the preset threshold TH1, the divided region may be re-divided.

단계 S307에서 분할된 복수의 영역 각각을 대상시점 영상에 대응시키고, 대응되는 영역 사이의 컬러 유사도를 이용하여 초기 깊이정보가 보정된 최종 깊이정보가 생성된다. 단계 S307에서 스테레오 정합 등의 방법이 이용되어 최종 깊이정보가 생성될 수 있는데, 단계 S307은 도 4에서 보다 자세히 후술된다.Each of the plurality of divided regions in step S307 corresponds to the object viewpoint image, and final depth information is generated by correcting initial depth information by using color similarity between the corresponding regions. In step S307, a method such as stereo matching may be used to generate final depth information. Step S307 will be described later in more detail with reference to FIG.

한편, 본 발명에 따른 깊이정보 추출 방법은 단계 S309를 더 포함할 수 있다. 단계 S309는 도 4에서 단계 S307과 함께 설명하기로 한다.Meanwhile, the method for extracting depth information according to the present invention may further include step S309. Step S309 will be described along with step S307 in FIG. 4.

도 4는 도 3에 도시된 단계 S307을 보다 자세히 나타낸 흐름도이다.FIG. 4 is a flowchart showing step S307 shown in FIG. 3 in more detail.

도 4에 도시된 바와 같이, 단계 S307는 보다 자세히 단계 S401로부터 시작 된다.As shown in Fig. 4, step S307 starts from step S401 in more detail.

단계 S401에서, 기준시점 영상의 이전 프레임과 현재 프레임 사이의 움직임 정도에 따라, 기준시점 영상의 이전 프레임의 영역의 깊이 값이 기준 깊이정보로 선택된다. 움직임 정도는 상기 [수학식 1]에 따라 이전 프레임과 현재 프레임의 영역 별 화소 비율, 컬러 차이, 깊이 정보(값) 차이가 기 설정된 임계값과 비교되어 판단될 수 있다. 이 때 이전 프레임의 초기 깊이정보 또는 이전 프레임의 초기 깊이정보와 현재 프레임의 초기 깊이정보가 평균된 값 등이 기준 깊이정보로 선택될 수 있다.In operation S401, the depth value of the region of the previous frame of the reference viewpoint image is selected as reference depth information according to the degree of movement between the previous frame and the current frame of the reference viewpoint image. The degree of motion may be determined by comparing the pixel ratio, color difference, and depth information (value) difference between regions of the previous frame and the current frame according to Equation 1 above with a preset threshold. At this time, the initial depth information of the previous frame or the value obtained by averaging the initial depth information of the previous frame and the initial depth information of the current frame may be selected as the reference depth information.

단계 S403에서, 기준 깊이정보에서 기 설정된 값만큼 가감한 범위 내에서 영역 별로 상기 기준시점 영상과 상기 대상시점 영상의 컬러 유사도가 판단된다. 기준 깊이정보에서 기 설정된 값만큼 가감한 범위(search_depth(x, y))는 상기의 [수학식 2]로 표현될 수 있다. 기준시점 영상과 대상시점 영상은 다른 시점으로 촬영된 영상이므로 기준시점 영상으로부터 얻어진 기준 깊이정보가 대상시점 영상에 그대로 적용될 수 없으며, 단계 S403에서 소정 범위내에서 컬러 유사도가 판단된다.In step S403, the color similarity between the reference viewpoint image and the target viewpoint image is determined for each region within a range added or subtracted by a predetermined value from the reference depth information. The range search_depth (x, y) subtracted by a predetermined value from the reference depth information may be expressed by Equation 2 above. Since the reference viewpoint image and the target viewpoint image are images captured at different viewpoints, reference depth information obtained from the reference viewpoint image cannot be directly applied to the target viewpoint image, and color similarity is determined within a predetermined range in step S403.

이 때, 단계 S403에서, 차폐 영역 등에 의한 컬러 유사도 판단의 오류를 감소시키기 위해 각 영역 내 화소의 컬러 값의 차이에 대한 평균에서 가장 큰 편차를 가지는 화소가 컬러 유사도 판단 과정에서 제외되어 컬러 유사도가 판단될 수 있다. 단계 S403에서 화소의 컬러 값의 차이에 대한 표준 편차가 기 설정된 임계값(TH5)보다 작아지거나, 또는 표준 편차가 변화가 없거나, 또는 최대 반복 횟수에 도달할 때까지 컬러 유사도가 판단될 수 있다.At this time, in step S403, in order to reduce the error of the color similarity determination by the shielding area or the like, the pixel having the largest deviation from the average with respect to the difference in the color values of the pixels in each area is excluded from the color similarity determination process and the color similarity is determined. Can be judged. In step S403, the color similarity may be determined until the standard deviation of the difference in color values of the pixels becomes smaller than the preset threshold value TH5, or the standard deviation is unchanged or the maximum number of repetitions is reached.

단계 S405에서, 단계 S403에서의 컬러 유사도 판단 결과, 가장 컬러 유사도가 높은 영역 간 스테레오 정합하여 최종 깊이정보가 생성된다. 스테레오 정합을 통해 기준시점 영상과 대상시점 영상의 대응영역(화소)이 추출되고 최종 깊이정보가 생성된다.In step S405, as a result of the color similarity determination in step S403, final depth information is generated by stereo matching between areas having the highest color similarity. Through stereo matching, a corresponding region (pixel) of the reference viewpoint image and the target viewpoint image is extracted and final depth information is generated.

한편, 도 3에 도시된 단계 S309에서, 기준시점 영상 및 대상시점 영상을 제공하는 카메라의 정보가 이용되어 상기 기준시점 영상에 대한 최종 깊이정보가 상기 대상시점 영상에 투영되고, 상기 대상시점 영상에 대한 깊이정보가 생성된다. Meanwhile, in step S309 illustrated in FIG. 3, information of a camera providing a reference viewpoint image and a target viewpoint image is used to project final depth information of the reference viewpoint image to the target viewpoint image, and to the target viewpoint image. Depth information is generated.

단계 S309에서는, 단계 S301에서 입력된 기준시점 영상 및 대상시점 영상이 이용되어 카메라 보정(calibration)을 통해 초점 거리 등의 카메라 정보와 각 시점에 따른 상호 위치 관계를 나타내는 기반 행렬이 계산된다. 단계 S309에서 기반 행렬을 기초로 단계 S307에서 생성되는 기준시점 영상에 대한 최종깊이 정보가 대상시점 영상에 투영될 수 있다..In step S309, the reference matrix image and the target viewpoint image input in step S301 are used to calculate a matrix based on camera information such as a focal length and a mutual positional relationship for each viewpoint through camera calibration. In operation S309, final depth information on the reference view image generated in operation S307 may be projected onto the target view image based on the base matrix.

투영 결과, 기준시점 영상과 대상시점 영상의 시점 차이에 의해 홀이 발생할 경우 단계 S309에서 주변 화소의 깊이 값을 이용해 홀을 보간하여 대상시점 영상에 대한 최종 깊이정보를 생성할 수 있다. 기준시점 영상 및 대상시점 영상에 대한 깊이정보는 디지털 영상으로 기록될 수 있으며, 디지털 영상은 3차원 공간 상의 점 구름 또는 3차원 모델로 변환될 수 있다.As a result of the projection, when holes are generated due to a difference in viewpoints between the reference viewpoint image and the target viewpoint image, final depth information on the target viewpoint image may be generated by interpolating the holes using depth values of surrounding pixels in step S309. Depth information about the reference view image and the target view image may be recorded as a digital image, and the digital image may be converted into a point cloud or a 3D model in a 3D space.

한편, 전술한 바와 같은 본 발명에 따른 깊이정보 추출 방법은 컴퓨터 프로 그램으로 작성이 가능하다. 그리고 상기 프로그램을 구성하는 코드 및 코드 세그먼트는 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 작성된 프로그램은 컴퓨터가 읽을 수 있는 기록매체(정보저장매체)에 저장되고, 컴퓨터에 의하여 판독되고 실행됨으로써 본 발명의 방법을 구현한다. 그리고 상기 기록매체는 컴퓨터가 판독할 수 있는 모든 형태의 기록매체(CD, DVD)와 같은 유형적 매체뿐만 아니라 반송파와 같은 무형적 매체)를 포함한다.On the other hand, the depth information extraction method according to the present invention as described above can be created by a computer program. And the code and code segments constituting the program can be easily inferred by a computer programmer in the art. In addition, the written program is stored in a computer-readable recording medium (information storage medium), and read and executed by a computer to implement the method of the present invention. The recording medium includes all types of computer-readable recording media (CD, DVD), as well as intangible media such as carrier waves.

또한 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.In addition, although the present invention has been described by way of limited embodiments and drawings, the present invention is not limited thereto and is equivalent to the technical spirit and claims of the present invention by those skilled in the art to which the present invention pertains. Of course, various modifications and variations are possible within the scope.

도 1은 본 발명의 일실시예에 따른 깊이정보 추출 장치를 나타내는 도면,1 is a diagram showing an apparatus for extracting depth information according to an embodiment of the present invention;

도 2는 도 1에 도시된 제1깊이정보 생성부(107)를 보다 상세하게 나타낸 도면,FIG. 2 is a diagram illustrating the first depth information generator 107 shown in FIG. 1 in more detail.

도 3은 본 발명의 일실시예에 따른 깊이정보 추출 방법을 나타내는 흐름도,3 is a flowchart illustrating a method of extracting depth information according to an embodiment of the present invention;

도 4는 도 4는 도 3에 도시된 단계 S307을 보다 자세히 나타낸 흐름도이다.4 is a flowchart showing in more detail the step S307 shown in FIG.

Claims (10)

기준시점 영상 및 대상시점 영상을 입력받아 저장하는 영상 입력부;An image input unit which receives and stores a reference view image and a target view image; 상기 기준시점 영상에 대한 초기 깊이정보를 입력받아 저장하는 깊이정보 입력부;A depth information input unit configured to receive and store initial depth information of the reference viewpoint image; 상기 기준시점 영상의 컬러 유사도 및 상기 초기 깊이정보를 이용하여, 상기 기준시점 영상을 복수의 영역(segment)으로 분할하는 영상 분할부; 및An image dividing unit dividing the reference viewpoint image into a plurality of segments by using the color similarity of the reference viewpoint image and the initial depth information; And 상기 분할된 복수의 영역 각각을 상기 대상시점 영상에 대응시키고, 대응되는 영역 사이의 컬러 유사도를 이용하여, 상기 초기 깊이정보가 보정된 최종 깊이정보를 생성하는 제1깊이정보 생성부A first depth information generation unit that corresponds to each of the divided regions to correspond to the target viewpoint image, and generates final depth information of which the initial depth information is corrected using color similarity between corresponding regions; 를 포함하는 깊이정보 추출 장치.Depth information extraction device comprising a. 제 1항에 있어서,The method of claim 1, 상기 영상 분할부는The image divider 상기 컬러 유사도에 따라 상기 기준시점 영상을 복수의 영역으로 분할하고, 상기 분할된 복수의 영역을 상기 초기 깊이정보와 상기 초기 깊이정보의 평균값의 차이에 따라 재분할하는Dividing the reference view image into a plurality of areas according to the color similarity, and repartitioning the divided plurality of areas according to a difference between an average value of the initial depth information and the initial depth information. 깊이정보 추출 장치.Depth information extraction device. 제 1항에 있어서,The method of claim 1, 상기 제1깊이정보 생성부는The first depth information generator 상기 기준시점 영상의 이전 프레임과 현재 프레임 사이의 움직임 정도에 따라, 상기 이전 프레임의 영역의 깊이 값을 기준 깊이정보로 선택하는 기준 깊이정보 선택부; A reference depth information selecting unit which selects a depth value of an area of the previous frame as reference depth information according to a movement degree between a previous frame and a current frame of the reference viewpoint image; 상기 기준 깊이정보에서 기 설정된 값만큼 가감한 범위 내에서 영역 별로 상기 기준시점 영상과 상기 대상시점 영상의 컬러 유사도를 판단하는 유사도 판단부; 및A similarity determination unit that determines a color similarity between the reference viewpoint image and the target viewpoint image for each region within a range added or subtracted by a preset value from the reference depth information; And 상기 컬러 유사도 판단 결과, 가장 컬러 유사도가 높은 영역 간 스테레오 정합하여 상기 제1최종 깊이정보를 생성하는 스테레오 정합부As a result of the color similarity determination, the stereo matching unit generates the first final depth information by stereo matching between areas having the highest color similarity. 를 포함하는 깊이정보 추출 장치.Depth information extraction device comprising a. 제 3항에 있어서,The method of claim 3, wherein 상기 기준 깊이 정보 선택부는The reference depth information selection unit 상기 기준시점 영상의 이전 프레임과 현재 프레임의 영역 별로 화소 비율, 컬러 차이 및 깊이 값 차이를 기 설정된 임계값과 비교하여 상기 움직임 정도를 판단하는 Determining the degree of movement by comparing the pixel ratio, color difference, and depth value difference for each region of the previous frame and the current frame of the reference viewpoint image with a preset threshold value 깊이정보 추출 장치.Depth information extraction device. 제 1항에 있어서,The method of claim 1, 상기 기준시점 영상 및 상기 대상시점 영상을 제공하는 카메라의 정보를 이용하여 상기 기준시점 영상에 대한 최종 깊이정보를 상기 대상시점 영상으로 투영시켜, 상기 대상시점 영상에 대한 깊이정보를 생성하는 제2깊이정보 생성부A second depth for generating depth information of the target viewpoint image by projecting final depth information of the reference viewpoint image to the target viewpoint image using information of the reference viewpoint image and a camera providing the target viewpoint image; Information generator 를 더 포함하는 깊이정보 추출 장치.Depth information extraction device further comprising. 기준시점 영상 및 대상시점 영상을 입력받아 저장하는 단계;Receiving and storing a reference view image and a target view image; 상기 기준시점 영상에 대한 초기 깊이정보를 입력받아 저장하는 단계;Receiving and storing initial depth information of the reference view image; 상기 기준시점 영상의 컬러 유사도 및 상기 초기 깊이정보를 이용하여, 상기 기준시점 영상을 복수의 영역으로 분할하는 단계; 및Dividing the reference view image into a plurality of areas by using color similarity of the reference view image and the initial depth information; And 상기 분할된 복수의 영역 각각을 상기 대상시점 영상에 대응시키고, 대응되는 영역 사이의 컬러 유사도를 이용하여, 상기 초기 깊이정보가 보정된 최종 깊이정보를 생성하는 단계Generating each of the plurality of divided regions corresponding to the target viewpoint image, and using the color similarity between the corresponding regions, to generate final depth information of which the initial depth information is corrected. 를 포함하는 깊이정보 추출 방법.Depth information extraction method comprising a. 제 6항에 있어서,The method of claim 6, 상기 기준시점 영상을 복수의 영역으로 분할하는 단계는The step of dividing the reference view image into a plurality of regions 상기 컬러 유사도에 따라 상기 기준시점 영상을 복수의 영역으로 분할하고, 상기 복수의 영역을 상기 초기 깊이정보와 상기 초기 깊이정보의 평균 값의 차이에 따라 재분할하는The reference point image is divided into a plurality of areas according to the color similarity, and the plurality of areas are re-divided according to a difference between the average value of the initial depth information and the initial depth information. 깊이정보 추출 방법.Depth information extraction method. 제 6항에 있어서,The method of claim 6, 상기 최종 깊이정보를 생성하는 단계는Generating the final depth information 상기 기준시점 영상의 이전 프레임과 현재 프레임 사이의 움직임 정도에 따라, 상기 이전 프레임의 영역의 깊이 값을 기준 깊이정보로 선택하는 단계; Selecting a depth value of an area of the previous frame as reference depth information according to a movement degree between a previous frame and a current frame of the reference view image; 상기 기준 깊이정보에서 기 설정된 값만큼 가감한 범위 내에서 영역 별로 상기 기준시점 영상과 상기 대상시점 영상의 컬러 유사도를 판단하는 단계; 및Determining a color similarity between the reference viewpoint image and the target viewpoint image for each region within a range subtracted by a predetermined value from the reference depth information; And 상기 컬러 유사도 판단 결과, 가장 컬러 유사도가 높은 영역 간 스테레오 정합하여 상기 최종 깊이정보를 생성하는 단계Generating final final information by stereo matching between areas having the highest color similarity as a result of the color similarity determination; 를 포함하는 깊이정보 추출 방법.Depth information extraction method comprising a. 제 8항에 있어서,The method of claim 8, 상기 기준 깊이정보를 선택하는 단계는The step of selecting the reference depth information 상기 기준시점 영상의 이전 프레임과 현재 프레임의 영역 별로 화소 비율, 컬러 차이 및 깊이 값 차이를 기 설정된 임계값과 비교하여 상기 움직임 정도를 판단하는 Determining the degree of movement by comparing the pixel ratio, color difference, and depth value difference for each region of the previous frame and the current frame of the reference viewpoint image with a preset threshold value 깊이정보 추출 방법.Depth information extraction method. 제 6항에 있어서,The method of claim 6, 상기 기준시점 영상 및 상기 대상시점 영상을 제공하는 카메라의 정보를 이용하여 상기 기준시점 영상에 대한 최종 깊이정보를 상기 대상시점 영상으로 투영시켜, 상기 대상시점 영상에 대한 깊이정보를 생성하는 단계Generating depth information on the target viewpoint image by projecting final depth information on the reference viewpoint image to the target viewpoint image using information of the reference viewpoint image and a camera providing the target viewpoint image. 를 더 포함하는 깊이정보 추출 방법.Depth information extraction method further comprising.
KR1020090030315A 2008-12-05 2009-04-08 Apparatus and method for extracting depth information KR101086274B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20080123268 2008-12-05
KR1020080123268 2008-12-05

Publications (2)

Publication Number Publication Date
KR20100065037A true KR20100065037A (en) 2010-06-15
KR101086274B1 KR101086274B1 (en) 2011-11-24

Family

ID=42364545

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090030315A KR101086274B1 (en) 2008-12-05 2009-04-08 Apparatus and method for extracting depth information

Country Status (1)

Country Link
KR (1) KR101086274B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101109695B1 (en) * 2010-10-20 2012-01-31 주식회사 아이닉스 Apparatus and method for control speed auto focus
KR20120016439A (en) * 2010-08-16 2012-02-24 삼성전자주식회사 Image processing apparatus and method
WO2012135220A3 (en) * 2011-03-30 2013-01-03 Intel Corporation Real-time depth extraction using stereo correspondence
US9819879B2 (en) 2011-07-12 2017-11-14 Samsung Electronics Co., Ltd. Image filtering apparatus and method based on noise prediction using infrared ray (IR) intensity
KR102090666B1 (en) * 2019-02-11 2020-03-18 주식회사 넥스트칩 Method and apparatus for generating a disparity map for stereo images

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101600183B1 (en) * 2014-07-08 2016-03-04 재단법인 다차원 스마트 아이티 융합시스템 연구단 Method and apparatus for extracting depth information from image
KR101783585B1 (en) 2017-06-02 2017-10-10 김창수 Method for managing plant facilities

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100776649B1 (en) * 2004-12-06 2007-11-19 한국전자통신연구원 A depth information-based Stereo/Multi-view Stereo Image Matching Apparatus and Method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120016439A (en) * 2010-08-16 2012-02-24 삼성전자주식회사 Image processing apparatus and method
KR101109695B1 (en) * 2010-10-20 2012-01-31 주식회사 아이닉스 Apparatus and method for control speed auto focus
WO2012135220A3 (en) * 2011-03-30 2013-01-03 Intel Corporation Real-time depth extraction using stereo correspondence
US8823777B2 (en) 2011-03-30 2014-09-02 Intel Corporation Real-time depth extraction using stereo correspondence
US9819879B2 (en) 2011-07-12 2017-11-14 Samsung Electronics Co., Ltd. Image filtering apparatus and method based on noise prediction using infrared ray (IR) intensity
KR102090666B1 (en) * 2019-02-11 2020-03-18 주식회사 넥스트칩 Method and apparatus for generating a disparity map for stereo images

Also Published As

Publication number Publication date
KR101086274B1 (en) 2011-11-24

Similar Documents

Publication Publication Date Title
US11954813B2 (en) Three-dimensional scene constructing method, apparatus and system, and storage medium
KR100931311B1 (en) Depth estimation device and its method for maintaining depth continuity between frames
KR101086274B1 (en) Apparatus and method for extracting depth information
CN111050210B (en) Method of performing operations, video processing system, and non-transitory computer readable medium
US8611641B2 (en) Method and apparatus for detecting disparity
US8350850B2 (en) Using photo collections for three dimensional modeling
KR100953076B1 (en) Multi-view matching method and device using foreground/background separation
KR100793076B1 (en) Edge-adaptive stereo/multi-view image matching apparatus and its method
US20120176478A1 (en) Forming range maps using periodic illumination patterns
US20120176380A1 (en) Forming 3d models using periodic illumination patterns
KR101181199B1 (en) Stereoscopic image generation method of background terrain scenes, system using the same and recording medium for the same
US20090079730A1 (en) Method and apparatus for generating 3D image using 2D photograph images
KR100745691B1 (en) Binocular or multi-view stereo matching apparatus and its method using occlusion area detection
KR20090055803A (en) Method and apparatus for generating multi-viewpoint depth map, method for generating disparity of multi-viewpoint image
US10708505B2 (en) Image processing apparatus, method, and storage medium
WO2019082797A1 (en) Reconfiguration method and reconfiguration device
KR20130003135A (en) Apparatus and method for capturing light field geometry using multi-view camera
KR20090008808A (en) Apparatus and method for converting 2d image signals into 3d image signals
KR100926520B1 (en) Apparatus and method of matching binocular/multi-view stereo using foreground/background separation and image segmentation
US20120050485A1 (en) Method and apparatus for generating a stereoscopic image
US20140125778A1 (en) System for producing stereoscopic images with a hole filling algorithm and method thereof
Orozco et al. HDR multiview image sequence generation: Toward 3D HDR video
KR101717381B1 (en) Apparatus and method for stereo camera-based free space estimation, recording medium thereof
KR101233398B1 (en) Method and apparatus for generating depth map
KR100897834B1 (en) Calibration method for omnidirectional camera

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee