KR101275749B1 - 3차원 깊이정보 획득 방법 및 그 장치 - Google Patents

3차원 깊이정보 획득 방법 및 그 장치 Download PDF

Info

Publication number
KR101275749B1
KR101275749B1 KR1020120140507A KR20120140507A KR101275749B1 KR 101275749 B1 KR101275749 B1 KR 101275749B1 KR 1020120140507 A KR1020120140507 A KR 1020120140507A KR 20120140507 A KR20120140507 A KR 20120140507A KR 101275749 B1 KR101275749 B1 KR 101275749B1
Authority
KR
South Korea
Prior art keywords
depth information
captured image
image
bright
pixel
Prior art date
Application number
KR1020120140507A
Other languages
English (en)
Inventor
최상복
Original Assignee
최상복
박영만
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 최상복, 박영만 filed Critical 최상복
Priority to KR1020120140507A priority Critical patent/KR101275749B1/ko
Application granted granted Critical
Publication of KR101275749B1 publication Critical patent/KR101275749B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은, 적어도 하나의 슬릿을 통해 단색 광원을 통과시키는 슬릿 수단에 의해 물체 상에 발생되는 간섭무늬들을 촬영한 제1 촬상 영상을 카메라 수단을 이용하여 획득하는 단계와, 상기 제1 촬상 영상 내의 간섭무늬들 중 간헐적으로 발생되는 복수의 밝은 무늬들을 이미지 처리하여 실선화 하는 단계와, 상기 실선화된 밝은 무늬들 각각에 대한 간섭의 차수와, 상기 밝은 무늬들이 위치한 픽셀의 좌표를 이용하여, 상기 제1 촬상 영상의 전체 픽셀들 중 상기 밝은 무늬들이 위치한 픽셀 지점들에 대한 깊이 정보를 획득하는 단계를 포함하는 3차원 깊이정보 획득 방법을 제공한다.

Description

3차원 깊이정보 획득 방법 및 그 장치{Method for acquiring three dimensional depth information and apparatus thereof}
본 발명은 3차원 깊이정보 획득 방법 및 그 장치에 관한 것으로서, 보다 상세하게는 2D 카메라로 획득된 물체의 2차원 영상에 물체의 깊이 정보를 융합하여 3D 영상 정보를 생성할 수 있는 3차원 깊이정보 획득 방법 및 그 장치에 관한 것이다.
일반적으로 3D 영상 정보는 동작감지 게임, 휴먼로봇의 눈, 정밀 측정 장비 등에 다양하게 응용되고 있다. 3D 영상 정보를 획득하는데 있어서 지금까지 가장 많이 사용된 방식은 두 2D 카메라 간의 물리적 거리 및 각을 기초로 하여 두 영상의 차를 삼각함수 등으로 계산하는 방법이다. 이 방법은 연산 량이 많아 실시간 양산 시스템 검사에 적용이 어렵고 카메라를 주기적으로 보정해 주어야 하므로 유지관리 비용이 많이 소요되는 단점이 있다. 본 발명의 배경이 되는 기술은 국내공개특허 제2012-0073178호에 개시되어 있다.
또한, 적외선 depth 센서를 이용한 3D 영상정보 획득 방법으로는 적외선이 물체에 반사되어 돌아오는 시간을 측정하여 깊이 정보를 인식하는 방법과 적외선 점을 바둑판 배열하여 적외선 점의 크기와 적외선 점의 거리를 이용하여 깊이정보를 인식하는 방법이 있으나, 두 방법은 별도의 적외선 카메라가 필요하고, 가격이 비싸다는 단점이 있다.
본 발명은 2D 카메라로 획득된 물체의 2차원 영상에 물체의 깊이 정보를 융합하여 3D 영상 정보를 용이하게 생성할 수 있는 3차원 깊이정보 획득 방법 및 그 장치를 제공하는데 목적이 있다.
본 발명은, 적어도 하나의 슬릿을 통해 단색 광원을 통과시키는 슬릿 수단에 의해 물체 상에 발생되는 간섭무늬들을 촬영한 제1 촬상 영상을 카메라 수단을 이용하여 획득하는 단계와, 상기 제1 촬상 영상 내의 간섭무늬들 중 간헐적으로 발생되는 복수의 밝은 무늬들을 이미지 처리하여 실선화 하는 단계와, 상기 실선화된 밝은 무늬들 각각에 대한 간섭의 차수와, 상기 밝은 무늬들이 위치한 픽셀의 좌표를 이용하여, 상기 제1 촬상 영상의 전체 픽셀들 중 상기 밝은 무늬들이 위치한 픽셀 지점들에 대한 깊이 정보를 획득하는 단계를 포함하는 3차원 깊이정보 획득 방법을 제공한다.
여기서, 상기 깊이 정보를 획득하는 단계는, 상기 밝은 무늬들 각각에 대한 간섭의 차수, 상기 밝은 무늬들이 위치한 픽셀의 좌표, 상기 픽셀 하나로 표현 가능한 실제 크기, 상기 단색 광원의 파장, 그리고 상기 슬릿의 규격을 이용하여 상기 픽셀 지점들에 대한 실제 깊이 정보를 아래의 수학식을 통해 획득할 수 있다.
Lreal = (d·y)/(m·λ)
여기서, Lreal은 상기 간섭의 차수가 m인 밝은 무늬에 포함된 픽셀 지점의 실제 깊이 정보, d는 상기 슬롯이 하나인 경우에는 상기 슬롯의 크기이고 상기 슬롯이 두 개인 경우에는 두 슬롯 간의 간격, y는 상기 차수가 0인 밝은 무늬의 중심으로부터 상기 차수가 m인 밝은 무늬에 포함된 픽셀 지점까지의 실제 거리, 상기 λ는 상기 단색 광원의 파장이다.
그리고, 상기 슬릿이 두 개인 경우, 상기 깊이 정보 획득 시에 상기 실선화된 밝은 무늬들 간의 교차 지점에 해당되는 픽셀의 좌표를 이용하여 상기 교차 지점들에 대한 깊이 정보를 획득할 수 있다.
또한, 3차원 깊이정보 획득 방법은, 상기 카메라 수단을 이용하여 상기 물체의 제2 촬상 영상을 획득하는 단계와, 상기 제2 촬상 영상 내의 색상 정보를 바탕으로 상기 제2 촬상 영상을 복수의 분할 영역들로 구분하는 단계, 및 상기 제1 촬상 영상에서 획득된 상기 밝은 무늬들이 위치한 픽셀 지점들에 대한 깊이 정보를 상기 제2 촬상 영상의 각 분할 영역에 대해 매핑하여 3차원 영상정보를 생성하되, 상기 분할 영역 내에서 상기 깊이 정보가 없는 픽셀 지점의 경우 해당 분할 영역에 매핑되어 있는 적어도 하나의 픽셀 지점에 대한 깊이 정보를 이용하여 깊이 정보를 생성하여 매핑하는 단계를 더 포함할 수 있다.
또한, 상기 3차원 영상정보를 생성하는 단계에서, 상기 해당 분할 영역에 매핑되어 있는 적어도 하나의 픽셀 지점에 대한 깊이 정보가 동일하면, 상기 해당 분할 영역 내에 깊이 정보가 없는 픽셀 지점들에 대해 상기 동일한 깊이 정보를 생성하고, 상기 해당 분할 영역에 매핑되어 있는 복수의 픽셀 지점에 대한 깊이 정보가 상이하면, 상기 깊이 정보가 상이한 두 픽셀 지점의 사이에 위치한 픽셀 지점들에 대해 상기 두 픽셀 지점의 깊이 정보를 기준으로 1차 함수를 적용하여 선형적으로 깊이 정보를 생성할 수 있다.
그리고, 본 발명은, 적어도 하나의 슬릿을 통해 단색 광원을 통과시키는 슬릿 수단에 의해 물체 상에 발생되는 간섭무늬들을 촬영한 제1 촬상 영상을 카메라 수단을 이용하여 획득하는 제1 영상 획득부와, 상기 제1 촬상 영상 내의 간섭무늬들 중 간헐적으로 발생되는 복수의 밝은 무늬들을 이미지 처리하여 실선화 하는 이미지 처리부와, 상기 실선화된 밝은 무늬들 각각에 대한 간섭의 차수와, 상기 밝은 무늬들이 위치한 픽셀의 좌표를 이용하여, 상기 제1 촬상 영상의 전체 픽셀들 중 상기 밝은 무늬들이 위치한 픽셀 지점들에 대한 깊이 정보를 획득하는 깊이 정보 획득부를 포함하는 3차원 깊이정보 획득 장치를 제공한다.
여기서, 상기 3차원 깊이정보 획득 장치는, 상기 카메라 수단을 이용하여 상기 물체의 제2 촬상 영상을 획득하는 제2 영상 획득부와, 상기 제2 촬상 영상 내의 색상 정보를 바탕으로 상기 제2 촬상 영상을 복수의 분할 영역들로 구분하는 영역 그룹핑부, 및 상기 제1 촬상 영상에서 획득된 상기 밝은 무늬들이 위치한 픽셀 지점들에 대한 깊이 정보를 상기 제2 촬상 영상의 각 분할 영역에 대해 매핑하여 3차원 영상정보를 생성하되, 상기 분할 영역 내에서 상기 깊이 정보가 없는 픽셀 지점의 경우 해당 분할 영역에 매핑되어 있는 적어도 하나의 픽셀 지점에 대한 깊이 정보를 이용하여 깊이 정보를 생성하여 매핑하는 3차원 영상 생성부를 더 포함할 수 있다.
본 발명에 따른 3차원 깊이정보 획득 방법 및 그 장치에 따르면, 2D 카메라로 획득된 물체의 2차원 영상에 물체의 깊이 정보를 융합하여 3D 영상 정보를 용이하게 생성할 수 있는 이점이 있다.
도 1은 본 발명의 실시예에 따른 3차원 깊이정보 획득 방법의 개념도이다.
도 2는 도 1의 슬릿 수단의 예시도이다.
도 3은 도 2에서 이중 슬릿 구조를 사용할 경우 물체에 발생되는 간섭무늬를 설명하는 개념도이다.
도 4는 도 2의 슬릿 개수에 따른 간섭무늬의 예를 나타낸다.
도 5는 본 발명의 실시예에 따른 3차원 깊이정보 획득 장치의 구성도이다.
도 6은 도 5를 이용한 3차원 깊이정보 획득 방법의 흐름도이다.
도 7은 본 실시예에 적용 가능한 바형 슬릿의 개념도이다.
도 8은 도 7의 종축 바형 슬릿과 횡축 바형 슬릿을 이용한 슬릿 수단의 개략 배치도이다.
도 9는 도 6의 S660 단계를 설명하는 예시도이다.
그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.
도 1은 본 발명의 실시예에 따른 3차원 깊이정보 획득 방법의 개념도이다. 본 발명은 2D 카메라로 획득된 물체의 2차원 영상에 물체의 깊이 정보를 융합하여 3차원 영상 정보를 생성한다. 이를 위해 본 발명은 슬릿 수단(200), 카메라 수단(100), 조명 수단(300)을 포함한다.
먼저, 카메라 수단(100)은 물체(10)에 대한 2차원 촬상 영상을 획득하는 부분으로서 일반적인 2D 카메라로 구현된다. 여기서 2차원 촬상 영상은 조명 수단(300)에 의해 물체(10)에 일반 조명이 조사된 상태에서 획득한다.
슬릿 수단(200)은 적어도 하나의 슬릿(ex, 단일 슬릿, 이중 슬릿)을 통해 단색 광원을 통과시켜서 물체(10)의 표면 상에 간섭무늬들을 발생시킨다. 여기서 간섭무늬는 회절무늬의 개념을 포함하는 것임은 자명하다. 이러한 슬릿 수단(200)은 기 공지된 장치에 해당되는 것으로서 토마스 영의 빛의 간섭 원리에 따른 것이다.
도 2는 도 1의 슬릿 수단의 예시도이다. 도 2의 (a)는 단일 슬릿, (b)는 이중 슬릿 구조에 해당된다. 이러한 단일 및 이중 슬릿의 구조는 기존에 공지된 바 있다. 사용되는 단색 광원으로는 적외선, 자외선, 가시광선 중 선택적으로 사용 가능하다. 다만, 물체(10)가 생물인 경우 자외선의 사용은 배제한다.
도 3은 도 2에서 이중 슬릿 구조를 사용할 경우 물체에 발생되는 간섭무늬를 설명하는 개념도이다. 도 3은 설명의 편의상 간섭무늬를 물체의 단면에 대해 표현한 것이다.
도 3의 (a)에서 우측 부분에 도시한 바와 같이, 간섭무늬는 상쇄 간섭에 의해 발생하는 어두운 무늬 및 보강 간섭에 의해 발생하는 밝은 무늬를 포함하고 있다. 어두운 무늬 및 밝은 무늬는 물체의 중심으로부터 서로 번갈아가며 간헐적으로 형성되어 있다. 여기서 간섭무늬들 간의 간격은 사용되는 광원의 파장, 검사대상과 슬릿 수단 사이의 거리에 따라 결정된다.
도 3에서 m은 밝은 무늬들 각각에 대한 간섭의 차수에 해당된다. m=0인 부분은 물체의 중심에 형성된 밝은 무늬에 해당된다. 그 외곽의 밝은 무늬에 대해서는 각각 m=1,2,3,4로 표시되어 있다.
도 3의 (b)는 도 3의 (a)를 간단히 표현한 것으로서, m=0인 밝은 무늬에서 m이 0이 아닌 임의 차수의 밝은 무늬까지의 거리를 y로, 두 슬릿의 간격을 d로, 슬릿 수단과 물체(10)까지의 거리를 L로 표현하고 있다.
여기서, 단색 광원의 파장 λ은 기 공지된 바와 같이, λ = (d·y)/(m·L)로 정의된다. 여기서 슬릿 수단과 물체(10)까지의 거리 L은 실질적으로 물체(10)의 깊이 정보에 대응된다고 볼 수 있다. 도 3의 경우 평면형의 물체(10)를 예시한 것으로 물체(10)의 전체 표면에 대해 L은 고정된 값이다. 그러나, 물체(10)의 표면이 입체적인 경우 L 값은 물체(10)의 전체 표면에 대해 L 값이 일정하지 않을 것이다.
본 실시예의 경우 사용되는 단색 광원의 파장, 그리고 슬릿의 규격을 미리 알고 있으며, 물체(10)의 깊이 정보에 대응하는 L을 미지의 값으로 한다. 따라서, 위 식을 L에 대한 식으로 변경하면 L = (d·y)/(m·λ)로 정의될 수 있다. 여기서, m과 y에 대한 정보는 물체(10)에 발생되는 간섭무늬의 촬상 영상을 통해 얻어낼 수 있는 값으로 이는 추후 상세히 설명한다. 따라서, 간섭무늬에 대한 촬상 영상을 이용하면, 영상 내의 각 좌표 지점별로 물체의 깊이 정보를 획득할 수 있다.
여기서, 슬릿 수단(200)에 의해 발생되는 간섭무늬의 촬영은 도 1의 카메라 수단(100)과 같은 일반 2D 카메라를 이용할 수 있다. 또한, 촬영 시에는 외부 요인에 따른 영향이 없도록 조명이 없는 암실에서 간섭무늬를 촬영하는 것이 바람직하다. 암실에서 측정할 경우 적외선 또는 자외선의 단일 파장에 의한 간섭무늬만의 영상을 획득할 수 있다.
여기서, 일반적으로 2D 카메라는 내부 이득 조절을 통해 가시광선 이외에도 적외선이나 자외선의 관측도 가능하다. 따라서, 단색 광원으로서 가시광선이 아닌 적외선이나 자외선 광원을 사용하는 경우에도 본 실시예에서는 적외선 카메라 또는 자외선 카메라를 별도로 구비할 필요가 없이 상기 카메라 수단(100) 즉 2D 카메라를 사용하면 된다. 이러한 경우 카메라 수단(100)은 2차원 촬상 영상의 획득 및 간섭무늬의 획득 용도로 사용되며, 두 영상의 획득은 순차로 수행하면 된다.
물론, 단색 광원으로 적외선이나 자외선 광원을 사용하는 경우, 적외선 또는 자외선 전용 카메라를 사용하게 되면 더욱 좋은 품질의 영상을 획득할 수 있다. 따라서, 도 1의 2D 영상을 촬영하는 카메라 수단(100) 이외에도 적외선 카메라 또는 자외선 카메라를 더 구비하여도 된다. 이때, 물체(10)의 2D 영상을 촬영하는 카메라 수단(100)에는 적외선이나 자외선의 영향이 없도록 가시광만 통과시키는 필터가 구비되도록 한다. 이외에도, 카메라 수단(100)은 2D 카메라, 적외선 카메라, 자외선 카메라의 기능을 모두 포함하도록 구성될 수도 있다.
도 4는 도 2의 슬릿 개수에 따른 간섭무늬의 예를 나타낸다. 이러한 도 4의 (a)~(d)는 슬릿 개수가 1~4개인 경우에 물체(10)의 평면에 발생하는 간섭무늬의 예를 개략적으로 도시한 것이다.
실제로 간섭무늬는 밝은 무늬와 어두운 무늬가 도 3과 같이 임의 면적으로 번갈아 형성된다. 도 3의 간섭무늬를 평면적으로 보면 도 4와 같이 원형으로 나타난다. 가장 안쪽의 작은 원은 m=0에 해당하는 밝은 무늬에 해당된다. 원형의 간섭무늬에 대한 촬영 영상을 이미지 처리하여 밝은 무늬 부분을 실선화 처리하면 도 4와 같은 여러 층의 원 형태로 표현될 수 있다. 슬릿 개수가 많을수록 밝은 무늬들이 교차하는 지점이 많아진다. 이러한 교차 지점들은 보강 간섭이 강하게 발생한 곳이다.
이러한 도 4는 설명의 편의상 밝은 무늬들을 일정한 등 간격으로 도시한 것으로서, 실제로는 외곽으로 갈수록 간격이 멀어지고 밝은 무늬의 밝기가 감소하는 경향을 갖는다. 또한, 대상 물체가 평면이 아니라 입체물인 경우 입체 부분에 대응되는 지점에 밝은 무늬의 찌그러짐이나 굴곡 등이 나타날 수 있다. 이상 상술한 토마스 영에 의한 슬릿 수단의 구성과 간섭무늬의 발생 원리와 예는 기존에 공지된 내용이므로 보다 구체적인 설명은 생략한다.
다음은 상기의 내용을 바탕으로 본 실시예를 위한 3차원 깊이정보 획득 장치 및 방법에 관하여 설명한다. 도 5는 본 발명의 실시예에 따른 3차원 깊이정보 획득 장치의 구성도이다. 상기 장치(400)는 제2 영상 획득부(410), 영역 그룹핑부(420), 제1 영상 획득부(430), 이미지 처리부(440), 깊이 정보 획득부(450), 깊이 정보 매핑부(460)를 포함한다.
도 6은 도 5를 이용한 3차원 깊이정보 획득 방법의 흐름도이다. 이하에서는 본 발명의 실시예에 따른 3차원 깊이정보 획득 방법에 관하여 상세히 설명한다.
먼저, 상기 제2 영상 획득부(410)는 카메라 수단(100)에 의한 물체(10)의 제2 촬상 영상을 획득한다(S610). 여기서, 제2 촬상 영상은 일반적인 2D 영상에 해당된다.
다음, 상기 영역 그룹핑부(420)는 상기 제2 촬상 영상 내의 색상 정보를 바탕으로 상기 제2 촬상 영상을 복수의 분할 영역들로 구분한다(S620).
예를 들면, 먼저 제2 촬상 영상 내의 RGB 등의 컬러 정보를 바탕으로 제2 촬상 영상을 여러 분할 영역으로 구분한다. 이는 컬러가 유사한 것끼리를 구분하는 것이다. 다음, 각각의 분할 영역 내에서 밝기 정보에 따라 세부적으로 영역을 다시 구분한다. 이는 밝기가 유사한 것끼리를 재구분하는 것이다. 이후, 에지 정보가 검출되면 에지 정보에 따라 영역을 재구분한다. 마지막으로 대칭성 정보(ex, NTGST 알고리즘에 의한 대칭성 정보)를 활용하여 단순한 에지는 버리고 대칭성이 있는 에지만을 이용하여 영역을 재구분한다.
물론, 이는 단지 실시예에 불과한 것으로서 본 발명이 반드시 이에 한정되는 것은 아니다. 즉 S620 단계는 기 공지된 다양한 색상 그룹핑 방식 또는 색상 분류 방식이 적용될 수 있다.
이러한 S620 단계는 물체(10)의 제2 촬상 영상에 대해, 깊이 정보가 다를 것으로 예상되는 픽셀 지점들을 미리 영역 단위로 그룹핑하여 두는 것이다. 이는 색상, 밝기, 에지 등에 따라 구분되는 영역 간은 깊이가 서로 다를 가능성이 있기 때문이다. 또한, 이렇게 색상 정보를 통해 영역을 구분하여 둔다면, 단순히 표면의 색상 또는 밝기에 따라 영역별 깊이가 구분되는 물체에 대한 깊이 정보의 검사 또는 획득 시에 유용하게 사용될 수 있다. 이러한 경우, 영역 내의 한 픽셀 지점의 깊이 정보만 알면 해당 영역을 구성하는 다른 픽셀들에 대해 동일한 깊이 정보를 할당하면 된다.
다음, 상기 제1 영상 획득부(430)는 상기 슬릿 수단(200)에 의해 물체(10)에 발생된 간섭무늬에 대한 촬영 영상인 제1 촬상 영상을 상기 카메라 수단(100)으로부터 획득한다(S630).
이후, 상기 이미지 처리부(440)는 제1 촬상 영상 내의 간섭무늬들 중 복수의 밝은 무늬들을 이미지 처리를 통해 실선화한다(S640). 여기서 실선화 처리는 기 공지된 다양한 이미지 처리 방식이 적용될 수 있으며 실선화 예는 앞서 설명한 바 있다.
상기 깊이 정보 획득부(450)는 상기 실선화된 밝은 무늬들이 위치한 픽셀 지점들에 대한 깊이 정보를 획득한다(S650). 여기서, 밝은 무늬를 구성하는 전체 픽셀에 대해 깊이 정보를 연산하는 것은 시간이 많이 소요될 수 있으므로 전체 픽셀이 아닌 일부 픽셀 지점에 대해서 깊이 정보를 연산하여도 된다. 깊이 정보를 연산하지 않은 픽셀 지점에 대해서는 깊이 정보가 획득된 인접 픽셀 지점의 깊이 정보를 활용할 수 있다.
상기 S650 단계에서, 상기 밝은 무늬가 위치한 픽셀 지점에 대한 실제 깊이 정보를 획득은, 상기 밝은 무늬들 각각에 대한 간섭의 차수, 상기 밝은 무늬들이 위치한 픽셀의 좌표, 상기 픽셀 하나로 표현 가능한 실제 크기, 상기 단색 광원의 파장, 그리고 상기 슬릿의 규격을 이용하여 Lreal = (d·y)/(m·λ) 식을 통해 획득한다.
여기서, Lreal은 상기 간섭의 차수가 m인 밝은 무늬에 포함된 픽셀 지점의 실제 깊이 정보이고, d는 상기 슬롯이 하나인 경우에는 상기 슬롯의 크기이고 상기 슬롯이 두 개인 경우에는 두 슬롯 간의 간격이다. 또한, y는 상기 차수가 0인 밝은 무늬의 중심으로부터 상기 차수가 m인 밝은 무늬에 포함된 픽셀 지점까지의 실제 거리이고, 상기 λ는 상기 단색 광원의 파장이다.
이러한 S650 단계에 대하여 단일 슬릿을 사용한 경우에 관하여 도 4의 (a)를 참조로 설명한다. 슬릿이 하나인 경우 d 값은 슬릿 구멍의 크기이다. 본 실시예에서는 d=1㎜로 가정한다. 또한, 카메라 수단(100)에 의해 촬영되는 픽셀 하나당 실제 크기는 0.1㎜이고 사용되는 광원의 파장은 800㎚(적외선)로 가정한다.
이때, 도 4(a)를 참조하면, 만약 영상의 중앙으로부터 m=2인 원의 임의 지점까지의 픽셀 거리가 19 pixels로 판단되면, 이 임의 지점의 깊이 정보 Lreal은 (d·y)/(m·λ)=(1㎜×1.9㎜)/(2×800㎚)=1.1875m로 환산된다. 여기서, y는 19pixels에 대해 픽셀 하나당 크기 0.1㎜를 반영한 값이다.
또한, 영상의 중앙으로부터 m=3인 원의 임의 지점까지의 픽셀 거리가 29 pixels로 판단되면, 이 임의 지점의 깊이 정보 Lreal은 (d·y)/(m·λ)=(1㎜×2.9㎜)/(3×800㎚)=1.2083m로 환산된다.
이와 같은 방식으로 원의 중심에서 1° 간격으로 360°방향으로 원을 구성하는 각 픽셀 지점별 깊이 정보를 얻을 수 있다. 물론, 꼭 1°간격일 필요는 없으며, m이 커질수록 간격을 더욱 촘촘히 할 수도 있다. 또한, 이러한 동작은 각 차수별로 수행하여 영상 전반에 대해 깊이 정보를 획득할 수 있다. 물체(10)가 깊이 변화가 작은 물체(ex, 깊이가 두 종류)의 경우 모든 지점에 대해 깊이 정보를 획득할 필요는 없다.
이중 슬릿을 사용한 경우 또한 상기와 동일한 방식이 적용될 수 있다. 이때 슬롯 규격인 d 값으로 두 슬릿 간의 간격이 사용되는 점만 상이하다. 다만, 이중 슬릿을 사용한 경우에는 두 슬릿에 의한 원의 교차점이 발생하며 이 교차에서의 깊이 정보만 사용할 수도 있다.
즉, 슬릿이 두 개인 경우, 상기 깊이 정보 획득 시에 상기 실선화된 밝은 무늬들 간의 교차 지점에 해당되는 픽셀의 좌표를 이용하여 상기 교차 지점들에 대한 깊이 정보를 획득할 수 있다. 도 4(b)를 참조하면, 하나의 임의 교차점에 대해 왼쪽 원들을 통해서도 깊이 정보가 구해지고 오른쪽 원들을 통해서도 깊이 정보가 구해질 수 있다. 별다른 요인이 없다면 구해진 두 깊이 정보는 오차 범위 내로 동일할 것이다. 물론, 깊이 정보의 차이가 발생할 경우 두 깊이 정보의 평균 값을 교차점에 대한 깊이 정보로 이용할 수도 있다.
앞서의 예는 슬릿이 원형인 경우이다. 그러나 슬릿은 바(bar) 형으로도 구성 가능하다. 이러한 바형 슬릿 또한 기존에 공지된 구조에 해당된다.
도 7은 본 실시예에 적용 가능한 바형 슬릿의 개념도이다. 도 7의 좌측 그림은 횡축으로 형성된 두 개의 바형 슬릿에 따른 가로 줄무늬 형태의 간섭무늬를, 우측 그림은 종축으로 형성된 두 개의 바형 슬릿에 따른 세로 줄무늬 형태의 간섭무늬를 보여준다.
도 8은 도 7의 종축 바형 슬릿과 횡축 바형 슬릿을 이용한 슬릿 수단의 개략 배치도이다. 이렇게 두 개의 바형 슬릿을 사용하는 경우에는 세로 줄무늬 형태의 간섭무늬와 가로 줄무늬 형태의 간섭무늬가 서로 겹쳐진 형태의 체크 모양의 간섭무늬가 관측될 수 있으며, 간섭무늬 간의 교차점은 보강 간섭이 강하게 발생한 곳으로 영상에서 전체적으로 매트릭스 형태로 보여지게 된다.
바형 슬릿을 이용하는 경우에도 앞서와 동일한 원리로 깊이 정보를 구할 수 있다. 여기서, 두 개의 바형 슬릿 사이의 거리로서 d=2㎜로 가정한다. 또한, 픽셀 하나당 실제 크기는 0.1㎜이고 사용되는 광원의 파장은 400㎚(자외선)로 가정한다.
만약, 영상의 중앙으로부터 m=1인 가로 줄무늬 상의 임의 지점까지의 픽셀 거리가 9 pixels로 판단되면, 이 임의 지점의 깊이 정보 Lreal은 (d·y)/(m·λ)=(2㎜×0.9㎜)/(1×400㎚)=4.5m로 환산된다. 또한, 영상의 중앙으로부터 m=2인 가로 줄무늬 상의 임의 지점까지의 픽셀 거리가 19 pixels로 판단되면, 이 임의 지점의 깊이 정보 Lreal은 (d·y)/(m·λ)=(2㎜×1.9㎜)/(2×400㎚)=4.75m로 환산된다. 이를 통해 m=1인 가로 줄무늬 상의 임의 지점과 m=2인 가로 줄무늬 상의 임의 지점은 그 깊이 정보가 다른 것을 알 수 있다. 이러한 방식을 이용하여 각 지점에 대해 깊이 정보를 연산할 수 있다.
이상의 실시예에서는 상기 깊이 정보의 획득 시에 실제 m 단위의 깊이 정보를 획득한 예이다. 그러나, 실제 깊이 정보의 획득이 필요없는 경우도 있으며 물체의 표면들에 대해 상대적 깊이만이 요구되는 경우도 있다. 이는 각 픽셀 지점에 대응하는 물체의 표면에 대한 실제 깊이가 아닌 상대적 깊이만으로도 3차원 영상의 생성이 가능하기 때문이다.
이러한 경우, 상기 S650 단계 시에는, 상기 밝은 무늬들 각각에 대한 간섭의 차수와, 상기 밝은 무늬들이 위치한 픽셀의 좌표를 이용하여 상기 픽셀 지점들 간의 상대적 깊이 정보 Lrelative = y/m를 획득한다.
여기서, Lrelative는 상기 간섭의 차수가 m인 밝은 무늬에 포함된 픽셀 지점의 상대적 깊이 정보, y는 상기 차수가 0인 밝은 무늬의 중심으로부터 상기 차수가 m인 밝은 무늬에 포함된 픽셀 지점까지의 픽셀 단위의 거리이다. 즉, 앞서의 모든 예에서 각 픽셀 지점에 대해 m에 대비한 y의 비율만을 알면, 각 픽셀들 간의 상대적인 깊이를 알 수 있고 이를 통해서도 3차원 영상의 구현이 가능해진다. 이러한 경우는 물체의 표면에서 깊이의 형성 여부만을 검사하거나 동작 감지 게임 등에 적용될 수 있다.
이상과 같은 S650 단계 이후에는, 상기 3차원 영상 생성부(460)는 상기 제1 촬상 영상에서 획득된 상기 밝은 무늬들이 위치한 픽셀 지점들에 대한 깊이 정보를, 상기 제2 촬상 영상의 각 분할 영역에 대해 매핑하여 3차원 영상정보를 생성한다(S660).
여기서, 상기 분할 영역 내에서 상기 깊이 정보가 없는 픽셀 지점의 경우 해당 분할 영역에 매핑되어 있는 적어도 하나의 픽셀 지점에 대한 깊이 정보를 이용하여 깊이 정보를 생성하여 매핑한다. 그 구체적인 예는 다음과 같다.
도 9는 도 6의 S660 단계를 설명하는 예시도이다. 이러한 도 9는 S620 단계 시의 제2 촬상 영상의 각 분할 영역 상에, 제1 촬상 영상에서 획득한 픽셀 지점들의 깊이 정보를 매핑한 예이다. 깊이 정보가 매핑된 지점은 음영 표시되어 있다.
이러한 도 9는 제2 촬상 영상이 총 3개의 분할 영역들로 구분된 예로서, 이를 그룹1, 그룹2, 그룹3으로 표현하고 있다. 작은 사각형은 개별 픽셀을 의미한다. 도 9에서 사선의 경계선은 이미지 처리를 통해 각 그룹을 분할하는 기준이 된 부분으로서 색상, 밝기, 에지 또는 대칭성 정보에 따라 구분된 경계선에 해당된다. 앞서, 제2 촬상 영상에 대한 분할 영역들은 깊이가 다를 것이라고 예상하는 픽셀 그룹들에 해당함을 설명한 바 있다.
또한, 도 9는 도 8과 같은 슬릿 수단을 통해 물체에 형성된 세로 및 가로형 줄무늬 간의 교점 지점의 픽셀에 대해 깊이 정보를 획득하여 매핑한 것으로서 깊이 정보가 획득된 픽셀은 노랑색으로 음영 표시되어 있다.
먼저, 첫번째 분할 영역인 그룹1을 보면, 그룹1에 매핑되어 있는 세 개의 픽셀 지점에 대한 깊이 정보가 모두 100㎜로 동일하다. 이러한 경우, 그룹1 내에서 깊이 정보가 없는 픽셀 지점들에 대해 모두 100㎜의 깊이 정보를 생성한다. 즉, 그룹1에 포함된 픽셀들의 깊이 정보는 모두 100㎜로 간주한다. 이에 따르면, 색 또는 밝기에 따라 깊이정보가 다른 대상 물체의 3D 정보를 획득하고자 하는 경우, 해당 그룹 내의 몇 개 픽셀만의 깊이 정보만으로도 그 그룹의 깊이정보를 판단할 수 있는 것이다.
다른 예로서 그룹2를 보면, 그룹2에 매핑되어 있는 복수의 픽셀 지점에 대한 깊이 정보가 상이한 것을 알 수 있다. 여기서, 그룹2의 ①,②번 픽셀의 깊이 정보는 200㎜로 동일하고 ③번 픽셀의 깊이 정보는 210㎜로 상이하다. ①번 픽셀부터 ②번 픽셀까지는 모두 200㎜를 부가한다. 예를 들어 그룹2는 내부의 전체 상하 픽셀층에 대해 좌측 끝에서 2번 픽셀 지점 부분까지 모두 200㎜의 깊이를 부가한다. ②번 픽셀과 ③번 픽셀의 사이에 위치한 픽셀 지점에 대해서는 두 픽셀의 깊이 정보를 기준으로 1차 함수를 적용하여 선형적으로 깊이 정보를 생성한다. 즉, ②번 픽셀의 200㎜ 깊이에서 ③번 픽셀의 210㎜ 깊이로 점차 증가하는 깊이 정보를 할당하게 된다. 이와 같은 방법으로 그룹2의 모든 픽셀에 깊이정보를 구하게 된다. ③번 픽셀 우측에 대해서는 ③번 픽셀과 동일한 깊이로 할당하거나 앞서 적용한 1차 함수를 이어 점차 증가하는 깊이 정보로 할당할 수도 있다.
그룹3의 경우 또한 세 점의 깊이 정보가 다르므로 세 점 중에서 처음의 두 점 사이에서 110㎜와 120㎜ 간의 첫번째 1차 함수를 적용하고 이후의 두 점 사이에서 120㎜와 150㎜ 간의 두번째 1차 함수를 적용하여 각 픽셀들에 깊이 정보를 할당한다.
이상과 같은 본 발명의 실시예의 경우 S610 및 S620 단계는 S650 단계와 S660 단계 사이에 수행되어도 무관하다. 또한, 본 발명에서는 3차원 영상 정보를 생성하는 것을 실시예로 하고 있으나 본 발명이 반드시 이에 한정되는 것은 아니다. 즉, 본 발명에서 제안한 S630 내지 S650 단계만을 이용하여 물체의 깊이 정보만을 획득하는 방법도 가능하다. 이는 물체의 3차원 영상보다는 물체의 깊이 정보만 알고자 하는 경우에 유용하게 사용될 수 있다.
본 발명의 실시예에서 슬릿의 모양과 갯수의 결정은 3D 정보를 획득하고자 하는 대상물의 모양, 거리, 검사 조건 등에 따라 달라질 수 있다. 1개의 원 모양 슬릿을 이용하는 경우, 개략적인 영상의 중심으로부터 간단한 깊이 정보만을 획득하고자 할 때 사용할 수 있으며 하드웨어 구성이 쉽고 제작이 용이하다. 1개의 바 모양 슬릿은 횡 또는 종의 정보만을 얻고자 하는 경우에 유리하며 원 모양의 슬릿보다 제작이 어렵다. 2개의 원 모양 슬릿을 이용하는 경우는 보다 많은 영역의 깊이 정보를 획득하는데 용이하고 1개 슬릿보다 제작이 어렵고 연산량이 많아질 수 있다. 2개의 수직/수평 바 모양 슬릿을 이용하는 경우는 정도가 높고 계산의 용이성이 있으며 하드웨어 구성이 커진다.
이상과 같은 본 발명에 따른 3차원 깊이정보 획득 방법 및 그 장치에 따르면, 2D 카메라로 획득된 물체의 2차원 영상에 토마스 영의 빛의 간섭 원리를 이용하여 획득된 물체의 깊이 정보를 융합하여 3D 영상 정보를 용이하게 생성할 수 있는 이점이 있다.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.
100: 카메라 수단 200: 슬릿 수단
300: 조명 수단 400: 3차원 깊이정보 획득 장치
410: 제2 영상 획득부 420: 영역 그룹핑부
430: 제1 영상 획득부 440: 이미지 처리부
450: 깊이 정보 획득부 460: 3차원 영상 생성부

Claims (7)

  1. 3차원 깊이정보 획득 장치를 이용한 3차원 깊이정보 획득 방법에 있어서,
    적어도 하나의 슬릿을 통해 단색 광원을 통과시키는 슬릿 수단에 의해 물체 상에 발생되는 간섭무늬들을 촬영한 제1 촬상 영상을 카메라 수단을 이용하여 획득하는 단계;
    상기 제1 촬상 영상 내의 간섭무늬들 중 간헐적으로 발생되는 복수의 밝은 무늬들을 이미지 처리하여 실선화 하는 단계; 및
    상기 실선화된 밝은 무늬들 각각에 대한 간섭의 차수와, 상기 밝은 무늬들이 위치한 픽셀의 좌표를 이용하여, 상기 제1 촬상 영상의 전체 픽셀들 중 상기 밝은 무늬들이 위치한 픽셀 지점들에 대한 깊이 정보를 획득하는 단계를 포함하는 3차원 깊이정보 획득 방법.
  2. 청구항 1에 있어서,
    상기 깊이 정보를 획득하는 단계는,
    상기 밝은 무늬들 각각에 대한 간섭의 차수, 상기 밝은 무늬들이 위치한 픽셀의 좌표, 상기 픽셀 하나당 실제 크기, 상기 단색 광원의 파장, 그리고 상기 슬릿의 규격을 이용하여 상기 픽셀 지점들에 대한 실제 깊이 정보를 아래의 수학식을 통해 획득하는 3차원 깊이정보 획득 방법:
    Lreal = (d·y)/(m·λ)
    여기서, Lreal은 상기 간섭의 차수가 m인 밝은 무늬에 포함된 픽셀 지점의 실제 깊이 정보, d는 상기 슬릿이 하나인 경우에는 상기 슬릿의 크기이고 상기 슬릿이 두 개인 경우에는 두 슬릿 간의 간격, y는 상기 차수가 0인 밝은 무늬의 중심으로부터 상기 차수가 m인 밝은 무늬에 포함된 픽셀 지점까지의 실제 거리로서 상기 픽셀 하나당 실제 크기를 반영하여 연산되는 값, 상기 λ는 상기 단색 광원의 파장이다.
  3. 청구항 2에 있어서,
    상기 슬릿이 두 개인 경우, 상기 깊이 정보 획득 시에 상기 실선화된 밝은 무늬들 간의 교차 지점에 해당되는 픽셀의 좌표를 이용하여 상기 교차 지점들에 대한 깊이 정보를 획득하는 3차원 깊이정보 획득 방법.
  4. 청구항 1 내지 청구항 3 중 어느 한 항에 있어서,
    상기 카메라 수단을 이용하여 상기 물체의 제2 촬상 영상을 획득하는 단계;
    상기 제2 촬상 영상 내의 색상 정보를 바탕으로 상기 제2 촬상 영상을 복수의 분할 영역들로 구분하는 단계; 및
    상기 제1 촬상 영상에서 획득된 상기 밝은 무늬들이 위치한 픽셀 지점들에 대한 깊이 정보를 상기 제2 촬상 영상의 각 분할 영역에 대해 매핑하여 3차원 영상정보를 생성하되, 상기 분할 영역 내에서 상기 깊이 정보가 없는 픽셀 지점의 경우 해당 분할 영역에 매핑되어 있는 적어도 하나의 픽셀 지점에 대한 깊이 정보를 이용하여 깊이 정보를 생성하여 매핑하는 단계를 더 포함하는 3차원 깊이정보 획득 방법.
  5. 청구항 4에 있어서,
    상기 3차원 영상정보를 생성하는 단계에서,
    상기 해당 분할 영역에 매핑되어 있는 적어도 하나의 픽셀 지점에 대한 깊이 정보가 동일하면, 상기 해당 분할 영역 내에 깊이 정보가 없는 픽셀 지점들에 대해 상기 동일한 깊이 정보를 생성하고,
    상기 해당 분할 영역에 매핑되어 있는 복수의 픽셀 지점에 대한 깊이 정보가 상이하면, 상기 깊이 정보가 상이한 두 픽셀 지점의 사이에 위치한 픽셀 지점들에 대해 상기 두 픽셀 지점의 깊이 정보를 기준으로 1차 함수를 적용하여 선형적으로 깊이 정보를 생성하는 3차원 깊이정보 획득 방법.
  6. 적어도 하나의 슬릿을 통해 단색 광원을 통과시키는 슬릿 수단에 의해 물체 상에 발생되는 간섭무늬들을 촬영한 제1 촬상 영상을 카메라 수단을 이용하여 획득하는 제1 영상 획득부;
    상기 제1 촬상 영상 내의 간섭무늬들 중 간헐적으로 발생되는 복수의 밝은 무늬들을 이미지 처리하여 실선화 하는 이미지 처리부; 및
    상기 실선화된 밝은 무늬들 각각에 대한 간섭의 차수와, 상기 밝은 무늬들이 위치한 픽셀의 좌표를 이용하여, 상기 제1 촬상 영상의 전체 픽셀들 중 상기 밝은 무늬들이 위치한 픽셀 지점들에 대한 깊이 정보를 획득하는 깊이 정보 획득부를 포함하는 3차원 깊이정보 획득 장치.
  7. 청구항 6에 있어서,
    상기 카메라 수단을 이용하여 상기 물체의 제2 촬상 영상을 획득하는 제1 영상 획득부;
    상기 제2 촬상 영상 내의 색상 정보를 바탕으로 상기 제2 촬상 영상을 복수의 분할 영역들로 구분하는 영역 그룹핑부; 및
    상기 제1 촬상 영상에서 획득된 상기 밝은 무늬들이 위치한 픽셀 지점들에 대한 깊이 정보를 상기 제2 촬상 영상의 각 분할 영역에 대해 매핑하여 3차원 영상정보를 생성하되, 상기 분할 영역 내에서 상기 깊이 정보가 없는 픽셀 지점의 경우 해당 분할 영역에 매핑되어 있는 적어도 하나의 픽셀 지점에 대한 깊이 정보를 이용하여 깊이 정보를 생성하여 매핑하는 3차원 영상 생성부를 더 포함하는 3차원 깊이정보 획득 장치.
KR1020120140507A 2012-12-05 2012-12-05 3차원 깊이정보 획득 방법 및 그 장치 KR101275749B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120140507A KR101275749B1 (ko) 2012-12-05 2012-12-05 3차원 깊이정보 획득 방법 및 그 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120140507A KR101275749B1 (ko) 2012-12-05 2012-12-05 3차원 깊이정보 획득 방법 및 그 장치

Publications (1)

Publication Number Publication Date
KR101275749B1 true KR101275749B1 (ko) 2013-06-19

Family

ID=48867170

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120140507A KR101275749B1 (ko) 2012-12-05 2012-12-05 3차원 깊이정보 획득 방법 및 그 장치

Country Status (1)

Country Link
KR (1) KR101275749B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104822060A (zh) * 2015-05-05 2015-08-05 联想(北京)有限公司 信息处理方法、信息处理装置及电子设备
CN111183457A (zh) * 2017-09-27 2020-05-19 夏普株式会社 影像生成装置、影像拍摄装置、影像拍摄***、影像生成方法、控制程序以及记录介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040001098A (ko) * 2002-06-27 2004-01-07 한국과학기술원 위상천이 회절격자 간섭계와 그 측정방법
KR20100126017A (ko) * 2009-05-22 2010-12-01 (주) 인텍플러스 입체 형상 측정장치
KR20110084029A (ko) * 2010-01-15 2011-07-21 삼성전자주식회사 3차원 영상 획득 장치 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040001098A (ko) * 2002-06-27 2004-01-07 한국과학기술원 위상천이 회절격자 간섭계와 그 측정방법
KR20100126017A (ko) * 2009-05-22 2010-12-01 (주) 인텍플러스 입체 형상 측정장치
KR20110084029A (ko) * 2010-01-15 2011-07-21 삼성전자주식회사 3차원 영상 획득 장치 및 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104822060A (zh) * 2015-05-05 2015-08-05 联想(北京)有限公司 信息处理方法、信息处理装置及电子设备
CN111183457A (zh) * 2017-09-27 2020-05-19 夏普株式会社 影像生成装置、影像拍摄装置、影像拍摄***、影像生成方法、控制程序以及记录介质

Similar Documents

Publication Publication Date Title
US10902668B2 (en) 3D geometric modeling and 3D video content creation
US10347031B2 (en) Apparatus and method of texture mapping for dental 3D scanner
JP4290733B2 (ja) 3次元形状計測方法及びその装置
US8160334B2 (en) Method for optical measurement of objects using a triangulation method
JP5623347B2 (ja) 反射面の形状測定方法及びシステム
US8339616B2 (en) Method and apparatus for high-speed unconstrained three-dimensional digitalization
JP6270157B2 (ja) 画像処理システムおよび画像処理方法
KR101906780B1 (ko) 공간 내의 광원 측정시스템
CN104197861B (zh) 基于结构光灰度向量的三维数字成像方法
JP5633058B1 (ja) 3次元計測装置及び3次元計測方法
CN104596439A (zh) 一种基于相位信息辅助的散斑匹配三维测量方法
JP4670341B2 (ja) 3次元形状計測方法並びに3次元形状計測装置、3次元形状計測用プログラム
CN106871815A (zh) 一种Kinect与条纹反射法结合的类镜面三维面形测量方法
JP2012504771A (ja) 三次元及び距離の面間推定を与えるための方法及びシステム
CN107860337A (zh) 基于阵列相机的结构光三维重建方法与装置
JP2012058076A (ja) 3次元計測装置及び3次元計測方法
CN106767526A (zh) 一种基于激光mems振镜投影的彩色多线激光三维测量方法
CN110278431A (zh) 相位检测自动聚焦三维图像撷取***
CN101482398A (zh) 一种快速三维形貌测量的方法及装置
JP6035031B2 (ja) 複数の格子を用いた三次元形状計測装置
CN102750698B (zh) 纹理摄像机标定装置与方法及其纹理图像几何校正方法
KR20170045232A (ko) 광학 멀티라인 방법을 사용한 3d 구강 측정
KR101275749B1 (ko) 3차원 깊이정보 획득 방법 및 그 장치
CN103591906A (zh) 用二维编码对运动物体进行三维跟踪测量的方法
RU2573767C1 (ru) Устройство трехмерного сканирования сцены с неламбертовыми эффектами освещения

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160610

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170602

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180531

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190328

Year of fee payment: 7