KR20140057625A - 이동거리시간차 신호들을 프로세싱하는데 있어서 또는 프로세싱과 관련된 개선들 - Google Patents

이동거리시간차 신호들을 프로세싱하는데 있어서 또는 프로세싱과 관련된 개선들 Download PDF

Info

Publication number
KR20140057625A
KR20140057625A KR1020147007856A KR20147007856A KR20140057625A KR 20140057625 A KR20140057625 A KR 20140057625A KR 1020147007856 A KR1020147007856 A KR 1020147007856A KR 20147007856 A KR20147007856 A KR 20147007856A KR 20140057625 A KR20140057625 A KR 20140057625A
Authority
KR
South Korea
Prior art keywords
correlation
frequency
aliasing
signal
measurement
Prior art date
Application number
KR1020147007856A
Other languages
English (en)
Inventor
니에우벤호베 다니엘 반
덴 하우베 토마스 반
리에메르 그로티안스
데르 템펠 바르드 반
Original Assignee
소프트키네틱 센서스 엔브이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소프트키네틱 센서스 엔브이 filed Critical 소프트키네틱 센서스 엔브이
Publication of KR20140057625A publication Critical patent/KR20140057625A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

조명 유닛 및 이미징 센서를 포함한 TOF 카메라 시스템에서 이동거리시간차 (time-of-flight (TOF)) 신호들을 프로세싱하는 방법 및 센서가 설명된다. 상기 방법은 제1 주파수에서의 광으로 씬에 조명을 하며, 상기 제1 주파수에서 상기 씬 내의 적어도 하나의 물체 (object)로부터 반사된 광을 검출하고, 그리고 I 값 및 Q 값을 이용하여 위상 측정을 결정하는 단계를 포함한다. 추가로, 상기 씬은 제2 주파수에서 광으로 조명이 되며, 상기 제2 주파수는 상기 제1 주파수의 2-n 이며, 이 경우에 n=1, 2, ... 등이며, 그리고 상기 제1 주파수 그리고 상기 제2 주파수 둘 모두에 대한 I 값 및 Q 값의 부호들은 상기 위상 측정에서 에일리어싱의 존재를 판별하기 위해서 사용되며, 그래서 그것이 교정될 수 있도록 한다. 그러면 상기 위상 측정은 에일리어싱에 대해 교정되며 그리고 상기 TOF 카메라 시스템의 유효 범위는 2n의 배수들로 확장된다. 추가로, 상기 씬 내의 물체들의 반사율에 따라서 상대적인 신호 강도가 고려될 필요가 있다. 4%의 반사율 그리고 에일리어싱이 없는 경우에, 물체를 검출하기 위한 능력은 거리 (30)에 따라서 감소된다. 100%의 반사율을 가진 물체의 에일리어싱된 위상 측정에 대해서, 물체를 탐지하기 위한 능력은 실질적으로 일정하다 (35).

Description

이동거리시간차 신호들을 프로세싱하는데 있어서 또는 프로세싱과 관련된 개선들 {Improvements in or relating to the processing of time-of-flight signals}
본 발명은 이동거리시간차 (time-of-flight (TOF)) 신호들을 프로세싱하는데 있어서의 또는 그 프로세싱과 관련된 개선들에 관한 것이며, 더 상세하게는 그런 이동거리시간차 신호들을 디-에일리어싱 (de-aliasing)하는 것에 관련된다. 특히, 본 발명은 이동거리시간차 신호들을 디-에일리어싱하는 것을 포함하는 TOF 센서들, 카메라들 등에 관련된다.
이동거리시간차 (Time-of-flight (TOF)) 카메라 시스템들은 광 소스 (light source)로부터 물체 (object)까지의 그리고 돌아온 이동거리시간차 (Time of Flight)를 분석하여 물체까지의 거리에 관한 정보를 제공하는 것으로 알려진다. 한 가지 특별한 응용은 씬 (scene)의 3차원 (3-D) 이미지, 즉, 2-차원 정보는 물론이며 깊이 또는 거리 정보를 캡쳐할 수 있는 카메라이다. 그런 카메라 시스템들은 고정된 포인트로부터의 깊이 또는 거리 정보가 판별될 필요가 있는 많은 응용 분야들에서 활용된다. 보통, 깊이 또는 거리 정보는 TOF 카메라 시스템으로부터 측정된다.
TOF 카메라 시스템의 기본적인 동작 원칙은 펄스와 같이 변조된 광으로 씬에 조명을 비추는 것이다. 이런 광 펄스들과 같은 상기 변조된 광은 그 씬 내의 물체들로부터 반대로 반사되며 그리고 렌즈가 그 반사된 광을 모으며 이미징 센서 상에, 그리고 특히, 상기 센서의 센서 평면 상에 상기 씬 내의 물체들의 이미지를 형성한다. 상기 카메라로부터 물체들까지의 거리에 종속하여, 상기 변조된 광, 예를 들면, 펄스의 방사 그리고 카메라에서 그 광의 반사를 수신한 사이에 지연이 존재하며, 예를 들면, 카메라로부터 2.5m 떨어진 물체는 16.66 ns의 시간 지연을 초래한다. 그러나, 펄스들을 사용할 때에, 각 광 펄스의 펄스 폭이 카메라 범위 (camera range)를 결정하며, 예를 들어 50 ns의 펄스 폭은 7.5 m 까지의 카메라 범위를 결정한다. 결과적으로, 상기 씬의 조명은 TOF 카메라 시스템의 동작에 결정적으로 되며, 그리고 조명 유닛들에 대한 필요함들은 그런 짧은 광 펄스들을 생성하기 위해서 발광 다이오드들 (light emitting diodes (LEDs)) 또는 레이저들과 같은 특별한 광 소스들을 사용할 것을 필요로 한다.
TOF 카메라 시스템의 다른 주요 컴포넌트는 이미징 센서이다. 상기 이미징 센서는 상기 씬의 이미지를 형성하는 픽셀들의 어레이를 포함하는 것이 보통이다. 추가로, 상기 픽셀들의 출력은 조명 유닛으로부터 상기 씬 내의 물체까지의 광 그리고 상기 물체로부터 상기 이미징 센서로 반사되어 돌아온 광의 이동거리시간차를 결정하기 위해서 사용될 수 있다. 상기 이동거리시간차는 상기 센서에 연결된 또는 상기 센서에 집성될 수 있을 개별적인 프로세싱 유닛에서 계산될 수 있다. 광이 상기 조명 유닛으로부터 상기 물체로 그리고 그 물체로부터 상기 이미징 센서로 돌아오면서 이동할 때에 그 광의 타이밍을 측정하기 위해서 다양한 방법들이 알려져 있다.
잘 알려진 것처럼, 각 픽셀은 입사 광을 수신하고 그리고 그것을 전기적인 신호, 예를 들면, 전류 신호로 변환하는 감광성 엘리먼트를 사실상 포함한다. 아날로그 타이밍 이미징 센서들에서, 상기 픽셀들은 합산하는 디바이스로서 행동하는 메모리로 상기 전류 신호의 방향을 정하는 스위치들에 연결된다. 디지털 타이밍 이미징 센서들에서, 상기 전류 신호를 감지하기 위해서 고주파수 카운터들이 사용된다. 픽셀들이 그 씬 내에 물체들로부터 반사되지 않은 추가의 광을 수신하기 때문에 배경 광의 존재는 거리들이 틀리게 결정되도록 할 수 있을 것이다.
자연적으로, 이미징 렌즈 (optics) 및 프로세싱 전자 디바이스들은 TOF 카메라의 일부를 또한 형성한다. 상기 이미징 렌즈는 상기 씬 내의 물체들로부터의 반사된 광을 모으고 그리고 상기 조명 유닛에 의해서 방사된 광에서 동일한 파장 또는 주파수가 아닌 광을 필터링하여 걸러 낸다. 원치 않는 파장들 또는 주파수들의 광을 걸러 냄으로써, 배경 광은 효과적으로 억제될 수 있다. 상기 프로세싱 전자 디바이스들은 상기 조명 유닛 그리고 상기 이미징 센서 둘 모두에 대한 구동기 (driver)들을 포함하여, 상기 씬의 고해상도 이미지가 획득될 수 있도록 보장하기 위해서 이 컴포넌트들이 정밀하게 제어될 수 있도록 한다.
TOF 카메라 시스템들은 활용된 이미징 센서의 유형에 종속하여 수 밀리미터부터 수 킬로미터까지의 넓은 범위들을 커버하는 경향이 있다. 그런 TOF 카메라 시스템은 특별한 응용분야에서 사용되고 있는 TOF 카메라 시스템의 구성에 종속하여 서브-센티미터부터 수 센티미터까지 또는 심지어는 수 미터까지 변하는 거리 해상도들을 가질 수 있을 것이다. TOF 카메라 시스템들과 함께 사용될 수 있는 기술들은 디지털 타임 카운터들을 구비한 펄스 광 소스들, 위상 검출기들을 구비한 라디오 주파수 (RF) 변조된 광 소스들, 그리고 레인지-게이트 분광복사계 (range-gated imager)를 포함한다.
씬 내의 물체에 대해서 이미징 센서의 출력으로부터 거리 정보를 추출하는 것이 상대적으로 쉬울 수 있지만, TOF 시스템들은 위에서 설명된 것과 같은 배경 광의 영향; 하나보다 많은 TOF 카메라 시스템이 상기 씬의 조망의 겹치는 범위들에서 동작하고 있는 경우의 간섭; 그리고 다중의 반사들 때문에 나빠진다. 상이한 TOF 시스템들 사이의 간섭은 시-다중화 (time-multiplexing) 기법들을 사용하거나 또는 각 TOF 시스템에 대해 상이한 변조 주파수를 활용하는 것 중 어느 하나에 의해서 감소될 수 있다. TOF 카메라 시스템들이 전체 씬에 조명을 비출 때에, 그 조명하는 광은 각 물체에 여러 경로를 따라서 도달하기 때문에 다중의 반사들이 얻어질 수 있을 것이다. 이는 TOF 카메라 시스템으로부터 그 물체까지의 측정된 거리가 그 TOF 카메라 시스템으로부터의 그 물체의 실제의 거리보다 더 크거나 또는 더 작은 것으로 결정될 수 있도록 할 수 있다는 결과를 가져온다. 이는 통상적인 TOF 카메라 시스템들의 주요한 결점이다.
범위 이미징 시스템들에서 측정의 모호함을 제거하는 것은 "Multiple Frequency Range Imaging to Remove Measurement Ambiguity" 제목의 논문에서 A.D. Payne 등에 의해서 설명되었으며, 이 논문에서 부정확한 거리 측정들로 이끄는 위상의 모호함의 문제를 극복하기 위해서 두 개의 상이한 변조 주파수들이 단일의 캡쳐에서 중첩된다.
(http://researchcommons.waikato.ac.nz/bitstram/10289/4032/1/Multiple%20Frequency%20Range%20Imaging.pdf).
"Resolving Depth Measurement Ambiguity with Commercially Available Range Imaging Cameras" 제목의 S.H. McClure 등의 논문 (Proc. SPIE-IS&T Electronic Imaging, SPIE vol. 7538, pp. 75380K, 2010)에서, 깊이 모호성을 해결하기 위해서 소프트웨어 포스트-프로세싱이 사용된다. 상기 씬을 분리된 물체들 (objects)로 세그먼트하기 위해서 범위 (range) 데이터가 프로세싱되며 그리고 어느 픽셀이 비-모호 (non-ambiguity) 범위 외부에 있는가를 판별하기 위해서 각 물체의 평균 강도 (intensity)가 사용된다. 상기 방법은 임의의 범위 이미징 카메라 시스템과 함께 사용될 수 있으며, 예를 들면, 이미지 캡쳐 동안에 카메라가 이동하고 있을 수 있는 로봇 비젼은 씬에서 물체들로부터의 반사율에서의 차이들에 대한 민감도를 줄인다. 신호 처리 및 관련된 분야들에서, 에일리어싱 (aliasing)은 샘플링될 때에 상이한 신호들로 하여금 구별될 수 없게 (또는 다른 하나의 가명들이) 되도록 하는 효과에 관련된다. 시간적인 에일리어싱은 그 샘플들이 시간적으로 구별될 수 없게 되는 때이다. 시간적인 에일리어싱은 샘플링되고 있는 신호가 주기적인 콘텐트를 또한 주기적으로 가질 때에 발생할 수 있다. TOF 시스템들에서 에일리어싱은 광 소스 그리고 그 광이 반사되는 물체 사이의 거리에 관한 모호성으로 귀결한다.
"위상 언래핑 (phase unwrapping)"은 David Droeschel, Dirk Holz 그리고 Sven Behnke의 "Probabilistic Phase Unwrapping for Time-of-Flight Cameras" 제목의 논문 (Proceedings of Joint 41st International Symposium on Robotics and 6th German Conference on Robotics, Munich, June 2010.)에서 설명된다. 거리 정보를 포함하는 깊이 이미지에서의 불연속점들을 기반으로 하여 위상 점프들 또는 위상 시프트들을 검출하기 위해서 개연론적인 (probabilistic) 접근 방식이 사용되는 경우인 래핑된 (wrapped) 위상 신호로부터 여러 상대적인 위상 시프트들이 추론된다. 상기 저자들은 위상 언래핑을 "Multi-frequency Phase Unwrapping for Time-of-Flight Cameras" (Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Taipei, Taiwan, October 2010)에서 또한 설명했다.
R. Schwarte 등의 "A New Active 3D-Vision System Based on RF-Modulation Interferometry of Incoherent Light" 제목의 논문 (Photonics East-Intelligent Systems and Advanced Manufacturing, Proceedings of the SPIE, Vol. 2588, Philadephia, 1995)에서, TOF 카메라 시스템으로부터의 신호들을 처리하는 방법이 개시되며, 이 경우에 자동상관 (autocorrelation) 함수는 위상 시프트 알고리즘을 활용하며, 이 때에 위상은 상기 TOF 카메라 시스템으로부터의 거리에 비례하며 그리고 이 때에 측정 불확실성은 위상 측정들의 개수, 변조 대비 (modulation contrast), 액티브 신호에서의 그리고 노이즈 신호에서의 전자들 그리고 변조 신호에서의 파장에 따라서 결정될 수 있다. 그런 시스템들은 보행자들 그리고 차량 안전 시스템들 모두에게 유용한 것으로 설명된다.
US-B-7791715에서, 위상 데이터를 얻기 위해서 적어도 두 개의 변조 주파수들을 활용함에 의한 위상-구동 데이터 디-에일리어싱 (de-aliasing) 방법이 설명된다. 디-에일리어싱을 구현하기 위해서 적어도 두 개의, 바람직하게는 네 개의 불연속 위상들에서 픽셀 검출 정보가 캡쳐된다. 이 불연속 위상들은 TOF 카메라 시스템 내의 변조기와 조명 유닛 사이에서의 시프트들을 나타낸다. 이것은 방사된 광 (emitted light) 그리고 이미징 센서에 의해서 수신된 물체로부터의 반사된 광 (reflected light) 사이에서 검출된 원하는 위상 시프트와는 다르다. 상기 불연속 위상들은 서로에게서 감해져서, 상기 변조기와 상기 조명 유닛 사이에서의 고정된 패턴 오프셋을 상쇄시킨다. 두 개의 변조 주파수들을 사용함으로써, 상기 시스템은 두 개의 변조 주파수들 사이의 차이에 비례하는 매우 느린 변조 주파수에서 동작하고 있지만, 그 시스템은 위상 데이터가 수집된 것처럼 행동한다. 다중의 변조 주파수들을 사용하는 것은 단 하나의 변조 주파수를 이용하여 획득될 수 있는 것보다 더 나은 깊이 측정 확실성 및 정밀도를 제공한다.
다중의 변조 주파수들을 사용하는 것은 Canesta Inc.의 S. Burak Gokturk, Hakan Yalcin, 그리고 Cyrus Bamji에 의한 "A Time-Of-Flight Depth Sensor - System Description, Issues and Solutions"에서도 또한 설명된다. 일 실시예에서, 두 개의 변조 주파수들이 사용되며, 이 경우에 단일의 변조 주파수에 비교할 때에 비해서 더 정밀한 깊이 값을 제공하기 위해서 결과들이 조합된다. 추가로, 비-모호함 또는 명확함 범위가 확대된다. 다른 실시예에서, f, 2f , 4f , 8f 등의 변조 주파수들을 이용하여 여러 측정들이 만들어지며, 비-모호함 또는 명확함의 긴 범위를 통해서 거리의 정밀한 값을 제공하기 위해서 조합된 각 변조 주파수에서의 결과들이 획득될 수 있다. 각 연속한 측정에서, 해상도는 두 배이며 반면에 범위는 반이 된다.
사용된 조명 소스의 주기적인 속성, 즉, 조명 소스의 변조로 인해서, 거리 범위 구간들은 반복되는 경향이 있다. 이 현상은 위에서 설명된 것과 같이 TOF 에일리어싱으로 알려져 있다. 현재에, TOF 카메라 시스템이 구현되는 특정 응용 분야를 위해서 충분하게 긴 구간의 비-모호함 (non-ambiguous) 또는 명확한 (unambiguous) 거리를 TOF 카메라 시스템이 제공하는 것을 가능하게 하기 위해서 한정된 개수의 기술들이 존재하여, TOF 에일리어싱의 이 문제를 해결하려고 한다. 이 기술들은 그러나 여러 알려진 한계들을 가지며, 이는 그 기술들은 구현하기에 매우 복잡한 경향이 있으며, 집약적인 계산들을 필요로 하며, 강건하지 못하며 또는 데이터 전송에 있어서 대역폭 오버헤드를 초래하며, 또는 깊이 정밀도의 또는 일반적인 카메라 성능의 감소로 이끌기 때문이다.
US-B-7791715.
A.D. Payne 등의 "Multiple Frequency Range Imaging to Remove Measurement Ambiguity" (http://researchcommons.waikato.ac.nz/bitstram/10289/4032/1/Multiple%20Frequency%20Range%20Imaging.pdf). S.H. McClure 등의 "Resolving Depth Measurement Ambiguity with Commercially Available Range Imaging Cameras", Proc. SPIE-IS&T Electronic Imaging, SPIE vol. 7538, pp. 75380K, 2010. David Droeschel, Dirk Holz 그리고 Sven Behnke의 "Probabilistic Phase Unwrapping for Time-of-Flight Cameras", Proceedings of Joint 41st International Symposium on Robotics and 6th German Conference on Robotics, Munich, June 2010. David Droeschel, Dirk Holz 그리고 Sven Behnke의 "Multi-frequency Phase Unwrapping for Time-of-Flight Cameras", Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Taipei, Taiwan, October 2010. R. Schwarte 등의 "A New Active 3D-Vision System Based on RF-Modulation Interferometry of Incoherent Light", Photonics East-Intelligent Systems and Advanced Manufacturing, Proceedings of the SPIE, Vol. 2588, Philadephia, 1995. Canesta Inc.의 S. Burak Gokturk, Hakan Yalcin, 그리고 Cyrus Bamji의 "A Time-Of-Flight Depth Sensor - System Description, Issues and Solutions".
그러므로 본 발명의 목적은 이동거리시간차 (Time-of-flight (TOF)) 신호드을 프로세싱하기 위한 대안의 디바이스들 및 방법들을 제공하는 것이며, 더 상세하게는 그런 이동거리시간차 신호들의 디-에일리어싱 (de-aliasing)하는 디바이스 및 방법을 제공하는 것이다. 특히, 본 발명의 목적은 이동거리시간차 신호들의 디-에일리어싱을 포함하는 대안의 TOF 센서들, 카메라들 등을 제공하는 것이다.
본 발명의 이점은 TOF 신호들의 디-에일리어싱의 효율적인 방식으로 실행될 수 있다는 것이다. 본 발명의 실시예들의 모습들은 다음과 같다:
a) 두 개의 상관 프로세스들을 이용한다. 한 상관 프로세스는 길이 또는 깊이 값을 결정하기 위한 것이며 그리고 두 번째 상관 프로세스는 상기 제1 상관에 에일리어싱이 존재하는가의 여부를 판별하기 위한 것이다. 이 두 프로세스들은 서로에게 독립적으로 만들어질 수 있다.
b) 상기 a)에서의 제1 상관에는 상기 제2 상관보다 더 높은 우선 순위가 주어질 수 있다. 예를 들면, 상기 제1 상관을 위한 컴퓨터 사용 노력은 상기 두 번째 보다는 첫 번째를 위해서 더 높을 수 있으며 그리고/또는 상기 제1 상관에서의 신호들에 대한 집성 시간은 제2 상관에 대한 것보다 더 길 수 있다.
c) 깊이 또는 거리 정보를 얻기 위해서 하나의 상관 프로세스가 사용되지만, 에일리어싱이 존재하는가의 여부를 판별하기 위해서 두 개의 방법들 또는 프로세스들이 사용될 수 있다. 이 프로세스들 중 첫 번째는 가능한 에일리어스된 값들의 개수를 바람직하게 줄이며 그리고 두 번째 프로세스는 가능한 에일리어스된 값들의 개수에 초점을 맞추거나 또는, 예를 들면, 제거 프로세스에 의해서 그 개수를 하나로 또는 하나에 가깝게 줄인다.
d) 즉, 에일리어싱이 존재하는가 또는 존재하지 않는가의 여부에 관한 판별 프로세스들은, 예를 들면, 결정들보다 더 큰가 또는 더 작은가의 간단한 계산을 기반으로 하는 것이 바람직하다.
본 발명의 첫 번째 모습에 따르면, 이미징 센서를 구비하며 그리고 조명 유닛과 함께 사용되는 이동거리시간차 (time-of-flight) 시스템에서 상관 측정들에서 일정 한계들 내에서 에일리어싱 (aliasing)의 존재를 판별하거나 또는 에일리어싱을 회피하는 방법이 제공되며, 상기 조명 유닛은 변조된 광으로 씬 (scene)에 조명을 비추도록 적응되며, 상기 시스템은 상기 씬으로부터 반사된 변조 광에 상관 신호를 인가함으로써 상관 측정들을 획득하도록 적응되며,
상기 방법은:
a) 상기 씬 내의 적어도 하나의 물체 (object)로부터 반사된 광을 검출하는 단계;
b) 하나 이상의 제1 상관 측정들에 의해서, 제1 상관 신호 그리고 상기 이미징 센서에서 수신된 상기 반사 광 사이의 제1 상관을 결정하는 단계로서, 상기 제1 상관 신호는 제1 주파수의 주기적인 파형을 가지며 그리고 상기 제1 상관 측정은 상기 이미징 센서로부터 상기 적어도 하나의 물체까지의 거리에 관련된 파라미터의 값을 제공하는, 단계;
c) 하나 이상의 제2 상관 측정들에 의해서, 상기 이미징 센서에서 수신된 상기 반사 광 그리고 제2 상관 신호 사이의 제2 상관을 결정하는 단계로서, 상기 제2 상관 신호는 상기 제1 주파수보다 더 낮은 제2 주파수의 주기적인 파형을 가지는, 단계;
d) 상기 파라미터 값에 대해, 상기 제2 상관 측정으로부터 에일리어싱의 존재를 판별하는 단계를 포함한다.
상기 제1 및 제2 신호는 상기 씬에 조명을 하기 위해서 광을 변조시키기 위해서 사용될 수 있으며, 제2 주파수는 제1 주파수와는 다르다. 상기 조명 유닛으로부터의 광을 변조하기 위해서 사용된 제3 신호는 상기 제2 상관을 위해서 사용된 제2 신호와는 상이한 듀티 사이클을 가질 수 있다. 상기 제2 신호는 상기 제1 신호에 비교하며 오프셋될 수 있을 것이다. 상기 두 번째 상관 단계 이후에 여전히 존재할 수 있을 어떤 가능한 에일리어싱을 제거하기 위해서, 거리, 즉, 상기 센서와 상기 씬 사이의 거리 관련된 파라미터를 결정하기 위해 제3 프로세스가 제공될 수 있다. 이 거리 관련된 파라미터는 신뢰 레벨, 예를 들면, 반사율 지도 (reflectance map)일 수 있다.
본 발명의 다른 모습에 따르면, 예를 들면, 일정 한계들 내에서 이동거리시간차 시스템 내 위상 측정들에서 에일리어싱의 존재를 판별하는 방법이 제공되며, 상기 시스템은 이미징 센서를 구비하며 그리고 조명 유닛과 함께 사용하기 위한 것이며, 상기 조명 유닛은 주기적인 파형을 가진 변조된 광으로 상기 씬에 조명을 비추도록 적응되며, 상기 시스템은 상기 씬으로부터 반사된 변조 광에 상관 신호를 인가함으로써 상관 측정들을 획득하도록 적응되며;
상기 방법은:
a) 제1 주파수 및 제2 주파수에서 변조된 광으로 상기 씬에 조명을 하기 위해서 상기 조명 유닛에 의해서 사용하기 위해 변조 신호를 제공하는 단계;
b) 상기 제1 주파수에서 상기 씬 내의 적어도 하나의 물체로부터 반사된 광을 검출하는 단계;
c) 상기 변조 신호 그리고 상기 이미징 센서에서 수신된 상기 반사된 광 사이의 제1 상관을 결정하는 단계;
d) 상기 조명 유닛에 의해서 방사된 조명 광 그리고 상기 이미징 센서에서 수신된 상기 반사된 광 사이의 제2 상관을 결정하는 단계; 그리고
e) 상기 검출된 반사된 광의 동상 성분 그리고/또는 직교 성분을 상기 제1 상관 그리고/또는 제2 상관으로부터 결정하고, 그리고 에일리어싱의 존재를 판별하기 위해서 상기 동상 성분 그리고/또는 직교 성분을 사용하는 단계를 포함한다.
에일리어싱의 존재 또는 모호함은 특정 거리 한계들 내에서 결정될 수 있으며, 예를 들면, 상기 제1 주파수 및 제2 주파수 그리고 그 제1 주파수와 제2 주파수 사이의 관계에 의해서 결정된 것과 같이 정해질 수 있다. 이 모호함은 상기 ToF 거리가 특정 거리까지 신뢰성있게 결정될 수 있다는 것을 의미한다. 상기 ToF가 아닌 다른 거리 종속 팩터들 또는 프로세스들을 기반으로 하여 신뢰 레벨이 거리 측정에 대해서 결정될 때에 에일리어싱의 효과 또는 모호함은 몇몇의 실시예들에서 여전히 더 축소될 수 있다. 그런 거리 관련된 팩터들은 예를 들면 상기 물체로부터 반사된 IR 광, 반환 이미지 내 반점의 크기와 유사하게 수동적이며, 또는 발산하는 패턴을 투사하고 그리고 센서에 의해서 보이는 것과 같은 패턴의 크기를 측정하는 것과 같이 능동적일 수 있다. 본 발명의 실시예들에 따라서 신뢰 문턱값이 적용된다. 상기 신뢰 문턱값은 검출될 수 있는 상기 씬의 물체들의 거리 종속적인 특성을 기반으로 할 수 있다. 상기 문턱값은 픽셀 단위로 (pixel-by-pixel) 적용될 수 있다. 대안의 실시예들에서, 신뢰 문턱값은 완전한 이미지의 일부를 기반으로 하여, 예를 들면, 이미징 프로세싱 기술들에 의해서 상기 이미지에서 검출될 수 있는 물체들 또는 물체를 기반으로 하여 또는 전체 이미지에 대해서 적용될 수 있다. 예를 들면, 상기 씬 내에서 검출될 물체들의 반사율은 측정된 상기 거리가 올바를 것 같다는 것을 확인하기 위해서 사용될 수 있다. 상기 신뢰 문턱값이 거리 종속적인 인텔리전트한 문턱값 프로세스를 이용함으로써, 본 발명의 TOF 방법들에 의해서 실제로 지지될 수 있는 최대 거리를 증가시키는 것이 또는 최소 반사율을 감소시키는 것이 가능하며, 그래서 검출될 수 있는 상기 최대 거리가 신뢰성있게 확장될 수 있도록 한다.
직교 (quadrature)의 용어는 위상 정보를 가진 신호들에 관한 것이다. 보통 그런 신호들은 90°위상이 다르지만, 본 발명은 90°를 의미하는 직교로 한정되지 않는다. 360° 로 이어진 다른 각도들은 60, 30° 등과 같이 사용될 수 있을 것이다. 본 발명의 실시예들에 의해서 사용되는 것은 상이한 주파수들에서의 두 신호들이 에일리어싱이 적어도 특정 한계들 내에서 결정될 수 있는 방식으로 성상 도면 (constellation diagram)의 상이한 섹터들에 놓여질 것이라는 것이다. 에일리어싱을 판별하는 것은 성상 도면에서 결정 (decision) 영역들을 검사함으로써 실행될 수 있다.
바람직하게는, 에일리어싱의 존재는 상기 검출된 반사 광의 동상 성분 및/또는 직교 성분의 부호로부터 판별된다.
바람직하게는 위상 측정은 상기 제1 주파수에 대한 상이한 위상 오프셋들에서의 상관으로부터 결정된다. 바람직하게는 위상 측정은 상기 제2 주파수에 대한 상이한 위상 오프셋들에서의 상관으로부터 결정된다. 옵션으로 상기 제2 주파수는 상기 제1 주파수의 2-n 이며, 이 경우 n=1, 2, … 등이다.
바람직하게는, I 값 그리고 Q 값을 결정하는 단계는 바람직하게는 상기 제1 주파수 그리고/또는 상기 제2 주파수에서 행해진다. 상기 제1 주파수 그리고/또는 상기 제2 주파수를 이용한 상기 위상 측정 단계는 상기 위상 측정을 결정학 위해서 상기 I 값 그리고 Q 값을 사용하는 단계를 포함할 수 있을 것이다.
본 발명의 실시예들에서, 에일리어싱의 존재를 결정하는 것은, 예를 들면, 상기 제1 주파수 그리고/또는 상기 제2 주파수에서 I 값 그리고/또는 Q 값을 0과 비교함으로써 I 값 그리고/또는 Q 값의 부호를 결정하는 것과 같은 간단한 계산 연산을 실행하는 것을 포함한다. 에일리어싱의 존재를 판별하기 위해 성상 서클의 섹터들이 상기 상이한 위상 오프셋들을 결정 알고리즘과 연관시키기 위해서 사용될 수 있을 것이다.
다른 모습에서 본 발명은 이동거리시간차 또는 거리계 연동 (range finding) 센서를 제공하며, 이 센서는 일정 한계들 내에서 에일리어싱 (aliasing)의 존재를 판별하거나 또는 에일리어싱을 회피하는 수단을 구비하며, 상기 센서는 제1 및 제2 신호와 함께 사용되며 그리고 또한 조명 유닛과 함께 사용되는 용도이며, 상기 조명 유닛은 변조된 광으로 씬 (scene)에 조명을 비추도록 적응되며, 상기 시스템은 상기 씬으로부터 반사된 변조 광에 상관 신호를 인가함으로써 상관 측정들을 획득하도록 적응되며,
상기 센서는:
a) 상기 씬에 조명을 하기 위해서 상기 조명 유닛에 의해서 사용하기 위해 상기 제1 신호를 제공하는 수단;
b) 상기 제1 주파수에서 상기 씬 내의 적어도 하나의 물체로부터의 반사된 광을 검출하는 수단;
c) 상기 변조 신호 그리고 상기 이미징 센서에서 수신된 상기 반사된 광 사이의 제1 연관을 결정하는 수단;
d) 상기 이미징 센서에서 수신된 상기 반사 광 그리고 상기 제2 신호 사이의 제2 상관을 결정하는 수단;
e) 상기 제1 상관으로부터 상기 이미징 센서로부터 상기 씬까지의 거리를 결정하고 그리고 상기 제2 상관으로부터 에일리어싱의 존재를 판별하는 수단을 포함한다.
상기 제2 신호가 상기 제1 주파수와는 상이한 제2 주파수로 상기 씬에 조명을 하기 위해서 광을 변조하기 위해서 사용될 수 있도록 수단들이 제공될 수 있다. 또는 상기 조명 유닛으로부터의 광을 변조하기 위해서 사용된 제3 신호가 상기 제2 상관을 위해서 사용된 상기 제2 신호와는 상이한 듀티 사이클을 가질 수 있도록 수단들이 제공될 수 있다. 상기 제2 신호가 상기 제1 신호와 비교하여 오프셋될 수 있도록 수단들이 제공될 수 있다. 상기 제2 상관 단계 이후에 여전히 존재할 수 있을 어떤 가능한 에일리어싱을 제거하기 위해서 거리 관련된 파라미터, 즉, 상기 센서와 상기 씬 사이의 거리에 관련된 파라미터를 결정하기 위해서 수단들이 제공될 수 있다. 이 거리 관련된 파라미터는 신뢰 레벨, 예를 들면, 반사율 지도일 수 있다.
또 다른 모습에서 본 발명은 이동거리시간차 또는 거리계 연동 (range finding) 센서를 제공하며, 이 센서는 일정 한계들 내에서 에일리어싱 (aliasing)의 존재를 판별하거나 또는 에일리어싱을 회피하는 수단을 구비하며, 상기 센서는 이미징 센서를 구비하며 그리고 조명 유닛과 함께 사용되는 용도이며, 상기 조명 유닛은 주기를 가지는 변조된 광으로 씬 (scene)에 조명을 비추도록 적응되며; 상기 센서는:
a) 제1 주파수 및 제2 주파수에서 변조된 광으로 상기 씬에 조명을 하기 위해서 상기 조명 유닛에 의해서 사용되기 위해 변조 신호를 제공하는 수단;
b) 상기 씬 내의 적어도 하나의 물체로부터 반사된 광을 검출하는 수단;
c) 상기 변조 신호 그리고 상기 제1 주파수에 대해서 상기 이미징 센서에서 수신된 상기 반사 광 사이의 제1 연관을 결정하는 제1 수단;
d) 상기 조명 유닛에 의해서 전송된 상기 조명 광 그리고 제2 주파수에 대해 상기 이미징 센서에서 수신된 상기 반사 광 사이의 제2 상관을 결정하는 제2 수단; 그리고
e) 상기 검출된 반사 광의 동상 성분 및/또는 직교 성분을 상기 제1 상관 그리고/또는 제2 상관으로부터 결정하며, 그리고 에일리어싱의 존재를 결정하기 위해서 상기 동상 성분 및/또는 직교 성분을 시용하는 제3 수단을 포함한다.
반사 광을 검출하는 수단은 픽셀들을 구비한 센서일 수 있다. 상관들을 결정하는 상기 수단 그리고/또는 동상 성분 및/또는 직교 성분을 결정하는 상기 수단 또는 에일리어싱의 존재를 탐지하는 수단은 상기 센서에 링크된 또는 상기 센서와 통합된 프로세싱 유닛일 수 있다. 예를 들면, 이 수단들은 컴퓨터에 의해서 제공될 수 있으며, 상기 센서의 출력은 상기 컴퓨터에 링크된다.
에일리어싱의 존재 또는 모호함은 상기 제1 주파수 및 제2 주파수 그리고 그것들의 분리 또는 그것들 사이의 관계에 종속한 특정 한계들 내에서 판별될 수 있다. 이 모호함은 상기 ToF 거리가 특정 거리까지 신뢰성있게 결정될 수 있다는 것을 의미한다. 신뢰 레벨이 ToF가 아닌 다른 팩터들 또는 프로세스들을 기반으로 하여 거리 측정을 위해서 결정될 때에 몇몇의 실시예들에서 에일리어싱의 효과 또는 모호함은 여전히 더 줄어들 수 있다. 본 발명의 실시예들에 따라서 신뢰 문턱값이 적용된다. 이 신뢰 문턱값은 검출될 수 있는 상기 씬의 물체들의 예를 들면 거리 종속적인 특성을 기반으로 할 수 있다. 그런 거리 관련된 팩터들은, 예를 들면, 상기 물체로부터 반사된 IR 광, 반환 이미지 내 반점의 크기와 유사하게 수동적이며, 또는 발산하는 패턴을 투사하고 그리고 센서에 의해서 보이는 것과 같은 패턴의 크기를 측정하는 것과 같이 능동적일 수 있다. 상기 문턱값은 픽셀 단위로 (pixel-by-pixel) 적용될 수 있다. 대안의 실시예들에서, 신뢰 문턱값은 완전한 이미지의 일부를 기반으로 하여, 예를 들면, 이미징 프로세싱 기술들에 의해서 상기 이미지에서 검출될 수 있는 물체들 또는 물체를 기반으로 하여 또는 전체 이미지에 대해서 적용될 수 있다. 예를 들면, 상기 씬 내에서 검출될 물체들의 반사율은 측정된 상기 거리가 올바를 것 같다는 것을 확인하기 위해서 사용될 수 있다. 상기 신뢰 문턱값이 거리 종속적인 인텔리전트한 문턱값 프로세스를 이용함으로써, 본 발명의 TOF 카메라시스템에 의해서 실제로 지지될 수 있는 최대 거리를 증가시키는 것이 또는 최소 반사율을 감소시키는 것이 가능하며, 그래서 검출될 수 있는 상기 최대 거리가 신뢰성있게 확장될 수 있도록 한다.
바람직하게는 상기 제3 수단은 상기 검출된 반사 광의 동상 성분 및/또는 직교 성분의 부호로부터 에얼리어싱의 존재를 판별하도록 적응된다.
바람직하게는 상기 제1 수단은 제1 주파수에 대해 상이한 위상 오프셋들에서 상기 상관으로부터 위상 측정을 하도록 적응된다. 바람직하게는 상기 제2 수단은 상기 제2 주파수에 대한 상이한 위상 오프셋들에서 상기 상관으로부터 위상 측정을 하도록 적응된다.
옵션으로, 상기 제2 주파수는 상기 제1 주파수의 2-n 이며, 이 경우에 n=1, 2, … 등이다.
바람직하게는 결정하는 상기 제3 수단은 상기 제1 주파수 그리고/또는 상기 제2 주파수에서 I 값 및 Q 값을 결정하도록 적응된다.
본 발명의 실시예에서 결정하는 상기 제3 수단은 예를 들면, I 값 및/또는 Q 값을 상기 제1 주파수에서 그리고/또는 상기 제2 주파수에서 0과 비교함으로써 상기 I 값 및/또는 Q 값의 부호를 결정하여 에얼리어싱의 존재를 판별하도록 적응된다.
상기 센서들 중 어떤 것은 TOF 디바이스의 일부일 수 있다.
본 발명의 효과는 본 명세서의 해당되는 부분들에 개별적으로 명시되어 있다.
본 발명에 대한 더 나은 이해를 위해서, 첨부된 도면들을 이제 예로서만 참조할 것이다.
도 1은 네 개의 위상 4분원들 또는 섹터들을 구비한 위상 원을 예시한다.
도 2는 도 1과 유사하지만 여덟 개의 위상 섹터들을 가진다
도 3은 씬 내의 물체들의 반사율 및 디-에일리어싱의 효과를 보여주는 그래프를 예시한다.
도 4는 광에 대한 변조 신호들, 그것들의 반사들 그리고 TOF 배율기의 믹스 입력을 구동하기 위해서 필요한 신호들 기술들 중 하나를 보여주는 그래프를 예시한다.
도 5는 광에 대한 변조 신호들, 그것들의 반사들 그리고 TOF 배율기의 믹스 입력을 구동하기 위해서 필요한 신호들 기술들 중 다른 하나를 보여주는 그래프를 예시한다.
도 6은 본 발명의 실시예에 따른 TOF 카메라를 예시한다.
도 7은 TOF 시스템의 개략적인 모습이다.
본 발명은 특정 실시예들에 관해서 그리고 특정 도면들을 참조하여 설명될 것이지만, 본 발명은 그것들로 한정되지 않는다. 설명된 도면들은 개략적인 것일 뿐이며 그리고 비-제한적이다. 상기 도면들에서, 몇몇 엘리먼트들의 크기는 과장될 수 있을 것이며 그리고 예시의 목적들을 위해 크기에 맞추어서 그려지지 않을 수 있다.
본 명세서의 나머지 부분에서 디에일리어싱 (dealiasing)은 위상 (phase) 측정들을 기반으로 설명될 것이다. 그러나 본 발명은 다른 주기적인 신호들 (예를 들면, 의사 랜덤 비트 스트림 또는 다른 디지털 신호들)에 대해서도 또한 사용될 수 있다는 것에 유의한다.
도 7을 참조하면 TOF 측정에서, 조명 유닛을 구비한 TOF 카메라 시스템으로부터 씬 내의 포인트들까지 이동한 조명 광에 대한 왕복 시간 그리고 그 포인트들로부터 상기 TOF 카메라 시스템의 센서 유닛까지 돌아간 반사 광이 측정된다. 통상적인 TOF 카메라 시스템에서, 상기 조명 광은 신호 생성기로부터의 신호로 상기 조명 유닛을 구동하여 생성된 주기적으로 변조된 광을 포함한다. 이동거리시간차를 결정하기 위한 한 옵션에서, 상기 씬에 조명하기 위한 상기 TOF 카메라 시스템으로부터의 방사된 광 그리고 그 씬으로부터의 수신된 반사 광 사이의 위상 지연이 결정된다. 이는 상기 신호 생성기로부터 상기 변조 신호를 수신하는 상관 및 평가 유닛에서 실행될 수 있다.
그러면 이 위상 지연은 광의 주기 길이 및 속도를 이용하여 측정된 거리, 즉, 물체의 적어도 하나의 포인트로부터 상기 TOF 카메라 시스템까지의 거리로 변환될 수 있다. 이는 픽셀 단위 (pixel-by-pixel) 기반으로 실행될 수 있다. 상기 변조된 광의 주기적인 속성으로 인해서, 특정 거리들에서 상기 위상 지연 측정들은 반복되며 (또는 에일리어스되며), 이는 상기 위상 지연이 상기 주기의 배수들을 일단 초과하면 발생한다. 위상 지연 측정들의 이 반복은 위에서 설명된 것과 같은 신호의 "에일리어싱 (aliasing)"으로 언급된다. 본질적으로, TOF 거리 측정, D는 다음과 같이 결정될 수 있다:
Figure pct00001
이 경우 c는 광의 속도이며, f는 상기 변조된 광의 주파수이며, phase_deg는 각도로 표시된 위상 시프트이며, 그리고 k는 "에일리어스된" 주기들의 개수에 관한 것이다. 이 식에서 첫 번째 팩터는 디-에일리어싱을 전혀 제공하지 않는 시스템에 대한 에일리어싱 거리이며, 이는 명확한 거리 (unambiguous distance)에 대응하며, 다음과 같다:
Figure pct00002
이 거리는 한 주기 내에 커버될 수 있는 최대 거리를 나타낸다. 더 큰 거리를 주기 k를 이룰 것이며 그리고, 이미지 내에 존재한다면, 그러면 에일리어스 될 것이며 그리고 명확하게 측정되기 위해서 k에 관한 지식을 필요로 할 것이다.
이 원칙을 기반으로 한 거리 측정은 이론적으로 절대로 유일하게 정의되지 않지만, 무제한 개수의 가능한 거리 측정들에 대응한다. 오늘날의 시스템들은 모든 측정들에 대해서 0과 같은 k의 값을 가정한다. 그러므로, 몇몇의 픽셀들에 대해서 실제로 k > 0 이면, 상기 가정은 무효이며 그리고 측정은 부정확하다.
본 발명의 모습들에 따라, 신규한 디-에일리어싱 방법이 설명되며, 이는 k가 0인 것을, 또는 특정 범위 내에 있는 것을 확인하기 위해서, 그리고/또는 k의 정확한 값을 확인하기 위해서 사용될 수 있다. 본 발명의 실시예들은 이미징 센서를 구비하며 그리고 조명 유닛과 함께 사용하기 위한 이동거리시간차 시스템에서 상관 (correlation) 측정들에서의 특정 한계들 내에서 에일리어싱의 존재를 판별하거나 또는 에일리어싱을 회피하는 방법을 설명하며, 이 경우에 상기 조명 유닛은 변조된 광으로 씬에 조명을 하도록 적응된 것이며, 상기 시스템은 상기 씬으로부터 반사된 변조 광에 상관 신호를 인가함으로써 상관 측정들을 획득하도록 적응된 것이다. 상기 방법의 단계들은 어떤 적합한 순서로 수행될 수 있다. 상기 방법은:
a) 상기 씬 내의 적어도 하나의 물체 (object)로부터 반사된 광을 검출하는 단계;
b) 하나 이상의 제1 상관 측정들에 의해서, 제1 상관 신호 그리고 상기 이미징 센서에서 수신된 상기 반사 광 사이의 제1 상관을 결정하는 단계로서, 상기 제1 상관 신호는 제1 주파수의 주기적인 파형을 가지며 그리고 상기 제1 상관 측정은 상기 이미징 센서로부터 상기 적어도 하나의 물체까지의 거리에 관련된 파라미터의 값을 제공하는, 단계;
c) 하나 이상의 제2 상관 측정들에 의해서, 상기 이미징 센서에서 수신된 상기 반사 광 그리고 제2 상관 신호 사이의 제2 상관을 결정하는 단계로서, 상기 제2 상관 신호는 상기 제1 주파수보다 더 낮은 제2 주파수의 주기적인 파형을 가지는, 단계;
d) 상기 파라미터 값에 대해, 상기 제2 상관 측정으로부터 에일리어싱의 존재를 판별하는 단계를 포함한다.
상기 파라미터는 위상 차이일 수 있다. 상기 방법에서 제1 위상 측정은 상기 제1 주파수에 대해 상이한 위상 오프셋들에서 상기 제1 상관 측정으로부터 결정될 수 있다. 바람직하게는 상기 제1 상관 측정에서 상기 검출된 반사 신호의 신호 집성 시간 (integration time)은 상기 제2 상관 측정의 신호 집성 시간보다 더 길다. 이는 에일리어싱을 여전히 해소하면서도 거리 측정의 정밀도를 증가시킨다.
상기 제2 상관 신호는 자신과 상관된 상기 검출된 반사된 변조 광의 듀티 사이클과는 상이한 듀티 사이클을 가질 수 있다. 상기 제2 상관 신호의 듀티 사이클은 옵션으로 50%일 수 있다.
상기 제1 상관 측정 및/또는 제2 상관 측정은 에일리어싱 표지기 (indicator)들로 결합된다. 그런 에일리어싱 표지기들은 I 값 및 Q 값일 수 있다. 다른 표시기는 상기 씬 내의 물체들로부터의 반사율과 같은 거리 관련된 팩터를 기반으로 할 수 있다.
상기 방법은:
상기 제2 주파수에 대해서 상이한 위상 오프셋들을 이용하여 상기 제2 상관 측정을 결정하는 단계; 그리고
상기 검출된 반사 광의 동상 (in-phase) 성분 및/또는 직교 (quadrature) 성분을 상기 하나 이상의 제2 상관 측정들로부터 결정하는 단계, 그리고 에일리어싱의 존재를 판별하기 위해서 상기 동상 성분 및/또는 직교 성분을 이용하는 단계를 더 포함할 수 있을 것이다.
에일리어싱의 상기 존재는 거리 관련 팩터를 측정하는 것으로부터 결정된 신뢰 레벨을 이용하여 결정될 수 있다. 상기 거리 관련 팩터는 옵션으로는 반사 광의 양, 반점 패턴의 크기, 부과된 (imposed) 패턴의 크기일 수 있다.
에일리어싱의 존재는 상기 검출된 반사 광의 동상 성분 및/또는 직교 성분의 부호 (sign)와 같은 표지기들로부터 결정될 수 있다.
상기 제2 주파수에 대한 상이한 위상 오프셋들에서 상기 제2 상관 측정으로부터 제2 위상 측정이 결정될 수 있다. 상기 제1 주파수는 상기 제2 주파수와는 상이하며, 예를 들면, 더 높거나 또는 상기 제2 주파수의 배수이다.
동상 성분 및/또는 직교 성분을 결정하는 상기 단계는 상기 제1 주파수 그리고/또는 상기 제2 주파수에서 I 값 및 Q 값을 결정하는 단계를 포함할 수 있다.
에일리어싱의 존재는 상기 I 및/또는 Q의 부호 그리고/또는 I 및 Q의 절대값들의 차이와 같은 표지기들로부터 결정될 수 있다.
실시예들은 이동거리시간차 또는 거리계 연동 (range finding) 센서 유닛을 기술하며, 이 센서 유닛은 일정 한계들 내에서 에일리어싱 (aliasing)의 존재를 판별하거나 또는 에일리어싱을 회피하는 수단을 구비하며, 상기 센서는 조명 유닛과 함께 사용되는 용도이며, 상기 조명 유닛은 변조된 광으로 씬 (scene)에 조명을 비추도록 적응되며, 상기 시스템은 상기 씬으로부터 반사된 변조 광에 상관 신호를 인가함으로써 상관 측정들을 획득하도록 적응되며,
상기 센서 유닛은:
a) 상기 씬 내의 적어도 하나의 물체로부터 반사된 광을 검출하는 제1 수단;
b) 제1 상관 측정에 의해서, 상기 제1 신호 그리고 상기 이미징 센서에서 수신된 상기 반사 광 사이의 제1 상관을 결정하는 제2 수단으로서, 상기 제1 상관 측정은 상기 이미징 센서로부터 상기 씬까지의 거리에 관련된 파라미터의 값을 제공하는, 제2 수단;
d) 제2 상관 측정에 의해서, 상기 이미징 센서에서 수신된 상기 반사 광 그리고 제2 신호 사이의 제2 상관을 결정하는 제3 수단으로서, 상기 제2 신호는 상기 제1 주파수보다 더 낮은 제2 주파수의 주기적인 파형을 가지는, 제3 수단;
e) 그 값에 대해, 상기 제2 상관 측정으로부터 에일리어싱의 존재를 판별하는 제4 수단을 포함한다.
상기 파라미터는 위상 차이일 수 있다. 상기 제2 수단은 상기 제1 주파수에 대해 상이한 위상 오프셋들에서 상기 제1 상관 측정으로부터 제1 위상 측정을 결정하도록 적응될 수 있다.
바람직하게는 상기 제2 수단 및 제3 수단은 상기 제1 상관 측정의 신호 집성 시간이 상기 제2 상관 측정의 집성 시간보다 더 길도록 적응된다.
제2 상관 신호는 자신과 상관된 상기 검출된 반사된 변조 광의 듀티 사이클과는 상이한 듀티 사이클을 가질 수 있다. 상기 제2 신호의 듀티 사이클은 50%일 수 있다.
상기 제2 상관을 결정하는 상기 제3 수단은 상기 제2 주파수에 대해 상이한 위상 오프셋들에서 상기 제2 상관 측정을 수행하도록 적응될 수 있으며; 그리고
상기 센서 유닛은 상기 제2 상관 측정으로부터 상기 검출된 반사 광의 동상 성분 및/또는 직교 성분을 결정하도록 적응되며, 그리고 상기 제4 수단은 에일리어싱의 존재를 판별하기 위해서 상기 동상 성분 및/또는 직교 성분을 사용한다.
에일리어싱의 존재는 거리 관련된 팩터로부터 결정된 신뢰 레벨을 이용함으로써 판별될 수 있다. 상기 거리 관련된 팩터는 상기 제1 주파수 그리고/또는 제2 주파수에서 변조된 반사 광의 양, 반점 패턴의 크기, 부과된 (imposed) 패턴의 크기일 수 있다.
동상 성분 및/또는 직교 성분을 결정하는 상기 수단은 상기 검출된 반사 광의 동상 성분 및/또는 직교 성분의 부호로부터 상기 에일리어싱의 존재를 판별하도록 옵션으로 적응될 수 있다.
상기 제2 수단은 상기 제1 주파수에 대해 상이한 위상 오프셋들에서 상기 제1 상관 측정으로부터 위상 측정을 결정하도록 적응될 수 있다.
상기 제3 수단은 상기 제2 주파수에 대해 상이한 위상 오프셋들에서 상기 제2 상관 측정으로부터 위상 측정을 만들도록 적응될 수 있다.
상기 제1 주파수는 상기 제2 주파수와는 상이하며, 예를 들면, 더 높거나 또는 상기 제2 주파수의 배수이다.
동상 성분 및/또는 직교 성분을 결정하기 위한 상기 제4 수단은 상기 제2 주파수에서 I 값 및 Q 값을 결정하도록 적응될 수 있다.
동상 성분 및/또는 직교 성분을 결정하기 위한 상기 제4 수단은 I 값 및 Q 값의 부호를 결정하여 에얼리어싱의 존재를 판별하도록 적응될 수 있다.
상기 제1 신호 및/또는 제2 신호는 오프셋 오류들을 피하기 위해서 위상 오프셋에 대해서 캘리브레이션되는 (calibrated) 것이 바람직하다.
상기 센서 유닛의 상기 센서는 마이크로프로세서 또는 FPGA와 같은 프로세서를 포함할 수 있는 상관 및 평가 유닛과 함께 사용될 수 있다.
비록 제1 신호 및 제2 신호가 반사된 광의 상관에 대해서 설명될 것이지만, 본 발명은 캐스케이드 (cascade) 될 수 있거나 또는 반복적으로 인가될 수 있는 더 많은 신호들을 포함하며 그리고 이 신호들은 상기 제1 신호 및 제2 신호와는 상이한 주파수들에 또한 있을 수 있을 것이다.
k가 0 인가 또는 아닌가의 여부를 결정할 때에 첫 번째 유리한 점은 이제 거리 측정은 유일하게 정의된 거리 측정이며, 그럼으로써 상기 시스템이 위에서 설명된 것처럼 k > 0인 경우에 올바르지 않은 거리 정보를 출력하는 것을 피하게 한다는 것이다. 두 번째 유리한 점은 k의 값을 알고 있을 때에, 상기 시스템이 이 식별된 정보를 더 긴 거리 범위로 번역하는 것을 또한 가능하게 한다는 것이다. 세 번째 유리한 점은 더 높은 변조 주파수들이 사용될 수 있어서, 깊이 정밀도에 가능한 유리한 영향들을 가진다는 것이다.
TOF와 같은 몇몇의 거리 측정 기술들에서, 그 측정에서 사용된 반사된 액티브 적외선 광의 강도에 대한 여분의 값이 또한 얻어지며, 우리는 이를 신뢰라고 부를 것이다. 이 신뢰는 거리의 제곱으로 감소한다.
에일리어싱 모호함을 해소하는데 있어서의 첫 번째 접근 방식은 k를 결정하기 위해서 상기 신뢰를 조사하는 것이다. 상기 신뢰가 거리의 함수일 뿐만이 아니기 상기 씬 내의 표면들의 반사율의 함수이기도 하므로 이것은 좋은 솔루션은 아니다. 그러므로, 아주 낮은 신뢰는 한 주기보다 더 멀리에 있는 (k > 0) 물체에, 또는 매우 낮은 반사율 (예를 들면, 검정 가죽 자켓)을 가진 물체에 근접한 것에 대응할 수 있다. 그러므로, 이 원칙에 의존하기 위해서, 상기 씬 내의 반사율은 그 씬 내의 모든 픽셀들에 대해서 알려져야만 한다. 그런 경우들에서, 상기 신뢰는 k를 결정하기 위해서 사용될 수 있다. 그러나, 실제로는 이는 거의 발생하지 않는다.
본 발명에서 사용된 접근 방식은 신뢰에 부분적으로 의존할 것이다. 첫 번째 접근 방식은 신뢰를 기반으로 하여 아마도 k > 0 일 수 있는 모든 픽셀들을 억제하는 것이다. 위에서 표시된 것처럼, 상기 신뢰는 k > 0 인 픽셀들이 근접한 픽셀들과 구별되는 것을 허용하지 않지만 더 낮은 반사율을 가진 픽셀들과는 구별되도록 하며 그리고 둘 모두는 억제된다. 그러므로 이 원칙을 적용하면 k > 0인 측정들은 억제되며 또한 특정 반사율 한계 하에서 에일리어싱 거리 아래의 양호한 측정들이 억제된다는 것이 보장된다. 첫 번째 순서에서 이 최소의 반사율 한계는 상기 응용을 위해서 필요한 최대 거리의 제곱에 비례하며 그리고 상기 명확한 거리의 제곱에 반비례한다.
상기 기술을 사용하는 많은 경우들에서 낮은 반사율 의복 재료들에 대한 매우 낮은 반사율 레벨은 물론이며 높은 반사율과 호환되는 것이 목표이므로, 이 반사율 한계는 상기 기술의 중요한 한계이다. 그러므로 이 한계를 최소화하는 것이 본 발명의 목적이다. 이는 상기 명확한 거리를 증가시키거나 또는 상기 응용을 위해서 필요한 최대 거리를 줄이는 것에 의해서 얻어진다. 그러나 후자는 전망이 거의 없거나 또는 완전히 없으며, 이는 이것이 대부분의 경우들에서 상기 응용에 의해 정의된 고정된 파라미터이기 때문이며, 그래서 본 명세서의 나머지에서는 고려되지 않을 것이다. 상기 명확한 거리는 상기 변조 주파수를 줄임으로써 쉽게 증가될 수 있다. 이는 그러나 거리 측정들 상에 불확실성의 부정적인 영향을 가할 것이다. 그러므로 본 명세서에서 설명되는 것과 같이 명확한 거리를 증가시키는 다른 수단이 중요하다.
거리 종속인 적응적 문턱값과 같은 더욱 복잡한 신뢰 문턱값 메커니즘들을 이용하여, 특정 반사율을 가진 최대 지원되는 거리를 증가시키는 것이 그리고/또는 최소 반사율 한계를 감소시키는 것이 가능하다.
설명을 쉽게 하기 위해서, 이 설명 전체에서 전형적인 TOF 카메라 시스템이 가정될 것이다. TOF 카메라 시스템에서 위상을 측정하기 위해서, I 값의 동상 (in-phase) 그리고 직교 (quadrature) 값들 또는 Q 값들이 결정된다. 직교 (quadrature)의 용어는 위상 정보를 가진 신호들을 언급하는 것이다. 보통, 그런 신호들은 90° 위상이 다르지만 (out of phase), 본 발명은 90°를 의미하는 직교로 한정되지 않는다. 360° 로 이어진 다른 각도들은 60, 30° 등과 같이 사용될 수 있을 것이다. 에일리어싱을 판별하는 것은 성상 (constellation) 도면에서 그런 결정 영역을 검사함으로써 실행될 수 있다.
본 발명의 실시예들에 따라서, I 값 및 Q 값이 결정된다. 이는 보통은 여러 위상 오프셋들, 예를 들면, 2 또는 그 이상, 3, 4 개의 상이한 위상 오프셋들에서 방사된 그리고 반사된 광 신호들 사이의 상관을 측정함으로써 행해지는 것이 보통이다. 예를 들면 4개의 오프셋들은 보통은 0°, 90°, 180° 그리고 270° 이다. 이 측정치들을 이용하면, 상기 I 및 Q 값들은 다음과 같다:
I = M_0 - M_180
Q = M_90 - M_270
이 경우에 M_0, M_90, M_180 그리고 M_270 은 각각 0°, 90°, 180° 그리고 270° 에서의 측정치들이다.
그러면 I 및 Q는 표준의 삼각법에 의한 관계들:
Figure pct00003
을 이용하여 상기 위상
Figure pct00004
을 계산하기 위해서 이어서 사용될 수 있다.
TOF 측정을 위해서 조명 광으로서 사용된 상기 변조 주파수는 다음의 설명의 전체에서 제1 주파수 또는 베이스 주파수 (base frequency (BF))로 언급될 것이다. 추가로, 제2 주파수 또는 유도된 주파수들은 그것들의 상기 BF에 대한 관계에 따라서 반 (HALF), 4분의 1 (QUARTER)로 언급될 것이다.
본 발명의 목적은 에일리어싱 상태를 결정하기 위해서, 상기 TOF 거리 측정 다음의, 여분의 그러나 더 짧은 측정을 추가함으로써 에일리어싱을 구분하도록 허용하는 기술들을 또한 제공하는 것이다. 본 발명의 목적은 이 측정을 취하기 위해서 필요한 집성 (integration) 시간을 가능한 낮게 유지하는 것이며, 이는 필요한 조명에서 에너지를 절약하고 그리고 가능한 많은 초점을 가지기 위해서이며 그래서 실제의 거리 측정에 대해 긴 집성 시간을 허용한다. 상기 집성 시간이 더 길수록 불확실성은 더 낮아진다. 이용 가능한 집성 시간은 그러나 필요한 프레임 레이트에 의해서 제한되며, 예를 들면, 50 fps에 대해 20 ms 이다. 그러므로, 매우 짧은 타임프레임에서 에일리어싱을 식별하는 기술을 구비하는 것이 중요하며 그리고 매우 유리하다.
본 발명의 제1 실시예에 따라, 위에서 설명된 TOF 기술을 이용하여 더 낮은 제2 주파수에서 하나의 여분의 측정이 수행된다. 이 측정은, 예를 들면, 제2 주파수 HALF, 즉, 제1 또는 BF의 반에서 취해질 수 있다. 이 경우에, 상기 시스템은 다음의 관계들을 이용하여 k가 짝수인지 k가 홀수인지를 구별할 수 있다:
QHALF > 0 이면 -> k를 이용한 TOF 측정은 짝수이다
QHALF < 0 이면 -> k를 이용한 TOF 측정은 홀수이다.
그래서, 하나의 측정의 부호 (sign)를 단지 체크하면 홀수 또는 짝수 중 어느 하나인 k에 대한 가능한 값들을 줄이도록 허용한다. 그래서 상기 명확한 거리는 2의 팩터로 증가되며, 그럼으로써 상기 반사율 제한을 팩터 4로 감소시킨다.
그러나, 이 측정에서의 노이즈로 인해서, 예를 들면, QHALF가 0에 아주 근접할 때에, 그 측정은 잘못하여 실수로 해석될 수 있다.
대안으로, 상기 HQLF 측정들은 측정에 있어서 동일한 노이즈 문제들과의 상기에서와 같은 동일한 관계들을 이용하여 또한 사용될 수 있다.
이것을 개선하기 위해서, 측정들의 시간 간섭 (time coherency)을 고려하고, 그리고 전체 에일리어싱 거리를 변경하거나 또는 에일리어싱 거리에 근접한 거리들을 거절할 수 있으며, 이는 이것들이 위에서 설명된 것과 같은 노이즈로 인한 것 같기 때문이다. 상기 에일리어싱 거리는 보통은 매우 크며, 예를 들면, 20 MHz 변조 주파수에 대해서 7.5 m이다. 상기 시간 간섭 다음에, 또는 시간 간섭과 같이, 주변의 픽셀들이 또한 고려될 수 있다.
노이즈에 대한 강건함을 증가시키기 위한 다른 방식은 측정들에 있어서, 예를 들면, IHALF 또는 QHALF를 체크하는 것만이 아니라 둘 모두를 체크하고, 그리고 그 후에 QHALF, IHALF의 부호 그리고 또한 QBF 및 IBF의 부호를 사용하는 것에 의해서 추가의 여분 리던던시 (redundancy)를 추가하는 것이다. 이 방식에서, 네 개의 가능한 결과들 및 결론들이 얻어질 수 있으며, 이는 아래에서 더욱 상세하게 설명될 것이다.
QBF 및 IBF는 보통은 쉽게 이용 가능하며, 이는 그것들이 상기 TOF 측정 그 자체를 완료하기 위해서 계산되어야만 하며 그러므로 여분으로 필요한 측정들로서 간주되지 않을 것이기 때문이다.
도 1은 4개의 4분원들 1, 2, 3, 그리고 4로 분할된 성상 도면 (10)을 예시한다. 각 4분원 1, 2, 3, 그리고 4는 각각 0° 내지 90°, 90° 내지 180°, 180° 내지 270°, 그리고 270° 내지 0° 또는 360°의 위상 범위들에 대응한다. 제1 또는 베이스 주파수 그리고 상기 베이스 주파수의 반인 제2 주파수에 관하여, 아래의 표 1은 각 행이 원 (10) 내의 HALF 또는 저-주파수 4분원에 대응하며, 그리고 각 열은 BE 또는 고-주파수 4분원에 대응하는 것을 예시한다. 각 측정에 대해서 QHALF, IHALF, QBF 그리고 IBF의 부호들은 그러면 상기 BE 또는 제1 주파수 그리고 상기 HALF 또는 더 낮은 주파수에 대한 4분원들을 결정하기 위해서 사용된다. 이 4분원들을 이용하여, 상기 HALF 또는 더 낮은 주파수에 대한 올바른 4분원에 대한 값이 표 1에 표시된다. 이 올바른 값은 그러면 위에서 표시된 것과 같이 k의 홀수 및 짝수 부호를 결정하기 위해서 사용된다. 이 방식에서, 측정의 리던던시로 인해서, 90° 까지의 노이즈가 교정될 수 있다.
[표 1]
Figure pct00005
그러므로, 첫 번째로 신뢰 문턱값이 세팅되어야만 하여, 아마도 k > 1 인 모든 측정들을 제거하고, 그러면 상기 HALF 4분원을 알아서, 'HALF_3' 또는 'HALF_4'의 값은 단일의 에일리어싱 거리가 추가될 필요가 있다는 것을 의미하며, 'HALF_1' 또는 'HALF_2'의 4분원 값은 어떤 에일리어싱도 존재하지 않는다는 것을 의미한다. 그래서, 단지 HALFQ 그리고 HALFI의 측정을 추가하고, 그리고 HALFQ, HALFI, QBF, IBF의 부호들을 조사함으로써, 상기 명확한 거리의 두 배를 얻을 수 있다.
HALFQ 및 HALFI 측정들을 위해서 단지 상기 부호만이 구별될 필요가 있기 때문에, 이런 측정들을 얻기 위해서 사용된 액티브 광의 양을 제한하는 것이 바람직하다. 위에서 표시된 것처럼, 약 90°의 노이즈는 상기 기술을 이용하여 교정될 수 있다. 그러므로, 3D 이동거리시간차 카메라들의 기술분야에서 통상의 지식을 가진 자에 의해서 수행될 수 있는 것처럼, 상기 시스템 동작은 90°보다 더 높은 노이즈를 피하기 위해서 설계되어야만 한다.
또한, 두 번째 중요한 제한은 양 주파수들에서 실행된 측정들 사이의 오프셋이다. 이 오프셋은 90°의 허용할 수 있는 노이즈 레벨로부터 상기에서의 이유로 인해서 추론되다. 그러므로, 이 오프셋을 가능한 많이 줄이는 것이 중요하다. 이는 예를 들면 1) 변조 신호 위상-시프팅 또는 2) 후에 수신된 상관들 중 하나의 상관을 컴퓨터 사용으로 회전시킴에 의해서 수행될 수 있다.
상기 오프셋을 줄이는 것은, 고정된 알려진 거리에서 각 주파수에 대한 위상을 측정하고 그리고 상기 측정된 오프셋에 대해 교정함으로써, 생산 중에 상기 TOF 카메라 캘리브레이션 (calibration) 위상 동안 수행될 수 있다. 이 오프셋 값은 디지털 메모리에 저장되며 그리고 상기 오프셋에 대해 보상하기 위해서 상기 방사된 광 또는 반사 광 중 하나에 지연을 적용하기 위해서 그 후에 사용된다.
전형적인 구현에서, 제1 주파수 또는 높은 변조 주파수는 상기 TOF 카메라 시스템 내 베이스 클록에 의해서 허용된 가능한 가장 작은 개수의 디지털 단계들로 달성되며, 반면에 제2 주파수 또는 가장 낮은 주파수는 여러 개의 베이스 클록 틱들로 만들어진다. 그러므로, 상기 제2 또는 가장 낮은 주파수 (이 경우에는 HALF)만을 조절하여 자신의 지연이 상기 제1 또는 가장 높은 주파수 (BF)의 지연에 매치(match)하도록 하는 것이 필요하다. 추가로, 남아있는 미스매치는 PLL 또는 지연 라인을 이용하여 제거될 수 있다.
대안으로, I 및 Q 좌표들을 (2 x 2) 곱하기 (2 x 1) 행렬 곱셈을 이용하여 회전시킴으로써 동기화가 또한 성취될 수 있으며, 이 경우에 상기 (2 x 2) 행렬은 캘리브레이션 동안에 결정될 수 있으며, 또는 특정 TOF 카메라 시스템 생산 라인에 대해서 고정된 행렬로서 정의될 수 있다.
그러나, 본 발명의 첫 번째 실시예는 상기 제1 주파수 또는 원래의 변조 주파수, 즉, 상기 BE 신호에서 획득할 수 있는 비-모호한 거리 또는 명확한 거리의 두 배까지를 검출할 수 있을 뿐이라는 점에서 분명한 한계를 가진다는 점에 유의한다.
본 발명의 두 번째 실시예에서, 상기 제2 주파수는 예를 들면, 20 MHz의 제1 주파수 BF에 대한 QUARTER 주파수들일 수 있으며, 사용될 수 있는 제2 주파수 또는 가장 낮은 주파수는 5 MHz이다. 이는 범위의 확장을 제공하며, 이 경우에 신원 (identification)은 4배까지의 에일리어싱 거리 범위를 달성한다.
도 2는 도시된 것과 같이 여덟 개의 섹터들 1, 2, 3, 4, 5, 6, 7 그리고 8로 분할된 원 (20)을 예시한다. 측정들에서 노이즈의 존재로 인해서 한 경우에서 다른 경우로 점핑하는 것을 피하기 위해서 체크될 필요가 있는 여덟 개의 가능한 경우들이 이제 존재한다.
위에서 HALF 주파수의 경우에서와 같이, 리던던시가 없는 구현이지만 노이즈를 제거하는 것이 가능하다. 이 경우에, 이는 상기 QUARTER 주파수를 단 4개의 4분원들로 분할한 것을 기반으로 한다. 이전의 경우와 유사하게, 노이즈 영향에 대한 보상은 시간 간섭 및/또는 인접한 픽셀들과의 간섭을 이용하여 제공될 수 있다.
[표 2]
Figure pct00006
표 2에서, 각 행은 제2 주파수 QUARTER 또는 상기 원 (20) 내 저-주파수 섹터들에 대응하며 그리고 각 열은 제1 주파수 BF 또는 고-주파수 4분원에 대응한다. 표 2에서의 값들은 올바른 QUARTER에 대응한다. 이 방식에서, 측정 리던던시로 인해서, 90° 까지의 BF 또는 고-주파수 노이즈가 교정될 수 있다.
표 2에서, 케이스 1 내지 8은 다음의 단계들이 수행된다면 구별될 수 있다:
1) I의 부호를 체크
2) Q의 부호 체크
3) I > Q 인가를 체크
이전처럼, 이 동작들 모두가 간단한 비교 동작들이지만, 상기 제한들, 즉, 22.5°의 상기 제2 주파수 QUARTER 또는 저-주파수 신호와 동등한 90°의 제1 주파수 BF 또는 고-주파수 신호의 제한들은 동일하게 남아 있다. 이는 표 1 및 표 2 각각이 왜 네 개의 열들을 가지는가의 이유이기도 하다.
더 낮은 주파수에 대한 QUARTER_1 부터 QUARTER_8 까지의 경우 사이를 구별하는 것은 그러면 식별하는 것을 돕는다:
QUARTER_1 또는 QUARTER_2: k 는 [0; 4; 8; …] 에 속한다
QUARTER_3 또는 QUARTER_4: k 는 [1; 5; 9; …] 에 속한다
QUARTER_5 또는 QUARTER_6: k 는 [2; 6; 10; …] 에 속한다
QUARTER_7 또는 QUARTER_8: k 는 [3; 7; 11; …] 에 속한다.
상기 명확한 거리가 이에 의해서 팩터 4로 확장된다. 그러므로, 상기 신뢰 문턱값 상에 부과될 필요가 있는 상기 반사율 제한은 크게 줄어들 것이며, 이는 바라던 것이다.
본 발명이 HALF 또는 QUARTER 주파수들인 제2 주파수들로 제한되지 않으며 그리고 EIGHTH (8분의 1) 그리고 더 낮은 부분 주파수들 (fractional frequencies)과 같은 다른 주파수들로 확장될 수 있다는 것이 쉽게 이해될 것이다. 그러나, 상기 기술은 모든 에일리어성 패턴들을 식별하는 것을 가능하기 위해서 적어도 8분의 1 그리고 바람직한 16개 케이스들이기 때문에 EIGHTH 그리고 더 낮은 부분 주파수들이 활용되는 컴퓨터 사용 요구사항들에서 연관된 증가가 존재한다.
에일리어싱 범위를 BF 또는 고주파수의 비-모호 또는 명확 구간 4배까지 확장하는 것은 완전한 디-에일리어스 거리 측정 또는 연관된 이미지를 달성하기 위해서 많은 경우들에서 이미 충분하다. 그러나, 상기 TOF 카메라 시스템의 비-모호한 또는 명확한 범위를 더 확장시키는 것이 본 발명의 범위 내에 포함되는 것이 이해될 것이다.
반사율 그리고 거리 사이의 트레이드-오프가 도 3에서 보여지며, 이 경우에 상대적인 신호 강도 (strength)의 그래프가 거리에 대해서 도시된다. 참조번호 30의 자취는 반사율 4%인 에일리어스 되지 않은 신호에 관련되며 그리고 참조번호 35의 자취는 반사율 100%인 에일리어스된 신호에 관련된다.
그러나, 변조 주파수를 증가시키면 TOF 카메라 시스템의 성능에 유리한데, 변조 주파수를 증가시킬 때에, 상기 시스템의 최대 범위를 4배 확장하는 것은 적절하지 않을 수 있다. 100 MHz라는 제1 주파수 BF가 사용되어 1.5m라는 자연스러운 비-모호한 또는 명확한 거리를 가지면, 위에서 본 발명의 두 번째 실시예를 참조하여 설명된 것처럼 QUARTER 주파수들인 제2 주파수들을 이용하여, 상기 비-모호한 또는 명확한 거리는 이제 6m이다. 그러나, 상기 TOF 카메리 시스템이 동작하는 범위의 크기로 인해서 거리 측정들을 3m까지로 제한한다면, 반사율 제한은 첫 번째 순서에서 25%가 되며, 이는 더 낮은 반사율의 물체들에 대한 거리 결정을 매우 어렵게 만든다. 또한, 6m 보다 더 큰 거리에 대한 디-에일리어싱을 필요로 하는 시스템들에 대해서, QUARTER 주파수들인 제2 주파수들은 그러므로 충분하지 않다.
위에서 설명된 것처럼, EIGHTH 주파수들인 제2 주파수들은 이런 상황들에 대해서 사용될 수 있지만 더 큰 복잡한 비교를 구비한다. 더 복잡한 비교에 대한 대안으로서, 상기 비-모호한 또는 명확한 거리를 확장하기 위해서 반복적인 기술이 사용될 수 있다.
반복적인 방법이 구현될 수 있으며, 이는 상기 제2 주파수를 본 발명의 제1 실시예에서 위에서 설명된 것과 같은 HALF 주파수로서 사용된다. 이는 상기 비-모호한 또는 명확한 거리를 100% 확장하며, 즉, 제1 주파수 BF를 이용하여 획득된 상기 명확한 거리를 2배 확대한다. 첫 번째 반복에서, 상기 거리는 100% 확장된다 (2배로 증가된다). 두 번째 반복에서, 상기 거리는 또 100% 확장되며 (실질적으로 4배로 증가된다) 그리고 세 번째 반복에서, 상기 거리는 또 다시 100% 확장된다 (8배로 증가된다). 각 반복에서, I 및 Q 의 부호는 상기 측정들에서 에일리어싱의 존재가 결정될 수 있도록 결정된다.
상기 반복을 무기한으로 수행하는 것이 가능하지만, 참을 수 있는 노이즈 한계들이 신중하게 이어져야만 한다는 것이 이해될 것이다. 한 단계에 대한 최대의 수락할 수 있는 노이즈는 90°이지만, 이것은 이 반복적인 프로세스의 모든 스테이지들에서 고려되어야만 한다.
대안으로, 상기 제2 HALF 주파수들의 반복들을 이용하는 것 대신에, 반복들은 제2 QUARTER 주파수들에 대해 수행될 수 있으며, 이는 거리들의 더 큰 확장을 허용하며, 이를 통해서 동일한 개수의 측정들을 이용하여 물체들이 측정될 수 있다. 추가로, 상기 반복들은 제2 HALF 주파수 그리고 QUARTER 주파수 둘 모두를 이용하여 조합될 수 있을 것이다.
TOP 측정들은 다중의 상이한 측정들을 취함으로써 구현되는 것이 보통이다. 이 측정들은 상기 조명 소스에 의해서 방사된 변조 신호 그리고 상기 TOF 카메라 시스템의 이미징 센서에서 수신된 신호 사이의 위상 차이, 또는 시간 지연 차이에 있어서 차이가 있다. 이 측정은 "위상 프레임들 (phase frames)"로 불릴 수 있을 것이다. 보통 0°, 90°, 180° 그리고 270°은 상기 위상 프레임들을 위해서 사용된다. 이 측정들 각각은 병렬로 또는 순서를 두고 취해질 수 있다. 본 발명이 취해질 하나 또는 그 이상의 측정들을 필요로 하기 때문에, 이 여분의 측정들을 구현하기 위한 다양한 방식들이 가능하다.
상기 여분의 측정들을 구현하는 한 방법은 상기 위상 프레임들에 대한 측정 시간들의 길이를 줄이고, 그리고 필요한 그 여분의 측정들을 추가하는 것이다. 한 구현에서, 네 개의 여분의 위상 프레임들이 필요하여, 0_HF, 90_HF, 180_HF, 270_HF, 0_LF, 90_LF, 180_LF, 270_LF에서의 측정들의 결과가 되며, 이 경우에 HF는 고주파수를 언급하는 것이며 그리고 LF는 저주파수를 언급하는 것이다. 보통은, 이 측정들은 순서에 따라서 취해지며 그리고 디-에일리어싱을 위한 충분한 정밀도를 위해서 필요한 측정 시간은 HF에 비교하면 LF에 대해서는 아주 더 작다.
다른 방법은 0_HF, 0_LF, 90_HF, 90_LF, 180_LF, 180_HF, 270_LF, 270_HF에서의 측정들의 결과가 되는 개별 위상 프레임들 각각 이후에 이 여분의 측정들을 추가하는 것이다.
이 측정들은 시스템이 허용한다면 또한 병렬로 취해질 수 있다.
본 발명의 방법은 저-레벨 전자 디바이스들을 이용하여 구현될 수 있다. 비록 상기 방법이 호스트 상의 또는 심지어는 호스트 배후에 있는 구동 회로로 쉽게 구현될 수 있지만, 그 방법은 동반 칩 또는 필드 프로그래머블 게이트 어레이 (field programmable gate array (FPGA)) 상에서 동작하는 펌웨어로 구현되는 것이 보통이다. 상기 방법은 상기 이미징 센서의 집적 회로들 (ICs)로 또한 통합될 수 있을 것이다. 추가로, 본 발명의 상기 방법은 아크탄젠트 ((tan-1 또는 atan), 평방근 (sqrt) 등과 같은 어려운 대수 함수들을 기반으로 하는 것이 아니라 매우 간단한 비교 논리를 기반으로 하기 때문에 특히 유용하다.
본 발명의 시스템은 필요한 측정들의 개수를 줄임으로써 최적화될 수 있다. TOF 이론에 따라서, 적어도 세 개의 측정들이 바람직하다. 그러므로, 0° 및 90° 값들만을 레퍼런스 값과 함께 같이 측정하는 것이 가능하다. 여기에서, 상기 필요로 하는 I 및 Q 값들은 다음과 같이 결정될 수 있다:
I = M_0° - 레퍼런스
Q = M_90° - 레퍼런스
이 경우에, M_0° 그리고 M_90°은 각각 0° 그리고 90°에서 취해진 측정들이다.
비록 본 발명이 90° 구간들, 예를 들면, 0°, 90°, 180° 그리고 270°에서 취해진 측정들을 이용하여 설명되지만, 다른 측정들이 또한 사용될 수 있다는 것이 인식될 것이다. 측정 간격들은 0°, 120° 그리고 240°또는 어떤 다른 적합한 측정 구간들일 수 있다. 동상 및 직교 신호들이 평가될 것이라면, 0°, 90°, 180° 그리고 270° 또는 90°, 180°, 270° 그리고 360°의 구간들이 사용되는 경향이 있다.
본 발명의 다른 구현에서, 추가된 더 낮은 주파수 측정들을 위해서, 상기 광 소스로 송신된 상기 변조 신호 그리고 상기 센서 내 믹서 (29)로 송신된 믹스 신호를 위해서 상이한 듀티 사이클이 사용될 수 있다 (도 6 참조). 그런 접근 방식을 위해서 사용된 신호들을 구비한 예시의 프레임이 도4에서 보인다. 상기 프레임은 참조번호 110의 길이를 가지며, 그리고 이런 유형의 측정들에서 일반적인 것처럼, 신호-대-잡음 비율을 개선하기 위해서, 상기 보이는 프레임은 하나의 측정을 위해서 여러 번 반복된다. 횟수의 전형적인 예는 프레임 길이에 대해서 100 ns이며, 그리고 1000번 반복되며 그리고 100 us의 유효 시간을 통해서 집적된다.
신호, 예를 들면 상기 BF의 반 주기인 참조번호 100의 길이를 가진 펄스 (106)는 조명의 변조 신호로서 사용되며 그리고 상기 센서의 믹서는 예를 들면, 상기 HALF 주파수 펄스 길이에 대응하는 참조번호 100의 펄스 길이보다 더 큰 참조번호 103의 듀티 사이클 길이를 구비한 펄스 (107)로 구동된다. 그런 신호들을 이용하여 k가 홀수 또는 짝수인가를 다음과 같이 확인할 수 있다:
1) 도 4에서 표시된 것과 같은 MIX (혼합) 신호들을 구비한 제1 측정 (M1)
2) 도 4에서 표시된 반전된 MIX 신호를 구비한 제2 측정 (M2)
M1 > M2 은 도 4에서의 RETURN_LIGHT_A에 의해서 보이는 것처럼 k = 짝수라는 것을 표시할 것이다. M2 > M1 은 도 4에서의 RETURN_LIGHT_B에 의해서 보이는 것처럼 k = 홀수라는 것을 표시할 것이다.
M1 = M2에서의 거리가 상기 BF에 대한 에일리어싱 거리에 대응하게 하는 방식으로 도 4에서의 파형들은 바람직하게 조직된다.
이런 이유로 인해서 도 4에서 보이는 펄스 (106)의 시작은 펄스 (107)의 시작 부분으로부터 위상 시프트된다 (펄스 (106)는 상기 프레임 경계에 걸터앉으며 그래서 프레임의 시작 부분에서 일부를 가지며 그리고 프레임의 끝 부분에서 일부를 가진다). 더 작은 펄스 폭 (100)이 선택되며, 더 많은 대비는 k의 값에 관하여 얻어지지만, 그러나, 펄스 폭 (100)이 더 짧게 선택되기 때문에, 더 작은 에너지가 상기 조명에 의해서 방사되며 그래서 특정 노이즈 레벨을 얻기 위해서 더 긴 집성 시간이 필요하다는 것에 또한 유의한다.
이 기술의 유리함은 단 두 개의 측정들만이 취해져야만 한다는 것이다. 어떤 여분의 리던던시도 필요하지 않다. 그럼으로써 실제의 TOF 거리 측정을 실행하기 위해서 더 많은 시간이 이용 가능하다.
상기 듀티 사이클 변이 기술의 더욱 일반적인 접근을 위해서 사용된 신호들을 구비한 예시의 프레임이 도 5에서 도시된다. 다시 상기 프레임은 참조번호 210의 길이를 가지며, 그리고 디에일리어싱을 위한 여분의 측정 동안에 계속해서 반복되는 것으로 보인다. 펄스 길이 (203)는 k에 관해서 체크하기 위해서 임의적으로 선택될 수 있으며, 예를 들면, 펄스 길이 (203)는 상기 에일리어싱 거리에 대응하도록 선택될 수 있으며, 그리고 펄스 길이 (204)는 상기 에일리어싱 거리의 2배에 대응하도록 선택될 수 있으며, 그럼으로써 k에 관해서 다음과 같이 체크하도록 허용한다:
1) 도 5에서 표시된 것과 같은 MIX 신호들을 구비한 측정 M1
2) 도 5에서 표시된 반전된 MIX 신호를 구비한 측정 M2
M1 > M2 는 k가 [0; 3; 4; 7; 8; 11…] 에 속한 것을 표시할 것이다.
M2 > M1 는 k가 [1; 2; 5: 6; 9: 10; …] 에 속한 것을 표시할 것이다.
그러므로, 상기 명확한 거리의 확장은 k=2까지 가능하며 (k=3은 k=0과 유사할 것이다), 단 두 개의 여분의 측정들만을 가진다.
상기의 것은 일 예이며, 그리고 본 발명이 속한 기술 분야에서의 통상의 지식을 가진 자에 의해서 설정될 수 있는 것처럼 유사한 방식으로 k에 관한 확인은 상이한 펄스 길이 (203 및 204)를 선택함으로써 확인될 수 있다는 것에 유의한다. 또한, 이전의 기술들과 유사하게, 상기 명확한 거리를 더 확장하기 위해서 이 기술은 반복하여 실행될 수 있을 것이다.
더 작은 펄스 폭 (200)이 선택되고, k의 값에 관하여 더 많은 대조가 얻어지지만, 펄스 폭 (200)이 더 짧게 선택되기 때문에, 상기 조명에 의해서 더 작은 에너지가 방사되며 그래서 특정 노이즈 레벨을 얻기 위해서 더 긴 집성 시간이 필요하다는 것에 다시 유의한다.
평균적인 상기 MIX 신호 파형은 여전히 50%의 균형 잡힌 듀티 사이클을 가진다는 것이 중요하다. 주로 이것은 배경 광이 균형이 잡혀있으며 그리고 상이하게 필요한 TOF 측정들 동안에 취소되는 것을 확실하게 하기 위한 것이다. 이것은 상기 펄스를 확장하는 획득된 예이며, 그래서 도 5에서 보이는 것처럼 상기 MIX 신호는 주기의 시작 부분과 끝 부분에서 높다. 시작 부분에서 펄스 길이 (203)는 (이전 프레임의 끝 부분에서) 펄스 길이 (205)에 실제로 선행하며, 균형이 잡히기 위해서 둘 모두의 합은 일치한다 (204).
도 6은 본 발명에 따른 TOF 카메라 또는 거리계 연동 (range finding) 시스템의 다른 실시예를 보여준다. 이 거리계 연동 시스템은 주기적인 광 (51)을 씬 (55) 상으로 방사하기 위한, 바람직하게는 관심 대상 영역 상으로 초점을 맞춘 광 소스 (49)를 포함하며, 이 경우 상기 광은 반사된다. 주기적인 광 (51)은 두 개의 검출가능한 주파수들을 포함하며 - 첫 번째는 베이스 주파수이며 그리고 두 번째는 더 낮은 주파수이다. 상기 거리계 연동 시스템은 반사된 광을 수신하기 위한 적어도 하나의 픽셀 (31)을 더 포함한다. 그 반사된 광은 상기 제1 주파수 및 제2 주파수에서 신호 성분들, 예를 들면, 펄스들을 또한 포함할 것이다. 변조된 광을 상기 광 소스 (49)가 방사하기 위해서, 신호 생성기 (43)가 제공된다. 미리 정해진 제1 또는 베이스 주파수에서, 예를 들면, 약 10 MHz에서 바람직하게 영구적으로 발진하고 있는 노드 (48) 상에서 상기 신호 생성기 (43)는 신호 또는 변조 신호를 생성한다. 이 신호 생성기 (43)는, 노드 (48) 상 제1 클록 신호와 관련된 0°, 180°, 90° 그리고 270° 위상을 구비한, 각각 노드들 (44, 45, 46, 47) 상으로 배송된 비슷한 제2 내지 제5 클록 신호들을 또한 생성한다. 본 발명이 속한 기술 분야에서의 통상의 지식을 가진 자는 동작 방식에서 다른 또는 그 이상의 클록 위상들을 사용할 것을 또한 고려할 수 있으며, 더 많은 클록 위상들은 더 긴 측정 시간을 위한 교환에서 더 나은 측정 정밀도의 결과가 된다. 상기 신호 생성기는 제2의 또는 더 낮은 주파수에서 신호들을 또한 생성한다. 그래서 상기 신호 생성기는 제1 내지 제5 클록 신호들을 상기 제2 또는 더 낮은 주파수에서 생성한다. 이는 예를 들면 상기 신호들을 상기 제1 또는 베이스 주파수에서 생성하지만 상기 베이스 주파수 신호의 진폭을 규칙적인 간격들에서, 예를 들면, 상기 베이스 주파수의 일부 (fraction)인 주파수에서 변경함으로써 (예를 들면, 증가시킴으로써) 달성된다. 예를 들면, 상기 제2 주파수는 상기 제1 주파수의 2-n 일 수 있으며, 이 경우에 n = 1, 2, ... 등이다. 필터링함으로써, 상기 제1 또는 제2 주파수에서의 신호들 중 어느 하나는 상기 변조 신호로부터, 예를 들면, 시야 아래의 물체로부터 반사된 신호들로부터 또한 추출될 수 있다.
상기 신호 생성기 (43)는 변조 신호 변경 수단이 상기 변조 신호를 바꾸도록 결정하는 제어 신호 (41), 예를 들면, 선택기 (58)가 제2 내지 제5 클록 신호들 사이에서, 즉, 상기 클록 신호의 상이한 위상들 사이에서 선택하도록 결정하는 제어 신호 (41)를 또한 생성할 수 있다. 선택기 (58)는 이 4개의 위상들 사이에서 연속해서 스위칭하여, 검출기의 믹서 (29)의 입력 노드 그리고 믹서 스테이지 (200)를 노드들 (44, 45, 46 및 47) 상의 제2 내지 제5 클록 신호들과 연속해서 연결시킨다. 이 위치들 각각에서 선택기 (58)는 예를 들면 약 1 ms의 이완 주기 동안 연결된 채로 유지할 수 있다.
버퍼 (50)는 광 소스 (49)를 구동하며, 이 광 소스는 자신의 광 (51)을 씬 (55) 상으로 방사하며, 바람직하게는 관심대상 영역 상으로 초점이 맞추어진 씬 상으로 방사한다. 이 광의일부는 반사될 것이며, 그래서 반사 광 (52)을 생성한다. 이 반사된 광 (52)은 그러면 렌즈 (56)와 같은 광학 초점 시스템 상에 도달하며, 상기 렌즈를 통해서 픽셀 (31) 내부의 검출기 (28) 상에 이미지가 형성되거나 또는 초점이 맞추어지며, 이 경우에 상기 입사한 일부는 반사된 변조 광 (ML) (27)으로 불린다.
간접 광 (53) 그리고 직접 광 (54) 둘 모두는 TOF 측정들용으로 의도되지 않은 세컨더리 (secondary) 광 소스들 (30)로부터 비롯된 것으로, 상기 씬 내에 또한 존재할 것이며, 광학 포커싱 시스템 (56) 상에 부딪쳐서 그래서 상기 검출기 (28) 상에 초점이 맞추어질 것이다. 검출기 (28)에 진입하는 이 광의 일부는 배경 광 (BL) (26)으로 불릴 것이다. BL을 생성하는 광 소스들 (30)은 백열 램프들, TL-램프들, 햇빛, 일광, 또는 상기 씬 상에 존재하며 그리고 TOF 측정을 위해서 상기 광 소스 (49)로부터 발산되지 않는 어떤 다른 광을 포함한다.
ML (27) 그리고 BL (26)은 포토검출기 (28) 상으로 부딪치며, 그리고 ML-전류 및 BL-전류를 각각 생성하며, 이것들은 부딪친 BL (26) 및 ML (27)에 대한 포토-유도된 전류 응답들이다. 검출기 (28)는 이 전류들을 이어지는 믹싱 수단, 예를 들면, 믹서 (29)로 출력하며, 이 믹싱 수단은 부딪치는 BL (26) 및 ML (27)에 대한 상기 전류 응답들을 입력 노드 (42) 상의 위상-시프트된 클록 신호와 믹스하는 용도이다. 이 BL (26)은 TOF 측정들을 위해서 수신된 ML (27)에 의해서 유도된 ML-전류보다 더 높은 6차수 (6 orders)의 크기까지의 BL-전류를 유도할 수 있다.
검출기 (28) 및 믹서 (29)는 검출기 및 믹서 스테이지 (200)를 형성하며, 또한, 예를 들면, EP1513202A1에서 설명된 것과 같이 하나의 단일 디바이스로서 구현될 수 있으며, 이 경우에 포토-생성된 전하들이 믹스되어 한꺼번에 믹싱 프로덕트 전류를 생성한다.
상기 검출기 및 믹서 스테이지 (200)는 상기 부딪치는 BL (26) 및 ML (27)에 대한 전류 응답의 믹싱 프로덕트들을 위상-시프트된 클록 신호들을 이용하여 생성할 것이며, 그리고 이 신호들은, 예를 들면 커패시터 (25)로 구현된 적분기에 의해서 노드 (38) 상에 적분되고 있으며, 이 적분기는 바람직하게는 작게 유지되며, 예를 들면, 주위의 트랜지스터들의 기생 커패시턴스로 작게 유지된다. 적분하는 동안에, 상기 적분기 노드 (38) 상의 믹서 출력 신호의 자동적인 리셋이 수행된다. 이는 상기 제1 주파수 및 제2 주파수 둘 모두에 대해서 수행된다.
이는 리셋 스위치, 예를 들면, 리셋 트랜지스터 (32)를 트리거하는 비교기 (33)에 의해서 구현될 수 있으며, 그래서 노드 (38) 상의 믹서 출력 신호가 레퍼런스 값 Vref에 도달할 때마다 자동적으로 리셋되도록 하며, 그래서 포화를 회피하도록 한다.
도면들에는 도시되지 않은 대안의 실시예들에서, 상기 적분기 노드 (38) 상의 믹서 출력 신호의 자동적인 리셋은 다양한 다른 방법들로 구현될 수 있다. 그 방법들 중 하나는 고정된 양의 전하들을 커패시터 (25)에 추가하기 위해서 상기 리셋 스위치 (32) 대신에 전하 펌프를 트리거하여, 더욱 복잡함의 손해를 보면서 더 나은 노이즈 성능을 생기게 한다.
상기 믹서 출력 신호를 형성하는 믹싱 프로덕트들은 적분기 노드 (38)에서, 도시된 선택기 (58) 예에서, 변조 신호 변경 수단과 동기화된 연속한 형상으로 이용 가능하다. 출력 구동기 (24), 예를 들면 버퍼는 출력 노드 (23)에서 더 강한 출력 신호를 제공하기 위해서, 실질적으로 1인 전압 이득 그리고 전류 증폭을 제공한다.
필터링함으로써 상기 제1 또는 제2 주파수들에서의 신호들 중 어느 하나는 시야 아래의 물체로부터의 반사된 신호들로부터 추출될 수 있다.
본 발명이 도면들 그리고 전술한 설명에서 상세하게 설명되고 예시되었지만, 그런 예시 및 설명은 설명적이거나 또는 예시적인 것이며 그리고 제한적인 것은 아니라고 간주되어야 한다; 본 발명은 개시된 실시예들로 제한되지 않는다. 개시된 실시예들에 대한 다른 변이들은 도면들, 개시된 내용, 그리고 첨부된 권리범위를 학습한 것으로부터 본 발명을 실행하는데 있어서 당업자에 의해서 이해될 수 있고 그리고 완수될 수 있다. 일정한 측정들이 공동으로 상이한 종속항들에 열거되었다는 단순한 사실은 이 측정들의 조합이 이익을 얻기 위해서 사용될 수 없다는 것을 표시하지 않는다. 청구항들 내의 어떤 참조 부호들도 본 발명의 범위를 제한하는 것으로서 해석되어서는 안 된다.

Claims (15)

  1. 이미징 센서를 구비하며 그리고 조명 유닛과 함께 사용되는 이동거리시간차 (time-of-flight) 시스템에서 상관 측정들에서 일정 한계들 내에서 에일리어싱 (aliasing)의 존재를 판별하거나 또는 에일리어싱을 회피하는 방법으로서,
    상기 조명 유닛은 변조된 광으로 씬 (scene)에 조명을 비추도록 적응되며, 상기 시스템은 상기 씬으로부터 반사된 변조 광에 상관 신호를 인가함으로써 상관 측정들을 획득하도록 적응되며,
    상기 방법은:
    a) 상기 씬 내의 적어도 하나의 물체 (object)로부터 반사된 광을 검출하는 단계;
    b) 하나 이상의 제1 상관 측정들에 의해서, 제1 상관 신호 그리고 상기 이미징 센서에서 수신된 상기 반사 광 사이의 제1 상관을 결정하는 단계로서, 상기 제1 상관 신호는 제1 주파수의 주기적인 파형을 가지며 그리고 상기 제1 상관 측정은 상기 이미징 센서로부터 상기 적어도 하나의 물체까지의 거리에 관련된 파라미터의 값을 제공하는, 단계;
    c) 하나 이상의 제2 상관 측정들에 의해서, 상기 이미징 센서에서 수신된 상기 반사 광 그리고 제2 상관 신호 사이의 제2 상관을 결정하는 단계로서, 상기 제2 상관 신호는 상기 제1 주파수보다 더 낮은 제2 주파수의 주기적인 파형을 가지는, 단계;
    d) 상기 파라미터 값에 대해, 상기 제2 상관 측정으로부터 에일리어싱의 존재를 판별하는 단계를 포함하는, 방법.
  2. 제1항에 있어서,
    상기 제1 주파수에 대해 상이한 위상 오프셋들에서 상기 제1 상관 측정으로부터 제1 위상 측정이 결정되며, 그리고
    상기 제2 주파수에 대해 상이한 위상 오프셋들에서 상기 제2 상관 측정으로부터 제2 위상 측정이 옵션으로 결정되는, 방법.
  3. 제1항 또는 제2항에 있어서,
    상기 제1 상관 측정에서 상기 검출된 반사 신호의 신호 집성 시간 (integration time)은 상기 제2 상관 측정의 신호 집성 시간보다 더 긴, 방법.
  4. 제1항 내지 제3항 중의 어느 한 항에 있어서,
    제2 상관 신호는 자신과 상관된 상기 검출된 반사된 변조 광의 듀티 사이클과는 상이한 듀티 사이클을 가지며 그리고
    상기 제2 상관 신호의 듀티 사이클은 옵션으로 50%인, 방법.
  5. 제1항 내지 제3항 중의 한 항에 있어서,
    상기 제2 주파수에 대해서 상이한 위상 오프셋들을 이용하여 상기 제2 상관 측정을 결정하는 단계; 그리고
    상기 검출된 반사 광의 동상 (in-phase) 성분 및/또는 직교 (quadrature) 성분을 상기 하나 이상의 제2 상관 측정들로부터 결정하는 단계, 그리고 에일리어싱의 존재를 판별하기 위해서 상기 동상 성분 및/또는 직교 성분을 이용하는 단계를 더 포함하는, 방법.
  6. 제1항 내지 제5항 중의 어느 한 항에 있어서,
    에일리어싱의 존재는 거리 관련 팩터를 측정하는 것으로부터 결정된 신뢰 레벨을 이용하여 결정되며, 그럼으로써 상기 거리 관련 팩터는 옵션으로는 반사 광의 양, 반점 패턴의 크기, 부과된 (imposed) 패턴의 크기인, 방법.
  7. 제1항 내지 제6항 중의 어느 한 항에 있어서,
    상기 제1 상관 측정 그리고/또는 제2 상관 측정은 에일리어싱 표지기들로 결합되며,
    에일리어싱의 존재는 상기 검출된 반사 광의 동상 성분 및/또는 직교 성분의 부호 (sign)인 표지기들로부터 결정되는, 방법.
  8. 제5항 내지 제7항 중의 어느 한 항에 있어서,
    동상 성분 및/또는 직교 성분을 결정하는 상기 단계는 상기 제1 주파수 그리고/또는 상기 제2 주파수에서 I 값 및 Q 값, 그리고/또는 I 절대값과 Q 절대값의 차이를 결정하는 것을 포함하는, 방법.
  9. 이동거리시간차 또는 거리계 연동 (range finding) 센서 유닛으로서,
    일정 한계들 내에서 에일리어싱 (aliasing)의 존재를 판별하거나 또는 에일리어싱을 회피하는 수단을 구비하며,
    상기 센서는 조명 유닛과 함께 사용되는 용도이며,
    상기 조명 유닛은 변조된 광으로 씬 (scene)에 조명을 비추도록 적응되며, 상기 시스템은 상기 씬으로부터 반사된 변조 광에 상관 신호를 인가함으로써 상관 측정들을 획득하도록 적응되며,
    상기 센서 유닛은:
    a) 상기 씬 내의 적어도 하나의 물체로부터 반사된 광을 검출하는 제1 수단;
    b) 제1 상관 측정에 의해서, 상기 제1 신호 그리고 상기 이미징 센서에서 수신된 상기 반사 광 사이의 제1 상관을 결정하는 제2 수단으로서, 상기 제1 상관 측정은 상기 이미징 센서로부터 상기 씬까지의 거리에 관련된 파라미터의 값을 제공하는, 제2 수단;
    d) 제2 상관 측정에 의해서, 상기 이미징 센서에서 수신된 상기 반사 광 그리고 제2 신호 사이의 제2 상관을 결정하는 제3 수단으로서, 상기 제2 신호는 상기 제1 주파수보다 더 낮은 제2 주파수의 주기적인 파형을 가지는, 제3 수단;
    f) 그 값에 대해, 상기 제2 상관 측정으로부터 에일리어싱의 존재를 판별하는 제4 수단을 포함하는, 센서 유닛.
  10. 제9항에 있어서,
    상기 제2 수단은 상기 제1 주파수에 대해 상이한 위상 오프셋들에서 상기 제1 상관 측정으로부터 제1 위상 측정을 결정하도록 적응되며, 또는
    상기 제3 수단은 상기 제2 주파수에 대해 상이한 위상 오프셋들에서 상기 제2 상관 측정으로부터 위상 측정을 만들도록 적응되며, 또는
    상기 제2 수단 및 제3 수단은 상기 제1 상관 측정의 신호 집성 시간이 상기 제2 상관 측정의 집성 시간보다 더 길도록 적응되는, 센서 유닛.
  11. 제9항 또는 제10항에 있어서,
    제2 상관 신호는 자신과 상관된 상기 검출된 반사된 변조 광의 듀티 사이클과는 상이한 듀티 사이클을 가지며 그리고 옵션으로 상기 제2 신호의 듀티 사이클은 50%인, 센서 유닛.
  12. 제9항 내지 제11항 중 어느 한 항에 있어서,
    상기 제2 상관을 결정하는 상기 제3 수단은 상기 제2 주파수에 대해 상이한 위상 오프셋들에서 상기 제2 상관 측정을 수행하도록 적응되며; 그리고
    상기 센서 유닛은 상기 제2 상관 측정으로부터 상기 검출된 반사 광의 동상 성분 및/또는 직교 성분을 결정하도록 적응되며, 그리고
    상기 제4 수단은 에일리어싱의 존재를 판별하기 위해서 상기 동상 성분 및/또는 직교 성분을 사용하며, 그럼으로써 에일리어싱의 존재는 거리 관련된 팩터로부터 결정된 신뢰 레벨을 이용함으로써 옵션으로 판별되며,
    상기 거리 관련된 팩터는 옵션으로 상기 제1 주파수 그리고/또는 제2 주파수에서 변조된 반사 광의 양, 반점 패턴의 크기, 부과된 (imposed) 패턴의 크기이며, 그리고
    동상 성분 및/또는 직교 성분을 결정하는 상기 수단은 상기 검출된 반사 광의 동상 성분 및/또는 직교 성분의 부호로부터 상기 에일리어싱의 존재를 판별하도록 옵션으로 적응된, 센서 유닛.
  13. 제9항 내지 제12항 중 어느 한 항에 있어서,
    동상 성분 및/또는 직교 성분을 결정하는 상기 제4 수단은 상기 제2 주파수에서 I 값 및 Q 값을 결정하도록 적응되며, 또는
    동상 성분 및/또는 직교 성분을 결정하는 상기 제4 수단은 상기 I 값 및 Q 값의 부호를 결정함으로써 상기 에일리어싱의 존재를 판별하도록 적응된, 센서 유닛.
  14. 제9항 내지 제13항 중 어느 한 항에 있어서,
    상기 제1 신호 및/또는 제2 신호는 위상 오프셋에 대해 캘리브레이션된, 센서 유닛.
  15. 제9항 내지 제14항 중 어느 한 항의 센서 유닛을 구비한 TOF (time-of-flight) 카메라.
KR1020147007856A 2012-01-10 2013-01-10 이동거리시간차 신호들을 프로세싱하는데 있어서 또는 프로세싱과 관련된 개선들 KR20140057625A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP12150687.7 2012-01-10
EP12150687 2012-01-10
PCT/EP2013/050407 WO2013104717A1 (en) 2012-01-10 2013-01-10 Improvements in or relating to the processing of time-of-flight signals

Publications (1)

Publication Number Publication Date
KR20140057625A true KR20140057625A (ko) 2014-05-13

Family

ID=47563491

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147007856A KR20140057625A (ko) 2012-01-10 2013-01-10 이동거리시간차 신호들을 프로세싱하는데 있어서 또는 프로세싱과 관련된 개선들

Country Status (6)

Country Link
US (1) US9325920B2 (ko)
EP (1) EP2729826B1 (ko)
JP (1) JP6246131B2 (ko)
KR (1) KR20140057625A (ko)
CN (1) CN103998949B (ko)
WO (1) WO2013104717A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200089310A (ko) * 2017-12-29 2020-07-24 소니 세미컨덕터 솔루션즈 가부시키가이샤 촬상 디바이스 및 방법

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
LU92173B1 (en) * 2013-03-20 2014-09-22 Iee Sarl Distance determination method
US10203399B2 (en) 2013-11-12 2019-02-12 Big Sky Financial Corporation Methods and apparatus for array based LiDAR systems with reduced interference
US10291329B2 (en) * 2013-12-20 2019-05-14 Infineon Technologies Ag Exchanging information between time-of-flight ranging devices
US9360554B2 (en) 2014-04-11 2016-06-07 Facet Technology Corp. Methods and apparatus for object detection and identification in a multiple detector lidar array
EP3152518A1 (en) * 2014-06-06 2017-04-12 CEMB S.p.A. Device and method for determining at least one parameter characteristic of at least one component of a vehicle in the scope of a diagnostic, main¢ tenance or monitoring operation
US10237534B2 (en) 2014-07-07 2019-03-19 Infineon Technologies Ag Imaging device and a method for producing a three-dimensional image of an object
EP2966475B1 (en) * 2014-07-09 2016-05-25 Softkinetic Sensors N.V. A method for binning time-of-flight data
US9578311B2 (en) * 2014-10-22 2017-02-21 Microsoft Technology Licensing, Llc Time of flight depth camera
US9874630B2 (en) 2015-01-30 2018-01-23 Microsoft Technology Licensing, Llc Extended range gated time of flight camera
US10036801B2 (en) 2015-03-05 2018-07-31 Big Sky Financial Corporation Methods and apparatus for increased precision and improved range in a multiple detector LiDAR array
US20160290790A1 (en) * 2015-03-31 2016-10-06 Google Inc. Method and apparatus for increasing the frame rate of a time of flight measurement
US9945936B2 (en) 2015-05-27 2018-04-17 Microsoft Technology Licensing, Llc Reduction in camera to camera interference in depth measurements using spread spectrum
US9871173B2 (en) * 2015-06-18 2018-01-16 Cree, Inc. Light emitting devices having closely-spaced broad-spectrum and narrow-spectrum luminescent materials and related methods
JP2017009339A (ja) 2015-06-18 2017-01-12 株式会社リコー センサ、センシング装置及び距離計測方法
JP6698655B2 (ja) * 2015-07-22 2020-05-27 パナソニック株式会社 測距装置
US9852330B1 (en) 2015-07-27 2017-12-26 United Launch Alliance, L.L.C. System and method to enable the application of optical tracking techniques for generating dynamic quantities of interest with alias protection
US11354881B2 (en) 2015-07-27 2022-06-07 United Launch Alliance, L.L.C. System and method to enable the application of optical tracking techniques for generating dynamic quantities of interest with alias protection
CN105467383B (zh) * 2015-11-19 2017-10-10 上海交通大学 一种tof技术中基于波形匹配的测距方法
CN106815867B (zh) * 2015-11-30 2020-10-30 宁波舜宇光电信息有限公司 Tof相机标定与校正***及其设备与方法
EP3193190B1 (en) * 2016-01-15 2023-04-12 Sony Depthsensing Solutions N.V. A detector device with majority current and a circuitry for controlling the current
US9866816B2 (en) 2016-03-03 2018-01-09 4D Intellectual Properties, Llc Methods and apparatus for an active pulsed 4D camera for image acquisition and analysis
US10481263B2 (en) 2016-03-10 2019-11-19 Ricoh Company, Ltd. Range finding apparatus, moveable apparatus, robot, three dimensional measurement apparatus, method of measuring three dimensional information, and storage medium
JP6852416B2 (ja) * 2016-03-10 2021-03-31 株式会社リコー 距離測定装置、移動体、ロボット、装置及び3次元計測方法
EP3223034B1 (en) 2016-03-16 2022-07-20 Ricoh Company, Ltd. Object detection apparatus and moveable apparatus
CA3026194A1 (en) * 2016-05-31 2017-12-07 Abb Schweiz Ag Loop powered distance transmitter
US10598783B2 (en) 2016-07-07 2020-03-24 Microsoft Technology Licensing, Llc Multi-frequency unwrapping
WO2018053292A1 (en) * 2016-09-16 2018-03-22 Analog Devices, Inc. Interference handling in time-of-flight depth sensing
EP3301480A1 (en) * 2016-10-03 2018-04-04 Xenomatix NV System and method for determining a distance to an object
US10291895B2 (en) * 2016-10-25 2019-05-14 Omnivision Technologies, Inc. Time of flight photosensor
US10712561B2 (en) 2016-11-04 2020-07-14 Microsoft Technology Licensing, Llc Interference mitigation via adaptive depth imaging
JP6848364B2 (ja) 2016-11-10 2021-03-24 株式会社リコー 測距装置、移動体、ロボット、3次元計測装置、監視カメラ及び測距方法
JP7149941B2 (ja) * 2016-12-07 2022-10-07 ソニーセミコンダクタソリューションズ株式会社 装置および方法
US10209360B2 (en) * 2017-02-01 2019-02-19 Microsoft Technology Licensing, Llc Reduced phase sampling for high speed depth sensing
US10425628B2 (en) * 2017-02-01 2019-09-24 Microsoft Technology Licensing, Llc Alternating frequency captures for time of flight depth sensing
DE102017205402A1 (de) * 2017-03-30 2018-10-04 Robert Bosch Gmbh Lidarsystem
US10928489B2 (en) * 2017-04-06 2021-02-23 Microsoft Technology Licensing, Llc Time of flight camera
US10627492B2 (en) * 2017-08-01 2020-04-21 Waymo Llc Use of extended detection periods for range aliasing detection and mitigation in a light detection and ranging (LIDAR) system
DE102017118160A1 (de) * 2017-08-09 2019-02-14 Valeo Schalter Und Sensoren Gmbh Ermitteln der maximalen Reichweite eines LIDAR-Sensors
FR3070498B1 (fr) * 2017-08-28 2020-08-14 Stmicroelectronics Rousset Dispositif et procede de determination de la presence ou de l'absence et eventuellement du deplacement d'un objet contenu dans un logement
DE102017120953A1 (de) * 2017-09-11 2019-03-14 Sick Ag Optoelektronischer Sensor und Verfahren zur Positionserfassung eines Objekts
DE102017126378A1 (de) * 2017-11-10 2019-05-16 Infineon Technologies Ag Verfahren zum Verarbeiten eines Rohbildes einer Time-of-Flight-Kamera, Bildverarbeitungsvorrichtung und Computerprogramm
US10541353B2 (en) 2017-11-10 2020-01-21 Cree, Inc. Light emitting devices including narrowband converters for outdoor lighting applications
US10215856B1 (en) 2017-11-27 2019-02-26 Microsoft Technology Licensing, Llc Time of flight camera
US10852402B2 (en) * 2017-12-07 2020-12-01 Texas Instruments Incorporated Phase anti-aliasing using spread-spectrum techniques in an optical distance measurement system
CN110192118A (zh) 2017-12-22 2019-08-30 索尼半导体解决方案公司 脉冲生成器和信号生成装置
WO2019129546A1 (en) * 2017-12-26 2019-07-04 Robert Bosch Gmbh Single-chip rgb-d camera
US10901087B2 (en) 2018-01-15 2021-01-26 Microsoft Technology Licensing, Llc Time of flight camera
CN108594254B (zh) * 2018-03-08 2021-07-09 北京理工大学 一种提高tof激光成像雷达测距精度的方法
US10999524B1 (en) 2018-04-12 2021-05-04 Amazon Technologies, Inc. Temporal high dynamic range imaging using time-of-flight cameras
US11029397B2 (en) * 2018-04-20 2021-06-08 Omnivision Technologies, Inc. Correlated time-of-flight sensor
US10497738B2 (en) 2018-04-20 2019-12-03 Omnivision Technologies, Inc. First photon correlated time-of-flight sensor
US10924692B2 (en) 2018-05-08 2021-02-16 Microsoft Technology Licensing, Llc Depth and multi-spectral camera
US10996335B2 (en) 2018-05-09 2021-05-04 Microsoft Technology Licensing, Llc Phase wrapping determination for time-of-flight camera
US11276159B1 (en) 2018-05-15 2022-03-15 United Launch Alliance, L.L.C. System and method for rocket engine health monitoring using digital image correlation (DIC)
US10607352B2 (en) 2018-05-17 2020-03-31 Microsoft Technology Licensing, Llc Reduced power operation of time-of-flight camera
US10630384B2 (en) 2018-06-13 2020-04-21 Infineon Technologies Ag Dual-mode optical devices for time-of-flight sensing and information transfer, and apparatus, systems, and methods utilizing same
US10708484B2 (en) 2018-06-20 2020-07-07 Amazon Technologies, Inc. Detecting interference between time-of-flight cameras using modified image sensor arrays
US10674063B2 (en) * 2018-06-20 2020-06-02 Amazon Technologies, Inc. Synchronizing time-of-flight cameras
US10681338B1 (en) 2018-07-24 2020-06-09 Amazon Technologies, Inc. Detecting interference in depth images captured using overlapping depth cameras
CN109164410A (zh) * 2018-08-10 2019-01-08 深圳市荣睿和芯科技有限公司 Rfid定位及追踪方法、***及计算机可读存储介质
CN111090085B (zh) * 2018-10-24 2022-04-12 光宝电子(广州)有限公司 基于飞行时间测距的校正***及其方法
WO2020101576A1 (en) * 2018-11-16 2020-05-22 Ams Sensors Singapore Pte. Ltd. Depth sensing using optical time-of-flight techniques through a transmissive cover
US11393115B2 (en) * 2018-11-27 2022-07-19 Infineon Technologies Ag Filtering continuous-wave time-of-flight measurements, based on coded modulation images
DE112019006048T5 (de) * 2018-12-04 2021-09-30 Iee International Electronics & Engineering S.A. Verfahren zur korrigierten Tiefenmessung mit einer TOF-Kamera unter Verwendung von amplitudenmoduliertem Dauerlicht
US11245875B2 (en) 2019-01-15 2022-02-08 Microsoft Technology Licensing, Llc Monitoring activity with depth and multi-spectral camera
US11272156B2 (en) 2019-02-15 2022-03-08 Analog Devices International Unlimited Company Spatial correlation sampling in time-of-flight imaging
US11668829B2 (en) 2019-03-18 2023-06-06 Infineon Technologies Ag Resolving distance measurement ambiguities using coded-modulation phase image frames
EP3719529A1 (en) * 2019-03-20 2020-10-07 Ricoh Company, Ltd. Range finding device and range finding method
US11673533B2 (en) 2019-06-19 2023-06-13 Ford Global Technologies, Llc Vehicle sensor enhancements
KR20210032669A (ko) 2019-09-17 2021-03-25 삼성전자주식회사 비행 시간 센서 및 비행 시간 센서의 에러 보정 방법
WO2021067136A1 (en) * 2019-09-30 2021-04-08 Zoox, Inc. Pixel filtering using multiple exposures
US11514594B2 (en) 2019-10-30 2022-11-29 Vergence Automation, Inc. Composite imaging systems using a focal plane array with in-pixel analog storage elements
JPWO2021124918A1 (ko) 2019-12-18 2021-06-24
EP3859380A1 (en) * 2020-01-30 2021-08-04 Melexis Technologies NV Optical range calculation apparatus and method of extending a measurable range
US20230048328A1 (en) * 2020-03-18 2023-02-16 Hirokazu Takenaka Distance-measuring apparatus and distance-measuring method
US11520052B2 (en) * 2020-06-26 2022-12-06 Microsoft Technology Licensing, Llc Adaptive processing in time of flight imaging
EP3964868A1 (en) * 2020-09-07 2022-03-09 Infineon Technologies AG Method and apparatus for time-of-flight sensing
EP3964857A1 (en) * 2020-09-07 2022-03-09 Infineon Technologies AG Method and apparatus for determining a reflectivity value indicating a reflectivity of an object

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5912148B2 (ja) * 1976-04-19 1984-03-21 三菱電機株式会社 距離測定方法並びにその装置
JPH05264723A (ja) * 1992-03-23 1993-10-12 Mitsubishi Heavy Ind Ltd 測距装置
EP1513202B1 (en) 2003-09-02 2010-01-20 Vrije Universiteit Brussel Detector for electromagnetic radiation assisted by majority current
US8391698B2 (en) * 2005-10-28 2013-03-05 Hewlett-Packard Development Company, L.P. Systems and methods of generating Z-buffers for an image capture device of a camera
EP1793243A1 (de) * 2005-12-05 2007-06-06 Leica Geosystems AG Verfahren zur Auflösung einer Phasenmehrdeutigkeit
US7791715B1 (en) 2006-10-02 2010-09-07 Canesta, Inc. Method and system for lossless dealiasing in time-of-flight (TOF) systems
US8629976B2 (en) * 2007-10-02 2014-01-14 Microsoft Corporation Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems
EP2743724B1 (de) * 2012-12-12 2015-09-23 Espros Photonics AG TOF Entfernungssensor sowie Verfahren zum Betrieb

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200089310A (ko) * 2017-12-29 2020-07-24 소니 세미컨덕터 솔루션즈 가부시키가이샤 촬상 디바이스 및 방법
US11726207B2 (en) 2017-12-29 2023-08-15 Sony Semiconductor Solutions Corporation Imaging device and method

Also Published As

Publication number Publication date
JP6246131B2 (ja) 2017-12-13
EP2729826B1 (en) 2017-04-26
WO2013104717A1 (en) 2013-07-18
JP2015501927A (ja) 2015-01-19
CN103998949B (zh) 2016-08-24
US20140313376A1 (en) 2014-10-23
EP2729826A1 (en) 2014-05-14
CN103998949A (zh) 2014-08-20
US9325920B2 (en) 2016-04-26

Similar Documents

Publication Publication Date Title
EP2729826B1 (en) Improvements in or relating to the processing of time-of-flight signals
JP6261681B2 (ja) タイムオブフライト信号の処理における又はこれに関する改良
US20220043118A1 (en) Processing time-series measurements for lidar accuracy
US11536804B2 (en) Glare mitigation in LIDAR applications
US20230273320A1 (en) Processing system for lidar measurements
US10261175B2 (en) Ranging apparatus
JP4788187B2 (ja) 空間情報検出装置
AU2007251977B2 (en) Distance measuring method and distance measuring element for detecting the spatial dimension of a target
CA3062701A1 (en) Lidar data acquisition and control
US11287517B2 (en) Single frame distance disambiguation
US11393115B2 (en) Filtering continuous-wave time-of-flight measurements, based on coded modulation images
US20210263137A1 (en) Phase noise and methods of correction in multi-frequency mode lidar
CN112601972A (zh) 通过无模糊范围切换增大飞行时间***范围的方法及***
EP3721261B1 (en) Distance time-of-flight modules
CN112945221A (zh) 相位角校正值计算装置和计算相位角校正值的方法
JP7149941B2 (ja) 装置および方法
JP2006337286A (ja) 形状計測装置
JP5161938B2 (ja) 空間情報検出装置
US20240036208A1 (en) Time of flight sensing

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right