JP2022504010A - 構造化光源および飛行時間カメラ付き深度測定アセンブリ - Google Patents
構造化光源および飛行時間カメラ付き深度測定アセンブリ Download PDFInfo
- Publication number
- JP2022504010A JP2022504010A JP2021506930A JP2021506930A JP2022504010A JP 2022504010 A JP2022504010 A JP 2022504010A JP 2021506930 A JP2021506930 A JP 2021506930A JP 2021506930 A JP2021506930 A JP 2021506930A JP 2022504010 A JP2022504010 A JP 2022504010A
- Authority
- JP
- Japan
- Prior art keywords
- dma
- time
- pulsing frequency
- raw
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2513—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/32—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4811—Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
- G01S7/4813—Housing arrangements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/486—Receivers
- G01S7/4861—Circuits for detection, sampling, integration or read-out
- G01S7/4863—Detector arrays, e.g. charge-transfer gates
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10152—Varying illumination
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
【選択図】図4
Description
照明源であって、照明源は、光のパルスを、時間パルシング周波数でローカルエリア中に投射するように構成される、照明源と、
センサーであって、
ローカルエリアから反射された光のパルスの画像をキャプチャすることと、
キャプチャされた画像のうちの1つまたは複数を使って、光のパルスについての1つまたは複数の飛行時間(TOF)位相シフトを判断することとを行うように構成されたセンサーと、
センサーに結合されたコントローラであって、
1つまたは複数のTOF位相シフトに基づいて、ローカルエリア中のオブジェクトまでの推定半径方向距離の第1のセットを判断することと、
構造化光の符号化およびキャプチャされた画像のうちの少なくとも1つに基づいて、オブジェクトまでの第2の推定半径方向距離を判断することと、
第2の推定半径方向距離に部分的に基づいて、半径方向距離の第1のセットから、推定半径方向距離を選択することとを行うように構成されたコントローラとを備え得る。
照明源であって、照明源は、光のパルスを、1つまたは複数の時間パルシング周波数でローカルエリア中に投射するように構成される、照明源と、
センサーであって、
ローカルエリアから反射された光のパルスの画像をキャプチャすることと、
キャプチャされた画像のうちの1つまたは複数を使って、光のパルスについての1つまたは複数の飛行時間(TOF)位相シフトを判断することとを行うように構成されたセンサーと、
センサーに結合されたコントローラおよび/または人工現実デバイスであって、
1つまたは複数のTOF位相シフトに基づいて、ローカルエリア中のオブジェクトまでの推定半径方向距離の第1のセットを判断することと、
構造化光の符号化およびキャプチャされた画像のうちの少なくとも1つに基づいて、オブジェクトまでの第2の推定半径方向距離を判断することと、
第2の推定半径方向距離に部分的に基づいて、半径方向距離の第1のセットから、推定半径方向距離を選択することとを行うように構成された、コントローラおよび/または人工現実デバイスとを備え得る。
パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウを使って第1の未加工データをキャプチャすることと、
パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に第2の未加工データをキャプチャすることと、
パルス状照明に対して第1のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に第3の未加工データをキャプチャすることとを行うように構成され得る。
照明源であって、照明源は、光のパルスを、1つまたは複数の時間パルシング周波数でローカルエリア中に投射するように構成される、照明源と、
センサーであって、
ローカルエリアから反射された光のパルスの画像をキャプチャすることと、
キャプチャされた画像のうちの1つまたは複数を使って、光のパルスについての1つまたは複数の飛行時間(TOF)位相シフトを判断することとを行うように構成されたセンサーと、
センサーに結合された人工現実デバイスであって、
1つまたは複数のTOF位相シフトに基づいて、ローカルエリア中のオブジェクトまでの推定半径方向距離の第1のセットを判断することと、
構造化光の符号化およびキャプチャされた画像のうちの少なくとも1つに基づいて、オブジェクトまでの第2の推定半径方向距離を判断することと、
第2の推定半径方向距離に部分的に基づいて、半径方向距離の第1のセットから、推定半径方向距離を選択することとを行うように構成された、人工現実デバイスとを備え得る。
ローカルエリアの深度マップに部分的に基づいて仮想オブジェクトを表示するように構成された電子ディスプレイ要素と、
電子ディスプレイ要素からHMDの射出瞳に光を向けるように構成された光学ブロックとを備え得る。
パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウを使って第1の未加工データをキャプチャすることと、
パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に第2の未加工データをキャプチャすることと、
パルス状照明に対して第1のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に第3の未加工データをキャプチャすることとを行うように構成され得る。
上式で、Rは、センサー304からのオブジェクトの距離R316であり、Bは、構造化光源302からセンサー304までのベースライン306距離であり、θは、投射された光とベースライン306との間のθ314という角度であり、αは、オブジェクトからの反射された光とセンサー表面304との間のα312という角度である。ベースライン距離306Bおよび放出された光角度θ314は、固定され、構造化光ベースの深度判断デバイスの構造および符号化された構造化光によって定義される。α312を判断するために、コントローラは、ピクセル強度の2次元画像を既知の構造化パターンと比較して、構造化光源302からの発生パターンを識別する。従来の構造化光ベースの深度判断デバイスでは、このプロセスは、構造化光符号化の全範囲にわたる完全エピポーラ(full epipolar)コード検索308を伴うはずである。α312の値を判断したことに続いて、コントローラは、関係(1)を使って三角測量算出を実践する。
図9は、1つまたは複数の実施形態による、人工現実コンテンツを提供するためのシステム環境900のブロック図である。図9に示すシステム環境900は、様々な実施形態において、人工現実コンテンツをユーザに提供し得る。追加または代替として、システム環境900は、1つまたは複数の仮想環境を生成し、ユーザが対話することができる仮想環境をユーザに提示する。図9によって示されるシステム環境900は、頭部搭載型ディスプレイ(HMD)905と、コンソール910に結合される入力/出力(I/O)インターフェース915とを備える。図9は、1つのHMD905および1つのI/Oインターフェース915を含む例示的システム環境900を示すが、他の実施形態では、任意の数のこれらの構成要素がシステム環境900に含まれてよい。たとえば、関連するI/Oインターフェース915を各々が有する複数のHMD905があってよく、各HMD905およびI/Oインターフェース915がコンソール910と通信する。代替構成では、異なるおよび/または追加構成要素がシステム環境900に含まれてよい。さらに、図9に示す構成要素のうちの1つまたは複数とともに記載する機能性が、いくつかの実施形態では、図9とともに記載するのとは異なるやり方で構成要素の間に分散されてよい。たとえば、コンソール910の機能性の一部または全部が、HMD905によって提供される。
本開示の実施形態の上記の記述は、説明の目的で提示されており、網羅的であることも、開示した厳密な形に本開示を限定することも意図していない。上記開示を鑑みて、多くの修正および変形が可能であることが、当業者には諒解できよう。
Claims (32)
- 深度測定アセンブリ(DMA)であって、
照明源であって、前記照明源は、光パルスを、時間パルシング周波数でローカルエリア中に投射するように構成される、照明源と、
センサーであって、
前記ローカルエリアから反射された前記光パルスの画像をキャプチャすることと、
前記キャプチャされた画像のうちの1つまたは複数を使って、前記光パルスについての1つまたは複数の飛行時間(TOF)位相シフトを判断することと
を行うように構成されたセンサーと、
前記センサーに結合されたコントローラであって、
前記1つまたは複数のTOF位相シフトに基づいて、前記ローカルエリア中のオブジェクトまでの推定半径方向距離の第1のセットを判断することと、
構造化光の符号化および前記キャプチャされた画像のうちの少なくとも1つに基づいて、前記オブジェクトまでの第2の推定半径方向距離を判断することと、
前記第2の推定半径方向距離に部分的に基づいて、半径方向距離の前記第1のセットから、推定半径方向距離を選択することとを
行うように構成されたコントローラと
を備えるDMA。 - 前記照明源は、構造化光のパルスを、第1の時間において第1の時間パルシング周波数で、および前記第1の時間に続く第2の時間において第2の時間パルシング周波数で投射するように構成される、請求項1に記載のDMA。
- 前記センサーは、前記第1の時間パルシング周波数および前記第2の時間パルシング周波数の各々について、
前記パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウを使って第1の未加工データをキャプチャすることと、
前記パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に第2の未加工データをキャプチャすることと、
前記パルス状照明に対して第1のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に第3の未加工データをキャプチャすることとを行うように構成される、請求項2に記載のDMA。 - 前記第1の時間パルシング周波数における前記第1の未加工データは、前記第2の未加工データをキャプチャするのに先立って読み出され、前記第1の時間パルシング周波数での前記第2の未加工データは、前記第1の時間パルシング周波数での前記第3の未加工データをキャプチャするのに先立って読み出される、請求項3に記載のDMA。
- 前記センサーは複数の拡張ピクセルを備え、各拡張ピクセルは3つの電荷貯蔵領域を含み、前記第1の時間パルシング周波数で、第1の電荷貯蔵領域は、前記パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウ中に、第1の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の第2のセットは、前記パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に、前記第1の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の第3のセットは、前記パルス状照明に対して第3のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に、前記第1の未加工キャプチャに関連する電荷を収集する、請求項2に記載のDMA。
- 前記第2の時間パルシング周波数において、前記第1の電荷貯蔵領域は、前記パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウ中に、第2の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の前記第2のセットは、前記パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に、前記第2の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の前記第3のセットは、前記パルス状照明に対して第3のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に、前記第2の未加工キャプチャに関連する電荷を収集する、請求項5に記載のDMA。
- 前記第1の時間パルシング周波数での前記第1の未加工キャプチャは、前記第2の時間パルシング周波数での前記第2の未加工キャプチャに先立って読み出される、請求項6に記載のDMA。
- 前記投射される光パルスは、構造化光ドットパターンを重ねられたフラッド照明からなり、前記ドットパターン中の各ドットは、前記フラッド照明の輝度よりも明るい輝度を有する、請求項1に記載のDMA。
- 前記投射される光パルスは、構造化光ドットパターンを重ねられたフラッド照明からなり、前記ドットパターン中の各ドットは、前記フラッド照明の輝度値未満の輝度値を有する、請求項1に記載のDMA。
- 前記照明源と前記センサーとの間の距離は50mm以下である、請求項1に記載のDMA。
- 前記コントローラは、半径方向距離の前記第1のセットからの前記選択された推定半径方向距離に基づいて、前記ローカルエリアの深度マップを取得するようにさらに構成される、請求項1に記載のDMA。
- 深度測定アセンブリ(DMA)であって、
照明源であって、前記照明源は、光パルスを、1つまたは複数の時間パルシング周波数でローカルエリア中に投射するように構成される、照明源と、
センサーであって、
前記ローカルエリアから反射された前記光パルスの画像をキャプチャすることと、
前記キャプチャされた画像のうちの1つまたは複数を使って、前記光パルスについての1つまたは複数の飛行時間(TOF)位相シフトを判断することと
を行うように構成されたセンサーと、
前記センサーに結合された人工現実デバイスであって、
前記1つまたは複数のTOF位相シフトに基づいて、前記ローカルエリア中のオブジェクトまでの推定半径方向距離の第1のセットを判断することと、
構造化光の符号化および前記キャプチャされた画像のうちの少なくとも1つに基づいて、前記オブジェクトまでの第2の推定半径方向距離を判断することと、
前記第2の推定半径方向距離に部分的に基づいて、半径方向距離の前記第1のセットから、推定半径方向距離を選択することと
を行うように構成された人工現実デバイスと
を備えるDMA。 - 前記人工現実デバイスは、半径方向距離の前記第1のセットからの前記選択された推定半径方向距離に基づいて、前記ローカルエリアの深度マップを取得するようにさらに構成される、請求項12に記載のDMA。
- 前記人工現実デバイスは頭部搭載型ディスプレイ(HMD)であり、前記DMAは前記HMDの一部であり、前記HMDは、
前記ローカルエリアの前記深度マップに部分的に基づいて仮想オブジェクトを表示するように構成された電子ディスプレイ要素と、
前記電子ディスプレイ要素から前記HMDの射出瞳に光を向けるように構成された光学ブロックとを備える、請求項13に記載のDMA。 - 前記照明源は、構造化光のパルスを、第1の時間において第1の時間パルシング周波数で、および前記第1の時間に続く第2の時間において第2の時間パルシング周波数で投射するように構成される、請求項12に記載のDMA。
- 前記センサーは、前記第1の時間パルシング周波数および前記第2の時間パルシング周波数の各々について、
前記パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウを使って第1の未加工データをキャプチャすることと、
前記パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に第2の未加工データをキャプチャすることと、
前記パルス状照明に対して第1のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に第3の未加工データをキャプチャすることとを行うように構成される、請求項15に記載のDMA。 - 前記第1の時間パルシング周波数における前記第1の未加工データは、前記第2の未加工データをキャプチャするのに先立って読み出され、前記第1の時間パルシング周波数での前記第2の未加工データは、前記第1の時間パルシング周波数での前記第3の未加工データをキャプチャするのに先立って読み出される、請求項16に記載のDMA。
- 前記センサーは複数の拡張ピクセルを備え、各拡張ピクセルは3つの電荷貯蔵領域を含み、前記第1の時間パルシング周波数で、第1の電荷貯蔵領域は、前記パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウ中に、第1の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の第2のセットは、前記パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に、前記第1の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の第3のセットは、前記パルス状照明に対して第3のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に、前記第1の未加工キャプチャに関連する電荷を収集する、請求項15に記載のDMA。
- 前記第2の時間パルシング周波数において、前記第1の電荷貯蔵領域は、前記パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウ中に、第2の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の前記第2のセットは、前記パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に、前記第2の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の前記第3のセットは、前記パルス状照明に対して第3のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に、前記第2の未加工キャプチャに関連する電荷を収集する、請求項18に記載のDMA。
- 前記第1の時間パルシング周波数での前記第1の未加工キャプチャは、前記第2の時間パルシング周波数での前記第2の未加工キャプチャに先立って読み出される、請求項19に記載のDMA。
- 深度測定アセンブリ(DMA)であって、
照明源であって、前記照明源は、光パルスを、1つまたは複数の時間パルシング周波数でローカルエリア中に投射するように構成される、照明源と、
センサーであって、
前記ローカルエリアから反射された前記光パルスの画像をキャプチャすることと、
前記キャプチャされた画像のうちの1つまたは複数を使って、前記光パルスについての1つまたは複数の飛行時間(TOF)位相シフトを判断することと
を行うように構成されたセンサーと、
前記センサーに結合されたコントローラおよび/または人工現実デバイスであって、
前記1つまたは複数のTOF位相シフトに基づいて、前記ローカルエリア中のオブジェクトまでの推定半径方向距離の第1のセットを判断することと、
構造化光の符号化および前記キャプチャされた画像のうちの少なくとも1つに基づいて、前記オブジェクトまでの第2の推定半径方向距離を判断することと、
前記第2の推定半径方向距離に部分的に基づいて、半径方向距離の前記第1のセットから、推定半径方向距離を選択することと
を行うように構成されたコントローラおよび/または人工現実デバイスと
を備えるDMA。 - 前記照明源は、構造化光のパルスを、第1の時間において第1の時間パルシング周波数で、および前記第1の時間に続く第2の時間において第2の時間パルシング周波数で投射するように構成される、請求項21に記載のDMA。
- 前記センサーは、前記第1の時間パルシング周波数および前記第2の時間パルシング周波数の各々について、
前記パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウを使って第1の未加工データをキャプチャすることと、
前記パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に第2の未加工データをキャプチャすることと、
前記パルス状照明に対して第1のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に第3の未加工データをキャプチャすることとを行うように構成される、請求項22に記載のDMA。 - 前記第1の時間パルシング周波数における前記第1の未加工データは、前記第2の未加工データをキャプチャするのに先立って読み出され、前記第1の時間パルシング周波数での前記第2の未加工データは、前記第1の時間パルシング周波数での前記第3の未加工データをキャプチャするのに先立って読み出される、請求項23に記載のDMA。
- 前記センサーは複数の拡張ピクセルを備え、各拡張ピクセルは3つの電荷貯蔵領域を含み、前記第1の時間パルシング周波数で、第1の電荷貯蔵領域は、前記パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウ中に、第1の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の第2のセットは、前記パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に、前記第1の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の第3のセットは、前記パルス状照明に対して第3のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に、前記第1の未加工キャプチャに関連する電荷を収集する、請求項22から24のいずれか一項に記載のDMA。
- 前記第2の時間パルシング周波数において、前記第1の電荷貯蔵領域は、前記パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウ中に、第2の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の前記第2のセットは、前記パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に、前記第2の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の前記第3のセットは、前記パルス状照明に対して第3のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に、前記第2の未加工キャプチャに関連する電荷を収集する、請求項25に記載のDMA。
- 前記第1の時間パルシング周波数での前記第1の未加工キャプチャは、前記第2の時間パルシング周波数での前記第2の未加工キャプチャに先立って読み出される、請求項26に記載のDMA。
- 前記投射される光パルスは、構造化光ドットパターンを重ねられたフラッド照明からなり、前記ドットパターン中の各ドットは、前記フラッド照明の輝度よりも明るい輝度を有する、請求項21から27のいずれか一項に記載のDMA。
- 前記投射される光パルスは、構造化光ドットパターンを重ねられたフラッド照明からなり、前記ドットパターン中の各ドットは、前記フラッド照明の輝度値未満の輝度値を有する、請求項21から28のいずれか一項に記載のDMA。
- 前記照明源と前記センサーとの間の距離は50mm以下である、請求項21から29のいずれか一項に記載のDMA。
- 前記コントローラおよび/または前記人工現実デバイスは、半径方向距離の前記第1のセットからの前記選択された推定半径方向距離に基づいて、前記ローカルエリアの深度マップを取得するようにさらに構成される、請求項21から30のいずれか一項に記載のDMA。
- 前記人工現実デバイスは頭部搭載型ディスプレイ(HMD)であり、前記DMAは前記HMDの一部であり、前記HMDは、
前記ローカルエリアの前記深度マップに部分的に基づいて仮想オブジェクトを表示するように構成された電子ディスプレイ要素と、
前記電子ディスプレイ要素から前記HMDの射出瞳に光を向けるように構成された光学ブロックとを備える、請求項21から31のいずれか一項に記載のDMA。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/131,618 US10916023B2 (en) | 2018-09-14 | 2018-09-14 | Depth measurement assembly with a structured light source and a time of flight camera |
US16/131,618 | 2018-09-14 | ||
PCT/US2018/065387 WO2020055443A1 (en) | 2018-09-14 | 2018-12-13 | Depth measurement assembly with a structured light source and a time of flight camera |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022504010A true JP2022504010A (ja) | 2022-01-13 |
JP7254903B2 JP7254903B2 (ja) | 2023-04-10 |
Family
ID=69773038
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021506930A Active JP7254903B2 (ja) | 2018-09-14 | 2018-12-13 | 構造化光源および飛行時間カメラ付き深度測定アセンブリ |
Country Status (5)
Country | Link |
---|---|
US (3) | US10916023B2 (ja) |
EP (1) | EP3850835A4 (ja) |
JP (1) | JP7254903B2 (ja) |
CN (1) | CN113016177B (ja) |
WO (1) | WO2020055443A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024004645A1 (ja) * | 2022-06-29 | 2024-01-04 | ソニーセミコンダクタソリューションズ株式会社 | 測距装置、測距システム、および測距方法 |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3803266A4 (en) | 2018-06-06 | 2022-03-09 | Magik Eye Inc. | DISTANCE MEASUREMENT USING HIGH DENSITY PROJECTION PATTERNS |
US10939089B1 (en) * | 2018-12-13 | 2021-03-02 | Facebook Technologies, Llc | Calibration apparatus for time of flight depth sensor |
US11483503B2 (en) | 2019-01-20 | 2022-10-25 | Magik Eye Inc. | Three-dimensional sensor including bandpass filter having multiple passbands |
KR102008890B1 (ko) * | 2019-01-25 | 2019-08-08 | 단국대학교 산학협력단 | 3차원 프로파일 측정 방법 |
US11474209B2 (en) | 2019-03-25 | 2022-10-18 | Magik Eye Inc. | Distance measurement using high density projection patterns |
WO2021040476A1 (ko) * | 2019-08-30 | 2021-03-04 | 엘지이노텍 주식회사 | Tof 카메라 |
EP4065929A4 (en) * | 2019-12-01 | 2023-12-06 | Magik Eye Inc. | IMPROVEMENT OF TRIANGULATION-BASED THREE-DIMENSIONAL DISTANCE MEASUREMENTS WITH TIME OF FLIGHT INFORMATION |
US11069104B1 (en) * | 2020-05-13 | 2021-07-20 | Facebook Technologies, Llc | Display that uses a light sensor to generate environmentally matched artificial reality content |
WO2021253321A1 (zh) * | 2020-06-18 | 2021-12-23 | 深圳市汇顶科技股份有限公司 | 飞时测距方法与相关*** |
JP2023552974A (ja) * | 2020-11-13 | 2023-12-20 | トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング | ディスプレイを介する深度測定 |
US20220171059A1 (en) * | 2020-12-02 | 2022-06-02 | Waymo Llc | Dynamic sensing channel multiplexing for lidar applications |
US11994591B2 (en) * | 2020-12-08 | 2024-05-28 | Zoox, Inc. | Determining depth using multiple modulation frequencies |
WO2022161964A1 (en) * | 2021-01-27 | 2022-08-04 | Sony Semiconductor Solutions Corporation | Three-dimensional image capturing according to time-of-flight measurement and light spot pattern measurment |
KR20230161951A (ko) * | 2021-03-26 | 2023-11-28 | 퀄컴 인코포레이티드 | 혼합 모드 깊이 이미징 |
CN113188450B (zh) * | 2021-04-23 | 2023-03-14 | 封泽希 | 基于结构光的场景深度检测方法及*** |
WO2023077412A1 (zh) * | 2021-11-05 | 2023-05-11 | 华为技术有限公司 | 一种物体测距方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160334509A1 (en) * | 2015-05-13 | 2016-11-17 | Infineon Technologies Ag | Structured-light based multipath cancellation in tof imaging |
US20170206660A1 (en) * | 2016-01-15 | 2017-07-20 | Oculus Vr, Llc | Depth mapping using structured light and time of flight |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8629976B2 (en) * | 2007-10-02 | 2014-01-14 | Microsoft Corporation | Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems |
WO2010006081A1 (en) * | 2008-07-08 | 2010-01-14 | Chiaro Technologies, Inc. | Multiple channel locating |
CN103477186B (zh) * | 2011-04-07 | 2016-01-27 | 松下知识产权经营株式会社 | 立体摄像装置 |
US8896594B2 (en) | 2012-06-30 | 2014-11-25 | Microsoft Corporation | Depth sensing with depth-adaptive illumination |
US9602807B2 (en) * | 2012-12-19 | 2017-03-21 | Microsoft Technology Licensing, Llc | Single frequency time of flight de-aliasing |
WO2014165244A1 (en) * | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
US10061028B2 (en) * | 2013-09-05 | 2018-08-28 | Texas Instruments Incorporated | Time-of-flight (TOF) assisted structured light imaging |
CN107912061B (zh) | 2015-03-06 | 2021-06-01 | 伊利诺斯工具制品有限公司 | 用于焊接的传感器辅助头戴式显示器 |
US10154254B2 (en) * | 2017-01-17 | 2018-12-11 | Facebook Technologies, Llc | Time-of-flight depth sensing for eye tracking |
US10810753B2 (en) * | 2017-02-27 | 2020-10-20 | Microsoft Technology Licensing, Llc | Single-frequency time-of-flight depth computation using stereoscopic disambiguation |
US10628950B2 (en) | 2017-03-01 | 2020-04-21 | Microsoft Technology Licensing, Llc | Multi-spectrum illumination-and-sensor module for head tracking, gesture recognition and spatial mapping |
US10445893B2 (en) | 2017-03-10 | 2019-10-15 | Microsoft Technology Licensing, Llc | Dot-based time of flight |
GB201704443D0 (en) * | 2017-03-21 | 2017-05-03 | Photonic Vision Ltd | Time of flight sensor |
US10598768B2 (en) * | 2017-05-24 | 2020-03-24 | Microsoft Technology Licensing, Llc | Multipath mitigation for time of flight system |
US20190068853A1 (en) * | 2017-08-22 | 2019-02-28 | Microsoft Technology Licensing, Llc | Structured light and flood fill light illuminator |
US10613228B2 (en) * | 2017-09-08 | 2020-04-07 | Microsoft Techology Licensing, Llc | Time-of-flight augmented structured light range-sensor |
-
2018
- 2018-09-14 US US16/131,618 patent/US10916023B2/en active Active
- 2018-12-13 EP EP18933229.9A patent/EP3850835A4/en active Pending
- 2018-12-13 CN CN201880099465.3A patent/CN113016177B/zh active Active
- 2018-12-13 JP JP2021506930A patent/JP7254903B2/ja active Active
- 2018-12-13 WO PCT/US2018/065387 patent/WO2020055443A1/en unknown
-
2020
- 2020-12-01 US US17/108,213 patent/US11132805B2/en active Active
-
2021
- 2021-08-25 US US17/411,405 patent/US11625845B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160334509A1 (en) * | 2015-05-13 | 2016-11-17 | Infineon Technologies Ag | Structured-light based multipath cancellation in tof imaging |
US20170206660A1 (en) * | 2016-01-15 | 2017-07-20 | Oculus Vr, Llc | Depth mapping using structured light and time of flight |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024004645A1 (ja) * | 2022-06-29 | 2024-01-04 | ソニーセミコンダクタソリューションズ株式会社 | 測距装置、測距システム、および測距方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113016177A (zh) | 2021-06-22 |
US20210383560A1 (en) | 2021-12-09 |
CN113016177B (zh) | 2023-05-09 |
WO2020055443A1 (en) | 2020-03-19 |
EP3850835A1 (en) | 2021-07-21 |
US11132805B2 (en) | 2021-09-28 |
JP7254903B2 (ja) | 2023-04-10 |
EP3850835A4 (en) | 2021-11-03 |
US20200090355A1 (en) | 2020-03-19 |
US11625845B2 (en) | 2023-04-11 |
US20210082134A1 (en) | 2021-03-18 |
US10916023B2 (en) | 2021-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7254903B2 (ja) | 構造化光源および飛行時間カメラ付き深度測定アセンブリ | |
JP6827073B2 (ja) | 構造化光およびタイムオブフライトを用いた深度マッピング | |
US10410373B1 (en) | Calibration of a phase interferometry depth camera assembly | |
US10469722B2 (en) | Spatially tiled structured light projector | |
US10791283B2 (en) | Imaging device based on lens assembly with embedded filter | |
US11348262B1 (en) | Three-dimensional imaging with spatial and temporal coding for depth camera assembly | |
US11399139B2 (en) | High dynamic range camera assembly with augmented pixels | |
US10957059B1 (en) | Multi-pattern depth camera assembly | |
US10791286B2 (en) | Differentiated imaging using camera assembly with augmented pixels | |
US11509803B1 (en) | Depth determination using time-of-flight and camera assembly with augmented pixels | |
US10491877B1 (en) | Depth camera assembly using multiplexed sensor phase measurements to determine depth using fringe interferometry | |
US10574938B1 (en) | Variable frame rate depth camera assembly | |
US10855973B1 (en) | Depth mapping using fringe interferometry | |
US10852434B1 (en) | Depth camera assembly using fringe interferometery via multiple wavelengths |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210909 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220803 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230329 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7254903 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |