JP2022504010A - 構造化光源および飛行時間カメラ付き深度測定アセンブリ - Google Patents

構造化光源および飛行時間カメラ付き深度測定アセンブリ Download PDF

Info

Publication number
JP2022504010A
JP2022504010A JP2021506930A JP2021506930A JP2022504010A JP 2022504010 A JP2022504010 A JP 2022504010A JP 2021506930 A JP2021506930 A JP 2021506930A JP 2021506930 A JP2021506930 A JP 2021506930A JP 2022504010 A JP2022504010 A JP 2022504010A
Authority
JP
Japan
Prior art keywords
dma
time
pulsing frequency
raw
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021506930A
Other languages
English (en)
Other versions
JP7254903B2 (ja
Inventor
マイケル ホール,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meta Platforms Technologies LLC
Original Assignee
Facebook Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Facebook Technologies LLC filed Critical Facebook Technologies LLC
Publication of JP2022504010A publication Critical patent/JP2022504010A/ja
Application granted granted Critical
Publication of JP7254903B2 publication Critical patent/JP7254903B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Figure 2022504010000001
深度測定アセンブリ(DMA)が、光(たとえば、構造化光)のパルスを時間パルシング周波数でローカルエリア中に投射する照明源を含む。DMAは、ローカルエリアから反射された光のパルスの画像をキャプチャし、キャプチャされた画像のうちの1つまたは複数を使って、光のパルスについての1つまたは複数のTOF位相シフトを判断するセンサーを含む。DMAは、センサーに結合されたコントローラを含み、コントローラは、1つまたは複数のTOF位相シフトに基づいて、ローカルエリア中のオブジェクトまでの推定半径方向距離の第1のセットを判断するように構成される。コントローラは、構造化光の符号化およびキャプチャされた画像のうちの少なくとも1つに基づいて、オブジェクトまでの第2の推定半径方向距離を判断する。コントローラは、半径方向距離の第1のセットから、推定半径方向距離を選択する。
【選択図】図4

Description

本開示は概して、ローカルエリアの深度を判断するためのシステムに関し、より詳細には、構造化光源を用いてローカルエリアの深度情報を取得する人工現実システムのためのヘッドセットに関する。
任意の環境中でオブジェクトの場所を突き止めることは、人工現実デバイスから自律デバイスにわたる、いくつかの異なるコンテキストにおいて有用であり得る。任意の環境の3次元マッピングを判断するためのいくつかの技法が存在する。いくつかは、深度情報を判断するのに飛行時間(TOF)算出に依拠し、他のものは、構造化光パターンを使い得る。ただし、これらの技法は両方とも、いくつかの欠点を有する。構造化光に基づく深度カメラは、センサーピクセル密度を十分に活用することができず、最大範囲はベースラインによって制限され、計算コストは概して、高い方である。TOFベースの深度カメラは、マルチパス誤差を被り、かつ、単一の露出ウィンドウ中に複数のパルス状光周波数を必要とする。
構造化光ベースのTOF深度測定アセンブリ(DMA)について本明細書に記載するが、これは、TOF算出を用いる、構造化光の空間符号化を活用する。DMAは、任意の環境中で深度情報を判断するために、頭部搭載型ディスプレイ(HMD)に組み込まれてよい。人工現実システムでは、DMAによって判断された深度情報に基づいて、仮想コンテンツが、ユーザの環境の上に重ねられ得る。
DMAは、光のパルス(たとえば、強度パターンも空間的に構造化される)を、複数の時間パルシング周波数でローカルエリア中に投射するように構成される照明源を含む。DMAは、ローカルエリアから反射された光のパルスの画像をキャプチャし、キャプチャされた画像のうちの1つまたは複数を使って、光のパルスについての1つまたは複数のTOF位相シフトを判断するように構成されたセンサーを含む。DMAは、センサーに結合されたコントローラを含み、コントローラは、1つまたは複数のTOF位相シフトに基づいて、ローカルエリア中のオブジェクトまでの推定半径方向距離の第1のセットを判断するように構成される。コントローラは、構造化光の符号化およびキャプチャされた画像のうちの少なくとも1つに基づいて、オブジェクトまでの第2の推定半径方向距離を判断する。コントローラは、第2の推定半径方向距離に部分的に基づいて、半径方向距離の第1のセットから、推定半径方向距離を選択する。
本発明による実施形態が、深度測定アセンブリ(DMA)を対象とする添付の請求項に具体的に開示され、請求項では、ある請求項カテゴリにおいて言及される任意の特徴、たとえばDMAが、別の請求項カテゴリ、たとえば頭部搭載型ディスプレイ(HMD)、システム、記憶媒体、コンピュータプログラム製品、および方法においても主張される場合がある。添付の請求項への依存または後方参照は、形式的理由のみで選ばれる。ただし、どの先行する請求項への意図的な後方参照から生じるどの主題(具体的には、多重依存)も同様に主張される場合があり、そうすることによって、請求項とそれらの特徴のどの組合せも開示され、添付の請求項において選ばれた依存にかかわらず主張され得る。主張され得る主題は、添付の請求項に述べられる特徴の組合せのみではなく、請求項における特徴のどの他の組合せも含み、請求項において言及される各特徴は、請求項におけるどの他の特徴または他の特徴の組合せと組み合わされてもよい。さらに、本明細書に記載され、または示される実施形態および特徴のうちのいずれも、別個の請求項において、および/または本明細書に記載され、もしくは示される、どの実施形態もしくは特徴との、または添付の請求項の特徴のいずれとのどの組合せでも主張される場合がある。
ある実施形態では、深度測定アセンブリ(DMA)は、
照明源であって、照明源は、光のパルスを、時間パルシング周波数でローカルエリア中に投射するように構成される、照明源と、
センサーであって、
ローカルエリアから反射された光のパルスの画像をキャプチャすることと、
キャプチャされた画像のうちの1つまたは複数を使って、光のパルスについての1つまたは複数の飛行時間(TOF)位相シフトを判断することとを行うように構成されたセンサーと、
センサーに結合されたコントローラであって、
1つまたは複数のTOF位相シフトに基づいて、ローカルエリア中のオブジェクトまでの推定半径方向距離の第1のセットを判断することと、
構造化光の符号化およびキャプチャされた画像のうちの少なくとも1つに基づいて、オブジェクトまでの第2の推定半径方向距離を判断することと、
第2の推定半径方向距離に部分的に基づいて、半径方向距離の第1のセットから、推定半径方向距離を選択することとを行うように構成されたコントローラとを備え得る。
ある実施形態では、深度測定アセンブリ(DMA)は、
照明源であって、照明源は、光のパルスを、1つまたは複数の時間パルシング周波数でローカルエリア中に投射するように構成される、照明源と、
センサーであって、
ローカルエリアから反射された光のパルスの画像をキャプチャすることと、
キャプチャされた画像のうちの1つまたは複数を使って、光のパルスについての1つまたは複数の飛行時間(TOF)位相シフトを判断することとを行うように構成されたセンサーと、
センサーに結合されたコントローラおよび/または人工現実デバイスであって、
1つまたは複数のTOF位相シフトに基づいて、ローカルエリア中のオブジェクトまでの推定半径方向距離の第1のセットを判断することと、
構造化光の符号化およびキャプチャされた画像のうちの少なくとも1つに基づいて、オブジェクトまでの第2の推定半径方向距離を判断することと、
第2の推定半径方向距離に部分的に基づいて、半径方向距離の第1のセットから、推定半径方向距離を選択することとを行うように構成された、コントローラおよび/または人工現実デバイスとを備え得る。
照明源は、構造化光のパルスを、第1の時間において第1の時間パルシング周波数で、および第1の時間に続く第2の時間において第2の時間パルシング周波数で投射するように構成され得る。
センサーは、第1の時間パルシング周波数および第2の時間パルシング周波数の各々について、
パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウを使って第1の未加工データをキャプチャすることと、
パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に第2の未加工データをキャプチャすることと、
パルス状照明に対して第1のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に第3の未加工データをキャプチャすることとを行うように構成され得る。
第1の時間パルシング周波数における第1の未加工データは、第2の未加工データをキャプチャするのに先立って読み出すことができ、第1の時間パルシング周波数での第2の未加工データは、第1の時間パルシング周波数での第3の未加工データをキャプチャするのに先立って読み出すことができる。
センサーは複数の拡張ピクセルを備えることができ、各拡張ピクセルは3つの電荷貯蔵領域を含むことができ、第1の時間パルシング周波数で、第1の電荷貯蔵領域は、パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウ中に、第1の未加工キャプチャに関連する電荷を収集することができ、電荷貯蔵領域の第2のセットは、パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に、第1の未加工キャプチャに関連する電荷を収集することができ、電荷貯蔵領域の第3のセットは、パルス状照明に対して第3のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に、第1の未加工キャプチャに関連する電荷を収集することができる。
第2の時間パルシング周波数において、第1の電荷貯蔵領域は、パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウ中に、第2の未加工キャプチャに関連する電荷を収集することができ、電荷貯蔵領域の第2のセットは、パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に、第2の未加工キャプチャに関連する電荷を収集することができ、電荷貯蔵領域の第3のセットは、パルス状照明に対して第3のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に、第2の未加工キャプチャに関連する電荷を収集することができる。
第1の時間パルシング周波数での第1の未加工キャプチャは、第2の時間パルシング周波数での第2の未加工キャプチャに先立って読み出すことができる。
投射される光パルスは、構造化光ドットパターンを重ねられたフラッド照明からなってよく、ドットパターン中の各ドットは、フラッド照明の輝度よりも明るい輝度を有する。
投射される光パルスは、構造化光ドットパターンを重ねられたフラッド照明からなってよく、ドットパターン中の各ドットは、フラッド照明の輝度値未満の輝度値を有する。
照明源とセンサーとの間の距離は、50mm以下であってよい。
コントローラおよび/または人工現実デバイスは、半径方向距離の第1のセットからの選択された推定半径方向距離に基づいて、ローカルエリアの深度マップを取得するように構成され得る。
ある実施形態では、特に上述した実施形態のいずれかによる深度測定アセンブリ(DMA)は、
照明源であって、照明源は、光のパルスを、1つまたは複数の時間パルシング周波数でローカルエリア中に投射するように構成される、照明源と、
センサーであって、
ローカルエリアから反射された光のパルスの画像をキャプチャすることと、
キャプチャされた画像のうちの1つまたは複数を使って、光のパルスについての1つまたは複数の飛行時間(TOF)位相シフトを判断することとを行うように構成されたセンサーと、
センサーに結合された人工現実デバイスであって、
1つまたは複数のTOF位相シフトに基づいて、ローカルエリア中のオブジェクトまでの推定半径方向距離の第1のセットを判断することと、
構造化光の符号化およびキャプチャされた画像のうちの少なくとも1つに基づいて、オブジェクトまでの第2の推定半径方向距離を判断することと、
第2の推定半径方向距離に部分的に基づいて、半径方向距離の第1のセットから、推定半径方向距離を選択することとを行うように構成された、人工現実デバイスとを備え得る。
人工現実デバイスは、半径方向距離の第1のセットからの選択された推定半径方向距離に基づいて、ローカルエリアの深度マップを取得するように構成され得る。
人工現実デバイスは頭部搭載型ディスプレイ(HMD)であってよく、DMAはHMDの一部であってよく、HMDは、
ローカルエリアの深度マップに部分的に基づいて仮想オブジェクトを表示するように構成された電子ディスプレイ要素と、
電子ディスプレイ要素からHMDの射出瞳に光を向けるように構成された光学ブロックとを備え得る。
照明源は、構造化光のパルスを、第1の時間において第1の時間パルシング周波数で、および第1の時間に続く第2の時間において第2の時間パルシング周波数で投射するように構成され得る。
センサーは、第1の時間パルシング周波数および第2の時間パルシング周波数の各々について、
パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウを使って第1の未加工データをキャプチャすることと、
パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に第2の未加工データをキャプチャすることと、
パルス状照明に対して第1のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に第3の未加工データをキャプチャすることとを行うように構成され得る。
第1の時間パルシング周波数における第1の未加工データは、第2の未加工データをキャプチャするのに先立って読み出すことができ、第1の時間パルシング周波数での第2の未加工データは、第1の時間パルシング周波数での第3の未加工データをキャプチャするのに先立って読み出すことができる。
センサーは複数の拡張ピクセルを備えることができ、各拡張ピクセルは3つの電荷貯蔵領域を含むことができ、第1の時間パルシング周波数で、第1の電荷貯蔵領域は、パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウ中に、第1の未加工キャプチャに関連する電荷を収集することができ、電荷貯蔵領域の第2のセットは、パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に、第1の未加工キャプチャに関連する電荷を収集することができ、電荷貯蔵領域の第3のセットは、パルス状照明に対して第3のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に、第1の未加工キャプチャに関連する電荷を収集することができる。
第2の時間パルシング周波数において、第1の電荷貯蔵領域は、パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウ中に、第2の未加工キャプチャに関連する電荷を収集することができ、電荷貯蔵領域の第2のセットは、パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に、第2の未加工キャプチャに関連する電荷を収集することができ、電荷貯蔵領域の第3のセットは、パルス状照明に対して第3のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に、第2の未加工キャプチャに関連する電荷を収集することができる。
第1の時間パルシング周波数での第1の未加工キャプチャは、第2の時間パルシング周波数での第2の未加工キャプチャに先立って読み出すことができる。
本発明のさらに別の実施形態では、1つまたは複数のコンピュータ可読非一時的記憶媒体が、実行されると、本発明または上述した実施形態のいずれかによるDMAまたはシステムにおいて実施するように動作可能なソフトウェアを具現化する。
本発明のさらに別の実施形態では、コンピュータ実装方法は、本発明または上述した実施形態のいずれかによるDMAまたはシステムを使う。
本発明のさらに別の実施形態では、好ましくはコンピュータ可読非一時的記憶媒体を備えるコンピュータプログラム製品が、本発明または上述した実施形態のいずれかによるDMAまたはシステムにおいて使われる。
1つまたは複数の実施形態によるHMDの図である。 1つまたは複数の実施形態による、HMDの前部剛体の断面図である。 1つまたは複数の実施形態による、従来の構造化光DMAの動作の図である。 1つまたは複数の実施形態による、構造化TOF深度センサーの動作の図である。 1つまたは複数の実施形態による、構造化TOF深度センサーの位相マップの一部分を示す図である。 1つまたは複数の実施形態による、3つのキャプチャウィンドウをもつ構造化TOF深度センサーのためのピクセルタイミング図である。 1つまたは複数の実施形態による、拡張ピクセルをもつ構造化TOF深度センサーのためのピクセルタイミング図である。 1つまたは複数の実施形態による、図6Aおよび6Bのフォトダイオードセンサーを使用する構造化TOF深度センサーの動作に関するタイミング図である。 1つまたは複数の実施形態による、オブジェクトまでの半径方向距離を判断するための方法のフローチャートである。 1つまたは複数の実施形態による、人工現実コンテンツを提供するためのシステム環境のブロック図である。
頭部搭載型ディスプレイ(HMD)を通してユーザに人工現実コンテンツを提供することは、任意の環境においてユーザの位置を突き止め、任意の環境内で周囲の3次元マッピングを判断することにしばしば依拠する。任意の環境内でのユーザの周囲は次いで、仮想環境中で表されてよく、またはユーザの周囲に、追加コンテンツが重ねられてよい。
従来のHMDは、ユーザの環境内でのユーザの周囲を判断するための1つまたは複数の量的深度カメラを含む。通常、従来の深度カメラは、環境内でのHMDのロケーションを判断するのに、構造化光または飛行時間(TOF)を使う。構造化光深度カメラは、HMDを囲む環境中に既知のパターンを投射するのに、アクティブ照明源を使う。構造化光は、光のパターン(たとえば、ドット、ライン、フリンジなど)を使う。パターンは、環境のいくつかの部分が照明され(たとえば、ドットで照明される)、他の部分(たとえば、パターン中のドットの間の空間)が照明されないようなものである。構造化光で照明される環境の画像は、深度情報を判断するのに使われる。ただし、構造化光パターンにより、投射されたパターンの結果画像の重大な部分が照明されないようになる。これは、結果画像をキャプチャするセンサーのピクセル解像度を非効率に使い、たとえば、構造化光深度カメラによるパターンの投射の結果、一度の深度測定を実施するために複数のセンサーピクセルが照明されることを必要としながら、センサーピクセルの10%未満が、投射されたパターンから光を収集することになる。さらに、システムがSNRによって制限されない場合であっても、範囲は、カメラと照明との間のベースライン距離によって制限される。さらに、構造化光から高品質深度を得るために、計算複雑性が大きくなり得る。
TOF深度カメラは、光が、深度カメラを囲む環境中に投射され、センサーアレイ上のピクセルに戻る往復移動時間を測定する。均一な照明パターンが環境中に投射されたとき、TOF深度カメラは、各センサーピクセルにより別々に、環境中の異なるオブジェクトの深度を測定することが可能である。ただし、センサーピクセルに入射する光は、深度カメラを囲む環境中の複数の光路から受光された光の組合せであり得る。センサーのピクセルに入射する光の光路を決定するための既存の技法は、計算が複雑であり、環境中の光路の間を完全に曖昧性除去するわけではない。さらに、TOF深度カメラはしばしば、複数の照明パルシング周波数にわたる複数の画像キャプチャを必要とする。短い露出時間にわたって妥当な信号対雑音比性能を維持するのは、しばしば困難であり、これにより、総キャプチャ時間を削減するためのセンサーの能力が制限される場合がある。
構造化光ベースのTOF深度測定アセンブリ(DMA)について本明細書に記載するが、これは、TOF算出を用いる、構造化光の空間符号化を活用する。DMAは、構造化光または構造化光と均一なフラッド照明の組合せをローカルエリア中に放出する。カメラアセンブリが、TOF位相シフトに関連する電荷を蓄積し、カメラアセンブリと信号通信しているコントローラが、TOF位相シフトに基づいて、ローカルエリア中のオブジェクトのいくつかの推定半径方向距離を判断する。空間光符号化を使って、コントローラは、推定半径方向距離のうちの1つを選択し、三角測量算出と組み合わせて、オブジェクトの深度情報を判断する。DMAはしたがって、カメラセンサーの効率の向上を可能にし、というのは、均一なフラッド光とともに構造化光が検出され得るからである。DMAは、従来のTOF深度カメラの信号対雑音比性能も向上し、というのは、同じ露出時間に対して、より少ない画像キャプチャ(および関連する読出し時間)が必要とされるからである。追加の向上について、以下でさらに詳しく記載する。DMAは、任意の環境中で深度情報を判断するために、頭部搭載型ディスプレイ(HMD)に組み込まれてよい。人工現実システムでは、DMAによって判断された深度情報に基づいて、仮想コンテンツが、ユーザの環境の上に重ねられ得る。
本開示の実施形態は、人工現実システムを含むか、または人工現実システムとともに実装され得る。人工現実とは、ユーザへの提示の前に何らかのやり方で調節されている現実感の形であり、たとえば、仮想現実(VR)、拡張現実(AR)、複合現実(MR)、ハイブリッドリアリティ、またはそれらの何らかの組合せおよび/もしくは派生物を含み得る。人工現実コンテンツは、完全に生成されたコンテンツまたはキャプチャされた(たとえば、実世界)コンテンツと組み合わされた、生成されたコンテンツを含み得る。人工現実コンテンツは、ビデオ、オーディオ、触覚フィードバック、またはそれらの何らかの組合せを含んでよく、それらのいずれもが、単一のチャネル中または複数のチャネル中で提示されてよい(視聴者への3次元効果を生み出すステレオビデオなど)。さらに、いくつかの実施形態では、人工現実は、たとえば、人工現実においてコンテンツを作成するのに使われる、かつ/またはそうでなければ人工現実において使われる(たとえば、人工現実において活動を実施する)、アプリケーション、製品、アクセサリ、サービス、またはそれらの何らかの組合せにも関連し得る。人工現実コンテンツを提供する人工現実システムは、ホストコンピュータシステム、スタンドアロンHMD、モバイルデバイスもしくはコンピューティングシステムに接続された頭部搭載型ディスプレイ(HMD)を含む様々なプラットフォーム、または1人もしくは複数の視聴者に人工現実コンテンツを提供することが可能な、どの他のハードウェアプラットフォーム上でも実装され得る。
図1は、1つまたは複数の実施形態によるHMD100の図である。HMD100は、前部剛体120およびバンド130を含む。いくつかの実施形態では、HMD100のいくつかの部分は、透明であるか、または前部剛体120の側面のいずれかにおけるHMD100の側面など、部分的に透明であってよい。図1に示すHMD100は、図2~9とともに以下でさらに説明する、カメラアセンブリ180および照明源170を含む深度測定アセンブリ(完全には図示せず)の実施形態も含む。前部剛体120は、電子ディスプレイ(図示せず)の1つまたは複数の電子ディスプレイ要素を含む。前部剛体120は、任意選択で、慣性測定ユニット(IMU)140、1つまたは複数の位置センサー150、および基準点160を含む。
図2は、1つまたは複数の実施形態による、図1のHMD100の前部剛体120の断面図200である。図2に示すように、前部剛体120は、アイボックス240に画像光を共同で提供する電子ディスプレイ220および光学ブロック230を含む。アイボックス240は、ユーザの眼250によって占められる、空間中の領域である。いくつかの実施形態では、前部剛体120は、アイボックス240中の眼250の位置(すなわち、視線)を追跡するためのアイトラッカー(図示せず)と、深度測定アセンブリ(DMA)210および電子ディスプレイ220に結合されたコントローラ216とをさらに含む。説明のために、図2は、単一の眼250に関連する断面図200を示すが、光学ブロック230とは別個の別の光学ブロック(図示せず)が、変化した画像光を、ユーザの別の眼に提供する。
図2によって示される実施形態では、HMD100は、照明源170(別名、構造化光源)と、カメラアセンブリ180と、コントローラ216とを備えるDMA210を含む。例示した実施形態では、DMA210は、HMD100の一部であることに留意されたい。代替実施形態では、DMA210は、ニアアイディスプレイ、何らかの他のHMD、または深度判断のための何らかのデバイスの一部であってよい。DMA210は、図4を参照してさらに詳しく記載する構造化TOF深度センサー400など、構造化光ベースのTOF深度センサーとして機能する。
様々な実施形態において、照明源170は、ドットパターン、方形波パターン、正弦曲線パターン、何らかの他の符号化された構造化光パターン、またはそれらの何らかの組合せなど、どの構造化光パターンであってもよい、符号化された周期的パターンをもつ構造化光を放出する。いくつかの実施形態では、照明源170は、(たとえば、三角測量が同一の期間によって混乱されないように)非周期的パターンで符号化されている構造化光を放出し、たとえば、擬似ランダムドットパターンが、擬似ランダムとなるように設計される。いくつかの実施形態では、照明源170は、異なる位相シフトを各々が有する一連の正弦曲線を、HMD100を囲む環境中に放出する。様々な実施形態において、照明源170は、正弦曲線的干渉パターンを生成するように構成された音響光学変調器を含む。ただし、他の実施形態では、照明源170は、音響光学デバイス、電気光学デバイス、物理光学、光学干渉、回折光学デバイス、または周期的照明パターンを生成するように構成された任意の他の適切な構成要素のうちの1つまたは複数を含む。
様々な実施形態において、照明源170は、構造化光と均一なフラッド照明の両方をローカルエリア260中に放出する。たとえば、投射される光パルスは、構造化光ドットパターンを重ねられたフラッド照明からなってよく、ここでドットパターン中の各ドットは、フラッド照明の輝度値よりも大きい輝度値を有する。いくつかの実施形態では、照明源170は、構造光を放出する光源と、均一なフラッド照明を放出する第2の光源とを含み得る。構造化光に均一なフラッド照明を加えると、追加光が構造化光線の間のどの空隙も拡張するので、カメラアセンブリ180のセンサーピクセル使用の効率が向上する。
他の実施形態では、逆ドットパターンが投射されてよく、そうすることによって、様々なロケーションに位置決めされた「暗いドット」をもつエリア中に、滑らかに変わる照明が投射される。本実施形態では、ドットとは、少なくとも、ドットの間の空間よりも弱い閾量である輝度値を有する、投射中のロケーションである。いくつかの実施形態では、ドットは、光を放出しないことによって表され、隣接ドットの間の空間は、少なくともある程度のレベルの照明を使って表される。たとえば、投射される光パルスは、構造化光ドットパターンを重ねられたフラッド照明からなってよく、ここでドットパターン中の各ドットは、フラッド照明の輝度値未満である輝度値を有する。このシナリオでは、構造化光検出は、照明が欠けている領域を識別することができ、TOF測定は、照明が投射されるエリアについての半径方向深度を測定することになる。構造化光検出は、隣接TOF測定値を曖昧性除去するための補間点として使われ得る。したがって、逆ドットパターンは、センサーピクセル使用を増やすのを助けることができる。
様々な実施形態において、照明源170は、パルスレート周波数で光を放出する。複数のパルスレート周波数の光が、一度の深度測定のためにローカルエリア260中に放出されてよい。したがって、単一のキャプチャウィンドウ中に、照明源170は、異なるパルスレート周波数の光を放出し得る。これについては、図5~8を参照してさらに詳細に説明する。
カメラアセンブリ180は、ローカルエリア260の画像をキャプチャする。カメラアセンブリは、照明源170から放出された光に敏感な1つまたは複数のカメラを含む。カメラアセンブリ180中の1つまたは複数のカメラのうちの少なくとも1つが、構造化光を検出するために、および図4を参照してさらに詳しく記載する構造化TOF深度センサー400などの構造化TOF深度センサー中で使われる。いくつかの実施形態では、1つまたは複数のカメラは、他の帯域中の光(たとえば、可視光)にも敏感であり得る。キャプチャされた画像は、図3~9とともに以下でさらに説明するように、ローカルエリア260内の様々なロケーションのHMD100に相対した深度を算出するのに使われる。前部剛体120は、光が前部剛体120を通る際にそれに沿って伝搬する経路に対応する光学軸も有する。いくつかの実施形態では、カメラアセンブリ180は、光学軸に沿って位置決めされ、カメラアセンブリ180の視界内の前部剛体120を囲む環境の部分である、ローカルエリア260の画像をキャプチャする。ローカルエリア260内のオブジェクトは、入射環境光ならびに照明源170によって投射された光を反射し、この光は続いて、カメラアセンブリ180によってキャプチャされる。
カメラアセンブリ180は、複数のピクセルを備えるセンサーを使って、ローカルエリア260上に投射された周期的照明パターンの画像をキャプチャする。センサーは、図4を参照してさらに詳しく記載するセンサー404であってよい。カメラアセンブリ180のセンサーは、ピクセルの2次元配列からなり得る。各ピクセルは、ローカルエリア260から、照明源170によって放出された光の強度をキャプチャする。したがって、カメラアセンブリ180のセンサーは、照明源170によって放出され、ローカルエリア260から反射された構造化光、または構造化光と均一なフラッド照明および/もしくはローカルエリア260から反射された環境光との組合せを検出することができる。いくつかの実施形態では、ピクセルは、異なる位相の位相シフトと、光パルス周波数とを検出する。いくつかの実施形態では、センサーのピクセルは、異なる位相および光パルス周波数を、連続するキャプチャウィンドウ中で検出する。いくつかの実施形態では、カメラアセンブリ180のセンサーのピクセルは、複数のピクセル上電荷貯蔵領域(ビンとも呼ばれる)を有するとともに、単一のキャプチャウィンドウ中に異なる位相の電荷を収集する拡張ピクセルである。これらの実施形態については、図6A~7に関してさらに詳しく記載する。
コントローラ216は、カメラアセンブリ180によってキャプチャされた情報(たとえば、画像)を使って深度情報を判断する。コントローラ216は、ローカルエリア260中のオブジェクトの深度を推定する。コントローラ216は、カメラアセンブリ180のセンサーから電荷情報を受信する。カメラアセンブリ180のセンサーは、異なる位相の光に関連する電荷を蓄積する。カメラアセンブリ180のセンサーは、コントローラ216に電荷情報を伝える。コントローラ216は、カメラアセンブリ180によって検出された構造化光の位相シフトに基づいて、半径方向深度情報を推定する。構造化光符号化は次いで、TOF算出からの推定深度の間を曖昧性除去するのに使われる。このプロセスについては、図3~9を参照してさらに詳細に説明する。コントローラ216については、図9を参照してさらに詳しく記載する。
電子ディスプレイ220は、図9を参照してさらに詳しく記載するコンソール910などのコンソール(図2には示さず)から受信されたデータに従って、ユーザに対して画像を表示するように構成され得る。電子ディスプレイ220は、定義された時間期間中、複数の画像を放出し得る。様々な実施形態において、電子ディスプレイ220は、単一の電子ディスプレイまたは複数の電子ディスプレイ(たとえば、ユーザの各眼用のディスプレイ)を備え得る。電子ディスプレイの例は、液晶ディスプレイ(LCD)、有機発光ダイオード(OLED)ディスプレイ、無機発光ダイオード(ILED)ディスプレイ、アクティブマトリックス有機発光ダイオード(AMOLED)ディスプレイ、透明有機発光ダイオード(TOLED)ディスプレイ、何らかの他のディスプレイ、プロジェクタ、またはそれらの何らかの組合せを含む。
光学ブロック230は、電子ディスプレイ220から受光された画像光を拡大し、画像光に関連する光学収差を修正し、修正された画像光が、HMD100のユーザに提示される。光学ブロック230の少なくとも1つの光学要素は、アパーチャ、フレネルレンズ、屈折レンズ、反射面、回折要素、導波管、フィルタ、または電子ディスプレイ220から放出された画像光に影響するどの他の適切な光学要素であってもよい。その上、光学ブロック230は、異なる光学要素の組合せを含み得る。いくつかの実施形態では、光学ブロック230中の光学要素のうちの1つまたは複数は、反射防止膜、2色性塗膜などのような、1つまたは複数の被膜を有し得る。光学ブロック230による画像光の拡大は、電子ディスプレイ220の要素を、より大きいディスプレイよりも物理的に小さく、重くなくし、少ない電力を消費させる。さらに、拡大により、表示される媒体の視野が増大し得る。たとえば、表示される媒体の視野は、表示される媒体が、視野のほとんどすべて(たとえば、110度対角線)を、およびいくつかのケースでは、すべてを使って提示されるようなものである。さらに、いくつかの実施形態では、拡大の量は、光学要素を追加するか、または取り除くことによって調節することができる。
図3は、1つまたは複数の実施形態による、従来の構造化光ベースの深度判断デバイス300の動作の図である。従来の構造化光ベースの深度判断デバイスでは、構造化光源302が、構造化光を環境中に放出する。構造化光は、符号化された構造化パターンを有し、パルス周波数でパルス状にされ得る。構造化光は、環境中に投射され、環境中の表面またはどの3次元オブジェクトにも反射して、センサー304の方へ戻り得る。環境中のどの表面または3次元オブジェクトも、構造化光源302からの出力パターンを歪める。三角測量算出を使って、センサー304から情報を受信するコントローラ(図示せず)は、歪められたパターンを、放出されたパターンと比較して、センサー304からの、環境中のオブジェクトの距離R316を判断することができる。
三角測量算出は、以下の関係に依拠する。
Figure 2022504010000002
上式で、Rは、センサー304からのオブジェクトの距離R316であり、Bは、構造化光源302からセンサー304までのベースライン306距離であり、θは、投射された光とベースライン306との間のθ314という角度であり、αは、オブジェクトからの反射された光とセンサー表面304との間のα312という角度である。ベースライン距離306Bおよび放出された光角度θ314は、固定され、構造化光ベースの深度判断デバイスの構造および符号化された構造化光によって定義される。α312を判断するために、コントローラは、ピクセル強度の2次元画像を既知の構造化パターンと比較して、構造化光源302からの発生パターンを識別する。従来の構造化光ベースの深度判断デバイスでは、このプロセスは、構造化光符号化の全範囲にわたる完全エピポーラ(full epipolar)コード検索308を伴うはずである。α312の値を判断したことに続いて、コントローラは、関係(1)を使って三角測量算出を実践する。
環境中のオブジェクトのロケーションを判断する、この従来の方法には、いくつかの欠点がある。完全エピポーラコード検索308は、より長い計算時間を必要とする場合があり、したがって、構造化光源302からの出力光と、コントローラが、環境中のオブジェクトの存在およびロケーションを登録することとの間の時間が増大する。この遅延は、従来の構造光ベースの深度判断デバイスが人工現実システムにおいて使われる例において顕著であり得るが、それは、オブジェクトのロケーションの判断は、ユーザに対して仮想コンテンツを表示する際のステップであり得るので、表示画像における視覚遅延につながるからである。さらに、従来の構造化光ベースの深度判断デバイスは、構造化光源302からセンサー304までのベースライン306距離によって定義される範囲限界310を有する。構造化光源302からセンサー304までの間のベースライン306の距離が長いほど、従来の構造化光ベースの深度判断デバイスの深度範囲が大きくなる。従来の構造化光ベースの深度判断デバイスが、形状因子が重要である別のデバイスに組み込まれているケースでは、これは、十分に大きい範囲を達成するために、デバイスの範囲限界またはデバイス上でのサイズ制約につながり得る。さらに、構造化光は、照明なしのエリアによって囲まれた光のパターン化コンスタレーションを含む。これは、画像のかなりの部分が非照明になることにつながり、このことが、いくつかのケースでは、センサー304がピクセルベースのセンサーである場合、センサー中のピクセルの不十分な利用につながり得る(たとえば、センサーアレイの10%未満が、アクティブ構造化光源302から光を集める)。
図4は、1つまたは複数の実施形態による、構造化TOF深度センサー400の図である。構造化TOF深度センサー400は、DMA210の実施形態であってよい。構造化TOF深度センサー400中では、TOF算出を構造化光符号化とともに両方を活用するために、照明源402が、TOFセンサー404と組み合わされる。照明源402は照明源170であってよく、TOFセンサー404は、カメラアセンブリ180の一部であってよい。構造化TOF深度センサー400はコントローラ412も含み、コントローラ412は、図2を参照してさらに詳しく記載したDMA210のコントローラ216であってよい。構造化光符号化とTOF算出の組合せにより、検知範囲の深度を犠牲にすることなく、ベースライン306と比較して、ベースライン406の削減を可能にする。構造化TOF深度センサー400は、コード検索に関連する計算も削減し、これは、TOF算出が、完全エピポーラコード検索308をTOF限定エピポーラ検索408に限定するからである。これについては、以下でさらに詳細に説明する。
いくつかの実施形態では、照明源402は、ローカルエリア260などの環境中に構造化光を放出する。照明源402は、1つまたは複数のパルス周波数レート(別名、パルシング周波数)で構造化光を放出し得る。いくつかの例では、照明源402は、異なる時間パルシング周波数レートで、構造化光を連続して放出する。これについては、図5~9を参照してさらに詳細に説明する。いくつかの実施形態では、照明源402は、対称もしくは擬似ランダムドットパターン、グリッド、水平バー、周期的構造、または任意の他のパターンなど、どの構造化光パターンも放出する。構造化光は、環境中に投射され、表面または環境中のどの3次元オブジェクトにも反射し得る。反射された構造化光は次いで、オブジェクトから、センサー404の方へ戻るように向けられる。いくつかの実施形態では、照明源402または本明細書に記載する任意の他の光源が、一斉に、および均一なフラッド照明に加え、構造化光を放出する。したがって、照明源402は、構造化光と均一なフラッド照明の両方を放出し得る。他の実施形態では、照明源402または本明細書に記載する任意の他の光源が、構造化光を放出することができ、第2の光源が、均一なフラッド照明を放出する。
センサー404は、高速フォトダイオードアレイ、または2次元のピクセル配列をもつ任意の他のTOFセンサーであってもよい。センサー404は、カメラアセンブリ180中に位置するセンサーの1つであってよい。コントローラ412は、センサー404によって提供された情報から、光が、照明源402から環境中のオブジェクトまで、およびセンサー404面まで戻るように移動するのにかかった時間を判断する。この時間は、反射された光の異なる位相に関連するピクセルにおける電荷を蓄積することによって判断され得る。ピクセル情報はコントローラ412に伝えられ、コントローラは次いで、TOF位相シフト算出を実施して、ローカルエリア中のオブジェクトの推定半径方向深度を生成する。いくつかの例では、センサー404は、異なる露出ウィンドウ中に、照明源402の異なる出力パルス周波数に対して、位相シフトの異なるセットを測定することができる。これについては、図5~9を参照してさらに詳細に説明する。従来の構造化光ベースの深度判断デバイスにおけるセンサー304とは異なり、センサー404はしたがって、三角測量測定値を計算するための電荷を蓄積するよりもむしろ、照明源402からの構造化光の複数の位相シフトを測定する。
図4を参照すると、コントローラ412は、照明源402に、2つの異なるパルシング周波数(たとえば、40MHzおよび100MHz)でパルス状構造化光を放出させる。センサー404が、反射されたパルスをキャプチャし、コントローラは、キャプチャされたデータおよびTOF深度判断技法を使って、可能距離のセットを判断する。
センサー404によって検出された複数の位相シフトから生じた照明源402のTOF測定値は、完全には曖昧性除去することができない。たとえば、単一の時間パルシング周波数を使って、コントローラ412のTOF測定値は、TOF算出における2πの曖昧性から各々が得られるいくつかの深度推定値を生じ得る。したがって、TOF測定値は、各々がTOF算出に対する可能解であるとともに2πの因子だけ互いから分離される複数の位相シフト推定値をもたらし得る。複数の位相シフト推定値の各々は、オブジェクトの異なる深度測定値をもたらす。このことは、位相推定値410a、位相推定値410bおよび位相推定値410c(まとめて410)として、図4に示されている。推定値410は、環境中の検出されたオブジェクトの可能半径方向深度の個別領域を定義する。
TOF算出から生じた深度推定値の間を区別するために、コントローラ412は、センサー404によってキャプチャされた画像のうちの少なくとも1つの中の構造化光からの深度情報を使う。したがって、コントローラ412は、センサー404によって生じた画像を、照明源402パターンの符号化と比較すればよい。コントローラ412は、図2に示すコントローラ216であってよい。これは、構造化光符号化を含むルックアップテーブル(LUT)を使って、コントローラ412によって行われ得る。したがって、完全エピポーラコード検索308ではなく、コントローラ412は、TOF算出で出された推定値の領域中で、TOF限定エピポーラ検索408を実施する。センサー404からの画像を構造化光符号化と比較することによって、コントローラ412は、TOF推定値を曖昧性除去し、位相推定値のうちの1つを正しい位相として、および対応する正しい半径方向距離を、半径方向深度推定値のセットから選択する。TOFをSLとともに使用することは、深度の素早い判断をできるようにし、比較的小さいベースラインを使い得る(SLの正確さは、より正確なTOF測定値を曖昧性除去するのに十分であればよいので)ことに留意されたい。したがって、構造化TOF深度センサーは、ベースライン306と比較して、より小さいベースライン406を可能にする。いくつかの例では、ベースライン406は、50mm以下(たとえば、10mm)であり得る。
図5は、1つまたは複数の実施形態による、構造化TOF深度センサーの位相マップ500の部分である。いくつかの例では、位相マップ500は、図4に記載したように、構造化TOF深度センサーから生じられる。したがって、位相マップ500は、図4を参照してさらに詳しく記載したように、センサー404によって検出され得る。位相マップ500は、2つの異なるパルス周波数での構造化光の放出に続いてTOF算出から生じた、曖昧性除去された深度推定値を示す。
照明源(たとえば、照明源402)が、環境中に、第1の位相シフト周波数502で構造化光を投射し得る。第1の位相シフト周波数502は、パルスが出力される第1の時間周波数に対応する、0と2πとの間の位相シフトである(たとえば、典型的な範囲は約1~350MHzであるが、可能性としてはより高く、たとえば、1GHzにまでなる場合もある)。照明源は次いで、第1の位相シフト周波数502とは異なる第2の位相シフト周波数504で、構造化光を投射し得る。第2の位相シフト周波数504は、パルスが出力される第2の時間周波数に対応する、0と2πとの間の位相シフトである。たとえば、照明源は、10MHzでパルスを出力することができ、50MHzでパルスを放出することもできる。いくつかの例では、第1の位相シフト周波数502でローカル環境中に放出される光は構造化光であってよく、第2の位相シフト周波数504でローカル環境中に放出される光は、均一なフラッド光またはどの非符号化光であってもよい。第1の位相シフト周波数502および第2の位相シフト周波数504での光の投射は、異なる時間におけるものであり、センサー(たとえば、センサー404)の異なる露出ウィンドウに対応し得る。構造化光投射のタイミングおよびウィンドウの検知については、図6A~7を参照してさらに詳しく記載する。
位相マップ500は、TOF算出における曖昧性を示す。y軸は、半径方向距離506を示す。位相マップ500は、構造化TOF深度センサーからの距離での、環境中のオブジェクトの検出を表す。検出された範囲のセット、すなわち508a、508b、508c、および508d(まとめて508)は各々、TOF算出に対する位相ラップ解(phase-wrapped solutions)を表し、センサーによって検出された位相シフトに基づく推定半径方向距離のセットに対応する。図示されているものは実際には、位相マップ500の一部分のみであり、というのは、説明しやすいように省略されている、無限大にまで進む検出された範囲の余剰セットがある(実際には、範囲は、シーン中に放出される光の量および撮像されるオブジェクトの反射率によって制限され得ることに留意されたい)はずだからであることに留意されたい。検出された範囲のセット508は本明細書では、推定半径方向距離と呼ばれる。したがって、検出された範囲508a中の解は、上でさらに詳しく記載したように、2πの位相曖昧性だけ、検出された範囲508bによって分離される。たとえば、検出された範囲508の各々は、TOF限定エピポーラ検索408ならびに位相推定値410a、410bおよび410cの、図4に示す領域に対応し得る。位相マップ500を使って、コントローラが、検出された範囲508を構造化光符号化と比較する。コントローラはコントローラ412であってよい。構造化光符号化は、ルックアップテーブル(LUT)中に記憶され得る。したがって、完全エピポーラコード検索308ではなく、コントローラは、TOF算出で出された推定値の領域中で、TOF限定エピポーラ検索408を実施する。いくつかの実施形態では、検出された範囲508とLUTとの間の比較に基づいて、コントローラは、検出された範囲508のうちの1つを選択する。コントローラは次いで、関係(1)を使って三角測量算出を実施して、三角測量深度推定値を生じる。いくつかの実施形態では、コントローラは、照明源によって照明されるローカルエリアを、いくつかの異なる領域に分割し得る。いくつかの実施形態では、コントローラは、TOF算出から三角測量深度推定値の領域までの、推定半径方向距離の対応する領域を識別する。コントローラはしたがって、TOF算出の領域を、三角測量深度推定値の領域と突き合わせる。いくつかの実施形態では、コントローラは次いで、三角測量深度推定値の閾距離内にある半径方向深度推定値を選択する。いくつかの実施形態では、コントローラは、LUTおよび第2の推定半径方向距離に部分的に基づいて、推定半径方向距離を選択する。いくつかの実施形態では、コントローラは、機械学習を使って推定半径方向距離を選択する。いくつかの実施形態では、構造化光照明または三角測量深度推定値のない領域中で、コントローラは、TOF算出からの推定半径方向距離を埋め戻し、かつ/または領域の間を補間すればよい。補間に関して、いくつかの実施形態では、均一な照明パターンが、より明るいスポット(たとえば、ドット)またはヌルスポット(たとえば、暗いドット、すなわち逆ドットパターン)で、いくつかの領域において変調される。このシナリオでは、ほぼすべてのピクセルがTOF情報を有するはずであり、したがってピクセルの有用性が増大し、サブセットのみがSL情報を有することになる。ただし、SL情報は、たとえば、ローカル補間により、TOF推定値の近隣領域をローカルに曖昧性除去するのに使われる場合もある。したがって、三角測量算出の結果を、検出された範囲と比較することによって、検出された範囲508内の推定範囲のうちの1つが、オブジェクトの実際の距離として選択される。
位相シフトに基づくTOF算出を、構造化光符号化に基づく三角測量算出と組み合わせることにより、追加出力光周波数でのオブジェクトの検出の必要なく、位相マップ500に示すTOF位相シフト解の曖昧性除去が可能になる。したがって、センサーの限定露出ウィンドウ内のTOFキャプチャの総数を削減することができ、これについては、以下でさらに詳しく論じる。構造化光TOFセンサーは、三角測量構造化光算出における正確さの低減も起こり得るようにするが、それは、構造化光推定値は、TOF算出の解の間で、すなわち、図4に示すように、完全深度範囲にわたってではなく、検出された範囲508の各々の間で曖昧性除去するのに十分に厳密である必要があればよいからである。こうすることにより、構造化光TOFセンサーの検出能力を犠牲にすることなく、照明源とセンサーとの間のベースライン距離(ベースライン406など)をかなり低下することができる。ベースラインの低減により、HMDまたは構造化TOFセンサーが組み込まれている任意の他のデバイスのより小さい形状因子を可能にすることができる。さらに、より低い正確さおよび精度が必要とされるので、構造化光計算アルゴリズムの複雑さが低減され得る。いくつかの実施形態では、構造化光推定の正確さは、0.5~3メートルの範囲内であってよい。
構造化光符号化をTOF解と組み合わせると、従来のTOF検知における誤差の源である、TOF検知からのマルチパス乱れがさらに削減される。従来のTOFセンサーでは、オブジェクトに反射される、センサーに入射する光と、センサーに達する前に何度か反射した光(すなわち、マルチパス光)との間を区別するのが困難である。ただし、TOF解を構造化光符号化と比較することによって、構造化光パターンと合致しない信号は、拒否され、深度推定値から取り除かれ得る。
図6Aは、1つまたは複数の実施形態による、3つの未加工キャプチャウィンドウをもつ構造化TOF深度センサーのためのピクセルタイミング図600である。ピクセルタイミング図600は、図4に示すセンサー404上に位置するピクセル向けであってよい。時間パルシング周波数602および時間パルシング周波数604は、照明源402によって生じたパルスを指し得る。ピクセルタイミング図600は、ローカルエリアから反射される、照明源402からの光を、未加工データとしてキャプチャする。ピクセルタイミング図600は、他の従来のピクセルタイミング図に勝る向上であり、というのは、構造化光符号化とTOF深度推定値の組合せにより、単一の露出ウィンドウ内の総キャプチャがより少なくなるからである。したがって、センサー電荷読出しおよび/または追加画像キャプチャのために以前に使われたタイミングウィンドウを今度は、追加画像露出のために使うことができ、SNRを、およびしたがって深度精度を増大する。
構造化TOF深度センサー(たとえば、構造化TOF深度センサー400)では、露出ウィンドウが、時間パルシング周波数ごとに未加工データの少なくとも3つのキャプチャウィンドウを有し、位相キャプチャの各々中に、キャプチャの総数の削減および信号対雑音比の向上を可能にする。いくつかの実施形態では、各時間パルシング周波数に対して、3つよりも多いキャプチャウィンドウがあり得る。いくつかの実施形態では、2つより多い時間パルシング周波数があり得る。いくつかの実施形態では、異なる時間パルシング周波数に対するキャプチャウィンドウの数は、互いとは異なる(たとえば、第1の時間パルシング周波数に対しては4、および第2の時間パルシング周波数に対しては3)。
示される図では、各時間パルシング周波数における未加工データ、特に、時間パルシング周波数602における未加工データ606、608、610、ならびに時間パルシング周波数604における未加工データ612、614、および616の3つのキャプチャウィンドウがある。各時間パルシング周波数に対する各未加工データの間には位相差があることに留意されたい。たとえば、未加工データ606、未加工データ608および未加工データ610は、すべてが同じ時間パルシング周波数602(たとえば、10MHz)におけるものであり、すべてが、センサー404と、照明源402からのローカルエリアから反射された光との間の異なる位相オフセットに対して獲得された未加工強度画像である。同様に、未加工データ612、未加工データ614、および未加工データ616はすべて、センサー404と、照明源402からのローカルエリアから反射された光との間の異なる位相オフセットに対して獲得された未加工強度画像である。位相における差は、たとえば、パルスが放出される、および/またはパルスが放出されるときに相対して、構造化TOF深度センサーがアクティブである時間を制御するゲート付きシャッターウィンドウを調節することによって遂行され得る。各未加工データは、ローカルエリアから反射される照明源402から検出された少なくとも1つのパルスに対応する。実際には、各検出されたパルスは、低い信号対雑音(SNR)値を有することができ、複数の検出されたパルス(たとえば、100s、1000s、など)が、(SNRを増大するために)キャプチャされて、キャプチャされた未加工データが読み出される前に単一の未加工データを作り上げる。以下で論じるように、各時間パルシング周波数に対する未加工データは、構造化TOF深度センサーによって、対応するアグリゲート位相を判断するために使われる。
構造化光照明源(たとえば、照明源402)は、第1の時間パルシング周波数602で構造化光を環境中に投射し、投射された構造化光は第1の位相を有する。この第1の時間期間中、構造化TOF深度センサーは、反射されたパルスを未加工データ606としてキャプチャしている。ある程度の閾数の時間(たとえば、検出されたパルスの閾数に対応する)が経過した後、構造化光照明源は、未加工データ606の読出し620を実施する。構造化TOF深度センサーは次いで、位相を、第1の位相(たとえば、照明パルスとセンサーシャッタータイミングとの間の異なるタイミングオフセットに対応する)とは異なる第2の位相に変え、構造化光を第1の時間パルシング周波数602で環境中に投射し、投射された構造化光は第2の位相を有する。この時間期間中、構造化TOF深度センサーは、反射されたパルスを未加工データ608としてキャプチャしている。ある程度の閾数の時間(たとえば、検出されたパルスの閾数に対応する)が経過した後、構造化光照明源は、未加工データ608の読出し620を実施する。構造化TOF深度センサーは次いで、位相を、第1および第2の位相とは異なる第3の位相に変え、構造化光を、第1の時間パルシング周波数602で環境中に投射し、投射された構造化光は第3の位相を有する。この時間期間中、構造化TOF深度センサーは、反射されたパルスを未加工データ610としてキャプチャしている。ある程度の閾数の時間(たとえば、検出されたパルスの閾数に対応する)が経過した後、構造化光照明源は、未加工データ610の読出し620を実施する。未加工データ606、未加工データ608、および未加工データ610は、構造化TOF深度センサーによって、時間パルシング周波数602に対する第1のアグリゲート位相を判断するのに使われる。アグリゲート位相は、ピクセルごとに異なり得る複数の値を有することに留意されたい。
これらの3つのキャプチャウィンドウおよびそれらに関連する読出し620に続いて、構造化光照明源は、第2の時間パルシング周波数604で環境中に構造化光を投射し、投射された構造化光は第1の位相を有する。この時間期間中、構造化TOF深度センサーは、反射されたパルスを未加工データ612としてキャプチャしている。ある程度の閾数の時間(たとえば、検出されたパルスの閾数に対応する)が経過した後、構造化光照明源は、未加工データ612の読出し620を実施する。構造光照明源は次いで、位相を、第1の位相とは異なる第2の位相に変え、構造化光を第2の時間パルシング周波数604で環境中に投射し、投射された構造化光は第2の位相を有する。この時間期間中、構造化TOF深度センサーは、反射されたパルスを未加工データ614としてキャプチャしている。ある程度の閾数の時間(たとえば、検出されたパルスの閾数に対応する)が経過した後、構造化光照明源は、未加工データ614の読出し620を実施する。構造光照明源は次いで、位相を、第1および第2の位相とは異なる第3の位相に変え、構造化光を第2の時間パルシング周波数604で環境中に投射し、投射された構造化光は第3の位相を有する。この時間期間中、構造化TOF深度センサーは、反射されたパルスを未加工データ616としてキャプチャしている。ある程度の閾数の時間(たとえば、検出されたパルスの閾数に対応する)が経過した後、構造化光照明源は、未加工データ616の読出し620を実施する。未加工データ612、未加工データ614、および未加工データ616は、構造化TOF深度センサーによって、時間パルシング周波数604に対する第2のアグリゲート位相を判断するのに使われる。
TOF深度推定値は、従来のTOFセンサーにおけるのとは異なり、時間パルシング周波数602および時間パルシング周波数604からの位相測定値の結果として、完全に曖昧性除去することはできないが、位相生成深度推定値は、構造化光符号化によって後で完全に曖昧性除去されるので、このことは、深度情報を判断する際の障害にはつながらない。総露出時間は、より少ないキャプションの間で分割されるので、位相キャプチャの各々の間に検出された信号の信号対雑音比は、従来のTOFセンサー中よりも良好になる場合があり、TOF深度推定値の向上につながる。アイドル期間は、未加工データ606のキャプチャが繰り返す前の時間期間である。
図6Bは、1つまたは複数の実施形態による、拡張ピクセルをもつ構造化TOF深度センサーのためのピクセルタイミング図620である。ピクセルタイミング図620は、電荷を別個に記憶する複数の電荷貯蔵領域(たとえば、3つ以上の電荷貯蔵領域)を各々が含む拡張ピクセルをもつセンサー用に使われ得る。拡張ピクセルとは、励起光電子を、少なくとも3つの異なるピクセル上記憶サイトの中に連続して記憶するように構成される高速フォトダイオードセンサーであり得る。
示される図では、各時間パルシング周波数における未加工データの1つのキャプチャウィンドウ、特に、時間パルシング周波数630および時間パルシング周波数632における、それぞれ、未加工キャプチャ624および未加工キャプチャ628がある。各未加工キャプチャ内には、実際に、異なる位相における未加工データの複数のキャプチャがあり、異なる位相の各々は、異なる電荷貯蔵領域中でキャプチャされることに留意されたい。たとえば、3つの電荷貯蔵領域を含む拡張ピクセルのケースでは、未加工キャプチャ624は、3つの異なる位相における、たとえば、第1の位相、第2の位相、および第3の位相に対応する、未加工データの一連のキャプチャに下位分割される。各未加工データは、ローカルエリアから反射される照明源402から検出された少なくとも1つのパルスに対応する。上述したように、実際には、各検出されたパルスは、低SNR値を有することができ、複数の検出されたパルス(たとえば、100s、1000s、など)が、(SNRを増大するために)キャプチャされて、キャプチャされた未加工データが読み出される前に単一の未加工データを作り上げる。
いくつかの実施形態では、未加工キャプチャ624および未加工キャプチャ628は、インターリーブ方式で未加工データをキャプチャする。たとえば、構造化光照明源(たとえば、照明源402)は、時間パルシング周波数630で構造化光を環境中に投射し、投射された構造化光は第1の位相を有する。構造化TOF深度センサーは、拡張ピクセルの各々について電荷貯蔵領域1中に記憶されている、第1の位相に対応する単一のパルスについての未加工データをキャプチャする。構造化TOF深度センサーは次いで、位相を、第1の位相とは異なる第2の位相に(たとえば、ゲート付きシャッターウィンドウを使って)変え、構造化光を時間パルシング周波数630で環境中に投射し、投射された構造化光は第2の位相を有する。構造化TOF深度センサーは、拡張ピクセルの各々について電荷貯蔵領域2中に記憶されている、第2の位相に対応する単一のパルスについての未加工データをキャプチャする。構造化TOF深度センサーは次いで、位相を、第1の位相および第2の位相とは異なる第3の位相に変え、構造化光を、時間パルシング周波数630で環境中に投射し、投射された構造化光は第3の位相を有する。構造化TOF深度センサーは、拡張ピクセルの各々について電荷貯蔵領域3中に記憶されている、第3の位相に対応する単一のパルスについての未加工データをキャプチャする。このプロセスは次いで、順に何回か繰り返し、その後、ピクセルの各々についての、電荷貯蔵領域1、2、および3中のキャプチャされた未加工データが620において読み出される。回数は、3つの位相の各々に対するキャプチャされた未加工データについての推定SNRに基づく。各ピクセルの3つの電荷貯蔵領域からの未加工キャプチャ624中の未加工データは、構造化TOF深度センサーによって、時間パルシング周波数630に対する第1のアグリゲート位相を判断するのに使われる。
プロセスは次いで、時間パルシング周波数630とは異なる時間パルシング周波数632を使って繰り返す(たとえば、時間パルシング周波数632は40MHzであってよく、時間パルシング周波数630は100MHzであってよい)。構造化光照明源は、時間パルシング周波数632で構造化光を環境中に投射し、投射された構造化光は第1の位相を有する。構造化TOF深度センサーは、拡張ピクセルの各々について電荷貯蔵領域1中に記憶されている、第1の位相に対応する単一のパルスについての未加工データをキャプチャする。構造化TOF深度センサーは次いで、位相を、第1の位相とは異なる第2の位相に変え、構造化光を時間パルシング周波数632で環境中に投射し、投射された構造化光は第2の位相を有する。構造化TOF深度センサーは、拡張ピクセルの各々について電荷貯蔵領域2中に記憶されている、第2の位相に対応する単一のパルスについての未加工データをキャプチャする。構造化TOF深度センサーは次いで、位相を、第1の位相および第2の位相とは異なる第3の位相に変え、構造化光を、時間パルシング周波数632で環境中に投射し、投射された構造化光は第3の位相を有する。構造化TOF深度センサーは、拡張ピクセルの各々について電荷貯蔵領域3中に記憶されている、第3の位相に対応する単一のパルスについての未加工データをキャプチャする。このプロセスは次いで、順に何回か繰り返し、その後、拡張ピクセルの各々についての、電荷貯蔵領域1、2、および3中のキャプチャされた未加工データが620において読み出される。回数は、3つの位相の各々に対するキャプチャされた未加工データについての推定SNRに基づく。各ピクセルの3つの電荷貯蔵領域からの未加工キャプチャ628中の未加工データは、構造化TOF深度センサーによって、時間パルシング周波数632に対する第2のアグリゲート位相を判断するのに使われる。
上の例では、未加工キャプチャ624および未加工キャプチャ628は、インターリーブ方式で未加工データをキャプチャすることに留意されたい。ただし、他の実施形態では、未加工データは、他の順序、たとえば、線形方式でキャプチャされてよい。たとえば、パルスごとに、電荷貯蔵領域1から、電荷貯蔵領域2に、電荷貯蔵領域3に、次いで、電荷貯蔵領域1に戻って動き、これらの各々についてSNRを増分方式で構築するのではなく、構造化TOF深度センサーは、目標SNRに対応する回数だけ、電荷貯蔵領域1(第1の位相)中の未加工データをキャプチャし、位相を第2の位相に調節し、目標SNRに対応する回数だけ、電荷貯蔵領域2(第2の位相)中の未加工データをキャプチャし、位相を第3の位相に調節し、電荷貯蔵領域3(第2の位相)中の未加工データを、目標SNRに対応する回数だけキャプチャすればよい。アイドル期間は、未加工キャプチャ624が繰り返す前の時間期間である。
タイミング図600と同様に、タイミング図620は、TOF深度推定値の完全曖昧性除去を可能にすることはできないが、構造化光符号化を追加することで、深度推定値は、後で完全に曖昧性除去され得る。図6Aと比べて、6Bでは読出し620が相当に少なく、これにより、時間使用のより優れた最適化(たとえば、読出しに対する時間のより少ない損失)が可能になることに留意されたい。
図7は、1つまたは複数の実施形態による、図6Aおよび図6Bのフォトダイオードセンサーを使用する構造化TOF深度センサーの動作に関するタイミング図700、710および720である。タイミング図710は図6Aのピクセルタイミング図600に対応してよく、タイミング図720は図6Bのピクセルタイミング図620に対応してよい。
タイミング図700、710および720は、水平軸上に時間702を含む。図7に示す時間間隔は、2つの時間間隔706aと706b(まとめて706)との間に分割される。第1の時間間隔706a中、光源が、光(たとえば、構造化光)を環境中に投射する。これは、光パワー704aによって示される。光源は、図4を参照してさらに詳しく記載した照明源402であってよい。光パワー704aは、光源が、時間間隔706a未満の時間持続だけ、環境中に光を投射することを示す。同様に、時間間隔706b中、光源が、光パワー704bによって示されるように、光を環境中に投射する。光パワー704aおよび光パワー704Bは、時間パルシング周波数の光を生じる。図700は、基本的には、時間パルシング周波数での一連のパルスのうちの2つのパルスのものであることに留意されたい。光パワー704aおよび704bの結果として環境中に放出された光は、環境中のオブジェクトに反射し得る。反射された光は、TOFセンサー404などのTOFセンサーに入射する。
タイミング図710には、3つの異なる位相の未加工キャプチャ、すなわち、未加工キャプチャ712aおよび712b、未加工キャプチャ714aおよび714b、ならびに未加工キャプチャ716a、および716bが示されている。本実施形態では、未加工キャプチャ712a、714a、716aのうちのただ1つが、時間間隔706aにわたって起こることになっており、未加工キャプチャ712b、714b、716bのうちのただ1つが時間間隔706bにわたって起こることになっていること、およびそれらは、単に説明しやすいように、一緒に示されていることに留意されたい。たとえば、未加工キャプチャ712aおよび712bは、未加工データ606のパルスのキャプチャに対応してよく、未加工キャプチャ714aおよび714bは、未加工データ608のパルスのキャプチャに対応してよく、未加工キャプチャ716aおよび716bは、未加工データ610のパルスのキャプチャに対応してよい。各未加工キャプチャと、それに対応する光パワーとの間のタイミングの相対的差に留意されたい。したがって、未加工キャプチャ712a、712b、未加工キャプチャ714a、714b、および未加工キャプチャ716a、716bは、互いに対して、異なる位相を有する。
ピクセル電荷図720には、3つの異なる位相の未加工キャプチャ、すなわち、未加工キャプチャ722aおよび722b、未加工キャプチャ724aおよび724b、ならびに未加工キャプチャ726a、および726bが示されている。本実施形態では、未加工キャプチャ722a、724a、726aの各々は、時間間隔706aにわたって起こり、未加工キャプチャ722b、724b、726bの各々は、時間間隔706bにわたって起こることに留意されたい。たとえば、未加工キャプチャ722a、724a、726aおよび後続未加工キャプチャ722b、724b、726bは、未加工キャプチャ624中のパルスのキャプチャに対応してもよい。示される図では、所与のタイミングウィンドウの隣接未加工キャプチャの間に小さい期間があることに留意されたい。これらの小さい期間中、蓄積された電荷は、ドレインに転送されてよい(たとえば、記憶されてよく、収集されなくてよく、または基板へ転送されてよい、など)。他の実施形態では、この時間期間は最小限にされてよい(たとえば、空間なし)。いくつかの実施形態では、隣接未加工キャプチャの間のタイミングは異なってよい(たとえば、未加工キャプチャ722aと未加工キャプチャ724aとの間の時間は、未加工キャプチャ724aと未加工キャプチャ726aとの間の時間とは異なる)。
図8は、1つまたは複数の実施形態による、オブジェクトまでの半径方向距離を判断するためのプロセス800のフローチャートである。プロセス800は、DMA(たとえば、DMA210)によって実施され得る。いくつかの実施形態では、ステップの一部または全部が、実施され、かつ/または他のエンティティ(たとえば、HMDのプロセッサ、コンソールなど)と共有され得る。同様に、実施形態は、異なるおよび/もしくは追加ステップを含み、またはステップを異なる順序で実施し得る。
DMAは、802において、光のパルスを、1つまたは複数のパルス周波数でローカルエリア中に投射する。光のパルスは、コントローラ(たとえば、コントローラ216)からの命令に従って、光源(たとえば、照明源170)によって投射され得る。いくつかの実施形態では、投射される光のパルス周波数は、10~200MHzの間であってよい。投射される光は構造化光であってよい。いくつかの実施形態では、投射される光は、構造化光のパルスが散在する、パターン化されていないフラッド照明の1つまたは複数のパルスを含み得る。DMAは、コントローラ412などのコントローラを介して光源と通信することができ、コントローラは、光源に、パルス周波数で光のパルスを投射するよう命令する。
DMAは、804において、ローカルエリアから反射された光のパルスの画像をキャプチャする。DMAは、カメラアセンブリ(たとえば、カメラアセンブリ180)を使って画像をキャプチャする。キャプチャアセンブリは、コントローラ412など、DMAのコントローラからの命令に従って画像をキャプチャする。
DMAは、806において、キャプチャされた画像のうちの1つまたは複数を使って、光のパルスについての1つまたは複数のTOF位相シフトを判断する。この判断は、図6A~7に示す位相シフトの各々についての、カメラアセンブリのセンサーのピクセルによって蓄積された電荷に部分的に基づき得る。TOF位相シフトについては、図4を参照してさらに詳細に説明している。TOF位相シフトは、図4を参照してさらに詳しく記載したように、ピクセル電荷蓄積に関係する。1つまたは複数のTOF位相シフトは、コントローラ412など、DMAのコントローラによって判断され得る。
DMAは、808において、1つまたは複数のTOF位相シフトに基づいて、ローカルエリア中のオブジェクトまでの推定半径方向距離の第1のセットを判断する。この判断は、図4に示した位相推定値410、および/または図5に示した検出された範囲であり得る。推定半径方向距離は、図4を参照して記載した算出に基づく。1つまたは複数のTOF位相シフトは、放出された光の異なるパルス周波数に対応し得る。推定半径方向距離の第1のセットは、コントローラ412など、DMAのコントローラによって判断され得る。
DMAは、810において、構造化光の符号化およびキャプチャされた画像のうちの少なくとも1つに基づいて、オブジェクトまでの第2の推定半径方向距離を判断する。キャプチャされた画像のうちの少なくとも1つは、構造化光パターンで照明されるローカルエリアの画像である。コントローラ412などのコントローラは、少なくとも1つの画像を使って、ローカルエリア中のオブジェクトについての深度情報を判断する。
DMAは、812において、第2の推定半径方向距離に部分的に基づいて、半径方向距離の第1のセットから、推定半径方向距離を選択する。いくつかの実施形態では、DMAは、選択された推定半径方向距離の閾距離内である第2の推定半径方向距離に部分的に基づいて、推定半径方向距離を選択する。選択は、コントローラ412など、DMAのコントローラによって実践され得る。この選択は、TOF位相シフトからの推定半径方向距離を完全に曖昧性除去し、構造化光符号化についてのLUTへの照会に部分的に基づき得る。曖昧性除去された推定半径方向距離は、図4を参照してさらに詳しく記載したように、推定半径方向距離における2πの曖昧性を指し得る。これは、ローカルエリアの領域のための環境中のオブジェクトの最終的な深度推定値である。閾距離は、たとえば、推定半径方向距離の10%以内であってよい。いくつかの実施形態では、DMAは、LUTおよび第2の推定半径方向距離に部分的に基づいて、推定半径方向距離を選択する。この事例では、DMAは、推定半径方向距離を判断するために、第2の推定半径方向距離をLUTに入力する。いくつかの実施形態では、DMAは、機械学習を使って推定半径方向距離を選択する。この事例では、DMAは、第2の推定半径方向距離を与えられると、推定半径方向距離を選択することができるようにトレーニングされる。DMAは、ローカルエリア260などのローカル環境の深度マップを判断するのに、最終的な深度推定値を使うことができる。DMAは、ローカルエリア260をいくつかの異なる領域に分割し、各領域について上述したように深度推定値を収集し得る。いくつかの実施形態では、DMAは、領域の間を補間することができる。ローカルエリアの完全深度マップが次いで、方法800の複数の反復から組み立てられ得る。
システム概要
図9は、1つまたは複数の実施形態による、人工現実コンテンツを提供するためのシステム環境900のブロック図である。図9に示すシステム環境900は、様々な実施形態において、人工現実コンテンツをユーザに提供し得る。追加または代替として、システム環境900は、1つまたは複数の仮想環境を生成し、ユーザが対話することができる仮想環境をユーザに提示する。図9によって示されるシステム環境900は、頭部搭載型ディスプレイ(HMD)905と、コンソール910に結合される入力/出力(I/O)インターフェース915とを備える。図9は、1つのHMD905および1つのI/Oインターフェース915を含む例示的システム環境900を示すが、他の実施形態では、任意の数のこれらの構成要素がシステム環境900に含まれてよい。たとえば、関連するI/Oインターフェース915を各々が有する複数のHMD905があってよく、各HMD905およびI/Oインターフェース915がコンソール910と通信する。代替構成では、異なるおよび/または追加構成要素がシステム環境900に含まれてよい。さらに、図9に示す構成要素のうちの1つまたは複数とともに記載する機能性が、いくつかの実施形態では、図9とともに記載するのとは異なるやり方で構成要素の間に分散されてよい。たとえば、コンソール910の機能性の一部または全部が、HMD905によって提供される。
頭部搭載型ディスプレイ(HMD)905は、ユーザに対して、コンピュータ生成要素(たとえば、2次元(2D)もしくは3次元(3D)画像、2Dもしくは3Dビデオ、音など)をもつ物理的な実世界環境の拡張ビューを含むコンテンツを提示するか、または仮想環境を含むコンテンツを提示する。いくつかの実施形態では、提示されるコンテンツは、HMD905、コンソール910、または両方からオーディオ情報を受信し、オーディオ情報に基づいてオーディオデータを提示する外部デバイス(たとえば、スピーカーおよび/またはヘッドフォン)により提示されるオーディオを含む。HMD905の実施形態については、図1および図2とともにさらに記載されている。HMD905は、ニアアイディスプレイであってもよい。
HMD905は、DMA920、電子ディスプレイ925、光学ブロック930、1つまたは複数の位置センサー935、およびIMU940を含む。HMD905は、図1~2に示すHMD100であってよい。図2に関してさらに詳しく記載されているように、DMA920はDMA210であってよく、電子ディスプレイ925は電子ディスプレイ220であってよく、光学ブロックは光学ブロック230であってよい。図1に関してさらに詳しく記載されているように、位置センサー935は位置センサー150であってよく、IMU940はIMU140であってよい。HMD905のいくつかの実施形態は、図9とともに記載するものとは異なる構成要素を有する。さらに、図9とともに記載する様々な構成要素によって提供される機能性は、他の実施形態では、HMD905の構成要素の間で異なるように分散されてよい。
DMA920は、HMD905を囲むエリアの深度情報を記述するデータをキャプチャする。DMA920は、照明源402および/または照明源170などの光源を含み、光源は、図2に示すローカルエリア260などの環境中に光を投射する。DMA920は、カメラアセンブリ180などのカメラアセンブリを含む。センサー404など、反射された光のTOF位相シフトに関する電荷を収集するセンサーは、カメラアセンブリの1つの要素であり得る。DMAのコントローラは、TOF位相シフトから、いくつかの半径方向深度推定値を判断する。構造化光符号化が、半径方向深度推定値から選択をするのに使われ、キャプチャされた画像の三角測量算出からの第2の深度推定が、推定された半径方向深度と組み合わされる。三角測量算出は、推定された半径方向深度よりも劣った解像度でよいが、いくつかの半径方向深度推定値の間で曖昧性除去するのに十分である。半径方向深度推定値は次いで、環境中のオブジェクトの深度を判断するために、三角測量算出と組み合わされる。このプロセスについては、図2~8を参照してさらに詳細に説明している。
電子ディスプレイ925は、コンソール910から受信されたデータに従って、2Dまたは3D画像をユーザに対して表示する。様々な実施形態において、電子ディスプレイ925は、単一の電子ディスプレイまたは複数の電子ディスプレイ(たとえば、ユーザの各眼用のディスプレイ)を備える。電子ディスプレイ925の例は、液晶ディスプレイ(LCD)、有機発光ダイオード(OLED)ディスプレイ、アクティブマトリックス有機発光ダイオードディスプレイ(AMOLED)、何らかの他のディスプレイ、またはそれらの何らかの組合せを含む。
光学ブロック930は、電子ディスプレイ925から受光された画像光を拡大し、画像光に関連する光学誤差を修正し、修正された画像光を、HMD905のユーザに対して提示する。様々な実施形態において、光学ブロック930は、1つまたは複数の光学要素を含む。光学ブロック930中に含まれる例示的光学要素は、アパーチャ、フレネルレンズ、凸レンズ、凹レンズ、フィルタ、反射表面、または画像光に影響するどの他の適切な光学要素も含む。その上、光学ブロック930は、異なる光学要素の組合せを含み得る。いくつかの実施形態では、光学ブロック930中の光学要素のうちの1つまたは複数は、反射防止膜など、1つまたは複数の被膜を有し得る。
光学ブロック930による画像光の拡大および集束は、電子ディスプレイ925を、より大きいディスプレイよりも物理的に小さく、重くなくし、少ない電力を消費させる。さらに、拡大は、電子ディスプレイ925によって提示されるコンテンツの視野を増大し得る。たとえば、表示されるコンテンツの視野は、表示されるコンテンツが、ユーザの視野のほとんどすべて(たとえば、ほぼ110度の対角線)を、およびいくつかのケースではすべてを使って提示されるようなものである。さらに、いくつかの実施形態では、拡大の量は、光学要素を追加するか、または取り除くことによって調節することができる。
いくつかの実施形態では、光学ブロック930は、1つまたは複数のタイプの光学誤差を修正するように設計されてよい。光学誤差の例は、たる型歪曲、糸巻型歪曲、縦色収差、または横色収差を含む。他のタイプの光学誤差は、球面収差、コマ収差もしくはレンズフィールド曲率による誤差、非点収差、またはどの他のタイプの光学誤差もさらに含み得る。いくつかの実施形態では、表示のために電子ディスプレイ925に提供されるコンテンツはあらかじめ歪められ、光学ブロック930は、コンテンツに基づいて生成された画像光を電子ディスプレイ925から受信したときに歪みを修正する。
IMU940は、位置センサー935のうちの1つまたは複数から受信された測定信号に基づいて、およびDMA920から受信された深度情報から、HMD905の位置を示すデータを生成する電子デバイスである。位置センサー935は、HMD905の運動に応答して、1つまたは複数の測定信号を生成する。位置センサー935の例は、1つもしくは複数の加速度計、1つもしくは複数のジャイロスコープ、1つもしくは複数の磁力計、運動を検出する別の適切なタイプのセンサー、IMU940の誤差修正のために使われるタイプのセンサー、またはそれらの何らかの組合せを含む。位置センサー935は、IMU940の外部、IMU940の内部、またはそれらの何らかの組合せで位置してよい。
1つまたは複数の位置センサー935からの1つまたは複数の測定信号に基づいて、IMU940は、HMD905の初期位置に相対して、HMD905の推定される現在の位置を示すデータを生成する。たとえば、位置センサー935は、並進運動(前/後、上/下、左/右)を測定するための複数の加速度計と、回転運動(たとえば、ピッチ、ヨー、ロール)を測定するための複数のジャイロスコープとを含む。いくつかの実施形態では、IMU940は、測定信号を迅速にサンプリングし、サンプリングされたデータから、HMD905の推定される現在の位置を算出する。たとえば、IMU940は、時間をかけて加速度計から受信された測定信号を統合して、速度ベクトルを推定し、時間をかけて速度ベクトルを統合して、HMD905上の基準点の推定される現在の位置を判断する。代替として、IMU940は、サンプリングされた測定信号をコンソール910に提供し、コンソールは、誤差を低減するためにデータを解釈する。基準点は、HMD905の位置を記述するのに使うことができる点である。基準点は概して、空間中の点またはHMD905の配向および位置に関係した位置として定義され得る。
IMU940は、コンソール910から1つまたは複数のパラメータを受信する。以下でさらに論じるように、1つまたは複数のパラメータは、HMD905の追跡を維持するのに使われる。受信されたパラメータに基づいて、IMU940は、1つまたは複数のIMUパラメータ(たとえば、サンプルレート)を調節し得る。いくつかの実施形態では、いくつかのパラメータは、IMU940に、基準点の初期位置を更新させ、そうすることによって初期位置は、基準点の次の位置に対応する。基準点の初期位置を、基準点の、次の較正された位置として更新することは、IMU940によって推定された現在の位置に関連する蓄積誤差を低減するのを助ける。ドリフト誤差とも呼ばれる蓄積誤差は、基準点の推定位置を、時間とともに基準点の実際の位置から「ドリフト」させる。HMD905のいくつかの実施形態では、IMU940は専用ハードウェア構成要素であってよい。他の実施形態では、IMU940は、1つまたは複数のプロセッサにおいて実装されるソフトウェア構成要素であってよい。
I/Oインターフェース915は、ユーザが、アクション要求を送り、コンソール910から応答を受信できるようにするデバイスである。アクション要求とは、特定のアクションを実施するための要求である。たとえば、アクション要求は、画像もしくはビデオデータのキャプチャを開始もしくは終了するための命令またはアプリケーション内で特定のアクションを実施するための命令であってよい。I/Oインターフェース915は、1つまたは複数の入力デバイスを含み得る。例示的入力デバイスは、キーボード、マウス、ゲームコントローラ、またはアクション要求を受信し、アクション要求をコンソール910へ通信するための、どの他の適切なデバイスも含む。I/Oインターフェース915によって受信されたアクション要求はコンソール910へ通信され、コンソールは、アクション要求に対応するアクションを実施する。いくつかの実施形態では、I/Oインターフェース915は、I/Oインターフェース915の初期位置に相対した、I/Oインターフェース915の推定位置を示す較正データをキャプチャする、さらに上述したIMU940を含む。いくつかの実施形態では、I/Oインターフェース915は、コンソール910から受信された命令に従って、ユーザに触覚フィードバックを提供してよい。たとえば、アクション要求が受信されるか、またはコンソール910がアクションを実施するときにI/Oインターフェース915に触覚フィードバックを生成させる命令をI/Oインターフェース915へコンソール910が通信したとき、触覚フィードバックが提供される。
コンソール910は、DMA920、HMD905、およびVR I/Oインターフェース915のうちの1つまたは複数から受信された情報に従って、処理のためにHMD905にコンテンツを提供する。図9に示す例では、コンソール910は、アプリケーションストア950、追跡モジュール955およびコンテンツエンジン945を含む。コンソール910のいくつかの実施形態は、図9とともに記載するものとは異なるモジュールまたは構成要素を有する。同様に、以下でさらに説明する機能は、図9とともに記載するのとは異なるように、コンソール910の構成要素の間で分散されてよい。
アプリケーションストア950は、1つまたは複数のアプリケーションを、コンソール910による実行のために記憶する。アプリケーションとは、プロセッサによって実行されると、ユーザへの表示のためにコンテンツを生成する、命令のグループである。アプリケーションによって生成されたコンテンツは、HMD905またはI/Oインターフェース915の動きにより、ユーザから受信された入力に応答し得る。アプリケーションの例は、ゲーム用アプリケーション、会議アプリケーション、ビデオ再生アプリケーション、または他の適切なアプリケーションを含む。
追跡モジュール955は、DMA920、1つもしくは複数の位置センサー935、IMU940またはそれらの何らかの組合せからの情報を使って、HMD905の、またはI/Oインターフェース915の動きを追跡する。たとえば、追跡モジュール955は、HMD905からの情報に基づく、ローカルエリアのマッピングにおいて、HMD905の基準点の位置を判断する。追跡モジュール955はまた、IMU940からの、HMD905の位置を示すデータを使って、またはI/Oインターフェース915に含まれるIMU940からの、I/Oインターフェース915の位置を示すデータを使って、それぞれ、HMD905の基準点またはI/Oインターフェース915の基準点の位置を判断することができる。さらに、いくつかの実施形態では、追跡モジュール955は、IMU940からのHMD905の位置を示すデータの部分ならびにDMA920からの、ローカルエリアの表現を、HMD905の将来のロケーションを予測するのに使うことができる。追跡モジュール955は、HMD905またはI/Oインターフェース915の推定または予測される予想位置をコンテンツエンジン945に提供する。
コンテンツエンジン945は、HMD905中に含まれるDMA920から受信された情報に基づいて、HMD905を囲むエリア(すなわち、「ローカルエリア」)の3Dマッピングを生成する。いくつかの実施形態では、コンテンツエンジン945は、複数の画像中のセンサーのピクセルによってキャプチャされた相対強度から判断された位相シフトから、撮像デバイス中のセンサーの各ピクセルによって判断された深度に基づいて、ローカルエリアの3Dマッピングのための深度情報を判断する。様々な実施形態において、コンテンツエンジン945は、DMA920によって判断された異なるタイプの情報またはDMA920によって判断された情報のタイプの組合せを使って、ローカルエリアの3Dマッピングを生成する。
コンテンツエンジン945はまた、システム環境900内でアプリケーションを実行し、HMD905の、位置情報、加速度情報、速度情報、予測される予想位置、またはそれらの何らかの組合せを追跡モジュール955から受信する。受信された情報に基づいて、コンテンツエンジン945は、ユーザへの表示のためにHMD905に提供するべきコンテンツを判断する。たとえば、受信された情報が、ユーザが左を見ていたことを示す場合、コンテンツエンジン945は、仮想環境中で、またはローカルエリアを追加コンテンツで拡張する環境中で、ユーザの動きを映すHMD905向けのコンテンツを生成する。さらに、コンテンツエンジン945は、I/Oインターフェース915から受信されたアクション要求に応答して、コンソール910上で実行するアプリケーション内でアクションを実施し、アクションが実施されたというフィードバックをユーザに提供する。提供されるフィードバックは、HMD905による視覚もしくは可聴フィードバックまたはI/Oインターフェース915による触覚フィードバックであってよい。
追加構成情報
本開示の実施形態の上記の記述は、説明の目的で提示されており、網羅的であることも、開示した厳密な形に本開示を限定することも意図していない。上記開示を鑑みて、多くの修正および変形が可能であることが、当業者には諒解できよう。
この記述のいくつかの部分は、情報に対する動作のアルゴリズムおよび象徴表現によって本開示の実施形態を記載している。これらのアルゴリズム記述および表現は、データ処理技術の当業者が、自身の仕事の本質を他の当業者に効果的に伝達するために一般に使用される。これらの動作は、機能的に、計算的に、または論理的に記載されているが、コンピュータプログラムまたは等価な電気回路、マイクロコードなどによって実装されるように理解される。さらに、一般性を失わずに、動作のこれらの配置をモジュールとして指すことが、ときには好都合であることもわかっている。記載した動作およびそれらに関連するモジュールは、ソフトウェア、ファームウェア、ハードウェア、またはどのそれらの組合せでも具現化され得る。
本明細書に記載したステップ、動作、またはプロセスのうちのいずれも、1つもしくは複数のハードウェアもしくはソフトウェアモジュールとともに、単独で、または他のデバイスとの組合せで実施または実装されてよい。一実施形態では、ソフトウェアモジュールが、コンピュータプログラムコードを含むコンピュータ可読媒体を備えるコンピュータプログラム製品とともに実装され、コンピュータプログラムコードは、記載したステップ、動作、またはプロセスのいずれかまたはすべてを実施するために、コンピュータプロセッサによって実行することができる。
本開示の実施形態は、本明細書における動作を実施するための装置にも関し得る。この装置は、要求される目的のために特別に組み立てられてよく、かつ/またはコンピュータに記憶されたコンピュータプログラムによって選択的に活動化または再構成される汎用コンピューティングデバイスを備え得る。そのようなコンピュータプログラムは、非一時的、有形コンピュータ可読記憶媒体、または電子命令を記憶するのに適したどのタイプの媒体に記憶されてもよく、媒体は、コンピュータシステムバスに結合されてよい。さらに、本明細書において言及されるどのコンピューティングシステムも、単一のプロセッサを含んでよく、またはコンピューティング能力の増大のために複数のプロセッサ設計を利用するアーキテクチャであってよい。
本開示の実施形態は、本明細書に記載したコンピューティングプロセスによって生産される製品にも関し得る。そのような製品は、コンピューティングプロセスから生じた情報を備えてよく、情報は、非一時的、有形コンピュータ可読記憶媒体に記憶され、製品は、本明細書に記載するコンピュータプログラム製品または他のデータ組合せのどの実施形態をも含み得る。
最後に、本明細書において使われる言葉は、主として、可読性および指示目的のために選択されており、本発明の主題を説明または画定するようには選択されていない場合がある。したがって、本開示の範囲は、この詳細な説明によってではなく、むしろ、本明細書に基づく適用に由来する任意の請求項によって限定されることが意図されている。したがって、実施形態の開示は、添付の請求項において説明される、本開示の範囲の例示であって、限定でないことが意図されている。

Claims (32)

  1. 深度測定アセンブリ(DMA)であって、
    照明源であって、前記照明源は、光パルスを、時間パルシング周波数でローカルエリア中に投射するように構成される、照明源と、
    センサーであって、
    前記ローカルエリアから反射された前記光パルスの画像をキャプチャすることと、
    前記キャプチャされた画像のうちの1つまたは複数を使って、前記光パルスについての1つまたは複数の飛行時間(TOF)位相シフトを判断することと
    を行うように構成されたセンサーと、
    前記センサーに結合されたコントローラであって、
    前記1つまたは複数のTOF位相シフトに基づいて、前記ローカルエリア中のオブジェクトまでの推定半径方向距離の第1のセットを判断することと、
    構造化光の符号化および前記キャプチャされた画像のうちの少なくとも1つに基づいて、前記オブジェクトまでの第2の推定半径方向距離を判断することと、
    前記第2の推定半径方向距離に部分的に基づいて、半径方向距離の前記第1のセットから、推定半径方向距離を選択することとを
    行うように構成されたコントローラと
    を備えるDMA。
  2. 前記照明源は、構造化光のパルスを、第1の時間において第1の時間パルシング周波数で、および前記第1の時間に続く第2の時間において第2の時間パルシング周波数で投射するように構成される、請求項1に記載のDMA。
  3. 前記センサーは、前記第1の時間パルシング周波数および前記第2の時間パルシング周波数の各々について、
    前記パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウを使って第1の未加工データをキャプチャすることと、
    前記パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に第2の未加工データをキャプチャすることと、
    前記パルス状照明に対して第1のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に第3の未加工データをキャプチャすることとを行うように構成される、請求項2に記載のDMA。
  4. 前記第1の時間パルシング周波数における前記第1の未加工データは、前記第2の未加工データをキャプチャするのに先立って読み出され、前記第1の時間パルシング周波数での前記第2の未加工データは、前記第1の時間パルシング周波数での前記第3の未加工データをキャプチャするのに先立って読み出される、請求項3に記載のDMA。
  5. 前記センサーは複数の拡張ピクセルを備え、各拡張ピクセルは3つの電荷貯蔵領域を含み、前記第1の時間パルシング周波数で、第1の電荷貯蔵領域は、前記パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウ中に、第1の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の第2のセットは、前記パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に、前記第1の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の第3のセットは、前記パルス状照明に対して第3のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に、前記第1の未加工キャプチャに関連する電荷を収集する、請求項2に記載のDMA。
  6. 前記第2の時間パルシング周波数において、前記第1の電荷貯蔵領域は、前記パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウ中に、第2の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の前記第2のセットは、前記パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に、前記第2の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の前記第3のセットは、前記パルス状照明に対して第3のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に、前記第2の未加工キャプチャに関連する電荷を収集する、請求項5に記載のDMA。
  7. 前記第1の時間パルシング周波数での前記第1の未加工キャプチャは、前記第2の時間パルシング周波数での前記第2の未加工キャプチャに先立って読み出される、請求項6に記載のDMA。
  8. 前記投射される光パルスは、構造化光ドットパターンを重ねられたフラッド照明からなり、前記ドットパターン中の各ドットは、前記フラッド照明の輝度よりも明るい輝度を有する、請求項1に記載のDMA。
  9. 前記投射される光パルスは、構造化光ドットパターンを重ねられたフラッド照明からなり、前記ドットパターン中の各ドットは、前記フラッド照明の輝度値未満の輝度値を有する、請求項1に記載のDMA。
  10. 前記照明源と前記センサーとの間の距離は50mm以下である、請求項1に記載のDMA。
  11. 前記コントローラは、半径方向距離の前記第1のセットからの前記選択された推定半径方向距離に基づいて、前記ローカルエリアの深度マップを取得するようにさらに構成される、請求項1に記載のDMA。
  12. 深度測定アセンブリ(DMA)であって、
    照明源であって、前記照明源は、光パルスを、1つまたは複数の時間パルシング周波数でローカルエリア中に投射するように構成される、照明源と、
    センサーであって、
    前記ローカルエリアから反射された前記光パルスの画像をキャプチャすることと、
    前記キャプチャされた画像のうちの1つまたは複数を使って、前記光パルスについての1つまたは複数の飛行時間(TOF)位相シフトを判断することと
    を行うように構成されたセンサーと、
    前記センサーに結合された人工現実デバイスであって、
    前記1つまたは複数のTOF位相シフトに基づいて、前記ローカルエリア中のオブジェクトまでの推定半径方向距離の第1のセットを判断することと、
    構造化光の符号化および前記キャプチャされた画像のうちの少なくとも1つに基づいて、前記オブジェクトまでの第2の推定半径方向距離を判断することと、
    前記第2の推定半径方向距離に部分的に基づいて、半径方向距離の前記第1のセットから、推定半径方向距離を選択することと
    を行うように構成された人工現実デバイスと
    を備えるDMA。
  13. 前記人工現実デバイスは、半径方向距離の前記第1のセットからの前記選択された推定半径方向距離に基づいて、前記ローカルエリアの深度マップを取得するようにさらに構成される、請求項12に記載のDMA。
  14. 前記人工現実デバイスは頭部搭載型ディスプレイ(HMD)であり、前記DMAは前記HMDの一部であり、前記HMDは、
    前記ローカルエリアの前記深度マップに部分的に基づいて仮想オブジェクトを表示するように構成された電子ディスプレイ要素と、
    前記電子ディスプレイ要素から前記HMDの射出瞳に光を向けるように構成された光学ブロックとを備える、請求項13に記載のDMA。
  15. 前記照明源は、構造化光のパルスを、第1の時間において第1の時間パルシング周波数で、および前記第1の時間に続く第2の時間において第2の時間パルシング周波数で投射するように構成される、請求項12に記載のDMA。
  16. 前記センサーは、前記第1の時間パルシング周波数および前記第2の時間パルシング周波数の各々について、
    前記パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウを使って第1の未加工データをキャプチャすることと、
    前記パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に第2の未加工データをキャプチャすることと、
    前記パルス状照明に対して第1のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に第3の未加工データをキャプチャすることとを行うように構成される、請求項15に記載のDMA。
  17. 前記第1の時間パルシング周波数における前記第1の未加工データは、前記第2の未加工データをキャプチャするのに先立って読み出され、前記第1の時間パルシング周波数での前記第2の未加工データは、前記第1の時間パルシング周波数での前記第3の未加工データをキャプチャするのに先立って読み出される、請求項16に記載のDMA。
  18. 前記センサーは複数の拡張ピクセルを備え、各拡張ピクセルは3つの電荷貯蔵領域を含み、前記第1の時間パルシング周波数で、第1の電荷貯蔵領域は、前記パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウ中に、第1の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の第2のセットは、前記パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に、前記第1の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の第3のセットは、前記パルス状照明に対して第3のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に、前記第1の未加工キャプチャに関連する電荷を収集する、請求項15に記載のDMA。
  19. 前記第2の時間パルシング周波数において、前記第1の電荷貯蔵領域は、前記パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウ中に、第2の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の前記第2のセットは、前記パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に、前記第2の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の前記第3のセットは、前記パルス状照明に対して第3のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に、前記第2の未加工キャプチャに関連する電荷を収集する、請求項18に記載のDMA。
  20. 前記第1の時間パルシング周波数での前記第1の未加工キャプチャは、前記第2の時間パルシング周波数での前記第2の未加工キャプチャに先立って読み出される、請求項19に記載のDMA。
  21. 深度測定アセンブリ(DMA)であって、
    照明源であって、前記照明源は、光パルスを、1つまたは複数の時間パルシング周波数でローカルエリア中に投射するように構成される、照明源と、
    センサーであって、
    前記ローカルエリアから反射された前記光パルスの画像をキャプチャすることと、
    前記キャプチャされた画像のうちの1つまたは複数を使って、前記光パルスについての1つまたは複数の飛行時間(TOF)位相シフトを判断することと
    を行うように構成されたセンサーと、
    前記センサーに結合されたコントローラおよび/または人工現実デバイスであって、
    前記1つまたは複数のTOF位相シフトに基づいて、前記ローカルエリア中のオブジェクトまでの推定半径方向距離の第1のセットを判断することと、
    構造化光の符号化および前記キャプチャされた画像のうちの少なくとも1つに基づいて、前記オブジェクトまでの第2の推定半径方向距離を判断することと、
    前記第2の推定半径方向距離に部分的に基づいて、半径方向距離の前記第1のセットから、推定半径方向距離を選択することと
    を行うように構成されたコントローラおよび/または人工現実デバイスと
    を備えるDMA。
  22. 前記照明源は、構造化光のパルスを、第1の時間において第1の時間パルシング周波数で、および前記第1の時間に続く第2の時間において第2の時間パルシング周波数で投射するように構成される、請求項21に記載のDMA。
  23. 前記センサーは、前記第1の時間パルシング周波数および前記第2の時間パルシング周波数の各々について、
    前記パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウを使って第1の未加工データをキャプチャすることと、
    前記パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に第2の未加工データをキャプチャすることと、
    前記パルス状照明に対して第1のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に第3の未加工データをキャプチャすることとを行うように構成される、請求項22に記載のDMA。
  24. 前記第1の時間パルシング周波数における前記第1の未加工データは、前記第2の未加工データをキャプチャするのに先立って読み出され、前記第1の時間パルシング周波数での前記第2の未加工データは、前記第1の時間パルシング周波数での前記第3の未加工データをキャプチャするのに先立って読み出される、請求項23に記載のDMA。
  25. 前記センサーは複数の拡張ピクセルを備え、各拡張ピクセルは3つの電荷貯蔵領域を含み、前記第1の時間パルシング周波数で、第1の電荷貯蔵領域は、前記パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウ中に、第1の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の第2のセットは、前記パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に、前記第1の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の第3のセットは、前記パルス状照明に対して第3のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に、前記第1の未加工キャプチャに関連する電荷を収集する、請求項22から24のいずれか一項に記載のDMA。
  26. 前記第2の時間パルシング周波数において、前記第1の電荷貯蔵領域は、前記パルス状照明に対して第1のタイミングシフトをもつ第1のゲート付きシャッターウィンドウ中に、第2の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の前記第2のセットは、前記パルス状照明に対して第2のタイミングシフトをもつ第2のゲート付きシャッターウィンドウ中に、前記第2の未加工キャプチャに関連する電荷を収集し、電荷貯蔵領域の前記第3のセットは、前記パルス状照明に対して第3のタイミングシフトをもつ第3のゲート付きシャッターウィンドウ中に、前記第2の未加工キャプチャに関連する電荷を収集する、請求項25に記載のDMA。
  27. 前記第1の時間パルシング周波数での前記第1の未加工キャプチャは、前記第2の時間パルシング周波数での前記第2の未加工キャプチャに先立って読み出される、請求項26に記載のDMA。
  28. 前記投射される光パルスは、構造化光ドットパターンを重ねられたフラッド照明からなり、前記ドットパターン中の各ドットは、前記フラッド照明の輝度よりも明るい輝度を有する、請求項21から27のいずれか一項に記載のDMA。
  29. 前記投射される光パルスは、構造化光ドットパターンを重ねられたフラッド照明からなり、前記ドットパターン中の各ドットは、前記フラッド照明の輝度値未満の輝度値を有する、請求項21から28のいずれか一項に記載のDMA。
  30. 前記照明源と前記センサーとの間の距離は50mm以下である、請求項21から29のいずれか一項に記載のDMA。
  31. 前記コントローラおよび/または前記人工現実デバイスは、半径方向距離の前記第1のセットからの前記選択された推定半径方向距離に基づいて、前記ローカルエリアの深度マップを取得するようにさらに構成される、請求項21から30のいずれか一項に記載のDMA。
  32. 前記人工現実デバイスは頭部搭載型ディスプレイ(HMD)であり、前記DMAは前記HMDの一部であり、前記HMDは、
    前記ローカルエリアの前記深度マップに部分的に基づいて仮想オブジェクトを表示するように構成された電子ディスプレイ要素と、
    前記電子ディスプレイ要素から前記HMDの射出瞳に光を向けるように構成された光学ブロックとを備える、請求項21から31のいずれか一項に記載のDMA。
JP2021506930A 2018-09-14 2018-12-13 構造化光源および飛行時間カメラ付き深度測定アセンブリ Active JP7254903B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/131,618 US10916023B2 (en) 2018-09-14 2018-09-14 Depth measurement assembly with a structured light source and a time of flight camera
US16/131,618 2018-09-14
PCT/US2018/065387 WO2020055443A1 (en) 2018-09-14 2018-12-13 Depth measurement assembly with a structured light source and a time of flight camera

Publications (2)

Publication Number Publication Date
JP2022504010A true JP2022504010A (ja) 2022-01-13
JP7254903B2 JP7254903B2 (ja) 2023-04-10

Family

ID=69773038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021506930A Active JP7254903B2 (ja) 2018-09-14 2018-12-13 構造化光源および飛行時間カメラ付き深度測定アセンブリ

Country Status (5)

Country Link
US (3) US10916023B2 (ja)
EP (1) EP3850835A4 (ja)
JP (1) JP7254903B2 (ja)
CN (1) CN113016177B (ja)
WO (1) WO2020055443A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024004645A1 (ja) * 2022-06-29 2024-01-04 ソニーセミコンダクタソリューションズ株式会社 測距装置、測距システム、および測距方法

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3803266A4 (en) 2018-06-06 2022-03-09 Magik Eye Inc. DISTANCE MEASUREMENT USING HIGH DENSITY PROJECTION PATTERNS
US10939089B1 (en) * 2018-12-13 2021-03-02 Facebook Technologies, Llc Calibration apparatus for time of flight depth sensor
US11483503B2 (en) 2019-01-20 2022-10-25 Magik Eye Inc. Three-dimensional sensor including bandpass filter having multiple passbands
KR102008890B1 (ko) * 2019-01-25 2019-08-08 단국대학교 산학협력단 3차원 프로파일 측정 방법
US11474209B2 (en) 2019-03-25 2022-10-18 Magik Eye Inc. Distance measurement using high density projection patterns
WO2021040476A1 (ko) * 2019-08-30 2021-03-04 엘지이노텍 주식회사 Tof 카메라
EP4065929A4 (en) * 2019-12-01 2023-12-06 Magik Eye Inc. IMPROVEMENT OF TRIANGULATION-BASED THREE-DIMENSIONAL DISTANCE MEASUREMENTS WITH TIME OF FLIGHT INFORMATION
US11069104B1 (en) * 2020-05-13 2021-07-20 Facebook Technologies, Llc Display that uses a light sensor to generate environmentally matched artificial reality content
WO2021253321A1 (zh) * 2020-06-18 2021-12-23 深圳市汇顶科技股份有限公司 飞时测距方法与相关***
JP2023552974A (ja) * 2020-11-13 2023-12-20 トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング ディスプレイを介する深度測定
US20220171059A1 (en) * 2020-12-02 2022-06-02 Waymo Llc Dynamic sensing channel multiplexing for lidar applications
US11994591B2 (en) * 2020-12-08 2024-05-28 Zoox, Inc. Determining depth using multiple modulation frequencies
WO2022161964A1 (en) * 2021-01-27 2022-08-04 Sony Semiconductor Solutions Corporation Three-dimensional image capturing according to time-of-flight measurement and light spot pattern measurment
KR20230161951A (ko) * 2021-03-26 2023-11-28 퀄컴 인코포레이티드 혼합 모드 깊이 이미징
CN113188450B (zh) * 2021-04-23 2023-03-14 封泽希 基于结构光的场景深度检测方法及***
WO2023077412A1 (zh) * 2021-11-05 2023-05-11 华为技术有限公司 一种物体测距方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160334509A1 (en) * 2015-05-13 2016-11-17 Infineon Technologies Ag Structured-light based multipath cancellation in tof imaging
US20170206660A1 (en) * 2016-01-15 2017-07-20 Oculus Vr, Llc Depth mapping using structured light and time of flight

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8629976B2 (en) * 2007-10-02 2014-01-14 Microsoft Corporation Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems
WO2010006081A1 (en) * 2008-07-08 2010-01-14 Chiaro Technologies, Inc. Multiple channel locating
CN103477186B (zh) * 2011-04-07 2016-01-27 松下知识产权经营株式会社 立体摄像装置
US8896594B2 (en) 2012-06-30 2014-11-25 Microsoft Corporation Depth sensing with depth-adaptive illumination
US9602807B2 (en) * 2012-12-19 2017-03-21 Microsoft Technology Licensing, Llc Single frequency time of flight de-aliasing
WO2014165244A1 (en) * 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US10061028B2 (en) * 2013-09-05 2018-08-28 Texas Instruments Incorporated Time-of-flight (TOF) assisted structured light imaging
CN107912061B (zh) 2015-03-06 2021-06-01 伊利诺斯工具制品有限公司 用于焊接的传感器辅助头戴式显示器
US10154254B2 (en) * 2017-01-17 2018-12-11 Facebook Technologies, Llc Time-of-flight depth sensing for eye tracking
US10810753B2 (en) * 2017-02-27 2020-10-20 Microsoft Technology Licensing, Llc Single-frequency time-of-flight depth computation using stereoscopic disambiguation
US10628950B2 (en) 2017-03-01 2020-04-21 Microsoft Technology Licensing, Llc Multi-spectrum illumination-and-sensor module for head tracking, gesture recognition and spatial mapping
US10445893B2 (en) 2017-03-10 2019-10-15 Microsoft Technology Licensing, Llc Dot-based time of flight
GB201704443D0 (en) * 2017-03-21 2017-05-03 Photonic Vision Ltd Time of flight sensor
US10598768B2 (en) * 2017-05-24 2020-03-24 Microsoft Technology Licensing, Llc Multipath mitigation for time of flight system
US20190068853A1 (en) * 2017-08-22 2019-02-28 Microsoft Technology Licensing, Llc Structured light and flood fill light illuminator
US10613228B2 (en) * 2017-09-08 2020-04-07 Microsoft Techology Licensing, Llc Time-of-flight augmented structured light range-sensor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160334509A1 (en) * 2015-05-13 2016-11-17 Infineon Technologies Ag Structured-light based multipath cancellation in tof imaging
US20170206660A1 (en) * 2016-01-15 2017-07-20 Oculus Vr, Llc Depth mapping using structured light and time of flight

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024004645A1 (ja) * 2022-06-29 2024-01-04 ソニーセミコンダクタソリューションズ株式会社 測距装置、測距システム、および測距方法

Also Published As

Publication number Publication date
CN113016177A (zh) 2021-06-22
US20210383560A1 (en) 2021-12-09
CN113016177B (zh) 2023-05-09
WO2020055443A1 (en) 2020-03-19
EP3850835A1 (en) 2021-07-21
US11132805B2 (en) 2021-09-28
JP7254903B2 (ja) 2023-04-10
EP3850835A4 (en) 2021-11-03
US20200090355A1 (en) 2020-03-19
US11625845B2 (en) 2023-04-11
US20210082134A1 (en) 2021-03-18
US10916023B2 (en) 2021-02-09

Similar Documents

Publication Publication Date Title
JP7254903B2 (ja) 構造化光源および飛行時間カメラ付き深度測定アセンブリ
JP6827073B2 (ja) 構造化光およびタイムオブフライトを用いた深度マッピング
US10410373B1 (en) Calibration of a phase interferometry depth camera assembly
US10469722B2 (en) Spatially tiled structured light projector
US10791283B2 (en) Imaging device based on lens assembly with embedded filter
US11348262B1 (en) Three-dimensional imaging with spatial and temporal coding for depth camera assembly
US11399139B2 (en) High dynamic range camera assembly with augmented pixels
US10957059B1 (en) Multi-pattern depth camera assembly
US10791286B2 (en) Differentiated imaging using camera assembly with augmented pixels
US11509803B1 (en) Depth determination using time-of-flight and camera assembly with augmented pixels
US10491877B1 (en) Depth camera assembly using multiplexed sensor phase measurements to determine depth using fringe interferometry
US10574938B1 (en) Variable frame rate depth camera assembly
US10855973B1 (en) Depth mapping using fringe interferometry
US10852434B1 (en) Depth camera assembly using fringe interferometery via multiple wavelengths

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230329

R150 Certificate of patent or registration of utility model

Ref document number: 7254903

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150