JP7321246B2 - ハイブリッド飛行時間型イメージャモジュール - Google Patents

ハイブリッド飛行時間型イメージャモジュール Download PDF

Info

Publication number
JP7321246B2
JP7321246B2 JP2021503144A JP2021503144A JP7321246B2 JP 7321246 B2 JP7321246 B2 JP 7321246B2 JP 2021503144 A JP2021503144 A JP 2021503144A JP 2021503144 A JP2021503144 A JP 2021503144A JP 7321246 B2 JP7321246 B2 JP 7321246B2
Authority
JP
Japan
Prior art keywords
scene
sensor
light
tof
illumination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021503144A
Other languages
English (en)
Other versions
JP2021532648A (ja
Inventor
オナル,ケイナー
シュロイニング,デイビッド
ハーマリン,ブレンダン
ヴァーギーズ,サイモン
マコーリー,アレックス
ホワイト,ブランディン
ジリンスキー,ユーリー
Original Assignee
ウェイモ エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウェイモ エルエルシー filed Critical ウェイモ エルエルシー
Publication of JP2021532648A publication Critical patent/JP2021532648A/ja
Application granted granted Critical
Publication of JP7321246B2 publication Critical patent/JP7321246B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4804Auxiliary means for detecting or identifying lidar signals or the like, e.g. laser illuminators
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Studio Devices (AREA)
  • Pharmaceuticals Containing Other Organic And Inorganic Compounds (AREA)
  • Catching Or Destruction (AREA)
  • Diaphragms For Electromechanical Transducers (AREA)

Description

関連出願の相互参照
本出願は、2018年7月31日に出願された米国特許出願第62/712,586号および2018年12月21日に出願された米国特許出願第16/229,193号の利益を主張し、その内容は参照により本明細書に組み込まれる。
イメージングセンサは通常、シーンの高品質で高解像度の2次元画像を提供するが、一般的に深度情報を提供しない。飛行時間型(ToF)センサは通常、シーンに関する低解像度の深度情報を提供するが、反射率の高いまたは吸収性の高い素材を撮像する場合、迷光の「ブルーミング」の影響を受けたり、不正確な深度情報を提供したりする可能性がある。
本開示は、イメージングセンサおよびToFセンサの態様を有益に組み合わせて、より正確でより高解像度の深度情報を提供する。
第1の態様では、システムが提供される。システムは、少なくとも1つの飛行時間型(ToF)センサおよびイメージングセンサを含む。少なくとも1つのToFセンサおよびイメージングセンサは、シーンからの光を受光するように構成される。システムはまた、少なくとも1つの光源を含む。システムは、動作を行うコントローラをさらに含む。動作は、少なくとも1つの光源に、照明スケジュールに従ってシーンの少なくとも一部を照明光で照明させることを含む。動作は、少なくとも1つのToFセンサに、照明光に基づいたシーンの深度マップを示す情報を提供させることを含む。動作はまた、イメージングセンサに、照明光に基づいたシーンの画像を示す情報を提供させることを含む。
第2の態様では、方法が提供される。方法は、少なくとも1つの光源に、照明スケジュールに従ってシーンを照明光で照明させることを含む。方法はまた、飛行時間型(ToF)センサに、照明光に基づいたシーンの深度マップを示す情報を提供させることを含む。方法は、イメージングセンサに、照明光に基づいてシーンの画像を示す情報を提供させることをさらに含む。
第3の態様では、方法が提供される。方法は、第1の車両と第2の車両が互いに閾値距離内にあると判定することを含む。第1の車両および第2の車両の各々は、それぞれのハイブリッドイメージングシステムを含む。ハイブリッドイメージングシステムは、少なくとも1つの飛行時間型(ToF)センサおよびイメージングセンサを含む。少なくとも1つのToFセンサおよびイメージングセンサは、シーンからの光を受光するように構成される。ハイブリッドイメージングシステムは、少なくとも1つの光源を含む。方法は、少なくとも1つのToFセンサ、イメージングセンサ、または少なくとも1つの光源の少なくとも1つの動作パラメータを調整することをさらに含む。
第4の態様では、方法が提供される。方法は、事前情報を提供することを含む。事前情報は、シーンの3次元情報を含む。方法はまた、少なくとも1つの光源に、照明スケジュールに従ってシーンを照明光で照明させることを含む。方法は、飛行時間型(ToF)センサに、照明光に基づいたシーンの深度マップを示す情報を提供させることをさらに含む。方法はまた、イメージングセンサに、照明光に基づいたシーンの画像を示す情報を提供させることを含む。
他の態様、実施形態、および実装は、添付図面の適切な箇所を参照して、以下の詳細な説明を読み取ることによって、当業者には明らかになるであろう。
図1は、例示的な実施形態によるシステムを示している。 図2は、例示的な実施形態によるシステムの動作シナリオを示している。 図3Aは、例示的な実施形態による車両を示している。 図3Bは、例示的な実施形態によるセンサユニットを示している。 図3Cは、例示的な実施形態による光源を示している。 図4Aは、例示的な実施形態による感知シナリオを示している。 図4Bは、例示的な実施形態による感知シナリオを示している。 図5は、例示的な実施形態による方法を示している。 図6は、例示的な実施形態による方法を示している。 図7は、例示的な実施形態による方法を示している。
例示的な方法、デバイス、およびシステムが、本明細書に記載されている。「例」および「例示的」という語は、本明細書においては、「例、事例、または例示としての役割を果たす」ことを意味するために使用されることを理解されたい。本明細書において「例」または「例示的」であるとして説明されるいずれの実施形態または特徴も、他の実施形態または特徴よりも好ましい、または有利であると必ずしも解釈されるべきではない。本明細書に提示される主題の範囲から逸脱することなく、他の実施形態を利用することができ、他の変更を行うことができる。
したがって、本明細書に記載される例示的な実施形態は、限定的であることを意味するものではない。本明細書において概略説明され、図に示される本開示の態様は、多種多様な異なる構成で配置、置換、組合わせ、分離、および設計が可能であり、これらの構成のすべてが、本明細で検討されている。
さらに、文脈上特段の示唆がある場合を除き、各図に示された特徴を、互いに組み合わせて使用することができる。このように、図は一般に、例示されるすべての特徴が実施形態ごとに必要である訳ではないという理解の下に、1つ以上の概略実施形態の構成態様として考えられるべきである。
I. 概要
ハイブリッドイメージングシステムは、1)少なくとも1つのToFセンサと、2)イメージングセンサと、3)連続照明光、パルス照明光、または非周期照明光を使用してシーンを照明するための少なくとも1つの光源と、4)コンピュータ、プロセッサ、および/またはディープニューラルネットを含んでもよいコントローラと、を含むことができる。ToFセンサおよびイメージングセンサは、互いに空間的に登録されてもよく、同じ光路の重なり合う部分を利用してもよい。
そのようなハイブリッドイメージングシステムの、複数のセンサユニットの各センサユニットは、車両の各側面(または各コーナー)に取り付けることができる。それぞれのセンサユニットは、車両のさまざまな場所にある1つまたは複数の回転プラットフォームに取り付けることもできる。例示的な実施形態では、各センサユニットは、車両の周囲のシーンに関する180度の視野を含んでいてもよい。いくつかの実施形態では、センサユニットは、車両の周囲の環境に関する視野が部分的に重なるように車両上に配置することができる。
例示的な実施形態では、ブルーミングまたは他の深度情報アーチファクトを回避するために、複数のToFセンサを、所与のセンサユニット内の1つまたは複数のイメージセンサに関連付けることができる。鏡面反射やその他の明るい光源からのブルーミングの影響を減らすために、それぞれのToFセンサを分散させる(例えば、10cm以上離す)ことができる。いくつかの実施形態では、ToFセンサは、10~100MHzの間で動作することができるが、他の動作周波数も検討されており可能である。いくつかの実施形態では、それぞれのToFセンサの動作周波数は、所望の最大深度感知範囲に基づいて調整されてもよい。例えば、ToFセンサは、約7.5メートルの所望の深度検知範囲(例えば、明確な範囲)に対して20MHzで動作させることができる。いくつかの実施形態では、ToFセンサは、100メートル以上の所望の最大深度感知範囲を有することができる。
いくつかの実施形態では、ToFセンサは、CMOSまたはCCD受光素子(例えば、シリコンPINダイオード)を含むことができる。しかしながら、他のタイプのToFセンサおよびToFセンサ素子も検討されている。場合によっては、さまざまな位相シフトモード(例えば、2倍または4倍の位相シフト)を使用して、ToFセンサを操作することができる。
いくつかの実施形態では、イメージングセンサは、メガピクセルタイプのカメラセンサなどのRGBイメージングセンサを含むことができる。イメージングセンサは、複数のCMOSまたはCCD受光素子を含むことができる。
いくつかの例では、1つまたは複数の光源を使用して、シーン(またはシーンのそれぞれの部分)を照明することができる。そのようなシナリオでは、光源を変調して、深度情報を提供するToFセンサと組み合わせて使用可能な所定の光パルス(または一連の光パルス)を提供することができる。追加的にまたは代替的に、イメージングセンサに所望の露出を提供するために、一連の光パルス(例えば、パルス繰り返し率、パルス持続時間、および/またはデューティサイクル)を選択することができる。
1つまたは複数の光源は、車両の一部分に沿って配置されたライトストリップを含むことができる。追加的または代替的に、1つまたは複数の光源は、ライトパネルのグリッドを含むことができ、ライトパネルの各セグメントは、個別に異なる光パルスを提供することができる。またさらに、1つまたは複数の光源は、点ごとにおよび/またはスキャン方式で移動可能な1つまたは複数の光線を、提供することができる。
1つまたは複数の光源は、連続波(CW)および/またはパルス(例えば、正弦波、鋸歯状波、または方形波)動作モードで動作させることができる。制限なしに、1つまたは複数の光源は、レーザーダイオード、発光ダイオード、プラズマ光源、ストロボ、固体レーザー、ファイバーレーザー、または他のタイプの光源のうちの少なくとも1つを含むことができる。1つまたは複数の光源は、赤外線波長範囲(例えば、850、905、および/または940ナノメートル)の光を放射するように構成することができる。いくつかの実施形態では、複数の照明光波長を使用して、複数の光源などを明確にすることができる。追加または代替として、照明波長を、環境内の周囲光の量および/または時刻に基づいて調整することができる。
コントローラは、それぞれのセンサの出力を組合わせるように(例えば、センサ融合の使用)、および/または車両の周囲の3次元シーンについて推論するように、動作可能にできる。例えば、コントローラは、車両の周囲のグレースケールまたは色強度マップを提供するために推論を行ってもよい。推論は、追加的にまたは代替的に、車両の環境内のオブジェクトに関する情報を提供してもよい。例示的な実施形態では、60Hzまたは120Hzのリフレッシュレートで、オブジェクト情報を提供することができる。しかしながら、他のリフレッシュレートも可能であり検討されている。
例示的な実施形態では、システムは、1つまたは複数のディープニューラルネットワークを含むことができる。ディープニューラルネットワークを利用して、トレーニングデータおよび/または車両の動作コンテキストに基づいた推論を提供することができる。場合によっては、低解像度の深度情報と画像情報がディープニューラルネットワークに提供されてもよい。その後、ディープニューラルネットワークは、受信した情報に基づいて推論すること、および/または高解像度の出力深度マップ(例えば、点群)を提供することができる。
いくつかの実施形態では、ToFセンサ、イメージセンサ、光源、およびコントローラのうちの2つ以上を同じ基板に結合することができる。すなわち、システムは、より小さなセンサパッケージを提供するために、および/または他の性能改善を提供するために、モノリシックチップまたは基板を含むことができる。
II. 例示的なシステム
図1は、例示的な実施形態によるシステム100を示している。システム100は、少なくとも1つの飛行時間型(ToF)センサ110、またはToFカメラを含む。例示的な実施形態では、少なくとも1つのToFセンサ110は、複数の相補型金属酸化膜半導体(CMOS)または電荷結合素子(CCD)の感光性素子(例えば、シリコンPINダイオード)を含むことができる。他のタイプの感光性素子も、ToFセンサ110は利用することができる。
いくつかの実施形態では、少なくとも1つのToFセンサ110を、光速に基づいてそれぞれの視野内の環境的特徴までの距離を能動的に推定するように構成することができる。すなわち、ToFセンサ110は、光源(例えば、光源130)とシーン内のオブジェクトとの間を伝播する際の光信号(例えば、光パルス)の飛行時間を測定することができる。シーン内の複数の場所から届く光パルスの飛行時間を推定することにより、距離画像または深度マップを、ToFセンサの視野に基づいて構築することができる。距離の解像度は1センチメートル以下にすることができるが、横方向の解像度が標準の2Dイメージングカメラと比較して低くなる可能性がある。
いくつかの実施形態では、ToFセンサ110は、120Hz以上で画像を取得することができる。制限なしに、ToFセンサ110は、レンジゲートイメージャまたは直接飛行時間型イメージャを含むことができる。
システム100はまた、少なくとも1つのイメージングセンサ120も含む。例示的な実施形態では、イメージングセンサ120は、複数の感光性素子を含むことができる。そのようなシナリオでは、複数の感光性素子は、少なくとも100万個の感光性素子を含むことができる。少なくとも1つのToFセンサ110および少なくとも1つのイメージングセンサ120は、シーンからの光を受光するように構成される。
システム100はまた、少なくとも1つの光源130を含む。例示的な実施形態では、少なくとも1つの光源130は、レーザーダイオード、発光ダイオード、プラズマ光源、ストロボライト、固体レーザー、またはファイバーレーザーのうちの少なくとも1つを含むことができる。他のタイプの光源も、本開示で可能であり検討されている。1つまたは複数の光源130は、(例えば、車両の一部分に沿って配置された)ライトストリップを含むことができる。追加的または代替的に、少なくとも1つの光源130は、例えば、ライトパネルのグリッドを含むことができ、ライトパネルの各セグメントは、個別に異なる光パルスを提供することができる。またさらに、少なくとも1つの光源130は、点ごとにおよび/またはスキャン方式で移動可能な1つまたは複数の光線を、提供することができる。少なくとも1つの光源130は、連続波(CW)モードおよび/またはパルス(例えば、正弦波、鋸歯状波、または方形波)動作モードで動作させることができる。
例示的な実施形態では、少なくとも1つの光源130は、赤外光(例えば、900~1600ナノメートル)を放射するように構成することができる。しかしながら、他の光の波長も可能であり検討されている。
少なくとも1つの光源130およびToFイメージャ110は、時間的に同期させることができる。すなわち、光源130に光を放射させるトリガー信号を、時間基準信号としてToFイメージャ110に提供することもできる。したがって、ToFイメージャ110は、光源130から放射された光の実際の開始の時間に関する情報を持つことができる。追加的または代替的に、ToFイメージャ110から既知の距離にある基準ターゲットに基づいて、ToFイメージャ110を較正することができる。
複数の光源および/または複数のToFイメージャを使用するシナリオでは、複数の光源は、さまざまな光源から所与のToFイメージャによって取得された飛行時間情報(光パルス)を明確するために、時分割多重化または他のタイプの信号多重化(例えば、周波数またはコード多重化)を利用することができる。
いくつかの実施形態では、光源130は、所望の解像度を提供するために、それぞれの目標位置に向かって複数の放射ベクトルに沿って環境内に光を放射するように構成することができる。そのようなシナリオでは、少なくとも1つの光源130は、放射した光をシステム100の外部環境と相互作用させるために、複数の放射ベクトルに沿って光を放射するように動作可能にできる。
例示的な実施形態では、それぞれの放射ベクトルは、車両(例えば、図3Aを参照して図示および説明される車両300)の方位または場所に対する方位角および/または仰角(および/または対応する角度レンジ)を含むことができる。いくつかの実施形態では、少なくとも1つの光源130によって放射される光は、可動マウントおよび/または可動ミラーを調整することによって、それぞれの放射ベクトルに沿わせることができる。
例えば、少なくとも1つの光源130は、可動ミラーに向かって光を放射することができる。可動ミラーの向きを調整することによって、光の放射ベクトルを制御可能に修正することができる。多くの異なる物理的および光学的技術を使用して、光を所与の目標位置に向けられることが理解されよう。光の放射ベクトルを調整するためのすべてのそのような物理的および光学的技術が、本明細書で検討されている。
システム100は、任意に複数のセンサ140を含んでもよい。他のセンサ140は、LIDARセンサ、レーダーセンサ、または他のタイプのセンサを含んでもよい。例えば、システム100は、グローバルポジショニングシステム(GPS)、慣性計測ユニット(IMU)、温度センサ、速度センサ、カメラ、またはマイクロフォンを含むことができる。そのようなシナリオでは、本明細書に記載の動作シナリオおよび/または方法のいずれかは、他のセンサ140から情報を受信し、少なくとも部分的に他のセンサ140から受信した情報に基づいて他の動作または方法ステップを実行することを含むことができる。
例示的な実施形態では、少なくとも1つのToFセンサ110、イメージングセンサ120、および少なくとも1つの光源130のうちの少なくとも2つを共通の基板に結合することができる。例えば、少なくとも1つのToFセンサ110、イメージングセンサ120、および少なくとも1つの光源130を車両に結合することができる。すなわち、システム100の一部または全部の要素は、車両のオブジェクト検出能力および/またはナビゲーション能力の少なくとも一部を提供することができる。例示的な実施形態では、車両は、半自律型または完全自律型の車両(例えば、自動運転車)とすることができる。例えば、システム100は、図3A、4A、および4Bを参照して図示および説明される車両300に組み込むことができる。
いくつかの実施形態では、システム100を、車両300を取り巻く環境内の他の特徴の中でもとりわけ、近くの車両、道路境界、気象条件、交通標識および交通信号、および歩行者を検出して場合によっては識別するために利用される車両制御システムの一部にすることができる。例えば、車両制御システムは、深度マップ情報を使用して、自律または半自律ナビゲーション用制御戦略の決定を支援してもよい。いくつかの実施形態では、深度マップ情報は、車両制御システムが障害物を回避するのを支援してもよいが、ナビゲーション用の適切な経路の決定を支援してもよい。
本明細書で説明されるいくつかの例は、車両に組み込まれるものとしてシステム100を含むが、他の用途が可能であることが理解されよう。例えば、システム100は、ロボットシステム、航空機、スマートホームデバイス、スマートインフラストラクチャシステムなどを含むことも、それらに組み込むこともできる。
システム100は、コントローラ150を含む。いくつかの実施形態では、コントローラ150は、車両搭載コンピュータ、外部コンピュータ、またはスマートフォン、タブレットデバイス、パーソナルコンピュータ、ウェアラブルデバイスなどの移動計算プラットフォームを含むことができる。追加的にまたは代替的に、コントローラ150は、クラウドサーバネットワークなどの遠隔に位置するコンピュータシステムを含むことも、それに接続することもできる。例示的な実施形態では、コントローラ150は、本明細書において説明される、動作、方法ブロック、またはステップの一部または全部を行うように構成されてもよい。制限なしに、コントローラ150は、追加的または代替的に、少なくとも1つのディープニューラルネットワーク、他のタイプの機械学習システム、および/または人工知能システムを含むことができる。
コントローラ150は、1つ以上のプロセッサ152および少なくとも1つのメモリ154を含んでもよい。プロセッサ152は、例えば、マイクロプロセッサ、特定用途向け集積回路(ASIC)、またはフィールドプログラマブルゲートアレイ(FPGA)を含んでもよい。ソフトウェア命令を行うように構成された、他のタイプのプロセッサ、回路、コンピュータ、または電子デバイスが、本明細書で検討されている。
メモリ154は、以下に限定されないが、読み出し専用メモリ(ROM)、プログラム可能読み出し専用メモリ(PROM)、消去可能プログラム可能読み出し専用メモリ(EPROM)、電気的消去可能プログラム可能読み出し専用メモリ(EEPROM)、不揮発性ランダムアクセスメモリ(例えば、フラッシュメモリ)、半導体ドライブ(SSD)、ハードディスクドライブ(HDD)、コンパクトディスク(CD)、デジタルビデオディスク(DVD)、デジタルテープ、読み取り/書き込み(R/W)CD、R/W DVDなどの非一過性コンピュータ可読媒体を含んでもよい。
コントローラ150の1つ以上のプロセッサ152は、本明細書に記載されるさまざまな動作および方法ステップ/ブロックを行うために、メモリ154に格納された命令を実行するように構成されてもよい。命令は、永続的または一時的な方法でメモリ154に格納されてもよい。
図2は、例示的な実施形態によるシステム100の動作シナリオ200を示している。動作シナリオ200は、ある動作またはブロックがある順序になっていること、およびシステム100のある要素によって実行されることを示しているが、他の機能、動作の順序、および/またはタイミング構成も、本明細書で検討されていることが理解されよう。
ブロック210は、コントローラ150が少なくとも1つの光源130に照明スケジュールに従ってシーンの少なくとも一部を照明光で照明させることを含む。照明スケジュールは、例えば、所定の光パルス繰り返し率、所定の光パルス持続時間、所定の光パルス強度、または所定の光パルスデューティサイクルのうちの少なくとも1つを含むことができる。照明光の所望の態様を伝達する他の方法も、本明細書で検討されている。
例示的な実施形態では、命令212は、例えば、時間tにおけるコントローラ150から光源130への信号を含むことができる。命令212は、他の例の中でもとりわけ、照明スケジュール、照明レベル、または照明方向または照明区域を示すことができる。
命令212を受信することに応答して、光源130は、ブロック214を行って、照明スケジュールに従ってシーンを照明することができる。一例として、光源130は、1つまたは複数の発光素子を照明することができ、これは、発光ダイオード(LED)、レーザー、ストロボ光、または他のタイプの光源であり得る。そのような発光素子は、照明スケジュール(例えば、所望の時間照明する、所望の周波数およびデューティサイクルで照明するなど)に従って点灯することができる。
ブロック220は、少なくとも1つのToFセンサ110に、照明光に基づいたシーンの深度マップを示す情報を提供させることを含む。例えば、時間tにおいて、ブロック220は、コントローラ150からToFセンサ110に命令222を提供することを含むことができる。命令222は、ToFセンサ110の深度マッピング機能をトリガーするための信号を含むことができる。追加的または代替的に、命令222は、スキャンのための所望の視野、スキャンのための所望の範囲、所望の解像度、および/または深度マップおよび/またはToFセンサスキャンの他の所望の態様を示す情報を含むことができる。
ブロック224は、光源130からのシーンの照明に少なくとも部分的に基づいて深度マップを取得するToFセンサ110を含むことができる。すなわち、命令222の受信に応答して、ToFセンサ110は、シーンの視野の深度マッピングスキャンを行うことができる。例示的な実施例では、ToFセンサ110は、10~100MHzの間で動作することができるが、他の動作周波数も可能である。いくつかの実施形態では、ToFセンサ110の動作周波数は、所望の最大深度感知範囲に基づいて調整されてもよい。例えば、ToFセンサ110は、約7.5メートルの所望の深度検知範囲に対して20MHzで動作させることができる。いくつかの実施形態では、ToFセンサ110は、100メートル以上の所望の最大深度感知範囲を有することができる。複数のToFセンサを含むいくつかの実施形態では、シーンの異なる視野および/または異なる距離範囲にわたって深度マッピングスキャンを行うように、ToFセンサを構成および/または指示することができる。
時間tにおいて、ブロック224に従って深度マップを取得すると、ToFセンサ110は、情報226をコントローラ150に提供することができる。情報226は、シーンの深度マップを示してもよい。例えば、情報226は、シーンの距離ベースのポイントマップを含むことができる。追加的または代替的に、情報226は、シーン内で決定されたオブジェクトの表面マップを含むことができる。他のタイプの情報226も可能であり検討されている。
ブロック230、イメージングセンサ120に、光源130によって提供された照明光に基づいたシーンの画像を示す情報を提供させることを含む。一例として、時間tにおいて、コントローラ150は、イメージングセンサ120に命令232を提供することができる。命令232は、イメージングセンサ120の画像キャプチャ機能をトリガーするための信号を含むことができる。さらに、命令232は、所望の露出、周囲照明レベル、周囲照明色温度、時刻などに関する情報を含むことができる。tおよびtは、異なるものとして図2に示されているが、いくつかの実施形態では、時間tおよびtは、類似または同一であり得る。すなわち、いくつかの実施形態では、深度マッピングおよび画像キャプチャプロセスの少なくともいくつかの部分を、並行にトリガーして実行することができる。
ブロック234は、命令232の受信に応答して、シーンの画像を取得するイメージングセンサ120を含む。言い換えれば、命令232は、画像キャプチャプロセスを開始するために、物理的シャッター機構またはデジタルシャッターをトリガーすることができる。
画像をキャプチャすると、時間tで、イメージセンサ120は、情報236をコントローラ150に提供することができる。情報236は、例えば、キャプチャされた画像、ならびにキャプチャされた画像に関するメタデータ(例えば、露光時間、絞り設定、イメージャ感度(ISO)、視野範囲など)などの他の情報を含むことができる。いくつかの実施形態では、情報236は、RAW画像データを含むことができるが、他の非圧縮画像データフォーマットおよび圧縮画像データフォーマット(BMP、JPEG、GIF、PGN、TIFFなど)も可能であり検討されている。
ブロック240は、シーンの深度マップ(例えば、情報226)およびシーンの画像(例えば、情報236)に基づいて、シーンの高解像度深度マップを決定することを含むことができる。例示的な実施形態では、深度マップ情報226および画像情報236は、さまざまな画像処理アルゴリズムを使用して比較および/または相関させることができる。このようなアルゴリズムは、制限なしに、テクスチャ合成、画像リサンプリングアルゴリズム、補間アルゴリズム、画像先鋭化アルゴリズム、エッジ検出アルゴリズム、画像ぼかしアルゴリズムなどを含んでもよい。したがって、高解像度深度マップはシーンに関する深度情報を含むことができ、これはToFセンサ110によって得られた深度マップよりも高い空間分解能を有する。いくつかの実施形態では、空間解像度を、システム100から離れた所与の距離における目標解像度に関連付けることができる。他の空間解像度として、二次元表面に沿ったものと三次元空間内のものとの両方が、本明細書で可能であり検討されている。一例として、ToFセンサ110によって取得された深度マップは、20メートルの範囲で、隣接するサンプリングポイントの間に10センチメートルの空間分解能を提供することができる。高解像度の深度マップは、20メートルの範囲で5センチメートル未満の空間解像度を提供することができる。
ブロック250は、シーンの深度マップおよびシーンの画像に基づいて、シーンに関する少なくとも1つの推論を決定することを含んでもよい。例えば、コントローラ150は、ブロック240で決定された高解像度深度マップに基づいて、シーンに関する少なくとも1つの推論を決定することができる。そのようなシナリオでは、少なくとも1つの推論は、車両の環境または車両の動作状況における1つまたは複数のオブジェクトに関する情報を含んでもよい。コントローラ150がディープニューラルネットワークを含むシナリオでは、ブロック250を、少なくとも部分的に、ディープニューラルネットワークによって実行することができる。
動作シナリオ200は、コントローラ150によって実行されるものとしてさまざまな動作またはブロック210、220、230、240、および250を説明しているが、動作シナリオ200の動作の少なくともいくつかは、1つ以上の他のコンピューティングデバイスによって実行できることが理解されよう。
動作シナリオ200はさまざまな動作を説明しているが、より多くの動作とより少ない動作も検討されていることが理解されよう。例えば、動作は、イメージングセンサ120に所望の露出を提供するために、複数の可能な照明スケジュールの中から照明スケジュールを選択することをさらに含むことができる。
図3A、3B、および3Cは、システム100およびシステム100の要素のさまざまな実施形態を示している。図3Aは、例示的な実施形態による車両300を示している。車両300は、1つ以上のセンサシステム302、304、306、308、310、354a~354d、および356a~356dを含んでもよい。いくつかの実施形態では、1つ以上のセンサシステム302、304、306、308、および310は、LIDARセンサユニットおよび/またはレーダーセンサユニットを含むことができる。センサシステム302、304、306、308、および310のうちの1つ以上は、車両300の周囲の環境を光パルスおよび/またはレーダーエネルギーで照明するために、所与の平面に垂直な軸(例えば、z軸)の周りを回転するように構成されてもよい。追加的にまたは代替的に、センサシステム302、304、306、308、および310のうちの1つ以上は、放射された光パルスおよび/またはレーダーエネルギーを車両300の環境内に向けるために、可動ミラーを含むことができる。LIDARベースのセンサの場合、反射光パルスのさまざまな側面(例えば、経過した飛行時間、偏光など)を決定することで、本明細書で説明する環境に関する情報を提供してもよい。同様に、レーダーベースのセンサは、レーダーエネルギーが環境とどのように相互作用するかに基づいて、特定のシーンに関する情報を決定してもよい。
例示的な実施形態では、センサシステム302、304、306、308、および310は、車両300の環境内の物理的オブジェクトに関連付けられ得るそれぞれの点群情報またはその他のタイプの情報(例えば、マップ、オブジェクトデータベースなど)を提供するように構成されてもよい。車両300、ならびにセンサシステム302および304は、特定の特徴を含むものとして図示されているが、他のタイプのセンサも、本開示の範囲内で検討されていることが理解されよう。
図3Bは、例示的な実施形態による、センサユニット350の正面図を示している。センサユニット350は、ハウジング352を含むことができる。いくつかの実施形態では、ハウジング352は、車両300に結合することも、車両300に統合することもできる。例示的な実施形態では、センサユニット350は、図1を参照して図示および説明されるイメージングセンサ120と類似または同一であり得るイメージングセンサ354を含んでもよい。さらに、センサユニット350は、図1を参照して図示および説明されるToFセンサ110と類似または同一であり得るToFセンサ356を含むことができる。図3Bは、共通のハウジング352内に配置されたイメージングセンサ354およびToFセンサ356を示しているが、イメージングセンサ354およびToFセンサ356を、異なる場所に配置することもできる。そのような要素の他の配置も、本明細書で可能であり検討されていることが理解されよう。
図3Cは、例示的な実施形態による光源370を示している。光源370は、ハウジング372を含むことができる。いくつかの実施形態では、ハウジング372は、車両300に結合することも、車両300に統合することもできる。例示的な実施形態では、光源370は、図1を参照して図示および説明される光源130と類似または同一であり得る複数の発光素子374a~374hを含んでもよい。発光素子374a~374hは、アレイまたは他の空間配置で配置することができる。例示的な実施形態では、発光素子374a~374hは、発光ダイオード(LED)またはレーザーダイオードであり得る。他のタイプの光源も可能であり検討されている。
発光要素374a~374hは、赤外線(例えば、700~1050nmの近赤外線)波長範囲の光を放射するように構成することができる。しかしながら、いくつかの実施形態では、他の光の波長も検討されている。いくつかの実施形態では、発光素子374a~374hは、互いに異なる波長の光を放射するように構成することができる。すなわち、発光素子374a~374hは、8つの異なる波長の光を放射するように構成することができる。そのようなシナリオでは、システム100および/または車両300は、個別の発光素子によって放射される光信号を(または異なる光源370を)、その波長に基づいて明確にするように構成することができる。いくつかの実施形態では、多色光を、多色イメージングセンサおよび/または多色ToFセンサによって受信することができる。
いくつかの実施形態では、発光素子374a~374hは、発光要素374a~374hから放射された光と相互作用するように構成された1つまたは複数の光学素子を含むことができる。制限なしに、1つまたは複数の光学素子を、放射された光を方向転換、成形、減衰、増幅、またはその他の方法で調整するように構成することができる。例えば、1つまたは複数の光学素子は、ミラー、光ファイバー、回折光学素子、非球面レンズ、シリンドリカルレンズ、または球面レンズを含むことができる。他のタイプの光学素子も可能であり検討されている。
いくつかの例示的な実施形態では、発光素子374a~374hは、車両300の周りの環境の異なる空間セクタ(例えば、異なる方位角範囲および/または仰角範囲を含む)に向かって光を放射するために、動作可能にできる。さらに、いくつかの実施形態では、発光素子374a~374hは、所与の期間中の異なる時間に光を放射するように動作可能にできる。すなわち、発光素子374a~374hのそれぞれは、所与の期間にわたるそれぞれの期間中に光を放射するように制御することができる。例えば、発光素子374a~374hは、連続パターン(例えば、ある発光素子が他の発光素子に続いて「追跡」パターンで点灯)で光を放射することができる。追加的または代替的に、1つまたは複数の発光素子374a~374hは、並列様式で光を放射(例えば、いくつかの発光素子が同時に光を放射)することができる。
図3Aに戻ると、車両300は、図3Bを参照して図示および説明されるセンサユニット350と類似または同一であり得る複数のセンサユニットを含むことができる。さらに、それぞれのセンサユニットは、各々、イメージングセンサ354a~354dおよびToFセンサ356a~354dを含むことができる。図示したように、イメージングセンサ354a~354dおよびToFセンサ356a~356dのそれぞれの対は、車両300の前部、右側部、左側部、および後部に結合または統合することができる。イメージングセンサ354a~354dおよびToFセンサ356a~356dについては、他の取り付けタイプおよび取り付け位置も検討されている。例えば、いくつかの実施形態では、イメージングセンサ354a~354dおよびToFセンサ356a~356dは、車両300の周囲の環境から撮像情報およびToF情報を取得するために、z軸を中心に回転するように構成された回転可能なマウントに配置することができる。
センサシステム354a/356a、354b/356b、354c/356c、および354d/356dは並んでいるように図示されているが、他のセンサ配置も可能であり検討されていることが理解されよう。さらに、センサシステムの特定の場所および数が図3A~3Cに示されているが、さまざまなセンサシステムの異なる取り付け場所および/または異なる数も検討されていることが理解されよう。
車両300は、図1を参照して図示および説明される光源130と類似または同一であり得る複数の光源370a~370dを含むことができる。図示したように、光源370a~370dは、車両300の前部、右側部、左側部、および後部に結合または統合することができる。複数の光源370a~370dについては、他の取り付けタイプおよび取り付け位置が検討されている。例えば、いくつかの実施形態では、光源370は、制御可能な方位角範囲に向かって光を放射するために、z軸の周りを回転するように構成された回転可能なマウントに配置することができる。
図4A、4Bは、さまざまな感知シナリオ400および420を示している。各々の場合において、明確にするために、感知シナリオ400および420は、可能性のある空間セクタおよびセンサプロファイル/センサレンジのサブセットのみを例示してもよい。他の空間セクタも、本開示の範囲内で可能であり検討されていることが理解されよう。さらに、感知シナリオ400および420が、時間における単一の「スナップショット」のみを例示してもよいことと、空間セクタおよびセンサプロファイル/センサレンジが、他の要因の中でもとりわけ、車両300の動的変化動作状況に基づいて周期的にまたは連続的に変化するために、動的に調整されてもよいことが、理解されよう。
図4Aは、例示的な実施形態による、感知シナリオ400における車両300の俯瞰図/上面図を示している。感知シナリオ400は、車両300の環境の前方セクタを照明光402で照明することを含む。すなわち、光源370aは、車両300の前方セクタを照らすために、1つまたは複数の発光素子から光を放射することができる。
パルス照明スケジュールまたは連続波照明スケジュールに従って、照明光402を提供することができる。他のタイプの照明スケジュールも検討されている。例えば、コントローラ150から「オンデマンド」で、または車両300の動作状況に基づいて、照明光402を提供することができる。一例として、暗い状態(例えば、夜間)で、または車両300の環境内のオブジェクトを決定することに応答して、照明光402を提供することができる。非限定的な例として、車両300の他のセンサシステムは、車両300の前方にある不明瞭なまたは未知の物体(図示せず)を識別することができる。不明瞭なまたは未知の物体は、さらなる分析のために識別することができる。そのようなシナリオでは、コントローラ150は、光源370aに、照明光402を前方セクタに提供させることができる。
図4Aは、照明された状態の前方セクタを示しているが、いくつかの実施形態では、光源370aは、照明光402の指示方向を調整するように構成されてもよい。他の光源370b~370dは、それぞれの位置に対応するさまざまな空間セクタに同様の照明光を提供できることも理解されよう。例えば、光源370dは、後方空間セクタに照明光を放射することができる。
図4A、4Bでは、照明光402および空間セクタは2次元であるように見えるが、3次元空間ボリュームも検討されていることが理解されよう。例えば、照明光402および/または空間セクタは、方位角範囲の間として定義することができるとともに、最大仰角と最小仰角の間として定義することができる。
図4Bは、例示的な実施形態による、感知シナリオ420における車両300の俯瞰図/上面図を示している。感知シナリオ420は、視野404から光を取得するイメージングセンサ354aを含むことができる。イメージングセンサ354aによって得られる光の少なくとも一部は、車両300の環境との相互作用による照明光402からのものであり得る。すなわち、シーン404は、光学システム300の前方空間セクタを含むことができる。いくつかの実施形態では、イメージングセンサ354aの視野404は、照明光402によって照らされたボリュームと部分的または完全に重なることができる。視野404から得られた光に基づいて、イメージングセンサ354aは、少なくとも部分的に照明光402に基づくシーンの画像を提供することができる。
感知シナリオ420はまた、視野406から光を取得するイメージングセンサ356aを例示する。ToFセンサ356aによって得られる光の少なくとも一部は、車両300の環境と相互作用した照明光402からのものであり得る。すなわち、シーン406は、光学システム300の前方空間セクタを含むことができる。いくつかの実施形態では、ToFセンサ356aの視野406は、照明光402によって照らされたボリュームと部分的または完全に重なることができる。視野406から得られた光に基づいて、ToFセンサ356aは、少なくとも部分的に照明光402に基づくシーンの深度マップを提供することができる。
III. 例示的な方法
図5は、例示的な実施形態による方法500を示している。方法500は、本明細書に明示的に示されているかまたは他の方法で開示されているものよりも少ないまたは多くのステップまたはブロックを含んでもよいことが理解されよう。さらに、方法500のそれぞれのステップまたはブロックは、任意の順序で実行されてもよく、各ステップまたはブロックは、1回以上実行されてもよい。いくつかの実施形態では、方法500のブロックまたはステップの一部または全部は、システム100の要素によって行われてもよい。例えば、方法500の一部または全部は、図1に関連して図示され、説明されるように、コントローラ150、ToFセンサ110、および/またはイメージングセンサ120によって行うことができる。さらに、方法500は、図2に関連して図示されるように、少なくとも部分的に動作シナリオ200によって説明さてもよい。またさらに、方法500は、図3Aに関連して図示され、説明されるように、少なくとも部分的に車両300によって行われてもよい。方法500は、図4A、4Bに関連して図示され、説明されるように、シナリオ400と同様または同一のシナリオで行われてもよい。他のシナリオも、本開示の文脈内で可能であり検討されていることが理解されよう。
ブロック502は、少なくとも1つの光源に、照明スケジュールに従ってシーンを照明光で照明させることを含む。例示的な実施形態では、照明スケジュールは、所定の光パルス繰り返し率、所定の光パルス持続時間、所定の光パルス強度、または所定の光パルスデューティサイクルのうちの少なくとも1つを含むことができる。
ブロック504は、飛行時間型(ToF)センサに、照明光に基づいたシーンの深度マップを示す情報を提供させることを含む。例示的な実施形態では、コントローラ150は、ToFセンサに、照明光に基づいて深度スキャンを開始させることができる。いくつかの実施形態では、クロック信号またはトリガー信号をToFセンサに提供して、環境に放射される1つまたは複数の光パルスと同期させることができる。深度マップ情報を取得すると、ToFセンサは、深度マップを示す情報をコントローラ150またはシステム100の他の要素に提供することができる。
ブロック506は、イメージングセンサに、照明光に基づいたシーンの画像を示す情報を提供させることを含む。いくつかの実施形態では、コントローラ150は、イメージングセンサのメカニカルシャッターまたは電子シャッターをトリガーして開放し、シーンの画像を取得することができる。追加的または代替的に、コントローラ150は、シーンに関する情報(例えば、周囲光レベル、関心のある特定のセクタ、所望の解像度、時刻など)を提供することができる。さらに、コントローラ150または光源130は、イメージングセンサと光源を同期させるために、クロック信号またはトリガー信号を提供することができる。シーンの画像を取得すると、イメージングセンサは、画像を示す情報をコントローラ150またはシステム100の他の要素に提供することができる。
追加的または代替的に、方法500は、イメージングセンサに所望の露出を提供するために、複数の可能な照明スケジュールの中から照明スケジュールを選択することを含むことができる。照明スケジュールは、外光レベル、他の光源、太陽の角度などを含むいくつかの変数に基づくことができる。したがって、方法500は、周囲光の量(例えば、周囲光センサから測定される)、時刻、および/または気象条件に基づいて、照明スケジュールを調整することを含むことができる。
さらに、方法500は、シーンの深度マップおよびシーンの画像に基づいて、シーンの高解像度深度マップを決定することを含むことができる。
またさらに、方法500は、シーンの深度マップおよびシーンの画像に基づいて、シーンに関する少なくとも1つの推論を決定することを含んでもよい。いくつかの実施形態では、少なくとも1つの推論は、車両の環境または車両の動作状況における1つまたは複数のオブジェクトに関する情報を含むことができる。
例示的な実施形態では、少なくとも1つの推論を決定することは、少なくとも1つのディープニューラルネットワークによって実行することができる。追加的または代替的に、方法500の一部または全部のブロックは、他のタイプの人工知能ベースのアルゴリズムを実装するコンピューティングシステムによって行うことができる。
本明細書に記載のシステムおよび方法は、車両に搭載された単一のハイブリッドイメージングシステムに関連してもよいが、複数のハイブリッドイメージングシステムを単一の車両に搭載できることが理解されよう。さらに、それぞれが1つまたは複数のそれぞれのハイブリッドイメージングシステムを有する複数の車両を含む実施形態も、本開示の文脈内で検討されており可能である。すなわち、いくつかの実施形態では、各ハイブリッドイメージングシステムは、互いに接近しているとき(例えば、互いに200メートル以内またはより接近しているとき)に互いに干渉を最小限にするために、異なる変調周波数および/または時間オフセットを有することができる。
図6は、例示的な実施形態による方法600を示している。方法600は、図5および7を参照して図示および説明される方法500または700の対応する要素に類似または同一であるブロックまたは要素を含むことができる。
ブロック602は、第1の車両と第2の車両が互いに閾値距離内にあると判定することを含む。そのようなシナリオでは、第1の車両および第2の車両の各々は、それぞれのハイブリッドイメージングシステムを含む。ハイブリッドイメージングシステムは、図1を参照して図示および説明されるシステム100と同様または同一であり得る。すなわち、ハイブリッドイメージングシステムはそれぞれ、少なくとも1つの飛行時間型(ToF)センサ、イメージングセンサ、および少なくとも1つの光源を含むことができる。少なくとも1つのToFセンサおよびイメージングセンサは、シーンからの光を受光するように構成される。
ブロック604は、少なくとも1つのToFセンサ、イメージングセンサ、または少なくとも1つの光源の少なくとも1つの動作パラメータを調整することを含む。
追加的または代替的に、セントラルサーバまたはローカルサーバは、近接するハイブリッドイメージングシステム間の干渉を回避するために、それぞれの変調周波数および/または時間オフセットを割り当ておよび/または調整することができる。いくつかの実施形態では、セントラルサーバまたはローカルサーバは、ハイブリッドイメージングシステムの1つまたは複数の動作パラメータ(例えば、変調周波数、時間オフセット、クロストーク振幅など)および/またはハイブリッドイメージングシステムに関連付けられたそれぞれの車両の位置を監視することができる。2つのハイブリッドイメージングシステムおよび/またはそれらのそれぞれの車両が互いに閾値距離内に接近することに応答して、セントラルサーバまたはローカルサーバは、クロストーク干渉の可能性を低減または排除するために、ハイブリッドイメージングシステムの一方または両方に、変調周波数および/または時間オフセットを変更するように指示することができる。追加的または代替的に、セントラルサーバまたはローカルサーバは、各ハイブリッドイメージングシステムに関連付けられた識別子および各ハイブリッドイメージングシステムに関連付けられた少なくとも1つの動作パラメータ(例えば、変調周波数および/または時間オフセット)を含むデータベースを保守することができる。いくつかの実施形態では、2つのハイブリッドイメージングシステムおよび/またはそれらのそれぞれの車両が互いに閾値距離内に接近することに応答して、セントラルサーバまたはローカルサーバはデータベースを比較し、クロストーク干渉のおそれがある場合は、1つまたは複数のハイブリッドイメージングシステムにそれらの動作条件を調整するように指示だけをする。
セントラルサーバまたはローカルサーバは上で説明されているが、クロストークを回避するための他の分散型システムおよび方法も検討されていることが理解されよう。例えば、ハイブリッドイメージングシステムが閾値振幅を超えるクロストーク干渉を検出した場合、ハイブリッドイメージングシステムはそれ自体の変調周波数および/または時間オフセットを自動的に変更することができる。追加的または代替的に、ハイブリッドイメージングシステムおよび/またはそのそれぞれの車両は、クロストーク干渉を最小化または排除するために、変調周波数および/または時間オフセットの局所使用を交渉しようとしている近くの車両および/またはそれらのハイブリッドイメージングシステムと、通信することができる。アクティブなセンサシステム間の干渉を軽減する他の方法も、本開示の文脈内で検討されており可能であることが理解されよう。
本明細書に記載のシステムおよび方法は、ToFセンサを単独で利用するのと比べて複数のToFセンサおよび複数のイメージングセンサを使用して距離測定を改善することができる方法に関連し得ることが理解されよう。例えば、イメージングセンサからの1つまたは複数の画像を初期深度マップと比較して、ToFデータ内の範囲エイリアスアーチファクトを決定することができる。すなわち、そのような比較に基づいて、更新された深度マップが提供されてもよく、それは初期深度マップよりも範囲エイリアスアーチファクトが少ない可能性がある。
追加的または代替的に、ToFセンサおよび/または照明光のさまざまな動作パラメータは、イメージングセンサからの1つまたは複数の画像に基づいて制御することができる。例えば、画像は、関心領域を示す情報を提供してもよい。例えば、関心領域には、他の車両、歩行者、障害物、道路標識、道路標示などが含まれる。画像内の関心領域に基づいて、ToFセンサの動作パラメータおよび/または、照明光を調整することができる。例えば、関心領域に横断歩道内の歩行者が含まれる場合、関心領域のより正確な深度マップを提供するために、ToFセンサおよび/または照明光の動作パラメータ(変調周波数、照明強度、リフレッシュレートなど)を最適化または調整することができる。そのようなシナリオでは、横断歩道内の歩行者の推定距離、または距離範囲などに対応するように動作パラメータを調整することができる。
本明細書に記載のシステムおよび方法は、環境に関する事前情報を含んでもよい。そのような事前情報は、車両の局所環境の、および/またはイメージセンサまたはToFセンサのシーン内の忠実度の高い3次元モデルを含むことができる。そのようなシナリオでは、事前情報は、少なくとも部分的に、車両および/またはセントラルサーバまたはローカルサーバに置くことができる。
いくつかの実施形態では、事前情報を画像情報および/またはToF情報/深度マップと組み合わせて利用して、センサをより良く較正し、および/または車両をよりよく位置特定することができる。すなわち、事前情報と少なくとも1つの画像または少なくとも1つの深度マップとの比較は、イメージセンサおよび/またはToFセンサの内的および外的特徴の決定を補助することができる。このようなシナリオでは、決定された内的および/または外的特徴を使用して、イメージセンサおよび/またはToFセンサを較正することができる。追加的または代替的に、事前情報と少なくとも1つの画像または少なくとも1つの深度マップとの比較は、事前情報を少なくとも1つの画像または少なくとも1つの深度マップと整列または登録することを含むことができる。そうすることで、整列/登録プロセスは、車両のより正確な絶対位置、進行方向、速度、またはその他の特性、および/またはその環境の他の観点の決定を補助することができる。言い換えれば、事前情報を少なくとも1つの画像および/または少なくとも1つの深度マップと組み合わせて利用することで、単独で取得されたセンサ情報よりも車両に関するより正確な情報を提供することができる。このようなシナリオでは、事前情報は、その中で車両の位置特定が可能な参照フレームを表すことができる。
図7は、例示的な実施形態による方法700を示している。方法700のブロックおよび/または要素は、図5および6を参照して図示および説明される方法500または600の対応する要素と類似または同一であり得る。
ブロック702は、シーンの3次元情報を含む事前情報を提供することを含む。
ブロック704は、少なくとも1つの光源に、照明スケジュールに従ってシーンを照明光で照明させることを含む。
ブロック706は、飛行時間型(ToF)センサに、照明光に基づいたシーンの深度マップを示す情報を提供させることを含む。
ブロック708は、イメージングセンサに、照明光に基づいたシーンの画像を示す情報を提供させることを含む。
追加的または代替的に、事前情報を利用して深度推定を改善することができる。そのようなシナリオでは、事前情報を、画像および/または深度マップに投影することができる。さまざまな方法(例えば、レイトレーシング、主成分序列化(PCoA)、非計量多次元尺度構成法(NMDS)、またはその他の方法)を使用して、画像または深度マップへの3次元事前情報の投影を実行することができ、それらは本明細書で検討されている。事前情報を画像または深度マップに投影することにより、深度情報をより正確にダブルチェック、較正、検証、および/または推定することができる。
またさらに、事前情報を利用して、背景差分を実行することができる。そのようなシナリオでは、事前情報は、関連するセンサ深度外にある(例えば、車両から遠く離れた)オブジェクトに関する情報を含むことができる。そのような状況では、関連するセンサ深度外にあるオブジェクトに対応する画像情報および/または深度マップ情報を、無視したり、考慮から外したり、削除したり、および/または環境の他のより関連性のある領域よりも低い解像度で処理したりすることができる。
さらに、事前情報を少なくとも部分的に使用して、再帰反射オブジェクトが所与の環境内のどこにあるかを決定することができる。車両(およびそのハイブリッドイメージングシステム)がそのような環境に入ると、再帰反射オブジェクトの影響を軽減するために、ハイブリッドイメージングシステムの動作を調整することができる。例えば、ハイブリッドイメージングシステムは、環境の他の領域と比較して、より低い強度レベルで既知の再帰反射オブジェクトに対応する環境を照らすことができる。そのようなシナリオでは、ハイブリッドイメージングシステムは、再帰反射オブジェクトが原因で発生する可能性のある「ブルーミング」効果または「ブラインド」効果を回避することができる。追加的または代替的に、ハイブリッドイメージングシステムは、異なる変調周波数で動作し、および/または異なる速度で照明源を点灯することができる。再帰反射の影響を軽減する他の方法も、本明細書で可能であり検討されている。
いくつかの実施形態では、イメージセンサからの複数の画像フレームを利用して、シーンに関する情報を取得することができ、これは、本開示に記載される他の情報と併用することができる。たとえば、「オプティカルフロー」は、2つの連続する画像フレーム間のオブジェクトの見かけの動きのパターンによって取得することができる。オプティカルフローは、例えば、第1の画像フレームと第2の画像フレームとの間のシーン内の対応するオブジェクトの変位を含む2次元ベクトル場を含むことができる。オプティカルフローに基づいて、オブジェクトまでの距離を推測および/または予測することができる。オプティカルフローからのそのような距離情報は、画像情報とToF情報を組合わせるときに推定される深度範囲を制限するために利用することができる。すなわち、オプティカルフローは、所与のシーン内のオブジェクトの深度に関する大まかな情報を提供することができる。大まかな深度情報を使用して、ToFセンサおよび/または照明源の動作パラメータを決定することができる。追加的または代替的に、大まかな深度情報を使用して、ハイブリッドイメージングシステムによって使用される動作パラメータのセットをより一般的に制限または制約することができる。
図に示されている特定の配置を、限定とみなすべきではない。他の実施形態が、所与の図に示される各要素をより多く、またはより少なく含んでもよいことを理解されたい。また、図示の要素のうちのいくつかを、組み合わせても、省いてもよい。さらにまた、例示的な実施形態は、図示されていない要素を含んでもよい。
情報の処理を表すステップまたはブロックは、本明細書に記載の方法または技法の特定の論理機能を果たすように構成することができる回路に対応し得る。代替的にまたは追加的に、情報の処理を表すステップまたはブロックは、モジュール、セグメント、物理コンピュータ(例えば、フィールドプログラマブルゲートアレイ(FPGA)もしくは特定用途向け集積回路(ASIC))、またはプログラムコードの一部分(関連データを含む)に対応し得る。プログラムコードは、特定の論理機能または論理動作を方法または技法において実装するための、プロセッサにより実行可能な1つ以上の命令を含み得る。プログラムコードおよび/または関連データは、ディスク、ハードドライブ、または他の記憶媒体を含む、記憶デバイスなどの任意のタイプのコンピュータ可読媒体に格納することができる。
コンピュータ可読媒体は、レジスタメモリ、プロセッサキャッシュ、およびランダムアクセスメモリ(RAM)のような、データを短期間格納するコンピュータ可読媒体などの非一時的コンピュータ可読媒体も含み得る。コンピュータ可読媒体は、プログラムコードおよび/またはデータを長期間にわたって格納する非一時的コンピュータ可読媒体も含み得る。このように、コンピュータ可読媒体は、例えば、読み取り専用メモリ(ROM)、光ディスクまたは磁気ディスク、コンパクトディスク読み取り専用メモリ(CD-ROM)のような二次的なまたは長期永続的記憶装置を含み得る。コンピュータ可読媒体は、任意の他の揮発性または不揮発性の記憶システムとすることもできる。コンピュータ可読媒体は、例えばコンピュータ可読記憶媒体、または有形の記憶デバイスと考えることができる。
種々の態様および実施形態が本明細書において開示されているが、当業者には、その他の態様および実施形態が明らかとなるであろう。したがって、本開示の実施形態は、以下に列挙される付番実施例(EEE:Enumerated Example Embodiment)のうちの1つに関係し得る。
EEE1は、
少なくとも1つの飛行時間型(ToF)センサと、
イメージングセンサと、を備え、ここで前記少なくとも1つのToFセンサと前記イメージングセンサはシーンからの光を受光するように構成されており、さらに
少なくとも1つの光源と、
動作を行うコントローラと、を備え、前記動作は、
前記少なくとも1つの光源に、照明スケジュールに従って前記シーンの少なくとも一部を照明光で照明させることと、
前記少なくとも1つのToFセンサに、前記照明光に基づいた前記シーンの深度マップを示す情報を提供させることと、
前記イメージングセンサに、前記照明光に基づいた前記シーンの画像を示す情報を提供させることと、を含むシステムである。
EEE2は、前記少なくとも1つのToFセンサは、複数の相補型金属酸化膜半導体(CMOS)または電荷結合素子(CCD)の感光性素子を含む、EEE1のシステムである。
EEE3は、前記イメージングセンサが、複数の感光性素子を含み、前記複数の感光性素子が、少なくとも100万個の感光性素子を含む、EEE1のシステムである。
EEE4は、前記照明スケジュールは、所定の光パルス繰り返し率、所定の光パルス持続時間、所定の光パルス強度、または所定の光パルスデューティサイクルのうちの少なくとも1つを含む、EEE1のシステムである。
EEE5は、前記少なくとも1つの光源が、レーザーダイオード、発光ダイオード、プラズマ光源、ストロボライト、固体レーザー、またはファイバーレーザーのうちの少なくとも1つを含む、EEE1のシステムである。
EEE6は、前記動作は、前記イメージングセンサに所望の露出を提供するために、複数の可能な照明スケジュールの中から照明スケジュールを選択することをさらに含む、EEE1のシステムである。
EEE7は、前記動作は、前記シーンの深度マップおよび前記シーンの画像に基づいて、前記シーンの高解像度深度マップを決定することをさらに含む、EEE1のシステムである。
EEE8は、前記少なくとも1つのToFセンサ、前記イメージングセンサ、および前記少なくとも1つの光源を共通の基板に結合した、EEE1のシステムである。
EEE9は、前記少なくとも1つのToFセンサ、前記イメージングセンサ、および前記少なくとも1つの光源を車両に結合した、EEE1のシステムである。
EEE10は、前記動作は、前記シーンの前記深度マップおよび前記シーンの前記画像に基づいて、前記シーンに関する少なくとも1つの推論を決定することをさらに含む、EEE1のシステムである。
EEE11は、前記少なくとも1つの推論は、車両の環境または前記車両の動作状況における1つまたは複数のオブジェクトに関する情報を含む、EEE10のシステムである。
EEE12は、前記コントローラは、少なくとも1つのディープニューラルネットワークを含み、前記少なくとも1つの推論の決定は、前記少なくとも1つのディープニューラルネットワークによって実行される、EEE10のシステムである。
EEE13は、
少なくとも1つの光源に、照明スケジュールに従ってシーンを照明光で照明させることと、
飛行時間型(ToF)センサに、前記照明光に基づいた前記シーンの深度マップを示す情報を提供させることと、
イメージングセンサに、前記照明光に基づいた前記シーンの画像を示す情報を提供させることと、を含む方法である。
EEE14は、前記照明スケジュールは、所定の光パルス繰り返し率、所定の光パルス持続時間、所定の光パルス強度、または所定の光パルスデューティサイクルのうちの少なくとも1つを含む、EEE13の方法である。
EEE15は、前記イメージングセンサに所望の露出を提供するために、複数の可能な照明スケジュールの中から前記照明スケジュールを選択することをさらに含む、EEE13の方法である。
EEE16は、前記シーンの前記深度マップおよび前記シーンの前記画像に基づいて、前記シーンの高解像度深度マップを決定することをさらに含む、EEE13のシステムである。
EEE17は、前記シーンの前記深度マップおよび前記シーンの前記画像に基づいて、前記シーンに関する少なくとも1つの推論を決定することをさらに含む、EEE13の方法である。
EEE18は、前記少なくとも1つの推論は、車両の環境または前記車両の動作状況における1つまたは複数のオブジェクトに関する情報を含む、EEE17の方法である。
EEE19は、前記少なくとも1つの推論の決定は、少なくとも1つのディープニューラルネットワークによって実行される、EEE17の方法である。
EEE20は、周囲光の量または時刻に基づいて前記照明スケジュールを調整することをさらに含む、EEE13の方法である。
EEE21は、
前記シーンの前記画像と前記深度マップとを比較することと、
前記比較に基づいて、前記深度マップ内の少なくとも1つの範囲エイリアスアーチファクトを決定することと、
前記決定された少なくとも1つの範囲エイリアスアーチファクトに基づいて更新された深度マップを提供することと、を含むEEE13の方法である。
EEE22は、
前記シーンの画像に基づいて、関心領域を決定することと、
前記関心領域内のオブジェクトに基づいて、前記ToFセンサの少なくとも1つの動作パラメータを調整することと、をさらに含むEEE13の方法である。
EEE23は、
前記シーンの複数の画像に基づいて、前記シーンのオプティカルフロー表現を決定することと、
前記シーンの前記オプティカルフロー表現に基づいて、前記ToFセンサまたは前記照明光の少なくとも1つの動作パラメータを調整することと、をさらに含むEEE13の方法である。
EEE24は、
第1の車両と第2の車両が互いに閾値距離内にあると判定することを含み、ここで、前記第1の車両および前記第2の車両は各々、それぞれのハイブリッドイメージングシステムを含み、前記ハイブリッドイメージングシステムは、
少なくとも1つの飛行時間型(ToF)センサと、
イメージングセンサと、を備え、ここで前記少なくとも1つのToFセンサと前記イメージングセンサはシーンからの光を受光するように構成されており、さらに
少なくとも1つの光源と、
前記少なくとも1つのToFセンサ、前記イメージングセンサ、または前記少なくとも1つの光源の少なくとも1つの動作パラメータを調整することと、を含む方法である。
EEE25は、前記少なくとも1つの動作パラメータを調整することが、それぞれのハイブリッドイメージングシステム間のクロストークを低減するために、サーバが少なくとも1つのToFセンサの変調周波数を調整すること、または、前記少なくとも1つのToFセンサの時間オフセットを調整すること、を含むEEE24の方法である。
EEE26は、前記サーバが、所与の領域内のそれぞれの車両に関連付けられた各ハイブリッドイメージングシステムの少なくとも1つの動作パラメータのデータベースを保守する、EEE25の方法である。
EEE27は、
シーンの3次元情報を含む事前情報を提供することと、
少なくとも1つの光源に、照明スケジュールに従って前記シーンを照明光で照明させることと、
飛行時間型(ToF)センサに、前記照明光に基づいた前記シーンの深度マップを示す情報を提供させることと、
イメージングセンサに、前記照明光に基づいた前記シーンの画像を示す情報を提供させることと、を含む方法である。
EEE28は、
前記事前情報と、前記シーンの前記深度マップまたは前記シーンの前記画像の少なくとも1つと、を比較することと、
前記比較に基づいて、車両の局所的な位置を決定することと、をさらに含むEEE27の方法である。
EEE29は、
前記事前情報と、前記シーンの前記深度マップまたは前記シーンの前記画像の少なくとも1つと、を比較することと、
前記比較に基づいて、前記イメージセンサまたは前記ToFセンサの較正条件を決定することと、をさらに含むEEE27の方法である。
EEE30は、
前記事前情報を、前記シーンの前記深度マップまたは前記シーンの前記画像の少なくとも1つに投影することと、
前記投影に基づいて、車両の局所的な位置を決定することと、をさらに含むEEE27の方法である。
EEE31は、
前記事前情報の背景部分を決定することと、
前記背景部分に対応する前記シーンの前記深度マップまたは前記シーンの前記画像の少なくとも一部を減算または無視することと、をさらに含むEEE27の方法である。
EEE32は、
前記事前情報に基づいて少なくとも1つの再帰反射オブジェクトを決定することと、
前記少なくとも1つの再帰反射物体に対応する前記シーンの一部をスキャンしながら、前記ToFセンサまたは前記イメージセンサの少なくとも1つの動作パラメータを調整することと、をさらに含むEEE27の方法である。
さまざまな開示された態様および実施形態は、例示の目的のためであり、限定することを意図するものではなく、その真の範囲は、以下の特許請求の範囲により示される。

Claims (18)

  1. システムであって、
    少なくとも1つの飛行時間型(ToF)センサと、
    イメージングセンサと、を備え、前記少なくとも1つのToFセンサと前記イメージングセンサはシーンからの光を受光するように構成されており、さらに
    少なくとも1つの光源と、
    動作を行うコントローラと、を備え、前記動作は、
    前記イメージングセンサに所望の露出を提供するために、複数の可能な照明スケジュールの中から照明スケジュールを選択することと、
    前記少なくとも1つのToFセンサ、前記イメージングセンサ、および前記少なくとも1つの光源が結合された車両の周りの環境に関する事前情報と、周囲光の量または時刻に基づいて前記選択した照明スケジュールを調整することと、
    前記少なくとも1つの光源に、前記調整した照明スケジュールに従って前記シーンの少なくとも一部を照明光で照明させることと、
    前記少なくとも1つのToFセンサに、前記照明光に基づいた前記シーンの深度マップを示す情報を提供させることと、
    前記イメージングセンサに、前記照明光に基づいた前記シーンの画像を示す情報を提供させることと、を含むシステム。
  2. システムであって、
    少なくとも1つの飛行時間型(ToF)センサと、
    イメージングセンサと、を備え、前記少なくとも1つのToFセンサと前記イメージングセンサはシーンからの光を受光するように構成されており、さらに
    少なくとも1つの光源と、
    動作を行うコントローラと、を備え、前記動作は、
    前記イメージングセンサに所望の露出を提供するために、複数の可能な照明スケジュールの中から照明スケジュールを選択することと、
    前記少なくとも1つの光源に、前記照明スケジュールに従って前記シーンの少なくとも一部を照明光で照明させることと、
    前記少なくとも1つのToFセンサに、前記照明光に基づいた前記シーンの深度マップを示す情報を提供させることと、
    前記イメージングセンサに、前記照明光に基づいた前記シーンの画像を示す情報を提供させることと、
    前記シーンの画像に基づいて、関心領域を決定することと、
    前記関心領域内のオブジェクトに基づいて、前記ToFセンサの少なくとも1つの動作パラメータを調整することと、を含むシステム。
  3. システムであって、
    少なくとも1つの飛行時間型(ToF)センサと、
    イメージングセンサと、を備え、前記少なくとも1つのToFセンサと前記イメージングセンサはシーンからの光を受光するように構成されており、さらに
    少なくとも1つの光源と、
    動作を行うコントローラと、を備え、前記動作は、
    前記イメージングセンサに所望の露出を提供するために、複数の可能な照明スケジュールの中から照明スケジュールを選択することと、
    前記少なくとも1つの光源に、前記照明スケジュールに従って前記シーンの少なくとも一部を照明光で照明させることと、
    前記少なくとも1つのToFセンサに、前記照明光に基づいた前記シーンの深度マップを示す情報を提供させることと、
    前記イメージングセンサに、前記照明光に基づいた前記シーンの画像を示す情報を提供させることと、
    前記シーンの複数の画像に基づいて、前記シーンのオプティカルフロー表現を決定することと、
    前記シーンの前記オプティカルフロー表現に基づいて、前記ToFセンサまたは前記照明光の少なくとも1つの動作パラメータを調整することと、を含むシステム。
  4. 前記照明スケジュールは、所定の光パルス繰り返し率、所定の光パルス持続時間、所定の光パルス強度、または所定の光パルスデューティサイクルのうちの少なくとも1つを含む、請求項1~3のいずれか1項に記載のシステム。
  5. 前記動作は、前記シーンの深度マップおよび前記シーンの画像に基づいて、前記シーンの高解像度深度マップを決定することをさらに含む、請求項1~3のいずれか1項に記載のシステム。
  6. 前記少なくとも1つのToFセンサ、前記イメージングセンサ、および前記少なくとも1つの光源を共通の基板に結合した、請求項1~3のいずれか1項に記載のシステム。
  7. 前記少なくとも1つのToFセンサ、前記イメージングセンサ、および前記少なくとも1つの光源を車両に結合した、請求項2または3に記載のシステム。
  8. 前記動作は、前記シーンの深度マップおよび前記シーンの画像に基づいて、前記シーンについての少なくとも1つの推論を決定することをさらに含む、請求項1~3のいずれか1項に記載のシステム。
  9. 前記少なくとも1つの推論は、車両の環境または前記車両の動作状況における1つまたは複数のオブジェクトに関する情報を含む、請求項8に記載のシステム。
  10. 前記コントローラは、少なくとも1つのディープニューラルネットワークを含み、前記少なくとも1つの推論の決定は、前記少なくとも1つのディープニューラルネットワークによって実行される、請求項8に記載のシステム。
  11. イメージングセンサに所望の露出を提供するために、複数の可能な照明スケジュールの中から照明スケジュールを選択することと、
    車両の周りの環境に関する事前情報と、周囲光の量または時刻に基づいて前記選択した照明スケジュールを調整することと、
    少なくとも1つの光源に、前記調整した照明スケジュールに従ってシーンを照明光で照明させることと、
    飛行時間型(ToF)センサに、前記照明光に基づいた前記シーンの深度マップを示す情報を提供させることと、
    前記イメージングセンサに、前記照明光に基づいた前記シーンの画像を示す情報を提供させることと、
    を含み、前記ToFセンサ、前記イメージングセンサ、および前記少なくとも1つの光源は、前記車両に結合されている、方法。
  12. イメージングセンサに所望の露出を提供するために、複数の可能な照明スケジュールの中から照明スケジュールを選択することと、
    少なくとも1つの光源に、前記照明スケジュールに従ってシーンを照明光で照明させることと、
    飛行時間型(ToF)センサに、前記照明光に基づいた前記シーンの深度マップを示す情報を提供させることと、
    前記イメージングセンサに、前記照明光に基づいた前記シーンの画像を示す情報を提供させることと、
    前記シーンの画像に基づいて、関心領域を決定することと、
    前記関心領域内のオブジェクトに基づいて、前記ToFセンサの少なくとも1つの動作パラメータを調整することと、を含む方法。
  13. イメージングセンサに所望の露出を提供するために、複数の可能な照明スケジュールの中から照明スケジュールを選択することと、
    少なくとも1つの光源に、前記照明スケジュールに従ってシーンを照明光で照明させることと、
    飛行時間型(ToF)センサに、前記照明光に基づいた前記シーンの深度マップを示す情報を提供させることと、
    前記イメージングセンサに、前記照明光に基づいた前記シーンの画像を示す情報を提供させることと、
    前記シーンの複数の画像に基づいて、前記シーンのオプティカルフロー表現を決定することと、
    前記シーンの前記オプティカルフロー表現に基づいて、前記ToFセンサまたは前記照明光の少なくとも1つの動作パラメータを調整することと、を含む方法。
  14. 前記照明スケジュールは、所定の光パルス繰り返し率、所定の光パルス持続時間、所定の光パルス強度、または所定の光パルスデューティサイクルのうちの少なくとも1つを含む、請求項11~13のいずれか1項に記載の方法。
  15. 前記シーンの前記深度マップおよび前記シーンの前記画像に基づいて、前記シーンの高解像度深度マップを決定することをさらに含む、請求項11~13のいずれか1項に記載の方法。
  16. 前記シーンの前記深度マップおよび前記シーンの前記画像に基づいて、前記シーンに関する少なくとも1つの推論を決定することをさらに含む、請求項11~13のいずれか1項に記載の方法。
  17. 前記少なくとも1つの推論は、車両の環境または前記車両の動作状況における1つまたは複数のオブジェクトに関する情報を含む、請求項16に記載の方法。
  18. 前記少なくとも1つの推論の決定は、少なくとも1つのディープニューラルネットワークによって実行される、請求項16に記載の方法。
JP2021503144A 2018-07-31 2019-07-19 ハイブリッド飛行時間型イメージャモジュール Active JP7321246B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862712586P 2018-07-31 2018-07-31
US62/712,586 2018-07-31
US16/229,193 US11609313B2 (en) 2018-07-31 2018-12-21 Hybrid time-of-flight and imager module
US16/229,193 2018-12-21
PCT/US2019/042572 WO2020028072A1 (en) 2018-07-31 2019-07-19 Hybrid time-of-flight and imager module

Publications (2)

Publication Number Publication Date
JP2021532648A JP2021532648A (ja) 2021-11-25
JP7321246B2 true JP7321246B2 (ja) 2023-08-04

Family

ID=69228584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021503144A Active JP7321246B2 (ja) 2018-07-31 2019-07-19 ハイブリッド飛行時間型イメージャモジュール

Country Status (9)

Country Link
US (2) US11609313B2 (ja)
EP (1) EP3818392A4 (ja)
JP (1) JP7321246B2 (ja)
KR (1) KR102596831B1 (ja)
CN (1) CN112534303B (ja)
AU (2) AU2019315355B2 (ja)
IL (1) IL280398B1 (ja)
SG (1) SG11202100551VA (ja)
WO (1) WO2020028072A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11994586B2 (en) * 2018-06-22 2024-05-28 Ams Ag Using time-of-flight and pseudo-random bit sequences to measure distance to object
US11609313B2 (en) * 2018-07-31 2023-03-21 Waymo Llc Hybrid time-of-flight and imager module
US11682107B2 (en) * 2018-12-14 2023-06-20 Sony Corporation Depth of field adjustment in images based on time of flight depth maps
WO2020243901A1 (en) * 2019-06-04 2020-12-10 Texas Instruments Incorporated An optical time of flight sensor for navigation systems in robotic applications
US10819923B1 (en) * 2019-11-19 2020-10-27 Waymo Llc Thermal imaging for self-driving cars
US11570342B2 (en) * 2020-02-18 2023-01-31 Microsoft Technology Licensing, Llc Selective power efficient three-dimensional imaging
DE102020109568A1 (de) * 2020-04-06 2021-10-07 Zoller & Fröhlich GmbH Verfahren zur Ermittlung und Kompensation von Streulicht eines 3D-Laserscanners
CN112819874B (zh) * 2021-01-07 2024-05-28 北京百度网讯科技有限公司 深度信息处理方法、装置、设备、存储介质以及程序产品
JP7120365B1 (ja) 2021-03-23 2022-08-17 株式会社リコー 撮像装置、撮像方法および情報処理装置
WO2024116631A1 (ja) * 2022-11-29 2024-06-06 ソニーセミコンダクタソリューションズ株式会社 検出装置及び検出方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015025497A1 (ja) 2013-08-23 2015-02-26 パナソニックIpマネジメント株式会社 測距システム及び信号発生装置
US20150062558A1 (en) 2013-09-05 2015-03-05 Texas Instruments Incorporated Time-of-Flight (TOF) Assisted Structured Light Imaging
JP2017195569A (ja) 2016-04-22 2017-10-26 コニカミノルタ株式会社 監視システム
JP2018066701A (ja) 2016-10-21 2018-04-26 ソニーセミコンダクタソリューションズ株式会社 測距装置、および、測距装置の制御方法
WO2018101247A1 (ja) 2016-11-29 2018-06-07 マクセル株式会社 画像認識撮像装置

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009265112A (ja) * 2008-04-02 2009-11-12 Casio Hitachi Mobile Communications Co Ltd 撮像装置及びプログラム
DE102009045312A1 (de) * 2009-10-02 2011-04-07 Robert Bosch Gmbh Optisches Entfernungsmessgerät mit Verwackelungsschutz
US8446492B2 (en) 2009-12-10 2013-05-21 Honda Motor Co., Ltd. Image capturing device, method of searching for occlusion region, and program
US8648702B2 (en) * 2010-08-20 2014-02-11 Denso International America, Inc. Combined time-of-flight and image sensor systems
US8860930B2 (en) * 2012-06-02 2014-10-14 Richard Kirby Three dimensional surface mapping system using optical flow
US9297889B2 (en) 2012-08-14 2016-03-29 Microsoft Technology Licensing, Llc Illumination light projection for a depth camera
EP2890125B1 (en) 2013-12-24 2021-10-13 Sony Depthsensing Solutions A time-of-flight camera system
KR102277309B1 (ko) 2014-01-29 2021-07-14 엘지이노텍 주식회사 깊이 정보 추출 장치 및 방법
CN106415312B (zh) 2014-05-30 2019-07-02 松下知识产权经营株式会社 感应***及驾驶支援***
EP2955544B1 (en) 2014-06-11 2020-06-17 Sony Depthsensing Solutions N.V. A TOF camera system and a method for measuring a distance with the system
US9578311B2 (en) 2014-10-22 2017-02-21 Microsoft Technology Licensing, Llc Time of flight depth camera
EP3230691A4 (en) 2014-12-09 2018-08-15 Basf Se Optical detector
US10481696B2 (en) * 2015-03-03 2019-11-19 Nvidia Corporation Radar based user interface
EP3271747B1 (en) * 2015-03-17 2022-05-25 Cornell University Depth field imaging apparatus, methods, and applications
US20160295133A1 (en) * 2015-04-06 2016-10-06 Heptagon Micro Optics Pte. Ltd. Cameras having a rgb-ir channel
US11328446B2 (en) 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
CN107534764B (zh) 2015-04-30 2020-03-17 深圳市大疆创新科技有限公司 增强图像分辨率的***及方法
KR101778558B1 (ko) * 2015-08-28 2017-09-26 현대자동차주식회사 물체 인식 장치, 그를 가지는 차량 및 그 제어 방법
FR3053123B1 (fr) * 2016-06-22 2019-08-02 Jean-Luc Redoux Dispositif et procede d'avertissement de conducteur de vehicule mal place
US10582121B2 (en) 2016-01-12 2020-03-03 Mitsubishi Electric Research Laboratories, Inc. System and method for fusing outputs of sensors having different resolutions
JP6736307B2 (ja) * 2016-02-22 2020-08-05 株式会社キーエンス 安全スキャナ、光学安全システム及び安全スキャナ用の設定支援装置
US9760837B1 (en) 2016-03-13 2017-09-12 Microsoft Technology Licensing, Llc Depth from time-of-flight using machine learning
US10627494B2 (en) 2016-09-16 2020-04-21 Analog Devices, Inc. Interference handling in time-of-flight depth sensing
US10942272B2 (en) * 2016-12-13 2021-03-09 Waymo Llc Power modulation for a rotary light detection and ranging (LIDAR) device
WO2018127789A1 (en) 2017-01-03 2018-07-12 Innoviz Technologies Ltd. Lidar systems and methods for detection and classification of objects
CN106772431B (zh) * 2017-01-23 2019-09-20 杭州蓝芯科技有限公司 一种结合tof技术和双目视觉的深度信息获取装置及其方法
US10302764B2 (en) * 2017-02-03 2019-05-28 Microsoft Technology Licensing, Llc Active illumination management through contextual information
CN207281284U (zh) * 2017-08-15 2018-04-27 东莞市迈科新能源有限公司 一种基于tof相机的车载立体视觉***
DE102017215783A1 (de) * 2017-09-07 2019-03-07 Robert Bosch Gmbh Verfahren zum Betrieb eines Laserentfernungsmessgeräts
CN108965666B (zh) * 2018-07-19 2020-10-09 维沃移动通信有限公司 一种移动终端及图像拍摄方法
US11609313B2 (en) * 2018-07-31 2023-03-21 Waymo Llc Hybrid time-of-flight and imager module

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015025497A1 (ja) 2013-08-23 2015-02-26 パナソニックIpマネジメント株式会社 測距システム及び信号発生装置
US20150062558A1 (en) 2013-09-05 2015-03-05 Texas Instruments Incorporated Time-of-Flight (TOF) Assisted Structured Light Imaging
JP2017195569A (ja) 2016-04-22 2017-10-26 コニカミノルタ株式会社 監視システム
JP2018066701A (ja) 2016-10-21 2018-04-26 ソニーセミコンダクタソリューションズ株式会社 測距装置、および、測距装置の制御方法
WO2018101247A1 (ja) 2016-11-29 2018-06-07 マクセル株式会社 画像認識撮像装置

Also Published As

Publication number Publication date
CN112534303A (zh) 2021-03-19
US11609313B2 (en) 2023-03-21
KR20210027502A (ko) 2021-03-10
EP3818392A4 (en) 2022-04-06
EP3818392A1 (en) 2021-05-12
AU2019315355A1 (en) 2021-02-11
IL280398A (en) 2021-03-01
AU2023201028A1 (en) 2023-03-23
KR102596831B1 (ko) 2023-11-02
SG11202100551VA (en) 2021-02-25
WO2020028072A1 (en) 2020-02-06
AU2019315355B2 (en) 2022-12-08
AU2023201028B2 (en) 2023-11-16
US20230194681A1 (en) 2023-06-22
CN112534303B (zh) 2024-06-04
US20200041620A1 (en) 2020-02-06
JP2021532648A (ja) 2021-11-25
IL280398B1 (en) 2024-06-01

Similar Documents

Publication Publication Date Title
JP7203217B2 (ja) 構造化光照明付き飛行時間型センサ
JP7321246B2 (ja) ハイブリッド飛行時間型イメージャモジュール
CN109416399B (zh) 三维成像***
EP3195042B1 (en) Linear mode computational sensing ladar
JP6387407B2 (ja) 周辺検知システム
JP7028878B2 (ja) 物体までの距離を測定するためのシステム
EP3045936A1 (en) Surround sensing system with telecentric optics
CN110121659B (zh) 用于对车辆的周围环境进行特征描述的***
EP3045935A1 (en) Surround sensing system with dome-filter assembly
US20210208283A1 (en) Efficient algorithm for projecting world points to a rolling shutter image
JP7140474B2 (ja) ステレオ三角測量のためのシステム
JP7465958B2 (ja) 赤外線検知のためのシステムおよび方法
CN113227839B (zh) 具有结构光照明器的飞行时间传感器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221110

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230725

R150 Certificate of patent or registration of utility model

Ref document number: 7321246

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150