JP7140474B2 - ステレオ三角測量のためのシステム - Google Patents

ステレオ三角測量のためのシステム Download PDF

Info

Publication number
JP7140474B2
JP7140474B2 JP2017148984A JP2017148984A JP7140474B2 JP 7140474 B2 JP7140474 B2 JP 7140474B2 JP 2017148984 A JP2017148984 A JP 2017148984A JP 2017148984 A JP2017148984 A JP 2017148984A JP 7140474 B2 JP7140474 B2 JP 7140474B2
Authority
JP
Japan
Prior art keywords
camera
light
source
reflected
scanner
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017148984A
Other languages
English (en)
Other versions
JP2018031776A (ja
Inventor
ジェラルド ダーク スミッツ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2018031776A publication Critical patent/JP2018031776A/ja
Application granted granted Critical
Publication of JP7140474B2 publication Critical patent/JP7140474B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Geophysics (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Stereo-Broadcasting Methods (AREA)

Description

本発明は、距離測定に関し、より詳細には、ステレオ三角測量(stereo triangulation)のためのシステムに関する。
距離を測定し、3次元イメージングのためのステレオビジョンシステムに対する多様な努力が行われているが、このような努力は多い時間を消耗し、高価な装置を必要とする。
従来の典型的なアプローチの多様な制限及び短所は、図面を参照して本明細書の以下の部分で開示するように、本発明の実施形態のようなシステムの比較を通じて当業者によって明確になる。
本発明は、上記従来の問題点に鑑みてなされたものであって、本発明の目的は、ステレオ三角測量のためのシステムを提供することにある。
上記目的を達成するためになされた本発明の一態様による客体を検出するシステムは、ソース光を出力する平行なスキャニング光ソースと、前記客体から反射されたソース光である第1反射光を受信する第1カメラと、前記第1カメラから空間的に離隔され、前記客体から反射されたソース光である第2反射光を受信する第2カメラと、前記スキャニング光ソース、前記第1カメラ、及び前記第2カメラを制御し、前記第1反射光及び前記第2反射光を処理して前記客体を検出する1つ以上のプロセッサと、を備える。
上記目的を達成するためになされた本発明の一態様による客体を検出する方法は、平行なスキャニング光ソースによってソース光を出力する段階と、第1カメラによって前記客体から反射されたソース光である第1反射光を受信する段階と、前記第1カメラと空間的に離隔された第2カメラによって前記客体から反射されたソース光である第2反射光を受信する段階と、1つ以上のプロセッサによって前記スキャニング光ソース、前記第1カメラ、及び前記第2カメラを制御する段階と、前記1つ以上のプロセッサによって前記第1反射光及び前記第2反射光の中の1つ又は両方を処理して前記客体を検出する段階と、を有する。
上記目的を達成するためになされた本発明の他の態様による客体を検出するシステムは、平行な少なくとも2つの区分された光を含むソース光を出力するスキャニング光ソースと、ローリングシャッターカメラプロセスを使用して、前記客体から反射されたソース光である第1反射光を受信する第1カメラと、前記ローリングシャッターカメラプロセスを使用して、前記第1カメラから空間的に離隔され、前記客体から反射されたソース光である第2反射光を受信する第2カメラと、前記スキャニング光ソース、前記第1カメラ、及び前記第2カメラを制御し、前記第1反射光及び前記第2反射光を1回に1ピクセルの行ずつ処理して前記客体を検出する1つ以上のプロセッサと、を備える。
ステレオ三角測量のためのシステム及び/又は方法は、少なくとも1つの図面に関連して説明し、図示する。
本発明のみならず、それらの開示する実施形態の詳細な説明の多様な長所、様相、及び新しい特徴は、以下の詳細な説明及び図面からより良く理解される。
本発明の特徴及び長所は図面に連結されて以下の詳細な説明からより明確になる。
本発明によれば、向上させた性能を有するステレオ三角測量のためのシステム及び方法を提供することができる。
本発明の一実施形態によるステレオ三角測量の図である。 本発明の一実施形態による自動車プラットフォーム上のステレオ三角測量の図である。 本発明の一実施形態による自動車プラットフォームのステレオ三角測量のハイレベルブロック図である。 本発明の一実施形態によるステレオ三角測量で使用されるRGBスキャナーの図である。 グローバル露出カメラに対する処理スケジュールのグラフである。 本発明の一実施形態によるローリングシャッターカメラに対する処理スケジュールのグラフである。
本発明の実施形態は本明細書に開示する詳細な説明に制限されるものと理解してはならない。更に正確に言うと、本明細書が当業者に本発明の実施形態の様相を完全に理解させ、実施させ、伝達することができるように、このような実施形態を例として提供する。特許請求の範囲は本発明の実施形態の一部を示す。
詳細な説明の全般に亘って、類似な参照符号は類似な要素を示す。記述するか、又は技術的な用語を含む全ての用語は、当業者によって自明な意味を有するものと理解すべきである。用語が言語の進化、判例、又は新しい技術の登場によって曖昧な意味を含む場合、本明細書で使用する用語の意味は、本明細書におけるその使用及び/又は定義によって先ず明確にならなければならない。その後に、用語は当業者が本明細書における用語を理解できるように明確にならなければならない。
部分(part)が要素を“含む(include or comprise)”場合、それに対する特定の説明が無い限り、部分は他の要素を更に含む。本発明の実施形態で“ユニット(unit)”の用語は、特定機能を遂行するハードウェア構成又はソフトウェア構成を意味する。ハードウェア構成は、例えばFPGA(field-programmable gate array)又はASIC(application-specific integrated circuit)を含む。
ソフトウェア又はソフトウェア構成は、実行可能なコード及び/又はアドレス指定可能な格納媒体で実行可能なコードによって使用されるデータを指称する。即ち、ソフトウェアは、例えばオブジェクト指向型ソフトウェア構成、クラス構成、及び作業構成であり、プロセス、機能、属性、手続、サブルーチン、プログラムコードのセグメント、ドライバー、ファームウェア、アプリケーションプログラム、マイクロコード/回路、データ、データベース、データ構造、テーブル、アレイ、又は多様なものを含む。
“ユニット(unit)”によって提供される機能は追加的な構成及び“ユニット(unit)”に分割される。
以下、本発明を実施するための形態の具体例を、図面を参照しながら詳細に説明する。これに対して、本発明の実施形態は他の形態を含むことができ、本明細書に開示する詳細な説明に制限されるものと理解してはならない。
以下の説明で、広く公知された機能又は構成は、不必要な説明で実施形態が曖昧にならないように詳細に説明しない。
図1Aは、本発明の一実施形態によるステレオ三角測量の図である。図1Aを参照すると、カメラ(110、112)を具備するプラットフォーム100、客体を露出するためのソース光(source light)を提供するスキャナー120、及び記録される客体130(object)を図示する。カメラ(110、112)は、例えばCMOSカメラを含む適切なカメラの形態である。スキャナー120は、例えば一連の水平ラインにレーザー光を出力するスキャニングMEMS技法を使用する光スキャナーのようなラスタ方法(raster method)で領域を照らす適切な光ソースの形態である。従って、一実施形態で、スキャナー120はフレーム当たり1080個の水平ラインを出力する。本発明の多様な実施形態で、スキャナー120は、放出された光の分散(dispersion)を最小化する実質的に(substantially)平行な光(collimated light)を提供する。本発明の多様な実施形態は、放出された光のためのポイントソース(point source)であるスキャナー120を含む。
多様な実施形態は、特定の目的のために異なる水平及び/又は垂直解像度(resolution)を提供する。例えば、一部の実施形態は、ライン当たり1920個のピクセルを有する1080個のラインを含む。本明細書で多様な説明を容易にするために、フレーム当たり1080個のライン及びライン当たり1920個のピクセルであることを仮定するが、このような事項が本発明の思想をフレーム当たり特定数のライン及びライン当たり特定数のピクセルに制限しないことを理解すべきである。
また、カメラ(110、112)とスキャナー120との間の距離が知られているため、各カメラからの対応するピクセルは各カメラからの距離情報を提供することに応えることができ、それによって、3次元形状化(3-D imagery)が可能になる。また、スキャナー120及びカメラ(110、112)の構成に対して、可能な3つの分離された三角測量が存在する。第1三角形は、頂点としてカメラ110、スキャナー120、及び客体130で構成される。第2三角形は、頂点としてカメラ112、スキャナー120、及び客体130で構成される。第3三角形は、頂点としてカメラ110、カメラ112、及び客体130で構成される。1つ以上の三角形から受信された情報は、多様な形態のイメージ生成を最適化するために処理される。
3次元イメージングを含む一般的なイメージングに対して、例えばde Bruijinシークェンスのような構造化光シークェンス(structured light sequence)はイメージキャプチャを最適化するのに使用される。しかし、本発明の多様な実施形態は、構造化光シークェンスを使用することに制限されない。更に、本発明の多様な実施形態は、スキャナー120がその出力強度を変化させるようにする。これは、例えばカメラ(110、112)が遠く離れたところからイメージをキャプチャすることを許容するものである。
多様な実施形態は、またスキャナー120の水平移動121を制御する。例えば、スキャンに対するより詳細な内容を獲得するために、スキャナー120は同一時間の間の正常スキャンよりもより短い水平移動121に対して制御される。これは、より小さなイメージ領域をより多く照らしてより詳細な内容を獲得するようにする。他の場合において、スキャナー120は同一時間の間の正常スキャンよりもより長い水平移動121に対して制御される。これは、より少ない詳細な可能性があるより大きなイメージ領域をカバーするようにする。スキャナー120は、またスキャンされた水平ラインの数に対して制御される。
また、スキャナー120は、スキャンされた垂直位置(vertical position)のみならず、スキャンされた水平位置(horizontal position)に対して制御される。例えば、スキャンされた水平位置は、水平開始位置及び水平終了位置を示し、客体又は環境の特定領域に対してより詳細な構成を獲得する。同様に、スキャンされた垂直位置に対して、開始ライン及び終了ラインの指標(indications)が存在する。このような方式において、スキャンされた領域は狭く、これによって、ズーム効果(zoom effect)を提供する。スキャナー120の更なる制御は、正常時間内に又は正常スキャン速度で減少領域をスキャンするか否かに対するビーム出力の強度を含むが、フレームがより小さいため、秒当たりより多くの“フレーム(frames)”を効率的に含む。
このような方式において、本発明の多様な実施形態は、水平スイープ(horizontal sweep)の開始及び水平スイープ範囲を特定することを許容する。同様に、垂直スイープ(vertical sweep)の開始のみならず、垂直スイープ範囲が特定される。
カメラ(110、112)は、ピクセルの一部ライン(行)を露出させてスキャナー120に同期化させることによって、特定水平ライン(行)を読み出すように制御される。スキャナー120は、カメラ(110、112)のピクセルの行数とは異なる数のラインをスキャンする。一部の実施形態は、カメラ(110又は112)が行から読み出される開始ピクセル及び終了ピクセルを特定して、更にスキャナー120と同期化されるようにする。これは、フレームの所望の部分からピクセルを読み出して処理することを許容する。
更に、一部の実施形態は、カメラがある量だけ回転(swivel)するように制御されることを許容する。これは、例えば各個別カメラ(110、112)が異なる領域のイメージをキャプチャすることを許容する。従って、カメラ(110、112)は3次元イメージである客体130のイメージを提供するように制御されるか、或いは各カメラ(110、112)は重畳領域又は非重畳領域のイメージを提供する。従って、カメラ(110、112)はカメラ110の前面領域の左側及びカメラ112の前面領域の右側の個別イメージを提供するように構成される。更に、カメラ(110、112)の中の1つが非活性化されるか、又はカメラ(110、112)の中の1つに対する処理回路/ソフトウェアが非活性化された場合に、カメラ(110、112)の中の他の1つはスキャナー120によって照らされる前面領域のモノイメージ(mono images)を提供することに使用される。一部の場合に、残りのカメラ(110又は112)は水平及び/又は垂直に回転(swivel)してより広い視野(field of view)を与える。
本発明の多様な実施形態は、スキャナー120が回転するように制御されることを許容する。例えば、これは、回転されるカメラ(110及び/又は112)に対してよりよい光パターンを提供するためである。スキャナー120の回転は、スキャナー120及び/又はスキャナー120の個別部分を制御する適切な技法を使用する。放出光(emitted light)の経路の方向は、スキャナー120内で又はスキャナー120の外部で制御される。経路の方向は、例えば光学レンズ(optical lenses)を使用して制御される。
図1Aはカメラ(110、112)間の中間に位置するスキャナー120を示すが、本発明はこれに制限される必要はない。例えば、スキャナー120はカメラ(110又は112)の中の1つの方向にスキューされるか、或いはスキャナー120は両方のカメラ(110、112)の右側又は両方のカメラ(110、112)の左側に位置する。
また、カメラ(110、112)及びスキャナー120は、可視光線(visible light)、赤外線(infrared light)等のような光スペクトル(light spectrum)の異なる部分を使用する。カメラ(110、112)は同じタイプを使用するが、本発明の多様な実施形態はこれに制限される必要はない。例えば、カメラ110はRGBスペクトルに敏感であるが、カメラ112は赤外線スペクトルに敏感である。使用される他のタイプのカメラは、例えば可視光線及び赤外線に敏感である。従って、本発明は、実施形態で使用されるカメラを任意の特定の電磁界スペクトルに制限しない。各カメラ(110、112)は、カメラ(110、112)に対する類似な受信ピクセル範囲及びスキャナー120の水平/垂直スキャン範囲の特定からの効率的なズーム機能及びソフトウェアズーム機能に追加的に光学ズーム機能を有する。
更に、スキャナー120は、互いに水平且つ平行なラスタ出力ライン(raster output lines)を提供するものとして説明するが、本発明の多様な実施形態は、スキャナー120の制御が異なる光パターンを使用することを許容する。従って、光は、平行、水平ラインを含まないパターンで出力される。例えば、平行な対角ライン、異なる角度で出力される多様なライン等のような多様なパターンが使用される。また平行ラインは右側から開始するか、或いは平行ラインは垂直なラインに出力される。従って、スキャナー120は、ラインが必ずしも左側で開始しないか、又は平行、垂直ラインではない光のラインを出力するように制御されることが可能である。
本発明の多様な実施形態は、エピポーラ平面(epipolar plane)上に位置するスキャナー120及びカメラ(110、112)を提供する。
図1Bは、本発明の一実施形態による自動車プラットフォーム上のステレオ三角測量の図である。図1Bを参照すると、図1のプラットフォーム100である自動車プラットフォーム150を図示する。従って、自動車プラットフォーム100はカメラ(110、112)及びスキャナー120を有する。上述したように、カメラ(110、112)の中の1つが非活性化されても、自動車プラットフォーム150は依然として前方の環境を見ることができる。
また、上述したように、カメラ(110、112)は、一般的に前面の3次元イメージングを放棄することによって、カメラ(110、112)で前方の右側領域及び前方の左側領域をそれぞれより詳細に見ることで失敗する他のセンサーの機能をある程度補完することを可能にする。これは、スキャナー120によってスキャン領域を調整することのみならず、カメラ(110、112)の角度を調整する可能性を伴う。一部の実施形態は、このような状況でも自動車プラットフォーム150の中央前方に近接した制限された3次元イメージングを提供するように構成される。
多様な実施形態は、ヘッドライト内にスキャナー120を有し、ヘッドライトによって放出された全光がヘッドライトを統制する地域規制を超えないように、スキャンされた光がヘッドライトによって出力される。例えば、米国内の使用のための装置は米国規制(US regulations)が適用され、EU内の使用のための装置はEU規制が適用され、中国内の使用のための装置は中国規制が適用される。スキャナー120がヘッドライトに位置するか、自動車の他の部分に位置するか、又は特定帯域(可視光線、赤外線等)に対して放出される全光はこのような帯域を統制する多様な規制に適合するように制御される。
従って、カメラ(110、112)は、前方の道路(road ahead)を照らす光の波長よりもヘッドライト内のスキャナー120によって出力されるスキャン光の波長に対してより敏感である。ヘッドライトのスキャナー120からの光は、上述したように、構造化(パターン化)されるか又は構造化されないこともある。また、ヘッドライトの両方に又はより多くの光にスキャナー120が存在し、各スキャナー120は、非構造化された光(non-structured light)を提供するか又は構造化された光(structured light)を提供する。従って、カメラは、1つのカメラからの構造化された光又は多数のカメラからの構造化された光を使用する能力を有する。
スキャナー120は水平ディテールに対するより良い識別力を許容する構造化された光を投影するように調整され、他のスキャナー120は垂直ディテールに対するより良い識別力を許容する構造化された光を投影するように調整される。スキャナー120は、また放出光の構造化をターンオン/ターンオフすることのみならず、水平識別力又は垂直識別力のための構造化された光を提供するように制御される。一実施形態は、垂直識別力のための構造化された光を提供する1つのスキャナー120及び水平識別力のための構造化された光を提供する他の1つのスキャナー120を含む。1つ以上のカメラは、1つ以上のスキャナーと同期化されて、構造化された光であるか否かに拘らず、光を受信する。
ヘッドライトのスキャナーを自動車プラットフォームに関連して説明したが、本発明の多様な実施形態は、任意の運送手段(陸上、空中、水中、宇宙等)のヘッドライトの実施形態のスキャナー、及び人の受信カメラに同期させたフラッシュ光のような他の形態の光を共に使用する。当業者に認識されるように、本発明の実施形態は多様な他のシナリオと共に使用される。
図2は、本発明の一実施形態による自動車プラットフォームのステレオ三角測量のハイレベルブロック図である。図2を参照すると、プラットフォーム100又は自動車プラットフォーム150と類似なプラットフォーム200を図示する。プラットフォーム200は、プロセッサ210、メモリ220、及びセンサー230を含む。プロセッサ210は命令語を実行することが可能な1つ以上の任意のタイプのプロセッサである。メモリ220は、揮発性メモリ222、不揮発性メモリ224、及び/又は大容量ストレージ226を含む。大容量ストレージ226は、例えば磁気ハードドライブ、光学媒体、フラッシュメモリ等を含む。データ及び実行可能な命令語はメモリ220に格納される。センサー230は、カメラ232及びスキャナー234のみならず、プラットフォーム200によって使用される他のセンサーを含む。例えば、プラットフォーム200が自動車プラットフォームである場合、他のセンサーは、レーダー(radar)、光線レーダー(lidar)、音波探知器(sonar)等を含む。
プロセッサ210は、センサー230に対して独立的であるか又は他の部品と集積されたプロセッサである。例えば、プロセッサ210は、カメラ232及びスキャナー234を論理的に含むか、又は論理的にセンサー230の一部であるプロセッサであるビジョンモジュール(vision module)と集積され、従って、センサー230を制御し、センサー230に対するデータを処理する。プロセッサ210は、センサー230の一部であるプロセッサを含む1つ以上のプロセッサに関連するか、センサー230からのデータを独立的に処理するか、又は多様なセンサー230を制御するように作動する独立的なプロセッサである。
プロセッサ210は、上述したように、カメラ232及びスキャナー234を制御して、例えば3次元イメージを生成するか、又は他のセンサーの中の1つ以上の損失を補償するように共に動作させる。プロセッサ210は、また異なる距離、分解能、カバーされた異なるイメージ領域、及び/又は近接撮影で、イメージングのためにカメラ232及びスキャナー234を制御する。プロセッサ210は、またカメラ232から受信された情報を処理する単一プロセッサであるが、多様な実施形態は、1つ以上のプロセッサ210がカメラ232からの情報を処理するマルチプロセッサ210を有する。
図3は、本発明の一実施形態によるステレオ三角測量で使用されるRGBスキャナーの図である。図3を参照すると、レッド、グリーン、及びブルー(RGB)の3つの異なる照明光(illuminating lights)を出力するように構成されたスキャナー300を図示する。RGBは共通的に使用され、それによって費用-効率的であるが、また他のカラーが他の実施形態で使用される。RGB光を出力するスキャナー300を使用することによって、例えばカメラ(110、112)のような受信カメラは、例えば自動車プラットフォーム150における運転者及び/又は乗客に表示するためのフルカラーイメージを生成することを可能にする。
2つのカメラからのデータが互いに相対的に近接するため、2つのカメラ(110、112)を使用することは、単一カメラを使用することよりもより正確且つ可能な実カラーを提供する。例えば、単一カメラで投影された光シークェンスが単一カメラで受信された光シークェンスと比較される。受信された光シークェンス強度は客体の反射率及び距離の関数である。従って、受信された光強度は、投影された光強度に対して非常に異なるため、それほど堅牢でない比較をもたらす。しかし、2つのカメラの場合に、同様の強度のシークェンスが比較され、これはより堅牢である。更に、深度、ディテール、及び/又はカラー正確性/強度の判別が遮蔽(occlusion)又は他の効果によって1つのカメラで受信された一部の光によって反対に影響を受けるが、そうであるか又は同じ方式で第2カメラに対する光はあまり影響を受けないことがある。従って、データの個別的なセットが処理され、関連して、単に1つのカメラを使用する場合よりもより正確なイメージを形成する。
本発明は、単一スキャナーと共に使用されるカメラの数、スキャナーに対するカメラの比率、又は与えられたプラットフォームで使用されるスキャナー/カメラ構成の数を制限しない。スキャナー/カメラの構成は、独立的に、又は環境の同様の客体若しくは環境の領域を処理するために使用される。例えば、1つ以上のスキャナー/カメラの構成は360°(又はそれ以下)の3次元出力を生成することに使用される。一部の場合に出力は2次元である。
スキャナー300及びカメラ(110、112)が3つのカラーを使用するものとして説明したが、多様な実施形態は、3つ以上のカラーを使用し、使用されるカラーは、レッド、グリーン、及び/又はブルー、或いはレッド、グリーン、及びブルーではない多数の異なるカラーを含む。
図4Aは、グローバル露出カメラ(global exposure camera)に対する処理スケジュールのグラフである。図4Aを参照すると、縦軸にピクセル行、横軸にピクセル行をキャプチャして処理する時間のグラフを図示する。図示したように、イメージデータ402の全体フレームはデータの任意の処理が遂行される前にキャプチャされる。全てのピクセルが同一の時間Tの間に光を受信するため、ピクセルの単一行がより短い時間T’の間に入射光を受信する場合よりもより多くの入力光露出が存在する可能性がある。また、受信されたピクセルの処理は、時間区間Tが経過する時まで開始することができないため、ピクセルの遅延された読出し404によってより長いレイテンシを招来する。露出時間(exposure time)がフレーム当たり1msに制限された場合、50Hzフレーム率で周辺光の減少が20倍になる。
図4Bは、本発明の一実施形態によるローリングシャッターカメラ(rolling shutter camera)に対する処理スケジュールのグラフである。図4Bを参照すると、縦軸にピクセル行、横軸にピクセル行をキャプチャして処理する時間のグラフを図示する。ローリングシャッターカメラ処理を使用し、1回でイメージデータの1つのラインのみをキャプチャする。単一ラインに対するイメージデータをキャプチャするための時間T’が全体フレームに対するイメージデータをキャプチャすることに要求される時間よりも短いため、露出されたラインに対するイメージデータは、図4Aに示したようにフルフレーム露出に対するイメージデータを読出すことよりも先に読み出される。イメージデータが読出されて処理される間に次のラインが露出されるため、ローリングシャッターカメラプロセスはより速いイメージデータの処理をもたらす。また、露出時間がライン当たり20μsに制限された場合、50Hzのフレーム率で、周辺光の減少が1000倍になり、より少ない雑音を有するイメージキャプチャを招来する。これは、図4Aで説明したグローバル露出カメラよりも50倍の周辺光減少をもたらす。
これは、例えば、カメラ(110、112)によるより高いフレーム率及び低照度性能の向上が可能になる。更に、例えばカメラ(110、112)に対してローリングシャッター方式を使用するスキャナー120からのスキャン光を整列させ同期化することによって、3次元イメージングを含むイメージ処理に対して関連するデータがより少なくなる。行は行単位(rowby row)に読出され、3次元データは1回に1つの行又は1回に制限された数の行に対する三角測量(triangulation)を使用して生成される。これは、例えばピクセルの1つの行が1回で露出される場合、処理されたピクセルが1回に1つの行のためのより小さい数のピクセルのみを処理することによって、カメラ(110、112)からのデータの処理を単純化する。
ローリングシャッターカメラプロセスは、例えばスキャナー120によるカラーコーディングを使用してピクセル処理を容易にする。
更に、例えばRGBレーザー光を出力するスキャナー120及びRGB光を検出することが可能なカメラ(110、112)を使用することによって、複雑な処理及びデータ衝突の潜在的なソースを単純化する2次元センサー及び3次元センサーのセンサー結合が要求されない。
上述した説明は1回で処理されるピクセルの行に対するローリングシャッターカメラプロセスを参照するが、本発明の多様な実施形態はこれに制限される必要がない。例えば、より小さい数のピクセルが1回で露出される。露出されたピクセルの数は例えば1回に1つのピクセルである。従って、ピクセル単位(pixel by pixel)でイメージを処理する場合、ピクセルに対する周辺光入力が更に減少されることが分かる。例えば、各ピクセル又はピクセルのグループを制御して適切な時間に光を受信することを含む光に露出されたピクセルを制御する多様な方法が存在する。スキャナー(120、234、300)は客体に放出される光ビーム(又は光子)の密集性(tightness)に対して制御される。例えば、光ビームが密集するほど、光ビームを反射する客体の領域はより小さくなる。与えられた時間に露出されるピクセルの数は、例えば周辺光、個別的な光検出器(ピクセル)の敏感度、ピクセル情報の処理に使用されるプロセッサ、スキャナーによって出力される光等のような多様な変数に依存する。
しかし、2つのカメラに対してピクセルの減少された数から情報を関連させることがより難しくなる場合、ピクセルの数は、周期的に、又は必要に応じて異なるカメラから受信された情報を同期化させるために増加される。
ピクセルが1回に1つずつ処理される場合、それは、時間コーディングが各ボクセル(voxel)に深度の3次元を提供するボクセルであると看做される。各ボクセルに対する時間コーディングによって伴われるエンコーディング又はデコーディングが存在しないため、処理は単純化される。従って、処理によるレイテンシは緩和される。
従って、本発明の一実施形態はステレオ三角測量のためのシステム及び方法に関し、これは、次の行が光に露出される間にその行の露出時間が終了した後に各行から読み出されるRGB行データを有するローリング露出RGBカメラ(rolling exposure RGB cameras)、及びRGB行データを読み出した後にRGB行データを処理することを含む環境の3次元マッピングに対して使用される。上述したように、与えられた時間に露出されたピクセルの数は行よりも小さい。従って、ローリング露出(又はローリングシャッター)プロセスは、カメラが1つ、又は2つ、又はそれ以上であることに拘らず、使用されるカメラの数に対する大幅な長所を提供することが分かる。
スキャナーの使用はカメラによって受信されたイメージに対する処理負担を大幅に減少させ、ローリング露出方法の使用はライン単位(line by line)で三角測量データを読み出すことによる極めて低いレイテンシを許容する。ピクセルがボクセル(voxels)として時間コーディングされた各ピクセルと共に1回に1つずつ(又は1回に幾つかのピクセルずつ)読出される場合、処理レイテンシは著しく減少されるか、又は除去される。従って、スキャナー及び/又はローリング露出が使用されない場合に、必要な処理の一部で3次元イメージが生成される。
多様な実施形態を本発明の機能的な使用のために説明したが、このような使用が単純に記載した例示に制限されないものと理解されなければならない。また、ローリング露出カメラが1回で単一行を露出するものとして説明したが、多様な実施形態は1回で1つ以上の行を露出する。例えば、1つ以上の行が1回で露出されるか、又はラインのピクセルのサブセットが1回で露出される。サブセットは多様な設計及び/又は環境条件に応じて唯1つのピクセル又は1つ以上のピクセルで構成される。
また、ここまで本発明は1つ以上のカメラと共に使用されるスキャナーを説明したが、他の実施形態は、例えばレーダー、光線レーダー、音波探知器等のような他の装置を具備するスキャナー/カメラシステムを使用する。従って、多様な実施形態は、構造化されたシークェンスであるか又はそうでない信号を送信する1つ以上の送信機、信号を受信する1つ以上の受信機、及び受信された信号を処理するプロセッサの各々を含む。一部の場合に、送信機及び受信機は分離された装置である。他の場合に、送信機及び受信機は、例えば信号を伝送してその信号の反射波を受信するレーダーアンテナのように同じ装置の一部である。
このような多様な実施形態は、任意のプラットフォームによって使用されてそれらの周辺環境に気付く。従って、ローカル又は遠隔の運転者/オペレータ、半自律(semi-autonomous)、又は完全自律の完全制御下にあるか否かに拘らず、任意の運送手段は本明細書に開示した多様な実施形態を使用する。運送手段は、例えば自動車、ボート、飛行機、宇宙船、航空、陸上、及び/又は海上基盤のドローン、ロボット等であり、ロボット真空掃除機、ロボット芝刈り機等を含む。
更に、任意の固定型プラットフォーム(stationary platform)は多様な実施形態を利用する。例えば、灯台(light house)が1つ以上の多様な実施形態を使用して交通(航空交通、陸上交通、及び/又は海上交通)を追跡し、制御することのみならず、信号灯(光、電子、又は音等)を提供して船舶又は他の形態の運送手段に危険を警告する。また、航空交通制御システム及び/又は交通制御システムは本発明の多様な実施形態を使用する。
更に、本発明の多様な実施形態は他の目的のために使用される。例えば、実施形態は、周辺客体(ゲームディスプレイの一部として挿入されたゲームプレーヤー等)を検出するゲームに対して、或いは本発明の多様な実施形態を含む装置を着用した個人によって使用される。使用者が着用する装置の例は、例えば拡張現実ヘッドセット(augmented reality headsets)、仮想現実ヘッドセット(virtual reality headsets)等である。本発明の多様な実施形態は視覚障害者の案内に使用される。その点については、非視覚障害者が移動(道歩/ジョギング/ランニング、サイクリング、ローラーブレード、セグウェイに乗るなど等)するか、或いは停止している間にそれらの環境に注意を払っていない場合、非視覚障害者はそれらに障害物、危険等を警告するように本発明の実施形態を含む装置を着用することができる。従って、本発明の多様な実施形態は領域の地図を作るか又は客体を検出することに必要な多様な装置及び使用者着用装置(ヘッドセット、ゴーグル等)、並びに運送手段の全ての形態に対して使用されることが分かる。本発明は多様な実施形態を特定の使用で制限しない。
従って、本発明の多様な実施形態は、多様なアプリケーションで使用されて周辺領域を感知し、感知された信号を分析し、必要に応じて応答(responses)を生成することが分かる。例えば、応答は、回避措置を取ること、他のプラットフォーム/装置/人々に何かが感知/分析/応答されたかを知らせることのみならず、他の人から類似な情報を受信することである。即ち、感知/分析/応答方式で保護される効率的な領域は、少なくとも1つの他のプラットフォームと情報を共有することによって単一プラットフォームで達成されることよりも大幅に増加される。多様な情報は直接的に又は第3のプラットフォーム若しくはインターネット/クラウド(Internet/cloud)を通じて共有される。従って、多様な客体(移動及び停止)、道路の条件、道路上、上空、及び/又は水中での交通は全ての時間で追跡され、正確な応答が必要に応じて生成される。
本発明の一実施形態は客体を検出するシステムであって、システムはソース光(source light)を出力するように構成された実質的に平行なスキャニング光ソース(substantially collimated scanning light source)を含む。第1カメラは第1反射光を受信するように構成され、第1反射光は客体から第1カメラに反射されたソース光である。第2カメラは第2反射光を受信するように構成され、第2反射光は客体から第2カメラに反射されたソース光であり、第2カメラは第1カメラから空間的に離隔される。1つ以上のプロセッサは平行なスキャニング光ソース、第1カメラ、及び第2カメラを制御し、第1反射光及び第2反射光を処理して客体を検出するように構成される。第1カメラ、第2カメラ、及び平行なスキャニング光ソースは、エピポーラ平面(epipolar plane)上に位置するように構成される。
平行なスキャニング光ソースは、その水平的なスイープ範囲(horizontal sweep range)及び/又は水平的なスイープ範囲(vertical sweep range)を変化させるように構成される。第1カメラ及び/又は第2カメラは水平及び/又は垂直に回転(swivel)可能である。平行なスキャニング光ソースはソース光の強度を変化させるように構成される。平行なスキャニング光ソースはソース光をラスタ出力(rasteroutput)として出力するように構成される。
本発明の他の実施形態は客体を検出する方法であって、方法は、実質的に平行なスキャニング光ソースによってソース光を出力する段階と、第1カメラによって第1反射光を受信する段階と、第2カメラによって第2反射光を受信する段階と、を有し、第1反射光は客体から第1カメラに反射されたソース光であり、第2反射光は客体から第2カメラに反射されたソース光であり、第2カメラは第1カメラと空間的に離隔される。少なくとも1つのプロセッサは平行なスキャニング光ソース、第1カメラ、及び第2カメラを制御し、第1反射光及び第2反射光の中の1つ又は両方を制御して客体を検出する。第1カメラ、第2カメラ、及び平行なスキャニング光ソースは、エピポーラ平面(epipolar plane)上に位置する。平行なスキャニング光ソーススイープ範囲は水平及び/又は垂直に変化させ、また平行なスキャニング光ソースのソース光の強度を変化させる。
第1カメラ及び第2カメラはローリングシャッターカメラプロセスによって第1反射光及び第2反射光をそれぞれ受信する。少なくとも1つのプロセッサは第1カメラ及び/又は第2カメラから1回でピクセルの行の一部(単一ピクセルを含む)或いは1回でピクセルの行を処理する。ピクセルが1回で単一ピクセルとして処理された場合、各ピクセルは時間コーディング(time-coded)される。客体は、客体、第1カメラ、及び第2カメラの頂点を有する三角形を使用することによって三角測量(triangulate)される。
本発明の他の実施形態は客体を検出するシステムであって、システムは、ソース光を出力するように構成された実質的に平行なスキャニング光ソース(substantially collimated scanning source light)を備え、ソース光はレッド、グリーン、及びブルーの3つの区分された光を含む。第1カメラはローリングシャッターカメラプロセス(rolling shutter camera process)を使用して第1反射光を受信するように構成され、第1反射光は客体から第1カメラに反射されたソース光である。第2カメラはローリングシャッターカメラプロセスを使用して第2反射光を受信するように構成され、第2反射光は客体から第2カメラに反射されたソース光であり、第2カメラは第1カメラから空間的に離隔される。少なくとも1つのプロセッサは、平行なスキャニング光ソース、第1カメラ、及び第2カメラを制御し、第1反射光及び第2反射光を処理して客体を検出するように構成される。
第1カメラ、第2カメラ、及び平行なスキャニング光ソースは、エピポーラ平面(epipolar plane)上に位置する。第1カメラ及び/又は第2カメラはローリングシャッターカメラプロセスによって第1反射光及び第2反射光をそれぞれ受信する。少なくとも1つのプロセッサは第1カメラ及び第2カメラの中の1つ又は両方から1回でピクセルの行又はピクセルの行の一部(1つのピクセルを含む)を処理するように構成される。1回に1つのピクセルを処理する場合、各ピクセルは時間コーディングされる。少なくとも1つのプロセッサは客体、第1カメラ、及び第2カメラを三角形の頂点として使用することによって、客体を三角測量する。
第1カメラ及び/又は第2カメラはローリングシャッターカメラプロセスによって第1反射光及び第2反射光をそれぞれ受信するように構成される。少なくとも1つのプロセッサは第1カメラ及び/又は第2カメラから1回で(単一ピクセルを含む)ピクセルの行の一部又は1回でピクセルの行を処理するように構成される。処理が1回に単一ピクセルに対することである場合、各ピクセルは時間コーディングされる。
客体は、客体、第1カメラ、及び第2カメラの頂点を有する三角形を使用することによって、三角測量される。
本発明の多様な実施形態の多様な部分はコンピュータプログラムで書き込まれ、非一時的なコンピュータ読み取り可能な記録媒体を使用してプログラムを実行するプロセッサで具現される。
非一時的なコンピュータ読み取り可能な記録媒体は、例えば磁気格納媒体(例えば、ROM、フロッピー(登録商標)ディスク、ハードディスク等)、光学記録媒体(例えば、CD-ROM又はDVD)、フラッシュドライブ等を含む。
以上、本発明の多様な実施形態について図面を参照しながら説明したが、細部事項及び形態の多様な変化が、本発明の思想及び範囲から逸脱せずに、特許請求の範囲によって定義されるように行われることが当業者によって理解される。従って、上述した実施形態及びそれらの全ての思想は単に例示的なものであって、これらに制限されるものではない。
100、200 プラットフォーム
110、112、232 カメラ
120、234 スキャナー
130 客体
150 自動車プラットフォーム
210 プロセッサ
220 メモリ
222 揮発性メモリ
224 不揮発性メモリ
226 大容量ストレージ
230 センサー
300 (RGB)スキャナー

Claims (5)

  1. 客体を検出するシステムであって、
    レッド、グリーン、及びブルーの中の少なくとも2つの区分された平行な(collimated light)を含むソース光を出力するスキャニング光ソースと、
    前記客体から反射されたソース光である第1反射光を受信する第1カメラと、
    前記第1カメラから空間的に離隔され、前記客体から反射されたソース光である第2反射光を受信する第2カメラと、
    前記スキャニング光ソース、前記第1カメラ、及び前記第2カメラを制御し、前記第1反射光及び前記第2反射光を処理して前記客体を検出する1つ以上のプロセッサと、を備え、
    前記スキャニング光ソースは、前記ソース光の強度を変化させ、
    前記プロセッサは、前記客体、前記第1カメラ、及び前記第2カメラを三角形の頂点として使用することによって、前記客体の三角測量(triangulation)を遂行し、
    前記第1カメラ及び前記第2カメラの各々は、水平方向及び垂直方向の一方又は両方に回転して、重ならない領域の画像を提供することを特徴とするシステム。
  2. 前記第1カメラ、前記第2カメラ、及び前記スキャニング光ソースは、エピポーラ平面(epipolar plane)上に位置することを特徴とする請求項1に記載のシステム。
  3. 前記スキャニング光ソースは、水平及び垂直の一方又は両方にスイープ範囲を変化させることを特徴とする請求項1に記載のシステム。
  4. 前記スキャニング光ソースは、ラスタ出力(raster output)として前記ソース光を出力することを特徴とする請求項1に記載のシステム。
  5. 客体を検出するシステムであって、
    レッド、グリーン、及びブルーの中の少なくとも2つの区分された平行な(collimated light)を含むソース光を出力するスキャニング光ソースと、
    ローリングシャッターカメラプロセスを使用して、前記客体から反射されたソース光である第1反射光を受信する第1カメラと、
    前記ローリングシャッターカメラプロセスを使用して、前記第1カメラから空間的に離隔され、前記客体から反射されたソース光である第2反射光を受信する第2カメラと、
    前記スキャニング光ソース、前記第1カメラ、及び前記第2カメラを制御し、前記第1反射光及び前記第2反射光を1回に1ピクセルの行ずつ処理して前記客体を検出する1つ以上のプロセッサと、を備え、
    前記スキャニング光ソースは、前記ソース光の強度を変化させ、
    前記1つ以上のプロセッサの中の少なくとも1つは、前記客体、前記第1カメラ、及び前記第2カメラ三角形の頂点として使用することによって、前記客体三角測量(triangulation)を遂行し、
    前記第1カメラ及び前記第2カメラの各々は、水平方向及び垂直方向の一方又は両方に回転して、重ならない領域の画像を提供することを特徴とするシステム。
JP2017148984A 2016-08-02 2017-08-01 ステレオ三角測量のためのシステム Active JP7140474B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662369879P 2016-08-02 2016-08-02
US62/369,879 2016-08-02
US15/658,952 2017-07-25
US15/658,952 US10884127B2 (en) 2016-08-02 2017-07-25 System and method for stereo triangulation

Publications (2)

Publication Number Publication Date
JP2018031776A JP2018031776A (ja) 2018-03-01
JP7140474B2 true JP7140474B2 (ja) 2022-09-21

Family

ID=61069938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017148984A Active JP7140474B2 (ja) 2016-08-02 2017-08-01 ステレオ三角測量のためのシステム

Country Status (5)

Country Link
US (1) US10884127B2 (ja)
JP (1) JP7140474B2 (ja)
KR (1) KR20180015093A (ja)
CN (1) CN107678041B (ja)
TW (1) TWI781109B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018031607A (ja) * 2016-08-23 2018-03-01 ソニーセミコンダクタソリューションズ株式会社 測距装置、電子装置、および、測距装置の制御方法
CN110235026A (zh) * 2017-01-26 2019-09-13 御眼视觉技术有限公司 基于对齐的图像和激光雷达信息的车辆导航
DE102018214182A1 (de) * 2018-08-22 2020-02-27 Robert Bosch Gmbh LIDAR-Vorrichtung mit einer beschleunigten Laufzeitanalyse
US11317031B2 (en) * 2020-03-30 2022-04-26 Amazon Technologies, Inc. High intensity pattern projection and general illumination using rolling shutter camera and a synchronized scanning laser
KR20220060891A (ko) * 2020-11-05 2022-05-12 주식회사 케이티 라이다 장치
EP4113055A3 (en) 2021-06-29 2023-01-11 Medit Corp. Method of compensating data and system for compensating data using same
KR20230002038A (ko) 2021-06-29 2023-01-05 주식회사 메디트 데이터 보완 방법 및 이를 이용한 데이터 보완 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009145774A (ja) 2007-12-17 2009-07-02 Olympus Corp レーザ走査型顕微鏡及びその表面形状の測定方法
CN101526337A (zh) 2009-04-21 2009-09-09 吴晓军 三维图像扫描***及三维图像扫描方法
JP2012198075A (ja) 2011-03-18 2012-10-18 Ricoh Co Ltd ステレオカメラ装置、画像補整方法
JP2015200529A (ja) 2014-04-07 2015-11-12 大同特殊鋼株式会社 形状計測装置

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7164117B2 (en) * 1992-05-05 2007-01-16 Automotive Technologies International, Inc. Vehicular restraint system control system and method using multiple optical imagers
US7663502B2 (en) * 1992-05-05 2010-02-16 Intelligent Technologies International, Inc. Asset system control arrangement and method
US6343810B1 (en) * 1994-05-23 2002-02-05 Automotive Technologies International Inc. Side impact airbag system with anticipatory sensor
AU3994799A (en) * 1999-05-14 2000-12-05 3Dmetrics, Incorporated Color structured light 3d-imaging system
CN100417976C (zh) * 2002-09-15 2008-09-10 深圳市泛友科技有限公司 三维摄影技术方法
JP4402400B2 (ja) * 2003-08-28 2010-01-20 オリンパス株式会社 物体認識装置
WO2005063114A1 (ja) * 2003-12-25 2005-07-14 National University Corporation Shizuoka University 視線検出方法および装置ならびに三次元視点計測装置
US7916932B2 (en) * 2005-02-16 2011-03-29 In-G Co., Ltd. Method and system of structural light-based 3D depth imaging using signal separation coding and error correction thereof
CN100480625C (zh) * 2005-11-18 2009-04-22 北京航空航天大学 基于自适应正弦条纹投射的立体视觉检测***
JP4929869B2 (ja) * 2006-06-21 2012-05-09 三菱電機株式会社 車載運転支援カメラ装置
US7978892B2 (en) * 2006-10-25 2011-07-12 D4D Technologies, Llc 3D photogrammetry using projected patterns
EP2202688B1 (en) * 2007-02-13 2013-11-20 Panasonic Corporation System, method and apparatus for image processing and image format
US8326020B2 (en) * 2007-02-28 2012-12-04 Sungkyunkwan University Foundation Structural light based depth imaging method and system using signal separation coding, and error correction thereof
WO2009119229A1 (ja) * 2008-03-26 2009-10-01 コニカミノルタホールディングス株式会社 3次元撮像装置及び3次元撮像装置の校正方法
DE102009031732B3 (de) * 2009-07-04 2010-11-25 Sick Ag Entfernungsmessender optoelektronischer Sensor
US20130087719A1 (en) * 2010-08-13 2013-04-11 Lumos Technology Co., Ltd. Light source device for time-delayed detection of fluorescence, and image pick-up system and method
JP2012058076A (ja) * 2010-09-09 2012-03-22 3D Media Co Ltd 3次元計測装置及び3次元計測方法
GB2504890A (en) * 2011-04-15 2014-02-12 Faro Tech Inc Enhanced position detector in laser tracker
US8908041B2 (en) * 2013-01-15 2014-12-09 Mobileye Vision Technologies Ltd. Stereo assist with rolling shutters
CA2902430C (en) * 2013-03-15 2020-09-01 Uber Technologies, Inc. Methods, systems, and apparatus for multi-sensory stereo vision for robotics
US9041914B2 (en) * 2013-03-15 2015-05-26 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
US20150015701A1 (en) * 2013-07-10 2015-01-15 Faro Technologies, Inc. Triangulation scanner having motorized elements
KR20150022352A (ko) * 2013-08-23 2015-03-04 주식회사 고영테크놀러지 솔더 조인트 검사 방법
TWI486551B (zh) * 2013-10-21 2015-06-01 Univ Nat Taiwan Science Tech 三維資料擷取方法及其系統
CN103776390B (zh) * 2014-01-22 2017-05-17 广东工业大学 基于三维自然纹理数据扫描机的多视场数据拼接方法
US9704232B2 (en) * 2014-03-18 2017-07-11 Arizona Board of Regents of behalf of Arizona State University Stereo vision measurement system and method
CN105025193B (zh) * 2014-04-29 2020-02-07 钰立微电子股份有限公司 手提式立体扫描仪和产生对应对象的立体扫描结果的方法
CN106687877A (zh) * 2014-07-16 2017-05-17 株式会社理光 ***,机械,控制方法和程序
CN105282375B (zh) * 2014-07-24 2019-12-31 钰立微电子股份有限公司 附着式立体扫描模块
US10306217B2 (en) * 2015-04-17 2019-05-28 Seiko Epson Corporation Display device, control method for display device, and computer program
CN105203046B (zh) * 2015-09-10 2018-09-18 北京天远三维科技股份有限公司 多线阵列激光三维扫描***及多线阵列激光三维扫描方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009145774A (ja) 2007-12-17 2009-07-02 Olympus Corp レーザ走査型顕微鏡及びその表面形状の測定方法
CN101526337A (zh) 2009-04-21 2009-09-09 吴晓军 三维图像扫描***及三维图像扫描方法
JP2012198075A (ja) 2011-03-18 2012-10-18 Ricoh Co Ltd ステレオカメラ装置、画像補整方法
JP2015200529A (ja) 2014-04-07 2015-11-12 大同特殊鋼株式会社 形状計測装置

Also Published As

Publication number Publication date
CN107678041A (zh) 2018-02-09
US20180038961A1 (en) 2018-02-08
KR20180015093A (ko) 2018-02-12
CN107678041B (zh) 2023-05-23
US10884127B2 (en) 2021-01-05
TW201805594A (zh) 2018-02-16
TWI781109B (zh) 2022-10-21
JP2018031776A (ja) 2018-03-01

Similar Documents

Publication Publication Date Title
JP7140474B2 (ja) ステレオ三角測量のためのシステム
US11725956B2 (en) Apparatus for acquiring 3-dimensional maps of a scene
JP6387407B2 (ja) 周辺検知システム
EP3438776B1 (en) Method, apparatus and computer program for a vehicle
CN113227839B (zh) 具有结构光照明器的飞行时间传感器
EP3438777B1 (en) Method, apparatus and computer program for a vehicle
CN103852754B (zh) 飞行时间(tof)测量***中的干扰抑制的方法
US20210201048A1 (en) Nighttime Sensing
US10401872B2 (en) Method and system for collision avoidance
CN103852067B (zh) 调整飞行时间(tof)测量***的操作参数的方法
CN111344647A (zh) 具有低延时运动规划更新的智能激光雷达***
US20150243017A1 (en) Object recognition apparatus and object recognition method
JP7321246B2 (ja) ハイブリッド飛行時間型イメージャモジュール
EP3438872A1 (en) Method, apparatus and computer program for a vehicle
US20180343400A1 (en) Spherical infrared emitter
US20190391592A1 (en) Positioning system
US10643348B2 (en) Information processing apparatus, moving object, information processing method, and computer program product
US20230266472A1 (en) System and method for performing active distancemeasurements
WO2022064576A1 (ja) 位置情報取得装置、ヘッドマウントディスプレイ、および位置情報取得方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200609

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220908

R150 Certificate of patent or registration of utility model

Ref document number: 7140474

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150