JP6514681B2 - ロボット用多重知覚ステレオ視のための方法、システム、および装置 - Google Patents

ロボット用多重知覚ステレオ視のための方法、システム、および装置 Download PDF

Info

Publication number
JP6514681B2
JP6514681B2 JP2016502343A JP2016502343A JP6514681B2 JP 6514681 B2 JP6514681 B2 JP 6514681B2 JP 2016502343 A JP2016502343 A JP 2016502343A JP 2016502343 A JP2016502343 A JP 2016502343A JP 6514681 B2 JP6514681 B2 JP 6514681B2
Authority
JP
Japan
Prior art keywords
imaging device
stereo
laser
image
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016502343A
Other languages
English (en)
Other versions
JP2016513804A5 (ja
JP2016513804A (ja
Inventor
チャールズ オスターウッド,クリストファー
チャールズ オスターウッド,クリストファー
リーランド ストローザー,ダニエル
リーランド ストローザー,ダニエル
アーサー ラローズ,デイヴィッド
アーサー ラローズ,デイヴィッド
Original Assignee
ウーバー テクノロジーズ,インコーポレイテッド
ウーバー テクノロジーズ,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウーバー テクノロジーズ,インコーポレイテッド, ウーバー テクノロジーズ,インコーポレイテッド filed Critical ウーバー テクノロジーズ,インコーポレイテッド
Publication of JP2016513804A publication Critical patent/JP2016513804A/ja
Publication of JP2016513804A5 publication Critical patent/JP2016513804A5/ja
Application granted granted Critical
Publication of JP6514681B2 publication Critical patent/JP6514681B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/55Details of cameras or camera bodies; Accessories therefor with provision for heating or cooling, e.g. in aircraft
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)

Description

関連出願の相互参照
本出願は、米国法典第35編第119条(e)に基づき、2013年3月15日出願の米国仮特許出願第61/792,468号明細書、名称“Methods,Systems,and Apparatus for Multi−Sensor Stereo Vision for Robotics”からの優先権を主張し、その全体を参照により本明細書に援用する。
本発明は、ロボット用多重知覚ステレオ視のための方法、システム、および装置に関する。
3次元(3D)感知は、多くの領域および環境において有用である。それは、ロボット、自立走行車両、および遠隔操作車両が木々、構造物、および落下物のような静的障害と、人、動物、および車両のような動的障害とを回避しながら安全に航行して地形を横断できるようにする。3D感知はまた、ロボットの局所環境のマッピングとより大きな周辺領域のより大きなスケールのマッピングとを可能にする。産業環境では、ここに説明される3次元センサは、機械周囲に静的または適応的安全幕を生成し得、および/あるいは自動組立てまたは製造ラインを通過する部品を計数または検査し得る。
高更新率ステレオデータは、相互作用する近接場障害物、標的、または対象を感知するために利用され得る。ヒューマノイドロボットの「頭」として取付けられれば、ステレオカメラは人間の眼が行うのと全く同じ役割を果たし得、すなわちステレオカメラはヒューマノイドが反応的把握、経路探索、工程計画、対象認識、対象追跡、および多くの他の形式の3D計算を可能にする前に領域のリアルタイム3D表現を構築し得る。
本発明の実施形態は、ロボット、ナビゲーション、機械視覚、製造、および他の用途に使用するのに好適なステレオ視(stereo−vision)センサ/レーザ距離測定センサの組合せを含む。いくつかのケースでは、これらのセンサは、ビデオ画像、ステレオ画像、およびレーザ距離測定から導出される画像を提供する走査レーザを有するステレオカメラを含む。これらのセンサは、センサがその周囲に対して移動するにつれ(または周囲が変化するにつれ)レーザ画像が世界地図に逐次的に「縫い合わせ」られ得る運動を計算するために使用され得る。加えて、ステレオカメラとレーザ距離計(laser rangefinder)は互いの距離データを「セルフチェック」するために使用され得る。これにより、センサがいくつかのタイプの故障を検出できるようにし、センサがいくつかの状況において自己較正できるようにする。
2つのセンサはオフセット能力を有し得る。レーザ距離計は、長距離(例えば、約0.5m〜約30m)にわたって高精度で動作し、かなり低いデータ速度(例えば、約43,000点/秒)を有し、すべてまたはほとんどすべての面をうまく感知し得るが、埃などの空気中浮遊物(airborne obscurants)を通して撮像する際にいくつかの問題を有し得る。ステレオカメラは高速であり(例えば、15,000,000点/秒を超える)、短い範囲(例えば、7.0cm基準線で約0.5m〜約5.0m)にわたって動作し、空気中浮遊物を通して撮像する際にうまく機能し得るが、特徴の無い面までの距離を感知することができないことがあり得る。
いくつかの実施形態では、レーザパルスは幾何学的および時間的に互いに同期されるとともに外部クロックと同期される。加えて、レーザパルスとカメラ画像は互いに精密に時間調節され得る。これにより、較正が補助される。また、センサが動いているときでもレーザデータを使用することにより正確な3Dモデルの構築を可能にする。カメラ画像からの運動推定は、レーザ距離計データ点の取得中のセンサ移動の補償を可能にする。
センサの実施形態は、最大熱、機械的衝撃、振動、および湿度を含む環境的な厳しさに対し構築された単一ユニットに組込まれる部品を含み得る。具体的には、カメラ/レンズ設計は、熱変化および/または機械的衝撃に起因する較正からのドリフトに耐えるように構築され得る。同様に、センサデータを処理するために使用されるステレオアルゴリズムおよび制御は、空中の埃および他の微粒子だけでなく劣悪照明と悪天候状況の難しい環境における動作のために調節され得る。
ロボット使用に適したものを含むいくつかの実装形態では、センサは慣性測定ユニット(IMU)を含み得るまたはそれに動作可能に結合され得る。このIMUへ結合されるプロセッサは、ナビゲーションなどに使用されるロボットへ姿勢解決策を提供するために姿勢推定ソフトウェアを実行する。この姿勢解決策は、IMU、ステレオ(例えば、視認可能オドメータ)、車輪エンコーダ、全地球測位衛星(GPS)受信器、および/またはレーザ距離計からのデータから導出され得る。
いくつかの実施形態では、センサ内のまたはセンサへ結合されたプロセッサは、センサユニットがその較正の状態を迅速に評価できるようにする1つまたは複数の較正アルゴリズムを実行する。センサユニットが較正からずれていることを(例えば、自動的に)検出すれば、センサユニットは、「自己回復」として知られる処理において較正を「正す」ためにその較正パラメータを再調整し得る。センサユニットは、ユーザ介在を必要とすることなく自己回復をユーザに通知し得る。
例示的センサユニットは標的無しに較正され得る(例えば、自動的に)。通常、カメラおよびレーザシステムは、場面内に(例えば、三脚上に)立てられた特定標的により較正される。例えば、このシステムは、場面内の機会の1つまたは複数の「好適な」標的を検出し、ステレオカメラおよびレーザ距離計の両方を自動的に較正し得る。
本発明の実施形態は、環境内の1つまたは複数の対象の位置(システム自体の位置を含む)を推定するためのシステムおよび方法を含む。一例では、システムは第1の撮像装置、第2の撮像装置、第1および第2の撮像装置に動作可能に接続されたプロセッサを含む。動作中、第1の撮像装置は第1の観点から環境の少なくとも2つの基準画像を取得し、第2の撮像装置は第2の観点から環境の少なくとも2つの比較画像を取得する。プロセッサは少なくとも2つの基準画像内の第1の基準画像と少なくとも2つの比較画像内の第1の比較画像とから環境の第1の視差マップを合成する。プロセッサはまた、少なくとも2つの基準画像内の第2の基準画像と少なくとも2つの比較画像内の第2の比較画像とから環境の第2の視差マップを合成する。プロセッサは、第1の視差マップに少なくとも部分的に基づき対象の位置の第1の位置推定値を判断し、および第2の視差マップに少なくとも部分的に基づき対象の位置の第2の位置推定値を判断する。
いくつかのケースでは、プロセッサは第1の位置推定値と第2の位置推定値との差を推定し得る。プロセッサはまた、第1の位置推定値と第2の位置推定値との差を補正し得る。例えば、システムは、レーザ光により対象を照射するレーザと、対象により散乱および/または反射されたレーザ光を検出し、検出レーザ光に基づき対象までの距離を表す距離信号を提供するセンサとを含み得る。プロセッサは、距離信号と、第1の位置推定値、第2の位置推定値、または第1および第2の位置推定値の両方とを比較することにより、第1の位置推定値と第2の位置推定値との差を判断し得る。
本発明の他のいくつかの実施形態は、環境内の1つまたは複数の特徴を撮像するためのシステムおよび方法を含む。例示的なシステムは、第1の撮像装置と、第2の撮像装置と、第1および第2の撮像装置とに動作可能に接続されたプロセッサとを含む。動作中、第1の撮像装置は第1の観点から環境の少なくとも2つの基準画像を取得し、第2の撮像装置は第2の観点から環境の少なくとも2つの比較画像を取得する。プロセッサは、少なくとも2つの基準画像内の第1の基準画像と少なくとも2つの比較画像内の第1の比較画像とから環境の第1の視差マップを合成する。プロセッサはまた、少なくとも2つの基準画像内の第2の基準画像と少なくとも2つの比較画像内の第2の比較画像とから環境の第2の視差マップを合成する。プロセッサは、第1の視差マップおよび第2の視差マップ内の特徴を特定し、第1の視差マップと第2の視差マップとの間の特徴の外観の差を推定し得る。
本発明の実施形態はまた、レーザ光の走査ビームの位置ずれを検出するためのシステムおよび方法を含む。例示的なシステムは、レーザと、レーザと光学的に連通したおよび/または機械的に関連付けられたスキャナと、センサと、センサへ動作可能に接続されたプロセッサとを含む。動作中、レーザはレーザビームを供給し、スキャナはレーザ光の走査ビームを供給するようにレーザビームを走査する。センサは、環境内の少なくとも1つの対象により散乱および/または反射されたレーザ光を検出し、検出レーザ光の第1の測定を表す第1の信号と検出レーザ光の第2の測定を表す第2の信号とを提供する。プロセッサは、第1の信号に基づき環境の第1の表現を生成し、第2の信号に基づき環境の第2の表現を生成する。プロセッサは、第1の表現と第2の表現との少なくとも1つの差を推定し、および第1の表現と第2の表現との差に基づき、レーザ、スキャナ、および/またはセンサの位置ずれを判断する。いくつかのケースでは、プロセッサは、位置ずれを判断する際に第1の測定と第2の測定との間のレーザ、スキャナ、および/またはセンサの運動を考慮する。
いくつかの例では、センサはステレオ画像センサを含み、かつプロセッサは第1の表現および/または第2の表現に基づきステレオ画像センサを較正するように構成される。これらの例では、プロセッサは、第1の表現に少なくとも部分的に基づきレーザ、スキャナ、および/またはステレオ画像センサの第1の3次元位置を推定し得る。プロセッサはまた、レーザ、スキャナ、および/またはステレオ画像センサの第2の3次元位置推定値を判断するとともに第1の3次元位置推定値と第2の3次元位置推定値とに基づき差を推定し得る。
本発明の別の実施形態は、ステレオ撮像装置と距離計とを含む多重知覚(multi−sensory)ステレオ視システムを較正する方法を含む。一例では、本方法は、好適なプロセッサまたは他のコンピュータ装置を使用して、ステレオ撮像装置により提供される視差マップから視差マップ内に現われる対象の第1の3次元位置推定値を判断する工程を含む。プロセッサはまた、距離計による測定から対象の第2の3次元位置推定値を判断する。プロセッサは、例えば視差マップにより画定されたボリューム上へ第2の3次元位置推定値の座標を投影するとともに第2の3次元位置推定値の座標と第1の3次元位置推定値の座標との間の距離を判断することにより、第1の3次元位置推定値と第2の3次元位置推定値との差を判断する。プロセッサは、第1の3次元位置推定値と第2の3次元位置推定値との差に基づき多重知覚ステレオ視システムを較正する。
いくつかのケースでは、プロセッサは、ステレオ撮像装置により第1の観点から観察された場面の第1の2次元画像とステレオ撮像装置により第2の観点から観察された場面の第2の2次元画像とを取得して第1の3次元位置推定値を判断する。プロセッサは、第1の2次元画像と第2の2次元画像とから視差マップを合成する。
距離計のいくつかの実施形態はレーザ距離計を含む。これらの実施形態では、第2の3次元位置推定値を判断する工程は、レーザ光により対象を照射し、対象により散乱および/または反射されたレーザ光を検出し、検出レーザ光に少なくとも部分的に基づき第2の3次元位置を判断する工程を含む。
本発明のさらに別の実施形態は、画像データに基づき環境の視差マップを生成する処理ユニットを含む。例示的処理ユニットは、少なくとも2つの撮像装置から画像データを受信する少なくとも1つのインターフェースと、画像データを整流(rectify)するために少なくとも1つのインターフェースへ動作可能に接続された少なくとも1つの整流(rectification)処理ブロックと、画像データに基づき視差マップを生成するために少なくとも1つの整流処理ブロックへ動作可能に接続された少なくとも1つのステレオ処理ブロックとを含む。いくつかのケースでは、整流処理ブロックおよび/またはステレオ処理ブロックはフィールドプログラマブルゲートアレイ内に実現される。
例えば、インターフェースは第1のインターフェースと第2のインターフェースを含み得る。動作中、第1のインターフェースは画像データの第1の部分の第1の直列表現を画像データの第1の部分の第1の並列表現に変換する。第2のインターフェースは画像データの第2の部分の第2の直列表現を画像データの第2の部分の第2の並列表現に変換する。
ステレオ処理ブロックは、準グローバルブロック照合(SGBM)アルゴリズム、準グローバル照合(SGM)アルゴリズム、および/またはステレオブロック照合アルゴリズムに従って視差マップを生成し得る。いくつかのケースでは、ステレオ処理ブロックは視差ボリューム(disparity volume)の動的再構成可能部分を探索する。1つのステレオ処理ブロックは、異なる分解能で画像データを処理するために動的に再構成され得る。処理ユニットはまた、少なくとも2つの撮像装置が画像データを取得するフレームレートを動的に変更し得る。
いくつかの実施形態では、整流ブロックは少なくとも1つのメモリツーメモリ(memory−to−memory)ブロックを含む。このメモリツーメモリブロックは、フロントエンド、フロントエンドへ動作可能に接続された遅延線路、および遅延線路へ動作可能に接続されたバックエンドを含み得る。動作中、フロントエンドはメモリから画像データを取り出す。遅延線路は、メモリの遅延以上の期間の間少なくとも1つの画像処理コマンドを記憶する。バックエンドは、メモリから取り出された画像データに少なくとも部分的に基づき整流出力(rectified output)を生成する。
いくつかの処理ユニットはまた、画像データの並列表現を前処理するためにインターフェースへ動作可能に接続された少なくとも1つの前処理ブロックを含み得る。例えば、前処理ブロックは、データの並列表現のフィルタ処理、ヒストグラム生成、線形化、ビネット(vignette)補正、モザイク解除、ホワイトバランス、および/または色空間変換を行い得る。
本発明のさらに別の実施形態はレーザ走査システムおよび方法を含む。例示的レーザ走査システムは、レーザ、レーザへ機械的に結合されたスピンドル、スピンドルへトルクを印加するギヤ、およびギヤとスピンドルとの間に圧縮された滑りクラッチ摩擦パッドを含む。動作中、レーザはレーザビームを生成する。スピンドルは、レーザビームを走査するように第1軸を中心としてレーザを回転させる。ギヤはトルクをスピンドルへ印加する。滑りクラッチ摩擦パッドは、ギヤにより印加されたトルクの少なくとも一部を最大閾値トルクまでスピンドルへ伝達するとともに、ギヤが閾値トルクを超えるトルクでスピンドルに対して滑ることができるようにする。いくつかのケースでは、閾値トルクは、温度とスピンドルに印可される力とに応じて一定のままである。
レーザ走査システムはまた、スピンドル、ギヤ、および滑りクラッチ摩擦パッドの少なくとも一部を含む筐体を含み得る。加えて、レーザ走査システムはまた、筐体に対するスピンドルの位置を測定するためにスピンドルへ機械的に結合されたエンコーダを含み得る。いくつかのケースでは、ギヤは、ワームギヤを駆動するとともにモータへ結合されたワームと噛み合うワームギヤであり、モータはワームギヤを駆動するようにワームを回転させる。レーザ走査システムはまた、モータの軸方向および半径方向運動を許容するためにモータへ機械的に結合されたコンプライアントモータマウントを含み得る。レーザ走査システムは、スピンドルへ機械的に結合されるとともにレーザと電気的に連通する滑りリングと、レーザに給電するために滑りリングを介しレーザと電気的に連通した電源とを含み得る。
本発明のさらに別の実施形態はステレオ視システムおよび方法を含む。例示的ステレオ視システムは、少なくとも1つの実装面を画定するとともに単一材料片で構成され得るユニタリフレームと、実装面へ取付けられる第1の撮像装置と、実装面へ取付けられる第2の撮像装置とを含む。ステレオ視システムはまた、第1の撮像装置と第2の撮像装置とへ動作可能に接続されたプロセッサと第2の撮像装置をプロセッサへ結合する可撓ケーブルとを含み得る。第1および第2の撮像装置は同じ平面、平行面、または交差平面内に配置され得る。第1および第2の撮像装置は、1または複数のボルトおよびピンを使用して実装面へ固定され得る。
動作中、第1の撮像装置は第1の観点から環境の第1の画像を取得し、第2の撮像装置は第1の観点と異なる第2の観点から環境の第2の画像を取得する。プロセッサは第1の画像と第2の画像とからステレオ画像データを生成する。
本発明のさらに別の実施形態はセンサシステムおよび方法を含む。一例では、センサシステムは、少なくとも1つのセンサと、空洞と少なくとも1つの外面とを画定する筐体と、空洞内の内壁であって外面と熱的に連通する内壁と、空洞内に配置されるとともに少なくとも1つのセンサへ動作可能に接続されたプロセッサと、内壁およびプロセッサに熱的に連通する熱伝導性材料とを含む。センサはプロセッサが処理するセンサデータを提供する。熱伝導性材料は、プロセッサにより発生された熱を放散するように内壁を介しプロセッサにより発生された熱を外面へ伝導する。
センサはまた、空洞内に配置され得、その両方が例えばピンおよび/またはボルトを使用して実装面へ取付けられる第1の撮像装置と第2の撮像装置とを含み得る。第1の撮像装置は第1の観点から環境の第1の画像を取得し、第2の撮像装置は第1の観点とは異なる第2の観点から環境の第2の画像を取得する。
別の実施形態では、センサシステムは、センサ、筐体、プロセッサを含む。筐体は、空洞を画定し、少なくとも1つの外面を画定する少なくとも1つの壁を含む。プロセッサは、壁に当接する空洞内に配置され、センサへ動作可能に接続される。動作中、プロセッサは熱を発生し、熱は壁を介し外面へ熱伝導によって放散される。
本発明の実施形態はステレオ視システムおよび方法を含む。一例では、ステレオ視システムは、筐体、筐体内に配置された第1のセンサアレイ、筐体内に配置された第2のセンサアレイ、筐体内に配置された光源を含む。動作中、第1のセンサアレイは、筐体内の第1の開口を介し第1の観点から環境の第1の画像を取得し、第2のセンサアレイは、筐体内の第2の開口を介し第1の観点とは異なる第2の観点から環境の第2の画像を取得する。光源は、筐体内の第3の開口を介し筐体の外の環境を照射する。いくつかの例では、ステレオ視システムはまた、第1の開口内に配置されるとともに第1のセンサアレイと光学的に連通し、環境の第1の部分を第1のセンサアレイ上へ撮像する第1のレンズと、第2の開口内に配置されるとともに第2のセンサアレイと光学的に連通し、環境の第2の部分を第2のセンサアレイ上へ撮像する第2のレンズとを含む。
先の概念と以下にさらに詳細に論述される追加概念とのすべての組合せ(このような概念は互いに矛盾しないという前提で)は本明細書において開示される本発明の主題の一部であるように企図されることを理解すべきである。特に、本開示の終わりに記載される、特許請求される主題のすべての組合せは本明細書において開示される本発明の主題の一部であるように企図される。参照により援用される任意の開示内にも記載され得る本明細書において明示的に採用される用語には本明細書に開示される特定概念に最も一致する意味を与えられるべきであることも理解すべきである。
本特許または出願ファイルは、色彩を付して作成された少なくとも1つの図面を含む。彩色図面が付された本特許または特許出願公開の写しは、請求および所要の手数料の納付により特許商標庁によって提供される。
当業者は、添付図面が主として例示目的のためのものであってここで説明する本発明の主題の範囲を限定するように意図されていないことを理解する。添付図面は必ずしも原寸に比例しない。場合によっては、本明細書で開示される本発明の主題の様々な態様は、様々な特徴の理解を容易にするために添付図面に誇張または拡大されて示されることがある。添付図面では、同様の参照符号は通常、同様の特徴(例えば、機能的に同様、および/または構造的に同様の要素)を指す。
本発明の実施形態による、フレームに取付けられたステレオ視センサとレーザ走査装置に取付けられたレーザ距離計とを備えた多重知覚ステレオ視システムを示す。 本発明の実施形態による図1Aに示す多重知覚ステレオ視システムのブロック図である。 本本発明の実施形態による多重知覚ステレオ視システムのステレオセンサヘッドの斜視図であり、ステレオセンサヘッドとレーザ距離計および/または他の部品とを位置合わせするドエルピンを示す。 本発明の実施形態によるレーザアセンブリの位置合わせドエルピンまたは他のアタッチメントを含まないステレオセンサヘッドの斜視図である。 本発明の実施形態によるレーザアセンブリの位置合わせドエルピンまたは他のアタッチメントを含まないステレオセンサヘッドの斜視図である。 本発明の実施形態による、ユニタリフレームと、光源およびステレオカメラ用の別々の開口およびレンズと、内部熱伝導壁と、エレクトロニクスから熱を吐き出す熱伝導性パッドとを有するステレオセンサヘッドの断面図である。 本発明の実施形態による、ユニタリフレームと、光源およびステレオカメラ用の別々の開口およびレンズと、内部熱伝導壁と、エレクトロニクスから熱を吐き出す熱伝導性パッドとを有するステレオセンサヘッドの断面図である。 本発明の実施形態による、ユニタリフレームと、光源およびステレオカメラ用の別々の開口およびレンズと、内部熱伝導壁と、エレクトロニクスから熱を吐き出す熱伝導性パッドとを有するステレオセンサヘッドの断面図である。 本発明の実施形態による、ユニタリフレームと、光源およびステレオカメラ用の別々の開口およびレンズと、内部熱伝導壁と、エレクトロニクスから熱を吐き出す熱伝導性パッドとを有するステレオセンサヘッドの断面図である。 本発明の実施形態によるステレオセンサヘッド内部の光学部品列およびセンサアセンブリの断面図である。 本発明の実施形態によるステレオセンサヘッド内部の光学部品列およびセンサアセンブリの断面図である。 本発明の実施形態によるステレオセンサヘッドに使用される電子アセンブリへ嵌合された光学アセンブリの斜視図である。 本発明の実施形態によるステレオセンサヘッドに使用される電子アセンブリへ嵌合された光学アセンブリの斜視図である。 本発明の実施形態によるステレオセンサヘッドに使用される電子アセンブリへ嵌合された光学アセンブリの斜視図である。 本発明の実施形態によるステレオセンサヘッドに使用される電子アセンブリへ嵌合された光学アセンブリの斜視図である。 本発明の実施形態によるステレオセンサヘッドに使用されるエレクトロニクスアセンブリの平面図である。 本発明の実施形態によるステレオセンサヘッドに使用されるエレクトロニクスアセンブリの立面図である。 本発明の実施形態による多重知覚ステレオ視システムに使用するのに好適な別のステレオセンサヘッドの斜視図である。 本発明の実施形態による多重知覚ステレオ視システムに使用するのに好適な別のステレオセンサヘッドの断面図である。 本発明の実施形態によるレーザ走査装置および駆動系の図である。 本発明の実施形態によるレーザ走査装置および駆動系の図である。 本発明の実施形態によるレーザ走査装置および駆動系の図である。 本発明の実施形態によるレーザ走査装置および駆動系の図である。 本発明の実施形態によるグローバルまたは準グローバルブロック照合アルゴリズムを使用してステレオデータを処理するように構成されたプロセッサ(例えば、フィールドプログラマブルゲートアレイ(FPGA))を示す。 本発明の実施形態によるグローバルまたは準グローバルブロック照合アルゴリズムを使用してステレオデータを処理するように構成されたプロセッサ(例えば、フィールドプログラマブルゲートアレイ(FPGA))を示す。 本発明の実施形態によるグローバルまたは準グローバルブロック照合アルゴリズムを使用してステレオデータを処理するように構成されたプロセッサ(例えば、フィールドプログラマブルゲートアレイ(FPGA))を示す。 ステレオセンサ較正のための処理を示すフローチャートである。 レーザセンサ(ライダ(LIDAR))較正のための処理を示すフローチャートである。 レーザのステレオセンサ較正のための処理を示すフローチャートである。 ステレオ撮像システム内の左カメラにより取得された第1の画像を示す。 ステレオ撮像システム内の右カメラにより取得された第1の画像を示す。 ステレオ撮像システム内の左カメラにより取得された第2の画像を示す。 ステレオ撮像システム内の右カメラにより取得された第2の画像を示す。 図13Aおよび13Bに示す画像に基づく視差マップを示す。 図13Cおよび13Dに示す画像に基づく視差マップを示す。 左右画像(上の左と右それぞれ)からの入力イメージ情報(下の左と右それぞれ)を有する視差マップとその情報を有しない視差マップとの合成を示す。 図14Aの視差画像上に重ねられた画像データを示す。 図14Bの視差画像上に重ねられた画像データを示す。 図14Aに示す視差データの3D投影を示す。 図14Bに示す視差データの3D投影を示す。 図18A−Bは、センサを煙で掩蔽した場合のレーザポイントクラウドデータおよびステレオ画像データから合成された画像と、センサを煙で掩蔽しない場合のレーザポイントクラウドデータおよびステレオ画像データから合成された画像とをそれぞれ示す。
今日まで、3Dステレオシステムと3Dライダシステムは、多くの用途には余りに大きく、余りに重く、余りにも大きな電力を消費してきた。本発明の実施形態は、多くの方法でこれらの課題に対処する。いくつかの例では、その結果として、センササイズ、重量、消費電力に関する制限を有する小さなロボット、車両、ヒューマノイド、および他の環境に採用されるのに十分小さく、十分に軽く、かつ十分に低電力の3Dセンサを提供する。従来のセンサと比較して、例示的3D感知システムは、ほぼ一桁小さくかつほぼ10倍少ない電力を消費するパッケージ内に同様のまたは拡張された感知能力を提供する。いくつかの実施形態では、消費電力と寸法の低減は、埋込み型FPGA、一体化実装および構造フレーム、小型かつ効率的熱設計、小型かつ低電力かつ自己保護型駆動系の使用により実現される。
本発明のセンサの例は、ライダデータとステレオデータとを大領域マッピングにおいて特に有用な単一データストリームに融合する。ライダデータは、正確である傾向があるが、環境内のレーザの位置の連続的姿勢推定無しにそのデータ同士を縫合するのに十分に密でないことが時にある。ステレオデータは、十分に密な傾向があり、視認可能オドメータまたは3D特徴照合および追跡のいずれかによって連続的姿勢推測値を提供するのに十分なフレームレートを有する。加えて、ステレオデータはライダデータを検査および補正するために使用される、またその逆の場合も同じであり、スタンドアロン装置として存在し得るより幾何学的に正確で、安定で、かつ頑強なシステムをもたらし得る。
多重知覚ステレオ視システム
図1Aおよび1Bは、小型かつ軽量なレーザ走査機構300を介しライダへ機械的に結合されたステレオセンサヘッド200を含む例示的多重知覚ステレオ視システム100を示す。システム100はまた、可視光および/または赤外線(IR)発光ダイオード(LED)400を含む。図1Aに示すように、ステレオセンサヘッド200は、窓202aおよび202b(集合的に窓202)それぞれの後に取付けられたカメラ210aおよび210b(集合的にカメラ210)を含む。ステレオセンサヘッド200はまた、それぞれがそれぞれの窓に取付けられた一対の垂直方向に取付けられたLED400を含む。
図1Bは、図1Aに示すステレオ視システム100のブロック図である。カメラ210に加えて、ステレオ視システム100はまた、LEDドライバモジュール410と、好適なバスを直接介し互いに動作可能に接続されるとともにコネクタ102または他の好適なバスを介し1つまたは複数の外部部品へ動作可能に接続される処理モジュール500とを含む。LEDドライバモジュール410は、主基板500へ電力をまとめて供給するヒューズおよびフィルタ412と12VのDC/DC変換器414とを含む。複数のLEDドライバ402は、それぞれのLED400を駆動するためにヒューズ付きフィルタリング済み電力を引き出す。処理モジュール500は、フィールドプログラマブルゲートアレイ(FPGA)として図1Bに示すプロセッサ510、メモリ(図示せず)、データ接続512、補助入力および出力514、慣性測定ユニット(IMU)部品516、電力監視装置518を含む。当業者により容易に理解されるように、処理モジュール500はまた、FPGAの代わりにまたはそれに加えて特定用途向け集積回路(ASIC)などの他の部品を含む。
図1Bはまた、各カメラ210が、CMOSIS CMV2000/4000センサなどのそれぞれの撮像装置212aおよび212b(集合的に撮像装置212)と、それぞれの撮像装置プリント回路基板(PCB)214aおよび214b(集合的に撮像装置PCB214)と、それぞれの窓216aおよび216b(集合的に窓216)とを含むことを示す。カメラ210は、図1Bに示すようなそれぞれのトリガおよび信号線を介し処理ユニット500内のプロセッサ510へ動作可能に接続される。
ステレオカメラアセンブリ
プリント回路基板(PCB)とセンサおよび光学素子とのピン止めおよび重ね合わせ(一体型光学フレーム/サブアセンブリ)
ステレオシステムを製作することの難しい一面は、較正モデルの精度を長期にわたって保証することである。レンズまたは撮像装置のいかなるずれも光学的歪みまたはずれを引き起こし得、較正モデルは最早そのユニットの特性に一致しない。これは、左右像の特徴を照合する際の困難と、結果として得られる視差マップの精度と完全性の損失とをもたらす。
伝統的に、ステレオカメラはカメラを共通筐体へ別々に取付けてきた。したがって、これらの2台のカメラ間の位置合わせはボルト、ドエルピンまたはその両方により維持される。撮像装置に対するレンズの各カメラ内の位置合わせもまたボルト、ドエルピンまたはその両方により維持される。これらの場所のそれぞれでは、外部衝撃が部品のずれと較正精度の損失とを引き起こす可能性がある。
独創的ステレオカメラセンサユニットは、撮像装置またはレンズのずれを防止するために多くの設計措置を取り入れる。第1に、個別部品実装の代わりに一体成型光学サブフレームが使用される。これは、両方の撮像装置と両方のレンズが単一機械加工部品へ直接取付けられることを意味する。これにより、従来の個別実装より正確な初期実装と長期にわたる正確な位置合わせとを可能にする。
例えば、両方の撮像装置は、光学サブフレームの単一面へ直接ボルト締めにされるため、互いに同一面内に存在することが保証される。従来の個別実装は、一方の撮像装置が他方の撮像装置の前方または後方に存在することまたはわずかな角度で傾斜されることを許容する。これらの種類の取付け誤差はシステムの較正モデルの要素に入れられ得、それらの影響は結果として得られるデータから除去され得るが、正確なレンズと撮像装置との位置合わせを有するほうが好適であり得る。
加えて、光学サブフレームは個別実装より長期にわたってより良好な較正精度を維持する。これは、レンズと撮像装置と左右レンズ/撮像装置ペアとの間のボルトまたはドエルピンの数の低下による。接続の数が減少するため、システムはより頑丈になり、取付けと位置合わせは長期にわたってより安定する。
図2Aはステレオセンサヘッド200の斜視図であり、プラスチック、金属または任意の他の好適な材料で作られ得るセンサヘッド外部筐体204を示す。筐体204は、単一材料片から成形または機械加工され得るまたは複数の材料片から形成され得る。筐体204は、レーザ走査機構300上にレセプタクル(図示せず)に嵌め込まれたドエルピン206aおよび206b(集合的にドエルピン206)および/またはステレオセンサヘッド200をレーザ走査機構300(図1A)へ位置合わせするための他の機構を含む。筐体204はまた、密閉通路208、またはセンサヘッド200から外部電源、プロセッサ、メモリ、アンテナ、通信インターフェースまたは他の電気的および/または機械的部品へのケーブルを走らせるための他の開口を画定し得る。
図2Bおよび2Cは、位置合わせドエルピンまたはレーザアセンブリ用の他のアタッチメントを含まないステレオセンサヘッド250の図を示す。図2Aに示すステレオセンサヘッド200のように、ステレオセンサヘッド250は、単一材料片から成形または機械加工され得るまたは複数の材料片から形成され得る筐体254を含む。組立てられると、筐体254は、カメラ210および関連エレクトロニクス(図示せず)を保持するための空洞と、カメラ210、照明、電力/データコネクタ102およびLEDコネクタ用の開口とを画定する。
図7Aおよび7Bは、図2Aに示す筐体204より広い筐体704を有する別のステレオ視システム700を示す。筐体704は、静的O−リング、窒素空気抜き弁、および/またはその後面パネル上の圧力弁により密閉され得る。筐体704は、固体キーロックインサート(図2Cではより狭い筐体204の左右後縁部上にも視認可能)と高精度位置合わせ用ドエルピンとを有するマウント706を含む。この筐体704はまた、それぞれのカメラ710a、710b(集合的にカメラ710)用の一対の窓702aおよび702b(集合的に窓702)を含む。これらのカメラ710は、コネクタ720aおよび720bと接続する1つまたは複数の可撓リボンケーブルを介しプロセッサへ結合され得る。他の例と同様に、窓702は、低光学歪みを有する耐衝撃性ガラスまたはプラスチックで作られ得る。しかし、この場合、窓702とカメラ710は、より広い基準線を提供するためにより広く分離され、ひいては3D深さ精度を改善し、利用可能範囲を増加する。加えて、筐体700は、カメラ710間の水平方向に分散されたそれぞれの窓714の背後に4つのLEDアレイ712を含む。これらのLEDアレイ712は、可視光照明、IR照明、または画像忠実度の改善と高精度なピント調整のための可視光照明とIR照明との組合せを提供し得る。
フィールドプログラマブルゲートアレイから熱を伝導する熱伝導性パッド
システムの最大の発熱体は、主処理フィールドプログラマブルゲートアレイ(FPGA)または特定用途向け集積回路(ASIC)を含み得るプロセッサ510である。適切に冷却されなければ、プロセッサ510は、システムが高周囲温度で動作されれば過熱して物理的障害を受け得る。プロセッサ510は密閉筐体内部に存在するため、プロセッサ510から熱を除去することは難しい可能性がある。
図3A〜3Dは、センサヘッド200の断面図を示す。これらの図は、処理ユニット500、撮像装置212、撮像装置PCB214を含むエレクトロニクスアセンブリ600を示す(図6Aおよび6Bにおいてより詳しく示す)。図3Aおよび3Cに示すように、ユニタリフレーム240は撮像装置212をそれぞれの光学素子(図4Aに示すレンズ230)に対し適所に保持する。ユニタリフレーム240は、温度変動がステレオ撮像精度に影響を与えるのを防止するために撮像装置212が互いに位置合わせされたままであることを保証するように比較的低い熱膨張率を有する単一材料片(例えば、プラスチックまたは金属の材料片)から機械加工、成形、またはそうでなければ作製され得る。フレーム240は、撮像装置212とその実装用PCB214とがボルト締めされる離散面内実装面260または単一連続的実装面を有し得る。撮像装置212と撮像装置PCB214とを単一ユニタリフレーム240上の面内実装機構260へボルト締めしピン止めすることにより、撮像装置212の実装精度と実装安定性とを改善する。これにより、システムの較正が長期にわたって高精度となるため、より高品質の3Dデータが得られる。いくつかの実施形態では、エレクトロニクスアセンブリ600は、撮像装置212と光学素子間のより高い位置合わせ精度のためにユニタリフレーム240へ直接取付けられる。
図3A〜3Dはまた、プロセッサ510(例えば、ASICまたはFPGA)と筐体204内に組込まれる熱伝導壁280間の熱伝導性パッド282を示す。この内壁280は、外部環境へ直接露出されないが、多くの外面を有する筐体204の一部である。したがって、プロセッサ510からの熱はパッド282を通り内壁280を加熱する。熱は、壁280を貫流し、その多くの外面を介し熱を外界へ放散する筐体204の残りの部分へ流れる。いくつかのケースでは、外壁は熱放散を増加するための1つまたは複数のフィン724(図7B)を含み得る。全体として、この設計は、熱源(例えば、プロセッサ510)と外界との間に低インピーダンスを有する熱経路を生成する。この設計は、ファンなどのいかなる能動的冷却措置も必要とせず、システムの密閉完全性を維持する。他の実施形態では、筐体204は、プロセッサ510が外壁と当接してプロセッサ510と外部空気間の熱経路の長さを低減するように構成され得る。
ステレオ視用光学アセンブリ
図4A、図4Bおよび図5A〜5Dは、ステレオセンサ200内のカメラ210のうちの1つのカメラ210の光学アセンブリ220の様々な図を示す。図4Aに示すように、光学サブアセンブリ光学素子220は1つまたは複数のレンズ230および/または撮像装置212上に場面を撮像するための他の光学素子を含む。光学サブアセンブリ220はまた、O−リングシール222を使用することにより筐体204に対して配置されるカスタム窓202を含む。フォーム226は光を遮断するとともに、画質を低減し得る反射を防止し、フォーカスシム228は筐体204と撮像装置212に対してレンズ230を適所に維持する。ドエルピン262は各撮像装置212をユニタリフレーム240に対し位置合わせし、ボルト264は撮像装置212をユニタリフレーム240へ固定する。
ライトとセンサレンズ用の別々の窓
図7Aおよび7Bに示すように、ステレオセンサヘッド700は撮像装置光学素子とシステム照明用の別々の光学窓を有し得る。出射照明は、窓から、光源(例えば、発光ダイオード)を保持する空洞内へ部分的に反射され得る、または窓自体により吸収され得る。窓内で失われる照明は、埃、水、汚れ、または任意の他の破片粒子(ビーム出射位置から直線的にオフセットされた破片粒子も)を照らし出す。したがって、撮像光学素子と同じ窓の背後の照明がシステムレンズの視野内の破片を照らし出し、照明されない破片より大きな場面干渉を引き起こし得る。失われた照明が画質を劣化させるのを防止するために、本システムはレンズと照明の前に別々の窓を採用する。
照明光源(LED群712)の前の窓714は照明をある程度拡散するために艶消しされ得る。艶消しは、陰の鮮鋭度を減少させ、放射光をよりソフトにしかつ余り強くさせなく、配光内の「ホットスポット」を低減する。この散乱光は、より均一な照明を提供するとともに陰影を減らすことによりステレオアルゴリズムが左右の特徴を照合するのをより容易にし得る。
照明
システムの照明の視角がレンズと撮像装置の視野を厳密に一致させる。これは、「システムが、ユーザまたはステレオカメラに光学的視認可能でない場面の部分を照らす電力を浪費しない」ことを意味する。その結果、システム電力効率が高くなる。
システムは、可視光照明、赤外線照明、または可視光照明とIR照明の両方を提供する光源を含み得る。撮像装置はIRに敏感であり、IR照明の選択肢は、システムが夜間に可視光照明無しに動作できるようにする。
様々な基準線を可能にする分離可能撮像装置基板
図6Aおよび6Bはエレクトロニクスアセンブリ600をさらに詳細に示す。エレクトロニクスアセンブリ600は、画像センサアレイ212、イメージセンサPCB214、処理ユニット500を含む。これらの部品は機械的に、熱的に、電気的に主ロジックPCB290へ結合され、主ロジックPCB290はまた、能動電子部品と様々なデータおよび電源接続294とへ電力を供給する電源292を支持する。図6Aに示すように、PCB290は、長さ約4インチ(10.16cm)、高さ約42インチ(106.68cm)と比較的小さくなり得る。
撮像装置プリント回路基板(PCB)は主ロジックPCB290およびプロセッサPCB(処理モジュール)500とは別であり、これにより新しいシステム基準線(幾何学形状)へのより容易な適応だけでなくより厳しいシステム実装も可能にする。図6A、6Bに示すように主ロジックPCB290へ直接差し込む撮像装置PCB214の代わりに、一方または両方の撮像装置PCB214は、フレキシブルリボンケーブルまたは他の好適なフレキシブル、拡張可能または伸張可能コネクタを介し主ロジックPCB290へ接続され得る。例えば、図7Bは、フレキシブルリボンケーブルを介し撮像装置(符号で示されない)を主ロジックPCB298へ結合するためのコネクタ720aおよび720bを示す。これらのケーブルは様々な長さで構築され得、システム基準線が数インチから数フィート(例えば、6〜10フィート(182.88〜304.80cm))まで変化できるようにする。プロセッサロジック500はプロセッサ510と左右カメラ210間の電気的長さの差に若干依存して変わる。電気的長さの差を考慮するために、プロセッサ510は、カメラ210がそれぞれのトリガ信号を同時に受信するようにトリガ信号をより近いカメラ(例えば、カメラ210B)へ送信する若干前(例えば、数ナノ秒前)に遠いカメラ(例えば、カメラ210a)のトリガ信号を送信し得る。加えて、プロセッサ(FPGA)510上のクロック回復ロジックは同様に、左右カメラ210間のクロックオフセットを補償するために修正され得る。撮像装置212はまた、このような配置を支援するのに十分広い基準線を有するステレオヘッド内にフレキシブルケーブルおよび/または専用撮像装置PCBを使用することなく主ロジックPCB290上に直接取付けられ得る。
レーザ距離計とレーザ走査機構
図8A〜8Dは、低電力消費(例えば、約2ワット〜約15ワット)、低回転速度(例えば、0〜60rpm)、低スピンドルバックラシッシュ(例えば、約0.1度〜約0.5度)で動作する小型軽量レーザ走査機構300を示す。動作中、レーザ走査機構300は、通常は2Dレーザ距離測定センサから3D範囲の部分的球面を生成するために、レーザ310から発射された(例えば、最大約180または270度の)平面レーザビームを掃引または走査するように第1軸3を中心としてレーザ310を振動または連続的回転させる。レーザビームは、危険を生じることなく確実に検出可能な戻り光を生成するのに十分に高い電力において眼に安全な波長(例えば、950nmなどスペクトルの近赤外部内の波長)であり得る。スポットサイズとビーム広がり角は、光学技術分野において理解されるように、高精度な距離測定を保証するように選択され得る。
レーザ走査機構300は、外界と機構空洞321間の第1のシール380と機構空洞321とエレクトロニクス空洞323間の第2のシール337とを含み、また、電気的開口(図8Bの配線通路360)により連続的スピンドル回転を与える。走査機構300とそのギヤ列は外部負荷特には小さなギヤ歯を損傷し得る衝撃から保護される。
一実施形態では、走査機構300は単一段ワーム減速ギヤを含む。単一噛み合いでの高いギヤ減速比(例えば、50:1)のために、低バックラシッシュが得られる。フローティングワーム330は、アセンブリが適所でボルト締めされる前にギヤ位置の調整を可能にするため、標準的ワーム駆動系を越える改善されたバックラシッシュ(バックラシッシュは機構の部品間の遊びの程度である)を提供する。このフローティングワーム330は、モータ352、ワーム軸331、および密封軸受け340を有するサブアセンブリ332と、サブアセンブリ332と他の部品とを含む筐体370とを含む。サブアセンブリ332はセンサユニット内に設置され、そのワーム330は大きなワームギヤ324と噛み合う。バックラシッシュは、サブアセンブリ332の左右および上下の小さな動きにより調整され得る。バックラシッシュが低減または最小化されると、サブアセンブリ332は1つまたは複数のワーム取付けボルト334により適所でロックされる。
走査機構300は、コンプライアントモータマウント350と、軸331上の2つの軸受けと、軸331内に押し込まれるモータ軸上の2つの軸受けとを含む。動作中、コンプライアントモータマウント350は軸331の過剰制動を防止する。このコンプライアントモータマウント350は、回転に抵抗しながらモータとモータ軸が軸方向および半径方向へ動けるようにし、トルクがワーム軸331へ伝達されるようにする。コンプライアントモータマウント350は、鋼、プラスチック、または任意の他の好適な材料で作られ得る。
ワーム330とワームギヤ324を含む機構空洞321とモータ352を含むエレクトロニクス空洞323との間の密閉性を維持するために、走査機構300は以下のものを含む:主スピンドル322上の密封軸受け;フローティングワームサブアセンブリ332上の密封軸受け;フローティングワーム筐体336内に設計された静的孔シールであって、バックラシッシュ調整を可能にするためにフローティングワームアセンブリ332が若干移動されることを依然として可能にする一方で主筐体370へ密封される静的孔シール。加えて、電気的開口により連続的機械的回転を可能にするために滑りリング326がシステムの中空スピンドル322内に埋め込まれる。
ワームギヤ324内の滑りクラッチ325は、外部からのねじり衝撃または衝撃負荷の場合にワームギヤの歯とワームの歯を機械的損傷から保護する。滑りクラッチ325は、スピンドル322とワームギヤ330間にはさまれた摩擦パッド328と、ワームギヤ324を摩擦パッド328内に押し込む1つまたは複数のばね388と、ばね388を圧縮する一連のスペーサ(シムスタック386)および軸受けとを含む。摩擦パッド328は繊維ガラス、G10 Garolite、ブレーキパット材料、または高摩擦、低圧縮性または非圧縮性、高表面耐久性、強度(摩耗を防止する)を示す任意の他の材料で作られ得る。ワームギヤ324、摩擦パッド328、スピンドル322間の回転抗力未満の回転負荷は、あたかもこれらすべてがまとめて強固にボルト締めされたかのようにこのシステム内を伝達される。しかし、より大きな回転負荷はワームギヤ324がスピンドル322に対し滑り始めるようにさせ、したがって、ワーム330とワームギヤ歯は高負荷(衝撃負荷にも)に晒されない。この滑りクラッチは、システムが動力運動を受けているときとシステムの電源が切られたときに動作する。高負荷条件が除去されると、ギヤ列はあたかもいかなる事象も発生しなかった(いかなる部品も、置換、リセット、修理される必要がない)かのように正常回転を再開する。
図8Cおよび8Dは、駆動系がまた、エンコーダマウント390と、レーザデータを3D空間へ高精度に投影するためにスピンドル位置を測定する絶対軸位置エンコーダ392とを含み得ることを示す。カスタムエンコーダマウント390は、スピンドル322へボルト締めされ位置合わせされるフランジを含む。絶対軸位置エンコーダ392は、カスタムエンコーダマウント390とスピンドル322間にはさまれた穿孔または印付きリングを含む。動作中、フォトダイオードまたは他のセンサは、スピンドルの角度位置の指標を提供する絶対軸位置エンコーダ392上のマーキングを感知する。
プロセッサ実施形態
図9A〜9Cは、独創的センサユニットに使用するのに好適なFPGAまたはASICを利用したプロセッサ510の実施形態を示す。このプロセッサ実施形態は、ステレオカメラ200のイメージセンサ210への1つまたは複数の撮像装置インターフェース520aおよび520b(集合的にインターフェイス520)を含む。前処理ブロック522aおよび522b(集合的に前処理ブロック522)は、イメージセンサ210から低電圧差動信号伝達(LVDS)線上の直列データを受信し、直列データを処理パイプラインの残りのための標準並列表現へ変換する。撮像装置インターフェース520は動的クロック/データアライメントを行う。撮像装置インターフェース520はまた、既知のフォーマットの入力直列データにロックするとともに直列データ内の誤差を検出する役割を果たす。
図9Bに示すように、前処理ブロック522はまた、限定しないが以下の多種多様な前処理タスクのうちの任意の1つを行うように構成され得る。
・雑音除去:固定パターン雑音を除去し(ブロック902)、ランダム雑音をフィルタ除去する(ブロック914);
・クリッピング、黒レベル検出、自動露光、自動利得などのためのヒストグラム生成(ブロック904);
・線形化:高ダイナミックレンジ(HDR)空間(HDR撮像が可能にされれば)から線形強度空間へ変換する(ブロック906);
・ビネット補正:レンズに起因する画像のぼやけた端/角を補正する(例えば、参照テーブル内に蓄積されたデータに基づき)(ブロック908);
・モザイク解除:例えば全体として参照により本明細書に援用する“Interpolation using a Threshold−based variable number of gradients”algorithm(VNG):http://scien.stanford.edu/pages/labsite/1999/psych221/projects/99/tingchen/algodep/vargra.htmlを使用することによりベイヤカラー画像をフルカラー画像に変換する(ブロック910);
・色空間変換:センサのRGB色空間をパイプライン使用(例えば、RGBまたはCIELAB)のために標準的色空間に変換する(ブロック912);
・白バランス:場面照度と一致するように色を調整する(ブロック912);
・フィルタ処理/サブサンプリング:平滑化と次にサブサンプリングにより画像解像度を低減する(例えば、ユーザが最高分解能より低い分解能を要求すれば)(ブロック916)。
図9Cに示すように、プロセッサ510はまた、例えば、カメラ毎に別々の整流ブロックを使用することによりまたは左右ステレオカメラにより共有される単一の純粋なメモリツーメモリブロック524を使用することによりカメラ210からのデータに対して整流を行い得る。この整流メモリツーメモリブロック524は、直接メモリアクセス(DMA)バス590へのそれ自体の接続を有し得る(前処理はまた、DMAバスへ直接接続し得る)。プロセッサ資源を節約するために、単一の整流ブロック524は左右両方の画像経路間で共有される。
整流モジュール524は、レンズにより導入されるいかなる歪みも除去するように画像データを変換する。パックコマンドストリーム(packed command stream)は、少数の絶対座標が散りばめられた一連の相対座標として、入力画素座標を効率的にエンコードするために使用される。コマンドデコーダ952は、DMAバス590を介しメモリ514からこのコマンドストリームを読出し、それを一連の純粋絶対画素座標にデコードする。他の実施形態は、上記コマンドストリームを除去することによりメモリ帯域幅を節約するために、および全コマンドストリームを再生成する必要無く較正を微調整できるようにするために(全コマンドストリーム再生成は高価な処理である)、較正パラメータから直接、座標を動的に生成し得る。
図9Cに示す整流モジュール524実施形態は、元画像を採取するために双線形補間を利用し、メモリアクセス効率を改善するためにキャッシュに依存する。マルチバンクキャッシュ964は、(双線形補間に必要な)4つの入力画素すべてが同時に読出されるようにする。本設計は完全パイプライン式であり、ほぼ1画素周期のスループットを維持し得る。キャッシュタグ参照とキャッシュデータ読出し間の遅延線路は、データが実際に必要とされる前にキャッシュミスが解決されるようにする。
いくつかの実施形態では、遅延線路は、整流ブロック524のフロントエンド954とバックエンド958間に配置されたファーストインファーストアウト(FIFO)コマンドバッファ960であり得る。フロントエンド954はコマンドデコーダ952から画素座標を受信し、所与の出力画素の入力画素を判断し、次に、それらの入力画素が整流ブロックのキャッシュ964内に既に存在するかどうかを判断するために整流ブロックのキャッシュタグ956をチェックする(キャッシュタグ956は、(1)フロントエンド954がどの要求をDMAコントローラ962へ送信すべきかが分かるように、(2)いつ特定のキャッシュエントリを参照する未発行コマンドが最早存在しなくなったかをDMAコントローラ962が知り、したがってそのエントリに安全に上書きできるように、(3)いつDMAコントローラ962がキャッシュ964内に新しいエントリをフェッチし終えたかをバックエンド958が分かるように、キャッシュ964内に現在存在するものを追跡する)。それらの入力画素が整流ブロックのキャッシュ内に存在しなければ、フロントエンド954は、DMAバス590を介し欠落画素をフェッチするために主メモリ(514)へ1つまたは複数の読出し要求を発行するようにDMAコントローラ962に指示する。バックエンド958は、出力画素を生成するために入力画素(双線形サンプリングのための入力画素のうちの4つ)を使用する。主メモリは遅いことがあり得(例えば、100サイクルを超える遅延を有することがあり)、バックエンド958を停止することは望ましくないことがあり得るため(例えば、所望平均スループットはパイプラインを円滑に動かすために1画素/サイクルに近いことがあり得るため)、主メモリから欠落した画素をフェッチすることに伴う遅延を隠すことが望ましいことあり得る。
いくつかの実施形態では、整流は分岐依存性または画素間依存性の無い極めて逐次的な処理であるため、メモリ遅延を隠すことはフロントエンドからバックエンドへ行く命令を遅らせることにより達成され得る。例えば、コマンドは、バックエンドが新しいデータを必要とする前にメモリ読出しが完了するという合理的確実性を提供するために、遅延線路(FIFOバッファ960)をワーストケースメモリ遅延以上の期間の間使用することにより遅延され得る。
プロセッサ510はまた、カメラから前処理および整流されたデータをステレオ画像に変換するためにステレオアルゴリズムブロック592を使用することにより好適なステレオ処理アルゴリズムを実施する。例えば、プロセッサ510はオープンソースコアを使用することによりステレオブロック照合(StereoBM)アルゴリズムを実施し得る(例えば、その全体を参照により本明細書に援用するhttp://danstrother.com/2011/06/10/fpga−stereo−vision−core−released/を参照)。プロセッサ510はまた、準グローバルブロック照合アルゴリズム、グローバルブロック照合アルゴリズムを実施し得る(例えば、その全体を参照により本明細書に援用するhttp://www.dlr.de/rm/en/PortalData/3/Resources/papers/modeler/cvpr05hh.pdfを参照)。
いくつかのケースでは、ステレオ処理ブロック592は、(図9Bに示す前処理パイプラインにより生成された未封止またはスケーリング済み画像(unsealed or scaled images)を取り扱う要求または必要に応じて)様々な解像度画像入力を処理できるようにするために動的に再構成され得る。より高い分解能入力はより多くの3D点とより高い深さ精度をもたらすがより多くの処理を必要とする。ステレオ処理ブロック592はまた、様々な視差範囲(ボリューム)を探索するために動的に再構成され得る。より大きな視差探索範囲はより大きな奥行き範囲を生じるがより多くの処理を必要とする。ステレオ処理ブロック592は、独立調整済み画像幅、像高、視差探索範囲を考慮し得る。画像解像度と視差探索範囲とを動的に調整することができることで、ステレオ処理ブロック592が分解能、範囲、フレームレート間のリアルタイムバランシングを行えるようにする。ステレオ処理ブロック592自体は必ずしも画像データをスケーリングする役割を果たさないことに留意されたい。画像スケーリングは図9Bに示す前処理パイプラインにおいて行われ得る。
探索視差範囲を動的に再構成する能力は、プロセッサ510に3D深さのうちのどれだけが探索されるかを調整できるようにする(より大きな視差探索範囲は、計算の増加を犠牲にしてカメラに近い対象を確実に感知する能力をもたらす)。探索深さ/視差ボリュームは通常、無限後方からセンサ方向に広がる(0の視差は無限大を表し、増加する視差は徐々に近くなる点を表す)。視差探索範囲が増加するにつれて、探索深さボリュームの近端はセンサへより近づく。
加えて、プロセッサ510は、標準パイプラインフォーマットを取り、それをイーサーネット接続(イーサーネットMAC560)上で送信する前にユーザ要求フォーマット(例えば、色空間、分解能、バイトフォーマット)へ変換する出力フォーマット化ブロック572を含み得る。プロセッサ510はまた、中央処理装置(CPU)542からネットワークパケットの生成をオフロードするネットワークプロトコルオフロードブロック570を含み得る。プロセッサ510は、ハリスコーナアルゴリズム(Harris Corners algorithm)または任意の他の好適なアルゴリズムを使用して画像内の「特徴」(例えば、複数フレームにわたって追跡するのに比較的一意的でありかつ好適な点)を検出する特徴検出ブロック(追加アルゴリズムブロック594)を含み得る。プロセッサ510はまた、特徴検出ブロックへ結合された特徴追跡ブロックを含み得る。特徴追跡ブロックは検出された特徴を取り出しフレーム間でそれらを照合することを試みる。どのように特徴がフレーム間で動いたかを知ることにより、カメラの運動を推定することが可能である。
当業者により理解されるように、ファームウェアはFPGAロジックで実現される画像処理パイプラインを構成し監視し得る。例示的ファームウェアは、FPGA内の単純なソフトコアCPU(Xilinx Microblaze)542上で実行し得る。標準Xilinx提供周辺装置は以下のものを含むシステムの残りを構築するために使用され得る:DRAMコントローラ564、AXI DMAバス590、イーサーネットMAC560、および補助I/Oソース(例えば、I2C、RS232など)へ結合された低速入/出力(I/O)ドライバ540。
センサ較正
較正誤差の検出
信頼性の一様相は、システム誤差を検出するとともに適切に応答することができることである。屋外センサ(特には、カメラを含むセンサ)のシステム誤差の源は較正ドリフトである。衝撃、振動、熱効果はすべて、内部部品の相対位置に影響を与え、センサ幾何学形状と撮像パラメータの(場合によっては望ましくない)変化を生じ得る。これらの較正誤差を考慮するために、本システムは以下に述べるような1つまたは複数の組のパラメータを検出し得る:ステレオカメラの投射幾何学形状とレンズ歪みとを記述するパラメータ;スピンドルに対するレーザ走査装置の位置と配向を記述するパラメータ;およびステレオカメラに対するスピンドルの位置と配向を記述するパラメータ。
画像一貫性評価:ステレオカメラの投射幾何学形状とレンズ歪み
独創的センサユニット内のカメラは、観測されている対象の3D位置と左右画像内に投影される2D位置との既知関係を設定するように較正され得る。対象の投影位置が期待に合わない場合、同カメラは較正に関する問題を示す。例えば、カメラが正常に較正されると、景色内の対象は左右画像内の同じ走査線上に現われる。右画像内よりむしろ左画像内で異なる走査線上に現われる対象を観察することにより、システムは較正ドリフトを検出し得る。同様に、カメラが正常に較正されると、はるか遠くの対象は各画像内の同じ左右の位置に現われる。対象がカメラに近づくにつれて、対象は2つの画像内のますます異なる左右の位置に現われる。この左右の位置の差はステレオ視差と呼ばれる。較正精度の1回のチェックでは、ユーザはカメラを遠くへ向けるように指示され得、次に、零からかけ離れた視差が較正誤差を示す。ステレオ画像ペアから測定された対象位置(および対象位置の差)はまた、以下に述べるように対象位置のレーザ距離計測定と相関付けられ得る。
図10は、ステレオカメラを較正する処理1000を示す。ブロック1002では、1または複数の静止基準が特定の環境内に配置または識別される。静止基準が適所に存在すると、ブロック1004において、システムは例えば工業用ロボットのエンドエフェクタを使用することにより一連の位置および配向(「姿勢」と呼ばれる)を通される。各姿勢において、結果として得られるカメラ画像は静止基準の画像位置を判断するために調査される(ブロック1010)。姿勢と観察画像位置との各組合せは投影方程式1008に対応する。
ステレオ較正処理1000において収集されたデータは、世界座標内の基準位置、ロボットのエンドエフェクタに対するカメラの位置および配向、カメラ投射幾何学形状、およびレンズ歪みを含む未知パラメータを推定するために使用され得る。ステレオ較正処理1000における既知パラメータは、画像内の観測基準位置と世界座標内のロボットエンドエフェクタの位置および配向である。未知パラメータは、これらの投影方程式の多くを集約するとともに、観察結果にほぼ一致する未知パラメータの値を求める(例えば、非線形最小二乗または同様の最適化を利用することにより)ことにより検出される。
レーザ一貫性評価:スピンドルに対するレーザ走査装置の位置および配向
上述のようにそして図1Aと図8A〜8Dに示すように、例示的独創的センサユニットは、レーザスピンドルを中心に連続的に回転し得るレーザを有するレーザ距離計を含み得る。これは、レーザ距離計が場面の大部分を2回測定することを意味する:すなわちレーザ距離計が走査するにつれてビームの左側による一回目と、次にビームの右側による180度後の2回目。レーザの較正が正しければ、これらの2組の測定は互いに一致する。位置ずれは、劣悪な較正を示し、センサユニットを再較正する(直す)ために使用され得る。
図11は、スピンドルに対するレーザ走査装置の位置および配向を検出するために非線形最適化を採用するライダ較正処理1100を示す。この場合、システムは固定場面では静止して保持され、レーザデータはスピンドルが回転している間に集められる。スピンドルの一回転中、場面の大部分はレーザにより2回観測される。これを見るために、景色内の特定の対象の左側を走査するレーザを考察する。この走査は第1の組のレーザ範囲値とアジマス値1102をもたらす。次に、レーザが第2の組のレーザ範囲値とアジマス値1112を得るために同じ対象に対処するようにスピンドルを右側へ約180度回転することを考察する。各レーザ観察結果は、スピンドル角度(1104と1114)と、スピンドルに対するレーザ走査装置の位置および配向の推定値とに基づき計算され得る3D点(1106と1116)に対応する。第1の180度走査(1102)と第2の180度走査(1112)との一貫性を評価するために、プロセッサは、平面を第1の観察結果に局所的にフィッティングする「較正誤差」関数を定義し(工程1108)、次に、一貫性測定(112)を得るために第2の観察結果と適切な平面モデル(1110)との距離を計算する(1118)。この誤差関数の値は、観測レーザ範囲に最も一致する値を発見するために非線形最小二乗最適化、シミュレーテッドアニーリング(simulated annealing)、または同様の手法を使用することにより回収され得る較正パラメータに依存する。
センサ間一貫性:ステレオカメラに対するスピンドルの位置および配向
レーザとステレオカメラアセンブリの両方は場面の3Dモデルを生成し得る。前のチェック結果が良好な較正と一致すれば、これらのモデルはセンサ間の幾何学的関係が正確であることを検証するために互いに比較され得る。残念ながら、ステレオ画像内の測定誤差は、この比較を高精度に行うのを困難にするように3D空間内に投影される。これは、あたかもレーザモデルがカメラにより見られているかのように画像内にレーザモデルを投影し、次に画像空間内の結果を比較することにより対処され得る。この較正評価に対する手法は、自然な場面または専用の較正標的を使用して実施され得る。
図12は、レーザスピンドルに対してステレオセンサを較正または記録する処理を示す。レーザ距離計(ライダ)とステレオセンサが例えば図10と図11に示す処理を利用することにより較正されていれば、レーザデータは3Dレーザポイントクラウド1204に変換され得、カメラ画像は、画像内の多数の画素においてステレオ視差マップ1202を計算するために使用され得る。プロセッサは、ステレオセンサの視野(FOV)に一致するようにレーザポイントクラウド1204をトリミングする(1206)。プロセッサは、模擬ライダ視差マップ1212を生成するためにライダツーステレオ(LIDAR−to−stereo)変換パラメータ1210を使用して、トリミング済みポイントクラウド1208をステレオセンサ座標系へ変換する。次に、プロセッサは、ライダツーステレオ変換パラメータ1210を非線形に最適化する(1218)ために使用される類似性測定を生成する(1216)ために模擬ライダ視差マップ1212とステレオ視差マップ1202とを比較する(1214)。
当業者により理解されるように、ステレオ視差はカメラ画像内の対象の3D位置に対応する。これらの3D位置はレーザから3Dポイントクラウド1204内に反映される。3Dレーザ観察結果をステレオカメラの座標系に変換することにより、予測視差画像1212を生成し、それをステレオカメラからの実際の視差画像1202と比較することが可能である。この変換はステレオカメラに対するスピンドルの位置および配向に依存し、再び、プロセッサは予測視差像と観測視差像との類似性を増加する較正パラメータ1208を発見するために非線形最適化を利用する。
レーザ距離計較正
独創的センサユニットは、レーザ距離計を較正するために以下の技術の一方または両方を利用し得る:(1)既知幾何学形状の較正標的がレーザにより測定され、次に、これら既知標的の観察結果はレーザ較正パラメータの値を逆に求めるために利用される;(2)未知幾何学形状または未知位置の較正標的がレーザにより観測され、較正パラメータはレーザ一貫性を増すために調整される(上を参照)。
独創的センサユニットは、既知の対象または較正標的の測定を記録することと観察結果に最も一致する較正パラメータの組を探索することとに係る従来の手法を含むいくつかのタイプのカメラ較正法を支援し得る。例えば、ステレオカメラは、一連の未知位置および/または配向における較正標的の位置を検出し得る。結果画像は較正パラメータと未知位置とを判断するために利用される。これは、較正標的の位置が知られていない場合でも較正標的の既知形状が情報を提供するため、有効である。この手法は、レーザ距離計を使用するとともにステレオ画像データから判断された位置および/または較正パラメータの精度を検証するためにレーザ距離データを使用することにより較正標的の位置と幾何学形状を測定することにより拡張され得る。
本発明のセンサユニットの精密な内部タイミングは別のカメラ較正手法を可能にする。カメラに赤外フィルタが取付けられていない場合、場面内の対象からのレーザビームの反射が画像内の点として現われ得る。この点は画像処理技術を使用することにより検出され得る。その位置は、左右画像内のレーザ測定3D点と一対の2D位置との対応関係を提供する。レーザの回転は、カメラ較正を計算するためのまさに入力であるこれらの対応関係の集合を提供する。
以前の手法の一般論は、3Dレーザ測定と2D画像位置との対応関係を利用するが、画像内でレーザスポットが可視であることを必要としない。これは、カメラに赤外フィルタが取付けられている場合またはレーザスポットを見るには場面が余りにも明るく照明された場合でもこの技術がうまく機能するようにする。この場合、カメラと場面はレーザが多数の3D点を捕捉する間動かない。レーザ反射光がカメラに視認可能であれば、各3D点は、左右画像内のレーザスポットを検出することにより2D画像位置に一致され得る。その代りに、一致は、仮の較正パラメータを利用して投影2D位置が正しいことを装うことにより3D点をカメラ画像内に投影することにより見出される。仮の較正パラメータが正しくなければ、投影は正しくなく、3D−2D対応関係は不正確になり、そして場面が十分にリッチ(rich)であると仮定すると、結果として得られる組合せの多くは画像一貫性メトリックに反することになる。較正パラメータはこの違反を低減するように調整され得る。
視差マップ合成と比較
図13A〜13Dは、ステレオ撮像システム内の左右カメラにより取得された以下の4つの画像を示す:左カメラにより取得された第1の画像(図13A);右カメラにより取得された第1の画像(図13B);左カメラにより取得された第2の画像(図13C);右カメラにより取得された第2の画像(図13D)。カメラは異なる場所/角度から場面(環境)を観察するため、異なる観点から画像を取得する。当該技術分野において良く理解されているように、プロセッサはステレオ画像と視差マップを生成するためにこれらの画像のペアを使用し得る。ステレオ撮像システムが取得中に移動または変位すれば、ステレオ画像は異なる観点からの場面のステレオ図を示し得る。
図14Aは、図13Aおよび13Bに示す左右画像に基づく第1の視差マップを示す。図14Bは、図13Cおよび13Dに示す左右画像に基づく第2の視差マップを示す。当業者により良く理解されているように、視差はステレオペアの左右像内の2つの対応点間の距離を指す。この距離は2対の座標(左画像の一対の座標と右画像の別の対の座標)間のベクトルとして表され得る。このベクトルの大きさは時に「視差値」と呼ばれる。ステレオ画像内のあらゆる画素の視差値を計算することで、例えば図16に示すような視差マップを得る。
図16はまた、深さデータを含む合成画像を生成するために視差マップが画像データ上に重ねられ得ることを示す。例えば、図17A、17Bはそれぞれ図14A、14Bの視差画像上に重ねられた図13の画像データを示す。深さデータは以下のカラーで現われる、戻り無し(一致無し)に対応する画像の灰色部分、景色内の近点を表す赤/黄色、および景色内の遠い点を表す緑色/青色。
図17Aおよび17Bは、それぞれ図14Aおよび14Bに示す視差マップの3D投影である。図14Aおよび14Bのあらゆる画素はステレオセンサの較正データを使用して3D空間に投影され、次に、図13Aおよび13Bそれぞれからのデータにより色付けされる。ここでは元画像はモノクロである(黒と白)であるが、元画像もまたカラーであり得、カラー3D場面を生じる。図17Aおよび17Bに示す3D場面は生の3Dデータ(ポイントクラウド)を含み、これらのデータは三角またはメッシュ分割されない。しかし、プロセッサは、環境内の対象の位置および配向(ステレオセンサ自体の位置および配向を含む)の推定値を含む生の3Dポイントクラウドから場面とセンサについて多くを判断し得る。
例えば、図17Aおよび17Bは、互いに重ねられ、(遠方のパイプ、地面、建物のような)3D特徴を照合することにより位置合わせされ、次に、2つの場面の差が検出および解析され得る。1つの差は、図13に示す源撮像装置を捕捉する間のステレオカメラの観点変化である。この前方観点変位は図17Aおよび17Bに示すパイプの長さの差を計算することにより測定され得る。加えて、センサのわずかなロールは、平面を地盤データにフィッティングし、地盤面と各元画像の仮想水平線との角度の差を測定することにより検出され得る。センサのヨーは同様に、建物と各元画像の仮想前方軸との角度の差を判断することにより測定され得る。
プロセッサは、視差マップおよび/または3Dポイントクラウドが位置合わせされると、視差マップと3Dポイントクラウドとのその他の差を検出し得る。例えば、プロセッサは、場面対場面3D一致が低精度であるまたは大きな誤差を有する領域を識別することにより、場面内の標的または対象の運動を検出し得る。プロセッサは、通りかかる人または遠方で運転中の車両に起因する3D位置ずれを感知するためにこの運動検出を使用し得る。プロセッサは場面の残り(例えば、場面の静的部分)から移動3D特徴点を分離および抽出することができる。いくつかのケースでは、プロセッサはまた、動いている対象の3D位置と3D軌道(それ自体の運動を含む)を計算し得る。
図18Aおよび18Bはそれぞれ、センサを煙で掩蔽したレーザポイントクラウドデータとステレオ画像データから合成された画像と、センサを煙で掩蔽しないレーザポイントクラウドデータとステレオ画像データから合成された画像とを示す。煙が無ければ、レーザポイントクラウドは場面の正確な表現である。煙と埃のような他の浮遊物は標的へおよび/または標的から伝播するにつれてレーザビームを吸収または散乱し得、レーザ距離計データを破壊する。煙が可視光(または場合により赤外線)波長の光を通せば、ステレオセンサは依然として場面の正確な表現を生成することができ得る。
結論
様々な独創的実施形態が本明細書において説明および示されたが、当業者は、機能を行うための、および/または結果および/またはここで説明する利点の1つまたは複数を得るための多種多様な他の手段および/または構造を容易に想定するが、このような変形および/または整流のそれぞれはここで説明する本発明の実施形態の範囲内であると見なされる。より一般的には、当業者は、ここで説明するパラメータ、寸法、材料、構成はすべて例示的であることと、実際のパラメータ、寸法、材料、および/または構成は本発明の教示が利用される特定の用途に依存することとを容易に認識する。当業者は、ここで説明する特定の独創的実施形態に対する通常の実験作業と多くの均等物を使用することを認識することになるまたは確認することができる。したがって、これまでの実施形態は単に一例として提示されたことと、添付された請求項の範囲とその均等物内で独創的実施形態は詳細に記載および請求されたものとは異なる方法で実施され得ることとが理解される。本開示の独創的実施形態は、ここで説明した各個々の特徴、システム、物品、材料、キット、および/または方法に向けられる。加えて、このような特徴、システム、物品、材料、キット、および/または方法が互いに矛盾していなければ、このような特徴、システム、物品、材料、キット、および/または方法の2つ以上の任意の組合せは本開示の本発明の範囲内に含まれる。
上記実施形態は多数の方法のうちの任意の方法で実施され得る。例えば、実施形態はハードウェア、ソフトウェア、またはそれらの組合せを使用して実施され得る。ソフトウェアで実施される場合、ソフトウェアコードは、単一コンピュータ内に提供されるか複数のコンピュータ間で分散されるかにかかわらず、任意の好適なプロセッサまたはプロセッサの集合上で実行され得る。
さらに、コンピュータは、ラックマウントコンピュータ、デスクトップコンピュータ、ラップトップコンピュータ、またはタブレットコンピュータなどの多くの形態のうちの任意の形態で具現化され得ることを理解すべきである。加えて、コンピュータは、通常はコンピュータと見なされない装置であるが個人用デジタル情報処理端末(PDA)、スマートフォンまたは任意の他の好適な携帯型または固定電子装置を含む好適な処理能力を有する装置に埋め込まれ得る。
また、コンピュータは1つまたは複数の入出力装置を有し得る。これらの装置はとりわけユーザインターフェースを提供するために利用され得る。ユーザインターフェースを提供するために利用し得る出力装置の例としては、出力の可視提示のためのプリンタまたは表示画面と出力の可聴提示のためのスピーカまたは他の音生成装置が挙げられる。ユーザインターフェースに使用され得る入力装置の例としては、キーボード、およびマウス、タッチパッド、デジタイジングタブレットなどのポインティング装置が挙げられる。別の例として、コンピュータは音声認識によりまたは他の可聴フォーマットで入力情報を受信し得る。
このようなコンピュータは、任意の好適な形式で、ローカルエリアネットワークまたは企業ネットワークなどの広域ネットワーク、インテリジェントネットワーク(IN)またはインターネットを含む1つまたは複数のネットワークにより相互に連結され得る。このようなネットワークは任意の好適な技術に基づき得、任意の好適なプロトコルに従って動作し得、無線ネットワーク、有線ネットワークまたは光ファイバーネットワークを含み得る。
本明細書で概説された様々な方法または処理は、多種多様なオペレーティングシステムまたはプラットホームのうちの任意の1つを採用する1つまたは複数のプロセッサ上で実行可能なソフトウェアとしてコード化され得る。加えて、このようなソフトウェアは、多くの好適なプログラミング言語および/またはプログラムまたはスクリプトツールのうちの任意のものを使用して書かれ得る、またフレームワークまたはバーチャルマシン上で実行される実行可能機械語コードまたは中間コードとしてコンパイルされ得る。
この点で、様々な発明概念は、1つまたは複数のコンピュータまたは他のプロセッサ上で実行されると上述の本発明の様々な実施形態を実施する方法を行う1または複数のプログラムでエンコードされたコンピュータ可読記憶媒体(または複数のコンピュータ可読記憶媒体)(例えば、コンピュータメモリ、1つまたは複数のフロッピーディスク、コンパクトディスク、光ディスク、磁気テープ、フラッシュメモリ、フィールドプログラマブルゲートアレイまたは他の半導体素子内の回路構成、または他の非一時的媒体または有形コンピュータ記憶媒体)として具現化され得る。1つまたは複数のコンピュータ可読媒体は、その上に格納された1つまたは複数のプログラムが、上述の本発明の様々な態様を実施するために1または複数の異なるコンピュータまたは他のプロセッサ上にロードされ得るように移植可能であり得る。
用語「プログラム」または「ソフトウェア」は、上述の実施形態の様々な様相を実施するようにコンピュータまたは他のプロセッサをプログラムするために採用され得る任意のタイプのコンピュータコードまたは一組のコンピュータ実行可能命令を参照するために一般的な意味で本明細書では使用される。加えて、一態様によると、実行されると本発明の方法を行う1つまたは複数のコンピュータプログラムは、単一コンピュータまたはプロセッサ上に存在する必要はないが、本発明の様々な態様を実施するために多くの異なるコンピュータまたはプロセッサ間でモジュール的な方法で分散され得ることを理解すべきである。
コンピュータ実行可能命令は、1つまたは複数のコンピュータまたは他の装置により実行されるプログラムモジュールなどの多くの形式であり得る。通常、プログラムモジュールは、特定のタスクを行うまたは特定の抽像データ型を実施するルーチン、プログラム、オブジェクト、部品、データ構造などを含む。通常、プログラムモジュールの機能は、様々な実施形態において望まれるように組合せまたは分散され得る。
また、データ構造は任意の好適な形式でコンピュータ可読媒体内に格納され得る。説明を簡単にするために、データ構造はデータ構造内の位置により関係付けられるフィールドを有するように示されることがある。このような関係は同様に、フィールド間の関係を伝えるコンピュータ読取り可能媒体内の位置によりフィールドの記憶場所を割り当てることにより実現され得る。しかし、データ構造のフィールド内の情報間の関係を設定する(データ要素間の関係を設定するポインタ、タグ、または他の機構を使用することにより設定することを含む)ために任意の好適な機構が使用され得る。
また、様々な発明概念は、その例が提供された1つまたは複数の方法として具現化され得る。方法の一部として行われる行為は任意の好適な方法で順序付けられ得る。したがって、例示的実施形態において連続行為として示されたとしても、示されたものとは異なる順序で行為が行われる実施形態であっていくつかの行為を同時に行うことを含み得る実施形態が構築され得る。
本明細書で定義および使用されたすべての定義は、辞書定義、参照により援用された文献における定義、および/または定義された用語の通常の意味に支配されると理解すべきである。
本明細書と特許請求の範囲において使用される不定冠詞は、特に明記しない限り「少なくとも1つ」を意味するものと理解すべきである
本明細書と特許請求の範囲において使用される語句「および/または」は、そのように結合された要素の「いずれかまたは両方」(すなわ、いくつかのケースでは結合して存在し他の場合では分離して存在する要素)を意味するものと理解すべきである。「および/または」により列挙された複数の要素は同様に(すなわち、そのように結合された要素のうちの「1つまたは複数」を意味するものと)解釈されるべきである。「および/または」語句により特に識別された要素以外の他の要素は、特に識別された要素に関係しても関係しなくても任意選択的に存在し得る。したがって、非限定的な例として「Aおよび/またはB」への参照は、「含む」などの開放言語と共に使用されると一実施形態ではAだけ(B以外の要素を任意選択的に含む)を、別の実施形態ではBだけ(A以外の要素を任意選択的に含む)を、さらに別の実施形態ではAとB両方(他の要素を任意選択的に含む)を参照し得る。
本明細書と特許請求の範囲において使用されるように、「または」は上に定義された「および/または」と同じ意味を有するものと理解すべきである。例えば、リスト内の項目を分類する場合、「または」または「および/または」は包括的である、すなわち、多くの要素または要素のリストおよび任意選択的に追加の無記載項目のうちの少なくとも1つ(2つ以上を含む)の包含であると解釈されるものとする。それと反対に、「〜のうちの1つのみ」または「〜のうちの正確に1つ」などの明示された用語、または特許請求の範囲に使用される場合の用語「〜からなる」のみは、多くの要素または要素のリストのうちの正確に1つの要素の包含を指す。一般的に、本明細書で使用される用語「または」は、「いずれか」、「〜のうちの1つ」、「〜のうちの1つのみ」、または「〜のうちの正確に1つ」などの排他的用語により先行されると、排他的代替物(すなわち、「一方または他方であるが両方ではない)を示すものとだけ解釈されるものとする。「〜から本質的になる」は特許請求の範囲において使用されると、特許法の分野で使用されるようにその通常の意味を有するものとする。
本明細書と特許請求の範囲において使用されるように、1つまたは複数の要素のリストを参照した語句「少なくとも1つ」は、要素のリスト内の要素のうちの任意の1つまたは複数から選択された少なくとも1つの要素を意味するが、要素のリスト内に特に列記されたありとあらゆる要素のうちの少なくとも1つを必ずしも含まなく、そして要素のリスト内の要素の任意の組合せを排除しないものと理解すべきである。この定義はまた、要素のリスト内に特に識別された要素(語句「少なくとも1つ」が参照する)以外の要素が特に識別された要素に関係しても関係しなくても任意選択的に存在し得ることを許容する。したがって、非限定的な例として、「AとBの少なくとも1つ」(または、均等に「AまたはBの少なくとも1つ」、または均等に「Aおよび/またはBの少なくとも1つ」)は、一実施形態では、Bの存在無しに(およびB以外の要素を任意選択的に含む)少なくとも1つのA(2つ以上を任意選択的に含む)を指し得、別の実施形態では、Bの存在無しに(およびA以外の要素を任意選択的に含む)少なくとも1つのB(2つ以上を任意選択的含む)を指し、さらに別の実施形態では、少なくとも1つのA(2つ以上のAを任意選択的に含む)と少なくとも1つのB(2つ以上のBを任意選択的に含む)(および任意選択的に他の要素を含む)などを指す。
上記本明細書だけでなく特許請求の範囲において、「含む」、「担持する」、「有する」、「含有する」、「係わる」、「保持する」、「〜から構成される」などのすべての移行句は、開放的である、すなわち含むが限定しないことを意味すると理解される。移行句「〜からなる」および「〜から本質的に構成される」のみは、米国特許商標庁の特許審査手順マニュアル(United States Patent Office Manual of Patent Examining Procedures)セクション2111.03に記載されるように、それぞれ閉鎖移行句または準閉鎖移行句であるものとする。

Claims (8)

  1. 空洞と少なくとも1つの外面とを画定する筐体と、
    前記空洞内にあって、少なくとも1つの実装面を画定するユニタリフレームと、
    空洞内の内壁であって外面と熱的に連通する内壁と、
    第1の観点から環境の複数の画像を取得するために前記少なくとも1つの実装面へ取付けられる第1の撮像装置と、
    前記少なくとも1つの実装面へ取付けられるとともに、前記第1の観点とは異なる第2の観点から前記環境の複数の画像を取得する第2の撮像装置と、
    第1のプロセスユニットと第2のプロセスユニットとを備えるプロセスユニット部であって、
    前記第1のプロセスユニットは前記筐体内の第1の位置に配置され、前記第1の撮像装置及び前記第2の撮像装置によって取得された前記複数の画像に基づいて一つ又は二つ以上の視差マップを生成するように作動可能であり、
    前記第2のプロセスユニットは、前記第1の撮像装置及び前記第2の撮像装置により取得された前記複数の画像と、前記第1のプロセスユニットによって生成された前記視差マップと、に基づいて前記環境についての情報を決定するように作動可能であり、
    前記内壁および前記プロセスユニット部と熱的に連通する熱伝導性材料であって、前記プロセスユニット部により発生された熱を放散するように前記内壁を介し前記少なくとも1つの外面へ前記プロセスユニット部により発生された前記熱を伝導する熱伝導性材料と
    を備えることを特徴とする自立走行車両のためのステレオ視システム。
  2. 前記ユニタリフレームは単一材料片からなることを特徴とする請求項1に記載のステレオ視システム。
  3. 前記第1の撮像装置と前記第2の撮像装置とは同じ平面内に配置されることを特徴とする請求項1または2に記載のステレオ視システム。
  4. 前記第1の撮像装置は第1の平面内に配置され、および前記第2の撮像装置は前記第1の平面と平行な第2の平面内に配置されることを特徴とする請求項1から3のいずれか1項に記載のステレオ視システム。
  5. 前記第1の撮像装置は第1の平面内に配置され、および前記第2の撮像装置は前記第1の平面と交差する第2の平面内に配置されることを特徴とする請求項1から4のいずれか1項に記載のステレオ視システム。
  6. 前記第1の撮像装置および前記第2の撮像装置のうちの少なくとも1つを前記少なくとも1つの実装面へ固定する少なくとも1つのピンおよび少なくとも1つのボルトのうちの少なくとも1つをさらに含むことを特徴とする請求項1から5のいずれか1項に記載のステレオ視システム。
  7. 前記第1の撮像装置及び前記第2の撮像装置を前記第1のプロセスユニットへ結合するフレキシブルケーブルをさらに含むことを特徴とする請求項1から6のいずれか1項に記載のステレオ視システム。
  8. 前記第2のプロセスユニットは、前記第1の撮像装置及び前記第2の撮像装置によって取得された前記複数の画像と、前記一つ又は二つ以上の視差マップとに基づいて少なくとも一つの動く対象物の位置を決定するものであり、
    前記環境内の前記少なくとも一つの動く対象物をレーザー光により照明するレーザー部と、前記少なくとも一つの動く対象物に散乱されたレーザー光及び/又は前記少なくとも一つの動く対象物に反射されたレーザー光を検出し、検出された前記レーザー光に基づいて前記少なくも一つの動く対象物への距離に対応する範囲信号指標を提示するセンサー部とをさらに備え、前記レーザー部及び前記センサー部は前記筐体の頂部に搭載されていることを特徴とする請求項1に記載のステレオ視システム。
JP2016502343A 2013-03-15 2014-03-14 ロボット用多重知覚ステレオ視のための方法、システム、および装置 Active JP6514681B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361792468P 2013-03-15 2013-03-15
US61/792,468 2013-03-15
PCT/US2014/027126 WO2014152254A2 (en) 2013-03-15 2014-03-14 Methods, systems, and apparatus for multi-sensory stereo vision for robotics

Publications (3)

Publication Number Publication Date
JP2016513804A JP2016513804A (ja) 2016-05-16
JP2016513804A5 JP2016513804A5 (ja) 2017-04-13
JP6514681B2 true JP6514681B2 (ja) 2019-05-15

Family

ID=51581691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016502343A Active JP6514681B2 (ja) 2013-03-15 2014-03-14 ロボット用多重知覚ステレオ視のための方法、システム、および装置

Country Status (8)

Country Link
US (1) US10412368B2 (ja)
EP (1) EP2972478B1 (ja)
JP (1) JP6514681B2 (ja)
KR (1) KR101803164B1 (ja)
CN (1) CN105164549B (ja)
AU (1) AU2014239979B2 (ja)
CA (1) CA2902430C (ja)
WO (1) WO2014152254A2 (ja)

Families Citing this family (145)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015134794A2 (en) 2014-03-05 2015-09-11 Smart Picture Technologies, Inc. Method and system for 3d capture based on structure from motion with simplified pose detection
US10033924B2 (en) 2014-10-10 2018-07-24 Iec Infrared Systems, Llc Panoramic view imaging system
BE1022580A9 (fr) * 2014-10-22 2016-10-06 Parallaxter Méthode d'obtention de vidéos immersives avec parallaxe interactive et méthode de visualisation de vidéos immersives avec parallaxe interactive
US10274958B2 (en) 2015-01-22 2019-04-30 Bae Systems Information And Electronic Systems Integration Inc. Method for vision-aided navigation for unmanned vehicles
US10445616B2 (en) 2015-01-22 2019-10-15 Bae Systems Information And Electronic Systems Integration Inc. Enhanced phase correlation for image registration
US20160245641A1 (en) * 2015-02-19 2016-08-25 Microsoft Technology Licensing, Llc Projection transformations for depth estimation
US9978135B2 (en) * 2015-02-27 2018-05-22 Cognex Corporation Detecting object presence on a target surface
US20160260250A1 (en) * 2015-03-05 2016-09-08 Dejan Jovanovic Method and system for 3d capture based on structure from motion with pose detection tool
CN104835141B (zh) * 2015-03-09 2018-05-18 深圳市魔眼科技有限公司 一种激光测距建立立体模型的移动终端及方法
EP3068125A1 (en) * 2015-03-09 2016-09-14 Delphi Technologies, Inc. A method of manufacturing a multiple view camera system and multiple view camera system
US20160291154A1 (en) 2015-04-01 2016-10-06 Vayavision, Ltd. Apparatus for acquiring 3-dimensional maps of a scene
JP6503906B2 (ja) 2015-06-10 2019-04-24 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US10083522B2 (en) 2015-06-19 2018-09-25 Smart Picture Technologies, Inc. Image based measurement system
FR3039904B1 (fr) * 2015-08-07 2019-06-14 Institut De Recherche Technologique Jules Verne Dispositif et procede pour la detection d’obstacles adaptes a un robot mobile
CN105222724B (zh) * 2015-09-10 2018-09-18 北京天远三维科技股份有限公司 多线阵列激光三维扫描***及多线阵列激光三维扫描方法
EP3182157B1 (en) * 2015-12-14 2020-04-15 Leica Geosystems AG Method for creating a spatial model with a hand-held distance measuring device
US10338225B2 (en) 2015-12-15 2019-07-02 Uber Technologies, Inc. Dynamic LIDAR sensor controller
US10257394B2 (en) 2016-02-12 2019-04-09 Contrast, Inc. Combined HDR/LDR video streaming
US10281923B2 (en) 2016-03-03 2019-05-07 Uber Technologies, Inc. Planar-beam, light detection and ranging system
EP3416370B1 (en) * 2016-03-23 2023-07-26 Huawei Technologies Co., Ltd. Photography focusing method, device, and apparatus for terminal
US10255648B2 (en) 2016-04-14 2019-04-09 Eric John Wengreen Self-driving vehicle systems and methods
US9429947B1 (en) * 2016-04-14 2016-08-30 Eric John Wengreen Self-driving vehicle systems and methods
US9952317B2 (en) 2016-05-27 2018-04-24 Uber Technologies, Inc. Vehicle sensor calibration system
EP3252713A1 (en) * 2016-06-01 2017-12-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for performing 3d estimation based on locally determined 3d information hypotheses
CN106060348B (zh) * 2016-06-02 2019-05-17 深圳市星昭晖光电科技有限公司 一种智能化军工红外夜视云镜
RU2623806C1 (ru) 2016-06-07 2017-06-29 Акционерное общество Научно-производственный центр "Электронные вычислительно-информационные системы" (АО НПЦ "ЭЛВИС") Способ и устройство обработки стереоизображений
US10742878B2 (en) * 2016-06-21 2020-08-11 Symbol Technologies, Llc Stereo camera device with improved depth resolution
EP3479356A4 (en) 2016-06-29 2020-03-25 Seeing Machines Limited SYSTEM AND METHOD FOR IDENTIFYING A CAMERAPOSE OF A FORWARD-LOOKING CAMERA IN A VEHICLE
WO2018000039A1 (en) 2016-06-29 2018-01-04 Seeing Machines Limited Camera registration in a multi-camera system
CN106043169A (zh) * 2016-07-01 2016-10-26 百度在线网络技术(北京)有限公司 环境感知设备和应用于环境感知设备的信息获取方法
DE202016004550U1 (de) * 2016-07-21 2016-08-05 Carl Zeiss Optotechnik GmbH 3D-Messgerät
US10427305B2 (en) * 2016-07-21 2019-10-01 Autodesk, Inc. Robotic camera control via motion capture
US10884127B2 (en) * 2016-08-02 2021-01-05 Samsung Electronics Co., Ltd. System and method for stereo triangulation
US10192311B2 (en) * 2016-08-05 2019-01-29 Qualcomm Incorporated Methods and apparatus for codeword boundary detection for generating depth maps
JP7081835B2 (ja) * 2016-08-09 2022-06-07 コントラスト, インコーポレイテッド 車両制御のためのリアルタイムhdrビデオ
CN106093710B (zh) * 2016-08-19 2018-12-18 江西师范大学 一种基于物联网技术的线管智能监控装置
US10222207B2 (en) * 2016-09-09 2019-03-05 Quality Vision International, Inc. Articulated head with multiple sensors for measuring machine
CN106524906B (zh) * 2016-10-13 2019-03-26 深圳市速腾聚创科技有限公司 激光扫描仪归位方法及激光扫描仪
WO2017042402A2 (de) * 2016-11-10 2017-03-16 Leica Geosystems Ag Laserscanner
JP6604934B2 (ja) * 2016-12-13 2019-11-13 日本電信電話株式会社 点群画素位置決定装置、方法、及びプログラム
US10061323B2 (en) 2016-12-22 2018-08-28 Advanced Construction Robotics, Inc. Autonomous apparatus and system for repetitive tasks in construction project
CN106791330B (zh) 2017-01-11 2019-08-13 Oppo广东移动通信有限公司 摄像头模组及终端
WO2018143074A1 (ja) * 2017-01-31 2018-08-09 富士フイルム株式会社 3次元情報検出装置
EP3444783A1 (en) * 2017-08-17 2019-02-20 ABB Schweiz AG Robotic systems and methods for operating a robot
US10094916B1 (en) 2017-06-09 2018-10-09 Waymo Llc LIDAR optics alignment systems and methods
KR102350533B1 (ko) 2017-06-13 2022-01-11 엘지전자 주식회사 비전 정보에 기반한 위치 설정 방법 및 이를 구현하는 로봇
WO2018236347A1 (en) 2017-06-20 2018-12-27 Hewlett-Packard Development Company, L.P. DETERMINATIONS OF SENSOR POSITIONS
EP3659116A4 (en) * 2017-07-27 2021-04-28 Westinghouse Electric Company Llc PROCESS FOR LOCATING A REMOTE-CONTROLLED VEHICLE IN A WORKSPACE AND REMOTE INSPECTION SYSTEM USING SUCH A PROCESS
US10304254B2 (en) 2017-08-08 2019-05-28 Smart Picture Technologies, Inc. Method for measuring and modeling spaces using markerless augmented reality
US10775488B2 (en) 2017-08-17 2020-09-15 Uatc, Llc Calibration for an autonomous vehicle LIDAR module
US10746858B2 (en) 2017-08-17 2020-08-18 Uatc, Llc Calibration for an autonomous vehicle LIDAR module
CN109425365B (zh) * 2017-08-23 2022-03-11 腾讯科技(深圳)有限公司 激光扫描设备标定的方法、装置、设备及存储介质
US10616470B2 (en) * 2017-08-31 2020-04-07 Snap Inc. Wearable electronic device with hardware secured camera
CN109840448A (zh) * 2017-11-24 2019-06-04 百度在线网络技术(北京)有限公司 用于无人驾驶车辆的信息输出方法和装置
CN109959939B (zh) * 2017-12-22 2021-04-06 北京万集科技股份有限公司 基于激光扫描的对象跟踪方法及装置
US11073838B2 (en) 2018-01-06 2021-07-27 Drivent Llc Self-driving vehicle systems and methods
US10299216B1 (en) 2018-01-06 2019-05-21 Eric John Wengreen Self-driving vehicle actions in response to a low battery
US10274950B1 (en) 2018-01-06 2019-04-30 Drivent Technologies Inc. Self-driving vehicle systems and methods
US10303181B1 (en) 2018-11-29 2019-05-28 Eric John Wengreen Self-driving vehicle systems and methods
DE102018109329B4 (de) * 2018-04-19 2019-12-05 Gottfried Wilhelm Leibniz Universität Hannover Mehrgliedrige aktuierte Kinematik, vorzugsweise Roboter, besonders vorzugsweise Knickarmroboter
CN112236643A (zh) * 2018-05-01 2021-01-15 威图纳有限公司 光学车辆诊断***
US10951888B2 (en) 2018-06-04 2021-03-16 Contrast, Inc. Compressed high dynamic range video
US20190387615A1 (en) * 2018-06-14 2019-12-19 Microsoft Technology Licensing, Llc Multi-layer interconnected electro-thermal system having a thermally non-expansive support for mounting positionally related sensor components
EP3810374B1 (en) 2018-06-19 2022-06-01 BAE SYSTEMS plc Workbench system
JP2020003256A (ja) * 2018-06-26 2020-01-09 株式会社デンソー 距離測定装置
EP3818341A4 (en) * 2018-07-06 2022-03-16 Brain Corporation SYSTEMS, METHODS AND DEVICES FOR CALIBRATION OF DEVICE MOUNTED SENSORS
US10466057B1 (en) 2018-07-30 2019-11-05 Wesley Edward Schwie Self-driving vehicle systems and methods
CN109141364B (zh) * 2018-08-01 2020-11-03 北京进化者机器人科技有限公司 障碍物检测方法、***及机器人
TWI725522B (zh) * 2018-08-28 2021-04-21 鈺立微電子股份有限公司 具有校正功能的影像擷取系統
CN109146938B (zh) * 2018-08-30 2020-09-15 百度在线网络技术(北京)有限公司 动态障碍物的位置校准方法、装置、设备及存储介质
US10223844B1 (en) 2018-09-18 2019-03-05 Wesley Edward Schwie Self-driving vehicle systems and methods
US10282625B1 (en) 2018-10-01 2019-05-07 Eric John Wengreen Self-driving vehicle systems and methods
US10493952B1 (en) 2019-03-21 2019-12-03 Drivent Llc Self-driving vehicle systems and methods
US10289922B1 (en) 2018-09-18 2019-05-14 Eric John Wengreen System for managing lost, mislaid, or abandoned property in a self-driving vehicle
US10479319B1 (en) 2019-03-21 2019-11-19 Drivent Llc Self-driving vehicle systems and methods
US10471804B1 (en) 2018-09-18 2019-11-12 Drivent Llc Self-driving vehicle systems and methods
US11644833B2 (en) 2018-10-01 2023-05-09 Drivent Llc Self-driving vehicle systems and methods
US10794714B2 (en) 2018-10-01 2020-10-06 Drivent Llc Self-driving vehicle systems and methods
US10900792B2 (en) 2018-10-22 2021-01-26 Drivent Llc Self-driving vehicle systems and methods
US10832569B2 (en) 2019-04-02 2020-11-10 Drivent Llc Vehicle detection systems
US11221621B2 (en) 2019-03-21 2022-01-11 Drivent Llc Self-driving vehicle systems and methods
US11379788B1 (en) * 2018-10-09 2022-07-05 Fida, Llc Multilayered method and apparatus to facilitate the accurate calculation of freight density, area, and classification and provide recommendations to optimize shipping efficiency
US10240938B1 (en) 2018-10-22 2019-03-26 Drivent Technologies Inc. Self-driving vehicle systems and methods
US10286908B1 (en) 2018-11-01 2019-05-14 Eric John Wengreen Self-driving vehicle systems and methods
US10481606B1 (en) 2018-11-01 2019-11-19 Drivent Llc Self-driving vehicle systems and methods
US11346950B2 (en) * 2018-11-19 2022-05-31 Huawei Technologies Co., Ltd. System, device and method of generating a high resolution and high accuracy point cloud
JP7372513B2 (ja) * 2018-12-05 2023-11-01 ミツミ電機株式会社 撮像デバイス、撮像システム、および産業用ロボット
RU2697062C1 (ru) * 2018-12-10 2019-08-09 Закрытое акционерное общество "МНИТИ" (ЗАО "МНИТИ") Способ наблюдения объектов
JP7154120B2 (ja) * 2018-12-11 2022-10-17 日立Astemo株式会社 ステレオカメラ装置
DE102018221899B4 (de) 2018-12-17 2023-06-07 Robert Bosch Gmbh Baugruppe für einen Umgebungssensor, LiDAR-Sensor und Fortbewegungsmittel
US10597264B1 (en) * 2018-12-20 2020-03-24 Advanced Construction Robotics, Inc. Semi-autonomous system for carrying and placing elongate objects
WO2020131277A1 (en) 2018-12-20 2020-06-25 Snap Inc. Flexible eyewear device with dual cameras for generating stereoscopic images
CN113196739B (zh) 2018-12-21 2023-05-30 伟摩有限责任公司 光学***及其制造方法
CN111383256B (zh) * 2018-12-29 2024-05-17 北京市商汤科技开发有限公司 图像处理方法、电子设备及计算机可读存储介质
WO2020160388A1 (en) * 2019-01-31 2020-08-06 Brain Corporation Systems and methods for laser and imaging odometry for autonomous robots
US10744976B1 (en) 2019-02-04 2020-08-18 Drivent Llc Self-driving vehicle systems and methods
US10377342B1 (en) 2019-02-04 2019-08-13 Drivent Technologies Inc. Self-driving vehicle systems and methods
BR112021018509A2 (pt) 2019-03-24 2021-11-23 Beijing Bytedance Network Tech Co Ltd Método para processar vídeo, aparelho em um sistema de vídeo, e, produto de programa de computador
JP7293814B2 (ja) * 2019-04-01 2023-06-20 株式会社リコー 生体情報計測装置、生体情報計測方法およびプログラム
WO2020231872A1 (en) 2019-05-10 2020-11-19 Smart Picture Technologies, Inc. Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process
DE102019114817B4 (de) * 2019-06-03 2021-12-02 Karl Storz Se & Co. Kg Bildgebungssystem und Verfahren zur Beobachtung
US11494930B2 (en) * 2019-06-17 2022-11-08 SafeAI, Inc. Techniques for volumetric estimation
US10955241B2 (en) * 2019-06-26 2021-03-23 Aurora Flight Sciences Corporation Aircraft imaging system using projected patterns on featureless surfaces
CN110340893B (zh) * 2019-07-12 2022-06-17 哈尔滨工业大学(威海) 基于语义激光交互的机械臂抓取方法
WO2021015835A1 (en) * 2019-07-23 2021-01-28 R-Go Robotics Ltd. Techniques for co-optimization of motion and sensory control
EP3966595A4 (en) * 2019-07-23 2023-04-12 R-Go Robotics Ltd TECHNIQUES FOR CO-OPTIMIZING MOVEMENT AND SENSORY CONTROL
US11629835B2 (en) * 2019-07-31 2023-04-18 Toyota Jidosha Kabushiki Kaisha Auto-calibration of vehicle sensors
US11592820B2 (en) * 2019-09-13 2023-02-28 The Boeing Company Obstacle detection and vehicle navigation using resolution-adaptive fusion of point clouds
US11461867B2 (en) * 2019-09-19 2022-10-04 Sanctuary Cognitive Systems Corporation Visual interface and communications techniques for use with robots
CN110796242A (zh) * 2019-11-01 2020-02-14 广东三维家信息科技有限公司 神经网络模型推理方法、装置、电子设备及可读介质
US20230091904A1 (en) * 2019-11-25 2023-03-23 Lunewave Inc. Automobile radars based on gradient-index lens
US10965931B1 (en) * 2019-12-06 2021-03-30 Snap Inc. Sensor misalignment compensation
CA3145844A1 (en) * 2019-12-13 2021-06-17 Scott Metzger Multi-spectral volumetric capture
US10907960B1 (en) * 2020-01-06 2021-02-02 Outsight SA Calibration system for combined depth and texture sensor
CN111327860A (zh) * 2020-01-21 2020-06-23 成都纵横自动化技术股份有限公司 一种图数同步传输方法和电子设备
CN115552476A (zh) * 2020-02-06 2022-12-30 伯克希尔格雷营业股份有限公司 用于利用可编程运动装置的铰接臂上的位置未知的基准物的照相机校准的***和方法
CN111142315A (zh) * 2020-02-25 2020-05-12 北京工业大学 近地激光照明装置
TWI745924B (zh) 2020-04-10 2021-11-11 宏碁股份有限公司 虛擬實境定位裝置、虛擬實境定位系統以及虛擬實境定位裝置的製作方法
KR20210130478A (ko) 2020-04-22 2021-11-01 삼성전자주식회사 로봇 청소기 및 그 제어 방법
CN113703160A (zh) * 2020-05-08 2021-11-26 宏碁股份有限公司 虚拟现实定位装置及其制作方法、虚拟现实定位***
TWI755765B (zh) * 2020-06-22 2022-02-21 中強光電股份有限公司 視覺與深度座標系的校正系統、校正方法及校正裝置
US11740078B2 (en) 2020-07-21 2023-08-29 Argo AI, LLC Enhanced sensor alignment
WO2022016274A1 (en) 2020-07-21 2022-01-27 Leddartech Inc. Beam-steering devices and methods for lidar applications
US11402510B2 (en) 2020-07-21 2022-08-02 Leddartech Inc. Systems and methods for wide-angle LiDAR using non-uniform magnification optics
US11567179B2 (en) 2020-07-21 2023-01-31 Leddartech Inc. Beam-steering device particularly for LIDAR systems
US11691648B2 (en) 2020-07-24 2023-07-04 SafeAI, Inc. Drivable surface identification techniques
US11853845B2 (en) * 2020-09-02 2023-12-26 Cognex Corporation Machine vision system and method with multi-aperture optics assembly
US11587260B2 (en) * 2020-10-05 2023-02-21 Zebra Technologies Corporation Method and apparatus for in-field stereo calibration
US20220179074A1 (en) * 2020-12-08 2022-06-09 Beijing Voyager Technology Co., Ltd. Lidar assembly with modularized components
US11810309B2 (en) 2020-12-22 2023-11-07 Bae Systems Information And Electronic Systems Integration Inc. Multi-camera system for altitude estimation
CN112650298B (zh) * 2020-12-30 2021-08-17 广东工业大学 一种无人机追踪降落方法及***
CN112954217B (zh) * 2021-02-25 2022-11-18 维沃移动通信有限公司 电子设备及对焦方法
JP2022146480A (ja) * 2021-03-22 2022-10-05 リコーインダストリアルソリューションズ株式会社 ステレオカメラ装置
CN112801225B (zh) * 2021-04-01 2021-06-18 中国人民解放军国防科技大学 极限工况下自动驾驶多传感器融合感知方法及***
CN113329219B (zh) * 2021-05-07 2022-06-14 华南理工大学 多输出参数可动态配置深度相机
CN113269674B (zh) * 2021-05-12 2023-03-10 深圳群宾精密工业有限公司 一种利用机器人坐标对固定3d图像空间自动拼接的方法
KR102653192B1 (ko) * 2021-07-22 2024-04-01 한국생산기술연구원 도장 파이프 길이 인식 장치 및 방법
US20230128651A1 (en) * 2021-10-22 2023-04-27 Mobile Industrial Robots A/S Determining scanner error
WO2023086797A1 (en) * 2021-11-10 2023-05-19 X Development Llc End of arm sensing device
CA3239722A1 (en) * 2021-12-01 2023-06-08 9459-6467 Quebec Inc. Modular lidar system and related methods
CN114509012A (zh) * 2021-12-27 2022-05-17 中铁第一勘察设计院集团有限公司 一种用于高原环境下的机车车辆闸片成像检测设备
CN216673170U (zh) * 2022-01-07 2022-06-03 上海肇观电子科技有限公司 深度相机
CN114563795B (zh) * 2022-02-25 2023-01-17 湖南大学无锡智能控制研究院 基于激光里程计和标签融合算法的定位追踪方法及***
US11871130B2 (en) 2022-03-25 2024-01-09 Innovusion, Inc. Compact perception device
CN114877804A (zh) * 2022-05-18 2022-08-09 康佳集团股份有限公司 一种工件点位三维坐标获取装置、方法及***

Family Cites Families (237)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3333519A (en) * 1965-03-01 1967-08-01 Graflex Inc Mounting means for camera accessories
US5357141A (en) 1988-04-02 1994-10-18 Robert Bosch Gmbh Electronic device
JPH0768797B2 (ja) 1989-03-08 1995-07-26 光洋自動機株式会社 回転テーブル装置
US5309522A (en) 1992-06-30 1994-05-03 Environmental Research Institute Of Michigan Stereoscopic determination of terrain elevation
US6822563B2 (en) * 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US5598783A (en) 1995-06-07 1997-02-04 Autran Corp. Integrated transportation system including transfer vehicles
US5590604A (en) 1995-06-07 1997-01-07 Autran Corp. Transportation system with high speed vehicles and automatic control
JPH09163197A (ja) * 1995-12-09 1997-06-20 Sony Corp ビデオカメラ装置
JP3866328B2 (ja) * 1996-06-06 2007-01-10 富士重工業株式会社 車両周辺立体物認識装置
US7028899B2 (en) 1999-06-07 2006-04-18 Metrologic Instruments, Inc. Method of speckle-noise pattern reduction and apparatus therefore based on reducing the temporal-coherence of the planar laser illumination beam before it illuminates the target object by applying temporal phase modulation techniques during the transmission of the plib towards the target
US7979173B2 (en) 1997-10-22 2011-07-12 Intelligent Technologies International, Inc. Autonomous vehicle travel control systems and methods
JPH11142520A (ja) 1997-11-06 1999-05-28 Omron Corp 測距装置の軸調整方法及び軸ずれ検出方法並びに測距装置
US7755668B1 (en) * 1998-04-09 2010-07-13 Johnston Gregory E Mobile surveillance system
US6195648B1 (en) 1999-08-10 2001-02-27 Frank Simon Loan repay enforcement system
JP3349121B2 (ja) 1999-09-22 2002-11-20 富士重工業株式会社 ステレオカメラの取付構造
JP3877475B2 (ja) * 1999-09-22 2007-02-07 富士重工業株式会社 車載カメラの取付構造
US6325759B1 (en) * 1999-09-23 2001-12-04 Ultrasonix Medical Corporation Ultrasound imaging system
JP2001242521A (ja) * 2000-02-28 2001-09-07 Fuji Heavy Ind Ltd カメラの組み立て構造、カメラの調整方法、および調整用治具
US7167796B2 (en) 2000-03-09 2007-01-23 Donnelly Corporation Vehicle navigation system for use with a telematics system
AU2001243285A1 (en) 2000-03-02 2001-09-12 Donnelly Corporation Video mirror systems incorporating an accessory module
EP1301674A4 (en) 2000-07-20 2005-06-08 Maurice Segal BUILDING AND PARKING SYSTEM OF VEHICLES
JP4810763B2 (ja) 2001-06-20 2011-11-09 株式会社デンソー 距離測定装置
JP4418612B2 (ja) * 2001-09-14 2010-02-17 京セラ株式会社 大型ステレオカメラの取付構造
DE10162652A1 (de) 2001-12-20 2003-07-03 Bosch Gmbh Robert Stereo-Kamera-Anordnung in einem Kraftfahrzeug
US7159497B2 (en) * 2002-01-25 2007-01-09 Eastway Fair Company Ltd. Light beam alignment system
ES2391556T3 (es) 2002-05-03 2012-11-27 Donnelly Corporation Sistema de detección de objetos para vehículo
US7085642B2 (en) 2002-08-05 2006-08-01 Ford Global Technologies, Llc Method and system for correcting sensor offsets
US7676062B2 (en) 2002-09-03 2010-03-09 Automotive Technologies International Inc. Image processing for vehicular applications applying image comparisons
JP2004125739A (ja) 2002-10-07 2004-04-22 Omron Corp 物体検知装置および方法
US6860350B2 (en) 2002-12-20 2005-03-01 Motorola, Inc. CMOS camera with integral laser ranging and velocity measurement
JP2004286724A (ja) 2003-01-27 2004-10-14 Denso Corp 車両挙動検出装置、車載処理システム、検出情報較正装置及び車載処理装置
US7248342B1 (en) 2003-02-14 2007-07-24 United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Three-dimension imaging lidar
DE10319176A1 (de) * 2003-04-29 2004-11-18 Robert Bosch Gmbh Vorrichtung zur Kühlung einer Kamera
JP2005024463A (ja) * 2003-07-04 2005-01-27 Fuji Heavy Ind Ltd ステレオ広視野画像処理装置
US7276696B2 (en) * 2003-07-15 2007-10-02 Ford Global Technologies, Llc Active night vision thermal control system using wavelength-temperature characteristic of light source
US7636479B2 (en) * 2004-02-24 2009-12-22 Trw Automotive U.S. Llc Method and apparatus for controlling classification and classification switching in a vision system
US7471832B2 (en) * 2004-02-24 2008-12-30 Trw Automotive U.S. Llc Method and apparatus for arbitrating outputs from multiple pattern recognition classifiers
US20050196015A1 (en) * 2004-03-02 2005-09-08 Trw Automotive U.S. Llc Method and apparatus for tracking head candidate locations in an actuatable occupant restraining system
US7609893B2 (en) * 2004-03-03 2009-10-27 Trw Automotive U.S. Llc Method and apparatus for producing classifier training images via construction and manipulation of a three-dimensional image model
US20100013615A1 (en) * 2004-03-31 2010-01-21 Carnegie Mellon University Obstacle detection having enhanced classification
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
CA2505715A1 (en) 2004-05-03 2005-11-03 Her Majesty In Right Of Canada As Represented By The Minister Of National Defence Volumetric sensor for mobile robotics
US8078338B2 (en) 2004-10-22 2011-12-13 Irobot Corporation System and method for behavior based control of an autonomous vehicle
JP4691508B2 (ja) * 2004-11-15 2011-06-01 日立オートモティブシステムズ株式会社 ステレオカメラ
JP4428208B2 (ja) 2004-11-16 2010-03-10 株式会社デンソー 車両用物体認識装置
US7561731B2 (en) * 2004-12-27 2009-07-14 Trw Automotive U.S. Llc Method and apparatus for enhancing the dynamic range of a stereo vision system
US7430312B2 (en) * 2005-01-07 2008-09-30 Gesturetek, Inc. Creating 3D images of objects by illuminating with infrared patterns
US7283901B2 (en) * 2005-01-13 2007-10-16 Trw Automotive U.S. Llc Controller system for a vehicle occupant protection device
US8700729B2 (en) 2005-01-21 2014-04-15 Robin Dua Method and apparatus for managing credentials through a wireless network
WO2006084385A1 (en) 2005-02-11 2006-08-17 Macdonald Dettwiler & Associates Inc. 3d imaging system
EP1949666B1 (en) * 2005-11-01 2013-07-17 Magna Mirrors of America, Inc. Interior rearview mirror with display
US7624417B2 (en) 2006-01-27 2009-11-24 Robin Dua Method and system for accessing media content via the internet
US8050863B2 (en) 2006-03-16 2011-11-01 Gray & Company, Inc. Navigation and control system for autonomous vehicles
US9373149B2 (en) 2006-03-17 2016-06-21 Fatdoor, Inc. Autonomous neighborhood vehicle commerce network and community
US8108119B2 (en) 2006-04-21 2012-01-31 Sri International Apparatus and method for object detection and tracking and roadway awareness using stereo cameras
CZ307329B6 (cs) 2006-05-15 2018-06-13 Varroc Lighting Systems, s.r.o. Světelné zařízení pro motorové vozidlo, obsahující planární světlovod
EP2041515A4 (en) 2006-07-13 2009-11-11 Velodyne Acoustics Inc HIGH DEFINITION LIDAR SYSTEM
DE102006035232A1 (de) * 2006-07-26 2008-01-31 Robert Bosch Gmbh Optische Messeinrichtung mit einer Bildaufnahmeeinheit
US20080039991A1 (en) 2006-08-10 2008-02-14 May Reed R Methods and systems for providing accurate vehicle positioning
KR100775105B1 (ko) 2006-09-06 2007-11-08 이동욱 자동차 안전운전을 위한 전방 시선확보용 외부 모니터링시스템
EP2078212A4 (en) 2006-10-30 2010-12-29 Autonosys Inc SCANNING SYSTEM FOR LIDAR
US8532862B2 (en) 2006-11-29 2013-09-10 Ryan A. Neff Driverless vehicle
KR100834577B1 (ko) * 2006-12-07 2008-06-02 한국전자통신연구원 스테레오 비전 처리를 통해 목표물 검색 및 추종 방법, 및이를 적용한 가정용 지능형 서비스 로봇 장치
DE102007059735A1 (de) 2006-12-12 2008-07-24 Cognex Corp., Natick Stereo-Sichtsystem für Fahrzeuge zur Erkennung seitlich liegender Hindernisse
DE102007001103A1 (de) 2007-01-04 2008-07-10 Siemens Ag Vertikale Ausrichtung eines Lidar-Sensors
JP5538667B2 (ja) 2007-04-26 2014-07-02 キヤノン株式会社 位置姿勢計測装置及びその制御方法
WO2008139530A1 (ja) 2007-04-27 2008-11-20 Honda Motor Co., Ltd. 車両周辺監視装置、車両周辺監視用プログラム、車両周辺監視方法
JP5160643B2 (ja) 2007-07-12 2013-03-13 トムソン ライセンシング 2次元画像からの3次元オブジェクト認識システム及び方法
KR100918480B1 (ko) 2007-09-03 2009-09-28 한국전자통신연구원 스테레오 비전 시스템 및 그 처리 방법
US7979174B2 (en) 2007-09-28 2011-07-12 Honeywell International Inc. Automatic planning and regulation of the speed of autonomous vehicles
US8027029B2 (en) 2007-11-07 2011-09-27 Magna Electronics Inc. Object detection and tracking system
EP2062778B1 (en) 2007-11-23 2013-07-31 SMR Patents S.à.r.l. Lane Change Control System
DE112009000101T5 (de) * 2008-01-04 2010-11-11 3M Innovative Properties Co., St. Paul Globale Kamerawegoptimierung
US7961301B2 (en) 2008-05-09 2011-06-14 Ball Aerospace & Technologies Corp. Flash LADAR system
US9493149B2 (en) 2008-07-02 2016-11-15 Michael Phelan Driver authentication system and method for monitoring and controlling vehicle usage
US8010285B1 (en) 2008-09-30 2011-08-30 Denise Jason A Electronic navigation related technology
US8442304B2 (en) * 2008-12-29 2013-05-14 Cognex Corporation System and method for three-dimensional alignment of objects using machine vision
WO2010083473A1 (en) 2009-01-17 2010-07-22 Boomerang Systems, Inc. Omnidirectional drive and steering unit
CN101788659B (zh) 2009-01-22 2013-04-03 株式会社万都 调整传感器垂直对准的装置和传感器
US8120644B2 (en) * 2009-02-17 2012-02-21 Autoliv Asp, Inc. Method and system for the dynamic calibration of stereovision cameras
US20100231715A1 (en) 2009-03-11 2010-09-16 Delphi Technologies, Inc. Sideview Vision System Displaying A View Dependent Upon Transmission Selector
JP5278819B2 (ja) 2009-05-11 2013-09-04 株式会社リコー ステレオカメラ装置及びそれを用いた車外監視装置
WO2010140613A1 (ja) 2009-06-03 2010-12-09 学校法人中部大学 物体検出装置
SE534188C2 (sv) 2009-06-10 2011-05-24 Scania Cv Ab Metod och modul för bestämning av börvärden till ett fordons styrsystem
TWI401610B (zh) 2009-07-03 2013-07-11 Shih Pi Ta Technology Ltd 一種派遣車輛之裝置及其操作方法
CN101959022B (zh) * 2009-07-17 2012-11-28 深圳泰山在线科技有限公司 一种同步电路和摄像装置及其同步曝光控制方法
JP5286180B2 (ja) * 2009-07-22 2013-09-11 株式会社ケーヒン 乗員保護制御装置
JP5462110B2 (ja) 2009-09-22 2014-04-02 日本車輌製造株式会社 鉄道車両の制振用ダンパ
US8131848B1 (en) 2009-09-29 2012-03-06 Jason Adam Denise Image analysis and communication device control technology
US9230292B2 (en) 2012-11-08 2016-01-05 Uber Technologies, Inc. Providing on-demand services through use of portable computing devices
US8400511B2 (en) 2009-12-04 2013-03-19 Lockheed Martin Corporation Optical detection and ranging sensor system for sense and avoid, and related methods
US8332109B2 (en) 2010-01-04 2012-12-11 GM Global Technology Operations LLC Closed-loop feedback control and reduction of the torque converter clutch slip for enhanced drivability for heavy tip-in maneuvers
US8385630B2 (en) 2010-01-05 2013-02-26 Sri International System and method of processing stereo images
US9041807B2 (en) 2010-01-29 2015-05-26 Fujitsu Ten Limited Image processing device and image processing method
US8573363B2 (en) 2010-02-12 2013-11-05 Snap-On Incorporated Apparatus for guiding a vehicle onto a service lift using a machine vision wheel alignment system
US8797828B1 (en) 2010-02-15 2014-08-05 Soreq NRC Remote optical seismic surveying and detection and imaging of underground objects
US9303989B2 (en) * 2010-02-23 2016-04-05 Ben-Gurion University Of The Negev System and method for providing 3D imaging
US20110222757A1 (en) * 2010-03-10 2011-09-15 Gbo 3D Technology Pte. Ltd. Systems and methods for 2D image and spatial data capture for 3D stereo imaging
US8494687B2 (en) 2010-03-12 2013-07-23 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method for enhancing a three dimensional image from a plurality of frames of flash LIDAR data
EP2545493A2 (en) 2010-03-12 2013-01-16 Logica Private Limited Multi-purpose intelligent cradle for a vehicle
JP5604146B2 (ja) 2010-03-25 2014-10-08 富士通テン株式会社 車載照明装置、画像処理装置、画像表示システム及び照明方法
US20110245964A1 (en) 2010-04-06 2011-10-06 Sullivan Robert P Self Aligning Automated Material Handling System
US20110241845A1 (en) 2010-04-06 2011-10-06 Sullivan Robert P Automated Material Handling System with Identification Features
US8417448B1 (en) 2010-04-14 2013-04-09 Jason Adam Denise Electronic direction technology
WO2012021192A2 (en) * 2010-05-12 2012-02-16 Irobot Corporation Remote vehicle control system and method
US8899903B1 (en) 2010-05-18 2014-12-02 The Boeing Company Vehicle base station
US20110317993A1 (en) * 2010-06-23 2011-12-29 Outwest Systems, Inc. Apparatus for Mounting a Webcam to Another Optical Instrument
JP5343042B2 (ja) * 2010-06-25 2013-11-13 株式会社トプコン 点群データ処理装置および点群データ処理プログラム
US8447098B1 (en) 2010-08-20 2013-05-21 Adobe Systems Incorporated Model-based stereo matching
US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
US8692980B2 (en) 2010-11-01 2014-04-08 Advanced Scientific Concepts, Inc. Flash LADAR collision avoidance system
JP2012118666A (ja) * 2010-11-30 2012-06-21 Iwane Laboratories Ltd 三次元地図自動生成装置
DE102010062496B4 (de) * 2010-12-07 2022-01-20 Robert Bosch Gmbh Verfahren und Vorrichtung zum Verarbeiten von Bildinformationen zweier zur Bilderfassung geeigneter Sensoren eines Stereo-Sensor-Systems
EP3255613B1 (en) 2010-12-15 2022-09-21 Auto Telematics Ltd Method and system for logging vehicle behaviour
US9264672B2 (en) 2010-12-22 2016-02-16 Magna Mirrors Of America, Inc. Vision display system for vehicle
US9146559B2 (en) 2011-03-18 2015-09-29 The Raymond Corporation System and method for gathering video data related to operation of an autonomous industrial vehicle
US8433469B2 (en) 2011-03-18 2013-04-30 The Raymond Corporation Communication technique by which an autonomous guidance system controls an industrial vehicle
GB201106555D0 (en) 2011-04-19 2011-06-01 Tomtom Int Bv Taxi dispatching system
WO2012145822A1 (en) 2011-04-25 2012-11-01 Magna International Inc. Method and system for dynamically calibrating vehicular cameras
US8924240B2 (en) 2011-05-25 2014-12-30 Shailendra Depura System for monitoring vehicle and operator behavior
KR101832958B1 (ko) * 2011-06-01 2018-02-28 엘지전자 주식회사 이동 단말기 및 그의 3d영상 표시방법
JP5870266B2 (ja) * 2011-06-06 2016-02-24 パナソニックIpマネジメント株式会社 キャリブレーション装置及びキャリブレーション方法
US10684362B2 (en) 2011-06-30 2020-06-16 The Regents Of The University Of Colorado Remote measurement of shallow depths in semi-transparent media
US11313678B2 (en) 2011-06-30 2022-04-26 The Regents Of The University Of Colorado Remote measurement of shallow depths in semi-transparent media
JP5740241B2 (ja) 2011-08-03 2015-06-24 株式会社東芝 車両検出装置
US20130041508A1 (en) 2011-08-12 2013-02-14 Georgia Tech Research Corporation Systems and methods for operating robots using visual servoing
US9453914B2 (en) 2011-09-08 2016-09-27 Continental Advanced Lidar Solutions Us, Inc. Terrain mapping LADAR system
US9815410B2 (en) 2012-08-29 2017-11-14 Smr Patents S.A.R.L. Side mirror assembly with stationary camera and telescoping mirror head
US9328526B2 (en) 2011-09-22 2016-05-03 Unitronics Automated Solutions Ltd Vehicle positioning system
US20130095920A1 (en) * 2011-10-13 2013-04-18 Microsoft Corporation Generating free viewpoint video using stereo imaging
CN102710945A (zh) * 2011-10-24 2012-10-03 中山市中科微电子研究中心 变焦立体成像和显示***
US20140285666A1 (en) 2011-11-01 2014-09-25 Magna Mirrors Of America, Inc. Vision system with door mounted exterior mirror and display
WO2013070539A1 (en) 2011-11-07 2013-05-16 Magna Electronics, Inc. Vehicle vision system with color correction
CA2854829C (en) * 2011-11-15 2019-07-02 Manickam UMASUTHAN Method of real-time tracking of moving/flexible surfaces
CN102494609B (zh) 2011-11-18 2013-09-18 李志扬 一种基于激光探针阵列的三维摄影方法及装置
GB2497119B (en) * 2011-12-01 2013-12-25 Sony Corp Image processing system and method
GB2497118B (en) * 2011-12-01 2013-12-18 Sony Corp Image processing system and method
CN103146355B (zh) * 2011-12-07 2016-02-10 北京中石伟业科技股份有限公司 一种吸热材料
KR101697512B1 (ko) 2011-12-15 2017-01-19 한국전자통신연구원 영상 정합 장치 및 방법
US10273704B2 (en) 2011-12-22 2019-04-30 Park Plus, Inc. Automated parking garage/self-storage apparatus
US9530060B2 (en) * 2012-01-17 2016-12-27 Avigilon Fortress Corporation System and method for building automation using video content analysis with depth sensing
US20140139669A1 (en) 2012-01-30 2014-05-22 Steven Petrillo System and method for providing front-oriented visual information to vehicle driver
US20130197736A1 (en) 2012-01-30 2013-08-01 Google Inc. Vehicle control based on perception uncertainty
US9180890B2 (en) 2012-02-27 2015-11-10 Ford Global Technologies Smart adaptive cruise control
US10089537B2 (en) 2012-05-18 2018-10-02 Magna Electronics Inc. Vehicle vision system with front and rear camera integration
US8909375B2 (en) 2012-05-25 2014-12-09 The United States Of America, As Represented By The Secretary Of The Navy Nodding mechanism for a single-scan sensor
DE102012012501B4 (de) 2012-06-21 2019-10-24 Volkswagen Aktiengesellschaft Kamerasystem für ein Kraftfahrzeug
US10022041B2 (en) * 2012-06-27 2018-07-17 Camplex, Inc. Hydraulic system for surgical applications
US9228833B2 (en) * 2012-06-28 2016-01-05 GM Global Technology Operations LLC Wide baseline binocular object matching method using minimal cost flow network
KR101380888B1 (ko) 2012-07-24 2014-04-02 현대모비스 주식회사 차간 거리 산출 장치 및 방법
US20140067434A1 (en) 2012-08-30 2014-03-06 Agero, Inc. Methods and Systems for Providing Risk Profile Analytics
US9139135B2 (en) 2012-09-07 2015-09-22 Musaid A. ASSAF System and method that minimizes hazards of blind spots while driving
US8994581B1 (en) 2012-09-25 2015-03-31 Adam Brown Direction of arrival (DOA) estimation using multiple offset receive channels
US9383753B1 (en) 2012-09-26 2016-07-05 Google Inc. Wide-view LIDAR with areas of special attention
US9558409B2 (en) 2012-09-26 2017-01-31 Magna Electronics Inc. Vehicle vision system with trailer angle detection
US9221396B1 (en) 2012-09-27 2015-12-29 Google Inc. Cross-validating sensors of an autonomous vehicle
US9633564B2 (en) 2012-09-27 2017-04-25 Google Inc. Determining changes in a driving environment based on vehicle behavior
RU2571871C2 (ru) 2012-12-06 2015-12-27 Александр ГУРЕВИЧ Способ определения границ дороги, формы и положения объектов, находящихся на дороге, и устройство для его выполнения
CN103001428B (zh) * 2012-12-26 2015-05-20 上海摩软通讯技术有限公司 扁平马达和移动终端
JP5935999B2 (ja) 2012-12-29 2016-06-15 株式会社Zmp タクシーサービス支援システム
DE102013200427B4 (de) 2013-01-14 2021-02-04 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erzeugen eines Rundumsichtbildes einer Fahrzeugumgebung eines Fahrzeugs, Verfahren zum Bereitstellen zumindest einer Fahrerassistenzfunktion für ein Fahrzeug, Rundumsichtsystem für ein Fahrzeug
US9789788B2 (en) 2013-01-18 2017-10-17 Ford Global Technologies, Llc Method and apparatus for primary driver verification
US20140320629A1 (en) 2013-01-24 2014-10-30 University Of Washington Through Its Center For Commericialization Haptically-Enabled Co-Robotics for Underwater Tasks
US9336629B2 (en) 2013-01-30 2016-05-10 F3 & Associates, Inc. Coordinate geometry augmented reality process
US9128190B1 (en) 2013-03-06 2015-09-08 Google Inc. Light steering device with an array of oscillating reflective slats
US9110169B2 (en) 2013-03-08 2015-08-18 Advanced Scientific Concepts, Inc. LADAR enabled impact mitigation system
US8965561B2 (en) 2013-03-15 2015-02-24 Cybernet Systems Corporation Automated warehousing using robotic forklifts
EP3626485B1 (en) 2013-03-15 2024-05-29 ClearMotion, Inc. Active vehicle suspension improvements
EP2973476A4 (en) 2013-03-15 2017-01-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US20140286744A1 (en) 2013-03-21 2014-09-25 Unitronics Parking Solutions Ltd. Vehicle centering system
KR101462034B1 (ko) 2013-04-16 2014-11-19 홍서현 콜택시 서비스 제공시스템 및 콜택시 서비스 제공방법
US9600768B1 (en) 2013-04-16 2017-03-21 Google Inc. Using behavior of objects to infer changes in a driving environment
US9674490B2 (en) 2013-04-18 2017-06-06 Magna Electronics Inc. Vision system for vehicle with adjustable cameras
US20140347440A1 (en) 2013-05-23 2014-11-27 Sylvester Hatcher Omnidirectional Vehicle Camera System
CN203353019U (zh) * 2013-05-28 2013-12-18 东莞劲胜精密组件股份有限公司 一种石墨烯金属散热片和电子产品散热结构
US9110163B2 (en) 2013-06-14 2015-08-18 Microsoft Technology Licensing, Llc Lidar-based classification of object movement
US9487142B2 (en) 2013-06-25 2016-11-08 Magna Mirrors Of America, Inc. Rearview mirror assembly for vehicle
US9719801B1 (en) 2013-07-23 2017-08-01 Waymo Llc Methods and systems for calibrating sensors using road map data
US9224053B1 (en) 2013-07-31 2015-12-29 Google Inc. Combining multiple estimates of an environment into a consolidated estimate for an autonomous vehicle
US20150042640A1 (en) 2013-08-07 2015-02-12 Cherif Atia Algreatly Floating 3d image in midair
US9201424B1 (en) 2013-08-27 2015-12-01 Google Inc. Camera calibration using structure from motion techniques
US9578025B2 (en) 2013-10-14 2017-02-21 Zumigo, Inc. Mobile network-based multi-factor authentication
KR102184766B1 (ko) 2013-10-17 2020-11-30 삼성전자주식회사 3차원 모델 복원 시스템 및 방법
US9517771B2 (en) 2013-11-22 2016-12-13 Ford Global Technologies, Llc Autonomous vehicle modes
US9509979B2 (en) 2013-11-26 2016-11-29 Mobileye Vision Technologies Ltd. Stereo auto-calibration from structure-from-motion
US20140327775A1 (en) 2013-12-04 2014-11-06 Kyu Hwang Cho Mirrorless Driving of Automotive Vehicle Using Digital Image Sensors and Touchscreen
US9231998B2 (en) 2014-01-22 2016-01-05 Ford Global Technologies, Llc Vehicle-specific computation management system for cloud computing
US9989967B2 (en) 2014-03-04 2018-06-05 Cybernet Systems Corporation All weather autonomously driven vehicles
JP6087858B2 (ja) 2014-03-24 2017-03-01 株式会社日本自動車部品総合研究所 走行区画線認識装置及び走行区画線認識プログラム
US9407896B2 (en) 2014-03-24 2016-08-02 Hong Kong Applied Science and Technology Research Institute Company, Limited Multi-view synthesis in real-time with fallback to 2D from 3D to reduce flicker in low or unstable stereo-matching image regions
US9933521B2 (en) 2014-04-14 2018-04-03 The Boeing Company Aerial positioning systems and methods
CN105025193B (zh) 2014-04-29 2020-02-07 钰立微电子股份有限公司 手提式立体扫描仪和产生对应对象的立体扫描结果的方法
JP2016001464A (ja) 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理システム、処理プログラム、及び、処理方法
JP6260462B2 (ja) 2014-06-10 2018-01-17 株式会社デンソー 運転支援装置
US9575184B2 (en) 2014-07-03 2017-02-21 Continental Advanced Lidar Solutions Us, Inc. LADAR sensor for a dense environment
US9869753B2 (en) 2014-08-15 2018-01-16 Quanergy Systems, Inc. Three-dimensional-mapping two-dimensional-scanning lidar based on one-dimensional-steering optical phased arrays and method of using same
US9403491B2 (en) 2014-08-28 2016-08-02 Nissan North America, Inc. Vehicle camera assembly
US9248834B1 (en) 2014-10-02 2016-02-02 Google Inc. Predicting trajectories of objects based on contextual information
US9639951B2 (en) 2014-10-23 2017-05-02 Khalifa University of Science, Technology & Research Object detection and tracking using depth data
US9804594B2 (en) 2014-11-07 2017-10-31 Clearpath Robotics, Inc. Self-calibrating sensors and actuators for unmanned vehicles
US20160129838A1 (en) 2014-11-11 2016-05-12 Garfield Ron Mingo Wide angle rear and side view monitor
US9892296B2 (en) 2014-11-12 2018-02-13 Joseph E. Kovarik Method and system for autonomous vehicles
US9278689B1 (en) 2014-11-13 2016-03-08 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle detection of and response to emergency vehicles
WO2016094801A1 (en) 2014-12-12 2016-06-16 Hoyda Serge B System and process for viewing in blind spots
US20180007345A1 (en) 2015-01-16 2018-01-04 Imra Europe S.A.S. Self-rectification of stereo camera
US9412034B1 (en) 2015-01-29 2016-08-09 Qualcomm Incorporated Occlusion handling for computer vision
US20160231746A1 (en) 2015-02-06 2016-08-11 Delphi Technologies, Inc. System And Method To Operate An Automated Vehicle
JP6337811B2 (ja) 2015-03-17 2018-06-06 トヨタ自動車株式会社 画像処理装置及び画像処理方法
US9625582B2 (en) 2015-03-25 2017-04-18 Google Inc. Vehicle with multiple light detection and ranging devices (LIDARs)
JP6518952B2 (ja) 2015-03-27 2019-05-29 パナソニックIpマネジメント株式会社 車両用表示装置の位置調整方法
US9555736B2 (en) 2015-04-03 2017-01-31 Magna Electronics Inc. Vehicle headlamp control using sensing and communication systems
US9880263B2 (en) 2015-04-06 2018-01-30 Waymo Llc Long range steerable LIDAR system
US10300804B2 (en) 2015-04-29 2019-05-28 General Electric Company Apparatus and method for automated positioning of a vehicle
US20160349746A1 (en) 2015-05-29 2016-12-01 Faro Technologies, Inc. Unmanned aerial vehicle having a projector and being tracked by a laser tracker
US9884631B2 (en) 2015-06-04 2018-02-06 Toyota Motor Engineering & Manufacturing North America, Inc. Transitioning between operational modes of an autonomous vehicle
US10373378B2 (en) 2015-06-26 2019-08-06 Paccar Inc Augmented reality system for vehicle blind spot prevention
US9937922B2 (en) 2015-10-06 2018-04-10 Ford Global Technologies, Llc Collision avoidance using auditory data augmented with map data
US9720415B2 (en) 2015-11-04 2017-08-01 Zoox, Inc. Sensor-based object-detection optimization for autonomous vehicles
WO2017079483A1 (en) 2015-11-05 2017-05-11 Luminar Technologies, Inc. Lidar system with improved scanning speed for high-resolution depth mapping
CN108603758A (zh) 2015-11-30 2018-09-28 卢米诺技术公司 具有分布式激光器和多个传感器头的激光雷达***和激光雷达***的脉冲激光器
US9432929B1 (en) 2015-12-08 2016-08-30 Uber Technologies, Inc. Communication configuration system for a fleet of automated vehicles
US9785150B2 (en) 2015-12-11 2017-10-10 Uber Technologies, Inc. Formatting sensor data for use in autonomous vehicle communications platform
US10338225B2 (en) 2015-12-15 2019-07-02 Uber Technologies, Inc. Dynamic LIDAR sensor controller
US9840256B1 (en) 2015-12-16 2017-12-12 Uber Technologies, Inc. Predictive sensor array configuration system for an autonomous vehicle
US9841763B1 (en) 2015-12-16 2017-12-12 Uber Technologies, Inc. Predictive sensor array configuration system for an autonomous vehicle
US9752341B2 (en) 2016-02-09 2017-09-05 Space Maker International Inc. Vehicle parking with automated guided vehicles, vertically reciprocating conveyors and safety barriers
US9902311B2 (en) 2016-02-22 2018-02-27 Uber Technologies, Inc. Lighting device for a vehicle
US10114113B2 (en) 2016-03-02 2018-10-30 Ford Global Technologies, Llc Ultrasound range correction
US9789880B2 (en) 2016-03-03 2017-10-17 Uber Technologies, Inc. Sensory stimulation system for an autonomous vehicle
US9902403B2 (en) 2016-03-03 2018-02-27 Uber Technologies, Inc. Sensory stimulation for an autonomous vehicle
US9616896B1 (en) 2016-03-15 2017-04-11 Uber Technologies, Inc. System for switching control of an autonomous vehicle
US9672446B1 (en) 2016-05-06 2017-06-06 Uber Technologies, Inc. Object detection for an autonomous vehicle
US10372126B2 (en) 2016-05-27 2019-08-06 Cnh Industrial America Llc Dynamic in-cabin autonomous vehicle control systems
US10469821B2 (en) 2016-06-17 2019-11-05 Altek Semiconductor Corp. Stereo image generating method and electronic apparatus utilizing the method
US9881503B1 (en) 2016-09-08 2018-01-30 GM Global Technology Operations LLC Vehicle-to-pedestrian-communication systems and methods for using the same
US9869754B1 (en) 2017-03-22 2018-01-16 Luminar Technologies, Inc. Scan patterns for lidar systems
US9904375B1 (en) 2017-04-10 2018-02-27 Uber Technologies, Inc. LIDAR display systems and methods

Also Published As

Publication number Publication date
AU2014239979B2 (en) 2017-06-22
WO2014152254A2 (en) 2014-09-25
KR20150130511A (ko) 2015-11-23
US20160227193A1 (en) 2016-08-04
EP2972478B1 (en) 2020-12-16
EP2972478A4 (en) 2016-11-09
WO2014152254A3 (en) 2014-11-13
AU2014239979A1 (en) 2015-09-17
CN105164549A (zh) 2015-12-16
CN105164549B (zh) 2019-07-02
KR101803164B1 (ko) 2017-12-28
CA2902430C (en) 2020-09-01
EP2972478A2 (en) 2016-01-20
CA2902430A1 (en) 2014-09-25
US10412368B2 (en) 2019-09-10
JP2016513804A (ja) 2016-05-16

Similar Documents

Publication Publication Date Title
JP6514681B2 (ja) ロボット用多重知覚ステレオ視のための方法、システム、および装置
Zhu et al. The multivehicle stereo event camera dataset: An event camera dataset for 3D perception
CA3157194C (en) Systems and methods for augmentation of sensor systems and imaging systems with polarization
US7711179B2 (en) Hand held portable three dimensional scanner
CN110230983B (zh) 抗振式光学三维定位方法及装置
CN108594245A (zh) 一种目标物运动监测***及方法
KR20150119337A (ko) 환경의 3d 모델의 발생
Bleier et al. Low-cost 3d laser scanning in air orwater using self-calibrating structured light
Núnez et al. Data Fusion Calibration for a 3D Laser Range Finder and a Camera using Inertial Data.
Bleier et al. SCOUT3D–An underwater laser scanning system for mobile mapping
Son et al. A lightweight and cost-effective 3D omnidirectional depth sensor based on laser triangulation
Hillemann et al. UCalMiCeL–Unified intrinsic and extrinsic calibration of a multi-camera-system and a laserscanner
Duda et al. SRSL: Monocular self-referenced line structured light
JP2010078466A (ja) マーカ自動登録方法及びシステム
Ta et al. L2E: Lasers to events for 6-DoF extrinsic calibration of lidars and event cameras
Karrer et al. Real-time dense surface reconstruction for aerial manipulation
Xiao et al. A new three-dimensional laser scanner design and its performance analysis
Hoegner et al. Fusion of 3D point clouds with tir images for indoor scene reconstruction
Perez-Yus et al. A novel hybrid camera system with depth and fisheye cameras
Cui et al. ACLC: Automatic Calibration for non-repetitive scanning LiDAR-Camera system based on point cloud noise optimization
KR20240056516A (ko) 카메라 교정을 위한 카메라 모델을 생성하는 방법 및 시스템
Bleier et al. Towards an underwater 3D laser scanning system for mobile mapping
Xing et al. Target-free extrinsic calibration of event-lidar dyad using edge correspondences
Shojaeipour et al. Robot path obstacle locator using webcam and laser emitter
Nawaf et al. Towards guided underwater survey using light visual odometry

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170313

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180130

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180530

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190204

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190412

R150 Certificate of patent or registration of utility model

Ref document number: 6514681

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350