JP6224370B2 - 車両用コントローラ、車両システム - Google Patents

車両用コントローラ、車両システム Download PDF

Info

Publication number
JP6224370B2
JP6224370B2 JP2013153217A JP2013153217A JP6224370B2 JP 6224370 B2 JP6224370 B2 JP 6224370B2 JP 2013153217 A JP2013153217 A JP 2013153217A JP 2013153217 A JP2013153217 A JP 2013153217A JP 6224370 B2 JP6224370 B2 JP 6224370B2
Authority
JP
Japan
Prior art keywords
sensor
target
observations
graph network
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013153217A
Other languages
English (en)
Other versions
JP2014025925A (ja
Inventor
エス.ジョシ アブダット
エス.ジョシ アブダット
ロバート ジェイムズ マイケル
ロバート ジェイムズ マイケル
イー.サンプルズ マイケル
イー.サンプルズ マイケル
Original Assignee
トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド
トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド, トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド filed Critical トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド
Publication of JP2014025925A publication Critical patent/JP2014025925A/ja
Application granted granted Critical
Publication of JP6224370B2 publication Critical patent/JP6224370B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/28Details of pulse systems
    • G01S7/285Receivers
    • G01S7/295Means for transforming co-ordinates or for evaluating data, e.g. using computers
    • G01S7/2955Means for determining the position of the radar coordinate system for evaluating the position data of the target in another coordinate system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本出願は、自律的および/または自動式の車両、または、自動車のシステムに関する。
2012年5月12日に出願された米国特許出願公開第2011/0282581号(特許文献1)は、レーザ測距計を用いて車両の近傍の物体を検出して追尾する方法およびシステムを論じており、該特許文献は言及したことによりその全体が本明細書中に援用される。
米国特許出願公開第2011/0282581号
2次元(2D)の追尾システムにおいて、目標物は2D空間における任意の点を自由に占有し得ることから、一つの更新サイクルから別の更新サイクルまでの動作は任意的であり、モデル化することが困難であり得る。これにより、追尾システムは不安定になると共に、調整が困難となり得る。
本開示内容の一つの見地において、追尾システムは、当該所定地図に沿い、追尾されるべき物体が移動し得るという所定地図である車線ネットワーク・グラフ(lane network graph)(以下、単にグラフと称する)に制限される。これは、路上の自動車の動き、および、車線ネットワークを概略的に順守する他の車両の動きを取入れ得る。同様に、各目標物を追尾するために上記グラフに沿い1次元(1D)のみが使用されることから、フィルタに対する状態空間は、小規模であり得ると共に調節が容易であり得るので、非常に効率的な実施方式が可能とされ得る。
幾つかの見地においては、異なるセンサからのデータは非同期的に受信されると共に、受信されたデータは追尾システムにおいて正しく統合され得る。異なるセンサの特性は、上記追尾システムからノイズ的なデータを正しく除去すべく活用され得る。
車両システムは、各々が、異なる第1および第2の方式を夫々有する第1および第2のセンサを含み得る。コントローラは:上記第1センサからは第1センサ入力を、且つ、上記第2センサからは第2センサ入力を受信し;上記第1および第2センサ入力から、夫々、第1および第2の観測値を同期的に検出し;上記検出された第1および第2観測値をグラフ・ネットワーク上に投影し;上記第1および第2観測値を、上記グラフ・ネットワーク上の目標物であって、該グラフ・ネットワーク上に軌跡を有するという目標物に対して関連付け;上記第1および第2のセンサの特性に基づき、上記第1観測値もしくは上記第2観測値のいずれかを最適観測値として選択し;上記最適観測値と現在時刻とに基づいて予測を実施することにより、上記目標物の現在位置を推定する;べく構成されたプロセッサを含み得る。
上記第1および第2観測値が、現在追尾されている目標物の所定距離内でなければ、上記第1および第2観測値は、上記グラフ・ネットワーク上に新たな目標物を生成することにより該目標物と関連付けられ得る。
上記プロセッサは更に、上記グラフ・ネットワークが、各ノード間のリンクとして1次元車線を有する如く、該グラフ・ネットワークを道路地図および獲得された位置から生成すべく構成され得、上記目標物の軌跡は、複数本の1次元車線の内の一本の1次元車線に基づく。
上記第1センサはライダ・センサ(lidar sensor)であり得ると共に、上記第2センサはレーダ・センサであり得る。
上記目標物の上記現在位置は、カルマン・フィルタ(Kalman filter)予測処理を実施することにより推定され得る。
上記第1および第2のセンサの上記特性は、センサ・データを処理する上での時間遅延、および、センサ・データの処理により有効な障害物を検出する上での精度を含み得る。
上記目標物(例えば車両)は、上記第1および第2のセンサによる連続的な観測値による現在位置の更新により追尾され得る。上記目標物は、所定の期間にわたり該目標物に対する観測値が観測されないとき、追尾から除外され得る。
上記検出された第1および第2観測値は、上記第1および第2センサ入力の夫々の座標系を上記車両の、UTMの如き一般的座標系へと変換することにより、上記グラフ・ネットワーク上に投影され得る。
上記コントローラは、該コントローラのメモリ内の目標物リスト内に一群の目標物を記憶し得ると共に、上記目標物リストは、観測値を目標物に関連付けるために照会され得る。
観測値の同期的検出は、上記グラフ・ネットワークにおける一本の車線からの誤差の限界上もしくは限界内の点に限られ得る。同様に、各目標物の追尾は、上記グラフ・ネットワークにおける一本の車線からの誤差の限界上もしくは限界内の点に限られ得る。
上記検出された第1および第2観測値は、現在時刻を反映させるべく該検出された第1および第2観測値を補正することにより、上記グラフ・ネットワーク上に投影され得る。これは、夫々のセンサ・データの獲得時の間における時間遅延を考慮すべく上記グラフ・ネットワーク上における該第1および第2観測値の位置を調節する段階、および、結果的な観測値を上記グラフ・ネットワーク上へと投影する段階を含み得る。上記調節の量は、上記第1および第2観測値に関連付けられた、上記目標物の較正済みの(所定の)時間遅延および速度を用いて決定され得る。
代表的実施形態の上述の概略的な説明、および、以下におけるその詳細な説明は、本開示内容の教示の例示的な見地に過ぎず、限定的なものではない。
特許もしくは出願書類は、原色で作成された少なくとも一枚の図面を含んでいる。原色の図面を伴う、この特許もしくは特許出願公報の複製物は、要求時に、必要な料金の支払いにより、特許庁により提供される。
本開示内容、および、それに付随する利点は、添付図面に関して考慮される以下の詳細な説明を参照すればより良く理解されることから、それらの更に完全な評価が容易に得られよう。
コントローラおよび/またはコンピュータ・システムに対する処理システムを概略的に示す図である。 アルゴリズムを示す図である。 上記アルゴリズムのグラフ生成処理を示す図である。 上記アルゴリズムの障害物検出処理を示す図である。 上記アルゴリズムの障害物投影処理を示す図である。 上記アルゴリズムのデータ関連付け処理を示す図である。 種々のセンサにより種々の目標物を追尾する上で動作している追尾システムの図解表現である。 種々のセンサにより種々の目標物を追尾する上で動作している追尾システムの図解表現である。 種々のセンサにより種々の目標物を追尾する上で動作している追尾システムの図解表現である。 代表的な図解を示す図である。 代表的な自律的/試験車両を示す図である。 代表的な点群セグメント化を示す図である。 各座標系間の変換を概略的に示す図である。 種々の周囲環境において種々のセンサにより種々の目標物を追尾する上で動作している追尾システムの図解表現である。 種々の周囲環境において種々のセンサにより種々の目標物を追尾する上で動作している追尾システムの図解表現である。 種々の周囲環境において種々のセンサにより種々の目標物を追尾する上で動作している追尾システムの図解表現である。
図面中、幾つかの図を通し、同様の参照番号は同一のもしくは対応する部材を表す。
図1は、代表的な処理システム100を示すと共に、コントローラもしくは演算システムにおいて見出される代表的なハードウェアであって、本開示内容において記述される各処理、アルゴリズム、および/または、方法を実施および/または実行するというハードウェアを示している。システム100は、車両内に設置される電子制御ユニット(ECU)もしくは個別的なコンピュータとして具現および/または実現され得る。
図1に示された如く、本開示内容に係る処理システム100は、マイクロプロセッサを用いて、または、中央処理ユニット(CPU)および/または(不図示の)少なくとも一つの特定用途向けプロセッサ(ASP)の如き、マイクロプロセッサの同等物を用いて実現され得る。上記マイクロプロセッサは、該マイクロプロセッサを制御することで本開示内容の各処理およびシステムを実施および/または制御すべく構成されたメモリ(例えば、ROM、EPROM、EEPROM、フラッシュ・メモリ、スタティック・メモリ、DRAM、SDRAM、および、それらの同等物など)の如き、コンピュータ可読記憶媒体を利用している。他の記憶媒体は、ハードディスク・ドライブまたは光ディスク・ドライブを制御し得るディスク・コントローラの如きコントローラを介して制御され得る。
上記マイクロプロセッサ、または、その特性は、代替実施形態において、本開示内容を増進しもしくは完全に実現するための論理デバイスを含みもしくは排他的に含み得る。斯かる論理デバイスとしては、限定的なものとしてで無く、特定用途集積回路(ASIC)、フィールド・プログラマブル・ゲート・アレイ(FPGA)、汎用配列論理回路(GAL)、および、それらの同等物が挙げられる。上記マイクロプロセッサは、別体的なデバイス、または、単一の処理機構であり得る。更に、本開示内容は、マルチコアCPUの並列処理機能から利益を享受し得る。
別の見地において、本開示内容に従う処理の結果は、監視のためにディスプレイ・コントローラを介して表示され得る。そのときに該ディスプレイ・コントローラは好適には、更に良好な演算効率のために、少なくとも一つのグラフィック処理ユニットを含む。付加的に、センサ1、2、…、Nからのセンサ・データを入力するために、且つ、一つ以上のアクチュエータに対して制御信号を出力して、操舵、ブレーキおよびスロットルの各コントローラおよび/または車両の各アクチュエータなどの種々の被動構成要素を制御するために、I/O(入力/出力)インタフェースが配備される。該I/Oインタフェースに対しては、車両の箇所情報のために、(例えばGPSなどの)全地球測位システムが配備されて接続され得る。
更に、他の入力デバイスに関し、それらは周辺機器として上記I/Oインタフェースに対して接続され得る。例えば、上記I/Oインタフェースに対しては、本開示内容の種々の処理およびアルゴリズムのパラメータを制御するために(不図示の)キーボードまたはポインティング・デバイスが接続されることで、付加的な機能性および構成の選択肢を提供し、または、ディスプレイ特性を制御し得る。更に、上記モニタは、命令/指示インタフェースに対するタッチ感応式インタフェースを備え得る。
図1に示された如く、上述の各構成要素は、制御可能なパラメータなどのデータの送信もしくは受信のためにネットワーク・インタフェースを介して、インターネットもしくはローカル・イントラネットの如きネットワークに対して連結され得る。上記ネットワークはまた車両ローカル・エリア・ネットワーク(VLAN)ともされ得、その場合、(例えば、センサ、アクチュエータのデータ/命令、および、GPS情報などの)入力/出力データは、該VLANを介して伝達される。上記各ハードウェア構成要素を一体的に接続すべく中央バスが配備されると共に、該中央バスは、それらの間におけるデジタル通信のための少なくとも一本の経路を提供する。
図2には、図1に示されたシステムにより実行される代表的なアルゴリズム200が示される。該アルゴリズム200は、300においてグラフ・ネットワークを生成する処理、400において障害物を検出する処理、500において障害物をグラフ・ネットワーク上に投影する処理、および、600においてデータ関連付けを実施して追尾する処理を含む。アルゴリズム200の更なる代表的な詳細は、図3から図9を参照して以下に記述される。
図3は、処理300の更なる詳細を示している。グラフ・ネットワークを生成する上で、S302にては、道路ネットワークの(すなわち、車両が存在する領域の)地図が獲得もしくはアクセスされる。上記道路ネットワークの地図は、ナビゲーション・システムの一部としてシステム100に事前インストールされるか、または、該システム100によりアクセスされ得る。斯かるアクセスは、ナビゲーション・システムに対する、または、ローカル的もしくは遠隔的に記憶された別の地図データベースに対するネットワーク接続により(例えば、ネットワーク接続を通して遠隔サーバからローカル地図をダウンロードすることにより)、実現され得る。上記ネットワーク・グラフは、このローカル地図を用いて生成される。このグラフ・ネットワークは、(例えばUTMなどの)大域座標系における位置であるノードと、これらのノードの接続性を定義する夫々のリンクとから成る。S304においては各ノードが生成されると共に、S306においては各リンクが生成される。各ノードおよび各リンクの生成は、同期的にもしくは非同期的に行われ得る。(他の車両の如き)障害物の追尾は、上記グラフ・ネットワークに沿って実施される。
処理400は、車両検出のための複数のセンサによる実施方式を示す図4により更に詳細に説明される。特に、各車両は、複数のセンサを独立的に用いて検出される。図4の処理400により示される例においては、2つのセンサ、すなわちセンサ1およびセンサ2が在る。但し、これは更なるセンサを含むべく拡張され得る。更に、各センサの内の一つ以上がライダ(lidar)(光検出と測距)であるとき、他の障害物から車両を検出するために点群セグメント化法(point cloud segmentation method)が使用される。物体の検出および認識は、物体のセグメント化および認識に関する他の公知の見地も取入れ乍ら、エッジおよび形状の検出および認識の見地を含み得る。各センサの内の一つ以上がカメラであるときには、車両を検出すべくコンピュータ・ビジョン技術が使用される。これらの技術は、形状およびエッジ検出などの、物体認識を含み得る。ライダおよびカメラ認識処理は両方とも、(例えば、車両、自転車乗りなどの)障害物の既知で認識可能な形状およびエッジを備えた、蓄積されたおよび/または事前定義されたデータのライブラリに基づいて実施され得る。レーダ・センサは、検出された各障害物を、該障害物の速度と共に報告し得る。
処理400において、S402にてはセンサ1により各障害物が検出され得ると共に、S404にては各障害物の速度が検出/決定され得る。同期的に、S406にてはセンサ2により各障害物が検出され得ると共に、S408にては各障害物の速度が検出/決定され得る。すなわち、各障害物(例えば、車両、自転車乗りなど)は、センサ1および2(ならびに更なるセンサ)により同期的に検出され得る。障害物の速度は、例えば、上記で論じられた如く、例えばレーダにより決定され得る。速度はまた、連続的な位置検出測定値と、それに基づく動きの速度および/または方向の計算とにより、外挿もされ得る。
図5に示された処理500に関しては、上記グラフ・ネットワーク上の各障害物の投影が説明される。S502にては、各センサにより検出された障害物は、一般的な/同一の座標系へと変換される。特に、異なるセンサからのデータを、車両の座標系へと変換するために、較正が実施され得る。これらの変換済み障害物は次に、S504にて、例えば最近傍技術を用いて、上記グラフ・ネットワーク上へと投影される。車両の箇所は、GPSと、GPS受信器、加速度計、ジャイロスコープを含む慣性系とを用いて決定される。GPS、または、他の衛星式のナビゲーション・システムに加え、または、それに補足して、他の車両箇所追尾デバイスが使用され得る。
図6は、データ関連付けおよび追尾を記述する処理600を示している。各障害物は、異なるセンサからの複数の観測値を有し得ると共に、これらの複数の観測値は融合される。更に、各センサは非同期的に作用することから、単純な最近傍手法は使用されない。正しい時間的割当てを行うために、各観測値は、投影されると共に、現在の時刻(timestamp)に対してグラフ・ネットワークに沿い補正される。これらの補正済み観測値は次に、最近傍割当てを用い、システム100のメモリ内に記憶されている目標物の現在リストに対して関連付けられる。複数の観測値は、各目標物に対する上記一群の観測値に対して割当てられると共に、各目標物は、それに対して関連付けられた、カルマン・フィルタ(Kalman filter)の如き確率論的追尾器(probabilistic tracker)を有している。
処理600は、S602における初期化段階を含み得る。初期化において、有効な観測値に対して何らの目標物も割当てられなければ、新たな目標物が生成される。そのカルマン状態は、補正済み観測値へと初期化される。カルマン・フィルタの状態は、その障害物の、車線に沿う踏破距離、速度、および、加速度である。速度を記録しないセンサから到来する観測値の場合、その速度は、最初の反復値の対において、推定される。
S604にては更新段階が実施され、その場合、各目標物に対する一群の観測値から、最適観測値が選択される。この最適観測値は次に、上記カルマン・フィルタを更新すべく使用される。上記最適観測値は、速度およびグラフ・ネットワークに基づき、観測値を、目標物の予想位置に対して相関させることにより決定され得る。すなわち、各目標物は、上記グラフ・ネットワーク上に直接的に存在すること、および、決定された上記速度に基づいて上記グラフ・ネットワークに沿い推定距離だけ踏破していることが期待され得る。上記最適観測値はまた、時間遅延(センサ・データを処理して物体を検出する上での遅延)、および、センサ精度にも基づき得る。カルマン・フィルタリングは、経路および観測値の予測を行うために利用され得る。
S606において、所定の目標物に対し、一定の時的間隔にわたり観測値が観測されなければ、その目標物は上記追尾システムから排除され得る。すなわち、その目標物は、上記リストから除去され得る。上記目標物はその後、観測値が回復したときに、初期化段階において再生成され得る。
一定の見地において、上記アルゴリズムは以下の如く要約され得る:
1.対応する当該観測値の時刻を備えた全ての観測値を、上記一群の観測値に割当てる。
2.各観測値に対し:
a.その観測値が上記グラフに対して十分に近いなら、その観測値を上記グラフ上に投影する。
b.上記リストにおける各軌跡に対し:
i.各観測値の時刻における軌跡の位置を推定する。
ii.もし観測値が、その時刻における軌跡の位置に近いなら、該観測値を上記軌跡に対して割当てる。
iii.もし、何らの軌跡が見出されなければ、新たな軌跡を生成し、現在の観測値をその軌跡に対して割当てる。
3.上記リスト中の各軌跡に対し:
a.その軌跡に対して割当てられた上記一群の観測値から、最適観測値を選択する。この最適値選択は、センサ精度、時間遅延などに基づき、発見的に実施され得る。
b.最適観測値の時刻に対し、カルマン・フィルタ予測(事前的)段階を実施する。これにより、上記フィルタは時間的に戻し移動され得る。
c.上記観測値の真の値を用い、カルマン・フィルタ測定値の(事後的)更新を実施する。
d.現在の時刻値に対してカルマン・フィルタ予測段階を再び実施し、上記軌跡上の現在位置を推定する。
上記で論じられたアルゴリズムにより提供される特徴の幾つかは:完全な2次元的追尾の代わりとなるグラフ式の追尾により、不正確な追尾目標物に対し、追尾を更に効率的かつ更に高信頼性とすること;異なるセンサを用いて非同期的に検出された各障害物に対する正しいセンサ連携;および、上記システムへの確率論的追尾器の一体化;である。
種々のセンサにより種々の目標物を追尾する上で動作している追尾システムの図解表現である図7から図9には、上記で論じられたアルゴリズムの種々の実施方式が示される。これらの図は、ライダおよびレーダを利用する実施方式を示している。但し、他のセンサが利用され得る。図7から図9において、黄色はレーダ目標物を表し、緑色はライダ目標物を表し、且つ、試験車両は青色により表される。上記グラフ・ネットワーク、特に、該グラフ・ネットワークの車線は、白色で輪郭が描かれる。上記グラフ・ネットワークの車線上(または、該車線の誤差の限界内に)現れる、これらのライダ目標物およびレーダ目標物のみを処理することにより特定され得る種々の目標物は、赤色(赤色菱形)で示される。
図8は、代表的なリンク(青色ライン)およびノード(黄色菱形)を示すと共に、非同期的/遅延観測値を例証している。各ノードはまた、青色ラインにより接続された各黄色菱形間の一連のドットとしても説明され得る。黄色円形はレーダ観測値であり、且つ、緑色円形は、処理のために遅延されたライダ観測値である。但し、レーダ処理と比較したライダ処理における遅延を考慮することにより、最終的なグラフ目標物(赤色菱形)は正しく更新される。図9は高速道路の実施方式を示しており、その場合、赤色菱形は追尾された目標物を示している。システム100のディスプレイは、対応する追尾目標物を自身上に特定する上記グラフ・ネットワークを表示すべく構成され得、その場合に図7から図9は斯かるディスプレイの例であり得る。
目標物追尾の結果に基づき、システム100は適切な出力を生成し得る。例えば、追尾目標物が、当該車両に対する所定の衝突確率を有すると追尾されたとき、衝突警報が生成されて、該車両の聴覚的および/または視覚的システムに対して出力され得る。衝突を判断するためには、追尾目標物の経路を予測する時間的展望予測処理を用いて、経路の推定が実現され得る。斯かる計算は、システム100と通信する別のシステムにより実施され得る。更に、目標物追尾の結果は巡航制御システムに入力されることで、各追尾目標物の位置に基づき、当該車両の自動的な速度もしくは方向が調節され得る。すなわち、システム100は、アクセル・アクチュエータ、ブレーキ・アクチュエータおよび/または操舵輪アクチュエータに対して制御命令を出力することで、目標物追尾の結果に基づき、当該車両の速度および方向を制御し得る。その故に、システム100は、自己誘導および衝突回避を行い得るロボット的である自律的車両に導入され得る。
代表的な実施方式において、自律的駆動のために、道路上の他の車両を追尾することは重要な要件である。高速道路および市街の交通状況の両方において安全な駆動操縦を企図するためには、その道路上の他の車両の箇所および動きに関する情報が必要とされる。本開示内容の見地に依れば、複数のセンサ(レーダおよびライダ)を用いるグラフ式の車両追尾システムが提供されると共に、該システムは、自律的車両の研究計画の一部として好首尾に試験された。
特に、道路ネットワークの地図を用い、事前処理段階としてグラフが生成される。上記グラフに沿い、異なる方式の異なるセンサから獲得された障害物が、確率論的フィルタを用いる追尾器により追尾される。上記追尾器からの出力は、全ての動的な障害物の箇所および予想される動きを包含し、該出力は、安全な駆動操縦を企図すべく設計者により使用される。
道路ネットワークは、道路ネットワーク定義ファイル(RNDF)と称されるデータ構造であって、UTM座標系における一群のウェイポイント(waypoint)と、車線、出口、合流点などを生成するリンク情報とから成るというデータ構造を用いて定義され得る。また、上記データ構造内には、停止標識および信号機位置などの他の意味論的情報が埋め込まれる。この情報は、経路を生成すべく設計者により使用される。
このRNDFデータからは、追尾のために使用されるグラフが生成される。該グラフにおける各ノードは、RNDFにおける一つのウェイポイントに対応する。RNDFにおける各ノードを接続するために、同一のリンク構造が維持される。合流点および出口の場合、各リンク、各ノードは、各リンクの端点間のスプライン適合を用いて内挿され、それらは上記グラフに対して付加される。
付加的に、当該ウェイポイントが属する車線の開始点からの踏破距離が、各ノードに記憶される。上記踏破距離とは、直接的なユークリッド距離ではなく、上記グラフに沿う距離であり、これは次に、上記グラフに沿い障害物を追尾するために使用される。
典型的なグラフは、図7から図9、ならびに、図10に示される。
図11には代表的な自律的車両が示されており、同図は、ベロダイン社(Velodyne)により製造された光検出と測距器(ライダ)、ボッシュ社(Bosch)により製造されたロングレンジ・レーダ・センサの配列、および、プロシリカ社(Prosillica)の高分解能カメラを装備している。上記ベロダイン・センサは、40mの距離まで、車両の回り360°にわたり合理的に正確な点群データを与え得る。各障害物は上記点群から、3Dの点群認識技術を用いてセグメント化される。点群セグメント化の例は、図12に示される。
当該車両上には、レーダの各々が異なる配向を有する如く、(8台のレーダの如き)レーダ・センサの配列が取付けられる。各レーダは、50mにおいては±15°、および、約200mにおいては±6°の視界を有し得る。レーダは、該レーダの座標系内で検出された障害物の位置および相対速度を、直接的に送り返す。障害物の箇所および速度はレーダの座標系内で獲得されることから、各障害物を、車両の座標系へと変換することが必要である。レーダ・ユニットの各々に対する正しい変換を見出すことは、以下に記述される較正処理により行われ得る。
図13は、実施されるべき変換を概略的に示している。全てのレーダ・センサは、レーダの基準座標系(reference frame)からロボットの(自動車の)基準座標系への正確な変換を行うために、較正されねばならない。この目的のために、以下に記述される如く、半自動的な手順が開発された。
上記車両の回りの種々の位置には、高度にレーダ反射的であるレーダ用マーカが載置される。これらの位置は、ライダ点(LIDAR point)を用いて正確にマーク付けされる。ベロダイン・ライダの有効範囲はレーダのそれよりも短いので、車両は各マーカに対してベロダイン範囲内で駆動されると共に、該自動車におけるGPSシステムは、マーカの座標を同一の基準座標系内に維持するために使用される。同時に、各レーダからの障害物データが記録される。
レーダの基準座標系からロボットの基準座標系への変換は、以下の各式により与えられる:
xr=xccosθ+ycsinθ+tx
yr=−xcsinθ+yccosθ+ty
式中、
{xr,yr}はレーダの基準座標系における障害物位置であり、{xc,yc}は自動車の基準座標系における障害物位置であり、且つ、tx、tyおよびθは、較正パラメータである。パラメータtx、tyおよびθは、レーベンバーグ・マーカート(Levenberg-Marquardt)のアルゴリズムを用いた非線形の最小二乗近似法を用いて収集されたデータから推定される。上記最小二乗問題は以下の項の最小化として数式化される:
式中、{xi o,yi o}は、第i番目に観測されたデータ点であり、且つ、{xi e,yi e}は、上記の変換式を用いて推定される。この特定の処理から得られる較正精度は、0.01mである。
上記と一貫して、関連付け、初期化および更新、という3段階処理により追尾が実施され得る。
関連付け段階
検出された各障害物は、上記グラフ上に投影される。上記グラフに近くない障害物は、無視される。各障害物は、異なるセンサからの複数の観測値を有することがあり、これらの情報は融合される必要がある。同様に、各センサは非同期的に作動することから、単純な最近傍手法は使用され得ない。正しい時間的割当てを行うために、各観測値は、投影されると共に、現在の時刻に対してグラフ・ネットワークに沿い補正される。これらの補正済み観測値は次に、最近傍割当てを用い、目標物の現在リストに対して関連付けられる。複数の観測値は、各目標物に対する上記一群の観測値に対して割当てられる。
初期化段階:
有効な観測値に対して何らの目標物も割当てられなければ、新たな目標物が生成される。そのカルマン状態は、補正済み観測値へと初期化される。カルマン・フィルタの状態は、その障害物の、車線に沿う踏破距離、速度、および、加速度である。ベロダインのみの観測値の場合、速度は観測されないことから、それは、最初の反復値の対において、推定される。
更新段階:
各目標物は、それに対して関連付けられた独立的なカルマン・フィルタを有する。各目標物に対する上記一群の観測値から、最適観測値が選択され、且つ、完全なカルマン更新は、以下に与えられる如く実施される(定期刊行物、基礎工学、第82巻におけるアール・イー・カルマンによる“線形のフィルタリングおよび予測問題に対する新たな手法”[A new approach to linear filtering and prediction problems, Journal of Basic Engineering 82, by Kalman, R.E.]を参照):
もし、一定の所定の時的間隔にわたり、幾つかの目標物に対して観測値が得られなければ、それらは上記追尾システムから排除される。
追尾アルゴリズムに対する擬似コードは、以下に示される:
1.対応する当該観測値の時刻を備えた全ての観測値を、上記一群の観測値に割当てる。
2.各観測値に対し:
a.その観測値が上記グラフに対して十分に近いなら、その観測値を上記グラフ上に投影する。
b.上記リストにおける各軌跡に対し:
各観測値の時刻における軌跡の位置を推定する。
もし観測値が、その時刻における軌跡の位置に近いなら、該観測値を上記軌跡に対して割当てる。
もし、何らの軌跡が見出されなければ、新たな軌跡を生成し、現在の観測値をその軌跡に対して割当てる。
3.上記リスト中の各軌跡に対し:
a.その軌跡に対して割当てられた上記一群の観測値から、最適観測値を選択する。この最適値選択は、センサ精度、時間遅延などに基づき、発見的に実施され得る。
b.最適観測値の時刻に対し、カルマン・フィルタ予測(事前的)段階を行う。これにより、上記フィルタは時間的に戻し移動され得ることを銘記されたい。
c.上記観測値の真の値を用い、カルマン・フィルタ測定値の(事後的)更新を行う。
現在の時刻値に対してカルマン・フィルタ予測段階を再び実施し、上記軌跡上の現在位置を推定する。
図14から図16は、上記で論じられたアルゴリズムの種々の見地を示している。図14は、非同期的/遅延観測値を示し、その場合、円はレーダ観測値であり、正方形はライダ観測値であり、それらは処理の故に遅延しているが、最終的なグラフ追尾目標物(菱形)は正しく更新されている。図15は高速道路上での自動車の追尾を示しており、その場合、菱形は追尾目標物を示している。図16は、交差点における自動車の追尾を示しており、その場合、菱形は追尾目標物を示している。
多くの実施方式が記述された。しかし、本開示内容の精神および有効範囲から逸脱せずに種々の改変が為され得ることは理解される。例えば、開示された技術の各段階が異なる順序で実施されたとしても、または、開示されたシステムの構成要素が異なる様式で組み合わされたとしても、または、各構成要素が他の構成要素により置き換えられもしくは補足されたとしても、好適な結果が達成され得る。本明細書中に記述された機能、処理およびアルゴリズムは、本明細書中に記述された該機能、処理およびアルゴリズムを実行するプログラム・コードおよび/またはコンピュータ命令を実行すべく構成されたコンピュータ・プロセッサおよび/またはプログラム可能回路などの、ハードウェア、または、ハードウェアにより実行されるソフトウェアにおいて実施され得る。付加的に、幾つかの実施方式は、記述されたものとは同一でないモジュールもしくはハードウェア上で実施され得る。従って、他の実施方式は、権利請求され得る上記有効範囲内である。
100 処理システム
200 アルゴリズム
300 グラフ・ネットワークを生成する処理
400 障害物を検出する処理
500 障害物をグラフ・ネットワーク上に投影する処理
600 データ関連付けを実施して追尾する処理

Claims (14)

  1. 異なる第1および第2の方式を夫々有する第1および第2のセンサの内、第1センサからは第1センサ入力を、且つ、第2センサからは第2センサ入力を受信し、
    前記第1および第2センサ入力から、夫々、第1および第2の観測値を同期的に検出し、
    前記検出された第1および第2観測値をグラフ・ネットワーク上に投影し、
    前記第1および第2観測値を、前記グラフ・ネットワーク上の目標物であって、該グラフ・ネットワーク上に軌跡を有するという目標物に対して関連付け、
    前記第1および第2のセンサの特性に基づき、前記第1観測値もしくは前記第2観測値のいずれかを最適観測値として選択し、
    前記最適観測値と現在時刻とに基づいて予測を実施することにより、前記目標物の現在位置を推定するべく構成されたプロセッサを備える、車両用コントローラ。
  2. 前記第1および第2観測値が、現在追尾されている目標物の所定距離内でなければ、前記第1および第2観測値は、前記グラフ・ネットワーク上に新たな目標物を生成することにより該目標物と関連付けられる、請求項1に記載のコントローラ。
  3. 前記プロセッサは更に、前記グラフ・ネットワークが、各ノード間のリンクとして1次元車線を有する如く、該グラフ・ネットワークを道路地図および獲得された位置から生成すべく構成され、
    前記目標物の軌跡は、前記1次元車線の内の一本の1次元車線に基づく、請求項1に記載のコントローラ。
  4. 前記第1センサはライダ・センサであり且つ前記第2センサはレーダ・センサである、請求項1に記載のコントローラ。
  5. 前記目標物の前記現在位置は、カルマン・フィルタ予測処理を実施することにより推定される、請求項1に記載のコントローラ。
  6. 前記第1および第2のセンサの前記特性は、センサ・データを処理する上での時間遅延、および、センサ・データの処理により有効な障害物を検出する上での精度を含む、請求項1に記載のコントローラ。
  7. 前記目標物は、前記第1および第2のセンサによる連続的な観測値による現在位置の更新により追尾され、
    前記目標物は、所定の期間にわたり該目標物に対する観測値が観測されないとき、追尾から除外される、請求項1に記載のコントローラ。
  8. 前記検出された第1および第2観測値は、前記第1および第2センサ入力の夫々の座標系を前記車両の一般的座標系へと変換することにより、前記グラフ・ネットワーク上に投影される、請求項1に記載のコントローラ。
  9. 当該コントローラは、該コントローラのメモリ内の目標物リスト内に一群の目標物を記憶し、
    前記目標物リストは、観測値を目標物に関連付けるために照会される、請求項1に記載のコントローラ。
  10. 観測値の同期的検出は、前記グラフ・ネットワークにおける車線からの誤差の限界上もしくは限界内の点に限られる、請求項1に記載のコントローラ。
  11. 各目標物の追尾は、前記グラフ・ネットワークにおける車線からの誤差の限界上もしくは限界内の点に限られる、請求項1に記載のコントローラ。
  12. 前記検出された第1および第2観測値は、現在時刻を反映させるべく該検出された第1および第2観測値を補正し、夫々のセンサ・データの獲得時の間における時間遅延を考慮すべく前記グラフ・ネットワーク上における該第1および第2観測値の位置を調節し、結果的な観測値を前記グラフ・ネットワーク上へと投影することにより、前記グラフ・ネットワーク上に投影される、請求項1に記載のコントローラ。
  13. 夫々、異なる第1および第2の方式を各々が有する、第1センサおよび第2センサと、
    プロセッサを含むコントローラであって、該プロセッサは、
    前記第1センサからは第1センサ入力を、且つ、前記第2センサからは第2センサ入力を受信し、
    前記第1および第2センサ入力から、夫々、第1および第2の観測値を同期的に検出し、
    前記検出された第1および第2観測値をグラフ・ネットワーク上に投影し、
    前記第1および第2観測値を、前記グラフ・ネットワーク上の目標物であって、該グラフ・ネットワーク上に軌跡を有するという目標物に対して関連付け、
    前記第1および第2のセンサの特性に基づき、前記第1観測値もしくは前記第2観測値のいずれかを最適観測値として選択し、
    前記最適観測値と現在時刻とに基づいて予測を実施することにより、前記目標物の現在位置を推定するべく構成されているという、コントローラとを備える、車両システム。
  14. 異なる第1および第2の方式を夫々有する第1および第2のセンサの内、第1センサからは第1センサ入力を、且つ、第2センサからは第2センサ入力を受信する段階と、
    前記第1および第2センサ入力から、夫々、第1および第2の観測値を同期的に検出する段階と、
    前記検出された第1および第2観測値をグラフ・ネットワーク上に投影する段階と、
    前記第1および第2観測値を、前記グラフ・ネットワーク上の目標物であって、該グラフ・ネットワーク上に軌跡を有するという目標物に対して関連付ける段階と、
    前記第1および第2のセンサの特性に基づき、前記第1観測値もしくは前記第2観測値のいずれかを最適観測値として選択する段階と、
    前記最適観測値と現在時刻とに基づいて予測を実施することにより、前記目標物の現在位置を推定する段階とを有する、方法。
JP2013153217A 2012-07-24 2013-07-24 車両用コントローラ、車両システム Active JP6224370B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/556,802 2012-07-24
US13/556,802 US9255989B2 (en) 2012-07-24 2012-07-24 Tracking on-road vehicles with sensors of different modalities

Publications (2)

Publication Number Publication Date
JP2014025925A JP2014025925A (ja) 2014-02-06
JP6224370B2 true JP6224370B2 (ja) 2017-11-01

Family

ID=49912348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013153217A Active JP6224370B2 (ja) 2012-07-24 2013-07-24 車両用コントローラ、車両システム

Country Status (3)

Country Link
US (1) US9255989B2 (ja)
JP (1) JP6224370B2 (ja)
DE (1) DE102013107861A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11615627B2 (en) 2018-10-16 2023-03-28 Mitsubishi Electric Corporation Object recognition apparatus, vehicle control apparatus, object recognition method, and vehicle control method

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9097800B1 (en) * 2012-10-11 2015-08-04 Google Inc. Solid object detection system using laser and radar sensor fusion
US9915950B2 (en) * 2013-12-31 2018-03-13 Polysync Technologies, Inc. Autonomous vehicle interface system
JP6340824B2 (ja) * 2014-02-25 2018-06-13 村田機械株式会社 自律走行台車
EP3127403B8 (en) 2014-04-04 2019-04-10 Signify Holding B.V. System and methods to support autonomous vehicles via environmental perception and sensor calibration and verification
US9880056B2 (en) * 2014-06-27 2018-01-30 Tdw Delaware, Inc. System and method for non-destructive, in situ, positive material identification of a pipe
DE102014111126A1 (de) * 2014-08-05 2016-02-11 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erzeugen einer Umgebungskarte eines Umgebungsbereichs eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
US9933515B2 (en) * 2014-12-09 2018-04-03 Toyota Motor Engineering & Manufacturing North America, Inc. Sensor calibration for autonomous vehicles
DE102015201010A1 (de) * 2015-01-22 2016-07-28 Robert Bosch Gmbh Vorrichtung zum Ansteuern eines Kraftfahrzeugs
US9921307B2 (en) * 2015-01-30 2018-03-20 Toyota Motor Engineering & Manufacturing North America, Inc. Combined RADAR sensor and LIDAR sensor processing
US9555736B2 (en) 2015-04-03 2017-01-31 Magna Electronics Inc. Vehicle headlamp control using sensing and communication systems
WO2016199312A1 (ja) * 2015-06-10 2016-12-15 株式会社Doog 自律移動システム
US10054678B2 (en) * 2015-07-30 2018-08-21 Toyota Motor Engineering & Manufacturing North America, Inc. Minimizing incorrect sensor data associations for autonomous vehicles
KR101714233B1 (ko) * 2015-10-06 2017-03-08 현대자동차주식회사 도로상의 물체 검출 장치 및 그 방법
US10248119B2 (en) 2015-11-04 2019-04-02 Zoox, Inc. Interactive autonomous vehicle command controller
US20240028031A1 (en) * 2015-11-04 2024-01-25 Zoox, Inc. Autonomous vehicle fleet service and system
US9632502B1 (en) 2015-11-04 2017-04-25 Zoox, Inc. Machine-learning systems and techniques to optimize teleoperation and/or planner decisions
US9916703B2 (en) 2015-11-04 2018-03-13 Zoox, Inc. Calibration for autonomous vehicle operation
US10000124B2 (en) 2015-11-04 2018-06-19 Zoox, Inc. Independent steering, power, torque control and transfer in vehicles
US9606539B1 (en) 2015-11-04 2017-03-28 Zoox, Inc. Autonomous vehicle fleet service and system
US9958864B2 (en) 2015-11-04 2018-05-01 Zoox, Inc. Coordination of dispatching and maintaining fleet of autonomous vehicles
US10334050B2 (en) 2015-11-04 2019-06-25 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
US9804599B2 (en) 2015-11-04 2017-10-31 Zoox, Inc. Active lighting control for communicating a state of an autonomous vehicle to entities in a surrounding environment
US10496766B2 (en) 2015-11-05 2019-12-03 Zoox, Inc. Simulation system and methods for autonomous vehicles
WO2017079341A2 (en) 2015-11-04 2017-05-11 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
US10745003B2 (en) 2015-11-04 2020-08-18 Zoox, Inc. Resilient safety system for a robotic vehicle
US9701239B2 (en) 2015-11-04 2017-07-11 Zoox, Inc. System of configuring active lighting to indicate directionality of an autonomous vehicle
US9878664B2 (en) 2015-11-04 2018-01-30 Zoox, Inc. Method for robotic vehicle communication with an external environment via acoustic beam forming
US11283877B2 (en) 2015-11-04 2022-03-22 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
US9734455B2 (en) * 2015-11-04 2017-08-15 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
US9612123B1 (en) 2015-11-04 2017-04-04 Zoox, Inc. Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes
US9507346B1 (en) 2015-11-04 2016-11-29 Zoox, Inc. Teleoperation system and method for trajectory modification of autonomous vehicles
US9802661B1 (en) 2015-11-04 2017-10-31 Zoox, Inc. Quadrant configuration of robotic vehicles
US9910441B2 (en) 2015-11-04 2018-03-06 Zoox, Inc. Adaptive autonomous vehicle planner logic
US9720415B2 (en) 2015-11-04 2017-08-01 Zoox, Inc. Sensor-based object-detection optimization for autonomous vehicles
US10401852B2 (en) 2015-11-04 2019-09-03 Zoox, Inc. Teleoperation system and method for trajectory modification of autonomous vehicles
US9754490B2 (en) 2015-11-04 2017-09-05 Zoox, Inc. Software application to request and control an autonomous vehicle service
KR101795432B1 (ko) 2016-02-26 2017-11-10 현대자동차주식회사 차량 및 차량의 제어방법
US9645577B1 (en) * 2016-03-23 2017-05-09 nuTonomy Inc. Facilitating vehicle driving and self-driving
CN109791052B (zh) * 2016-09-28 2023-06-27 通腾全球信息公司 使用数字地图对点云的数据点进行分类的方法和***
US10160448B2 (en) 2016-11-08 2018-12-25 Ford Global Technologies, Llc Object tracking using sensor fusion within a probabilistic framework
WO2018101253A1 (ja) * 2016-11-29 2018-06-07 マツダ株式会社 車両制御装置
CN110023783B (zh) 2016-12-06 2023-01-17 本田技研工业株式会社 车辆周边信息获取装置以及车辆
CN109891474B (zh) * 2016-12-06 2021-10-29 本田技研工业株式会社 车辆用控制装置
WO2018154367A1 (en) * 2017-02-23 2018-08-30 Kpit Technologies Limited System and method for target track management of an autonomous vehicle
US10338594B2 (en) * 2017-03-13 2019-07-02 Nio Usa, Inc. Navigation of autonomous vehicles to enhance safety under one or more fault conditions
US10423162B2 (en) 2017-05-08 2019-09-24 Nio Usa, Inc. Autonomous vehicle logic to identify permissioned parking relative to multiple classes of restricted parking
CN109212530B (zh) * 2017-07-04 2022-03-11 阿波罗智能技术(北京)有限公司 用于确定障碍物速度的方法和装置
US10369974B2 (en) 2017-07-14 2019-08-06 Nio Usa, Inc. Control and coordination of driverless fuel replenishment for autonomous vehicles
US10710633B2 (en) 2017-07-14 2020-07-14 Nio Usa, Inc. Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles
US10599931B2 (en) 2017-08-21 2020-03-24 2236008 Ontario Inc. Automated driving system that merges heterogenous sensor data
CN107764266A (zh) * 2017-09-18 2018-03-06 千寻位置网络有限公司 室内组合导航仿真方法及***、导航装置、终端、存储器
WO2019097731A1 (ja) * 2017-11-20 2019-05-23 三菱電機株式会社 障害物認識装置および障害物認識方法
US10501085B2 (en) 2017-12-07 2019-12-10 Waymo Llc Early object detection for unprotected turns
US11022971B2 (en) 2018-01-16 2021-06-01 Nio Usa, Inc. Event data recordation to identify and resolve anomalies associated with control of driverless vehicles
KR101882483B1 (ko) * 2018-01-24 2018-07-27 엘아이지넥스원 주식회사 무인 수상정의 장애물 탐지 장치 및 방법
EP3517996B1 (en) * 2018-01-25 2022-09-07 Aptiv Technologies Limited Method for determining the position of a vehicle
DE102018205879A1 (de) 2018-04-18 2019-10-24 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Verarbeitung von Sensordaten
JP6576511B1 (ja) * 2018-05-29 2019-09-18 三菱電機株式会社 物体認識装置および物体認識方法
CN108897319A (zh) * 2018-06-23 2018-11-27 广州市柯乐名迪电子科技有限公司 基于数字几何图形的自动驾驶方法、装置及***
CN109146898B (zh) 2018-09-07 2020-07-24 百度在线网络技术(北京)有限公司 一种仿真数据量增强方法、装置以及终端
CN109143242B (zh) 2018-09-07 2020-04-14 百度在线网络技术(北京)有限公司 障碍物绝对速度估计方法、***、计算机设备和存储介质
CN109215135B (zh) * 2018-09-07 2019-11-08 百度在线网络技术(北京)有限公司 一种基于统计的障碍物位置仿真方法、装置以及终端
CN109188419B (zh) * 2018-09-07 2021-06-15 百度在线网络技术(北京)有限公司 障碍物速度的检测方法、装置、计算机设备及存储介质
CN109215136B (zh) 2018-09-07 2020-03-20 百度在线网络技术(北京)有限公司 一种真实数据增强方法、装置以及终端
WO2020129369A1 (ja) * 2018-12-17 2020-06-25 ソニーセミコンダクタソリューションズ株式会社 キャリブレーション装置とキャリブレーション方法とプログラムおよびキャリブレーションシステムとキャリブレーションターゲット
KR102135443B1 (ko) * 2019-01-28 2020-07-17 네이버랩스 주식회사 그래프 구조 기반의 이동체 위치 추적방법 및 이를 이용하는 이동체
CN109703568B (zh) 2019-02-19 2020-08-18 百度在线网络技术(北京)有限公司 自动驾驶车辆行驶策略实时学习的方法、装置和服务器
CN109712421B (zh) 2019-02-22 2021-06-04 百度在线网络技术(北京)有限公司 自动驾驶车辆的速度规划方法、装置和存储介质
US11776143B2 (en) * 2019-03-28 2023-10-03 Nec Corporation Foreign matter detection device, foreign matter detection method, and program
CN112036422B (zh) * 2019-06-04 2024-03-05 广州汽车集团股份有限公司 一种基于多传感器信息融合的航迹管理方法、***及计算机可读介质
US11214261B2 (en) * 2019-06-11 2022-01-04 GM Global Technology Operations LLC Learn association for multi-object tracking with multi sensory data and missing modalities
US10699563B1 (en) * 2019-07-12 2020-06-30 GM Global Technology Operations LLC Multi-sensor multi-object tracking
US11556000B1 (en) 2019-08-22 2023-01-17 Red Creamery Llc Distally-actuated scanning mirror
US11932306B2 (en) * 2019-09-14 2024-03-19 Honda Motor Co., Ltd. Trajectory planner
US11927674B2 (en) 2019-09-16 2024-03-12 Honda Motor Co., Ltd. System and method for providing a comprehensive trajectory planner for a person-following vehicle
CN111016891B (zh) * 2019-11-06 2022-03-22 国汽(北京)智能网联汽车研究院有限公司 一种车辆行驶的路线跟踪控制方法及装置
US11688184B2 (en) 2020-06-17 2023-06-27 Toyota Motor Engineering & Manufacturing North America, Inc. Driving automation external communication location change
US11703335B2 (en) * 2020-06-19 2023-07-18 Toyota Research Institute, Inc. Coordinating and learning maps dynamically
DE102021209783A1 (de) 2021-09-06 2023-03-09 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Bereitstellen von Daten zum Erstellen einer digitalen Karte

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT1240974B (it) 1990-07-05 1993-12-27 Fiat Ricerche Metodo e apparecchiatura per evitare la collisione di un autoveicolo contro ostacoli.
US5983161A (en) * 1993-08-11 1999-11-09 Lemelson; Jerome H. GPS vehicle collision avoidance warning and control system and method
US6393046B1 (en) * 1996-04-25 2002-05-21 Sirf Technology, Inc. Spread spectrum receiver with multi-bit correlator
GB2337386B (en) * 1996-09-09 2001-04-04 Dennis J Dupray Location of a mobile station
US6260759B1 (en) * 1998-08-11 2001-07-17 Northrop Grumman Corporation Method for tracking a target having substantially constrained movement
JP3923200B2 (ja) * 1998-10-23 2007-05-30 本田技研工業株式会社 車両の障害物検知方法
JP3866479B2 (ja) 2000-04-07 2007-01-10 株式会社デンソー 車間制御装置、記録媒体
EP1290467A4 (en) * 2000-06-08 2006-02-15 Automotive Systems Lab GENERATOR OF ROAD MAPS
US6532191B2 (en) * 2000-08-08 2003-03-11 Lockhead Martin Corporation System and method for target tracking and motion anyalysis
JP4771657B2 (ja) * 2001-08-16 2011-09-14 ヴァレオ・レイダー・システムズ・インコーポレーテッド 近接物体検出システム
US20040006424A1 (en) * 2002-06-28 2004-01-08 Joyce Glenn J. Control system for tracking and targeting multiple autonomous objects
JP3996080B2 (ja) * 2003-04-02 2007-10-24 三菱電機株式会社 目標追尾装置
US7562123B2 (en) * 2003-09-05 2009-07-14 Palo Alto Research Center Incorporated Systems and methods for distributed group formation and maintenance in geographically based networks
JP3918791B2 (ja) 2003-09-11 2007-05-23 トヨタ自動車株式会社 物体検出装置
JP4990629B2 (ja) * 2003-12-24 2012-08-01 オートモーティブ システムズ ラボラトリー インコーポレーテッド 道路曲率推定システム
US7991550B2 (en) * 2006-02-03 2011-08-02 GM Global Technology Operations LLC Method and apparatus for on-vehicle calibration and orientation of object-tracking systems
US8947531B2 (en) 2006-06-19 2015-02-03 Oshkosh Corporation Vehicle diagnostics based on information communicated between vehicles
US8229163B2 (en) * 2007-08-22 2012-07-24 American Gnc Corporation 4D GIS based virtual reality for moving target prediction
US20100235129A1 (en) 2009-03-10 2010-09-16 Honeywell International Inc. Calibration of multi-sensor system
US8482486B2 (en) 2009-04-02 2013-07-09 GM Global Technology Operations LLC Rear view mirror on full-windshield head-up display
JP5004992B2 (ja) * 2009-04-06 2012-08-22 三菱電機株式会社 ネットワークセンサ装置
JP5385009B2 (ja) 2009-05-29 2014-01-08 日立オートモティブシステムズ株式会社 車両制御装置および車両制御方法
US9292971B2 (en) * 2009-08-03 2016-03-22 The United States Of America As Represented By The Secretary Of The Navy Three-dimensional tactical display and method for visualizing data with a probability of uncertainty
EP2341352B1 (en) * 2009-12-15 2015-10-28 Université d'Aix-Marseille Method and device for measuring the angular velocity of a luminance transition zone and steering aid system for fixation and tracking a target comprising at least one such luminance transition zone
CA2803404A1 (en) * 2010-11-15 2012-05-24 Image Sensing Systems, Inc. Hybrid traffic sensor system and associated method
US9165470B2 (en) * 2011-07-25 2015-10-20 GM Global Technology Operations LLC Autonomous convoying technique for vehicles

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11615627B2 (en) 2018-10-16 2023-03-28 Mitsubishi Electric Corporation Object recognition apparatus, vehicle control apparatus, object recognition method, and vehicle control method

Also Published As

Publication number Publication date
DE102013107861A1 (de) 2014-01-30
US20140032012A1 (en) 2014-01-30
US9255989B2 (en) 2016-02-09
JP2014025925A (ja) 2014-02-06

Similar Documents

Publication Publication Date Title
JP6224370B2 (ja) 車両用コントローラ、車両システム
US11698263B2 (en) Safety and comfort constraints for navigation
US11774575B2 (en) Extended object tracking using RADAR
US11275173B2 (en) Yaw rate from radar data
Khatab et al. Vulnerable objects detection for autonomous driving: A review
US8775063B2 (en) System and method of lane path estimation using sensor fusion
EP4022342A1 (en) Estimating in-plane velocity from a radar return of a stationary roadside object
JP7506829B2 (ja) 自律車両用途のための速度推定および物体追跡
US11814044B2 (en) Resolving range rate ambiguity in sensor returns
US10777084B1 (en) Vehicle location identification
US20220205804A1 (en) Vehicle localisation
CN115375770A (zh) 计算机实现的方法、运载工具、照相机和存储介质
US20230117253A1 (en) Ego motion-based online calibration between coordinate systems
Lee et al. A geometric model based 2D LiDAR/radar sensor fusion for tracking surrounding vehicles
JP7464616B2 (ja) 速度および位置情報を使用するレーダ反射の認識
CN112519753A (zh) 车辆车道映射
JP2021081272A (ja) 位置推定装置および位置推定用コンピュータプログラム
US20230103178A1 (en) Systems and methods for onboard analysis of sensor data for sensor fusion
US20220198714A1 (en) Camera to camera calibration
Goswami Trajectory generation for lane-change maneuver of autonomous vehicles
US20220066020A1 (en) Estimating target heading using a single snapshot
CN114817765A (zh) 基于地图的目标航向消歧
Heinrich et al. Optimizing a driving strategy by its sensor coverage of relevant environment information
JP6587529B2 (ja) 運転支援装置及び運転支援方法
Mathew Radar and Vision Sensor Fusion for Vehicle Tracking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171005

R150 Certificate of patent or registration of utility model

Ref document number: 6224370

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350