JP7336604B2 - 自律ナビゲーションの間の物体回避の方法 - Google Patents
自律ナビゲーションの間の物体回避の方法 Download PDFInfo
- Publication number
- JP7336604B2 JP7336604B2 JP2022549671A JP2022549671A JP7336604B2 JP 7336604 B2 JP7336604 B2 JP 7336604B2 JP 2022549671 A JP2022549671 A JP 2022549671A JP 2022549671 A JP2022549671 A JP 2022549671A JP 7336604 B2 JP7336604 B2 JP 7336604B2
- Authority
- JP
- Japan
- Prior art keywords
- autonomous vehicle
- velocity
- time
- calculating
- velocities
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 230
- 230000033001 locomotion Effects 0.000 claims description 355
- 230000006870 function Effects 0.000 claims description 204
- 230000009471 action Effects 0.000 claims description 54
- 230000001133 acceleration Effects 0.000 claims description 38
- 230000004044 response Effects 0.000 claims description 23
- 238000001514 detection method Methods 0.000 claims description 9
- 238000012886 linear function Methods 0.000 claims description 5
- 239000000725 suspension Substances 0.000 claims description 4
- 230000003213 activating effect Effects 0.000 claims 1
- 238000002372 labelling Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 21
- 230000006399 behavior Effects 0.000 description 19
- 239000002131 composite material Substances 0.000 description 15
- 230000008859 change Effects 0.000 description 13
- 239000013598 vector Substances 0.000 description 13
- 230000006872 improvement Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 239000004567 concrete Substances 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 4
- 241001417527 Pempheridae Species 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000001934 delay Effects 0.000 description 3
- 238000009795 derivation Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000010426 asphalt Substances 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013016 damping Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000007670 refining Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000004568 cement Substances 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000005194 fractionation Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/18—Conjoint control of vehicle sub-units of different type or different function including control of braking systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
- B60W30/143—Speed control
- B60W30/146—Speed limiting
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/181—Preparing for stopping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
- B60W40/068—Road friction coefficient
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0011—Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/50—Systems of measurement based on relative movement of target
- G01S17/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/40—Coefficient of friction
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4041—Position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4042—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4043—Lateral speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/08—Predicting or avoiding probable or impending collision
- B60Y2300/095—Predicting travel path or likelihood of collision
- B60Y2300/0954—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
本出願は、2020年2月21日に出願された米国仮特許出願第62/980,131号、2020年2月21日に出願された米国仮特許出願第62/980,132号、および2020年8月11日に出願された米国仮特許出願第63/064,316号の優先権を主張するものであり、これらそれぞれの内容全体は参照により本明細書に組み込まれている。
図1に示されるように、自律ナビゲーションの間の物体回避の方法S100は、ブロックS110において、第1の時間に自律走行車において、自律走行車が完全停止するまでの停止期間を第1の時間での自律走行車の速度に基づいて推定することと、ブロックS112において、停止期間によって第1の時間からオフセットされた臨界時間を記憶することと、ブロックS120において、ほぼ第1の時間に捉えられた自律走行車の周りの視野の第1のスキャン画像において物体を検出することと、ブロックS122において、第1のスキャン画像に基づいて、自律走行車から物体までの第1の放射線に沿った物体の第1の場所および第1の半径方向速度を導出することと、を含む。方法S100は、第1の時間における物体の第1の場所、物体の第1の半径方向速度、および最大想定角速度に基づいて、ブロックS130における、第1の時間から臨界時間まで物体にとってアクセス可能な陸上領域を表現する第1の将来状態境界、および自律走行車の動作のために定められた一般物体の最大想定加速度を計算することも含む。方法S100は、ブロックS142において、第1の時間における自律走行車と閾値距離を超える将来状態境界の周囲との間の第1の距離に応答して、自律走行車における次の経路計画考慮事項から物体をミュートする(mute)ことと、ブロックS144において、閾値距離が第1の距離を超えることに応答して、物体の将来状態境界を除いて、自律走行車の周りのアクセス区間を計算することと、ブロックS140において、第1の時間から臨界時間までアクセス区間にとどまるためのナビゲーション行動を実行することと、をさらに含む。
一般的に、方法S100は、物体をその環境において検出すること、一般物体のプリロードされた最大運動想定(または一般の対立的(adversarial)物体についてのプリロードされた対立的運動制限)に基づいて、最悪速度および加速度値を物体に割り当てること、この現在の速度を前提として、現在の時間から、自律走行車が完全停止までブレーキをかけ得る時間に至るまで物体にとってアクセス可能な最大陸上領域を推定すること、および、自律走行車が、アクセス可能なこの最大陸上領域から十分遠い場合に経路計画考慮事項から物体を選択的にミュートすること、またはこの物体を考慮し、かつ将来アクセス可能なこの最大陸上領域への進入を回避するために速度および/または操舵角の調節を実行することを行うために、自律走行車(例えば、自律バス、自律乗用車)によって実行可能である。
自律走行車は、自律走行車の周りの視野における物体を表すデータを収集するように構成されるセンサ一式と、自律走行車によって実行するルートを定めるナビゲーションマップ、および車道に沿った変わらない表面の場所を表現するローカリゼーションマップを記憶するローカルメモリと、コントローラとを含むことができる。コントローラは、センサ一式およびローカリゼーションマップから収集したセンサデータに基づいて実空間における自律走行車の場所を計算すること、方法S100のブロックに従ってこれらのセンサデータにおいて検出された物体の将来状態境界を計算すること、これらの将来状態境界、自律走行車の実際の場所、およびナビゲーションマップに基づいて将来のナビゲーション行動を選ぶこと、および、これらのナビゲーション決定に従って車両内のアクチュエータ(例えば、アクセル、ブレーキ、および操舵アクチュエータ)を制御することができる。
1つの実装形態において、自律走行車は、点の集まりを含むスキャン画像を出力するセンサを含み、この場合、このスキャン画像におけるそれぞれの点は、センサ(またはより全般的には自律走行車)に対する環境における表面の位置を表し、かつセンサ(またはより全般的には自律走行車)からこの表面まで延在する放射線に沿ったこの表面の速度を指定する。
自律走行車はまた、一般物体についての所定の最悪運動想定を記憶できる。とりわけ、自律走行車は、自律走行車が動作中に遭遇する場合があり、かつ動作全体を通して遭遇する全ての物体(例えば、歩行者、乗用車、トラック、トレーラ、RV車、オートバイ、道路標識、街灯柱、信号機、電柱、建物)の将来状態を予測するためにこれらの最悪運動想定を適用し得る任意の物体の最も活動的な(または「最悪の」)運動および運動変化についての想定を記憶可能である。
方法S100のブロックS110およびS112には、第1の時間に自律走行車において、自律走行車が完全停止するまでの停止期間を第1の時間での自律走行車の速度に基づいて推定することと、停止期間によって第1の時間からオフセットされた臨界時間を記憶することとが挙げられている。一般的に、ブロックS110およびS112において、自律走行車は、自律走行車がその現在の速度に基づいて緊急停止手順を即座に開始した場合、自律走行車が完全停止し得る将来の時間および/または距離を推定する。例えば、自律走行車は、車両速度を停止期間および/または停止距離に直接変換するプリロードされた関数を実現可能である。
方法S100のブロックS120およびS122には、ほぼ第1の時間に捉えられた自律走行車の周りの視野の第1のスキャン画像において物体を検出することと、第1のスキャン画像に基づいて、自律走行車から物体までの第1の放射線に沿って物体の第1の場所および第1の半径方向速度を導出することとが挙げられている。一般的に、ブロックS120およびS122において、自律走行車は、上述されるように、ライダーセンサによって出力された新たなスキャン画像にアクセスすること、この新たなスキャン画像において前のスキャン画像では検出されていない物体を検出すること、および、この物体の確実性が高い運動特性の限定されたセット(例えば、自律走行車に対する半径方向速度)をこの新たなスキャン画像から抽出することができる。
自律走行車はまた、現在のスキャン画像における特定の物体を表現する点群を、前のスキャン画像において検出された同様の点群にリンクさせ、かつこれらの2つのスキャン画像にわたって、これらの点群とこれらが表現する物体とをリンクさせるための物体追跡技法を実現することができる。しかしながら、自律走行車が、現在のスキャン画像において検出された点群と、前のスキャン画像における同様の位置および速度での点群との一致を得られない場合、自律走行車は、現在のスキャン画像におけるこの点群を新たな物体(すなわち、現在のスキャン周期の間に自律走行車の視野に最初に入ってくる物体)としてラベル付けすることができる。
方法S100のブロックS130には、第1の時間における物体の第1の場所、物体の第1の半径方向速度、最大想定加速度、および最大想定角速度に基づいて、第1の時間から臨界時間まで物体にとってアクセス可能な陸上領域を表現する第1の将来状態境界、および自律走行車の動作のために定められた一般物体の最大想定加速度を計算することが挙げられている。一般的に、ブロックS130において、自律走行車は、現在の時間から臨界時間まで(すなわち、後続の停止期間にわたって)物体にとってアクセス可能な陸上領域の広さを計算し、かつこの近づきやすい陸上領域を物体の将来状態境界として記憶するために、物体が最初に検出された現在のスキャン画像からそのように導出された物体の限定された運動データと、物体による対立的行動についての最悪想定とをマージすることができる。
一般的に、自律走行車は、自律走行車が最初にスキャン画像におけるこの物体を検出する時に、自律走行車が、典型的には、そのように物体について計算される将来状態境界のかなり外側の距離になるように、自律走行車から比較的長い距離で比較的高い解像度の画像を捉え得る。従って、自律走行車は一般に、自律走行車が最初に物体を検出するスキャン周期の間に経路計画決定から物体をミュートしてよい。しかしながら、自律走行車はまた、後続のスキャン画像にわたってこの物体を追跡し、これらのスキャン画像からこの物体の追加の運動特性を導出し、それに応じて物体についての将来状態境界を更新し、自律走行車の並行位置、および物体のこれらの精緻化された将来状態境界に基づいて、これらの後のスキャン周期の間に物体を選択的にミュートするまたは考慮することができる。
1つの変形において、自律走行車は、検出された物体(例えば、乗用車、トラック、建物)によって不明瞭な自律走行車の周りの視野のある領域における仮想物体を定めること、最悪運動特性をこの仮想物体に割り当て、かつこの最悪運動特性に基づいてこの仮想物体についての仮想将来状態境界を定めるために上述されるのと同様の方法および技法を実現すること、および、経時的な仮想物体のあり得る運動特性の短縮範囲、およびそれに応じた、仮想物体の再計算された仮想将来状態境界に基づいて仮想物体のこれらの最悪運動特性を精緻化することができる。より具体的には、この変形において、自律走行車は、検出された物体の背後の未検出の物体の存在を予期し、かつ未検出の物体のあり得る将来状態の境界を定め、かつ、この未検出の物体に近づきがたい空間にとどまるようにするための距離ナビゲーション行動に基づいて検出された物体の背後の未検出の物体の可能性を選択的にミュートするために、上述されるのと同様の方法および技法を実現することができる。
一般的に、自律走行車は、現在のスキャン画像において検出された多くの別個の物体についての将来状態境界を計算し、これらの検出された物体のそれぞれの背後の1つまたは複数の仮想物体を定め、これらの物体のそれぞれについての仮想将来状態境界を定め、および、将来状態境界を経時的に精緻化するために、前述のプロセスの複数のインスタンスを同時に実行することができる。
自律走行車は、さらにまた、自律走行車とこれらの検出された物体および仮想物体の将来状態境界との近接度に基づいて、これらの検出された物体および仮想物体の部分集合に基づいて次のナビゲーション行動を選ぶことができる。
さらに、自律走行車は、物体のタイプを予測し、それに応じて物体の運動を予測するために物体の分類または識別に頼らない場合があるため、自律走行車は、例えば、これらの物体が同様の軌道に沿っておよび同様の速度で移動しているかのように、視野において複数の実際の物体に及ぶ点群を定めてよい。しかしながら、自律走行車は、これらの実際の物体が同様の軌道に沿っておよび/または同様の速度でもはや移動していない時まで、この「グループ化された物体」に対する将来状態境界を計算、精緻化、および回避するために前述の方法および技法を実現することができ、この時、自律走行車は、上述されるように、現在のスキャン周期においてこれらの物体を区別すること、運動特性を前のグループ化された物体からこれらの別個の物体のそれぞれに移すこと、次いで、これらの物体のそれぞれについての将来状態境界を計算することができる。
図2に示される方法S100の1つの変形は、第1のスキャン周期で、ブロックS104において、第1の時間において自律走行車上のセンサによって捉えられたデータを含んでいる第1のスキャン画像にアクセスすることと、ブロックS120において、自律走行車に近接する視野において物体を表現する第1のスキャン画像における第1の点群を識別することであって、第1の点群におけるそれぞれの点は、センサから物体上の表面までの第1の範囲値、センサに対する物体上の表面の第1の方位角位置、およびセンサに対する物体の表面の第1の半径方向速度を含む、第1の点群を識別することと、ブロックS122において、第1の点群における点の第1の半径方向速度と第1の方位角位置との間の第1の相関関係を計算することと、ブロックS122において、第1の相関関係に基づいて、第1の時間において物体のあり得る接線速度と物体のあり得る角速度とを関連付ける第1の関数を計算することと、を含む。方法S100のこの変形は、第2のスキャン周期で、ブロックS104において、第2の時間においてセンサによって捉えられたデータを含んでいる第2のスキャン画像にアクセスすることと、ブロックS120において、視野における物体を表現する第2のスキャン画像における第2の点群を識別することと、ブロックS122において、第2の点群における点の第2の半径方向速度と第2の方位角位置との間の第2の相関関係を計算することと、ブロックS122にいて、第2の相関関係に基づいて、第2の時間において物体のあり得る接線速度と物体のあり得る角速度とを関連付ける第2の関数を計算することと、を同様に含む。方法S100のこの変形は、ブロックS124において、第1の関数および第2の関数の交点に基づいて、第2の時間において、自律走行車に対する、物体の第2の接線速度および物体の第2の角速度を推定することをさらに含む。
一般的に、この変形において、自律走行車は、自律走行車上のセンサによって出力されるスキャン画像における物体を表現する点群の特性に基づいて、この視野における物体の接線速度と角速度との間の関係を導出し、物体の測定された半径方向速度、および物体の接線速度と角速度との間のこの導出された関係に基づいて、この物体のあり得る現在の運動の境界をさらに定め、物体のあり得る現在の運動、および地上物体の運動制限想定に基づいてこの物体について計算された将来状態境界をさらに精緻化する。
図2に示される1つの実装形態において、自律走行車上のセンサは、第1の時間T0において第1のスキャン周期を実行し、かつ、自律走行車の周りの視野全体を通して、点の集まり(例えば、小さな表面、エリア)の半径方向速度、距離、および角度位置を含む第1のスキャン画像を返す。自律走行車はさらにまた、視野における別個の物体に対応する点の群(または「クラスタ」)を識別するために上述される方法および技法を実現し、かつ、この群における点の半径方向速度の中心傾向の測度に基づいてT0における物体の半径方向速度Vrad、0を計算する。例えば、自律走行車は、中心傾向のこの測度を、この群における点の半径方向速度の算術平均として計算することができる。同様に、自律走行車は、群における点の最大方位角位置と最小方位角位置との間の差異、すなわち、点群の半径方向長さに基づいて(例えば、等しい)T0における物体の第1の半径R0を計算することができる。
この実装形態において、自律走行車はまた、Vrad、0と組み合わせて、上述される最大物体速度想定に等しいまたはこれを下回る最大総速度を生じさせるVtan、0およびω0の範囲を計算し、かつ、Vtan、0およびω0の値のこの範囲に線L0の境界を定めることができる。自律走行車は、さらにまたは代替的には、図2に示されるように、上述される地上物体の最大接線および角速度想定に対して線L0の境界を定めることができる。
自律走行車はさらにまた、上述されるように、物体のこれらのあり得る相対速度または絶対速度、および最大物体加速度想定に基づいて物体の将来状態境界を計算し、かつそれに応じて、この軌道を選択的に調整するために、上述される方法および技法を実現することができる。
自律走行車はさらにまた、次のスキャン周期の間にセンサによって出力された点の、半径方向速度、距離、および角度位置の次のセットに基づいて前述のプロセスを繰り返すことができる。
この変形において、自律走行車に対する物体の接線速度Vtanおよび角速度ωは、T0における第1のスキャン周期とT1における第2のスキャン周期との間で変化し得、これによって、時間T1単位で線L0内の(追加の)誤差が生じ得る。この誤差の大きさは、T0とT1との間の時間オフセットに関連している場合があり、従って、センサのサンプリングレートの関数であり得る。
図5に示される同様の実装形態において、自律走行車は、第1のスキャン画像から導出された第1の点群における点の第1の方位角位置に対する第1の半径方向速度による第1の線形傾向線を計算すること、第1の線形傾向線の第1の傾斜に基づいて第1の時間における物体の第1の接線速度と物体の第1の角速度との間の第1の相関関係を計算すること、ブロックS126において、第1の線形傾向線からの第1の点群における点の第1の半径方向速度の偏差に基づいて第1の線形傾向線の第1の誤差を特徴付けること、第1の相関関係に基づいて第1の時間における自律走行車に対する物体のあり得る接線速度と物体のあり得る角速度とを関連付ける第1の線を計算すること、第1の誤差に基づいて第1の線の第1の幅を計算すること、および第1の関数において第1の線および第1の線の第1の幅を表現することができる。例えば、自律走行車は、群におけるそれぞれの点から第1の線形傾向線までの最小距離の二乗和の平方根に比例する、第1の誤差、ひいては第1の線の幅を計算することができる。第1の関数は、従って、第1の時間における物体の、第1の接線速度および第1の角速度のあり得る組み合わせを含む2次元楕円を表現することができる。
自律走行車は、さらにまた、上述されるように、物体のこれらのあり得る相対速度または絶対速度、および所定の運動制限想定に基づいて物体の将来状態境界を計算し、かつそれに応じてこの軌道を選択的に調整するために、上述される方法および技法を実現することができる。
さらにまた、上述されるように、自律走行車は、ブロックS140において、臨界時間の前に第2の将来状態境界への進入を回避するための第2のナビゲーション行動を選ぶことができる。
自律走行車はさらにまた、第3の時間T2においてセンサによって出力された第3のスキャン画像において追跡された、同じ物体と関連付けられた点群の、平均半径方向速度Vrad、2、傾斜S2、および半径R2に基づいて第3の関数F2を計算し、関数F2に基づいて第3の線L2を計算し、次いで、T2における物体のあり得るVtan、2およびω2の値を表現する、(T0からT2までの時間オフセットに基づくエラーバーを有する)第1の線L0、(T1からT2までの時間オフセットに基づくエラーバーを有する)第2の線L1、および、第3の線L2の交点を計算するために、前述の方法および技法を繰り返すことができる。
上述されるように、自律走行車は、同様の範囲値、方位角値、仰角値、および同様の半径方向速度などを含む、近接度によってスキャン画像における点をグループ化することができる。第1のスキャン画像において検出されるそれぞれの点群について、自律走行車は、点群によって表される物体の線運動および角運動を表現する関数を計算することができる。自律走行車は、さらにまた、後続のスキャン画像に対してこのプロセスを繰り返すこと、第1のスキャン画像における点群を第2のスキャン画像における点群とリンクさせるための物体追跡技法を実現すること、および、第1のスキャン画像および第2のスキャン画像から導出されたこれらの点群についての第1の関数および第2の関数の対の交点に基づいて、それぞれの物体についての運動予測を精緻化することができる。
1つの変形において、自律走行車は、スキャン周期の間に、異なる視点で自律走行車の周りの視野における表面を表現する並行ポイントクラウドを出力する複数のオフセットされたセンサを含む。この変形において、自律走行車は、1つのスキャン周期の間にこれらのセンサによって出力される並行ポイントクラウドにおいて単独の物体を表現する共通空間の物体群についての関数および線の対を計算し、これらの線の交点を計算し、これらの交点に基づいて物体の接線速度および角速度を推定するために、前述の方法および技法を実行することができる。
図3A、図3B、および図3Cに示される方法S100の1つの変形は、第1の時間において捉えられた第1のスキャン画像における物体を表現する第1の点群における点の、第1の半径方向速度、第1の方位角位置、および第1の仰角位置による第1の最良適合面を計算することと、第2の時間において捉えられた第2のスキャン画像における物体を表現する第2の点群における点の、第2の半径方向速度、第2の方位角位置、および第2の仰角位置による第2の最良適合面を計算することと、第3の時間において捉えられた第3のスキャン画像における物体を表現する第3の点群における点の、第3の半径方向速度、第3の方位角位置、および第3の仰角位置による第3の最良適合面を計算することと、を含む。
一般的に、上述される方法S100は、3自由度(または「3DOF」)における物体の運動を特徴付けるために自律走行車によって実行可能である。しかしながら、この変形において、自律走行車は、6自由度(または「6DOF」)における物体の運動を特徴付けるために同様の方法および技法を実現することができる。
例えば、自律走行車は、物体を表現する第1のスキャン画像における点群を分離し、かつ、これらの点に含まれている速度(すなわち、半径方向速度)範囲値、方位角値、および仰角値に基づいて、これらの点を3次元空間(すなわち、半径方向速度、方位角、および仰角の空間)に投影するために、上述される方法および技法を実現することができる。自律走行車は、さらにまた、第1の点群における点の第1の半径方向速度の中心傾向(例えば、平均)の第1の測度に基づいて第1の時間における自律走行車に対する物体の第1の半径方向速度を計算すること、第1の点群における点の第1の方位角および仰角位置の中心傾向(例えば、平均)の第1の測度に基づいて第1の時間における自律走行車に対する物体の第1の位置を計算すること、および、物体の第1の位置から自律走行車に戻る第1の半径方向ベクトルを計算することができる。
この変形では、自律走行車は、最良適合面の幅(または「厚さ」)を計算するために、上述されるのと同様の方法および技法を実現することができる。例えば、自律走行車は、群におけるそれぞれの点から最良適合面までの(3次元の)最小距離の二乗和平方根に比例するスキャン画像についてのそれぞれの最良適合面に対する誤差を計算することができる。自律走行車はさらにまた、この誤差に基づいてこの平面の厚さを計算することができる、あるいはこの物体について計算された対応する関数においてこの誤差を表現することができる。この関数は従って、スキャン周期中の物体の接線速度、ヨー速度、およびピッチ速度のあり得る組み合わせを含んでいる3次元楕円体を表現することができる。
さらにまたは代替的には、3つの連続したスキャン周期にわたって第1の関数、第2の関数、および第3の関数を計算後、自律走行車は、第1の関数および第2の関数の交点に表される物体のあり得る接線方位角速度、接線仰角方向速度、ヨー速度、ピッチ速度、およびロール速度の第1のセットを計算すること、これらのあり得る接線方位角速度、接線仰角方向速度、ヨー速度、ピッチ速度、およびロール速度、ならびに所定の運動制限想定のセットと適合する物体の最悪運動を計算すること、第1のスキャン周期から第3のスキャン周期までの時間にわたる物体のこの最悪運動を積分すること、および、第1の最良適合面の厚さ、ひいては第1の関数によって表される誤差としてこの値を記憶することができる。第1の関数は、従って、第1のスキャン周期の間の物体の接線速度、ヨー速度、およびピッチ速度のあり得る組み合わせを含んでいる3次元楕円体を表現することができる。
上述されるように、並行スキャン画像を出力する複数のオフセットされたセンサを含む自律走行車の変形において、自律走行車は、物体を示す複数の並行スキャン画像から6自由度におけるこの物体の運動を表現する複数の関数を計算し、次いで、これらの関数の交点に基づいて6自由度における物体の運動を導出するために、前述の方法および技法を実行することができる。
さらに、自律走行車は、自律走行車によって捉えられた複数の並行または連続したスキャン画像から6自由度における複数の物体の運動を導出するために、方法のこの変形の複数のインスタンスを同時に実行することができる。
この変形の1つの例において、自律走行車は、道路車両(例えば、乗用車、トラック)の側面を示すスキャン画像を捉える。自律走行車は、近接度に基づいてスキャン画像におけるこの道路車両を示す点をグループ化するために、上述される方法および技法を実現する。しかしながら、道路車両が移動している場合(すなわち、この車輪速度が非ゼロである場合)、道路車両の本体は、自律走行車に対する最小のまたはゼロに等しい接線仰角方向速度およびピッチ速度を示し得るが、道路車両の車輪は非ゼロの接線仰角方向速度およびピッチ速度を示し得る。従って、道路車両の本体に対応するこの群における点の第1の部分集合によって表される半径方向速度は、道路車両の車輪に対応するこの群における点の第2の部分集合によって表される半径方向速度と適合しない場合がある。
さらに、自律走行車がそのように6自由度における道路車両の複数の要素の相対運動または絶対運動を導出すると、自律走行車は、これらの絶対または相対総線速度が上述される所定の速度区別閾値内にある場合など、これらの線運動が適合する場合、これらの別個の要素を1つの合成物体(例えば、1つの「剛体」)に再グループ化するために、上述されるものと同様の方法および技法を実現することができる。
さらに、自律走行車は、この運動特性に基づいて個々の物体のタイプを分類することができる。
図4に示される方法S100の1つの変形は、第1のスキャン周期で、ブロックS104において、第1の時間において自律走行車上のセンサによって捉えられたデータを含んでいる第1のスキャン画像にアクセスすることと、ブロックS120において、自律走行車に近接する視野において物体を表現する第1のスキャン画像において第1の点群を識別することであって、第1の点群におけるそれぞれの点は、自律走行車に対する物体上の表面の第1の位置、およびセンサに対する物体の表面の第1の半径方向速度を含む、第1の点群を識別することと、ブロックS122において、第1の点群における点の第1の半径方向速度の中心傾向の第1の測度に基づいて、第1の時間における自律走行車に対する物体の第1の半径方向速度を計算することと、ブロックS170において、物体の第1の半径方向速度に垂直である第1の接線方向に沿った第1の時間における物体の運動の不確実性の第1の方向性を特徴付けることと、を含む。方法S100のこの変形はまた、ブロックS172において、第1の時間における自律走行車の運動に基づいて、第1の時間の後に続く第2の時間において物体の運動の不確実性の予測される第2の方向性を計算することと、ブロックS142において、不確実性の第2の方向性が不確実性の第1の方向性と異なることに応答して、第2の時間において自律走行車による物体回避についての制動考慮事項から物体をミュートすることとを含む。
一般的に、前述の変形において、自律走行車は、3自由度における物体の総運動を導出するための2つのスキャン周期、または6自由度における物体の総運動を導出するための3つのスキャン周期など、物体の特定の絶対または相対総運動を導出するために複数のスキャン周期を必要とする場合がある。さらに、自律走行車によって計算されたこれらのスキャン周期にわたる物体のあり得る絶対運動または相対運動の範囲は高い場合があり、それによって、自律走行車に対する物体の半径方向位置がこれらのスキャン周期にわたって比較的安定したままである場合、物体の真の運動の低い確実性をもたらす場合があり、この逆もまた同様である。
一般的に、現在のスキャン周期の間の物体によって最初に検出された物体は、現在のスキャン周期の間に自律走行車によって計算された関数を満たし、かつ所定の運動制限想定によって規定された最大接線および角速度想定の範囲内にある接線速度および角速度の任意の組み合わせで移動している場合がある。例えば、物体は、自律走行車の経路内に非常に急速に移動している場合がある、または自律走行車および物体が両方共交差点に近づいている間など、自律走行車を回避するためにブレーキをかけている場合がある。現在のスキャン画像においてこの物体を表現する点に含まれている半径方向速度は、(例えば、おおよそ小さい角度により)単独の測定方向に近いため、物体の特有の接線速度および角速度を解消するのには不十分な情報を含む場合がある。
1つの実装形態において、自律走行車は、第1のスキャン画像にアクセスし、第1のスキャン画像において第1の時間で物体を検出し、第1の半径方向速度、および第1のスキャン周期の間の物体の接線速度と角速度とを関連付ける第1の関数を計算し、物体の第1の将来状態境界を計算するために、上述される方法および技法を実現する。
さらにまた、不確実性の予測される第2の方向性が現在のスキャン周期での不確実性の第1の方向性と異なる場合、自律走行車は、次のスキャン周期の間の物体の運動の不確実性の低下を予測し、かつ自律走行車の運動の変化がないことを確認することができる。自律走行車はまた、物体の運動の不確実性の第1の方向性と第2の予測される方向性との間の角度に基づいて(またはこれに比例して)次のスキャン周期の際に物体の運動の確実性の予測される改善の規模を特徴付けることができる。
自律走行車は、さらにまたは代替的には、不確実性の第1の方向性が、自律走行車の現在の場所より前に閾値距離(例えば、30メートル、3秒、または自律走行車の停止期間)以内などで、自律走行車の現在の軌道を交差する場合に、次のスキャン周期の間の物体の運動の不確実性の予測される第2の方向性を計算するためにこのプロセスを実行することができる。
自律走行車は、自律走行車の動作の後に続く10のスキャン周期にわたって、または該動作の後に続く2秒にわたってなど、複数の将来のスキャン周期にわたって、物体の運動の不確実性の方向性、ひいては物体の運動の確実性における改善を予測するために、前述のプロセスを実行することもできる。それ故に、自律走行車は、複数の後続のスキャン周期にわたって物体回避考慮事項から物体をミュートすることを選ぶことができるが、これは、自律走行車が、これらの複数の後続のスキャン周期にわたって、物体の運動の不確実性の方向性の変化、ひいては物体の運動の確実性における改善を予測するからである。さらにまたは代替的には、自律走行車は、複数の後続のスキャン周期にわたって、物体の運動の不確実性の方向性の変化、ひいては物体の運動の確実性における改善を生じさせることになる自律走行車によるナビゲーション行動を予測(または「モデル化」)し、次いで、物体の運動のこの確実性を改善するためにこれらのスキャン周期にわたってこのようなナビゲーション行動を実行することができる。
図5に示される方法S100の同様の変形は、自律走行車において第1のスキャン周期で、ブロックS104において、第1の時間において自律走行車上のセンサによって捉えられたデータを含んでいる第1のスキャン画像にアクセスすることと、ブロックS120において、自律走行車に近接する視野において物体を表現する第1のスキャン画像における第1の点群を識別することと、ブロックS126において、第1の点群に基づいて第1の時間における物体の第1の運動を特徴付けることと、を含む。方法S100のこの変形はまた、自律走行車において第2のスキャン周期で、ブロックS104において、第1の時間の後に続く第2の時間においてセンサによって捉えられたデータを含んでいる第2のスキャン画像にアクセスすることと、ブロックS120において、物体を表現する第2のスキャン画像における第2の点群を識別することと、ブロックS126において、第2の点群および第1の運動に基づいて第2の時間における物体の第2の運動を特徴付けることと、を含む。方法S100のこの変形は、ブロックS180において、第2の時間における物体の第2の運動の第2の不確実性を特徴付けることと、ブロックS182において、第2の時間における物体の第2の運動、および第2の時間における自律走行車の運動に基づいて、第2の時間の後に続く第3の時間における物体の第3の運動の予測される第3の不確実性を計算することと、予測される第3の不確実性が第2の不確実性を下回ることに応答して、ブロックS142において、第2の時間において自律走行車による物体回避についての制動考慮事項から物体をミュートすることと、をさらに含む。
一般的に、この変形において、自律走行車は、上述されるように、次のスキャン周期の間の物体の運動の不確実性の予測される次の方向性を計算し、(例えば、物体の運動の不確実性の現在の方向性および予測される次の方向性の直交性に比例する)将来の物体の運動の確実性における改善の規模を予測するために、物体の運動の不確実性の現在の方向性と予測される次の方向性とを比較し、次いで、自律走行車が将来の物体の運動の確実性における(意味のある重要な)改善を予測する場合に、物体の運動の低い確実性に応答して現在の時間において物体を回避するためのナビゲーション行動を選択的に遅延させることによって、自律走行車の運動の変化を低減し、かつ乗員の乗り心地を改善するために、上述されるものと同様の方法および技法を実現することができる。
より具体的には、自律走行車が3自由度における物体の運動を特徴付ける上述の変形において、自律走行車は、第1のスキャン画像においてこの物体を表現する点の半径方向速度に基づいて物体の運動を表現する第1の関数を計算し、第1のスキャン周期の間に捉えられた第1のスキャン画像において物体を最初に検出する際に物体の第1の将来状態境界を計算し、自律走行車が現在物体の第1の将来状態境界の外側に位置していることを検証するために、上述される方法および技法を実現することができる。自律走行車はさらにまた、次のスキャン周期の間の物体の運動を表現する第2の関数を予測するために上述される方法および技法を実現することができる。例えば、自律走行車は、第1の半径方向速度、および第1のスキャン周期の間の物体の運動を表す第1の関数、一般物体の所定の運動制限想定、ならびに第1のスキャン周期から次のスキャン周期までの時間差にわたる積分に基づいて、第2のスキャン周期の間の物体の(絶対または相対)運動を予測することができる。自律走行車はさらにまた、次のスキャン画像において物体を表現する点の半径方向速度および方位角位置の勾配を予測すること、これらの方位角位置での半径方向速度のこの勾配に基づいて次のスキャン周期の間の物体のあり得る接線速度および角速度を表現する予測される第2の関数を計算すること、および、第1の関数および予測される第2の関数の和によって除算した交点を計算することができる。自律走行車はさらにまた、第1の関数および予測される第2の関数の和によって除算したこの交点に反比例する、情報利得、ひいては、物体の運動の確実性における改善を予測することができる。
自律走行車が6自由度における物体の運動を特徴付ける上述される変形において、自律走行車は、次のスキャン周期の間の物体の運動の不確実性を特徴付けるために、同様の方法および技法を実現することができる。
さらにまた、上述されるように、自律走行車は、自律走行車の現在の場所が閾値距離を上回って物体に対して計算された現在の将来状態境界の外側にある場合、および、自律走行車が、具体的には自律走行車の現在の軌道の方向などにおいて、物体の運動の不確実性における改善を予測する場合、少なくとも次のスキャン周期まで自律走行車による物体回避についての制動考慮事項から(またはより一般的には反動的なナビゲーション行動から)物体をミュートすることができる。
代替的には、この変形において、自律走行車は、上述されるように、将来のスキャン周期の間の物体の運動の不確実性を改善(すなわち、低減)し得る物体についての運動データを捉えるように、この軌道を改変するためのナビゲーション行動を選ぶことができる。
自律走行車は、自律走行車の動作の後に続く10のスキャン周期にわたって、または該動作の後に続く2秒にわたってなど、複数の将来のスキャン周期にわたって、物体の運動の不確実性を予測するために前述のプロセスを実行することもできる。それ故に、自律走行車は、複数の後続のスキャン周期にわたって物体回避考慮事項から物体をミュートすることを選ぶことができるが、これは、自律走行車が、これらの複数の後続のスキャン周期にわたって物体の運動の不確実性における不十分な改善を予測するからである。さらにまたは代替的には、自律走行車は、複数の後続のスキャン周期にわたる物体の運動の不確実性における改善を生じさせることになる、自律走行車によるナビゲーション行動を予測(または「モデル化」)し、次いで、物体の運動のこの確実性を改善するためにこれらのスキャン周期にわたってこのようなナビゲーション行動を実行することができる。
図6に示される同様の変形において、自律走行車は、自律走行車の周りの視野のスキャン画像(例えば、3D速度がアノテートされたポイントクラウド)において物体を検出し、このスキャン画像からこの物体についての低不確実性運動データ(例えば、自律走行車に対する半径方向速度)を抽出し、現在自律走行車には利用不可能であるが、自律走行車が、自律走行車と物体との間の将来の衝突を生じさせる場合がある最悪の物体運動を検証することを可能にしてよい、物体の臨界運動データを識別し、自律走行車の現在の速度および物体のこのような最悪運動を前提として、自律走行車がこれらの臨界運動データにアクセスすることになる時を予測するために、方法S100のブロックを実行する。自律走行車はさらにまた、依然、自律走行車がこの物体と衝突する前に完全停止までブレーキをかけることを可能にする(例えば、いずれのこのような衝突も完全に物体側に責任があり自律走行車には責任がない場合があるように)自律走行車が、未来時間において物体のこれらの臨界運動データにアクセスすることになることを予測することに応答して、この物体についての衝突回避行動(例えば、減速、停止)の実行を選択的に遅延させることができる。
一般的に、自律走行車は、自律走行車から物体まで延在する半径方向における並進、半径方向に垂直な水平接線方向における並進、および物体のヨー軸を中心とした回転など、3自由度でのこの視野において検出された物体の運動を特徴付けることができる。しかしながら、上述されるスキャン画像における点は、視野における物体の1D運動観察(すなわち、放射軸に沿った距離レート)を含み得る。上述されるように、自律走行車は、スキャン画像における自律走行車からの同様の距離で表現される点のクラスタを分離すること、このスキャン画像における点にわたる1D運動観察と一致した2D運動(例えば、自律走行車に対する半径方向速度および物体を中心としたヨーレート)を補間すること、よって、この点のクラスタを視野における1つの物体と関連付けることができる。従って、自律走行車は、物体の半径方向速度(すなわち、自律走行車から物体まで延在する放射線に沿った物体の速度)、およびスキャン画像からの物体のヨーレートを導出することができる。
一般的に、自律走行車は、所定の運動制限想定によって規定される、物体の測定された半径方向速度および一般物体の最大速度を、現在の時間における物体の多くの(または全ての)あり得る速度のセットを表現する速度不確実性境界に融合するために、上述される方法および技法を実現することができる。
一般的に、自律走行車は、物体の速度不確実性境界に含まれている物体の特定の速度が、自律走行車がこの現在の軌道に沿い続ける場合に自律走行車との衝突を引き起こすことになる未来時間を予測することができる。
一般的に、自律走行車は、現在の時間と臨界時間との間に自律走行車に近づきやすい物体運動データを予測し、かつこれらの追加の物体運動データによって物体の運動の不確実性がどのように低減され得るのかを予測することができる。
1つの実装形態において、自律走行車は、自律走行車の現在の経路および速度に基づいて臨界時間における自律走行車の場所を推定し、そのように、物体の現在の場所、および現在のスキャン周期の間に計算された自律走行車の最悪速度に基づいて臨界時間における物体の場所を推定し、臨界時間における自律走行車および物体のこれらの推定される場所に基づいて、臨界時間において自律走行車から物体までの第2の半径方向(また方位角)を計算する。自律走行車は、自律走行車の現在の経路および速度に基づいて、物体の現在の場所に基づいて、およびこの時間帯にわたる物体の最悪速度を想定して、現在の時間から臨界時間までの自律走行車から物体までの半径方向の範囲を推定するために、同様の方法および技法を実現することができる。
自律走行車はさらにまた、自律走行車および物体が臨界時間においてこれらの推定された場所に到達すると想定して、自律走行車が臨界時間までには収集し得る物体運動データに基づいて、物体の将来速度不確実性境界を計算するために、上述される方法および技法を実現する。
自律走行車はさらにまた、例えば、臨界時間における自律走行車に対する接線方向における(すなわち、半径方向に垂直である)物体のあり得る速度の範囲に比例する、臨界時間における物体の運動の不確実性を特徴付けることができる。さらにまた、臨界時間における物体の速度のこの予測される不確実性が閾値不確実性を下回る場合(例えば、物体のあり得る接線速度の範囲が毎秒4メートルを下回る場合)、自律走行車は、ブロックS142において、現在のスキャン周期の間の経路計画決定から物体をミュートすることができる、あるいは、物体に反応するいずれの衝突回避行動も未来時間まで遅延させることを選ぶことができる。
さらに、自律走行車は、物体のタイプを予測し、それに応じて、物体の運動を予測するために、物体の分類または識別に頼らない場合があるため、自律走行車は、これらの物体が同様の軌道に沿って同様の速度で移動している場合など、視野における複数の実際の物体に及ぶ点群を定め得る。しかしながら、自律走行車は、これらの実際の物体がもはや同様の軌道に沿っておよび/または同様の速度で移動しなくなる時までこの「グループ化された物体」についての将来状態境界を計算、精緻化、および回避するために前述の方法および技法を実現することができ、この時、自律走行車は、上述されるように、現在のスキャン周期においてこれらの物体を区別すること、運動特性を前のグループ化された物体からこれらの別個の物体のそれぞれに移すこと、次いで、これらの物体のそれぞれについての将来状態境界を計算することができる。
Claims (38)
- 自律走行車の自律ナビゲーションの方法であって、
公道上を動作している一般物体の接線速度および角速度についての所定の運動制限想定のセットにアクセスすることと、
第1のスキャン周期で、
第1の時間において前記自律走行車上のセンサによって捉えられたデータを含んでいる第1のスキャン画像にアクセスすること、
前記自律走行車の視野において第1の物体を表現する前記第1のスキャン画像における第1の点群を識別することであって、前記第1の点群におけるそれぞれの点は、
前記センサから前記第1の物体上の表面までの第1の範囲値、
前記センサに対する前記第1の物体上の前記表面の第1の方位角位置、および
前記センサに対する前記第1の物体の前記表面の第1の半径方向速度
を含む、第1の点群を識別すること、
前記第1の点群における点の第1の半径方向速度と第1の方位角位置との間の第1の相関関係を計算すること、
前記第1の相関関係に基づいて、前記第1の時間における前記第1の点群の半径方向速度に整合する、前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度との組み合わせの第1のセットに関連する第1の関数を計算すること、および、
前記第1の点群における点の第1の半径方向速度に基づいて前記第1の時間における前記第1の物体の第1の半径方向の総速度を計算すること
を行うことと、
前記第1の時間における前記自律走行車の第1の速度に基づいて、前記自律走行車が完全停止するまでの第1の停止期間を推定することと、
前記停止期間によって前記第1の時間からオフセットされた第1の臨界時間を計算することと、
前記第1の臨界時間に前記第1の物体にとってアクセス可能な第1の陸上領域を表現する第1の将来状態境界を、
前記第1の関数によって定められる、前記第1の時間における前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度との組み合わせの前記第1のセット、
前記第1の半径方向の総速度、ならびに
前記所定の運動制限想定のセット
に基づいて計算することと、
前記第1の臨界時間の前の前記第1の将来状態境界への進入を回避するための第1のナビゲーション行動を選ぶことと、を含む、方法。 - 前記第1の物体の前記第1の将来状態境界を除いて、前記自律走行車の周りのアクセス区間を計算することをさらに含み、
前記第1のナビゲーション行動を選ぶことは、前記第1の時間における前記自律走行車の第1の場所が、前記第1の将来状態境界の周辺の閾値距離の範囲内にあることに応答して、前記アクセス区間の方へナビゲートするために前記第1のナビゲーション行動を実行することを含む、請求項1に記載の方法。 - 前記第1のナビゲーション行動を選ぶことは、前記第1の時間における前記自律走行車の第1の場所が、前記第1の将来状態境界の範囲内にあることに応答して、前記自律走行車を減速させるための制動行動を実行することを含む、請求項1に記載の方法。
- 前記第1のナビゲーション行動を選ぶことは、前記第1の時間における前記自律走行車の第1の場所が、前記第1の将来状態境界の外側にあることに応答して、前記自律走行車の速度を維持することを含む、請求項1に記載の方法。
- 前記第1のスキャン周期の後に続く第2のスキャン周期で、
第2の時間において前記センサによって捉えられたデータを含んでいる第2のスキャン画像にアクセスすること、
前記自律走行車の視野において前記第1の物体を表現する前記第2のスキャン画像において第2の点群を識別すること、
前記第2の点群における点の第2の半径方向速度と第2の方位角位置との間の第2の相関関係を計算すること、
前記第2の相関関係に基づいて、前記第2の時間における前記第2の点群の半径方向速度に整合する前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度との組み合わせの第2のセットに関連する第2の関数を計算すること、および
前記第2の点群における点の第2の半径方向速度に基づいて前記第2の時間における前記第1の物体の第2の半径方向の総速度を計算することと、
前記第1の関数および前記第2の関数の交点に基づいて、前記第2の時間における前記第1の物体の第2の接線速度および前記第1の物体の第2の角速度を推定することと、
前記自律走行車が完全停止するまでの第2の停止期間を前記第2の時間での前記自律走行車の第2の速度に基づいて推定することと、
前記第2の停止期間によって前記第2の時間からオフセットされた第2の臨界時間を計算することと、
前記第2の臨界時間に前記第1の物体にとってアクセス可能な第2の陸上領域を表現する第2の将来状態境界を、
前記第1の物体の第2の接線速度、
前記第1の物体の前記第2の角速度、
前記第2の半径方向の総速度、および
前記所定の運動制限想定のセット
に基づいて計算することと、
前記第1の臨界時間の前の前記第2の将来状態境界への進入を回避するための第2のナビゲーション行動を選ぶことと、をさらに含む、請求項1に記載の方法。 - 前記第1の将来状態境界を計算することは、
路面に平行な面から20度以内の平面にあり、
第1の領域寸法によって特徴付けられる、
前記第1の将来状態境界を計算することを含み、
前記第2の将来状態境界を計算することは、
前記平面内にあり、
前記第1の領域寸法を下回る第2の領域寸法によって特徴付けられる、
前記第2の将来状態境界を計算することを含む、請求項5に記載の方法。 - 前記第1の相関関係を計算することは、
前記第1の点群における点の第1の方位角位置に対する第1の半径方向速度による第1の線形傾向線を計算することと、
前記第1の時間における前記第1の物体の第1の接線速度と前記第1の物体の第1の角速度との間の関係を表現する、前記第1の線形傾向線の第1の傾斜に基づいて前記第1の相関関係を計算することと、を含む、請求項1に記載の方法。 - 前記第1の線形傾向線からの前記第1の点群における点の第1の半径方向速度の偏差に基づいて前記第1の線形傾向線の第1の誤差を特徴付けることをさらに含み、
前記第1の関数を計算することは、
前記第1の相関関係に基づいて前記第1の時間における前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度との組み合わせの前記第1のセットに関連する第1の線を計算することと、
前記第1の誤差に基づいて前記第1の線の第1の幅を計算することと、を含み、
前記第1の将来状態境界を計算することは、前記第1の幅の前記第1の線によって表現される、前記第1の時間における前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度との組み合わせの前記第1のセットに基づいて、前記第1の将来状態境界を計算することを含む、請求項7に記載の方法。 - 前記第1のスキャン画像にアクセスすることは、
前記自律走行車に装着されており、
前記センサに対する前記自律走行車の視野内の表面の位置および速度を表現するスキャン画像を生成するように構成されている、
4次元光検出および測距センサを含む前記センサによって捉えられるデータを含んでいる前記第1のスキャン画像にアクセスすることを含む、請求項1に記載の方法。 - 自律走行車の自律ナビゲーションの方法であって、
第1の時間に前記自律走行車において、前記自律走行車が完全停止するまでの停止期間を前記第1の時間での前記自律走行車の速度に基づいて推定することと、
前記停止期間によって前記第1の時間からオフセットされた第1の臨界時間を計算することと、
第1のスキャン周期の間に、前記第1の時間に前記自律走行車上のセンサによって捉えられた、前記自律走行車の視野の第1のスキャン画像において物体を検出することと、
前記自律走行車の視野における第1の物体を示す前記第1のスキャン画像内の第1の点群を識別することであって、前記第1の点群におけるそれぞれの点は、
前記センサから前記第1の物体上の表面までの第1の範囲値、
前記自律走行車に対する前記第1の物体上の前記表面の第1の方位角位置、および
前記自律走行車に対する前記第1の物体の前記表面の第1の半径方向速度
を含む、第1の点群を識別すること、
前記第1のスキャン画像に基づいて、前記第1の物体の第1の場所および第1の運動を導出することであって、
前記第1の点群における点の第1の半径方向速度と第1の方位角位置との間の第1の相関関係を計算すること、
前記第1の相関関係に基づいて、前記第1の時間における前記第1の点群の半径方向速度に整合する、前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度との組み合わせの第1のセットに関連する第1の関数を計算すること、
前記第1の点群における点の第1の半径方向速度に基づいて前記第1の時間における前記第1の物体の第1の半径方向の総速度を計算すること、および
前記第1の点群における点の第1の範囲値および第1の方位角位置に基づいて、前記第1の物体の第1の場所を導出すること、
によって前記第1の物体の第1の場所および第1の運動を導出することと、
前記第1の時間から前記第1の臨界時間まで前記第1の物体にとってアクセス可能な第1の陸上領域を表現する第1の将来状態境界を、
前記第1の時間における前記第1の物体の前記第1の場所、
前記第1の半径方向の総速度、
前記第1の関数によって定められる、前記第1の時間における前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度との組み合わせの前記第1のセット、
前記第1の物体の前記第1の運動、および
公道上を動作している一般物体の接線速度および角速度についての所定の運動制限想定のセット
に基づいて計算することと、
前記第1の臨界時間の前の前記第1の将来状態境界への進入を回避するための第1のナビゲーション行動を選ぶことと、を含む、方法。 - さらに、
一般の地上の乗り物の最大直線加速度、
一般の地上の乗り物の最大線速度、および
前記一般の地上の乗り物の最大角速度
を含む、前記所定の運動制限想定のセットにアクセスすることを含み、
前記第1の将来状態境界を計算することは、
前記最大角速度に至るまで移動し、かつ、前記停止期間にわたる前記第1の物体の前記第1の場所から前記最大直線加速度に従って前記最大線速度に至るまで加速する、前記第1の物体の前記第1の運動を積分して、前記第1の時間から前記第1の臨界時間まで前記第1の物体にとってアクセス可能な前記第1の陸上領域を計算することと、
前記第1の将来状態境界として前記第1の陸上領域を記憶することと、を含む、請求項10に記載の方法。 - 前記第1のスキャン画像において第2の物体を検出することと、
前記第1のスキャン画像に基づいて、前記第2の物体の第2の場所および第2の運動を導出することと、
前記最大角速度に至るまで移動し、かつ、前記停止期間にわたる前記第2の物体の前記第2の場所から前記最大直線加速度に従って前記最大線速度に至るまで加速する、前記第2の物体の前記第2の運動を積分して、前記第1の時間から前記第1の臨界時間まで前記第2の物体にとってアクセス可能な第2の陸上領域を計算することと、
第2の将来状態境界として前記第2の陸上領域を記憶することと、をさらに含み、
前記第1のナビゲーション行動を選ぶことは、前記第1の臨界時間の前の前記第1の将来状態境界および前記第2の将来状態境界への進入を回避するための前記第1のナビゲーション行動を選ぶことを含む、請求項11に記載の方法。 - 前記第1の物体の前記第1の将来状態境界および前記第2の物体の前記第2の将来状態境界を除いて、前記自律走行車の周りのアクセス区間を計算することをさらに含み、
前記第1のナビゲーション行動を選ぶことは、前記アクセス区間の方へナビゲートするための前記第1のナビゲーション行動を実行することを含む、請求項12に記載の方法。 - 前記第1の物体の前記第1の将来状態境界を除いて、前記自律走行車の周りのアクセス区間を計算することをさらに含み、
前記第1のナビゲーション行動を選ぶことは、前記第1の時間における前記自律走行車の第1の場所が、前記第1の将来状態境界の周辺の閾値距離の範囲内にあることに応答して、前記アクセス区間の方へナビゲートするために前記第1のナビゲーション行動を実行することを含む、請求項10に記載の方法。 - 前記第1のスキャン周期の後に続く第2のスキャン周期で、
第2の時間において前記センサによって捉えられたデータを含んでいる第2のスキャン画像にアクセスすること、
前記自律走行車の視野において前記第1の物体を表現する前記第2のスキャン画像において第2の点群を識別すること、
前記第2の点群における点の第2の半径方向速度と第2の方位角位置との間の第2の相関関係を計算すること、
前記第2の相関関係に基づいて、前記第2の時間における前記第2の点群の半径方向速度に整合する前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度との組み合わせの第2のセットに関連する第2の関数を計算すること、および
前記第2の点群における点の第2の半径方向速度に基づいて前記第2の時間における前記第1の物体の第2の半径方向の総速度を計算することと、
前記第1の関数および前記第2の関数の交点に基づいて、前記第2の時間における前記第1の物体の第2の接線速度および前記第1の物体の第2の角速度を推定することと、
前記自律走行車が完全停止するまでの第2の停止期間を前記第2の時間での前記自律走行車の第2の速度に基づいて推定することと、
前記第2の停止期間によって前記第2の時間からオフセットされた第2の臨界時間を計算することと、
前記第2の臨界時間に前記第1の物体にとってアクセス可能な第2の陸上領域を表現する第2の将来状態境界を、
前記第1の物体の前記第2の接線速度、
前記第1の物体の前記第2の角速度、
前記第2の半径方向の総速度、および
前記所定の運動制限想定のセット
に基づいて計算することと、
前記第1の臨界時間の前の前記第2の将来状態境界への進入を回避するための第2のナビゲーション行動を選ぶことと、をさらに含む、請求項10に記載の方法。 - 前記第2の将来状態境界を計算することは、前記第1の陸上領域を下回る前記第2の陸上領域を表現する前記第2の将来状態境界を計算することを含む、請求項15に記載の方法。
- 前記第1のスキャン画像において第2の物体を検出することと、
前記第1のスキャン画像に基づいて、前記第2の物体の第2の場所および第2の運動を導出することと、
前記第1の時間から前記第1の臨界時間まで前記第2の物体にとってアクセス可能な第2の陸上領域を表現する第2の将来状態境界を、
前記第1の時間における前記第2の物体の前記第2の場所、
前記第2の物体の前記第2の運動、および
公道上を動作している一般物体についての前記所定の運動制限想定のセット
に基づいて計算することと、
前記第1の時間における前記自律走行車から前記第2の将来状態境界の第2の周囲までの第2の距離が前記閾値距離を超えることに応答して、前記自律走行車における次の経路計画考慮事項から前記第2の物体をミュートすることと、をさらに含み、
前記第1のナビゲーション行動を選ぶことは、前記第1の時間における前記自律走行車から前記第1の将来状態境界の第1の周囲までの第1の距離が前記閾値距離の範囲内にあることに応答して、前記自律走行車における前記次の経路計画考慮事項において前記第1の物体をアクティブ化することを含む、請求項10に記載の方法。 - 前記停止期間を推定することは、
前記第1の時間において、前記自律走行車上に配置される第2のセンサによって捉えられた前記自律走行車の視野の第2の画像にアクセスすることと、
前記第2の画像から抽出された特徴のセットに基づいて前記第1の時間において前記自律走行車が占有する路面のタイプを解釈することと、
前記路面の前記タイプに基づいて前記路面上で作用する前記自律走行車のタイヤに対する摩擦係数を推定することと、
前記停止期間を、
前記第1の時間における前記自律走行車の車両速度、
前記摩擦係数、および
前記自律走行車のブレーキモデルに基づいて推定することと、を含む、請求項10に記載の方法。 - 自律走行車の自律ナビゲーションの方法であって、
公道上を動作している一般物体の接線速度および角速度についての所定の運動制限想定のセットにアクセスすることと、
第1の時間において前記自律走行車上のセンサによって捉えられたデータを含んでいるスキャン画像にアクセスすることと、
前記自律走行車の視野において物体を表現する前記スキャン画像において点群を識別することであって、前記点群におけるそれぞれの点は、
前記自律走行車に対する前記物体上の表面の位置、および
前記自律走行車に対する前記物体の前記表面の半径方向速度
を含む、点群を識別することと、
前記点群における点の半径方向速度と位置との間の相関関係を計算することと、
前記相関関係に基づいて、前記第1の時間における前記点群の半径速度に整合する前記物体のあり得る接線速度と前記物体のあり得る角速度との組み合わせに関連する関数を計算することと、
前記点群における点の半径方向速度に基づいて前記第1の時間における前記物体の半径方向の総速度を計算することと、
将来の時間に前記物体にとってアクセス可能な陸上領域を表現する将来状態境界を、
前記関数によって定められる、前記第1の時間における前記物体のあり得る接線速度と前記物体のあり得る角速度との組み合わせ、
前記物体の前記半径方向の総速度、ならびに
前記所定の運動制限想定のセット
に基づいて計算することと、
前記将来の時間の前の前記将来状態境界を回避するためのナビゲーション行動を選ぶことと、を含む、方法。 - 自律走行車の自律ナビゲーションの方法であって、
第1のスキャン周期で、
第1の時間において前記自律走行車上のセンサによって捉えられたデータを含んでいる第1のスキャン画像にアクセスすること、
前記自律走行車の視野において第1の物体を表現する前記第1のスキャン画像において第1の点群を識別することであって、前記第1の点群におけるそれぞれの点は、
前記センサから前記第1の物体上の表面までの第1の範囲値、
前記センサに対する前記第1の物体上の前記表面の第1の方位角位置、および
前記センサに対する前記第1の物体の前記表面の第1の半径方向速度
を含む、第1の点群を識別すること、
前記第1の点群における点の第1の半径方向速度と第1の方位角位置との間の第1の相関関係を計算すること、および、
前記第1の相関関係に基づいて、前記第1の時間における前記第1の点群の半径方向速度に整合する、前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度との組み合わせの第1のセットに関連する第1の関数を計算すること
を行うことと、
第2のスキャン周期で、
第2の時間において前記センサによって捉えられたデータを含んでいる第2のスキャン画像にアクセスすること、
前記自律走行車の視野において前記第1の物体を表現する前記第2のスキャン画像において第2の点群を識別すること、
前記第2の点群における点の第2の半径方向速度と第2の方位角位置との間の第2の相関関係を計算すること、および、
前記第2の相関関係に基づいて、前記第2の時間における前記第2の点群の半径方向速度に整合する、前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度との組み合わせの第2のセットに関連する第2の関数を計算すること
を行うことと、
前記第1の関数および前記第2の関数の交点に基づいて、前記第2の時間における前記自律走行車に対する前記第1の物体の第2の接線速度および前記第1の物体の第2の角速度を推定することと、
前記第1の物体の前記第2の接線速度および前記第1の物体の前記第2の角速度に基づいてナビゲーション行動を選ぶことと、を含む、方法。 - 前記第2の点群における点の第2の半径方向速度の中心傾向の第2の測度に基づいて、前記第2の時間における前記自律走行車に対する前記第1の物体の第2の半径方向速度を計算することと、
前記第1の物体の前記第2の接線速度、前記第1の物体の前記第2の角速度、および前記第1の物体の前記第2の半径方向速度に基づいて、前記第2の時間における前記自律走行車に対する前記第1の物体の総速度を特徴付けることと、をさらに含み、
前記ナビゲーション行動を選ぶことは、前記第2の時間における前記第1の物体の前記総速度に基づいて前記第1の物体を回避するための前記ナビゲーション行動を選ぶことを含む、請求項20に記載の方法。 - 前記第1の相関関係を計算することは、
前記第1の点群における点の第1の方位角位置に対する第1の半径方向速度による第1の線形傾向線を計算することと、
前記第1の時間における前記第1の物体の第1の接線速度と前記第1の物体の第1の角速度との間の関係を表現する、前記第1の線形傾向線の第1の傾斜に基づいて前記第1の相関関係を計算することと、を含む、請求項20に記載の方法。 - 前記第1の点群における点の第1の方位角位置の範囲に基づいて前記第1の時間における前記自律走行車に対する前記第1の物体の第1の半径を計算することをさらに含み、
前記第1の線形傾向線の前記第1の傾斜を計算することは、
前記第1の時間における前記第1の物体の前記第1の接線速度と、
前記第1の時間における前記第1の物体の前記第1の半径および前記第1の時間における前記第1の物体の前記第1の角速度の積
との第1の差異を表現する前記第1の傾斜を計算することを含み、
前記第1の線形傾向線の前記第1の傾斜を計算することは、
前記第1の時間における前記第1の物体の前記第1の半径、および
前記第1の時間における前記第1の物体の前記第1の接線速度と、前記第1の時間における前記第1の物体の前記第1の角速度との間の差異
の第1の積を表現する前記第1の傾斜を計算することを含み、
前記第1の関数を計算することは、前記第1の時間における前記第1の傾斜および前記第1の半径に基づいて、前記第1の時間における、前記自律走行車に対する、前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度との組み合わせの前記第1のセットに関連する第1の線形関数を計算することを含む、請求項22に記載の方法。 - 前記第2の相関関係を計算することは、
前記第2の点群における点の第2の方位角位置に対する第2の半径方向速度による第2の線形傾向線を計算することと、
前記第2の時間における前記第1の物体の第2の接線速度と前記第1の物体の第2の角速度との間の関係を表現する、前記第2の線形傾向線の第2の傾斜に基づいて前記第2の相関関係を計算することと、を含み、
さらに、
前記第1の線形傾向線からの前記第1の点群における点の第1の半径方向速度の偏差に基づいて前記第1の線形傾向線の第1の誤差を特徴付けることと、
前記第2の線形傾向線からの前記第2の点群における点の第2の半径方向速度の偏差に基づいて前記第2の線形傾向線の第2の誤差を特徴付けることと、を含み、
前記第1の関数を計算することは、
前記第1の相関関係に基づいて前記第1の時間における前記自律走行車に対する、前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度との組み合わせの前記第1のセットに関連する第1の線を計算することと、
前記第1の誤差に基づいて前記第1の線の第1の幅を計算することと、を含み、
前記第2の関数を計算することは、
前記第2の相関関係に基づいて前記第2の時間における前記自律走行車に対する、前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度との組み合わせの前記第2のセットに関連する第2の線を計算することと、
前記第2の誤差に基づいて前記第2の線の第2の幅を計算することと、を含み、
前記第2の時間における前記第1の物体の前記第2の接線速度および前記第1の物体の前記第2の角速度を推定することは、前記第1の幅の前記第1の線および第2の幅の前記第2の線の交点に基づいて前記第2の時間における前記自律走行車に対する前記第1の物体の接線速度の第2の範囲および前記第1の物体の角速度の第2の範囲を推定することを含み、
前記ナビゲーション行動を選ぶことは、前記第2の時間における前記第1の物体の前記接線速度の第2の範囲および前記第1の物体の角速度の第2の範囲に基づいて、前記第1の物体を回避するための前記ナビゲーション行動を選ぶことを含む、請求項22に記載の方法。 - 公道上を動作している一般物体の接線速度および角速度についての所定の運動制限想定のセットにアクセスすることと、
前記第1の時間と前記第2の時間との間の時間差に対して、前記所定の運動制限想定のセットの積分に基づいて、前記第1の関数の第1の誤差を特徴付けることと、をさらに含み、
前記第1の関数を計算することは、
前記第1の相関関係に基づいて前記第1の時間における前記自律走行車に対する、前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度との組み合わせの前記第1のセットに関連する第1の線を計算することと、
前記第1の誤差に基づいて前記第1の線の第1の幅を計算することと、を含み、
前記第2の関数を計算することは、
前記第2の相関関係に基づいて前記第2の時間における前記自律走行車に対する、前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度との組み合わせの前記第2のセットに関連する第2の線を計算することを含み、
前記第2の時間における前記第1の物体の前記第2の接線速度および前記第1の物体の前記第2の角速度を推定することは、前記第1の幅の前記第1の線および前記第2の線の交点に基づいて前記第2の時間における前記自律走行車に対する前記第1の物体の接線速度の第2の範囲および前記第1の物体の角速度の第2の範囲を推定することを含み、
前記ナビゲーション行動を選ぶことは、前記第2の時間における前記第1の物体の前記接線速度の第2の範囲および前記第1の物体の前記角速度の第2の範囲に基づいて、前記第1の物体を回避するための前記ナビゲーション行動を選ぶことを含む、請求項22に記載の方法。 - 前記第1の関数を計算することは、路面に平行な面から20度以内にある水平面内において、前記第1の時間における前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度との組み合わせの前記第1のセットに関連する前記第1の関数を計算することを含み、
前記第2の関数を計算することは、路面に平行な面から20度以内にある前記水平面内において、前記第2の時間における前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度との組み合わせの前記第2のセットに関連する前記第2の関数を計算することを含み、
前記第2の時間における前記第1の物体の前記第2の接線速度および前記第1の物体の前記第2の角速度を推定することは、3自由度の状態空間における前記第1の関数および前記第2の関数の前記交点に基づいて、前記第2の時間における前記自律走行車に対する前記第1の物体の前記第2の接線速度および前記第1の物体の前記第2の角速度を推定することを含む、請求項20に記載の方法。 - 公道上を動作している一般物体についての最大物体速度想定にアクセスすることと、
前記第2の点群における点の第2の半径方向速度に基づいて前記第2の時間における前記自律走行車に対する前記第1の物体の第2の半径方向速度を計算することと、
前記第1の物体の将来状態境界を計算するために、対象の時間間隔にわたって、前記第1の物体の前記第2の半径方向速度、前記第1の物体の前記第2の接線速度、および前記第1の物体の前記第2の角速度を積分することと、をさらに含み、
前記ナビゲーション行動を選ぶことは、前記第1の物体の前記将来状態境界への将来の進入を回避するための前記ナビゲーション行動を選ぶことを含む、請求項20に記載の方法。 - 前記自律走行車が完全停止するまでの停止期間を前記第1の時間での前記自律走行車の速度に基づいて推定することと、
前記停止期間に基づいて前記対象の時間間隔を計算することと、をさらに含み、
前記第1の物体の前記将来状態境界への将来の進入を回避するための前記ナビゲーション行動を選ぶことは、前記第2の時間における前記自律走行車の場所が、前記第1の物体の前記将来状態境界の閾値距離の範囲内にあることに応答して、前記自律走行車を減速させるための制動行動を実行することを含む、請求項27に記載の方法。 - 第3のスキャン周期で、
前記第2の時間の後に続く第3の時間において前記センサによって捉えられたデータを含んでいる第3のスキャン画像にアクセスすること、
前記自律走行車の視野において前記第1の物体を表現する前記第3のスキャン画像において第3の点群を識別すること、
前記自律走行車の視野における第2の物体を表現する前記第3のスキャン画像において第4の点群を識別することであって、前記第2の物体は前記第2の時間から前記第3の時間までの前記第1の物体と別個である、第4の点群を識別すること、
前記第3の点群における点の、第3の半径方向速度と第3の方位角位置との間の第3の相関関係を計算すること、
前記第4の点群における点の、第4の半径方向速度と第4の方位角位置との間の第4の相関関係を計算すること、
前記第3の相関関係に基づいて、前記第3の時間におけるおける前記第3の点群の半径方向速度に整合する、前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度との第3の組み合わせに関連する第3の関数を計算すること、および、
前記第4の相関関係に基づいて、前記第3の時間における前記第4の点群の半径方向速度に整合する、前記第2の物体のあり得る接線速度と前記第2の物体のあり得る角速度との第4の組み合わせに関連する第4の関数を計算すること
を行うことと、
前記第2の関数および前記第3の関数の交点に基づいて前記第3の時間における前記自律走行車に対する前記第1の物体の第3の接線速度および前記第1の物体の第3の角速度を推定することと、
前記第2の関数および前記第4の関数の交点に基づいて前記第3の時間における前記自律走行車に対する前記第2の物体の第4の接線速度および前記第2の物体の第4の角速度を推定することと、
前記第1の物体の前記第3の接線速度、前記第1の物体の前記第3の角速度、前記第2の物体の前記第4の接線速度、および前記第2の物体の前記第4の角速度に基づいて、前記第1の物体および前記第2の物体を回避するための第2のナビゲーション行動を選ぶことと、をさらに含む、請求項20に記載の方法。 - 前記第1のスキャン画像にアクセスすることは、
前記自律走行車に装着されており、
前記センサに対する前記自律走行車の視野内の表面の位置および速度を表現するスキャン画像を生成するように構成されている、
4次元光検出および測距センサを含む前記センサによって捉えられるデータを含んでいる前記第1のスキャン画像にアクセスすることを含む、請求項20に記載の方法。 - 第3のスキャン周期の間に、前記第1の時間および前記第2の時間の前の第3の時間において前記センサによって捉えられたデータを含んでいる第3の画像において検出された第3の点群において表現される前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度との第3の組み合わせに関連する第3の相関関係に基づいて第3の関数を生成することをさらに含み、
前記第1の相関関係を計算することは、前記第1の点群における点の、第1の半径方向速度、第1の方位角位置、および第1の仰角位置による第1の最良適合面を計算することであって、前記第1の最良適合面は、前記第1の時間における、前記第1の物体の第1の接線速度、前記第1の物体の第1の角速度、および前記第1の物体の第1のピッチ速度の間の関係を表現する、第1の最良適合面を計算することを含み、
前記第1の関数を計算することは、前記第1の最良適合面に基づいて前記第1の関数を計算することを含み、
前記第2の相関関係を計算することは、前記第2の点群における点の、第2の半径方向速度、第2の方位角位置、および第2の仰角位置による第2の最良適合面を計算することであって、前記第2の最良適合面は、前記第2の時間における、前記第1の物体の第2の接線速度、前記第1の物体の第2の角速度、および前記第1の物体の第2のピッチ速度の間の関係を表現する、第2の最良適合面を計算することを含み、
前記第2の関数を計算することは、前記第2の最良適合面に基づいて前記第2の関数を計算することを含み、
前記第2の時間において前記第1の物体の前記第2の接線速度および前記第1の物体の前記第2の角速度を推定することは、前記第1の関数、前記第2の関数、および前記第3の関数の前記交点に基づいて、前記第2の時間において、前記第1の物体の前記第2の接線速度、前記第1の物体の前記第2の角速度、および前記第1の物体の第2のピッチ速度を計算することを含む、請求項20に記載の方法。 - 自律走行車の自律ナビゲーションの方法であって、
第1のスキャン周期で、
第1の時間において前記自律走行車上のセンサによって捉えられたデータを含んでいる第1のスキャン画像にアクセスすること、
前記自律走行車の視野において第1の物体を表現する前記第1のスキャン画像において第1の点群を識別することであって、前記第1の点群におけるそれぞれの点は、
前記センサから前記第1の物体上の表面までの第1の範囲値、
前記自律走行車に対する前記第1の物体上の前記表面の第1の位置、および
前記自律走行車に対する前記第1の物体の前記表面の第1の半径方向速度
を含む、第1の点群を識別すること、
前記第1の点群における点の第1の半径方向速度と第1の位置との間の第1の相関関係を計算すること、および、
前記第1の相関関係に基づいて、前記第1の時間における前記第1の点群の半径方向速度に整合する、前記第1の物体のあり得る線運動と前記第1の物体のあり得る角運動との組み合わせの第1のセットに関連する第1の関数を計算すること
を行うことと、
第2のスキャン周期で、
第2の時間において前記センサによって捉えられたデータを含んでいる第2のスキャン画像にアクセスすること、
前記第1の物体を表現する前記第2のスキャン画像において第2の点群を識別すること、
前記第2の点群における点の第2の半径方向速度と第2の位置との間の第2の相関関係を計算すること、および、
前記第2の相関関係に基づいて、前記第2の時間における前記第2の点群の半径方向速度に整合する、前記第1の物体のあり得る線運動と前記第1の物体のあり得る角運動ととの組み合わせの第2のセットに関連する第2の関数を計算すること
を行うことと、
前記第1の関数および前記第2の関数の交点に基づいて、前記第2の時間において前記自律走行車に対する前記第1の物体の線運動および前記第1の物体の角運動を推定することと、
前記第2の時間における前記第1の物体の前記線運動および前記第1の物体の前記角運動に基づいてナビゲーション行動を選ぶことと、を含む、方法。 - 前記第1の相関関係を計算することは、
路面に平行な面から20度以内の平面上に投影された前記第1の点群における点の第1の方位角位置に対する第1の半径方向速度による第1の線形傾向線を計算することと、
前記第1の時間における前記第1の物体の第1の接線速度と前記第1の物体の第1の角速度との間の関係を表現する、前記第1の線形傾向線の第1の傾斜に基づいて前記第1の相関関係を計算することと、を含み、
前記第2の相関関係を計算することは、
前記平面上に投影された前記第2の点群における点の第2の方位角位置に対する第2の半径方向速度による第2の線形傾向線を計算することと、
前記第2の時間における前記第1の物体の第2の接線速度と前記第1の物体の第2の角速度との間の関係を表現する、前記第2の線形傾向線の第2の傾斜に基づいて前記第2の相関関係を計算することと、を含み、
前記第2の時間における前記第1の物体の前記線運動および前記第1の物体の前記角運動を推定することは、前記第1の関数および前記第2の関数の前記交点に基づいて、前記第2の時間における前記自律走行車に対する、前記第1の物体の第2の接線速度および前記第1の物体の第2の角速度を推定することを含む、請求項32に記載の方法。 - 前記第1の相関関係を計算することは、前記第1の点群における点の、第1の半径方向速度および第1の位置による第1の最良適合面を計算することであって、前記第1の最良適合面は、前記第1の時間における前記自律走行車に対する、前記第1の物体の第1の接線速度、前記第1の物体の第1の角速度、および前記第1の物体の第1のピッチ速度の間の関係を表現する、第1の最良適合面を計算することを含み、
前記第1の関数を計算することは、前記第1の最良適合面に基づいて前記第1の関数を計算することを含み、
前記第2の相関関係を計算することは、前記第2の点群における点の第2の半径方向速度および第2の位置による第2の最良適合面を計算することであって、前記第2の最良適合面は、前記第2の時間における前記自律走行車に対する、前記第1の物体の第2の接線速度、前記第1の物体の第2の角速度、および前記第1の物体の第2のピッチ速度の間の関係を表現する、第2の最良適合面を計算することを含み、
前記第2の関数を計算することは、前記第2の最良適合面に基づいて前記第2の関数を計算することを含む、請求項32に記載の方法。 - 第3のスキャン周期の間に、前記第1の時間および前記第2の時間の前の第3の時間において前記センサによって捉えられたデータを含んでいる第3の画像において検出された第3の点群において表現される前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度との第3の組み合わせに関連する第3の相関関係に基づいて第3の関数を生成することをさらに含み、
前記第2の時間における前記自律走行車に対する前記第1の物体の前記線運動および前記第1の物体の前記角運動を推定することは、前記第1の関数、前記第2の関数、および前記第3の関数の前記交点に基づいて、前記第2の時間において前記自律走行車に対する前記第1の物体の前記線運動および前記第1の物体の前記角運動を推定することを含む、請求項34に記載の方法。 - 前記第1のスキャン周期で、
前記第1のスキャン画像における第3の点群を識別すること、
前記第3の点群における点の、第3の半径方向速度および第3の位置による第3の最良適合面を計算することであって、前記第3の最良適合面は、前記第1の時間における前記自律走行車に対する、第2の物体の第3の接線速度、前記第2の物体の第3の角速度、および前記第2の物体の第3のピッチ速度の間の関係を表現する、第3の最良適合面を計算すること、および、
前記第3の最良適合面に基づいて第3の関数を計算すること
を行うことと、
前記第2のスキャン周期で、
前記第2のスキャン画像における第4の点群を識別すること、
前記第4の点群における点の、第4の半径方向速度および第4の位置による第4の最良適合面を計算することであって、前記第4の最良適合面は、前記第2の時間における前記自律走行車に対する、前記第2の物体の第4の接線速度、前記第2の物体の第4の角速度、および前記第2の物体の第4のピッチ速度の間の関係を表現する、第4の最良適合面を計算すること、および、
前記第4の最良適合面に基づいて第4の関数を計算すること
を行うことと、
前記第3の関数および前記第4の関数の交点に基づいて、前記第2の時間において前記自律走行車に対する前記第2の物体の第2の線運動および前記第2の物体の第2の角運動を推定することと、
前記第1の物体の前記線運動と前記第2の物体の前記第2の線運動との間の整合に応答して、前記第1の物体および前記第2の物体を共通の剛体に対応するとして識別することと、をさらに含む、請求項34に記載の方法。 - 前記第2の時間における前記第2の物体の前記第2の角運動を推定することは、前記第3の関数および前記第4の関数の前記交点に基づいて、前記第2の時間における前記自律走行車に対する、前記第2の物体の第2の角速度および第2のピッチ速度を推定することを含み、
さらに、
前記第4の点群における点の第4の半径方向速度の中心傾向の第2の測度に基づいて前記第2の時間における前記自律走行車に対する前記第2の物体の第2の半径方向速度を計算することと、
前記第2の時間における、前記第2の物体の、前記第2の半径方向速度、前記第2の接線速度、前記第2の角速度、および前記第2のピッチ速度に基づいて、前記第2の時間における前記第2の物体の総絶対速度を計算することと、
前記第2の時間における前記第2の物体の総絶対速度の方向における前記第4の点群における点の第4の半径方向速度の第4の速度成分のセットを計算することと、
前記第2の物体の前記総絶対速度のおよそ2倍である前記第4の速度成分のセットの最大速度に基づいて、前記第2の物体を車輪として識別することと、
前記第2の物体を前記車輪として識別することに応答して、前記共通の剛体を車輪付き乗り物としてラベル付けすることと、を含む、請求項36に記載の方法。 - 自律走行車の自律ナビゲーションの方法であって、
前記自律走行車における一連のスキャン周期におけるそれぞれのスキャン周期で、
スキャン時間において前記自律走行車上のセンサによって捉えられたデータを含んでいるスキャン画像にアクセスすること、
前記自律走行車の視野において第1の物体を表現する前記スキャン画像における点群を識別することであって、前記点群におけるそれぞれの点は、
前記自律走行車に対する前記第1の物体上の表面の位置、および
前記自律走行車に対する前記第1の物体の前記表面の半径方向速度
を含む、点群を識別すること、および、
前記点群における点の半径方向速度と位置との間の相関関係に基づいて関数を計算することであって、前記関数は前記スキャン時間における前記点群の半径方向速度に整合する前記第1の物体のあり得る線運動と前記第1の物体のあり得る角運動との組み合わせの第1のセットに関連している、関数を計算すること
を行うことと、
現在の関数および前の関数の交点に基づいて現在の時間において前記自律走行車に対する前記第1の物体の現在の線運動および前記第1の物体の現在の角運動を推定することであって、前記現在の関数は前記現在の時間において捉えられたデータを含んでいる第1のスキャン画像から導出され、前記前の関数は前記現在の時間の前に捉えられたデータを含んでいる第2のスキャン画像から導出される、推定することと、
前記第1の物体の前記現在の線運動および前記第1の物体の前記現在の角運動に基づいてナビゲーション行動を選ぶことと、を含む、方法。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062980132P | 2020-02-21 | 2020-02-21 | |
US202062980131P | 2020-02-21 | 2020-02-21 | |
US62/980,132 | 2020-02-21 | ||
US62/980,131 | 2020-02-21 | ||
US202063064316P | 2020-08-11 | 2020-08-11 | |
US63/064,316 | 2020-08-11 | ||
PCT/US2021/019122 WO2021168452A2 (en) | 2020-02-21 | 2021-02-22 | Method for object avoidance during autonomous navigation |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023507671A JP2023507671A (ja) | 2023-02-24 |
JP7336604B2 true JP7336604B2 (ja) | 2023-08-31 |
Family
ID=77366637
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022549671A Active JP7336604B2 (ja) | 2020-02-21 | 2021-02-22 | 自律ナビゲーションの間の物体回避の方法 |
Country Status (9)
Country | Link |
---|---|
US (4) | US20210261158A1 (ja) |
EP (1) | EP4096978A4 (ja) |
JP (1) | JP7336604B2 (ja) |
KR (1) | KR102503388B1 (ja) |
CN (1) | CN115461258B (ja) |
AU (1) | AU2021222055B2 (ja) |
CA (1) | CA3168740C (ja) |
MX (1) | MX2022010293A (ja) |
WO (1) | WO2021168452A2 (ja) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112018006738B4 (de) * | 2018-02-02 | 2022-03-10 | Mitsubishi Electric Corporation | Vorrichtung zur detektion fallender objekte, fahrzeuginternes system, fahrzeug und programm zur detektion fallender objekte |
DE102018211240A1 (de) * | 2018-07-07 | 2020-01-09 | Robert Bosch Gmbh | Verfahren zum Klassifizieren einer Relevanz eines Objekts |
US11592832B2 (en) * | 2018-08-20 | 2023-02-28 | Uatc, Llc | Automatic robotically steered camera for targeted high performance perception and vehicle control |
US11360480B2 (en) | 2019-08-21 | 2022-06-14 | Zoox, Inc. | Collision zone detection for vehicles |
RU2745804C1 (ru) * | 2019-11-06 | 2021-04-01 | Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" | Способ и процессор для управления перемещением в полосе движения автономного транспортного средства |
FR3103303B1 (fr) * | 2019-11-14 | 2022-07-22 | Continental Automotive | Détermination d’un coefficient de friction pour un véhicule sur une route |
US11684005B2 (en) * | 2020-03-06 | 2023-06-27 | Deere & Company | Method and system for estimating surface roughness of ground for an off-road vehicle to control an implement |
US11718304B2 (en) | 2020-03-06 | 2023-08-08 | Deere & Comoanv | Method and system for estimating surface roughness of ground for an off-road vehicle to control an implement |
JP7431623B2 (ja) * | 2020-03-11 | 2024-02-15 | 株式会社Subaru | 車外環境認識装置 |
US11678599B2 (en) | 2020-03-12 | 2023-06-20 | Deere & Company | Method and system for estimating surface roughness of ground for an off-road vehicle to control steering |
US11667171B2 (en) | 2020-03-12 | 2023-06-06 | Deere & Company | Method and system for estimating surface roughness of ground for an off-road vehicle to control steering |
US11753016B2 (en) * | 2020-03-13 | 2023-09-12 | Deere & Company | Method and system for estimating surface roughness of ground for an off-road vehicle to control ground speed |
US11685381B2 (en) | 2020-03-13 | 2023-06-27 | Deere & Company | Method and system for estimating surface roughness of ground for an off-road vehicle to control ground speed |
KR20210129913A (ko) * | 2020-04-21 | 2021-10-29 | 주식회사 만도모빌리티솔루션즈 | 운전자 보조 시스템 |
US11433885B1 (en) * | 2020-08-20 | 2022-09-06 | Zoox, Inc. | Collision detection for vehicles |
KR20220027327A (ko) * | 2020-08-26 | 2022-03-08 | 현대모비스 주식회사 | 딥러닝 기반 노면판단 모델을 이용한 터레인모드 제어 방법 및 장치 |
US11954924B2 (en) * | 2020-10-23 | 2024-04-09 | Shoppertrak Rct Llc | System and method for determining information about objects using multiple sensors |
US20220135074A1 (en) * | 2020-11-02 | 2022-05-05 | Waymo Llc | Classification of objects based on motion patterns for autonomous vehicle applications |
US11702102B2 (en) * | 2020-11-19 | 2023-07-18 | Waymo Llc | Filtering return points in a point cloud based on radial velocity measurement |
US20220289237A1 (en) * | 2021-03-10 | 2022-09-15 | Gm Cruise Holdings Llc | Map-free generic obstacle detection for collision avoidance systems |
KR20230000655A (ko) * | 2021-06-25 | 2023-01-03 | 현대자동차주식회사 | 차량 및 그 제어 방법 |
US11904906B2 (en) * | 2021-08-05 | 2024-02-20 | Argo AI, LLC | Systems and methods for prediction of a jaywalker trajectory through an intersection |
US20230047336A1 (en) * | 2021-08-12 | 2023-02-16 | Waymo Llc | Time gaps for autonomous vehicles |
CN113997943A (zh) * | 2021-10-28 | 2022-02-01 | 山东新一代信息产业技术研究院有限公司 | 一种基于语义聚类的自动驾驶车辆控制方法、设备及介质 |
US20230162374A1 (en) * | 2021-11-19 | 2023-05-25 | Shenzhen Deeproute.Ai Co., Ltd | Method for forecasting motion trajectory, storage medium, and computer device |
KR102512793B1 (ko) * | 2021-11-29 | 2023-03-22 | 한국기술교육대학교 산학협력단 | 차량의 군집주행을 위한 시스템 |
US12030528B2 (en) * | 2021-12-03 | 2024-07-09 | Zoox, Inc. | Vehicle perception system with temporal tracker |
WO2023206346A1 (en) * | 2022-04-29 | 2023-11-02 | Nvidia Corporation | Detecting hardware faults in data processing pipelines |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012172632A1 (ja) | 2011-06-13 | 2012-12-20 | トヨタ自動車株式会社 | 運転支援装置及び運転支援方法 |
JP2017076274A (ja) | 2015-10-15 | 2017-04-20 | 株式会社日本自動車部品総合研究所 | 衝突判定システム、衝突判定端末及びコンピュータプログラム |
WO2019138485A1 (ja) | 2018-01-11 | 2019-07-18 | 住友電気工業株式会社 | 衝突可能性判定装置、衝突可能性判定方法、及びコンピュータプログラム |
JP2019197375A (ja) | 2018-05-09 | 2019-11-14 | トヨタ自動車株式会社 | 衝突回避支援装置 |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3322500A1 (de) * | 1983-06-23 | 1987-03-19 | Krupp Gmbh | Verfahren zum passiven bestimmen von zieldaten eines fahrzeugs |
DE19747446A1 (de) * | 1997-10-28 | 1999-04-29 | Cit Alcatel | Verfahren zur Ansteuerung mindestens eines Haltestellen-Displays und Steuerzentrale |
JP3427815B2 (ja) * | 2000-03-30 | 2003-07-22 | 株式会社デンソー | 先行車選択方法及び装置、記録媒体 |
US6982668B1 (en) * | 2003-09-30 | 2006-01-03 | Sandia Corporation | Tangential velocity measurement using interferometric MTI radar |
US20060100771A1 (en) * | 2004-11-10 | 2006-05-11 | E-Lead Electronic Co., Ltd. | Vehicle speed detection apparatus |
JP4893118B2 (ja) * | 2006-06-13 | 2012-03-07 | 日産自動車株式会社 | 回避制御装置、この回避制御装置を備える車両および回避制御方法 |
US20100295940A1 (en) * | 2007-10-16 | 2010-11-25 | I F M Electronic Gmbh | Method and apparatus for determining distance |
US8126642B2 (en) * | 2008-10-24 | 2012-02-28 | Gray & Company, Inc. | Control and systems for autonomously driven vehicles |
JP2010235063A (ja) | 2009-03-31 | 2010-10-21 | Equos Research Co Ltd | 車両制御装置、車両、及び車両制御プログラム |
US9187099B2 (en) * | 2013-10-17 | 2015-11-17 | Richard M. Powers | Systems and methods for predicting weather performance for a vehicle |
CA2910296A1 (en) | 2014-12-12 | 2016-06-12 | Atlantic Inertial Systems Limited (HSC) | Collision detection system |
US9784829B2 (en) * | 2015-04-06 | 2017-10-10 | GM Global Technology Operations LLC | Wheel detection and its application in object tracking and sensor registration |
US9599706B2 (en) * | 2015-04-06 | 2017-03-21 | GM Global Technology Operations LLC | Fusion method for cross traffic application using radars and camera |
US10654477B2 (en) * | 2015-10-15 | 2020-05-19 | Hitachi Automotive Systems, Ltd. | Vehicle control device |
WO2017147747A1 (en) * | 2016-02-29 | 2017-09-08 | SZ DJI Technology Co., Ltd. | Obstacle avoidance during target tracking |
EP3349033A1 (en) * | 2017-01-13 | 2018-07-18 | Autoliv Development AB | Enhanced object detection and motion estimation for a vehicle environment detection system |
JP6711312B2 (ja) | 2017-05-12 | 2020-06-17 | 株式会社デンソー | 車両の自動運転制御システム |
JP6972744B2 (ja) | 2017-08-01 | 2021-11-24 | トヨタ自動車株式会社 | 運転支援装置 |
US11334070B2 (en) * | 2017-08-10 | 2022-05-17 | Patroness, LLC | Systems and methods for predictions of state of objects for a motorized mobile system |
JP6989766B2 (ja) * | 2017-09-29 | 2022-01-12 | ミツミ電機株式会社 | レーダー装置及び物標検出方法 |
CN111417871A (zh) * | 2017-11-17 | 2020-07-14 | 迪普迈普有限公司 | 基于激光雷达利用高清晰度地图的集成运动估计的迭代最近点处理 |
US11091162B2 (en) * | 2018-01-30 | 2021-08-17 | Toyota Motor Engineering & Manufacturing North America, Inc. | Fusion of front vehicle sensor data for detection and ranging of preceding objects |
WO2019157455A1 (en) * | 2018-02-09 | 2019-08-15 | Skydio, Inc. | Aerial vehicle smart landing |
US11022683B1 (en) * | 2018-03-15 | 2021-06-01 | Aeva, Inc. | Simultaneous measurement of range and velocity using optical radar |
US11550061B2 (en) * | 2018-04-11 | 2023-01-10 | Aurora Operations, Inc. | Control of autonomous vehicle based on environmental object classification determined using phase coherent LIDAR data |
US10706294B2 (en) * | 2018-05-03 | 2020-07-07 | Volvo Car Corporation | Methods and systems for generating and using a road friction estimate based on camera image signal processing |
EP3572839A1 (en) * | 2018-05-23 | 2019-11-27 | Aptiv Technologies Limited | Method of estimating a velocity magnitude of a moving target in a horizontal plane and radar detection system |
EP3842303B1 (en) | 2018-08-14 | 2024-05-15 | Mobileye Vision Technologies Ltd. | Systems and methods for navigating with safe distances |
US20200211394A1 (en) | 2018-12-26 | 2020-07-02 | Zoox, Inc. | Collision avoidance system |
US11090525B2 (en) * | 2019-01-25 | 2021-08-17 | 4Iiii Innovations Inc. | Virtual inertia enhancements in bicycle trainer resistance unit |
US10943355B2 (en) | 2019-01-31 | 2021-03-09 | Uatc, Llc | Systems and methods for detecting an object velocity |
CN110362074B (zh) * | 2019-06-18 | 2021-11-23 | 华南理工大学 | 一种基于航迹重规划的水面无人艇动态避碰方法 |
US11663833B2 (en) * | 2019-11-08 | 2023-05-30 | Vayyar Imaging Ltd. | Systems and methods for sensing the surroundings of a vehicle |
-
2021
- 2021-02-22 EP EP21756397.2A patent/EP4096978A4/en active Pending
- 2021-02-22 KR KR1020227031758A patent/KR102503388B1/ko active IP Right Grant
- 2021-02-22 MX MX2022010293A patent/MX2022010293A/es unknown
- 2021-02-22 US US17/182,168 patent/US20210261158A1/en not_active Abandoned
- 2021-02-22 AU AU2021222055A patent/AU2021222055B2/en active Active
- 2021-02-22 CN CN202180030320.XA patent/CN115461258B/zh active Active
- 2021-02-22 JP JP2022549671A patent/JP7336604B2/ja active Active
- 2021-02-22 US US17/182,173 patent/US11719821B2/en active Active
- 2021-02-22 WO PCT/US2021/019122 patent/WO2021168452A2/en unknown
- 2021-02-22 CA CA3168740A patent/CA3168740C/en active Active
- 2021-02-22 US US17/182,165 patent/US11235785B2/en active Active
-
2023
- 2023-06-16 US US18/211,171 patent/US20230333252A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012172632A1 (ja) | 2011-06-13 | 2012-12-20 | トヨタ自動車株式会社 | 運転支援装置及び運転支援方法 |
JP2017076274A (ja) | 2015-10-15 | 2017-04-20 | 株式会社日本自動車部品総合研究所 | 衝突判定システム、衝突判定端末及びコンピュータプログラム |
WO2019138485A1 (ja) | 2018-01-11 | 2019-07-18 | 住友電気工業株式会社 | 衝突可能性判定装置、衝突可能性判定方法、及びコンピュータプログラム |
JP2019197375A (ja) | 2018-05-09 | 2019-11-14 | トヨタ自動車株式会社 | 衝突回避支援装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2021168452A3 (en) | 2021-10-28 |
EP4096978A2 (en) | 2022-12-07 |
WO2021168452A8 (en) | 2022-10-06 |
MX2022010293A (es) | 2023-01-04 |
US11719821B2 (en) | 2023-08-08 |
JP2023507671A (ja) | 2023-02-24 |
KR102503388B1 (ko) | 2023-03-02 |
WO2021168452A2 (en) | 2021-08-26 |
US20210261159A1 (en) | 2021-08-26 |
US20210261158A1 (en) | 2021-08-26 |
KR20220134029A (ko) | 2022-10-05 |
US11235785B2 (en) | 2022-02-01 |
US20230333252A1 (en) | 2023-10-19 |
CN115461258B (zh) | 2023-09-05 |
CA3168740C (en) | 2023-08-01 |
AU2021222055B2 (en) | 2022-12-01 |
AU2021222055A1 (en) | 2022-10-06 |
EP4096978A4 (en) | 2024-03-06 |
US20210261157A1 (en) | 2021-08-26 |
CA3168740A1 (en) | 2021-08-26 |
CN115461258A (zh) | 2022-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7336604B2 (ja) | 自律ナビゲーションの間の物体回避の方法 | |
JP7349792B2 (ja) | 車両走行のための情報を提供する方法 | |
US20200133272A1 (en) | Automatic generation of dimensionally reduced maps and spatiotemporal localization for navigation of a vehicle | |
US11680801B2 (en) | Navigation based on partially occluded pedestrians | |
WO2018061084A1 (ja) | 自己位置推定方法及び自己位置推定装置 | |
US20210389133A1 (en) | Systems and methods for deriving path-prior data using collected trajectories | |
JP2024025803A (ja) | センサを利用して獲得した空間情報を活用する車両、センサを利用して獲得した空間情報を活用するセンシング装置、及びサーバ | |
US11961304B2 (en) | Systems and methods for deriving an agent trajectory based on multiple image sources | |
US20220371583A1 (en) | Systems and Methods for Selectively Decelerating a Vehicle | |
US11961241B2 (en) | Systems and methods for deriving an agent trajectory based on tracking points within images | |
CN112734811B (zh) | 一种障碍物跟踪方法、障碍物跟踪装置和芯片 | |
WO2023129656A1 (en) | Calculating vehicle speed for a road curve | |
EP4275192A2 (en) | Systems and methods for common speed mapping and navigation | |
JP7043765B2 (ja) | 車両走行制御方法及び装置 | |
US20240094399A1 (en) | System and method for object reconstruction and automatic motion-based object classification | |
JP7454685B2 (ja) | 車両走行路内のデブリの検出 | |
Vatavu et al. | Real-time environment representation based on occupancy grid temporal analysis using a dense stereo-vision system | |
JP7334489B2 (ja) | 位置推定装置及びコンピュータプログラム | |
WO2023175741A1 (ja) | 外界認識装置 | |
WO2023067385A2 (en) | Radar-camera fusion for vehicle navigation | |
GB2616114A (en) | Vehicle navigation with pedestrians and determining vehicle free space | |
Bharamgoudar | Detection of Free Space/Obstacles in Front of the Ego Car Using Stereo Camera in Urban Scenes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221031 Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221012 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221031 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20221031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230131 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230501 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230502 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230704 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230803 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230821 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7336604 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |