JP7506113B2 - 遮蔽を伴う道路利用者反応モデリングに従って自律車両を動作させること - Google Patents

遮蔽を伴う道路利用者反応モデリングに従って自律車両を動作させること Download PDF

Info

Publication number
JP7506113B2
JP7506113B2 JP2022086350A JP2022086350A JP7506113B2 JP 7506113 B2 JP7506113 B2 JP 7506113B2 JP 2022086350 A JP2022086350 A JP 2022086350A JP 2022086350 A JP2022086350 A JP 2022086350A JP 7506113 B2 JP7506113 B2 JP 7506113B2
Authority
JP
Japan
Prior art keywords
autonomous vehicle
driver
pedestrian
vehicle
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022086350A
Other languages
English (en)
Other versions
JP2022119905A (ja
Inventor
ラッセル,ジャレッド,スティーブン
グートマン,ジェンズ-ステフェン,ラルフ
Original Assignee
ウェイモ エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウェイモ エルエルシー filed Critical ウェイモ エルエルシー
Publication of JP2022119905A publication Critical patent/JP2022119905A/ja
Application granted granted Critical
Publication of JP7506113B2 publication Critical patent/JP7506113B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18159Traversing an intersection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00276Planning or execution of driving tasks using trajectory prediction for other traffic participants for two or more other traffic participants
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/14Cruise control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Medical Informatics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Mathematical Physics (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Electromagnetism (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Motorcycle And Bicycle Frame (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Description

本出願は、2018年12月14日に出願された米国出願第16/220,144号の利益を主張し、その開示全体が参照により本明細書に組み込まれる。
人間の運転者を必要としない車両などの自律車両が、ある場所から別の場所への乗客または物品の輸送を支援するために使用される場合がある。かかる車両は、乗客がピックアップ場所または目的地などの何らかの初期入力を提供することができ、かつ車両がその場所まで車両自体を操縦する、完全な自律モードで動作し得る。
このような車両には、典型的には、周囲の物体を検出するために様々なタイプのセンサが装備されている。例えば、自律車両は、レーザー、ソナー、レーダー、カメラ、および車両の周囲からのデータを走査して記録する他のデバイスを含み得る。これらのデバイスのうちの1つ以上からのセンサデータは、物体およびそれらのそれぞれの特性(位置、形状、進行方向、速度など)を検出するために使用され得る。これらの特性は、他の物体の軌道を予測するために使用され得る。これらの軌道は、物体が将来のある短い期間の間に何をする可能性があるかを定義する場合がある。次いで、これらの軌道を使用して、これらの物体を回避するために車両を制御することができる。したがって、検出、識別、および予測は、自律車両の安全な動作にとって重要な機能である。
本開示の態様は、自律車両を動作させるための方法を提供する。この方法は、1つ以上のコンピューティングデバイスによって、自律車両の環境内にある複数の車線セグメントを判定することと、自律車両の検出システムを使用して、1つ以上のコンピューティングデバイスによって、自律車両の環境内の第1の物体および第2の物体を検出することと、1つ以上のコンピューティングデバイスによって、複数の車線セグメントに対する第1の物体の位置を判定することと、1つ以上のコンピューティングデバイスによって、複数の車線セグメントのうちの1つ以上の車線セグメントが、位置に従って、設定された時間間隔中に、自律車両の視点から、第1の物体によって遮蔽されることを判定することと、1つ以上のコンピューティングデバイスによって、遮蔽された1つ以上の車線セグメントに従って、第2の物体の反応時間を判定することと、1つ以上のコンピューティングデバイスによって、第2の物体の判定された反応時間に従って、自律車両に対する運転命令を判定することであって、運転命令が、自律車両の操縦のためのタイミングを含む、判定することと、1つ以上のコンピューティングデバイスによって、運転命令に基づいて、自律車両を動作させることと、を含む。
一例では、1つ以上の車線セグメントが遮蔽されることを判定することは、設定された時間間隔中に、第1の物体の場所と自律車両の場所との間の関係を判定することを含む。この例では、設定された時間間隔中に、第1の物体の場所と自律車両の場所との間の関係を判定することは、設定された時間間隔中に、その場所において、ある領域が、自律車両の視野からブロックされると判定することを含む。
別の例では、第2の物体は、名目上の人間の行為者に関連付けられたあるタイプの車両である。この例では、反応時間を判定することは、第2の物体に関連付けられた名目上の人間の行為者が、名目上の人間の行為者の視野が自律車両の場所を含むように位置付けられているかどうかを判定することを含む。反応時間を判定することはまた、任意選択で、自律車両の下部構造と名目上の人間の行為者の予測された場所との間の線分を計算することを含む。
さらなる例では、反応時間を判定することは、第2の物体が自律車両に反応し始める可能性が最も高い刺激点を判定することと、推定された知覚時間を刺激点に追加することと、を含む。さらに別の例では、この方法はまた、1つ以上のコンピューティングデバイスによって、1つ以上の第2の車線セグメントが、設定された時間間隔の直後の次の時間間隔中に、第1の物体によって遮蔽されることを判定することによって、複数の車線セグメント上の遮蔽を追跡することを含む。
本開示の他の態様は、自律車両の自動運転システムを提供する。自動運転システムは、自律車両の環境内の物体を検出するように構成されている検出システムと、検出システムと通信する1つ以上のコンピューティングデバイスと、を含む。1つ以上のコンピューティングデバイスは、自律車両の環境内にある複数の車線セグメントを判定することと、検出システムを使用して、自律車両の環境内の第1の物体および第2の物体を検出することと、複数の車線セグメントに対する第1の物体の位置を判定することと、複数の車線セグメントのうちの1つ以上の車線セグメントが、位置に従って、設定された時間間隔中に、自律車両の視点から、第1の物体によって遮蔽されることを判定することと、遮蔽された1つ以上の車線セグメントに従って、第2の物体の反応時間を判定することと、第2の物体の判定された反応時間に従って、自律車両に対する運転命令を判定することであって、運転命令が、自律車両の操縦のためのタイミングを含む、判定することと、運転命令に基づいて、自動運転システムを動作させることと、を行うように構成されている。
一例では、1つ以上の車線セグメントは、設定された時間間隔中に、自律車両の視野から第1の物体によってブロックされる領域に基づいて遮蔽されると判定される。別の例では、第2の物体は、名目上の人間の行為者に関連付けられたあるタイプの車両であり、反応時間は、第2の物体に関連付けられた名目上の人間の行為者が、名目上の人間の行為者の視野が自律車両の場所を含むように位置付けられているかどうかに基づいて判定される。この例では、反応時間は、自律車両の下部構造と名目上の人間の行為者の予測された場所との間の計算された線分に基づいてさらに判定される。
別の例では、反応時間は、第2の物体が自律車両に反応し始める可能性が最も高い刺激点と、刺激点に対する追加の推定された知覚時間と、に基づいて判定される。さらなる例では、1つ以上のコンピューティングデバイスは、1つ以上の第2の車線セグメントが、設定された時間間隔の直後の次の時間間隔中に、第1の物体によって遮蔽されることを判定することによって、複数の車線セグメント上の遮蔽を追跡するようにさらに構成されている。さらに別の例では、システムは、自律車両も含む。
本開示のさらなる態様は、プログラムのコンピュータ可読命令が記憶されている非一時的有形コンピュータ可読記憶媒体を提供する。命令は、1つ以上のプロセッサによって実行されたとき、1つ以上のプロセッサに、方法を実行させる。この方法は、自律車両の環境内にある複数の車線セグメントを判定することと、自律車両の検出システムを使用して、自律車両の環境内の第1の物体および第2の物体を検出することと、複数の車線セグメントに対する第1の物体の位置を判定することと、複数の車線セグメントのうちの1つ以上の車線セグメントが、位置に従って、設定された時間間隔中に、自律車両の視点から、第1の物体によって遮蔽されることを判定することと、遮蔽された1つ以上の車線セグメントに従って、第2の物体の反応時間を判定することと、第2の物体の判定された反応時間に従って、自律車両に対する運転命令を判定することであって、運転命令が、自律車両の操縦のためのタイミングを含む、判定することと、運転命令に基づいて、自律車両を動作させることと、を含む。
一例では、1つ以上の車線セグメントが遮蔽されることを判定することは、設定された時間間隔中に、第1の物体の場所と自律車両の場所との間の関係を判定することを含む。この例では、設定された時間間隔中に、第1の物体の場所と自律車両の場所との間の関係を判定することは、設定された時間間隔中に、その場所において、ある領域が、自律車両の視野からブロックされると判定することを含む。
別の例では、第2の物体は、名目上の人間の行為者に関連付けられたあるタイプの車両であり、反応時間を判定することは、第2の物体に関連付けられた名目上の人間の行為者が、名目上の人間の行為者の視野が自律車両の場所を含むように位置付けられているかどうかを判定することを含む。この例では、反応時間を判定することは、自律車両の下部構造と名目上の人間の行為者の予測された場所との間の線分を計算することをさらに含む。さらなる例では、反応時間を判定することは、第2の物体が自律車両に反応し始める可能性が最も高い刺激点を判定することと、推定された知覚時間を刺激点に追加することと、を含む。
本開示の態様にかかる例示的な車両の機能図である。 本開示の態様にかかる例示的な地図情報である。 本開示の態様にかかる車両の例示的な外観図である。 本開示の態様にかかるシステムの例示的な絵図である。 本開示の態様にかかるシステムの例示的な機能図である。 本開示の態様にかかる車両を動作させるための方法の流れ図600である。 本開示の態様にかかるシナリオ700の例示的な絵図である。 本開示の態様にかかるシナリオ700のさらなる例示的な絵図である。 本開示の態様にかかるシナリオ900の絵図である。 本開示の態様にかかるシナリオ700の絵図である。
概要
この技術は、車両の環境内の遮蔽された車線セグメントを使用して、車両の環境内の道路利用者の挙動を予測することに関する。車両の環境内で1つ以上の物体が検出される場合がある。保護されていない左折など、車両の操縦のタイミングを判定するために、1つ以上の物体の各物体の予測される挙動を判定することができる。予測される挙動は、物体が車両を見て、その車両に反応できるかどうかに依存する場合がある。したがって、予測される挙動を判定することは、車両により近い物体が、物体が走行するであろう車線セグメント、またはむしろ、物体が通過すると予測される車線セグメントを遮蔽するかどうかを検出することを含み得る。
上記の特徴は、物体の挙動のより正確な予測を提供し、物体の挙動が予測されたものと異なっているために、それほど頻繁に経路を再計算する必要のない、より安全でより効率的な自動運転システムをもたらし得る。さらに、説明したように車線セグメントレベルで遮蔽を追跡すると、複雑なマルチボディ問題を解決する必要がなく、有限または一定数の車線セグメントを使用することによってプロセスが簡素化される。システムは、マルチボディ問題を解決する必要がある、より特定の領域を認識するように設計されているため、より少ない計算能力が必要とされ得る。自動運転システムは、予測をより迅速に調整し、その近傍の物体により迅速に反応し得る。
例示的なシステム
図1に示されるように、本開示の一態様にかかる車両100は、様々な構成要素を含む。本開示の特定の態様は、特定のタイプの車両に関して特に有用であるが、車両は、限定されるものではないが、乗用車、トラック、オートバイ、バス、レクリエーション用車両などを含む、任意のタイプの車両であり得る。車両は、1つ以上のプロセッサ120、メモリ130、および汎用コンピューティングデバイス内に典型的に存在する他の構成要素を含む、コンピューティングデバイス110などの1つ以上のコンピューティングデバイスを有し得る。
メモリ130は、1つ以上のプロセッサ120によってアクセス可能な情報を記憶し、その情報には、プロセッサ120によって実行または別様に使用され得る命令132およびデータ134が含まれる。メモリ130は、プロセッサによってアクセス可能な情報を記憶することができる任意のタイプのメモリであってもよく、それらには、コンピューティングデバイス可読媒体、またはハードドライブ、メモリカード、ROM、RAM、DVD、もしくは他の光ディスク、ならびに他の書き込み可能および読み取り専用メモリなどの電子デバイスを用いて読み取ることができるデータを記憶する他の媒体が含まれる。システムおよび方法は、上記の異なる組み合わせを含んでもよく、それによって、命令およびデータの様々な部分が、様々なタイプの媒体に記憶される。
命令132は、プロセッサによって直接的に(マシンコードなど)または間接的に(スクリプトなど)実行される任意の命令セットであってもよい。例えば、命令は、コンピューティングデバイス可読媒体上にコンピューティングデバイスコードとして記憶されてもよい。その点について、「命令」および「プログラム」という用語は、本明細書では、互換的に使用され得る。命令は、プロセッサによる直接処理のためのオブジェクトコード形式で、または要求に応じて解釈されるか、もしくは予めコンパイルされるスクリプトもしくは独立したソースコードモジュールの集合を含む、任意の他のコンピューティングデバイス言語で記憶されてもよい。命令の機能、方法、およびルーチンについては、以下にさらに詳細に説明される。
データ134は、命令132にしたがって、プロセッサ120によって検索、記憶、または修正され得る。一例として、メモリ130のデータ134は、所定のシナリオを記憶し得る。所与のシナリオは、物体のタイプ、車両に対する物体の場所の範囲、ならびに自律車両が物体の周りを操縦できるかどうか、物体が方向指示器を使用しているかどうか、物体の現在の場所に関連する信号機の状態、物体が一時停止標識に接近しているかどうかなどの他の要因を含む、シナリオ要件のセットを識別し得る。要件は、「右方向指示器がオンである」もしくは「右折専用車線内で」などの離散値、または「車両の現在の経路から30~60度オフセットされる角度で配向される進行方向を有する」などの値の範囲を含み得る。いくつかの例では、所定のシナリオは、複数の物体に関して同様の情報を含み得る。
1つ以上のプロセッサ120は、市販されているCPUなど、任意の従来のプロセッサであってもよい。あるいは、1つ以上のプロセッサは、ASICまたは他のハードウェアベースプロセッサなどの専用デバイスであってもよい。図1は、コンピューティングデバイス110のプロセッサ、メモリ、および他の要素を同じブロック内にあるものとして機能的に示しているが、プロセッサ、コンピューティングデバイス、またはメモリは、実際には、同じ物理的な筐体内に格納されていてもいなくてもよい、複数のプロセッサ、コンピューティングデバイス、またはメモリを含んでもよいことが、当業者により、理解されるであろう。一例として、内部電子ディスプレイ152は、高帯域幅または他のネットワーク接続を介してコンピューティングデバイス110とインターフェースし得る、それ自体のCPUまたは他のプロセッサ、メモリなどを有する専用コンピューティングデバイスによって制御され得る。いくつかの例では、このコンピューティングデバイスは、ユーザのクライアントデバイスと通信することができるユーザインターフェースコンピューティングデバイスであり得る。同様に、メモリは、コンピューティングデバイス110の筐体とは異なる筐体内に位置するハードドライブ、または他の記憶媒体であってもよい。したがって、プロセッサまたはコンピューティングデバイスへの言及は、並列に動作してもしなくてもよいプロセッサまたはコンピューティングデバイスまたはメモリの集合への言及を含むことが理解されよう。
コンピューティングデバイス110は、上述したプロセッサおよびメモリ、ならびにユーザ入力150(例えば、マウス、キーボード、タッチスクリーン、および/またはマイクロフォン)、および様々な電子ディスプレイ(例えば、スクリーンを有するモニタ、または情報を表示するように動作可能である任意の他の電気デバイス)など、コンピューティングデバイスと接続して通常使用される構成要素のすべてを有してもよい。この例では、車両は、情報または視聴覚体験を提供するために、内部電子ディスプレイ152、ならびに1つ以上のスピーカ154を含む。この点について、内部電子ディスプレイ152は、車両100の車内に位置していてもよく、コンピューティングデバイス110によって使用されて、車両100内の乗客に情報を提供してもよい。内部スピーカに加えて、1つ以上のスピーカ154は、車両100の外部の物体に可聴通知を提供するために、車両上の様々な場所に配置された外部スピーカを含むことができる。車両100のコンピューティングデバイス110はまた、例えば、無線ネットワーク接続156を使用して、他のコンピューティングデバイスとの間で情報を受信または転送し得る。
一例では、コンピューティングデバイス110は、車両100に組み込まれた自律運転コンピューティングシステムであってもよい。自律運転コンピューティングシステムは、車両の様々な構成要素と通信することが可能であり得る。例えば、コンピューティングデバイス110は、車両の乗客からの連続的または定期的な入力を要求または必要としない自律運転モードにおいてメモリ130の命令132に従って車両100の移動、速度などを制御するために、(車両のブレーキを制御するための)減速システム160、(車両の加速を制御するための)加速システム162、(車輪の配向および車両の方向を制御するための)ステアリングシステム164、(方向指示器を制御するための)シグナリングシステム166、(車両を場所にまたは物体の周りにナビゲートするための)ナビゲーションシステム168、(車両の位置を判定するための)測位システム170、(車両の環境内の物体を検出するための)知覚システム172、ならびに動力システム174(例えば、バッテリおよび/またはガスもしくはディーゼル動力エンジン)など、車両100の様々なシステムと通信し得る。この場合も、これらのシステムは、コンピューティングデバイス110の外部にあるものとして示されているが、実際には、これらのシステムもまた、車両100を制御するための自律運転コンピューティングシステムとして、ここでもコンピューティングデバイス110に組み込まれてもよい。
コンピューティングデバイス110は、様々な構成要素を制御することによって車両の方向および速度を制御し得る。例として、コンピューティングデバイス110は、地図情報およびナビゲーションシステム168からのデータを使用して、車両を目的地に完全に自律的にナビゲートし得る。コンピューティングデバイス110は、測位システム170を使用して車両の場所を判定し、必要に応じて、その場所に安全に到着するために、知覚システム172を使用して物体を検出して、それに反応することができる。そうするために、コンピューティングデバイス110は、車両を(例えば、加速システム162により、エンジンに供給される燃料または他のエネルギーを増加させることによって)加速させ、(例えば、エンジンに供給される燃料を減少させ、ギヤを変更し、および/または減速システム160によりブレーキをかけることによって)減速させ、(例えば、ステアリングシステム164により、車両100の前輪または後輪の向きを変えることによって)方向を変え、(例えば、シグナリングシステム166の方向指示器を点灯することによって)そのような変更を知らせることができる。したがって、加速システム162および減速システム160は、車両のエンジンと、車両の車輪との間の様々な構成要素を含むドライブトレインの一部であってもよい。ここでも、これらのシステムを制御することによって、コンピューティングデバイス110はまた、車両を自律的に操縦するために、車両のドライブトレインを制御することもできる。
一例として、コンピューティングデバイス110は、車両の速度を制御するために、減速システム160および加速システム162とインターフェースし得る。同様に、ステアリングシステム164は、車両100の方向を制御するために、コンピューティングデバイス110によって使用され得る。例えば、車両100が乗用車またはトラックのように道路上で使用するように構成されている場合、ステアリングシステムは、車両を転回するために車輪の角度を制御するための構成要素を含み得る。シグナリングシステム166は、例えば、必要に応じて方向指示器またはブレーキライトを点灯させることによって、他の運転手または車両に車両の意図を伝えるために、コンピューティングデバイス110によって使用され得る。
ナビゲーションシステム168は、ある場所までのルートを判定して辿るために、コンピューティングデバイス110によって使用され得る。この点について、ナビゲーションシステム168および/またはデータ134は、地図情報、例えば、コンピューティングデバイス110が車両をナビゲートまたは制御するために使用することができる非常に詳細な地図を記憶し得る。一例として、これらの地図は、車道の形状および高さ、車線マーカー、交差点、横断歩道、速度制限、信号機、建物、標識、リアルタイムもしくは履歴の交通情報、植生、または他のそのような物体および情報を識別し得る。車線マーカーは、実線または破線の、二重または単一の車線ライン、実線または破線の車線ライン、反射板などの特徴を含み得る。所与の車線は、車線の境界を画定する、左右の車線ラインまたは他の車線マーカーと関連付けられ得る。このため、ほとんどの車線は、1つの車線ラインの左端と、別の車線ラインの右端とによって境界付けられ得る。上記のように、地図情報は、過去の同様の時間における特定のピックアップ場所からの既知の交通もしくは混雑情報および/またはおよび交通機関スケジュール(電車、バスなど)を記憶し得る。この情報は、コンピューティングデバイス110によって受信された情報によってリアルタイムでも更新され得る。
図2は、交差点230を含む、車道のセクションに関する地図情報200の例である。この例では、地図情報200は、様々な特徴の形状、場所、および他の特性を識別する情報を含む地図情報の一部を示している。例えば、地図情報200は、交差点230において交差する道路210および道路220を含む。地図情報200は、交差点230の第1の側にある道路210の車線マーカーまたは車線ライン241Aおよび243A、交差点230の第1の側の反対側の第2の側にある道路210の車線ライン241Bおよび243Bを含む。さらに、地図情報は、交差点230を第3の側から第3の側の反対側の第4の側に通過する道路220の車線ライン242および246、交差点230の第3の側にある道路220の車線ライン244A、ならびに交差点230の第4の側にある道路220の車線ライン244Bを含む。車線ラインは、二重の車線ライン241A、241B、244A、および244B、ならびに破線の車線ライン242、243A、243B、および246など、異なるタイプの車線ラインであってもよい。車線ラインはまた、車線251、252、253、254、255、256、および258など、様々な車線を画定することもできる。道路210の車線部分251A、253A、および255Aは、交差点230の第1の側にあり、道路210の車線部分251B、253B、および255Bは、交差点230の第1の側の反対側の第2の側にある。道路220の車線部分252A、254A、256A、および258Aは、交差点230の第3側にあり、道路220の車線部分252B、254B、256B、および258Bは、交差点230の第3側の反対側の第4側にある。車線は、示されているように地図情報200において明示的に識別されてもよいし、道路の幅によって暗示されてもよい。地図情報200は、自転車車線を識別することもできる。示されているように、地図情報200は、道路210の停止線261および263も含むことができる。
これらの特徴に加えて、地図情報200はまた、各車線の交通の方向および速度制限を識別する情報、ならびにコンピューティングデバイス110が、車両が特定の操縦を完了する(例えば、ターンを完了するか、または交通車線もしくは交差点を横断する)ための通行権を有するかどうかを判定することを可能にする情報を含み得る。地図情報200は、信号機、一時停止標識、一方通行標識、方向転換禁止標識など、交通標識に関する情報をさらに含み得る。地図情報200は、縁石、建物、駐車場、車道、水路、植生など、他の環境特徴に関する情報を含み得る。
本明細書では詳細な地図情報は、画像ベースの地図として描かれているが、地図情報は、完全に画像ベース(例えば、ラスタ)である必要はない。例えば、詳細な地図情報は、1つ以上の道路グラフ、または道路、車線、交差点、およびこれらの特徴間の接続などの情報のグラフネットワークを含み得る。各特徴は、グラフデータとして記憶され得、地理的場所などの情報と関連付けられ得、他の関連する特徴にリンクされているかどうかにかかわらず、例えば、一時停止標識は、道路および交差点などにリンクされ得る。いくつかの例では、関連付けられたデータは、道路グラフのグリッドベースのインデックスを含んで、特定の道路グラフの特徴の効率的な検索を可能にし得る。
知覚システム172はまた、他の車両、車道内の障害物、交通信号、標識、樹木など、車両の外部にある物体を検出するために1つ以上の構成要素を含む。例えば、知覚システム172は、1つ以上のLIDARセンサ、ソナーデバイス、レーダーユニット、カメラ、および/またはコンピューティングデバイス110によって処理され得るデータを記録する任意の他の検出デバイスを含んでもよい。知覚システムのセンサは、物体、ならびに場所、配向、サイズ、形状、タイプ(例えば、車両、歩行者、自転車利用者など)、進行方向、および移動速度などのそれらの特性を検出し得る。センサおよび/または前述の特性からの未加工データは、知覚システム172によって生成されると、記述関数、ベクトル、および/または境界ボックスに定量化または構成され、さらなる処理のために定期的かつ連続的にコンピューティングデバイス110に送信され得る。以下にさらに詳細に論じるように、コンピューティングデバイス110は、測位システム170を使用して車両の場所を判定し、必要に応じて、場所に安全に到着するために、知覚システム172を使用して物体を検出して、それに反応することができる。
図3は、車両100の例示的な外観図である。この例では、ルーフ上部筐体310およびドーム状筐体312は、LIDARセンサ、ならびに様々なカメラおよびレーダーユニットを含み得る。加えて、車両100の前端部に位置する筐体320、ならびに車両の運転手側および助手席側の筐体330、332は、各々、LIDARセンサを格納し得る。例えば、筐体330は、運転手ドア350の前部に位置している。車両100はまた、これも車両100のルーフ上に位置するレーダーユニットおよび/またはカメラのための筐体340、342を含む。追加のレーダーユニットおよびカメラ(図示せず)は、車両100の前端および後端に、ならびに/またはルーフもしくはルーフ上部筐体310に沿った他の位置上に位置し得る。車両100はまた、ドア350、352、車輪360、362などの典型的な乗用車両の多くの特徴を含む。
近くの物体が検出されると、コンピューティングデバイス110および/または知覚システム172は、物体のタイプ、例えば、トラフィックコーン、歩行者、車両(乗用車、トラック、バスなど)、自転車などを判定し得る。物体は、物体のサイズ、物体の速度(自転車は、時速40マイルより速く、または時速0.1マイルより遅く進む傾向はない)、自転車から来る熱(自転車は、体から熱を発する乗り手を有する傾向がある)など、検出された物体の様々な特性を考慮することができる様々なモデルによって識別され得る。加えて、物体は、車両上に表示されるライセンスプレート、バンパーステッカー、またはロゴに含まれる情報など、物体の特定の属性に基づいて分類され得る。
メモリ130は、車両100をどのように制御すべきかに関する判定を行うためにコンピューティングデバイス110によって使用される様々なモデルを記憶することができる。例えば、メモリ130は、センサデータから検出された道路利用者および物体を識別するための1つ以上の物体認識モデルを記憶することができる。別の例では、メモリ130は、検出された物体に対して取られる1つ以上のアクションの確率を提供するための、1つ以上の挙動モデルを記憶することができる。別の例では、メモリ130は、ナビゲーションシステム168からの地図情報200、および知覚システム172からのセンサデータによって検出された他の道路利用者の予測される軌道に基づいて、車両100の速度プロファイルを判定するための1つ以上の速度計画モデルを記憶することができる.
図4および図5は、それぞれ、例示的なシステム400の絵図および機能図であり、システムは、ネットワーク460を介して接続された複数のコンピューティングデバイス410、420、430、440、および記憶システム450を含む。システム400はまた、車両100、および車両100と同様に構成され得る車両100Aを含む。簡潔にするため、いくつかの車両およびコンピューティングデバイスのみを図示しているが、典型的なシステムは、これよりもはるかに多くのものを含み得る。
図4に示されるように、コンピューティングデバイス410、420、430、440の各々は、1つ以上のプロセッサ、メモリ、データ、および命令を含むことができる。かかるプロセッサ、メモリ、データ、および命令は、コンピューティングデバイス110の1つ以上のプロセッサ120、メモリ130、データ134、および命令132と同様に構成されてもよい。
ネットワーク460および介在ノードは、BLUETOOTH(登録商標)、BLUETOOTH LE、インターネット、ワールドワイドウェブ、イントラネット、仮想プライベートネットワーク、ワイドエリアネットワーク、ローカルネットワーク、1つ以上の企業が所有する通信プロトコルを使用するプライベートネットワーク、イーサネット、WiFiおよびHTTP、ならびに前述の様々な組み合わせなどの短距離通信プロトコルを含む、様々な構成およびプロトコルを含むことができる。このような通信は、モデムおよび無線インターフェースなどの、他のコンピューティングデバイスとの間でデータを送信することができる任意のデバイスによって容易に行われ得る。
一例では、コンピューティングデバイス110は、他のコンピューティングデバイスとの間でデータを受信、処理、および送信する目的で、ネットワークの様々なノードと情報を交換する複数のコンピューティングデバイスを有するサーバ、例えば、負荷分散サーバファームを含んでもよい。例えば、1つ以上のコンピューティングデバイス410は、ネットワーク460を介して、車両100のコンピューティングデバイス110、または車両100Aの同様のコンピューティングデバイス、ならびにコンピューティングデバイス420、430、440と通信することができる1つ以上のサーバコンピューティングデバイスを含んでもよい。例えば、車両100および車両100Aは、サーバコンピューティングデバイスによって様々な場所に配車され得る車両群の一部であり得る。この点について、車両群は、車両のそれぞれの測位システムにより提供される場所情報をサーバコンピューティングデバイスに定期的に送信してもよく、1つ以上のサーバコンピューティングデバイスは、車両の場所を追跡してもよい。
加えて、サーバコンピューティングデバイス410は、ネットワーク460を使用して、コンピューティングデバイス420、430、440のディスプレイ424、434、444などのディスプレイ上に、ユーザ422、432、442などのユーザに情報を送信および提示し得る。この点について、コンピューティングデバイス420、430、440は、クライアントコンピューティングデバイスとみなされ得る。
図5に示されるように、各クライアントコンピューティングデバイス420、430、440は、ユーザ422、432、442が使用することを意図されたパーソナルコンピューティングデバイスであってもよく、1つ以上のプロセッサ(例えば、CPU)、データおよび命令を記憶するメモリ(例えば、RAMおよび内蔵ハードドライブ)、ディスプレイ424、434、444などのディスプレイ(例えば、スクリーンを有するモニタ、タッチスクリーン、プロジェクタ、テレビ、または情報を表示するように動作可能である他のデバイス)、ならびにユーザ入力デバイス426、436、446(例えば、マウス、キーボード、タッチスクリーン、またはマイクロフォン)を含む、パーソナルコンピューティングデバイスと接続して通常使用される構成要素のすべてを有し得る。クライアントコンピューティングデバイスはまた、ビデオストリームを記録するためのカメラ、スピーカ、ネットワークインターフェースデバイス、およびこれらの要素を互いに接続するために使用される構成要素のすべてを含んでもよい。
クライアントコンピューティングデバイス420、430、および440は、各々、フルサイズのパーソナルコンピューティングデバイスを備えてもよいが、代替的に、インターネットなどのネットワークを介してサーバとデータを無線で交換することができるモバイルコンピューティングデバイスを備えてもよい。単なる例として、クライアントコンピューティングデバイス420は、携帯電話、または無線対応PDA、タブレットPC、ウェアラブルコンピューティングデバイスもしくはシステムなどのデバイス、またはインターネットもしくは他のネットワークを介して情報を取得することができるネットブックであってもよい。別の例では、クライアントコンピューティングデバイス430は、図4において腕時計として示される、ウェアラブルコンピューティングシステムであってもよい。一例として、ユーザは、小型キーボード、キーパッド、マイクロフォンを使用して、カメラを用いる視覚信号、またはタッチスクリーンを使用して、情報を入力し得る。
いくつかの例では、クライアントコンピューティングデバイス440は、ユーザ422および432などのユーザに遠隔操作者サービスを提供するために、管理者によって使用される遠隔操作者ワークステーションであり得る。例えば、遠隔操作者442は、遠隔操作者ワークステーション440を使用して、以下にさらに詳細に説明されるように車両100および車両100Aの安全な動作、ならびにユーザの安全を確実とするために、それぞれのクライアントコンピューティングデバイスならびに/または車両100もしくは車両100Aを通してユーザとの電話通話または音声接続を介して通信することができる。単一の遠隔操作者ワークステーション440のみが図4および図5に示されているが、任意の数のこのようなワークステーションが通常のシステムに含まれてもよい。
記憶システム450は、以下により詳細に説明されるように、様々なタイプの情報を記憶することができる。この情報は、本明細書で記載する特徴のうちのいくつかまたはすべてを実行するために、1つ以上のサーバコンピューティングデバイス410などのサーバコンピューティングデバイスによって検索または別様にアクセスされ得る。例えば、情報は、1つ以上のサーバコンピューティングデバイスに対してユーザを識別するために使用できる認証情報などのユーザアカウント情報(例えば、従来の単一要素認証の場合のようなユーザ名およびパスワード、ならびにランダム識別子、生体認証などの多要素認証において通常使用される他のタイプの認証情報)を含んでもよい。記憶システム450はまた、場所間のルートを生成および評価するためのルーティングデータを記憶し得る。例えば、ルーティング情報は、第1の場所にある車両が第2の場所に到達するのにどのくらいかかり得るかを推定するために使用され得る。この点について、ルーティング情報は、必ずしも上記の詳細な地図情報ほど詳細ではないが、道路を含む地図情報、ならびに方向(一方通行、双方向など)、配向(北、南など)、制限速度などのそれらの道路に関する情報、ならびに予測される交通状況を識別する交通情報などを含んでもよい。記憶システム450は、地図情報200などの地図情報をさらに記憶し得る。
記憶システム450はまた、物体認識モデル、挙動モデル、速度計画モデルなど、車両100をルーティングおよび制御するための様々なモデルを記憶し得る。この点について、記憶システム450は、これらのモデルのうちのいくつかまたはすべてをトレーニングするために使用されるデータを記憶し得る。例えば、トレーニングデータは、識別された物体を含む手動でラベル付けされた画像、様々な交通パターンで道路利用者が撮影した軌道のビデオを含む場合がある。記憶システム450は、パラメータおよび値など、これらのモデルを使用するために必要な他のデータを記憶し得る。
記憶システム450はまた、ユーザに表示するためにクライアントコンピューティングデバイスに提供され得る情報を記憶し得る。例えば、記憶システム450は、車両が所与のピックアップ場所または目的地のために停止する可能性が高い領域を判定するための所定の距離情報を記憶し得る。記憶システム450はまた、以下に論じられるように、ユーザに表示され得るグラフィック、アイコン、および他の項目を記憶し得る。
メモリ130と同様に、記憶システム450は、ハードドライブ、メモリカード、ROM、RAM、DVD、CD-ROM、書き込み可能メモリ、および読み出し専用メモリなど、サーバコンピューティングデバイス410によってアクセス可能な情報を記憶することができる、任意のタイプのコンピュータ化された記憶装置であり得る。さらに、記憶システム450は、同じまたは異なる地理的場所に物理的に位置し得る、複数の異なる記憶デバイス上にデータが記憶される分散記憶システムを含み得る。記憶システム450は、図4に示されるようにネットワーク460を介してコンピューティングデバイスに接続され得、および/またはコンピューティングデバイス110、410、420、430、440などのいずれかに直接接続されるかもしくは組み込まれ得る。
例示的な方法
上述し、図に示したシステムに加えて、様々な動作をここで説明する。コンピューティングデバイス110は、以下に説明するように、車両の環境内の遮蔽された車線セグメントを使用して、車両の環境内の道路利用者の挙動を予測することができる。図6に、コンピューティングデバイス110によって実行され得る本開示の態様にかかる流れ図600が示されている。図6は、ブロックを特定の順序で示しているが、順序は変更されてもよく、その多数の動作が同時に実行されてもよい。また、動作は追加または省略されてもよい。
ブロック602において、コンピューティングデバイス110が、車両の環境内にある複数の車線セグメントを判定する。この判定は、道路上の車線を識別するために、車両100の検出範囲内の道路の交通制御特徴を検出することによって行うことができる。例えば、道路上の車線を識別するために使用される交通制御特徴は、車線ラインまたは車線マーカーを含む場合がある。車線セグメントは、10フィートの車線など、特定の車線の設定された長さとして定義することができる。長さは、2つの端点間の距離である。長さはまた、長方形または他の形状などの設定された領域として定義することもできる。特定の車線の複数の車線セグメントは、特定の車線の長さに沿って互いに隣接していてもよい。いくつかの実装形態では、車両の環境内の複数の車線セグメントを判定することは、車両100の場所を判定することと、車両の場所を包含する領域内の車線セグメントを識別する車両のメモリ130に記憶された地図データにアクセスすることとを含み得る。図7に示すシナリオ700では、車両100は、交差点230のそばの車線部分253A内にあり得、停止線261において停止している。車両100は、道路220の1つ以上の車線を横断するための、計画された操縦702を有する場合がある。破線として示される車両の計画された操縦702は、車線部分253Aから道路220の車線部分256Aへの左折を含む。操縦702において、車両100は、道路220の車線252および254を横断しなければならない。
図7に示される車線252の部分に対して、車線252に沿って端から端まで配置された複数のボックス領域によって示される、12個の車線セグメントが画定されている。車線セグメントの形状は、他の形状または線分であってもよい。車線254、256、および258の部分にもまた、端から端まで配置された複数のボックス領域によって同じく示される、約12個の車線セグメントが画定されている。これらの車線セグメントは、コンピューティングデバイス110によって画定され得るか、または事前に決定され、車両のメモリ130に保存され得る
ブロック604において、コンピューティングデバイス110は、例えば、知覚システム172からのセンサデータを使用して、車両の環境内の複数の物体を検出する。センサデータは、物体のサイズ、形状、速度、配向、方向など、各物体の特性も含むことができる。複数の物体は、移動および/または静止物体を含むことができる。特に、複数の物体は、車両、自転車、もしくは歩行者などの他の道路利用者を含むことができ、または建物、柱、樹木、もしくは工事ツールなどの他のタイプの障害物を含むことができる。図7に示すように、トラック710およびセダン720が車両の環境内にある。コンピューティングデバイス110は、知覚システム172を使用して、車線252および254内をそれぞれ走行しているトラック710およびセダン720を検出し、トラック710とセダン720の両方を道路利用者として分類することができる。コンピューティングデバイス110は、知覚システム172を使用して、トラック710およびセダン720のおおよその寸法および速度を識別することもできる。
ブロック606において、コンピューティングデバイス110は、複数の車線セグメントに対して複数の物体の各々の位置情報を判定する。位置情報は、各物体の場所および各物体の配向を含むことができる。複数の道路利用者のうちの第1の物体について、コンピューティングデバイス110は、検出された交通制御特徴に対して第1の物体の場所を検出することができる。いくつかの他の実装形態では、車両の場所に対する第1の物体の場所は、車両のメモリに記憶された地図データを使用して検出および識別され得る。いくつかの実装形態では、位置情報は、軌道など、各物体の予測される挙動も含むことができる。例えば、予測される挙動は、知覚システム172によって検出された第1の物体の速度、配向、および/または方向に基づいて判定される第1の物体の軌道を含むことができる。予測される挙動は、第1の物体が静止物体である場合、第1の物体が固定されたままであることであり得る。
シナリオ700では、コンピューティングデバイス110は、車線ライン242と道路220の端との間のトラックの場所、および/または車線セグメント712上のトラックの場所に基づいて、トラック710が車線部分252A内にあると判定することができる。コンピューティングデバイス110はまた、トラック710が車線部分252Bを向く配向を有すると判定することができる。同様に、コンピューティングデバイス110は、車線ライン242と車線ライン244Aとの間のセダンの位置、および/または車線セグメント722上のセダンの位置に基づいて、セダン720が車線部分254A内にあると判定することができる。コンピューティングデバイスはまた、セダン720が車線部分254Bを向く配向を有すると判定することができる。予測される挙動に関して、トラックの予測される挙動は、一定の速度で、または現在の速度内の5mph以内で、第1の時間間隔にわたって車線部分252Aを交差点230に向かって運転することを含む。セダンの予測される挙動は、一定の速度で、または現在の速度内の5mph以内で、第1の時間間隔にわたって車線部分254Aを交差点230に向かって運転することを含む。第1の時間間隔にわたるセダン720の速度は、トラック710の速度よりも大きくてもよい。
ブロック608において、コンピューティングデバイス110はさらに、複数の車線セグメントのうちの1つ以上の車線セグメントが、第1の時間間隔の間、複数の物体のうちの少なくとも1つによって遮蔽されるか、または遮蔽されるであろうと判定する。第1の時間間隔は、例えば、5秒、または5秒超もしくは5秒未満に設定することができる。1つ以上の車線セグメントが、第1の時間間隔の間、遮蔽されるか、または遮蔽されるであろうと判定することは、第1の時間間隔中の、例えば、第1の物体を含む各物体の場所と、車両の場所との間の関係を判定することを含み得る。第1の時間間隔の開始は、現在または将来の時間であってもよい。1つ以上の車線セグメントが将来の時点において遮蔽されるであろうと判定したとき、所与の物体の位置および予測される挙動に基づいて、所与の物体の予測された場所を判定することができる。
遮蔽物は、第1の時間間隔中に、車両100の視野から、複数の物体によってブロックされる1つ以上の領域を含むことができる。これらのブロックされる領域は、場所間の関係に基づいて識別され得る。特に、ブロックされる領域は、車両100の視点から、複数の物体のうちの所与の物体の現在のまたは予測された場所より後ろにある領域を含むことができる。車両100の視野は、知覚システム172のセンサ、および知覚システム172によって生成されるセンサデータによって画定され得る。視野は、車両100の場所から延びるある角度範囲内の、かつ車両100の場所からある距離内のセンサデータ内の領域を含むことができる。1つ以上の領域内にあるどんな車線セグメントも、第1の時間間隔中に遮蔽されることが判定され得る。
シナリオ700では、コンピューティングデバイス110は、トラック710によって遮蔽されている1つ以上の車線セグメントを判定する。図7および図8Aは、第1の時間間隔の開始時のトラック710およびセダン720の場所を示す。示されるように、トラック710とセダン720は互いに隣り合って運転しており、セダン720は、トラックの前部よりもトラック710の後部により近い。図8Bは、第1の時間間隔の終了時のトラック710およびセダン720の予測される将来の場所を示す。示されるように、トラック710とセダン720の両方は、それぞれの車線部分252Aおよび254Aを運転すると予測され、セダン720は、トラック710よりも大きい速度で運転すると予測され、したがって、セダン720は、トラック710の前部により近くなり、第1の時間間隔の終了時には、ある長さだけトラック710を追い越し始めることになる。
コンピューティングデバイス110は、トラック710およびセダン720が第1の時間間隔の開始と終了との間に移動するときの視野を予想することができる。第1の時間間隔の開始時に、車線部分254A内の3つの車線セグメントと、車線部分256A内の2つの車線セグメントとは、トラック710によって遮蔽され、これは、図8Aの視野部分802、および遮蔽された車線セグメントのシェーディングによって示される。他の地図情報内にある追加の車線セグメントも、遮蔽されていると判定される場合がある。第1の時間間隔の終了時に、車線部分254A内の6つの車線セグメントと、車線部分256A内の5つの車線セグメントと、車線部分258A内の4つの車線セグメントとは、トラック710によって遮蔽され、これは、図8Bの視野部分804、および遮蔽された車線セグメントのシェーディングによって示される。第1の時間間隔の間に遮蔽された車線セグメントは、時間間隔全体にわたって視界からブロックされるすべての車線セグメントである。コンピューティングデバイス110は、セダン720など、複数の物体のうちの他の物体によって遮蔽される車線セグメントも判定する。例えば、図8Bの視界部分806、および遮蔽された車線セグメントのハッチングによって示されるように、セダン720がトラック710を追い越すとき、セダン720によって遮蔽される車線部分256A内の追加の2つの車線セグメント。
次に、ブロック610において、コンピューティングデバイス110は、遮蔽された1つ以上の車線セグメントに従って、第2の物体など、複数の物体のうちの少なくとも1つの物体の反応時間を判定する。反応時間は、物体が、減速または加速などによって、車両100の現在のまたは計画された挙動に応じて、その挙動を調整することができる時点である。反応時間が判定される少なくとも1つの物体は、トラック710およびセダン720など、車両の環境において道路利用者として分類される1つ以上の物体であり得る。さらに、少なくとも1つの物体は、図8Aおよび図8Bに示すように、遮蔽された車線セグメントを走行すると予測されるセダン720など、少なくとも1つの物体の予測された挙動に従って、第1の時間間隔中に、遮蔽された1つ以上の車線セグメント内にあると予測される1つ以上の物体であり得る。
反応時間は、所与の物体が自律車両100に気付いて反応し始めると予期される予測時点および/または場所であり得る。所与の物体の気付きは、車両100に対する、所与の物体または所与の物体に関連する名目上の人間の行為者の場所および配向に基づいて評価され得る。所与の物体に関連する名目上の人間の行為者は、車両の運転手、または自転車に乗ったサイクリスト、または歩行者など、道路利用者の操作者であり得る。例えば、所与の物体は、遮蔽された車線セグメント内になく、関連する名目上の人間の行為者の視野が車両の場所を含むように配向されているとき、所与の物体は、車両100に気付いていると判定される。名目上の人間の行為者の視野は、180°未満の前方を向いた角度範囲に制限される場合がある。
遮蔽された1つ以上の車線セグメント内にある物体の場合、反応時間を判定することは、関連する名目上の人間の行為者が、遮蔽された車線セグメント内にいるかどうかに関係なく、名目上の人間の行為者の視野が車両の場所を含むように位置付けられているかどうかを判定することを含み得る。車などの物体が、別の物体の後ろに遮蔽された車線内にいる場合でも、車両の運転手などの人間の行為者は、自律車両100を見て自律車両100に反応することができる位置になおいる場合がある。この判定は、遮蔽された車線セグメント内の所与の物体に関連する名目上の人間の行為者の場所が、車両100の視野内にあることと、所与の物体が、関連する名目上の人間の行為者の視野が車両の場所を含むように配向されていることと、を検出することを含み得る。あるいは、判定は、関連する名目上の人間の行為者の視野が最小量の車両100を含み得ると判定することを含んでもよい。最小量は、車両100の表面積の30%、50%、または70%であり得る。名目上の人間の行為者の場所は、車両100の知覚システム172を使用して検出することができるか、または、例えば、運転時の道路表面からの名目上の人間の行為者の眼の平均的な高さに基づいて判定することができる。名目上の人間の行為者の場所はまた、車両の場所および配向を考慮して、車両内の運転手の予測された場所に基づいて判定することもできる。図9に示すシナリオ900では、トラック710およびセダンの位置が、シナリオ700の位置から入れ替わっており、コンピューティングデバイス110は、車両の配向に対してトラック710の車内の極右の方角内にトラック運転手を検出し、車両100がトラック運転手の視野内にあると判定し得る。例えば、トラック運転手の検出された場所と車両100との間の線分902を計算することができ、線分902は、トラック運転手の推定された視野内にあり得る。あるいは、トラック運転手の推定された視野内の車両の量は、最小量よりも多いと推定され得る。
他の実装形態では、関連する名目上の人間の行為者が、名目上の人間の行為者の視野が車両の場所を含むように位置付けられているかどうかを判定することは、車両100の本体の最下位点と、遮蔽された1つ以上の車線セグメント内の所与の物体に関連する名目上の人間の行為者の場所との間の線分が、何らかの障害物と交差するかどうかを計算することを含み得る。車両100の下部構造が、車両100の本体の最下位点であり得る。障害物が線分と交差したとき、所与の物体は、車両100に気付いておらず、車両100に反応することができないと判定される。加えて、車両100の本体の最下位点と、名目上の人間の行為者の場所との間の線分が、名目上の人間の行為者の視野内にない場合、所与の物体は同じく、車両100に気付いておらず、車両に反応することができないと判定される。あるいは、名目上の人間の行為者の視野内の車両の部分が車両の最小量よりも小さい場合、所与の物体は、車両100に気付いておらず、車両に反応することができないと判定され得る。
図10は、セダン720が、遮蔽された車線セグメント内にある、図8Aに示される第1の時間の開始に対応するシナリオ700の別の絵図である。線分1002は、車両100の下部構造と、セダン720の名目上の人間の運転手の予測された場所との間で計算され得る。下部構造は、車両の本体の下部の中心として判定される。名目上の人間の運転手の予測される場所は、セダン720の配向が車線部分252Aから車線部分252Bに向かっていると仮定すると、車両100の視点から見てセダン720の車内の極右の方角内として判定される。線分1002は、トラック710の本体と交差する。したがって、コンピューティングデバイス110は、第1の時間間隔の開始時にセダン720が車両100に気付いておらず、また、セダン720の反応時間が第1の時間間隔の開始後であると判定することができる。
反応時間を判定することは、所与の物体が、遮蔽された1つ以上の車線セグメント内を走行しているとき、所与の物体の予測される挙動を調整することを含み得る。特に、1つ以上の物体は、第1の時間間隔中に、遮蔽された1つ以上の車線セグメント内を走行しているとき、車両100に反応しないと想定することができる。例えば、セダン720などの第2の物体は、第1の時間間隔中に、1つ以上の遮蔽された車線セグメントを走行しているとき、第2の物体は、車両100について車両100が加速または減速するのを見ない可能性が最も高いので、同じまたは同様の速度を維持することができる。
反応時間を判定することはまた、複数の物体の各々が車両100に反応し始める可能性が最も高い刺激点を判定することと、推定された知覚時間を追加することとを含むことができる。第2の物体などの所与の物体の刺激点は、所与の物体が、1つ以上の遮蔽された車線セグメントの端に到達する時点、または1つ以上の遮蔽された車線セグメントを越えた最小距離に到達する時点であると判定され得る。最小距離は、車両100の最小量が、第2の物体に関連する名目上の人間の行為者に見えるようになるところであり得る。名目上の人間の行為者が視覚刺激を処理し、次いで、足を動かすこと、およびブレーキを踏むことなど、視覚刺激に反応するのにかかる時間を考慮するために、0.5秒、1.5秒、または別の時間などの知覚時間も、判定された刺激点に追加することができる。知覚時間はまた、名目上の人間の行為者が車両100に気付くのにかかる時間を含むことができる。所与の物体が、第1の時間間隔中に、1つ以上の遮蔽された車線セグメントの端に到達しなかった場合、所与の物体に対して刺激ポイントは判定されない。
シナリオ700では、コンピューティングデバイス110は、セダン720の反応時間を判定することができる。セダン720は、図8Aおよび図8Bに示すように、第1の間隔の大部分の間、トラック710によって遮蔽される車線セグメント内にいるため、セダン720は、一定速度を維持するなど、車両100に対する反応なしに、遮蔽された車線セグメントを走行することを予測され得る。第1の間隔の終了時に、セダン720がトラック710を追い越する長さは、車両100がセダン720内の名目上の人間の行為者に見えるようになる最小距離に等しくなり得る。したがって、第1の間隔の終了は、コンピューティングデバイス110によって、セダン720の刺激点として判定され得る。次いで、セダン720の反応時間は、第1の時間間隔の終了後の1.5秒として判定される。
ブロック612において、複数の物体の判定された反応時間に基づいて、コンピューティングデバイス110は、車両100に対する運転命令を判定する。車両100に対する運転命令は、複数の物体のうちの1つ以上の反応時間に依存する、車両100の操縦のためのタイミングを含む。例えば、操縦は、単一車線または複数車線の道路を横断する保護されていない左折であり得る。この操縦は、車両100が左折を行うために横断する必要がある複数車線の道路内の物体の反応時間に依存する。操縦は、交差点の横断または右折など、別のタイプの保護されていない操縦であってもよい。操縦のタイミングを判定するために、コンピューティングデバイス110は、対応する反応時間後に、複数の物体の各々の予測される挙動を使用して、1つ以上の物体の軌道および予測される挙動を考慮して、車両100が操縦を完了するのに十分な時間を有するときに操縦のためのタイミングを選択し得る。いくつかの実装形態では、予測される挙動は、操縦の軌道と交差し得る軌道を有する物体のサブセットに対してのみ判定される。
シナリオ700では、コンピューティングデバイス110は、車両100が、交差点230を横切って、複数車線の道路220への保護されていない左折を行うための、計画された操縦702のタイミングを判定する。セダン720の反応時間が、第1の時間間隔の終了時であると予測されるので、コンピューティングデバイス110は、計画された操縦702が第1の時間間隔の後になるようにタイミングを判定する。特に、セダン720は、車両100を見て反応することなく交差点に到達する可能性が高いため、タイミングは、トラック710とセダン720の両方が交差点230を通過する前ではなく、通過した後であり得る。
さらなる例では、コンピューティングデバイス110は、第1の時間間隔の直後の第2の時間間隔中に、次の1つ以上の車線セグメントが複数の物体のうちの少なくとも1つによって遮蔽されることを判定することによって、遮蔽された車線セグメントを追跡し続けることができる。第2の時間間隔は、第1の時間間隔と同じ時間長であるか、またはそれよりも長いかもしくはそれ未満であってもよい。この次の1つ以上の車線セグメントを判定することは、第2の時間間隔中の、各物体の予測された場所と、車両の場所との関係に基づくことができる。したがって、車両に対する運転命令が判定されるまで、遮蔽された車線セグメントの判定を必要に応じて繰り返すことができる。
いくつかの他の実装形態では、遮蔽された1つ以上の車線セグメント内の仮想の第3の物体について反応時間を判定することができる。遮蔽された車線セグメントが車両100の知覚システム172によって部分的または完全に検出できない場合、コンピューティングデバイス110が、遮蔽された車線セグメント内にあり得る仮想物体の反応時間を判定することが有利であろう。そうする際に、コンピューティングデバイス110は、場合によっては、検出されない物体を考慮に入れた車両100の操縦を計画することができる。仮想の第3の物体は、関連する名目上の人間の行為者を有し、交通とともに走行している遮蔽された車線セグメントのうちの少なくとも1つ内にあると想定することができる。仮想の第3の物体は、少なくとも1つの遮蔽された車線セグメントを含む車線内を走行している車両に対して、平均速度または加速度などの平均特性を有すると想定することができる。仮想の第3の物体の反応時間は、遮蔽された車線セグメント内の物体についてブロック610において説明したように判定することができる。
特段の記述がない限り、前述の代替的な例は、相互に排他的ではないが、独自の有益点を達成するために様々な組み合わせで実装され得る。上述した特徴のこれらおよび他の変形および組み合わせは、特許請求の範囲によって定義される主題から逸脱することなく利用することができるので、実施形態の前述の説明は、特許請求の範囲によって定義される主題を限定するものとしてではなく、例示としてみなされるべきである。加えて、本明細書に記載された実施例、ならびに「など」、「含む」などと表現された語句の提供は、特許請求の範囲の主題を特定の実施例に限定するものと解釈されるべきではなく、むしろ、実施例は、多くの可能な実施形態のうちの1つだけを例示することが意図されている。さらに、異なる図面中の同じ参照番号は、同じまたは類似の要素を特定することができる。

Claims (18)

  1. 自律車両を動作させるための方法であって、前記方法は、
    前記自律車両の検出システムを使用して、1つ以上のコンピューティングデバイスによって、前記自律車両の環境内の物体を検出することと、
    前記1つ以上のコンピューティングデバイスによって、設定された時間間隔中に、前記自律車両の視点から遮蔽される1つ以上の車線セグメントを決定することと、
    前記1つ以上のコンピューティングデバイスによって、前記遮蔽された1つ以上の車線セグメントと、前記物体の運転手または前記物体である歩行者の視野とに基づいて、前記自律車両に対する前記物体の反応時間を決定することであって、前記運転手または前記歩行者の視野は、前記運転手または前記歩行者場所および配向に基づいて特定される、ことと、
    前記1つ以上のコンピューティングデバイスによって、前記決定された反応時間に基づいて、前記自律車両の操縦のタイミングを含む運転命令を判定することと、
    前記1つ以上のコンピューティングデバイスによって、前記運転命令に基づいて、前記自律車両を動作させることと、を含む、方法。
  2. 前記1つ以上のコンピューティングデバイスによって、前記物体が、前記設定された時間間隔中に、前記遮蔽された1つ以上の車線セグメントのうちの少なくとも1つを通過することを予測することをさらに含む、請求項1に記載の方法。
  3. 前記反応時間を決定することは、前記運転手または前記歩行者が、前記設定された時間間隔中またはその後に、いつ前記自律車両に反応するかを予測することを含む、請求項1に記載の方法。
  4. 前記運転手または前記歩行者がいつ前記自律車両に反応するかを予測することは、前記運転手または前記歩行者の視野がいつ最小量の前記自律車両を含むかを決定することを含む、請求項3に記載の方法。
  5. 前記運転手または前記歩行者がいつ前記自律車両に反応するかを予測することは、前記遮蔽された1つ以上の車線セグメント内の前記物体前記運転手または前記物体である前記歩行者の場所が、前記設定された時間間隔中またはその後に前記自律車両の前記検出システムの視野内にあることを決定することを含む、請求項3に記載の方法。
  6. 前記設定された時間間隔中またはその後に前記運転手または前記歩行者の場所が前記自律車両の前記検出システムの視野内にあることを決定することは、前記自律車両の最下位点と前記運転手または前記歩行者の前記場所との間の線分が障害物と交差するかどうかを決定することを含む、請求項5に記載に方法。
  7. 前記反応時間を決定することは、前記物体の場所および配向にさらに基づいている、請求項1に記載の方法。
  8. 前記反応時間を決定することは、前記運転手または前記歩行者前記場所および配向にさらに基づいている、請求項1に記載の方法。
  9. 前記反応時間を決定することは、前記物体が前記遮蔽された1つ以上の車線セグメント内を走行している間の前記物体の予測される挙動を決定することを含む、請求項1に記載の方法。
  10. 前記反応時間を決定することが、
    前記物体が前記自律車両に反応し始める可能性が最も高い時点を決定することと、
    前記運転手または前記歩行者が視覚情報を処理し、前記視覚情報に反応するのに推定される知覚時間を前記時点に追加することと、を含む、請求項1に記載の方法。
  11. システムであって、
    自律車両の環境内の物体を検出するように構成されている検出システムと、
    前記検出システムと通信する1つ以上のコンピューティングデバイスと、を備え、前記1つ以上のコンピューティングデバイスは、
    設定された時間間隔中に、前記自律車両の視点から遮蔽される1つ以上の車線セグメントを決定することと、
    前記遮蔽された1つ以上の車線セグメントと、前記物体の運転手または前記物体である歩行者の視野とに基づいて、前記自律車両に対する前記物体の反応時間を決定することであって、前記運転手または前記歩行者の視野は、前記運転手または前記歩行者場所および配向に基づいて特定される、ことと、
    前記反応時間に基づいて、前記自律車両の操縦のタイミングを含む運転命令を判定することと、
    前記運転命令に基づいて、前記自律車両を動作させることと、を行うように構成されている、システム。
  12. 前記1つ以上のコンピューティングデバイスは、前記物体が、前記設定された時間間隔中に、前記遮蔽された1つ以上の車線セグメントのうちの少なくとも1つを通過することを予測するようにさらに構成されている、請求項11に記載のシステム。
  13. 前記1つ以上のコンピューティングデバイスは、前記運転手または前記歩行者が、前記設定された時間間隔中またはその後に前記自律車両に反応する予測時間に基づいて反応時間を決定するように構成されている、請求項11に記載のシステム。
  14. 前記1つ以上のコンピューティングデバイスは、前記運転手または前記歩行者の前記視野が前記自律車両の最小量を含むときに基づいて前記予測時間を決定するように構成されている、請求項13に記載のシステム。
  15. 前記1つ以上のコンピューティングデバイスは、前記遮蔽された1つ以上の車線セグメント内の前記物体前記運転手または前記物体である前記歩行者の場所が、前記設定された時間間隔中またはその後に、前記自律車両の前記検出システムの視野にあるときに基づいて前記予測時間を決定するように構成されている、請求項13に記載のシステム。
  16. 前記1つ以上のコンピューティングデバイスは、前記自律車両の最下位点と前記運転手または前記歩行者の前記場所との間の線分が障害物と交差するかどうかに基づいて、前記運転手または前記歩行者の前記場所が、前記設定された時間間隔中またはその後に、前記自律車両の前記検出システムの視野にあるときを決定するように構成されている、請求項15に記載のシステム。
  17. 前記自律車両をさらに備える、請求項11に記載のシステム。
  18. プログラムのコンピュータ可読命令が記憶されている非一時的有形コンピュータ可読記憶媒体であって、前記命令が、1つ以上のコンピューティングデバイスによって実行されたとき、前記1つ以上のコンピューティングデバイスに方法を実行させ、前記方法は、
    自律車両の検出システムを使用して、前記自律車両の環境内の物体を検出することと、
    設定された時間間隔中に、前記自律車両の視点から遮蔽される1つ以上の車線セグメントを決定することと、
    前記遮蔽された1つ以上の車線セグメントと、前記物体の運転手または前記物体である歩行者の視野とに基づいて、前記自律車両に対する前記物体の反応時間を決定することであって、前記運転手または前記歩行者の視野は、前記運転手または前記歩行者場所および配向に基づいて特定される、ことと、
    前記決定された反応時間に基づいて、前記自律車両の操縦のタイミングを含む運転命令を判定することと、
    前記運転命令に基づいて、前記自律車両を動作させることと、を含む、非一時的有形コンピュータ可読記憶媒体。
JP2022086350A 2018-12-14 2022-05-26 遮蔽を伴う道路利用者反応モデリングに従って自律車両を動作させること Active JP7506113B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US16/220,144 US10824148B2 (en) 2018-12-14 2018-12-14 Operating an autonomous vehicle according to road user reaction modeling with occlusions
US16/220,144 2018-12-14
PCT/US2019/064163 WO2020123199A1 (en) 2018-12-14 2019-12-03 Operating an autonomous vehicle according to road user reaction modeling with occlusions
JP2021532040A JP7082246B2 (ja) 2018-12-14 2019-12-03 遮蔽を伴う道路利用者反応モデリングに従って自律車両を動作させること

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021532040A Division JP7082246B2 (ja) 2018-12-14 2019-12-03 遮蔽を伴う道路利用者反応モデリングに従って自律車両を動作させること

Publications (2)

Publication Number Publication Date
JP2022119905A JP2022119905A (ja) 2022-08-17
JP7506113B2 true JP7506113B2 (ja) 2024-06-25

Family

ID=71072523

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021532040A Active JP7082246B2 (ja) 2018-12-14 2019-12-03 遮蔽を伴う道路利用者反応モデリングに従って自律車両を動作させること
JP2022086350A Active JP7506113B2 (ja) 2018-12-14 2022-05-26 遮蔽を伴う道路利用者反応モデリングに従って自律車両を動作させること

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021532040A Active JP7082246B2 (ja) 2018-12-14 2019-12-03 遮蔽を伴う道路利用者反応モデリングに従って自律車両を動作させること

Country Status (6)

Country Link
US (3) US10824148B2 (ja)
EP (1) EP3877227A4 (ja)
JP (2) JP7082246B2 (ja)
KR (2) KR102335684B1 (ja)
CN (2) CN113423627B (ja)
WO (1) WO2020123199A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020146445A1 (en) * 2019-01-08 2020-07-16 Philip Christopher Du Toit Classifying perceived objects based on activity
US11188082B2 (en) * 2019-01-11 2021-11-30 Zoox, Inc. Occlusion prediction and trajectory evaluation
CN109878513A (zh) * 2019-03-13 2019-06-14 百度在线网络技术(北京)有限公司 防御性驾驶策略生成方法、装置、设备及存储介质
US11161504B2 (en) * 2019-03-19 2021-11-02 Honda Motor Co., Ltd. Vehicle control apparatus and method
US11574089B2 (en) * 2019-06-28 2023-02-07 Zoox, Inc. Synthetic scenario generator based on attributes
US11568100B2 (en) * 2019-06-28 2023-01-31 Zoox, Inc. Synthetic scenario simulator based on events
US11360488B2 (en) * 2020-01-07 2022-06-14 International Business Machines Corporation Dynamic relative position reassignment of vehicle in autonomous vehicles ecosystem
US11526721B1 (en) 2020-02-21 2022-12-13 Zoox, Inc. Synthetic scenario generator using distance-biased confidences for sensor data
US11571969B2 (en) * 2020-06-04 2023-02-07 Toyota Motor Engineering & Manufacturing North America, Inc. External communication suppression device for driving automation
US11841704B2 (en) * 2020-11-04 2023-12-12 Waymo Llc Behavior prediction for railway agents for autonomous driving system
US11733054B2 (en) * 2020-12-11 2023-08-22 Motional Ad Llc Systems and methods for implementing occlusion representations over road features
JP2022147924A (ja) * 2021-03-24 2022-10-06 株式会社Subaru 運転支援装置
US20230177839A1 (en) * 2021-12-02 2023-06-08 Nvidia Corporation Deep learning based operational domain verification using camera-based inputs for autonomous systems and applications
KR20230087631A (ko) * 2021-12-08 2023-06-19 현대모비스 주식회사 사각지대 충돌을 예방하는 방법, 장치, 기록매체 및 차량
CN114882477A (zh) * 2022-03-04 2022-08-09 吉林大学 一种利用眼动信息预测自动驾驶接管时间的方法
KR20240065734A (ko) 2022-11-07 2024-05-14 (주) 오토노머스에이투지 자율주행시 통행우선권에 기초한 충돌 위험도 관리 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196031A (ja) 2012-03-15 2013-09-30 Toyota Motor Corp 運転支援装置
JP2014002460A (ja) 2012-06-15 2014-01-09 Toyota Motor Corp 運転支援装置
JP2015201010A (ja) 2014-04-07 2015-11-12 トヨタ自動車株式会社 予測外動き判定装置
JP2017206117A (ja) 2016-05-18 2017-11-24 トヨタ自動車株式会社 運転支援装置
JP2018195289A (ja) 2017-05-18 2018-12-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 車両システム、車両情報処理方法、プログラム、交通システム、インフラシステムおよびインフラ情報処理方法

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3592043B2 (ja) * 1997-07-31 2004-11-24 トヨタ自動車株式会社 交差点警報装置
JP4134891B2 (ja) * 2003-11-28 2008-08-20 株式会社デンソー 衝突可能性判定装置
JP2006298310A (ja) * 2005-04-25 2006-11-02 Nissan Motor Co Ltd 車両用走行制御装置
JP2008059178A (ja) * 2006-08-30 2008-03-13 Nippon Soken Inc 運転支援装置およびプログラム
US8532862B2 (en) 2006-11-29 2013-09-10 Ryan A. Neff Driverless vehicle
KR100845951B1 (ko) * 2007-05-23 2008-07-11 제일전기공업 주식회사 차량의 사각지대 감지를 통한 충돌회피시스템
JP2011194979A (ja) * 2010-03-18 2011-10-06 Toyota Motor Corp 運転支援装置
US8457827B1 (en) 2012-03-15 2013-06-04 Google Inc. Modifying behavior of autonomous vehicle based on predicted behavior of other vehicles
US9495874B1 (en) 2012-04-13 2016-11-15 Google Inc. Automated system and method for modeling the behavior of vehicles and other agents
US9180882B1 (en) * 2012-06-20 2015-11-10 Google Inc. Avoiding blind spots of other vehicles
JP6432948B2 (ja) 2014-09-30 2018-12-05 エイディシーテクノロジー株式会社 自動運転制御装置
US9934689B2 (en) * 2014-12-17 2018-04-03 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation at blind intersections
US9493157B2 (en) * 2015-01-29 2016-11-15 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation in obstructed occupant view and sensor detection environments
JP6550994B2 (ja) 2015-07-15 2019-07-31 日産自動車株式会社 走行制御装置の制御方法および走行制御装置
US9784592B2 (en) 2015-07-17 2017-10-10 Honda Motor Co., Ltd. Turn predictions
JP6565431B2 (ja) * 2015-07-28 2019-08-28 日産自動車株式会社 走行制御装置の制御方法および走行制御装置
US9694813B2 (en) 2015-08-25 2017-07-04 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation within a center turn lane
JP6555355B2 (ja) * 2015-11-04 2019-08-07 日産自動車株式会社 自動運転車両操作装置及び自動運転車両操作方法
JP6558238B2 (ja) * 2015-12-22 2019-08-14 アイシン・エィ・ダブリュ株式会社 自動運転支援システム、自動運転支援方法及びコンピュータプログラム
JP6319914B2 (ja) * 2016-02-18 2018-05-09 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
RU2734744C1 (ru) 2017-02-10 2020-10-22 Ниссан Норт Америка, Инк. Оперативное управление автономным транспортным средством, включающее в себя работу экземпляра модели частично наблюдаемого марковского процесса принятия решений
CN110678912A (zh) * 2017-05-26 2020-01-10 本田技研工业株式会社 车辆控制***及车辆控制方法
CN109033951B (zh) * 2017-06-12 2022-05-27 法拉第未来公司 用于基于图形处理来检测遮挡对象的***及方法
US10496099B2 (en) * 2017-07-18 2019-12-03 Uatc, Llc Systems and methods for speed limit context awareness
US10627825B2 (en) * 2017-11-22 2020-04-21 Waymo Llc Using discomfort for speed planning in autonomous vehicles
US10967861B2 (en) * 2018-11-13 2021-04-06 Waymo Llc Using discomfort for speed planning in responding to tailgating vehicles for autonomous vehicles
US11022971B2 (en) * 2018-01-16 2021-06-01 Nio Usa, Inc. Event data recordation to identify and resolve anomalies associated with control of driverless vehicles
EP3576074A1 (en) * 2018-06-01 2019-12-04 Volvo Car Corporation Method and system for assisting drivers to drive with precaution
US11807227B2 (en) * 2018-11-02 2023-11-07 Intel Corporation Methods and apparatus to generate vehicle warnings

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196031A (ja) 2012-03-15 2013-09-30 Toyota Motor Corp 運転支援装置
JP2014002460A (ja) 2012-06-15 2014-01-09 Toyota Motor Corp 運転支援装置
JP2015201010A (ja) 2014-04-07 2015-11-12 トヨタ自動車株式会社 予測外動き判定装置
JP2017206117A (ja) 2016-05-18 2017-11-24 トヨタ自動車株式会社 運転支援装置
JP2018195289A (ja) 2017-05-18 2018-12-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 車両システム、車両情報処理方法、プログラム、交通システム、インフラシステムおよびインフラ情報処理方法

Also Published As

Publication number Publication date
KR20210148438A (ko) 2021-12-07
KR102335684B1 (ko) 2021-12-07
CN114750783A (zh) 2022-07-15
US11619940B2 (en) 2023-04-04
JP2022119905A (ja) 2022-08-17
WO2020123199A1 (en) 2020-06-18
JP7082246B2 (ja) 2022-06-07
US20210109525A1 (en) 2021-04-15
US10824148B2 (en) 2020-11-03
KR20210083371A (ko) 2021-07-06
US20200192365A1 (en) 2020-06-18
JP2022508326A (ja) 2022-01-19
CN113423627B (zh) 2022-05-03
CN113423627A (zh) 2021-09-21
US20220206494A1 (en) 2022-06-30
EP3877227A4 (en) 2022-08-24
KR102446698B1 (ko) 2022-09-26
EP3877227A1 (en) 2021-09-15
US11307587B2 (en) 2022-04-19

Similar Documents

Publication Publication Date Title
JP7506113B2 (ja) 遮蔽を伴う道路利用者反応モデリングに従って自律車両を動作させること
JP7395529B2 (ja) 自律走行車の予測のテスト
JP7266053B2 (ja) 自律走行車の動的ルート決定
US11709490B1 (en) Behavior and intent estimations of road users for autonomous vehicles
KR102274273B1 (ko) 자율 차량을 위한 정지 위치 계획
US20210139048A1 (en) Tree policy planning for autonomous vehicle driving solutions
US11945433B1 (en) Risk mitigation in speed planning
JP6839269B2 (ja) センサデータから得られた物体の地図情報を使用した平滑化
EP3995379B1 (en) Behavior prediction for railway agents for autonomous driving system
CN112985435A (zh) 用于操作自主驾驶车辆的方法及***

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220603

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240613