JP6619778B2 - 自律走行車の車両交通行動を予測して運転決定をするための方法及びシステム - Google Patents

自律走行車の車両交通行動を予測して運転決定をするための方法及びシステム Download PDF

Info

Publication number
JP6619778B2
JP6619778B2 JP2017157510A JP2017157510A JP6619778B2 JP 6619778 B2 JP6619778 B2 JP 6619778B2 JP 2017157510 A JP2017157510 A JP 2017157510A JP 2017157510 A JP2017157510 A JP 2017157510A JP 6619778 B2 JP6619778 B2 JP 6619778B2
Authority
JP
Japan
Prior art keywords
gestures
gesture
predicted
detected
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017157510A
Other languages
English (en)
Other versions
JP2018083610A (ja
Inventor
リー,リーユン
ミャオ,ジンハオ
ファン,シーユェン
ヤン,イーシュアン
ワン,ジンガオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu USA LLC
Original Assignee
Baidu USA LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu USA LLC filed Critical Baidu USA LLC
Publication of JP2018083610A publication Critical patent/JP2018083610A/ja
Application granted granted Critical
Publication of JP6619778B2 publication Critical patent/JP6619778B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00276Planning or execution of driving tasks using trajectory prediction for other traffic participants for two or more other traffic participants
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18154Approaching an intersection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/175Autonomous driving
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4026Cycles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4044Direction of movement, e.g. backwards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

本発明の実施形態は大体自律走行車の操作に関する。より具体的に、本発明の実施形態は自律走行車の車両交通行動を予測して運転決定をすることに関する。
自律モード(例えば、自律運転)で走行している車両は、乗員(特に運転者)を、特定の運転に関連する責任から解放できる。自律モードで走行している場合、車両は車載センサで様々な場所にナビゲートすることができ、それにより車両がヒューマンコンピュータインタラクションの最も少ない場合又はいくつかの乗客がない場合で運行することを可能にさせる。
人間が運転する際に様々な決定を行うように、自律走行車は常に実際の周囲環境に応じて即時に運転決定をしなければならず、前記周囲環境は駐車制御交差点又は交差口、道譲り(give way)制御交差口等を含むが、これらに制限されない。このような環境は、例えばどの車両が通行権を有するのかを決定しにくい可能性があるため、運転困難(例えば、デッドロック)を引き起こす場合が多い。しかしながら、人間はジェスチャー(例えば、手の動き)によって互いに通信することによって困難を容易に解決する。しかしながら、これは自律走行車については挑戦的である。
本発明の一態様によれば、自律走行車を操作するためのコンピュータ実施方法を提供し、この方法は、
自律走行車の1つ又は複数のセンサから受信されたセンサデータに基づいて1つ又は複数の予測軌跡を生成し、前記予測軌跡の中のそれぞれがいずれも確率に関連するステップと、
ジェスチャー検出プロトコルに基づいて1つ又は複数の車両からの1つ又は複数のジェスチャーを検出するステップと、
検出されたジェスチャーに基づいて、ジェスチャー送信プロトコルにより前記自律走行車から前記1つ又は複数の車両と通信するための1つ又は複数のジェスチャーを送信するステップと、
検出されたジェスチャー、送信されたジェスチャー及び前記予測軌跡の関連する確率に基づいて前記予測軌跡を修正するステップと、
修正された予測軌跡に基づいて前記自律走行車を制御するステップとを含む。
本発明の別の一態様によれば、命令が記憶された非一時的な機械可読媒体を提供し、前記命令が、プロセッサにより実行される場合、前記プロセッサに自律走行車を操作するための操作を実行させ、前記操作は、
自律走行車の1つ又は複数のセンサから受信されたセンサデータに基づいて1つ又は複数の予測軌跡を生成し、前記予測軌跡の中のそれぞれがいずれも確率に関連することと、
ジェスチャー検出プロトコルに基づいて1つ又は複数の車両からの1つ又は複数のジェスチャーを検出することと、
検出されたジェスチャーに基づいて、ジェスチャー送信プロトコルにより前記自律走行車から前記1つ又は複数の車両と通信するための1つ又は複数のジェスチャーを送信することと、
検出されたジェスチャー、送信されたジェスチャー及び前記予測軌跡の関連する確率に基づいて前記予測軌跡を修正することと、
修正された予測軌跡に基づいて前記自律走行車を制御することとを含む。
本発明の別の態様によれば、感知及び計画システムを提供し、このシステムは、プロセッサと、前記プロセッサに連結されて命令を記憶するメモリと、を備え、前記命令が、前記プロセッサにより実行される場合、前記プロセッサに自律走行車を操作するための操作を実行させ、前記操作は、
自律走行車の1つ又は複数のセンサから受信されたセンサデータに基づいて1つ又は複数の予測軌跡を生成し、前記予測軌跡の中のそれぞれがいずれも確率に関連することと、
ジェスチャー検出プロトコルに基づいて1つ又は複数の車両からの1つ又は複数のジェスチャーを検出することと、
検出されたジェスチャーに基づいて、ジェスチャー送信プロトコルにより前記自律走行車から前記1つ又は複数の車両と通信するための1つ又は複数のジェスチャーを送信することと、
検出されたジェスチャー、送信されたジェスチャー及び前記予測軌跡の関連する確率に基づいて前記予測軌跡を修正することと、
修正された予測軌跡に基づいて前記自律走行車を制御することとを含む。
本発明の実施形態は、例示的な形態によって示されるものの図面の各図に限定されるものではなく、図面における同じ図面符号が同じ要素を示す。
本発明の一実施形態に係るネットワーク化システムを示すブロック図である。 本発明の一実施形態に係る自律走行車の例を示すブロック図である。 本発明の一実施形態に係る自律走行車の感知及び計画システムの例を示すブロック図である。 本発明の一実施形態に係る自律走行車を操作する例を示すブロック図である。 本発明の一実施形態に係る自律走行車を操作する過程を示す流れ図である。 本発明の一実施形態に係る運転シーンを示す例である。 本発明の一実施形態に係る運転シーンを示す例である。 一実施形態に係るデータ処理システムを示すブロック図である。
以下、詳細な説明を参照しながら、本発明の様々な実施形態及び方法を説明し、図面は、前記様々な実施形態を示す。以下の説明及び図面は、本出願を説明するためのものであり、本出願を限定するものではない。本出願の様々な実施形態を完全に把握するために、多数の特定の詳細を説明する。なお、いくつかの例では、本発明の実施形態に対する簡単な説明を提供するために、周知技術又は従来技術の詳細については説明していない。
本明細書では「一つの実施形態」又は「実施形態」とは、当該実施形態について組み合わせて説明された特定の特徴、構造又は特性が、本出願の少なくとも一つの実施形態に含まれていてもよい。語句「一つの実施形態では」は、本明細書全体において同一実施形態を指すとは限らない。
いくつかの実施形態によれば、システムは、人間同士の間の通信を模倣して且つ車両の若干の予測軌跡を生成するように、運転シーン(例えば駐車標識交差点)内の1つ又は複数の車両に対して軌跡予測を実行し、それにより運転環境における運転困難を解決する。システムは、車両からの1つ又は複数のジェスチャー(例えば、人間ジェスチャー)を検出したり認識したりして且つ検出したジェスチャーに基づいて車両と通信するための1つ又は複数のジェスチャーを送信する。例えば、送信したジェスチャーは、人間のジェスチャーを模倣する。検出したジェスチャー及び送信したジェスチャーに基づいて、システムは、車両の予測軌跡を補正したり修正したりして、且つ修正された軌跡を使用して自律走行車に対する運転決定を効果的にする。修正された軌跡によって、自律走行車は、例えば運転シーン内の車両を譲るか前記車両を追い越すかを決定する。
一実施形態において、自律走行車の1つ又は複数のセンサから受信したセンサデータに応答して、1つ又は複数の予測軌跡を生成し、各予測軌跡は、関連する確率を有する。1つ又は複数の運転シーンを認識して、前記運転シーンは、ジェスチャー認識をトリガーすることができる。各認識された運転シーンに対して、ジェスチャー検出プロトコルに基づいて1つ又は複数の車両からの1つ又は複数のジェスチャーを検出する。検出したジェスチャーに基づき、ジェスチャー送信プロトコルに基づいて、自律走行車からの前記車両と通信するための1つ又は複数のジェスチャーを送信する。検出したジェスチャー、送信したジェスチャー及び予測軌跡の関連する確率に基づいて予測軌跡を修正する。修正された予測軌跡に基づいて自律走行車を制御する。
図1は、本発明に係る一実施形態に係る自律走行車のネットワーク配置を示すブロック図である。図1を参照して、ネットワーク配置100はネットワーク102によって1つ以上のサーバ103〜104に通信可能に接続することができる自律走行車101を含む。1つの自律走行車を示すが、ネットワーク102によって複数の自律走行車は互いに接続され、及び/又はサーバ103〜104に接続されることができる。ネットワーク102は、任意のタイプのネットワーク、例えば有線又は無線のローカルエリアネットワーク(LAN)、例えばインターネット、セルラーネットワーク、衛星ネットワークの広域ネットワーク(WAN)又はその組み合わせであってもよい。サーバ103〜104は、任意のタイプのサーバ又はサーバクラスタ、例えばWebサーバ又はクラウドサーバ、アプリケーションサーバ、バックエンドサーバ又はその組み合わせであってもよい。サーバ103〜104は、データ分析サーバ、内容サーバ、交通情報サーバ、地図(マップ)及び興味のあるポイント(MPOI)サーバ又は位置サーバ等であってもよい。
自律走行車とは、自律モードになるように配置できる車両を指し、前記自律モードで車両が運転者からの入力が非常に少ない又はない場合にもナビゲーションして環境を通過する。このような自律走行車は、センサシステムを含んでいてもよく、前記センサシステムは、車両走行環境に関連する情報を検出するように配置される1つ以上のセンサを有する。前記車両及びその関連するコントローラには検出した情報を使用してナビゲーションし環境を通過する。自律走行車101は、手動モード、完全自律モード又は部分自律モードで運行することができる。
一実施形態において、自律走行車101は、感知及び計画システム110と、車両制御システム111と、無線通信システム112と、ユーザインターフェースシステム113と、センサシステム114とを含むが、これらに制限されない。自律走行車101は、通常の車両に含まれるある一般的な構成要素(部材)、例えばエンジン、車輪、ハンドル、変速器等をさらに含んでいてもよく、前記構成要素は、車両制御システム111及び/又は感知及び計画システム110により多種の通信信号及び/又は命令(例えば、加速度信号又は命令、減速信号又は命令、ステアリング信号又は命令、ブレーキ信号又は命令等)を使用して制御することができる。
構成要素110〜114は、インターコネクト、バス、ネットワーク又はそれらの組み合わせを介して互いに通信可能に接続することができる。例えば、構成要素110〜114は、コントローラローカルエリアネットワーク(CAN)バスを介して互いに通信可能に接続することができる。CANバスは、マイクロコントローラ及び装置がホストコンピューターのない使用において互いに通信することを許可するような車両バス標準として設計される。それはメッセージに基づくプロトコルであり、最初に自動車内における複数の電線のために設計されたが、数多くのその他の環境(状況)にも用いられる。
現在、図2を参照して、一実施形態において、センサシステム114は、1つ以上のカメラ211と、全地球測位システム(GPS)ユニット212と、慣性計測ユニット(IMU)213と、レーダーユニット214と、LIDAR(光検出及び測距)ユニット215とを含むが、これらに制限されない。GPSシステム212は、送受信機を含んでもよく、前記送受信機は、自律走行車の位置に関する情報を提供するように動作することができる。IMUユニット213は、慣性加速度に基づいて自律走行車の位置及び方向変化を感知することができる。レーダーユニット214は、無線信号を利用して自律走行車のローカル環境内の対象を感知するシステムを示すことができる。いくつかの実施形態において、対象を感知する以外、レーダーユニット214は、さらに対象の速度及び/又は進行方向を感知することができる。LIDARユニット215は、レーザを使用して自律走行車の所在する環境における対象を感知することができる。その他のシステム構成要素以外、LIDARユニット215は1つ以上のレーザ光源、レーザースキャナ及び1つ以上の検出器をさらに含んでいてもよい。カメラ211は、自律走行車の周辺環境の画像をキャプチャするための1つ以上の装置を含んでいてもよい。カメラ211は、スチルカメラ及び/又はビデオカメラであってもよい。カメラは、例えば回転及び/又は傾斜のプラットフォームに取り付けられる、機械的に移動可能なものであってもよい。
センサシステム114は、その他のセンサ、例えばソナーセンサ、赤外線センサ、ステアリングセンサ、スロットルセンサ、ブレーキセンサ、及びオーディオセンサ(例えばマイクロフォン)をさらに含んでいてもよい。オーディオセンサは、自律走行車周辺の環境から音をキャプチャするように配置されていてもよい。ステアリングセンサは、ハンドル、車両の車輪又はその組み合わせのステアリング角を感知するように配置できる。スロットルセンサ及びブレーキセンサは、それぞれ車両のスロットル位置及びブレーキ位置を感知する。いくつかの場合、スロットルセンサ及びブレーキセンサは、集積型スロットル/ブレーキセンサに一体化されていてもよい。
一実施形態において、車両制御システム111は、ステアリングユニット201と、スロットルユニット202(加速ユニットとも呼ばれる)と、ブレーキユニット203とを含むが、これらに制限されない。ステアリングユニット201は、車両の方向又は進行方向を調整することに用いられる。スロットルユニット202は、モーター又はエンジンの速度を制御して、続いて車両の速度及び加速度を制御することに用いられる。ブレーキユニット203は、摩擦を提供することによって車両の車輪又はタイヤをスローダウンして車両を減速させることに用いられる。注意すべきことに、図2に示すような構成要素は、ハードウェア、ソフトウェア又はその組み合わせによって実現されることがある。
図1を再び参照して、無線通信システム112は、自律走行車101と、例えば装置、センサ、その他の車両等の外部システムとの間に通信することを許可する。例えば、無線通信システム112は、1つ以上の装置に直接に又は通信ネットワークを介して無線通信し、例えばネットワーク102によってサーバ103〜104に通信できる。無線通信システム112は、任意のセルラー通信ネットワーク又は無線ローカルエリアネットワーク(WLAN)(例えばWiFi)を使用して他の構成要素やシステムに通信できる。無線通信システム112は、例えば赤外線リンク、ブルートゥース等を使用して、装置(例えば、乗客の移動装置、表示装置、車両101内のスピーカー)に直接に通信できる。ユーザインターフェースシステム113は、車両101内で実行される周辺装置の一部であってもよく、例えばキーボード、タッチスクリーンディスプレイ装置、マイクロフォン、及びスピーカー等を含む。
自律走行車101の一部又は全ての機能は、特に自律運転モードで操作する場合、感知及び計画システム110により制御したり管理したりすることができる。感知及び計画システム110は、必要なハードウェア(例えば、プロセッサ、メモリ、メモリ)、及びソフトウェア(例えば、オペレーティングシステム、計画、及びルーティングプログラム)を含み、センサシステム114、車両制御システム111、無線通信システム112、及び/又はユーザインターフェースシステム113から情報を受信し、受信された情報を処理し、出発地から目的地までのルートや経路を計画し、そして計画及び制御情報に基づいて車両101を運転させる。あるいは、感知及び計画システム110と車両制御システム111とは一体化されてもよい。
例えば、乗客のユーザとして、例えばユーザインターフェースによって旅程の出発位置及び目的位置を指定することができる。感知及び計画システム110は、旅関連データを取得する。例えば、感知及び計画システム110は、MPOIサーバから位置及びルート情報を取得することができ、前記MPOIサーバはサーバ103〜104の一部であってもよい。位置サーバは、位置サービスを提供し、かつMPOIサーバはマップサービス及びある位置のPOIを提供する。あるいは、このような位置及びMPOI情報は、感知及び計画システム110の永続記憶装置にローカルでキャッシュされることがある。
自律走行車101がルートに沿って走行する期間に、感知及び計画システム110は、さらに交通情報システムやサーバ(TIS)からリアルタイム交通情報を取得できる。注意すべきことに、サーバ103〜104は、第三者エンティティにより動作されることがある。あるいは、サーバ103〜104の機能は、感知及び計画システム110と一体化されていてもよい。リアルタイム交通情報、MPOI情報、位置情報、及びセンサシステム114が検出又は感知したリアルタイムなローカル環境データ(例えば、障害物、対象、付近車両)に基づいて、感知及び計画システム110は、安全で効果的に指定した目的地に到達するように、最適なルートを計画し、かつ計画したルートにより例えば車両制御システム111を介して車両101を運転することができる。
一実施形態において、運転環境における車両の交通行動を予測する場合、自律走行車101は、センサシステム114からセンサデータを受信する。センサデータに基づいて車両の1つ又は複数の予測軌跡を生成し、各予測軌跡は関連する確率を有する。自律走行車101はジェスチャー認識をトリガーできる運転シーンを認識し、且つ認識された運転シーンにおけるそれぞれに対して、自律走行車101はジェスチャー検出プロトコルに基づいて車両からの1つ又は複数のジェスチャーを検出する。検出したジェスチャーに基づき、ジェスチャーに基づくプロトコルを送信し、自律走行車101から1つ又は複数のジェスチャーを送信する。検出したジェスチャー、送信したジェスチャー及び予測軌跡に関連する確率に基づいて予測軌跡を修正する。
予測軌跡の修正は、第1組の予測軌跡を除去するとともに第2組の予測軌跡を短縮することを含む。例えば、第1組は低関連確率を有する予測軌跡であり、且つ第2組は合理的な予測軌跡を有する予測軌跡である。修正された軌跡を使用して、自律走行車101は運転決定をすることができ、例えば車両のために譲り又は前記車両を追い越す。
図3は、本発明の一実施形態に係る自律走行車と共に使用される感知及び計画システムの例を示すブロック図である。システム300は、図1の自律走行車101の一部(感知及び計画システム110、制御システム111及びセンサシステム114を含むが、これらに制限されない)となるように実現されることがある。図3を参照し、感知及び計画システム110は、位置決めモジュール301、感知モジュール302、決定モジュール303、計画モジュール304、制御モジュール305、特徴抽出モジュール306、行動予測モジュール307、シーン検出モジュール308、ジェスチャー送信モジュール309、軌跡強化モジュール310及びジェスチャー検出モジュール312を含むが、これらに制限されない。
モジュール301〜311における一部又は全部は、ソフトウェア、ハードウェア又はその組み合わせで実現されていてもよい。例えば、これらのモジュールは、永続的記憶装置352に取り付けられ、メモリ351にロードされ、かつ1つ以上のプロセッサ(図示せず)により実行されていてもよい。注意すべきことに、これらのモジュールにおける一部又は全部は、図2の車両制御システム111の一部又は全部のモジュールに通信可能に接続されていてもよく、一体化されていてもよい。モジュール301〜311における一部は、一緒に集積モジュールとして一体化されていてもよい。
(地図及びルーティングモジュールとも言われる)位置決めモジュール301は、ユーザの旅程又はルートに関連する任意のデータを管理する。ユーザは、例えばユーザインターフェースを介してログインするとともに旅程の出発位置及び目的位置を指定することができる。位置決めモジュール301は、旅程に関連するデータを取得するように、自律走行車300(システム)のその他の構成要素(例えばマップ及びルート情報312)と通信する。例えば、位置決めモジュール301は、位置サーバと、地図及びPOI(MPOI)サーバから位置及びルート情報を取得することができる。位置サーバは、位置サービスを提供し、且つMPOIサーバは、マップ及びルート情報312の一部としてキャッシュされうる地図サービスと特定な位置のPOIとを提供する。システム300がルートに沿って移動する時に、位置決めモジュール301は、さらに交通情報システム又はサーバからリアルタイム交通情報を取得することができる。
センサシステム114により提供されたセンサデータ、及び位置決めモジュール301により得られた位置決め情報に基づいて、感知モジュール302は、周辺環境に対する感知情報を決定する。感知情報は、普通の運転者が自分で運転している車両周辺から感知したもの(状況)を示すことができる。感知情報は、例えば対象形式で現される車線配置(例えば、ストレート又はカーブ)、トラフィック信号、他の車両の相対位置、歩行者、建築物、横断歩道又はその他の交通関連標識(例えば、停止標識、譲り標識)などを含んでいてもよい。
感知モジュール302は、コンピュータビジョンシステム又はコンピュータビジョンシステムの機能を含んでいてもよく、自律走行車環境における対象及び/又は特徴を認識するように、1つ以上のカメラによりキャプチャされた画像を処理及び分析することに用いられる。前記対象は、交通信号、車道の境界線、他の車両、歩行者及び/又は障害物等を含んでいてもよい。コンピュータビジョンシステムは、対象認識アルゴリズム、ビデオトラッキング及びその他のコンピュータビジョン技術を使用することができる。いくつかの実施形態において、コンピュータビジョンシステムは、環境をマッピングし、対象を追跡し、且つ対象の速度を推定すること等ができる。感知モジュール302は、その他のセンサ(例えばレーダー及び/又はLIDAR)により提供されたその他のセンサデータに基づいて対象を検出することもできる。
それぞれの対象に対して、決定モジュール303は、如何に対象を処理する決定をする。例えば、特定な対象(例えば、交差ルートにおける他の車両)及び対象を記述するメタデータ(例えば、速度、方向、ステアリング角)に対して、決定モジュール303は、遇う対象に如何に対応する(例えば、追い越し、道譲り、停止、通過)ことを決定する。決定モジュール303は、永続的記憶装置352(図示せず)に記憶されてもよい1セットのルール(例えば交通ルール)に基づいてこのような決定をすることができる。
感知したそれぞれ対象に対する決定に基づいて、計画モジュール304は、自律走行車のためにルート又は経路及び運転パラメータ(例えば、距離、速度及び/又はステアリング角)を計画する。すなわち、所定対象に対して、決定モジュール303は前記対象に対して如何に対応するかを決定し、計画モジュール304は如何に実行するかを決定する。例えば、所定対象に対して、決定モジュール303は、前記対象を追い越すことを決定することができ、計画モジュール304は、前記対象の左側に追い越すか、右側に追い越すかを決定することができる。計画モジュール304は、計画及び制御データを生成し、車両300が次の移動周期(例えば、次のルート/経路セグメント)に如何に移動するかを記述する情報を含む。例えば、計画及び制御データは車両300が毎時間30マイル(mph)の速度で10メートル移動し、次に25mphの速度で右車線まで変わることを指示することができる。
計画及び制御データに基づいて、制御モジュール305は計画及び制御データにより定義されたルート又は経路に基づいて、車両制御システム111へ適切な命令又は信号を送信することによって自律走行車を制御及び運転する。前記ルート又は経路に沿って違う場所で適時に適切な車両設置又は運転パラメータ(例えば、スロットル、ブレーキ及びステアリング命令)を使用して車両を第1点から第2点まで運転するように、計画及び制御データは十分な情報を含む。
注意すべきなのは、決定モジュール303及び計画モジュール304は、集積モジュールに一体化されてもよい。決定モジュール303/計画モジュール304は、自律走行車の運転経路を決定するために、ナビゲーションシステム又はナビゲーションシステムの機能を含んでいてもよい。例えば、ナビゲーションシステムは、自律走行車が以下の経路に沿って移動することを実現するための一連の速度及びディレクショナ進行方向を決定することができ、前記経路は、自律走行車を総体的に最終目的位置を向けて通じる車線経路に進ませると同時に、基本的に感知された障害物を避けることができる。目的地は、ユーザインターフェースシステム113により実現されたユーザ入力に基づいて設置できる。ナビゲーションシステムは、自律走行車が走行していると同時に走行経路を動的に更新することができる。ナビゲーションシステムは、自律走行車用の走行経路を決定するように、GPSシステム及び1つ以上の地図からのデータを合併することができる。
決定モジュール303/計画モジュール304は、自律走行車環境における潜在障害物を、認識・評価・回避又はその他の方式で迂回するために、衝突回避システム又は衝突回避システムの機能をさらに含んでいてもよい。例えば、衝突回避システムは、以下の方式によって自律走行車のナビゲーションにおける変更を実現することができ、制御システム111の中の1つ以上のサブシステムを動作してターン操縦、ステアリング操縦、ブレーキ操縦等を採る。衝突回避システムは、周辺の交通モード、道路状況等に基づいて障害物を回避可能な操縦を自動的に決定することができる。衝突回避システムは、その他のセンサシステムが自律走行車がターンして入ろうとする隣接領域における車両、建築障害物等を検出する際にターン操縦を採らないように配置できる。衝突回避システムは、使用可能であり且つ自律走行車の乗員の安全性を最大化させる操縦を自動的に選択することができる。衝突回避システムは、自律走行車の乗員室内で最小の加速度を出現させることが予測された回避操縦を選択することができる。
特徴抽出モジュール306は、行動予測モジュール307に用いられるデータを構成するように、センサシステム114からセンサデータを抽出する。例えば、特徴抽出モジュール306は、センサシステム114における様々なセンサからセンサデータを読み取ったり検索したりし、且つ前記センサデータを感知及び計画システム110のメモリに記憶することができる。
センサデータに基づいて、行動予測モジュール307は他の対象(例えば車両、歩行者及び/又は自転車を乗る者)の1つ又は複数の予測走行軌跡を計算して生成し、各予測走行軌跡は関連する確率を有する。関連する確率は、例えばその他の車両又は歩行者が前記確率に関連する予測軌跡において走行又は歩く可能性又は確率である。
シーン検出モジュール308は、ジェスチャー認識又は対話型ジェスチャーに基づく通信をトリガーする1つ又は複数の運転シーンを検出する。運転シーンは、例えば駐車制御交差口、横断歩道又は道譲り制御交差口であってもよい。
交互式ジェスチャーに基づく通信をトリガーする際に、1つ又は複数の車両(例えば、自律走行車及び/又は非自律走行車)又は歩行者からの1つ又は複数のジェスチャー(例えば、手振り)を検出するように、ジェスチャー検出モジュール311は活性化されたり呼び出されたりする。検出したジェスチャーは無線インターフェース(例えば、Wi−Fi、ブルートゥース又はいずれかのその他の適切な無線インターフェース)を介して受信した人間ジェスチャー及び/又は信号を含みうる。
検出したジェスチャーに基づいて、ジェスチャー送信モジュール309は、自律走行車101に1つ又は複数のジェスチャーを送信して車両と通信するようにさせる。送信されたジェスチャーは、例えば信号を送信して他の車両又は歩行者(又は自転車を乗る者)が通過することを通知する道譲りジェスチャー、又は自律走行車101が操縦されて且つその他の車両又は歩行者に道を譲ってもらうことを通知する追い越しジェスチャーであってもよい。
軌跡強化モジュール310は、検出したジェスチャー及び送信されたジェスチャーを利用して、且つ行動予測モジュール307により生成した予測走行軌跡を最適化する。例えば、軌跡強化モジュール310は、発生の可能性が低いか又は発生の可能性がない一部の予測走行軌跡を除去することができ、且つより可能な予測走行軌跡又は合理的な関連する確率(例えば、30%、40%又は50%の以上)を有する予測走行軌跡を残しておく。
図4は、本発明の一実施形態に係る自律走行車を操作する例を示すブロック図である。図4では、特徴抽出モジュール306は呼び出されて、自律走行車101に取り付けられる多種のセンサから例えばリアルタイムなセンサデータを抽出する。センサデータは、自律走行車101の速度、方向又は走行方向、現在位置、及び車線および交差点情報(例えば、停止標識、道譲り標識、合流(merge)標識、トラフィックライト)を含むことができる。
センサデータ及び予め確立した機械学習モデル、例えば一定のヨーレートおよび加速度(CYRA)の運動モデル及び/又は操縦認識モデル(MRM)に基づいて、行動予測モジュール307は他の移動対象(例えば、車両、歩行者、自転車に乗る者)の1つ又は複数の予測軌跡401を計算して出力する。予測軌跡401の中のそれぞれは他の移動対象が予測軌跡内で走行する可能性を示す関連する確率を含みうる。
行動予測モジュール307の後、ジェスチャー認識をトリガーする1つ又は複数の運転シーンを認識するように、シーン検出モジュール308は呼び出される。例えば、シーン検出モジュール308はトリガー又はジェスチャー認識を必要とするシーンを指示する運転環境内の対象を認識することができる。一部の実施形態において、対象は停止標識であってもよく、それは車両が例えば同時に到達できる駐車制御交差口を指示する。
ジェスチャー認識をトリガーする少なくとも1つのシーンを認識した場合、各認識された運転シーンに対して、ジェスチャー検出モジュール311は、ジェスチャー検出プロトコルによって1つ又は複数の車両(例えば、駐車制御交差口内の車両)からの1つ又は複数のジェスチャーを検出する。幾つかの実施形態において、ジェスチャーは、車両(例えば、その他の自律走行車)から無線受信された人間ジェスチャー(例えば、人間の手の動き)又は信号であってもよい。幾つかの実施形態において、1つ又は複数のカメラ(例えば、カメラ211)及びコンピュータビジョンアルゴリズム(例えば空間ジェスチャーアルゴリズム)を実行するソフトウェア又はミドルウェアによってジェスチャーを検出し、前記コンピュータビジョンアルゴリズムは、3Dモデル及び/又は外観に基づくアルゴリズムを含みうる。幾つかの実施形態において、ジェスチャー検出プロトコルは、あらかじめ定義された1組の値(例えば、列挙値)を含むことができ、ここで、各値は特定のジェスチャー(例えば、追い越し、道譲り)に対応する。
検出されたジェスチャーに応答して、ジェスチャー送信モジュール309は、ジェスチャー送信プロトコルによって自律走行車101にその他の車両と通信するための1つ又は複数のジェスチャーを送信させるように制御したり命令したりする。幾つかの実施形態において、検出されたジェスチャーが追い越しジェスチャーである場合、ジェスチャー送信モジュール309は、自律走行車101に道譲りジェスチャーを送信させるように命令することができる。代わりに、検出されたジェスチャーが道譲りジェスチャーである場合、ジェスチャー送信モジュール309は、自律走行車101に追い越しジェスチャーを送信させるように命令することができる。幾つかの実施形態において、ジェスチャーを検出しないか又はジェスチャーが認識できないものである場合、ジェスチャー送信モジュール309は、更に自律走行車101に道譲りジェスチャーを送信させるように命令し、これにより、信号を送信してその他の車両に通過又は追い越し可能の旨を通知し、自律運転での「安全第一」規則を満たす。
ジェスチャーは、例えば以下の複数の形態で送信されることができる。例えばデオ(例えば、自律走行車101に取り付けられた平面又は曲面スクリーンを有する外部表示装置で)、物理信号(例えば、自律走行車101に取り付けられるか又は自律走行車101に接続されたアーム)、人間ジェスチャー模倣(例えば、ヒューマノイドロボットアーム)、強化に基づいて実現した人間ジェスチャー及び/又は無線信号伝送(例えば、その他の自律走行車まで)で送信することができる。幾つかの実施形態において、ジェスチャー送信プロトコルは、あらかじめ定義された1組の値(例えば、列挙値)を含むことができ、各値は特定の送信ジェスチャーに対応する。
検出されたジェスチャー、送信されたジェスチャー及び予測軌跡401は軌跡強化モジュール310に提供されることにより、予測軌跡401を強化又は最適化するとともに強化した予測軌跡402を生成する。例えば、検出されたジェスチャー及び送信されたジェスチャーを利用して、軌道強化モジュール310は、幾つかの可能性が低い軌跡(例えば、例えば30%、40%又は50%よりも小さい低関連性確率を有する予測軌跡)を削除することにより予測軌跡401を修正することができ、且つ例えば隠れマルコフモデルによって可能性がより高い軌跡を残したり選択したりする。幾つかの実施形態において、送信されたジェスチャーに基づいて、軌跡強化モジュール310は、各予測軌跡にタイムスタンプ(前記タイムスタンプはその他の車両(例えば)が道を譲るか又は追い越しようとする時間を指示する)をそれぞれ加えることによって幾つかの予測軌跡401を短縮又は延長することができる。このため、例えば、自律走行車101の角度から見る場合、道譲りジェスチャーを送信すると短い計画軌跡を引き起こすことができ、且つ追い越しジェスチャーを送信すると自律走行車101のより長い計画軌跡を引き起こすことができる。
図5は、本発明の一実施形態に係る自律走行車を操作する過程を示すフローチャートである。過程500は処理ロジックによって実行されることができ、前記処理ロジックはソフトウェア、ハードウェア又はその組み合わせを含みうる。例えば、過程500は、図1の感知及び計画システム110によって実行されることができる。図5を参照して、ブロック501において、処理ロジックは、自律走行車(例えば、自律走行車101)の1つ又は複数のセンサからセンサデータを受信する。ブロック502において、処理ロジックはセンサデータに基づいて1つ又は複数の予測軌跡を生成し、各予測軌跡は関連する確率を有する。ブロック503において、処理ロジック認識によりジェスチャー認識の1つ又は複数の運転シーン(例えば、停止標識交差点)をトリガーする。各運転シーンに対して、ブロック504において、処理ロジックは、ジェスチャー検出プロトコルによってその他の車両からの1つ又は複数のジェスチャー(例えば、道譲り又は追い越しジェスチャー)を検出する。ブロック505において、処理ロジックは検出されたその他の車両からのジェスチャーに基づいて、ジェスチャー送信プロトコルにより、その他の車両と通信するための1つ又は複数のジェスチャーを送信する。ブロック506において、処理ロジックは、検出されたその他の車両からのジェスチャー、送信されたジェスチャー及び予測軌跡の関連する確率に基づいて予測軌跡を強化する。
図6Aと図6Bは、本発明の一実施形態に係る運転シーンの例示を示す。図6Aを参照して、このような例示において、「主車両」と言われてもよい第1車両601(例えば、自律走行車101)と「その他の車両」と言われてもよい第2車両602は、同一の時間又はほぼ同一の時間に停止標識交差点に到達する。このような場合には、主車両は他の車両の通過軌跡604a及び左ステアリング軌跡604bという2つの予測軌跡を計算して生成することができ、2つの軌跡はすべて主車両の計画軌跡605に介在する。そして、主車両は、ジェスチャー認識をトリガーする1つ又は複数の運転シーン(例えば、シーン検出モジュール308を呼び出すことによって)を認識することができる。この例示では停止標識交差点であるので、ジェスチャー認識をトリガーする運転シーンが認識される。その後、主車両は、ジェスチャー経路603を介して他の車両からの1つ又は複数のジェスチャー(例えば、ジェスチャー検出モジュール311を呼び出すことによって)を検出することができる。主車両は、任意のジェスチャーを検出しないか、又は認識できないジェスチャー又は追い越しジェスチャーを検出した場合、主車両は、これによってジェスチャー経路603を介して道譲りジェスチャーを送信する。送信されたジェスチャーを利用して、主車両は、計画軌跡605を修正して短い計画軌跡615を生成することができ、図6Bに示すように、これにより操縦する前にその他の車両に道を譲るか又はその他の車両が例えば左ステアリング軌跡604bを採用することを可能にする。
注意すべきことに、前記に示されて記述された一部又は全部の構成要素は、ソフトウェア、ハードウェア又はその組み合わせによって実現されうる。例えば、このような構成要素は、永続的記憶装置にインストールされるとともに記憶されたソフトウェアとして実現されていてもよく、前記ソフトウェアは、本出願にわたって記載の手順又は動作を実施するように、プロセッサ(図示せず)によってメモリにロードして実行されていてもよい。あるいは、このような構成要素は、集積回路(例えば特定用途向けIC又はASIC)、デジタル信号プロセッサ(DSP)、又はフィールドプログラマブルゲートアレイ(FPGA))にプログラミングされ又は組み込みされた専用ハードウェアにおける実行可能なコードとして実現されてもよく、前記実行可能なコードは、アプリケーションからの対応するドライバープログラム及び/又はオペレーティングシステムによってアクセスされていてもよい。なお、このような構成要素は、プロセッサ又はプロセッサコアにおける特定のハードウェアロジックとして実現されていてもよく、ソフトウェア構成要素が1つ以上の特定命令によってアクセス可能な命令セットの一部とする。
図7は、本出願の一実施形態と組み合わせて使用されるデータ処理システムを例示的に示すブロック図である。例えば、システム700は、上記プロセス又は方法のいずれか(例えば、感知及び計画システム110、及び図1のサーバ103〜104のいずれか)を実行する上記任意のデータ処理システムを示していてもよい。システム700は、多数の異なる構成要素を含んでいてもよい。これらの構成要素は、集積回路(IC)、集積回路の一部、分散型電子装置又は回路基板に適用された他のモジュール(例えばコンピュータシステムのマザーボード又はアドインカード)、又は他の方式でコンピュータシステムのシャシーに組み込まれた構成要素として実現されうる。
さらに、システム700は、コンピュータシステムの多数の構成要素の高レベルビューを示すことを目的とする。しかしながら、いくつかの実現形態では、付加的構成要素が存在する場合があることを理解すべきである。また、他の実現形態において示される構成要素が異なる配置を有していてもよい。システム700は、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、サーバ、携帯電話、メディアプレーヤー、パーソナルディジタルアシスタント(PDA)、スマート腕時計、パーソナルコミュニケーター、ゲーム装置、ネットワークルータ又はハブ、無線アクセスポイント(AP)又はリピーター、セットトップボックス、又はそれらの組合せを示していてもよい。また、単一の機器又はシステムのみを示したが、用語「機器」又は「システム」は、さらに、独立又は共同で1つ(又は複数)の命令セットを実行することにより本明細書に説明される任意の1種又は複数種の方法を実行する機器又はシステムの任意のセットを含むことを理解すべきである。
一実施形態において、システム700は、バス又は相互接続部材710によって接続されたプロセッサ701、メモリ703及び装置705〜708を備える。プロセッサ701は、単一のプロセッサコア又は複数のプロセッサコアを含む単一のプロセッサ又は複数のプロセッサであってもよい。プロセッサ701は、マイクロプロセッサ、中央処理装置(CPU)等の1つ又は複数の汎用プロセッサであってもよい。より具体的には、プロセッサ701は、複雑命令セット計算(CISC)マイクロプロセッサ、縮小命令セットコンピュータ(RISC)マイクロプロセッサ、超長命令語(VLIW)マイクロプロセッサ、又は他の命令セットを実現するプロセッサ、又は命令セットの組合せを実現するプロセッサであってもよい。プロセッサ701は、さらに、専用集積回路(ASIC)、セルラ又はベースバンドプロセッサ、フィールドプログラマブルゲートアレイ(FPGA)、デジタル信号プロセッサ(DSP)、ネットワークプロセッサ、グラフィックプロセッサ、通信プロセッサ、暗号プロセッサ、コプロセッサ、組み込みプロセッサ等の1つ又は複数の専用プロセッサ、あるいは命令処理可能な任意の他のタイプのロジックであってもよい。
プロセッサ701(超低電圧プロセッサのような低電力マルチコアプロセッサソケットであってもよい)は、前記システムの各種構成要素と通信するための主処理ユニット及び中央ハブとして用いられてもよい。このようなプロセッサは、システムオンチップ(SoC)として実現されることができる。プロセッサ701は、命令を実行することにより本明細書に説明される動作及びステップを実行するための命令を実行するように構成される。また、システム700は、選択可能なグラフィックサブシステム704と通信するグラフィックインターフェースをさらに含み、グラフィックサブシステム704は、表示コントローラ、グラフィックプロセッサ及び/又は表示装置をさらに備えてもよい。
プロセッサ701は、メモリ703と通信していてもよく、メモリ703は、一実施形態において複数のメモリによって所定量のシステムメモリを提供する。メモリ703は、ランダムアクセスメモリ(RAM)、動的RAM(DRAM)、シンクロナスDRAM(SDRAM)、静的RAM(SRAM)又は他のタイプのメモリのような1つ又は複数の揮発性記憶装置(又はメモリ)を備えてもよい。メモリ703は、プロセッサ701又は任意の他の装置により実行される命令列を含む情報を記憶できる。例えば、複数種のオペレーティングシステム、装置ドライバー、ファームウェア(例えば、基本入出力システム又はBIOS)及び/又はアプリケーションの実行可能なコード及び/又はデータはメモリ703にロードされてもよく、プロセッサ701により実行される。オペレーティングシステムは、ロボットオペレーティングシステム(ROS)、Microsoft(R)会社からのWindows(R)オペレーティングシステム、アップル会社からのMac OS(R)/iOS(R)、Google(R)会社からのAndroid(R)、Linux、Unix又は他のリアルタイム又は組み込みオペレーティングシステムのような任意のタイプのオペレーティングシステムであってもよい。
システム700は、IO装置、例えば装置705〜708をさらに備えてもよく、ネットワークインターフェース装置705、選択可能な入力装置706及び他の選択可能なIO装置707を備える。ネットワークインターフェース装置705は、無線送受信機及び/又はネットワークインターフェースカード(NIC)を備えてもよい。前記無線送受信機は、WiFi送受信機、赤外送受信機、ブルートゥース送受信機、WiMax送受信機、無線セルラーホン送受信機、衛星送受信機(例えば、全地球測位システム(GPS)送受信機)又は他の無線周波数(RF)送受信機又はそれらの組合せであってもよい。NICはイーサネットカードであってもよい。
入力装置706は、マウス、タッチパッド、タッチスクリーン(それは表示装置704と一体化されてもよい)、ポインタデバイス(例えばスタイラス)及び/又はキーボード(例えば、物理キーボード又はタッチスクリーンの一部として表示された仮想キーボード)を備えていてもよい。例えば、入力装置706は、タッチスクリーンに接続されるタッチスクリーンコントローラを含んでいてもよい。タッチスクリーン及びタッチスクリーンコントローラは、例えば一つ以上のタッチ感度技術(容量、抵抗、赤外及び表面音波の技術を含むが、それらに限定されない)のいずれか、及びタッチスクリーンの1つ又は複数の接触点を決定するための他の近接センサアレイ又は他の素子を用いてそのタッチ点及び移動又は断続を検出することができる。
IO装置707は、音声装置を備えていてもよい。音声装置は、スピーカ及び/又はマイクロホンを含んでいてもよく、それにより音声認識、音声コピー、デジタル記録及び/又は電話機能等の音声サポートの機能を促進する。他のIO装置707は、汎用シリアルバス(USB)ポート、パラレルポート、シリアルポート、印刷機、ネットワークインターフェース、バスブリッジ(例えば、PCI−PCIブリッジ)、センサ(例えば、加速度計、ジャイロスコープ、磁力計、光センサ、コンパス、近接センサ等のような動きセンサ)又はそれらの組合せをさらに備えていてもよい。装置707は、結像処理サブシステム(例えば、カメラ)をさらに備えていてもよく、前記結像処理サブシステムは、カメラ機能(例えば、写真及びビデオ断片の記録)を促進するための電荷カップリング装置(CCD)又は相補型金属酸化物半導体(CMOS)光学センサ等の光学センサを備えていてもよい。あるセンサは、センサハブ(図示せず)によって相互接続部材710に接続されていてもよく、キーボード又は熱センサ等の他の装置は、組み込みコントローラ(図示せず)により制御されてもよく、これはシステム700の特定配置又は設計により決められる。
データ、アプリケーション、1つ又は複数のオペレーティングシステム等の情報の永続記憶を提供するために、大容量メモリ(図示せず)は、プロセッサ701に接続されてもよい。様々な実施形態において、薄型化と軽量化のシステム設計を実現しかつシステムの応答能力を向上させるために、このような大容量メモリは、ソリッドステート装置(SSD)によって実現されうる。なお、他の実施形態において、大容量メモリは、主にハードディスクドライブ(HDD)で実現されていてもよく、少量のSSD記憶量は、SSDキャッシュとして停電イベント期間にコンテキスト状態及び他のこのような情報の不揮発性記憶を実現し、それによりシステム動作が再開する時に通電を速く実現することができる。さらに、フラッシュデバイスは、例えばシリアルペリフェラルインターフェース(SPI)によってプロセッサ701に接続されてもよい。このようなフラッシュデバイスは、システムソフトウェアの不揮発性記憶に用いられてもよく、前記システムソフトウェアは、前記システムのBIOS及び他のファームウェアを備える。
記憶装置708は、任意の1種又は複数種の本明細書に記載の方法又は機能を体現する1つ又は複数の命令セット又はソフトウェア(例えば、モジュール、ユニット及び/又はロジック728)が記憶される(機械可読記憶媒体又はコンピュータ可読媒体とも呼ばれる)コンピュータアクセス可能な記憶媒体709を備えていてもよい。処理モジュール/ユニット/ロジック728は、例えば、計画モジュール304、制御モジュール305、又はモジュール306〜311等の上記構成要素のいずれか(単独又は組み合わせ)を示していてもよい。処理モジュール/ユニット/ロジック728は、さらにデータ処理システム700により実行される期間にメモリ703内及び/又はプロセッサ701内に完全又は少なくとも部分的に存在していてもよく、ここで、メモリ703及びプロセッサ701も、機器アクセス可能な記憶媒体を構成する。処理モジュール/ユニット/ロジック728は、さらにネットワークによってネットワークインターフェース装置705を経由して送受信されていてもよい。
コンピュータ可読記憶媒体709は、以上に説明されたいくつかのソフトウェア機能の一部を永続的に記憶していてもよい。コンピュータ可読記憶媒体709は、例示的な実施形態において単一の媒体として示されたが、用語「コンピュータ可読記憶媒体」は、前記1つ又は複数の命令セットが記憶される単一の媒体又は複数の媒体(例えば、集中型又は分散型データベース、及び/又は関連するキャッシュ及びサーバ)を備えることを理解すべきである。用語「コンピュータ可読記憶媒体」は、さらに命令セットを記憶又はコーディング可能な任意の媒体を備えることを理解すべきであり、前記命令セットは、機器により実行されかつ前記機器に本発明の任意の1種又は複数種の方法を実行させる。従って、用語「コンピュータ可読記憶媒体」は、ソリッドステートメモリ及び光学媒体と磁気媒体又は任意の他の非一時的機械可読媒体を備えるが、それらに限定されないことを理解すべきである。
本明細書に記載の処理モジュール/ユニット/ロジック728、構成要素及び他の特徴は、ディスクリートハードウェアコンポーネントとして実現されていてもよく、又はハードウェアコンポーネント(例えばASICs、FPGA、DSP又は類似装置)の機能に統合されていてもよい。さらに、処理モジュール/ユニット/ロジック728は、ハードウェア装置内のファームウェア又は機能回路として実現されていてもよい。また、処理モジュール/ユニット/ロジック728は、ハードウェア装置及びソフトウェアコンポーネントの任意の組合せで実現されていてもよい。
なお、システム700は、データ処理システムの各種の構成要素を有するように示されているが、構成要素に相互接続させる任意の具体的な構造又は方式を限定するものではないことに注意すべきであり、それは、このような詳細が本発明の実施形態に密接な関係がないためである。また、より少ない構成要素又はより多くの構成要素を有するネットワークコンピュータ、ハンドヘルドコンピュータ、携帯電話、サーバ及び/又は他のデータ処理システムが、本発明の実施形態と共に使用されていてもよい。
上記詳細な説明の一部は、コンピュータメモリにおけるデータビットに対する演算のアルゴリズム及び記号表現で示される。これらのアルゴリズムの説明及び表現は、データ処理分野における当業者によって使用される、それらの作業実質を所属分野の他の当業者に最も効果的に伝達する方法である。ここで、アルゴリズムは、通常、所望の結果につながる首尾一貫したいくつかの動作のシーケンス(sequence of operations)と考えられる。これらの動作とは、物理量に対して物理的な動作を行う必要となるステップを指す。
ただし、これらの全ての用語及び類似の用語は、いずれも適切な物理量に関連付けられ、且つただこれらの量に適用される適切なラベルであることに注意すべきである。特に断らない限り、本出願の全体にわたって用語(例えば、添付している特許請求の範囲に説明された用語)による説明とは、コンピュータシステム又は類似の電子計算装置の動作及び処理であり、前記コンピュータシステム又は電子計算装置は、コンピュータシステムのレジスタ及びメモリに物理(例えば、電子)量としてデータを示し、且つ前記データをコンピュータシステムメモリ又はレジスタ又は他のこのような情報メモリ、伝送又は表示装置内において類似に物理量として示される他のデータに変換する。
本発明の実施形態は、さらに本明細書における動作を実行するためのコンピュータプログラムに関する。このようなコンピュータプログラムは、非一時的コンピュータ可読媒体に記憶される。機器可読媒体は、機器(例えば、コンピュータ)可読な形態で情報を記憶する任意の機構を備える。例えば、機器可読(例えば、コンピュータ可読)媒体は、機器(例えば、コンピュータ)可読記憶媒体(例えば、読み出し専用メモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)、磁気ディスク記憶媒体、光記憶媒体、フラッシュメモリメモリ)を備える。
上記図面に示される手順又は方法は、ハードウェア(例えば、回路、専用ロジック等)、ソフトウェア(例えば、非一時的コンピュータ可読媒体に具現化される)、又は両方の組合せを含む処理ロジックにより実行されていてもよい。前記手順又は方法は本明細書において特定の順序に応じて説明されているが、説明された動作の一部は、異なる順序に応じて実行されてもよい。また、いくつかの動作は、順番ではなく並行に実行されてもよい。
本発明の実施形態は、いずれかの特定のプログラミング言語を参照して説明されていないものの、複数種のプログラミング言語によって本明細書に記載の本発明の実施形態の教示を実現できることを理解すべきである。
以上の明細書では、本発明の具体的な例示的な実施形態を参照してその実施形態を説明した。明らかなように、添付した特許請求の範囲に記載の本発明のより広い趣旨及び範囲を逸脱しない限り、様々な変形が可能である。従って、限定的なものではなく例示的なものとして本明細書及び図面を理解すべきである。
以下に、本願の出願当初の請求項1〜24を示す。
(請求項1)
自律走行車の1つ又は複数のセンサから受信されたセンサデータに基づいて1つ又は複数の予測軌跡を生成し、前記予測軌跡の中のそれぞれがいずれも確率に関連するステップと、
ジェスチャー検出プロトコルに基づいて1つ又は複数の車両からの1つ又は複数のジェスチャーを検出するステップと、
検出されたジェスチャーに基づいて、ジェスチャー送信プロトコルにより前記自律走行車から前記1つ又は複数の車両と通信するための1つ又は複数のジェスチャーを送信するステップと、
検出されたジェスチャー、送信されたジェスチャー及び前記予測軌跡の関連する確率に基づいて前記予測軌跡を修正するステップと、
修正された予測軌跡に基づいて前記自律走行車を制御するステップと
を含むことを特徴とする自律走行車を操作するためのコンピュータ実施方法。
(請求項2)
前記予測軌跡を修正するステップは、
第1組の予測軌跡を除去するとともに第2組の予測軌跡を短縮するステップを含むことを特徴とする請求項1に記載の方法。
(請求項3)
前記第2組の予測軌跡を短縮するステップは、
前記検出されたジェスチャーに基づいて前記第2組の予測軌跡の中のそれぞれにタイムスタンプを加えるステップを含むことを特徴とする請求項2に記載の方法。
(請求項4)
前記第1組の予測軌跡は、低い関連確率を有する予測軌跡であることを特徴とする請求項2に記載の方法。
(請求項5)
前記1つ又は複数の車両は非自律走行車であり、且つ前記1つ又は複数の車両からの前記1つ又は複数のジェスチャーは人間の手の動きであることを特徴とする請求項1に記載の方法。
(請求項6)
検出された1つ又は複数のジェスチャーは道譲りジェスチャーである場合、送信された1つ又は複数のジェスチャーは追い越しジェスチャーであり、且つ検出された1つ又は複数のジェスチャーは追い越しジェスチャー又は認識できないジェスチャーである場合、送信された1つ又は複数のジェスチャーは道譲りジェスチャーであることを特徴とする請求項1に記載の方法。
(請求項7)
前記ジェスチャー検出プロトコル及び前記ジェスチャー送信プロトコルは予め定義された1組の値を含み、前記値の中のそれぞれは特定なジェスチャーに対応することを特徴とする請求項1に記載の方法。
(請求項8)
前記1つ又は複数の車両は自律走行車であり、且つ前記ジェスチャー検出モジュールは前記1つ又は複数のジェスチャーを指示する1つ又は複数の信号を無線受信することによって前記1つ又は複数のジェスチャーを検出することを特徴とする請求項1に記載の方法。
(請求項9)
命令が記憶された非一時的な機械可読媒体であって、
前記命令が、プロセッサにより実行される場合、前記プロセッサに自律走行車を操作するための操作を実行させ、前記操作は、
自律走行車の1つ又は複数のセンサから受信されたセンサデータに基づいて1つ又は複数の予測軌跡を生成し、前記予測軌跡の中のそれぞれがいずれも確率に関連することと、
ジェスチャー検出プロトコルに基づいて1つ又は複数の車両からの1つ又は複数のジェスチャーを検出することと、
検出されたジェスチャーに基づいて、ジェスチャー送信プロトコルにより前記自律走行車から前記1つ又は複数の車両と通信するための1つ又は複数のジェスチャーを送信することと、
検出されたジェスチャー、送信されたジェスチャー及び前記予測軌跡の関連する確率に基づいて前記予測軌跡を修正することと、
修正された予測軌跡に基づいて前記自律走行車を制御することと
を含むことを特徴とする非一時的機械可読媒体。
(請求項10)
前記予測軌跡を修正することは、
第1組の予測軌跡を除去するとともに第2組の予測軌跡を短縮することを含むことを特徴とする請求項9に記載の機械可読媒体。
(請求項11)
前記第2組の予測軌跡を短縮することは、
前記検出されたジェスチャーに基づいて前記第2組の予測軌跡の中のそれぞれにタイムスタンプを加えることを含むことを特徴とする請求項10に記載の機械可読媒体。
(請求項12)
前記第1組の予測軌跡は低い関連確率を有する予測軌跡であることを特徴とする請求項10に記載の機械可読媒体。
(請求項13)
前記1つ又は複数の車両は非自律走行車であり、且つ前記1つ又は複数の車両からの1つ又は複数のジェスチャーは人間の手の動きであることを特徴とする請求項9に記載の機械可読媒体。
(請求項14)
検出された1つ又は複数のジェスチャーは道譲りジェスチャーである場合、送信された1つ又は複数のジェスチャーは追い越しジェスチャーであり、且つ検出された1つ又は複数のジェスチャーは追い越しジェスチャー又は認識できないジェスチャーである場合、送信された1つ又は複数のジェスチャーは道譲りジェスチャーであることを特徴とする請求項9に記載の機械可読媒体。
(請求項15)
前記ジェスチャー検出プロトコル及び前記ジェスチャー送信プロトコルは予め定義された1組の値を含み、前記値の中のそれぞれは特定なジェスチャーに対応することを特徴とする請求項9に記載の機械可読媒体。
(請求項16)
前記1つ又は複数の車両はその他の自律走行車であり、且つ前記ジェスチャー検出モジュールは前記その他の自律走行車から前記1つ又は複数のジェスチャーを指示する1つ又は複数の信号を無線受信することによって前記1つ又は複数のジェスチャーを検出することを特徴とする請求項9に記載の機械可読媒体。
(請求項17)
プロセッサと、
前記プロセッサに連結されて命令を記憶するメモリと
を備えており、
前記命令が、前記プロセッサにより実行される場合、前記プロセッサに自律走行車を操作するための操作を実行させ、前記操作は、
自律走行車の1つ又は複数のセンサから受信されたセンサデータに基づいて1つ又は複数の予測軌跡を生成し、前記予測軌跡の中のそれぞれがいずれも確率に関連することと、
ジェスチャー検出プロトコルに基づいて1つ又は複数の車両からの1つ又は複数のジェスチャーを検出することと、
検出されたジェスチャーに基づいて、ジェスチャー送信プロトコルにより前記自律走行車から前記1つ又は複数の車両と通信するための1つ又は複数のジェスチャーを送信することと、
検出されたジェスチャー、送信されたジェスチャー及び前記予測軌跡の関連する確率に基づいて前記予測軌跡を修正することと、
修正された予測軌跡に基づいて前記自律走行車を制御することと
を含むことを特徴とするデータ処理システム。
(請求項18)
前記予測軌跡を修正することは、
第1組の予測軌跡を除去するとともに第2組の予測軌跡を短縮することを含むことを特徴とする請求項17に記載のシステム。
(請求項19)
前記第2組の予測軌跡を短縮することは、
前記検出されたジェスチャーに基づいて前記第2組の予測軌跡の中のそれぞれにタイムスタンプを加えることを含むことを特徴とする請求項18に記載のシステム。
(請求項20)
前記第1組の予測軌跡は、低い関連確率を有する予測軌跡であることを特徴とする請求項18に記載のシステム。
(請求項21)
前記1つ又は複数の車両は非自律走行車であり、且つ前記1つ又は複数の車両からの前記1つ又は複数のジェスチャーは人間の手の動きであることを特徴とする請求項17に記載のシステム。
(請求項22)
検出された1つ又は複数のジェスチャーは道譲りジェスチャーである場合、送信された1つ又は複数のジェスチャーは追い越しジェスチャーであり、且つ検出された1つ又は複数のジェスチャーは追い越しジェスチャー又は認識できないジェスチャーである場合、送信された1つ又は複数のジェスチャーは道譲りジェスチャーであることを特徴とする請求項17に記載のシステム。
(請求項23)
前記ジェスチャー検出プロトコル及び前記ジェスチャー送信プロトコルは予め定義された1組の値を含み、前記値の中のそれぞれは特定なジェスチャーに対応することを特徴とする請求項17に記載のシステム。
(請求項24)
前記1つ又は複数の車両はその他の自律走行車であり、且つ前記ジェスチャー検出モジュールは前記その他の自律走行車から前記1つ又は複数のジェスチャーを指示する1つ又は複数の信号を無線受信することによって前記1つ又は複数のジェスチャーを検出することを特徴とする請求項17に記載のシステム。

Claims (24)

  1. 自律走行車の1つ又は複数のセンサから受信されたセンサデータに基づいて、他の対象が走行可能な軌跡を予測した1つ又は複数の予測軌跡を生成し、前記予測軌跡の中のそれぞれがいずれも確率に関連するステップであって、前記確率は、1つ又は複数の対象が前記予測軌跡において走行する確率である、ステップと、
    ジェスチャー検出プロトコルに基づいて1つ又は複数の対象からの1つ又は複数のジェスチャーを検出するステップと、
    検出されたジェスチャーに基づいて、ジェスチャー送信プロトコルにより前記自律走行車から前記1つ又は複数の対象と通信するための1つ又は複数のジェスチャーを送信するステップと、
    検出されたジェスチャー、送信されたジェスチャー及び前記予測軌跡の関連する確率に基づいて前記予測軌跡を修正するステップと、
    修正された予測軌跡に基づいて前記自律走行車を制御するステップと
    を含むことを特徴とする自律走行車を操作するためのコンピュータ実施方法。
  2. 前記予測軌跡を修正するステップは、
    第1組の予測軌跡を除去するとともに第2組の予測軌跡を短縮するステップを含むことを特徴とする請求項1に記載の方法。
  3. 前記第2組の予測軌跡を短縮するステップは、
    前記検出されたジェスチャーに基づいて前記第2組の予測軌跡の中のそれぞれにタイムスタンプを加えるステップを含むことを特徴とする請求項2に記載の方法。
  4. 前記第1組の予測軌跡は、閾値より低い関連する確率を有する予測軌跡であることを特徴とする請求項2に記載の方法。
  5. 前記1つ又は複数の対象は非自律走行車であり、且つ前記1つ又は複数の対象からの前記1つ又は複数のジェスチャーは人間の手の動きであることを特徴とする請求項1に記載の方法。
  6. 検出された1つ又は複数のジェスチャーは道譲りジェスチャーである場合、送信された1つ又は複数のジェスチャーは追い越しジェスチャーであり、且つ検出された1つ又は複数のジェスチャーは追い越しジェスチャー又は認識できないジェスチャーである場合、送信された1つ又は複数のジェスチャーは道譲りジェスチャーであることを特徴とする請求項1に記載の方法。
  7. 前記ジェスチャー検出プロトコル及び前記ジェスチャー送信プロトコルは予め定義された1組の値を含み、前記値の中のそれぞれは特定なジェスチャーに対応することを特徴とする請求項1に記載の方法。
  8. 前記1つ又は複数の対象は自律走行車であり、且つ前記ジェスチャー検出モジュールは前記1つ又は複数のジェスチャーを指示する1つ又は複数の信号を無線受信することによって前記1つ又は複数のジェスチャーを検出することを特徴とする請求項1に記載の方法。
  9. 命令が記憶された非一時的な機械可読媒体であって、
    前記命令が、プロセッサにより実行される場合、前記プロセッサに自律走行車を操作するための操作を実行させ、前記操作は、
    自律走行車の1つ又は複数のセンサから受信されたセンサデータに基づいて、他の対象が走行可能な軌跡を予測した1つ又は複数の予測軌跡を生成し、前記予測軌跡の中のそれぞれがいずれも確率に関連することであって、前記確率は、1つ又は複数の対象が前記予測軌跡において走行する確率である、関連することと、
    ジェスチャー検出プロトコルに基づいて1つ又は複数の対象からの1つ又は複数のジェスチャーを検出することと、
    検出されたジェスチャーに基づいて、ジェスチャー送信プロトコルにより前記自律走行車から前記1つ又は複数の対象と通信するための1つ又は複数のジェスチャーを送信することと、
    検出されたジェスチャー、送信されたジェスチャー及び前記予測軌跡の関連する確率に基づいて前記予測軌跡を修正することと、
    修正された予測軌跡に基づいて前記自律走行車を制御することと
    を含むことを特徴とする非一時的機械可読媒体。
  10. 前記予測軌跡を修正することは、
    第1組の予測軌跡を除去するとともに第2組の予測軌跡を短縮することを含むことを特徴とする請求項9に記載の機械可読媒体。
  11. 前記第2組の予測軌跡を短縮することは、
    前記検出されたジェスチャーに基づいて前記第2組の予測軌跡の中のそれぞれにタイムスタンプを加えることを含むことを特徴とする請求項10に記載の機械可読媒体。
  12. 前記第1組の予測軌跡は、閾値より低い関連する確率を有する予測軌跡であることを特徴とする請求項10に記載の機械可読媒体。
  13. 前記1つ又は複数の対象は非自律走行車であり、且つ前記1つ又は複数の対象からの1つ又は複数のジェスチャーは人間の手の動きであることを特徴とする請求項9に記載の機械可読媒体。
  14. 検出された1つ又は複数のジェスチャーは道譲りジェスチャーである場合、送信された1つ又は複数のジェスチャーは追い越しジェスチャーであり、且つ検出された1つ又は複数のジェスチャーは追い越しジェスチャー又は認識できないジェスチャーである場合、送信された1つ又は複数のジェスチャーは道譲りジェスチャーであることを特徴とする請求項9に記載の機械可読媒体。
  15. 前記ジェスチャー検出プロトコル及び前記ジェスチャー送信プロトコルは予め定義された1組の値を含み、前記値の中のそれぞれは特定なジェスチャーに対応することを特徴とする請求項9に記載の機械可読媒体。
  16. 前記1つ又は複数の対象はその他の自律走行車であり、且つ前記ジェスチャー検出モジュールは前記その他の自律走行車から前記1つ又は複数のジェスチャーを指示する1つ又は複数の信号を無線受信することによって前記1つ又は複数のジェスチャーを検出することを特徴とする請求項9に記載の機械可読媒体。
  17. プロセッサと、
    前記プロセッサに連結されて命令を記憶するメモリと
    を備えており、
    前記命令が、前記プロセッサにより実行される場合、前記プロセッサに自律走行車を操作するための操作を実行させ、前記操作は、
    自律走行車の1つ又は複数のセンサから受信されたセンサデータに基づいて、他の対象が走行可能な軌跡を予測した1つ又は複数の予測軌跡を生成し、前記予測軌跡の中のそれぞれがいずれも確率に関連することであって、前記確率は、1つ又は複数の対象が前記予測軌跡において走行する確率である、関連することと、
    ジェスチャー検出プロトコルに基づいて1つ又は複数の対象からの1つ又は複数のジェスチャーを検出することと、
    検出されたジェスチャーに基づいて、ジェスチャー送信プロトコルにより前記自律走行車から前記1つ又は複数の対象と通信するための1つ又は複数のジェスチャーを送信することと、
    検出されたジェスチャー、送信されたジェスチャー及び前記予測軌跡の関連する確率に基づいて前記予測軌跡を修正することと、
    修正された予測軌跡に基づいて前記自律走行車を制御することと
    を含むことを特徴とするデータ処理システム。
  18. 前記予測軌跡を修正することは、
    第1組の予測軌跡を除去するとともに第2組の予測軌跡を短縮することを含むことを特徴とする請求項17に記載のシステム。
  19. 前記第2組の予測軌跡を短縮することは、
    前記検出されたジェスチャーに基づいて前記第2組の予測軌跡の中のそれぞれにタイムスタンプを加えることを含むことを特徴とする請求項18に記載のシステム。
  20. 前記第1組の予測軌跡は、閾値より低い関連する確率を有する予測軌跡であることを特徴とする請求項18に記載のシステム。
  21. 前記1つ又は複数の対象は非自律走行車であり、且つ前記1つ又は複数の対象からの前記1つ又は複数のジェスチャーは人間の手の動きであることを特徴とする請求項17に記載のシステム。
  22. 検出された1つ又は複数のジェスチャーは道譲りジェスチャーである場合、送信された1つ又は複数のジェスチャーは追い越しジェスチャーであり、且つ検出された1つ又は複数のジェスチャーは追い越しジェスチャー又は認識できないジェスチャーである場合、送信された1つ又は複数のジェスチャーは道譲りジェスチャーであることを特徴とする請求項17に記載のシステム。
  23. 前記ジェスチャー検出プロトコル及び前記ジェスチャー送信プロトコルは予め定義された1組の値を含み、前記値の中のそれぞれは特定なジェスチャーに対応することを特徴とする請求項17に記載のシステム。
  24. 前記1つ又は複数の対象はその他の自律走行車であり、且つ前記ジェスチャー検出モジュールは前記その他の自律走行車から前記1つ又は複数のジェスチャーを指示する1つ又は複数の信号を無線受信することによって前記1つ又は複数のジェスチャーを検出することを特徴とする請求項17に記載のシステム。
JP2017157510A 2016-11-22 2017-08-17 自律走行車の車両交通行動を予測して運転決定をするための方法及びシステム Active JP6619778B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/359,466 US10394245B2 (en) 2016-11-22 2016-11-22 Method and system to predict vehicle traffic behavior for autonomous vehicles to make driving decisions
US15/359,466 2016-11-22

Publications (2)

Publication Number Publication Date
JP2018083610A JP2018083610A (ja) 2018-05-31
JP6619778B2 true JP6619778B2 (ja) 2019-12-11

Family

ID=59683444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017157510A Active JP6619778B2 (ja) 2016-11-22 2017-08-17 自律走行車の車両交通行動を予測して運転決定をするための方法及びシステム

Country Status (4)

Country Link
US (1) US10394245B2 (ja)
EP (1) EP3324332B1 (ja)
JP (1) JP6619778B2 (ja)
CN (1) CN108089571B (ja)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10739775B2 (en) * 2017-10-28 2020-08-11 Tusimple, Inc. System and method for real world autonomous vehicle trajectory simulation
US11971714B2 (en) * 2018-02-19 2024-04-30 Martin Tremblay Systems and methods for autonomous vehicles
JP7100998B2 (ja) * 2018-03-08 2022-07-14 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US11260855B2 (en) 2018-07-17 2022-03-01 Baidu Usa Llc Methods and systems to predict object movement for autonomous driving vehicles
US10678245B2 (en) * 2018-07-27 2020-06-09 GM Global Technology Operations LLC Systems and methods for predicting entity behavior
US10788841B2 (en) * 2018-08-24 2020-09-29 Baidu Usa Llc Hardware centralized time synchronization hub for an autonomous driving vehicle
JP6684533B2 (ja) * 2018-08-28 2020-04-22 三菱ロジスネクスト株式会社 進路予測装置および進路予測方法
CN112868022A (zh) * 2018-10-16 2021-05-28 法弗人工智能有限公司 自动驾驶车辆的驾驶场景
US11110922B2 (en) 2018-11-05 2021-09-07 Zoox, Inc. Vehicle trajectory modification for following
US10533862B1 (en) * 2018-11-28 2020-01-14 Uber Technologies, Inc. Biasing map matched trajectories based on planned route information
CN109540546A (zh) * 2018-12-05 2019-03-29 交通运输部公路科学研究所 一种不安全驾驶行为监控装置的测试***及测试方法
US11782158B2 (en) * 2018-12-21 2023-10-10 Waymo Llc Multi-stage object heading estimation
JP7409324B2 (ja) * 2019-01-17 2024-01-09 日本電気株式会社 制御装置、情報処理装置、並びに、移動制御システム、方法及びプログラム
EP3924795A4 (en) * 2019-02-15 2022-12-21 Bayerische Motoren Werke Aktiengesellschaft TRAJECTORY PREDICTION USED FOR A DRIVING STRATEGY
JP2020166479A (ja) * 2019-03-29 2020-10-08 本田技研工業株式会社 運転支援装置
DE102019204780A1 (de) * 2019-04-03 2020-10-08 Audi Ag Verfahren zum Betrieb eines Kraftfahrzeugs und Kraftfahrzeug
US11182623B2 (en) * 2019-04-30 2021-11-23 Baidu Usa Llc Flexible hardware design for camera calibration and image pre-procesing in autonomous driving vehicles
CN110082123A (zh) * 2019-05-05 2019-08-02 中国汽车工程研究院股份有限公司 一种自动驾驶自动化测试***
US11292458B2 (en) 2019-07-31 2022-04-05 Toyota Research Institute, Inc. Autonomous vehicle user interface with predicted trajectories
US11328593B2 (en) 2019-07-31 2022-05-10 Toyota Research Institute, Inc. Autonomous vehicle user interface with predicted trajectories
US11292457B2 (en) 2019-07-31 2022-04-05 Toyota Research Institute, Inc. Autonomous vehicle user interface with predicted trajectories
US20210092551A1 (en) * 2019-09-23 2021-03-25 Wejo Ltd. System and method for processing vehicle event data for journey analysis
US11345342B2 (en) * 2019-09-27 2022-05-31 Intel Corporation Potential collision warning system based on road user intent prediction
CN114450703A (zh) * 2019-09-30 2022-05-06 北京航迹科技有限公司 预测行人的移动轨迹的***和方法
US11643073B2 (en) * 2019-10-24 2023-05-09 Zoox, Inc. Trajectory modifications based on a collision zone
US11420630B2 (en) 2019-10-24 2022-08-23 Zoox, Inc. Trajectory modifications based on a collision zone
GB202311795D0 (en) 2019-12-19 2023-09-13 Motional Ad Llc Foreground extraction using surface fitting
RU2750243C2 (ru) * 2019-12-24 2021-06-24 Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" Способ и система для формирования траектории для беспилотного автомобиля (sdc)
US12001958B2 (en) * 2020-03-19 2024-06-04 Nvidia Corporation Future trajectory predictions in multi-actor environments for autonomous machine
US12038297B2 (en) * 2020-03-26 2024-07-16 Toyota Motor Engineering & Manufacturing North America, Inc. Remote control of vehicle via smartphone and gesture input
CN113741384B (zh) * 2020-05-29 2023-12-29 华为技术有限公司 检测自动驾驶***的方法和装置
US11858532B2 (en) 2020-06-04 2024-01-02 Qualcomm Incorporated Gesture-based control for semi-autonomous vehicle
US12030507B2 (en) * 2020-06-29 2024-07-09 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Method and system for predicting a trajectory of a target vehicle in an environment of a vehicle
US11794731B2 (en) 2020-08-12 2023-10-24 Ford Global Technologies, Llc Waypoint prediction for vehicle motion planning
CN114511999B (zh) * 2020-11-17 2023-09-01 宇通客车股份有限公司 一种行人行为预测方法及装置
CN112489423B (zh) * 2020-11-20 2022-06-03 湖南警察学院 一种基于视觉的城市道路交通交警指挥方法
CN112550315A (zh) * 2020-12-21 2021-03-26 北京百度网讯科技有限公司 车辆轨迹规划方法、装置、电子设备及存储介质
EP4036892A1 (en) * 2021-02-02 2022-08-03 Aptiv Technologies Limited Detection system for predicting information on pedestrian
US11760388B2 (en) * 2021-02-19 2023-09-19 Argo AI, LLC Assessing present intentions of an actor perceived by an autonomous vehicle
CN114137976B (zh) * 2021-11-26 2023-05-16 广州小鹏自动驾驶科技有限公司 超车规划方法、装置、电子设备及存储介质
CN114714358A (zh) * 2022-04-18 2022-07-08 山东大学 基于手势协议遥操作机械臂方法及***
CN116572995B (zh) * 2023-07-11 2023-12-22 小米汽车科技有限公司 车辆的自动驾驶方法、装置及车辆

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007048042A (ja) * 2005-08-10 2007-02-22 Nissan Motor Co Ltd 走行支援装置および走行支援方法
JP4211794B2 (ja) * 2006-02-28 2009-01-21 トヨタ自動車株式会社 干渉評価方法、装置、およびプログラム
JP4353192B2 (ja) * 2006-03-02 2009-10-28 トヨタ自動車株式会社 進路設定方法、装置、プログラム、および自動運転システム
US8509982B2 (en) * 2010-10-05 2013-08-13 Google Inc. Zone driving
US8863256B1 (en) * 2011-01-14 2014-10-14 Cisco Technology, Inc. System and method for enabling secure transactions using flexible identity management in a vehicular environment
FR2988507B1 (fr) * 2012-03-23 2014-04-25 Inst Francais Des Sciences Et Technologies Des Transports De Lamenagement Et Des Reseaux Systeme d'assistance pour vehicule routier
DE102012009555A1 (de) * 2012-05-12 2012-11-29 Daimler Ag Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs und Fahrerassistenzsystem
KR101459441B1 (ko) * 2012-12-18 2014-11-07 현대자동차 주식회사 차량 내 손가락 사이점을 이용한 사용자 인터페이스 조작 시스템 및 방법
JP2014134897A (ja) * 2013-01-08 2014-07-24 Denso Corp 車両用意思疎通装置、及びそれを用いた車両用コミュニケーションシステム
US9475422B2 (en) * 2014-05-22 2016-10-25 Applied Invention, Llc Communication between autonomous vehicle and external observers
DE102014111023A1 (de) * 2014-08-04 2016-02-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Steuern eines automatisierten Fahrzeuges
EP2993083B1 (en) * 2014-09-04 2023-11-22 Nokia Technologies Oy Apparatus, method and computer program for controlling road user acknowledgement
FR3027127B1 (fr) * 2014-10-10 2017-12-08 Thales Sa Interface tactile pour le systeme de gestion du vol d'un aeronef
JP2016091039A (ja) * 2014-10-29 2016-05-23 株式会社デンソー 危険予測装置、運転支援システム
US9855890B2 (en) * 2014-12-11 2018-01-02 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle interaction with external environment
CN104598108B (zh) * 2015-01-02 2020-12-22 北京时代沃林科技发展有限公司 一种智能终端触控方式比例遥控被遥控设备的方法
JP2016133843A (ja) * 2015-01-15 2016-07-25 株式会社東芝 交通調整支援装置、交通調整支援方法、およびコンピュータプログラム
EP3318456B1 (en) * 2015-07-02 2021-09-22 Sony Group Corporation Vehicle control device, vehicle control method, and program
US9983591B2 (en) * 2015-11-05 2018-05-29 Ford Global Technologies, Llc Autonomous driving at intersections based on perception data
CN105629785A (zh) * 2015-12-30 2016-06-01 小米科技有限责任公司 智能汽车行驶控制方法及装置
JP6128263B2 (ja) * 2016-05-23 2017-05-17 株式会社デンソー 車載装置
JP2018018389A (ja) * 2016-07-29 2018-02-01 パナソニックIpマネジメント株式会社 自動運転車輌の制御装置、及び制御プログラム

Also Published As

Publication number Publication date
EP3324332B1 (en) 2020-04-29
EP3324332A1 (en) 2018-05-23
JP2018083610A (ja) 2018-05-31
CN108089571A (zh) 2018-05-29
US10394245B2 (en) 2019-08-27
CN108089571B (zh) 2021-05-28
US20180143644A1 (en) 2018-05-24

Similar Documents

Publication Publication Date Title
JP6619778B2 (ja) 自律走行車の車両交通行動を予測して運転決定をするための方法及びシステム
JP7050025B2 (ja) 自動運転車両のための計画運転感知システム
JP6975512B2 (ja) 自動運転車両の周辺車両の挙動に基づくリアルタイム感知調整と運転調整
JP6567617B2 (ja) 自律走行車の安定性を向上させるための方法、媒体、及びシステム
JP6684346B2 (ja) 車両の周囲の状況に基づいて車両の一つ又は複数の軌跡を予測する方法とシステム
JP6578439B2 (ja) 自律走行車の移動をシミュレートするための物理モデル及び機械学習結合方法
JP6498246B2 (ja) グラフベースの車線変更ガイドを用いて自律走行車を動作させる方法及びシステム
JP6684345B2 (ja) 自律走行車の走行を決定するための周辺環境を構築する方法及びシステム
KR101975728B1 (ko) 자율 주행 차량을 위한 사이드슬립 보상 제어 방법
JP6588592B2 (ja) 自動運転車両に用いられる衝突予測及びエアバッグ事前展開システム
JP6578331B2 (ja) 自律走行車のコマンド遅延を決定するための方法
JP6494715B2 (ja) 自律走行車の速度制御率の動的調整方法
JP7108583B2 (ja) 自動運転車両のための曲率補正経路サンプリングシステム
JP2018063703A (ja) 自律走行車用のグループ運転スタイル学習フレーム
JP2020015493A (ja) 自動運転車両のためのオブジェクト移動を予測するための方法およびシステム
JP6972150B2 (ja) 自動運転車両のための歩行者確率予測システム
KR20210069111A (ko) 자율 주행 차량의 저속 정경을 위한 보행자 상호 작용 시스템
KR102398256B1 (ko) 비전 기반 인식 시스템에 의한 대립적 샘플들 검출 방법
JP2019182401A (ja) 自動運転車に用いられる学習に基づく速度計画装置
JP7116065B2 (ja) 自律走行車に用いられるトンネルに基づく計画システム
JP2018116705A (ja) ブレーキライトを利用して自動運転車両と追従車両との間の距離を保持する方法
JP2018070145A (ja) 自律走行車用のバネシステムに基づく車線変更方法
JP7149288B2 (ja) 自動運転車両のための螺旋曲線に基づく垂直駐車計画システム
JP2019501809A (ja) 自律走行車の速度を追従する方法及びシステム
JP7009490B2 (ja) 自動運転車両のための制御主導型の3ポイントターン計画

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180622

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191115

R150 Certificate of patent or registration of utility model

Ref document number: 6619778

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250