JP7380614B2 - 自動運転システム、自動運転方法、及び自動運転プログラム - Google Patents

自動運転システム、自動運転方法、及び自動運転プログラム Download PDF

Info

Publication number
JP7380614B2
JP7380614B2 JP2021029263A JP2021029263A JP7380614B2 JP 7380614 B2 JP7380614 B2 JP 7380614B2 JP 2021029263 A JP2021029263 A JP 2021029263A JP 2021029263 A JP2021029263 A JP 2021029263A JP 7380614 B2 JP7380614 B2 JP 7380614B2
Authority
JP
Japan
Prior art keywords
obstacle
automatic driving
distribution
recognition
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021029263A
Other languages
English (en)
Other versions
JP2022130209A5 (ja
JP2022130209A (ja
Inventor
秀明 三澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2021029263A priority Critical patent/JP7380614B2/ja
Priority to PCT/JP2022/006780 priority patent/WO2022181502A1/ja
Publication of JP2022130209A publication Critical patent/JP2022130209A/ja
Publication of JP2022130209A5 publication Critical patent/JP2022130209A5/ja
Priority to US18/455,489 priority patent/US20230401870A1/en
Application granted granted Critical
Publication of JP7380614B2 publication Critical patent/JP7380614B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/215Selection or confirmation of options
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/20Data confidence level
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

本開示は、自動運転システム、自動運転方法、及び自動運転プログラムに関する。
自動運転システムでは、自動運転車両が走行する路面側に設置されたカメラから、自動運転車両を含む所定領域を撮影した画像データを取得し、取得した画像データに基づいて、自動運転走行中に、歩行者、駐車車両等の障害物を認識することが行われる。
例えば、特許文献1には、自動運転走行する際に、路面側に設置されたカメラから得られた画像データに基づいて、制御対象車両を障害物として誤認識することを抑制する走行支援制御装置が記載されている。この走行支援制御装置は、自動運転走行が可能な制御対象車両を含む所定領域を撮像して画像情報を取得する、制御対象車両以外に配置された少なくとも1つのカメラと、カメラにより取得された画像情報に基づき、所定領域内での制御対象車両の自動運転走行を支援する走行支援部と、カメラにより取得された画像情報に基づき、制御対象車両の位置を把握する位置把握部と、位置把握部により把握された制御対象車両の位置に基づき、カメラにより取得された画像情報から少なくとも制御対象車両領域を除外する制御対象車両領域除外部と、を備える。この走行支援部は、制御対象車両領域除外部により制御対象車両領域が除外された所定領域内での障害物を認識しながら制御対象車両の自動運転走行の支援を行う。
特開2016-57677号公報
ところで、上記特許文献1に記載の技術では、障害物の認識精度が低下してくると、障害物の誤認識(つまり、実際には障害物ではないのに障害物として誤って認識してしまう。)が発生する場合がある。障害物の誤認識が発生すると、自動運転車両は、例えば、障害物の手前で停止する、障害物を回避する、等の行動をとらなくてはならず、走行に支障が出る。
本開示は、自動運転車両の外部環境における特定の場所に設置された撮影装置の画像データに基づく障害物の誤認識を抑制することができる自動運転システム、自動運転方法、及び自動運転プログラムを提供することを目的とする。
上記目的を達成するために、本開示の第1態様に係る自動運転システムは、自動運転車両の外部環境における特定の場所に設置された撮影装置によって前記自動運転車両が走行する道路を含む所定領域を撮影して得られた画像データに基づいて、障害物を認識する認識部と、前記認識部により過去に認識された障害物に関する特徴量の分布を表す特徴量分布を作成する作成部と、前記作成部により作成された特徴量分布と、評価対象として認識された障害物の特徴量とを比較し、前記評価対象として認識された障害物の誤認識を判定する判定部と、を備えている。
本開示の第2態様に係る自動運転方法は、自動運転車両の外部環境における特定の場所に設置された撮影装置によって前記自動運転車両が走行する道路を含む所定領域を撮影して得られた画像データに基づいて、障害物を認識し、過去に認識された障害物に関する特徴量の分布を表す特徴量分布を作成し、前記作成された特徴量分布と、評価対象として認識された障害物の特徴量とを比較し、前記評価対象として認識された障害物の誤認識を判定する。
本開示の第3態様に係る自動運転プログラムは、コンピュータを、自動運転車両の外部環境における特定の場所に設置された撮影装置によって前記自動運転車両が走行する道路を含む所定領域を撮影して得られた画像データに基づいて、障害物を認識する認識部、前記認識部により過去に認識された障害物に関する特徴量の分布を表す特徴量分布を作成する作成部、及び、前記作成部により作成された特徴量分布と、評価対象として認識された障害物の特徴量とを比較し、前記評価対象として認識された障害物の誤認識を判定する判定部、として機能させる。
開示の技術によれば、自動運転車両の外部環境における特定の場所に設置された撮影装置の画像データに基づく障害物の誤認識を抑制することができる、という効果を有する。
第1の実施形態に係る自動運転システムの構成の一例を示す図である。 第1の実施形態に係るインフラカメラ及び自動運転制御装置の機能的な構成の一例を示すブロック図である。 実施形態に係る滞留時間分布作成処理の説明に供する図である。 第1の実施形態に係る誤認識判定処理の説明に供する図である。 第1の実施形態に係る特徴量分布作成フェーズ、異常検出フェーズ、及びデータ収集・学習フェーズの説明に供する図である。 第1の実施形態に係る自動運転プログラムによる特徴量分布作成処理の流れの一例を示すフローチャートである。 第1の実施形態に係る自動運転プログラムによる異常検出処理及びデータ収集・学習処理の流れの一例を示すフローチャートである。 第2の実施形態に係るインフラカメラ、自動運転制御装置、及び車載装置の機能的な構成の一例を示すブロック図である。 第2の実施形態に係る誤認識判定処理の説明に供する図である。 第2の実施形態に係る自動運転プログラムによる特徴量分布作成処理の流れの一例を示すフローチャートである。 第2の実施形態に係る自動運転プログラムによる異常検出処理及び車両通知処理の流れの一例を示すフローチャートである。 第3の実施形態に係るインフラカメラ及び自動運転制御装置の機能的な構成の一例を示すブロック図である。 第4の実施形態に係るインフラカメラ、自動運転制御装置、及び車載装置の機能的な構成の一例を示すブロック図である。
以下、図面を参照して、本開示の技術を実施するための形態の一例について詳細に説明する。
[第1の実施形態]
図1は、第1の実施形態に係る自動運転システム100の構成の一例を示す図である。
図1に示すように、本実施形態に係る自動運転システム100は、自動運転車両に搭載された車載装置10と、自動運転支援センタに設けられた自動運転制御装置20と、自動運転車両の外部環境における特定の場所に設置されたカメラ(以下、「インフラカメラ」という。)30と、を備えている。ここでいう特定の場所は、例えば、道路等の公共の場所を含む。インフラカメラ30は、道路の周辺にある電柱、街灯等の設備を利用して設置されてもよい。
自動運転制御装置20は、自動運転支援センタによる管理対象領域内の自動運転車両に対して遠隔支援を行う。なお、本実施形態では、自動運転車両として自家用の乗用車を例示して説明するが、例えば、トラック、バス、タクシー等の他の車両に適用してもよい。また、自動運転車両は、車両の制御や非常時に車両の制御を代替するために乗車する有人の場合も含む。さらに、車両の操舵の一部が自動で行われる車両も含む。
車載装置10及び自動運転制御装置20は、ネットワークNを介して通信可能に接続されている。ネットワークNには、一例として、インターネット、WAN(Wide Area Network)等が適用される。また、インフラカメラ30及び自動運転制御装置20は、ネットワークNを介して通信可能に接続されている。また、インフラカメラ30及びインフラカメラ30の周辺を走行する自動運転車両の車載装置10は、ネットワークNを介して通信可能に接続される。
自動運転車両は、所定の条件下において運転者の操作によらず自動走行が可能な車両である。自動運転車両は、走行中に路上駐車、渋滞、工事等の何らかの事象が発生すると、追い越し又は待機という動作を行う。自動運転車両は、異常発生時等のように状況に応じて自動運転支援センタによって走行支援が行われる。
車載装置10は、住所又は緯度経度等の目的地の情報に基づいて、目的地までの走行ルートを含む走行計画を生成する機能、及び、自車両の自動運転を制御する機能を備えている。車載装置10は、CPU(Central Processing Unit)11と、メモリ12と、表示部13と、記憶部14と、センサ群15と、カメラ16と、通信部17と、を備えている。
CPU11は、プロセッサの一例である。ここでいうプロセッサとは、広義的なプロセッサを指し、汎用的なプロセッサ(例えば、CPU)や、専用のプロセッサ(例えば、GPU: Graphics Processing Unit、ASIC: Application Specific Integrated Circuit、FPGA: Field Programmable Gate Array、プログラマブル論理デバイス、等)を含むものである。メモリ12は、ROM(Read Only Memory)、RAM(Random Access Memory)等により構成されている。
表示部13には、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electro Luminescence)ディスプレイ等が用いられる。表示部13は、タッチパネルを一体的に有していてもよい。
記憶部14には、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等が用いられる。記憶部14には、自動運転の制御を行うための制御プログラム(図示省略)が記憶されている。
センサ群15は、自車両の周囲の状況を把握するための各種のセンサにより構成されている。センサ群15は、車両外部の所定範囲に探査波を送信するミリ波レーダと、少なくとも車両前方の所定範囲をスキャンするLIDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)と、を含んでいる。また、センサ群15には、自車両に搭載されるGNSS(Global Navigation Satellite System)受信機が含まれていてもよい。このGNSS受信機により、自車両の現在位置及び現在時刻等の情報が取得される。
カメラ16は、自車両の所定方向の所定範囲を撮影する。具体的に、カメラ16は、自車両の全周囲に設けられており、自車両の全周囲領域を撮影する。カメラ16は、1台でもよいが、より多くの情報を得るために複数個所に複数台設けられていてもよい。
通信部17は、インターネット、WAN等のネットワークNに接続し、自動運転制御装置20と通信を行うための通信インターフェースである。
なお、車載装置10は、自動運転に必要な走行装置(図示省略)と接続されており、この走行装置を制御することで自動運転を行う。この走行装置には、一例として、電動パワーステアリング、電子制御ブレーキ、電子制御スロットル等が含まれる。
車載装置10は、自車両の走行計画に従って自動運転するように自車両の駆動、操舵、及び制動を制御することで自動運転を行う。なお、自動運転の方法自体には、様々な公知の方法が存在し、本実施形態では特に限定されるものではない。
また、インフラカメラ30は、撮影装置の一例である。インフラカメラ30は、例えば、自動運転車両が走行する道路側に設けられており、自動運転車両が走行する道路を含む所定領域を監視するカメラとして機能する。インフラカメラ30は、CPU31と、メモリ32と、通信部33と、記憶部34と、センサ群35と、カメラ36と、を備えている。
CPU31は、プロセッサの一例である。ここでいうプロセッサとは、上述したように、広義的なプロセッサを指し、汎用的なプロセッサや、専用のプロセッサを含むものである。メモリ32は、ROM、RAM等により構成されている。
通信部33は、インターネット、WAN等のネットワークNに接続し、自動運転制御装置20と通信を行うための通信インターフェースである。
記憶部34には、例えば、HDD、SSD、フラッシュメモリ等が用いられる。記憶部34には、インフラカメラ30の動作の制御を行うための制御プログラム(図示省略)が記憶されている。
センサ群35は、インフラカメラ30の周囲の状況を把握するための各種のセンサにより構成されている。センサ群35は、例えば、少なくともカメラ前方の所定範囲をスキャンするLIDAR等を含んでいる。
カメラ36は、自動運転車両が走行する道路を含む所定領域を撮影して時系列の画像データ(動画像データ)を取得するカメラである。カメラ36は、1台でもよいし、複数台設けられていてもよい。
一方、自動運転制御装置20は、自動運転車両の車載装置10と定期的に通信することにより自動運転車両の車両状態を監視する。また、自動運転制御装置20は、インフラカメラ30と定期的に通信することにより障害物の状態を監視する。自動運転制御装置20には、一例として、サーバコンピュータ、パーソナルコンピュータ(PC:Personal Computer)等の汎用的なコンピュータ装置が適用される。自動運転制御装置20は、CPU21と、メモリ22と、操作部23と、表示部24と、記憶部25と、通信部26と、を備えている。
CPU21は、プロセッサの一例である。ここでいうプロセッサとは、上述したように、広義的なプロセッサを指し、汎用的なプロセッサや、専用のプロセッサを含むものである。メモリ22は、ROM、RAM等により構成されている。
操作部23は、自動運転制御装置20への操作入力を受け付けるためのインターフェースとして構成されている。表示部24には、例えば、液晶ディスプレイ(LCD)、有機ELディスプレイ等が用いられる。表示部24は、タッチパネルを一体的に有していてもよい。
記憶部25には、例えば、HDD、SSD、フラッシュメモリ等が用いられる。記憶部25には、本実施形態に係る自動運転プログラム25Aが記憶されている。自動運転プログラム25Aは、例えば、自動運転制御装置20に予めインストールされていてもよい。自動運転プログラム25Aは、不揮発性の非遷移的(non-transitory)記録媒体に記憶して、又はネットワークNを介して配布して、自動運転制御装置20に適宜インストールすることで実現してもよい。なお、不揮発性の非遷移的記録媒体の例としては、CD-ROM(Compact Disc Read Only Memory)、光磁気ディスク、HDD、DVD-ROM(Digital Versatile Disc Read Only Memory)、フラッシュメモリ、メモリカード等が想定される。
通信部26は、インターネット、WAN等のネットワークNに接続し、車載装置10及びインフラカメラ30の各々と通信を行うための通信インターフェースである。
ところで、上述したように、障害物の認識精度が低下してくると、障害物の誤認識が発生し、自動運転車両の走行に支障が出る場合がある。
このため、本実施形態に係るインフラカメラ30のCPU31は、記憶部34に記憶されている制御プログラムをRAMに書き込んで実行することにより、図2に示す各部として機能する。また、本実施形態に係る自動運転制御装置20のCPU21は、記憶部25に記憶されている自動運転プログラム25AをRAMに書き込んで実行することにより、図2に示す各部として機能する。
図2は、第1の実施形態に係るインフラカメラ30及び自動運転制御装置20の機能的な構成の一例を示すブロック図である。
本実施形態では、インフラカメラ30に認識部が設けられ、評価対象として、所定期間毎にバッチ処理で抽出される障害物の特徴量分布が用いられる。
図2に示すように、本実施形態に係るインフラカメラ30のCPU31は、動作制御部31A、認識部31B、データ送信部31C、及びデータ受信部31Dとして機能する。
動作制御部31Aは、センサ群35及びカメラ36の各々の動作を制御する。動作制御部31Aは、センサ群35から取得された時系列のセンサデータを記憶部34に蓄積し、カメラ36によって撮影して得られた時系列の画像データを記憶部34に蓄積する。
認識部31Bは、カメラ36によって撮影して得られた時系列の画像データ、又は、画像データ及びセンサデータから、障害物を認識する。なお、画像データは、上述したように、自動運転車両が走行する道路を含む所定領域を撮影して得られたものである。障害物とは、例えば、駐車車両、歩行者等である。障害物の認識には、例えば、機械学習により得られた認識モデルが用いられる。認識モデルは記憶部34に格納されている。機械学習の手法は、特に限定されるものではないが、例えば、ニューラルネットワーク、ランダムフォレスト、サポートベクタマシン等が挙げられる。認識部31Bは、障害物の認識結果を記憶部34に蓄積する。障害物の認識結果には、例えば、認識ID(Identification)、時刻、位置情報、種別、トラッキング継続時間、障害物の方向、障害物の速度、障害物のグリッド内の座標等が含まれる。種別は、障害物の種別を表し、例えば、駐車車両、歩行者等として表される。トラッキング継続時間は、グリッド内でインフラカメラ30が障害物を認識してから認識が途切れるまでの時間、つまり、障害物の滞留時間を表す。なお、グリッドには、例えば、公知の技術であるジオハッシュ(geohash)、ノード等が用いられる。
データ送信部31Cは、認識部31Bによる障害物の認識結果を自動運転制御装置20に通信部33を介して送信する制御を行う。また、データ送信部31Cは、認識部31Bによる障害物の認識結果を、当該障害物の周辺を走行する自動運転車両に通信部33を介して送信する制御を行う。
データ受信部31Dは、自動運転制御装置20によって再学習された認識モデルを、通信部33を介して受信する制御を行う。
また、図2に示すように、本実施形態に係る自動運転制御装置20のCPU21は、認識結果収集部21A、特徴量分布作成部21B、誤認識判定部21C、詳細データ収集部21D、オペレータ提示部21E、認識モデル学習部21F、及び認識モデル配信部21Gとして機能する。
認識結果収集部21Aは、インフラカメラ30から障害物の認識結果を定期的に収集し、収集した認識結果をデータ・モデル蓄積データベース(以下、「データ・モデル蓄積DB」という。)25Bに蓄積する。なお、このデータ・モデル蓄積DB25Bは、一例として、記憶部25に記憶されているが、外部の記憶装置に記憶されていてもよい。
特徴量分布作成部21Bは、データ・モデル蓄積DB25Bに蓄積された認識結果に基づいて、過去に認識された障害物に関する特徴量の分布を表す特徴量分布を作成する。特徴量分布は、例えば、障害物が滞留した時間の分布を表す滞留時間分布、障害物が移動した速度の分布を表す移動速度分布、及び、障害物が移動した距離の分布を表す移動距離分布の少なくとも1つとされる。なお、障害物の移動距離は、認識結果に含まれる、障害物のグリッド内の座標から算出される。また、特徴量分布は、障害物の座標の分布、方向の分布、及び、誤認識の判定結果に対してオペレータが入力した異常の要因(ラベル)の分布の少なくとも1つであってもよい。特徴量分布作成部21Bは、作成部の一例である。
ここで、図3を参照して、特徴量分布の一例である滞留時間分布を作成する場合について具体的に説明する。
図3は、本実施形態に係る滞留時間分布作成処理の説明に供する図である。
図3に示すように、インフラカメラ30は、自動運転車両が走行する道路41を含む所定領域を連続的あるいは定期的に撮影して時系列の画像データを取得し、取得した画像データから障害物40(図3の例では歩行者)を認識する。
認識結果収集部21Aは、上述したように、インフラカメラ30から障害物の滞留時間を定期的に収集する。そして、認識結果収集部21Aは、収集した滞留時間をグリッドで区切られた場所(場所ID)毎に種別と滞留時間を特定可能なようにデータ・モデル蓄積DB25Bに蓄積する。
特徴量分布作成部21Bは、データ・モデル蓄積DB25Bに蓄積された滞留時間に基づいて、グリッドで区切られた場所(場所ID)毎に種別毎の滞留時間を集計し、種別毎の滞留時間の代表値を算出する。グリッドには、上述したように、例えば、ジオハッシュが用いられる。図3の例では、場所IDの各々について障害物の種別(ここでは歩行者、駐車車両)毎の滞留時間の分布を示している。横軸は時間t、縦軸は障害物の数(頻度f)であり、時間帯毎に発生する障害物の数がヒストグラムとして示されている。なお、ヒストグラムを作成する場合、bin数、幅は、グリッドに依らず一律ではなく、グリッド毎に決定される。bin数、幅を決定する方法は、例えば、スタージェスの公式を用いて決定してもよいし、グリッド毎に蓄積したデータの分布から決定してもよい。
滞留時間の代表値には、一例として、平均、最大値、最小値、分散等が用いられる。特徴量分布作成部21Bは、グリッド内でトラッキング継続時間として表される滞留時間に基づいて代表値xを算出する。分布作成時の代表値としては、障害物の移動速度、障害物の移動距離を同様に集計して、それぞれの代表値を算出してもよい。このようにして得られた代表値を並べたものを、下記に示すように、特徴ベクトルxとして表現する。但し、Tは転置行列を示す。
x=(x、x、x、・・・、x
誤認識判定部21Cは、特徴量分布作成部21Bにより作成された特徴量分布と、評価対象として認識された障害物の特徴量分布とを比較し、評価対象として認識された障害物の誤認識を判定する。なお、特徴量分布を作成する場合に、特定の期間、例えば、過去1ヶ月間の分布との比較とすると1サンプルとなるが、1週間単位で1ヶ月分、すなわち5週(=5サンプル)、あるいは、日単位で1週間分、すなわち7日(=7サンプル)として作成してもよい。具体的に、誤認識判定部21Cは、特徴量分布作成部21Bにより作成された滞留時間分布、移動速度分布、及び移動距離分布の少なくとも1つと、評価対象として認識された障害物の滞留時間分布、移動速度分布、及び移動距離分布の少なくとも1つとを比較し、評価対象として認識された障害物の誤認識を判定する。この比較は、滞留時間分布の統計分析から得られる代表値、移動速度分布の統計分析から得られる代表値、及び、移動距離分布の統計分析から得られる代表値の少なくとも1つを基準として実行される。誤認識判定部21Cは、判定部の一例である。なお、単位時間あたりの障害物の数を誤認識の指標としてもよい。つまり、その場所では通常起こりえない数の障害物が発生している場合に、誤認識と判定してもよい。
ここで、図4を参照して、複数の特徴量の一例として滞留時間、移動速度、及び移動距離を用いて障害物の誤認識を判定する場合について説明する。
図4は、第1の実施形態に係る誤認識判定処理の説明に供する図である。
誤認識判定部21Cは、過去の認識結果からグリッド別に作成した特徴量分布(滞留時間分布、移動速度分布、及び移動距離分布)の代表値の特徴ベクトルと、評価対象の認識結果から作成した特徴量分布の代表値の特徴ベクトルとを比較し、類似度を算出する。評価対象の認識結果は、例えば、1日の終わりにバッチ処理して抽出すればよい。評価対象の認識結果は、N時間(単位時間)毎に定期的にバッチ処理を実行してもよい。類似度を算出する方法としては、一例として、図4に示すユークリッド距離が用いられる。この場合、ユークリッド距離が短いほど、類似度が高くなる。過去の認識結果の集合と、評価対象の認識結果との間の類似度を算出し、障害物の誤認識を判定する。例えば、予め異常のない(誤認識のない)集合間で作成した類似度の平均距離を閾値として設定し、それを超えたものを誤認識(異常)と判定する。
なお、類似度を算出する方法は、上記ユークリッド距離に限定されるものではない。例えば、k近傍法、MMD(Maximum Mean Discrepancy)、KL距離等を用いて比較してもよい。例えば、k近傍法は、データの分布が複雑でも適切に評価できる等の特徴がある。MMDは、他の分布間距離尺度と比べ、任意の分布形状を考慮できる、計算が容易である等の特徴がある。なお、MMDを用いる場合、代表値を算出することなく、認識ID別の滞留時間、移動速度、移動距離などの変数を特徴ベクトル(=1サンプル)として用いて比較することができる。
詳細データ収集部21Dは、誤認識判定部21Cにより障害物が誤認識と判定された場合、インフラカメラ30から画像データ及びセンサデータを詳細データとして収集する。具体的には、誤認識と判定されたときのインフラカメラ30、場所、時刻が特定できるため、該当するインフラカメラ30に対して、関連するグリッド内の詳細データをアップロードするように指示を出す。これにより全ての時刻の詳細データを収集する必要がなく、該当する時刻の詳細データのみを選択的に収集することができる。
オペレータ提示部21Eは、誤認識判定部21Cにより障害物が誤認識と判定された場合に、オペレータに対して、誤認識と判定されたときの画像データを提示し、オペレータから異常の有無及び要因を含む判定結果の入力を受け付ける。なお、オペレータに対して、画像データに加えてセンサデータを提示してもよい。オペレータ提示部21Eは、オペレータから入力された異常の有無及び要因を含む判定結果をラベル(正解ラベル)として認識結果に対応付けてデータ・モデル蓄積DB25Bに蓄積する。データ・モデル蓄積DB25Bには、後段の認識モデルの学習に利用し易いように、認識結果、詳細データ、及びラベル等を学習すべき負例として登録しておく。
認識モデル学習部21Fは、データ・モデル蓄積DB25Bに蓄積された認識結果、詳細データ、及びラベルを含む学習用データを用いて、障害物の認識モデルを再学習する。なお、データ・モデル蓄積DB25Bには、インフラカメラ30の記憶部34に記憶されている認識モデルと同様の認識モデルが格納されている。認識モデル学習部21Fは、学習部の一例である。
認識モデル配信部21Gは、認識モデル学習部21Fにより再学習された認識モデルを、通信部26を介してインフラカメラ30に配信する。インフラカメラ30は、配信された再学習後の認識モデルにより、記憶部34に記憶されている認識モデルを更新する。
図5は、第1の実施形態に係る特徴量分布作成フェーズ、異常検出フェーズ、及びデータ収集・学習フェーズの説明に供する図である。
図5に示す特徴量分布作成フェーズの(S1)では、自動運転制御装置20のCPU21が、インフラカメラ30から障害物の認識結果を収集する。障害物の認識結果には、上述したように、例えば、認識ID、時刻、位置情報、種別、トラッキング継続時間、障害物の方向、障害物の速度、障害物のグリッド内の座標等が含まれる。
特徴量分布作成フェーズの(S2)では、自動運転制御装置20のCPU21が、インフラカメラ30から収集した過去の認識結果を、グリッドで区切られた場所毎に種別及び滞留時間を特定可能なようにデータ・モデル蓄積DB25Bに蓄積する。
特徴量分布作成フェーズの(S3)では、自動運転制御装置20のCPU21が、データ・モデル蓄積DB25Bに蓄積された過去の認識結果に基づいて、一例として、場所毎に滞留時間分布を作成する。このとき、グリッドで区切られた各場所について、障害物の種別毎に滞留時間の代表値を算出し、算出した代表値をその場所のいつもの分布としてデータ・モデル蓄積DB25Bに蓄積しておく。
異常検出フェーズの(S4)では、自動運転制御装置20のCPU21が、例えば、1日等の単位時間毎の定期的なバッチ処理により、インフラカメラ30から、グリッド(場所)毎に単位時間あたりの障害物の認識結果を収集する。
異常検出フェーズの(S5)では、自動運転制御装置20のCPU21が、インフラカメラ30から収集した単位時間あたりの障害物の認識結果を評価対象の認識結果として、データ・モデル蓄積DB25Bに蓄積する。
異常検出フェーズの(S6)では、自動運転制御装置20のCPU21が、データ・モデル蓄積DB25Bに蓄積した評価対象の認識結果に基づいて、一例として、場所毎に滞留時間分布を作成する。そして、CPU21は、作成した評価対象の認識結果に基づく滞留時間分布と、(S3)で作成した過去の認識結果に基づく滞留時間分布とを比較し、評価対象として認識された障害物の誤認識を判定する。
異常検出フェーズの(S7)では、自動運転制御装置20のCPU21が、(S6)で障害物が誤認識と判定した場合、インフラカメラ30に対して、場所及び時刻を特定し、関連するグリッド内の詳細データ(画像データ及びセンサデータ)をアップロードするように指示を出す。
データ収集・学習フェーズの(S8)では、自動運転制御装置20のCPU21が、インフラカメラ30からアップロードされた詳細データ(画像データ及びセンサデータ)を収集する。
データ収集・学習フェーズの(S9)では、自動運転制御装置20のCPU21が、インフラカメラ30から収集した詳細データ(画像データ及びセンサデータ)を、評価対象の認識結果に対応付けて、データ・モデル蓄積DB25Bに蓄積する。
データ収集・学習フェーズの(S10)では、自動運転制御装置20のCPU21が、オペレータに対して評価対象の認識結果及び詳細データを提示し、オペレータから異常の有無及び要因を含む判定結果の入力を受け付ける。
データ収集・学習フェーズの(S11)では、自動運転制御装置20のCPU21が、オペレータから入力を受け付けた異常の有無及び要因を含む判定結果をラベルとして、評価対象の認識結果及び詳細データに対応付けて、データ・モデル蓄積DB25Bに蓄積する。
データ収集・学習フェーズの(S12)では、自動運転制御装置20のCPU21が、データ・モデル蓄積DB25Bに蓄積された認識結果、詳細データ、及びラベルを含む学習用データを用いて、障害物の認識モデルを再学習する。
データ収集・学習フェーズの(S13)では、自動運転制御装置20のCPU21が、(S12)で再学習した認識モデルをインフラカメラ30に配信する。インフラカメラ30は、配信された再学習後の認識モデルに基づいて、記憶部34に記憶されている認識モデルを更新する。
次に、図6及び図7を参照して、第1の実施形態に係る自動運転制御装置20の作用を説明する。
図6は、第1の実施形態に係る自動運転プログラム25Aによる特徴量分布作成処理の流れの一例を示すフローチャートである。
まず、自動運転制御装置20に対して特徴量分布作成処理の実行が指示されると、自動運転プログラム25Aが起動され、以下の各ステップを実行する。
図6のステップS101では、CPU21が、インフラカメラ30から、過去に認識された障害物の認識結果を定期的に収集する。障害物の認識結果には、上述したように、例えば、認識ID、時刻、位置情報、種別、トラッキング継続時間、障害物の方向、障害物の速度、障害物のグリッド内の座標等が含まれる。
ステップS102では、CPU21が、ステップS101で定期的に収集した、過去に認識された障害物の認識結果を、データ・モデル蓄積DB25Bに蓄積する。
ステップS103では、CPU21が、ステップS102でデータ・モデル蓄積DB25Bに蓄積された過去の認識結果に基づいて、過去の認識結果の特徴量分布を作成する。具体的には、一例として、上述の図3に示すように、グリッドで区切られた場所(場所ID)毎に種別毎の滞留時間を集計し、種別毎の滞留時間分布を作成する。
ステップS104では、CPU21が、ステップS103で作成した特徴量分布を統計分析し、種別毎の特徴量分布の代表値を算出する。具体的には、上述したように、滞留時間分布を統計分析し、種別毎の滞留時間分布の代表値を算出する。この代表値としては、例えば、平均、最大値、最小値、分散等が用いられる。
ステップS105では、CPU21が、ステップS104で種別毎の特徴量分布(例えば、滞留時間分布)の代表値を、データ・モデル蓄積DB25Bに蓄積し、本自動運転プログラム25Aによる特徴量分布作成処理を終了する。
図7は、第1の実施形態に係る自動運転プログラム25Aによる異常検出処理及びデータ収集・学習処理の流れの一例を示すフローチャートである。
まず、自動運転制御装置20に対して異常検出処理及びデータ収集・学習処理の実行が指示されると、自動運転プログラム25Aが起動され、以下の各ステップを実行する。
図7のステップS111では、CPU21が、インフラカメラ30から、評価対象として認識された障害物の認識結果を収集する。
ステップS112では、CPU21が、ステップS111で収集した、評価対象として認識された障害物の認識結果を、データ・モデル蓄積DB25Bに蓄積する。
ステップS113では、CPU21が、ステップS112でデータ・モデル蓄積DB25Bに蓄積された評価対象の認識結果に基づいて、評価対象の認識結果の特徴量分布を作成する。
ステップS114では、CPU21が、図6のステップS105でデータ・モデル蓄積DB25Bに蓄積した種別毎の特徴量分布の代表値と、ステップS113で作成した評価対象の特徴量分布の代表値とを比較し、一例として、上述の図4に示すように、類似度を算出する。
ステップS115では、CPU21が、ステップS116で算出した類似度に基づいて、一例として、上述の図4に示すように、評価対象として認識された障害物が誤認識であるか否かを判定する。誤認識と判定した場合(肯定判定の場合)、ステップS116に移行し、誤認識ではないと判定した場合(否定判定の場合)、本自動運転プログラム25Aによる異常検出処理及びデータ収集・学習処理を終了する。
ステップS116では、CPU21が、インフラカメラ30から、誤認識と判定されたときの画像データ及びセンサデータを詳細データとして収集し、収集した詳細データを認識結果に対応付けてデータ・モデル蓄積DB25Bに蓄積する。
ステップS117では、CPU21が、ステップS116でデータ・モデル蓄積DB25Bに蓄積した認識結果及び詳細データをオペレータに提示し、オペレータから異常の有無及び要因を含む判定結果の入力を受け付ける。
ステップS118では、CPU21が、ステップS117でオペレータから入力を受け付けた判定結果(入力結果)をラベルとして、認識結果、詳細データ、及びラベルを含むデータセットを学習用データとしてデータ・モデル蓄積DB25Bに蓄積する。
ステップS119では、CPU21が、ステップS118でデータ・モデル蓄積DB25Bに蓄積した学習用データを用いて、障害物の認識モデルを再学習する。
ステップS120では、CPU21が、ステップS119で再学習した認識モデルを、インフラカメラ30に配信し、本自動運転プログラム25Aによる異常検出処理及びデータ収集・学習処理を終了する。インフラカメラ30は、配信された再学習後の認識モデルに基づいて、記憶部34に記憶されている認識モデルを更新する。
このように本実施形態によれば、インフラカメラで認識された障害物が誤認識と判定された場合に、判定結果が認識モデルにフィードバックされる。このため、障害物の誤認識が抑制される。
[第2の実施形態]
上記第1の実施形態では、インフラカメラに認識部が設けられ、評価対象として、所定期間毎にバッチ処理で抽出される障害物の特徴量分布を用いる形態について説明した。第2の実施形態では、インフラカメラに認識部が設けられ、評価対象として、リアルタイムで抽出される障害物の特徴量を用いる形態について説明する。
図8は、第2の実施形態に係るインフラカメラ30、自動運転制御装置20A、及び車載装置10の機能的な構成の一例を示すブロック図である。これらインフラカメラ30、自動運転制御装置20A、及び車載装置10により自動運転システム100Aが構成される。
本実施形態では、インフラカメラ30に認識部が設けられ、評価対象として、リアルタイムで抽出される障害物の特徴量が用いられる。
本実施形態に係るインフラカメラ30のCPU31は、記憶部34に記憶されている制御プログラムをRAMに書き込んで実行することにより、図8に示す各部として機能する。また、本実施形態に係る自動運転制御装置20AのCPU21は、記憶部25に記憶されている自動運転プログラム25AをRAMに書き込んで実行することにより、図8に示す各部として機能する。また、本実施形態に係る車載装置10のCPU11は、記憶部14に記憶されている制御プログラムをRAMに書き込んで実行することにより、図8に示す各部として機能する。
図8に示すように、本実施形態に係るインフラカメラ30のCPU31は、動作制御部31A、認識部31B、データ送信部31C、及びデータ受信部31Dとして機能する。なお、本実施形態に係るインフラカメラ30では、上記第1の実施形態で説明したインフラカメラ30が有する構成要素と同じ構成要素を有しているため、その繰り返しの説明は省略する。
また、本実施形態に係る自動運転制御装置20AのCPU21は、認識結果収集部21A、特徴量分布作成部21B、誤認識判定部21H、詳細データ収集部21D、オペレータ提示部21E、認識モデル学習部21F、認識モデル配信部21G、及び車両通知部21Jとして機能する。なお、本実施形態に係る自動運転制御装置20Aでは、上記第1の実施形態で説明した自動運転制御装置20が有する構成要素と同じ構成要素には同じ符号を付し、その繰り返しの説明は省略する。
誤認識判定部21Hは、特徴量分布作成部21Bにより作成された滞留時間分布、移動速度分布、及び移動距離分布の少なくとも1つと、評価対象として認識された障害物の滞留時間、移動速度、及び移動距離の少なくとも1つとを比較し、評価対象として認識された障害物の誤認識を判定する。この比較は、滞留時間分布から得られる閾値、移動速度分布から得られる閾値、及び、移動距離分布から得られる閾値の少なくとも1つを基準として実行される。ここでいう閾値には、例えば、滞留時間分布、移動速度分布、及び移動距離分布の各々の平均値が用いられる。
ここで、図9を参照して、特徴量の一例として滞留時間を用いて障害物の誤認識を判定する場合について説明する。
図9は、第2の実施形態に係る誤認識判定処理の説明に供する図である。
図9の例では、上述の図3の例と同様に、グリッドで区切られた場所の各々について障害物の種別(ここでは駐車車両)毎の滞留時間の分布を示している。横軸は時間t、縦軸は障害物の数であり、時間帯毎に発生する障害物の数がヒストグラムとして示されている。
誤認識判定部21Hは、過去の認識結果からグリッド別に作成した滞留時間分布から閾値Thを予め抽出しておく。閾値Thには、上述したように、滞留時間分布の平均値が用いられる。誤認識判定部21Hは、抽出した閾値Thと、評価対象の認識結果から得られた滞留時間とを比較し、滞留時間が閾値を超えた場合に異常(誤認識)と判定する。本実施形態では、評価対象とされる障害物の滞留時間が取得されると、リアルタイムで誤認識が判定される。
車両通知部21Jは、誤認識判定部21Hにより障害物が誤認識と判定された場合に、障害物の認識結果を除外するフラグが付与された障害物情報を、障害物の周辺を走行する自動運転車両に通知する。車両通知部21Jは、通知部の一例である。
また、オペレータ提示部21Eは、誤認識判定部21Hにより障害物が誤認識と判定された場合に、オペレータに対して、誤認識と判定されたときの画像データ及びセンサデータを提示し、オペレータから異常の有無及び要因を含む判定結果の入力を受け付けようにしてもよい。この場合、車両通知部21Jは、オペレータから異常有りの入力を受け付けた場合に、障害物の認識結果を除外するフラグが付与された障害物情報を、障害物の周辺を走行する自動運転車両に通知する。つまり、オペレータが異常と判定した場合には当該障害物を認識結果から除外するように自動運転車両に通知する。具体的に、障害物には固有の認識IDが割り振られており、トラッキング中は同じ認識IDが割り振られる。このため、認識IDを含むフラグを自動運転車両に通知することで、自動運転車両では該当する障害物の認識結果を除去することができる。
また、本実施形態に係る車載装置10のCPU11は、データ受信部11A及び認識部11Bとして機能する。
データ受信部11Aは、車両通知部21Jから通知された、障害物の認識結果を除外するフラグが付与された障害物情報を受信する制御を行う。
認識部11Bは、自装置のカメラ16によって撮影して得られた画像データに基づいて、障害物の認識を行うと共に、インフラカメラ30から取得される障害物の認識結果に基づいて、障害物の認識を行う。つまり、認識部11Bは、自装置の障害物認識機能を用いた認識結果と、インフラカメラ30から取得される認識結果とを組み合わせて、障害物の認識を行う。認識部11Bは、インフラカメラ30から取得される認識結果に含まれる認識IDを、自動運転制御装置20Aとの間で共有する。このため、認識部11Bは、障害物の認識結果を除外するフラグが付与された障害物情報が受信された場合に、当該フラグに含まれる認識IDによって、除外すべき障害物の認識結果を特定することができる。
次に、図10及び図11を参照して、第2の実施形態に係る自動運転制御装置20Aの作用を説明する。
図10は、第2の実施形態に係る自動運転プログラム25Aによる特徴量分布作成処理の流れの一例を示すフローチャートである。
まず、自動運転制御装置20Aに対して特徴量分布作成処理の実行が指示されると、自動運転プログラム25Aが起動され、以下の各ステップを実行する。
図10のステップS121では、CPU21が、インフラカメラ30から、過去に認識された障害物の認識結果を定期的に収集する。障害物の認識結果には、上述したように、例えば、認識ID、時刻、位置情報、種別、トラッキング継続時間、障害物の方向、障害物の速度、障害物のグリッド内の座標等が含まれる。
ステップS122では、CPU21が、ステップS121で定期的に収集した、過去に認識された障害物の認識結果を、データ・モデル蓄積DB25Bに蓄積する。
ステップS123では、CPU21が、ステップS122でデータ・モデル蓄積DB25Bに蓄積された過去の認識結果に基づいて、過去の認識結果の特徴量分布を作成する。具体的には、一例として、上述の図9に示すように、グリッドで区切られた場所毎に種別毎の滞留時間を集計し、種別毎の滞留時間分布を作成する。
ステップS124では、CPU21が、ステップS123で作成した特徴量分布から閾値を抽出する。この閾値としては、例えば、特徴量の平均値が用いられる。
ステップS125では、CPU21が、ステップS124で種別毎の特徴量分布(例えば、滞留時間分布)の閾値を、データ・モデル蓄積DB25Bに蓄積し、本自動運転プログラム25Aによる特徴量分布作成処理を終了する。
図11は、第2の実施形態に係る自動運転プログラム25Aによる異常検出処理及び車両通知処理の流れの一例を示すフローチャートである。
まず、自動運転制御装置20Aに対して異常検出処理及び車両通知処理の実行が指示されると、自動運転プログラム25Aが起動され、以下の各ステップを実行する。
図11のステップS131では、CPU21が、インフラカメラ30から、評価対象として認識された障害物の認識結果を取得する。
ステップS132では、CPU21が、ステップS131で取得した、評価対象として認識された障害物の認識結果から特徴量(例えば、滞留時間)を取得する。
ステップS133では、CPU21が、ステップS132で取得した特徴量(例えば、滞留時間)に対応する閾値を、データ・モデル蓄積DB25Bから読み出す。
ステップS134では、CPU21が、一例として、上述の図9に示すように、特徴量(例えば、滞留時間)が閾値よりも大きいか否かを判定する。特徴量が閾値よりも大きいと判定した場合、つまり、誤認識であると判定した場合(肯定判定の場合)、ステップS135に移行し、特徴量が閾値以下であると判定した場合、つまり、誤認識ではないと判定した場合(否定判定の場合)、本自動運転プログラム25Aによる異常検出処理及び車両通知処理を終了する。
ステップS135では、CPU21が、インフラカメラ30から、誤認識と判定されたときの画像データ及びセンサデータを詳細データとして収集し、収集した詳細データを認識結果に対応付けてデータ・モデル蓄積DB25Bに蓄積する。
ステップS136では、CPU21が、ステップS135でデータ・モデル蓄積DB25Bに蓄積した認識結果及び詳細データをオペレータに提示し、オペレータから異常の有無及び要因を含む判定結果の入力を受け付ける。
ステップS137では、CPU21が、ステップS136でオペレータから入力を受け付けた判定結果(入力結果)が異常有りであるか否かを判定する。判定結果(入力結果)が異常有りである場合(肯定判定の場合)、ステップS138に移行し、判定結果(入力結果)が異常無しである場合(否定判定の場合)、本自動運転プログラム25Aによる異常検出処理及び車両通知処理を終了する。
ステップS138では、CPU21が、ステップS137で異常有りと判定された障害物の認識結果を除外するフラグ(除外フラグ)を障害物情報に付与する。
ステップS139では、CPU21が、ステップS138で除外フラグが付与された障害物情報を、該当する障害部の周辺を走行する自動運転車両にリアルタイムで通知し、本自動運転プログラム25Aによる異常検出処理及び車両通知処理を終了する。障害物情報の通知を受けた自動運転車両は、障害物情報に含まれるフラグに基づいて、該当する障害物の認識結果を除去する。
このように本実施形態によれば、インフラカメラで認識された障害物が誤認識と判定された場合に、判定結果が即座に自動運転車両にフィードバックされる。このため、障害物の誤認識によって自動運転車両の走行が妨害されることが抑制される。
[第3の実施形態]
第3の実施形態では、自動運転制御装置に認識部が設けられ、評価対象として、所定期間毎にバッチ処理で抽出される障害物の特徴量分布を用いる形態について説明する。
図12は、第3の実施形態に係るインフラカメラ30A及び自動運転制御装置20Bの機能的な構成の一例を示すブロック図である。これらインフラカメラ30A及び自動運転制御装置20Bにより自動運転システム100Bが構成される。
本実施形態では、自動運転制御装置20Bに認識部が設けられ、評価対象として、所定期間毎にバッチ処理で抽出される障害物の特徴量分布が用いられる。
本実施形態に係るインフラカメラ30AのCPU31は、記憶部34に記憶されている制御プログラムをRAMに書き込んで実行することにより、図12に示す各部として機能する。また、本実施形態に係る自動運転制御装置20BのCPU21は、記憶部25に記憶されている自動運転プログラム25AをRAMに書き込んで実行することにより、図12に示す各部として機能する。
図12に示すように、本実施形態に係るインフラカメラ30AのCPU31は、動作制御部31A及びデータ送信部31Cとして機能する。なお、本実施形態に係るインフラカメラ30Aでは、上記第1の実施形態で説明したインフラカメラ30Aが有する構成要素の一部と同じ構成要素を有しているため、その繰り返しの説明は省略する。
また、本実施形態に係る自動運転制御装置20BのCPU21は、データ収集部21K、認識部21L、特徴量分布作成部21B、誤認識判定部21C、オペレータ提示部21E、及び認識モデル学習部21Fとして機能する。なお、本実施形態に係る自動運転制御装置20Bでは、上記第1の実施形態で説明した自動運転制御装置20が有する構成要素と同じ構成要素には同じ符号を付し、その繰り返しの説明は省略する。
データ収集部21Kは、インフラカメラ30から画像データ及びセンサデータを収集し、収集した画像データ及びセンサデータをデータ・モデル蓄積DB25Bに蓄積する。
認識部21Lは、データ収集部21Kにより収集された画像データ、又は、画像データ及びセンサデータに基づいて、データ・モデル蓄積DB25Bに格納された認識モデルを用いて、障害物を認識する。認識部21Lは、障害物を認識して得られた認識結果を、画像データ及びセンサデータに対応付けてデータ・モデル蓄積DB25Bに蓄積する。なお、障害物の認識結果には、上述したように、例えば、認識ID、時刻、位置情報、種別、トラッキング継続時間、障害物の方向、障害物の速度、障害物のグリッド内の座標等が含まれる。
本実施形態では、自動運転制御装置20Bに認識部21Lが設けられているため、障害物の認識処理はインフラカメラ30Aではなく、自動運転制御装置20Bによって実行される。そして、認識モデルの更新は、インフラカメラ30Aではなく、自動運転制御装置20Bにおいて実行される。
このように本実施形態によれば、センタの自動運転制御装置で認識された障害物が誤認識と判定された場合に、判定結果が認識モデルにフィードバックされる。このため、障害物の誤認識が抑制される。
[第4の実施形態]
第4の実施形態では、自動運転制御装置に認識部が設けられ、評価対象として、リアルタイムで抽出される障害物の特徴量を用いる形態について説明する。
図13は、第4の実施形態に係るインフラカメラ30A、自動運転制御装置20C、及び車載装置10の機能的な構成の一例を示すブロック図である。これらインフラカメラ30A、自動運転制御装置20C、及び車載装置10により自動運転システム100Cが構成される。
本実施形態では、自動運転制御装置20Cに認識部が設けられ、評価対象として、リアルタイムで抽出される障害物の特徴量が用いられる。
本実施形態に係るインフラカメラ30AのCPU31は、記憶部34に記憶されている制御プログラムをRAMに書き込んで実行することにより、図13に示す各部として機能する。また、本実施形態に係る自動運転制御装置20CのCPU21は、記憶部25に記憶されている自動運転プログラム25AをRAMに書き込んで実行することにより、図13に示す各部として機能する。また、本実施形態に係る車載装置10のCPU11は、記憶部14に記憶されている制御プログラムをRAMに書き込んで実行することにより、図13に示す各部として機能する。
図13に示すように、本実施形態に係るインフラカメラ30AのCPU31は、動作制御部31A及びデータ送信部31Cとして機能する。なお、本実施形態に係るインフラカメラ30Aでは、上記第2の実施形態で説明したインフラカメラ30が有する構成要素の一部と同じ構成要素を有しているため、その繰り返しの説明は省略する。
また、本実施形態に係る自動運転制御装置20CのCPU21は、データ収集部21K、認識部21L、特徴量分布作成部21B、誤認識判定部21H、オペレータ提示部21E、認識モデル学習部21F、及び車両通知部21Jとして機能する。なお、本実施形態に係る自動運転制御装置20Cでは、上記第2の実施形態で説明した自動運転制御装置20Aが有する構成要素と同じ構成要素には同じ符号を付し、その繰り返しの説明は省略する。
データ収集部21Kは、上述の図12の例と同様に、インフラカメラ30から画像データ及びセンサデータを収集し、収集した画像データ及びセンサデータをデータ・モデル蓄積DB25Bに蓄積する。
認識部21Lは、上述の図12の例と同様に、データ収集部21Kにより収集された画像データ、又は、画像データ及びセンサデータに基づいて、データ・モデル蓄積DB25Bに格納された認識モデルを用いて、障害物を認識する。認識部21Lは、障害物を認識して得られた認識結果を、画像データ及びセンサデータに対応付けてデータ・モデル蓄積DB25Bに蓄積する。なお、障害物の認識結果には、上述したように、例えば、認識ID、時刻、位置情報、種別、トラッキング継続時間、障害物の方向、障害物の速度、障害物のグリッド内の座標等が含まれる。
本実施形態では、自動運転制御装置20Cに認識部21Lが設けられているため、障害物の認識処理はインフラカメラ30Aではなく、自動運転制御装置20Cによって実行される。そして、認識モデルの更新は、インフラカメラ30Aではなく、自動運転制御装置20Cにおいて実行される。
このように本実施形態によれば、センタの自動運転制御装置で認識された障害物が誤認識と判定された場合に、判定結果が即座に自動運転車両にフィードバックされる。このため、障害物の誤認識によって自動運転車両の走行が妨害されることが抑制される。
以上の実施形態に関し、更に以下の付記を開示する。
(付記項1)
メモリと、
少なくとも1つのプロセッサと、
を含み、
前記プロセッサは、
自動運転車両の外部環境における特定の場所に設置された撮影装置によって前記自動運転車両が走行する道路を含む所定領域を撮影して得られた画像データに基づいて、障害物を認識し、
過去に認識された障害物に関する特徴量の分布を表す特徴量分布を作成し、
前記作成された特徴量分布と、評価対象として認識された障害物の特徴量とを比較し、前記評価対象として認識された障害物の誤認識を判定する
ように構成されている自動運転システム。
(付記項2)
コンピュータを、
自動運転車両の外部環境における特定の場所に設置された撮影装置によって前記自動運転車両が走行する道路を含む所定領域を撮影して得られた画像データに基づいて、障害物を認識する認識部、
前記認識部により過去に認識された障害物に関する特徴量の分布を表す特徴量分布を作成する作成部、及び、
前記作成部により作成された特徴量分布と、評価対象として認識された障害物の特徴量とを比較し、前記評価対象として認識された障害物の誤認識を判定する判定部、
として機能させるための自動運転プログラムを記憶した非遷移的記録媒体。
以上、実施形態に係る自動運転システムを例示して説明した。実施形態は、自動運転システムが備える各部の機能をコンピュータに実行させるためのプログラムの形態としてもよい。実施形態は、これらのプログラムを記憶したコンピュータが読み取り可能な非遷移的記録媒体の形態としてもよい。
その他、上記実施形態で説明した自動運転システムの構成は、一例であり、主旨を逸脱しない範囲内において状況に応じて変更してもよい。
また、上記実施形態で説明したプログラムの処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。
また、上記実施形態では、プログラムを実行することにより、実施形態に係る処理がコンピュータを利用してソフトウェア構成により実現される場合について説明したが、これに限らない。実施形態は、例えば、ハードウェア構成や、ハードウェア構成とソフトウェア構成との組み合わせによって実現してもよい。
10 車載装置、11、21、31 CPU、11A データ受信部、11B、21L、31B 認識部、12、22、32 メモリ、13、24 表示部、14、25、34 記憶部、15、35 センサ群、16、36 カメラ、17、26、33 通信部、20、20A、20B、20C 自動運転制御装置、21A 認識結果収集部、21B 特徴量分布作成部、21C、21H 誤認識判定部、21D 詳細データ収集部、21E オペレータ提示部、21F 認識モデル学習部、21G 認識モデル配信部、21J 車両通知部、21K データ収集部、25A 自動運転プログラム、25B データ・モデル蓄積DB、30、30A インフラカメラ、31A 動作制御部、31C データ送信部、31D データ受信部、100、100A、100B、100C 自動運転システム

Claims (9)

  1. 自動運転車両の外部環境における特定の場所に設置された撮影装置(30、30A)によって前記自動運転車両が走行する道路を含む所定領域を撮影して得られた画像データに基づいて、障害物を認識する認識部(31B、21L)と、
    前記認識部により過去に認識された障害物に関する特徴量の分布を表す特徴量分布を障害物が認識された場所毎及び障害物の種別毎に作成する作成部(21B)と、
    前記作成部により作成された、評価対象として認識された障害物の場所及び種別に対応する特徴量分布と、前記評価対象として認識された障害物の特徴量とを比較し、前記評価対象として認識された障害物の誤認識を判定する判定部(21C、21H)と、
    を備えた自動運転システム(100、100A、100B、100C)。
  2. 前記作成部は、前記特徴量分布として、障害物が滞留した時間の分布を表す滞留時間分布、障害物が移動した速度の分布を表す移動速度分布、及び、障害物が移動した距離の分布を表す移動距離分布の少なくとも1つを作成し、
    前記判定部は、前記作成部により作成された滞留時間分布、移動速度分布、及び移動距離分布の少なくとも1つと、前記評価対象として認識された障害物の滞留時間、移動速度、及び移動距離の少なくとも1つとを比較し、前記評価対象として認識された障害物の誤認識を判定する
    請求項1に記載の自動運転システム。
  3. 前記判定部(21C)は、前記比較を、前記滞留時間分布の統計分析から得られる代表値、前記移動速度分布の統計分析から得られる代表値、及び、前記移動距離分布の統計分析から得られる代表値の少なくとも1つを基準として実行する
    請求項2に記載の自動運転システム。
  4. 前記判定部(21H)は、前記比較を、前記滞留時間分布から得られる閾値、前記移動速度分布から得られる閾値、及び、前記移動距離分布から得られる閾値の少なくとも1つを基準として実行する
    請求項2に記載の自動運転システム。
  5. 前記判定部により前記障害物が誤認識と判定された場合に、前記障害物の認識結果を除外するフラグが付与された障害物情報を、前記障害物の周辺を走行する自動運転車両に通知する通知部(21J)を更に備えた
    請求項4に記載の自動運転システム。
  6. 前記判定部により前記障害物が誤認識と判定された場合に、オペレータに対して、誤認識と判定されたときの画像データを提示し、前記オペレータから異常の有無の入力を受け付ける提示部(21E)を更に備え、
    前記通知部は、前記オペレータから異常有りの入力を受け付けた場合に、前記障害物の認識結果を除外するフラグが付与された前記障害物情報を、前記障害物の周辺を走行する自動運転車両に通知する
    請求項5に記載の自動運転システム。
  7. 前記判定部により前記障害物が誤認識と判定された場合に、誤認識の判定結果に対して、オペレータが入力した異常の有無及び要因を含む判定結果をラベルとして、障害物の認識モデルを学習する学習部(21F)を更に備えた
    請求項1~請求項6の何れか1項に記載の自動運転システム。
  8. コンピュータが、
    自動運転車両の外部環境における特定の場所に設置された撮影装置によって前記自動運転車両が走行する道路を含む所定領域を撮影して得られた画像データに基づいて、障害物を認識し、
    過去に認識された障害物に関する特徴量の分布を表す特徴量分布を障害物が認識された場所毎及び障害物の種別毎に作成し、
    前記作成された、評価対象として認識された障害物の場所及び種別に対応する特徴量分布と、前記評価対象として認識された障害物の特徴量とを比較し、前記評価対象として認識された障害物の誤認識を判定する、
    自動運転方法。
  9. コンピュータを、
    自動運転車両の外部環境における特定の場所に設置された撮影装置(30、30A)によって前記自動運転車両が走行する道路を含む所定領域を撮影して得られた画像データに基づいて、障害物を認識する認識部(31B、21L)、
    前記認識部により過去に認識された障害物に関する特徴量の分布を表す特徴量分布を障害物が認識された場所毎及び障害物の種別毎に作成する作成部(21B)、及び、
    前記作成部により作成された、評価対象として認識された障害物の場所及び種別に対応する特徴量分布と、前記評価対象として認識された障害物の特徴量とを比較し、前記評価対象として認識された障害物の誤認識を判定する判定部(21C、21H)、
    として機能させるための自動運転プログラム(25A)。
JP2021029263A 2021-02-25 2021-02-25 自動運転システム、自動運転方法、及び自動運転プログラム Active JP7380614B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021029263A JP7380614B2 (ja) 2021-02-25 2021-02-25 自動運転システム、自動運転方法、及び自動運転プログラム
PCT/JP2022/006780 WO2022181502A1 (ja) 2021-02-25 2022-02-18 自動運転システム、自動運転方法、及び自動運転プログラム
US18/455,489 US20230401870A1 (en) 2021-02-25 2023-08-24 Autonomous driving system, autonomous driving method, and autonomous driving program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021029263A JP7380614B2 (ja) 2021-02-25 2021-02-25 自動運転システム、自動運転方法、及び自動運転プログラム

Publications (3)

Publication Number Publication Date
JP2022130209A JP2022130209A (ja) 2022-09-06
JP2022130209A5 JP2022130209A5 (ja) 2022-12-08
JP7380614B2 true JP7380614B2 (ja) 2023-11-15

Family

ID=83048977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021029263A Active JP7380614B2 (ja) 2021-02-25 2021-02-25 自動運転システム、自動運転方法、及び自動運転プログラム

Country Status (3)

Country Link
US (1) US20230401870A1 (ja)
JP (1) JP7380614B2 (ja)
WO (1) WO2022181502A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030776A (ja) 2001-07-17 2003-01-31 Japan Radio Co Ltd 物体検知システムおよびその方法
JP2008026985A (ja) 2006-07-18 2008-02-07 Toyota Motor Corp 車載用歩行者検出装置
JP2019021201A (ja) 2017-07-20 2019-02-07 株式会社デンソー 学習サーバ及び支援システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030776A (ja) 2001-07-17 2003-01-31 Japan Radio Co Ltd 物体検知システムおよびその方法
JP2008026985A (ja) 2006-07-18 2008-02-07 Toyota Motor Corp 車載用歩行者検出装置
JP2019021201A (ja) 2017-07-20 2019-02-07 株式会社デンソー 学習サーバ及び支援システム

Also Published As

Publication number Publication date
WO2022181502A1 (ja) 2022-09-01
US20230401870A1 (en) 2023-12-14
JP2022130209A (ja) 2022-09-06

Similar Documents

Publication Publication Date Title
US11990036B2 (en) Driver behavior monitoring
US11769318B2 (en) Systems and methods for intelligent selection of data for building a machine learning model
EP2984642B1 (en) Mapping active and inactive construction zones for autonomous driving
US20220105959A1 (en) Methods and systems for predicting actions of an object by an autonomous vehicle to determine feasible paths through a conflicted area
CN111382768A (zh) 多传感器数据融合方法和装置
US11657591B2 (en) Autonomous vehicle system for intelligent on-board selection of data for building a remote machine learning model
CN110573978A (zh) 用于自驾交通工具的动态传感器选择
US9360332B2 (en) Method for determining a course of a traffic lane for a vehicle
US20220188695A1 (en) Autonomous vehicle system for intelligent on-board selection of data for training a remote machine learning model
WO2017123665A1 (en) Driver behavior monitoring
JP7380616B2 (ja) 自動運転制御装置、自動運転制御方法、及び自動運転制御プログラム
US11577732B2 (en) Methods and systems for tracking a mover's lane over time
US20230068848A1 (en) Systems and methods for vehicle camera obstruction detection
WO2022108744A1 (en) On-board feedback system for autonomous vehicles
CN117416344A (zh) 自主驾驶***中校车的状态估计
JP7380614B2 (ja) 自動運転システム、自動運転方法、及び自動運転プログラム
WO2024090388A1 (ja) 情報処理装置及びプログラム
EP4394664A1 (en) Automated data generation by neural network ensembles
CN117416343A (zh) 自动驾驶***中对校车的活跃状态估计与响应
JP2024062325A (ja) 情報処理装置及びプログラム
CN118262298A (zh) 存在于道路上的对象的分类

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231016

R151 Written notification of patent or utility model registration

Ref document number: 7380614

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151