JP2019010967A - 自動制御装置およびその制御方法 - Google Patents

自動制御装置およびその制御方法 Download PDF

Info

Publication number
JP2019010967A
JP2019010967A JP2017128910A JP2017128910A JP2019010967A JP 2019010967 A JP2019010967 A JP 2019010967A JP 2017128910 A JP2017128910 A JP 2017128910A JP 2017128910 A JP2017128910 A JP 2017128910A JP 2019010967 A JP2019010967 A JP 2019010967A
Authority
JP
Japan
Prior art keywords
scene
individual
learning
determination
learning progress
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017128910A
Other languages
English (en)
Other versions
JP6924629B2 (ja
Inventor
尚子 高田
Naoko Takada
尚子 高田
村上 隆
Takashi Murakami
隆 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2017128910A priority Critical patent/JP6924629B2/ja
Publication of JP2019010967A publication Critical patent/JP2019010967A/ja
Application granted granted Critical
Publication of JP6924629B2 publication Critical patent/JP6924629B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】各シーンにける運転者の個体特性の学習完了の判断を適切に行うことで、個体特性の自動運転への反映を迅速に行う。また、個体特性の学習が完了したと判断されたシーンごとに自動運転を行うことで、運転者の違和感を少なくする。【解決手段】運転者を認証する個体認証部12と、移動体が置かれているシーンを判定するシーン判定部11と、運転者の個体特性を学習する個体特性学習部14と、運転者による移動体の手動操作を推定する手動操作推定部15と、所定のシーンにおいて、手動操作推定部15で推定した推定手動操作情報と、移動体の実際の手動操作情報51とを比較して、所定のシーンにおける学習進捗度を判定する学習進捗度判定部16と、シーンごとの学習進捗度の判定結果に基づいて、運転者の個体特性に適応した自動制御の実施または不実施を、シーンごとに決定する制御部17と、を有する構成とした。【選択図】図1

Description

本発明は、自動制御装置およびその制御方法に関する。
近年、運転者(個体)の手動操作によらず、車両などの移動体のECU(Electronic Control Unit)が、自車両が置かれたシーンや環境条件などを自動で判断して自律的に運転する自動運転技術の開発が進められている。
この種の自動運転技術では、移動体のECUが、様々なシーンにおける運転者の個体特性を学習し、運転者の個体特性に近い自動運転を行うことで、運転者に違和感を与えないようにしている。
特許文献1には、移動体の自動制御装置が開示されている。
特開2007−176396号公報
特許文献1に開示されている移動体の自動制御装置では、様々なシーンにおける運転者の個体特性(操作特性)を学習することで、運転者の個体特性に適応したモデルを構築している。これにより、この自動制御装置では、運転者の個体特性を自動運転に反映させることで、運転者の違和感を減らすことができる。
しかしながら、特許文献1の移動体の自動制御装置では、運転者の個体特性の学習が完了したか否かの判断基準がない。
よって、この自動制御装置では、運転者の個体特性の学習完了の判断が遅れる結果、個体特性の自動運転への反映が遅れてしまう。また、この自動制御装置では、運転者の個体特性の学習が不十分な状態で、当該個体特性を自動運転に反映させてしまう恐れがあり、この場合、運転者に違和感を与えてしまうという問題がある。
したがって本発明は、上記課題に鑑みてなされたもので、自動制御装置において、シーンごとに運転者の個体特性の学習完了の判断を適切に行うことで、個体特性の自動運転への反映を迅速に行うことを目的とする。また、運転者の個体特性の学習が完了したと判断されたシーンごとに自動運転を行うことで、運転者に与える違和感を少なくすることを目的とする。
上記課題を解決するため、機器の操作を行う個体を認証する個体認証部と、機器が置かれているシーンを判定するシーン判定部と、個体の個体特性を学習する個体特性学習部と、個体の個体特性に基づいて、個体による機器の手動操作を推定する手動操作推定部と、シーン判定部で判定された所定のシーンにおいて、個体の個体特性に基づいて手動操作推定部で推定した推定手動操作と、当該個体による機器の実際の手動操作とを比較して、所定のシーンにおける学習進捗度を判定する学習進捗度判定部と、シーン判定部で判定された所定のシーンごとの学習進捗度の判定結果に基づいて、個体の個体特性に適応した自動制御の実施または不実施を、シーンごとに決定する制御部と、を有する自動制御装置とした。
本発明によれば、自動制御装置において、シーンごとに運転者の個体特性の学習完了の判断を適切に行うことで、個体特性の自動運転への反映を迅速に行うことができる。また、運転者の個体特性の学習が完了したと判断されたシーンごとに自動運転を行うことで、運転者に与える違和感を少なくすることができる。
実施の形態にかかる自動制御装置を説明するブロック図である。 個体適応制御のフローチャートである。 過去情報データベースの更新処理のフローチャートである。 シーン判定基準データベースの更新処理のフローチャートである。 シーン判定基準の再学習の処理のフローチャートである。 シーン判定基準の再学習の方法を説明する概念図である。 個体特性学習処理のフローチャートである。 学習進捗度判定部における個体特性の学習完了の判断処理のフローチャートである。 学習進捗度に基づいて、学習完了状態への移行許可を判断する一例を説明する図である。 安全判定部を説明するブロック図である。 危険事象判定部による危険事象発生の判断の一例を説明する図である。 シーン一致度検証部を説明するブロック図である。 第2の実施の形態にかかる自動制御装置を説明するブロック図である。 第2の実施の形態にかかる個体適応制御のフローチャートである。 第2の実施の形態にかかる過去情報データベースの更新処理のフローチャートである。 第2の実施の形態にかかる重み決定処理のフローチャートである。
以下、本発明の実施の形態にかかる自動制御装置1を説明する。
以下の説明では、自動制御装置1を、車両などの移動体(図示せず)の自動運転に適用した場合を例示して説明する。
図1は、実施の形態にかかる自動制御装置1を説明するブロック図である。
[自動制御装置]
図1に示すように、自動制御装置1は、シーン判定基準データベース10と、シーン判定部11と、個体認証部12と、過去情報データベース13と、個体特性学習部14と、手動操作推定部15と、学習進捗度判定部16と、制御部17と、を有している。
シーン判定基準データベース10は、自動運転におけるシーンの分類に使用されるパラメータが、分類されるシーンに対応して記憶されている。よって、シーン判定基準データベースから所定のパラメータを取得することで、このパラメータに対応するシーンを抽出することができる。
ここで、シーンとは、車両などの移動体が走行する道路形状を意味し、一定の距離的又は時間的長さを含む概念である。例えば、シーンの一例として、短い直線シーン、長い直線シーン、緩やかなカーブシーン、急なカーブシーン,上り坂シーン、下り坂シーン、交差点シーンなどが挙げられる。そして、各々のシーンは、一場面だけではなく、ある一定の距離的又は時間的長さを含んでいる。
前述したシーン判定基準データベース10は、移動体(車両)側の制御装置などに設けられていてもよいが、シーン判定基準データベース10を移動体とは異なる場所にある外部サーバ(図示せず)に設けることがより好ましい。
シーン判定基準データベース10を外部サーバ(図示せず)に設け、この外部サーバと移動体のECU(図示せず)とを情報ネットワークを介して接続することで、移動体のECUが、必要に応じて、外部サーバ内のシーン判定基準データベース10に記憶されているパラメータ(シーン)を読み出すことができる。
このようにすると、移動体側の制御装置などのメモリ容量を小さくすることができ、移動体側の制御装置の製造コストや、維持・管理コストの増加を抑えることができる。また、移動体側の制御装置の計算リソースを、危険回避処理などの緊急性の高い処理に重点的に使用することができる。さらに、運転者が、別の移動体(車両)に乗車した場合でも、情報ネットワークを介して外部サーバから必要な情報を読み出して個体適応制御を行うことができる。
このシーン判定基準データベース10には、シーン判定部11が接続されており、このシーン判定部11には、シーン判定基準データベース10に記憶されたシーンの分類に使用されるパラメータと、環境情報50と、が入力される。
シーン判定部11は、シーン判定基準データベース10から入力されたパラメータと、環境情報50とに基づいて、移動体(車両)の置かれているシーンを判定する。
ここで、環境情報50は、例えば、道路形状(直線、カーブ、傾斜勾配、交差点の有無等)、周囲の他の移動体(他車両)の密度、周囲の他の移動体の移動速度(車速)、周囲の障害物との距離、道路の車線内における自車両の幅方向の位置、気温、季節、明るさ、などの外部環境情報をいう。また、環境情報50は、例えば、自車両の車速、加速度、ステア角、ピッチ、ロール、などの内部環境情報も含む。
個体認証部12は、運転者(個体)の個体認証情報52を取得し、この取得した個体認証情報52と、後述する過去情報データベース13にすでに登録されている個体認証情報と、を照合して、運転者の認証を行う。
個体認証情報52は、運転者を特定可能な情報であれば特に限定されるものではなく、例えば、個人IDと暗証番号(パスワード)、運転免許証などの身分証の情報であってもよい。この個体認証情報52は、イグニッションキーやスタート/ストップボタンがOFFにされるまで、ECUのメモリ(図示せず)に記憶されている。
この個体認証部12は、過去情報データベース13に接続されており、個体認証部12は、過去情報データベース13にすでに登録されている個体認証情報を読み出すようになっている。
過去情報データベース13には、運転者の個体認証情報52のほか、シーン判定部11で判定されたシーン(判定結果)と、環境情報50と、手動操作情報51とが入力されて記憶されている。
過去情報データベース13は、個体認証部12で認証された運転者の個体認証情報52に基づいて、過去情報データベース13内での当該個体認証情報52に対応するメモリアドレス(メモリ領域)を特定する。そして、過去情報データベース13は、この特定したメモリアドレスに、シーン判定部11で判定されたシーン(判定結果)と、その際の環境情報50及び運転者の手動操作情報51とを関連付けて記憶する。
一方、過去情報データベース13は、個体認証部12で認証された運転者の個体認証情報52が、過去に登録がない(未登録)と判定した場合、当該未登録の運転者の個体認証情報52に対応する新たなメモリアドレス(メモリ領域)を作製すると共に、そのメモリアドレスに、シーン判定部11で判定されたシーン(判定結果)と、その際の環境情報50及び運転者の手動操作情報51と、を関連付けて記憶する。
ここで、手動操作情報51には、例えば、ステアリングの操舵角、車速、各ライト及び各ランプのON/OFF操作、空調の設定温度、車内オーディオの楽曲選定及びその音量、カーナビゲーションの操作情報、ウィンドウの開閉量、ウィンドウの遮光性が電圧を印加するなどで任意に設定できる場合には、その電圧値(遮光度)などが一例として挙げられる。
過去情報データベース13は、個体特性学習部14に接続されており、過去情報データベース13に記憶された各情報は、個体特性学習部14に入力される。
個体特性学習部14は、過去情報データベース13に記憶されたシーン(判定結果)と、環境情報50と、手動操作情報51と、個体認証情報52とに基づいて、当該個体認証情報52で特定される運転者の個体特性モデルを生成する。
具体的には、個体特性学習部14は、各々のシーンにおいて、運転者がどのような手動操作を行ったのかを機械学習などの手法で学習して、個体特性モデルを生成する。
なお、個体特性(操作特性)の学習は周知の機械学習、ディープラーニングなどの手法を用いることができる。
個体特性学習部14は、手動操作推定部15に接続されており、個体特性学習部14で生成された個体特性モデルは、手動操作推定部15に入力される。
手動操作推定部15には、個体特性学習部14で生成された個体特性モデルのほか、現在の環境情報50が入力されており、この個体特性モデルと環境情報50とに基づいて、運転者の手動操作を推定する。
ここで、運転者の手動操作には、例えば、ステアリング操作、アクセルペダル操作、各ライト及び各ランプのON/OFF操作、空調の操作、車内オーディオの操作、カーナビゲーションの操作、ウィンドウの開閉操作などが一例として挙げられる。
この手動操作推定部15は、学習進捗度判定部16に接続されており、手動操作推定部15で推定された運転者の手動操作情報(以下、推定手動操作情報ともいう)は、学習進捗度判定部16に入力される。
学習進捗度判定部16には、手動操作推定部15で推測された推測手動操作情報のほかに、現在の運転者による手動操作情報51と、シーン判定部11で判定されたシーン(判定結果)と、が入力されている。
学習進捗度判定部16は、手動操作推定部15で推測された推定手動操作情報と、現在の運転者の手動操作情報51との差分R(推定手動操作情報―手動操作情報51)を、シーンごとに算出することで、シーンごとの学習進捗度を判定する。
例えば、学習進捗度判定部16は、前述した比較結果の差分Rが所定の閾値Rth以下の場合(R≦Rth)、学習進捗度が高い(学習完了)と判定し、差分Rが閾値Rthよりも大きい場合(R>Rth)、学習進捗度が低い(学習未完了)と判定し、この学習進捗度の判定結果を制御部17に出力する。
制御部17は、学習進捗度判定部16で判定された学習進捗度の判定結果に基づいて、シーンごとに、個体適応制御の実施または不実施を決定する。
制御部17は、学習進捗度判定部16により学習進捗度が高い(差分R≦閾値Rth)と判定された場合には、個体適応制御を実施する。
ここで、制御部17による個体適応制御の実施条件の一例を説明する。
初めに、シーン判定部11は、所定のシーン(例えば、カーブシーン)に含まれる少なくとも2以上の不連続な第1シーン(例えば、緩やかなカーブシーン)と、第2シーン(例えば、交差点シーン)とを判定する。
そして、学習進捗度判定部16は、第1シーン(例えば、緩やかなカーブシーン)と、第2シーン(例えば、交差点シーン)における、運転者の個体特性の学習進捗度を判定する。
その結果、制御部17は、第1シーンでの学習進捗度の判定結果と、第2シーンでの学習進捗度の判定結果の何れも学習完了状態(学習進捗度が高い状態)であると、学習進捗度判定部16により判定された場合、個体適応制御を実施する。
このように、制御部17は、全くシーンの異なる不連続な2以上のシーンにおける学習進捗度が完了状態か否かに基づいて、個体適応制御を実施するか否かの判定を行うことにより、2以上の不連続なシーンを含む所定のシーンの学習が完了していると精度よく判定することができる。
また、シーン判定部11は、所定のシーン(例えば、直線シーン)に含まれる互いに離れた位置の第3シーン(例えば、第1の直線シーン)と、第4シーン(例えば、第2の直線シーン)とを判定する。
そして、学習進捗度判定部16は、第3シーン(例えば、第1の直線シーン)と、第4シーン(例えば、第2の直線シーン)における、運転者の個体特性の学習進捗度を判定する。
その結果、制御部17は、第3シーンでの学習進捗度の判定結果と、第4シーンでの学習進捗度の判定結果の何れも学習完了状態(学習進捗度が高い状態)であると、学習進捗度判定部16により判定された場合、個体適応制御を実施する。
このように、制御部17は、離れた距離にある2以上のシーンにおける学習進捗度が完了状態か否かに基づいて、個体適応制御を実施するか否かの判定を行うことにより、2以上の離れた距離にある不連続なシーンを含む所定のシーンの学習が完了していると精度よく判定することができる。
なお、学習進捗度判定部16は、時間的に離れた2つのシーン(第5シーン、第6シーン)での学習進捗度を判定し、制御部17は、2つのシーン(第5シーン、第6シーン)における学習進捗度がいずれも学習完了状態である場合に、個体適応制御を実施するようにしてもよい。
一方、制御部17は、学習進捗度が低い(差分R>閾値Rth)と判定された場合には、個体適応制御を実施せず、予め初期設定(デフォルト)されている自動運転制御を実施する。
ここで、個体適応制御とは、運転者(個体)の個体特性(操作特性)を学習して生成した個体特性モデルに基づいて、運転者の個体特性(操作特性)に適応した自動運転制御を行うことを意味する。
なお、制御部17は、学習進捗度から学習効率Kを算出し、学習効率Kが所定の閾値Kth以上の場合(K≧Kth)、学習進捗が高いと判定し、学習効率Kが所定の閾値Kthよりも小さい場合(K<Kth)、学習進捗度が低いと判定してもよい。
前述した過去情報データベース13、個体特性学習部14、手動操作推定部15、学習進捗度判定部16は、移動体(車両)側の制御装置などに設けられていても良いが、これらを移動体とは異なる場所にある外部サーバ(図示せず)に設け、この外部サーバと移動体のECU(図示せず)とを情報ネットワークを介して接続し、必要に応じて、移動体のECUが、これらの情報を読み出すようにすることが好ましい。
このようにすると、移動体側の制御装置のメモリ容量を小さくすることができ、移動体側の制御装置の製造コストや、維持・管理コストの増加を抑えることができる。また、移動体側の制御装置の計算リソースを、危険回避処理などの緊急性の高い処理に重点的に使用することができる。さらに、運転者が、別の移動体(車両)に乗車した場合でも、情報ネットワークを介して外部サーバから必要な情報を読み出して個体適応制御を行うことができる。
[個体適応制御]
次に、自動制御装置1における個体適応制御の処理を説明する。
図2は、個体適応制御のフローチャートである。
初めに、ステップS101において、移動体のECU(図示せず)は、移動体の自動運転が許可されているか否かを判定する。ECUは、自動運転が許可されていると判定した場合(ステップS101:Yes)、ステップS102に進む。
ここで、自動運転の許可は、種々の方法が考えられるが、運転者が、自動運転モードを設定するスイッチをON操作することで設定される。
ステップS102において、移動体のECUは、個体適応制御が許可されているか否かを判定する。ECUは、個体適応制御が許可されていると判定した場合(ステップS102:Yes)、ステップS103に進む。
ステップS102において、移動体のECUは、個体適応制御が許可されていないと判定した場合(ステップS102:No)、ステップS106に進む。ステップS106において、自動制御装置1は、予め初期設定(デフォルト)されている自動運転制御により、移動体の自動運転を実施する。
ステップS103において、学習進捗度判定部16は、シーン判定部により判定されたシーン(判定結果)、環境情報50、手動操作情報51、個体認証情報52に基づいて、現在走行しているシーンにおいて、当該運転者の個体特性の学習が完了したか否かを判定する。
ステップS103において、学習進捗度判定部16は、運転者の個体特性の学習が完了したと判定した場合(ステップS103:Yes)、ステップS104に進む。ステップS104において、制御部17は、学習進捗度判定部16による学習完了の判定に基づいて、当該シーンにおける当該運転者の個体特性に応じた個体適応制御を実施する。
ステップS103において、学習進捗度判定部16は、運転者の個体特性の学習が完了していないと判定した場合(ステップS103:No)、ステップS106に進む。ステップS106において、制御部17は、学習進捗度判定部16による学習未完了の判定結果に基づいて、個体適応制御の実施を行わず、初期設定(デフォルト)されている自動運転制御により移動体の自動運転を実施する。
なお、前述したステップS101において、移動体のECU(図示せず)は、運転者が手動で自動運転モードを設定するスイッチをOFFに設定したり、環境情報50に応じて移動体が自動運転を継続できないと判定した場合にOFFに設定される。この場合、移動体のECUは、自動運転が許可されていないと判定し(ステップS101:NO)、ステップS105に進む。
ステップS105において、移動体のECUは、現在の環境情報50と、現在の運転者の手動操作情報51を取得し、過去情報データベース13に送信して処理を終了する。
[過去情報データベースの更新]
次に、過去情報データベース13の更新処理を説明する。
図3は、過去情報データベース13の更新処理のフローチャートである。
ステップS201において、個体認証部12は、現在の運転者の個体認証情報52を取得する。
ステップS202において、個体認証部12は、ステップS201で取得した現在の運転者の個体認証情報52が、過去情報データベース13にすでに記憶されているか否かを判定する。個体認証部12は、個体認証情報52が、過去情報データベース13にすでに記憶されていると判定した場合(ステップS202:Yes)、ステップS203に進む。
ステップS203において、個体認証部12は、当該運転者の個体認証情報52が記憶されている過去情報データベース13上のメモリアドレスを取得し、ステップS204に進む。
一方、個体認証部12は、個体認証情報52が、過去情報データベース13に記憶されていないと判定した場合(ステップS202:No)、ステップS209に進む。
ステップS209において、個体認証部12は、過去情報データベース13上に、現在の運転者の個体認証情報52を記憶する新たなメモリアドレスを設定し、ステップS204に進む。
ステップS204において、シーン判定部11は、環境情報50を取得して、ステップS205に進む。
ステップS205において、シーン判定部11は、シーン判定基準データベース10から取得したシーンの判定に必要なパラメータと、ステップS204で取得した環境情報50とに基づいて、当該シーンを判定する。
ステップS206において、移動体のECU(図示せず)は、移動体が運転者による手動操作(手動運転)中か否かを判定する。移動体のECUは、手動操作中と判定した場合(ステップS206:Yes)、ステップS207に進み、ステップS207において、現在の、運転者の手動操作による運転情報(手動操作情報51)を取得する。
そして、ステップS208において、移動体のECU(図示せず)は、取得した環境情報50、手動操作情報51、及びシーン判定部11で判定されたシーン(判定結果)を、ステップS203、S209で取得した過去情報データベース13上のメモリアドレスに記憶して処理を終了する。
これにより、運転者が手動操作による運転を行うことで、過去情報データベース13に記憶される環境情報50や手動操作情報51、及びシーン判定部11で判定されたシーン(判定結果)が取得され、この取得された各情報は、過去情報データベース13に蓄積される。よって、過去情報データベース13では、運転者が煩わしさを感じることなく、これらの各情報が蓄積(更新)される。
なお、ステップS206において、移動体のECU(図示せず)は、当該移動体が手動操作中でない(自動運転中である)と判定した場合(ステップS206:No)、ステップS210に進み、環境情報50及びシーン判定部11で判定されたシーン(判定結果)を、制御部17に送信して処理を終了する。
[シーン判定基準データベースの更新処理]
次に、シーン判定基準データベース10の更新処理を説明する。
自動制御装置1では、運転者の個体特性の学習効率Kが著しく低いシーンがある場合、シーン判定基準データベース10に記憶された当該シーンを他のシーンに変更して、シーン判定基準データベース10の更新を行う。
図4は、シーン判定基準データベース10の更新処理のフローチャートである。
ステップS301において、学習進捗度判定部16は、過去情報データベース13に記憶されている全ての運転者(個体)について、シーンごとの学習効率Kを算出する。
ここで、学習進捗度判定部16は、学習時間Tが十分長いのに学習進捗度が低い場合、又は学習時間Tは短いが学習進捗度の向上率が低い場合に、何れかより小さい値を学習効率Kとして算出する。
ステップS302では、学習進捗度判定部16は、何れかの運転者(個体)において、学習時間Tが、所定の閾値Tth以上(T≧Tth)であって、学習効率Kが、所定の閾値Kth未満(K<Kth)となるシーンがあるか否かを判定する。
学習進捗度判定部16は、ステップS302の条件を満たすシーンがあると判定した場合(ステップS302:Yes)、ステップS303に進む。一方、学習進捗度判定部16は、前述した条件を満たすシーンがないと判定した場合(ステップS302:No)、学習効率Kが著しく低いシーンがないと判定し、本処理を終了する。
ステップS303では、学習進捗度判定部16は、所定の同一シーンにおいて、学習時間Tが所定の閾値Tth以上であって、学習効率Kが所定の閾値Kth未満となる条件を満たすシーンを有する運転者(個体)の数Nが、過去情報データベース13に記憶されている全ての運転者(個体)の数Mの過半数以上(N≧M/2)となるか否かを判定する。
ステップS303において、学習進捗度判定部16は、前述した条件を満たす個体の数Nが、全体の過半数以上であると判定した場合(ステップS303:Yes)、ステップS304に進む。
ステップS304において、移動体のECU(図示せず)は、全ての個体の環境情報50及び手動操作情報51に基づいて、シーン判定基準の再学習を行う。なお、このシーン判定基準の再学習の処理(方法)は後述する。
そして、ステップS305において、移動体のECUは、ステップS304での再学習の結果に基づいて、シーン判定基準データベース10のシーンを更新(他のシーンに変更、又は当該シーンを削除など)して処理を終了する。
これにより、自動制御装置1では、学習効率Kの著しく低いシーンを見直し、又は削除することで、シーン判定基準データベース10内のシーンを、より適切なものに更新することができる。
なお、ステップS303において、学習効率Kが所定の閾値Kth未満となる運転者(個体)の数Nが、全ての運転者(個体)の数Mの過半数とならなかったシーンがある場合(ステップS303:No)、ステップS306に進み、当該学習効率Kの著しく低いシーンを有する運転者(個体)で収集された環境情報50と手動操作情報51とに基づいて、当該運転者(個体)におけるシーン判定基準の再学習を行う。
ここで、個別の運転者(個体)におけるシーン判定基準の再学習は、ステップS304のシーン判定基準の再学習と同じ処理(方法)で行われる。
そして、ステップS305に進み、移動体のECU(図示せず)は、ステップS306でのシーン判定基準の再学習の結果に基づいて、シーン判定基準データベース10の個別のシーンを更新して処理を終了する。
[シーン判定基準の再学習]
次に、ステップS304(ステップS306)で説明した、シーン判定基準の再学習の処理を説明する。
図5は、シーン判定基準の再学習の処理のフローチャートである。
図6は、シーン判定基準の再学習の方法を説明する概念図である。
図5に示すように、ステップS401において、移動体のECU(図示せず)は、学習効率Kの著しく低いと判定された所定のシーン(過去シーン)で適用した個体特性モデルを、外部ネットワークに接続されたメモリ(図示せず)に一時的に保存する。
ステップS402において、移動体のECU(図示せず)は、学習効率Kの著しく低い所定のシーンの再分類を行う。
具体的には、図6に示すように、移動体のECUは、例えば、カーブシーンAと交差点シーンCにおいて、運転者の学習効率Kが著しく低いと判定した場合、カーブシーンAを、緩やかなカーブシーンA1と、急なカーブシーンA2とに再分類すると共に、交差点シーンCを、三差路(T字)交差点シーンC1と、五差路交差点シーンC2とに再分類する。
なお、実施の形態では、学習進捗度判定部16において、直線シーンBの学習効率Kは高いと判定したので、移動体のECUにおいて直線シーンBの再分類は実施されない。
図5に戻って、学習進捗度判定部16は、ステップS403において、ステップS401でメモリ(図示せず)に保存した個体特性モデルを読み出して、再分類後のシーンに適用する。
ステップS404において、学習進捗度判定部16は、再分類後のシーンにおいて、再分類前のシーンで適用した個体特性モデルによる学習効率Kが所定の閾値Kth以上か否かを判定し、学習効率Kが所定の閾値Kth以上であると判定した場合(K≧Kth)、ステップS405に進む(図6参照)。
ステップS405において、移動体のECU(図示せず)は、再分類後のシーンを、新たに分類されたシーンに置き換えて、シーン判定基準データベース10を更新して処理を終了する(図6参照)。
なお、ステップS404において、学習進捗度判定部16は、再分類後のシーンにおいて、再分類前のシーンで適用した個体特性モデルによる学習効率Kが所定の閾値Kth未満であると判定した場合(K<Kth)、ステップS406に進み、予め初期設定(デフォルト)された自動運転制御を行う(図6参照)。
[個体特性モデルの生成]
次に、個体特性学習部14において、運転者の個体特性を学習(個体特性モデルの生成)する処理を説明する。
図7は、個体特性学習処理のフローチャートである。
ステップS501において、個体特性学習部14は、移動体(車両)の置かれているシーンの切り換わりがあるか否かを判定し、シーンの切り換わりがあると判定した場合、ステップS502に進む。
個体特性学習部14において、シーンの切り換わりがあるか否かを判定する具体的な方法の一例として、同一種類のシーンが連続して出現しない場合(例えば、緩やかなカーブシーンの後に、交差点シーンが出現した場合)には、シーンの切り換わりがあると判定し(ステップS501:Yes)、同一種類のシーンが連続して出現した場合(例えば、直線シーンの後に、同様の直線シーンが出現した場合)には、シーンの切り換わりがないと判定する(ステップS501:No)
ステップS502において、個体特性学習部14は、過去情報データベース13から当該シーンにおいて収集された環境情報50と、運転者の手動操作情報51とを取得して、ステップS503に進む。
ステップS503において、個体特性学習部14は、個体特性の学習(個体特性モデルの生成)を実行する。これにより、個体特性学習部14により、シーンや環境情報50に対する運転者(個体)の手動操作を推測するための個体特性モデルが生成される。
なお、ステップS501において、個体特性学習部14は、シーンの切り換わりがないと判定した場合(ステップS501:No)、ステップS504に進む。
ステップS504において、個体特性学習部14は、この個体特性学習処理(ステップS501〜ステップS504)の実行時を起点として、移動体(車両)の走行距離Lが、所定の閾値Lthよりも増えているか(L≧Lth)、又は走行時間Hが、所定の閾値Hthよりも増えているか否かを判定する。
個体特性学習部14は、移動体の走行距離Lが、所定の閾値Lthよりも増えている(L≧Lth)と判定した場合、又は走行時間Hが、所定の閾値Hthよりも増えている(H≧Hth)と判定した場合、(ステップS504:Yes)、ステップS502に進み、当該シーンにおける環境情報50と、運転者の手動操作情報51とを取得し、何れも増えていないと判定した場合(ステップS504:No)、処理を終了する。
これにより、個体特性学習部14は、シーンの切り換わりがないと判定して場合でも、移動体が所定走行距離(又は所定走行時間)経っていると判断した場合には、シーンの切り換わり判断と同様に、個体特性モデルの生成を行う。
前述したように、個体特性学習部14では、運転者の個体特性の学習を、シーンの切り換わりや所定の走行距離を走った場合や所定の走行時間を走った場合など、比較的長い周期で行うことで、短い周期で無駄に個体特性モデルを生成(更新)してしまうことを防止することができる。
[個体特性学習の完了判断]
次に、学習進捗度判定部16において、個体特性の学習が完了したか否かの判断の一例を説明する。
図8は、学習進捗度判定部16における個体特性の学習完了の判断処理のフローチャートである。
ステップS601において、学習進捗度判定部16は、移動体(車両)が置かれている現在のシーンの判定を行う。この学習進捗度判定部16によるシーンの判定は、前述した図3におけるステップS201〜S205と同様の処理により行われるので、ここでの説明は省略する。
ステップS602において、学習進捗度判定部16は、過去情報データベース13から運転者(個体)の個体認証情報と現在のシーンとを取得し、現在のシーンにおける個体特性の学習結果を呼び出す。
ステップS603において、学習進捗度判定部16は、個体特性の学習結果(個体特性モデル)が存在するか否かを判定し、個体特性の学習結果が存在すると判定した場合(ステップS603:Yes)、ステップS604に進む。学習進捗度判定部16は、個体特性の学習結果が存在しないと判定した場合(ステップS603:No)、ステップS611に進み、学習進捗度を「学習未完」に設定して処理を終了する。
ステップS604において、学習進捗度判定部16は、移動体が、運転者による手動操作中であるか否かを判定し、手動操作中であると判定した場合(ステップS604:Yes)、ステップS605に進む。学習進捗度判定部16は、移動体が、運転者による手動操作中でないと判定した場合(ステップS604:No)、ステップS611に進み、学習進捗度を「学習未完」に設定して処理を終了する。
ステップS605において、学習進捗度判定部16は、予め取得している環境情報50を、個体特性学習部14で生成された個体特性モデルに当て嵌め、個体適応制御の走行シミュレーションを実施して、ステップS606に進む。
ステップS606において、学習進捗度判定部16は、ステップS605で実施した走行シミュレーション結果(推定手動操作情報)と、運転者(個体)の実際の手動操作の操作量(手動操作情報51)とを比較し、その差分Rを算出すると共に、算出した差分Rを、過去情報データベース13に記憶する。
前述した差分Rは、ステア角(舵角量)、アクセル開度、移動チアの加速度、移動体の速度、ヨーレート(ヨー角)、障害物との位置関係や相対速度などの走行シミュレーション結果と、実際の測定値との差分である。
また、過去情報データベース13への差分Rの記憶は、単に差分Rの累積を記憶してもよく、移動距離に対する比として記憶してもよい。
ステップS607において、学習進捗度判定部16は、ステップS606で算出した差分Rと、シーン(パラメータ)ごとに設定された所定の閾値Rthとを比較し、差分Rが所定の閾値Rth以下であるか否かを判定する。
ステップS607において、学習進捗度判定部16は、差分Rが閾値Rth以下であると判定した場合(ステップS607:Yes)、ステップS608に進み、差分Rが閾値Rth以下であると判定した場合(ステップS607:No)、ステップS611に進み、学習進捗度を「学習未完」に設定して処理を終了する。
なお、ステップS607において、所定の閾値Rthの設定方法の一例として、許容範囲と考えられる数値を予め算出して設定しておいてもよく、仮の数値を設定した後、個体適応制御中に個体(運転者)のオーバーライドの有無や個体の生体情報から運転者の心拍数の増加などを取得し、オーバーライドや心拍数増加の発生頻度が所定の閾値Rth以上である場合に修正するようにしてもよい。
ステップS608において、学習進捗度判定部16は、過去の学習進捗度が「学習未完」状態であったか否かを判定し、「学習未完」状態であると判定した場合(ステップS608:Yes)、ステップS609に進み、「学習未完」状態ではないと判定した場合(ステップS608:No)、ステップS610に進んで、学習進捗度を「学習完了」に設定して処理を終了する。
ステップS609において、学習進捗度判定部16は、学習完了状態への移行が許可されているか否かを判定する。学習進捗度判定部16は、学習完了状態への移行が許可されていると判定した場合(ステップS609:Yes)、ステップS610に進んで、学習進捗度を「学習完了」に設定して処理を終了する。
一方、学習進捗度判定部16は、学習完了状態への移行が許可されていない判定した場合(ステップS609:No)、ステップS611に進んで、学習進捗度を「学習未完」に設定して処理を終了する。
学習進捗度判定部16が、学習完了状態への移行が許可されていると判定する場合の一例として、シーンの切り換わり時とするほか、より望ましくは、少なくとも同一シーンにおいて、シーン的に不連続な2か所以上のデータ収集機会におけるシミュレーション結果(推定手動操作情報)と、運転者(個体)の実際の手動操作情報51との差分が所定の閾値以下となることを条件とするのがよい。
ここで、学習進捗度判定部16により判定された学習進捗度に基づいて、学習完了状態に移行する許可を判断する一例を説明する。
図9は、学習進捗度に基づいて、学習完了状態への移行許可を判断する一例を説明する図である。
図9において、上段には、シーン分類結果が示されている。このシーン分類結果は、シーン判定部11によるシーンの判断結果(分類結果)である。
実施の形態では、シーン分類結果として、カーブシーンと直線シーンの2つのシーンが分類されており、カーブシーン(曲がり道路)と直線シーン(直線道路)とが交互に出現する経路となっている。
シーン分類結果の下段には、差分Rが示されている。この差分Rは、手動操作推定部15で推定された運転者の個体特性のシミュレーション結果(推定手動操作情報)と、実際の運転者の手動操作情報51との差分Rの絶対値である。
なお、差分Rではなく、差分Rを累積した値(累積差分)、又はこの差分R又は累積差分を走行距離で割った値を用いてもよく、また、これらの平均値を用いてもよい。
実施の形態では、シミュレーション結果と実際の個体の手動操作情報51との差分Rの累積は、時刻t1〜t3では所定の閾値Rth(図中の破線)未満となっており、時刻t4の時に閾値Rth以上となる。
差分Rの下段には、シーンごと(実施の形態では、カーブシーンと直線シーン)の学習進捗度の判定結果が示されている。
実施の形態では、同じシーン(例えば、カーブシーン)が2度あり、何れのシーンでも差分Rの値が所定の閾値Rthを超えない場合、学習進捗度の判定結果を学習完了と判定するようにしている。
具体的には、カーブシーンの学習進捗度は、1度目のカーブシーンが終了する時刻t1において一段階上昇するが、学習完了移行許可の閾値(図中の破線)は超えない。そして、カーブシーンの学習進捗度は、2度目のカーブシーンが終了する時刻t3において、さらに一段階上昇し、学習完了移行許可の閾値(図中の破線)を超える。
この結果、図9の学習進捗度の下段に示すように、学習進捗度判定部16は、時刻t3で、カーブシーンでの個体特性の学習が完了したと判定し、次のカーブシーンが時刻t4以降で出現した場合、当該カーブシーンにおいて個体適応制御を実施する。
一方、直線シーンの学習進捗度は、1度目の直線シーンが終了する時刻t2において一段階上昇するが、学習完了移行許可の閾値(図中の破線)は超えない。そして、2度目の直線シーンが終了する時刻t4において、前述した差分Rが、所定の閾値Rthを超えるため、直線シーンの学習進捗度は、時刻t2以降は上昇せず、学習完了移行許可の閾値(図中の破線)は超えない。
この結果、図9の学習進捗度の下段に示すように、学習進捗度判定部16は、次の直線シーンが時刻t4以降で出現した場合でも、当該直線シーンにおいて個体適応制御を実施せず、予め初期設定されている自動運転制御を実施する。
なお、差分Rが、所定の閾値を超えた時刻t3〜t4の走行後、直線シーンの学習進捗度を据え置かず、引き下げてもよい。また、学習進捗度の判定は、必ずしも段階的(実施の形態では、2段階)である必要はなく、差分Rと所定の閾値Rthとの差の大きさによって連続的に変化するものとしてもよい。この結果、ある特定のシーン(場所)のみでしか実際の個体特性に適合しないような、いわゆる過学習などの不適切な学習状態において、個体適応制御を実施してしまうことを防ぐことができる。
[安全判定部]
なお、実施の形態では、自動制御装置1は、個体特性学習部14での学習結果(生成された個体特性モデル)に基づく個体適応制御が、移動体(車両)の自動運転において安全か否かを判定する安全判定部20を、さらに有している。
図10は、安全判定部20を説明するブロック図である。
図10に示すように、安全判定部20は、安全検証用シナリオデータベース(DB)21と、走行模擬部22と、危険事象判定部23とを有している。
安全検証用シナリオデータベース21には、様々な走行状態、走行環境について、事故に繋がる可能性のある事象、例えば、車両の挙動を不安定にさせるような事象や、他車の動作が異常なため衝突などの危険が起こる可能性がある事象など、走行中に発生する可能性のある危険事象の様々なシナリオデータが記憶されている。
前述した車両の挙動を不安定にさせるような事象は、例えば、環境情報50を取得するための各種センサの出力が不安定である場合、横風や路面の凹凸が大きくハンドルを取られやすい場合などが挙げられる。
安全検証用シナリオデータベース21に記憶されているシナリオデータは、所定の危険事象に基づいて予め作成されている。また、このシナリオデータは、他の移動体(他車両)などから収集された環境情報50に基づいて、実際に事故が発生したり、移動体(他車両)に大きな加速度が加わったり、運転者(個体)の生体情報として心拍数が急に増加した時のシーンを参照して更新される。
このように、安全検証用シナリオデータベース21では、実際に危険事象が発生した際の状況に基づいてシナリオデータが更新されることで、より多くの危険事象におけるシナリオデータが記憶され、様々な危険事象に対応できるようになっている。
走行模擬部22は、安全検証用シナリオデータベース21から、検証を行う個体特性モデル(運転者)の対象となるシーンシナリオを抽出する。そして、走行模擬部22は、個体特性学習部14で生成した運転者の個体特性モデルと、安全検証用シナリオデータベース21から抽出したシーンシナリオと、シーン判定部11で判定されたシーン(判定結果)とに基づいて、走行シミュレーション(模擬走行)を実施する。
これにより、走行模擬部22では、所定のシーンにおいて危険事象が発生した場合、当該運転者の個体特性モデルがどのような運転を行うのかという走行シミュレーションが実施される。
危険事象判定部23は、走行模擬部22から走行シミュレーションの結果を取得し、危険事象の発生の有無又は危険の程度を判定すると共に、当該判定結果を、安全度評価結果として、自動制御装置1の制御部17(図1参照)に出力する。
制御部17では、危険事象判定部23での安全度評価結果に基づいて、個体適応制御を実施するか否かの判定が行われる。このように、制御部17が、安全度評価結果に基づいて個体適応制御を行うか否かの判断を行うことで、例えば、運転者の個体特性の学習に基づいて作成された個体特性モデルが危険事象に対応できなかったり、危険な運転を行う傾向がある運転者の個体特性を学習してしまった場合でも、個体適応制御を実行しないことで、実際に危険運転を行うことを阻止することができる。
次に、危険事象判定部23による危険事象発生の判断の一例を説明する。
図11は、危険事象判定部による危険事象発生の判断の一例を説明する図であり、同図の上段は、時刻と先行車両の速度との関係を示す図であり、同図の下段は、時刻と先行車両との車間距離を示す図である。
なお、図11の下段において、危険事象を適切に回避した場合を実践で示し、危険事象を回避できない場合を破線で示す。
図11の上段に示すように、例えば、先行車両は、所定の時刻t1までは、直線道路などを一定の車速で走行しており、時刻t1を過ぎた後、急に減速を開始した場合を示している。
これは安全検証用シナリオデータベース21に記憶されているシナリオデータであり、この場合の危険事象は、自車両が先行車両に衝突する可能性がるほど接近(許容最短車間距離Lthよりも近くに接近)することである。
走行模擬部22では、個体特性学習部14で生成された個体特性モデルと、シーン判定部11で判定されたシーン(判定結果)と、安全検証用シナリオデータベース21から抽出したシナリオデータと、に基づいて走行シミュレーション(模擬走行)を行う。
その結果、図11の下段に示すように、先行車両の急減速に自車両が対応できず所定の車間距離(許容最短車間距離Lth)より近くに接近してしまう場合(図11の下段の破線)、危険事象判定部23は、危険事象が発生したと判定し、当該個体特性モデルを安全不十分のモデルと判定する。
一方、自車両の車速制御や操舵制御などで、自車両と先行車両との車間距離が、所定の許容最短車間距離Lthよりも近づかないように運転することができれば(図11の下段の実線)、危険事象判定部23は、危険事象が発生しないと判定し、当該個体特性モデルを安全なモデルと判定する。
安全判定部20は、前述した安全検証を、安全検証用シナリオデータベース21に記憶されている全てのシナリオデータ(危険事象)に対して行い、各々のシーンでの個体特性モデルの安全性の検証を行う。
なお、前述した実施の形態では、自動制御装置1を、車両の個体適応制御に適用した場合を例示して説明したが、車両の個体適応制御に限定されるものではなく、その他の機器の個体適応制御にも適用することができる。
例えば、ドローンの飛行を地形や気象条件、飛行目的といったシーンに合わせて効率的に自動運転させるために、操作者の手動操作を学習する個体適応制御にも適用できる。
また、工場などの製造現場や建設現場、採掘現場などで使用される機器を自動化するにあたって、熟練者の手動操作を学習する個体適応制御にも活用できる。
以上の通り、実施の形態では、
(1)車両などの移動体(機器)の操作を行う運転者(個体)を認証する個体認証部12と、移動体が置かれているシーンを判定するシーン判定部11と、運転者の個体特性を学習する個体特性学習部14と、運転者の個体特性に基づいて、運転者による移動体の手動操作を推定する手動操作推定部15と、シーン判定部11で判定された所定のシーンにおいて、運転者の個体特性に基づいて手動操作推定部15で推定した推定手動操作情報(推定手動操作)と、当該運転者による移動体の実際の手動操作情報51(手動操作)とを比較して、所定のシーンにおける学習進捗度を判定する学習進捗度判定部16と、シーン判定部11で判定された所定のシーンごとの学習進捗度の判定結果に基づいて、運転者の個体特性に適応した自動制御の実施または不実施を、シーンごとに決定する制御部17と、を有する構成とした。
このように構成すると、自動制御装置1では、シーン判定部11で判定されたシーンごとに運転者の個体特性の学習進捗度を判定する学習進捗度判定部16を有しているので、制御部17では、このシーンごとに判定した学習進捗度に基づいて、個体適応制御の実施/または不実施を決定することができる。
また、学習進捗度判定部16は、シーン判定部11で判定されたシーンごとに学習進捗度を判定するようにしたので、制御部17は、シーンごとに個体適応制御を行うか否かの判定を行うことができ、学習進捗度の高いシーンから迅速に個体適応制御の実施を行うことができる。よって、運転者に違和感を与えることを防止することができる。
(2)運転者の個体特性に適応した自動制御により移動体を操作した場合に、移動体が安全な状態を保てるか否かを判定する安全判定部20を、さらに有し、制御部17は、安全判定部20により、移動体が安全な状態を保てると判定された場合にのみ、運転者の個体特性に適応した自動制御を実施する構成とした。
このように構成すると、制御部17は、安全判定部20により、個体適応制御を行った結果、移動体が安全な状態を保てると判定された場合のみ個体適応制御を行うようにしたので、安全判定部20により、学習進捗度が高い場合であっても、移動体の安全が保てないと判定された場合には個体適応制御を行わない。
よって日常的に危険操作を行うような運転者の個体特性を学習してしまった場合でも、個体適応制御を実施しないことにより、移動体が危険な状態になることを防止できる。
(3)シーン判定部11は、所定のシーンに含まれる少なくとも2以上の不連続な第1シーン(例えば、緩やかなカーブシーン)と、第2シーン(例えば、交差点シーン)とを判定し、制御部17は、学習進捗度判定部16により、少なくとも2以上の不連続な第1シーンと、第2シーンにおける学習進捗度の判定結果が何れも学習完了状態であると判定された場合に、運転者の個体特性に適応した自動制御を実施する構成とした。
このように構成すると、学習進捗度判定部16は、所定の同一シーンに含まれる異なる2か所以上のシーンで学習進捗度を判定するので、所定の同一シーンのほとんど変わらない複数のシーンで学習進捗度を無駄に判定してしまうことを防ぐことができ、より確実に当該所定のシーンの学習進捗度を判定することができる。
(4)シーン判定部11は、所定のシーンに含まれる互いに所定距離離れた第3シーン(例えば、第1の直線シーン)と、第4シーン(例えば、第2の直線シーン)とを判定し、制御部17は、学習進捗度判定部16により、所定のシーンにおいて、互いに所定距離離れた第3シーンと、第4シーンにおける学習進捗度の判定結果がいずれも学習完了状態であると判定された場合に、運転者の個体特性に適応した自動制御を実施する構成とした。
このように構成すると、学習進捗度判定部16は、所定の同一シーンに含まれる互いに所定距離離れた2か所以上のシーンで学習進捗度を判定するので、所定の同一シーンのほとんど変わらない位置の複数のシーンで学習進捗度を無駄に判定してしまうことを防ぐことができ、より確実に当該所定のシーンの学習進捗度を判定することができる。
(5)移動体が置かれているシーンを複数記憶するシーン判定基準データベース10を、さらに有し、シーン判定基準データベース10は、学習進捗度判定部16で判定された所定のシーンの学習進捗度の判定結果(差分R)が、所定の閾値Rthよりも低い場合、または学習進捗度判定部16で算出された所定のシーンの学習効率Kが、所定の閾値Kthよりも低い場合に、所定のシーン(例えば、カーブシーン)を、当該所定のシーン(カーブシーン)とは異なる他のシーン(例えば、緩やかなカーブシーンと急なカーブシーン)に変更する構成とした。
どの運転者にとっても学習進捗度の著しく低いシーンは、シーンの分類に問題がある可能性が高く、このような学習進捗度の著しく低いシーンをいつまでも記憶していても、当該シーンにおいて適切な学習を行うことができない。また、このようなシーンの記憶を継続することは、データベースのメモリ容量を無駄に使うことになり、維持・管理コストも増加してしまう。
このように構成すると、学習進捗度の低いシーンを見直して、新たなシーンに再分類することで、再分類した新たなシーンでの学習を効率的に行うことができる。また、学習進捗度の著しく低いシーンを再分類して更新することで、データベースのメモリ容量の無駄をなくし、維持・管理コストの最適化を行うことができる。
(6)学習進捗度判定部16は、変更された後の他のシーン(例えば、緩やかなカーブシーンと急なカーブシーン)の学習進捗度の判定を、変更される前の所定のシーン(例えば、カーブシーン)の学習進捗度の判定に用いた推定手動操作情報(個体特性モデル)と、移動体の実際の手動操作情報51とを比較することで行い、
シーン判定基準データベース10は、他のシーン(例えば、緩やかなカーブシーンと急なカーブシーン)における、学習進捗度の判定結果が所定の閾値以上である場合、他のシーン(例えば、緩やかなカーブシーンと急なカーブシーン)を所定のシーン(例えば、カーブシーン)に置き換えて記憶する構成とした。
このように構成すると、変更される前のシーンの推定手動操作情報(個体特性モデル)を有効に活用することがき、シーン判定基準データベース10の更新処理を迅速に行うことができる。
[シーン一致度検証部]
なお、前述した実施の形態では、学習効率Kの著しく低い所定のシーンを細分化して、新たなシーンに再分類する場合を例示して説明したが、これに限定されるものではない。例えば、細分化された2以上のシーンを纏めて大分類のシーンに再分類してもよい。
また、シーンの学習効率Kに関わらず、一のシーンと他のシーンが一致すると判定された場合には、一つのシーンに再分類しても良い。
次に、他の実施の形態にかかる自動制御装置1のシーン一致度検証部30を説明する。
図12は、シーン一致度検証部30を説明するブロック図である。
図12に示すように、シーン一致度検証部30は、走行シーンシナリオデータベース31と、再分類判定部32とを有している。
走行シーンシナリオデータベース31は、シーン判定基準データベース10に記憶されている各々のシーンを含む走行シーンシナリオが複数保存されている。
ここで、走行シーンシナリオは、車両などの移動体が走行する道路の所定のシーンと、移動体が当該所定のシーンを走行する際の環境情報を含んだ情報(シナリオ)である。
走行模擬部22は、走行シーンシナリオデータベース31から、全ての走行シーンシナリオを読み出すと共に、個体特性学習部14で生成された、走行シーンシナリオに含まれる各シーンに対応する個体特性モデルを読み出す。
走行模擬部22では、例えば、読み出した全ての走行シーンシナリオの内の一つに対して、読み出した全ての個体特性モデルを一つ一つ当て嵌めて走行シミュレーション(模擬走行)を実行する。そして、走行模擬部22では、読み出した全ての走行シーンシナリオについて、同じ処理を実行する。
再分類判定部32では、走行模擬部22での走行シミュレーション(模擬走行)の結果、走行シミュレーションが一致(または類似)する複数の走行シーンシナリオ(例えば、勾配の緩やかな直線シーンシナリオと勾配の急な直線シーンシナリオ)を、一つに纏めて新たな走行シーンシナリオ(例えば、直線シーンシナリオ)を作成する。
これにより、走行シーンシナリオデータベース31に記憶される走行シーンシナリオ(シーン判定基準データベース10に記憶されるシーン)の数を減らすことができる。よって、シーンを記憶するシーン判定基準データベース10のメモリ領域を少なくすることができ、メモリ領域が膨大になることによる自動制御装置1の製造、管理コストの増加を防止することができる。
<第2の実施の形態>
次に、第2の実施の形態にかかる自動制御装置1Aを説明する。
第2の実施の形態にかかる自動制御装置1Aを、介護を必要としている者(以下、要介護者又は見守り対象者という)の見守り介護システムにおいて、当該介護システムの個体特性の学習に適用した場合を例示して説明する。
図13は、第2の実施の形態にかかる自動制御装置1Aを説明するブロック図である。なお、前述した実施の形態と同様の構成については、同一の番号を付し、必要に応じて説明する。
[自動制御装置]
図13に示すように、自動制御装置1Aでは、要介護者環境情報53が、シーン判定部11に入力されるようになっている。
要介護者環境情報53は、要介護者(見守り対象者)の周囲の情報(気象、位置、要介護者が興味を示している物体情報など)の外部環境情報と、要介護者の生体情報や移動速度などの内部環境情報が含まれる。
要介護者環境情報53は、要介護者が入所する施設内やインフラ側に取り付けられたカメラなどで収集してもよく、要介護者が身につけるウェアラブル端末で収集してもよい。
過去情報データベース13には、介護者判断情報54が入力されるようになっている。介護者判断情報54は、介護者(要介護者を介護する者)が周囲の状況を確認し、判断した危険度の情報であり、過去情報データベース13の所定のメモリアドレスに記憶されている。介護者判断情報54は、介護者による入力(危険度の判断結果)がない場合、危険度が0(ゼロ)の判断が行われたとする。
また、自動制御装置1Aでは、危険事象判定部18を有している。
危険事象判定部18は、現在の要介護者環境情報53と、個体特性学習部14で生成された個体特性モデルと、が入力されている。危険事象判定部18は、これらの入力された要介護者環境情報53と、個体特性モデルとから危険事象の有無の判断や、危険事象の発生確率の推定を行う。
ここで、危険事象とは、一例として、要介護者が交通量の多い道に近づいたり、怪我や落下の危険性のある対象物に興味を持っている状況を意味する。
学習進捗度判定部16は、危険事象判定部18での危険事象の判定結果と、介護者判断情報54(介護者の危険度の判断結果)とを比較し、この差分Rが小さいほど、当該シーンにおける個体特性の学習進捗度が高いと判定する。
そして、制御部17では、学習進捗度が高いと判定されたシーンから、個体適応学制御を実施し、学習進捗度が低いと判定されたシーンについては、学習進捗度が高いと判定されるまで個体適応制御を実施しない。
[個体適応制御]
次に、第2の実施の形態にかかる自動制御装置1Aにおける個体適応制御の流れを説明する。
図14は、個体適応制御の流れを説明するフローチャートである。
ステップS701において、見守り介護システムの全体制御部(図示せず)では、各データ収集及び個体特性の学習のトリガとして、見守り介護システムの制御が許可されているか否かを判定する。
全体制御部(図示せず)は、制御が許可されていると判定した場合(ステップS701:Yes)、ステップS702に進み、制御が許可されていないと判定した場合(ステップS701:No)、本処理を終了する。
制御許可の判定は、介護者の見守り介護システムの起動スイッチのON/OFFを基準に行ってもよく、見守り介護システムの電源のON/OFFを基準に行ってもよい。
ステップS702において、見守り介護システムの全体制御部(図示せず)は、要介護者の周囲の環境情報(要介護者環境情報53)を取得し、過去情報データベース13に送信する。
ステップS703において、制御部17は、個体適応判断が許可されているか否かを判定する。制御部17は、個体適応判断が許可されていると判定した場合(ステップS703:Yes)、ステップS704に進み、個体適応判断が許可されていないと判定された場合(ステップS703:No)、ステップS706に進み、予め初期設定(デフォルト)された制御を実施する。
ステップS704において、学習進捗度判定部16は、現在のシーンにおいて、個体特性の学習が完了しているか否かを判定する。学習進捗度判定部16は、現在のシーンにおいて、学習進捗度が所定の閾値よりも高いと判定した場合(ステップS704:Yes)、ステップS705に進み、学習進捗度が所定の閾値よりも低いと判定した場合(ステップS704:No)、ステップS706に進み、予め初期設定(デフォルト)された制御を実施する。
そして、ステップS705において、制御部17は、個体適応制御を実施して処理を終了する。
[過去情報データベースの更新処理]
次に、過去情報データベース13の更新処理を説明する。
図15は、過去情報データベース13の更新処理のフローチャートである。
ステップS801において、個体認証部12は、現在の要介護者の個体認証情報52を取得する。
ステップS802において、個体認証部12は、ステップS801で取得した現在の要介護者の個体認証情報52が、過去情報データベース13にすでに記憶されているか否かを判定する。個体認証部12は、個体認証情報52が、過去情報データベース13にすでに記憶されていると判定した場合(ステップS802:Yes)、ステップS803に進む。
ステップS803において、個体認証部12は、当該要介護者の個体認証情報52が記憶されている過去情報データベース13上のメモリアドレスを取得し、ステップS804に進む。
一方、個体認証部12は、当該要介護者の個体認証情報52が、過去情報データベース13に記憶されていないと判定した場合(ステップS802:No)、ステップS808に進む。
ステップS808において、個体認証部12は、過去情報データベース13上に、現在の要介護者の個体認証情報52を記憶する新たなメモリアドレスを設定し、ステップS804に進む。
ステップS804において、シーン判定部11は、要介護者環境情報53を取得して、ステップS805に進む。
ステップS805において、シーン判定部11は、シーン判定基準データベース10から取得したシーンの判定に必要なパラメータと、ステップS804で取得した要介護者環境情報53とに基づいて、当該シーンを判定する。
ステップS806において、自動制御装置1Aの全体制御部(図示せず)は、介護者の危険度判断情報(介護者判断情報54)を取得する。
ステップS807において、自動制御装置1Aの全体制御部(図示せず)は、取得した要介護者環境情報53と介護者判断情報54とを、過去情報データベース13と危険事象判定部18とにそれぞれ送信して処理を終了する。
[重み付け処理]
なお、前述した要介護者の危険事象の学習において、学習進捗度判定部16で危険事象を判断した結果の差分の算出にあたり、介護者が近くにいるか、見守り介護システムにより介護者にアラートを出したときの介護者の判断との差分に基づいて重みを付けるようにしてもよい。
これにより、介護者が危険事象を認知できなかった際に、見守り介護システムが、危険ではなかったと誤って学習してしまうことを防ぐことができる。
次に、介護者の危険度判断と、見守り介護システムによる危険度判断との差分に重みをつける処理を説明する。
図16は、重み決定処理のフローチャートである。
初めに、ステップS901において、見守り介護システムの全体制御部(図示せず)は、介護者による危険事象の判断の入力があったか否かを判定する。危険事象の入力があったと判定した場合(ステップS901:Yes)、ステップS902に進み重みW1が選択される。
このステップS901で選択された重みW1は、0〜1の範囲で設定され、例えば、介護者が指定した危険事象の発生から危険事象の判断の入力までの経過時間に応じて小さくするようにしてもよい。また、危険度判定を行う介護者ごとに個別に設定してもよい。
ステップS901において、見守り介護システムの全体制御部(図示せず)は、危険事象の入力がないと判定した場合(ステップS901:No)、ステップS904に進んで、介護者が要介護者(見守り対象者)に意識を向けているか否かを判定する。
ステップS904において、見守り介護システムの全体制御部(図示せず)は、介護者が要介護者(見守り対象者)に意識を向けていると判定した場合(ステップS904:Yes)、ステップS905に進み重みW2が選択される。
ここで、ステップS905で選択された重みW2は、ステップS902で選択された重みW1よりも小さい値に設定されている。この重みW2は、例えば、重みW1に0〜1の範囲の係数を掛けることで算出できる。
また、ステップS904において、介護者が意識を向けているか否かの判断は、要介護者環境情報53を取得するための各種センサを用い、例えば、介護者の目線や顔、体が要介護者(見守り対象者)の方向に向けられていれば、意識が向けられていると判定することができる。
ステップS904において、見守り介護システムの全体制御部(図示せず)は、介護者が要介護者(見守り対象者)に意識を向けていないと判定した場合(ステップS904:No)、ステップS906に進んで、介護者が要介護者(見守り対象者)を見通せる場所にいるか否かを判定する。
ステップS906において、見守り介護システムの全体制御部(図示せず)は、介護者が要介護者(見守り対象者)を視認可能であると判定した場合(ステップS906:Yes)、ステップS907に進み重みW3が選択される。
ここで、ステップS907で選択された重みW3は、ステップS905で選択した重みW2よりも小さい値に設定されている。例えば、重みW3は、介護者と要介護者(見守り対象者)との距離に応じて小さくなる、0〜1の範囲の係数を重みW2にかけることで算出できる。
ステップS906において、見守り介護システムの全体制御部(図示せず)は、介護者が要介護者(見守り対象者)を見通せない位置にいると判定した場合(ステップS906:No)、ステップS908に進み重みW4が選択される。
ここで、ステップS908で選択された重みW4は、ステップS902で選択された重みW1よりも小さい値に設定されている。この重みW4は、重みW1に0〜1の範囲の係数を掛けることで算出できる。
重みW1〜W4が設定された後、ステップS903において、介護者による危険度の判断結果と、見守り介護システムによる危険度の判断結果との差分に、ステップS902、ステップS905、ステップS907、ステップS908で選択した重みW1、W2、W3、W4を掛け合わせる。
ステップS909において、重み付け後の差分の累積値(例えば、各シーンの平均値)を算出して処理を終了する。
前述した見守り介護システムにおける危険事象の判断結果は、人間が参照して適宜、要介護者(見守り対象者)の様子を確認するのに用いるだけでなく、要介護者に付き添い、危険事象が発生すると予測される場合にそれを回避するように働くロボットに対して、本危険事象の推定結果を出力するようにしてもよい。
以上説明した通り、実施の形態では、
要介護者(見守り対象者)に対して、これまで介護者が付き添えない場合には、危険事象の発生を防止するために要介護者の行動を制限する必要があった。しかし、前述した見守り介護システムは、介護者の代わりに要介護者の個々の能力に合った安全な範囲での行動か否かを判定することができる。
この結果、介護者の負担を軽減しつつ、要介護者の行動範囲、可能性を増加させて、要介護者の生活の質向上を図ることができる。
なお、前述した第1の実施の形態にかかる自動制御装置1と、第2の実施の形態にかかる自動制御装置1Aとを組み合わせてもよく、他の実施の形態と組み合わせてもよい。
1、1A:自動制御装置、10:シーン判定基準データベース、11:シーン判定部、12:個体認証部、13:過去情報データベース、14:個体特性学習部、15:手動操作推定部、16:学習進捗度判定部、17:制御部、20:安全判定部、21:安全検証用シナリオデータベース、22:走行模擬部、23:危険事象判定部、30:シーン一致度検証部、31:走行シーンシナリオデータベース、32:再分類判定部、50:環境情報、51:手動操作情報、52:個体認証情報

Claims (11)

  1. 機器の操作を行う個体を認証する個体認証部と、
    前記機器が置かれているシーンを判定するシーン判定部と、
    前記個体の個体特性を学習する個体特性学習部と、
    前記個体の個体特性に基づいて、前記個体による前記機器の手動操作を推定する手動操作推定部と、
    前記シーン判定部で判定された所定のシーンにおいて、前記個体の個体特性に基づいて前記手動操作推定部で推定した推定手動操作と、当該個体による前記機器の実際の手動操作とを比較して、前記所定のシーンにおける学習進捗度を判定する学習進捗度判定部と、
    前記シーン判定部で判定された前記所定のシーンごとの前記学習進捗度の判定結果に基づいて、前記個体の個体特性に適応した自動制御の実施または不実施を、前記シーンごとに決定する制御部と、を有する自動制御装置。
  2. 前記個体の個体特性に適応した自動制御により前記機器を操作した場合に、前記機器が安全な状態を保てるか否かを判定する安全判定部を、さらに有し、
    前記制御部は、
    前記安全判定部により、前記機器が安全な状態を保てると判定された場合にのみ、前記個体の個体特性に適応した自動制御を実施する請求項1に記載の自動制御装置。
  3. 前記シーン判定部は、前記所定のシーンに含まれる少なくとも2以上の不連続な第1シーンと、第2シーンとを判定し、
    前記制御部は、
    前記学習進捗度判定部により、前記少なくとも2以上の不連続な前記第1シーンと、前記第2シーンにおける学習進捗度の判定結果が何れも学習完了状態であると判定された場合に、前記個体の個体特性に適応した自動制御を実施する請求項2に記載の自動制御装置。
  4. 前記シーン判定部は、前記所定のシーンに含まれる互いに所定距離離れた第3シーンと、第4シーンとを判定し、
    前記制御部は、
    前記学習進捗度判定部により、前記所定のシーンにおいて、互いに所定距離離れた前記第3シーンと、前記第4シーンにおける学習進捗度の判定結果がいずれも学習完了状態であると判定された場合に、前記個体の個体特性に適応した自動制御を実施する請求項2に記載の自動制御装置。
  5. 前記機器が置かれているシーンを複数記憶するシーン判定基準データベースを、さらに有し、
    前記シーン判定基準データベースは、
    前記学習進捗度判定部で判定された前記所定のシーンの学習進捗度の判定結果が、所定の閾値よりも低い場合、または前記学習進捗度判定部で算出された前記所定のシーンの学習効率が、所定の閾値よりも低い場合に、前記所定のシーンを、当該所定のシーンとは異なる他のシーンに変更する請求項2に記載の自動制御装置。
  6. 前記学習進捗度判定部は、前記変更された後の他のシーンの学習進捗度の判定を、前記変更される前の所定のシーンの学習進捗度の判定に用いた推定手動操作と、前記機器の実際の手動操作とを比較することで行い、
    前記シーン判定基準データベースは、前記他のシーンにおける、前記学習進捗度の判定結果が所定の閾値以上である場合、当該他のシーンを前記一のシーンに置き換えて記憶する請求項5に記載の自動制御装置。
  7. 前記シーン判定基準データベースに含まれる複数のシーンのうち、一のシーンと他のシーンの一致度を検証するシーン一致度検証部を、さらに有し、
    前記シーン一致度検証部は、
    前記一のシーンにおける前記個体の個体特性から記手動特性推定部により推定された一の推定手動操作を前記他のシーンに適用して、前記学習進捗度判定部により判定された学習進捗度の判定結果と、
    前記他のシーンにおける個体の個体特性から前記手動操作推定部により推定された他の推定手動操作を前記一のシーンに適用して、前記学習進捗度により判定された学習進捗度の判定結果と、を比較して、
    前記比較結果が、所定の閾値よりも小さい場合、前記一のシーンと前記他のシーンとを共通のシーンに纏めて前記シーン判定基準データベースを更新する請求項6に記載の自動制御装置。
  8. 機器の操作を行う個体を認証する個体認証工程と、
    前記機器が置かれているシーンを判定するシーン判定工程と、
    前記個体の個体特性を学習する個体特性学習工程と、
    前記個体の個体特性に基づいて、前記個体による前記機器の手動操作を推定する手動操作推定工程と、
    前記シーン判定工程で判定された所定のシーンにおいて、前記個体の個体特性に基づいて前記手動操作推定工程で推定した推定手動操作と、当該個体による前記機器の実際の手動操作とを比較して、前記所定のシーンにおける学習進捗度を判定する学習進捗度判定工程と、
    前記シーン判定工程で判定された前記所定のシーンごとの前記学習進捗度の判定結果に基づいて、前記個体の個体特性に適応した自動制御の実施または不実施を、前記シーンごとに決定する制御工程と、を有する自動制御装置の制御方法。
  9. 前記シーン判定工程は、前記所定のシーンに含まれる少なくとも2以上の不連続な第1シーンと、第2シーンとを判定し、
    前記制御工程は、
    前記学習進捗度判定工程により、前記少なくとも2以上の不連続な前記第1シーンと、前記第2シーンにおける学習進捗度の判定結果が何れも学習完了状態であると判定された場合に、前記個体の個体特性に適応した自動制御を実施する請求項8に記載の自動制御装置の制御方法。
  10. 前記シーン判定工程は、前記所定のシーンに含まれる互いに所定距離離れた第3シーンと、第4シーンとを判定し、
    前記制御工程は、
    前記学習進捗度判定工程により、前記所定のシーンにおいて、互いに所定距離離れた前記第3シーンと、前記第4シーンにおける学習進捗度の判定結果がいずれも学習完了状態であると判定された場合に、前記個体の個体特性に適応した自動制御を実施する請求項8に記載の自動制御装置の制御方法。
  11. 前記機器が置かれているシーンを複数記憶するシーン判定基準データベースを、さらに有し、
    前記シーン判定基準データベースに含まれる複数のシーンのうち、一のシーンと他のシーンの一致度を検証するシーン一致度検証工程を、さらに有し、
    前記シーン一致度検証工程は、
    前記一のシーンにおける前記個体の個体特性から記手動特性推定工程により推定された一の推定手動操作を前記他のシーンに適用して、前記学習進捗度判定工程により判定された学習進捗度の判定結果と、
    前記他のシーンにおける個体の個体特性から前記手動操作推定工程により推定された他の推定手動操作を前記一のシーンに適用して、前記学習進捗度により判定された学習進捗度の判定結果と、を比較する比較工程と、
    前記比較結果が、所定の閾値よりも小さい場合、前記一のシーンと前記他のシーンとを共通のシーンに纏めて前記シーン判定基準データベースを更新する更新工程と、を有する請求項8に記載の自動制御装置の制御方法。
JP2017128910A 2017-06-30 2017-06-30 自動制御装置およびその制御方法 Active JP6924629B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017128910A JP6924629B2 (ja) 2017-06-30 2017-06-30 自動制御装置およびその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017128910A JP6924629B2 (ja) 2017-06-30 2017-06-30 自動制御装置およびその制御方法

Publications (2)

Publication Number Publication Date
JP2019010967A true JP2019010967A (ja) 2019-01-24
JP6924629B2 JP6924629B2 (ja) 2021-08-25

Family

ID=65226268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017128910A Active JP6924629B2 (ja) 2017-06-30 2017-06-30 自動制御装置およびその制御方法

Country Status (1)

Country Link
JP (1) JP6924629B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020246075A1 (ja) * 2019-06-04 2020-12-10 ソニー株式会社 行動制御装置と行動制御方法およびプログラム
JP2021052726A (ja) * 2019-10-02 2021-04-08 株式会社クボタ 作業車両及び作業管理システム
CN113859246A (zh) * 2020-06-30 2021-12-31 广州汽车集团股份有限公司 一种车辆控制方法和装置
JP2022058566A (ja) * 2021-01-19 2022-04-12 バイドゥ ユーエスエイ エルエルシー 自律走行車両用動的モデル評価パッケージ
DE112020007044T5 (de) 2020-04-09 2023-08-17 Mitsubishi Electric Corporation Lehrdaten-Erzeugungsvorrichtung und Lehrdaten-Erzeugungsverfahren

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04216107A (ja) * 1990-12-17 1992-08-06 Nippon Telegr & Teleph Corp <Ntt> 半自律行動ロボット遠隔操縦方法
WO2013018220A1 (ja) * 2011-08-04 2013-02-07 トヨタ自動車 株式会社 車両用情報処理装置及び車両用情報処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04216107A (ja) * 1990-12-17 1992-08-06 Nippon Telegr & Teleph Corp <Ntt> 半自律行動ロボット遠隔操縦方法
WO2013018220A1 (ja) * 2011-08-04 2013-02-07 トヨタ自動車 株式会社 車両用情報処理装置及び車両用情報処理方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020246075A1 (ja) * 2019-06-04 2020-12-10 ソニー株式会社 行動制御装置と行動制御方法およびプログラム
JP2021052726A (ja) * 2019-10-02 2021-04-08 株式会社クボタ 作業車両及び作業管理システム
JP7260450B2 (ja) 2019-10-02 2023-04-18 株式会社クボタ 作業車両及び作業管理システム
DE112020007044T5 (de) 2020-04-09 2023-08-17 Mitsubishi Electric Corporation Lehrdaten-Erzeugungsvorrichtung und Lehrdaten-Erzeugungsverfahren
CN113859246A (zh) * 2020-06-30 2021-12-31 广州汽车集团股份有限公司 一种车辆控制方法和装置
CN113859246B (zh) * 2020-06-30 2023-09-08 广州汽车集团股份有限公司 一种车辆控制方法和装置
JP2022058566A (ja) * 2021-01-19 2022-04-12 バイドゥ ユーエスエイ エルエルシー 自律走行車両用動的モデル評価パッケージ
JP7345577B2 (ja) 2021-01-19 2023-09-15 バイドゥ ユーエスエイ エルエルシー 自律走行車両用動的モデル評価パッケージ

Also Published As

Publication number Publication date
JP6924629B2 (ja) 2021-08-25

Similar Documents

Publication Publication Date Title
JP6924629B2 (ja) 自動制御装置およびその制御方法
CN110834644B (zh) 一种车辆控制方法、装置、待控制车辆及存储介质
Noh et al. Decision-making framework for automated driving in highway environments
CN112805198B (zh) 用于自主驾驶的个人驾驶风格学习
EP3727978B1 (en) Method and system for ensemble vehicle control prediction in autonomous driving vehicles
US12024197B2 (en) Method and system for dynamically curating autonomous vehicle policies
KR102461831B1 (ko) 자율주행 차량 군집 운행을 위한 비신호 교차로에서의 강화학습기반 통행 개선을 위한 장치 및 방법
CN113811473A (zh) 自主交通工具***
CN112840350A (zh) 自动驾驶车辆规划和预测
Butakov et al. Driving autopilot with personalization feature for improved safety and comfort
CN111833597B (zh) 具有规划控制的交通情形中的自主决策
CN111507372A (zh) 方法和装置
CN113799797A (zh) 轨迹规划方法、装置、存储介质及电子设备
CN113370996B (zh) 自动驾驶换道跟驰决策方法及***、自动驾驶车辆
WO2021129156A1 (zh) 智能汽车的控制方法、装置和控制***
CN113085873B (zh) 驾驶策略的获取方法、装置、计算机设备和存储介质
CN115179959A (zh) 基于行驶道路自适应更新阈值的智能驾驶车辆行为预测方法
CN112829769A (zh) 自动驾驶车辆的混合规划***
Škugor et al. Analysis of a game theory-based model of vehicle-pedestrian interaction at uncontrolled crosswalks
US12024195B2 (en) Method and system for predicting behavior of actors in an environment of an autonomous vehicle
CN111433566B (zh) 用于自动驾驶车辆中的似人驾驶车道规划的方法和***
WO2022044210A1 (ja) 運転支援装置、学習装置、運転支援方法、運転支援プログラム、学習済モデルの生成方法、学習済モデル生成プログラム
Lidstrom et al. Model-based estimation of driver intentions using particle filtering
CN112068542A (zh) 一种基于模糊控制的自动驾驶行为规划方法
CN115092181A (zh) 车辆的控制方法、装置、存储介质和处理器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210802

R150 Certificate of patent or registration of utility model

Ref document number: 6924629

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150