JP2019010967A - Automatic controller, and method for controlling the same - Google Patents
Automatic controller, and method for controlling the same Download PDFInfo
- Publication number
- JP2019010967A JP2019010967A JP2017128910A JP2017128910A JP2019010967A JP 2019010967 A JP2019010967 A JP 2019010967A JP 2017128910 A JP2017128910 A JP 2017128910A JP 2017128910 A JP2017128910 A JP 2017128910A JP 2019010967 A JP2019010967 A JP 2019010967A
- Authority
- JP
- Japan
- Prior art keywords
- scene
- individual
- learning
- determination
- learning progress
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、自動制御装置およびその制御方法に関する。 The present invention relates to an automatic control device and a control method thereof.
近年、運転者(個体)の手動操作によらず、車両などの移動体のECU(Electronic Control Unit)が、自車両が置かれたシーンや環境条件などを自動で判断して自律的に運転する自動運転技術の開発が進められている。
この種の自動運転技術では、移動体のECUが、様々なシーンにおける運転者の個体特性を学習し、運転者の個体特性に近い自動運転を行うことで、運転者に違和感を与えないようにしている。
In recent years, regardless of the manual operation of the driver (individual), an ECU (Electronic Control Unit) of a moving body such as a vehicle autonomously drives by automatically determining the scene and environmental conditions where the host vehicle is placed. Development of automated driving technology is underway.
In this type of automatic driving technology, the mobile ECU learns the individual characteristics of the driver in various scenes and performs automatic driving close to the individual characteristics of the driver so that the driver does not feel uncomfortable. ing.
特許文献1には、移動体の自動制御装置が開示されている。 Patent Document 1 discloses an automatic control device for a moving body.
特許文献1に開示されている移動体の自動制御装置では、様々なシーンにおける運転者の個体特性(操作特性)を学習することで、運転者の個体特性に適応したモデルを構築している。これにより、この自動制御装置では、運転者の個体特性を自動運転に反映させることで、運転者の違和感を減らすことができる。 In the automatic control device for a moving body disclosed in Patent Document 1, a model adapted to the individual characteristics of the driver is constructed by learning the individual characteristics (operation characteristics) of the driver in various scenes. Thereby, in this automatic control apparatus, a driver | operator's uncomfortable feeling can be reduced by reflecting a driver | operator's individual characteristic in automatic driving | operation.
しかしながら、特許文献1の移動体の自動制御装置では、運転者の個体特性の学習が完了したか否かの判断基準がない。
よって、この自動制御装置では、運転者の個体特性の学習完了の判断が遅れる結果、個体特性の自動運転への反映が遅れてしまう。また、この自動制御装置では、運転者の個体特性の学習が不十分な状態で、当該個体特性を自動運転に反映させてしまう恐れがあり、この場合、運転者に違和感を与えてしまうという問題がある。
However, the moving body automatic control device of Patent Document 1 does not have a criterion for determining whether or not learning of the individual characteristics of the driver is completed.
Therefore, in this automatic control device, the determination of the completion of learning of the individual characteristics of the driver is delayed, and as a result, the reflection of the individual characteristics on the automatic driving is delayed. Further, in this automatic control device, there is a possibility that the individual characteristics of the driver may be reflected in the automatic driving in a state where the individual characteristics of the driver are insufficient, and in this case, the driver feels uncomfortable. There is.
したがって本発明は、上記課題に鑑みてなされたもので、自動制御装置において、シーンごとに運転者の個体特性の学習完了の判断を適切に行うことで、個体特性の自動運転への反映を迅速に行うことを目的とする。また、運転者の個体特性の学習が完了したと判断されたシーンごとに自動運転を行うことで、運転者に与える違和感を少なくすることを目的とする。 Accordingly, the present invention has been made in view of the above problems, and in an automatic control device, by appropriately determining the completion of learning of the individual characteristics of the driver for each scene, it is possible to quickly reflect the individual characteristics to the automatic driving. The purpose is to do. It is another object of the present invention to reduce the uncomfortable feeling given to the driver by performing automatic driving for each scene where it is determined that learning of the individual characteristics of the driver is completed.
上記課題を解決するため、機器の操作を行う個体を認証する個体認証部と、機器が置かれているシーンを判定するシーン判定部と、個体の個体特性を学習する個体特性学習部と、個体の個体特性に基づいて、個体による機器の手動操作を推定する手動操作推定部と、シーン判定部で判定された所定のシーンにおいて、個体の個体特性に基づいて手動操作推定部で推定した推定手動操作と、当該個体による機器の実際の手動操作とを比較して、所定のシーンにおける学習進捗度を判定する学習進捗度判定部と、シーン判定部で判定された所定のシーンごとの学習進捗度の判定結果に基づいて、個体の個体特性に適応した自動制御の実施または不実施を、シーンごとに決定する制御部と、を有する自動制御装置とした。 In order to solve the above problems, an individual authentication unit that authenticates an individual who operates the device, a scene determination unit that determines a scene in which the device is placed, an individual characteristic learning unit that learns an individual characteristic of the individual, and an individual Manual operation estimation unit for estimating manual operation of the device by the individual based on the individual characteristics of the manual, and estimation manual estimated by the manual operation estimation unit based on the individual characteristics of the individual in the predetermined scene determined by the scene determination unit A learning progress determination unit that compares the operation with an actual manual operation of the device by the individual to determine the learning progress in a predetermined scene, and the learning progress for each predetermined scene determined by the scene determination unit Based on the determination result, an automatic control device having a control unit that determines whether or not automatic control adapted to individual characteristics of an individual is performed for each scene is provided.
本発明によれば、自動制御装置において、シーンごとに運転者の個体特性の学習完了の判断を適切に行うことで、個体特性の自動運転への反映を迅速に行うことができる。また、運転者の個体特性の学習が完了したと判断されたシーンごとに自動運転を行うことで、運転者に与える違和感を少なくすることができる。 According to the present invention, in the automatic control device, it is possible to quickly reflect the individual characteristics to the automatic driving by appropriately determining the completion of learning of the individual characteristics of the driver for each scene. In addition, by performing automatic driving for each scene where it is determined that learning of the individual characteristics of the driver is completed, it is possible to reduce a sense of discomfort given to the driver.
以下、本発明の実施の形態にかかる自動制御装置1を説明する。
以下の説明では、自動制御装置1を、車両などの移動体(図示せず)の自動運転に適用した場合を例示して説明する。
図1は、実施の形態にかかる自動制御装置1を説明するブロック図である。
Hereinafter, an automatic control device 1 according to an embodiment of the present invention will be described.
In the following description, the case where the automatic control device 1 is applied to automatic driving of a moving body (not shown) such as a vehicle will be described as an example.
FIG. 1 is a block diagram for explaining an automatic control device 1 according to an embodiment.
[自動制御装置]
図1に示すように、自動制御装置1は、シーン判定基準データベース10と、シーン判定部11と、個体認証部12と、過去情報データベース13と、個体特性学習部14と、手動操作推定部15と、学習進捗度判定部16と、制御部17と、を有している。
[Automatic control device]
As shown in FIG. 1, the automatic control device 1 includes a scene
シーン判定基準データベース10は、自動運転におけるシーンの分類に使用されるパラメータが、分類されるシーンに対応して記憶されている。よって、シーン判定基準データベースから所定のパラメータを取得することで、このパラメータに対応するシーンを抽出することができる。
The scene
ここで、シーンとは、車両などの移動体が走行する道路形状を意味し、一定の距離的又は時間的長さを含む概念である。例えば、シーンの一例として、短い直線シーン、長い直線シーン、緩やかなカーブシーン、急なカーブシーン,上り坂シーン、下り坂シーン、交差点シーンなどが挙げられる。そして、各々のシーンは、一場面だけではなく、ある一定の距離的又は時間的長さを含んでいる。 Here, the scene means a road shape on which a moving body such as a vehicle travels, and is a concept including a certain distance or time length. For example, examples of the scene include a short straight scene, a long straight scene, a gentle curve scene, a steep curve scene, an uphill scene, a downhill scene, and an intersection scene. Each scene includes not only one scene but also a certain distance or time length.
前述したシーン判定基準データベース10は、移動体(車両)側の制御装置などに設けられていてもよいが、シーン判定基準データベース10を移動体とは異なる場所にある外部サーバ(図示せず)に設けることがより好ましい。
The above-described scene
シーン判定基準データベース10を外部サーバ(図示せず)に設け、この外部サーバと移動体のECU(図示せず)とを情報ネットワークを介して接続することで、移動体のECUが、必要に応じて、外部サーバ内のシーン判定基準データベース10に記憶されているパラメータ(シーン)を読み出すことができる。
The scene
このようにすると、移動体側の制御装置などのメモリ容量を小さくすることができ、移動体側の制御装置の製造コストや、維持・管理コストの増加を抑えることができる。また、移動体側の制御装置の計算リソースを、危険回避処理などの緊急性の高い処理に重点的に使用することができる。さらに、運転者が、別の移動体(車両)に乗車した場合でも、情報ネットワークを介して外部サーバから必要な情報を読み出して個体適応制御を行うことができる。 In this way, it is possible to reduce the memory capacity of the mobile unit-side control device and the like, and to suppress an increase in manufacturing cost and maintenance / management cost of the mobile unit-side control device. In addition, the calculation resource of the control device on the mobile unit side can be used mainly for highly urgent processing such as danger avoidance processing. Furthermore, even when the driver gets on another moving body (vehicle), the individual adaptive control can be performed by reading necessary information from an external server via the information network.
このシーン判定基準データベース10には、シーン判定部11が接続されており、このシーン判定部11には、シーン判定基準データベース10に記憶されたシーンの分類に使用されるパラメータと、環境情報50と、が入力される。
A
シーン判定部11は、シーン判定基準データベース10から入力されたパラメータと、環境情報50とに基づいて、移動体(車両)の置かれているシーンを判定する。
The
ここで、環境情報50は、例えば、道路形状(直線、カーブ、傾斜勾配、交差点の有無等)、周囲の他の移動体(他車両)の密度、周囲の他の移動体の移動速度(車速)、周囲の障害物との距離、道路の車線内における自車両の幅方向の位置、気温、季節、明るさ、などの外部環境情報をいう。また、環境情報50は、例えば、自車両の車速、加速度、ステア角、ピッチ、ロール、などの内部環境情報も含む。 Here, the environment information 50 includes, for example, a road shape (straight line, curve, slope gradient, presence / absence of an intersection, etc.), the density of other surrounding moving bodies (other vehicles), and the moving speed (vehicle speed) of other surrounding moving bodies. ), External environment information such as distance to surrounding obstacles, position in the width direction of the vehicle in the road lane, temperature, season, and brightness. The environment information 50 also includes internal environment information such as the vehicle speed, acceleration, steering angle, pitch, and roll of the host vehicle.
個体認証部12は、運転者(個体)の個体認証情報52を取得し、この取得した個体認証情報52と、後述する過去情報データベース13にすでに登録されている個体認証情報と、を照合して、運転者の認証を行う。
The
個体認証情報52は、運転者を特定可能な情報であれば特に限定されるものではなく、例えば、個人IDと暗証番号(パスワード)、運転免許証などの身分証の情報であってもよい。この個体認証情報52は、イグニッションキーやスタート/ストップボタンがOFFにされるまで、ECUのメモリ(図示せず)に記憶されている。 The individual authentication information 52 is not particularly limited as long as it is information that can identify the driver. For example, the individual authentication information 52 may be identification information such as a personal ID, a password (password), and a driver's license. The individual authentication information 52 is stored in a memory (not shown) of the ECU until the ignition key and the start / stop button are turned off.
この個体認証部12は、過去情報データベース13に接続されており、個体認証部12は、過去情報データベース13にすでに登録されている個体認証情報を読み出すようになっている。
The
過去情報データベース13には、運転者の個体認証情報52のほか、シーン判定部11で判定されたシーン(判定結果)と、環境情報50と、手動操作情報51とが入力されて記憶されている。
In the
過去情報データベース13は、個体認証部12で認証された運転者の個体認証情報52に基づいて、過去情報データベース13内での当該個体認証情報52に対応するメモリアドレス(メモリ領域)を特定する。そして、過去情報データベース13は、この特定したメモリアドレスに、シーン判定部11で判定されたシーン(判定結果)と、その際の環境情報50及び運転者の手動操作情報51とを関連付けて記憶する。
The
一方、過去情報データベース13は、個体認証部12で認証された運転者の個体認証情報52が、過去に登録がない(未登録)と判定した場合、当該未登録の運転者の個体認証情報52に対応する新たなメモリアドレス(メモリ領域)を作製すると共に、そのメモリアドレスに、シーン判定部11で判定されたシーン(判定結果)と、その際の環境情報50及び運転者の手動操作情報51と、を関連付けて記憶する。
On the other hand, when the individual authentication information 52 of the driver authenticated by the
ここで、手動操作情報51には、例えば、ステアリングの操舵角、車速、各ライト及び各ランプのON/OFF操作、空調の設定温度、車内オーディオの楽曲選定及びその音量、カーナビゲーションの操作情報、ウィンドウの開閉量、ウィンドウの遮光性が電圧を印加するなどで任意に設定できる場合には、その電圧値(遮光度)などが一例として挙げられる。 Here, the manual operation information 51 includes, for example, steering angle of the steering wheel, vehicle speed, ON / OFF operation of each light and each lamp, set temperature of air conditioning, selection of music for the in-vehicle audio and its volume, operation information for car navigation, When the open / close amount of the window and the light shielding property of the window can be arbitrarily set by applying a voltage or the like, the voltage value (light shielding degree) or the like is given as an example.
過去情報データベース13は、個体特性学習部14に接続されており、過去情報データベース13に記憶された各情報は、個体特性学習部14に入力される。
The
個体特性学習部14は、過去情報データベース13に記憶されたシーン(判定結果)と、環境情報50と、手動操作情報51と、個体認証情報52とに基づいて、当該個体認証情報52で特定される運転者の個体特性モデルを生成する。
The individual
具体的には、個体特性学習部14は、各々のシーンにおいて、運転者がどのような手動操作を行ったのかを機械学習などの手法で学習して、個体特性モデルを生成する。
なお、個体特性(操作特性)の学習は周知の機械学習、ディープラーニングなどの手法を用いることができる。
Specifically, the individual
In addition, for learning of individual characteristics (operation characteristics), a known method such as machine learning or deep learning can be used.
個体特性学習部14は、手動操作推定部15に接続されており、個体特性学習部14で生成された個体特性モデルは、手動操作推定部15に入力される。
The individual
手動操作推定部15には、個体特性学習部14で生成された個体特性モデルのほか、現在の環境情報50が入力されており、この個体特性モデルと環境情報50とに基づいて、運転者の手動操作を推定する。
In addition to the individual characteristic model generated by the individual
ここで、運転者の手動操作には、例えば、ステアリング操作、アクセルペダル操作、各ライト及び各ランプのON/OFF操作、空調の操作、車内オーディオの操作、カーナビゲーションの操作、ウィンドウの開閉操作などが一例として挙げられる。 Here, the driver's manual operation includes, for example, steering operation, accelerator pedal operation, ON / OFF operation of each light and each lamp, air conditioning operation, in-car audio operation, car navigation operation, window opening / closing operation, etc. Is given as an example.
この手動操作推定部15は、学習進捗度判定部16に接続されており、手動操作推定部15で推定された運転者の手動操作情報(以下、推定手動操作情報ともいう)は、学習進捗度判定部16に入力される。
The manual
学習進捗度判定部16には、手動操作推定部15で推測された推測手動操作情報のほかに、現在の運転者による手動操作情報51と、シーン判定部11で判定されたシーン(判定結果)と、が入力されている。
In addition to the estimated manual operation information estimated by the manual
学習進捗度判定部16は、手動操作推定部15で推測された推定手動操作情報と、現在の運転者の手動操作情報51との差分R(推定手動操作情報―手動操作情報51)を、シーンごとに算出することで、シーンごとの学習進捗度を判定する。
例えば、学習進捗度判定部16は、前述した比較結果の差分Rが所定の閾値Rth以下の場合(R≦Rth)、学習進捗度が高い(学習完了)と判定し、差分Rが閾値Rthよりも大きい場合(R>Rth)、学習進捗度が低い(学習未完了)と判定し、この学習進捗度の判定結果を制御部17に出力する。
The learning progress
For example, the learning
制御部17は、学習進捗度判定部16で判定された学習進捗度の判定結果に基づいて、シーンごとに、個体適応制御の実施または不実施を決定する。
Based on the learning progress determination result determined by the learning
制御部17は、学習進捗度判定部16により学習進捗度が高い(差分R≦閾値Rth)と判定された場合には、個体適応制御を実施する。
When the learning progress
ここで、制御部17による個体適応制御の実施条件の一例を説明する。
初めに、シーン判定部11は、所定のシーン(例えば、カーブシーン)に含まれる少なくとも2以上の不連続な第1シーン(例えば、緩やかなカーブシーン)と、第2シーン(例えば、交差点シーン)とを判定する。
Here, an example of the implementation conditions of the individual adaptive control by the
First, the
そして、学習進捗度判定部16は、第1シーン(例えば、緩やかなカーブシーン)と、第2シーン(例えば、交差点シーン)における、運転者の個体特性の学習進捗度を判定する。
Then, the learning progress
その結果、制御部17は、第1シーンでの学習進捗度の判定結果と、第2シーンでの学習進捗度の判定結果の何れも学習完了状態(学習進捗度が高い状態)であると、学習進捗度判定部16により判定された場合、個体適応制御を実施する。
As a result, when both the determination result of the learning progress degree in the first scene and the determination result of the learning progress degree in the second scene are in the learning completion state (a state where the learning progress degree is high), the
このように、制御部17は、全くシーンの異なる不連続な2以上のシーンにおける学習進捗度が完了状態か否かに基づいて、個体適応制御を実施するか否かの判定を行うことにより、2以上の不連続なシーンを含む所定のシーンの学習が完了していると精度よく判定することができる。
In this way, the
また、シーン判定部11は、所定のシーン(例えば、直線シーン)に含まれる互いに離れた位置の第3シーン(例えば、第1の直線シーン)と、第4シーン(例えば、第2の直線シーン)とを判定する。
In addition, the
そして、学習進捗度判定部16は、第3シーン(例えば、第1の直線シーン)と、第4シーン(例えば、第2の直線シーン)における、運転者の個体特性の学習進捗度を判定する。
Then, the learning
その結果、制御部17は、第3シーンでの学習進捗度の判定結果と、第4シーンでの学習進捗度の判定結果の何れも学習完了状態(学習進捗度が高い状態)であると、学習進捗度判定部16により判定された場合、個体適応制御を実施する。
As a result, when both the determination result of the learning progress in the third scene and the determination result of the learning progress in the fourth scene are in the learning completion state (a state where the learning progress is high), the
このように、制御部17は、離れた距離にある2以上のシーンにおける学習進捗度が完了状態か否かに基づいて、個体適応制御を実施するか否かの判定を行うことにより、2以上の離れた距離にある不連続なシーンを含む所定のシーンの学習が完了していると精度よく判定することができる。
As described above, the
なお、学習進捗度判定部16は、時間的に離れた2つのシーン(第5シーン、第6シーン)での学習進捗度を判定し、制御部17は、2つのシーン(第5シーン、第6シーン)における学習進捗度がいずれも学習完了状態である場合に、個体適応制御を実施するようにしてもよい。
Note that the learning
一方、制御部17は、学習進捗度が低い(差分R>閾値Rth)と判定された場合には、個体適応制御を実施せず、予め初期設定(デフォルト)されている自動運転制御を実施する。
On the other hand, when it is determined that the learning progress is low (difference R> threshold Rth), the
ここで、個体適応制御とは、運転者(個体)の個体特性(操作特性)を学習して生成した個体特性モデルに基づいて、運転者の個体特性(操作特性)に適応した自動運転制御を行うことを意味する。 Here, the individual adaptive control is an automatic driving control adapted to the individual characteristic (operation characteristic) of the driver based on the individual characteristic model generated by learning the individual characteristic (operation characteristic) of the driver (individual). Means to do.
なお、制御部17は、学習進捗度から学習効率Kを算出し、学習効率Kが所定の閾値Kth以上の場合(K≧Kth)、学習進捗が高いと判定し、学習効率Kが所定の閾値Kthよりも小さい場合(K<Kth)、学習進捗度が低いと判定してもよい。
Note that the
前述した過去情報データベース13、個体特性学習部14、手動操作推定部15、学習進捗度判定部16は、移動体(車両)側の制御装置などに設けられていても良いが、これらを移動体とは異なる場所にある外部サーバ(図示せず)に設け、この外部サーバと移動体のECU(図示せず)とを情報ネットワークを介して接続し、必要に応じて、移動体のECUが、これらの情報を読み出すようにすることが好ましい。
The
このようにすると、移動体側の制御装置のメモリ容量を小さくすることができ、移動体側の制御装置の製造コストや、維持・管理コストの増加を抑えることができる。また、移動体側の制御装置の計算リソースを、危険回避処理などの緊急性の高い処理に重点的に使用することができる。さらに、運転者が、別の移動体(車両)に乗車した場合でも、情報ネットワークを介して外部サーバから必要な情報を読み出して個体適応制御を行うことができる。 In this way, it is possible to reduce the memory capacity of the control device on the mobile unit side, and to suppress an increase in manufacturing costs and maintenance / management costs of the control unit on the mobile unit side. In addition, the calculation resource of the control device on the mobile unit side can be used mainly for highly urgent processing such as danger avoidance processing. Furthermore, even when the driver gets on another moving body (vehicle), the individual adaptive control can be performed by reading necessary information from an external server via the information network.
[個体適応制御]
次に、自動制御装置1における個体適応制御の処理を説明する。
図2は、個体適応制御のフローチャートである。
[Individual adaptive control]
Next, an individual adaptive control process in the automatic control apparatus 1 will be described.
FIG. 2 is a flowchart of individual adaptive control.
初めに、ステップS101において、移動体のECU(図示せず)は、移動体の自動運転が許可されているか否かを判定する。ECUは、自動運転が許可されていると判定した場合(ステップS101:Yes)、ステップS102に進む。
ここで、自動運転の許可は、種々の方法が考えられるが、運転者が、自動運転モードを設定するスイッチをON操作することで設定される。
First, in step S101, an ECU (not shown) of the moving body determines whether or not automatic operation of the moving body is permitted. If the ECU determines that automatic driving is permitted (step S101: Yes), the ECU proceeds to step S102.
Here, although various methods can be considered for permitting automatic driving, the driver sets the automatic driving mode by turning on a switch for setting the automatic driving mode.
ステップS102において、移動体のECUは、個体適応制御が許可されているか否かを判定する。ECUは、個体適応制御が許可されていると判定した場合(ステップS102:Yes)、ステップS103に進む。 In step S102, the ECU of the moving body determines whether or not individual adaptive control is permitted. If the ECU determines that the individual adaptive control is permitted (step S102: Yes), the ECU proceeds to step S103.
ステップS102において、移動体のECUは、個体適応制御が許可されていないと判定した場合(ステップS102:No)、ステップS106に進む。ステップS106において、自動制御装置1は、予め初期設定(デフォルト)されている自動運転制御により、移動体の自動運転を実施する。 In step S102, when the ECU of the moving body determines that the individual adaptive control is not permitted (step S102: No), the process proceeds to step S106. In step S <b> 106, the automatic control device 1 performs the automatic operation of the moving body by the automatic operation control that is initially set (default) in advance.
ステップS103において、学習進捗度判定部16は、シーン判定部により判定されたシーン(判定結果)、環境情報50、手動操作情報51、個体認証情報52に基づいて、現在走行しているシーンにおいて、当該運転者の個体特性の学習が完了したか否かを判定する。
In step S <b> 103, the learning
ステップS103において、学習進捗度判定部16は、運転者の個体特性の学習が完了したと判定した場合(ステップS103:Yes)、ステップS104に進む。ステップS104において、制御部17は、学習進捗度判定部16による学習完了の判定に基づいて、当該シーンにおける当該運転者の個体特性に応じた個体適応制御を実施する。
In step S103, when the learning
ステップS103において、学習進捗度判定部16は、運転者の個体特性の学習が完了していないと判定した場合(ステップS103:No)、ステップS106に進む。ステップS106において、制御部17は、学習進捗度判定部16による学習未完了の判定結果に基づいて、個体適応制御の実施を行わず、初期設定(デフォルト)されている自動運転制御により移動体の自動運転を実施する。
In step S103, when the learning
なお、前述したステップS101において、移動体のECU(図示せず)は、運転者が手動で自動運転モードを設定するスイッチをOFFに設定したり、環境情報50に応じて移動体が自動運転を継続できないと判定した場合にOFFに設定される。この場合、移動体のECUは、自動運転が許可されていないと判定し(ステップS101:NO)、ステップS105に進む。 In step S101 described above, the ECU (not shown) of the mobile object sets the switch for manually setting the automatic operation mode to OFF, or the mobile object performs automatic operation according to the environmental information 50. It is set to OFF when it is determined that it cannot be continued. In this case, the ECU of the moving body determines that automatic driving is not permitted (step S101: NO), and proceeds to step S105.
ステップS105において、移動体のECUは、現在の環境情報50と、現在の運転者の手動操作情報51を取得し、過去情報データベース13に送信して処理を終了する。
In step S105, the ECU of the moving body obtains the current environment information 50 and the current driver's manual operation information 51, transmits them to the
[過去情報データベースの更新]
次に、過去情報データベース13の更新処理を説明する。
図3は、過去情報データベース13の更新処理のフローチャートである。
[Update past information database]
Next, the update process of the
FIG. 3 is a flowchart of the update process of the
ステップS201において、個体認証部12は、現在の運転者の個体認証情報52を取得する。
In step S <b> 201, the
ステップS202において、個体認証部12は、ステップS201で取得した現在の運転者の個体認証情報52が、過去情報データベース13にすでに記憶されているか否かを判定する。個体認証部12は、個体認証情報52が、過去情報データベース13にすでに記憶されていると判定した場合(ステップS202:Yes)、ステップS203に進む。
In step S202, the
ステップS203において、個体認証部12は、当該運転者の個体認証情報52が記憶されている過去情報データベース13上のメモリアドレスを取得し、ステップS204に進む。
In step S203, the
一方、個体認証部12は、個体認証情報52が、過去情報データベース13に記憶されていないと判定した場合(ステップS202:No)、ステップS209に進む。
On the other hand, when the
ステップS209において、個体認証部12は、過去情報データベース13上に、現在の運転者の個体認証情報52を記憶する新たなメモリアドレスを設定し、ステップS204に進む。
In step S209, the
ステップS204において、シーン判定部11は、環境情報50を取得して、ステップS205に進む。
In step S204, the
ステップS205において、シーン判定部11は、シーン判定基準データベース10から取得したシーンの判定に必要なパラメータと、ステップS204で取得した環境情報50とに基づいて、当該シーンを判定する。
In step S205, the
ステップS206において、移動体のECU(図示せず)は、移動体が運転者による手動操作(手動運転)中か否かを判定する。移動体のECUは、手動操作中と判定した場合(ステップS206:Yes)、ステップS207に進み、ステップS207において、現在の、運転者の手動操作による運転情報(手動操作情報51)を取得する。 In step S206, the ECU (not shown) of the moving body determines whether or not the moving body is being manually operated (manual operation) by the driver. If it is determined that the manual operation is being performed (step S206: Yes), the ECU of the moving body proceeds to step S207, and in step S207, obtains current driving information (manual operation information 51) by the driver's manual operation.
そして、ステップS208において、移動体のECU(図示せず)は、取得した環境情報50、手動操作情報51、及びシーン判定部11で判定されたシーン(判定結果)を、ステップS203、S209で取得した過去情報データベース13上のメモリアドレスに記憶して処理を終了する。
In step S208, the moving body ECU (not shown) acquires the acquired environment information 50, manual operation information 51, and the scene (determination result) determined by the
これにより、運転者が手動操作による運転を行うことで、過去情報データベース13に記憶される環境情報50や手動操作情報51、及びシーン判定部11で判定されたシーン(判定結果)が取得され、この取得された各情報は、過去情報データベース13に蓄積される。よって、過去情報データベース13では、運転者が煩わしさを感じることなく、これらの各情報が蓄積(更新)される。
Thereby, when the driver performs driving by manual operation, the environment information 50 and manual operation information 51 stored in the
なお、ステップS206において、移動体のECU(図示せず)は、当該移動体が手動操作中でない(自動運転中である)と判定した場合(ステップS206:No)、ステップS210に進み、環境情報50及びシーン判定部11で判定されたシーン(判定結果)を、制御部17に送信して処理を終了する。
In step S206, when the ECU (not shown) of the moving body determines that the moving body is not being manually operated (automatic driving) (step S206: No), the process proceeds to step S210, and the environment information 50 and the scene (determination result) determined by the
[シーン判定基準データベースの更新処理]
次に、シーン判定基準データベース10の更新処理を説明する。
自動制御装置1では、運転者の個体特性の学習効率Kが著しく低いシーンがある場合、シーン判定基準データベース10に記憶された当該シーンを他のシーンに変更して、シーン判定基準データベース10の更新を行う。
図4は、シーン判定基準データベース10の更新処理のフローチャートである。
[Update process of scene criteria database]
Next, update processing of the scene
In the automatic control device 1, when there is a scene where the learning efficiency K of the individual characteristics of the driver is extremely low, the scene stored in the scene
FIG. 4 is a flowchart of the update process of the scene
ステップS301において、学習進捗度判定部16は、過去情報データベース13に記憶されている全ての運転者(個体)について、シーンごとの学習効率Kを算出する。
In step S301, the learning progress
ここで、学習進捗度判定部16は、学習時間Tが十分長いのに学習進捗度が低い場合、又は学習時間Tは短いが学習進捗度の向上率が低い場合に、何れかより小さい値を学習効率Kとして算出する。
Here, when the learning progress T is sufficiently long but the learning progress is low, or when the learning time T is short but the improvement rate of the learning progress is low, the learning
ステップS302では、学習進捗度判定部16は、何れかの運転者(個体)において、学習時間Tが、所定の閾値Tth以上(T≧Tth)であって、学習効率Kが、所定の閾値Kth未満(K<Kth)となるシーンがあるか否かを判定する。
In step S302, the learning
学習進捗度判定部16は、ステップS302の条件を満たすシーンがあると判定した場合(ステップS302:Yes)、ステップS303に進む。一方、学習進捗度判定部16は、前述した条件を満たすシーンがないと判定した場合(ステップS302:No)、学習効率Kが著しく低いシーンがないと判定し、本処理を終了する。
When it is determined that there is a scene that satisfies the condition of step S302 (step S302: Yes), the learning
ステップS303では、学習進捗度判定部16は、所定の同一シーンにおいて、学習時間Tが所定の閾値Tth以上であって、学習効率Kが所定の閾値Kth未満となる条件を満たすシーンを有する運転者(個体)の数Nが、過去情報データベース13に記憶されている全ての運転者(個体)の数Mの過半数以上(N≧M/2)となるか否かを判定する。
In step S303, the learning
ステップS303において、学習進捗度判定部16は、前述した条件を満たす個体の数Nが、全体の過半数以上であると判定した場合(ステップS303:Yes)、ステップS304に進む。
In step S303, when the learning progress
ステップS304において、移動体のECU(図示せず)は、全ての個体の環境情報50及び手動操作情報51に基づいて、シーン判定基準の再学習を行う。なお、このシーン判定基準の再学習の処理(方法)は後述する。 In step S304, the ECU (not shown) of the moving body performs relearning of the scene determination criterion based on the environment information 50 and the manual operation information 51 of all the individuals. The process (method) for re-learning the scene determination criterion will be described later.
そして、ステップS305において、移動体のECUは、ステップS304での再学習の結果に基づいて、シーン判定基準データベース10のシーンを更新(他のシーンに変更、又は当該シーンを削除など)して処理を終了する。
これにより、自動制御装置1では、学習効率Kの著しく低いシーンを見直し、又は削除することで、シーン判定基準データベース10内のシーンを、より適切なものに更新することができる。
In step S305, the mobile ECU updates the scene in the scene
Thereby, in the automatic control apparatus 1, the scene in the scene determination reference |
なお、ステップS303において、学習効率Kが所定の閾値Kth未満となる運転者(個体)の数Nが、全ての運転者(個体)の数Mの過半数とならなかったシーンがある場合(ステップS303:No)、ステップS306に進み、当該学習効率Kの著しく低いシーンを有する運転者(個体)で収集された環境情報50と手動操作情報51とに基づいて、当該運転者(個体)におけるシーン判定基準の再学習を行う。
ここで、個別の運転者(個体)におけるシーン判定基準の再学習は、ステップS304のシーン判定基準の再学習と同じ処理(方法)で行われる。
In step S303, there is a scene in which the number N of drivers (individuals) for which the learning efficiency K is less than the predetermined threshold Kth is not a majority of the number M of all drivers (individuals) (step S303). : No), proceeding to step S306, based on the environment information 50 and the manual operation information 51 collected by the driver (individual) having a scene with the remarkably low learning efficiency K, scene determination in the driver (individual) Re-learn the criteria.
Here, the relearning of the scene determination criterion for each individual driver (individual) is performed by the same process (method) as the relearning of the scene determination criterion in step S304.
そして、ステップS305に進み、移動体のECU(図示せず)は、ステップS306でのシーン判定基準の再学習の結果に基づいて、シーン判定基準データベース10の個別のシーンを更新して処理を終了する。
In step S305, the ECU (not shown) of the moving body updates the individual scenes in the scene
[シーン判定基準の再学習]
次に、ステップS304(ステップS306)で説明した、シーン判定基準の再学習の処理を説明する。
図5は、シーン判定基準の再学習の処理のフローチャートである。
図6は、シーン判定基準の再学習の方法を説明する概念図である。
[Relearning scene criteria]
Next, the scene learning criterion relearning process described in step S304 (step S306) will be described.
FIG. 5 is a flowchart of a process for re-learning scene determination criteria.
FIG. 6 is a conceptual diagram illustrating a method for re-learning scene determination criteria.
図5に示すように、ステップS401において、移動体のECU(図示せず)は、学習効率Kの著しく低いと判定された所定のシーン(過去シーン)で適用した個体特性モデルを、外部ネットワークに接続されたメモリ(図示せず)に一時的に保存する。 As shown in FIG. 5, in step S401, the ECU (not shown) of the mobile object transmits the individual characteristic model applied in a predetermined scene (past scene) determined to have a very low learning efficiency K to an external network. Temporarily save in a connected memory (not shown).
ステップS402において、移動体のECU(図示せず)は、学習効率Kの著しく低い所定のシーンの再分類を行う。 In step S402, the ECU (not shown) of the moving body performs reclassification of a predetermined scene with a remarkably low learning efficiency K.
具体的には、図6に示すように、移動体のECUは、例えば、カーブシーンAと交差点シーンCにおいて、運転者の学習効率Kが著しく低いと判定した場合、カーブシーンAを、緩やかなカーブシーンA1と、急なカーブシーンA2とに再分類すると共に、交差点シーンCを、三差路(T字)交差点シーンC1と、五差路交差点シーンC2とに再分類する。
なお、実施の形態では、学習進捗度判定部16において、直線シーンBの学習効率Kは高いと判定したので、移動体のECUにおいて直線シーンBの再分類は実施されない。
Specifically, as shown in FIG. 6, for example, when the ECU of the moving body determines that the learning efficiency K of the driver is extremely low in the curve scene A and the intersection scene C, the curve scene A is moderated. While reclassifying into a curve scene A1 and a steep curve scene A2, the intersection scene C is reclassified into a three-way (T-shaped) intersection scene C1 and a five-way intersection scene C2.
In the embodiment, since the learning progress
図5に戻って、学習進捗度判定部16は、ステップS403において、ステップS401でメモリ(図示せず)に保存した個体特性モデルを読み出して、再分類後のシーンに適用する。
Returning to FIG. 5, in step S <b> 403, the learning
ステップS404において、学習進捗度判定部16は、再分類後のシーンにおいて、再分類前のシーンで適用した個体特性モデルによる学習効率Kが所定の閾値Kth以上か否かを判定し、学習効率Kが所定の閾値Kth以上であると判定した場合(K≧Kth)、ステップS405に進む(図6参照)。
In step S404, the learning
ステップS405において、移動体のECU(図示せず)は、再分類後のシーンを、新たに分類されたシーンに置き換えて、シーン判定基準データベース10を更新して処理を終了する(図6参照)。
In step S405, the moving body ECU (not shown) replaces the reclassified scene with a newly classified scene, updates the scene
なお、ステップS404において、学習進捗度判定部16は、再分類後のシーンにおいて、再分類前のシーンで適用した個体特性モデルによる学習効率Kが所定の閾値Kth未満であると判定した場合(K<Kth)、ステップS406に進み、予め初期設定(デフォルト)された自動運転制御を行う(図6参照)。
In step S404, when the learning
[個体特性モデルの生成]
次に、個体特性学習部14において、運転者の個体特性を学習(個体特性モデルの生成)する処理を説明する。
図7は、個体特性学習処理のフローチャートである。
[Generation of individual characteristic model]
Next, a process for learning the individual characteristics of the driver (generating an individual characteristic model) in the individual
FIG. 7 is a flowchart of the individual characteristic learning process.
ステップS501において、個体特性学習部14は、移動体(車両)の置かれているシーンの切り換わりがあるか否かを判定し、シーンの切り換わりがあると判定した場合、ステップS502に進む。
In step S501, the individual
個体特性学習部14において、シーンの切り換わりがあるか否かを判定する具体的な方法の一例として、同一種類のシーンが連続して出現しない場合(例えば、緩やかなカーブシーンの後に、交差点シーンが出現した場合)には、シーンの切り換わりがあると判定し(ステップS501:Yes)、同一種類のシーンが連続して出現した場合(例えば、直線シーンの後に、同様の直線シーンが出現した場合)には、シーンの切り換わりがないと判定する(ステップS501:No)
As an example of a specific method for determining whether or not there is a scene change in the individual
ステップS502において、個体特性学習部14は、過去情報データベース13から当該シーンにおいて収集された環境情報50と、運転者の手動操作情報51とを取得して、ステップS503に進む。
In step S502, the individual
ステップS503において、個体特性学習部14は、個体特性の学習(個体特性モデルの生成)を実行する。これにより、個体特性学習部14により、シーンや環境情報50に対する運転者(個体)の手動操作を推測するための個体特性モデルが生成される。
In step S503, the individual
なお、ステップS501において、個体特性学習部14は、シーンの切り換わりがないと判定した場合(ステップS501:No)、ステップS504に進む。
In step S501, if the individual
ステップS504において、個体特性学習部14は、この個体特性学習処理(ステップS501〜ステップS504)の実行時を起点として、移動体(車両)の走行距離Lが、所定の閾値Lthよりも増えているか(L≧Lth)、又は走行時間Hが、所定の閾値Hthよりも増えているか否かを判定する。
In step S504, the individual
個体特性学習部14は、移動体の走行距離Lが、所定の閾値Lthよりも増えている(L≧Lth)と判定した場合、又は走行時間Hが、所定の閾値Hthよりも増えている(H≧Hth)と判定した場合、(ステップS504:Yes)、ステップS502に進み、当該シーンにおける環境情報50と、運転者の手動操作情報51とを取得し、何れも増えていないと判定した場合(ステップS504:No)、処理を終了する。
これにより、個体特性学習部14は、シーンの切り換わりがないと判定して場合でも、移動体が所定走行距離(又は所定走行時間)経っていると判断した場合には、シーンの切り換わり判断と同様に、個体特性モデルの生成を行う。
The individual
As a result, even when the individual
前述したように、個体特性学習部14では、運転者の個体特性の学習を、シーンの切り換わりや所定の走行距離を走った場合や所定の走行時間を走った場合など、比較的長い周期で行うことで、短い周期で無駄に個体特性モデルを生成(更新)してしまうことを防止することができる。
As described above, the individual
[個体特性学習の完了判断]
次に、学習進捗度判定部16において、個体特性の学習が完了したか否かの判断の一例を説明する。
図8は、学習進捗度判定部16における個体特性の学習完了の判断処理のフローチャートである。
[Individual characteristic learning completion judgment]
Next, an example of determining whether the learning of the individual characteristics has been completed in the learning
FIG. 8 is a flowchart of a process for determining completion of learning of individual characteristics in the learning
ステップS601において、学習進捗度判定部16は、移動体(車両)が置かれている現在のシーンの判定を行う。この学習進捗度判定部16によるシーンの判定は、前述した図3におけるステップS201〜S205と同様の処理により行われるので、ここでの説明は省略する。
In step S601, the learning
ステップS602において、学習進捗度判定部16は、過去情報データベース13から運転者(個体)の個体認証情報と現在のシーンとを取得し、現在のシーンにおける個体特性の学習結果を呼び出す。
In step S602, the learning progress
ステップS603において、学習進捗度判定部16は、個体特性の学習結果(個体特性モデル)が存在するか否かを判定し、個体特性の学習結果が存在すると判定した場合(ステップS603:Yes)、ステップS604に進む。学習進捗度判定部16は、個体特性の学習結果が存在しないと判定した場合(ステップS603:No)、ステップS611に進み、学習進捗度を「学習未完」に設定して処理を終了する。
In step S603, the learning
ステップS604において、学習進捗度判定部16は、移動体が、運転者による手動操作中であるか否かを判定し、手動操作中であると判定した場合(ステップS604:Yes)、ステップS605に進む。学習進捗度判定部16は、移動体が、運転者による手動操作中でないと判定した場合(ステップS604:No)、ステップS611に進み、学習進捗度を「学習未完」に設定して処理を終了する。
In step S604, the learning
ステップS605において、学習進捗度判定部16は、予め取得している環境情報50を、個体特性学習部14で生成された個体特性モデルに当て嵌め、個体適応制御の走行シミュレーションを実施して、ステップS606に進む。
In step S605, the learning
ステップS606において、学習進捗度判定部16は、ステップS605で実施した走行シミュレーション結果(推定手動操作情報)と、運転者(個体)の実際の手動操作の操作量(手動操作情報51)とを比較し、その差分Rを算出すると共に、算出した差分Rを、過去情報データベース13に記憶する。
In step S606, the learning
前述した差分Rは、ステア角(舵角量)、アクセル開度、移動チアの加速度、移動体の速度、ヨーレート(ヨー角)、障害物との位置関係や相対速度などの走行シミュレーション結果と、実際の測定値との差分である。 The above-mentioned difference R is a driving simulation result such as a steering angle (steering angle amount), an accelerator opening, a moving cheer acceleration, a moving body speed, a yaw rate (yaw angle), a positional relationship with an obstacle, a relative speed, and the like. It is the difference from the actual measured value.
また、過去情報データベース13への差分Rの記憶は、単に差分Rの累積を記憶してもよく、移動距離に対する比として記憶してもよい。
Further, the storage of the difference R in the
ステップS607において、学習進捗度判定部16は、ステップS606で算出した差分Rと、シーン(パラメータ)ごとに設定された所定の閾値Rthとを比較し、差分Rが所定の閾値Rth以下であるか否かを判定する。
In step S607, the learning
ステップS607において、学習進捗度判定部16は、差分Rが閾値Rth以下であると判定した場合(ステップS607:Yes)、ステップS608に進み、差分Rが閾値Rth以下であると判定した場合(ステップS607:No)、ステップS611に進み、学習進捗度を「学習未完」に設定して処理を終了する。
In step S607, when the learning
なお、ステップS607において、所定の閾値Rthの設定方法の一例として、許容範囲と考えられる数値を予め算出して設定しておいてもよく、仮の数値を設定した後、個体適応制御中に個体(運転者)のオーバーライドの有無や個体の生体情報から運転者の心拍数の増加などを取得し、オーバーライドや心拍数増加の発生頻度が所定の閾値Rth以上である場合に修正するようにしてもよい。 In step S607, as an example of a method for setting the predetermined threshold value Rth, a numerical value that is considered to be an allowable range may be calculated and set in advance. After setting the temporary numerical value, (Driver) The presence or absence of an override or an increase in the heart rate of the driver is obtained from the biological information of the individual, and correction is made when the frequency of occurrence of the override or the heart rate increase is equal to or greater than a predetermined threshold Rth. Good.
ステップS608において、学習進捗度判定部16は、過去の学習進捗度が「学習未完」状態であったか否かを判定し、「学習未完」状態であると判定した場合(ステップS608:Yes)、ステップS609に進み、「学習未完」状態ではないと判定した場合(ステップS608:No)、ステップS610に進んで、学習進捗度を「学習完了」に設定して処理を終了する。
In step S608, the learning
ステップS609において、学習進捗度判定部16は、学習完了状態への移行が許可されているか否かを判定する。学習進捗度判定部16は、学習完了状態への移行が許可されていると判定した場合(ステップS609:Yes)、ステップS610に進んで、学習進捗度を「学習完了」に設定して処理を終了する。
一方、学習進捗度判定部16は、学習完了状態への移行が許可されていない判定した場合(ステップS609:No)、ステップS611に進んで、学習進捗度を「学習未完」に設定して処理を終了する。
In step S609, the learning
On the other hand, when it is determined that the transition to the learning completion state is not permitted (step S609: No), the learning
学習進捗度判定部16が、学習完了状態への移行が許可されていると判定する場合の一例として、シーンの切り換わり時とするほか、より望ましくは、少なくとも同一シーンにおいて、シーン的に不連続な2か所以上のデータ収集機会におけるシミュレーション結果(推定手動操作情報)と、運転者(個体)の実際の手動操作情報51との差分が所定の閾値以下となることを条件とするのがよい。
As an example of the case where the learning
ここで、学習進捗度判定部16により判定された学習進捗度に基づいて、学習完了状態に移行する許可を判断する一例を説明する。
図9は、学習進捗度に基づいて、学習完了状態への移行許可を判断する一例を説明する図である。
Here, an example of determining permission to shift to the learning completion state based on the learning progress degree determined by the learning progress
FIG. 9 is a diagram illustrating an example of determining permission to shift to the learning completion state based on the learning progress degree.
図9において、上段には、シーン分類結果が示されている。このシーン分類結果は、シーン判定部11によるシーンの判断結果(分類結果)である。
In FIG. 9, the scene classification result is shown in the upper part. This scene classification result is a scene determination result (classification result) by the
実施の形態では、シーン分類結果として、カーブシーンと直線シーンの2つのシーンが分類されており、カーブシーン(曲がり道路)と直線シーン(直線道路)とが交互に出現する経路となっている。 In the embodiment, two scenes, a curve scene and a straight scene, are classified as a scene classification result, and a curve scene (curved road) and a straight scene (straight road) appear alternately.
シーン分類結果の下段には、差分Rが示されている。この差分Rは、手動操作推定部15で推定された運転者の個体特性のシミュレーション結果(推定手動操作情報)と、実際の運転者の手動操作情報51との差分Rの絶対値である。
なお、差分Rではなく、差分Rを累積した値(累積差分)、又はこの差分R又は累積差分を走行距離で割った値を用いてもよく、また、これらの平均値を用いてもよい。
A difference R is shown in the lower part of the scene classification result. The difference R is an absolute value of the difference R between the simulation result (estimated manual operation information) of the individual characteristics of the driver estimated by the manual
Instead of the difference R, a value obtained by accumulating the difference R (cumulative difference), or a value obtained by dividing the difference R or the accumulated difference by the travel distance may be used, or an average value thereof may be used.
実施の形態では、シミュレーション結果と実際の個体の手動操作情報51との差分Rの累積は、時刻t1〜t3では所定の閾値Rth(図中の破線)未満となっており、時刻t4の時に閾値Rth以上となる。 In the embodiment, the accumulation of the difference R between the simulation result and the manual operation information 51 of the actual individual is less than a predetermined threshold Rth (dashed line in the figure) at times t1 to t3, and the threshold at time t4. Rth or higher.
差分Rの下段には、シーンごと(実施の形態では、カーブシーンと直線シーン)の学習進捗度の判定結果が示されている。 In the lower part of the difference R, the learning progress determination result for each scene (in the embodiment, a curve scene and a straight scene) is shown.
実施の形態では、同じシーン(例えば、カーブシーン)が2度あり、何れのシーンでも差分Rの値が所定の閾値Rthを超えない場合、学習進捗度の判定結果を学習完了と判定するようにしている。
具体的には、カーブシーンの学習進捗度は、1度目のカーブシーンが終了する時刻t1において一段階上昇するが、学習完了移行許可の閾値(図中の破線)は超えない。そして、カーブシーンの学習進捗度は、2度目のカーブシーンが終了する時刻t3において、さらに一段階上昇し、学習完了移行許可の閾値(図中の破線)を超える。
In the embodiment, when the same scene (for example, a curve scene) is present twice and the difference R does not exceed a predetermined threshold value Rth in any scene, the learning progress determination result is determined to be learning completion. ing.
Specifically, the learning progress of the curve scene increases by one step at time t1 when the first curve scene ends, but does not exceed the learning completion transition permission threshold (broken line in the figure). The learning progress of the curve scene further increases by one step at time t3 when the second curve scene ends, and exceeds the learning completion transition permission threshold (broken line in the figure).
この結果、図9の学習進捗度の下段に示すように、学習進捗度判定部16は、時刻t3で、カーブシーンでの個体特性の学習が完了したと判定し、次のカーブシーンが時刻t4以降で出現した場合、当該カーブシーンにおいて個体適応制御を実施する。
As a result, as shown in the lower stage of the learning progress in FIG. 9, the learning
一方、直線シーンの学習進捗度は、1度目の直線シーンが終了する時刻t2において一段階上昇するが、学習完了移行許可の閾値(図中の破線)は超えない。そして、2度目の直線シーンが終了する時刻t4において、前述した差分Rが、所定の閾値Rthを超えるため、直線シーンの学習進捗度は、時刻t2以降は上昇せず、学習完了移行許可の閾値(図中の破線)は超えない。 On the other hand, the learning progress of the straight line scene increases by one step at time t2 when the first straight line scene ends, but does not exceed the learning completion transition permission threshold value (broken line in the figure). At time t4 when the second straight scene ends, the difference R described above exceeds a predetermined threshold value Rth. Therefore, the learning progress of the straight line scene does not increase after time t2, and the learning completion transition permission threshold value. (Dashed line in the figure) is not exceeded.
この結果、図9の学習進捗度の下段に示すように、学習進捗度判定部16は、次の直線シーンが時刻t4以降で出現した場合でも、当該直線シーンにおいて個体適応制御を実施せず、予め初期設定されている自動運転制御を実施する。
As a result, as shown in the lower stage of the learning progress level in FIG. 9, even when the next straight line scene appears after time t4, the learning progress
なお、差分Rが、所定の閾値を超えた時刻t3〜t4の走行後、直線シーンの学習進捗度を据え置かず、引き下げてもよい。また、学習進捗度の判定は、必ずしも段階的(実施の形態では、2段階)である必要はなく、差分Rと所定の閾値Rthとの差の大きさによって連続的に変化するものとしてもよい。この結果、ある特定のシーン(場所)のみでしか実際の個体特性に適合しないような、いわゆる過学習などの不適切な学習状態において、個体適応制御を実施してしまうことを防ぐことができる。 It should be noted that after traveling at times t3 to t4 when the difference R exceeds a predetermined threshold, the learning progress of the straight line scene may be lowered without deferring. The determination of the learning progress level is not necessarily stepwise (in the embodiment, two steps), and may be continuously changed depending on the difference between the difference R and the predetermined threshold value Rth. . As a result, it is possible to prevent the individual adaptive control from being performed in an inappropriate learning state such as so-called over-learning that is adapted to actual individual characteristics only in a specific scene (location).
[安全判定部]
なお、実施の形態では、自動制御装置1は、個体特性学習部14での学習結果(生成された個体特性モデル)に基づく個体適応制御が、移動体(車両)の自動運転において安全か否かを判定する安全判定部20を、さらに有している。
図10は、安全判定部20を説明するブロック図である。
[Safety judgment section]
In the embodiment, the automatic control apparatus 1 determines whether or not the individual adaptive control based on the learning result (generated individual characteristic model) in the individual
FIG. 10 is a block diagram illustrating the
図10に示すように、安全判定部20は、安全検証用シナリオデータベース(DB)21と、走行模擬部22と、危険事象判定部23とを有している。
As shown in FIG. 10, the
安全検証用シナリオデータベース21には、様々な走行状態、走行環境について、事故に繋がる可能性のある事象、例えば、車両の挙動を不安定にさせるような事象や、他車の動作が異常なため衝突などの危険が起こる可能性がある事象など、走行中に発生する可能性のある危険事象の様々なシナリオデータが記憶されている。
In the
前述した車両の挙動を不安定にさせるような事象は、例えば、環境情報50を取得するための各種センサの出力が不安定である場合、横風や路面の凹凸が大きくハンドルを取られやすい場合などが挙げられる。 For example, when the output of various sensors for acquiring the environmental information 50 is unstable, the side wind or the road surface is uneven, and the handle can be easily taken. Is mentioned.
安全検証用シナリオデータベース21に記憶されているシナリオデータは、所定の危険事象に基づいて予め作成されている。また、このシナリオデータは、他の移動体(他車両)などから収集された環境情報50に基づいて、実際に事故が発生したり、移動体(他車両)に大きな加速度が加わったり、運転者(個体)の生体情報として心拍数が急に増加した時のシーンを参照して更新される。
The scenario data stored in the safety
このように、安全検証用シナリオデータベース21では、実際に危険事象が発生した際の状況に基づいてシナリオデータが更新されることで、より多くの危険事象におけるシナリオデータが記憶され、様々な危険事象に対応できるようになっている。
Thus, in the
走行模擬部22は、安全検証用シナリオデータベース21から、検証を行う個体特性モデル(運転者)の対象となるシーンシナリオを抽出する。そして、走行模擬部22は、個体特性学習部14で生成した運転者の個体特性モデルと、安全検証用シナリオデータベース21から抽出したシーンシナリオと、シーン判定部11で判定されたシーン(判定結果)とに基づいて、走行シミュレーション(模擬走行)を実施する。
これにより、走行模擬部22では、所定のシーンにおいて危険事象が発生した場合、当該運転者の個体特性モデルがどのような運転を行うのかという走行シミュレーションが実施される。
The traveling
As a result, the driving
危険事象判定部23は、走行模擬部22から走行シミュレーションの結果を取得し、危険事象の発生の有無又は危険の程度を判定すると共に、当該判定結果を、安全度評価結果として、自動制御装置1の制御部17(図1参照)に出力する。
The dangerous
制御部17では、危険事象判定部23での安全度評価結果に基づいて、個体適応制御を実施するか否かの判定が行われる。このように、制御部17が、安全度評価結果に基づいて個体適応制御を行うか否かの判断を行うことで、例えば、運転者の個体特性の学習に基づいて作成された個体特性モデルが危険事象に対応できなかったり、危険な運転を行う傾向がある運転者の個体特性を学習してしまった場合でも、個体適応制御を実行しないことで、実際に危険運転を行うことを阻止することができる。
In the
次に、危険事象判定部23による危険事象発生の判断の一例を説明する。
図11は、危険事象判定部による危険事象発生の判断の一例を説明する図であり、同図の上段は、時刻と先行車両の速度との関係を示す図であり、同図の下段は、時刻と先行車両との車間距離を示す図である。
なお、図11の下段において、危険事象を適切に回避した場合を実践で示し、危険事象を回避できない場合を破線で示す。
Next, an example of determination of occurrence of a dangerous event by the dangerous
FIG. 11 is a diagram illustrating an example of determination of occurrence of a dangerous event by the dangerous event determination unit. The upper part of FIG. 11 is a diagram showing the relationship between time and the speed of a preceding vehicle, and the lower part of FIG. It is a figure which shows the inter-vehicle distance of time and a preceding vehicle.
In the lower part of FIG. 11, a case where the dangerous event is appropriately avoided is shown in practice, and a case where the dangerous event cannot be avoided is indicated by a broken line.
図11の上段に示すように、例えば、先行車両は、所定の時刻t1までは、直線道路などを一定の車速で走行しており、時刻t1を過ぎた後、急に減速を開始した場合を示している。
これは安全検証用シナリオデータベース21に記憶されているシナリオデータであり、この場合の危険事象は、自車両が先行車両に衝突する可能性がるほど接近(許容最短車間距離Lthよりも近くに接近)することである。
As shown in the upper part of FIG. 11, for example, the preceding vehicle travels on a straight road or the like at a constant vehicle speed until a predetermined time t1, and the vehicle suddenly starts to decelerate after time t1. Show.
This is scenario data stored in the
走行模擬部22では、個体特性学習部14で生成された個体特性モデルと、シーン判定部11で判定されたシーン(判定結果)と、安全検証用シナリオデータベース21から抽出したシナリオデータと、に基づいて走行シミュレーション(模擬走行)を行う。
The traveling
その結果、図11の下段に示すように、先行車両の急減速に自車両が対応できず所定の車間距離(許容最短車間距離Lth)より近くに接近してしまう場合(図11の下段の破線)、危険事象判定部23は、危険事象が発生したと判定し、当該個体特性モデルを安全不十分のモデルと判定する。
As a result, as shown in the lower part of FIG. 11, when the host vehicle cannot cope with the sudden deceleration of the preceding vehicle and approaches closer to a predetermined inter-vehicle distance (allowable shortest inter-vehicle distance Lth) (the broken line in the lower part of FIG. 11). ), The dangerous
一方、自車両の車速制御や操舵制御などで、自車両と先行車両との車間距離が、所定の許容最短車間距離Lthよりも近づかないように運転することができれば(図11の下段の実線)、危険事象判定部23は、危険事象が発生しないと判定し、当該個体特性モデルを安全なモデルと判定する。
On the other hand, if it is possible to drive the vehicle so that the distance between the vehicle and the preceding vehicle is not closer than the predetermined allowable shortest vehicle distance Lth by vehicle speed control or steering control of the vehicle (solid line in the lower part of FIG. 11). The dangerous
安全判定部20は、前述した安全検証を、安全検証用シナリオデータベース21に記憶されている全てのシナリオデータ(危険事象)に対して行い、各々のシーンでの個体特性モデルの安全性の検証を行う。
The
なお、前述した実施の形態では、自動制御装置1を、車両の個体適応制御に適用した場合を例示して説明したが、車両の個体適応制御に限定されるものではなく、その他の機器の個体適応制御にも適用することができる。
例えば、ドローンの飛行を地形や気象条件、飛行目的といったシーンに合わせて効率的に自動運転させるために、操作者の手動操作を学習する個体適応制御にも適用できる。
In the above-described embodiment, the case where the automatic control device 1 is applied to the individual adaptive control of the vehicle has been described as an example. However, the embodiment is not limited to the individual adaptive control of the vehicle. It can also be applied to adaptive control.
For example, the present invention can be applied to individual adaptive control that learns an operator's manual operation in order to efficiently and automatically drive a drone flight according to a scene such as terrain, weather conditions, and flight purpose.
また、工場などの製造現場や建設現場、採掘現場などで使用される機器を自動化するにあたって、熟練者の手動操作を学習する個体適応制御にも活用できる。 It can also be used for individual adaptive control that learns manual operations by skilled workers when automating equipment used at manufacturing sites such as factories, construction sites, and mining sites.
以上の通り、実施の形態では、
(1)車両などの移動体(機器)の操作を行う運転者(個体)を認証する個体認証部12と、移動体が置かれているシーンを判定するシーン判定部11と、運転者の個体特性を学習する個体特性学習部14と、運転者の個体特性に基づいて、運転者による移動体の手動操作を推定する手動操作推定部15と、シーン判定部11で判定された所定のシーンにおいて、運転者の個体特性に基づいて手動操作推定部15で推定した推定手動操作情報(推定手動操作)と、当該運転者による移動体の実際の手動操作情報51(手動操作)とを比較して、所定のシーンにおける学習進捗度を判定する学習進捗度判定部16と、シーン判定部11で判定された所定のシーンごとの学習進捗度の判定結果に基づいて、運転者の個体特性に適応した自動制御の実施または不実施を、シーンごとに決定する制御部17と、を有する構成とした。
As described above, in the embodiment,
(1) An
このように構成すると、自動制御装置1では、シーン判定部11で判定されたシーンごとに運転者の個体特性の学習進捗度を判定する学習進捗度判定部16を有しているので、制御部17では、このシーンごとに判定した学習進捗度に基づいて、個体適応制御の実施/または不実施を決定することができる。
If comprised in this way, in the automatic control apparatus 1, since it has the learning
また、学習進捗度判定部16は、シーン判定部11で判定されたシーンごとに学習進捗度を判定するようにしたので、制御部17は、シーンごとに個体適応制御を行うか否かの判定を行うことができ、学習進捗度の高いシーンから迅速に個体適応制御の実施を行うことができる。よって、運転者に違和感を与えることを防止することができる。
In addition, since the learning
(2)運転者の個体特性に適応した自動制御により移動体を操作した場合に、移動体が安全な状態を保てるか否かを判定する安全判定部20を、さらに有し、制御部17は、安全判定部20により、移動体が安全な状態を保てると判定された場合にのみ、運転者の個体特性に適応した自動制御を実施する構成とした。
(2) When the moving body is operated by automatic control adapted to the individual characteristics of the driver, the
このように構成すると、制御部17は、安全判定部20により、個体適応制御を行った結果、移動体が安全な状態を保てると判定された場合のみ個体適応制御を行うようにしたので、安全判定部20により、学習進捗度が高い場合であっても、移動体の安全が保てないと判定された場合には個体適応制御を行わない。
よって日常的に危険操作を行うような運転者の個体特性を学習してしまった場合でも、個体適応制御を実施しないことにより、移動体が危険な状態になることを防止できる。
With this configuration, the
Therefore, even if the individual characteristics of the driver who perform a dangerous operation on a daily basis are learned, it is possible to prevent the moving body from entering a dangerous state by not performing the individual adaptive control.
(3)シーン判定部11は、所定のシーンに含まれる少なくとも2以上の不連続な第1シーン(例えば、緩やかなカーブシーン)と、第2シーン(例えば、交差点シーン)とを判定し、制御部17は、学習進捗度判定部16により、少なくとも2以上の不連続な第1シーンと、第2シーンにおける学習進捗度の判定結果が何れも学習完了状態であると判定された場合に、運転者の個体特性に適応した自動制御を実施する構成とした。
(3) The
このように構成すると、学習進捗度判定部16は、所定の同一シーンに含まれる異なる2か所以上のシーンで学習進捗度を判定するので、所定の同一シーンのほとんど変わらない複数のシーンで学習進捗度を無駄に判定してしまうことを防ぐことができ、より確実に当該所定のシーンの学習進捗度を判定することができる。
With this configuration, the learning progress
(4)シーン判定部11は、所定のシーンに含まれる互いに所定距離離れた第3シーン(例えば、第1の直線シーン)と、第4シーン(例えば、第2の直線シーン)とを判定し、制御部17は、学習進捗度判定部16により、所定のシーンにおいて、互いに所定距離離れた第3シーンと、第4シーンにおける学習進捗度の判定結果がいずれも学習完了状態であると判定された場合に、運転者の個体特性に適応した自動制御を実施する構成とした。
(4) The
このように構成すると、学習進捗度判定部16は、所定の同一シーンに含まれる互いに所定距離離れた2か所以上のシーンで学習進捗度を判定するので、所定の同一シーンのほとんど変わらない位置の複数のシーンで学習進捗度を無駄に判定してしまうことを防ぐことができ、より確実に当該所定のシーンの学習進捗度を判定することができる。
With this configuration, the learning
(5)移動体が置かれているシーンを複数記憶するシーン判定基準データベース10を、さらに有し、シーン判定基準データベース10は、学習進捗度判定部16で判定された所定のシーンの学習進捗度の判定結果(差分R)が、所定の閾値Rthよりも低い場合、または学習進捗度判定部16で算出された所定のシーンの学習効率Kが、所定の閾値Kthよりも低い場合に、所定のシーン(例えば、カーブシーン)を、当該所定のシーン(カーブシーン)とは異なる他のシーン(例えば、緩やかなカーブシーンと急なカーブシーン)に変更する構成とした。
(5) It further includes a scene
どの運転者にとっても学習進捗度の著しく低いシーンは、シーンの分類に問題がある可能性が高く、このような学習進捗度の著しく低いシーンをいつまでも記憶していても、当該シーンにおいて適切な学習を行うことができない。また、このようなシーンの記憶を継続することは、データベースのメモリ容量を無駄に使うことになり、維持・管理コストも増加してしまう。
このように構成すると、学習進捗度の低いシーンを見直して、新たなシーンに再分類することで、再分類した新たなシーンでの学習を効率的に行うことができる。また、学習進捗度の著しく低いシーンを再分類して更新することで、データベースのメモリ容量の無駄をなくし、維持・管理コストの最適化を行うことができる。
Scenes with extremely low learning progress for any driver are likely to have a problem with the classification of the scene, and even if a scene with such extremely low learning progress is stored indefinitely, appropriate learning in that scene is possible. Can not do. Further, continuing to store such scenes wastes the memory capacity of the database and increases the maintenance and management costs.
With this configuration, it is possible to efficiently perform learning in the reclassified new scene by reviewing the scene with low learning progress and reclassifying the scene into a new scene. In addition, by reclassifying and updating scenes with extremely low learning progress, it is possible to eliminate waste of memory capacity of the database and optimize maintenance and management costs.
(6)学習進捗度判定部16は、変更された後の他のシーン(例えば、緩やかなカーブシーンと急なカーブシーン)の学習進捗度の判定を、変更される前の所定のシーン(例えば、カーブシーン)の学習進捗度の判定に用いた推定手動操作情報(個体特性モデル)と、移動体の実際の手動操作情報51とを比較することで行い、
シーン判定基準データベース10は、他のシーン(例えば、緩やかなカーブシーンと急なカーブシーン)における、学習進捗度の判定結果が所定の閾値以上である場合、他のシーン(例えば、緩やかなカーブシーンと急なカーブシーン)を所定のシーン(例えば、カーブシーン)に置き換えて記憶する構成とした。
(6) The learning progress
When the learning progress determination result in a different scene (for example, a gentle curve scene and a steep curve scene) is equal to or greater than a predetermined threshold, the scene
このように構成すると、変更される前のシーンの推定手動操作情報(個体特性モデル)を有効に活用することがき、シーン判定基準データベース10の更新処理を迅速に行うことができる。
If comprised in this way, the estimated manual operation information (individual characteristic model) of the scene before a change can be utilized effectively, and the update process of the scene determination reference |
[シーン一致度検証部]
なお、前述した実施の形態では、学習効率Kの著しく低い所定のシーンを細分化して、新たなシーンに再分類する場合を例示して説明したが、これに限定されるものではない。例えば、細分化された2以上のシーンを纏めて大分類のシーンに再分類してもよい。
また、シーンの学習効率Kに関わらず、一のシーンと他のシーンが一致すると判定された場合には、一つのシーンに再分類しても良い。
[Scene coincidence verification unit]
In the above-described embodiment, the case where a predetermined scene with extremely low learning efficiency K is subdivided and reclassified into a new scene is described as an example. However, the present invention is not limited to this. For example, two or more subdivided scenes may be collected and reclassified into a large classification scene.
In addition, regardless of the learning efficiency K of the scene, when it is determined that one scene matches another scene, the scene may be reclassified into one scene.
次に、他の実施の形態にかかる自動制御装置1のシーン一致度検証部30を説明する。
図12は、シーン一致度検証部30を説明するブロック図である。
Next, the scene matching
FIG. 12 is a block diagram for explaining the scene matching
図12に示すように、シーン一致度検証部30は、走行シーンシナリオデータベース31と、再分類判定部32とを有している。
As illustrated in FIG. 12, the scene matching
走行シーンシナリオデータベース31は、シーン判定基準データベース10に記憶されている各々のシーンを含む走行シーンシナリオが複数保存されている。
ここで、走行シーンシナリオは、車両などの移動体が走行する道路の所定のシーンと、移動体が当該所定のシーンを走行する際の環境情報を含んだ情報(シナリオ)である。
The traveling
Here, the traveling scene scenario is information (scenario) including a predetermined scene on a road on which a moving body such as a vehicle travels and environment information when the moving body travels on the predetermined scene.
走行模擬部22は、走行シーンシナリオデータベース31から、全ての走行シーンシナリオを読み出すと共に、個体特性学習部14で生成された、走行シーンシナリオに含まれる各シーンに対応する個体特性モデルを読み出す。
The traveling
走行模擬部22では、例えば、読み出した全ての走行シーンシナリオの内の一つに対して、読み出した全ての個体特性モデルを一つ一つ当て嵌めて走行シミュレーション(模擬走行)を実行する。そして、走行模擬部22では、読み出した全ての走行シーンシナリオについて、同じ処理を実行する。
For example, the traveling
再分類判定部32では、走行模擬部22での走行シミュレーション(模擬走行)の結果、走行シミュレーションが一致(または類似)する複数の走行シーンシナリオ(例えば、勾配の緩やかな直線シーンシナリオと勾配の急な直線シーンシナリオ)を、一つに纏めて新たな走行シーンシナリオ(例えば、直線シーンシナリオ)を作成する。
In the
これにより、走行シーンシナリオデータベース31に記憶される走行シーンシナリオ(シーン判定基準データベース10に記憶されるシーン)の数を減らすことができる。よって、シーンを記憶するシーン判定基準データベース10のメモリ領域を少なくすることができ、メモリ領域が膨大になることによる自動制御装置1の製造、管理コストの増加を防止することができる。
Thereby, the number of driving scene scenarios (scenes stored in the scene determination reference database 10) stored in the driving
<第2の実施の形態>
次に、第2の実施の形態にかかる自動制御装置1Aを説明する。
第2の実施の形態にかかる自動制御装置1Aを、介護を必要としている者(以下、要介護者又は見守り対象者という)の見守り介護システムにおいて、当該介護システムの個体特性の学習に適用した場合を例示して説明する。
図13は、第2の実施の形態にかかる自動制御装置1Aを説明するブロック図である。なお、前述した実施の形態と同様の構成については、同一の番号を付し、必要に応じて説明する。
<Second Embodiment>
Next, an
When the
FIG. 13 is a block diagram illustrating an
[自動制御装置]
図13に示すように、自動制御装置1Aでは、要介護者環境情報53が、シーン判定部11に入力されるようになっている。
要介護者環境情報53は、要介護者(見守り対象者)の周囲の情報(気象、位置、要介護者が興味を示している物体情報など)の外部環境情報と、要介護者の生体情報や移動速度などの内部環境情報が含まれる。
[Automatic control device]
As shown in FIG. 13, in the automatic control device 1 </ b> A, care recipient environment information 53 is input to the
The care recipient environment information 53 includes external environment information such as information around the care recipient (person to be watched) (weather, location, object information that the care recipient is interested in), and biological information of the care recipient. And internal environment information such as travel speed.
要介護者環境情報53は、要介護者が入所する施設内やインフラ側に取り付けられたカメラなどで収集してもよく、要介護者が身につけるウェアラブル端末で収集してもよい。 The care recipient environment information 53 may be collected by a camera or the like attached to the facility or the infrastructure side where the care recipient enters, or may be collected by a wearable terminal worn by the care recipient.
過去情報データベース13には、介護者判断情報54が入力されるようになっている。介護者判断情報54は、介護者(要介護者を介護する者)が周囲の状況を確認し、判断した危険度の情報であり、過去情報データベース13の所定のメモリアドレスに記憶されている。介護者判断情報54は、介護者による入力(危険度の判断結果)がない場合、危険度が0(ゼロ)の判断が行われたとする。
The caregiver determination information 54 is input to the
また、自動制御装置1Aでは、危険事象判定部18を有している。
危険事象判定部18は、現在の要介護者環境情報53と、個体特性学習部14で生成された個体特性モデルと、が入力されている。危険事象判定部18は、これらの入力された要介護者環境情報53と、個体特性モデルとから危険事象の有無の判断や、危険事象の発生確率の推定を行う。
Further, the
The dangerous
ここで、危険事象とは、一例として、要介護者が交通量の多い道に近づいたり、怪我や落下の危険性のある対象物に興味を持っている状況を意味する。 Here, the dangerous event means, for example, a situation in which a care recipient is approaching a road with a lot of traffic or is interested in an object with a risk of injury or dropping.
学習進捗度判定部16は、危険事象判定部18での危険事象の判定結果と、介護者判断情報54(介護者の危険度の判断結果)とを比較し、この差分Rが小さいほど、当該シーンにおける個体特性の学習進捗度が高いと判定する。
The learning
そして、制御部17では、学習進捗度が高いと判定されたシーンから、個体適応学制御を実施し、学習進捗度が低いと判定されたシーンについては、学習進捗度が高いと判定されるまで個体適応制御を実施しない。
Then, the
[個体適応制御]
次に、第2の実施の形態にかかる自動制御装置1Aにおける個体適応制御の流れを説明する。
図14は、個体適応制御の流れを説明するフローチャートである。
[Individual adaptive control]
Next, the flow of individual adaptive control in the
FIG. 14 is a flowchart for explaining the flow of individual adaptive control.
ステップS701において、見守り介護システムの全体制御部(図示せず)では、各データ収集及び個体特性の学習のトリガとして、見守り介護システムの制御が許可されているか否かを判定する。 In step S701, an overall control unit (not shown) of the watching care system determines whether control of the watching care system is permitted as a trigger for collecting each data and learning individual characteristics.
全体制御部(図示せず)は、制御が許可されていると判定した場合(ステップS701:Yes)、ステップS702に進み、制御が許可されていないと判定した場合(ステップS701:No)、本処理を終了する。
制御許可の判定は、介護者の見守り介護システムの起動スイッチのON/OFFを基準に行ってもよく、見守り介護システムの電源のON/OFFを基準に行ってもよい。
When it is determined that the control is permitted (step S701: Yes), the overall control unit (not shown) proceeds to step S702, and when it is determined that the control is not permitted (step S701: No), this End the process.
The determination of the control permission may be performed based on ON / OFF of the start switch of the caregiver's watching care system, or may be performed based on the ON / OFF of the power supply of the watching care system.
ステップS702において、見守り介護システムの全体制御部(図示せず)は、要介護者の周囲の環境情報(要介護者環境情報53)を取得し、過去情報データベース13に送信する。
In step S <b> 702, the overall control unit (not shown) of the watch-care system acquires environmental information around the care recipient (care recipient environment information 53) and transmits it to the
ステップS703において、制御部17は、個体適応判断が許可されているか否かを判定する。制御部17は、個体適応判断が許可されていると判定した場合(ステップS703:Yes)、ステップS704に進み、個体適応判断が許可されていないと判定された場合(ステップS703:No)、ステップS706に進み、予め初期設定(デフォルト)された制御を実施する。
In step S703, the
ステップS704において、学習進捗度判定部16は、現在のシーンにおいて、個体特性の学習が完了しているか否かを判定する。学習進捗度判定部16は、現在のシーンにおいて、学習進捗度が所定の閾値よりも高いと判定した場合(ステップS704:Yes)、ステップS705に進み、学習進捗度が所定の閾値よりも低いと判定した場合(ステップS704:No)、ステップS706に進み、予め初期設定(デフォルト)された制御を実施する。
In step S704, the learning
そして、ステップS705において、制御部17は、個体適応制御を実施して処理を終了する。
In step S705, the
[過去情報データベースの更新処理]
次に、過去情報データベース13の更新処理を説明する。
図15は、過去情報データベース13の更新処理のフローチャートである。
[Update processing of past information database]
Next, the update process of the
FIG. 15 is a flowchart of the update process of the
ステップS801において、個体認証部12は、現在の要介護者の個体認証情報52を取得する。
In step S801, the
ステップS802において、個体認証部12は、ステップS801で取得した現在の要介護者の個体認証情報52が、過去情報データベース13にすでに記憶されているか否かを判定する。個体認証部12は、個体認証情報52が、過去情報データベース13にすでに記憶されていると判定した場合(ステップS802:Yes)、ステップS803に進む。
In step S <b> 802, the
ステップS803において、個体認証部12は、当該要介護者の個体認証情報52が記憶されている過去情報データベース13上のメモリアドレスを取得し、ステップS804に進む。
In step S803, the
一方、個体認証部12は、当該要介護者の個体認証情報52が、過去情報データベース13に記憶されていないと判定した場合(ステップS802:No)、ステップS808に進む。
On the other hand, if the
ステップS808において、個体認証部12は、過去情報データベース13上に、現在の要介護者の個体認証情報52を記憶する新たなメモリアドレスを設定し、ステップS804に進む。
In step S808, the
ステップS804において、シーン判定部11は、要介護者環境情報53を取得して、ステップS805に進む。
In step S804, the
ステップS805において、シーン判定部11は、シーン判定基準データベース10から取得したシーンの判定に必要なパラメータと、ステップS804で取得した要介護者環境情報53とに基づいて、当該シーンを判定する。
In step S805, the
ステップS806において、自動制御装置1Aの全体制御部(図示せず)は、介護者の危険度判断情報(介護者判断情報54)を取得する。
In step S806, the overall control unit (not shown) of the
ステップS807において、自動制御装置1Aの全体制御部(図示せず)は、取得した要介護者環境情報53と介護者判断情報54とを、過去情報データベース13と危険事象判定部18とにそれぞれ送信して処理を終了する。
In step S807, the overall control unit (not shown) of the
[重み付け処理]
なお、前述した要介護者の危険事象の学習において、学習進捗度判定部16で危険事象を判断した結果の差分の算出にあたり、介護者が近くにいるか、見守り介護システムにより介護者にアラートを出したときの介護者の判断との差分に基づいて重みを付けるようにしてもよい。
これにより、介護者が危険事象を認知できなかった際に、見守り介護システムが、危険ではなかったと誤って学習してしまうことを防ぐことができる。
[Weighting process]
In the above-mentioned learning of a care recipient's risk event, the calculation of the difference between the results of the determination of the risk event by the learning
Thereby, when the caregiver cannot recognize the dangerous event, it is possible to prevent the watch-care system from accidentally learning that it was not dangerous.
次に、介護者の危険度判断と、見守り介護システムによる危険度判断との差分に重みをつける処理を説明する。
図16は、重み決定処理のフローチャートである。
Next, a process for weighting the difference between the caregiver's risk determination and the risk determination by the watching care system will be described.
FIG. 16 is a flowchart of the weight determination process.
初めに、ステップS901において、見守り介護システムの全体制御部(図示せず)は、介護者による危険事象の判断の入力があったか否かを判定する。危険事象の入力があったと判定した場合(ステップS901:Yes)、ステップS902に進み重みW1が選択される。 First, in step S901, the overall control unit (not shown) of the watching and nursing care system determines whether or not the caregiver has received an input for judging a dangerous event. When it is determined that a dangerous event has been input (step S901: Yes), the process proceeds to step S902, and the weight W1 is selected.
このステップS901で選択された重みW1は、0〜1の範囲で設定され、例えば、介護者が指定した危険事象の発生から危険事象の判断の入力までの経過時間に応じて小さくするようにしてもよい。また、危険度判定を行う介護者ごとに個別に設定してもよい。 The weight W1 selected in this step S901 is set in the range of 0 to 1, and for example, the weight W1 is made smaller according to the elapsed time from the occurrence of the dangerous event designated by the caregiver to the input of the judgment of the dangerous event. Also good. Moreover, you may set separately for every caregiver who performs a risk determination.
ステップS901において、見守り介護システムの全体制御部(図示せず)は、危険事象の入力がないと判定した場合(ステップS901:No)、ステップS904に進んで、介護者が要介護者(見守り対象者)に意識を向けているか否かを判定する。 In step S901, when the overall control unit (not shown) of the watching care system determines that there is no input of a dangerous event (step S901: No), the process proceeds to step S904, where the caregiver is in need of caregiver (watching target). Determine whether or not they are paying attention to
ステップS904において、見守り介護システムの全体制御部(図示せず)は、介護者が要介護者(見守り対象者)に意識を向けていると判定した場合(ステップS904:Yes)、ステップS905に進み重みW2が選択される。 In step S904, if the overall control unit (not shown) of the watching care system determines that the caregiver is paying attention to the care recipient (person to be watched) (step S904: Yes), the process proceeds to step S905. A weight W2 is selected.
ここで、ステップS905で選択された重みW2は、ステップS902で選択された重みW1よりも小さい値に設定されている。この重みW2は、例えば、重みW1に0〜1の範囲の係数を掛けることで算出できる。 Here, the weight W2 selected in step S905 is set to a value smaller than the weight W1 selected in step S902. The weight W2 can be calculated, for example, by multiplying the weight W1 by a coefficient in the range of 0-1.
また、ステップS904において、介護者が意識を向けているか否かの判断は、要介護者環境情報53を取得するための各種センサを用い、例えば、介護者の目線や顔、体が要介護者(見守り対象者)の方向に向けられていれば、意識が向けられていると判定することができる。 In step S904, whether or not the caregiver is paying attention is determined by using various sensors for acquiring the care recipient environment information 53. For example, the caregiver's eyes, face, and body are the care recipient. If it is directed in the direction of (the person to be watched over), it can be determined that the consciousness is directed.
ステップS904において、見守り介護システムの全体制御部(図示せず)は、介護者が要介護者(見守り対象者)に意識を向けていないと判定した場合(ステップS904:No)、ステップS906に進んで、介護者が要介護者(見守り対象者)を見通せる場所にいるか否かを判定する。 In step S904, if the overall control unit (not shown) of the watching care system determines that the caregiver is not paying attention to the care recipient (the person to watch over) (step S904: No), the process proceeds to step S906. Thus, it is determined whether or not the caregiver is in a place where the care recipient (person to be watched over) can be seen.
ステップS906において、見守り介護システムの全体制御部(図示せず)は、介護者が要介護者(見守り対象者)を視認可能であると判定した場合(ステップS906:Yes)、ステップS907に進み重みW3が選択される。 In step S906, when the overall control unit (not shown) of the watching care system determines that the caregiver can visually recognize the care recipient (person to be watched) (step S906: Yes), the process proceeds to step S907. W3 is selected.
ここで、ステップS907で選択された重みW3は、ステップS905で選択した重みW2よりも小さい値に設定されている。例えば、重みW3は、介護者と要介護者(見守り対象者)との距離に応じて小さくなる、0〜1の範囲の係数を重みW2にかけることで算出できる。 Here, the weight W3 selected in step S907 is set to a value smaller than the weight W2 selected in step S905. For example, the weight W <b> 3 can be calculated by multiplying the weight W <b> 2 by a coefficient in the range of 0 to 1 that decreases according to the distance between the caregiver and the care recipient (monitoring target person).
ステップS906において、見守り介護システムの全体制御部(図示せず)は、介護者が要介護者(見守り対象者)を見通せない位置にいると判定した場合(ステップS906:No)、ステップS908に進み重みW4が選択される。 In step S906, when the overall control unit (not shown) of the watching care system determines that the caregiver is in a position where the care recipient (the person to watch over) cannot be seen (step S906: No), the process proceeds to step S908. A weight W4 is selected.
ここで、ステップS908で選択された重みW4は、ステップS902で選択された重みW1よりも小さい値に設定されている。この重みW4は、重みW1に0〜1の範囲の係数を掛けることで算出できる。 Here, the weight W4 selected in step S908 is set to a value smaller than the weight W1 selected in step S902. The weight W4 can be calculated by multiplying the weight W1 by a coefficient in the range of 0-1.
重みW1〜W4が設定された後、ステップS903において、介護者による危険度の判断結果と、見守り介護システムによる危険度の判断結果との差分に、ステップS902、ステップS905、ステップS907、ステップS908で選択した重みW1、W2、W3、W4を掛け合わせる。 After the weights W1 to W4 are set, in step S903, the difference between the determination result of the risk level by the caregiver and the determination result of the risk level by the watching care system is set in step S902, step S905, step S907, and step S908. Multiply the selected weights W1, W2, W3, and W4.
ステップS909において、重み付け後の差分の累積値(例えば、各シーンの平均値)を算出して処理を終了する。 In step S909, a cumulative value of weighted differences (for example, an average value of each scene) is calculated, and the process ends.
前述した見守り介護システムにおける危険事象の判断結果は、人間が参照して適宜、要介護者(見守り対象者)の様子を確認するのに用いるだけでなく、要介護者に付き添い、危険事象が発生すると予測される場合にそれを回避するように働くロボットに対して、本危険事象の推定結果を出力するようにしてもよい。 The above-mentioned judgment result of the dangerous event in the watching care system is used not only to confirm the state of the care recipient (person to be watched over) as appropriate by human reference, but also accompanying the care recipient and a dangerous event occurs. Then, the estimation result of this dangerous event may be output to a robot that works so as to avoid it when predicted.
以上説明した通り、実施の形態では、
要介護者(見守り対象者)に対して、これまで介護者が付き添えない場合には、危険事象の発生を防止するために要介護者の行動を制限する必要があった。しかし、前述した見守り介護システムは、介護者の代わりに要介護者の個々の能力に合った安全な範囲での行動か否かを判定することができる。
この結果、介護者の負担を軽減しつつ、要介護者の行動範囲、可能性を増加させて、要介護者の生活の質向上を図ることができる。
As described above, in the embodiment,
In the case where a caregiver has not been able to accompany a care recipient (person to be watched over), it has been necessary to limit the actions of the care recipient in order to prevent the occurrence of a dangerous event. However, the above-described watching care system can determine whether or not the action is within a safe range suitable for the individual ability of the care recipient instead of the caregiver.
As a result, while reducing the burden on the caregiver, it is possible to improve the quality of life of the care recipient by increasing the action range and possibility of the care recipient.
なお、前述した第1の実施の形態にかかる自動制御装置1と、第2の実施の形態にかかる自動制御装置1Aとを組み合わせてもよく、他の実施の形態と組み合わせてもよい。
The automatic control device 1 according to the first embodiment described above and the
1、1A:自動制御装置、10:シーン判定基準データベース、11:シーン判定部、12:個体認証部、13:過去情報データベース、14:個体特性学習部、15:手動操作推定部、16:学習進捗度判定部、17:制御部、20:安全判定部、21:安全検証用シナリオデータベース、22:走行模擬部、23:危険事象判定部、30:シーン一致度検証部、31:走行シーンシナリオデータベース、32:再分類判定部、50:環境情報、51:手動操作情報、52:個体認証情報 1, 1A: automatic control device, 10: scene determination reference database, 11: scene determination unit, 12: individual authentication unit, 13: past information database, 14: individual characteristic learning unit, 15: manual operation estimation unit, 16: learning Progress level determination unit, 17: control unit, 20: safety determination unit, 21: scenario database for safety verification, 22: travel simulation unit, 23: dangerous event determination unit, 30: scene matching level verification unit, 31: travel scene scenario Database: 32: Reclassification determination unit, 50: Environment information, 51: Manual operation information, 52: Individual authentication information
Claims (11)
前記機器が置かれているシーンを判定するシーン判定部と、
前記個体の個体特性を学習する個体特性学習部と、
前記個体の個体特性に基づいて、前記個体による前記機器の手動操作を推定する手動操作推定部と、
前記シーン判定部で判定された所定のシーンにおいて、前記個体の個体特性に基づいて前記手動操作推定部で推定した推定手動操作と、当該個体による前記機器の実際の手動操作とを比較して、前記所定のシーンにおける学習進捗度を判定する学習進捗度判定部と、
前記シーン判定部で判定された前記所定のシーンごとの前記学習進捗度の判定結果に基づいて、前記個体の個体特性に適応した自動制御の実施または不実施を、前記シーンごとに決定する制御部と、を有する自動制御装置。 An individual authentication unit for authenticating an individual that operates the device;
A scene determination unit for determining a scene in which the device is placed;
An individual characteristic learning unit for learning the individual characteristic of the individual;
Based on the individual characteristics of the individual, a manual operation estimation unit that estimates manual operation of the device by the individual,
In the predetermined scene determined by the scene determination unit, comparing the estimated manual operation estimated by the manual operation estimation unit based on the individual characteristics of the individual and the actual manual operation of the device by the individual, A learning progress determination unit for determining the learning progress in the predetermined scene;
A control unit that determines, for each scene, whether or not to perform automatic control adapted to individual characteristics of the individual based on the determination result of the learning progress for each predetermined scene determined by the scene determination unit And an automatic control device.
前記制御部は、
前記安全判定部により、前記機器が安全な状態を保てると判定された場合にのみ、前記個体の個体特性に適応した自動制御を実施する請求項1に記載の自動制御装置。 When the device is operated by automatic control adapted to the individual characteristics of the individual, further comprising a safety determination unit that determines whether the device can maintain a safe state,
The controller is
The automatic control device according to claim 1, wherein automatic control adapted to individual characteristics of the individual is performed only when the safety determination unit determines that the device can maintain a safe state.
前記制御部は、
前記学習進捗度判定部により、前記少なくとも2以上の不連続な前記第1シーンと、前記第2シーンにおける学習進捗度の判定結果が何れも学習完了状態であると判定された場合に、前記個体の個体特性に適応した自動制御を実施する請求項2に記載の自動制御装置。 The scene determination unit determines at least two or more discontinuous first scenes and second scenes included in the predetermined scene,
The controller is
When the learning progress determination unit determines that the determination result of the learning progress in the at least two discontinuous first scenes and the second scene is in a learning completed state, the individual The automatic control device according to claim 2, wherein automatic control adapted to the individual characteristics of the automatic control device is performed.
前記制御部は、
前記学習進捗度判定部により、前記所定のシーンにおいて、互いに所定距離離れた前記第3シーンと、前記第4シーンにおける学習進捗度の判定結果がいずれも学習完了状態であると判定された場合に、前記個体の個体特性に適応した自動制御を実施する請求項2に記載の自動制御装置。 The scene determination unit determines a third scene and a fourth scene included in the predetermined scene and separated from each other by a predetermined distance,
The controller is
When the learning progress determination unit determines that both of the determination results of the learning progress in the third scene and the fourth scene that are separated from each other in the predetermined scene are in a learning completed state. The automatic control device according to claim 2, wherein automatic control adapted to individual characteristics of the individual is performed.
前記シーン判定基準データベースは、
前記学習進捗度判定部で判定された前記所定のシーンの学習進捗度の判定結果が、所定の閾値よりも低い場合、または前記学習進捗度判定部で算出された前記所定のシーンの学習効率が、所定の閾値よりも低い場合に、前記所定のシーンを、当該所定のシーンとは異なる他のシーンに変更する請求項2に記載の自動制御装置。 A scene criterion database for storing a plurality of scenes in which the devices are placed;
The scene criteria database is
When the learning progress determination result of the predetermined scene determined by the learning progress determination unit is lower than a predetermined threshold, or the learning efficiency of the predetermined scene calculated by the learning progress determination unit is 3. The automatic control device according to claim 2, wherein when the value is lower than a predetermined threshold, the predetermined scene is changed to another scene different from the predetermined scene.
前記シーン判定基準データベースは、前記他のシーンにおける、前記学習進捗度の判定結果が所定の閾値以上である場合、当該他のシーンを前記一のシーンに置き換えて記憶する請求項5に記載の自動制御装置。 The learning progress determination unit is configured to determine the learning progress of the other scene after the change, the estimated manual operation used to determine the learning progress of the predetermined scene before the change, and the device By comparing with the actual manual operation of
6. The automatic determination according to claim 5, wherein the scene determination criterion database stores the other scene by replacing the other scene with the one scene when the determination result of the learning progress in the other scene is equal to or greater than a predetermined threshold. Control device.
前記シーン一致度検証部は、
前記一のシーンにおける前記個体の個体特性から記手動特性推定部により推定された一の推定手動操作を前記他のシーンに適用して、前記学習進捗度判定部により判定された学習進捗度の判定結果と、
前記他のシーンにおける個体の個体特性から前記手動操作推定部により推定された他の推定手動操作を前記一のシーンに適用して、前記学習進捗度により判定された学習進捗度の判定結果と、を比較して、
前記比較結果が、所定の閾値よりも小さい場合、前記一のシーンと前記他のシーンとを共通のシーンに纏めて前記シーン判定基準データベースを更新する請求項6に記載の自動制御装置。 A scene matching level verification unit that verifies the matching level between one scene and the other scene among the plurality of scenes included in the scene determination reference database;
The scene matching degree verification unit
Applying one estimated manual operation estimated by the manual characteristic estimating unit from the individual characteristics of the individual in the one scene to the other scene, and determining the learning progress determined by the learning progress determining unit Result and
Applying another estimated manual operation estimated by the manual operation estimation unit from the individual characteristics of the individual in the other scene to the one scene, the determination result of the learning progress determined by the learning progress, Compare
The automatic control apparatus according to claim 6, wherein when the comparison result is smaller than a predetermined threshold, the scene determination reference database is updated by combining the one scene and the other scene into a common scene.
前記機器が置かれているシーンを判定するシーン判定工程と、
前記個体の個体特性を学習する個体特性学習工程と、
前記個体の個体特性に基づいて、前記個体による前記機器の手動操作を推定する手動操作推定工程と、
前記シーン判定工程で判定された所定のシーンにおいて、前記個体の個体特性に基づいて前記手動操作推定工程で推定した推定手動操作と、当該個体による前記機器の実際の手動操作とを比較して、前記所定のシーンにおける学習進捗度を判定する学習進捗度判定工程と、
前記シーン判定工程で判定された前記所定のシーンごとの前記学習進捗度の判定結果に基づいて、前記個体の個体特性に適応した自動制御の実施または不実施を、前記シーンごとに決定する制御工程と、を有する自動制御装置の制御方法。 An individual authentication process for authenticating an individual who operates the device;
A scene determination step for determining a scene in which the device is placed;
An individual characteristic learning step of learning the individual characteristics of the individual;
A manual operation estimating step of estimating a manual operation of the device by the individual based on the individual characteristics of the individual;
In the predetermined scene determined in the scene determination step, comparing the estimated manual operation estimated in the manual operation estimation step based on the individual characteristics of the individual and the actual manual operation of the device by the individual, A learning progress determination step of determining a learning progress in the predetermined scene;
A control step for determining, for each scene, whether or not to perform automatic control adapted to individual characteristics of the individual based on the determination result of the learning progress for each predetermined scene determined in the scene determination step. And a control method for an automatic control device.
前記制御工程は、
前記学習進捗度判定工程により、前記少なくとも2以上の不連続な前記第1シーンと、前記第2シーンにおける学習進捗度の判定結果が何れも学習完了状態であると判定された場合に、前記個体の個体特性に適応した自動制御を実施する請求項8に記載の自動制御装置の制御方法。 The scene determination step determines at least two or more discontinuous first scenes and second scenes included in the predetermined scene,
The control step includes
When the learning progress determination step determines that the determination results of the learning progress in the at least two discontinuous first scenes and the second scene are both in a learning completion state, the individual The control method of the automatic control apparatus according to claim 8, wherein automatic control adapted to individual characteristics of the automatic control device is performed.
前記制御工程は、
前記学習進捗度判定工程により、前記所定のシーンにおいて、互いに所定距離離れた前記第3シーンと、前記第4シーンにおける学習進捗度の判定結果がいずれも学習完了状態であると判定された場合に、前記個体の個体特性に適応した自動制御を実施する請求項8に記載の自動制御装置の制御方法。 The scene determination step determines a third scene and a fourth scene included in the predetermined scene and separated from each other by a predetermined distance,
The control step includes
When it is determined in the learning progress determination step that the determination results of the learning progress in the third scene and the fourth scene that are separated from each other in the predetermined scene are in a learning completed state. The control method of the automatic control device according to claim 8, wherein automatic control adapted to individual characteristics of the individual is performed.
前記シーン判定基準データベースに含まれる複数のシーンのうち、一のシーンと他のシーンの一致度を検証するシーン一致度検証工程を、さらに有し、
前記シーン一致度検証工程は、
前記一のシーンにおける前記個体の個体特性から記手動特性推定工程により推定された一の推定手動操作を前記他のシーンに適用して、前記学習進捗度判定工程により判定された学習進捗度の判定結果と、
前記他のシーンにおける個体の個体特性から前記手動操作推定工程により推定された他の推定手動操作を前記一のシーンに適用して、前記学習進捗度により判定された学習進捗度の判定結果と、を比較する比較工程と、
前記比較結果が、所定の閾値よりも小さい場合、前記一のシーンと前記他のシーンとを共通のシーンに纏めて前記シーン判定基準データベースを更新する更新工程と、を有する請求項8に記載の自動制御装置の制御方法。
A scene criterion database for storing a plurality of scenes in which the devices are placed;
A scene matching level verification step of verifying the matching level between one scene and the other scene among the plurality of scenes included in the scene determination reference database;
The scene matching degree verification step includes:
Applying one estimated manual operation estimated by the manual characteristic estimating step from the individual characteristics of the individual in the one scene to the other scene, and determining the learning progress determined by the learning progress determining step Result and
Applying another estimated manual operation estimated by the manual operation estimation step from the individual characteristics of the individual in the other scene to the one scene, the determination result of the learning progress determined by the learning progress, A comparison process for comparing
The update step of updating the scene determination reference database by combining the one scene and the other scene into a common scene when the comparison result is smaller than a predetermined threshold value. Control method of automatic control device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017128910A JP6924629B2 (en) | 2017-06-30 | 2017-06-30 | Automatic control device and its control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017128910A JP6924629B2 (en) | 2017-06-30 | 2017-06-30 | Automatic control device and its control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019010967A true JP2019010967A (en) | 2019-01-24 |
JP6924629B2 JP6924629B2 (en) | 2021-08-25 |
Family
ID=65226268
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017128910A Active JP6924629B2 (en) | 2017-06-30 | 2017-06-30 | Automatic control device and its control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6924629B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020246075A1 (en) * | 2019-06-04 | 2020-12-10 | ソニー株式会社 | Action control device, action control method, and program |
JP2021052726A (en) * | 2019-10-02 | 2021-04-08 | 株式会社クボタ | Work vehicle and work management system |
CN113859246A (en) * | 2020-06-30 | 2021-12-31 | 广州汽车集团股份有限公司 | Vehicle control method and device |
JP2022058566A (en) * | 2021-01-19 | 2022-04-12 | バイドゥ ユーエスエイ エルエルシー | Autonomous traveling vehicle dynamic model evaluation package |
DE112020007044T5 (en) | 2020-04-09 | 2023-08-17 | Mitsubishi Electric Corporation | Teaching data generating device and teaching data generating method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04216107A (en) * | 1990-12-17 | 1992-08-06 | Nippon Telegr & Teleph Corp <Ntt> | Remote control system for intelligent parameter remote adjustment type semi-self-control robot |
WO2013018220A1 (en) * | 2011-08-04 | 2013-02-07 | トヨタ自動車 株式会社 | Vehicle-use information processing device and vehicle-use information processing method |
-
2017
- 2017-06-30 JP JP2017128910A patent/JP6924629B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04216107A (en) * | 1990-12-17 | 1992-08-06 | Nippon Telegr & Teleph Corp <Ntt> | Remote control system for intelligent parameter remote adjustment type semi-self-control robot |
WO2013018220A1 (en) * | 2011-08-04 | 2013-02-07 | トヨタ自動車 株式会社 | Vehicle-use information processing device and vehicle-use information processing method |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020246075A1 (en) * | 2019-06-04 | 2020-12-10 | ソニー株式会社 | Action control device, action control method, and program |
JP2021052726A (en) * | 2019-10-02 | 2021-04-08 | 株式会社クボタ | Work vehicle and work management system |
JP7260450B2 (en) | 2019-10-02 | 2023-04-18 | 株式会社クボタ | Work vehicle and work management system |
DE112020007044T5 (en) | 2020-04-09 | 2023-08-17 | Mitsubishi Electric Corporation | Teaching data generating device and teaching data generating method |
CN113859246A (en) * | 2020-06-30 | 2021-12-31 | 广州汽车集团股份有限公司 | Vehicle control method and device |
CN113859246B (en) * | 2020-06-30 | 2023-09-08 | 广州汽车集团股份有限公司 | Vehicle control method and device |
JP2022058566A (en) * | 2021-01-19 | 2022-04-12 | バイドゥ ユーエスエイ エルエルシー | Autonomous traveling vehicle dynamic model evaluation package |
JP7345577B2 (en) | 2021-01-19 | 2023-09-15 | バイドゥ ユーエスエイ エルエルシー | Dynamic model evaluation package for autonomous vehicles |
Also Published As
Publication number | Publication date |
---|---|
JP6924629B2 (en) | 2021-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6924629B2 (en) | Automatic control device and its control method | |
CN110834644B (en) | Vehicle control method and device, vehicle to be controlled and storage medium | |
Noh et al. | Decision-making framework for automated driving in highway environments | |
CN112805198B (en) | Personal driving style learning for autonomous driving | |
EP3727978B1 (en) | Method and system for ensemble vehicle control prediction in autonomous driving vehicles | |
Yu et al. | A human-like game theory-based controller for automatic lane changing | |
KR102461831B1 (en) | System and Method for Improving of Advanced Deep Reinforcement Learning Based Traffic in Non signalalized Intersections for the Multiple Self driving Vehicles | |
US11565716B2 (en) | Method and system for dynamically curating autonomous vehicle policies | |
CN113811473A (en) | Autonomous vehicle system | |
Butakov et al. | Driving autopilot with personalization feature for improved safety and comfort | |
CN111507372A (en) | Method and apparatus | |
CN113799797A (en) | Trajectory planning method and device, storage medium and electronic equipment | |
CN111833597B (en) | Autonomous decision making in traffic situations with planning control | |
CN113370996B (en) | Automatic driving lane change following decision method and system and automatic driving vehicle | |
WO2018220418A1 (en) | Driving assistance method and system | |
CN113085873B (en) | Method and device for acquiring driving strategy, computer equipment and storage medium | |
CN115179959A (en) | Intelligent driving vehicle behavior prediction method based on self-adaptive updating threshold of driving road | |
CN112829769A (en) | Hybrid planning system for autonomous vehicles | |
CN113734193A (en) | System and method for estimating take over time | |
WO2022044210A1 (en) | Driving assistance device, learning device, driving assistance method, driving assistance program, learned model generation method, and learned model generation program | |
Lidstrom et al. | Model-based estimation of driver intentions using particle filtering | |
CN115092181A (en) | Vehicle control method and device, storage medium and processor | |
US20220388534A1 (en) | Method and system for predicting behavior of actors in an environment of an autonomous vehicle | |
JP7233299B2 (en) | Driving behavior control method and driving behavior control device | |
Tomar et al. | Automated highway overtaking: A perspective from decision-making |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210304 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210713 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210802 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6924629 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |