JP2019010967A - Automatic controller, and method for controlling the same - Google Patents

Automatic controller, and method for controlling the same Download PDF

Info

Publication number
JP2019010967A
JP2019010967A JP2017128910A JP2017128910A JP2019010967A JP 2019010967 A JP2019010967 A JP 2019010967A JP 2017128910 A JP2017128910 A JP 2017128910A JP 2017128910 A JP2017128910 A JP 2017128910A JP 2019010967 A JP2019010967 A JP 2019010967A
Authority
JP
Japan
Prior art keywords
scene
individual
learning
determination
learning progress
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017128910A
Other languages
Japanese (ja)
Other versions
JP6924629B2 (en
Inventor
尚子 高田
Naoko Takada
尚子 高田
村上 隆
Takashi Murakami
隆 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2017128910A priority Critical patent/JP6924629B2/en
Publication of JP2019010967A publication Critical patent/JP2019010967A/en
Application granted granted Critical
Publication of JP6924629B2 publication Critical patent/JP6924629B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

To quickly reflect individual characteristics of a driver to automatic driving by appropriately determining learning completion of the individual characteristics in each scene, and reduce discomfort of the driver by performing the automatic driving by each scene which is determined that learning of the individual characteristics has been completed.SOLUTION: An automatic controller is constituted to have: an individual authentication part 12 which authenticates a driver; a scene determination part 11 which determines a scene in which a movable body is placed; an individual characteristics learning part 14 which learns individual characteristics of the driver; a manual operation estimation part 15 which estimates manual operation of the movable body by the driver; a learning progress level determination part 16 which compares estimated manual operation information estimated by the manual operation estimation part 15 and actual manual operation information 51 of the movable body in a predetermined scene, and determines a learning progress level in the predetermined scene; and a controller 17 which determines execution or non-execution of automatic control adaptable to the individual characteristics of the driver for each scene based on a determination result of the learning progress level for each scene.SELECTED DRAWING: Figure 1

Description

本発明は、自動制御装置およびその制御方法に関する。   The present invention relates to an automatic control device and a control method thereof.

近年、運転者(個体)の手動操作によらず、車両などの移動体のECU(Electronic Control Unit)が、自車両が置かれたシーンや環境条件などを自動で判断して自律的に運転する自動運転技術の開発が進められている。
この種の自動運転技術では、移動体のECUが、様々なシーンにおける運転者の個体特性を学習し、運転者の個体特性に近い自動運転を行うことで、運転者に違和感を与えないようにしている。
In recent years, regardless of the manual operation of the driver (individual), an ECU (Electronic Control Unit) of a moving body such as a vehicle autonomously drives by automatically determining the scene and environmental conditions where the host vehicle is placed. Development of automated driving technology is underway.
In this type of automatic driving technology, the mobile ECU learns the individual characteristics of the driver in various scenes and performs automatic driving close to the individual characteristics of the driver so that the driver does not feel uncomfortable. ing.

特許文献1には、移動体の自動制御装置が開示されている。   Patent Document 1 discloses an automatic control device for a moving body.

特開2007−176396号公報JP 2007-176396 A

特許文献1に開示されている移動体の自動制御装置では、様々なシーンにおける運転者の個体特性(操作特性)を学習することで、運転者の個体特性に適応したモデルを構築している。これにより、この自動制御装置では、運転者の個体特性を自動運転に反映させることで、運転者の違和感を減らすことができる。   In the automatic control device for a moving body disclosed in Patent Document 1, a model adapted to the individual characteristics of the driver is constructed by learning the individual characteristics (operation characteristics) of the driver in various scenes. Thereby, in this automatic control apparatus, a driver | operator's uncomfortable feeling can be reduced by reflecting a driver | operator's individual characteristic in automatic driving | operation.

しかしながら、特許文献1の移動体の自動制御装置では、運転者の個体特性の学習が完了したか否かの判断基準がない。
よって、この自動制御装置では、運転者の個体特性の学習完了の判断が遅れる結果、個体特性の自動運転への反映が遅れてしまう。また、この自動制御装置では、運転者の個体特性の学習が不十分な状態で、当該個体特性を自動運転に反映させてしまう恐れがあり、この場合、運転者に違和感を与えてしまうという問題がある。
However, the moving body automatic control device of Patent Document 1 does not have a criterion for determining whether or not learning of the individual characteristics of the driver is completed.
Therefore, in this automatic control device, the determination of the completion of learning of the individual characteristics of the driver is delayed, and as a result, the reflection of the individual characteristics on the automatic driving is delayed. Further, in this automatic control device, there is a possibility that the individual characteristics of the driver may be reflected in the automatic driving in a state where the individual characteristics of the driver are insufficient, and in this case, the driver feels uncomfortable. There is.

したがって本発明は、上記課題に鑑みてなされたもので、自動制御装置において、シーンごとに運転者の個体特性の学習完了の判断を適切に行うことで、個体特性の自動運転への反映を迅速に行うことを目的とする。また、運転者の個体特性の学習が完了したと判断されたシーンごとに自動運転を行うことで、運転者に与える違和感を少なくすることを目的とする。   Accordingly, the present invention has been made in view of the above problems, and in an automatic control device, by appropriately determining the completion of learning of the individual characteristics of the driver for each scene, it is possible to quickly reflect the individual characteristics to the automatic driving. The purpose is to do. It is another object of the present invention to reduce the uncomfortable feeling given to the driver by performing automatic driving for each scene where it is determined that learning of the individual characteristics of the driver is completed.

上記課題を解決するため、機器の操作を行う個体を認証する個体認証部と、機器が置かれているシーンを判定するシーン判定部と、個体の個体特性を学習する個体特性学習部と、個体の個体特性に基づいて、個体による機器の手動操作を推定する手動操作推定部と、シーン判定部で判定された所定のシーンにおいて、個体の個体特性に基づいて手動操作推定部で推定した推定手動操作と、当該個体による機器の実際の手動操作とを比較して、所定のシーンにおける学習進捗度を判定する学習進捗度判定部と、シーン判定部で判定された所定のシーンごとの学習進捗度の判定結果に基づいて、個体の個体特性に適応した自動制御の実施または不実施を、シーンごとに決定する制御部と、を有する自動制御装置とした。   In order to solve the above problems, an individual authentication unit that authenticates an individual who operates the device, a scene determination unit that determines a scene in which the device is placed, an individual characteristic learning unit that learns an individual characteristic of the individual, and an individual Manual operation estimation unit for estimating manual operation of the device by the individual based on the individual characteristics of the manual, and estimation manual estimated by the manual operation estimation unit based on the individual characteristics of the individual in the predetermined scene determined by the scene determination unit A learning progress determination unit that compares the operation with an actual manual operation of the device by the individual to determine the learning progress in a predetermined scene, and the learning progress for each predetermined scene determined by the scene determination unit Based on the determination result, an automatic control device having a control unit that determines whether or not automatic control adapted to individual characteristics of an individual is performed for each scene is provided.

本発明によれば、自動制御装置において、シーンごとに運転者の個体特性の学習完了の判断を適切に行うことで、個体特性の自動運転への反映を迅速に行うことができる。また、運転者の個体特性の学習が完了したと判断されたシーンごとに自動運転を行うことで、運転者に与える違和感を少なくすることができる。   According to the present invention, in the automatic control device, it is possible to quickly reflect the individual characteristics to the automatic driving by appropriately determining the completion of learning of the individual characteristics of the driver for each scene. In addition, by performing automatic driving for each scene where it is determined that learning of the individual characteristics of the driver is completed, it is possible to reduce a sense of discomfort given to the driver.

実施の形態にかかる自動制御装置を説明するブロック図である。It is a block diagram explaining the automatic control apparatus concerning embodiment. 個体適応制御のフローチャートである。It is a flowchart of individual adaptive control. 過去情報データベースの更新処理のフローチャートである。It is a flowchart of the update process of a past information database. シーン判定基準データベースの更新処理のフローチャートである。It is a flowchart of the update process of a scene determination reference database. シーン判定基準の再学習の処理のフローチャートである。It is a flowchart of the process of the relearning of a scene criterion. シーン判定基準の再学習の方法を説明する概念図である。It is a conceptual diagram explaining the method of relearning of the scene determination standard. 個体特性学習処理のフローチャートである。It is a flowchart of an individual characteristic learning process. 学習進捗度判定部における個体特性の学習完了の判断処理のフローチャートである。It is a flowchart of the judgment process of the learning completion of the individual characteristic in a learning progress degree determination part. 学習進捗度に基づいて、学習完了状態への移行許可を判断する一例を説明する図である。It is a figure explaining an example which judges transfer permission to a learning completion state based on a learning progress degree. 安全判定部を説明するブロック図である。It is a block diagram explaining a safety judgment part. 危険事象判定部による危険事象発生の判断の一例を説明する図である。It is a figure explaining an example of judgment of dangerous event occurrence by a dangerous event judging part. シーン一致度検証部を説明するブロック図である。It is a block diagram explaining a scene matching degree verification part. 第2の実施の形態にかかる自動制御装置を説明するブロック図である。It is a block diagram explaining the automatic control apparatus concerning 2nd Embodiment. 第2の実施の形態にかかる個体適応制御のフローチャートである。It is a flowchart of the individual adaptive control concerning 2nd Embodiment. 第2の実施の形態にかかる過去情報データベースの更新処理のフローチャートである。It is a flowchart of the update process of the past information database concerning 2nd Embodiment. 第2の実施の形態にかかる重み決定処理のフローチャートである。It is a flowchart of the weight determination process concerning 2nd Embodiment.

以下、本発明の実施の形態にかかる自動制御装置1を説明する。
以下の説明では、自動制御装置1を、車両などの移動体(図示せず)の自動運転に適用した場合を例示して説明する。
図1は、実施の形態にかかる自動制御装置1を説明するブロック図である。
Hereinafter, an automatic control device 1 according to an embodiment of the present invention will be described.
In the following description, the case where the automatic control device 1 is applied to automatic driving of a moving body (not shown) such as a vehicle will be described as an example.
FIG. 1 is a block diagram for explaining an automatic control device 1 according to an embodiment.

[自動制御装置]
図1に示すように、自動制御装置1は、シーン判定基準データベース10と、シーン判定部11と、個体認証部12と、過去情報データベース13と、個体特性学習部14と、手動操作推定部15と、学習進捗度判定部16と、制御部17と、を有している。
[Automatic control device]
As shown in FIG. 1, the automatic control device 1 includes a scene determination reference database 10, a scene determination unit 11, an individual authentication unit 12, a past information database 13, an individual characteristic learning unit 14, and a manual operation estimation unit 15. And a learning progress determination unit 16 and a control unit 17.

シーン判定基準データベース10は、自動運転におけるシーンの分類に使用されるパラメータが、分類されるシーンに対応して記憶されている。よって、シーン判定基準データベースから所定のパラメータを取得することで、このパラメータに対応するシーンを抽出することができる。   The scene determination reference database 10 stores parameters used for scene classification in automatic driving corresponding to the scene to be classified. Therefore, by acquiring a predetermined parameter from the scene determination reference database, a scene corresponding to this parameter can be extracted.

ここで、シーンとは、車両などの移動体が走行する道路形状を意味し、一定の距離的又は時間的長さを含む概念である。例えば、シーンの一例として、短い直線シーン、長い直線シーン、緩やかなカーブシーン、急なカーブシーン,上り坂シーン、下り坂シーン、交差点シーンなどが挙げられる。そして、各々のシーンは、一場面だけではなく、ある一定の距離的又は時間的長さを含んでいる。   Here, the scene means a road shape on which a moving body such as a vehicle travels, and is a concept including a certain distance or time length. For example, examples of the scene include a short straight scene, a long straight scene, a gentle curve scene, a steep curve scene, an uphill scene, a downhill scene, and an intersection scene. Each scene includes not only one scene but also a certain distance or time length.

前述したシーン判定基準データベース10は、移動体(車両)側の制御装置などに設けられていてもよいが、シーン判定基準データベース10を移動体とは異なる場所にある外部サーバ(図示せず)に設けることがより好ましい。   The above-described scene determination criterion database 10 may be provided in a control device or the like on the moving body (vehicle) side, but the scene determination criterion database 10 is stored in an external server (not shown) located at a location different from the moving body. More preferably.

シーン判定基準データベース10を外部サーバ(図示せず)に設け、この外部サーバと移動体のECU(図示せず)とを情報ネットワークを介して接続することで、移動体のECUが、必要に応じて、外部サーバ内のシーン判定基準データベース10に記憶されているパラメータ(シーン)を読み出すことができる。   The scene determination reference database 10 is provided in an external server (not shown), and the external server and the mobile unit ECU (not shown) are connected via an information network so that the mobile unit ECU can be Thus, the parameters (scenes) stored in the scene determination reference database 10 in the external server can be read out.

このようにすると、移動体側の制御装置などのメモリ容量を小さくすることができ、移動体側の制御装置の製造コストや、維持・管理コストの増加を抑えることができる。また、移動体側の制御装置の計算リソースを、危険回避処理などの緊急性の高い処理に重点的に使用することができる。さらに、運転者が、別の移動体(車両)に乗車した場合でも、情報ネットワークを介して外部サーバから必要な情報を読み出して個体適応制御を行うことができる。   In this way, it is possible to reduce the memory capacity of the mobile unit-side control device and the like, and to suppress an increase in manufacturing cost and maintenance / management cost of the mobile unit-side control device. In addition, the calculation resource of the control device on the mobile unit side can be used mainly for highly urgent processing such as danger avoidance processing. Furthermore, even when the driver gets on another moving body (vehicle), the individual adaptive control can be performed by reading necessary information from an external server via the information network.

このシーン判定基準データベース10には、シーン判定部11が接続されており、このシーン判定部11には、シーン判定基準データベース10に記憶されたシーンの分類に使用されるパラメータと、環境情報50と、が入力される。   A scene determination unit 11 is connected to the scene determination reference database 10. The scene determination unit 11 includes parameters used for classifying scenes stored in the scene determination reference database 10, environment information 50, and the like. , Is input.

シーン判定部11は、シーン判定基準データベース10から入力されたパラメータと、環境情報50とに基づいて、移動体(車両)の置かれているシーンを判定する。   The scene determination unit 11 determines the scene where the moving body (vehicle) is placed based on the parameters input from the scene determination reference database 10 and the environment information 50.

ここで、環境情報50は、例えば、道路形状(直線、カーブ、傾斜勾配、交差点の有無等)、周囲の他の移動体(他車両)の密度、周囲の他の移動体の移動速度(車速)、周囲の障害物との距離、道路の車線内における自車両の幅方向の位置、気温、季節、明るさ、などの外部環境情報をいう。また、環境情報50は、例えば、自車両の車速、加速度、ステア角、ピッチ、ロール、などの内部環境情報も含む。   Here, the environment information 50 includes, for example, a road shape (straight line, curve, slope gradient, presence / absence of an intersection, etc.), the density of other surrounding moving bodies (other vehicles), and the moving speed (vehicle speed) of other surrounding moving bodies. ), External environment information such as distance to surrounding obstacles, position in the width direction of the vehicle in the road lane, temperature, season, and brightness. The environment information 50 also includes internal environment information such as the vehicle speed, acceleration, steering angle, pitch, and roll of the host vehicle.

個体認証部12は、運転者(個体)の個体認証情報52を取得し、この取得した個体認証情報52と、後述する過去情報データベース13にすでに登録されている個体認証情報と、を照合して、運転者の認証を行う。   The individual authentication unit 12 acquires the individual authentication information 52 of the driver (individual), and collates the acquired individual authentication information 52 with individual authentication information already registered in the past information database 13 described later. , Authenticate the driver.

個体認証情報52は、運転者を特定可能な情報であれば特に限定されるものではなく、例えば、個人IDと暗証番号(パスワード)、運転免許証などの身分証の情報であってもよい。この個体認証情報52は、イグニッションキーやスタート/ストップボタンがOFFにされるまで、ECUのメモリ(図示せず)に記憶されている。   The individual authentication information 52 is not particularly limited as long as it is information that can identify the driver. For example, the individual authentication information 52 may be identification information such as a personal ID, a password (password), and a driver's license. The individual authentication information 52 is stored in a memory (not shown) of the ECU until the ignition key and the start / stop button are turned off.

この個体認証部12は、過去情報データベース13に接続されており、個体認証部12は、過去情報データベース13にすでに登録されている個体認証情報を読み出すようになっている。   The individual authentication unit 12 is connected to the past information database 13, and the individual authentication unit 12 reads the individual authentication information already registered in the past information database 13.

過去情報データベース13には、運転者の個体認証情報52のほか、シーン判定部11で判定されたシーン(判定結果)と、環境情報50と、手動操作情報51とが入力されて記憶されている。   In the past information database 13, in addition to the individual authentication information 52 of the driver, a scene (determination result) determined by the scene determination unit 11, environment information 50, and manual operation information 51 are input and stored. .

過去情報データベース13は、個体認証部12で認証された運転者の個体認証情報52に基づいて、過去情報データベース13内での当該個体認証情報52に対応するメモリアドレス(メモリ領域)を特定する。そして、過去情報データベース13は、この特定したメモリアドレスに、シーン判定部11で判定されたシーン(判定結果)と、その際の環境情報50及び運転者の手動操作情報51とを関連付けて記憶する。   The past information database 13 specifies a memory address (memory area) corresponding to the individual authentication information 52 in the past information database 13 based on the individual authentication information 52 of the driver authenticated by the individual authentication unit 12. Then, the past information database 13 stores the scene determined by the scene determination unit 11 (determination result), the environment information 50 at that time, and the driver's manual operation information 51 in association with the specified memory address. .

一方、過去情報データベース13は、個体認証部12で認証された運転者の個体認証情報52が、過去に登録がない(未登録)と判定した場合、当該未登録の運転者の個体認証情報52に対応する新たなメモリアドレス(メモリ領域)を作製すると共に、そのメモリアドレスに、シーン判定部11で判定されたシーン(判定結果)と、その際の環境情報50及び運転者の手動操作情報51と、を関連付けて記憶する。   On the other hand, when the individual authentication information 52 of the driver authenticated by the individual authentication unit 12 determines that there is no registration in the past (unregistered), the past information database 13 stores the individual authentication information 52 of the unregistered driver. And a new memory address (memory area) corresponding to the scene, the scene determined by the scene determination unit 11 (determination result), the environment information 50 at that time, and the driver's manual operation information 51. Are stored in association with each other.

ここで、手動操作情報51には、例えば、ステアリングの操舵角、車速、各ライト及び各ランプのON/OFF操作、空調の設定温度、車内オーディオの楽曲選定及びその音量、カーナビゲーションの操作情報、ウィンドウの開閉量、ウィンドウの遮光性が電圧を印加するなどで任意に設定できる場合には、その電圧値(遮光度)などが一例として挙げられる。   Here, the manual operation information 51 includes, for example, steering angle of the steering wheel, vehicle speed, ON / OFF operation of each light and each lamp, set temperature of air conditioning, selection of music for the in-vehicle audio and its volume, operation information for car navigation, When the open / close amount of the window and the light shielding property of the window can be arbitrarily set by applying a voltage or the like, the voltage value (light shielding degree) or the like is given as an example.

過去情報データベース13は、個体特性学習部14に接続されており、過去情報データベース13に記憶された各情報は、個体特性学習部14に入力される。   The past information database 13 is connected to the individual characteristic learning unit 14, and each piece of information stored in the past information database 13 is input to the individual characteristic learning unit 14.

個体特性学習部14は、過去情報データベース13に記憶されたシーン(判定結果)と、環境情報50と、手動操作情報51と、個体認証情報52とに基づいて、当該個体認証情報52で特定される運転者の個体特性モデルを生成する。   The individual characteristic learning unit 14 is specified by the individual authentication information 52 based on the scene (determination result) stored in the past information database 13, the environment information 50, the manual operation information 51, and the individual authentication information 52. A driver's individual characteristic model is generated.

具体的には、個体特性学習部14は、各々のシーンにおいて、運転者がどのような手動操作を行ったのかを機械学習などの手法で学習して、個体特性モデルを生成する。
なお、個体特性(操作特性)の学習は周知の機械学習、ディープラーニングなどの手法を用いることができる。
Specifically, the individual characteristic learning unit 14 learns what manual operation the driver has performed in each scene using a method such as machine learning, and generates an individual characteristic model.
In addition, for learning of individual characteristics (operation characteristics), a known method such as machine learning or deep learning can be used.

個体特性学習部14は、手動操作推定部15に接続されており、個体特性学習部14で生成された個体特性モデルは、手動操作推定部15に入力される。   The individual characteristic learning unit 14 is connected to the manual operation estimation unit 15, and the individual characteristic model generated by the individual characteristic learning unit 14 is input to the manual operation estimation unit 15.

手動操作推定部15には、個体特性学習部14で生成された個体特性モデルのほか、現在の環境情報50が入力されており、この個体特性モデルと環境情報50とに基づいて、運転者の手動操作を推定する。   In addition to the individual characteristic model generated by the individual characteristic learning unit 14, current manual environment information 50 is input to the manual operation estimation unit 15. Based on the individual characteristic model and the environmental information 50, the driver's Estimate manual operation.

ここで、運転者の手動操作には、例えば、ステアリング操作、アクセルペダル操作、各ライト及び各ランプのON/OFF操作、空調の操作、車内オーディオの操作、カーナビゲーションの操作、ウィンドウの開閉操作などが一例として挙げられる。   Here, the driver's manual operation includes, for example, steering operation, accelerator pedal operation, ON / OFF operation of each light and each lamp, air conditioning operation, in-car audio operation, car navigation operation, window opening / closing operation, etc. Is given as an example.

この手動操作推定部15は、学習進捗度判定部16に接続されており、手動操作推定部15で推定された運転者の手動操作情報(以下、推定手動操作情報ともいう)は、学習進捗度判定部16に入力される。   The manual operation estimating unit 15 is connected to the learning progress degree determining unit 16, and the driver's manual operation information estimated by the manual operation estimating unit 15 (hereinafter also referred to as estimated manual operation information) is the learning progress degree. Input to the determination unit 16.

学習進捗度判定部16には、手動操作推定部15で推測された推測手動操作情報のほかに、現在の運転者による手動操作情報51と、シーン判定部11で判定されたシーン(判定結果)と、が入力されている。   In addition to the estimated manual operation information estimated by the manual operation estimation unit 15, the learning progress degree determination unit 16 includes manual operation information 51 by the current driver and a scene determined by the scene determination unit 11 (determination result). And have been entered.

学習進捗度判定部16は、手動操作推定部15で推測された推定手動操作情報と、現在の運転者の手動操作情報51との差分R(推定手動操作情報―手動操作情報51)を、シーンごとに算出することで、シーンごとの学習進捗度を判定する。
例えば、学習進捗度判定部16は、前述した比較結果の差分Rが所定の閾値Rth以下の場合(R≦Rth)、学習進捗度が高い(学習完了)と判定し、差分Rが閾値Rthよりも大きい場合(R>Rth)、学習進捗度が低い(学習未完了)と判定し、この学習進捗度の判定結果を制御部17に出力する。
The learning progress degree determination unit 16 uses the difference R (estimated manual operation information−manual operation information 51) between the estimated manual operation information estimated by the manual operation estimation unit 15 and the current driver's manual operation information 51 as a scene. By calculating for each, the learning progress for each scene is determined.
For example, the learning progress determination unit 16 determines that the learning progress is high (learning complete) when the difference R in the comparison result is equal to or less than a predetermined threshold Rth (R ≦ Rth), and the difference R is greater than the threshold Rth. Is larger (R> Rth), it is determined that the learning progress is low (learning is not completed), and the determination result of the learning progress is output to the control unit 17.

制御部17は、学習進捗度判定部16で判定された学習進捗度の判定結果に基づいて、シーンごとに、個体適応制御の実施または不実施を決定する。   Based on the learning progress determination result determined by the learning progress determination unit 16, the control unit 17 determines whether to perform individual adaptive control for each scene.

制御部17は、学習進捗度判定部16により学習進捗度が高い(差分R≦閾値Rth)と判定された場合には、個体適応制御を実施する。   When the learning progress degree determination unit 16 determines that the learning progress degree is high (difference R ≦ threshold Rth), the control unit 17 performs individual adaptive control.

ここで、制御部17による個体適応制御の実施条件の一例を説明する。
初めに、シーン判定部11は、所定のシーン(例えば、カーブシーン)に含まれる少なくとも2以上の不連続な第1シーン(例えば、緩やかなカーブシーン)と、第2シーン(例えば、交差点シーン)とを判定する。
Here, an example of the implementation conditions of the individual adaptive control by the control unit 17 will be described.
First, the scene determination unit 11 includes at least two or more discontinuous first scenes (for example, gentle curve scenes) included in a predetermined scene (for example, curve scenes) and second scenes (for example, intersection scenes). Is determined.

そして、学習進捗度判定部16は、第1シーン(例えば、緩やかなカーブシーン)と、第2シーン(例えば、交差点シーン)における、運転者の個体特性の学習進捗度を判定する。   Then, the learning progress degree determination unit 16 determines the learning progress degree of the individual characteristics of the driver in the first scene (for example, a gentle curve scene) and the second scene (for example, an intersection scene).

その結果、制御部17は、第1シーンでの学習進捗度の判定結果と、第2シーンでの学習進捗度の判定結果の何れも学習完了状態(学習進捗度が高い状態)であると、学習進捗度判定部16により判定された場合、個体適応制御を実施する。   As a result, when both the determination result of the learning progress degree in the first scene and the determination result of the learning progress degree in the second scene are in the learning completion state (a state where the learning progress degree is high), the control unit 17 When it is determined by the learning progress determination unit 16, individual adaptive control is performed.

このように、制御部17は、全くシーンの異なる不連続な2以上のシーンにおける学習進捗度が完了状態か否かに基づいて、個体適応制御を実施するか否かの判定を行うことにより、2以上の不連続なシーンを含む所定のシーンの学習が完了していると精度よく判定することができる。   In this way, the control unit 17 determines whether or not to implement the individual adaptive control based on whether or not the learning progress in two or more discontinuous scenes with completely different scenes is in a completed state, It can be accurately determined that learning of a predetermined scene including two or more discontinuous scenes has been completed.

また、シーン判定部11は、所定のシーン(例えば、直線シーン)に含まれる互いに離れた位置の第3シーン(例えば、第1の直線シーン)と、第4シーン(例えば、第2の直線シーン)とを判定する。   In addition, the scene determination unit 11 includes a third scene (for example, a first straight line scene) and a fourth scene (for example, a second straight line scene) that are included in a predetermined scene (for example, a straight line scene). ) Is determined.

そして、学習進捗度判定部16は、第3シーン(例えば、第1の直線シーン)と、第4シーン(例えば、第2の直線シーン)における、運転者の個体特性の学習進捗度を判定する。   Then, the learning progress determination unit 16 determines the learning progress of the individual characteristics of the driver in the third scene (for example, the first straight line scene) and the fourth scene (for example, the second straight line scene). .

その結果、制御部17は、第3シーンでの学習進捗度の判定結果と、第4シーンでの学習進捗度の判定結果の何れも学習完了状態(学習進捗度が高い状態)であると、学習進捗度判定部16により判定された場合、個体適応制御を実施する。   As a result, when both the determination result of the learning progress in the third scene and the determination result of the learning progress in the fourth scene are in the learning completion state (a state where the learning progress is high), the control unit 17 When it is determined by the learning progress determination unit 16, individual adaptive control is performed.

このように、制御部17は、離れた距離にある2以上のシーンにおける学習進捗度が完了状態か否かに基づいて、個体適応制御を実施するか否かの判定を行うことにより、2以上の離れた距離にある不連続なシーンを含む所定のシーンの学習が完了していると精度よく判定することができる。   As described above, the control unit 17 determines whether or not to implement the individual adaptive control based on whether or not the learning progress degree in two or more scenes at a distant distance is in a completed state. It is possible to accurately determine that learning of a predetermined scene including a discontinuous scene at a distance of is completed.

なお、学習進捗度判定部16は、時間的に離れた2つのシーン(第5シーン、第6シーン)での学習進捗度を判定し、制御部17は、2つのシーン(第5シーン、第6シーン)における学習進捗度がいずれも学習完了状態である場合に、個体適応制御を実施するようにしてもよい。   Note that the learning progress determination unit 16 determines the learning progress in two scenes (fifth scene and sixth scene) that are separated in time, and the control unit 17 performs two scenes (fifth scene, sixth scene). Individual learning control may be performed when all of the learning progress degrees in (six scenes) are in a learning completion state.

一方、制御部17は、学習進捗度が低い(差分R>閾値Rth)と判定された場合には、個体適応制御を実施せず、予め初期設定(デフォルト)されている自動運転制御を実施する。   On the other hand, when it is determined that the learning progress is low (difference R> threshold Rth), the control unit 17 does not perform the individual adaptive control but performs the automatic driving control that is initially set (default) in advance. .

ここで、個体適応制御とは、運転者(個体)の個体特性(操作特性)を学習して生成した個体特性モデルに基づいて、運転者の個体特性(操作特性)に適応した自動運転制御を行うことを意味する。   Here, the individual adaptive control is an automatic driving control adapted to the individual characteristic (operation characteristic) of the driver based on the individual characteristic model generated by learning the individual characteristic (operation characteristic) of the driver (individual). Means to do.

なお、制御部17は、学習進捗度から学習効率Kを算出し、学習効率Kが所定の閾値Kth以上の場合(K≧Kth)、学習進捗が高いと判定し、学習効率Kが所定の閾値Kthよりも小さい場合(K<Kth)、学習進捗度が低いと判定してもよい。   Note that the control unit 17 calculates the learning efficiency K from the degree of learning progress. When the learning efficiency K is equal to or greater than a predetermined threshold value Kth (K ≧ Kth), the control unit 17 determines that the learning progress is high, and the learning efficiency K is a predetermined threshold value. If it is smaller than Kth (K <Kth), it may be determined that the learning progress is low.

前述した過去情報データベース13、個体特性学習部14、手動操作推定部15、学習進捗度判定部16は、移動体(車両)側の制御装置などに設けられていても良いが、これらを移動体とは異なる場所にある外部サーバ(図示せず)に設け、この外部サーバと移動体のECU(図示せず)とを情報ネットワークを介して接続し、必要に応じて、移動体のECUが、これらの情報を読み出すようにすることが好ましい。   The past information database 13, the individual characteristic learning unit 14, the manual operation estimation unit 15, and the learning progress determination unit 16 described above may be provided in a control device on the mobile body (vehicle) side. Is provided in an external server (not shown) in a different location, and this external server is connected to the mobile ECU (not shown) via an information network. It is preferable to read out such information.

このようにすると、移動体側の制御装置のメモリ容量を小さくすることができ、移動体側の制御装置の製造コストや、維持・管理コストの増加を抑えることができる。また、移動体側の制御装置の計算リソースを、危険回避処理などの緊急性の高い処理に重点的に使用することができる。さらに、運転者が、別の移動体(車両)に乗車した場合でも、情報ネットワークを介して外部サーバから必要な情報を読み出して個体適応制御を行うことができる。   In this way, it is possible to reduce the memory capacity of the control device on the mobile unit side, and to suppress an increase in manufacturing costs and maintenance / management costs of the control unit on the mobile unit side. In addition, the calculation resource of the control device on the mobile unit side can be used mainly for highly urgent processing such as danger avoidance processing. Furthermore, even when the driver gets on another moving body (vehicle), the individual adaptive control can be performed by reading necessary information from an external server via the information network.

[個体適応制御]
次に、自動制御装置1における個体適応制御の処理を説明する。
図2は、個体適応制御のフローチャートである。
[Individual adaptive control]
Next, an individual adaptive control process in the automatic control apparatus 1 will be described.
FIG. 2 is a flowchart of individual adaptive control.

初めに、ステップS101において、移動体のECU(図示せず)は、移動体の自動運転が許可されているか否かを判定する。ECUは、自動運転が許可されていると判定した場合(ステップS101:Yes)、ステップS102に進む。
ここで、自動運転の許可は、種々の方法が考えられるが、運転者が、自動運転モードを設定するスイッチをON操作することで設定される。
First, in step S101, an ECU (not shown) of the moving body determines whether or not automatic operation of the moving body is permitted. If the ECU determines that automatic driving is permitted (step S101: Yes), the ECU proceeds to step S102.
Here, although various methods can be considered for permitting automatic driving, the driver sets the automatic driving mode by turning on a switch for setting the automatic driving mode.

ステップS102において、移動体のECUは、個体適応制御が許可されているか否かを判定する。ECUは、個体適応制御が許可されていると判定した場合(ステップS102:Yes)、ステップS103に進む。   In step S102, the ECU of the moving body determines whether or not individual adaptive control is permitted. If the ECU determines that the individual adaptive control is permitted (step S102: Yes), the ECU proceeds to step S103.

ステップS102において、移動体のECUは、個体適応制御が許可されていないと判定した場合(ステップS102:No)、ステップS106に進む。ステップS106において、自動制御装置1は、予め初期設定(デフォルト)されている自動運転制御により、移動体の自動運転を実施する。   In step S102, when the ECU of the moving body determines that the individual adaptive control is not permitted (step S102: No), the process proceeds to step S106. In step S <b> 106, the automatic control device 1 performs the automatic operation of the moving body by the automatic operation control that is initially set (default) in advance.

ステップS103において、学習進捗度判定部16は、シーン判定部により判定されたシーン(判定結果)、環境情報50、手動操作情報51、個体認証情報52に基づいて、現在走行しているシーンにおいて、当該運転者の個体特性の学習が完了したか否かを判定する。   In step S <b> 103, the learning progress determination unit 16 determines whether or not the currently traveling scene is based on the scene (determination result) determined by the scene determination unit, the environment information 50, the manual operation information 51, and the individual authentication information 52. It is determined whether learning of the individual characteristics of the driver is completed.

ステップS103において、学習進捗度判定部16は、運転者の個体特性の学習が完了したと判定した場合(ステップS103:Yes)、ステップS104に進む。ステップS104において、制御部17は、学習進捗度判定部16による学習完了の判定に基づいて、当該シーンにおける当該運転者の個体特性に応じた個体適応制御を実施する。   In step S103, when the learning progress determination unit 16 determines that learning of the individual characteristics of the driver is completed (step S103: Yes), the process proceeds to step S104. In step S104, the control unit 17 performs individual adaptive control according to the individual characteristics of the driver in the scene based on the learning completion determination by the learning progress degree determination unit 16.

ステップS103において、学習進捗度判定部16は、運転者の個体特性の学習が完了していないと判定した場合(ステップS103:No)、ステップS106に進む。ステップS106において、制御部17は、学習進捗度判定部16による学習未完了の判定結果に基づいて、個体適応制御の実施を行わず、初期設定(デフォルト)されている自動運転制御により移動体の自動運転を実施する。   In step S103, when the learning progress determination unit 16 determines that the learning of the individual characteristics of the driver is not completed (step S103: No), the process proceeds to step S106. In step S <b> 106, the control unit 17 does not perform the individual adaptive control based on the learning incomplete determination result by the learning progress determination unit 16, and performs the initial setting (default) automatic driving control of the moving object. Implement automatic operation.

なお、前述したステップS101において、移動体のECU(図示せず)は、運転者が手動で自動運転モードを設定するスイッチをOFFに設定したり、環境情報50に応じて移動体が自動運転を継続できないと判定した場合にOFFに設定される。この場合、移動体のECUは、自動運転が許可されていないと判定し(ステップS101:NO)、ステップS105に進む。   In step S101 described above, the ECU (not shown) of the mobile object sets the switch for manually setting the automatic operation mode to OFF, or the mobile object performs automatic operation according to the environmental information 50. It is set to OFF when it is determined that it cannot be continued. In this case, the ECU of the moving body determines that automatic driving is not permitted (step S101: NO), and proceeds to step S105.

ステップS105において、移動体のECUは、現在の環境情報50と、現在の運転者の手動操作情報51を取得し、過去情報データベース13に送信して処理を終了する。   In step S105, the ECU of the moving body obtains the current environment information 50 and the current driver's manual operation information 51, transmits them to the past information database 13, and ends the process.

[過去情報データベースの更新]
次に、過去情報データベース13の更新処理を説明する。
図3は、過去情報データベース13の更新処理のフローチャートである。
[Update past information database]
Next, the update process of the past information database 13 will be described.
FIG. 3 is a flowchart of the update process of the past information database 13.

ステップS201において、個体認証部12は、現在の運転者の個体認証情報52を取得する。   In step S <b> 201, the individual authentication unit 12 acquires the individual authentication information 52 of the current driver.

ステップS202において、個体認証部12は、ステップS201で取得した現在の運転者の個体認証情報52が、過去情報データベース13にすでに記憶されているか否かを判定する。個体認証部12は、個体認証情報52が、過去情報データベース13にすでに記憶されていると判定した場合(ステップS202:Yes)、ステップS203に進む。   In step S202, the individual authentication unit 12 determines whether or not the current driver individual authentication information 52 acquired in step S201 is already stored in the past information database 13. If the individual authentication unit 12 determines that the individual authentication information 52 is already stored in the past information database 13 (step S202: Yes), the process proceeds to step S203.

ステップS203において、個体認証部12は、当該運転者の個体認証情報52が記憶されている過去情報データベース13上のメモリアドレスを取得し、ステップS204に進む。   In step S203, the individual authentication unit 12 acquires a memory address on the past information database 13 in which the individual authentication information 52 of the driver is stored, and the process proceeds to step S204.

一方、個体認証部12は、個体認証情報52が、過去情報データベース13に記憶されていないと判定した場合(ステップS202:No)、ステップS209に進む。   On the other hand, when the individual authentication unit 12 determines that the individual authentication information 52 is not stored in the past information database 13 (step S202: No), the process proceeds to step S209.

ステップS209において、個体認証部12は、過去情報データベース13上に、現在の運転者の個体認証情報52を記憶する新たなメモリアドレスを設定し、ステップS204に進む。   In step S209, the individual authentication unit 12 sets a new memory address for storing the current driver individual authentication information 52 on the past information database 13, and proceeds to step S204.

ステップS204において、シーン判定部11は、環境情報50を取得して、ステップS205に進む。   In step S204, the scene determination unit 11 acquires the environment information 50 and proceeds to step S205.

ステップS205において、シーン判定部11は、シーン判定基準データベース10から取得したシーンの判定に必要なパラメータと、ステップS204で取得した環境情報50とに基づいて、当該シーンを判定する。   In step S205, the scene determination unit 11 determines the scene based on the parameters necessary for scene determination acquired from the scene determination reference database 10 and the environment information 50 acquired in step S204.

ステップS206において、移動体のECU(図示せず)は、移動体が運転者による手動操作(手動運転)中か否かを判定する。移動体のECUは、手動操作中と判定した場合(ステップS206:Yes)、ステップS207に進み、ステップS207において、現在の、運転者の手動操作による運転情報(手動操作情報51)を取得する。   In step S206, the ECU (not shown) of the moving body determines whether or not the moving body is being manually operated (manual operation) by the driver. If it is determined that the manual operation is being performed (step S206: Yes), the ECU of the moving body proceeds to step S207, and in step S207, obtains current driving information (manual operation information 51) by the driver's manual operation.

そして、ステップS208において、移動体のECU(図示せず)は、取得した環境情報50、手動操作情報51、及びシーン判定部11で判定されたシーン(判定結果)を、ステップS203、S209で取得した過去情報データベース13上のメモリアドレスに記憶して処理を終了する。   In step S208, the moving body ECU (not shown) acquires the acquired environment information 50, manual operation information 51, and the scene (determination result) determined by the scene determination unit 11 in steps S203 and S209. The stored information is stored in the memory address on the past information database 13 and the process is terminated.

これにより、運転者が手動操作による運転を行うことで、過去情報データベース13に記憶される環境情報50や手動操作情報51、及びシーン判定部11で判定されたシーン(判定結果)が取得され、この取得された各情報は、過去情報データベース13に蓄積される。よって、過去情報データベース13では、運転者が煩わしさを感じることなく、これらの各情報が蓄積(更新)される。   Thereby, when the driver performs driving by manual operation, the environment information 50 and manual operation information 51 stored in the past information database 13 and the scene (determination result) determined by the scene determination unit 11 are acquired. Each acquired information is stored in the past information database 13. Therefore, in the past information database 13, each of these pieces of information is accumulated (updated) without causing the driver to feel troublesome.

なお、ステップS206において、移動体のECU(図示せず)は、当該移動体が手動操作中でない(自動運転中である)と判定した場合(ステップS206:No)、ステップS210に進み、環境情報50及びシーン判定部11で判定されたシーン(判定結果)を、制御部17に送信して処理を終了する。   In step S206, when the ECU (not shown) of the moving body determines that the moving body is not being manually operated (automatic driving) (step S206: No), the process proceeds to step S210, and the environment information 50 and the scene (determination result) determined by the scene determination unit 11 are transmitted to the control unit 17 and the process is terminated.

[シーン判定基準データベースの更新処理]
次に、シーン判定基準データベース10の更新処理を説明する。
自動制御装置1では、運転者の個体特性の学習効率Kが著しく低いシーンがある場合、シーン判定基準データベース10に記憶された当該シーンを他のシーンに変更して、シーン判定基準データベース10の更新を行う。
図4は、シーン判定基準データベース10の更新処理のフローチャートである。
[Update process of scene criteria database]
Next, update processing of the scene determination reference database 10 will be described.
In the automatic control device 1, when there is a scene where the learning efficiency K of the individual characteristics of the driver is extremely low, the scene stored in the scene determination reference database 10 is changed to another scene, and the scene determination reference database 10 is updated. I do.
FIG. 4 is a flowchart of the update process of the scene determination reference database 10.

ステップS301において、学習進捗度判定部16は、過去情報データベース13に記憶されている全ての運転者(個体)について、シーンごとの学習効率Kを算出する。   In step S301, the learning progress degree determination unit 16 calculates the learning efficiency K for each scene for all drivers (individuals) stored in the past information database 13.

ここで、学習進捗度判定部16は、学習時間Tが十分長いのに学習進捗度が低い場合、又は学習時間Tは短いが学習進捗度の向上率が低い場合に、何れかより小さい値を学習効率Kとして算出する。   Here, when the learning progress T is sufficiently long but the learning progress is low, or when the learning time T is short but the improvement rate of the learning progress is low, the learning progress determination unit 16 sets a smaller value. Calculated as the learning efficiency K.

ステップS302では、学習進捗度判定部16は、何れかの運転者(個体)において、学習時間Tが、所定の閾値Tth以上(T≧Tth)であって、学習効率Kが、所定の閾値Kth未満(K<Kth)となるシーンがあるか否かを判定する。   In step S302, the learning progress determination unit 16 determines that the learning time T is equal to or greater than the predetermined threshold Tth (T ≧ Tth) and the learning efficiency K is the predetermined threshold Kth for any driver (individual). It is determined whether or not there is a scene that is less than (K <Kth).

学習進捗度判定部16は、ステップS302の条件を満たすシーンがあると判定した場合(ステップS302:Yes)、ステップS303に進む。一方、学習進捗度判定部16は、前述した条件を満たすシーンがないと判定した場合(ステップS302:No)、学習効率Kが著しく低いシーンがないと判定し、本処理を終了する。   When it is determined that there is a scene that satisfies the condition of step S302 (step S302: Yes), the learning progress determination unit 16 proceeds to step S303. On the other hand, when it is determined that there is no scene that satisfies the above-described condition (step S302: No), the learning progress degree determination unit 16 determines that there is no scene with extremely low learning efficiency K, and ends this process.

ステップS303では、学習進捗度判定部16は、所定の同一シーンにおいて、学習時間Tが所定の閾値Tth以上であって、学習効率Kが所定の閾値Kth未満となる条件を満たすシーンを有する運転者(個体)の数Nが、過去情報データベース13に記憶されている全ての運転者(個体)の数Mの過半数以上(N≧M/2)となるか否かを判定する。   In step S303, the learning progress determination unit 16 has a driver having a scene that satisfies a condition that the learning time T is equal to or greater than a predetermined threshold Tth and the learning efficiency K is less than the predetermined threshold Kth in the predetermined same scene. It is determined whether or not the number N of (individuals) is equal to or greater than a majority (N ≧ M / 2) of the number M of all drivers (individuals) stored in the past information database 13.

ステップS303において、学習進捗度判定部16は、前述した条件を満たす個体の数Nが、全体の過半数以上であると判定した場合(ステップS303:Yes)、ステップS304に進む。   In step S303, when the learning progress degree determination unit 16 determines that the number N of individuals satisfying the above-described condition is equal to or more than the majority (step S303: Yes), the process proceeds to step S304.

ステップS304において、移動体のECU(図示せず)は、全ての個体の環境情報50及び手動操作情報51に基づいて、シーン判定基準の再学習を行う。なお、このシーン判定基準の再学習の処理(方法)は後述する。   In step S304, the ECU (not shown) of the moving body performs relearning of the scene determination criterion based on the environment information 50 and the manual operation information 51 of all the individuals. The process (method) for re-learning the scene determination criterion will be described later.

そして、ステップS305において、移動体のECUは、ステップS304での再学習の結果に基づいて、シーン判定基準データベース10のシーンを更新(他のシーンに変更、又は当該シーンを削除など)して処理を終了する。
これにより、自動制御装置1では、学習効率Kの著しく低いシーンを見直し、又は削除することで、シーン判定基準データベース10内のシーンを、より適切なものに更新することができる。
In step S305, the mobile ECU updates the scene in the scene determination reference database 10 based on the result of relearning in step S304 (changes to another scene or deletes the scene). Exit.
Thereby, in the automatic control apparatus 1, the scene in the scene determination reference | standard database 10 can be updated to a more suitable one by reviewing or deleting the scene whose learning efficiency K is remarkably low.

なお、ステップS303において、学習効率Kが所定の閾値Kth未満となる運転者(個体)の数Nが、全ての運転者(個体)の数Mの過半数とならなかったシーンがある場合(ステップS303:No)、ステップS306に進み、当該学習効率Kの著しく低いシーンを有する運転者(個体)で収集された環境情報50と手動操作情報51とに基づいて、当該運転者(個体)におけるシーン判定基準の再学習を行う。
ここで、個別の運転者(個体)におけるシーン判定基準の再学習は、ステップS304のシーン判定基準の再学習と同じ処理(方法)で行われる。
In step S303, there is a scene in which the number N of drivers (individuals) for which the learning efficiency K is less than the predetermined threshold Kth is not a majority of the number M of all drivers (individuals) (step S303). : No), proceeding to step S306, based on the environment information 50 and the manual operation information 51 collected by the driver (individual) having a scene with the remarkably low learning efficiency K, scene determination in the driver (individual) Re-learn the criteria.
Here, the relearning of the scene determination criterion for each individual driver (individual) is performed by the same process (method) as the relearning of the scene determination criterion in step S304.

そして、ステップS305に進み、移動体のECU(図示せず)は、ステップS306でのシーン判定基準の再学習の結果に基づいて、シーン判定基準データベース10の個別のシーンを更新して処理を終了する。   In step S305, the ECU (not shown) of the moving body updates the individual scenes in the scene determination criterion database 10 based on the result of the relearning of the scene determination criterion in step S306 and ends the process. To do.

[シーン判定基準の再学習]
次に、ステップS304(ステップS306)で説明した、シーン判定基準の再学習の処理を説明する。
図5は、シーン判定基準の再学習の処理のフローチャートである。
図6は、シーン判定基準の再学習の方法を説明する概念図である。
[Relearning scene criteria]
Next, the scene learning criterion relearning process described in step S304 (step S306) will be described.
FIG. 5 is a flowchart of a process for re-learning scene determination criteria.
FIG. 6 is a conceptual diagram illustrating a method for re-learning scene determination criteria.

図5に示すように、ステップS401において、移動体のECU(図示せず)は、学習効率Kの著しく低いと判定された所定のシーン(過去シーン)で適用した個体特性モデルを、外部ネットワークに接続されたメモリ(図示せず)に一時的に保存する。   As shown in FIG. 5, in step S401, the ECU (not shown) of the mobile object transmits the individual characteristic model applied in a predetermined scene (past scene) determined to have a very low learning efficiency K to an external network. Temporarily save in a connected memory (not shown).

ステップS402において、移動体のECU(図示せず)は、学習効率Kの著しく低い所定のシーンの再分類を行う。   In step S402, the ECU (not shown) of the moving body performs reclassification of a predetermined scene with a remarkably low learning efficiency K.

具体的には、図6に示すように、移動体のECUは、例えば、カーブシーンAと交差点シーンCにおいて、運転者の学習効率Kが著しく低いと判定した場合、カーブシーンAを、緩やかなカーブシーンA1と、急なカーブシーンA2とに再分類すると共に、交差点シーンCを、三差路(T字)交差点シーンC1と、五差路交差点シーンC2とに再分類する。
なお、実施の形態では、学習進捗度判定部16において、直線シーンBの学習効率Kは高いと判定したので、移動体のECUにおいて直線シーンBの再分類は実施されない。
Specifically, as shown in FIG. 6, for example, when the ECU of the moving body determines that the learning efficiency K of the driver is extremely low in the curve scene A and the intersection scene C, the curve scene A is moderated. While reclassifying into a curve scene A1 and a steep curve scene A2, the intersection scene C is reclassified into a three-way (T-shaped) intersection scene C1 and a five-way intersection scene C2.
In the embodiment, since the learning progress degree determination unit 16 determines that the learning efficiency K of the straight line scene B is high, the reclassification of the straight line scene B is not performed in the mobile ECU.

図5に戻って、学習進捗度判定部16は、ステップS403において、ステップS401でメモリ(図示せず)に保存した個体特性モデルを読み出して、再分類後のシーンに適用する。   Returning to FIG. 5, in step S <b> 403, the learning progress determination unit 16 reads the individual characteristic model stored in the memory (not shown) in step S <b> 401 and applies it to the scene after reclassification.

ステップS404において、学習進捗度判定部16は、再分類後のシーンにおいて、再分類前のシーンで適用した個体特性モデルによる学習効率Kが所定の閾値Kth以上か否かを判定し、学習効率Kが所定の閾値Kth以上であると判定した場合(K≧Kth)、ステップS405に進む(図6参照)。   In step S404, the learning progress determination unit 16 determines whether the learning efficiency K based on the individual characteristic model applied in the scene before reclassification is equal to or higher than a predetermined threshold Kth in the scene after reclassification. Is determined to be greater than or equal to a predetermined threshold value Kth (K ≧ Kth), the process proceeds to step S405 (see FIG. 6).

ステップS405において、移動体のECU(図示せず)は、再分類後のシーンを、新たに分類されたシーンに置き換えて、シーン判定基準データベース10を更新して処理を終了する(図6参照)。   In step S405, the moving body ECU (not shown) replaces the reclassified scene with a newly classified scene, updates the scene determination reference database 10, and ends the process (see FIG. 6). .

なお、ステップS404において、学習進捗度判定部16は、再分類後のシーンにおいて、再分類前のシーンで適用した個体特性モデルによる学習効率Kが所定の閾値Kth未満であると判定した場合(K<Kth)、ステップS406に進み、予め初期設定(デフォルト)された自動運転制御を行う(図6参照)。   In step S404, when the learning progress determination unit 16 determines that the learning efficiency K based on the individual characteristic model applied to the scene before reclassification is less than the predetermined threshold Kth in the scene after reclassification (K <Kth), the process proceeds to step S406, and automatic operation control that is initially set (default) in advance is performed (see FIG. 6).

[個体特性モデルの生成]
次に、個体特性学習部14において、運転者の個体特性を学習(個体特性モデルの生成)する処理を説明する。
図7は、個体特性学習処理のフローチャートである。
[Generation of individual characteristic model]
Next, a process for learning the individual characteristics of the driver (generating an individual characteristic model) in the individual characteristic learning unit 14 will be described.
FIG. 7 is a flowchart of the individual characteristic learning process.

ステップS501において、個体特性学習部14は、移動体(車両)の置かれているシーンの切り換わりがあるか否かを判定し、シーンの切り換わりがあると判定した場合、ステップS502に進む。   In step S501, the individual characteristic learning unit 14 determines whether or not there is a switching of the scene on which the moving body (vehicle) is placed. If it is determined that there is a switching of the scene, the process proceeds to step S502.

個体特性学習部14において、シーンの切り換わりがあるか否かを判定する具体的な方法の一例として、同一種類のシーンが連続して出現しない場合(例えば、緩やかなカーブシーンの後に、交差点シーンが出現した場合)には、シーンの切り換わりがあると判定し(ステップS501:Yes)、同一種類のシーンが連続して出現した場合(例えば、直線シーンの後に、同様の直線シーンが出現した場合)には、シーンの切り換わりがないと判定する(ステップS501:No)   As an example of a specific method for determining whether or not there is a scene change in the individual characteristic learning unit 14, when the same type of scene does not appear continuously (for example, an intersection scene after a gentle curve scene) Is determined), it is determined that there is a scene change (step S501: Yes), and if the same type of scene appears continuously (for example, a similar straight scene appears after a straight scene). In the case), it is determined that there is no scene switching (step S501: No).

ステップS502において、個体特性学習部14は、過去情報データベース13から当該シーンにおいて収集された環境情報50と、運転者の手動操作情報51とを取得して、ステップS503に進む。   In step S502, the individual characteristic learning unit 14 acquires the environment information 50 and the driver's manual operation information 51 collected in the scene from the past information database 13, and proceeds to step S503.

ステップS503において、個体特性学習部14は、個体特性の学習(個体特性モデルの生成)を実行する。これにより、個体特性学習部14により、シーンや環境情報50に対する運転者(個体)の手動操作を推測するための個体特性モデルが生成される。   In step S503, the individual characteristic learning unit 14 performs individual characteristic learning (generation of an individual characteristic model). Thereby, the individual characteristic learning unit 14 generates an individual characteristic model for estimating the manual operation of the driver (individual) with respect to the scene and the environment information 50.

なお、ステップS501において、個体特性学習部14は、シーンの切り換わりがないと判定した場合(ステップS501:No)、ステップS504に進む。   In step S501, if the individual characteristic learning unit 14 determines that there is no scene change (step S501: No), the process proceeds to step S504.

ステップS504において、個体特性学習部14は、この個体特性学習処理(ステップS501〜ステップS504)の実行時を起点として、移動体(車両)の走行距離Lが、所定の閾値Lthよりも増えているか(L≧Lth)、又は走行時間Hが、所定の閾値Hthよりも増えているか否かを判定する。   In step S504, the individual characteristic learning unit 14 determines whether the travel distance L of the moving body (vehicle) has increased beyond a predetermined threshold Lth, starting from the execution of the individual characteristic learning process (steps S501 to S504). It is determined whether (L ≧ Lth) or the traveling time H is greater than a predetermined threshold value Hth.

個体特性学習部14は、移動体の走行距離Lが、所定の閾値Lthよりも増えている(L≧Lth)と判定した場合、又は走行時間Hが、所定の閾値Hthよりも増えている(H≧Hth)と判定した場合、(ステップS504:Yes)、ステップS502に進み、当該シーンにおける環境情報50と、運転者の手動操作情報51とを取得し、何れも増えていないと判定した場合(ステップS504:No)、処理を終了する。
これにより、個体特性学習部14は、シーンの切り換わりがないと判定して場合でも、移動体が所定走行距離(又は所定走行時間)経っていると判断した場合には、シーンの切り換わり判断と同様に、個体特性モデルの生成を行う。
The individual characteristic learning unit 14 determines that the travel distance L of the moving body is greater than the predetermined threshold Lth (L ≧ Lth), or the travel time H is greater than the predetermined threshold Hth ( When it is determined that (H ≧ Hth) (step S504: Yes), the process proceeds to step S502, where the environment information 50 and the driver's manual operation information 51 in the scene are acquired, and it is determined that neither has increased. (Step S504: No), a process is complete | finished.
As a result, even when the individual characteristic learning unit 14 determines that there is no scene switching, if it is determined that the moving object has passed the predetermined travel distance (or the predetermined travel time), the scene switching determination is performed. In the same manner as above, an individual characteristic model is generated.

前述したように、個体特性学習部14では、運転者の個体特性の学習を、シーンの切り換わりや所定の走行距離を走った場合や所定の走行時間を走った場合など、比較的長い周期で行うことで、短い周期で無駄に個体特性モデルを生成(更新)してしまうことを防止することができる。   As described above, the individual characteristic learning unit 14 learns the individual characteristic of the driver at a relatively long cycle, such as when switching scenes, running a predetermined travel distance, or driving a predetermined travel time. By doing so, it is possible to prevent the individual characteristic model from being generated (updated) in a short cycle.

[個体特性学習の完了判断]
次に、学習進捗度判定部16において、個体特性の学習が完了したか否かの判断の一例を説明する。
図8は、学習進捗度判定部16における個体特性の学習完了の判断処理のフローチャートである。
[Individual characteristic learning completion judgment]
Next, an example of determining whether the learning of the individual characteristics has been completed in the learning progress determination unit 16 will be described.
FIG. 8 is a flowchart of a process for determining completion of learning of individual characteristics in the learning progress determination unit 16.

ステップS601において、学習進捗度判定部16は、移動体(車両)が置かれている現在のシーンの判定を行う。この学習進捗度判定部16によるシーンの判定は、前述した図3におけるステップS201〜S205と同様の処理により行われるので、ここでの説明は省略する。   In step S601, the learning progress determination unit 16 determines the current scene where the moving body (vehicle) is placed. Since the determination of the scene by the learning progress determination unit 16 is performed by the same processing as that in steps S201 to S205 in FIG. 3 described above, the description thereof is omitted here.

ステップS602において、学習進捗度判定部16は、過去情報データベース13から運転者(個体)の個体認証情報と現在のシーンとを取得し、現在のシーンにおける個体特性の学習結果を呼び出す。   In step S602, the learning progress degree determination unit 16 acquires the individual authentication information of the driver (individual) and the current scene from the past information database 13, and calls the learning result of the individual characteristic in the current scene.

ステップS603において、学習進捗度判定部16は、個体特性の学習結果(個体特性モデル)が存在するか否かを判定し、個体特性の学習結果が存在すると判定した場合(ステップS603:Yes)、ステップS604に進む。学習進捗度判定部16は、個体特性の学習結果が存在しないと判定した場合(ステップS603:No)、ステップS611に進み、学習進捗度を「学習未完」に設定して処理を終了する。   In step S603, the learning progress determination unit 16 determines whether or not an individual characteristic learning result (individual characteristic model) exists, and if it is determined that an individual characteristic learning result exists (step S603: Yes), The process proceeds to step S604. If the learning progress degree determination unit 16 determines that the learning result of the individual characteristic does not exist (step S603: No), the process proceeds to step S611, sets the learning progress degree to “learning incomplete”, and ends the process.

ステップS604において、学習進捗度判定部16は、移動体が、運転者による手動操作中であるか否かを判定し、手動操作中であると判定した場合(ステップS604:Yes)、ステップS605に進む。学習進捗度判定部16は、移動体が、運転者による手動操作中でないと判定した場合(ステップS604:No)、ステップS611に進み、学習進捗度を「学習未完」に設定して処理を終了する。   In step S604, the learning progress determination unit 16 determines whether or not the moving body is being manually operated by the driver. If it is determined that the moving body is being manually operated (step S604: Yes), the process proceeds to step S605. move on. When it is determined that the moving body is not being manually operated by the driver (step S604: No), the learning progress determination unit 16 proceeds to step S611, sets the learning progress to “learning incomplete”, and ends the process. To do.

ステップS605において、学習進捗度判定部16は、予め取得している環境情報50を、個体特性学習部14で生成された個体特性モデルに当て嵌め、個体適応制御の走行シミュレーションを実施して、ステップS606に進む。   In step S605, the learning progress determination unit 16 applies the environment information 50 acquired in advance to the individual characteristic model generated by the individual characteristic learning unit 14, and performs a running simulation of individual adaptive control. The process proceeds to S606.

ステップS606において、学習進捗度判定部16は、ステップS605で実施した走行シミュレーション結果(推定手動操作情報)と、運転者(個体)の実際の手動操作の操作量(手動操作情報51)とを比較し、その差分Rを算出すると共に、算出した差分Rを、過去情報データベース13に記憶する。   In step S606, the learning progress determination unit 16 compares the driving simulation result (estimated manual operation information) performed in step S605 with the actual operation amount (manual operation information 51) of the driver (individual). Then, the difference R is calculated, and the calculated difference R is stored in the past information database 13.

前述した差分Rは、ステア角(舵角量)、アクセル開度、移動チアの加速度、移動体の速度、ヨーレート(ヨー角)、障害物との位置関係や相対速度などの走行シミュレーション結果と、実際の測定値との差分である。   The above-mentioned difference R is a driving simulation result such as a steering angle (steering angle amount), an accelerator opening, a moving cheer acceleration, a moving body speed, a yaw rate (yaw angle), a positional relationship with an obstacle, a relative speed, and the like. It is the difference from the actual measured value.

また、過去情報データベース13への差分Rの記憶は、単に差分Rの累積を記憶してもよく、移動距離に対する比として記憶してもよい。   Further, the storage of the difference R in the past information database 13 may simply store the accumulation of the difference R or may store it as a ratio to the movement distance.

ステップS607において、学習進捗度判定部16は、ステップS606で算出した差分Rと、シーン(パラメータ)ごとに設定された所定の閾値Rthとを比較し、差分Rが所定の閾値Rth以下であるか否かを判定する。   In step S607, the learning progress determination unit 16 compares the difference R calculated in step S606 with a predetermined threshold Rth set for each scene (parameter), and whether the difference R is equal to or smaller than the predetermined threshold Rth. Determine whether or not.

ステップS607において、学習進捗度判定部16は、差分Rが閾値Rth以下であると判定した場合(ステップS607:Yes)、ステップS608に進み、差分Rが閾値Rth以下であると判定した場合(ステップS607:No)、ステップS611に進み、学習進捗度を「学習未完」に設定して処理を終了する。   In step S607, when the learning progress determination unit 16 determines that the difference R is equal to or less than the threshold Rth (step S607: Yes), the process proceeds to step S608, and when it is determined that the difference R is equal to or less than the threshold Rth (step S607). S607: No), the process proceeds to step S611, the learning progress is set to “learning incomplete”, and the process is terminated.

なお、ステップS607において、所定の閾値Rthの設定方法の一例として、許容範囲と考えられる数値を予め算出して設定しておいてもよく、仮の数値を設定した後、個体適応制御中に個体(運転者)のオーバーライドの有無や個体の生体情報から運転者の心拍数の増加などを取得し、オーバーライドや心拍数増加の発生頻度が所定の閾値Rth以上である場合に修正するようにしてもよい。   In step S607, as an example of a method for setting the predetermined threshold value Rth, a numerical value that is considered to be an allowable range may be calculated and set in advance. After setting the temporary numerical value, (Driver) The presence or absence of an override or an increase in the heart rate of the driver is obtained from the biological information of the individual, and correction is made when the frequency of occurrence of the override or the heart rate increase is equal to or greater than a predetermined threshold Rth. Good.

ステップS608において、学習進捗度判定部16は、過去の学習進捗度が「学習未完」状態であったか否かを判定し、「学習未完」状態であると判定した場合(ステップS608:Yes)、ステップS609に進み、「学習未完」状態ではないと判定した場合(ステップS608:No)、ステップS610に進んで、学習進捗度を「学習完了」に設定して処理を終了する。   In step S608, the learning progress determination unit 16 determines whether or not the past learning progress is in the “learning incomplete” state, and if it is determined that it is in the “learning incomplete” state (step S608: Yes), step In S609, when it is determined that it is not in the “learning incomplete” state (step S608: No), the process proceeds to step S610, the learning progress is set to “learning complete”, and the process ends.

ステップS609において、学習進捗度判定部16は、学習完了状態への移行が許可されているか否かを判定する。学習進捗度判定部16は、学習完了状態への移行が許可されていると判定した場合(ステップS609:Yes)、ステップS610に進んで、学習進捗度を「学習完了」に設定して処理を終了する。
一方、学習進捗度判定部16は、学習完了状態への移行が許可されていない判定した場合(ステップS609:No)、ステップS611に進んで、学習進捗度を「学習未完」に設定して処理を終了する。
In step S609, the learning progress determination unit 16 determines whether or not the transition to the learning completion state is permitted. When the learning progress degree determination unit 16 determines that the transition to the learning completion state is permitted (step S609: Yes), the learning progress degree determination unit 16 proceeds to step S610, sets the learning progress degree to “learning completion”, and performs processing. finish.
On the other hand, when it is determined that the transition to the learning completion state is not permitted (step S609: No), the learning progress determination unit 16 proceeds to step S611, sets the learning progress to “learning incomplete”, and performs processing Exit.

学習進捗度判定部16が、学習完了状態への移行が許可されていると判定する場合の一例として、シーンの切り換わり時とするほか、より望ましくは、少なくとも同一シーンにおいて、シーン的に不連続な2か所以上のデータ収集機会におけるシミュレーション結果(推定手動操作情報)と、運転者(個体)の実際の手動操作情報51との差分が所定の閾値以下となることを条件とするのがよい。   As an example of the case where the learning progress determination unit 16 determines that the transition to the learning completion state is permitted, it is preferable that the learning progress is performed at the time of switching scenes, and more preferably, at least in the same scene, discontinuously in a scene. It is preferable that the difference between the simulation result (estimated manual operation information) at two or more data collection opportunities and the actual manual operation information 51 of the driver (individual) is equal to or less than a predetermined threshold value. .

ここで、学習進捗度判定部16により判定された学習進捗度に基づいて、学習完了状態に移行する許可を判断する一例を説明する。
図9は、学習進捗度に基づいて、学習完了状態への移行許可を判断する一例を説明する図である。
Here, an example of determining permission to shift to the learning completion state based on the learning progress degree determined by the learning progress degree determination unit 16 will be described.
FIG. 9 is a diagram illustrating an example of determining permission to shift to the learning completion state based on the learning progress degree.

図9において、上段には、シーン分類結果が示されている。このシーン分類結果は、シーン判定部11によるシーンの判断結果(分類結果)である。   In FIG. 9, the scene classification result is shown in the upper part. This scene classification result is a scene determination result (classification result) by the scene determination unit 11.

実施の形態では、シーン分類結果として、カーブシーンと直線シーンの2つのシーンが分類されており、カーブシーン(曲がり道路)と直線シーン(直線道路)とが交互に出現する経路となっている。   In the embodiment, two scenes, a curve scene and a straight scene, are classified as a scene classification result, and a curve scene (curved road) and a straight scene (straight road) appear alternately.

シーン分類結果の下段には、差分Rが示されている。この差分Rは、手動操作推定部15で推定された運転者の個体特性のシミュレーション結果(推定手動操作情報)と、実際の運転者の手動操作情報51との差分Rの絶対値である。
なお、差分Rではなく、差分Rを累積した値(累積差分)、又はこの差分R又は累積差分を走行距離で割った値を用いてもよく、また、これらの平均値を用いてもよい。
A difference R is shown in the lower part of the scene classification result. The difference R is an absolute value of the difference R between the simulation result (estimated manual operation information) of the individual characteristics of the driver estimated by the manual operation estimation unit 15 and the actual manual operation information 51 of the driver.
Instead of the difference R, a value obtained by accumulating the difference R (cumulative difference), or a value obtained by dividing the difference R or the accumulated difference by the travel distance may be used, or an average value thereof may be used.

実施の形態では、シミュレーション結果と実際の個体の手動操作情報51との差分Rの累積は、時刻t1〜t3では所定の閾値Rth(図中の破線)未満となっており、時刻t4の時に閾値Rth以上となる。   In the embodiment, the accumulation of the difference R between the simulation result and the manual operation information 51 of the actual individual is less than a predetermined threshold Rth (dashed line in the figure) at times t1 to t3, and the threshold at time t4. Rth or higher.

差分Rの下段には、シーンごと(実施の形態では、カーブシーンと直線シーン)の学習進捗度の判定結果が示されている。   In the lower part of the difference R, the learning progress determination result for each scene (in the embodiment, a curve scene and a straight scene) is shown.

実施の形態では、同じシーン(例えば、カーブシーン)が2度あり、何れのシーンでも差分Rの値が所定の閾値Rthを超えない場合、学習進捗度の判定結果を学習完了と判定するようにしている。
具体的には、カーブシーンの学習進捗度は、1度目のカーブシーンが終了する時刻t1において一段階上昇するが、学習完了移行許可の閾値(図中の破線)は超えない。そして、カーブシーンの学習進捗度は、2度目のカーブシーンが終了する時刻t3において、さらに一段階上昇し、学習完了移行許可の閾値(図中の破線)を超える。
In the embodiment, when the same scene (for example, a curve scene) is present twice and the difference R does not exceed a predetermined threshold value Rth in any scene, the learning progress determination result is determined to be learning completion. ing.
Specifically, the learning progress of the curve scene increases by one step at time t1 when the first curve scene ends, but does not exceed the learning completion transition permission threshold (broken line in the figure). The learning progress of the curve scene further increases by one step at time t3 when the second curve scene ends, and exceeds the learning completion transition permission threshold (broken line in the figure).

この結果、図9の学習進捗度の下段に示すように、学習進捗度判定部16は、時刻t3で、カーブシーンでの個体特性の学習が完了したと判定し、次のカーブシーンが時刻t4以降で出現した場合、当該カーブシーンにおいて個体適応制御を実施する。   As a result, as shown in the lower stage of the learning progress in FIG. 9, the learning progress determination unit 16 determines that the learning of the individual characteristics in the curve scene is completed at time t3, and the next curve scene is at time t4. When it appears later, individual adaptive control is performed in the curve scene.

一方、直線シーンの学習進捗度は、1度目の直線シーンが終了する時刻t2において一段階上昇するが、学習完了移行許可の閾値(図中の破線)は超えない。そして、2度目の直線シーンが終了する時刻t4において、前述した差分Rが、所定の閾値Rthを超えるため、直線シーンの学習進捗度は、時刻t2以降は上昇せず、学習完了移行許可の閾値(図中の破線)は超えない。   On the other hand, the learning progress of the straight line scene increases by one step at time t2 when the first straight line scene ends, but does not exceed the learning completion transition permission threshold value (broken line in the figure). At time t4 when the second straight scene ends, the difference R described above exceeds a predetermined threshold value Rth. Therefore, the learning progress of the straight line scene does not increase after time t2, and the learning completion transition permission threshold value. (Dashed line in the figure) is not exceeded.

この結果、図9の学習進捗度の下段に示すように、学習進捗度判定部16は、次の直線シーンが時刻t4以降で出現した場合でも、当該直線シーンにおいて個体適応制御を実施せず、予め初期設定されている自動運転制御を実施する。   As a result, as shown in the lower stage of the learning progress level in FIG. 9, even when the next straight line scene appears after time t4, the learning progress level determination unit 16 does not perform the individual adaptive control in the straight line scene, The automatic operation control that is preset in advance is executed.

なお、差分Rが、所定の閾値を超えた時刻t3〜t4の走行後、直線シーンの学習進捗度を据え置かず、引き下げてもよい。また、学習進捗度の判定は、必ずしも段階的(実施の形態では、2段階)である必要はなく、差分Rと所定の閾値Rthとの差の大きさによって連続的に変化するものとしてもよい。この結果、ある特定のシーン(場所)のみでしか実際の個体特性に適合しないような、いわゆる過学習などの不適切な学習状態において、個体適応制御を実施してしまうことを防ぐことができる。   It should be noted that after traveling at times t3 to t4 when the difference R exceeds a predetermined threshold, the learning progress of the straight line scene may be lowered without deferring. The determination of the learning progress level is not necessarily stepwise (in the embodiment, two steps), and may be continuously changed depending on the difference between the difference R and the predetermined threshold value Rth. . As a result, it is possible to prevent the individual adaptive control from being performed in an inappropriate learning state such as so-called over-learning that is adapted to actual individual characteristics only in a specific scene (location).

[安全判定部]
なお、実施の形態では、自動制御装置1は、個体特性学習部14での学習結果(生成された個体特性モデル)に基づく個体適応制御が、移動体(車両)の自動運転において安全か否かを判定する安全判定部20を、さらに有している。
図10は、安全判定部20を説明するブロック図である。
[Safety judgment section]
In the embodiment, the automatic control apparatus 1 determines whether or not the individual adaptive control based on the learning result (generated individual characteristic model) in the individual characteristic learning unit 14 is safe in the automatic driving of the moving object (vehicle). It further has a safety judgment unit 20 for judging the above.
FIG. 10 is a block diagram illustrating the safety determination unit 20.

図10に示すように、安全判定部20は、安全検証用シナリオデータベース(DB)21と、走行模擬部22と、危険事象判定部23とを有している。   As shown in FIG. 10, the safety determination unit 20 includes a safety verification scenario database (DB) 21, a travel simulation unit 22, and a dangerous event determination unit 23.

安全検証用シナリオデータベース21には、様々な走行状態、走行環境について、事故に繋がる可能性のある事象、例えば、車両の挙動を不安定にさせるような事象や、他車の動作が異常なため衝突などの危険が起こる可能性がある事象など、走行中に発生する可能性のある危険事象の様々なシナリオデータが記憶されている。   In the scenario database 21 for safety verification, an event that may lead to an accident, for example, an event that makes the behavior of the vehicle unstable or an operation of another vehicle is abnormal for various driving conditions and driving environments. Various scenario data of dangerous events that may occur during traveling, such as events that may cause a danger such as a collision, are stored.

前述した車両の挙動を不安定にさせるような事象は、例えば、環境情報50を取得するための各種センサの出力が不安定である場合、横風や路面の凹凸が大きくハンドルを取られやすい場合などが挙げられる。   For example, when the output of various sensors for acquiring the environmental information 50 is unstable, the side wind or the road surface is uneven, and the handle can be easily taken. Is mentioned.

安全検証用シナリオデータベース21に記憶されているシナリオデータは、所定の危険事象に基づいて予め作成されている。また、このシナリオデータは、他の移動体(他車両)などから収集された環境情報50に基づいて、実際に事故が発生したり、移動体(他車両)に大きな加速度が加わったり、運転者(個体)の生体情報として心拍数が急に増加した時のシーンを参照して更新される。   The scenario data stored in the safety verification scenario database 21 is created in advance based on a predetermined dangerous event. The scenario data is based on the environmental information 50 collected from other moving bodies (other vehicles) or the like, an actual accident occurs, a large acceleration is applied to the moving body (other vehicles), the driver The biometric information of (individual) is updated with reference to the scene when the heart rate suddenly increases.

このように、安全検証用シナリオデータベース21では、実際に危険事象が発生した際の状況に基づいてシナリオデータが更新されることで、より多くの危険事象におけるシナリオデータが記憶され、様々な危険事象に対応できるようになっている。   Thus, in the scenario database 21 for safety verification, scenario data in more dangerous events is stored by updating the scenario data based on the situation when the dangerous event actually occurs, and various dangerous events are stored. Can be adapted to.

走行模擬部22は、安全検証用シナリオデータベース21から、検証を行う個体特性モデル(運転者)の対象となるシーンシナリオを抽出する。そして、走行模擬部22は、個体特性学習部14で生成した運転者の個体特性モデルと、安全検証用シナリオデータベース21から抽出したシーンシナリオと、シーン判定部11で判定されたシーン(判定結果)とに基づいて、走行シミュレーション(模擬走行)を実施する。
これにより、走行模擬部22では、所定のシーンにおいて危険事象が発生した場合、当該運転者の個体特性モデルがどのような運転を行うのかという走行シミュレーションが実施される。
The traveling simulation unit 22 extracts a scene scenario that is a target of the individual characteristic model (driver) to be verified from the safety verification scenario database 21. The driving simulation unit 22 then generates the individual characteristic model of the driver generated by the individual characteristic learning unit 14, the scene scenario extracted from the scenario database 21 for safety verification, and the scene determined by the scene determination unit 11 (determination result). Based on the above, a running simulation (simulated running) is performed.
As a result, the driving simulation unit 22 performs a driving simulation of what kind of driving the individual characteristic model of the driver performs when a dangerous event occurs in a predetermined scene.

危険事象判定部23は、走行模擬部22から走行シミュレーションの結果を取得し、危険事象の発生の有無又は危険の程度を判定すると共に、当該判定結果を、安全度評価結果として、自動制御装置1の制御部17(図1参照)に出力する。   The dangerous event determination unit 23 acquires the result of the traveling simulation from the traveling simulation unit 22, determines whether or not the dangerous event has occurred, or the degree of danger, and uses the determination result as the safety evaluation result. To the control unit 17 (see FIG. 1).

制御部17では、危険事象判定部23での安全度評価結果に基づいて、個体適応制御を実施するか否かの判定が行われる。このように、制御部17が、安全度評価結果に基づいて個体適応制御を行うか否かの判断を行うことで、例えば、運転者の個体特性の学習に基づいて作成された個体特性モデルが危険事象に対応できなかったり、危険な運転を行う傾向がある運転者の個体特性を学習してしまった場合でも、個体適応制御を実行しないことで、実際に危険運転を行うことを阻止することができる。   In the control unit 17, it is determined whether or not to perform the individual adaptive control based on the safety degree evaluation result in the dangerous event determination unit 23. In this way, the control unit 17 determines whether or not to perform individual adaptive control based on the safety degree evaluation result, so that, for example, an individual characteristic model created based on learning of the individual characteristic of the driver is obtained. Even if the individual characteristics of a driver who cannot respond to a dangerous event or who tends to perform dangerous driving have been learned, the actual dangerous driving is prevented by not executing the individual adaptive control. Can do.

次に、危険事象判定部23による危険事象発生の判断の一例を説明する。
図11は、危険事象判定部による危険事象発生の判断の一例を説明する図であり、同図の上段は、時刻と先行車両の速度との関係を示す図であり、同図の下段は、時刻と先行車両との車間距離を示す図である。
なお、図11の下段において、危険事象を適切に回避した場合を実践で示し、危険事象を回避できない場合を破線で示す。
Next, an example of determination of occurrence of a dangerous event by the dangerous event determination unit 23 will be described.
FIG. 11 is a diagram illustrating an example of determination of occurrence of a dangerous event by the dangerous event determination unit. The upper part of FIG. 11 is a diagram showing the relationship between time and the speed of a preceding vehicle, and the lower part of FIG. It is a figure which shows the inter-vehicle distance of time and a preceding vehicle.
In the lower part of FIG. 11, a case where the dangerous event is appropriately avoided is shown in practice, and a case where the dangerous event cannot be avoided is indicated by a broken line.

図11の上段に示すように、例えば、先行車両は、所定の時刻t1までは、直線道路などを一定の車速で走行しており、時刻t1を過ぎた後、急に減速を開始した場合を示している。
これは安全検証用シナリオデータベース21に記憶されているシナリオデータであり、この場合の危険事象は、自車両が先行車両に衝突する可能性がるほど接近(許容最短車間距離Lthよりも近くに接近)することである。
As shown in the upper part of FIG. 11, for example, the preceding vehicle travels on a straight road or the like at a constant vehicle speed until a predetermined time t1, and the vehicle suddenly starts to decelerate after time t1. Show.
This is scenario data stored in the scenario database 21 for safety verification. In this case, the dangerous event is so close that the host vehicle may collide with the preceding vehicle (approaching closer to the allowable minimum inter-vehicle distance Lth). )It is to be.

走行模擬部22では、個体特性学習部14で生成された個体特性モデルと、シーン判定部11で判定されたシーン(判定結果)と、安全検証用シナリオデータベース21から抽出したシナリオデータと、に基づいて走行シミュレーション(模擬走行)を行う。   The traveling simulation unit 22 is based on the individual characteristic model generated by the individual characteristic learning unit 14, the scene (determination result) determined by the scene determination unit 11, and the scenario data extracted from the safety verification scenario database 21. Running simulation (simulated running).

その結果、図11の下段に示すように、先行車両の急減速に自車両が対応できず所定の車間距離(許容最短車間距離Lth)より近くに接近してしまう場合(図11の下段の破線)、危険事象判定部23は、危険事象が発生したと判定し、当該個体特性モデルを安全不十分のモデルと判定する。   As a result, as shown in the lower part of FIG. 11, when the host vehicle cannot cope with the sudden deceleration of the preceding vehicle and approaches closer to a predetermined inter-vehicle distance (allowable shortest inter-vehicle distance Lth) (the broken line in the lower part of FIG. 11). ), The dangerous event determination unit 23 determines that a dangerous event has occurred, and determines that the individual characteristic model is a model with insufficient safety.

一方、自車両の車速制御や操舵制御などで、自車両と先行車両との車間距離が、所定の許容最短車間距離Lthよりも近づかないように運転することができれば(図11の下段の実線)、危険事象判定部23は、危険事象が発生しないと判定し、当該個体特性モデルを安全なモデルと判定する。   On the other hand, if it is possible to drive the vehicle so that the distance between the vehicle and the preceding vehicle is not closer than the predetermined allowable shortest vehicle distance Lth by vehicle speed control or steering control of the vehicle (solid line in the lower part of FIG. 11). The dangerous event determination unit 23 determines that no dangerous event occurs, and determines that the individual characteristic model is a safe model.

安全判定部20は、前述した安全検証を、安全検証用シナリオデータベース21に記憶されている全てのシナリオデータ(危険事象)に対して行い、各々のシーンでの個体特性モデルの安全性の検証を行う。   The safety determination unit 20 performs the above-described safety verification on all scenario data (dangerous events) stored in the safety verification scenario database 21, and verifies the safety of the individual characteristic model in each scene. Do.

なお、前述した実施の形態では、自動制御装置1を、車両の個体適応制御に適用した場合を例示して説明したが、車両の個体適応制御に限定されるものではなく、その他の機器の個体適応制御にも適用することができる。
例えば、ドローンの飛行を地形や気象条件、飛行目的といったシーンに合わせて効率的に自動運転させるために、操作者の手動操作を学習する個体適応制御にも適用できる。
In the above-described embodiment, the case where the automatic control device 1 is applied to the individual adaptive control of the vehicle has been described as an example. However, the embodiment is not limited to the individual adaptive control of the vehicle. It can also be applied to adaptive control.
For example, the present invention can be applied to individual adaptive control that learns an operator's manual operation in order to efficiently and automatically drive a drone flight according to a scene such as terrain, weather conditions, and flight purpose.

また、工場などの製造現場や建設現場、採掘現場などで使用される機器を自動化するにあたって、熟練者の手動操作を学習する個体適応制御にも活用できる。   It can also be used for individual adaptive control that learns manual operations by skilled workers when automating equipment used at manufacturing sites such as factories, construction sites, and mining sites.

以上の通り、実施の形態では、
(1)車両などの移動体(機器)の操作を行う運転者(個体)を認証する個体認証部12と、移動体が置かれているシーンを判定するシーン判定部11と、運転者の個体特性を学習する個体特性学習部14と、運転者の個体特性に基づいて、運転者による移動体の手動操作を推定する手動操作推定部15と、シーン判定部11で判定された所定のシーンにおいて、運転者の個体特性に基づいて手動操作推定部15で推定した推定手動操作情報(推定手動操作)と、当該運転者による移動体の実際の手動操作情報51(手動操作)とを比較して、所定のシーンにおける学習進捗度を判定する学習進捗度判定部16と、シーン判定部11で判定された所定のシーンごとの学習進捗度の判定結果に基づいて、運転者の個体特性に適応した自動制御の実施または不実施を、シーンごとに決定する制御部17と、を有する構成とした。
As described above, in the embodiment,
(1) An individual authentication unit 12 that authenticates a driver (individual) who operates a moving body (device) such as a vehicle, a scene determination unit 11 that determines a scene where the moving body is placed, and an individual of the driver In a predetermined scene determined by the scene determination unit 11, the individual characteristic learning unit 14 that learns the characteristics, the manual operation estimation unit 15 that estimates the manual operation of the moving body by the driver based on the individual characteristics of the driver The estimated manual operation information (estimated manual operation) estimated by the manual operation estimation unit 15 based on the individual characteristics of the driver is compared with the actual manual operation information 51 (manual operation) of the moving body by the driver. The learning progress determination unit 16 that determines the learning progress in a predetermined scene and the determination result of the learning progress for each predetermined scene determined by the scene determination unit 11 are adapted to the individual characteristics of the driver. Automatic control The facilities or non-implementation, and configured to have a control unit 17 for determining for each scene, the.

このように構成すると、自動制御装置1では、シーン判定部11で判定されたシーンごとに運転者の個体特性の学習進捗度を判定する学習進捗度判定部16を有しているので、制御部17では、このシーンごとに判定した学習進捗度に基づいて、個体適応制御の実施/または不実施を決定することができる。   If comprised in this way, in the automatic control apparatus 1, since it has the learning progress determination part 16 which determines the learning progress of a driver | operator's individual characteristic for every scene determined by the scene determination part 11, a control part In 17, it is possible to determine whether or not to perform the individual adaptive control based on the learning progress determined for each scene.

また、学習進捗度判定部16は、シーン判定部11で判定されたシーンごとに学習進捗度を判定するようにしたので、制御部17は、シーンごとに個体適応制御を行うか否かの判定を行うことができ、学習進捗度の高いシーンから迅速に個体適応制御の実施を行うことができる。よって、運転者に違和感を与えることを防止することができる。   In addition, since the learning progress determination unit 16 determines the learning progress for each scene determined by the scene determination unit 11, the control unit 17 determines whether to perform individual adaptive control for each scene. It is possible to perform individual adaptive control quickly from a scene with a high learning progress. Therefore, it is possible to prevent the driver from feeling uncomfortable.

(2)運転者の個体特性に適応した自動制御により移動体を操作した場合に、移動体が安全な状態を保てるか否かを判定する安全判定部20を、さらに有し、制御部17は、安全判定部20により、移動体が安全な状態を保てると判定された場合にのみ、運転者の個体特性に適応した自動制御を実施する構成とした。 (2) When the moving body is operated by automatic control adapted to the individual characteristics of the driver, the control section 17 further includes a safety determination unit 20 that determines whether or not the moving body can maintain a safe state. Only when it is determined by the safety determination unit 20 that the moving body can maintain a safe state, automatic control adapted to the individual characteristics of the driver is performed.

このように構成すると、制御部17は、安全判定部20により、個体適応制御を行った結果、移動体が安全な状態を保てると判定された場合のみ個体適応制御を行うようにしたので、安全判定部20により、学習進捗度が高い場合であっても、移動体の安全が保てないと判定された場合には個体適応制御を行わない。
よって日常的に危険操作を行うような運転者の個体特性を学習してしまった場合でも、個体適応制御を実施しないことにより、移動体が危険な状態になることを防止できる。
With this configuration, the control unit 17 performs the individual adaptive control only when it is determined by the safety determination unit 20 that the mobile body can maintain a safe state as a result of performing the individual adaptive control. Even if the determination unit 20 determines that the degree of progress of learning is high, the individual adaptive control is not performed if it is determined that the safety of the moving object cannot be maintained.
Therefore, even if the individual characteristics of the driver who perform a dangerous operation on a daily basis are learned, it is possible to prevent the moving body from entering a dangerous state by not performing the individual adaptive control.

(3)シーン判定部11は、所定のシーンに含まれる少なくとも2以上の不連続な第1シーン(例えば、緩やかなカーブシーン)と、第2シーン(例えば、交差点シーン)とを判定し、制御部17は、学習進捗度判定部16により、少なくとも2以上の不連続な第1シーンと、第2シーンにおける学習進捗度の判定結果が何れも学習完了状態であると判定された場合に、運転者の個体特性に適応した自動制御を実施する構成とした。 (3) The scene determination unit 11 determines and controls at least two or more discontinuous first scenes (for example, gentle curve scenes) and second scenes (for example, intersection scenes) included in a predetermined scene. The unit 17 operates when the learning progress determination unit 16 determines that at least two discontinuous first scenes and the determination result of the learning progress in the second scene are both in the learning completed state. Automatic control adapted to the individual characteristics of the person.

このように構成すると、学習進捗度判定部16は、所定の同一シーンに含まれる異なる2か所以上のシーンで学習進捗度を判定するので、所定の同一シーンのほとんど変わらない複数のシーンで学習進捗度を無駄に判定してしまうことを防ぐことができ、より確実に当該所定のシーンの学習進捗度を判定することができる。   With this configuration, the learning progress degree determination unit 16 determines the learning progress degree in two or more different scenes included in the same predetermined scene. It is possible to prevent the progress degree from being judged unnecessarily, and the learning progress degree of the predetermined scene can be judged more reliably.

(4)シーン判定部11は、所定のシーンに含まれる互いに所定距離離れた第3シーン(例えば、第1の直線シーン)と、第4シーン(例えば、第2の直線シーン)とを判定し、制御部17は、学習進捗度判定部16により、所定のシーンにおいて、互いに所定距離離れた第3シーンと、第4シーンにおける学習進捗度の判定結果がいずれも学習完了状態であると判定された場合に、運転者の個体特性に適応した自動制御を実施する構成とした。 (4) The scene determination unit 11 determines a third scene (for example, a first straight scene) and a fourth scene (for example, a second straight scene) that are included in the predetermined scene and are separated from each other by a predetermined distance. In the predetermined progress, the control unit 17 determines that the learning progress degree determination results in the third scene and the fourth scene that are separated from each other in the predetermined scene are in the learning completed state. In this case, the automatic control adapted to the individual characteristics of the driver is implemented.

このように構成すると、学習進捗度判定部16は、所定の同一シーンに含まれる互いに所定距離離れた2か所以上のシーンで学習進捗度を判定するので、所定の同一シーンのほとんど変わらない位置の複数のシーンで学習進捗度を無駄に判定してしまうことを防ぐことができ、より確実に当該所定のシーンの学習進捗度を判定することができる。   With this configuration, the learning progress determination unit 16 determines the learning progress in two or more scenes included in the predetermined same scene and separated from each other by a predetermined distance. Therefore, it is possible to prevent the learning progress degree from being determined wastefully in the plurality of scenes, and it is possible to more reliably determine the learning progress degree of the predetermined scene.

(5)移動体が置かれているシーンを複数記憶するシーン判定基準データベース10を、さらに有し、シーン判定基準データベース10は、学習進捗度判定部16で判定された所定のシーンの学習進捗度の判定結果(差分R)が、所定の閾値Rthよりも低い場合、または学習進捗度判定部16で算出された所定のシーンの学習効率Kが、所定の閾値Kthよりも低い場合に、所定のシーン(例えば、カーブシーン)を、当該所定のシーン(カーブシーン)とは異なる他のシーン(例えば、緩やかなカーブシーンと急なカーブシーン)に変更する構成とした。 (5) It further includes a scene determination reference database 10 that stores a plurality of scenes on which moving bodies are placed, and the scene determination reference database 10 has a learning progress of a predetermined scene determined by the learning progress determination unit 16. The determination result (difference R) is lower than a predetermined threshold Rth, or the learning efficiency K of the predetermined scene calculated by the learning progress determination unit 16 is lower than the predetermined threshold Kth. The scene (for example, a curve scene) is changed to another scene (for example, a gentle curve scene and a steep curve scene) different from the predetermined scene (curve scene).

どの運転者にとっても学習進捗度の著しく低いシーンは、シーンの分類に問題がある可能性が高く、このような学習進捗度の著しく低いシーンをいつまでも記憶していても、当該シーンにおいて適切な学習を行うことができない。また、このようなシーンの記憶を継続することは、データベースのメモリ容量を無駄に使うことになり、維持・管理コストも増加してしまう。
このように構成すると、学習進捗度の低いシーンを見直して、新たなシーンに再分類することで、再分類した新たなシーンでの学習を効率的に行うことができる。また、学習進捗度の著しく低いシーンを再分類して更新することで、データベースのメモリ容量の無駄をなくし、維持・管理コストの最適化を行うことができる。
Scenes with extremely low learning progress for any driver are likely to have a problem with the classification of the scene, and even if a scene with such extremely low learning progress is stored indefinitely, appropriate learning in that scene is possible. Can not do. Further, continuing to store such scenes wastes the memory capacity of the database and increases the maintenance and management costs.
With this configuration, it is possible to efficiently perform learning in the reclassified new scene by reviewing the scene with low learning progress and reclassifying the scene into a new scene. In addition, by reclassifying and updating scenes with extremely low learning progress, it is possible to eliminate waste of memory capacity of the database and optimize maintenance and management costs.

(6)学習進捗度判定部16は、変更された後の他のシーン(例えば、緩やかなカーブシーンと急なカーブシーン)の学習進捗度の判定を、変更される前の所定のシーン(例えば、カーブシーン)の学習進捗度の判定に用いた推定手動操作情報(個体特性モデル)と、移動体の実際の手動操作情報51とを比較することで行い、
シーン判定基準データベース10は、他のシーン(例えば、緩やかなカーブシーンと急なカーブシーン)における、学習進捗度の判定結果が所定の閾値以上である場合、他のシーン(例えば、緩やかなカーブシーンと急なカーブシーン)を所定のシーン(例えば、カーブシーン)に置き換えて記憶する構成とした。
(6) The learning progress degree determination unit 16 determines the learning progress degree of other scenes after the change (for example, a gentle curve scene and a steep curve scene). , Curve scene) is performed by comparing the estimated manual operation information (individual characteristic model) used for the determination of the learning progress degree and the actual manual operation information 51 of the moving object,
When the learning progress determination result in a different scene (for example, a gentle curve scene and a steep curve scene) is equal to or greater than a predetermined threshold, the scene determination reference database 10 And a steep curve scene) are replaced with a predetermined scene (for example, a curve scene) and stored.

このように構成すると、変更される前のシーンの推定手動操作情報(個体特性モデル)を有効に活用することがき、シーン判定基準データベース10の更新処理を迅速に行うことができる。   If comprised in this way, the estimated manual operation information (individual characteristic model) of the scene before a change can be utilized effectively, and the update process of the scene determination reference | standard database 10 can be performed rapidly.

[シーン一致度検証部]
なお、前述した実施の形態では、学習効率Kの著しく低い所定のシーンを細分化して、新たなシーンに再分類する場合を例示して説明したが、これに限定されるものではない。例えば、細分化された2以上のシーンを纏めて大分類のシーンに再分類してもよい。
また、シーンの学習効率Kに関わらず、一のシーンと他のシーンが一致すると判定された場合には、一つのシーンに再分類しても良い。
[Scene coincidence verification unit]
In the above-described embodiment, the case where a predetermined scene with extremely low learning efficiency K is subdivided and reclassified into a new scene is described as an example. However, the present invention is not limited to this. For example, two or more subdivided scenes may be collected and reclassified into a large classification scene.
In addition, regardless of the learning efficiency K of the scene, when it is determined that one scene matches another scene, the scene may be reclassified into one scene.

次に、他の実施の形態にかかる自動制御装置1のシーン一致度検証部30を説明する。
図12は、シーン一致度検証部30を説明するブロック図である。
Next, the scene matching degree verification unit 30 of the automatic control device 1 according to another embodiment will be described.
FIG. 12 is a block diagram for explaining the scene matching degree verification unit 30.

図12に示すように、シーン一致度検証部30は、走行シーンシナリオデータベース31と、再分類判定部32とを有している。   As illustrated in FIG. 12, the scene matching degree verification unit 30 includes a travel scene scenario database 31 and a reclassification determination unit 32.

走行シーンシナリオデータベース31は、シーン判定基準データベース10に記憶されている各々のシーンを含む走行シーンシナリオが複数保存されている。
ここで、走行シーンシナリオは、車両などの移動体が走行する道路の所定のシーンと、移動体が当該所定のシーンを走行する際の環境情報を含んだ情報(シナリオ)である。
The traveling scene scenario database 31 stores a plurality of traveling scene scenarios including each scene stored in the scene determination reference database 10.
Here, the traveling scene scenario is information (scenario) including a predetermined scene on a road on which a moving body such as a vehicle travels and environment information when the moving body travels on the predetermined scene.

走行模擬部22は、走行シーンシナリオデータベース31から、全ての走行シーンシナリオを読み出すと共に、個体特性学習部14で生成された、走行シーンシナリオに含まれる各シーンに対応する個体特性モデルを読み出す。   The traveling simulation unit 22 reads out all the traveling scene scenarios from the traveling scene scenario database 31 and also reads out individual characteristic models corresponding to the respective scenes included in the traveling scene scenario generated by the individual characteristic learning unit 14.

走行模擬部22では、例えば、読み出した全ての走行シーンシナリオの内の一つに対して、読み出した全ての個体特性モデルを一つ一つ当て嵌めて走行シミュレーション(模擬走行)を実行する。そして、走行模擬部22では、読み出した全ての走行シーンシナリオについて、同じ処理を実行する。   For example, the traveling simulation unit 22 executes a traveling simulation (simulated traveling) by fitting all the read individual characteristic models one by one to one of all the read traveling scene scenarios. Then, the traveling simulation unit 22 executes the same processing for all the read traveling scene scenarios.

再分類判定部32では、走行模擬部22での走行シミュレーション(模擬走行)の結果、走行シミュレーションが一致(または類似)する複数の走行シーンシナリオ(例えば、勾配の緩やかな直線シーンシナリオと勾配の急な直線シーンシナリオ)を、一つに纏めて新たな走行シーンシナリオ(例えば、直線シーンシナリオ)を作成する。   In the reclassification determination unit 32, as a result of the driving simulation (simulated driving) in the driving simulation unit 22, a plurality of driving scene scenarios (for example, a straight-line scene scenario with a gentle gradient and a steep gradient) with matching (or similar) driving simulations. New travel scene scenarios (for example, straight scene scenarios) are created.

これにより、走行シーンシナリオデータベース31に記憶される走行シーンシナリオ(シーン判定基準データベース10に記憶されるシーン)の数を減らすことができる。よって、シーンを記憶するシーン判定基準データベース10のメモリ領域を少なくすることができ、メモリ領域が膨大になることによる自動制御装置1の製造、管理コストの増加を防止することができる。   Thereby, the number of driving scene scenarios (scenes stored in the scene determination reference database 10) stored in the driving scene scenario database 31 can be reduced. Therefore, the memory area of the scene determination reference database 10 for storing scenes can be reduced, and an increase in manufacturing and management costs of the automatic control device 1 due to the enormous memory area can be prevented.

<第2の実施の形態>
次に、第2の実施の形態にかかる自動制御装置1Aを説明する。
第2の実施の形態にかかる自動制御装置1Aを、介護を必要としている者(以下、要介護者又は見守り対象者という)の見守り介護システムにおいて、当該介護システムの個体特性の学習に適用した場合を例示して説明する。
図13は、第2の実施の形態にかかる自動制御装置1Aを説明するブロック図である。なお、前述した実施の形態と同様の構成については、同一の番号を付し、必要に応じて説明する。
<Second Embodiment>
Next, an automatic control apparatus 1A according to the second embodiment will be described.
When the automatic control device 1A according to the second embodiment is applied to learning of individual characteristics of a care system in a watch care system of a person who needs care (hereinafter referred to as a care recipient or a person to be watched over) An example will be described.
FIG. 13 is a block diagram illustrating an automatic control apparatus 1A according to the second embodiment. In addition, the same number is attached | subjected about the structure similar to embodiment mentioned above, and it demonstrates as needed.

[自動制御装置]
図13に示すように、自動制御装置1Aでは、要介護者環境情報53が、シーン判定部11に入力されるようになっている。
要介護者環境情報53は、要介護者(見守り対象者)の周囲の情報(気象、位置、要介護者が興味を示している物体情報など)の外部環境情報と、要介護者の生体情報や移動速度などの内部環境情報が含まれる。
[Automatic control device]
As shown in FIG. 13, in the automatic control device 1 </ b> A, care recipient environment information 53 is input to the scene determination unit 11.
The care recipient environment information 53 includes external environment information such as information around the care recipient (person to be watched) (weather, location, object information that the care recipient is interested in), and biological information of the care recipient. And internal environment information such as travel speed.

要介護者環境情報53は、要介護者が入所する施設内やインフラ側に取り付けられたカメラなどで収集してもよく、要介護者が身につけるウェアラブル端末で収集してもよい。   The care recipient environment information 53 may be collected by a camera or the like attached to the facility or the infrastructure side where the care recipient enters, or may be collected by a wearable terminal worn by the care recipient.

過去情報データベース13には、介護者判断情報54が入力されるようになっている。介護者判断情報54は、介護者(要介護者を介護する者)が周囲の状況を確認し、判断した危険度の情報であり、過去情報データベース13の所定のメモリアドレスに記憶されている。介護者判断情報54は、介護者による入力(危険度の判断結果)がない場合、危険度が0(ゼロ)の判断が行われたとする。   The caregiver determination information 54 is input to the past information database 13. The caregiver determination information 54 is information on the degree of risk determined by the caregiver (the person who cares for the care recipient) after confirming the surrounding situation, and is stored in a predetermined memory address of the past information database 13. It is assumed that the caregiver determination information 54 is determined to have a risk level of 0 (zero) when there is no input by the caregiver (risk level determination result).

また、自動制御装置1Aでは、危険事象判定部18を有している。
危険事象判定部18は、現在の要介護者環境情報53と、個体特性学習部14で生成された個体特性モデルと、が入力されている。危険事象判定部18は、これらの入力された要介護者環境情報53と、個体特性モデルとから危険事象の有無の判断や、危険事象の発生確率の推定を行う。
Further, the automatic control device 1A has a dangerous event determination unit 18.
The dangerous event determination unit 18 receives the current care recipient environment information 53 and the individual characteristic model generated by the individual characteristic learning unit 14. The dangerous event determination unit 18 determines whether or not there is a dangerous event and estimates the probability of occurrence of the dangerous event from the inputted care recipient environment information 53 and the individual characteristic model.

ここで、危険事象とは、一例として、要介護者が交通量の多い道に近づいたり、怪我や落下の危険性のある対象物に興味を持っている状況を意味する。   Here, the dangerous event means, for example, a situation in which a care recipient is approaching a road with a lot of traffic or is interested in an object with a risk of injury or dropping.

学習進捗度判定部16は、危険事象判定部18での危険事象の判定結果と、介護者判断情報54(介護者の危険度の判断結果)とを比較し、この差分Rが小さいほど、当該シーンにおける個体特性の学習進捗度が高いと判定する。   The learning progress determination unit 16 compares the determination result of the dangerous event in the dangerous event determination unit 18 with the caregiver determination information 54 (the determination result of the caregiver's risk level). It is determined that the learning progress of individual characteristics in the scene is high.

そして、制御部17では、学習進捗度が高いと判定されたシーンから、個体適応学制御を実施し、学習進捗度が低いと判定されたシーンについては、学習進捗度が高いと判定されるまで個体適応制御を実施しない。   Then, the control unit 17 performs individual adaptive control from a scene determined to have a high learning progress, and for a scene determined to have a low learning progress, until the learning progress is determined to be high. Individual adaptive control is not implemented.

[個体適応制御]
次に、第2の実施の形態にかかる自動制御装置1Aにおける個体適応制御の流れを説明する。
図14は、個体適応制御の流れを説明するフローチャートである。
[Individual adaptive control]
Next, the flow of individual adaptive control in the automatic control apparatus 1A according to the second embodiment will be described.
FIG. 14 is a flowchart for explaining the flow of individual adaptive control.

ステップS701において、見守り介護システムの全体制御部(図示せず)では、各データ収集及び個体特性の学習のトリガとして、見守り介護システムの制御が許可されているか否かを判定する。   In step S701, an overall control unit (not shown) of the watching care system determines whether control of the watching care system is permitted as a trigger for collecting each data and learning individual characteristics.

全体制御部(図示せず)は、制御が許可されていると判定した場合(ステップS701:Yes)、ステップS702に進み、制御が許可されていないと判定した場合(ステップS701:No)、本処理を終了する。
制御許可の判定は、介護者の見守り介護システムの起動スイッチのON/OFFを基準に行ってもよく、見守り介護システムの電源のON/OFFを基準に行ってもよい。
When it is determined that the control is permitted (step S701: Yes), the overall control unit (not shown) proceeds to step S702, and when it is determined that the control is not permitted (step S701: No), this End the process.
The determination of the control permission may be performed based on ON / OFF of the start switch of the caregiver's watching care system, or may be performed based on the ON / OFF of the power supply of the watching care system.

ステップS702において、見守り介護システムの全体制御部(図示せず)は、要介護者の周囲の環境情報(要介護者環境情報53)を取得し、過去情報データベース13に送信する。   In step S <b> 702, the overall control unit (not shown) of the watch-care system acquires environmental information around the care recipient (care recipient environment information 53) and transmits it to the past information database 13.

ステップS703において、制御部17は、個体適応判断が許可されているか否かを判定する。制御部17は、個体適応判断が許可されていると判定した場合(ステップS703:Yes)、ステップS704に進み、個体適応判断が許可されていないと判定された場合(ステップS703:No)、ステップS706に進み、予め初期設定(デフォルト)された制御を実施する。   In step S703, the control unit 17 determines whether individual adaptation determination is permitted. When it is determined that the individual adaptation determination is permitted (step S703: Yes), the control unit 17 proceeds to step S704, and when it is determined that the individual adaptation determination is not permitted (step S703: No), the step Proceeding to S706, control that is initially set (default) in advance is performed.

ステップS704において、学習進捗度判定部16は、現在のシーンにおいて、個体特性の学習が完了しているか否かを判定する。学習進捗度判定部16は、現在のシーンにおいて、学習進捗度が所定の閾値よりも高いと判定した場合(ステップS704:Yes)、ステップS705に進み、学習進捗度が所定の閾値よりも低いと判定した場合(ステップS704:No)、ステップS706に進み、予め初期設定(デフォルト)された制御を実施する。   In step S704, the learning progress determination unit 16 determines whether learning of individual characteristics is completed in the current scene. When the learning progress determination unit 16 determines that the learning progress is higher than the predetermined threshold in the current scene (step S704: Yes), the process proceeds to step S705, and the learning progress is lower than the predetermined threshold. When it determines (step S704: No), it progresses to step S706 and implements the control initially set (default) beforehand.

そして、ステップS705において、制御部17は、個体適応制御を実施して処理を終了する。   In step S705, the control unit 17 performs the individual adaptive control and ends the process.

[過去情報データベースの更新処理]
次に、過去情報データベース13の更新処理を説明する。
図15は、過去情報データベース13の更新処理のフローチャートである。
[Update processing of past information database]
Next, the update process of the past information database 13 will be described.
FIG. 15 is a flowchart of the update process of the past information database 13.

ステップS801において、個体認証部12は、現在の要介護者の個体認証情報52を取得する。   In step S801, the individual authentication unit 12 acquires the individual authentication information 52 of the current care recipient.

ステップS802において、個体認証部12は、ステップS801で取得した現在の要介護者の個体認証情報52が、過去情報データベース13にすでに記憶されているか否かを判定する。個体認証部12は、個体認証情報52が、過去情報データベース13にすでに記憶されていると判定した場合(ステップS802:Yes)、ステップS803に進む。   In step S <b> 802, the individual authentication unit 12 determines whether the current individual authentication information 52 of the care recipient acquired in step S <b> 801 is already stored in the past information database 13. If the individual authentication unit 12 determines that the individual authentication information 52 has already been stored in the past information database 13 (step S802: Yes), the process proceeds to step S803.

ステップS803において、個体認証部12は、当該要介護者の個体認証情報52が記憶されている過去情報データベース13上のメモリアドレスを取得し、ステップS804に進む。   In step S803, the individual authentication unit 12 acquires a memory address on the past information database 13 in which the individual authentication information 52 of the care recipient is stored, and the process proceeds to step S804.

一方、個体認証部12は、当該要介護者の個体認証情報52が、過去情報データベース13に記憶されていないと判定した場合(ステップS802:No)、ステップS808に進む。   On the other hand, if the individual authentication unit 12 determines that the individual authentication information 52 of the care recipient is not stored in the past information database 13 (step S802: No), the process proceeds to step S808.

ステップS808において、個体認証部12は、過去情報データベース13上に、現在の要介護者の個体認証情報52を記憶する新たなメモリアドレスを設定し、ステップS804に進む。   In step S808, the individual authentication unit 12 sets a new memory address for storing the individual authentication information 52 of the care recipient in the past information database 13, and proceeds to step S804.

ステップS804において、シーン判定部11は、要介護者環境情報53を取得して、ステップS805に進む。   In step S804, the scene determination unit 11 acquires care recipient environment information 53, and proceeds to step S805.

ステップS805において、シーン判定部11は、シーン判定基準データベース10から取得したシーンの判定に必要なパラメータと、ステップS804で取得した要介護者環境情報53とに基づいて、当該シーンを判定する。   In step S805, the scene determination unit 11 determines the scene based on the parameters necessary for the scene determination acquired from the scene determination reference database 10 and the care recipient environment information 53 acquired in step S804.

ステップS806において、自動制御装置1Aの全体制御部(図示せず)は、介護者の危険度判断情報(介護者判断情報54)を取得する。   In step S806, the overall control unit (not shown) of the automatic control device 1A acquires caregiver risk determination information (caregiver determination information 54).

ステップS807において、自動制御装置1Aの全体制御部(図示せず)は、取得した要介護者環境情報53と介護者判断情報54とを、過去情報データベース13と危険事象判定部18とにそれぞれ送信して処理を終了する。   In step S807, the overall control unit (not shown) of the automatic control device 1A transmits the acquired care recipient environment information 53 and the caregiver determination information 54 to the past information database 13 and the risk event determination unit 18, respectively. To finish the process.

[重み付け処理]
なお、前述した要介護者の危険事象の学習において、学習進捗度判定部16で危険事象を判断した結果の差分の算出にあたり、介護者が近くにいるか、見守り介護システムにより介護者にアラートを出したときの介護者の判断との差分に基づいて重みを付けるようにしてもよい。
これにより、介護者が危険事象を認知できなかった際に、見守り介護システムが、危険ではなかったと誤って学習してしまうことを防ぐことができる。
[Weighting process]
In the above-mentioned learning of a care recipient's risk event, the calculation of the difference between the results of the determination of the risk event by the learning progress determination unit 16 alerts the caregiver whether the caregiver is nearby or by the watch care system. You may make it attach a weight based on the difference with caregiver's judgment at the time.
Thereby, when the caregiver cannot recognize the dangerous event, it is possible to prevent the watch-care system from accidentally learning that it was not dangerous.

次に、介護者の危険度判断と、見守り介護システムによる危険度判断との差分に重みをつける処理を説明する。
図16は、重み決定処理のフローチャートである。
Next, a process for weighting the difference between the caregiver's risk determination and the risk determination by the watching care system will be described.
FIG. 16 is a flowchart of the weight determination process.

初めに、ステップS901において、見守り介護システムの全体制御部(図示せず)は、介護者による危険事象の判断の入力があったか否かを判定する。危険事象の入力があったと判定した場合(ステップS901:Yes)、ステップS902に進み重みW1が選択される。   First, in step S901, the overall control unit (not shown) of the watching and nursing care system determines whether or not the caregiver has received an input for judging a dangerous event. When it is determined that a dangerous event has been input (step S901: Yes), the process proceeds to step S902, and the weight W1 is selected.

このステップS901で選択された重みW1は、0〜1の範囲で設定され、例えば、介護者が指定した危険事象の発生から危険事象の判断の入力までの経過時間に応じて小さくするようにしてもよい。また、危険度判定を行う介護者ごとに個別に設定してもよい。   The weight W1 selected in this step S901 is set in the range of 0 to 1, and for example, the weight W1 is made smaller according to the elapsed time from the occurrence of the dangerous event designated by the caregiver to the input of the judgment of the dangerous event. Also good. Moreover, you may set separately for every caregiver who performs a risk determination.

ステップS901において、見守り介護システムの全体制御部(図示せず)は、危険事象の入力がないと判定した場合(ステップS901:No)、ステップS904に進んで、介護者が要介護者(見守り対象者)に意識を向けているか否かを判定する。   In step S901, when the overall control unit (not shown) of the watching care system determines that there is no input of a dangerous event (step S901: No), the process proceeds to step S904, where the caregiver is in need of caregiver (watching target). Determine whether or not they are paying attention to

ステップS904において、見守り介護システムの全体制御部(図示せず)は、介護者が要介護者(見守り対象者)に意識を向けていると判定した場合(ステップS904:Yes)、ステップS905に進み重みW2が選択される。   In step S904, if the overall control unit (not shown) of the watching care system determines that the caregiver is paying attention to the care recipient (person to be watched) (step S904: Yes), the process proceeds to step S905. A weight W2 is selected.

ここで、ステップS905で選択された重みW2は、ステップS902で選択された重みW1よりも小さい値に設定されている。この重みW2は、例えば、重みW1に0〜1の範囲の係数を掛けることで算出できる。   Here, the weight W2 selected in step S905 is set to a value smaller than the weight W1 selected in step S902. The weight W2 can be calculated, for example, by multiplying the weight W1 by a coefficient in the range of 0-1.

また、ステップS904において、介護者が意識を向けているか否かの判断は、要介護者環境情報53を取得するための各種センサを用い、例えば、介護者の目線や顔、体が要介護者(見守り対象者)の方向に向けられていれば、意識が向けられていると判定することができる。   In step S904, whether or not the caregiver is paying attention is determined by using various sensors for acquiring the care recipient environment information 53. For example, the caregiver's eyes, face, and body are the care recipient. If it is directed in the direction of (the person to be watched over), it can be determined that the consciousness is directed.

ステップS904において、見守り介護システムの全体制御部(図示せず)は、介護者が要介護者(見守り対象者)に意識を向けていないと判定した場合(ステップS904:No)、ステップS906に進んで、介護者が要介護者(見守り対象者)を見通せる場所にいるか否かを判定する。   In step S904, if the overall control unit (not shown) of the watching care system determines that the caregiver is not paying attention to the care recipient (the person to watch over) (step S904: No), the process proceeds to step S906. Thus, it is determined whether or not the caregiver is in a place where the care recipient (person to be watched over) can be seen.

ステップS906において、見守り介護システムの全体制御部(図示せず)は、介護者が要介護者(見守り対象者)を視認可能であると判定した場合(ステップS906:Yes)、ステップS907に進み重みW3が選択される。   In step S906, when the overall control unit (not shown) of the watching care system determines that the caregiver can visually recognize the care recipient (person to be watched) (step S906: Yes), the process proceeds to step S907. W3 is selected.

ここで、ステップS907で選択された重みW3は、ステップS905で選択した重みW2よりも小さい値に設定されている。例えば、重みW3は、介護者と要介護者(見守り対象者)との距離に応じて小さくなる、0〜1の範囲の係数を重みW2にかけることで算出できる。   Here, the weight W3 selected in step S907 is set to a value smaller than the weight W2 selected in step S905. For example, the weight W <b> 3 can be calculated by multiplying the weight W <b> 2 by a coefficient in the range of 0 to 1 that decreases according to the distance between the caregiver and the care recipient (monitoring target person).

ステップS906において、見守り介護システムの全体制御部(図示せず)は、介護者が要介護者(見守り対象者)を見通せない位置にいると判定した場合(ステップS906:No)、ステップS908に進み重みW4が選択される。   In step S906, when the overall control unit (not shown) of the watching care system determines that the caregiver is in a position where the care recipient (the person to watch over) cannot be seen (step S906: No), the process proceeds to step S908. A weight W4 is selected.

ここで、ステップS908で選択された重みW4は、ステップS902で選択された重みW1よりも小さい値に設定されている。この重みW4は、重みW1に0〜1の範囲の係数を掛けることで算出できる。   Here, the weight W4 selected in step S908 is set to a value smaller than the weight W1 selected in step S902. The weight W4 can be calculated by multiplying the weight W1 by a coefficient in the range of 0-1.

重みW1〜W4が設定された後、ステップS903において、介護者による危険度の判断結果と、見守り介護システムによる危険度の判断結果との差分に、ステップS902、ステップS905、ステップS907、ステップS908で選択した重みW1、W2、W3、W4を掛け合わせる。   After the weights W1 to W4 are set, in step S903, the difference between the determination result of the risk level by the caregiver and the determination result of the risk level by the watching care system is set in step S902, step S905, step S907, and step S908. Multiply the selected weights W1, W2, W3, and W4.

ステップS909において、重み付け後の差分の累積値(例えば、各シーンの平均値)を算出して処理を終了する。   In step S909, a cumulative value of weighted differences (for example, an average value of each scene) is calculated, and the process ends.

前述した見守り介護システムにおける危険事象の判断結果は、人間が参照して適宜、要介護者(見守り対象者)の様子を確認するのに用いるだけでなく、要介護者に付き添い、危険事象が発生すると予測される場合にそれを回避するように働くロボットに対して、本危険事象の推定結果を出力するようにしてもよい。   The above-mentioned judgment result of the dangerous event in the watching care system is used not only to confirm the state of the care recipient (person to be watched over) as appropriate by human reference, but also accompanying the care recipient and a dangerous event occurs. Then, the estimation result of this dangerous event may be output to a robot that works so as to avoid it when predicted.

以上説明した通り、実施の形態では、
要介護者(見守り対象者)に対して、これまで介護者が付き添えない場合には、危険事象の発生を防止するために要介護者の行動を制限する必要があった。しかし、前述した見守り介護システムは、介護者の代わりに要介護者の個々の能力に合った安全な範囲での行動か否かを判定することができる。
この結果、介護者の負担を軽減しつつ、要介護者の行動範囲、可能性を増加させて、要介護者の生活の質向上を図ることができる。
As described above, in the embodiment,
In the case where a caregiver has not been able to accompany a care recipient (person to be watched over), it has been necessary to limit the actions of the care recipient in order to prevent the occurrence of a dangerous event. However, the above-described watching care system can determine whether or not the action is within a safe range suitable for the individual ability of the care recipient instead of the caregiver.
As a result, while reducing the burden on the caregiver, it is possible to improve the quality of life of the care recipient by increasing the action range and possibility of the care recipient.

なお、前述した第1の実施の形態にかかる自動制御装置1と、第2の実施の形態にかかる自動制御装置1Aとを組み合わせてもよく、他の実施の形態と組み合わせてもよい。   The automatic control device 1 according to the first embodiment described above and the automatic control device 1A according to the second embodiment may be combined, or may be combined with other embodiments.

1、1A:自動制御装置、10:シーン判定基準データベース、11:シーン判定部、12:個体認証部、13:過去情報データベース、14:個体特性学習部、15:手動操作推定部、16:学習進捗度判定部、17:制御部、20:安全判定部、21:安全検証用シナリオデータベース、22:走行模擬部、23:危険事象判定部、30:シーン一致度検証部、31:走行シーンシナリオデータベース、32:再分類判定部、50:環境情報、51:手動操作情報、52:個体認証情報   1, 1A: automatic control device, 10: scene determination reference database, 11: scene determination unit, 12: individual authentication unit, 13: past information database, 14: individual characteristic learning unit, 15: manual operation estimation unit, 16: learning Progress level determination unit, 17: control unit, 20: safety determination unit, 21: scenario database for safety verification, 22: travel simulation unit, 23: dangerous event determination unit, 30: scene matching level verification unit, 31: travel scene scenario Database: 32: Reclassification determination unit, 50: Environment information, 51: Manual operation information, 52: Individual authentication information

Claims (11)

機器の操作を行う個体を認証する個体認証部と、
前記機器が置かれているシーンを判定するシーン判定部と、
前記個体の個体特性を学習する個体特性学習部と、
前記個体の個体特性に基づいて、前記個体による前記機器の手動操作を推定する手動操作推定部と、
前記シーン判定部で判定された所定のシーンにおいて、前記個体の個体特性に基づいて前記手動操作推定部で推定した推定手動操作と、当該個体による前記機器の実際の手動操作とを比較して、前記所定のシーンにおける学習進捗度を判定する学習進捗度判定部と、
前記シーン判定部で判定された前記所定のシーンごとの前記学習進捗度の判定結果に基づいて、前記個体の個体特性に適応した自動制御の実施または不実施を、前記シーンごとに決定する制御部と、を有する自動制御装置。
An individual authentication unit for authenticating an individual that operates the device;
A scene determination unit for determining a scene in which the device is placed;
An individual characteristic learning unit for learning the individual characteristic of the individual;
Based on the individual characteristics of the individual, a manual operation estimation unit that estimates manual operation of the device by the individual,
In the predetermined scene determined by the scene determination unit, comparing the estimated manual operation estimated by the manual operation estimation unit based on the individual characteristics of the individual and the actual manual operation of the device by the individual, A learning progress determination unit for determining the learning progress in the predetermined scene;
A control unit that determines, for each scene, whether or not to perform automatic control adapted to individual characteristics of the individual based on the determination result of the learning progress for each predetermined scene determined by the scene determination unit And an automatic control device.
前記個体の個体特性に適応した自動制御により前記機器を操作した場合に、前記機器が安全な状態を保てるか否かを判定する安全判定部を、さらに有し、
前記制御部は、
前記安全判定部により、前記機器が安全な状態を保てると判定された場合にのみ、前記個体の個体特性に適応した自動制御を実施する請求項1に記載の自動制御装置。
When the device is operated by automatic control adapted to the individual characteristics of the individual, further comprising a safety determination unit that determines whether the device can maintain a safe state,
The controller is
The automatic control device according to claim 1, wherein automatic control adapted to individual characteristics of the individual is performed only when the safety determination unit determines that the device can maintain a safe state.
前記シーン判定部は、前記所定のシーンに含まれる少なくとも2以上の不連続な第1シーンと、第2シーンとを判定し、
前記制御部は、
前記学習進捗度判定部により、前記少なくとも2以上の不連続な前記第1シーンと、前記第2シーンにおける学習進捗度の判定結果が何れも学習完了状態であると判定された場合に、前記個体の個体特性に適応した自動制御を実施する請求項2に記載の自動制御装置。
The scene determination unit determines at least two or more discontinuous first scenes and second scenes included in the predetermined scene,
The controller is
When the learning progress determination unit determines that the determination result of the learning progress in the at least two discontinuous first scenes and the second scene is in a learning completed state, the individual The automatic control device according to claim 2, wherein automatic control adapted to the individual characteristics of the automatic control device is performed.
前記シーン判定部は、前記所定のシーンに含まれる互いに所定距離離れた第3シーンと、第4シーンとを判定し、
前記制御部は、
前記学習進捗度判定部により、前記所定のシーンにおいて、互いに所定距離離れた前記第3シーンと、前記第4シーンにおける学習進捗度の判定結果がいずれも学習完了状態であると判定された場合に、前記個体の個体特性に適応した自動制御を実施する請求項2に記載の自動制御装置。
The scene determination unit determines a third scene and a fourth scene included in the predetermined scene and separated from each other by a predetermined distance,
The controller is
When the learning progress determination unit determines that both of the determination results of the learning progress in the third scene and the fourth scene that are separated from each other in the predetermined scene are in a learning completed state. The automatic control device according to claim 2, wherein automatic control adapted to individual characteristics of the individual is performed.
前記機器が置かれているシーンを複数記憶するシーン判定基準データベースを、さらに有し、
前記シーン判定基準データベースは、
前記学習進捗度判定部で判定された前記所定のシーンの学習進捗度の判定結果が、所定の閾値よりも低い場合、または前記学習進捗度判定部で算出された前記所定のシーンの学習効率が、所定の閾値よりも低い場合に、前記所定のシーンを、当該所定のシーンとは異なる他のシーンに変更する請求項2に記載の自動制御装置。
A scene criterion database for storing a plurality of scenes in which the devices are placed;
The scene criteria database is
When the learning progress determination result of the predetermined scene determined by the learning progress determination unit is lower than a predetermined threshold, or the learning efficiency of the predetermined scene calculated by the learning progress determination unit is 3. The automatic control device according to claim 2, wherein when the value is lower than a predetermined threshold, the predetermined scene is changed to another scene different from the predetermined scene.
前記学習進捗度判定部は、前記変更された後の他のシーンの学習進捗度の判定を、前記変更される前の所定のシーンの学習進捗度の判定に用いた推定手動操作と、前記機器の実際の手動操作とを比較することで行い、
前記シーン判定基準データベースは、前記他のシーンにおける、前記学習進捗度の判定結果が所定の閾値以上である場合、当該他のシーンを前記一のシーンに置き換えて記憶する請求項5に記載の自動制御装置。
The learning progress determination unit is configured to determine the learning progress of the other scene after the change, the estimated manual operation used to determine the learning progress of the predetermined scene before the change, and the device By comparing with the actual manual operation of
6. The automatic determination according to claim 5, wherein the scene determination criterion database stores the other scene by replacing the other scene with the one scene when the determination result of the learning progress in the other scene is equal to or greater than a predetermined threshold. Control device.
前記シーン判定基準データベースに含まれる複数のシーンのうち、一のシーンと他のシーンの一致度を検証するシーン一致度検証部を、さらに有し、
前記シーン一致度検証部は、
前記一のシーンにおける前記個体の個体特性から記手動特性推定部により推定された一の推定手動操作を前記他のシーンに適用して、前記学習進捗度判定部により判定された学習進捗度の判定結果と、
前記他のシーンにおける個体の個体特性から前記手動操作推定部により推定された他の推定手動操作を前記一のシーンに適用して、前記学習進捗度により判定された学習進捗度の判定結果と、を比較して、
前記比較結果が、所定の閾値よりも小さい場合、前記一のシーンと前記他のシーンとを共通のシーンに纏めて前記シーン判定基準データベースを更新する請求項6に記載の自動制御装置。
A scene matching level verification unit that verifies the matching level between one scene and the other scene among the plurality of scenes included in the scene determination reference database;
The scene matching degree verification unit
Applying one estimated manual operation estimated by the manual characteristic estimating unit from the individual characteristics of the individual in the one scene to the other scene, and determining the learning progress determined by the learning progress determining unit Result and
Applying another estimated manual operation estimated by the manual operation estimation unit from the individual characteristics of the individual in the other scene to the one scene, the determination result of the learning progress determined by the learning progress, Compare
The automatic control apparatus according to claim 6, wherein when the comparison result is smaller than a predetermined threshold, the scene determination reference database is updated by combining the one scene and the other scene into a common scene.
機器の操作を行う個体を認証する個体認証工程と、
前記機器が置かれているシーンを判定するシーン判定工程と、
前記個体の個体特性を学習する個体特性学習工程と、
前記個体の個体特性に基づいて、前記個体による前記機器の手動操作を推定する手動操作推定工程と、
前記シーン判定工程で判定された所定のシーンにおいて、前記個体の個体特性に基づいて前記手動操作推定工程で推定した推定手動操作と、当該個体による前記機器の実際の手動操作とを比較して、前記所定のシーンにおける学習進捗度を判定する学習進捗度判定工程と、
前記シーン判定工程で判定された前記所定のシーンごとの前記学習進捗度の判定結果に基づいて、前記個体の個体特性に適応した自動制御の実施または不実施を、前記シーンごとに決定する制御工程と、を有する自動制御装置の制御方法。
An individual authentication process for authenticating an individual who operates the device;
A scene determination step for determining a scene in which the device is placed;
An individual characteristic learning step of learning the individual characteristics of the individual;
A manual operation estimating step of estimating a manual operation of the device by the individual based on the individual characteristics of the individual;
In the predetermined scene determined in the scene determination step, comparing the estimated manual operation estimated in the manual operation estimation step based on the individual characteristics of the individual and the actual manual operation of the device by the individual, A learning progress determination step of determining a learning progress in the predetermined scene;
A control step for determining, for each scene, whether or not to perform automatic control adapted to individual characteristics of the individual based on the determination result of the learning progress for each predetermined scene determined in the scene determination step. And a control method for an automatic control device.
前記シーン判定工程は、前記所定のシーンに含まれる少なくとも2以上の不連続な第1シーンと、第2シーンとを判定し、
前記制御工程は、
前記学習進捗度判定工程により、前記少なくとも2以上の不連続な前記第1シーンと、前記第2シーンにおける学習進捗度の判定結果が何れも学習完了状態であると判定された場合に、前記個体の個体特性に適応した自動制御を実施する請求項8に記載の自動制御装置の制御方法。
The scene determination step determines at least two or more discontinuous first scenes and second scenes included in the predetermined scene,
The control step includes
When the learning progress determination step determines that the determination results of the learning progress in the at least two discontinuous first scenes and the second scene are both in a learning completion state, the individual The control method of the automatic control apparatus according to claim 8, wherein automatic control adapted to individual characteristics of the automatic control device is performed.
前記シーン判定工程は、前記所定のシーンに含まれる互いに所定距離離れた第3シーンと、第4シーンとを判定し、
前記制御工程は、
前記学習進捗度判定工程により、前記所定のシーンにおいて、互いに所定距離離れた前記第3シーンと、前記第4シーンにおける学習進捗度の判定結果がいずれも学習完了状態であると判定された場合に、前記個体の個体特性に適応した自動制御を実施する請求項8に記載の自動制御装置の制御方法。
The scene determination step determines a third scene and a fourth scene included in the predetermined scene and separated from each other by a predetermined distance,
The control step includes
When it is determined in the learning progress determination step that the determination results of the learning progress in the third scene and the fourth scene that are separated from each other in the predetermined scene are in a learning completed state. The control method of the automatic control device according to claim 8, wherein automatic control adapted to individual characteristics of the individual is performed.
前記機器が置かれているシーンを複数記憶するシーン判定基準データベースを、さらに有し、
前記シーン判定基準データベースに含まれる複数のシーンのうち、一のシーンと他のシーンの一致度を検証するシーン一致度検証工程を、さらに有し、
前記シーン一致度検証工程は、
前記一のシーンにおける前記個体の個体特性から記手動特性推定工程により推定された一の推定手動操作を前記他のシーンに適用して、前記学習進捗度判定工程により判定された学習進捗度の判定結果と、
前記他のシーンにおける個体の個体特性から前記手動操作推定工程により推定された他の推定手動操作を前記一のシーンに適用して、前記学習進捗度により判定された学習進捗度の判定結果と、を比較する比較工程と、
前記比較結果が、所定の閾値よりも小さい場合、前記一のシーンと前記他のシーンとを共通のシーンに纏めて前記シーン判定基準データベースを更新する更新工程と、を有する請求項8に記載の自動制御装置の制御方法。
A scene criterion database for storing a plurality of scenes in which the devices are placed;
A scene matching level verification step of verifying the matching level between one scene and the other scene among the plurality of scenes included in the scene determination reference database;
The scene matching degree verification step includes:
Applying one estimated manual operation estimated by the manual characteristic estimating step from the individual characteristics of the individual in the one scene to the other scene, and determining the learning progress determined by the learning progress determining step Result and
Applying another estimated manual operation estimated by the manual operation estimation step from the individual characteristics of the individual in the other scene to the one scene, the determination result of the learning progress determined by the learning progress, A comparison process for comparing
The update step of updating the scene determination reference database by combining the one scene and the other scene into a common scene when the comparison result is smaller than a predetermined threshold value. Control method of automatic control device.
JP2017128910A 2017-06-30 2017-06-30 Automatic control device and its control method Active JP6924629B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017128910A JP6924629B2 (en) 2017-06-30 2017-06-30 Automatic control device and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017128910A JP6924629B2 (en) 2017-06-30 2017-06-30 Automatic control device and its control method

Publications (2)

Publication Number Publication Date
JP2019010967A true JP2019010967A (en) 2019-01-24
JP6924629B2 JP6924629B2 (en) 2021-08-25

Family

ID=65226268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017128910A Active JP6924629B2 (en) 2017-06-30 2017-06-30 Automatic control device and its control method

Country Status (1)

Country Link
JP (1) JP6924629B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020246075A1 (en) * 2019-06-04 2020-12-10 ソニー株式会社 Action control device, action control method, and program
JP2021052726A (en) * 2019-10-02 2021-04-08 株式会社クボタ Work vehicle and work management system
CN113859246A (en) * 2020-06-30 2021-12-31 广州汽车集团股份有限公司 Vehicle control method and device
JP2022058566A (en) * 2021-01-19 2022-04-12 バイドゥ ユーエスエイ エルエルシー Autonomous traveling vehicle dynamic model evaluation package
DE112020007044T5 (en) 2020-04-09 2023-08-17 Mitsubishi Electric Corporation Teaching data generating device and teaching data generating method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04216107A (en) * 1990-12-17 1992-08-06 Nippon Telegr & Teleph Corp <Ntt> Remote control system for intelligent parameter remote adjustment type semi-self-control robot
WO2013018220A1 (en) * 2011-08-04 2013-02-07 トヨタ自動車 株式会社 Vehicle-use information processing device and vehicle-use information processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04216107A (en) * 1990-12-17 1992-08-06 Nippon Telegr & Teleph Corp <Ntt> Remote control system for intelligent parameter remote adjustment type semi-self-control robot
WO2013018220A1 (en) * 2011-08-04 2013-02-07 トヨタ自動車 株式会社 Vehicle-use information processing device and vehicle-use information processing method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020246075A1 (en) * 2019-06-04 2020-12-10 ソニー株式会社 Action control device, action control method, and program
JP2021052726A (en) * 2019-10-02 2021-04-08 株式会社クボタ Work vehicle and work management system
JP7260450B2 (en) 2019-10-02 2023-04-18 株式会社クボタ Work vehicle and work management system
DE112020007044T5 (en) 2020-04-09 2023-08-17 Mitsubishi Electric Corporation Teaching data generating device and teaching data generating method
CN113859246A (en) * 2020-06-30 2021-12-31 广州汽车集团股份有限公司 Vehicle control method and device
CN113859246B (en) * 2020-06-30 2023-09-08 广州汽车集团股份有限公司 Vehicle control method and device
JP2022058566A (en) * 2021-01-19 2022-04-12 バイドゥ ユーエスエイ エルエルシー Autonomous traveling vehicle dynamic model evaluation package
JP7345577B2 (en) 2021-01-19 2023-09-15 バイドゥ ユーエスエイ エルエルシー Dynamic model evaluation package for autonomous vehicles

Also Published As

Publication number Publication date
JP6924629B2 (en) 2021-08-25

Similar Documents

Publication Publication Date Title
JP6924629B2 (en) Automatic control device and its control method
CN110834644B (en) Vehicle control method and device, vehicle to be controlled and storage medium
Noh et al. Decision-making framework for automated driving in highway environments
CN112805198B (en) Personal driving style learning for autonomous driving
EP3727978B1 (en) Method and system for ensemble vehicle control prediction in autonomous driving vehicles
Yu et al. A human-like game theory-based controller for automatic lane changing
KR102461831B1 (en) System and Method for Improving of Advanced Deep Reinforcement Learning Based Traffic in Non signalalized Intersections for the Multiple Self driving Vehicles
US11565716B2 (en) Method and system for dynamically curating autonomous vehicle policies
CN113811473A (en) Autonomous vehicle system
Butakov et al. Driving autopilot with personalization feature for improved safety and comfort
CN111507372A (en) Method and apparatus
CN113799797A (en) Trajectory planning method and device, storage medium and electronic equipment
CN111833597B (en) Autonomous decision making in traffic situations with planning control
CN113370996B (en) Automatic driving lane change following decision method and system and automatic driving vehicle
WO2018220418A1 (en) Driving assistance method and system
CN113085873B (en) Method and device for acquiring driving strategy, computer equipment and storage medium
CN115179959A (en) Intelligent driving vehicle behavior prediction method based on self-adaptive updating threshold of driving road
CN112829769A (en) Hybrid planning system for autonomous vehicles
CN113734193A (en) System and method for estimating take over time
WO2022044210A1 (en) Driving assistance device, learning device, driving assistance method, driving assistance program, learned model generation method, and learned model generation program
Lidstrom et al. Model-based estimation of driver intentions using particle filtering
CN115092181A (en) Vehicle control method and device, storage medium and processor
US20220388534A1 (en) Method and system for predicting behavior of actors in an environment of an autonomous vehicle
JP7233299B2 (en) Driving behavior control method and driving behavior control device
Tomar et al. Automated highway overtaking: A perspective from decision-making

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210802

R150 Certificate of patent or registration of utility model

Ref document number: 6924629

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150