JP6865896B1 - Anxiety factor identification device, program and anxiety factor identification method - Google Patents

Anxiety factor identification device, program and anxiety factor identification method Download PDF

Info

Publication number
JP6865896B1
JP6865896B1 JP2020533032A JP2020533032A JP6865896B1 JP 6865896 B1 JP6865896 B1 JP 6865896B1 JP 2020533032 A JP2020533032 A JP 2020533032A JP 2020533032 A JP2020533032 A JP 2020533032A JP 6865896 B1 JP6865896 B1 JP 6865896B1
Authority
JP
Japan
Prior art keywords
anxiety
unit
factor
passenger
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020533032A
Other languages
Japanese (ja)
Other versions
JPWO2021149200A1 (en
Inventor
幹郎 佐々木
幹郎 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6865896B1 publication Critical patent/JP6865896B1/en
Publication of JPWO2021149200A1 publication Critical patent/JPWO2021149200A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Abstract

車両の搭乗者が不安を感じたことを検出する不安検出部として機能する感情認識部(140)と、不安が検出された際に、搭乗者の状態を検出することにより得られた搭乗者状態データ、車両の状態を検出することにより得られた車両状態データ及び車両が走行する状態を検出することで得られた走行状態データの少なくとも一つを用いて、予め定められた複数の要因から、搭乗者が前記不安を感じている一つの要因を特定する不安要因特定部(145)とを備える。An emotion recognition unit (140) that functions as an anxiety detection unit that detects that the occupant of the vehicle feels anxiety, and a occupant status obtained by detecting the occupant's condition when anxiety is detected. Using at least one of the data, the vehicle condition data obtained by detecting the vehicle condition, and the traveling condition data obtained by detecting the traveling condition of the vehicle, from a plurality of predetermined factors, It is provided with an anxiety factor identification unit (145) that identifies one factor that the passenger feels anxiety about.

Description

本開示は、不安要因特定装置、プログラム及び不安要因特定方法に関する。 The present disclosure relates to anxiety factor identification devices, programs, and anxiety factor identification methods.

近年、車両の走行に関する情報を収集して、車両の状況を判断し、運転者への情報提供又は車両の動作制御を行うことで、車両の運転を支援する装置が提供されている。 In recent years, a device for supporting the driving of a vehicle has been provided by collecting information on the running of the vehicle, determining the situation of the vehicle, providing information to the driver, or controlling the operation of the vehicle.

例えば、特許文献1には、運転状況、気象状況及び運転者の生体状態から、運転者の心理状態を判断して、判断された心理状態に応じて、運転者への通知及び車両の制御を行う車両制御装置が開示されている。 For example, in Patent Document 1, the psychological state of the driver is determined from the driving situation, the weather condition, and the biological state of the driver, and the driver is notified and the vehicle is controlled according to the determined psychological state. The vehicle control device to be performed is disclosed.

特開2008−65704号公報Japanese Unexamined Patent Publication No. 2008-65704

車両の運転者は、車両の周囲の様々な状況に応じて、車両を運転しなければならず、車両を運転する際に、大きなストレスを感じる。
従来の車両制御装置は、運転者の心理状態に応じて、運転者への通知及び車両の制御を行っているが、運転者を含む車両の搭乗者の不安の要因を特定するような処理は行っていない。
The driver of the vehicle has to drive the vehicle according to various situations around the vehicle, and when driving the vehicle, he / she feels great stress.
Conventional vehicle control devices notify the driver and control the vehicle according to the psychological state of the driver, but processing that identifies the cause of anxiety of the passengers of the vehicle including the driver is not performed. not going.

そこで、本開示の一又は複数の態様は、搭乗者の不安の要因を特定できるようにすることを目的とする。 Therefore, one or more aspects of the present disclosure are intended to enable the identification of factors of passenger anxiety.

本開示の一態様に係る不安要因特定装置は、車両の搭乗者が不安を感じたことを検出する不安検出部と、前記不安が検出された際に、前記搭乗者の状態を検出することにより得られた搭乗者状態データ、前記車両の状態を検出することにより得られた車両状態データ及び前記車両が走行する状態を検出することで得られた走行状態データの少なくとも一つを用いて、予め定められた複数の要因から、前記搭乗者に前記不安を与えている一つの要因を特定する不安要因特定部と、前記一つの要因が正しいか否かを前記搭乗者に確認する確認部と、前記搭乗者が前記一つの要因が正しいと確認した場合に、前記一つの要因に対する対策を決定する対策決定部と、前記対策を実行する対策実行部と、を備えることを特徴とする。 The anxiety factor identifying device according to one aspect of the present disclosure includes an anxiety detection unit that detects that the passenger of the vehicle feels anxiety, and detects the state of the passenger when the anxiety is detected. Using at least one of the obtained occupant state data, the vehicle state data obtained by detecting the state of the vehicle, and the running state data obtained by detecting the running state of the vehicle, in advance. Anxiety factor identification unit that identifies one factor that gives the passenger the anxiety from a plurality of defined factors, and a confirmation unit that confirms with the passenger whether or not the one factor is correct. When the passenger confirms that the one factor is correct, the passenger includes a countermeasure determination unit that determines a countermeasure against the one factor, and a countermeasure execution unit that executes the countermeasure .

本開示の一態様に係るプログラムは、コンピュータを、車両の搭乗者が不安を感じたことを検出する不安検出部前記不安が検出された際に、前記搭乗者の状態を検出することにより得られた搭乗者状態データ、前記車両の状態を検出することにより得られた車両状態データ及び前記車両が走行する状態を検出することで得られた走行状態データの少なくとも一つを用いて、予め定められた複数の要因から、前記搭乗者に前記不安を与えている一つの要因を特定する不安要因特定部、前記一つの要因が正しいか否かを前記搭乗者に確認する確認部、前記搭乗者が前記一つの要因が正しいと確認した場合に、前記一つの要因に対する対策を決定する対策決定部、及び前記対策を実行する対策実行部、として機能させることを特徴とする。 A program according to one aspect of the present disclosure may by a computer, anxiety detector for detecting that the occupant of the vehicle feels uneasy, when the anxiety is detected, detects a state of the passenger Predetermined using at least one of the obtained occupant state data, the vehicle state data obtained by detecting the state of the vehicle, and the running state data obtained by detecting the running state of the vehicle. Anxiety factor identification unit that identifies one factor that gives the passenger the anxiety from the plurality of factors, a confirmation unit that confirms with the passenger whether or not the one factor is correct, and the passenger. Is characterized in that, when it is confirmed that the one factor is correct, it functions as a countermeasure determination unit for determining a countermeasure for the one factor and a countermeasure execution unit for executing the countermeasure.

本開示の一態様に係る不安要因特定方法は、車両の搭乗者が不安を感じたことを検出し、前記不安が検出された際に、前記搭乗者の状態を検出することにより得られた搭乗者状態データ、前記車両の状態を検出することにより得られた車両状態データ及び前記車両が走行する状態を検出することで得られた走行状態データの少なくとも一つを用いて、予め定められた複数の要因から、前記搭乗者に前記不安を与えている一つの要因を特定し、前記一つの要因が正しいか否かを前記搭乗者に確認し、前記搭乗者が前記一つの要因が正しいと確認した場合に、前記一つの要因に対する対策を決定し、前記対策を実行することを特徴とする。 The method for identifying anxiety factors according to one aspect of the present disclosure is obtained by detecting that the passenger of the vehicle feels anxiety and detecting the state of the passenger when the anxiety is detected. A plurality of predetermined values using at least one of the person state data, the vehicle state data obtained by detecting the state of the vehicle, and the running state data obtained by detecting the running state of the vehicle. From the factors of, the one factor causing the anxiety to the passenger is identified , the passenger is confirmed whether or not the one factor is correct, and the passenger confirms that the one factor is correct. When this happens, a countermeasure for the one factor is determined, and the countermeasure is implemented .

本開示の一又は複数の態様によれば、搭乗者の不安の要因を特定することができる。 According to one or more aspects of the present disclosure, factors of passenger anxiety can be identified.

実施の形態1〜3に係る不安要因特定装置の構成を概略的に示すブロック図である。It is a block diagram which shows schematic structure of the anxiety factor identification apparatus which concerns on Embodiments 1-3. (A)〜(C)は、搭乗者状態データ、車両状態データ及び走行状態データの一例を示す概略図である。(A) to (C) are schematic views showing an example of occupant state data, vehicle state data, and running state data. 実施の形態1における対策テーブルの一例を示す概略図である。It is the schematic which shows an example of the countermeasure table in Embodiment 1. FIG. 実施の形態1〜4に係る不安要因特定装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware configuration example of the anxiety factor identification apparatus which concerns on Embodiments 1-4. 実施の形態1における不安要因特定部の動作を示すフローチャートである。It is a flowchart which shows the operation of the anxiety factor identification part in Embodiment 1. 実施の形態1における車外状況判定処理を示す第1のフローチャートである。It is a 1st flowchart which shows the vehicle outside situation determination processing in Embodiment 1. FIG. 実施の形態1における車外状況判定処理を示す第2のフローチャートである。It is a 2nd flowchart which shows the outside-vehicle condition determination processing in Embodiment 1. FIG. 実施の形態1における車内状況判定処理を示す第1のフローチャートである。It is a 1st flowchart which shows the vehicle interior condition determination processing in Embodiment 1. FIG. 実施の形態1における車内状況判定処理を示す第2のフローチャートである。It is a 2nd flowchart which shows the vehicle interior condition determination processing in Embodiment 1. FIG. (A)〜(C)は、学習データの例を示す概略図である。(A) to (C) are schematic diagrams showing an example of learning data. (A)及び(B)は、機械学習による要因の特定を説明するための概略図である。(A) and (B) are schematic diagrams for explaining the identification of the factor by machine learning. 実施の形態3における対策テーブルの一例を示す概略図である。It is the schematic which shows an example of the countermeasure table in Embodiment 3. FIG. 実施の形態3における不安要因特定部の動作を示すフローチャートである。It is a flowchart which shows the operation of the anxiety factor identification part in Embodiment 3. 実施の形態3における驚きを含む不安要因の特定処理を示すフローチャートである。It is a flowchart which shows the identification process of the anxiety factor including the surprise in Embodiment 3. 実施の形態3における驚きを含む車外状況判定処理を示す第1のフローチャートである。It is a 1st flowchart which shows the outside-vehicle situation determination processing including the surprise in Embodiment 3. FIG. 実施の形態3における驚きを含む車外状況判定処理を示す第2のフローチャートである。It is a 2nd flowchart which shows the outside-vehicle situation determination processing including the surprise in Embodiment 3. FIG. 実施の形態3における驚きを含む車内状況判定処理を示す第1のフローチャートである。It is the first flowchart which shows the vehicle interior condition determination processing including the surprise in Embodiment 3. FIG. 実施の形態3における驚きを含む車内状況判定処理を示す第2のフローチャートである。It is a 2nd flowchart which shows the vehicle interior condition determination processing including the surprise in Embodiment 3. FIG. 実施の形態3における恐れを含む不安要因の特定処理を示すフローチャートである。It is a flowchart which shows the identification process of the anxiety factor including fear in Embodiment 3. 実施の形態3における恐れを含む車外状況判定処理を示す第1のフローチャートである。It is a 1st flowchart which shows the outside-vehicle condition determination process including fear in Embodiment 3. FIG. 実施の形態3における恐れを含む車外状況判定処理を示す第2のフローチャートである。It is a 2nd flowchart which shows the outside-vehicle condition determination process including fear in Embodiment 3. FIG. 実施の形態3における恐れを含む車内状況判定処理を示す第1のフローチャートである。It is the first flowchart which shows the vehicle interior condition determination processing including fear in Embodiment 3. FIG. 実施の形態3における恐れを含む車内状況判定処理を示す第2のフローチャートである。It is the 2nd flowchart which shows the vehicle interior condition determination processing including fear in Embodiment 3. FIG. 実施の形態3におけるその他の不安要因の特定処理を示すフローチャートである。It is a flowchart which shows the identification process of other anxiety factors in Embodiment 3. 実施の形態3におけるその他車外状況判定処理を示す第1のフローチャートである。It is a 1st flowchart which shows the other vehicle outside situation determination processing in Embodiment 3. 実施の形態3におけるその他車外状況判定処理を示す第2のフローチャートである。It is a 2nd flowchart which shows the other vehicle outside situation determination processing in Embodiment 3. 実施の形態4に係る不安要因特定装置の構成を概略的に示すブロック図である。It is a block diagram which shows schematic structure of the anxiety factor identification apparatus which concerns on Embodiment 4. FIG. 実施の形態5及び6に係る不安要因特定システムの構成を概略的に示すブロック図である。It is a block diagram which shows schematic the structure of the anxiety factor identification system which concerns on Embodiments 5 and 6. 実施の形態5に係る不安要因特定装置の構成を概略的に示すブロック図である。It is a block diagram which shows schematic structure of the anxiety factor identification apparatus which concerns on Embodiment 5. 実施の形態5及び6におけるクラウドサーバの構成を概略的に示すブロック図である。It is a block diagram which shows schematic the structure of the cloud server in Embodiments 5 and 6. 実施の形態5及び6における不安要因特定装置及びクラウドサーバのハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware configuration example of the anxiety factor identification apparatus and the cloud server in Embodiments 5 and 6. 実施の形態6に係る不安要因特定装置の構成を概略的に示すブロック図である。It is a block diagram which shows schematic structure of the anxiety factor identification apparatus which concerns on Embodiment 6.

実施の形態1.
図1は、実施の形態1に係る不安要因特定装置100の構成を概略的に示すブロック図である。
不安要因特定装置100は、搭乗者状態センシング部110と、車両状態センシング部120と、走行状態センシング部130と、感情認識部140と、搭乗者状態管理部141と、車両状態管理部142と、走行状態管理部143と、記憶部144と、不安要因特定部145と、対策決定部146と、対策実行部147とを備える。
Embodiment 1.
FIG. 1 is a block diagram schematically showing the configuration of the anxiety factor identifying device 100 according to the first embodiment.
The anxiety factor identification device 100 includes a occupant state sensing unit 110, a vehicle state sensing unit 120, a traveling state sensing unit 130, an emotion recognition unit 140, a occupant state management unit 141, a vehicle state management unit 142, and the like. It includes a running state management unit 143, a storage unit 144, an anxiety factor identification unit 145, a countermeasure determination unit 146, and a countermeasure execution unit 147.

搭乗者状態センシング部110は、運転者を含む搭乗者の状態を検出して、その検出結果を搭乗者検出結果として感情認識部140及び搭乗者状態管理部141に与える。
搭乗者状態センシング部110は、例えば、搭乗者の覚醒度、視線方向及び感情を特定することのできる搭乗者状態検出結果である搭乗者検出結果を搭乗者状態管理部141に与える。
The occupant state sensing unit 110 detects the state of the occupant including the driver, and gives the detection result to the emotion recognition unit 140 and the occupant state management unit 141 as the occupant detection result.
The occupant state sensing unit 110 gives the occupant state management unit 141, for example, a occupant state detection result which is a occupant state detection result capable of specifying the arousal level, the line-of-sight direction, and the emotion of the occupant.

例えば、搭乗者状態センシング部110は、DMS(Driver Monitoring System)111を含む。
DMS111は、搭乗者の画像及び音声を取得して、搭乗者の状態を監視するシステムであり、搭乗者の画像を取得する撮像装置としての車内カメラ、搭乗者の音声を取得する音声取得装置としてのマイクロフォン(以下、マイク)等を含む。
For example, the passenger state sensing unit 110 includes a DMS (Driver Monitoring System) 111.
The DMS 111 is a system that acquires the image and sound of the occupant and monitors the state of the occupant, as an in-vehicle camera as an imaging device that acquires the image of the occupant, and as a sound acquisition device that acquires the sound of the occupant. Includes microphones (hereinafter referred to as microphones) and the like.

車両状態センシング部120は、車両の状態を検出して、その検出結果である車両検出結果を車両状態管理部142に与える。
車両状態センシング部120は、例えば、車両の速度、加速度、ブレーキ、アクセル、ステアリング角度、クラクション、警告有無、警告種別、ナビ状態及びインパネ状態を特定することのできる車両状態検出結果を車両状態管理部142に与える。
The vehicle state sensing unit 120 detects the state of the vehicle and gives the vehicle detection result, which is the detection result, to the vehicle state management unit 142.
The vehicle state sensing unit 120 obtains, for example, a vehicle state detection result capable of specifying the vehicle speed, acceleration, brake, accelerator, steering angle, horn, presence / absence of warning, warning type, navigation state, and instrument panel state. Give to 142.

例えば、車両状態センシング部120は、CAN(Controller Area Network)121、ナビシステム122及びマイク123を含む。
CAN121は、車両の速度、加速度、ブレーキ、アクセル、ステアリング角度、クラクション、警告有無、警告種別及びインパネ状態の状態を転送するためのシステムである。
ナビシステム122は、車両の位置を計測して、目的地への経路案内を行なう機能である。
マイク123は、車両の周囲の音を取得する音声取得装置である。
For example, the vehicle state sensing unit 120 includes a CAN (Control Area Network) 121, a navigation system 122, and a microphone 123.
The CAN 121 is a system for transferring the speed, acceleration, brake, accelerator, steering angle, horn, warning presence / absence, warning type, and instrument panel state of the vehicle.
The navigation system 122 is a function of measuring the position of the vehicle and providing route guidance to the destination.
The microphone 123 is a voice acquisition device that acquires the sound around the vehicle.

走行状態センシング部130は、車両の周囲の走行状態を検出して、その検出結果である走行状態検出結果を走行状態管理部143に与える。
走行状態センシング部130は、例えば、天候及び車両の周囲の物体を特定することのできる走行状態検出結果を走行状態管理部143に与える。
The traveling state sensing unit 130 detects the traveling state around the vehicle and gives the traveling state detection result, which is the detection result, to the traveling state management unit 143.
The traveling state sensing unit 130 gives, for example, a traveling state detection result capable of identifying the weather and objects around the vehicle to the traveling state management unit 143.

例えば、走行状態センシング部130は、カメラ131、接近センサ132及びライダー(Lighgt Detection and Ranging)133を含む。
カメラ131は、車両の周囲の映像を撮像する撮像装置である。カメラ131は、少なくとも車両の前方の映像を撮像する。
接近センサ132は、車両から予め定められた範囲に物体があることを検出するセンサである。
ライダー133は、光を使って、車両の周囲の物体と、その距離とを計測する装置である。
For example, the traveling state sensing unit 130 includes a camera 131, an approach sensor 132, and a rider (Light Detection and Ranking) 133.
The camera 131 is an imaging device that captures an image of the surroundings of the vehicle. The camera 131 captures at least an image in front of the vehicle.
The proximity sensor 132 is a sensor that detects that an object is within a predetermined range from the vehicle.
The rider 133 is a device that uses light to measure an object around the vehicle and its distance.

感情認識部140は、搭乗者状態センシング部110からの搭乗者検出結果により、搭乗者の感情を認識する。
例えば、感情認識部140は、DMS111で取得される搭乗者の顔の画像、声のトーン、又は、その両方等から、公知の技術を用いて、搭乗者の感情を認識すればよい。
特に、感情認識部140は、搭乗者状態センシング部110からの搭乗者検出結果により、搭乗者が不安を感じたか否かを検出する。このため、感情認識部140は、搭乗者が不安を感じたことを検出する不安検出部として機能する。
The emotion recognition unit 140 recognizes the emotions of the occupant based on the occupant detection result from the occupant state sensing unit 110.
For example, the emotion recognition unit 140 may recognize the emotions of the passenger from the image of the passenger's face, the tone of the voice, or both acquired by the DMS 111, using a known technique.
In particular, the emotion recognition unit 140 detects whether or not the occupant feels anxiety based on the occupant detection result from the occupant state sensing unit 110. Therefore, the emotion recognition unit 140 functions as an anxiety detection unit for detecting that the passenger feels anxiety.

搭乗者状態管理部141は、搭乗者状態センシング部110からの搭乗者検出結果により、搭乗者の覚醒度、視線方向及び感情といった搭乗者状態を特定し、特定された搭乗者状態を示す搭乗者状態データを記憶部144に記憶させる。 The passenger status management unit 141 identifies the passenger status such as the arousal level, the line-of-sight direction, and the emotion of the passenger based on the passenger detection result from the passenger status sensing unit 110, and the passenger status indicating the identified passenger status. The state data is stored in the storage unit 144.

車両状態管理部142は、車両状態センシング部120からの車両状態検出結果により、車両の速度、加速度、ブレーキ、アクセル、ステアリング角度、クラクション、警告有無、警告種別、ナビ状態及びインパネ状態といった車両状態を特定し、特定された車両状態を示す車両状態データを記憶部144に記憶させる。 The vehicle state management unit 142 determines the vehicle state such as vehicle speed, acceleration, brake, accelerator, steering angle, horn, presence / absence of warning, warning type, navigation state, and instrument panel state based on the vehicle state detection result from the vehicle state sensing unit 120. The vehicle state data that is specified and indicates the specified vehicle state is stored in the storage unit 144.

走行状態管理部143は、走行状態センシング部130からの走行状態検出結果により、天候及び車両の周囲の物体といった走行状態を特定し、特定された走行状態を示す走行状態データを記憶部144に記憶させる。
例えば、悪天候の場合には、走行状態センシング部130に含まれているカメラ131、接近センサ132又はライダー133等の各種センサの性能が低下するため、走行状態管理部143は、これら各種センサの性能が低下した場合に、悪天候と判断して、その判断結果を走行状態データに格納する。
The running state management unit 143 identifies the running state such as the weather and objects around the vehicle based on the running state detection result from the running state sensing unit 130, and stores the running state data indicating the specified running state in the storage unit 144. Let me.
For example, in the case of bad weather, the performance of various sensors such as the camera 131, the approach sensor 132, and the rider 133 included in the running state sensing unit 130 deteriorates, so that the running state management unit 143 performs the performance of these various sensors. When the temperature drops, it is judged that the weather is bad, and the judgment result is stored in the running condition data.

記憶部144は、不安要因特定装置100での処理に必要なデータを記憶する。
例えば、記憶部144は、感情認識部140が生成した感情認識データと、搭乗者状態管理部141が生成した搭乗者状態データと、車両状態管理部142が生成した車両状態データと、走行状態管理部143が生成した走行状態データと、対策テーブルと、インストルメントパネル(以下、インパネ)、サイドミラー又はバックミラー等の車内の部品の位置を示す部品位置データとを記憶する。
The storage unit 144 stores data necessary for processing by the anxiety factor identification device 100.
For example, the storage unit 144 manages the emotion recognition data generated by the emotion recognition unit 140, the passenger state data generated by the passenger state management unit 141, the vehicle state data generated by the vehicle state management unit 142, and the running state management. The running state data generated by the unit 143, the countermeasure table, and the component position data indicating the positions of the components in the vehicle such as the instrument panel (hereinafter, instrument panel), the side mirror, and the rearview mirror are stored.

図2(A)〜(C)は、記憶部144が記憶する搭乗者状態データ、車両状態データ及び走行状態データの一例を示す概略図である。
図2(A)に示されているように、搭乗者状態データは、覚醒度を示す検出データと、視線方向を示す検出データと、感情を示す検出データとを含む。
覚醒度は、搭乗者の意識がはっきりしている度合いである。
視線方向は、搭乗者の視線方向である。搭乗者の視線方向は、例えば、予め定められたx軸、y軸及びz軸の直交する予め定められた三つの軸に対する角度で示されるものとする。
感情は、搭乗者の感情である。ここでは、感情は、「neutral」、「怒り」、「恐れ」、「驚き」、「悲しみ」、「嫌悪」及び「幸せ(喜び)」の度合いを示す。
2 (A) to 2 (C) are schematic views showing an example of passenger state data, vehicle state data, and running state data stored in the storage unit 144.
As shown in FIG. 2A, the occupant state data includes detection data indicating the arousal level, detection data indicating the line-of-sight direction, and detection data indicating emotions.
Alertness is the degree to which the passenger's consciousness is clear.
The line-of-sight direction is the line-of-sight direction of the passenger. The passenger's line-of-sight direction shall be indicated by, for example, an angle with respect to three predetermined axes orthogonal to the predetermined x-axis, y-axis and z-axis.
Emotions are the emotions of the passenger. Here, emotions indicate the degree of "neutral,""anger,""fear,""surprise,""sadness,""disgust," and "happiness (joy)."

図2(B)に示されているように、車両状態データは、速度を示す検出データと、加速度を示す検出データと、ブレーキを示す検出データと、アクセルを示す検出データと、ステアリング角度を示す検出データと、クラクションを示す検出データと、警告有無を示す検出データと、警告種別を示す検出データと、ナビ状態を示す検出データと、インパネ状態を示す検出データとを含む。
速度は、車両の速度である。
加速度は、車両の加速度である。
ブレーキは、運転者が車両のブレーキを操作している強度である。
アクセルは、運転者が車両のアクセルを操作している強度である。
ステアリング角度は、運転者が車両のステアリングを操作している角度である。
クラクションは、クラクションの有無である。
警告有無は、車両に警告があるか否かである。
警告種別は、車両に警告がある場合に、その警告の種別である。
ナビ状態は、車両に搭載されているナビゲーションで取得されている情報である。
インパネ状態は、車両のインパネに表示されている情報である。
As shown in FIG. 2B, the vehicle state data shows the detection data indicating the speed, the detection data indicating the acceleration, the detection data indicating the brake, the detection data indicating the accelerator, and the steering angle. It includes detection data, detection data indicating claction, detection data indicating the presence / absence of a warning, detection data indicating a warning type, detection data indicating a navigation state, and detection data indicating an instrument panel state.
The speed is the speed of the vehicle.
The acceleration is the acceleration of the vehicle.
The brake is the strength with which the driver operates the brakes of the vehicle.
The accelerator is the strength with which the driver is operating the accelerator of the vehicle.
The steering angle is the angle at which the driver operates the steering of the vehicle.
The horn is the presence or absence of the horn.
The presence or absence of a warning depends on whether or not the vehicle has a warning.
The warning type is the type of warning when the vehicle has a warning.
The navigation state is information acquired by the navigation mounted on the vehicle.
The instrument panel status is information displayed on the instrument panel of the vehicle.

図2(C)に示されているように、走行状態データは、天候を示す検出データと、物体を示す検出データとを含む。
天候は、車両の周囲の天候である。
物体i(iは1以上の整数)は、車両の周囲で検出された物体iの種別、大きさ、出現時間、距離、方向及び相対速度により特定される。これらは、例えば、カメラ131からの画像、接近センサ132からの検出信号及びライダー133からの検出信号の少なくとも何れか一つから、公知の技術を用いて取得されるものとする。なお、物体iの検出データについては、車両の周囲で検出された数iだけ、走行状態データとして格納されるものとする。
As shown in FIG. 2C, the traveling state data includes detection data indicating the weather and detection data indicating an object.
The weather is the weather around the vehicle.
The object i (i is an integer of 1 or more) is specified by the type, size, appearance time, distance, direction, and relative speed of the object i detected around the vehicle. These are, for example, acquired from at least one of an image from the camera 131, a detection signal from the proximity sensor 132, and a detection signal from the rider 133 by using a known technique. Regarding the detection data of the object i, it is assumed that only the number i detected around the vehicle is stored as the running state data.

搭乗者状態データ、車両状態データ及び走行状態データの各々に含まれている検出データは、不安の要因を示すことができるものとする。 The detection data included in each of the occupant state data, the vehicle state data, and the running state data shall be able to indicate the cause of anxiety.

図3は、実施の形態1における対策テーブルの一例を示す概略図である。
図3に示されている対策テーブル160は、要因列160aと、対応処理列160bと、パラメータ列160cとを有する。
要因列160aは、搭乗者が感じる不安の要因を示す。
対応処理列160bは、搭乗者が感じる不安に対する対応処理を示す。
パラメータ列160cは、搭乗者が感じる不安に対して対応する際に、車両の自動運転においてパラメータを調整する値を示す。パラメータ列160cに格納されている値は、車両が自動運転に対応している場合に使用される値である。
以上のように、本実施の形態では、対策として少なくとも対応処理があり、場合により対策にパラメータが含まれる。
FIG. 3 is a schematic view showing an example of a countermeasure table according to the first embodiment.
The countermeasure table 160 shown in FIG. 3 has a factor sequence 160a, a corresponding processing column 160b, and a parameter sequence 160c.
The factor sequence 160a shows the factors of anxiety felt by the passenger.
The response processing column 160b shows the response processing for the anxiety felt by the passenger.
The parameter string 160c indicates a value for adjusting the parameter in the automatic driving of the vehicle when responding to the anxiety felt by the passenger. The value stored in the parameter string 160c is a value used when the vehicle supports automatic driving.
As described above, in the present embodiment, there is at least a countermeasure process as a countermeasure, and a parameter is included in the countermeasure in some cases.

図1に戻り、不安要因特定部145は、記憶部144に記憶されている感情認識データを参照することで、搭乗者が不安を感じた場合に、記憶部144に記憶されている搭乗者状態データ、車両状態データ及び走行状態データの少なくとも一つを用いて、予め定められた複数の要因から、搭乗者に不安を与えている一つの要因を特定する。
実施の形態1では、後述するように、搭乗者状態データ、車両状態データ及び走行状態データに含まれている複数の検出データの各々で示される要因が、搭乗者に不安を与えているか否かを判断する順番が予め定められており、その順番に従って、搭乗者の不安の要因が特定される。
Returning to FIG. 1, the anxiety factor identification unit 145 refers to the emotion recognition data stored in the storage unit 144, and when the passenger feels anxiety, the passenger state stored in the storage unit 144. Using at least one of the data, the vehicle condition data, and the driving condition data, one factor causing anxiety to the passenger is identified from a plurality of predetermined factors.
In the first embodiment, as will be described later, whether or not the factors indicated by each of the occupant state data, the vehicle state data, and the plurality of detection data included in the running state data cause anxiety to the occupant. The order in which the data is determined is predetermined, and the cause of the passenger's anxiety is identified according to the order.

対策決定部146は、記憶部144に記憶されている対策テーブルを参照することで、不安要因特定部145が特定した要因に対する対策を決定する。
対策実行部147は、対策決定部146が決定した対策を実行する。
The countermeasure determination unit 146 determines countermeasures for the factors specified by the anxiety factor identification unit 145 by referring to the countermeasure table stored in the storage unit 144.
The countermeasure execution unit 147 executes the countermeasure determined by the countermeasure determination unit 146.

図4は、不安要因特定装置100のハードウェア構成例を示すブロック図である。
不安要因特定装置100は、搭乗者センサ170と、車外センサ171と、車両制御機器172と、入力装置173と、表示装置174と、記憶装置175と、演算装置176とを備える。
また、不安要因特定装置100は、図1を用いて説明したCAN121と、ナビシステム122と、マイク123と、カメラ131とを備える。
言い換えると、不安要因特定装置100は、コンピュータにより実現することができる。
FIG. 4 is a block diagram showing a hardware configuration example of the anxiety factor identifying device 100.
The anxiety factor identification device 100 includes a passenger sensor 170, an outside sensor 171, a vehicle control device 172, an input device 173, a display device 174, a storage device 175, and an arithmetic unit 176.
Further, the anxiety factor identifying device 100 includes a CAN 121 described with reference to FIG. 1, a navigation system 122, a microphone 123, and a camera 131.
In other words, the anxiety factor identifying device 100 can be realized by a computer.

搭乗者センサ170は、運転者を含む搭乗者の状態を検出する。搭乗者は、車両に乗っている人である。なお、搭乗者センサ170は、DMS111に含まれる。
車外センサ171は、車両の外部の状況を検出する。車外センサ171には、接近センサ132が含まれる。
The passenger sensor 170 detects the state of passengers including the driver. A passenger is a person in a vehicle. The passenger sensor 170 is included in the DMS 111.
The vehicle exterior sensor 171 detects the situation outside the vehicle. The vehicle exterior sensor 171 includes an approach sensor 132.

車両制御機器172は、車両の制御を行う。車両制御機器172は、対策実行部147としての機能を実行する。
入力装置173は、車両のユーザからの入力を受け付ける。入力装置173は、不安要因特定装置100の入力部である装置入力部としての機能を実行する。
表示装置174は、各種画面画像を表示する。表示装置174は、不安要因特定装置100の表示部である装置表示部としての機能を実行する。
The vehicle control device 172 controls the vehicle. The vehicle control device 172 executes a function as a countermeasure execution unit 147.
The input device 173 receives input from the user of the vehicle. The input device 173 executes a function as a device input unit which is an input unit of the anxiety factor identification device 100.
The display device 174 displays various screen images. The display device 174 executes a function as a device display unit which is a display unit of the anxiety factor identification device 100.

記憶装置175は、不安要因特定装置100で必要とされるプログラム及びデータを記憶する。記憶装置175は、記憶部144としての機能を実行する。
演算装置176は、不安要因特定装置100を制御する。演算装置176は、感情認識部140、搭乗者状態管理部141、車両状態管理部142、走行状態管理部143、不安要因特定部145及び対策決定部146としての機能を実行する。
The storage device 175 stores programs and data required by the anxiety factor identification device 100. The storage device 175 executes a function as a storage unit 144.
The arithmetic unit 176 controls the anxiety factor identification device 100. The arithmetic unit 176 executes functions as an emotion recognition unit 140, a passenger state management unit 141, a vehicle state management unit 142, a running state management unit 143, an anxiety factor identification unit 145, and a countermeasure determination unit 146.

図5は、実施の形態1における不安要因特定部145の動作を示すフローチャートである。
まず、不安要因特定部145は、搭乗者が覚醒状態であるか否かを判断する(S10)。例えば、不安要因特定部145は、記憶部144に記憶されている搭乗者状態データの「覚醒度」が予め定められた閾値よりも高い場合に、搭乗者が覚醒状態であると判断する。そして、搭乗者が覚醒状態ではない場合(S10でNo)には、処理はステップS11に進み、搭乗者が覚醒状態である場合(S10でYes)には、処理はステップS12に進む。
FIG. 5 is a flowchart showing the operation of the anxiety factor specifying unit 145 in the first embodiment.
First, the anxiety factor identification unit 145 determines whether or not the passenger is in an awake state (S10). For example, the anxiety factor identification unit 145 determines that the passenger is in the awake state when the “alertness” of the passenger state data stored in the storage unit 144 is higher than a predetermined threshold value. Then, when the passenger is not in the awake state (No in S10), the process proceeds to step S11, and when the passenger is in the awake state (Yes in S10), the process proceeds to step S12.

搭乗者が覚醒状態ではない場合、例えば、寝ている場合等、意識がはっきりしていない場合には、感情を誤認識する可能性がある。そこで、ステップS11では、感情認識部140で判断された不安に誤認識の可能性があるため、不安要因特定部145は、不安の要因がないと判断する。 If the passenger is not awake, for example, sleeping, or if the consciousness is not clear, emotions may be misrecognized. Therefore, in step S11, since the anxiety determined by the emotion recognition unit 140 may be erroneously recognized, the anxiety factor identification unit 145 determines that there is no anxiety factor.

ステップS12では、不安要因特定部145は、異常音があるか否かを判断する。例えば、不安要因特定部145は、記憶部144に記憶されている車両状態データの「クラクション」がクラクションの鳴動を示す場合、又は、記憶部144に記憶されている「警告有無」が警告有りを示し、「警告種別」が警告音を発する警告の種別であることを示す場合には、異常音があると判断する。異常音がある場合(S13でYes)には、処理はステップS13に進み、異常音がない場合(S13でNo)には、処理はステップS14に進む。
ステップS13では、不安要因特定部145は、異常音を不安の要因と特定する。
In step S12, the anxiety factor identification unit 145 determines whether or not there is an abnormal sound. For example, the anxiety factor identification unit 145 indicates that the "horn" of the vehicle state data stored in the storage unit 144 indicates the sounding of the horn, or the "warning presence / absence" stored in the storage unit 144 indicates that there is a warning. If it indicates that the "warning type" is the type of warning that emits a warning sound, it is determined that there is an abnormal sound. If there is an abnormal sound (Yes in S13), the process proceeds to step S13, and if there is no abnormal sound (No in S13), the process proceeds to step S14.
In step S13, the anxiety factor specifying unit 145 identifies the abnormal sound as a factor of anxiety.

ステップS14では、不安要因特定部145は、直前に急操作があったか否かを判断する。例えば、不安要因特定部145は、記憶部144に記憶されている車両状態データの「ステアリング角度」を監視することにより、現在までの予め定められた期間内に、予め定められた角度以上のステアリング操作がある場合に、直前に急操作があったと判断する。直前に急操作があった場合(ステップS14でYes)には、処理はステップS15に進み、直前に急操作がなかった場合(ステップS14でNo)には、処理はステップS16に進む。
ステップS15では、不安要因特定部145は、急操作を不安の要因と特定する。
In step S14, the anxiety factor identification unit 145 determines whether or not there was a sudden operation immediately before. For example, the anxiety factor identification unit 145 monitors the "steering angle" of the vehicle state data stored in the storage unit 144, so that the steering angle is equal to or greater than the predetermined angle within a predetermined period up to the present. If there is an operation, it is determined that there was a sudden operation immediately before. If there is a sudden operation immediately before (Yes in step S14), the process proceeds to step S15, and if there is no sudden operation immediately before (No in step S14), the process proceeds to step S16.
In step S15, the anxiety factor identification unit 145 identifies the sudden operation as a factor of anxiety.

ステップS16では、不安要因特定部145は、搭乗者の視線方向が車外であるか否かを判断する。例えば、不安要因特定部145は、記憶部144に記憶されている搭乗者状態データの「視線方向」を確認することで、搭乗者の視線方向が車外であるか否かを判断する。搭乗者の視線方向が車外である場合(ステップS16でYes)には、処理はステップS17に進み、搭乗者の視線方向が車内である場合(ステップS16でNo)には、処理はステップS18に進む。 In step S16, the anxiety factor identification unit 145 determines whether or not the line-of-sight direction of the passenger is outside the vehicle. For example, the anxiety factor identification unit 145 determines whether or not the passenger's line-of-sight direction is outside the vehicle by checking the "line-of-sight direction" of the passenger state data stored in the storage unit 144. If the line-of-sight direction of the passenger is outside the vehicle (Yes in step S16), the process proceeds to step S17, and if the line-of-sight direction of the passenger is inside the vehicle (No in step S16), the process proceeds to step S18. move on.

ステップS17では、不安要因特定部145は、車両の外部の状況を判定して、不安の要因を特定する車外状況判定処理を行う。この処理については、図6及び図7を用いて、詳細に説明する。 In step S17, the anxiety factor identification unit 145 determines the external situation of the vehicle and performs the out-of-vehicle situation determination process for identifying the anxiety factor. This process will be described in detail with reference to FIGS. 6 and 7.

ステップS18では、不安要因特定部145は、車両の内部の状況を判定して、不安の要因を特定する車内状況判定処理を行う。この処理については、図8及び図9を用いて、詳細に説明する。 In step S18, the anxiety factor identification unit 145 determines the internal condition of the vehicle and performs an in-vehicle condition determination process for identifying the cause of the anxiety. This process will be described in detail with reference to FIGS. 8 and 9.

図6及び図7は、実施の形態1における車外状況判定処理を示すフローチャートである。
まず、不安要因特定部145は、搭乗者の視線方向に、予め定められた物体である対象物体があるか否かを判断する(S20)。例えば、不安要因特定部145は、記憶部144に記憶されている走行状態データの「物体i」の中に、搭乗者の視線方向を含む予め定められた方向範囲内に、予め定められた物体がある場合に、搭乗者の視線方向に対象物体があると判断する。対象物体がある場合(ステップS20でYes)には、処理はステップS21に進み、対象物体がない場合(ステップS20でNo)には、処理は図7のステップS28に進む。
6 and 7 are flowcharts showing the out-of-vehicle condition determination process according to the first embodiment.
First, the anxiety factor identification unit 145 determines whether or not there is a target object that is a predetermined object in the line-of-sight direction of the passenger (S20). For example, the anxiety factor identification unit 145 is a predetermined object within a predetermined direction range including the line-of-sight direction of the passenger in the "object i" of the traveling state data stored in the storage unit 144. If there is, it is determined that the target object is in the direction of the passenger's line of sight. If there is a target object (Yes in step S20), the process proceeds to step S21, and if there is no target object (No in step S20), the process proceeds to step S28 in FIG.

ステップS21では、不安要因特定部145は、対象物体の相対速度S1が予め定められた速度X1よりも速いか否かを判断する。対象物体の相対速度S1は、記憶部144に記憶されている走行状態データにおいて、対象物体に対応する「物体i」の「速度」である。対象物体の相対速度S1が予め定められた速度X1よりも速い場合(S21でYes)には、処理はステップS22に進み、対象物体の相対速度S1が予め定められた速度X1以下である場合(S21でNo)には、処理はステップS23に進む。
ステップS22では、不安要因特定部145は、他車速度を不安の要因と特定する。
In step S21, the anxiety factor identification unit 145 determines whether or not the relative velocity S1 of the target object is faster than the predetermined velocity X1. The relative velocity S1 of the target object is the "velocity" of the "object i" corresponding to the target object in the traveling state data stored in the storage unit 144. When the relative velocity S1 of the target object is faster than the predetermined velocity X1 (Yes in S21), the process proceeds to step S22, and when the relative velocity S1 of the target object is equal to or less than the predetermined velocity X1 (Yes). In S21, No), the process proceeds to step S23.
In step S22, the anxiety factor specifying unit 145 identifies the speed of another vehicle as a factor of anxiety.

ステップS23では、不安要因特定部145は、対象物体の出現時間Tが予め定められた時間Yよりも短いか否かを判断する。対象物体の出現時間Tは、記憶部144に記憶されている走行状態データにおいて、対象物体に対応する「物体i」の「出現時間」である。対象物体の出現時間Tが予め定められた時間Yよりも短い場合(S23でYes)には、処理はステップS24に進み、対象物体の出現時間Tが予め定められた時間Y以上である場合(S23でNo)には、処理はステップS25に進む。
ステップS24では、不安要因特定部145は、飛び出しを不安の要因と特定する。
In step S23, the anxiety factor identification unit 145 determines whether or not the appearance time T of the target object is shorter than the predetermined time Y. The appearance time T of the target object is the “appearance time” of the “object i” corresponding to the target object in the traveling state data stored in the storage unit 144. When the appearance time T of the target object is shorter than the predetermined time Y (Yes in S23), the process proceeds to step S24, and when the appearance time T of the target object is equal to or longer than the predetermined time Y (Yes). In S23, No), the process proceeds to step S25.
In step S24, the anxiety factor identification unit 145 identifies the pop-out as a factor of anxiety.

ステップS25では、不安要因特定部145は、対象物体との距離Dが予め定められた距離Zよりも短いか否かを判断する。対象物体との距離Dは、記憶部144に記憶されている走行状態データにおいて、対象物体に対応する「物体i」の「距離」である。対象物体との距離Dが予め定められた距離Zよりも短い場合(S25でYes)には、処理はステップS26に進み、対象物体との距離Dが予め定められた距離Z以上である場合(S25でNo)には、処理はステップS27に進む。
ステップS26では、不安要因特定部145は、車間距離を不安の要因と特定する。
一方、ステップS27では、不安要因特定部145は、不安の要因が不明であるため、不安の要因がないと判断する。
In step S25, the anxiety factor identification unit 145 determines whether or not the distance D to the target object is shorter than the predetermined distance Z. The distance D from the target object is the "distance" of the "object i" corresponding to the target object in the traveling state data stored in the storage unit 144. When the distance D to the target object is shorter than the predetermined distance Z (Yes in S25), the process proceeds to step S26, and when the distance D to the target object is equal to or greater than the predetermined distance Z (Yes). In S25, No), the process proceeds to step S27.
In step S26, the anxiety factor specifying unit 145 identifies the inter-vehicle distance as a factor of anxiety.
On the other hand, in step S27, the anxiety factor identification unit 145 determines that there is no anxiety factor because the anxiety factor is unknown.

また、ステップS20において、対象物体がない場合(ステップS20でNo)には、処理は、図7のステップS28に進む。
ステップS28では、不安要因特定部145は、自車両の速度S2が予め定められた速度X2よりも速いか否かを判断する。自車両の速度S2は、記憶部144に記憶されている車両状態データの「速度」である。自車両の速度S2が予め定められた速度X2よりも速い場合(ステップS28でYes)には、処理はステップS29に進み、自車両の速度S2が予め定められた速度X2以下である場合(ステップS28でNo)には、処理はステップS30に進む。
ステップS29では、不安要因特定部145は、自車速度を不安の要因と特定する。
If there is no target object in step S20 (No in step S20), the process proceeds to step S28 in FIG. 7.
In step S28, the anxiety factor identification unit 145 determines whether or not the speed S2 of the own vehicle is faster than the predetermined speed X2. The speed S2 of the own vehicle is the "speed" of the vehicle state data stored in the storage unit 144. When the speed S2 of the own vehicle is faster than the predetermined speed X2 (Yes in step S28), the process proceeds to step S29, and when the speed S2 of the own vehicle is equal to or less than the predetermined speed X2 (step). In S28, No), the process proceeds to step S30.
In step S29, the anxiety factor specifying unit 145 identifies the own vehicle speed as a factor of anxiety.

ステップS30では、不安要因特定部145は、悪天候であるか否かを判断する。不安要因特定部145は、例えば、記憶部144に記憶されている走行状態データの「天候」を参照することで、悪天候であるか否かを判断すればよい。悪天候である場合(ステップS28でYes)には、処理はステップS31に進み、悪天候ではない場合(ステップS28でNo)には、処理はステップS32に進む。 In step S30, the anxiety factor identification unit 145 determines whether or not the weather is bad. The anxiety factor identification unit 145 may determine whether or not the weather is bad by referring to the "weather" of the traveling state data stored in the storage unit 144, for example. If the weather is bad (Yes in step S28), the process proceeds to step S31, and if the weather is not bad (No in step S28), the process proceeds to step S32.

ステップS31では、不安要因特定部145は、悪天候を不安の要因と特定する。
一方、ステップS32では、不安要因特定部145は、不安の要因が不明であるため、不安の要因がないと判断する。
In step S31, the anxiety factor identification unit 145 identifies bad weather as a factor of anxiety.
On the other hand, in step S32, the anxiety factor identification unit 145 determines that there is no anxiety factor because the anxiety factor is unknown.

図8及び図9は、実施の形態1における車内状況判定処理を示すフローチャートである。
まず、不安要因特定部145は、搭乗者の視線方向にサイドミラー又はバックミラーがあるか否かを判断する(S40)。例えば、不安要因特定部145は、記憶部144に記憶されている部品位置データを参照することで、搭乗者の視線方向を含む予め定められた方向範囲にサイドミラー又はバックミラーがある場合には、搭乗者の視線方向にサイドミラー又はバックミラーがあると判断する。搭乗者の視線方向にサイドミラー又はバックミラーがない場合(ステップS40でNo)には、処理はステップS41に進み、搭乗者の視線方向にサイドミラー又はバックミラーがある場合(ステップS40でYes)には、処理は図9のステップS45に進む。
8 and 9 are flowcharts showing the vehicle interior condition determination process according to the first embodiment.
First, the anxiety factor identification unit 145 determines whether or not there is a side mirror or a rearview mirror in the line-of-sight direction of the passenger (S40). For example, when the anxiety factor identification unit 145 refers to the component position data stored in the storage unit 144 and has a side mirror or a rearview mirror in a predetermined direction range including the line-of-sight direction of the passenger. , Judge that there is a side mirror or rearview mirror in the direction of the passenger's line of sight. If there is no side mirror or rearview mirror in the passenger's line of sight (No in step S40), the process proceeds to step S41, and if there is a side mirror or rearview mirror in the passenger's line of sight (Yes in step S40). The process proceeds to step S45 of FIG.

ステップS41では、不安要因特定部145は、搭乗者の視線方向に、ナビシステム122のディスプレイ又はインパネなどの車内表示機器があるか否かを判断する。例えば、不安要因特定部145は、記憶部144に記憶されている部品位置データを参照することで、搭乗者の視線方向を含む予め定められた方向範囲に車内表示機器がある場合には、搭乗者の視線方向に車内表示機器があると判断する。搭乗者の視線方向に車内表示機器がある場合(ステップS41でYes)には、処理はステップS42に進み、搭乗者の視線方向に車内表示機器がない場合(ステップS41でNo)には、処理はステップS44に進む。 In step S41, the anxiety factor identification unit 145 determines whether or not there is an in-vehicle display device such as a display or instrument panel of the navigation system 122 in the direction of the passenger's line of sight. For example, the anxiety factor identification unit 145 refers to the component position data stored in the storage unit 144, and when the in-vehicle display device is in a predetermined direction range including the line-of-sight direction of the passenger, the vehicle is boarded. It is determined that there is an in-vehicle display device in the direction of the person's line of sight. If there is an in-vehicle display device in the passenger's line-of-sight direction (Yes in step S41), the process proceeds to step S42, and if there is no in-vehicle display device in the passenger's line-of-sight direction (No in step S41), the process proceeds to step S42. Proceeds to step S44.

ステップS42では、不安要因特定部145は、車内表示機器において直前に表示された内容が特定の内容であるか否かを判断する。例えば、不安要因特定部145は、記憶部144に記憶されている車両状態データの「警告有無」、「警告種別」、「ナビ状態」及び「インパネ状態」を監視することにより、現在までの予め定められた期間内に、予め定められた内容の表示が行われた場合に、直前に表示された内容が特定の内容であると判断する。直前に表示された内容が特定の内容である場合(ステップS42でYes)には、処理はステップS43に進み、直前に表示された内容が特定の内容ではない場合(ステップS42でNo)には、処理はステップS44に進む。 In step S42, the anxiety factor identification unit 145 determines whether or not the content displayed immediately before on the in-vehicle display device is the specific content. For example, the anxiety factor identification unit 145 monitors the "warning presence / absence", "warning type", "navigation state", and "instrument panel state" of the vehicle state data stored in the storage unit 144 in advance to date. When the predetermined content is displayed within the predetermined period, it is determined that the content displayed immediately before is the specific content. If the content displayed immediately before is specific content (Yes in step S42), the process proceeds to step S43, and if the content displayed immediately before is not specific content (No in step S42), the process proceeds to step S43. , The process proceeds to step S44.

ステップS43では、不安要因特定部145は、直前に表示された特定の内容を不安の要因と特定する。
一方、ステップS44では、不安要因特定部145は、不安の要因が不明であるため、不安の要因がないと判断する。
In step S43, the anxiety factor identification unit 145 identifies the specific content displayed immediately before as the anxiety factor.
On the other hand, in step S44, the anxiety factor identification unit 145 determines that there is no anxiety factor because the anxiety factor is unknown.

ステップS40において、視線方向にサイドミラー又はバックミラーがある場合(ステップS40でYes)には、処理は図9のステップS45に進む。
ステップS45では、不安要因特定部145は、搭乗者の視線方向にあるサイドミラー又はバックミラーに、予め定められた物体である対象物体が写っているか否かを判断する。例えば、不安要因特定部145は、記憶部144に記憶されている走行状態データの「物体i」の中に、搭乗者の視線方向にあるサイドミラー又はバックミラーからの予め定められた方向範囲内に、予め定められた物体がある場合に、搭乗者の視線方向にあるサイドミラー又はバックミラーに対象物体が写っていると判断する。搭乗者の視線方向にあるサイドミラー又はバックミラーに対象物体が写っている場合(ステップS45でYes)には、処理はステップS46に進み、搭乗者の視線方向にあるサイドミラー又はバックミラーに対象物体がない場合(ステップS45でNo)には、処理はステップS52に進む。
In step S40, if there is a side mirror or a rearview mirror in the line-of-sight direction (Yes in step S40), the process proceeds to step S45 in FIG.
In step S45, the anxiety factor identification unit 145 determines whether or not the target object, which is a predetermined object, is reflected in the side mirror or the rearview mirror in the direction of the passenger's line of sight. For example, the anxiety factor identification unit 145 is within a predetermined direction range from the side mirror or the rear-view mirror in the passenger's line-of-sight direction in the "object i" of the traveling state data stored in the storage unit 144. If there is a predetermined object, it is determined that the object is reflected in the side mirror or rearview mirror in the direction of the passenger's line of sight. If the target object is reflected in the side mirror or rearview mirror in the passenger's line of sight (Yes in step S45), the process proceeds to step S46 and the target is in the side mirror or rearview mirror in the passenger's line of sight. If there is no object (No in step S45), the process proceeds to step S52.

ステップS46では、不安要因特定部145は、対象物体の相対速度S1が予め定められた速度X1よりも速いか否かを判断する。ここでの処理は、図6におけるステップS21での処理と同様である。対象物体の相対速度S1が予め定められた速度X1よりも速い場合(S46でYes)には、処理はステップS47に進み、対象物体の相対速度S1が予め定められた速度X1以下である場合(S46でNo)には、処理はステップS48に進む。
ステップS47では、不安要因特定部145は、他車速度を不安の要因と特定する。
In step S46, the anxiety factor identification unit 145 determines whether or not the relative velocity S1 of the target object is faster than the predetermined velocity X1. The processing here is the same as the processing in step S21 in FIG. When the relative velocity S1 of the target object is faster than the predetermined velocity X1 (Yes in S46), the process proceeds to step S47, and when the relative velocity S1 of the target object is equal to or less than the predetermined velocity X1 (Yes). In S46, No), the process proceeds to step S48.
In step S47, the anxiety factor specifying unit 145 identifies the speed of another vehicle as a factor of anxiety.

ステップS48では、不安要因特定部145は、対象物体の出現時間Tが予め定められた時間Yよりも短いか否かを判断する。ここでの処理は、図6におけるステップS23での処理と同様である。対象物体の出現時間Tが予め定められた時間Yよりも短い場合(S48でYes)には、処理はステップS49に進み、対象物体の出現時間Tが予め定められた時間Y以上である場合(S48でNo)には、処理はステップS50に進む。
ステップS49では、不安要因特定部145は、飛び出しを不安の要因と特定する。
In step S48, the anxiety factor identification unit 145 determines whether or not the appearance time T of the target object is shorter than the predetermined time Y. The processing here is the same as the processing in step S23 in FIG. When the appearance time T of the target object is shorter than the predetermined time Y (Yes in S48), the process proceeds to step S49, and when the appearance time T of the target object is equal to or longer than the predetermined time Y (Yes). In S48, No), the process proceeds to step S50.
In step S49, the anxiety factor identification unit 145 identifies the pop-out as a factor of anxiety.

ステップS50では、不安要因特定部145は、対象物体との距離Dが予め定められた距離Zよりも短いか否かを判断する。ここでの処理は、図6におけるステップS25と同様である。対象物体との距離Dが予め定められた距離Zよりも短い場合(S50でYes)には、処理はステップS51に進み、対象物体との距離Dが予め定められた距離Z以上である場合(S50でNo)には、処理はステップS52に進む。
ステップS51では、不安要因特定部145は、車間距離を不安の要因と特定する。
一方、ステップS52では、不安要因特定部145は、不安の要因が不明であるため、不安の要因がないと判断する。
In step S50, the anxiety factor identification unit 145 determines whether or not the distance D to the target object is shorter than the predetermined distance Z. The processing here is the same as in step S25 in FIG. When the distance D to the target object is shorter than the predetermined distance Z (Yes in S50), the process proceeds to step S51, and when the distance D to the target object is equal to or greater than the predetermined distance Z (Yes). In S50, No), the process proceeds to step S52.
In step S51, the anxiety factor specifying unit 145 identifies the inter-vehicle distance as a factor of anxiety.
On the other hand, in step S52, the anxiety factor identification unit 145 determines that there is no anxiety factor because the anxiety factor is unknown.

以上のように、実施の形態1によれば、搭乗者が不安を感じた場合に、その不安の要因を特定し、その要因に対して対策を行うことができるようになる。 As described above, according to the first embodiment, when the passenger feels anxiety, the cause of the anxiety can be identified and countermeasures can be taken against the factor.

実施の形態2.
図1に示されているように、実施の形態2に係る不安要因特定装置200は、搭乗者状態センシング部110と、車両状態センシング部120と、走行状態センシング部130と、感情認識部140と、搭乗者状態管理部141と、車両状態管理部142と、走行状態管理部143と、記憶部244と、不安要因特定部245と、対策決定部146と、対策実行部147とを備える。
Embodiment 2.
As shown in FIG. 1, the anxiety factor identifying device 200 according to the second embodiment includes a occupant state sensing unit 110, a vehicle state sensing unit 120, a traveling state sensing unit 130, and an emotion recognition unit 140. It includes a passenger state management unit 141, a vehicle state management unit 142, a traveling state management unit 143, a storage unit 244, an anxiety factor identification unit 245, a countermeasure determination unit 146, and a countermeasure execution unit 147.

実施の形態2に係る不安要因特定装置200の搭乗者状態センシング部110、車両状態センシング部120、走行状態センシング部130、感情認識部140、搭乗者状態管理部141、車両状態管理部142、走行状態管理部143、対策決定部146及び対策実行部147は、実施の形態1に係る不安要因特定装置100の搭乗者状態センシング部110、車両状態センシング部120、走行状態センシング部130、感情認識部140、搭乗者状態管理部141、車両状態管理部142、走行状態管理部143、対策決定部146及び対策実行部147と同様である。 Passenger state sensing unit 110, vehicle state sensing unit 120, running state sensing unit 130, emotion recognition unit 140, occupant state management unit 141, vehicle state management unit 142, traveling of the anxiety factor identifying device 200 according to the second embodiment. The state management unit 143, the countermeasure determination unit 146, and the countermeasure execution unit 147 are the passenger state sensing unit 110, the vehicle state sensing unit 120, the traveling state sensing unit 130, and the emotion recognition unit of the anxiety factor identifying device 100 according to the first embodiment. This is the same as 140, the passenger condition management unit 141, the vehicle condition management unit 142, the traveling condition management unit 143, the countermeasure determination unit 146, and the countermeasure execution unit 147.

記憶部244は、不安要因特定装置200での処理に必要なデータを記憶する。
実施の形態2における記憶部244は、実施の形態1における記憶部144に記憶されているデータと同様のデータにおける履歴を記憶するほか、不安要因特定部245での機械学習による不安要因の特定に必要な学習結果データを記憶する。
The storage unit 244 stores data necessary for processing by the anxiety factor identifying device 200.
The storage unit 244 in the second embodiment stores the history of the same data as the data stored in the storage unit 144 in the first embodiment, and the anxiety factor identification unit 245 identifies the anxiety factor by machine learning. Store the necessary learning result data.

不安要因特定部245は、記憶部244に記憶されている感情認識データを参照することで、搭乗者が不安を感じた場合に、記憶部244に記憶されている搭乗者状態データ、車両状態データ及び走行状態データの履歴、並びに、学習結果データを用いて、不安の要因を特定する。 The anxiety factor identification unit 245 refers to the emotion recognition data stored in the storage unit 244, and when the passenger feels anxiety, the passenger state data and the vehicle state data stored in the storage unit 244. The cause of anxiety is identified by using the history of the running state data and the learning result data.

不安要因特定部245は、例えば、RandomForest等の機械学習により、不安の要因を特定する。
具体的には、事前の学習段階において、搭乗者が不安を感じた時点で、その要因をインタビュー等により聴取することで、搭乗者状態データ、車両状態データ及び走行状態データの履歴から、どの検出データで示される値を時系列に並べた時系列データが不安の要因となっているかを示す学習データを生成しておく。図10(A)〜(C)では、実線で示されている時系列データが不安の要因となっているものとする。言い換えると、学習データでは、時系列データに要因がラベル付けされている。これらの学習データを用いて、予め機械学習により学習が行われる。
The anxiety factor identification unit 245 identifies the anxiety factor by machine learning such as Random Forest.
Specifically, when the passenger feels uneasy in the pre-learning stage, by listening to the factors through interviews, etc., which detection is made from the history of passenger status data, vehicle status data, and driving status data. A training data indicating whether the time-series data in which the values shown in the data are arranged in a time-series is a cause of anxiety is generated. In FIGS. 10A to 10C, it is assumed that the time series data shown by the solid line is a factor of anxiety. In other words, in the training data, the factors are labeled with the time series data. Using these learning data, learning is performed in advance by machine learning.

そして、不安要因特定部245は、運用段階において、感情認識部140が搭乗者の不安を認識した時点で、搭乗者状態データ、車両状態データ及び走行状態データの履歴が図11(A)であった場合に、学習した結果である学習結果データを用いることで、図11(B)において実線で示されているように、不安の要因となっている時系列データを特定する。 Then, in the anxiety factor identification unit 245, when the emotion recognition unit 140 recognizes the anxiety of the occupant in the operation stage, the history of the occupant state data, the vehicle state data, and the running state data is shown in FIG. 11 (A). In this case, by using the learning result data which is the learning result, as shown by the solid line in FIG. 11B, the time-series data which is the cause of anxiety is specified.

不安要因特定部245は、以上のようにして特定された時系列データに対応付けられている要因を、搭乗者の不安の要因と特定する。
例えば、特定された時系列データが、左右の加速度の検出データである場合、不安要因特定部245は、前方の車両が近づいたために、搭乗者が急ハンドルを切ったと推定し、不安の要因を車間距離であると判断する。
The anxiety factor specifying unit 245 identifies the factor associated with the time series data specified as described above as the factor of the passenger's anxiety.
For example, when the specified time-series data is the detection data of left and right acceleration, the anxiety factor identification unit 245 estimates that the passenger suddenly turned the steering wheel because the vehicle in front approached, and determined the cause of anxiety. Judge that it is the distance between vehicles.

以上のように、実施の形態2によれば、機械学習により、搭乗者の不安の要因を高精度に特定することができる。 As described above, according to the second embodiment, it is possible to identify the cause of anxiety of the passenger with high accuracy by machine learning.

実施の形態3.
図1に示されているように、実施の形態3に係る不安要因特定装置300は、搭乗者状態センシング部110と、車両状態センシング部120と、走行状態センシング部130と、感情認識部140と、搭乗者状態管理部141と、車両状態管理部142と、走行状態管理部143と、記憶部344と、不安要因特定部345と、対策決定部346と、対策実行部147とを備える。
Embodiment 3.
As shown in FIG. 1, the anxiety factor identifying device 300 according to the third embodiment includes a passenger state sensing unit 110, a vehicle state sensing unit 120, a traveling state sensing unit 130, and an emotion recognition unit 140. It includes a passenger state management unit 141, a vehicle state management unit 142, a traveling state management unit 143, a storage unit 344, an anxiety factor identification unit 345, a countermeasure determination unit 346, and a countermeasure execution unit 147.

実施の形態3に係る不安要因特定装置300の搭乗者状態センシング部110、車両状態センシング部120、走行状態センシング部130、感情認識部140、搭乗者状態管理部141、車両状態管理部142、走行状態管理部143及び対策実行部147は、実施の形態1に係る不安要因特定装置100の搭乗者状態センシング部110、車両状態センシング部120、走行状態センシング部130、感情認識部140、搭乗者状態管理部141、車両状態管理部142、走行状態管理部143及び対策実行部147と同様である。 Passenger state sensing unit 110, vehicle state sensing unit 120, running state sensing unit 130, emotion recognition unit 140, occupant state management unit 141, vehicle state management unit 142, traveling of the anxiety factor identifying device 300 according to the third embodiment. The state management unit 143 and the countermeasure execution unit 147 are the passenger state sensing unit 110, the vehicle state sensing unit 120, the traveling state sensing unit 130, the emotion recognition unit 140, and the occupant state of the anxiety factor identifying device 100 according to the first embodiment. This is the same as the management unit 141, the vehicle state management unit 142, the traveling state management unit 143, and the countermeasure execution unit 147.

記憶部344は、不安要因特定装置300での処理に必要なデータを記憶する。
例えば、記憶部344は、感情認識データ、搭乗者状態データ、車両状態データ、走行状態データ、対策テーブル及び部品位置データを記憶する。
実施の形態3における感情認識データ、搭乗者状態データ、車両状態データ、走行状態データ及び部品位置データは、実施の形態1における感情認識データ、搭乗者状態データ、車両状態データ、走行状態データ及び部品位置データと同様である。
The storage unit 344 stores data necessary for processing by the anxiety factor identifying device 300.
For example, the storage unit 344 stores emotion recognition data, passenger state data, vehicle state data, running state data, countermeasure table, and component position data.
The emotion recognition data, the occupant state data, the vehicle state data, the running state data, and the component position data in the third embodiment are the emotion recognition data, the occupant state data, the vehicle state data, the running state data, and the parts in the first embodiment. It is the same as the position data.

図12は、実施の形態3における対策テーブルの一例を示す概略図である。
図12に示されている対策テーブル360は、要因列360aと、主感情分類列360dと、対応処理列360bと、パラメータ列360cとを有する。
要因列360aは、搭乗者が感じる不安の要因を示す。
主感情分類列360dは、搭乗者が感じた「驚き」及び「恐れ」の感情の度合い内、高い方の感情である主感情分類を示す。言い換えると、主感情分類は、搭乗者の感情の内、予め定められた方法で選択された感情である。
対応処理列360bは、搭乗者が感じる不安及び主感情分類に対する対応処理を示す。
パラメータ列360cは、搭乗者が感じる不安及び主感情分類に対して対応する際に、車両の自動運転においてパラメータを調整する値を示す。パラメータ列360cに格納されている値は、車両が自動運転に対応している場合に使用される値である。
FIG. 12 is a schematic view showing an example of a countermeasure table according to the third embodiment.
The countermeasure table 360 shown in FIG. 12 has a factor sequence 360a, a main emotion classification column 360d, a corresponding processing column 360b, and a parameter sequence 360c.
The factor sequence 360a shows the factors of anxiety felt by the passenger.
The main emotion classification column 360d shows the main emotion classification which is the higher emotion within the degree of the feelings of "surprise" and "fear" felt by the passenger. In other words, the main emotion classification is the emotion selected by a predetermined method among the emotions of the passenger.
Correspondence processing column 360b shows the correspondence processing for the anxiety and the main emotion classification felt by the passenger.
The parameter column 360c indicates a value for adjusting the parameter in the automatic driving of the vehicle when responding to the anxiety and main emotion classification felt by the passenger. The value stored in the parameter column 360c is a value used when the vehicle supports automatic driving.

図1に戻り、不安要因特定部345は、記憶部344に記憶されている感情認識データを参照することで、搭乗者が不安を感じた場合に、記憶部344に記憶されている搭乗者状態データ、車両状態データ及び走行状態データを用いて、不安の要因を特定する。
実施の形態3においては、不安要因特定部345は、搭乗者の感情の分類に従って、不安の要因を特定する順番を変える。
Returning to FIG. 1, the anxiety factor identification unit 345 refers to the emotion recognition data stored in the storage unit 344, and when the passenger feels anxiety, the passenger state stored in the storage unit 344. Identify the cause of anxiety using data, vehicle condition data, and driving condition data.
In the third embodiment, the anxiety factor identification unit 345 changes the order of identifying the anxiety factors according to the classification of the passenger's emotions.

対策決定部346は、記憶部144に記憶されている対策テーブルを参照することで、不安要因特定部145が特定した要因と、搭乗者の主感情との組み合わせに対応する対策を決定する。 The countermeasure determination unit 346 determines the countermeasure corresponding to the combination of the factor specified by the anxiety factor identification unit 145 and the passenger's main emotion by referring to the countermeasure table stored in the storage unit 144.

図13は、実施の形態3における不安要因特定部345の動作を示すフローチャートである。
まず、不安要因特定部345は、搭乗者が覚醒状態であるか否かを判断する(S60)。ここでの処理は、図5のステップS10での処理と同様である。搭乗者が覚醒状態ではない場合(S60でNo)には、処理はステップS61に進み、搭乗者が覚醒状態である場合(S60でYes)には、処理はステップS62に進む。
ステップS61では、不安要因特定部345は、不安の要因がないと判断する。
FIG. 13 is a flowchart showing the operation of the anxiety factor specifying unit 345 in the third embodiment.
First, the anxiety factor identification unit 345 determines whether or not the passenger is in an awake state (S60). The processing here is the same as the processing in step S10 of FIG. If the occupant is not awake (No in S60), the process proceeds to step S61, and if the occupant is in an awake state (Yes in S60), the process proceeds to step S62.
In step S61, the anxiety factor identification unit 345 determines that there is no anxiety factor.

ステップS62では、不安要因特定部345は、搭乗者の感情分類が驚きであるか否かを判断する。例えば、不安要因特定部345は、記憶部344に記憶されている運転状態データに含まれている「感情」である「neutral」、「怒り」、「恐れ」、「驚き」、「悲しみ」、「嫌悪」及び「幸せ(喜び)」の度合いの内、最も高い度合いとなっているものを搭乗者の感情分類として特定する。そして、搭乗者の感情分類が驚きである場合(ステップS62でYes)には、処理はステップS63に進み、搭乗者の感情分類が驚きではない場合(ステップS62でNo)には、処理はステップS64に進む。 In step S62, the anxiety factor identification unit 345 determines whether or not the passenger's emotion classification is surprising. For example, the anxiety factor identification unit 345 has "neutral", "anger", "fear", "surprise", "sadness", which are "emotions" included in the driving state data stored in the storage unit 344. Of the degrees of "disgust" and "happiness (joy)", the one with the highest degree is specified as the emotion classification of the passenger. Then, when the passenger's emotion classification is surprising (Yes in step S62), the process proceeds to step S63, and when the passenger's emotion classification is not surprising (No in step S62), the process proceeds to step S63. Proceed to S64.

ステップS63では、不安要因特定部345は、驚きを含む不安要因の特定処理を実行する。ここでの処理については、図14〜図18を用いて説明する。 In step S63, the anxiety factor identification unit 345 executes the anxiety factor identification process including the surprise. The processing here will be described with reference to FIGS. 14 to 18.

ステップS64では、不安要因特定部345は、搭乗者の感情分類が恐れであるか否かを判断する。そして、搭乗者の感情分類が恐れである場合(ステップS64でYes)には、処理はステップS65に進み、搭乗者の感情分類が恐れではない場合(ステップS64でNo)には、処理はステップS66に進む。 In step S64, the anxiety factor identification unit 345 determines whether or not the passenger's emotion classification is afraid. Then, when the passenger's emotion classification is afraid (Yes in step S64), the process proceeds to step S65, and when the passenger's emotion classification is not afraid (No in step S64), the process proceeds to step S65. Proceed to S66.

ステップS65では、不安要因特定部345は、恐れを含む不安要因の特定処理を実行する。ここでの処理については、図19〜図23を用いて説明する。
ステップS66では、不安要因特定部345は、その他の不安要因の特定処理を実行する。ここでの処理については、図24〜図26を用いて説明する。
In step S65, the anxiety factor identification unit 345 executes the anxiety factor identification process including fear. The processing here will be described with reference to FIGS. 19 to 23.
In step S66, the anxiety factor identification unit 345 executes other anxiety factor identification processes. The processing here will be described with reference to FIGS. 24 to 26.

図14〜図18は、驚きを含む不安要因の特定処理を示すフローチャートである。
まず、図14から説明を行う。
不安要因特定部345は、異常音があるか否かを判断する(S70)。ここでの処理は、図5のステップS10の処理と同様である。異常音がある場合(S70でYes)には、処理はステップS71に進み、異常音がない場合(S70でNo)には、処理はステップS72に進む。
ステップS71では、不安要因特定部345は、異常音を不安の要因と特定する。
14 to 18 are flowcharts showing specific processing of anxiety factors including surprises.
First, the description will be given from FIG.
The anxiety factor identification unit 345 determines whether or not there is an abnormal sound (S70). The processing here is the same as the processing in step S10 of FIG. If there is an abnormal sound (Yes in S70), the process proceeds to step S71, and if there is no abnormal sound (No in S70), the process proceeds to step S72.
In step S71, the anxiety factor specifying unit 345 identifies the abnormal sound as a factor of anxiety.

ステップS72では、不安要因特定部345は、直前に急操作があったか否かを判断する。ここでの処理は、図5のステップS14での処理と同様である。直前に急操作があった場合(ステップS72でYes)には、処理はステップS73に進み、直前に急操作がなかった場合(ステップS72でNo)には、処理はステップS74に進む。
ステップS73では、不安要因特定部345は、急操作を不安の要因と特定する。
In step S72, the anxiety factor identification unit 345 determines whether or not there was a sudden operation immediately before. The processing here is the same as the processing in step S14 of FIG. If there is a sudden operation immediately before (Yes in step S72), the process proceeds to step S73, and if there is no sudden operation immediately before (No in step S72), the process proceeds to step S74.
In step S73, the anxiety factor identification unit 345 identifies the sudden operation as a factor of anxiety.

ステップS74では、不安要因特定部345は、搭乗者の視線方向が車外であるか否かを判断する。ここでの処理は、図5のステップS16での処理と同様である。搭乗者の視線方向が車外である場合(ステップS74でYes)には、処理はステップS75に進み、搭乗者の視線方向が車内である場合(ステップS74でNo)には、処理はステップS76に進む。 In step S74, the anxiety factor identification unit 345 determines whether or not the line-of-sight direction of the passenger is outside the vehicle. The processing here is the same as the processing in step S16 of FIG. If the passenger's line-of-sight direction is outside the vehicle (Yes in step S74), the process proceeds to step S75, and if the passenger's line-of-sight direction is inside the vehicle (No in step S74), the process proceeds to step S76. move on.

ステップS75では、不安要因特定部345は、車両の外部の状況を判定して、驚きを含んでいる状態での不安の要因を特定する驚きを含む車外状況判定処理を行う。この処理については、図15及び図16を用いて、詳細に説明する。 In step S75, the anxiety factor identification unit 345 determines the external situation of the vehicle, and performs the out-of-vehicle situation determination process including the surprise to identify the cause of the anxiety in the state including the surprise. This process will be described in detail with reference to FIGS. 15 and 16.

ステップS76では、不安要因特定部345は、車両の内部の状況を判定して、驚きを含んでいる状態での不安の要因を特定する驚きを含む車内状況判定処理を行う。この処理については、図17及び図18を用いて、詳細に説明する。 In step S76, the anxiety factor identification unit 345 determines the internal condition of the vehicle, and performs an in-vehicle condition determination process including a surprise to identify the cause of the anxiety in a state including the surprise. This process will be described in detail with reference to FIGS. 17 and 18.

図15及び図16は、実施の形態3における驚きを含む車外状況判定処理を示すフローチャートである。
まず、不安要因特定部345は、搭乗者の視線方向に対象物体があるか否かを判断する(S80)。ここでの処理は、図6のステップS20での処理と同様である。対象物体がある場合(ステップS80でYes)には、処理はステップS81に進み、対象物体がない場合(ステップS80でNo)には、処理は図16のステップS88に進む。
15 and 16 are flowcharts showing the out-of-vehicle situation determination process including the surprise in the third embodiment.
First, the anxiety factor identification unit 345 determines whether or not there is a target object in the line-of-sight direction of the passenger (S80). The processing here is the same as the processing in step S20 of FIG. If there is a target object (Yes in step S80), the process proceeds to step S81, and if there is no target object (No in step S80), the process proceeds to step S88 in FIG.

ステップS81では、不安要因特定部345は、対象物体の出現時間Tが予め定められた時間Yよりも短いか否かを判断する。ここでの処理は、図6のステップS23での処理と同様である。対象物体の出現時間Tが予め定められた時間Yよりも短い場合(S81でYes)には、処理はステップS82に進み、対象物体の出現時間Tが予め定められた時間Y以上である場合(S81でNo)には、処理はステップS83に進む。
ステップS82では、不安要因特定部345は、飛び出しを不安の要因と特定する。
In step S81, the anxiety factor identification unit 345 determines whether or not the appearance time T of the target object is shorter than the predetermined time Y. The processing here is the same as the processing in step S23 of FIG. When the appearance time T of the target object is shorter than the predetermined time Y (Yes in S81), the process proceeds to step S82, and when the appearance time T of the target object is equal to or longer than the predetermined time Y (Yes). In S81, No), the process proceeds to step S83.
In step S82, the anxiety factor identification unit 345 identifies the pop-out as a factor of anxiety.

ステップS83では、不安要因特定部345は、対象物体の相対速度S1が予め定められた速度X1よりも速いか否かを判断する。ここでの処理は、図6のステップS21での処理と同様である。対象物体の相対速度S1が予め定められた速度X1よりも速い場合(S83でYes)には、処理はステップS84に進み、対象物体の相対速度S1が予め定められた速度X1以下である場合(S83でNo)には、処理はステップS85に進む。
ステップS84では、不安要因特定部345は、他車速度を不安の要因と特定する。
In step S83, the anxiety factor identification unit 345 determines whether or not the relative velocity S1 of the target object is faster than the predetermined velocity X1. The processing here is the same as the processing in step S21 of FIG. When the relative velocity S1 of the target object is faster than the predetermined velocity X1 (Yes in S83), the process proceeds to step S84, and when the relative velocity S1 of the target object is equal to or less than the predetermined velocity X1 (Yes). In S83, No), the process proceeds to step S85.
In step S84, the anxiety factor identification unit 345 identifies the speed of another vehicle as an anxiety factor.

ステップS85では、不安要因特定部345は、対象物体との距離Dが予め定められた距離Zよりも短いか否かを判断する。ここでの処理は、図6のステップS25での処理と同様である。対象物体との距離Dが予め定められた距離Zよりも短い場合(S85でYes)には、処理はステップS86に進み、対象物体との距離Dが予め定められた距離Z以上である場合(S85でNo)には、処理はステップS87に進む。
ステップS86では、不安要因特定部345は、車間距離を不安の要因と特定する。
一方、ステップS87では、不安要因特定部345は、不安の要因が不明であるため、不安の要因がないと判断する。
In step S85, the anxiety factor identification unit 345 determines whether or not the distance D to the target object is shorter than the predetermined distance Z. The processing here is the same as the processing in step S25 of FIG. When the distance D to the target object is shorter than the predetermined distance Z (Yes in S85), the process proceeds to step S86, and when the distance D to the target object is equal to or greater than the predetermined distance Z (Yes). In S85, No), the process proceeds to step S87.
In step S86, the anxiety factor specifying unit 345 identifies the inter-vehicle distance as a factor of anxiety.
On the other hand, in step S87, the anxiety factor identification unit 345 determines that there is no anxiety factor because the anxiety factor is unknown.

また、ステップS80において、対象物体がない場合(ステップS80でNo)には、処理は、図16のステップS88に進む。
ステップS88では、不安要因特定部345は、悪天候であるか否かを判断する。ここでの処理は、図7のステップS30での処理と同様である。悪天候である場合(ステップS88でYes)には、処理はステップS89に進み、悪天候ではない場合(ステップS88でNo)には、処理はステップS90に進む。
ステップS89では、不安要因特定部345は、悪天候を不安の要因と特定する。
If there is no target object in step S80 (No in step S80), the process proceeds to step S88 in FIG.
In step S88, the anxiety factor identification unit 345 determines whether or not the weather is bad. The processing here is the same as the processing in step S30 of FIG. If the weather is bad (Yes in step S88), the process proceeds to step S89, and if the weather is not bad (No in step S88), the process proceeds to step S90.
In step S89, the anxiety factor identification unit 345 identifies bad weather as a factor of anxiety.

ステップS90では、不安要因特定部345は、自車両の速度S2が予め定められた速度X2よりも速いか否かを判断する。ここでの処理は、図7のステップS28での処理と同様である。自車両の速度S2が予め定められた速度X2よりも速い場合(ステップS90でYes)には、処理はステップS91に進み、自車両の速度S2が予め定められた速度X2以下である場合(ステップS90でNo)には、処理はステップS92に進む。 In step S90, the anxiety factor identification unit 345 determines whether or not the speed S2 of the own vehicle is faster than the predetermined speed X2. The processing here is the same as the processing in step S28 of FIG. When the speed S2 of the own vehicle is faster than the predetermined speed X2 (Yes in step S90), the process proceeds to step S91, and when the speed S2 of the own vehicle is equal to or less than the predetermined speed X2 (step). In S90, No), the process proceeds to step S92.

ステップS91では、不安要因特定部345は、自車速度を不安の要因と特定する。
一方、ステップS92では、不安要因特定部345は、不安の要因が不明であるため、不安の要因がないと判断する。
In step S91, the anxiety factor specifying unit 345 identifies the own vehicle speed as a factor of anxiety.
On the other hand, in step S92, the anxiety factor identification unit 345 determines that there is no anxiety factor because the anxiety factor is unknown.

図17及び図18は、実施の形態3における驚きを含む車内状況判定処理を示すフローチャートである。
まず、不安要因特定部345は、搭乗者の視線方向にサイドミラー又はバックミラーがあるか否かを判断する(S100)。ここでの処理は、図8におけるステップS40での処理と同様である。搭乗者の視線方向にサイドミラー又はバックミラーがない場合(ステップS100でNo)には、処理はステップS101に進み、搭乗者の視線方向にサイドミラー又はバックミラーがある場合(ステップS100でYes)には、処理は図18のステップS105に進む。
17 and 18 are flowcharts showing an in-vehicle condition determination process including a surprise in the third embodiment.
First, the anxiety factor identification unit 345 determines whether or not there is a side mirror or a rearview mirror in the line-of-sight direction of the passenger (S100). The processing here is the same as the processing in step S40 in FIG. If there is no side mirror or rearview mirror in the passenger's line of sight (No in step S100), the process proceeds to step S101, and if there is a side mirror or rearview mirror in the passenger's line of sight (Yes in step S100). The process proceeds to step S105 of FIG.

ステップS101では、不安要因特定部345は、搭乗者の視線方向に車内表示機器があるか否かを判断する。ここでの処理は、図8におけるステップS41での処理と同様である。搭乗者の視線方向に車内表示機器がある場合(ステップS101でYes)には、処理はステップS102に進み、搭乗者の視線方向に車内表示機器がない場合(ステップS101でNo)には、処理はステップS104に進む。 In step S101, the anxiety factor identification unit 345 determines whether or not there is an in-vehicle display device in the direction of the passenger's line of sight. The processing here is the same as the processing in step S41 in FIG. If there is an in-vehicle display device in the passenger's line-of-sight direction (Yes in step S101), the process proceeds to step S102, and if there is no in-vehicle display device in the passenger's line-of-sight direction (No in step S101), the process proceeds to step S102. Goes to step S104.

ステップS102では、不安要因特定部345は、車内表示機器において直前に表示された内容が特定の内容であるか否かを判断する。ここでの処理は、図8におけるステップS42での処理と同様である。直前に表示された内容が特定の内容である場合(ステップS102でYes)には、処理はステップS103に進み、直前に表示された内容が特定の内容ではない場合(ステップS102でNo)には、処理はステップS104に進む。 In step S102, the anxiety factor identification unit 345 determines whether or not the content displayed immediately before on the in-vehicle display device is the specific content. The processing here is the same as the processing in step S42 in FIG. If the content displayed immediately before is a specific content (Yes in step S102), the process proceeds to step S103, and if the content displayed immediately before is not a specific content (No in step S102), the process proceeds to step S103. , The process proceeds to step S104.

ステップS103では、不安要因特定部345は、直前に表示された特定の内容を不安の要因と特定する。
一方、ステップS104では、不安要因特定部345は、不安の要因が不明であるため、不安の要因がないと判断する。
In step S103, the anxiety factor identification unit 345 identifies the specific content displayed immediately before as the anxiety factor.
On the other hand, in step S104, the anxiety factor identification unit 345 determines that there is no anxiety factor because the anxiety factor is unknown.

ステップS100において、視線方向にサイドミラー又はバックミラーがある場合(ステップS100でYes)には、処理は図18のステップS105に進む。
ステップS105では、不安要因特定部345は、搭乗者の視線方向にあるサイドミラー又はバックミラーに、予め定められた物体である対象物体が写っているか否かを判断する。ここでの処理は、図9におけるステップS45での処理と同様である。搭乗者の視線方向にあるサイドミラー又はバックミラーに対象物体が写っている場合(ステップS105でYes)には、処理はステップS106に進み、搭乗者の視線方向にあるサイドミラー又はバックミラーに対象物体がない場合(ステップS105でNo)には、処理はステップS112に進む。
In step S100, if there is a side mirror or a rearview mirror in the line-of-sight direction (Yes in step S100), the process proceeds to step S105 in FIG.
In step S105, the anxiety factor identification unit 345 determines whether or not the target object, which is a predetermined object, is reflected in the side mirror or the rearview mirror in the direction of the passenger's line of sight. The processing here is the same as the processing in step S45 in FIG. If the target object is reflected in the side mirror or rearview mirror in the passenger's line of sight (Yes in step S105), the process proceeds to step S106 and the target is in the side mirror or rearview mirror in the passenger's line of sight. If there is no object (No in step S105), the process proceeds to step S112.

ステップS106では、不安要因特定部345は、対象物体の出現時間Tが予め定められた時間Yよりも短いか否かを判断する。ここでの処理は、図6におけるステップS23での処理と同様である。対象物体の出現時間Tが予め定められた時間Yよりも短い場合(S106でYes)には、処理はステップS107に進み、対象物体の出現時間Tが予め定められた時間Y以上である場合(S106でNo)には、処理はステップS108に進む。
ステップS107では、不安要因特定部345は、飛び出しを不安の要因と特定する。
In step S106, the anxiety factor identification unit 345 determines whether or not the appearance time T of the target object is shorter than the predetermined time Y. The processing here is the same as the processing in step S23 in FIG. When the appearance time T of the target object is shorter than the predetermined time Y (Yes in S106), the process proceeds to step S107, and when the appearance time T of the target object is equal to or longer than the predetermined time Y (Yes). In S106, No), the process proceeds to step S108.
In step S107, the anxiety factor identification unit 345 identifies the pop-out as a factor of anxiety.

ステップS108では、不安要因特定部345は、対象物体の相対速度S1が予め定められた速度X1よりも速いか否かを判断する。ここでの処理は、図6におけるステップS21での処理と同様である。対象物体の相対速度S1が予め定められた速度X1よりも速い場合(S108でYes)には、処理はステップS109に進み、対象物体の相対速度S1が予め定められた速度X1以下である場合(S108でNo)には、処理はステップS110に進む。
ステップS109では、不安要因特定部345は、他車速度を不安の要因と特定する。
In step S108, the anxiety factor identification unit 345 determines whether or not the relative velocity S1 of the target object is faster than the predetermined velocity X1. The processing here is the same as the processing in step S21 in FIG. When the relative velocity S1 of the target object is faster than the predetermined velocity X1 (Yes in S108), the process proceeds to step S109, and when the relative velocity S1 of the target object is equal to or less than the predetermined velocity X1 (Yes). In S108, No), the process proceeds to step S110.
In step S109, the anxiety factor identification unit 345 identifies the speed of another vehicle as an anxiety factor.

ステップS110では、不安要因特定部345は、対象物体との距離Dが予め定められた距離Zよりも短いか否かを判断する。ここでの処理は、図6におけるステップS25と同様である。対象物体との距離Dが予め定められた距離Zよりも短い場合(S110でYes)には、処理はステップS111に進み、対象物体との距離Dが予め定められた距離Z以上である場合(S110でNo)には、処理はステップS112に進む。
ステップS111では、不安要因特定部345は、車間距離を不安の要因と特定する。
一方、ステップS112では、不安要因特定部345は、不安の要因が不明であるため、不安の要因がないと判断する。
In step S110, the anxiety factor identification unit 345 determines whether or not the distance D to the target object is shorter than the predetermined distance Z. The processing here is the same as in step S25 in FIG. When the distance D to the target object is shorter than the predetermined distance Z (Yes in S110), the process proceeds to step S111, and when the distance D to the target object is equal to or greater than the predetermined distance Z (Yes). If No) in S110, the process proceeds to step S112.
In step S111, the anxiety factor specifying unit 345 identifies the inter-vehicle distance as a factor of anxiety.
On the other hand, in step S112, the anxiety factor identification unit 345 determines that there is no anxiety factor because the anxiety factor is unknown.

図19〜図23は、恐れを含む不安要因の特定処理を示すフローチャートである。
まず、図19から説明を行う。
不安要因特定部345は、異常音があるか否かを判断する(S120)。ここでの処理は、図5のステップS10の処理と同様である。異常音がある場合(S120でYes)には、処理はステップS121に進み、異常音がない場合(S120でNo)には、処理はステップS122に進む。
ステップS121では、不安要因特定部345は、異常音を不安の要因と特定する。
19 to 23 are flowcharts showing specific processing of anxiety factors including fear.
First, the description will be given from FIG.
The anxiety factor identification unit 345 determines whether or not there is an abnormal sound (S120). The processing here is the same as the processing in step S10 of FIG. If there is an abnormal sound (Yes in S120), the process proceeds to step S121, and if there is no abnormal sound (No in S120), the process proceeds to step S122.
In step S121, the anxiety factor specifying unit 345 identifies the abnormal sound as a factor of anxiety.

ステップS122では、不安要因特定部345は、搭乗者の視線方向が車外であるか否かを判断する。ここでの処理は、図5のステップS16での処理と同様である。搭乗者の視線方向が車外である場合(ステップS122でYes)には、処理はステップS123に進み、搭乗者の視線方向が車内である場合(ステップS122でNo)には、処理はステップS124に進む。 In step S122, the anxiety factor identification unit 345 determines whether or not the line-of-sight direction of the passenger is outside the vehicle. The processing here is the same as the processing in step S16 of FIG. If the line-of-sight direction of the passenger is outside the vehicle (Yes in step S122), the process proceeds to step S123, and if the line-of-sight direction of the passenger is inside the vehicle (No in step S122), the process proceeds to step S124. move on.

ステップS123では、不安要因特定部345は、車両の外部の状況を判定して、恐れを含んでいる状態での不安の要因を特定する驚きを含む車外状況判定処理を行う。この処理については、図20及び図21を用いて、詳細に説明する。 In step S123, the anxiety factor identification unit 345 determines the external situation of the vehicle, and performs an out-of-vehicle situation determination process including a surprise to identify the anxiety factor in a state including fear. This process will be described in detail with reference to FIGS. 20 and 21.

ステップS124では、不安要因特定部345は、車両の内部の状況を判定して、恐れを含んでいる状態での不安の要因を特定する驚きを含む車内状況判定処理を行う。この処理については、図22及び図23を用いて、詳細に説明する。 In step S124, the anxiety factor identification unit 345 determines the internal condition of the vehicle, and performs an in-vehicle condition determination process including a surprise to identify the anxiety factor in a state including fear. This process will be described in detail with reference to FIGS. 22 and 23.

図20及び図21は、実施の形態3における恐れを含む車外状況判定処理を示すフローチャートである。
まず、不安要因特定部345は、搭乗者の視線方向に対象物体があるか否かを判断する(S130)。ここでの処理は、図6のステップS20での処理と同様である。対象物体がある場合(ステップS130でYes)には、処理はステップS131に進み、対象物体がない場合(ステップS130でNo)には、処理は図21のステップS138に進む。
20 and 21 are flowcharts showing the out-of-vehicle condition determination process including the fear in the third embodiment.
First, the anxiety factor identification unit 345 determines whether or not there is a target object in the line-of-sight direction of the passenger (S130). The processing here is the same as the processing in step S20 of FIG. If there is a target object (Yes in step S130), the process proceeds to step S131, and if there is no target object (No in step S130), the process proceeds to step S138 in FIG.

ステップS131では、不安要因特定部345は、対象物体の相対速度S1が予め定められた速度X1よりも速いか否かを判断する。ここでの処理は、図6のステップS21での処理と同様である。対象物体の相対速度S1が予め定められた速度X1よりも速い場合(S131でYes)には、処理はステップS132に進み、対象物体の相対速度S1が予め定められた速度X1以下である場合(S131でNo)には、処理はステップS133に進む。
ステップS132では、不安要因特定部345は、他車速度を不安の要因と特定する。
In step S131, the anxiety factor identification unit 345 determines whether or not the relative velocity S1 of the target object is faster than the predetermined velocity X1. The processing here is the same as the processing in step S21 of FIG. When the relative velocity S1 of the target object is faster than the predetermined velocity X1 (Yes in S131), the process proceeds to step S132, and when the relative velocity S1 of the target object is equal to or less than the predetermined velocity X1 (Yes). In S131, No), the process proceeds to step S133.
In step S132, the anxiety factor specifying unit 345 identifies the speed of another vehicle as a factor of anxiety.

ステップS133では、不安要因特定部345は、対象物体との距離Dが予め定められた距離Zよりも短いか否かを判断する。ここでの処理は、図6のステップS25での処理と同様である。対象物体との距離Dが予め定められた距離Zよりも短い場合(S133でYes)には、処理はステップS134に進み、対象物体との距離Dが予め定められた距離Z以上である場合(S133でNo)には、処理はステップS135に進む。
ステップS134では、不安要因特定部345は、車間距離を不安の要因と特定する。
In step S133, the anxiety factor identification unit 345 determines whether or not the distance D to the target object is shorter than the predetermined distance Z. The processing here is the same as the processing in step S25 of FIG. When the distance D to the target object is shorter than the predetermined distance Z (Yes in S133), the process proceeds to step S134, and when the distance D to the target object is equal to or greater than the predetermined distance Z (Yes). In S133, No), the process proceeds to step S135.
In step S134, the anxiety factor specifying unit 345 identifies the inter-vehicle distance as a factor of anxiety.

ステップS135では、不安要因特定部345は、対象物体の出現時間Tが予め定められた時間Yよりも短いか否かを判断する。ここでの処理は、図6のステップS23での処理と同様である。対象物体の出現時間Tが予め定められた時間Yよりも短い場合(S135でYes)には、処理はステップS136に進み、対象物体の出現時間Tが予め定められた時間Y以上である場合(S135でNo)には、処理はステップS137に進む。
ステップS136では、不安要因特定部345は、飛び出しを不安の要因と特定する。
一方、ステップS137では、不安要因特定部345は、不安の要因が不明であるため、不安の要因がないと判断する。
In step S135, the anxiety factor identification unit 345 determines whether or not the appearance time T of the target object is shorter than the predetermined time Y. The processing here is the same as the processing in step S23 of FIG. When the appearance time T of the target object is shorter than the predetermined time Y (Yes in S135), the process proceeds to step S136, and when the appearance time T of the target object is equal to or longer than the predetermined time Y (Yes). In S135, No), the process proceeds to step S137.
In step S136, the anxiety factor identification unit 345 identifies the pop-out as a factor of anxiety.
On the other hand, in step S137, the anxiety factor identification unit 345 determines that there is no anxiety factor because the anxiety factor is unknown.

また、ステップS130において、対象物体がない場合(ステップS130でNo)には、処理は、図21のステップS138に進む。
ステップS138では、不安要因特定部345は、自車両の速度S2が予め定められた速度X2よりも速いか否かを判断する。ここでの処理は、図7のステップS28での処理と同様である。自車両の速度S2が予め定められた速度X2よりも速い場合(ステップS138でYes)には、処理はステップS139に進み、自車両の速度S2が予め定められた速度X2以下である場合(ステップS138でNo)には、処理はステップS140に進む。
ステップS139では、不安要因特定部345は、自車速度を不安の要因と特定する。
If there is no target object in step S130 (No in step S130), the process proceeds to step S138 in FIG.
In step S138, the anxiety factor identification unit 345 determines whether or not the speed S2 of the own vehicle is faster than the predetermined speed X2. The processing here is the same as the processing in step S28 of FIG. When the speed S2 of the own vehicle is faster than the predetermined speed X2 (Yes in step S138), the process proceeds to step S139, and when the speed S2 of the own vehicle is equal to or less than the predetermined speed X2 (step). In S138, No), the process proceeds to step S140.
In step S139, the anxiety factor specifying unit 345 identifies the own vehicle speed as a factor of anxiety.

ステップS140では、不安要因特定部345は、悪天候であるか否かを判断する。ここでの処理は、図7のステップS30での処理と同様である。悪天候である場合(ステップS140でYes)には、処理はステップS141に進み、悪天候ではない場合(ステップS140でNo)には、処理はステップS142に進む。
ステップS141では、不安要因特定部345は、悪天候を不安の要因と特定する。
In step S140, the anxiety factor identification unit 345 determines whether or not the weather is bad. The processing here is the same as the processing in step S30 of FIG. If the weather is bad (Yes in step S140), the process proceeds to step S141, and if the weather is not bad (No in step S140), the process proceeds to step S142.
In step S141, the anxiety factor identification unit 345 identifies bad weather as a factor of anxiety.

ステップS142では、不安要因特定部345は、直前に急操作があったか否かを判断する。ここでの処理は、図5のステップS14での処理と同様である。直前に急操作があった場合(ステップS142でYes)には、処理はステップS143に進み、直前に急操作がなかった場合(ステップS142でNo)には、処理はステップS144に進む。
ステップS143では、不安要因特定部345は、急操作を不安の要因と特定する。
一方、ステップS144では、不安要因特定部345は、不安の要因が不明であるため、不安の要因がないと判断する。
In step S142, the anxiety factor identification unit 345 determines whether or not there was a sudden operation immediately before. The processing here is the same as the processing in step S14 of FIG. If there is a sudden operation immediately before (Yes in step S142), the process proceeds to step S143, and if there is no sudden operation immediately before (No in step S142), the process proceeds to step S144.
In step S143, the anxiety factor specifying unit 345 identifies the sudden operation as a factor of anxiety.
On the other hand, in step S144, the anxiety factor identification unit 345 determines that there is no anxiety factor because the anxiety factor is unknown.

図22及び図23は、実施の形態3における恐れを含む車内状況判定処理を示すフローチャートである。
まず、不安要因特定部345は、搭乗者の視線方向にサイドミラー又はバックミラーがあるか否かを判断する(S150)。ここでの処理は、図8におけるステップS40での処理と同様である。搭乗者の視線方向にサイドミラー又はバックミラーがない場合(ステップS150でNo)には、処理はステップS151に進み、搭乗者の視線方向にサイドミラー又はバックミラーがある場合(ステップS150でYes)には、処理は図23のステップS155に進む。
22 and 23 are flowcharts showing the vehicle interior condition determination process including the fear in the third embodiment.
First, the anxiety factor identification unit 345 determines whether or not there is a side mirror or a rearview mirror in the line-of-sight direction of the passenger (S150). The processing here is the same as the processing in step S40 in FIG. If there is no side mirror or rearview mirror in the passenger's line of sight (No in step S150), the process proceeds to step S151, and if there is a side mirror or rearview mirror in the passenger's line of sight (Yes in step S150). The process proceeds to step S155 in FIG.

ステップS151では、不安要因特定部345は、搭乗者の視線方向に車内表示機器があるか否かを判断する。ここでの処理は、図8におけるステップS41での処理と同様である。搭乗者の視線方向に車内表示機器がある場合(ステップS151でYes)には、処理はステップS152に進み、搭乗者の視線方向に車内表示機器がない場合(ステップS151でNo)には、処理はステップS154に進む。 In step S151, the anxiety factor identification unit 345 determines whether or not there is an in-vehicle display device in the direction of the passenger's line of sight. The processing here is the same as the processing in step S41 in FIG. If there is an in-vehicle display device in the passenger's line-of-sight direction (Yes in step S151), the process proceeds to step S152, and if there is no in-vehicle display device in the passenger's line-of-sight direction (No in step S151), the process proceeds to step S152. Proceeds to step S154.

ステップS152では、不安要因特定部345は、車内表示機器において直前に表示された内容が特定の内容であるか否かを判断する。ここでの処理は、図8におけるステップS42での処理と同様である。直前に表示された内容が特定の内容である場合(ステップS152でYes)には、処理はステップS153に進み、直前に表示された内容が特定の内容ではない場合(ステップS152でNo)には、処理はステップS154に進む。 In step S152, the anxiety factor identification unit 345 determines whether or not the content displayed immediately before on the in-vehicle display device is the specific content. The processing here is the same as the processing in step S42 in FIG. If the content displayed immediately before is specific content (Yes in step S152), the process proceeds to step S153, and if the content displayed immediately before is not specific content (No in step S152), the process proceeds to step S153. , The process proceeds to step S154.

ステップS153では、不安要因特定部345は、直前に表示された特定の内容を不安の要因と特定する。
一方、ステップS154では、不安要因特定部345は、不安の要因が不明であるため、不安の要因がないと判断する。
In step S153, the anxiety factor identification unit 345 identifies the specific content displayed immediately before as the anxiety factor.
On the other hand, in step S154, the anxiety factor identification unit 345 determines that there is no anxiety factor because the anxiety factor is unknown.

ステップS150において、視線方向にサイドミラー又はバックミラーがある場合(ステップS150でYes)には、処理は図23のステップS155に進む。
ステップS155では、不安要因特定部345は、搭乗者の視線方向にあるサイドミラー又はバックミラーに、予め定められた物体である対象物体が写っているか否かを判断する。ここでの処理は、図9におけるステップS45での処理と同様である。搭乗者の視線方向にあるサイドミラー又はバックミラーに対象物体が写っている場合(ステップS155でYes)には、処理はステップS156に進み、搭乗者の視線方向にあるサイドミラー又はバックミラーに対象物体がない場合(ステップS155でNo)には、処理はステップS162に進む。
In step S150, if there is a side mirror or a rearview mirror in the line-of-sight direction (Yes in step S150), the process proceeds to step S155 in FIG.
In step S155, the anxiety factor identification unit 345 determines whether or not the target object, which is a predetermined object, is reflected in the side mirror or the rearview mirror in the direction of the passenger's line of sight. The processing here is the same as the processing in step S45 in FIG. If the target object is reflected in the side mirror or rearview mirror in the passenger's line of sight (Yes in step S155), the process proceeds to step S156 and the target is in the side mirror or rearview mirror in the passenger's line of sight. If there is no object (No in step S155), the process proceeds to step S162.

ステップS156では、不安要因特定部345は、対象物体の相対速度S1が予め定められた速度X1よりも速いか否かを判断する。ここでの処理は、図6におけるステップS21での処理と同様である。対象物体の相対速度S1が予め定められた速度X1よりも速い場合(S156でYes)には、処理はステップS157に進み、対象物体の相対速度S1が予め定められた速度X1以下である場合(S156でNo)には、処理はステップS158に進む。
ステップS157では、不安要因特定部345は、他車速度を不安の要因と特定する。
In step S156, the anxiety factor identification unit 345 determines whether or not the relative velocity S1 of the target object is faster than the predetermined velocity X1. The processing here is the same as the processing in step S21 in FIG. When the relative velocity S1 of the target object is faster than the predetermined velocity X1 (Yes in S156), the process proceeds to step S157, and when the relative velocity S1 of the target object is equal to or less than the predetermined velocity X1 (Yes). In S156, No), the process proceeds to step S158.
In step S157, the anxiety factor specifying unit 345 identifies the speed of another vehicle as a factor of anxiety.

ステップS158では、不安要因特定部345は、対象物体との距離Dが予め定められた距離Zよりも短いか否かを判断する。ここでの処理は、図6におけるステップS25と同様である。対象物体との距離Dが予め定められた距離Zよりも短い場合(S158でYes)には、処理はステップS159に進み、対象物体との距離Dが予め定められた距離Z以上である場合(S158でNo)には、処理はステップS160に進む。
ステップS159では、不安要因特定部345は、車間距離を不安の要因と特定する。
In step S158, the anxiety factor identification unit 345 determines whether or not the distance D to the target object is shorter than the predetermined distance Z. The processing here is the same as in step S25 in FIG. When the distance D to the target object is shorter than the predetermined distance Z (Yes in S158), the process proceeds to step S159, and when the distance D to the target object is equal to or greater than the predetermined distance Z (Yes). In S158, No), the process proceeds to step S160.
In step S159, the anxiety factor specifying unit 345 identifies the inter-vehicle distance as a factor of anxiety.

ステップS160では、不安要因特定部345は、対象物体の出現時間Tが予め定められた時間Yよりも短いか否かを判断する。ここでの処理は、図6におけるステップS23での処理と同様である。対象物体の出現時間Tが予め定められた時間Yよりも短い場合(S160でYes)には、処理はステップS161に進み、対象物体の出現時間Tが予め定められた時間Y以上である場合(S160でNo)には、処理はステップS162に進む。
ステップS161では、不安要因特定部345は、飛び出しを不安の要因と特定する。
一方、ステップS162では、不安要因特定部345は、不安の要因が不明であるため、不安の要因がないと判断する。
In step S160, the anxiety factor identification unit 345 determines whether or not the appearance time T of the target object is shorter than the predetermined time Y. The processing here is the same as the processing in step S23 in FIG. When the appearance time T of the target object is shorter than the predetermined time Y (Yes in S160), the process proceeds to step S161, and when the appearance time T of the target object is equal to or longer than the predetermined time Y (Yes). In S160, No), the process proceeds to step S162.
In step S161, the anxiety factor identification unit 345 identifies the pop-out as a factor of anxiety.
On the other hand, in step S162, the anxiety factor identification unit 345 determines that there is no anxiety factor because the anxiety factor is unknown.

図24〜図26は、その他の不安要因の特定処理を示すフローチャートである。
まず、図24から説明を行う。
不安要因特定部345は、異常音があるか否かを判断する(S170)。ここでの処理は、図5のステップS10の処理と同様である。異常音がある場合(S170でYes)には、処理はステップS171に進み、異常音がない場合(S170でNo)には、処理はステップS172に進む。
ステップS171では、不安要因特定部345は、異常音を不安の要因と特定する。
24 to 26 are flowcharts showing the identification processing of other anxiety factors.
First, the description will be given from FIG. 24.
The anxiety factor identification unit 345 determines whether or not there is an abnormal sound (S170). The processing here is the same as the processing in step S10 of FIG. If there is an abnormal sound (Yes in S170), the process proceeds to step S171, and if there is no abnormal sound (No in S170), the process proceeds to step S172.
In step S171, the anxiety factor specifying unit 345 identifies the abnormal sound as a factor of anxiety.

ステップS172では、不安要因特定部345は、搭乗者の視線方向が車外であるか否かを判断する。ここでの処理は、図5のステップS16での処理と同様である。搭乗者の視線方向が車外である場合(ステップS172でYes)には、処理はステップS173に進み、搭乗者の視線方向が車内である場合(ステップS172でNo)には、処理はステップS174に進む。 In step S172, the anxiety factor identification unit 345 determines whether or not the line-of-sight direction of the passenger is outside the vehicle. The processing here is the same as the processing in step S16 of FIG. If the passenger's line-of-sight direction is outside the vehicle (Yes in step S172), the process proceeds to step S173, and if the passenger's line-of-sight direction is inside the vehicle (No in step S172), the process proceeds to step S174. move on.

ステップS173では、不安要因特定部345は、車両の外部の状況を判定して、その他の状況における不安の要因を特定するその他車外状況判定処理を行う。この処理については、図25及び図26を用いて、詳細に説明する。 In step S173, the anxiety factor identification unit 345 determines the external situation of the vehicle, and performs other out-of-vehicle situation determination processing for identifying the cause of anxiety in other situations. This process will be described in detail with reference to FIGS. 25 and 26.

ステップS174では、不安要因特定部345は、車両の内部の状況を判定して、その他の状況における不安の要因を特定するその他車内状況判定処理を行う。この処理については、図22及び図23を用いて説明した恐れを含む車外状況判定処理と同様である。 In step S174, the anxiety factor identification unit 345 determines the internal condition of the vehicle, and performs other in-vehicle condition determination processing for identifying the cause of anxiety in other situations. This process is the same as the out-of-vehicle condition determination process including the fear described with reference to FIGS. 22 and 23.

図25及び図26は、実施の形態3におけるその他車外状況判定処理を示すフローチャートである。
まず、不安要因特定部345は、搭乗者の視線方向に対象物体があるか否かを判断する(S180)。ここでの処理は、図6のステップS20での処理と同様である。対象物体がある場合(ステップS180でYes)には、処理はステップS181に進み、対象物体がない場合(ステップS180でNo)には、処理は図26のステップS188に進む。
25 and 26 are flowcharts showing other out-of-vehicle condition determination processing according to the third embodiment.
First, the anxiety factor identification unit 345 determines whether or not there is a target object in the line-of-sight direction of the passenger (S180). The processing here is the same as the processing in step S20 of FIG. If there is a target object (Yes in step S180), the process proceeds to step S181, and if there is no target object (No in step S180), the process proceeds to step S188 in FIG.

ステップS181では、不安要因特定部345は、対象物体の相対速度S1が予め定められた速度X1よりも速いか否かを判断する。ここでの処理は、図6のステップS21での処理と同様である。対象物体の相対速度S1が予め定められた速度X1よりも速い場合(S181でYes)には、処理はステップS182に進み、対象物体の相対速度S1が予め定められた速度X1以下である場合(S181でNo)には、処理はステップS183に進む。
ステップS182では、不安要因特定部345は、他車速度を不安の要因と特定する。
In step S181, the anxiety factor identification unit 345 determines whether or not the relative velocity S1 of the target object is faster than the predetermined velocity X1. The processing here is the same as the processing in step S21 of FIG. When the relative velocity S1 of the target object is faster than the predetermined velocity X1 (Yes in S181), the process proceeds to step S182, and when the relative velocity S1 of the target object is equal to or less than the predetermined velocity X1 (Yes). In S181, No), the process proceeds to step S183.
In step S182, the anxiety factor specifying unit 345 identifies the speed of another vehicle as a factor of anxiety.

ステップS183では、不安要因特定部345は、対象物体の出現時間Tが予め定められた時間Yよりも短いか否かを判断する。ここでの処理は、図6のステップS23での処理と同様である。対象物体の出現時間Tが予め定められた時間Yよりも短い場合(S183でYes)には、処理はステップS184に進み、対象物体の出現時間Tが予め定められた時間Y以上である場合(S183でNo)には、処理はステップS185に進む。
ステップS184では、不安要因特定部345は、飛び出しを不安の要因と特定する。
In step S183, the anxiety factor identification unit 345 determines whether or not the appearance time T of the target object is shorter than the predetermined time Y. The processing here is the same as the processing in step S23 of FIG. When the appearance time T of the target object is shorter than the predetermined time Y (Yes in S183), the process proceeds to step S184, and when the appearance time T of the target object is equal to or longer than the predetermined time Y (Yes). In S183, No), the process proceeds to step S185.
In step S184, the anxiety factor identification unit 345 identifies the pop-out as a factor of anxiety.

ステップS185では、不安要因特定部345は、対象物体との距離Dが予め定められた距離Zよりも短いか否かを判断する。ここでの処理は、図6のステップS25での処理と同様である。対象物体との距離Dが予め定められた距離Zよりも短い場合(S185でYes)には、処理はステップS186に進み、対象物体との距離Dが予め定められた距離Z以上である場合(S185でNo)には、処理はステップS187に進む。
ステップS186では、不安要因特定部345は、車間距離を不安の要因と特定する。
一方、ステップS187では、不安要因特定部345は、不安の要因が不明であるため、不安の要因がないと判断する。
In step S185, the anxiety factor identification unit 345 determines whether or not the distance D to the target object is shorter than the predetermined distance Z. The processing here is the same as the processing in step S25 of FIG. When the distance D to the target object is shorter than the predetermined distance Z (Yes in S185), the process proceeds to step S186, and when the distance D to the target object is equal to or greater than the predetermined distance Z (Yes). In S185, No), the process proceeds to step S187.
In step S186, the anxiety factor specifying unit 345 identifies the inter-vehicle distance as a factor of anxiety.
On the other hand, in step S187, the anxiety factor identification unit 345 determines that there is no anxiety factor because the anxiety factor is unknown.

また、ステップS180において、対象物体がない場合(ステップS180でNo)には、処理は、図26のステップS188に進む。
ステップS188では、不安要因特定部345は、悪天候であるか否かを判断する。ここでの処理は、図7のステップS30での処理と同様である。悪天候である場合(ステップS188でYes)には、処理はステップS189に進み、悪天候ではない場合(ステップS188でNo)には、処理はステップS190に進む。
ステップS189では、不安要因特定部345は、悪天候を不安の要因と特定する。
If there is no target object in step S180 (No in step S180), the process proceeds to step S188 in FIG.
In step S188, the anxiety factor identification unit 345 determines whether or not the weather is bad. The processing here is the same as the processing in step S30 of FIG. If the weather is bad (Yes in step S188), the process proceeds to step S189, and if the weather is not bad (No in step S188), the process proceeds to step S190.
In step S189, the anxiety factor identification unit 345 identifies bad weather as a factor of anxiety.

ステップS190では、不安要因特定部345は、自車両の速度S2が予め定められた速度X2よりも速いか否かを判断する。ここでの処理は、図7のステップS28での処理と同様である。自車両の速度S2が予め定められた速度X2よりも速い場合(ステップS190でYes)には、処理はステップS191に進み、自車両の速度S2が予め定められた速度X2以下である場合(ステップS190でNo)には、処理はステップS192に進む。
ステップS191では、不安要因特定部345は、自車速度を不安の要因と特定する。
In step S190, the anxiety factor identification unit 345 determines whether or not the speed S2 of the own vehicle is faster than the predetermined speed X2. The processing here is the same as the processing in step S28 of FIG. When the speed S2 of the own vehicle is faster than the predetermined speed X2 (Yes in step S190), the process proceeds to step S191, and when the speed S2 of the own vehicle is equal to or less than the predetermined speed X2 (step). In S190, No), the process proceeds to step S192.
In step S191, the anxiety factor specifying unit 345 identifies the own vehicle speed as a factor of anxiety.

ステップS192では、不安要因特定部345は、直前に急操作があったか否かを判断する。ここでの処理は、図5のステップS14での処理と同様である。直前に急操作があった場合(ステップS192でYes)には、処理はステップS193に進み、直前に急操作がなかった場合(ステップS192でNo)には、処理はステップS194に進む。
ステップS193では、不安要因特定部345は、急操作を不安の要因と特定する。
一方、ステップS194では、不安要因特定部345は、不安の要因が不明であるため、不安の要因がないと判断する。
In step S192, the anxiety factor identification unit 345 determines whether or not there was a sudden operation immediately before. The processing here is the same as the processing in step S14 of FIG. If there is a sudden operation immediately before (Yes in step S192), the process proceeds to step S193, and if there is no sudden operation immediately before (No in step S192), the process proceeds to step S194.
In step S193, the anxiety factor identification unit 345 identifies the sudden operation as a factor of anxiety.
On the other hand, in step S194, the anxiety factor identification unit 345 determines that there is no anxiety factor because the anxiety factor is unknown.

以上のように、実施の形態3によれば、搭乗者の感情に応じて、不安の要因を高精度に特定することができる。 As described above, according to the third embodiment, the cause of anxiety can be identified with high accuracy according to the emotions of the passenger.

実施の形態4.
図27は、実施の形態4に係る不安要因特定装置400の構成を概略的に示すブロック図である。
不安要因特定装置400は、搭乗者状態センシング部110と、車両状態センシング部120と、走行状態センシング部130と、感情認識部140と、搭乗者状態管理部141と、車両状態管理部142と、走行状態管理部143と、記憶部144と、不安要因特定部145と、対策決定部446と、対策実行部147と、確認部448とを備える。
Embodiment 4.
FIG. 27 is a block diagram schematically showing the configuration of the anxiety factor identifying device 400 according to the fourth embodiment.
The anxiety factor identification device 400 includes a occupant state sensing unit 110, a vehicle state sensing unit 120, a traveling state sensing unit 130, an emotion recognition unit 140, a occupant state management unit 141, a vehicle state management unit 142, and the like. It includes a running state management unit 143, a storage unit 144, an anxiety factor identification unit 145, a countermeasure determination unit 446, a countermeasure execution unit 147, and a confirmation unit 448.

実施の形態4に係る不安要因特定装置400の搭乗者状態センシング部110、車両状態センシング部120、走行状態センシング部130、感情認識部140、搭乗者状態管理部141、車両状態管理部142、走行状態管理部143、記憶部144、不安要因特定部145及び対策実行部147は、実施の形態1に係る不安要因特定装置100の搭乗者状態センシング部110、車両状態センシング部120、走行状態センシング部130、感情認識部140、搭乗者状態管理部141、車両状態管理部142、走行状態管理部143、記憶部144、不安要因特定部145及び対策実行部147と同様である。
但し、不安要因特定部145は、特定された要因を確認部448に通知する。
Passenger state sensing unit 110, vehicle state sensing unit 120, running state sensing unit 130, emotion recognition unit 140, passenger state management unit 141, vehicle state management unit 142, running of the anxiety factor identifying device 400 according to the fourth embodiment. The state management unit 143, the storage unit 144, the anxiety factor identification unit 145, and the countermeasure execution unit 147 are the passenger state sensing unit 110, the vehicle state sensing unit 120, and the running state sensing unit of the anxiety factor identifying device 100 according to the first embodiment. It is the same as 130, emotion recognition unit 140, passenger state management unit 141, vehicle state management unit 142, running state management unit 143, storage unit 144, anxiety factor identification unit 145, and countermeasure execution unit 147.
However, the anxiety factor identification unit 145 notifies the confirmation unit 448 of the identified factor.

確認部448は、不安要因特定部145から受け取った要因が正しいか否か、搭乗者に確認する。例えば、確認部448は、表示部として機能する表示装置174にその要因を表示させて、入力部として機能する入力装置173を介して、搭乗者からその要因が正しいか否かの回答を得る。 The confirmation unit 448 confirms with the passenger whether or not the factor received from the anxiety factor identification unit 145 is correct. For example, the confirmation unit 448 causes the display device 174 functioning as the display unit to display the factor, and obtains an answer from the passenger as to whether or not the factor is correct via the input device 173 functioning as the input unit.

そして、確認部448は、搭乗者からその要因が正しいとの回答が得られた場合に、その要因を対策決定部446に通知する。
一方、確認部448は、搭乗者からその要因が正しくないとの回答が得られた場合には、その要因を対策決定部446に通知することなく、削除する。
Then, when the passenger replies that the factor is correct, the confirmation unit 448 notifies the countermeasure determination unit 446 of the factor.
On the other hand, when the passenger replies that the factor is incorrect, the confirmation unit 448 deletes the factor without notifying the countermeasure decision unit 446.

対策決定部446は、確認部448から要因を通知された場合に、記憶部144に記憶されている対策テーブルを参照することで、確認部448において確認された要因に対応する対策を決定する。 When the confirmation unit 448 notifies the factor, the countermeasure determination unit 446 determines the countermeasure corresponding to the factor confirmed by the confirmation unit 448 by referring to the countermeasure table stored in the storage unit 144.

以上のように、実施の形態4によれば、搭乗者に不安の要因を直接確認することができるため、不安の要因を確定することができ、その要因に対して、対策を実行することができる。 As described above, according to the fourth embodiment, since the cause of anxiety can be directly confirmed to the passenger, the cause of anxiety can be determined, and countermeasures can be taken against the factor. it can.

なお、以上に記載された実施の形態4では、実施の形態1に確認部448を追加しているが、実施の形態4は、このような例に限定されない。例えば、実施の形態2又は3に確認部448が追加されてもよい。 In the fourth embodiment described above, the confirmation unit 448 is added to the first embodiment, but the fourth embodiment is not limited to such an example. For example, the confirmation unit 448 may be added to the second or third embodiment.

実施の形態5.
図28は、実施の形態5に係る不安要因特定システム501の構成を概略的に示すブロック図である。
不安要因特定システム501は、不安要因特定装置500と、クラウドサーバ580とを備える。不安要因特定装置500と、クラウドサーバ580とは、インターネット等のネットワーク502に接続されている。
Embodiment 5.
FIG. 28 is a block diagram schematically showing the configuration of the anxiety factor identification system 501 according to the fifth embodiment.
The anxiety factor identification system 501 includes an anxiety factor identification device 500 and a cloud server 580. The anxiety factor identification device 500 and the cloud server 580 are connected to a network 502 such as the Internet.

図29は、実施の形態5に係る不安要因特定装置500の構成を概略的に示すブロック図である。
不安要因特定装置500は、搭乗者状態センシング部110と、車両状態センシング部120と、走行状態センシング部130と、感情認識部140と、搭乗者状態管理部141と、車両状態管理部142と、走行状態管理部143と、記憶部144と、不安要因特定部145と、対策決定部146と、対策実行部147と、ログデータ記憶部549と、アップロード部550と、更新部551とを備える。
FIG. 29 is a block diagram schematically showing the configuration of the anxiety factor identifying device 500 according to the fifth embodiment.
The anxiety factor identification device 500 includes a occupant state sensing unit 110, a vehicle state sensing unit 120, a running state sensing unit 130, an emotion recognition unit 140, a occupant state management unit 141, a vehicle state management unit 142, and the like. It includes a running state management unit 143, a storage unit 144, an anxiety factor identification unit 145, a countermeasure determination unit 146, a countermeasure execution unit 147, a log data storage unit 549, an upload unit 550, and an update unit 551.

実施の形態5に係る不安要因特定装置500の搭乗者状態センシング部110、車両状態センシング部120、走行状態センシング部130、感情認識部140、搭乗者状態管理部141、車両状態管理部142、走行状態管理部143、記憶部144、不安要因特定部145、対策決定部146及び対策実行部147は、実施の形態1に係る不安要因特定装置100の搭乗者状態センシング部110、車両状態センシング部120、走行状態センシング部130、感情認識部140、搭乗者状態管理部141、車両状態管理部142、走行状態管理部143、記憶部144、不安要因特定部145、対策決定部146及び対策実行部147と同様である。
但し、対策決定部146は、特定された要因と、その要因に対応する対策とを示す対策データをログデータ記憶部549に記憶させる。
Passenger state sensing unit 110, vehicle state sensing unit 120, running state sensing unit 130, emotion recognition unit 140, passenger state management unit 141, vehicle state management unit 142, running of the anxiety factor identifying device 500 according to the fifth embodiment. The state management unit 143, the storage unit 144, the anxiety factor identification unit 145, the countermeasure determination unit 146, and the countermeasure execution unit 147 are the passenger state sensing unit 110 and the vehicle condition sensing unit 120 of the anxiety factor identification device 100 according to the first embodiment. , Driving state sensing unit 130, emotion recognition unit 140, passenger condition management unit 141, vehicle condition management unit 142, driving condition management unit 143, storage unit 144, anxiety factor identification unit 145, countermeasure decision unit 146 and countermeasure execution unit 147. Is similar to.
However, the countermeasure determination unit 146 stores the countermeasure data indicating the specified factor and the countermeasure corresponding to the factor in the log data storage unit 549.

ログデータ記憶部549は、対策決定部146から与えられる対策データを、その対策データが取得された時間を示す時間情報とともにログデータとして記憶する。
アップロード部550は、定期的に、ログデータ記憶部549に記憶されているログデータを、後述する装置通信部を介して、クラウドサーバ580にアップロードする。ここでは、通信量を減らすため、アップロード部550は、前回アップロードしたログデータとの差分である差分データを、アップロードすればよい。
The log data storage unit 549 stores the countermeasure data given by the countermeasure determination unit 146 as log data together with the time information indicating the time when the countermeasure data was acquired.
The upload unit 550 periodically uploads the log data stored in the log data storage unit 549 to the cloud server 580 via the device communication unit described later. Here, in order to reduce the amount of communication, the upload unit 550 may upload the difference data which is the difference from the log data uploaded last time.

更新部551は、後述する装置通信部を介して、クラウドサーバ580から、対策テーブルを更新するための更新データを取得する。
そして、更新部551は、更新データに従って、記憶部144に記憶されている対策テーブルを更新する。
The update unit 551 acquires update data for updating the countermeasure table from the cloud server 580 via the device communication unit described later.
Then, the update unit 551 updates the countermeasure table stored in the storage unit 144 according to the update data.

図30は、実施の形態5におけるクラウドサーバ580の構成を概略的に示すブロック図である。
クラウドサーバ580は、データ取得部581と、記憶部582と、更新処理部583とを備える。
FIG. 30 is a block diagram schematically showing the configuration of the cloud server 580 according to the fifth embodiment.
The cloud server 580 includes a data acquisition unit 581, a storage unit 582, and an update processing unit 583.

データ取得部581は、後述するサーバ通信部を介して、不安要因特定装置500からログデータを取得する。ここでは、ログデータの差分である差分データが取得される。そして、データ取得部581は、取得されたデータを記憶部582に記憶させる。 The data acquisition unit 581 acquires log data from the anxiety factor identification device 500 via the server communication unit described later. Here, the difference data which is the difference of the log data is acquired. Then, the data acquisition unit 581 stores the acquired data in the storage unit 582.

記憶部582は、クラウドサーバ580での処理に必要なデータを記憶する。
例えば、記憶部582は、データ取得部581で取得されたログデータを記憶する。
The storage unit 582 stores data required for processing on the cloud server 580.
For example, the storage unit 582 stores the log data acquired by the data acquisition unit 581.

更新処理部583は、記憶部582に記憶されているログデータを解析し、不安要因特定装置500の対策テーブルを更新する必要があると判断した場合に、その対策テーブルを更新するための更新データを生成する。 The update processing unit 583 analyzes the log data stored in the storage unit 582, and when it is determined that it is necessary to update the countermeasure table of the anxiety factor identifying device 500, the update data for updating the countermeasure table. To generate.

例えば、更新処理部583は、ログデータにおいて、ある要因が、予め定められた期間に、予め定められた数含まれている場合には、対策テーブルを更新する必要があると判断する。この場合、更新処理部583は、その要因を更新対象として特定する。言い換えると、予め定められた期間に、予め定められた回数、同じ要因により搭乗者が不安を感じている場合に、その要因に対応する対策を更新する必要があると判断される。
そして、更新処理部583は、搭乗者が不安を感じる頻度を減らすように、更新対象として特定された要因の対策を更新するための更新データを生成する。
For example, the update processing unit 583 determines that it is necessary to update the countermeasure table when a predetermined number of factors are included in the log data in a predetermined period. In this case, the update processing unit 583 specifies the factor as the update target. In other words, if the passenger feels uneasy due to the same factor for a predetermined number of times during a predetermined period, it is determined that it is necessary to update the measures corresponding to the factor.
Then, the update processing unit 583 generates update data for updating the countermeasures for the factors specified as the update target so as to reduce the frequency at which the passenger feels uneasy.

具体的には、更新処理部583には、要因毎に、その対策を更新する方法が予め定められており、その方法に従って、更新処理部583は、更新データを生成すればよい。例えば、更新対象となった要因が「車間距離」である場合、更新処理部583は、車間距離を空けるためのパラメータの値を増加させればよい。 Specifically, the update processing unit 583 has a predetermined method for updating the countermeasure for each factor, and the update processing unit 583 may generate update data according to the method. For example, when the factor to be updated is the "inter-vehicle distance", the update processing unit 583 may increase the value of the parameter for increasing the inter-vehicle distance.

なお、更新処理部583は、例えば、更新対象となった要因を、後述する表示部であるサーバ表示部に表示させ、後述する入力部であるサーバ入力部を介して、オペレータから、変更する対策の入力を受け付けてもよい。 The update processing unit 583 displays, for example, the factor to be updated on the server display unit, which is a display unit described later, and the operator changes it via the server input unit, which is an input unit described later. You may accept the input of.

そして、更新処理部583は、生成された更新データを後述するサーバ通信部を介して、不安要因特定装置500に送る。 Then, the update processing unit 583 sends the generated update data to the anxiety factor identification device 500 via the server communication unit described later.

図31は、実施の形態5における不安要因特定装置500及びクラウドサーバ580のハードウェア構成例を示すブロック図である。
不安要因特定装置500は、搭乗者センサ170と、車外センサ171と、車両制御機器172と、入力装置173と、表示装置174と、記憶装置175と、演算装置176と、通信装置577とを備える。
FIG. 31 is a block diagram showing a hardware configuration example of the anxiety factor identification device 500 and the cloud server 580 according to the fifth embodiment.
The anxiety factor identification device 500 includes a passenger sensor 170, an external sensor 171, a vehicle control device 172, an input device 173, a display device 174, a storage device 175, an arithmetic device 176, and a communication device 577. ..

実施の形態5における不安要因特定装置500の搭乗者センサ170、車外センサ171、車両制御機器172、入力装置173、表示装置174、記憶装置175及び演算装置176は、実施の形態1における不安要因特定装置500の搭乗者センサ170、車外センサ171、車両制御機器172、入力装置173、表示装置174、記憶装置175及び演算装置176と同様である。 The passenger sensor 170, the outside sensor 171, the vehicle control device 172, the input device 173, the display device 174, the storage device 175, and the arithmetic device 176 of the anxiety factor identification device 500 according to the fifth embodiment identify the anxiety factor according to the first embodiment. This is the same as the passenger sensor 170, the external sensor 171 of the device 500, the vehicle control device 172, the input device 173, the display device 174, the storage device 175, and the arithmetic device 176.

なお、実施の形態5では、記憶装置175は、ログデータ記憶部549としての機能も実行する。
また、実施の形態5では、演算装置176は、アップロード部550及び更新部551としての機能も実行する。
In the fifth embodiment, the storage device 175 also executes the function as the log data storage unit 549.
Further, in the fifth embodiment, the arithmetic unit 176 also executes the functions as the upload unit 550 and the update unit 551.

通信装置577は、ネットワーク502との通信を行う通信インターフェースである。通信装置577は、装置通信部としての機能を実行する。 The communication device 577 is a communication interface that communicates with the network 502. The communication device 577 executes a function as a device communication unit.

クラウドサーバ580は、通信装置590と、入力装置591と、表示装置592と、記憶装置593と、演算装置594とを備える。
言い換えると、クラウドサーバ580は、コンピュータにより実現することができる。
The cloud server 580 includes a communication device 590, an input device 591, a display device 592, a storage device 593, and an arithmetic unit 594.
In other words, the cloud server 580 can be realized by a computer.

通信装置590は、ネットワーク502との通信を行う通信インターフェースである。通信装置590は、サーバ通信部としての機能を実行する。
入力装置591は、オペレータからの入力を受け付ける。入力装置591は、サーバ入力部としての機能を実行する。
表示装置592は、各種画面画像を表示する。表示装置592は、サーバ表示部としての機能を実行する。
記憶装置593は、クラウドサーバ580で必要とされるプログラム及びデータを記憶する。記憶装置593は、記憶部582としての機能を実行する。
演算装置594は、クラウドサーバ580を制御する。演算装置594は、更新処理部583としての機能を実行する。
The communication device 590 is a communication interface for communicating with the network 502. The communication device 590 executes a function as a server communication unit.
The input device 591 receives an input from the operator. The input device 591 executes a function as a server input unit.
The display device 592 displays various screen images. The display device 592 executes a function as a server display unit.
The storage device 593 stores programs and data required by the cloud server 580. The storage device 593 executes a function as a storage unit 582.
The arithmetic unit 594 controls the cloud server 580. The arithmetic unit 594 executes the function as the update processing unit 583.

以上のように、実施の形態5によれば、運転車が不安を感じている頻度に応じて、その対策を更新し、その不安が生ずる回数を減らすことができる。 As described above, according to the fifth embodiment, the countermeasures can be updated according to the frequency at which the driving vehicle feels anxiety, and the number of times the anxiety occurs can be reduced.

なお、以上に記載された実施の形態5では、実施の形態1の不安要因特定装置100にログデータ記憶部549、アップロード部550及び更新部551を追加しているが、実施の形態5は、このような例に限定されない。例えば、実施の形態2又は3に係る不安要因特定装置200、300に、ログデータ記憶部549、アップロード部550及び更新部551が追加されてもよい。 In the fifth embodiment described above, the log data storage unit 549, the upload unit 550, and the update unit 551 are added to the anxiety factor identification device 100 of the first embodiment. It is not limited to such an example. For example, the log data storage unit 549, the upload unit 550, and the update unit 551 may be added to the anxiety factor identification devices 200 and 300 according to the second or third embodiment.

実施の形態3に係る不安要因特定装置300に、ログデータ記憶部549、アップロード部550及び更新部551が追加された場合、搭乗者が感じる不安の要因及び搭乗者が感じる主感情分類に対する対策を示す対策データをログデータ記憶部549に記憶させればよい。クラウドサーバ580は、搭乗者が感じる不安の要因及び搭乗者が感じる主感情分類の組み合わせに対する対策を更新する更新データを生成すればよい。 When the log data storage unit 549, the upload unit 550, and the update unit 551 are added to the anxiety factor identification device 300 according to the third embodiment, countermeasures for the anxiety factors felt by the passenger and the main emotion classification felt by the passenger are taken. The indicated countermeasure data may be stored in the log data storage unit 549. The cloud server 580 may generate updated data that updates the countermeasures against the combination of the anxiety factor felt by the passenger and the main emotion classification felt by the passenger.

実施の形態6.
図28に示されているように、実施の形態6に係る不安要因特定システム601は、不安要因特定装置600と、クラウドサーバ680とを備える。
Embodiment 6.
As shown in FIG. 28, the anxiety factor identification system 601 according to the sixth embodiment includes an anxiety factor identification device 600 and a cloud server 680.

図32は、実施の形態6に係る不安要因特定装置600の構成を概略的に示すブロック図である。
不安要因特定装置600は、搭乗者状態センシング部110と、車両状態センシング部120と、走行状態センシング部130と、感情認識部140と、搭乗者状態管理部141と、車両状態管理部142と、走行状態管理部143と、記憶部244と、不安要因特定部245と、対策決定部646と、対策実行部147と、確認部648と、ログデータ記憶部649と、アップロード部650と、更新部651とを備える。
FIG. 32 is a block diagram schematically showing the configuration of the anxiety factor identifying device 600 according to the sixth embodiment.
The anxiety factor identifying device 600 includes a occupant state sensing unit 110, a vehicle state sensing unit 120, a traveling state sensing unit 130, an emotion recognition unit 140, a occupant state management unit 141, a vehicle state management unit 142, and the like. Driving state management unit 143, storage unit 244, anxiety factor identification unit 245, countermeasure decision unit 646, countermeasure execution unit 147, confirmation unit 648, log data storage unit 649, upload unit 650, and update unit. It includes 651.

実施の形態6に係る不安要因特定装置600の搭乗者状態センシング部110、車両状態センシング部120、走行状態センシング部130、感情認識部140、搭乗者状態管理部141、車両状態管理部142、走行状態管理部143及び対策実行部147は、実施の形態1に係る不安要因特定装置100の搭乗者状態センシング部110、車両状態センシング部120、走行状態センシング部130、感情認識部140、搭乗者状態管理部141、車両状態管理部142、走行状態管理部143及び対策実行部147と同様である。 Passenger state sensing unit 110, vehicle state sensing unit 120, running state sensing unit 130, emotion recognition unit 140, occupant state management unit 141, vehicle state management unit 142, traveling of the anxiety factor identifying device 600 according to the sixth embodiment. The state management unit 143 and the countermeasure execution unit 147 are the passenger state sensing unit 110, the vehicle state sensing unit 120, the traveling state sensing unit 130, the emotion recognition unit 140, and the occupant state of the anxiety factor identifying device 100 according to the first embodiment. This is the same as the management unit 141, the vehicle state management unit 142, the traveling state management unit 143, and the countermeasure execution unit 147.

実施の形態6に係る不安要因特定装置600の記憶部244及び不安要因特定部245は、実施の形態2に係る不安要因特定装置200の記憶部244及び不安要因特定部245と同様である。 The storage unit 244 and the anxiety factor identification unit 245 of the anxiety factor identification device 600 according to the sixth embodiment are the same as the storage unit 244 and the anxiety factor identification unit 245 of the anxiety factor identification device 200 according to the second embodiment.

確認部648は、不安の要因を搭乗者に確認する。例えば、確認部648は、表示部として機能する表示装置174に不安の要因のリストを表示させて、入力部として機能する入力装置173を介して、そのリストから不安の要因の選択を受ける。
そして、確認部648は、搭乗者からの回答と、不安要因特定部245で特定された要因とを対策決定部646に通知する。
The confirmation unit 648 confirms the cause of anxiety with the passenger. For example, the confirmation unit 648 displays a list of anxiety factors on the display device 174 that functions as a display unit, and receives selection of anxiety factors from the list via the input device 173 that functions as an input unit.
Then, the confirmation unit 648 notifies the countermeasure determination unit 646 of the response from the passenger and the factors identified by the anxiety factor identification unit 245.

対策決定部646は、搭乗者からの回答と、不安要因特定部245で特定された要因とが一致する場合に、記憶部244に記憶されている対策テーブルを参照することで、確認部648において確認された要因に対応する対策を決定する。 When the response from the passenger and the factor specified by the anxiety factor identification unit 245 match, the countermeasure determination unit 646 refers to the countermeasure table stored in the storage unit 244, so that the confirmation unit 648 Determine measures that correspond to the identified factors.

そして、対策決定部646は、搭乗者からの回答と、不安要因特定部245で特定された要因とが一致する場合には、その要因と、対策とを示す対策データをログデータ記憶部649に記憶させる。
また、対策決定部646は、搭乗者からの回答と、記憶部244に記憶されている搭乗者状態データ、車両状態データ及び走行状態データの履歴の内、不安要因特定部245での特定で使用された期間のデータとを、学習用データとして、ログデータ記憶部649に記憶させる。
Then, when the response from the passenger and the factor specified by the anxiety factor identification unit 245 match, the countermeasure determination unit 646 stores the factor and the countermeasure data indicating the countermeasure in the log data storage unit 649. Remember.
In addition, the countermeasure determination unit 646 is used to identify the anxiety factor identification unit 245 in the response from the passenger and the history of the passenger state data, the vehicle state data, and the running state data stored in the storage unit 244. The data of the specified period is stored in the log data storage unit 649 as learning data.

ログデータ記憶部649は、対策決定部646から与えられる対策データを、その対策データが取得された時間を示す時間情報とともにログデータとして記憶する。
また、ログデータ記憶部649は、対策決定部646から与えられる学習用データを記憶する。
The log data storage unit 649 stores the countermeasure data given by the countermeasure determination unit 646 as log data together with the time information indicating the time when the countermeasure data was acquired.
Further, the log data storage unit 649 stores the learning data given by the countermeasure determination unit 646.

アップロード部650は、定期的に、ログデータ記憶部549に記憶されているログデータ及び学習用データを、後述する装置通信部を介して、クラウドサーバ580にアップロードする。ここでは、通信量を減らすため、アップロード部650は、前回アップロードしたログデータとの差分である差分データを、アップロードすればよい。 The upload unit 650 periodically uploads the log data and learning data stored in the log data storage unit 549 to the cloud server 580 via the device communication unit described later. Here, in order to reduce the amount of communication, the upload unit 650 may upload the difference data which is the difference from the log data uploaded last time.

更新部651は、後述する装置通信部を介して、クラウドサーバ680から、対策テーブルを更新するための更新データ、及び、機械学習処理を更新するための更新学習結果データを取得する。
そして、更新部651は、更新データに従って、記憶部144に記憶されている対策テーブルを更新し、更新学習結果データを用いて、記憶部144に記憶されている学習結果データを更新する。
The update unit 651 acquires update data for updating the countermeasure table and update learning result data for updating the machine learning process from the cloud server 680 via the device communication unit described later.
Then, the update unit 651 updates the countermeasure table stored in the storage unit 144 according to the update data, and updates the learning result data stored in the storage unit 144 by using the update learning result data.

図30に示されているように、実施の形態6におけるクラウドサーバ680は、データ取得部681と、記憶部682と、更新処理部683とを備える。 As shown in FIG. 30, the cloud server 680 according to the sixth embodiment includes a data acquisition unit 681, a storage unit 682, and an update processing unit 683.

データ取得部681は、サーバ通信部を介して、不安要因特定装置600からログデータ及び学習用データを取得する。ここでは、ログデータの差分である差分データが取得される。そして、データ取得部681は、取得されたデータを記憶部682に記憶させる。 The data acquisition unit 681 acquires log data and learning data from the anxiety factor identification device 600 via the server communication unit. Here, the difference data which is the difference of the log data is acquired. Then, the data acquisition unit 681 stores the acquired data in the storage unit 682.

記憶部682は、クラウドサーバ680での処理に必要なデータを記憶する。
例えば、記憶部682は、データ取得部681で取得されたログデータ及び学習用データを記憶する。
The storage unit 682 stores data required for processing on the cloud server 680.
For example, the storage unit 682 stores the log data and the learning data acquired by the data acquisition unit 681.

更新処理部683は、記憶部682に記憶されているログデータを解析し、不安要因特定装置600の対策テーブルを更新する必要があると判断した場合に、その対策テーブルを更新するための更新データを生成する。ここでの処理は、実施の形態5における更新処理部583と同様である。 The update processing unit 683 analyzes the log data stored in the storage unit 682, and when it is determined that it is necessary to update the countermeasure table of the anxiety factor identification device 600, the update data for updating the countermeasure table. To generate. The processing here is the same as that of the update processing unit 583 in the fifth embodiment.

また、更新処理部683は、記憶部682に記憶されている学習用データを解析し、搭乗者から回答された不安の要因に対応する時系列データを生成し、その時系列データに回答された要因をラベル付けすることで、学習データを生成する。そして、更新処理部683は、生成された学習データを利用して機械学習を行う。学習の結果、更新学習結果データが生成される。 Further, the update processing unit 683 analyzes the learning data stored in the storage unit 682, generates time-series data corresponding to the cause of anxiety answered by the passenger, and the factor answered in the time-series data. Generate training data by labeling. Then, the update processing unit 683 performs machine learning using the generated learning data. As a result of learning, update learning result data is generated.

そして、更新処理部683は、生成された更新データ及び更新学習結果データをサーバ通信部を介して、不安要因特定装置600に送る。 Then, the update processing unit 683 sends the generated update data and the update learning result data to the anxiety factor identification device 600 via the server communication unit.

以上のように、実施の形態6によれば、運転車が不安を感じている頻度に応じて、対応処理及びパラメータの少なくとも何れか一方を更新し、その不安が生ずる回数を減らすことができるとともに、機械学習の運用フェーズにおいても学習結果データを更新することができるため、不安の要因の特定精度を高めることができる。 As described above, according to the sixth embodiment, at least one of the response process and the parameter can be updated according to the frequency at which the driving vehicle feels anxiety, and the number of times the anxiety occurs can be reduced. Since the learning result data can be updated even in the operation phase of machine learning, the accuracy of identifying the cause of anxiety can be improved.

以上に記載された実施の形態では、走行状態データに天候が含まれているが、実施の形態は、このような例に限定されない。例えば、ナビシステム122が、インターネット通信等により、エリア毎の天気予報を取得することができる。このため、車両状態管理部142が、ナビシステム122が取得した天気予報により、悪天候を判断し、その判断結果を車両状態データに含めてもよい。 In the embodiment described above, the running state data includes the weather, but the embodiment is not limited to such an example. For example, the navigation system 122 can acquire the weather forecast for each area by internet communication or the like. Therefore, the vehicle condition management unit 142 may determine bad weather based on the weather forecast acquired by the navigation system 122, and include the determination result in the vehicle condition data.

また、車両のワイパーの速度からも、悪天候か否かを判断することができる。このため、車両状態管理部142は、CAN121を介して、ワイパーの速度を取得することで、悪天候を判断し、その判断結果を車両状態データに含めてもよい。 In addition, it is possible to judge whether or not the weather is bad from the speed of the wiper of the vehicle. Therefore, the vehicle state management unit 142 may determine the bad weather by acquiring the speed of the wiper via the CAN 121, and include the determination result in the vehicle state data.

なお、以上に記載した実施の形態1〜6では、例えば、運転者のように1人の搭乗者について、その不安の要因を特定しているが、実施の形態1〜6は、このような例に限定されない。車両に複数の人が東上している場合には、その複数の人の各々について、実施の形態1〜6に記載されている処理を実行することで、その複数の人の各々の不安を特定することができる。 In the above-described embodiments 1 to 6, for example, the cause of anxiety is specified for one passenger such as a driver, but the embodiments 1 to 6 are such. Not limited to the example. When a plurality of people are moving eastward in the vehicle, the anxiety of each of the plurality of people is identified by executing the processes described in the first to sixth embodiments for each of the plurality of people. can do.

100,200,300,400,500,600 不安要因特定装置、 501,601 不安要因特定システム、 110 搭乗者状態センシング部、 111 DMS、 120 車両状態センシング部、 121 CAN、 122 ナビシステム、 123 マイク、 130 走行状態センシング部、 131 カメラ、 132 接近センサ、 133 ライダー、 140 感情認識部、 141 搭乗者状態管理部、 142 車両状態管理部、 143 走行状態管理部、 144,244,344 記憶部、 145,245,345 不安要因特定部、 146,346,446,646 対策決定部、 147 対策実行部、 448,648 確認部、 549,649 ログデータ記憶部、 550,650 アップロード部、 551,651 更新部、 580,680 クラウドサーバ、 581,681 データ取得部、 582,682 記憶部、 583,683 更新処理部。 100,200,300,400,500,600 Anxiety factor identification device, 501,601 Anxiety factor identification system, 110 Passenger status sensing unit, 111 DMS, 120 Vehicle status sensing unit, 121 CAN, 122 Navi system, 123 Mike, 130 Driving condition sensing unit, 131 camera, 132 approach sensor, 133 rider, 140 emotion recognition unit, 141 passenger condition management unit, 142 vehicle condition management unit, 143 driving condition management unit, 144, 244, 344 storage unit, 145, 245,345 Anxiety factor identification unit, 146,346,446,646 Countermeasure decision unit, 147 Countermeasure execution unit, 448,648 confirmation unit, 549,649 log data storage unit, 550,650 upload unit, 551,651 update unit, 580,680 cloud server, 581,681 data acquisition unit, 582,682 storage unit, 583,683 update processing unit.

Claims (11)

車両の搭乗者が不安を感じたことを検出する不安検出部と、
前記不安が検出された際に、前記搭乗者の状態を検出することにより得られた搭乗者状態データ、前記車両の状態を検出することにより得られた車両状態データ及び前記車両が走行する状態を検出することで得られた走行状態データの少なくとも一つを用いて、予め定められた複数の要因から、前記搭乗者に前記不安を与えている一つの要因を特定する不安要因特定部と、
前記一つの要因が正しいか否かを前記搭乗者に確認する確認部と、
前記搭乗者が前記一つの要因が正しいと確認した場合に、前記一つの要因に対する対策を決定する対策決定部と、
前記対策を実行する対策実行部と、を備えること
を特徴とする不安要因特定装置。
Anxiety detection unit that detects that the passenger of the vehicle feels anxiety,
When the anxiety is detected, the passenger state data obtained by detecting the state of the occupant, the vehicle state data obtained by detecting the state of the vehicle, and the state in which the vehicle is traveling are displayed. Anxiety factor identification unit that identifies one factor that gives the passenger the anxiety from a plurality of predetermined factors using at least one of the driving state data obtained by the detection.
A confirmation unit that confirms with the passenger whether or not the one factor is correct,
When the passenger confirms that the one factor is correct, the countermeasure determination unit that decides the countermeasure against the one factor, and the countermeasure determination unit.
An anxiety factor identification device including a countermeasure execution unit that executes the countermeasures.
前記対策決定部は、前記搭乗者の感情と、前記特定された一つの要因との組み合わせにより、前記対策を決定すること
を特徴とする請求項に記載の不安要因特定装置。
The countermeasure determining unit, and emotions of the passenger, said by the combination of one of the factors that have been identified, uncertainties specifying device according to claim 1, characterized in that determining the measures.
前記搭乗者状態データ、前記車両状態データ及び前記走行状態データの各々は、各々が前記複数の要因の何れかを示すことのできる複数の検出データを含んでおり、
前記複数の検出データの各々で示される要因が、前記搭乗者に前記不安を与えているか否かを判断する順番が予め定められており、
前記不安要因特定部は、前記順番に従って、前記複数の検出データの何れかから前記一つの要因を特定すること
を特徴とする請求項1又は2に記載の不安要因特定装置。
Each of the occupant state data, the vehicle state data, and the running state data includes a plurality of detection data capable of indicating any of the plurality of factors.
The order in which it is determined whether or not the factors indicated by each of the plurality of detection data give the passenger the anxiety is predetermined.
The anxiety factor identifying device according to claim 1 or 2 , wherein the anxiety factor identifying unit identifies the one factor from any of the plurality of detected data according to the order.
前記搭乗者の感情を分類した感情分類に応じて、前記順番が異なること
を特徴とする請求項に記載の不安要因特定装置。
The anxiety factor identifying device according to claim 3 , wherein the order is different according to the emotion classification according to the emotion classification of the passenger.
前記搭乗者状態データ、前記車両状態データ及び前記走行状態データの各々は、複数の検出データを含んでおり、
前記不安要因特定部は、前記複数の検出データの各々で示される値を時系列に並べた時系列データに、前記複数の要因の何れかをラベル付けした学習データを用いて学習された学習結果データを用いて、前記一つの要因を特定すること
を特徴とする請求項1又は2に記載の不安要因特定装置。
Each of the passenger state data, the vehicle state data, and the running state data includes a plurality of detection data.
The anxiety factor identification unit is a learning result learned by using learning data in which any of the plurality of factors is labeled on time-series data in which the values indicated by each of the plurality of detected data are arranged in a time series. The device for identifying anxiety factors according to claim 1 or 2 , wherein the one factor is identified by using data.
前記不安が検出された際に、前記搭乗者に前記不安の要因を確認する確認部と、
前記複数の検出データの何れかで示される値を時系列に並べた時系列データに、前記確認された要因をラベル付けしたデータを、前記学習データに追加して学習を行うことで、前記学習結果データを更新する更新部と、をさらに備えること
を特徴とする請求項に記載の不安要因特定装置。
When the anxiety is detected, a confirmation unit that confirms the cause of the anxiety with the passenger, and
The learning is performed by adding the data labeled with the confirmed factors to the time-series data in which the values indicated by any of the plurality of detection data are arranged in a time series and performing the learning. The device for identifying anxiety factors according to claim 5 , further comprising an update unit for updating result data.
ネットワークに接続されたサーバと通信を行う通信部と、
前記複数の検出データと、前記確認された要因とを、前記通信部を介して、前記サーバにアップロードするアップロード部と、をさらに備え、
前記更新部は、前記サーバにおいて生成された、前記複数の時系列データから選択された一つの時系列データに前記確認された要因をラベル付けした学習データを用いて学習された更新学習結果データを、前記通信部を介して、前記サーバから受け取り、前記更新学習結果データを用いて、前記学習結果データを更新すること
を特徴とする請求項に記載の不安要因特定装置。
A communication unit that communicates with a server connected to the network,
An upload unit for uploading the plurality of detected data and the confirmed factors to the server via the communication unit is further provided.
The update unit uses the update learning result data learned by using the learning data in which the confirmed factors are labeled on one time series data selected from the plurality of time series data generated by the server. The anxiety factor identifying device according to claim 6 , wherein the learning result data is updated by receiving the data from the server via the communication unit and using the updated learning result data.
予め定められた期間に、予め定められた回数、同じ要因が前記一つの要因として特定された場合に、前記一つの要因に対する前記対策を更新する更新部をさらに備えること
を特徴とする請求項1又は2に記載の不安要因特定装置。
The predetermined period, a predetermined number of times, according to claim 1 in which the same factor when it is identified as a factor of the one, characterized by further comprising an update unit for updating the countermeasure against factor of the one Or the device for identifying anxiety factors according to 2.
前記一つの要因と、前記一つの要因に対応する前記対策と、時間を示す時間情報とを対応付けたログデータを記憶するログデータ記憶部と、
ネットワークに接続されたサーバと通信を行う通信部と、
前記ログデータを、前記通信部を介して、前記サーバにアップロードするアップロード部と、をさらに備え、
前記更新部は、前記サーバで生成された、前記対策を更新するための更新データを、前記通信部を介して、前記サーバから受け取ることで、前記対策を更新すること
を特徴とする請求項に記載の不安要因特定装置。
A log data storage unit that stores log data in which the one factor, the countermeasure corresponding to the one factor, and the time information indicating the time are associated with each other.
A communication unit that communicates with a server connected to the network,
An upload unit for uploading the log data to the server via the communication unit is further provided.
The update unit is the generated by the server, the update data for updating the measures, via the communication unit, by receiving from the server, according to claim 8, characterized in that updating the countermeasure Anxiety factor identification device described in.
コンピュータを、
車両の搭乗者が不安を感じたことを検出する不安検出部
前記不安が検出された際に、前記搭乗者の状態を検出することにより得られた搭乗者状態データ、前記車両の状態を検出することにより得られた車両状態データ及び前記車両が走行する状態を検出することで得られた走行状態データの少なくとも一つを用いて、予め定められた複数の要因から、前記搭乗者に前記不安を与えている一つの要因を特定する不安要因特定部、
前記一つの要因が正しいか否かを前記搭乗者に確認する確認部、
前記搭乗者が前記一つの要因が正しいと確認した場合に、前記一つの要因に対する対策を決定する対策決定部、及び
前記対策を実行する対策実行部、として機能させること
を特徴とするプログラム。
Computer,
Anxiety detection unit that detects that the passenger of the vehicle feels anxiety ,
When the anxiety is detected, the passenger state data obtained by detecting the state of the occupant, the vehicle state data obtained by detecting the state of the vehicle, and the state in which the vehicle is traveling are displayed. Anxiety factor identification unit that identifies one factor that gives the passenger the anxiety from a plurality of predetermined factors using at least one of the driving state data obtained by the detection.
A confirmation unit that confirms with the passenger whether or not the one factor is correct,
When the passenger confirms that the one factor is correct, the countermeasure determination unit that decides the countermeasure against the one factor, and the countermeasure determination unit.
A program characterized by functioning as a countermeasure execution unit that executes the countermeasures.
車両の搭乗者が不安を感じたことを検出し、
前記不安が検出された際に、前記搭乗者の状態を検出することにより得られた搭乗者状態データ、前記車両の状態を検出することにより得られた車両状態データ及び前記車両が走行する状態を検出することで得られた走行状態データの少なくとも一つを用いて、予め定められた複数の要因から、前記搭乗者に前記不安を与えている一つの要因を特定し、
前記一つの要因が正しいか否かを前記搭乗者に確認し、
前記搭乗者が前記一つの要因が正しいと確認した場合に、前記一つの要因に対する対策を決定し、
前記対策を実行すること
を特徴とする不安要因特定方法。
Detects that the passenger of the vehicle feels uneasy,
When the anxiety is detected, the passenger state data obtained by detecting the state of the occupant, the vehicle state data obtained by detecting the state of the vehicle, and the state in which the vehicle is traveling are displayed. Using at least one of the driving state data obtained by the detection, one factor causing the anxiety to the passenger is identified from a plurality of predetermined factors .
Check with the passenger whether the one factor is correct or not, and check with the passenger.
When the passenger confirms that the one factor is correct, the countermeasure for the one factor is decided.
A method for identifying anxiety factors, which comprises implementing the above-mentioned measures.
JP2020533032A 2020-01-22 2020-01-22 Anxiety factor identification device, program and anxiety factor identification method Active JP6865896B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/002170 WO2021149200A1 (en) 2020-01-22 2020-01-22 Anxiety factor identification device, program, and anxiety factor identification method

Publications (2)

Publication Number Publication Date
JP6865896B1 true JP6865896B1 (en) 2021-04-28
JPWO2021149200A1 JPWO2021149200A1 (en) 2021-07-29

Family

ID=75638857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020533032A Active JP6865896B1 (en) 2020-01-22 2020-01-22 Anxiety factor identification device, program and anxiety factor identification method

Country Status (2)

Country Link
JP (1) JP6865896B1 (en)
WO (1) WO2021149200A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008301957A (en) * 2007-06-06 2008-12-18 Toyota Motor Corp Mental state inference device
JP2016052881A (en) * 2014-09-03 2016-04-14 株式会社デンソー Travel control system for vehicle
JP2017225647A (en) * 2016-06-23 2017-12-28 国立大学法人名古屋大学 Method for analyzing psychological state during drive
WO2018092436A1 (en) * 2016-11-16 2018-05-24 本田技研工業株式会社 Emotion inference device and emotion inference system
JP2018180983A (en) * 2017-04-14 2018-11-15 ソニー株式会社 Information processing device, information processing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008301957A (en) * 2007-06-06 2008-12-18 Toyota Motor Corp Mental state inference device
JP2016052881A (en) * 2014-09-03 2016-04-14 株式会社デンソー Travel control system for vehicle
JP2017225647A (en) * 2016-06-23 2017-12-28 国立大学法人名古屋大学 Method for analyzing psychological state during drive
WO2018092436A1 (en) * 2016-11-16 2018-05-24 本田技研工業株式会社 Emotion inference device and emotion inference system
JP2018180983A (en) * 2017-04-14 2018-11-15 ソニー株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JPWO2021149200A1 (en) 2021-07-29
WO2021149200A1 (en) 2021-07-29

Similar Documents

Publication Publication Date Title
CN108885836B (en) Driving assistance device, driving assistance system, driving assistance method, control device, vehicle, and medium
US10214221B2 (en) System and method for identifying a vehicle driver by a pattern of movement
US11577734B2 (en) System and method for analysis of driver behavior
US11042766B2 (en) Artificial intelligence apparatus and method for determining inattention of driver
US11935401B2 (en) Vehicle control device, vehicle control method, and vehicle control system
CN108803604A (en) Vehicular automatic driving method, apparatus and computer readable storage medium
US11688195B2 (en) Electronic device and method for assisting with driving of vehicle
US10817751B2 (en) Learning data creation method, learning method, risk prediction method, learning data creation device, learning device, risk prediction device, and recording medium
US11927682B2 (en) Sound source visualization device and method
KR20170051197A (en) Method and apparatus for monitoring state of driver through analysis of driving pattern
US10882536B2 (en) Autonomous driving control apparatus and method for notifying departure of front vehicle
US11847562B2 (en) Obstacle recognition assistance device, obstacle recognition assistance method, and storage medium
US11609565B2 (en) Methods and systems to facilitate monitoring center for ride share and safe testing method based for selfdriving cars to reduce the false call by deuddaction systems based on deep learning machine
JP5651642B2 (en) Object position detection device
JP2017151694A (en) Safety confirmation diagnostic system and safety confirmation diagnostic method
CN112689587A (en) Method for classifying non-driving task activities in consideration of interruptability of non-driving task activities of driver when taking over driving task is required and method for releasing non-driving task activities again after non-driving task activities are interrupted due to taking over driving task is required
JP2019086889A (en) Evaluation device, evaluation system, vehicle, and program
JP6865896B1 (en) Anxiety factor identification device, program and anxiety factor identification method
JP6304075B2 (en) Failure judgment device
US11325609B2 (en) Vehicle driving assist system
JP7513841B2 (en) Detecting and processing driving event sounds during a navigation session
JP2010262424A (en) Onboard camera system
JP2018072254A (en) Route search device, control method, program, and storage medium
US20240103541A1 (en) Information generation method, information generation device, and recording medium
JP2017117116A (en) Vehicle state change system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200615

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200615

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210406

R150 Certificate of patent or registration of utility model

Ref document number: 6865896

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250