WO2019131116A1 - 情報処理装置、移動装置、および方法、並びにプログラム - Google Patents

情報処理装置、移動装置、および方法、並びにプログラム Download PDF

Info

Publication number
WO2019131116A1
WO2019131116A1 PCT/JP2018/045515 JP2018045515W WO2019131116A1 WO 2019131116 A1 WO2019131116 A1 WO 2019131116A1 JP 2018045515 W JP2018045515 W JP 2018045515W WO 2019131116 A1 WO2019131116 A1 WO 2019131116A1
Authority
WO
WIPO (PCT)
Prior art keywords
warning output
degree
unit
intoxication
reference value
Prior art date
Application number
PCT/JP2018/045515
Other languages
English (en)
French (fr)
Inventor
公伸 西村
英史 大場
横山 正幸
Original Assignee
ソニー株式会社
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社, ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニー株式会社
Priority to US16/955,076 priority Critical patent/US20200385025A1/en
Publication of WO2019131116A1 publication Critical patent/WO2019131116A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0053Handover processes from vehicle to occupant
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/0245Detecting, measuring or recording pulse rate or heart rate by using sensing means generating electric signals, i.e. ECG signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/007Switching between manual and automatic parameter input, and vice versa
    • B60W2050/0072Controller asks driver to take over
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2520/105Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/10Accelerator pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/12Brake pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/26Incapacity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Definitions

  • the present disclosure relates to an information processing device, a mobile device, a method, and a program. More specifically, the present invention relates to an information processing apparatus that performs switching control between automatic driving and manual driving, a moving apparatus, a method, and a program.
  • the autonomous driving technology is a technology that enables automatic traveling on a road using various sensors such as position detecting means provided in a vehicle (automobile), and is expected to be rapidly spread in the future.
  • automatic driving is a development stage, and it is considered that it will take time until 100% of automatic driving can be performed.
  • automatic driving and manual driving by a driver are appropriately performed. It is predicted that it will switch and drive. For example, on a straight road with a sufficient road width, such as a freeway, you can drive in the automatic driving mode, but when you get out of the highway and stop the car at a desired position in a parking lot, It is predicted that mode switching such as switching to the manual driving mode and traveling by the operation of the driver is required.
  • the line of sight is continuously directed in the other direction without directing the line of sight ahead in the vehicle traveling direction during traveling of the vehicle, so-called symptoms of so-called car sickness (motion sickness) are likely to appear . This is because the body change due to the acceleration of the car and the like and the visual information change in the gaze direction do not match.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2012-59274 is a prior art disclosing a drive control configuration for performing automatic driving to reduce car sickness.
  • This patent document 1 has a physical condition detection means for detecting a vehicle sickness state of a vehicle passenger, and when the physical condition detection means detects a vehicle sickness state of a vehicle passenger, a drive in which car sickness hardly occurs is performed.
  • a configuration for performing driving control of automatic driving and a configuration for promoting sleep of a vehicle occupant are disclosed.
  • Patent Document 2 Japanese Patent Application Laid-Open No. 2006-034576 determines whether or not the passenger of the vehicle is in the car sickness state, and opens the window when it is judged that the car sickness state.
  • a device is disclosed that implements measures to eliminate car sickness, such as lowering the temperature and playing music.
  • Patent Document 2 it is necessary to attach a new control device such as opening a window, lowering a temperature, playing music, etc. to a vehicle.
  • the present disclosure has been made in view of, for example, the problems described above, and prevents a driver (driver) from manually driving in a heavy car sickness state, and switching from automatic driving to manual driving. It is an object of the present invention to provide an information processing device, a mobile device, a method, and a program that can be performed safely.
  • the first aspect of the present disclosure is A degree-of-sickness estimation unit that estimates the degree of motion sickness of the occupant of the vehicle during automatic driving by inputting detection information of an acceleration sensor provided in the vehicle;
  • a warning output necessity determination unit that compares the estimated drunkness degree estimated value of the drunkness degree estimation unit with a warning output reference value defined in advance;
  • the information processing apparatus includes a warning output execution unit that executes a warning output that urges switching from automatic driving to manual driving when the estimated degree of intoxication becomes equal to or higher than the warning output reference value.
  • a second aspect of the present disclosure is: An acceleration sensor that measures the acceleration of the moving device; A degree-of-sickness estimation unit which inputs the detection information of the acceleration sensor and estimates the degree of motion sickness of the occupant of the mobile device during automatic driving execution; A warning output necessity determination unit that compares the estimated drunkness degree estimated value of the drunkness degree estimation unit with a warning output reference value defined in advance; The mobile device has a warning output execution unit that executes a warning output that urges switching from the automatic driving to the manual driving when the estimated degree of intoxication becomes equal to or higher than the warning output reference value.
  • the third aspect of the present disclosure is: An information processing method to be executed in the information processing apparatus; A degree of intoxication estimation step of estimating a degree of motion sickness of an occupant of the vehicle during execution of the automatic driving by inputting detection information of an acceleration sensor provided in the vehicle; A warning output necessity determination step in which a warning output necessity determination unit compares the estimated degree of intoxication estimated by the drunkiness level estimation unit with a warning output reference value defined in advance; An information processing method, wherein the warning output execution unit executes a warning output execution step of executing a warning output prompting a switch from the automatic driving to the manual driving when the intoxication degree estimated value becomes equal to or more than the warning output reference value It is in.
  • a fourth aspect of the present disclosure is: An information processing method to be executed in the mobile device; Measuring an acceleration of the moving device by an acceleration sensor; A degree of intoxication estimation step of estimating the degree of motion sickness of the occupant of the mobile device during automatic driving by inputting the detection information of the acceleration sensor; A warning output necessity determination step in which a warning output necessity determination unit compares the estimated degree of intoxication estimated by the drunkiness level estimation unit with a warning output reference value defined in advance; An information processing method, wherein the warning output execution unit executes a warning output execution step of executing a warning output prompting a switch from the automatic driving to the manual driving when the intoxication degree estimated value becomes equal to or more than the warning output reference value It is in.
  • a fifth aspect of the present disclosure is: A program that causes an information processing apparatus to execute information processing, A drunkiness degree estimation step of inputting detection information of an acceleration sensor provided in the vehicle to the drunkenness degree estimation unit to estimate a motion sickness degree of an occupant of the vehicle during automatic driving; A warning output necessity determination step of causing the warning output necessity determination unit to compare the estimated degree of intoxication estimated by the drunkiness level estimation unit with a warning output reference value defined in advance; A program for causing a warning output execution unit to execute a warning output execution step that causes the warning output to urge switching from the automatic operation to the manual operation when the estimated intoxication degree becomes equal to or higher than the warning output reference value .
  • the program of the present disclosure is, for example, a program that can be provided by a storage medium or a communication medium that provides various program codes in a computer-readable format to an information processing apparatus or computer system capable of executing the program code.
  • a storage medium or a communication medium that provides various program codes in a computer-readable format to an information processing apparatus or computer system capable of executing the program code.
  • a system is a logical set composition of a plurality of devices, and the device of each composition is not limited to what exists in the same case.
  • a warning is generated that estimates the degree of motion sickness of the occupant of the vehicle during automatic driving, and urges switching to manual driving when the degree of drunkness exceeds a predetermined reference value.
  • a configuration is realized that enables output and enables return to safe manual operation. Specifically, for example, acceleration sensor detection information is input to estimate the degree of drunkenness of the occupant of the vehicle during automatic driving. Furthermore, when the estimated value and the warning output reference value are compared and the estimated value becomes equal to or more than the reference value, a warning output is performed to urge switching from the automatic driving to the manual driving.
  • a learning process based on the driver's operation information after warning output is executed, and when it is determined that the operation is a normal driving operation, a reference value update process such as raising the reference value is performed, and driver specific Enables application of reference values.
  • a reference value update process such as raising the reference value is performed, and driver specific Enables application of reference values.
  • FIG. 1 is a diagram showing a configuration example of a car 10 which is a mobile apparatus of the present disclosure.
  • the information processing apparatus of the present disclosure is mounted on a car 10 shown in FIG.
  • An automobile 10 shown in FIG. 1 is an automobile that can be driven by two operation modes, a manual operation mode and an automatic operation mode.
  • a manual operation mode traveling based on an operation of a driver (driver) 50, that is, an operation of a steering wheel (steering), an operation of an accelerator, a brake, and the like is performed.
  • the automatic driving mode an operation by the driver (driver) 50 is unnecessary, and driving based on sensor information such as a position sensor or other ambient information detection sensor is performed.
  • the position sensor is, for example, a GPS receiver or the like
  • the ambient information detection sensor is, for example, an ultrasonic sensor, radar, LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), sonar or the like.
  • FIG. 1 shows only the components required for the process of the present disclosure described below, that is, the main components used for switching between the automatic operation mode and the manual operation mode.
  • the configuration of the sensors and the like required for the automatic operation is omitted.
  • the configuration of the entire automobile 10 that performs automatic driving including these sensors (detection units) will be described later.
  • the automobile 10 has an acceleration sensor 11, a data processing unit 20, and a display unit 30.
  • the acceleration sensor 11 detects the acceleration of the vehicle.
  • the data processing unit 20 corresponds to the main part of the information processing apparatus of the present disclosure.
  • the data processing unit 20 inputs the detection information of the acceleration sensor 11, estimates the degree of motion sickness of the driver 50 at the time of automatic driving, and the degree of motion sickness of the driver 50 reaches a predetermined reference value. If it is determined, a warning (alarm) is displayed to urge the driver 50 to switch from automatic driving to manual driving.
  • "sickness" means "motion sickness” such as "car sickness”.
  • the warning is executed, for example, by displaying a warning on the display unit 30 or outputting a warning sound.
  • An example of a warning display on the display unit 30 is shown in FIG.
  • the display area of the warning display information when it is determined that the degree of drunkenness of the driver who is not driving is equal to or more than a predetermined warning output reference value while performing the automatic driving in the automatic driving mode, It is a display area for performing the following display. "The degree of intoxication has exceeded the standard. Switch to manual operation to prevent the deterioration of intoxication" The calculation of the degree of drunkenness of the driver is performed by the data processing unit 20 based on time transition information of the acceleration of the vehicle measured by the acceleration sensor 11. This process will be described later.
  • the user selection unit is an input unit that performs processing selection by touch processing by the user (driver).
  • the display unit 30 is configured as a touch panel, and can be input by touch processing of a user (driver).
  • the example shown in the figure is an example in which two selection units of “switch to manual operation” and “continue automatic operation” are displayed.
  • the user selects "switch to manual operation", and after it is detected that the user (driver) has started the manual operation, the change from the automatic operation mode to the manual operation mode is performed. On the other hand, when the user (driver) selects "continue automatic driving” and the user (driver) does not start the manual driving, the automatic driving mode is continuously executed.
  • the display unit 30 determines that the degree of drunkenness of the driver who is not performing driving is equal to or greater than a predetermined warning output reference value while performing the automatic driving in the automatic driving mode.
  • a predetermined warning output reference value When I did, “The level of intoxication exceeded the standard. Let's switch to manual operation and prevent the deterioration of intoxication” The warning display is performed to prompt the driver to start the manual driving.
  • One of the methods for solving this car sickness is to perform a manual operation.
  • the driver starts the manual driving
  • the driver turns his / her gaze forward in the vehicle traveling direction.
  • the physical change due to the acceleration of the car and the like and the visual information change in the sight line direction are aligned, and the car sickness is eliminated.
  • the driver should perform normal manual driving even when switching from automatic driving to manual driving. If you can not Switching to the manual operation mode in such a condition may cause an accident in the worst case.
  • the degree of intoxication of the driver who is not driving is estimated. Further, the estimated value is compared with a predetermined warning output reference value, and when it is determined that the estimated degree of intoxication is equal to or higher than the warning output reference value, the warning shown in FIG. 2 is output.
  • the warning display is performed to prompt the driver to start the manual driving. By this processing, it is possible to switch from automatic driving to manual driving before the driver reaches a heavy car sickness state, and safe traveling is realized.
  • the graph shown in FIG. 3 is a graph in which “time (T)” is set on the horizontal axis and “sickness degree estimated value (P)” is set on the vertical axis.
  • the period of time t0 to t1 is a period during which the driver is performing a manual operation. Thereafter, time t1 to t3 is an execution period of the automatic operation.
  • the data processing unit 20 compares the estimated degree of intoxication (P) of the driver who is not driving with the warning output reference value (Pv) defined in advance, and the estimated degree of intoxication (P) outputs a warning It is a time determined to be equal to or greater than the reference value (Pv), and at this time t2, a warning shown in FIG. 2 is output. Thereafter, at time t3, the driver starts the manual driving.
  • a line gradually rising with the passage of time indicated by a thick line in FIG. 3 is an example of the transition of the estimated degree of intoxication (P) with the passage of time of the driver.
  • the estimated degree of intoxication (P) gradually increases in the period t1 to t3 which is the execution period of the automatic driving.
  • the "sickness degree estimated value (P)" becomes equal to or more than the "warning output reference value (Pv)" defined in advance, and the data processing unit 20 outputs the warning shown in FIG. 2 at this time t2.
  • the estimated degree of intoxication (P) gradually decreases. This is because, with the start of manual driving, the driver (driver) directs his line of sight ahead in the vehicle traveling direction, so physical changes due to acceleration of the car and the like and visual information changes in the line of sight are aligned. It shows that it cancels.
  • the “sickness degree estimated value (P)” is an estimated value calculated based on the acceleration information input from the acceleration sensor 11 by the data processing unit 20.
  • the following existing indications can be used. Method specified in “ISO 2361-1 (1997)” or The method described in “This Wiederledge, Friedhelm Altpeter,” “Review of Motion Sickness Evaluation Methods and Their Application to Simulation Technology”, SIMPACK News, July 2013, pp. 12-15, 2013, It is possible to apply these existing methods.
  • ISO 2361-1 uses, as an index value of the degree of intoxication calculated based on acceleration information, MSDVz (Motion Sickness Dose Value) It prescribes.
  • MSDVz is data calculated as an index value of seasickness, and is a degree-of-sickness index value calculated based on the acceleration of the vertical direction component that often occurs on a ship.
  • the drunkenness degree index value (MSDVz) defined in ISO 2361-1 (1997) can be calculated by the following equation (Equation 1) using the exposure time T of acceleration.
  • T is the exposure time of the acceleration (seconds), that is, the time under the influence of the acceleration.
  • af is a vertical acceleration instantaneous value corrected according to the Wf filter defined in ISO 2361-1 (1997).
  • FIG. 4 shows a Wf filter corresponding curve (Wf curve). The horizontal axis is the vibration frequency (Hz), and the vertical axis is the weighting factor (dB).
  • the Wf curve shown in FIG. 4 corresponds to a weight setting curve corresponding to the magnitude of the degree of intoxication with respect to the low frequency vibration frequency.
  • the Wf curve shown in FIG. 4 is a curve generated based on the measurement results of the vomiting incidence rate at the time of occurrence of various vibrations, and the vomiting incidence rate is highest at a vibration of about 0.17 Hz (period 6 seconds) In other words, it indicates that the degree of intoxication becomes intense.
  • the Wf curve is a weight setting curve in which the weight for the vibration of about 0.17 Hz (period 6 seconds) is set the highest, and the weight according to the degree of intoxication (vomiting rate) corresponding to each frequency is set at each other frequency.
  • “af” shown in the above (formula 1) is an instantaneous value of acceleration in the vertical direction corrected according to the Wf filter defined in ISO 2361-1 (1997) shown in FIG.
  • the above (Formula 1) is an operation of convoluting the Wf curve shown in FIG. 4 as a filter with respect to the time-series signal of the vertical component of the acceleration, and the sickness degree index value (MSDVz) is calculated by this operation.
  • MSDVz calculated in the above considers only the vibration (swing) in the vertical direction, and the weight setting based on the Wf curve shown in FIG. 4 is also a curve considering only the pitching.
  • the degree of intoxication in a car it is necessary to consider not only the longitudinal direction but also vibrations in all directions.
  • the driver's drunkenness on a car becomes more intense when the automatic operation mode is executed, and the degree of intoxication becomes more intense as the automatic operation mote continues .
  • T is an elapsed time (seconds) after the start of the automatic driving, that is, a time under the influence of acceleration in the automatic driving mode.
  • af is an acceleration instantaneous value corrected according to the Wf filter defined in ISO 2361-1 (1997).
  • af in the above (formula 2) is an instantaneous value of acceleration in all directions in which the direction is not specified.
  • the characteristics in the vertical direction shown in FIG. 4 may be used as they are for the Wf curve used to calculate the instantaneous acceleration value af, but vibration in all directions and the degree of sickness may be newly added. It may be configured to generate a new Wf curve corresponding to omnidirectional vibration and use the Wf curve.
  • the intoxication degree index value (MSDV) calculated according to the above (Equation 2) is used as an estimated value of the intoxication degree of the driver riding on the vehicle 10. That is, the intoxication degree index value (MSDV) calculated according to the above (formula 2) can be used as the intoxication degree estimated value (P) shown in FIG.
  • is a multiplication coefficient.
  • the multiplication factor ⁇ is a multiplication factor for enabling calculation of a scalar value (IR) indicating the degree of intoxication according to the following IR standard.
  • is a value from 0 to 3 indicating the above drunkenness level (0: normality to 3: extremely high), calculated from the drunkenness index value (MSDV) calculated according to (Equation 2)
  • MSDV drunkenness index value
  • Is a multiplication coefficient to be set, for example, a value such as .alpha. (1/50) is used.
  • the intoxication degree index value (IR) calculated by the above (Equation 3) may be used as an estimated value of the intoxication degree of the driver riding on the vehicle 10. That is, the intoxication degree index value (MSDV) calculated according to the above (formula 3) can be used as the intoxication degree estimated value (P) shown in FIG.
  • the warning output reference value (Pv) shown in FIG. 3 defines the timing for outputting a warning for urging the driver of the vehicle traveling in the automatic operation mode to change from the automatic operation mode to the manual operation mode. It is the standard value that The warning output reference value (Pv) is preferably set to an appropriate level of intoxication degree at which a driver who has developed intoxication in the automatic driving mode can return to normal manual driving.
  • the driver can perform normal manual driving after the warning output described with reference to FIG. It is possible to start and run safely.
  • the warning output reference value (Pv) is set to a high level of drunkenness level where the driver can not return to normal manual driving, after the warning output, the driver is too heavy in drunkenness and a normal manual In some cases, it is not possible to start driving and it is impossible to perform safe traveling.
  • the warning output reference value (Pv) is set to an excessively low level of intoxication level, the warning output is frequently performed, the duration of the automatic operation mode is shortened, and the manual operation is frequently started. There is a problem that a request is made.
  • the warning output reference value (Pv) needs to be set to an optimal value.
  • the warning output reference value (Pv) can be set to any of the following. (Setting 1) Apply a common value to all drivers using a previously defined value (Setting 2) A value unique to each driver is applied. These two different settings are possible. The degree of intoxication varies among individuals, and it may not always be optimal to use a value common to all drivers. Therefore, a configuration that uses each individual warning output reference value (Pv) is preferable.
  • the warning output reference value (Pv) specific to each individual can be calculated, for example, by learning processing. For example, it is determined whether or not the manual operation is normally performed when changing the mode from the automatic operation mode to the manual operation mode after the warning output, and if it is normally performed, the warning output reference value (Pv) Gradually raise On the other hand, when the manual operation at the time of mode change from the automatic operation mode after the warning output to the manual operation mode is not normally performed, the warning output reference value (Pv) is gradually decreased. By performing such control, a warning output reference value (Pv) corresponding to each individual (driver) can be set.
  • a process of determining whether or not the manual operation is normally performed when the mode is changed from the automatic operation mode to the manual operation mode, and the update process of the warning output reference value (Pv) based on the determination result is data processing
  • the part 20 executes.
  • the data processing unit 20 acquires, for example, steering wheel operation information after the start of the manual operation, and pedal operation information such as an accelerator and a brake, and determines from these information whether normal manual operation is being performed or not. Do.
  • the optimum value of the warning output reference value (Pv) for the driver is calculated. This process is executed, for example, by a learning process, and learning process result data including the optimum value of the warning output reference value (Pv) is stored in the storage unit (learning data storage unit).
  • the data processing unit 20 refers to the data stored in the storage unit (learning data storage unit) to obtain an optimal warning output reference value (Pv) specific to the driver, and the driver When the degree of intoxication reaches the warning output reference value (Pv), the warning shown in FIG. 2 is output.
  • the calculation of the estimated degree of intoxication (P) is not limited to the above process, and may be calculated by applying, for example, (Expression 4) or (Expression 5) shown below.
  • P MSDV- ⁇ ⁇ T (Equation 4)
  • P IR- ⁇ ⁇ T (Equation 5)
  • Equation 4 and (Equation 5) are equations in consideration of recovery of the degree of intoxication.
  • the MSDV shown in the above (Equation 4) is a sickness degree index value (MSDV) calculated according to (Equation 2) described above.
  • the IR shown in the above (Equation 5) is a conversion value (IR: Illness Rating) calculated according to (Equation 3) described above.
  • is a parameter indicating the degree of recovery of the degree of intoxication, and is a positive value. ⁇ is affected by individual differences among people who are easy to get drunk and who are hard to wake up, and it can be regarded as a constant value with less change compared to the time change of MSDV and IR. T is the exposure time of acceleration.
  • Equation (4) and (equation 5) may be applied to calculate the estimated degree of intoxication (P).
  • FIG. 5 shows an example of a specific configuration of the data processing unit 20.
  • the data processing unit 20 includes a drunkenness degree estimation unit 21, a warning output necessity determination unit 22, a warning output execution unit 23, a learning processing unit 24, and a warning output reference value storage unit (learning data storage unit). 25 has an observation data acquisition unit 26.
  • the intoxication degree estimation unit 21 receives the acceleration information of the vehicle 10 from the acceleration sensor 11 and estimates the intoxication degree of the driver. That is, the estimated intoxication degree (P) described above with reference to FIG. 3 is calculated. Specifically, it is calculated by applying MSDV calculated according to (Equation 2) described above, or (Equation 2) and (Equation 3), using the elapsed time T from the start time of the automatic operation mode. IR, any value is calculated as the estimated degree of intoxication (P). Alternatively, the intoxication degree estimated value (P) is calculated by applying (Equation 4) and (Equation 5).
  • the intoxication degree estimation unit 21 sets the value corresponding to the intoxication degree estimated value (P) on the vertical axis of the graph in FIG. MSDV calculated according to (equation 2) or IR calculated by applying (Equation 2) and (Equation 3) Calculate one of these values.
  • the intoxication degree estimated value (P) is calculated by applying (Equation 4) and (Equation 5).
  • the estimated intoxication degree value (P) calculated by the intoxication degree estimation unit 21 is input to the warning output necessity determination unit 22 and the learning processing unit 24.
  • the warning output necessity determination unit 22 determines the intoxication degree estimated value (P) input from the intoxication degree estimation unit 21 and the warning output reference value (Pv) stored in the warning output reference value storage unit (learning data storage unit) 25. Compare with.
  • the estimated intoxication degree value (P) input from the intoxication degree estimation unit 21 is equal to or higher than the warning output reference value (Pv), that is, P P Pv
  • Pv warning output reference value
  • the warning output execution unit 23 executes warning output to the display unit 30 when a warning output execution request is input from the warning output necessity determination unit 22.
  • the warning display is the display described above with reference to FIG. "The degree of intoxication has exceeded the standard. Switch to manual operation to prevent the deterioration of intoxication"
  • the warning display is performed to prompt the driver to start the manual driving.
  • the warning output execution unit 23 may perform warning output by outputting a warning sound.
  • the display unit 30 is configured as a touch panel, and can be input by touch processing of a user (driver). As described above with reference to FIG. Two selection parts of "switch to manual operation” and “continue automatic operation” are displayed.
  • the observation data acquisition unit 26 acquires operation information of the user (driver).
  • the observation data acquisition unit 26 selects the “switch to manual operation” which is the selection input unit displayed on the display unit 30 by the user (driver), and the user (driver) starts the manual operation.
  • Get operation information of For example, operation information of a steering wheel (steering) and operation information of a pedal unit such as an accelerator and a brake are acquired.
  • the observation information acquired by the observation data acquisition unit 26 is input to the learning processing unit 24.
  • the learning processing unit 24 determines whether normal manual driving is being performed immediately after the user (driver) starts manual driving, based on the observation information acquired by the observation data acquiring unit 26.
  • the learning processing unit 24 acquires steering wheel operation information after start of manual driving, and pedal operation information such as an accelerator and a brake, and determines from these information whether normal manual driving is performed or not. . Based on the determination information, the optimum value of the warning output reference value (Pv) for the driver is calculated.
  • the learning processing unit 24 acquires operation information of the user at each timing when the user (driver) starts manual driving according to the warning display, and performs learning processing based on the acquired data. That is, learning processing is performed to calculate an optimal warning output reference value (Pv) specific to the user (driver). Result data of learning data, that is, an optimum warning output reference value (Pv) specific to the user (driver) is stored in the warning output reference value storage unit (learning data storage unit) 25.
  • the warning output reference value (Pv) executes the reference value update process to increase gradually.
  • the warning output reference value (Pv) is gradually decreased Execute the standard value update process to The updated warning output reference value is stored in the warning output reference value storage unit (learning data storage unit) 25.
  • the warning output reference value (Pv) initially stored in the warning output reference value storage unit (learning data storage unit) 25 uses a value defined in advance. For example, a value common to all drivers is stored. This value is sequentially updated to a value unique to each user (driver) by subsequent learning processing.
  • the degree of intoxication varies among individuals, and it may not always be optimal to use a value common to all drivers.
  • the learning processing unit 24 of the data processing unit 20 executes a learning process based on the operation information of the manual operation immediately after the warning output to calculate an optimum warning output reference value (Pv) specific to each individual.
  • Pv warning output reference value
  • the flowchart shown in FIG. 6 is executed, for example, in a data processing unit provided with a CPU or the like having a program execution function according to a program stored in a storage unit.
  • the data processing unit 20 shown in FIG. 5 reads the program stored in the storage unit and executes processing according to the flow shown in FIG.
  • the process of each step of the flowchart shown in FIG. 6 will be sequentially described below.
  • Step S101 First, in step S101, the data processing unit determines whether the vehicle is currently traveling in the automatic driving mode. If it is determined that the operation mode is the automatic operation mode, the process proceeds to step S102.
  • Step S102 If it is determined in step S101 that the mode is the automatic driving mode, in step S102, a degree of intoxication estimation process based on the detection value of the acceleration sensor is executed.
  • This process is a process executed by the intoxication degree estimation unit 21 shown in FIG.
  • the intoxication degree estimation unit 21 receives the acceleration information of the vehicle 10 from the acceleration sensor 11 and estimates the intoxication degree of the driver. That is, the estimated intoxication degree (P) described above with reference to FIG. 3 is calculated. Specifically, it is calculated by applying MSDV calculated according to (Equation 2) described above, or (Equation 2) and (Equation 3), using the elapsed time T from the start time of the automatic operation mode. IR, any value is calculated as the estimated degree of intoxication (P).
  • MSDV calculated according to (equation 2) or IR calculated by applying (Equation 2) and (Equation 3)
  • One of these values is calculated as the estimated degree of intoxication (P).
  • the intoxication degree estimated value (P) is calculated by applying (Equation 4) and (Equation 5).
  • Step S103 it is determined whether the estimated intoxication degree value (P) calculated by the intoxication degree estimation unit 21 is greater than or equal to a reference value (warning output reference value).
  • This process is a process executed by the warning output necessity determination unit 22 shown in FIG.
  • the warning output necessity determination unit 22 determines the intoxication degree estimated value (P) input from the intoxication degree estimation unit 21 and the warning output reference value (Pv) stored in the warning output reference value storage unit (learning data storage unit) 25. Compare with.
  • the estimated intoxication degree value (P) input from the intoxication degree estimation unit 21 is equal to or higher than the warning output reference value (Pv), that is, P P Pv If it is determined that the above determination formula is established, the process proceeds to step S104. If it is determined that the above determination formula is not established, the process returns to step S102, and the intoxication degree estimation process is continued.
  • Step S104 If it is determined in step S103 that the estimated intoxication level (P) is greater than or equal to the warning output reference value (Pv), warning output is performed in step S104.
  • This process is a process executed by the warning output execution unit 23 shown in FIG.
  • the warning output execution unit 23 executes warning output to the display unit 30 when a warning output execution request is input from the warning output necessity determination unit 22.
  • the warning display is the display described above with reference to FIG. "The degree of intoxication has exceeded the standard. Switch to manual operation to prevent the deterioration of intoxication"
  • the warning display is performed to prompt the driver to start the manual driving.
  • the warning output execution unit 23 is not limited to the warning display on the display unit 30, and may be configured to perform a warning output by outputting a warning sound or a warning sound.
  • Step S105 After the warning output in step S104, it is confirmed in step S105 whether or not the switching to the manual operation is completed. ,
  • step S105 the user (driver) selects "switch to manual operation", the user (driver) starts manual operation, and it is confirmed that normal manual operation is being performed. Finish.
  • the automatic driving mode is continuously executed.
  • the process from step S102 is continued.
  • the warning output is also continued or intermittently output.
  • the warning output is stopped.
  • the flow described with reference to FIG. 6 is a flow for explaining the warning output process based on the estimated value (P) of the user (driver) 's degree of intoxication at the time of execution of the automatic driving mode.
  • the data processing unit performs update processing of the warning output reference value (Pv) by learning processing in which the user's operation information after warning output is input in addition to this processing. This processing sequence will be described with reference to the flowchart shown in FIG.
  • the flowchart shown in FIG. 7 is executed by the data processing unit provided with a CPU or the like having a program execution function according to a program stored in the storage unit, for example.
  • the data processing unit 20 shown in FIG. 5 the data processing unit 20 reads the program stored in the storage unit and executes processing according to the flow shown in FIG.
  • the process of each step of the flowchart shown in FIG. 7 will be sequentially described.
  • step S151 the data processing unit determines whether or not the user has selected manual operation switching in response to the warning output. That is, it is determined whether or not the user (driver) has selected "switch to manual driving" displayed along with the warning output of the display unit 30 shown in FIG. If the selection is confirmed, the process proceeds to step S152.
  • Step S152 user operation information is acquired.
  • This process is executed by the observation data acquisition unit 26 shown in FIG.
  • the observation data acquisition unit 26 selects “switch to manual driving” by the user (driver), and acquires operation information of the user after the user (driver) starts the manual driving. For example, operation information of a steering wheel (steering) and operation information of a pedal unit such as an accelerator and a brake are acquired.
  • the observation information acquired by the observation data acquisition unit 26 is input to the learning processing unit 24.
  • Step S153 Next, in step S153, it is determined whether the user operation is a normal operation.
  • This process is a process executed by the learning processing unit 24 shown in FIG.
  • the learning processing unit 24 determines whether normal manual driving is being performed immediately after the user (driver) starts manual driving, based on the observation information acquired by the observation data acquiring unit 26.
  • the learning processing unit 24 acquires steering wheel operation information after start of manual driving, and pedal operation information such as an accelerator and a brake, and determines from these information whether normal manual driving is performed or not. .
  • step S154 If it is determined that the normal manual operation is being performed, the process proceeds to step S154. On the other hand, when it is determined that the normal manual operation is not performed, the process proceeds to step S155.
  • Step S154 If it is determined in step S153 that normal manual driving is being performed immediately after the user (driver) starts manual driving, the process proceeds to step S154.
  • step S154 a reference value update process is performed to gradually increase the warning output reference value (Pv).
  • Step S155 On the other hand, if it is determined that the normal manual driving is not performed immediately after the user (driver) starts the manual driving in step S153, the process proceeds to step S155. In step S155, a reference value update process is performed to gradually lower the warning output reference value (Pv).
  • the warning output reference value updated in steps S154 and S155 is stored in the warning output reference value storage unit (learning data storage unit) 25.
  • the warning output reference value (Pv) stored in the warning output reference value storage unit (learning data storage unit) 25 is sequentially updated to a value unique to each user (driver).
  • the user-specific optimal warning output reference value (Pv) in the warning output reference value storage unit (learning data storage unit) 25 and using it it is possible to perform optimal warning output for each user unit. It becomes.
  • FIG. 8 shows a car 10b of the second embodiment.
  • An automobile 10b shown in FIG. 8 has a configuration in which a biometric sensor 12 is added to the automobile 10 described above with reference to FIG.
  • the other configuration is the same as the configuration described with reference to FIG.
  • the automobile 10 b has an acceleration sensor 11, a living body sensor 12, a data processing unit 20, and a display unit 30.
  • the acceleration sensor 11 detects the acceleration of the vehicle.
  • the biometric sensor 12 is a sensor that acquires various biometric information of the driver (driver) 50, and is not limited to one sensor, and can be configured by a combination of a plurality of sensors.
  • the living body sensor 12 is a vibration sensor, and detects and processes body movement due to the heartbeat of the driver (driver) 50 to measure the heart rate.
  • the living body sensor 12 is not limited to such a heart rate measurement sensor, and for example, the following sensors may be used. Pulse measurement sensor of driver (driver) 50, Camera that captures the face image of the driver (driver) 50, Head movement measurement sensor that enables driver (driver) 50 mood estimation based on head movement analysis of driver (driver) 50, Any of these sensors or a combination of them may be used.
  • the data processing unit 20 receives detection information of the acceleration sensor 11 and the living body sensor 12 and estimates the degree of drunkenness of the driver 50 at the time of automatic driving. Furthermore, when it is determined that the degree of intoxication of the driver 50 has reached a predetermined reference value, a warning (alarm) prompting the driver 50 to switch from automatic driving to manual driving is output.
  • the warning is executed, for example, by displaying a warning on the display unit 30 or outputting a warning sound.
  • the warning display on the display unit 30 is performed, for example, as the display described above with reference to FIG.
  • the data processing unit 20 shown in FIG. 9 has the same configuration as the configuration described above with reference to FIG. 5, and has the following components.
  • the drunkenness degree estimation unit 21 inputs acceleration information of the car 10 from the acceleration sensor 11 and also inputs biological information of the driver 50 from the biological sensor 12, and the driver's drunkenness degree based on the acceleration information and the biological information Estimate
  • the intoxication degree estimation process based on the acceleration information is the same process as the process described above with reference to FIGS. 3 and 4. That is, any value of MSDV calculated according to (Equation 2) described above or IR calculated by applying (Equation 2) and (Equation 3) is calculated as the estimated drunkness degree value (P1). .
  • the intoxication degree estimated value (P1) is calculated by applying (Expression 4) and (Expression 5).
  • the intoxication degree estimation unit 21 executes a degree of intoxication estimation process based on the heart rate of the driver 50.
  • the intoxication degree estimation process based on a heart rate it describes, for example in patent document 3 (Unexamined-Japanese-Patent No. 5-245149). It is possible to estimate the degree of intoxication by applying this existing technology.
  • the intoxication degree estimation process is executed based on the driver's head movement and information.
  • the drunkenness degree estimation process based on the driver's head movement and information is described, for example, in Patent Document 4 (Japanese Patent No. 4882433). It is possible to estimate the degree of intoxication by applying this existing technology.
  • the drunkenness level estimation unit 21 An estimated degree of intoxication (P1) based on acceleration information, Estimated degree of intoxication (P2) based on biological information, Calculate separately.
  • the intoxication degree estimation unit 21 integrates the above two estimated values (P1, P2) to calculate the driver's final intoxication degree estimated value (P). For example, it calculates according to the following weighted addition formula.
  • P ⁇ ⁇ P1 + ⁇ ⁇ P2
  • the driver's final estimated degree of intoxication (P) is calculated.
  • the driver's final estimated degree of intoxication (P) calculated according to the above equation becomes a value corresponding to the estimated degree of intoxication (P) of the vertical axis of the graph described above with reference to FIG.
  • the estimated intoxication degree value (P) calculated by the intoxication degree estimation unit 21 is input to the warning output necessity determination unit 22 and the learning processing unit 24.
  • the warning output necessity determination unit 22 determines the intoxication degree estimated value (P) input from the intoxication degree estimation unit 21 and the warning output reference value (Pv) stored in the warning output reference value storage unit (learning data storage unit) 25. Compare with.
  • the estimated intoxication degree value (P) input from the intoxication degree estimation unit 21 is equal to or higher than the warning output reference value (Pv), that is, P P Pv
  • Pv warning output reference value
  • the warning output execution unit 23 executes warning output to the display unit 30 when a warning output execution request is input from the warning output necessity determination unit 22.
  • the warning display is the display described above with reference to FIG. "The degree of intoxication has exceeded the standard. Switch to manual operation to prevent the deterioration of intoxication"
  • the warning display is performed to prompt the driver to start the manual driving.
  • the warning output execution unit 23 is not limited to the warning display on the display unit 30, and may be configured to output a warning by outputting a warning sound or a warning sound.
  • the observation data acquisition unit 26 selects “switch to manual driving” by the user (driver), and acquires operation information of the user after the user (driver) starts the manual driving. For example, operation information of a steering wheel (steering) and operation information of a pedal unit such as an accelerator and a brake are acquired. Furthermore, in the present embodiment, biological information is also acquired from the biological sensor 12.
  • the user operation information that is observation information acquired by the observation data acquisition unit 26 and the biological information are input to the learning processing unit 24.
  • the learning processing unit 24 performs normal manual driving immediately after the user (driver) starts manual driving based on user operation information that is observation information acquired by the observation data acquisition unit 26 and biological information. It is further determined whether the degree of intoxication of the user has decreased.
  • the learning processing unit 24 acquires steering wheel operation information after start of manual driving, and pedal operation information such as an accelerator and a brake, and determines from these information whether normal manual driving is performed or not. . Furthermore, the learning processing unit 24 acquires biometric information of the user (driver) after the start of the manual driving, and determines the degree of drunkenness of the user (driver). Based on the determination information, an optimum value of the warning output reference value (Pv) for the driver is calculated.
  • Pv warning output reference value
  • the learning processing unit 24 acquires operation information and biological information of the user at each timing when the user (driver) starts manual driving according to the warning display, and performs learning processing based on the acquired data. That is, learning processing is performed to calculate an optimal warning output reference value (Pv) specific to the user (driver). Result data of learning data, that is, an optimum warning output reference value (Pv) specific to the user (driver) is stored in the warning output reference value storage unit (learning data storage unit) 25.
  • the warning output reference value (Pv) Execute the reference value update process to increase gradually. Furthermore, the biological information of the user at the time of manual operation start is acquired, and it is determined that the acquired biological information is biological information indicating a state of low intoxication degree at which normal manual driving can be performed.
  • the warning output reference value (Pv) is gradually decreased Execute the standard value update process to Furthermore, the biological information of the user at the time of manual operation start is acquired, and it is determined that the acquired biological information is biological information indicating a state of a high degree of sickness where normal manual driving can not be performed.
  • the updated warning output reference value is stored in the warning output reference value storage unit (learning data storage unit) 25. Furthermore, the relationship data between the acquired biological information and the degree of intoxication is also stored in the warning output reference value storage unit (learning data storage unit) 25.
  • the warning output reference value (Pv) initially stored in the warning output reference value storage unit (learning data storage unit) 25 uses a value defined in advance. For example, a value common to all drivers is stored. This value is sequentially updated to a value unique to each user (driver) by subsequent learning processing.
  • the relationship data between the biological information and the degree of intoxication stored in the warning output reference value storage unit (the learning data storage unit) 25 is referred to in the estimation process of the intoxication degree in the intoxication degree estimation unit 21 and more accurate intoxication degree It is used as auxiliary information for performing estimation processing.
  • the learning process based on the operation information of the manual operation immediately after the warning output calculates the optimum warning output reference value (Pv) specific to each individual and makes it applicable and makes the manual operation immediately after the warning output Based on biological information at the start, relationship data between user-specific biological information and the degree of intoxication is accumulated, and the configuration is applicable to the subsequent intoxication degree estimation processing.
  • Pv warning output reference value
  • the detection information of the biological sensor 12 is input to the warning output necessity determination unit 22, and the warning output necessity determination unit 22 directly changes the warning output reference value based on the detection information of the biological sensor 12.
  • the warning output necessity determination unit 22 directly changes the warning output reference value based on the detection information of the biological sensor 12.
  • a sensor for measuring the stress state of the driver is attached as the biometric sensor 12, the driver stress information acquired by the biometric sensor 12 is input to the warning output necessity determination unit 22, and the warning output necessity determination unit 22 If it is determined that the driver's stress state is high, the warning output reference value is reduced.
  • FIG. 10 shows an automobile 10c of the present embodiment.
  • An automobile 10c shown in FIG. 10 has a configuration in which an environment sensor 13 is further added to the automobile 1b0 described above with reference to FIG.
  • the other configuration is the same as the configuration described with reference to FIG.
  • the automobile 10c has an acceleration sensor 11, a living body sensor 12, an environment sensor 13, a data processing unit 20, and a display unit 30.
  • the acceleration sensor 11 detects the acceleration of the vehicle.
  • the biometric sensor 12 is a sensor that acquires various biometric information of the driver (driver) 50, and is not limited to one sensor, and can be configured by a combination of a plurality of sensors. For example, it is comprised by the following sensors.
  • the biometric sensor 12 is, for example, a sensor that measures the heart rate of the driver (driver) 50, Pulse measurement sensor of driver (driver) 50, Camera that captures the face image of the driver (driver) 50, A head movement measurement sensor that estimates the mood of the driver (driver) 50 based on the analysis of the head movement of the driver (driver) 50, For example, these sensors.
  • the environment sensor 13 is a sensor that acquires various environment information, and is not limited to one sensor, and can be configured by a combination of a plurality of sensors.
  • An example of the environment sensor 13 is, for example, a traveling route information acquisition sensor of the automobile 10c.
  • the travel route information acquisition sensor acquires destination setting information and latitude and longitude information from the navigation system.
  • travel route information may be acquired using a local dynamic map that is high-accuracy map information used in automatic driving.
  • a sensor that acquires traffic volume information in the vicinity, a driver's schedule information, a sensor that acquires the driver's companion information, and the like can be used as the environment sensor 13, a sensor that acquires traffic volume information in the vicinity, a driver's schedule information, a sensor that acquires the driver's companion information, and the like can be used.
  • the data processing unit 20 receives detection information of the acceleration sensor 11 and the living body sensor 12 and estimates the degree of drunkenness of the driver 50 at the time of automatic driving. Furthermore, when it is determined that the degree of drunkenness of the driver 50 has reached the warning output reference value (Pv) defined in advance, a warning (alarm) prompting the driver 50 to switch from automatic driving to manual driving is output. . Further, based on the sensor detection information of the environment sensor 13, control is performed to change the warning output reference value (Pv).
  • the warning is executed, for example, by displaying a warning on the display unit 30 or outputting a warning sound.
  • the warning display on the display unit 30 is performed, for example, as the display described above with reference to FIG.
  • the data processing unit 20 shown in FIG. 11 has the same configuration as that described above with reference to FIG. 5, and has the following components.
  • the drunkenness degree estimation unit 21 receives the acceleration information of the vehicle 10 from the acceleration sensor 11 and the biometric information of the driver 50 from the biometric sensor 12.
  • the degree of intoxication estimation unit 21 estimates the degree of intoxication of the driver based on the acceleration information and the biological information.
  • the warning output necessity determination unit 22 receives sensor detection information of the environment sensor 13 and performs control to change the warning output reference value (Pv).
  • the intoxication degree estimation process based on the acceleration information in the intoxication degree estimation unit 21 is the same process as the process described above with reference to FIGS. 3 and 4. That is, any value of MSDV calculated according to (Equation 2) described above or IR calculated by applying (Equation 2) and (Equation 3) is calculated as the estimated drunkness degree value (P1). .
  • the intoxication degree estimated value (P1) is calculated by applying (Expression 4) and (Expression 5).
  • the intoxication degree estimation process based on the biological information detected by the biological sensor 12 is the same process as the process described in the previous embodiment. For example, a degree of intoxication estimation process based on the heart rate of the driver 50 detected by the living body sensor 12 is performed.
  • the driver's final estimated degree of intoxication (P) calculated according to the above equation becomes a value corresponding to the estimated degree of intoxication (P) of the vertical axis of the graph described above with reference to FIG.
  • the estimated intoxication degree value (P) calculated by the intoxication degree estimation unit 21 is input to the warning output necessity determination unit 22 and the learning processing unit 24.
  • the warning output necessity determination unit 22 determines the intoxication degree estimated value (P) input from the intoxication degree estimation unit 21 and the warning output reference value (Pv) stored in the warning output reference value storage unit (learning data storage unit) 25. Compare with.
  • the estimated intoxication degree value (P) input from the intoxication degree estimation unit 21 is equal to or higher than the warning output reference value (Pv), that is, P P Pv
  • Pv warning output reference value
  • the warning output necessity determination unit 22 also receives the environmental information acquired by the environmental sensor 13. For example, when environmental information such as a car traveling on a narrow road or traffic congestion is obtained, a reference value (Pv1) smaller than the warning output reference value (Pv) acquired from the warning reference value storage unit 25 Is applied, and comparison processing with the estimated intoxication degree (P) input from the intoxication degree estimation unit 21 is performed. That is, P ⁇ Pv1 If it is determined that the above determination formula is established, a request for executing a warning output is output to the warning output execution unit 23.
  • the warning output reference value (Pv) acquired from the warning reference value storage 25.
  • the reference value (Pv2) is applied to perform comparison processing with the estimated intoxication degree value (P) input from the intoxication degree estimation unit 21. That is, P ⁇ Pv2 If it is determined that the above determination formula is established, a request for executing a warning output is output to the warning output execution unit 23.
  • the processing of changing and applying the warning output reference value (Pv) acquired from the warning output reference value storage unit (learning data storage unit) 25 is performed. Good.
  • the warning output execution unit 23 executes warning output to the display unit 30 when a warning output execution request is input from the warning output necessity determination unit 22.
  • the warning display is the display described above with reference to FIG. "The degree of intoxication has exceeded the standard. Switch to manual operation to prevent the deterioration of intoxication"
  • the warning display is performed to prompt the driver to start the manual driving.
  • the warning output execution unit 23 may perform warning output by outputting a warning sound.
  • the observation data acquisition unit 26 selects “switch to manual driving” by the user (driver), and acquires operation information of the user after the user (driver) starts the manual driving. For example, operation information of a steering wheel (steering), operation information of a pedal unit such as an accelerator and a brake, and the like are acquired, and biological information is acquired from the biological sensor 12. Furthermore, environmental information from the environmental sensor 13 is also acquired.
  • the user operation information that is observation information acquired by the observation data acquisition unit 26, biological information, and environment information are input to the learning processing unit 24.
  • the learning processing unit 24 performs learning processing to which environmental information is applied. For example, when traveling route information to the destination is acquired as environmental information, it is determined whether the distance to the destination is long or short, and if short, the process of setting the warning output reference value (Pv) high Do. As a result, even if the degree of intoxication of the driver during automatic driving is high, the threshold of the degree of intoxication, which serves as the notification standard, increases as the destination is approached, making it difficult to generate a notification. Further, when passenger detection information is included as the environment information, it is determined that it is difficult for a sickness to occur, and processing of setting the warning output reference value (Pv) high is performed.
  • step S105 of the flow shown in FIG. 6 the estimation process of the driver's intoxication degree is continued, and the emergency vehicle stop or It is good also as composition which performs speed reduction processing etc.
  • the learning processing unit 24 performs processing to increase the warning output reference value (Pv). It may be The fact that the driver continues the automatic driving even after the warning output can be determined because the driver is aware that the degree of intoxication is low. That is, it is determined that the warning notification standard is lower than the driver's subjective standard, and the warning output reference value (Pv) is increased. This control can reduce unnecessary warning notification to the driver.
  • the aspect of the warning notification has been described focusing on the display processing on the display unit 30, but voice notification may be performed.
  • the display unit 30 is a touch panel, and "a manual operation is switched" and “continues an automatic operation", and a user interface configuration that enables user input by touch processing for these two selection units is described. did. Not only such a touch panel system but also other systems can be used as the user interface. For example, various interface configurations are available such as voice input by a microphone, gesture recognition by a camera, and confirmation of start of a manual operation triggered by start of steering wheel or pedal operation.
  • the heart rate measured by the living body sensor 12 and heart rate fluctuation feature values such as LF / HF derived from the heart rate are input to the learning processing unit 24 and the learning processing unit 24
  • the warning output reference value (Pv) may be updated.
  • the intoxication degree estimation unit 21 is configured to estimate the intoxication degree of the driver using the detection information of the acceleration sensor 11 or the detection information of the biological sensor 12.
  • This drunkenness level estimation may be performed by the driver's self-report.
  • the driver may input (self-report) that the degree of intoxication has increased by using voice input, a button, a touch interface, or the like.
  • all the processing units are configured in the vehicle. However, some of these processing units can be configured outside the vehicle. For example, a part of processing functions may be installed in a smartphone, a wearable device, or the like available to the driver, or an external server, or the like. For example, communication may be performed between a car and an external server, and a part of the processing may be performed on the server side.
  • the pulse rate is measured by the wearable device worn by the driver, and transmitted to the smartphone by Bluetooth (registered trademark) communication.
  • the degree of intoxication is estimated from the time change of the pulse rate by the smartphone, and it is determined whether the warning output is to be performed in comparison with the warning output reference value (Pv).
  • the smartphone notifies the warning by voice and flashlight.
  • the processing of the learning processing unit having a large processing load can be reduced at the external server by reducing the processing load of the vehicle.
  • FIG. 12 is a block diagram showing an example of a schematic configuration of functions of a vehicle control system 100 provided in the automobile 10 which is a mobile apparatus that executes the above-described processing.
  • the vehicle provided with the vehicle control system 100 is distinguished from other vehicles, it is referred to as the own vehicle or the own vehicle.
  • the vehicle control system 100 includes an input unit 101, a data acquisition unit 102, a communication unit 103, an in-vehicle device 104, an output control unit 105, an output unit 106, a drive system control unit 107, a drive system 108, a body system control unit 109, and a body.
  • the system system 110, the storage unit 111, and the automatic driving control unit 112 are provided.
  • the input unit 101, the data acquisition unit 102, the communication unit 103, the output control unit 105, the drive system control unit 107, the body system control unit 109, the storage unit 111, and the automatic operation control unit 112 are connected via the communication network 121. Connected to each other.
  • the communication network 121 may be, for example, an on-vehicle communication network or bus conforming to any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark). Become. In addition, each part of the vehicle control system 100 may be directly connected without passing through the communication network 121.
  • CAN Controller Area Network
  • LIN Local Interconnect Network
  • LAN Local Area Network
  • FlexRay registered trademark
  • each unit of the vehicle control system 100 performs communication via the communication network 121
  • the description of the communication network 121 is omitted.
  • the input unit 101 and the automatic driving control unit 112 communicate via the communication network 121, it is described that the input unit 101 and the automatic driving control unit 112 merely communicate.
  • the input unit 101 includes an apparatus used by a passenger for inputting various data and instructions.
  • the input unit 101 includes operation devices such as a touch panel, a button, a microphone, a switch, and a lever, and an operation device and the like that can be input by a method other than manual operation by voice or gesture.
  • the input unit 101 may be a remote control device using infrared rays or other radio waves, or an external connection device such as a mobile device or wearable device corresponding to the operation of the vehicle control system 100.
  • the input unit 101 generates an input signal based on data, an instruction, and the like input by the passenger, and supplies the input signal to each unit of the vehicle control system 100.
  • the data acquisition unit 102 includes various sensors for acquiring data used for processing of the vehicle control system 100 and supplies the acquired data to each unit of the vehicle control system 100.
  • the data acquisition unit 102 includes various sensors for detecting the state of the vehicle.
  • the data acquisition unit 102 includes a gyro sensor, an acceleration sensor, an inertia measurement device (IMU), an operation amount of an accelerator pedal, an operation amount of a brake pedal, a steering angle of a steering wheel, and an engine speed.
  • IMU inertia measurement device
  • a sensor or the like for detecting a motor rotation speed or a rotation speed of a wheel is provided.
  • the data acquisition unit 102 includes various sensors for detecting information outside the vehicle.
  • the data acquisition unit 102 includes an imaging device such as a ToF (Time Of Flight) camera, a visible light camera, a stereo camera, a monocular camera, a (far) infrared camera, and other cameras.
  • the data acquisition unit 102 includes an environment sensor for detecting weather, weather or the like, and an ambient information detection sensor for detecting an object around the vehicle.
  • the environment sensor includes, for example, a raindrop sensor, a fog sensor, a sunshine sensor, a snow sensor, and the like.
  • the ambient information detection sensor is made of, for example, an ultrasonic sensor, a radar, LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), sonar or the like.
  • the data acquisition unit 102 includes various sensors for detecting the current position of the vehicle.
  • the data acquisition unit 102 includes a GNSS receiver or the like which receives a GNSS signal from a Global Navigation Satellite System (GNSS) satellite.
  • GNSS Global Navigation Satellite System
  • the data acquisition unit 102 includes various sensors for detecting information in the vehicle.
  • the data acquisition unit 102 includes an imaging device for imaging a driver, a biological sensor for detecting biological information of the driver, a microphone for collecting sound in a vehicle interior, and the like.
  • the biological sensor is provided, for example, on a seat or a steering wheel, and detects biological information of an occupant sitting on a seat or a driver holding the steering wheel.
  • the communication unit 103 communicates with the in-vehicle device 104 and various devices outside the vehicle, a server, a base station, etc., and transmits data supplied from each portion of the vehicle control system 100, and receives the received data. Supply to each part of 100.
  • the communication protocol supported by the communication unit 103 is not particularly limited, and the communication unit 103 can also support a plurality of types of communication protocols.
  • the communication unit 103 performs wireless communication with the in-vehicle device 104 by wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), WUSB (Wireless USB), or the like. Also, for example, the communication unit 103 may use a Universal Serial Bus (USB), a High-Definition Multimedia Interface (HDMI (registered trademark)), or an MHL (Universal Serial Bus) via a connection terminal (and a cable, if necessary) not shown. Wired communication is performed with the in-vehicle device 104 by Mobile High-definition Link) or the like.
  • USB Universal Serial Bus
  • HDMI High-Definition Multimedia Interface
  • MHL Universal Serial Bus
  • the communication unit 103 may communicate with an apparatus (for example, an application server or control server) existing on an external network (for example, the Internet, a cloud network, or a network unique to an operator) via a base station or an access point. Communicate. Also, for example, using the P2P (Peer To Peer) technology, the communication unit 103 may use a terminal (eg, a pedestrian or a shop terminal, or an MTC (Machine Type Communication) terminal) with a terminal existing near the host vehicle. Communicate. Furthermore, for example, the communication unit 103 may perform vehicle-to-vehicle communication, vehicle-to-infrastructure communication, vehicle-to-home communication, and vehicle-to-pedestrian communication.
  • an apparatus for example, an application server or control server
  • an external network for example, the Internet, a cloud network, or a network unique to an operator
  • the communication unit 103 may use a terminal (eg, a pedestrian or a shop terminal, or an MTC (Machine Type Communication) terminal)
  • V2X communication such as communication is performed.
  • the communication unit 103 includes a beacon receiving unit, receives radio waves or electromagnetic waves transmitted from radio stations installed on roads, and acquires information such as current position, traffic jam, traffic restriction, or required time. Do.
  • the in-vehicle device 104 includes, for example, a mobile device or wearable device owned by the passenger, an information device carried in or attached to the vehicle, and a navigation device for searching for a route to an arbitrary destination.
  • the output control unit 105 controls the output of various information to the passenger of the vehicle or the outside of the vehicle.
  • the output control unit 105 generates an output signal including at least one of visual information (for example, image data) and auditory information (for example, audio data), and supplies the generated output signal to the output unit 106.
  • the output control unit 105 combines image data captured by different imaging devices of the data acquisition unit 102 to generate an overhead image or a panoramic image, and an output signal including the generated image is generated.
  • the output unit 106 is supplied.
  • the output control unit 105 generates voice data including a warning sound or a warning message for danger such as collision, contact, entering a danger zone, and the like, and outputs an output signal including the generated voice data to the output unit 106.
  • Supply for example, the output control unit 105 generates voice data including a warning sound or a warning message for danger such as collision, contact, entering a danger zone, and the like, and outputs an output signal
  • the output unit 106 includes a device capable of outputting visual information or auditory information to the passenger of the vehicle or the outside of the vehicle.
  • the output unit 106 includes a display device, an instrument panel, an audio speaker, headphones, wearable devices such as a glasses-type display worn by a passenger, a projector, a lamp, and the like.
  • the display device included in the output unit 106 has visual information in the driver's field of vision, such as a head-up display, a transmissive display, and a device having an AR (Augmented Reality) display function, in addition to a device having a normal display. It may be an apparatus for displaying.
  • the drive system control unit 107 controls the drive system 108 by generating various control signals and supplying them to the drive system 108. In addition, the drive system control unit 107 supplies a control signal to each unit other than the drive system 108 as necessary, and notifies a control state of the drive system 108, and the like.
  • the drive system 108 includes various devices related to the drive system of the vehicle.
  • the drive system 108 includes a driving force generating device for generating a driving force of an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering mechanism for adjusting a steering angle.
  • a braking system that generates a braking force an antilock brake system (ABS), an electronic stability control (ESC), an electric power steering apparatus, and the like are provided.
  • the body control unit 109 controls the body system 110 by generating various control signals and supplying the control signals to the body system 110.
  • the body system control unit 109 supplies a control signal to each unit other than the body system 110, as required, to notify the control state of the body system 110, and the like.
  • the body system 110 includes various devices of the body system mounted on the vehicle body.
  • the body system 110 includes a keyless entry system, a smart key system, a power window device, a power seat, a steering wheel, an air conditioner, and various lamps (for example, headlamps, back lamps, brake lamps, blinkers, fog lamps, etc.) Etc.
  • the storage unit 111 includes, for example, a read only memory (ROM), a random access memory (RAM), a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, and a magneto-optical storage device. .
  • the storage unit 111 stores various programs, data, and the like used by each unit of the vehicle control system 100.
  • the storage unit 111 is map data such as a three-dimensional high-precision map such as a dynamic map, a global map that covers a wide area with lower accuracy than a high-precision map, and information around the vehicle.
  • map data such as a three-dimensional high-precision map such as a dynamic map, a global map that covers a wide area with lower accuracy than a high-precision map, and information around the vehicle.
  • the autonomous driving control unit 112 performs control regarding autonomous driving such as autonomous traveling or driving assistance. Specifically, for example, the automatic driving control unit 112 can avoid collision or reduce impact of the vehicle, follow-up traveling based on the distance between vehicles, vehicle speed maintenance traveling, collision warning of the vehicle, lane departure warning of the vehicle, etc. Coordinated control is carried out to realize the functions of the Advanced Driver Assistance System (ADAS), including: Further, for example, the automatic driving control unit 112 performs cooperative control for the purpose of automatic driving or the like that travels autonomously without depending on the driver's operation.
  • the automatic driving control unit 112 includes a detection unit 131, a self position estimation unit 132, a situation analysis unit 133, a planning unit 134, and an operation control unit 135.
  • the detection unit 131 detects various types of information necessary for control of automatic driving.
  • the detection unit 131 includes an out-of-vehicle information detection unit 141, an in-vehicle information detection unit 142, and a vehicle state detection unit 143.
  • the external information detection unit 141 performs detection processing of external information of the vehicle based on data or signals from each unit of the vehicle control system 100. For example, the external information detection unit 141 performs detection processing of an object around the host vehicle, recognition processing, tracking processing, and detection processing of the distance to the object.
  • the objects to be detected include, for example, vehicles, people, obstacles, structures, roads, traffic lights, traffic signs, road markings and the like.
  • the outside-of-vehicle information detection unit 141 performs a process of detecting the environment around the vehicle.
  • the surrounding environment to be detected includes, for example, weather, temperature, humidity, brightness, road surface condition and the like.
  • the information outside the vehicle detection unit 141 indicates data indicating the result of the detection process as the self position estimation unit 132, the map analysis unit 151 of the situation analysis unit 133, the traffic rule recognition unit 152, the situation recognition unit 153, and the operation control unit 135. Supply to the emergency situation avoidance unit 171 and the like.
  • the in-vehicle information detection unit 142 performs in-vehicle information detection processing based on data or signals from each unit of the vehicle control system 100.
  • the in-vehicle information detection unit 142 performs a driver authentication process and recognition process, a driver state detection process, a passenger detection process, an in-vehicle environment detection process, and the like.
  • the state of the driver to be detected includes, for example, physical condition, awakening degree, concentration degree, fatigue degree, gaze direction and the like.
  • the in-vehicle environment to be detected includes, for example, temperature, humidity, brightness, smell and the like.
  • the in-vehicle information detection unit 142 supplies data indicating the result of the detection process to the situation recognition unit 153 of the situation analysis unit 133, the emergency situation avoidance unit 171 of the operation control unit 135, and the like.
  • the vehicle state detection unit 143 detects the state of the vehicle based on data or signals from each unit of the vehicle control system 100.
  • the state of the vehicle to be detected includes, for example, speed, acceleration, steering angle, presence / absence of abnormality and contents, state of driving operation, position and inclination of power seat, state of door lock, and other in-vehicle devices. Status etc. are included.
  • the vehicle state detection unit 143 supplies data indicating the result of the detection process to the situation recognition unit 153 of the situation analysis unit 133, the emergency situation avoidance unit 171 of the operation control unit 135, and the like.
  • the self position estimation unit 132 estimates the position and orientation of the vehicle based on data or signals from each part of the vehicle control system 100 such as the external information detection unit 141 and the situation recognition unit 153 of the situation analysis unit 133. Do the processing. In addition, the self position estimation unit 132 generates a local map (hereinafter, referred to as a self position estimation map) used to estimate the self position, as necessary.
  • the self-location estimation map is, for example, a high-accuracy map using a technique such as SLAM (Simultaneous Localization and Mapping).
  • the self position estimation unit 132 supplies data indicating the result of the estimation process to the map analysis unit 151, the traffic rule recognition unit 152, the situation recognition unit 153, and the like of the situation analysis unit 133. In addition, the self position estimation unit 132 stores the self position estimation map in the storage unit 111.
  • the situation analysis unit 133 analyzes the situation of the vehicle and the surroundings.
  • the situation analysis unit 133 includes a map analysis unit 151, a traffic rule recognition unit 152, a situation recognition unit 153, and a situation prediction unit 154.
  • the map analysis unit 151 uses various data or signals stored in the storage unit 111 while using data or signals from each part of the vehicle control system 100 such as the self position estimation unit 132 and the external information detection unit 141 as necessary. Perform analysis processing and construct a map that contains information necessary for automatic driving processing.
  • the map analysis unit 151 is configured of the traffic rule recognition unit 152, the situation recognition unit 153, the situation prediction unit 154, the route planning unit 161 of the planning unit 134, the action planning unit 162, the operation planning unit 163, and the like. Supply to
  • the traffic rule recognition unit 152 uses traffic rules around the vehicle based on data or signals from each unit of the vehicle control system 100 such as the self position estimation unit 132, the outside information detection unit 141, and the map analysis unit 151. Perform recognition processing. By this recognition process, for example, the position and state of signals around the vehicle, the contents of traffic restriction around the vehicle, and the travelable lane are recognized.
  • the traffic rule recognition unit 152 supplies data indicating the result of the recognition process to the situation prediction unit 154 and the like.
  • the situation recognition unit 153 uses data or signals from each unit of the vehicle control system 100 such as the self position estimation unit 132, the outside information detection unit 141, the in-vehicle information detection unit 142, the vehicle state detection unit 143, and the map analysis unit 151. Based on the recognition processing of the situation regarding the vehicle. For example, the situation recognition unit 153 performs recognition processing of the situation of the own vehicle, the situation around the own vehicle, the situation of the driver of the own vehicle, and the like. In addition, the situation recognition unit 153 generates a local map (hereinafter referred to as a situation recognition map) used to recognize the situation around the host vehicle, as necessary.
  • the situation recognition map is, for example, an Occupancy Grid Map.
  • the situation of the vehicle to be recognized includes, for example, the position, posture, movement (for example, speed, acceleration, moving direction, etc.) of the vehicle, and the presence or absence and contents of abnormality.
  • the situation around the vehicle to be recognized includes, for example, the type and position of the surrounding stationary object, the type, position and movement of the surrounding moving object (eg, speed, acceleration, movement direction, etc.) Configuration and road surface conditions, as well as ambient weather, temperature, humidity, brightness, etc. are included.
  • the state of the driver to be recognized includes, for example, physical condition, alertness level, concentration level, fatigue level, movement of eyes, driving operation and the like.
  • the situation recognition unit 153 supplies data (including a situation recognition map, if necessary) indicating the result of the recognition process to the self position estimation unit 132, the situation prediction unit 154, and the like. In addition, the situation recognition unit 153 stores the situation recognition map in the storage unit 111.
  • the situation prediction unit 154 performs prediction processing of the situation regarding the own vehicle based on data or signals from each part of the vehicle control system 100 such as the map analysis unit 151, the traffic rule recognition unit 152, and the situation recognition unit 153. For example, the situation prediction unit 154 performs prediction processing of the situation of the vehicle, the situation around the vehicle, the situation of the driver, and the like.
  • the situation of the subject vehicle to be predicted includes, for example, the behavior of the subject vehicle, the occurrence of an abnormality, the travelable distance, and the like.
  • the situation around the vehicle to be predicted includes, for example, the behavior of the moving object around the vehicle, the change of the signal state, and the change of the environment such as the weather.
  • the driver's condition to be predicted includes, for example, the driver's behavior and physical condition.
  • the situation prediction unit 154 together with data from the traffic rule recognition unit 152 and the situation recognition unit 153, indicates data indicating the result of the prediction process, the route planning unit 161 of the planning unit 134, the action planning unit 162, and the operation planning unit 163. Supply to etc.
  • the route planning unit 161 plans a route to a destination based on data or signals from each unit of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. For example, the route planning unit 161 sets a route from the current position to the specified destination based on the global map. In addition, for example, the route planning unit 161 changes the route as appropriate based on traffic jams, accidents, traffic restrictions, conditions such as construction, the physical condition of the driver, and the like. The route planning unit 161 supplies data indicating the planned route to the action planning unit 162 and the like.
  • the action planning part 162 Based on data or signals from each part of the vehicle control system 100 such as the map analyzing part 151 and the situation predicting part 154, the action planning part 162 safely makes the route planned by the route planning part 161 within the planned time. Plan your vehicle's action to drive. For example, the action planning unit 162 performs planning of start, stop, traveling direction (for example, forward, backward, left turn, right turn, change of direction, etc.), travel lane, travel speed, overtaking, and the like. The action plan unit 162 supplies data indicating the planned behavior of the host vehicle to the operation plan unit 163 or the like.
  • the operation planning unit 163 is an operation of the own vehicle for realizing the action planned by the action planning unit 162 based on data or signals from each unit of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. Plan.
  • the operation plan unit 163 plans acceleration, deceleration, a traveling track, and the like.
  • the operation planning unit 163 supplies data indicating the planned operation of the vehicle to the acceleration / deceleration control unit 172, the direction control unit 173, and the like of the operation control unit 135.
  • the operation control unit 135 controls the operation of the vehicle.
  • the operation control unit 135 includes an emergency situation avoidance unit 171, an acceleration / deceleration control unit 172, and a direction control unit 173.
  • the emergency situation avoidance unit 171 is based on the detection results of the external information detection unit 141, the in-vehicle information detection unit 142, and the vehicle state detection unit 143, collision, contact, entry into a danger zone, driver's abnormality, vehicle Perform detection processing of an emergency such as an abnormality.
  • the emergency situation avoidance unit 171 detects the occurrence of an emergency situation, it plans the operation of the own vehicle for avoiding an emergency situation such as a sudden stop or a sudden turn.
  • the emergency situation avoidance unit 171 supplies data indicating the planned operation of the host vehicle to the acceleration / deceleration control unit 172, the direction control unit 173, and the like.
  • the acceleration / deceleration control unit 172 performs acceleration / deceleration control for realizing the operation of the own vehicle planned by the operation planning unit 163 or the emergency situation avoidance unit 171. For example, the acceleration / deceleration control unit 172 calculates a control target value of a driving force generator or a braking device for achieving planned acceleration, deceleration, or sudden stop, and drives a control command indicating the calculated control target value. It is supplied to the system control unit 107.
  • the direction control unit 173 performs direction control for realizing the operation of the vehicle planned by the operation planning unit 163 or the emergency situation avoidance unit 171. For example, the direction control unit 173 calculates the control target value of the steering mechanism for realizing the traveling track or the sharp turn planned by the operation plan unit 163 or the emergency situation avoidance unit 171, and performs control indicating the calculated control target value. The command is supplied to the drive system control unit 107.
  • FIG. 12 shows a configuration of a vehicle control system 100 that is an example of a mobile control system mountable in a mobile apparatus that executes the above-described processing, but various sensors may be used in the processing according to the embodiments described above. It is also possible to input the detection information of the above into an information processing apparatus such as a PC. A specific hardware configuration example of the information processing apparatus in this case will be described with reference to FIG.
  • FIG. 13 is a diagram showing an example of the hardware configuration of an information processing apparatus such as a general PC.
  • a central processing unit (CPU) 301 functions as a data processing unit that executes various processes in accordance with a program stored in a read only memory (ROM) 302 or a storage unit 308. For example, processing according to the sequence described in the above-described embodiment is performed.
  • the RAM (Random Access Memory) 303 stores programs executed by the CPU 301, data, and the like.
  • the CPU 301, the ROM 302 and the RAM 303 are mutually connected by a bus 304.
  • the CPU 301 is connected to the input / output interface 305 via the bus 304.
  • the input / output interface 305 includes various switches, a keyboard, a touch panel, a mouse, a microphone, and further a sensor, a camera, a situation data acquisition unit such as GPS, etc.
  • An output unit 307 including a unit 306, a display, a speaker and the like is connected.
  • the input unit 306 also receives input information from the sensor 321.
  • the output unit 307 also outputs drive information to the drive unit 322 of the moving apparatus.
  • the CPU 301 inputs an instruction, status data, and the like input from the input unit 306, executes various types of processing, and outputs a processing result to, for example, the output unit 307.
  • a storage unit 308 connected to the input / output interface 305 includes, for example, a hard disk, and stores programs executed by the CPU 301 and various data.
  • a communication unit 309 functions as a transmission / reception unit of data communication via a network such as the Internet or a local area network, and communicates with an external device.
  • a drive 310 connected to the input / output interface 305 drives removable media 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card, and executes data recording or reading.
  • removable media 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card
  • a drunkenness degree estimation unit that estimates the degree of motion sickness of an occupant of a vehicle during automatic driving by inputting detection information of an acceleration sensor provided in the vehicle;
  • a warning output necessity determination unit that compares the estimated drunkness degree estimated value of the drunkness degree estimation unit with a warning output reference value defined in advance;
  • An information processing apparatus comprising: a warning output execution unit configured to execute a warning output prompting a switch from automatic driving to manual driving when the estimated degree of intoxication becomes equal to or higher than the warning output reference value.
  • the information processing apparatus further includes: An observation data acquisition unit that acquires driver's operation information after the warning output;
  • the information processing apparatus according to (1) further comprising: a learning processing unit that executes a learning process based on the operation information acquired by the observation data acquisition unit to calculate a driver-specific warning output reference value.
  • the learning processing unit When it is determined that the driver's operation after the warning output is a normal driving operation, the warning output reference value is increased;
  • the information processing apparatus according to (2) wherein a warning output reference value changing process is performed to reduce the warning output reference value when it is determined that the driving operation is not normal.
  • the drunkenness level estimation unit The information processing apparatus according to any one of (1) to (3), wherein the intoxication degree calculation process is executed by applying a intoxication degree calculation formula in which the intoxication degree increases according to the duration of the automatic driving execution time.
  • the drunkenness level estimation unit The information processing apparatus according to any one of (1) to (4), wherein the detection information of the living body sensor provided in the vehicle is input to estimate the degree of drunkenness of the occupant during automatic driving.
  • the drunkenness level estimation unit Estimated degree of intoxication calculated based on detection information of the acceleration sensor; Weighted addition of the two kinds of intoxication degree estimation values with the intoxication degree estimation value calculated based on the detection information of the living body sensor to calculate a final intoxication degree estimation value of the occupant (5) or (6) Information processor as described.
  • the warning output necessity judgment unit The information processing apparatus according to any one of (1) to (7), wherein the warning output reference value is changed based on an input value by inputting detection information of an environmental sensor.
  • An acceleration sensor that measures the acceleration of the moving device, A degree-of-sickness estimation unit which inputs the detection information of the acceleration sensor and estimates the degree of motion sickness of the occupant of the mobile device during automatic driving execution; A warning output necessity determination unit that compares the estimated drunkness degree estimated value of the drunkness degree estimation unit with a warning output reference value defined in advance; A mobile apparatus having a warning output execution unit that executes a warning output that urges switching from automatic driving to manual driving when the estimated degree of intoxication becomes equal to or higher than the warning output reference value.
  • the moving device further includes An observation data acquisition unit that acquires driver's operation information after the warning output;
  • the operation information of the driver acquired by the observation data acquisition unit is The movement device according to (10), including operation information of at least one of a steering wheel, an accelerator, and a brake.
  • the learning processing unit When it is determined that the driver's operation after the warning output is a normal driving operation, the warning output reference value is increased;
  • the moving apparatus according to (10) or (11), performing warning output reference value changing processing to reduce the warning output reference value when it is determined that the driving operation is not normal.
  • the moving device further includes It has a living body sensor which acquires living body information of the passenger,
  • the drunkenness level estimation unit The mobile apparatus according to any one of (9) to (12), wherein the detection information of the living body sensor is input to estimate the degree of intoxication of the occupant during automatic driving.
  • the drunkenness level estimation unit Estimated degree of intoxication calculated based on detection information of the acceleration sensor; The final estimated degree of intoxication of the occupant is calculated by weighting and adding two types of estimated degree of intoxication with the estimated degree of intoxication calculated based on the detection information of the living body sensor (13) or (14). Mobile device as described.
  • the mobile device further includes: An environmental sensor for acquiring environmental information of the mobile device;
  • the warning output necessity determination unit The mobile apparatus according to any one of (9) to (15), wherein the detection information of the environment sensor is input, and the warning output reference value is changed based on the input value.
  • An information processing method to be executed in an information processing apparatus A degree of intoxication estimation step of estimating a degree of motion sickness of an occupant of the vehicle during execution of the automatic driving by inputting detection information of an acceleration sensor provided in the vehicle; A warning output necessity determination step in which a warning output necessity determination unit compares the estimated degree of intoxication estimated by the drunkiness level estimation unit with a warning output reference value defined in advance; An information processing method, wherein the warning output execution unit executes a warning output execution step of executing a warning output prompting a switch from the automatic driving to the manual driving when the intoxication degree estimated value becomes equal to or more than the warning output reference value .
  • An information processing method executed by a mobile device Measuring an acceleration of the moving device by an acceleration sensor; A degree of intoxication estimation step of estimating the degree of motion sickness of the occupant of the mobile device during automatic driving by inputting the detection information of the acceleration sensor; A warning output necessity determination step in which a warning output necessity determination unit compares the estimated degree of intoxication estimated by the drunkiness level estimation unit with a warning output reference value defined in advance; An information processing method, wherein the warning output execution unit executes a warning output execution step of executing a warning output prompting a switch from the automatic driving to the manual driving when the intoxication degree estimated value becomes equal to or more than the warning output reference value .
  • a program for causing an information processing apparatus to execute information processing A drunkiness degree estimation step of inputting detection information of an acceleration sensor provided in the vehicle to the drunkenness degree estimation unit to estimate a motion sickness degree of an occupant of the vehicle during automatic driving; A warning output necessity determination step of causing the warning output necessity determination unit to compare the estimated degree of intoxication estimated by the drunkiness level estimation unit with a warning output reference value defined in advance; A program for causing a warning output execution unit to execute a warning output execution step that causes a warning output to urge switching from automatic operation to manual operation when the estimated intoxication degree becomes equal to or higher than the warning output reference value.
  • the series of processes described in the specification can be performed by hardware, software, or a combined configuration of both.
  • the program recording the processing sequence is installed in memory in a computer built into dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It is possible to install and run.
  • the program can be recorded in advance on a recording medium.
  • the program can be installed from a recording medium to a computer, or can be installed in a recording medium such as a built-in hard disk by receiving a program via a network such as a LAN (Local Area Network) or the Internet.
  • LAN Local Area Network
  • a system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to those in the same housing.
  • the degree of motion sickness of the occupant of the vehicle during automatic driving is estimated, and the manual control is performed when the degree of drunkness becomes equal to or higher than the predetermined reference value.
  • a warning output for prompting switching to driving is performed, and a configuration that enables return to safe manual driving is realized.
  • acceleration sensor detection information is input to estimate the degree of drunkenness of the occupant of the vehicle during automatic driving.
  • a warning output is performed to urge switching from the automatic driving to the manual driving.
  • a learning process based on the driver's operation information after warning output is executed, and when it is determined that the operation is a normal driving operation, a reference value update process such as raising the reference value is performed, and driver specific Enables application of reference values.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Cardiology (AREA)
  • Psychology (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physiology (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

自動運転実行中の車両の乗員の乗り物酔い度合いを推定して、酔い度合いが既定の基準値以上となった場合に手動運転への切り替えを促す警告出力を行い、安全な手動運転への復帰を可能とした構成を実現する。加速度センサ検出情報を入力して自動運転実行中の車両の乗員の酔い度合いを推定する。さらに、推定値と警告出力基準値を比較して推定値が基準値以上となった場合に、自動運転から手動運転への切り替えを促す警告出力を実行する。さらに、警告出力後の運転者の操作情報に基づく学習処理を実行し、操作が正常な運転操作であると判定した場合は基準値を上昇させる等の基準値更新処理を行い、運転者固有の基準値の適用を可能とする。

Description

情報処理装置、移動装置、および方法、並びにプログラム
 本開示は、情報処理装置、移動装置、および方法、並びにプログラムに関する。さらに詳細には、自動運転と手動運転の切り替え制御を行う情報処理装置、移動装置、および方法、並びにプログラムに関する。
 昨今、自動運転に関する技術開発が盛んに行われている。
 自動運転技術は、車両(自動車)に備えられた位置検出手段等の様々なセンサを用いて、道路上を自動走行可能とする技術であり、今後、急速に普及することが予測される。
 しかし、現状において自動運転は開発段階であり、100%の自動運転が可能となるまでには時間を要すると考えられ、しばらくは、自動運転と、運転者(ドライバ)による手動運転とを、適宜切り替えて走行することになると予測される。
 例えば、高速道路等、直線的で道路幅が十分な道路では、自動運転モードでの走行を行うが、高速道路から出て駐車場の好きな位置に車を止める場合や、道路幅の狭い山道等では手動運転モードに切り替えて運転者(ドライバ)の操作で走行を行うといったモード切り替えが必要となると予測される。
 車両が自動運転を実行している間は、運転者(ドライバ)は車両走行方向である前方に視線を向ける必要がなく、例えば、居眠りをしたり、テレビを見たり、本を読んだり、あるいは後ろ向きに座って後部座席の人と会話をするといった自由な行動が可能となる。
 しかし、このように、車両走行中に車両走行方向である前方に視線を向けずに、その他の方向に視線を継続して向けていると、いわゆる車酔い(動揺病)の症状が表れやすくなる。これは、車の加速度等による身体変化と、視線方向の視覚情報変化とが整合しないことに起因する。
 ここで、上述したように、自動運転と手動運転を切り替えて走行する車両において、自動運転モードから、手動運転モードに切り替える必要が発生した場合、運転者(ドライバ)に手動運転を開始させることが必要となる。
 しかし、運転者(ドライバ)が重い車酔いの状態にあった場合、正常な手動運転を行うことができず、その状態で手動運転モードに切り替えてしまうと、最悪の場合、事故を起こす可能性がある。
 従って、自動運転から手動運転への切り替えを行う場合には、運転者(ドライバ)が、重い車酔いの状態になく正常な手動運転をできる状態にあることが必要である。
 なお、車酔いを低減する自動運転を行う運転制御構成を開示した従来技術として、特許文献1(特開2012-59274号公報)がある。
 この特許文献1は、車両搭乗者の車酔い状態を検出する体調検出手段を有し、体調検出手段が、車両搭乗者の車酔い状態を検出した場合に、車酔いの発生しにくい運転を行うように自動運転の運転制御を行う構成や、車両搭乗者の睡眠を促すといった構成を開示している。
 また、特許文献2(特開2006-034576号公報)は、車両の搭乗者が車酔い状態にあるか否かを判定して、車酔い状態にあると判定した場合には、窓を開ける、温度を下げる、音楽を流す等の車酔い解消の対策を実校する装置を開示している。
 しかし、特許文献1に記載の車酔いを低減させるための運転制御を行っても、車の加速度等による身体変化と、視線方向の視覚情報変化の不整合は解決されず、車酔い低減効果が得られない可能性も高いと想定される。
 また、運転者(ドライバ)が睡眠をとれば、車酔いは解消するが、目的地到着が遅れるという問題が発生する。
 また、特許文献2の構成を実現する場合には、窓を開ける、温度を下げる、音楽を流す等の新たな制御装置を車両に取り付けることが必要となる。
特開2012-59274号公 特開2006-034576号公報 特開平5-245149号公報 特許第4882433号公報
 本開示は、例えば、上述の問題点に鑑みてなされたものであり、運転者(ドライバ)に、重い車酔い状態のまま手動運転をさせることを防止し、自動運転から手動運転への切り替えを安全に行うことを可能とした情報処理装置、移動装置、および方法、並びにプログラムを提供することを目的とする。
 本開示の第1の側面は、
 車両に備えられた加速度センサの検出情報を入力して、自動運転実行中の車両の乗員の乗り物酔い度合いを推定する酔い度合い推定部と、
 前記酔い度合い推定部の推定した酔い度合い推定値と、予め規定した警告出力基準値を比較する警告出力要否判定部と、
 前記酔い度合い推定値が、前記警告出力基準値以上となった場合に、自動運転から手動運転への切り替えを促す警告出力を実行する警告出力実行部を有する情報処理装置にある。
 さらに、本開示の第2の側面は、
 移動装置の加速度を計測する加速度センサと、
 前記加速度センサの検出情報を入力して、自動運転実行中の前記移動装置の乗員の乗り物酔い度合いを推定する酔い度合い推定部と、
 前記酔い度合い推定部の推定した酔い度合い推定値と、予め規定した警告出力基準値を比較する警告出力要否判定部と、
 前記酔い度合い推定値が、前記警告出力基準値以上となった場合に、自動運転から手動運転への切り替えを促す警告出力を実行する警告出力実行部を有する移動装置にある。
 さらに、本開示の第3の側面は、
 情報処理装置において実行する情報処理方法であり、
 酔い度合い推定部が、車両に備えられた加速度センサの検出情報を入力して、自動運転実行中の前記車両の乗員の乗り物酔い度合いを推定する酔い度合い推定ステップと、
 警告出力要否判定部が、前記酔い度合い推定部の推定した酔い度合い推定値と、予め規定した警告出力基準値を比較する警告出力要否判定ステップと、
 警告出力実行部が、前記酔い度合い推定値が、前記警告出力基準値以上となった場合に、自動運転から手動運転への切り替えを促す警告出力を実行する警告出力実行ステップを実行する情報処理方法にある。
 さらに、本開示の第4の側面は、
 移動装置において実行する情報処理方法であり、
 加速度センサが、移動装置の加速度を計測するステップと、
 酔い度合い推定部が、前記加速度センサの検出情報を入力して、自動運転実行中の前記移動装置の乗員の乗り物酔い度合いを推定する酔い度合い推定ステップと、
 警告出力要否判定部が、前記酔い度合い推定部の推定した酔い度合い推定値と、予め規定した警告出力基準値を比較する警告出力要否判定ステップと、
 警告出力実行部が、前記酔い度合い推定値が、前記警告出力基準値以上となった場合に、自動運転から手動運転への切り替えを促す警告出力を実行する警告出力実行ステップを実行する情報処理方法にある。
 さらに、本開示の第5の側面は、
 情報処理装置において情報処理を実行させるプログラムであり、
 酔い度合い推定部に、車両に備えられた加速度センサの検出情報を入力して、自動運転実行中の前記車両の乗員の乗り物酔い度合いを推定させる酔い度合い推定ステップと、
 警告出力要否判定部に、前記酔い度合い推定部の推定した酔い度合い推定値と、予め規定した警告出力基準値を比較させる警告出力要否判定ステップと、
 警告出力実行部に、前記酔い度合い推定値が、前記警告出力基準値以上となった場合に、自動運転から手動運転への切り替えを促す警告出力を実行させる警告出力実行ステップを実行させるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、自動運転実行中の車両の乗員の乗り物酔い度合いを推定して、酔い度合いが既定の基準値以上となった場合に手動運転への切り替えを促す警告出力を行い、安全な手動運転への復帰を可能とした構成が実現される。
 具体的には、例えば、加速度センサ検出情報を入力して自動運転実行中の車両の乗員の酔い度合いを推定する。さらに、推定値と警告出力基準値を比較して推定値が基準値以上となった場合に、自動運転から手動運転への切り替えを促す警告出力を実行する。さらに、警告出力後の運転者の操作情報に基づく学習処理を実行し、操作が正常な運転操作であると判定した場合は基準値を上昇させる等の基準値更新処理を行い、運転者固有の基準値の適用を可能とする。
 本構成により、自動運転実行中の車両の乗員の酔い度合いを推定して、酔い度合いが既定の基準値以上となった場合に手動運転への切り替えを促す警告出力を行い、安全な手動運転への復帰を可能とした構成が実現される。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
本開示の移動装置の一構成例について説明する図である。 本開示の移動装置の表示部に表示されるデータの一例について説明する図である。 本開示の移動装置の実行する酔い度合い推定処理について説明する図である。 本開示の移動装置の実行する酔い度合い推定処理について説明する図である。 本開示の移動装置のデータ処理部の一構成例について説明する図である。 本開示の移動装置のデータ処理部の実行する処理のシーケンスについて説明するフローチャートを示す図である。 本開示の移動装置のデータ処理部の実行する処理のシーケンスについて説明するフローチャートを示す図である。 本開示の移動装置の一構成例について説明する図である。 本開示の移動装置のデータ処理部の一構成例について説明する図である。 本開示の移動装置の一構成例について説明する図である。 本開示の移動装置のデータ処理部の一構成例について説明する図である。 本開示の移動装置の構成例について説明する図である。 情報処理装置のハードウェア構成例について説明する図である。
 以下、図面を参照しながら本開示の情報処理装置、移動装置、および方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行なう。
 1.移動装置と情報処理装置の構成と処理について
 2.データ処理部の具体的構成例と処理例について
 3.生体センサを利用した実施例について
 4.環境センサを利用した実施例について
 5.その他の実施例について
 6.移動装置内の車両制御システムの構成例について
 7.情報処理装置の構成例について
 8.本開示の構成のまとめ
  [1.移動装置と情報処理装置の構成と処理について]
 図1以下を参照して本開示の移動装置と情報処理装置の構成と処理について説明する。
 図1は、本開示の移動装置である自動車10の一構成例を示す図である。
 図1に示す自動車10に本開示の情報処理装置が装着されている。
 図1に示す自動車10は、手動運転モードと、自動運転モードの2つの運転モードによる運転が可能な自動車である。
 手動運転モードは、運転者(ドライバ)50の操作、すなわちハンドル(ステアリング)操作や、アクセル、ブレーキ等の操作に基づく走行が行われる。
 一方、自動運転モードでは、運転者(ドライバ)50による操作が不要であり、例えば位置センサや、その他の周囲情報検出センサ等のセンサ情報に基づく運転が行われる。
 位置センサは、例えばGPS受信機等であり、周囲情報検出センサは、例えば、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等である。
 なお、図1には、以下において説明する本開示の処理に必要となる構成要素、すなわち、自動運転モードと手動運転モードの運転モード切り替えに利用される主要な構成要素のみを示している。
 自動運転に必要となるセンサ等の構成については省略している。これらのセンサ(検出部)を含めた自動運転を行う自動車10全体の構成については、後段で説明する。
 図1に示すように、自動車10は、加速度センサ11、データ処理部20、表示部30を有する。
 加速度センサ11は、自動車の加速度を検出する。
 データ処理部20が、本開示の情報処理装置の主要部に相当する。
 データ処理部20は、加速度センサ11の検出情報を入力して、自動運転実行時の運転者50の乗り物酔い度合いを推定し、運転者50の乗り物酔い度合いが予め規定した基準値に達したと判定した場合、運転者50に対して自動運転から手動運転に切り替えるように促す警告(アラーム)を出力する。
 なお、以下の説明において、「酔い」とは「車酔い」等の「乗り物酔い」を意味する。
 警告(アラーム)は、例えば表示部30に対する警告表示や、警告音の出力によって実行される。
 表示部30に対する警告表示の例を図2に示す。
 図2に示すように、表示部30には、以下の各表示がなされる。
 運転モード情報=「自動運転中」、
 警告表示=「酔い度合いが基準を超えました。手動運転に切り替えて酔いの悪化を予防しましょう」
 ユーザ選択部=「手動運転に切り替える」「自動運転を継続する」
 運転モード情報の表示領域には、自動運転モードの実行時は「自動運転中」の表示が行われ、手動運転モードの実行時は「手動運転中」の表示が行われる。
 警告表示情報の表示領域には、自動運転モードで自動運転を実行している間に、運転を行っていない運転者の酔い度合いが予め規定した警告出力基準値以上となったと判定したときに、以下の表示を行う表示領域である。
 「酔い度合いが基準を超えました。手動運転に切り替えて酔いの悪化を予防しましょう」
 なお、運転者の酔い度合いの算出は、加速度センサ11の計測する自動車の加速度の時間推移情報に基づいてデータ処理部20が実行する。この処理については後段で説明する。
 ユーザ選択部は、ユーザ(運転者)によるタッチ処理による処理選択を行う入力部である。表示部30はタッチパネルとして構成されており、ユーザ(運転者)のタッチ処理による入力が可能である。
 図に示す例は、「手動運転に切り替える」と、「自動運転を継続する」の2つの選択部が表示された例である。
 ユーザ(運転者)が、「手動運転に切り替える」を選択し、ユーザ(運転者)が手動運転を開始したことが検出された後に自動運転モードから手動運転モードへの変更が実行される。
 一方、ユーザ(運転者)が、「自動運転を継続する」を選択し、ユーザ(運転者)が手動運転を開始しない場合、自動運転モードが継続して実行される。
 図2に示すように、表示部30には、自動運転モードで自動運転を実行している間に、運転を行っていない運転者の酔い度合いが予め規定した警告出力基準値以上となったと判定したときに、「酔い度合いが基準を超えました。手動運転に切り替えて酔いの悪化を予防しましょう」
 この警告表示を実行して、運転者に手動運転の開始を促す。
 車両が自動運転を実行している間は、運転者(ドライバ)は車両走行方向である前方に視線を向ける必要がなく、例えば、備え付けのテレビを見たり、本を読んだり、あるいは後ろ向きに座って後部座席の人と会話をするといった自由な行動が可能となる。
 しかし、このように、車両走行中に車両走行方向である前方に視線を向けずに、その他の方向に視線を継続して向けていると、いわゆる車酔い(動揺病)の症状が表れやすくなる。これは、車の加速度等による身体変化と、視線方向の視覚情報変化とが整合しないことに起因する。
 この車酔いの解消方法の一つが手動運転を行うことである。運転者(ドライバ)が手動運転を開始すると、運転者(ドライバ)は車両走行方向である前方に視線を向けることになる。この処理により、車の加速度等による身体変化と、視線方向の視覚情報変化とが整合し、車酔いが解消する。
 しかし、自動運転モードで走行中に運転者(ドライバ)が重い車酔いの状態に陥ってしまうと、自動運転から手動運転へ切り替えようとしても、運転者(ドライバ)は正常な手動運転を行うことができない場合が発生する。このような状態で手動運転モードに切り替えてしまうと、最悪の場合、事故を起こす可能性がある。
 本開示の構成では、このような不測の事態を防止するため、自動運転モードで自動運転を実行している間、運転を行っていない運転者の酔い度合いを推定する。さらに、この推定値と予め規定した警告出力基準値を比較し、酔い度合い推定値が警告出力基準値以上となったと判定した場合に図2に示す警告を出力する。
 すなわち、表示部30に、
 「酔い度合いが基準を超えました。手動運転に切り替えて酔いの悪化を予防しましょう」
 この警告表示を実行して、運転者に手動運転の開始を促す。
 この処理により、運転者(ドライバ)が重い車酔いの状態に至る前に自動運転から手動運転への切り替えを行うことが可能となり、安全な走行が実現される。
 上記処理を行う場合、
 運転者の酔い度合い推定による酔い度合い推定値の算出、
 警告出力を行うか否かの判定基準となる警告出力基準値の設定、
 運転者の酔い度合い推定値と警告出力基準値との比較処理と、比較結果に基づく警告出力、
 これらの処理が必要となる。
 これらの処理は、データ処理部20が実行する。
 図3を参照して、運転者の酔い度合いの時間推移の一例について説明する。
 図3に示すグラフは、横軸に「時間(T)」、縦軸に「酔い度合い推定値(P)」を設定したグラフである。
 時間t0~t1の期間は、運転者が手動運転を行っている期間である。
 その後、時間t1~t3が自動運転の実行期間である。
 時間t2は、データ処理部20が、運転を行っていない運転者の酔い度合い推定値(P)と予め規定した警告出力基準値(Pv)を比較し、酔い度合い推定値(P)が警告出力基準値(Pv)以上となったと判定した時間であり、この時間t2において、図2に示す警告を出力する。
 その後、時間t3において、運転者が手動運転を開始する。
 図3に太線で示す時間経過とともに緩やかに上昇する線が、運転者の時間経過に伴う酔い度合い推定値(P)の推移の一例である。
 図3に示す例では、酔い度合い推定値(P)は、自動運転の実行期間である時間t1~t3において、緩やかに上昇している。
 先に説明したように、車両が自動運転を実行している間は、運転者(ドライバ)は車両走行方向である前方に視線を向けずに他のタスクを行う場合が多く、このため車の加速度等による身体変化と視線方向の視覚情報変化とが整合しない。この結果、車酔い(動揺病)の症状が表れやすくなる。
 時間t2において、「酔い度合い推定値(P)」が、予め規定した「警告出力基準値(Pv)」以上となり、データ処理部20は、この時間t2において、図2に示す警告を出力する。
 その後の時間t3において、運転者が手動運転を開始すると、「酔い度合い推定値(P)」は徐々に低下する。
 これは、手動運転開始に伴い、運転者(ドライバ)が車両走行方向である前方に視線を向けるため、車の加速度等による身体変化と視線方向の視覚情報変化とが整合し、徐々に酔いが解消することを示している。
 「酔い度合い推定値(P)」は、データ処理部20が加速度センサ11から入力する加速度情報に基づいて算出する推定値である。
 この加速度に基づく酔い度合いの推定手法としては、例えば、以下の既存義出を利用することが可能である。
 「ISO2361-1(1997)」に規定された手法、あるいは、
 「This Wiederkehr,Friedhelm Altpeter,"Review of Motion Sickness Evaluation Methods and their Application to Simulation Technology",SIMPACK News,July 2013,pp.12-15,2013」に記載された手法、
 これらの既存手法を適用することが可能である。
 例えば、ISO2361-1(1997)は、加速度情報に基づいて算出する酔い度合いの指標値として、
 MSDVz(Motion Sickness Dose Value)
 を規定している。
 MSDVzの算出処理手順について説明する。
 なお、MSDVzは、船酔いの指標値として算出されるデータであり、船舶において多く発生する鉛直方向成分の加速度に基づいて算出される酔い度合い指標値である。
 ISO2361-1(1997)で規定する酔い度合い指標値(MSDVz)は、加速度の曝露時間Tを用いて次式(式1)で算出することができる。
Figure JPOXMLDOC01-appb-M000001
 上記(式1)において、
 Tは、加速度の暴露時間(秒)、すなわち加速度の影響を受けている時間である。
 afは、ISO2361-1(1997)において規定されたWfフィルタに従って補正された鉛直方向の加速度瞬時値である。
 図4にWfフィルタ対応曲線(Wf曲線)を示す。
 横軸が、振動周波数(Hz)であり、縦軸が、重み付け係数(dB)である。
 図4に示すWf曲線は、低周波の振動周波数に対する酔い度合いの大きさに応じた重み設定曲線に相当する。
 図4に示すWf曲線は、様々な振動の発生時における嘔吐発生率の計測結果に基づいて生成された曲線であり、約0.17Hz(周期6秒)の振動において、最も嘔吐発生率が高い、すなわち酔い度合いが激しくなることを示している。
 Wf曲線は、約0.17Hz(周期6秒)の振動に対する重みを最も高く設定し、その他の各周波数において各周波数対応の酔い度合い(嘔吐率)に応じた重みを設定した重み設定曲線である。
 このように、上記(式1)に示す「af」は、図4に示すISO2361-1(1997)において規定されたWfフィルタに従って補正された鉛直方向の加速度瞬時値である。上記(式1)は、加速度の鉛直方向成分の時系列信号に対して、図4に示すWf曲線をフィルタとして畳み込む演算であり、この演算により酔い度合い指標値(MSDVz)を算出している。
 ただし、上記(式1)において算出されるMSDVzは、縦方向の振動(揺れ)のみを考慮したものであり、図4に示すWf曲線に基づく重み設定も縦揺れのみを考慮した曲線である。
 自動車の場合、縦揺れのみならず、横揺れも発生する。すなわち横方向の加速度に基づく振動が多く発生する。
 本実施例では、自動車における酔い度合いを考慮する必要があり、縦方向のみならず、あらゆる方向の振動を考慮することが必要である。
 上記(式1)で算出されるMSDVzを、すべての方向の振動に対応させるため、上記(式1)内の「af」を鉛直成分のみならず、すべての方向の加速度瞬時値として設定する。
 Wf曲線については、図4に示す鉛直方向の特性をそのまま利用する。あるいは、新たに、全方向の振動と酔い度合いの関係を測定して、全方向振動対応の新たなWf曲線を生成して、そのWf曲線を利用する構成としてもよい。
 また、先に図3を参照して説明したように、自動車に乗車している運転者の酔いは、自動運転モード実行時に、より激しくなり、自動運転モートの継続に応じて酔い度合いが激しくなる。
 本開示の処理では、自動運転モードの開始時間からの経過時間に応じた酔い度合い指標値を算出することが必要となる。
 このため、上記のISO2361-1(1997)において規定された垂直方向の振動に基づく酔い度合い指標値(MSDVz)の算出式(式1)を以下の(式2)ように変更して、自動車の自動運転モードにおける酔い度合い指標値(MSDV)を算出する。
Figure JPOXMLDOC01-appb-M000002
 上記(式2)において、
 Tは、自動運転開始後の経過時間(秒)、すなわち自動運転モードで加速度の影響を受けている時間である。
 afは、ISO2361-1(1997)において規定されたWfフィルタに従って補正された加速度瞬時値である。ただし、前述の(式1)の鉛直方向の加速度瞬時値afとは異なり、上記(式2)のafは、方向を特定しない全方向の加速度瞬時値とする。
 なお、前述したように、加速度瞬時値afを算出する際に用いるWf曲線については、図4に示す鉛直方向の特性をそのまま利用する設定としてもよいが、新たに、全方向の振動と酔い度合いの関係を測定して、全方向振動対応の新たなWf曲線を生成して、そのWf曲線を利用する構成としてもよい。
 上記(式2)に従って算出される酔い度合い指標値(MSDV)を、自動車10に乗車している運転者の酔い度合いの推定値とする。
 すなわち、上記(式2)に従って算出される酔い度合い指標値(MSDV)を、図3に示す酔い度合い推定値(P)として利用することができる。
 なお、酔い度合い推定値(P)の算出処理としては、上記(式2)に限らず、その他の算出方法を適用することも可能である。
 例えば、上記(式2)によって算出される酔い度合い指標値(MSDV)を以下の(式3)を用いて変換し、(式3)によって算出される変換値(IR:Illness Rating)を、酔い度合い推定値(P)として利用してもよい。
Figure JPOXMLDOC01-appb-M000003
 上記(式3)におけるαは乗算係数である。
 乗算係数αは、以下のIR基準に従った酔い度合いを示すスカラー値(IR)を算出可能とするための乗算係数である。
 IR=0=平気
 IR=1=少し気持ち悪い
 IR=2=かなり気持ち悪い、
 IR=3=ものすごくひどい
 上記(式3)におけるαは、上記の酔い度合い(0:平気~3:ものすごくひどい)を示す値0~3の値を、(式2)に従って算出される酔い度合い指標値(MSDV)から算出するために設定する乗算係数であり、例えば、α=(1/50)等の値が用いられる。
 上記(式3)によって算出される酔い度合い指標値(IR)を、自動車10に乗車している運転者の酔い度合いの推定値として用いてもよい。
 すなわち、上記(式3)に従って算出される酔い度合い指標値(MSDV)を、図3に示す酔い度合い推定値(P)として利用することができる。
 なお、図3に示す警告出力基準値(Pv)は、自動運転モードで走行中の自動車の運転者に対して、自動運転モードから手動運転モードに変更を促すための警告を出力するタイミングを規定した基準値である。
 この警告出力基準値(Pv)は、自動運転モードにおいて酔いが進行した運転者が正常な手動運転に復帰できるレベルの適正な酔い度合いレベルに設定することが好ましい。
 警告出力基準値(Pv)を、運転者が正常な手動運転に復帰できるレベルの酔い度合いレベルに設定することで、図2を参照して説明した警告出力後、運転者は正常な手動運転を開始し、安全な走行を行うことが可能となる。
 例えば、警告出力基準値(Pv)を、運転者が正常な手動運転に復帰できない高いレベルの酔い度合いレベルに設定してしまうと、警告出力後、運転者は酔い度合いが重すぎて正常な手動運転を開始することができず、安全な走行を行うことが不可能となる場合がある。
 一方、警告出力基準値(Pv)を、過度に低いレベルの酔い度合いレベルに設定してしまうと、頻繁に警告出力が行われ、自動運転モードの継続時間が短くなり、頻繁に手動運転の開始要求がなされてしまうという問題が発生する。
 従って、警告出力基準値(Pv)は、最適な値に設定することが必要となる。
 なお、警告出力基準値(Pv)は、以下のいずれかの設定が可能である。
 (設定1)予め規定した値を用い、すべての運転者に共通な値を適用する、
 (設定2)各運転者に固有な値を適用する。
 これらの2つの異なる設定が可能である。
 酔い度合いには個人差があり、すべての運転者に共通な値を用いることが必ずしも最適でない場合もある。従って、各個人固有の警告出力基準値(Pv)を利用する構成が好ましい。
 各個人固有の警告出力基準値(Pv)は、例えば学習処理によって算出することができる。
 例えば、警告出力後の自動運転モードから手動運転モードへのモード変更時に、手動運転が正常に行われているか否かを判定し、正常に行われている場合は、警告出力基準値(Pv)を徐々に高くしていく。
 一方、警告出力後の自動運転モードから手動運転モードへのモード変更時の手動運転が正常に行われていない場合は、警告出力基準値(Pv)を徐々に低下させていく。
 このような制御を行うことで、各個人(運転者)に対応した警告出力基準値(Pv)を設定することができる。
 自動運転モードから手動運転モードへのモード変更時に、手動運転が正常に行われているか否かを判定する処理、および、この判定結果に基づく警告出力基準値(Pv)の更新処理は、データ処理部20が実行する。
 データ処理部20は、例えば手動運転開始後のハンドル(ステアリング)操作情報、アクセル、ブレーキ等のペダル操作情報を取得して、これらの情報から、正常な手動運転が実行されているか否かを判定する。
 この判定情報に基づいて、その運転者対応の警告出力基準値(Pv)の最適値を算出する。
 この処理は、例えば学習処理によって実行され、警告出力基準値(Pv)の最適値を含む学習処理結果データが記憶部(学習データ格納部)に格納される。
 データ処理部20は、記憶部(学習データ格納部)に格納されたデータを参照して、運転者固有の最適な警告出力基準値(Pv)を取得し、自動運転モード実行中の運転者の酔い度合いが警告出力基準値(Pv)に達した場合、図2に示す警告を出力する。
 なお、酔い度合い推定値(P)の算出は、上記処理に限らず、例えば、以下に示す(式4)や(式5)を適用して算出する構成としてもよい。
 P=MSDV-γ・T・・・(式4)
 P=IR-γ・T・・・(式5)
 上記(式4)、(式5)は、酔い度合いの回復を考慮した式である。
 上記(式4)に示すMSDVは、先に説明した(式2)に従って算出される酔い度合い指標値(MSDV)である。
 上記(式5)に示すIRは、先に説明した(式3)に従って算出される変換値(IR:Illness Rating)である。
 γは、酔い度合い回復度合いを示すパラメータであり、正の値となる。
 γは、酔いが醒めやすい人、醒めにくい人の個人差の影響を受ける他、MSDV、IRの時間変化と比較すると、変化が少なく一定値とみなすことができる。
 Tは、加速度の暴露時間である。
 上記の(式4)、(式5)を適用して、酔い度合い推定値(P)を算出する構成としてもよい。
  [2.データ処理部の具体的構成例と処理例について]
 以下、データ処理部20の具体的構成例と処理例について説明する。
 図5に、データ処理部20の具体的構成の一例を示す。
 図5に示すように、データ処理部20は、酔い度合い推定部21、警告出力要否判定部22、警告出力実行部23、学習処理部24、警告出力基準値格納部(学習データ格納部)25、観測データ取得部26を有する。
 酔い度合い推定部21は、加速度センサ11から自動車10の加速度情報を入力し、運転者の酔い度合いを推定する。
 すなわち、先に図3を参照して説明した酔い度合い推定値(P)を算出する。
 具体的には、自動運転モード開始時間からの経過時間Tを利用して、先に説明した(式2)に従って算出されるMSDV、または(式2)と(式3)を適用して算出されるIR、いずれかの値を酔い度合い推定値(P)として算出する。
 あるいは、(式4)、(式5)を適用して、酔い度合い推定値(P)を算出する。
 すなわち、酔い度合い推定部21は、図3のグラフの縦軸の酔い度合い推定値(P)に相当する値として、
 (式2)に従って算出されるMSDV、または、
 (式2)と(式3)を適用して算出されるIR、
 これらのいずれかの値を算出する。
 あるいは、(式4)、(式5)を適用して、酔い度合い推定値(P)を算出する。
 酔い度合い推定部21の算出した酔い度合い推定値(P)は、警告出力要否判定部22と、学習処理部24に入力される。
 警告出力要否判定部22は、酔い度合い推定部21から入力する酔い度合い推定値(P)と、警告出力基準値格納部(学習データ格納部)25に格納された警告出力基準値(Pv)とを比較する。
 酔い度合い推定部21から入力した酔い度合い推定値(P)が、警告出力基準値(Pv)以上、すなわち、
 P≧Pv
 上記判定式が成立すると判定した場合、警告出力実行部23に対して警告出力の実行要求を出力する。
 警告出力実行部23は、警告出力要否判定部22から警告出力の実行要求を入力すると、表示部30に対する警告出力を実行する。
 警告表示は、先に図2を参照して説明した表示であり、
 「酔い度合いが基準を超えました。手動運転に切り替えて酔いの悪化を予防しましょう」
 この警告表示を実行して、運転者に手動運転の開始を促す。
 なお、警告出力実行部23は、表示部30に対する警告表示の他、警告音の出力によって警告出力を行ってもよい。
 先に図2を参照して説明したように、表示部30はタッチパネルとして構成されており、ユーザ(運転者)のタッチ処理による入力が可能である。
 図2を参照して説明したように、表示部30には警告表示とともに、
 「手動運転に切り替える」と、「自動運転を継続する」の2つの選択部が表示される。
 ユーザ(運転者)が、「手動運転に切り替える」を選択し、ユーザ(運転者)が手動運転を開始し、正常な手動運転が行われていることが確認されると、自動運転モードから手動運転モードへの変更処理が実行される。
 一方、ユーザ(運転者)が、「自動運転を継続する」を選択し、ユーザ(運転者)が手動運転を開始しない場合、自動運転モードが継続して実行される。
 観測データ取得部26は、ユーザ(運転者)の操作情報を取得する。
 観測データ取得部26は、ユーザ(運転者)が、表示部30に表示された選択入力部である「手動運転に切り替える」を選択し、ユーザ(運転者)が手動運転を開始した後のユーザの操作情報を取得する。例えばハンドル(ステアリング)の操作情報や、アクセル、ブレーキ等のペダル部の操作情報等を取得する。
 観測データ取得部26が取得した観測情報は、学習処理部24に入力される。
 学習処理部24は、観測データ取得部26が取得した観測情報に基づいて、ユーザ(運転者)が手動運転を開始した直後に、正常な手動運転が行われているか否かを判定する。
 学習処理部24は、手動運転開始後のハンドル(ステアリング)操作情報、アクセル、ブレーキ等のペダル操作情報を取得して、これらの情報から、正常な手動運転が実行されているか否かを判定する。この判定情報に基づいて、その運転者対応の警告出力基準値(Pv)の最適値を算出する。
 学習処理部24は、ユーザ(運転者)が、警告表示に従って手動運転を開始するタイミング毎に、ユーザの操作情報を取得し、取得データに基づく学習処理を行う。
 すなわち、ユーザ(運転者)固有の最適な警告出力基準値(Pv)の算出する学習処理を行う。学習データの結果データ、すなわち、ユーザ(運転者)固有の最適な警告出力基準値(Pv)は警告出力基準値格納部(学習データ格納部)25に格納される。
 例えば、警告出力直後に観測データ取得部26から入力するユーザ操作情報に基づいてユーザ(運転者)が正常な手動運転を行っていることが確認された場合は、警告出力基準値(Pv)を徐々に高くする基準値更新処理を実行する。
 一方、警告出力後に観測データ取得部26から入力するユーザ操作情報に基づいてユーザ(運転者)が正常な手動運転を行っていないと判定した場合は、警告出力基準値(Pv)を徐々に低下させる基準値更新処理を実行する。
 更新された警告出力基準値は、警告出力基準値格納部(学習データ格納部)25に格納される。
 なお、警告出力基準値格納部(学習データ格納部)25に初期的に格納される警告出力基準値(Pv)は、予め規定した値を用いる。例えば、すべての運転者に共通な値を格納する。
 その後の学習処理によって、この値が、各ユーザ(運転者)固有の値に、順次、更新される。
 酔い度合いには、個人差があり、すべての運転者に共通な値を用いることが必ずしも最適でない場合がある。
 データ処理部20の学習処理部24は、警告出力直後の手動運転の操作情報に基づく学習処理を実行して各個人固有の最適な警告出力基準値(Pv)を算出する。
 このユーザ固有の最適な警告出力基準値(Pv)を、警告出力基準値格納部(学習データ格納部)25に格納して、利用することで、各ユーザ単位で最適な警告出力を行うことが可能となる。
 次に、図6に示すフローチャートを参照して本実施例の処理シーケンスについて説明する。
 図6に示すフローチャートは、例えば記憶部に格納されたプログラムに従ってプログラム実行機能を有するCPU等を備えたデータ処理部において実行される。図5に示すデータ処理部20であり、データ処理部20は、記憶部に格納されたプログラムを読み出して、図6に示すフローに従った処理を実行する。
 以下、図6に示すフローチャートの各ステップの処理について、順次、説明する。
  (ステップS101)
 まずデータ処理部は、ステップS101において、現在、自動車が自動運転モードで走行中か否かを判定する。
 自動運転モードであると判定した場合は、ステップS102に進む。
  (ステップS102)
 ステップS101において、自動運転モードであると判定した場合、ステップS102において、加速度センサの検出値に基づく酔い度合い推定処理を実行する。
 この処理は、図5に示す酔い度合い推定部21の実行する処理である。
 酔い度合い推定部21は、加速度センサ11から自動車10の加速度情報を入力し、運転者の酔い度合いを推定する。
 すなわち、先に図3を参照して説明した酔い度合い推定値(P)を算出する。
 具体的には、自動運転モード開始時間からの経過時間Tを利用して、先に説明した(式2)に従って算出されるMSDV、または(式2)と(式3)を適用して算出されるIR、いずれかの値を酔い度合い推定値(P)として算出する。
 すなわち、
 (式2)に従って算出されるMSDV、または、
 (式2)と(式3)を適用して算出されるIR、
 これらのいずれかの値を酔い度合い推定値(P)として算出する。
 あるいは、(式4)、(式5)を適用して、酔い度合い推定値(P)を算出する。
  (ステップS103)
 次に、ステップS103において、酔い度合い推定部21の算出した酔い度合い推定値(P)が、基準値(警告出力基準値)以上か否かを判定する。
 この処理は、図5に示す警告出力要否判定部22の実行する処理である。
 警告出力要否判定部22は、酔い度合い推定部21から入力する酔い度合い推定値(P)と、警告出力基準値格納部(学習データ格納部)25に格納された警告出力基準値(Pv)とを比較する。
 酔い度合い推定部21から入力した酔い度合い推定値(P)が、警告出力基準値(Pv)以上、すなわち、
 P≧Pv
 上記判定式が成立すると判定した場合、ステップS104に進む。
 上記判定式が成立しないと判定した場合、ステップS102に戻り、酔い度合い推定処理を継続する。
  (ステップS104)
 ステップS103において、酔い度合い推定値(P)が、警告出力基準値(Pv)以上であると判定した場合、ステップS104において、警告出力を実行する。
 この処理は、図5に示す警告出力実行部23の実行する処理である。
 警告出力実行部23は、警告出力要否判定部22から警告出力の実行要求を入力すると、表示部30に対する警告出力を実行する。
 警告表示は、先に図2を参照して説明した表示であり、
 「酔い度合いが基準を超えました。手動運転に切り替えて酔いの悪化を予防しましょう」
 この警告表示を実行して、運転者に手動運転の開始を促す。
 なお、警告出力実行部23は、表示部30に対する警告表示に限らず、警告音や警告音声の出力による警告出力を行う構成としてもよい。
  (ステップS105)
 ステップS104の警告出力後、ステップS105において手動運転への切り替えが完了したか否かを確認する。、
 先に図2を参照して説明したように表示部30には警告表示とともに、
 「手動運転に切り替える」と、「自動運転を継続する」の2つの選択部が表示される。
 ユーザ(運転者)が、「手動運転に切り替える」を選択し、ユーザ(運転者)が手動運転を開始し、正常な手動運転が実行されていることが確認された場合、自動運転モードから手動運転モードへの変更処理が実行される。
 一方、ユーザ(運転者)が、「自動運転を継続する」を選択し、ユーザ(運転者)が手動運転を開始しない場合、自動運転モードが継続して実行される。
 ステップS105では、ユーザ(運転者)が、「手動運転に切り替える」を選択し、ユーザ(運転者)が手動運転を開始し、正常な手動運転が実行されていることが確認された場合、処理を終了する。
 一方、ユーザ(運転者)が、「自動運転を継続する」を選択し、ユーザ(運転者)が手動運転を開始しない場合、自動運転モードが継続して実行する。さらに、ステップS102以下の処理を継続する。
 この場合、ユーザの酔い度合い推定値(P)が基準値(Pv)を超えた状態が継続している場合は、警告出力も継続、あるいは間欠的に出力されることになる。
 ユーザの酔い度合い推定値(P)が基準値(Pv)を下回った場合は、警告出力は停止される。
 図6を参照して説明したフローは、自動運転モード実行時におけるユーザ(運転者)の酔い度合い推定値(P)に基づく警告出力処理を説明するフローである。
 データ処理部は、この処理に併せて、警告出力後のユーザの操作情報を入力した学習処理による警告出力基準値(Pv)の更新処理を行う。
 この処理シーケンスについて、図7に示すフローチャートを参照して説明する。
 図7に示すフローチャートも図6のフローと同様、例えば記憶部に格納されたプログラムに従ってプログラム実行機能を有するCPU等を備えたデータ処理部において実行される。図5に示すデータ処理部20であり、データ処理部20は、記憶部に格納されたプログラムを読み出して、図7に示すフローに従った処理を実行する。
 以下、図7に示すフローチャートの各ステップの処理について、順次、説明する。
  (ステップS151)
 まずデータ処理部は、ステップS151において、ユーザが警告出力に対して、手動運転切り替えを選択したか否かを判定する。
 すなわち、図2に示す表示部30の警告出力に併せて表示された「手動運転に切り替える」をユーザ(運転者)が選択したか否かを判定する。
 選択が確認された場合は、ステップS152に進む。
  (ステップS152)
 次に、ステップS152において、ユーザ操作情報を取得する。
 この処理は、図5に示す観測データ取得部26において実行される。
 観測データ取得部26は、ユーザ(運転者)が、「手動運転に切り替える」を選択し、ユーザ(運転者)が手動運転を開始した後のユーザの操作情報を取得する。例えばハンドル(ステアリング)の操作情報や、アクセル、ブレーキ等のペダル部の操作情報等を取得する。
 観測データ取得部26が取得した観測情報は、学習処理部24に入力される。
  (ステップS153)
 次に、ステップS153において、ユーザ操作が正常な操作であるか否かを判定する。
 この処理は、図5に示す学習処理部24の実行する処理である。
 学習処理部24は、観測データ取得部26が取得した観測情報に基づいて、ユーザ(運転者)が手動運転を開始した直後に、正常な手動運転が行われているか否かを判定する。
 学習処理部24は、手動運転開始後のハンドル(ステアリング)操作情報、アクセル、ブレーキ等のペダル操作情報を取得して、これらの情報から、正常な手動運転が実行されているか否かを判定する。
 正常な手動運転が実行されていると判定した場合は、ステップS154に進む。
 一方、正常な手動運転が実行されていないと判定した場合は、ステップS155に進む。
  (ステップS154)
 ステップS153において、ユーザ(運転者)が手動運転を開始した直後に、正常な手動運転が行われていると判定した場合、ステップS154に進む。
 ステップS154では、警告出力基準値(Pv)を徐々に高くする基準値更新処理を実行する。
  (ステップS155)
 一方、ステップS153において、ユーザ(運転者)が手動運転を開始した直後に、正常な手動運転を行っていないと判定した場合は、ステップS155に進む。
 ステップS155では、警告出力基準値(Pv)を徐々に低下させる基準値更新処理を実行する。
 なお、ステップS154、S155において更新された警告出力基準値は、警告出力基準値格納部(学習データ格納部)25に格納される。
 この学習処理によって、警告出力基準値格納部(学習データ格納部)25に格納される警告出力基準値(Pv)が、各ユーザ(運転者)固有の値に、順次、更新される。
 ユーザ固有の最適な警告出力基準値(Pv)を、警告出力基準値格納部(学習データ格納部)25に格納して、利用することで、各ユーザ単位で最適な警告出力を行うことが可能となる。
  [3.生体センサを利用した実施例について]
 次に、実施例2として、生体センサを利用した実施例について説明する。
 図8に、本実施例2の自動車10bを示す。
 図8に示す自動車10bは、先に図1を参照して説明した自動車10に、生体センサ12を追加した構成である。
 その他の構成は、図1を参照して説明した構成と同様である。
 図8に示すように、自動車10bは、加速度センサ11、生体センサ12、データ処理部20、表示部30を有する。
 加速度センサ11は、自動車の加速度を検出する。
 生体センサ12は、運転者(ドライバ)50の様々な生体情報を取得するセンサであり、1つのセンサに限らず、複数のセンサの組み合わせによって構成可能である。
 例えば生体センサ12は振動センサであり、運転者(ドライバ)50の心拍鼓動による体動を検知して処理することで心拍数を計測する。
 なお、生体センサ12は、このような心拍数計測センサに限らず、例えば、以下のようなセンサも利用可能である。
 運転者(ドライバ)50の脈拍計測センサ、
 運転者(ドライバ)50の顔画像を撮影するカメラ、
 運転者(ドライバ)50の頭部の動き解析に基づく運転者(ドライバ)50の気分推定を可能とする頭部動き計測センサ、
 これらのセンサのいずれか、あるいは組み合わせ構成としてもよい。
 データ処理部20は、加速度センサ11と、生体センサ12の検出情報を入力して、自動運転実行時の運転者50の酔い度合いを推定する。さらに、運転者50の酔い度合いが予め規定した基準値に達したと判定した場合、運転者50に対して自動運転から手動運転に切り替えるように促す警告(アラーム)を出力する。
 警告(アラーム)は、例えば表示部30に対する警告表示や、警告音の出力によって実行される。
 表示部30に対する警告表示は、例えば先に図2を参照して説明した表示として行われる。
 次に、図9を参照して本実施例のデータ処理部20の構成と処理について説明する。
 図9に示すデータ処理部20は、先に図5を参照して説明した構成と同様の構成であり、以下の構成要素を有する。
 酔い度合い推定部21、警告出力要否判定部22、警告出力実行部23、学習処理部24、警告出力基準値格納部(学習データ格納部)25、観測データ取得部26を有する。
 ただし、酔い度合い推定部21は、加速度センサ11から自動車10の加速度情報を入力するとともに、生体センサ12から運転者50の生体情報を入力し、加速度情報と生体情報に基づいて運転者の酔い度合いを推定する。
 加速度情報に基づく酔い度合い推定処理は、先に図3、図4を参照して説明した処理と同様の処理である。
 すなわち、先に説明した(式2)に従って算出されるMSDV、または(式2)と(式3)を適用して算出されるIR、いずれかの値を酔い度合い推定値(P1)として算出する。
 あるいは、(式4)、(式5)を適用して、酔い度合い推定値(P1)を算出する。
 生体センサ12の検出した生体情報に基づく酔い度合い推定処理は、生体センサ12の検出情報に応じて、様々な処理が行われる。
 例えば生体センサ12が運転者50の心拍数を検出するセンサである場合、酔い度合い推定部21は運転者50の心拍数に基づく酔い度合い推定処理を実行する。なお、心拍数に基づく酔い度合い推定処理については、例えば特許文献3(特開平5-245149号公報)に記載がある。この既存技術を適用して酔い度合い推定を行うことが可能である。
 また、例えば生体センサ12として運転者の頭部の動きを検出するセンサを用いた構成では、運転者の頭部動きと情報に基づく酔い度合い推定処理を実行する。
 運転者の頭部動きと情報に基づく酔い度合い推定処理については、例えば特許文献4(特許第4882433号公報)に記載がある。この既存技術を適用して酔い度合い推定を行うことが可能である。
 このように、酔い度合い推定部21は、
 加速度情報に基づく酔い度合い推定値(P1)と、
 生体情報に基づく酔い度合い推定値(P2)を、
 個別に算出する。
 さらに、酔い度合い推定部21は、上記2つの推定値(P1,P2)を総合して運転者の最終的な酔い度合い推定値(P)を算出する。
 例えば、以下の重み付け加算式に従って算出する。
 P=α・P1+β・P2
 上記式に従って、運転者の最終的な酔い度合い推定値(P)を算出する。
 上記式において、α,βは、0~1の範囲で、α+β=1を満たす乗算係数であり、予め規定された値を用いる。
 上記式に従って算出された運転者の最終的な酔い度合い推定値(P)は、先に図3を参照して説明したグラフの縦軸の酔い度合い推定値(P)に相当する値となる。
 酔い度合い推定部21の算出した酔い度合い推定値(P)は、警告出力要否判定部22と、学習処理部24に入力される。
 警告出力要否判定部22は、酔い度合い推定部21から入力する酔い度合い推定値(P)と、警告出力基準値格納部(学習データ格納部)25に格納された警告出力基準値(Pv)とを比較する。
 酔い度合い推定部21から入力した酔い度合い推定値(P)が、警告出力基準値(Pv)以上、すなわち、
 P≧Pv
 上記判定式が成立すると判定した場合、警告出力実行部23に対して警告出力の実行要求を出力する。
 警告出力実行部23は、警告出力要否判定部22から警告出力の実行要求を入力すると、表示部30に対する警告出力を実行する。
 警告表示は、先に図2を参照して説明した表示であり、
 「酔い度合いが基準を超えました。手動運転に切り替えて酔いの悪化を予防しましょう」
 この警告表示を実行して、運転者に手動運転の開始を促す。
 なお、警告出力実行部23は、表示部30に対する警告表示に限らず、警告音や警告音声の出力によって警告出力を行う構成としてもよい。
 観測データ取得部26は、ユーザ(運転者)が、「手動運転に切り替える」を選択し、ユーザ(運転者)が手動運転を開始した後のユーザの操作情報を取得する。例えばハンドル(ステアリング)の操作情報や、アクセル、ブレーキ等のペダル部の操作情報等を取得する。
 さらに、本実施例では、生体センサ12から生体情報も取得する。
 観測データ取得部26が取得した観測情報であるユーザ操作情報と、生体情報は、学習処理部24に入力される。
 学習処理部24は、観測データ取得部26が取得した観測情報であるユーザ操作情報と、生体情報に基づいて、ユーザ(運転者)が手動運転を開始した直後に、正常な手動運転が行われているか否か、さらに、ユーザの酔い度合いが低下したか否かを判定する。
 学習処理部24は、手動運転開始後のハンドル(ステアリング)操作情報、アクセル、ブレーキ等のペダル操作情報を取得して、これらの情報から、正常な手動運転が実行されているか否かを判定する。
 さらに、学習処理部24は、手動運転開始後のユーザ(運転者)の生体情報を取得して、ユーザ(運転者)の酔い度合いを判定する。
 これらの判定情報に基づいて、その運転者対応の警告出力基準値(Pv)の最適値を算出する。
 学習処理部24は、ユーザ(運転者)が、警告表示に従って手動運転を開始するタイミング毎に、ユーザの操作情報や生体情報を取得し、取得データに基づく学習処理を行う。
 すなわち、ユーザ(運転者)固有の最適な警告出力基準値(Pv)の算出する学習処理を行う。学習データの結果データ、すなわち、ユーザ(運転者)固有の最適な警告出力基準値(Pv)は警告出力基準値格納部(学習データ格納部)25に格納される。
 例えば、警告出力直後に観測データ取得部26から入力するユーザ操作情報に基づいてユーザ(運転者)が正常な手動運転を行っていることが確認された場合は、警告出力基準値(Pv)を徐々に高くする基準値更新処理を実行する。
 さらに、手動運転開始時のユーザの生体情報を取得して、取得した生体情報が、正常な手動運転を実行可能な低い酔い度合いの状態を示す生体情報であると判定する。
 一方、警告出力後に観測データ取得部26から入力するユーザ操作情報に基づいてユーザ(運転者)が正常な手動運転を行っていないと判定した場合は、警告出力基準値(Pv)を徐々に低下させる基準値更新処理を実行する。
 さらに、手動運転開始時のユーザの生体情報を取得して、取得した生体情報が、正常な手動運転を実行できない高い酔い度合いの状態を示す生体情報であると判定する。
 更新された警告出力基準値は、警告出力基準値格納部(学習データ格納部)25に格納する。
 さらに、取得した生体情報と酔い度合いとの関係データについても警告出力基準値格納部(学習データ格納部)25に格納する。
 なお、警告出力基準値格納部(学習データ格納部)25に初期的に格納される警告出力基準値(Pv)は、予め規定した値を用いる。例えば、すべての運転者に共通な値を格納する。
 その後の学習処理によって、この値が、各ユーザ(運転者)固有の値に、順次、更新される。
 また、警告出力基準値格納部(学習データ格納部)25に格納された生体情報と酔い度合いとの関係データは、酔い度合い推定部21における酔い度合いの推定処理に際して参照され、より正確な酔い度合い推定処理を行うための補助情報として利用される。
 酔い度合いには、個人差があり、すべての運転者に共通な値を用いることが必ずしも最適でない場合がある。
 本開示の処理では、警告出力直後の手動運転の操作情報に基づく学習処理によって、各個人固有の最適な警告出力基準値(Pv)を算出して適用可能とするとともに、警告出力直後の手動運転開始時の生体情報に基づいて、ユーザ固有の生体情報と酔い度合いとの関係データを蓄積し、その後の酔い度合い推定処理に適用可能な構成としている。
 また、生体センサ12の検出情報を警告出力要否判定部22に入力し、警告出力要否判定部22において、生体センサ12の検出情報に基づいて警告出力基準値を、直接変更する構成としてもよい。
 例えば、生体センサ12として運転者のストレス状態を計測するセンサを装着し、生体センサ12の取得した運転者ストレス情報を警告出力要否判定部22に入力し、警告出力要否判定部22において、運転者のストレス状態が高いと判定した場合、警告出力基準値を低下させるといった対応を行う。
  [4.環境センサを利用した実施例について]
 次に、実施例3として、環境センサを利用した実施例について説明する。
 図10に、本実施例の自動車10cを示す。
 図10に示す自動車10cは、先に図8を参照して説明した自動車1b0に、さらに環境センサ13を追加した構成である。
 その他の構成は、図8を参照して説明した構成と同様である。
 図10に示すように、自動車10cは、加速度センサ11、生体センサ12、環境センサ13、データ処理部20、表示部30を有する。
 加速度センサ11は、自動車の加速度を検出する。
 生体センサ12は、運転者(ドライバ)50の様々な生体情報を取得するセンサであり、1つのセンサに限らず、複数のセンサの組み合わせによって構成可能である。
 例えば以下のようなセンサによって構成される。
 生体センサ12は、例えば運転者(ドライバ)50の心拍数を計測するセンサ、
 運転者(ドライバ)50の脈拍計測センサ、
 運転者(ドライバ)50の顔画像を撮影するカメラ、
 運転者(ドライバ)50の頭部の動き解析に基づく運転者(ドライバ)50の気分推定を行う頭部動き計測センサ、
 例えば、これらのセンサである。
 環境センサ13は、様々な環境情報を取得するセンサであり、1つのセンサに限らず、複数のセンサの組み合わせによって構成可能である。
 環境センサ13の一例として、例えば、自動車10cの走行ルート情報取得センサがある。
 走行ルート情報取得センサは、ナビゲーションシステムから目的地設定情報と緯度経度情報を取得する。あるいは、自動運転において利用される高精度地図情報であるローカルダイナミックマップを利用して走行ルート情報取得する構成としてもよい。
 また、環境センサ13として、周辺の交通量情報を取得するセンサ、運転者の予定情報、運転者の同行者情報を取得するセンサ等が利用可能である。
 データ処理部20は、加速度センサ11と、生体センサ12の検出情報を入力して、自動運転実行時の運転者50の酔い度合いを推定する。さらに、運転者50の酔い度合いが予め規定した警告出力基準値(Pv)に達したと判定した場合、運転者50に対して自動運転から手動運転に切り替えるように促す警告(アラーム)を出力する。
 また、環境センサ13のセンサ検出情報に基づいて、警告出力基準値(Pv)を変更する制御を行う。
 警告(アラーム)は、例えば表示部30に対する警告表示や、警告音の出力によって実行される。
 表示部30に対する警告表示は、例えば先に図2を参照して説明した表示として行われる。
 次に、図11を参照して本実施例のデータ処理部20の構成と処理について説明する。
 図11に示すデータ処理部20は、先に図5を参照して説明した構成と同様の構成であり、以下の構成要素を有する。
 酔い度合い推定部21、警告出力要否判定部22、警告出力実行部23、学習処理部24、警告出力基準値格納部(学習データ格納部)25、観測データ取得部26を有する。
 ただし、酔い度合い推定部21は、加速度センサ11から自動車10の加速度情報を入力し、生体センサ12から運転者50の生体情報を入力する。
 酔い度合い推定部21は、加速度情報と生体情報に基づいて運転者の酔い度合いを推定する。
 また、警告出力要否判定部22は、環境センサ13のセンサ検出情報を入力して、警告出力基準値(Pv)を変更する制御を行う。
 酔い度合い推定部21における加速度情報に基づく酔い度合い推定処理は、先に図3、図4を参照して説明した処理と同様の処理である。
 すなわち、先に説明した(式2)に従って算出されるMSDV、または(式2)と(式3)を適用して算出されるIR、いずれかの値を酔い度合い推定値(P1)として算出する。
 あるいは、(式4)、(式5)を適用して、酔い度合い推定値(P1)を算出する。
 生体センサ12の検出した生体情報に基づく酔い度合い推定処理は、先の実施例において説明した処理と同様の処理である。
 例えば生体センサ12の検出する運転者50の心拍数に基づく酔い度合い推定処理などが実行される。
 酔い度合い推定部21は、
 加速度情報に基づく酔い度合い推定値(P1)と、
 生体情報に基づく酔い度合い推定値(P2)、
 これらを総合して運転者の最終的な酔い度合い推定値(P)を算出する。
 例えば、以下の重み付け加算式に従って算出する。
 P=α・P1+β・P2
 上記式に従って、運転者の最終的な酔い度合い推定値(P)を算出する。
 上記式において、α,βは、0~1の範囲で、α+β=1を満たす乗算係数であり、予め規定された値である。
 上記式に従って算出された運転者の最終的な酔い度合い推定値(P)は、先に図3を参照して説明したグラフの縦軸の酔い度合い推定値(P)に相当する値となる。
 酔い度合い推定部21の算出した酔い度合い推定値(P)は、警告出力要否判定部22と、学習処理部24に入力される。
 警告出力要否判定部22は、酔い度合い推定部21から入力する酔い度合い推定値(P)と、警告出力基準値格納部(学習データ格納部)25に格納された警告出力基準値(Pv)とを比較する。
 酔い度合い推定部21から入力した酔い度合い推定値(P)が、警告出力基準値(Pv)以上、すなわち、
 P≧Pv
 上記判定式が成立すると判定した場合、警告出力実行部23に対して警告出力の実行要求を出力する。
 なお、警告出力要否判定部22には、環境センサ13の取得した環境情報も入力される。
 例えば、自動車が狭い道路を走行中である、あるいは渋滞しているといった環境情報が得られている場合、警告基準値格納部25から取得した警告出力基準値(Pv)より小さい基準値(Pv1)を適用して、酔い度合い推定部21から入力した酔い度合い推定値(P)との比較処理を行う。すなわち、
 P≧Pv1
 上記判定式が成立すると判定した場合は、警告出力実行部23に対して警告出力の実行要求を出力する。
 逆に、自動車が広い道路を走行中である、あるいは空いた道路を走行しているといった環境情報が得られている場合、警告基準値格納部25から取得した警告出力基準値(Pv)より大きい基準値(Pv2)を適用して、酔い度合い推定部21から入力した酔い度合い推定値(P)との比較処理を行う。すなわち、
 P≧Pv2
 上記判定式が成立すると判定した場合は、警告出力実行部23に対して警告出力の実行要求を出力する。
 また、例えば同乗者がいいる場合と、いない場合とで、警告出力基準値格納部(学習データ格納部)25から取得した警告出力基準値(Pv)を変更して適用するといった処理を行ってもよい。
 警告出力実行部23は、警告出力要否判定部22から警告出力の実行要求を入力すると、表示部30に対する警告出力を実行する。
 警告表示は、先に図2を参照して説明した表示であり、
 「酔い度合いが基準を超えました。手動運転に切り替えて酔いの悪化を予防しましょう」
 この警告表示を実行して、運転者に手動運転の開始を促す。
 なお、警告出力実行部23は、表示部30に対する警告表示の他、警告音の出力によって警告出力を行ってもよい。
 観測データ取得部26は、ユーザ(運転者)が、「手動運転に切り替える」を選択し、ユーザ(運転者)が手動運転を開始した後のユーザの操作情報を取得する。例えばハンドル(ステアリング)の操作情報や、アクセル、ブレーキ等のペダル部の操作情報等を取得し、さらに、生体センサ12から生体情報を取得する。
 さらに環境センサ13からの環境情報も取得する。
 観測データ取得部26が取得した観測情報であるユーザ操作情報と、生体情報と、環境情報は、学習処理部24に入力される。
 本実施例では、学習処理部24は、環境情報を適用した学習処理を行う。例えば環境情報として、目的地までの走行ルート情報が取得されている場合、目的地までの距離が長いか短いかを判定し、短い場合は警告出力基準値(Pv)を高く設定するといった処理を行う。これによって、自動運転中運転者の酔い度合いが高くても、目的地に近ければ通知基準となる酔い度合いの閾値が上がり、通知が発生しにくくなる。
 また、環境情報として、同乗者検出情報が含まれる場合は、酔いが発生しにくいと判定し、警告出力基準値(Pv)を高く設定するといった処理を行う。
  [5.その他の実施例について]
 次に、その他の実施例について説明する。
 上述した実施例では、自動運転モード実行中の運転者の酔い度合いが警告出力基準値に達すると警告出力を行い、運転者に手動運転を促すという処理を行っているが、さらに、運転者が手動運転を開始した後も、運転者の酔い度合いの推定処理を継続し、酔い度合いが低下しない場合は、自動運転モードから手動運転モードへの切り替えを行うことなく、自動運転モードを継続する構成としてもよい。
 さらに、例えば、図6に示すフローのステップS105における手動運転切り替え完了後に、運転者の酔い度合いの推定処理を継続し、運転者の酔い度合いが低下せずに高くなった場合に緊急車両停止や速度低下処理などを行う構成としてもよい。
 また、先に図2を参照して説明したように、表示部30には手動運転への切り替えを促す警告表示に併せて、「手動運転に切り替える」と、「自動運転を継続する」、これら2つのユーザ選択部が表示され、ユーザ(運転者)は、警告出力後も、表示部30に表示された「自動運転を継続する」をタッチすることで、自動運転を継続させることができる。
 このように、警告出力後も運転者が自動運転を継続した場合、ユーザ選択情報を学習処理部24に入力し、学習処理部24において、警告出力基準値(Pv)を高くする処理を行う構成としてもよい。
 警告出力後も運転者が自動運転を継続させるということは、運転者が酔い度合いが低いという自覚を持っていると判断できるからである。
 すなわち、警告通知基準が運転者の主観的な基準よりも低いと判定し、警告出力基準値(Pv)を高くする。この制御により、運転者に対する無駄な警告通知を低減できる。
 また、上述した実施例では、警告通知の態様を表示部30に対する表示処理を中心として説明したが、音声による通知を行ってもよい。
 また、上記実施例では、表示部30をタッチパネルとして、「手動運転に切り替える」と、「自動運転を継続する」、これら2つの選択部に対するタッチ処理でユーザ入力を可能としたユーザインタフェース構成を説明した。
 ユーザインタフェースはこのようなタッチパネル方式のみならず、その他の方式も利用可能である。例えば、マイクによる音声入力、カメラによるジェスチャ認識、ハンドルやペダル操作の開始をトリガとして手動運転の開始確認を行うといった、様々なインタフェース構成が利用可能である。
 さらに、自動運転を継続した場合、生体センサ12によって計測している心拍数や、心拍数から導出するLF/HFなどの心拍変動特徴量を学習処理部24に入力して、学習処理部24が警告出力基準値(Pv)を更新する構成としてもよい。
 また、上記実施例では、酔い度合い推定部21は、加速度センサ11の検出情報、あるいは生体センサ12の検出情報を用いて運転者の酔い度合いを推定する構成としていた。
 この酔い度合い推定は、さらに、運転者の自己申告によって行う構成としてもよい、
 例えば、酔い度合いが高まってきたことを運転者が音声入力、あるいはボタン、タッチインタフェースなどを利用して入力(自己申告)する構成としてもよい
 さらに、上述した実施例では、自動車内にすべての処理部を構成した設定としているが、これらの処理部の一部は自動車外に構成することも可能である。
 例えば運転者が利用可能なスマートフォンやウェアラブルデバイスなど、または外部サーバなどに、一部の処理機能を搭載する構成としてもよい。例えば自動車と外部サーバ間で通信を実行して、一部の処理をサーバ側で実行する構成などが可能である。
 また、運転者が装着するウェアラブルデバイスで脈拍数を計測し、スマートフォンにブルートゥース(登録商標)通信で送信する。さらに、スマートフォンで脈拍数の時間変化から酔い度合いを推定し、警告出力基準値(Pv)と比較して警告出力を行うか否かを判定する。酔い度合いが警告出力基準値(Pv)以上となった場合、スマートフォンで音声とフラッシュライトによって警告の通知を行う。
 例えば、このように外部機器を利用した構成が可能である。
 特に処理負荷が大きい学習処理部の処理は、外部サーバにおいて実行する構成とすることで、自動車の処理負荷を低減することが可能となる。
  [6.移動装置内の車両制御システムの構成例について]
 次に、図12を参照して移動装置内の車両制御システムの一構成例について説明する。
 図12は、上述した処理を実行する移動装置である自動車10に備えられた車両制御システム100の概略的な機能の構成例を示すブロック図である。
 なお、以下、車両制御システム100が設けられている車両を他の車両と区別する場合、自車又は自車両と称する。
 車両制御システム100は、入力部101、データ取得部102、通信部103、車内機器104、出力制御部105、出力部106、駆動系制御部107、駆動系システム108、ボディ系制御部109、ボディ系システム110、記憶部111、及び、自動運転制御部112を備える。入力部101、データ取得部102、通信部103、出力制御部105、駆動系制御部107、ボディ系制御部109、記憶部111、及び、自動運転制御部112は、通信ネットワーク121を介して、相互に接続されている。通信ネットワーク121は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、又は、FlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等からなる。なお、車両制御システム100の各部は、通信ネットワーク121を介さずに、直接接続される場合もある。
 なお、以下、車両制御システム100の各部が、通信ネットワーク121を介して通信を行う場合、通信ネットワーク121の記載を省略するものとする。例えば、入力部101と自動運転制御部112が、通信ネットワーク121を介して通信を行う場合、単に入力部101と自動運転制御部112が通信を行うと記載する。
 入力部101は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部101は、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。また、例えば、入力部101は、赤外線若しくはその他の電波を利用したリモートコントロール装置、又は、車両制御システム100の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器であってもよい。入力部101は、搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム100の各部に供給する。
 データ取得部102は、車両制御システム100の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを、車両制御システム100の各部に供給する。
 例えば、データ取得部102は、自車の状態等を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
 また、例えば、データ取得部102は、自車の外部の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ToF(Time Of Flight)カメラ、可視光カメラ、ステレオカメラ、単眼カメラ、(遠)赤外線カメラ、及び、その他のカメラ等の撮像装置を備える。また、例えば、データ取得部102は、天候又は気象等を検出するための環境センサ、及び、自車の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
 さらに、例えば、データ取得部102は、自車の現在位置を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号を受信するGNSS受信機等を備える。
 また、例えば、データ取得部102は、車内の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、運転者を撮像する撮像装置、運転者の生体情報を検出する生体センサ、及び、車室内の音声を集音するマイクロフォン等を備える。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座っている搭乗者又はステアリングホイールを握っている運転者の生体情報を検出する。
 通信部103は、車内機器104、並びに、車外の様々な機器、サーバ、基地局等と通信を行い、車両制御システム100の各部から供給されるデータを送信したり、受信したデータを車両制御システム100の各部に供給したりする。なお、通信部103がサポートする通信プロトコルは、特に限定されるものではなく、また、通信部103が、複数の種類の通信プロトコルをサポートすることも可能である
 例えば、通信部103は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、又は、WUSB(Wireless USB)等により、車内機器104と無線通信を行う。また、例えば、通信部103は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、又は、MHL(Mobile High-definition Link)等により、車内機器104と有線通信を行う。
 さらに、例えば、通信部103は、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信を行う。また、例えば、通信部103は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又は、MTC(Machine Type Communication)端末)との通信を行う。さらに、例えば、通信部103は、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、自車と家との間(Vehicle to Home)の通信、及び、歩車間(Vehicle to Pedestrian)通信等のV2X通信を行う。また、例えば、通信部103は、ビーコン受信部を備え、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行規制又は所要時間等の情報を取得する。
 車内機器104は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、自車に搬入され若しくは取り付けられる情報機器、及び、任意の目的地までの経路探索を行うナビゲーション装置等を含む。
 出力制御部105は、自車の搭乗者又は車外に対する各種の情報の出力を制御する。例えば、出力制御部105は、視覚情報(例えば、画像データ)及び聴覚情報(例えば、音声データ)のうちの少なくとも1つを含む出力信号を生成し、出力部106に供給することにより、出力部106からの視覚情報及び聴覚情報の出力を制御する。具体的には、例えば、出力制御部105は、データ取得部102の異なる撮像装置により撮像された画像データを合成して、俯瞰画像又はパノラマ画像等を生成し、生成した画像を含む出力信号を出力部106に供給する。また、例えば、出力制御部105は、衝突、接触、危険地帯への進入等の危険に対する警告音又は警告メッセージ等を含む音声データを生成し、生成した音声データを含む出力信号を出力部106に供給する。
 出力部106は、自車の搭乗者又は車外に対して、視覚情報又は聴覚情報を出力することが可能な装置を備える。例えば、出力部106は、表示装置、インストルメントパネル、オーディオスピーカ、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ、ランプ等を備える。出力部106が備える表示装置は、通常のディスプレイを有する装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)表示機能を有する装置等の運転者の視野内に視覚情報を表示する装置であってもよい。
 駆動系制御部107は、各種の制御信号を生成し、駆動系システム108に供給することにより、駆動系システム108の制御を行う。また、駆動系制御部107は、必要に応じて、駆動系システム108以外の各部に制御信号を供給し、駆動系システム108の制御状態の通知等を行う。
 駆動系システム108は、自車の駆動系に関わる各種の装置を備える。例えば、駆動系システム108は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。
 ボディ系制御部109は、各種の制御信号を生成し、ボディ系システム110に供給することにより、ボディ系システム110の制御を行う。また、ボディ系制御部109は、必要に応じて、ボディ系システム110以外の各部に制御信号を供給し、ボディ系システム110の制御状態の通知等を行う。
 ボディ系システム110は、車体に装備されたボディ系の各種の装置を備える。例えば、ボディ系システム110は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、パワーシート、ステアリングホイール、空調装置、及び、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカ、フォグランプ等)等を備える。
 記憶部111は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイス等を備える。記憶部111は、車両制御システム100の各部が用いる各種プログラムやデータ等を記憶する。例えば、記憶部111は、ダイナミックマップ等の3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ、及び、自車の周囲の情報を含むローカルマップ等の地図データを記憶する。
 自動運転制御部112は、自律走行又は運転支援等の自動運転に関する制御を行う。具体的には、例えば、自動運転制御部112は、自車の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自車の衝突警告、又は、自車のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行う。また、例えば、自動運転制御部112は、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行う。自動運転制御部112は、検出部131、自己位置推定部132、状況分析部133、計画部134、及び、動作制御部135を備える。
 検出部131は、自動運転の制御に必要な各種の情報の検出を行う。検出部131は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143を備える。
 車外情報検出部141は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の外部の情報の検出処理を行う。例えば、車外情報検出部141は、自車の周囲の物体の検出処理、認識処理、及び、追跡処理、並びに、物体までの距離の検出処理を行う。検出対象となる物体には、例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。また、例えば、車外情報検出部141は、自車の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び、路面の状態等が含まれる。車外情報検出部141は、検出処理の結果を示すデータを自己位置推定部132、状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153、並びに、動作制御部135の緊急事態回避部171等に供給する。
 車内情報検出部142は、車両制御システム100の各部からのデータ又は信号に基づいて、車内の情報の検出処理を行う。例えば、車内情報検出部142は、運転者の認証処理及び認識処理、運転者の状態の検出処理、搭乗者の検出処理、及び、車内の環境の検出処理等を行う。検出対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線方向等が含まれる。検出対象となる車内の環境には、例えば、気温、湿度、明るさ、臭い等が含まれる。車内情報検出部142は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
 車両状態検出部143は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の状態の検出処理を行う。検出対象となる自車の状態には、例えば、速度、加速度、舵角、異常の有無及び内容、運転操作の状態、パワーシートの位置及び傾き、ドアロックの状態、並びに、その他の車載機器の状態等が含まれる。車両状態検出部143は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
 自己位置推定部132は、車外情報検出部141、及び、状況分析部133の状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の位置及び姿勢等の推定処理を行う。また、自己位置推定部132は、必要に応じて、自己位置の推定に用いるローカルマップ(以下、自己位置推定用マップと称する)を生成する。自己位置推定用マップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。自己位置推定部132は、推定処理の結果を示すデータを状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153等に供給する。また、自己位置推定部132は、自己位置推定用マップを記憶部111に記憶させる。
 状況分析部133は、自車及び周囲の状況の分析処理を行う。状況分析部133は、マップ解析部151、交通ルール認識部152、状況認識部153、及び、状況予測部154を備える。
 マップ解析部151は、自己位置推定部132及び車外情報検出部141等の車両制御システム100の各部からのデータ又は信号を必要に応じて用いながら、記憶部111に記憶されている各種のマップの解析処理を行い、自動運転の処理に必要な情報を含むマップを構築する。マップ解析部151は、構築したマップを、交通ルール認識部152、状況認識部153、状況予測部154、並びに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
 交通ルール認識部152は、自己位置推定部132、車外情報検出部141、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の周囲の交通ルールの認識処理を行う。この認識処理により、例えば、自車の周囲の信号の位置及び状態、自車の周囲の交通規制の内容、並びに、走行可能な車線等が認識される。交通ルール認識部152は、認識処理の結果を示すデータを状況予測部154等に供給する。
 状況認識部153は、自己位置推定部132、車外情報検出部141、車内情報検出部142、車両状態検出部143、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の認識処理を行う。例えば、状況認識部153は、自車の状況、自車の周囲の状況、及び、自車の運転者の状況等の認識処理を行う。また、状況認識部153は、必要に応じて、自車の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識用マップは、例えば、占有格子地図(Occupancy Grid Map)とされる。
 認識対象となる自車の状況には、例えば、自車の位置、姿勢、動き(例えば、速度、加速度、移動方向等)、並びに、異常の有無及び内容等が含まれる。認識対象となる自車の周囲の状況には、例えば、周囲の静止物体の種類及び位置、周囲の動物体の種類、位置及び動き(例えば、速度、加速度、移動方向等)、周囲の道路の構成及び路面の状態、並びに、周囲の天候、気温、湿度、及び、明るさ等が含まれる。認識対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線の動き、並びに、運転操作等が含まれる。
 状況認識部153は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部132及び状況予測部154等に供給する。また、状況認識部153は、状況認識用マップを記憶部111に記憶させる。
 状況予測部154は、マップ解析部151、交通ルール認識部152及び状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の予測処理を行う。例えば、状況予測部154は、自車の状況、自車の周囲の状況、及び、運転者の状況等の予測処理を行う。
 予測対象となる自車の状況には、例えば、自車の挙動、異常の発生、及び、走行可能距離等が含まれる。予測対象となる自車の周囲の状況には、例えば、自車の周囲の動物体の挙動、信号の状態の変化、及び、天候等の環境の変化等が含まれる。予測対象となる運転者の状況には、例えば、運転者の挙動及び体調等が含まれる。
 状況予測部154は、予測処理の結果を示すデータを、交通ルール認識部152及び状況認識部153からのデータとともに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
 ルート計画部161は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部161は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、例えば、ルート計画部161は、渋滞、事故、通行規制、工事等の状況、及び、運転者の体調等に基づいて、適宜ルートを変更する。ルート計画部161は、計画したルートを示すデータを行動計画部162等に供給する。
 行動計画部162は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、ルート計画部161により計画されたルートを計画された時間内で安全に走行するための自車の行動を計画する。例えば、行動計画部162は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行車線、走行速度、及び、追い越し等の計画を行う。行動計画部162は、計画した自車の行動を示すデータを動作計画部163等に供給する
 動作計画部163は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、行動計画部162により計画された行動を実現するための自車の動作を計画する。例えば、動作計画部163は、加速、減速、及び、走行軌道等の計画を行う。動作計画部163は、計画した自車の動作を示すデータを、動作制御部135の加減速制御部172及び方向制御部173等に供給する。
 動作制御部135は、自車の動作の制御を行う。動作制御部135は、緊急事態回避部171、加減速制御部172、及び、方向制御部173を備える。
 緊急事態回避部171は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143の検出結果に基づいて、衝突、接触、危険地帯への進入、運転者の異常、車両の異常等の緊急事態の検出処理を行う。緊急事態回避部171は、緊急事態の発生を検出した場合、急停車や急旋回等の緊急事態を回避するための自車の動作を計画する。緊急事態回避部171は、計画した自車の動作を示すデータを加減速制御部172及び方向制御部173等に供給する。
 加減速制御部172は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための加減速制御を行う。例えば、加減速制御部172は、計画された加速、減速、又は、急停車を実現するための駆動力発生装置又は制動装置の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
 方向制御部173は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための方向制御を行う。例えば、方向制御部173は、動作計画部163又は緊急事態回避部171により計画された走行軌道又は急旋回を実現するためのステアリング機構の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
  [7.情報処理装置の構成例について]
 図12は、上述した処理を実行する移動装置内に装着可能な移動体制御システムの一例である車両制御システム100の構成であるが、先に説明した実施例に従った処理は、様々なセンサの検出情報をPC等の情報処理装置に入力して行う構成とすることも可能である。
 この場合の情報処理装置の具体的なハードウェア構成例について、図13を参照して説明する。
 図13は、一般的なPC等の情報処理装置のハードウェア構成例を示す図である。
 CPU(Central Processing Unit)301は、ROM(Read Only Memory)302、または記憶部308に記憶されているプログラムに従って各種の処理を実行するデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。RAM(Random Access Memory)303には、CPU301が実行するプログラムやデータなどが記憶される。これらのCPU301、ROM302、およびRAM303は、バス304により相互に接続されている。
 CPU301はバス304を介して入出力インタフェース305に接続され、入出力インタフェース305には、各種スイッチ、キーボード、タッチパネル、マウス、マイクロフォン、さらに、センサ、カメラ、GPS等の状況データ取得部などよりなる入力部306、ディスプレイ、スピーカなどよりなる出力部307が接続されている。
 なお、入力部306には、センサ321からの入力情報も入力される。
 また、出力部307は、移動装置の駆動部322に対する駆動情報も出力する。
 CPU301は、入力部306から入力される指令や状況データ等を入力し、各種の処理を実行し、処理結果を例えば出力部307に出力する。
 入出力インタフェース305に接続されている記憶部308は、例えばハードディスク等からなり、CPU301が実行するプログラムや各種のデータを記憶する。通信部309は、インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部として機能し、外部の装置と通信する。
 入出力インタフェース305に接続されているドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア311を駆動し、データの記録あるいは読み取りを実行する。
  [8.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) 車両に備えられた加速度センサの検出情報を入力して、自動運転実行中の車両の乗員の乗り物酔い度合いを推定する酔い度合い推定部と、
 前記酔い度合い推定部の推定した酔い度合い推定値と、予め規定した警告出力基準値を比較する警告出力要否判定部と、
 前記酔い度合い推定値が、前記警告出力基準値以上となった場合に、自動運転から手動運転への切り替えを促す警告出力を実行する警告出力実行部を有する情報処理装置。
 (2) 前記情報処理装置は、さらに、
 前記警告出力後の運転者の操作情報を取得する観測データ取得部と、
 前記観測データ取得部の取得した操作情報に基づく学習処理を実行して、運転者固有の警告出力基準値を算出する学習処理部を有する(1)に記載の情報処理装置。
 (3) 前記学習処理部は、
 前記警告出力後の運転者の操作が正常な運転操作であると判定した場合は、前記警告出力基準値を上昇させ、
 正常な運転操作でないと判定した場合は、前記警告出力基準値を低下させる警告出力基準値変更処理を行う(2)に記載の情報処理装置。
 (4) 前記酔い度合い推定部は、
 自動運転実行時間の継続時間に応じて前記酔い度合いが上昇する酔い度合い算出式を適用して酔い度合い算出処理を実行する(1)~(3)いずれかに記載の情報処理装置。
 (5) 前記酔い度合い推定部は、
 車両に備えられた生体センサの検出情報を入力して、自動運転実行中の乗員の酔い度合いを推定する(1)~(4)いずれかに記載の情報処理装置。
 (6) 前記生体センサは、乗員の心拍数検出センサである(5)に記載の情報処理装置。
 (7) 前記酔い度合い推定部は、
 前記加速度センサの検出情報に基づいて算出した酔い度合い推定値と、
 前記生体センサの検出情報に基づいて算出した酔い度合い推定値との2種類の酔い度合い推定値を重み付け加算して、最終的な乗員の酔い度合い推定値を算出する(5)または(6)に記載の情報処理装置。
 (8) 警告出力要否判定部は、
 環境センサの検出情報を入力して、入力値に基づいて前記警告出力基準値を変更する(1)~(7)いずれかに記載の情報処理装置。
 (9) 移動装置の加速度を計測する加速度センサと、
 前記加速度センサの検出情報を入力して、自動運転実行中の前記移動装置の乗員の乗り物酔い度合いを推定する酔い度合い推定部と、
 前記酔い度合い推定部の推定した酔い度合い推定値と、予め規定した警告出力基準値を比較する警告出力要否判定部と、
 前記酔い度合い推定値が、前記警告出力基準値以上となった場合に、自動運転から手動運転への切り替えを促す警告出力を実行する警告出力実行部を有する移動装置。
 (10) 前記移動装置は、さらに、
 前記警告出力後の運転者の操作情報を取得する観測データ取得部と、
 前記観測データ取得部の取得した操作情報に基づく学習処理を実行して、運転者固有の警告出力基準値を算出する学習処理部を有する(9)に記載の移動装置。
 (11) 前記観測データ取得部の取得する運転者の操作情報は、
 ハンドル、アクセル、またはブレーキの少なくともいずれかの操作情報を含む(10)に記載の移動装置。
 (12) 前記学習処理部は、
 前記警告出力後の運転者の操作が正常な運転操作であると判定した場合は、前記警告出力基準値を上昇させ、
 正常な運転操作でないと判定した場合は、前記警告出力基準値を低下させる警告出力基準値変更処理を行う(10)または(11)に記載の移動装置。
 (13) 前記移動装置は、さらに、
 前記乗員の生体情報を取得する生体センサを有し、
 前記酔い度合い推定部は、
 前記生体センサの検出情報を入力して、自動運転実行中の乗員の酔い度合いを推定する(9)~(12)いずれかに記載の移動装置。
 (14) 前記生体センサは、乗員の心拍数検出センサである(13)に記載の移動装置。
 (15) 前記酔い度合い推定部は、
 前記加速度センサの検出情報に基づいて算出した酔い度合い推定値と、
 前記生体センサの検出情報に基づいて算出した酔い度合い推定値との2種類の酔い度合い推定値を重み付け加算して、最終的な乗員の酔い度合い推定値を算出する(13)または(14)に記載の移動装置。
 (16) 前記移動装置は、さらに、
 前記移動装置の環境情報を取得する環境センサを有し、
 警告出力要否判定部は、
 前記環境センサの検出情報を入力して、入力値に基づいて前記警告出力基準値を変更する(9)~(15)いずれかに記載の移動装置。
 (17) 情報処理装置において実行する情報処理方法であり、
 酔い度合い推定部が、車両に備えられた加速度センサの検出情報を入力して、自動運転実行中の前記車両の乗員の乗り物酔い度合いを推定する酔い度合い推定ステップと、
 警告出力要否判定部が、前記酔い度合い推定部の推定した酔い度合い推定値と、予め規定した警告出力基準値を比較する警告出力要否判定ステップと、
 警告出力実行部が、前記酔い度合い推定値が、前記警告出力基準値以上となった場合に、自動運転から手動運転への切り替えを促す警告出力を実行する警告出力実行ステップを実行する情報処理方法。
 (18) 移動装置において実行する情報処理方法であり、
 加速度センサが、移動装置の加速度を計測するステップと、
 酔い度合い推定部が、前記加速度センサの検出情報を入力して、自動運転実行中の前記移動装置の乗員の乗り物酔い度合いを推定する酔い度合い推定ステップと、
 警告出力要否判定部が、前記酔い度合い推定部の推定した酔い度合い推定値と、予め規定した警告出力基準値を比較する警告出力要否判定ステップと、
 警告出力実行部が、前記酔い度合い推定値が、前記警告出力基準値以上となった場合に、自動運転から手動運転への切り替えを促す警告出力を実行する警告出力実行ステップを実行する情報処理方法。
 (19) 情報処理装置において情報処理を実行させるプログラムであり、
 酔い度合い推定部に、車両に備えられた加速度センサの検出情報を入力して、自動運転実行中の前記車両の乗員の乗り物酔い度合いを推定させる酔い度合い推定ステップと、
 警告出力要否判定部に、前記酔い度合い推定部の推定した酔い度合い推定値と、予め規定した警告出力基準値を比較させる警告出力要否判定ステップと、
 警告出力実行部に、前記酔い度合い推定値が、前記警告出力基準値以上となった場合に、自動運転から手動運転への切り替えを促す警告出力を実行させる警告出力実行ステップを実行させるプログラム。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、自動運転実行中の車両の乗員の乗り物酔い度合いを推定して、酔い度合いが既定の基準値以上となった場合に手動運転への切り替えを促す警告出力を行い、安全な手動運転への復帰を可能とした構成が実現される。
 具体的には、例えば、加速度センサ検出情報を入力して自動運転実行中の車両の乗員の酔い度合いを推定する。さらに、推定値と警告出力基準値を比較して推定値が基準値以上となった場合に、自動運転から手動運転への切り替えを促す警告出力を実行する。さらに、警告出力後の運転者の操作情報に基づく学習処理を実行し、操作が正常な運転操作であると判定した場合は基準値を上昇させる等の基準値更新処理を行い、運転者固有の基準値の適用を可能とする。
 本構成により、自動運転実行中の車両の乗員の酔い度合いを推定して、酔い度合いが既定の基準値以上となった場合に手動運転への切り替えを促す警告出力を行い、安全な手動運転への復帰を可能とした構成が実現される。
 10・・自動車,11・・加速度センサ,12・・生体センサ,13・・環境センサ,20・・データ処理部,21・・酔い度合い推定部,22・・警告出力要否判定部,23・・警告出力実行部,24・・学習処理部,25・・警告基準値格納部,26・・観測データ取得部,30・・表示部,50・・運転者,100・・車両制御システム,101・・入力部,102・・データ取得部,103・・通信部,104・・車内機器,105・・出力制御部,106・・出力部,107・・駆動系制御部,108・・駆動系システム,109・・ボディ系制御部,110・・ボディ系システム,111・・記憶部,112・・自動運転制御部,121・・通信ネットワーク,131・・検出部,132・・自己位置推定部,133・・状況分析部,134・・計画部,135・・動作制御部,141・・車外情報検出部,142・・車内情報検出部,143・・車両状態検出部,151・・マップ解析部,152・・交通ルール認識部,153・・状況認識部,154・・状況予測部,161・・ルート計画部,162・・行動計画部,163・・動作計画部,171・・緊急事態回避部,172・・加減速制御部,173・・方向制御部,301・・CPU,302・・ROM,303・・RAM,304・・バス,305・・入出力インタフェース,306・・入力部,307・・出力部,308・・記憶部,309・・通信部,310・・ドライブ,311・・リムーバブルメディア,321・・センサ,322・・駆動部

Claims (19)

  1.  車両に備えられた加速度センサの検出情報を入力して、自動運転実行中の車両の乗員の乗り物酔い度合いを推定する酔い度合い推定部と、
     前記酔い度合い推定部の推定した酔い度合い推定値と、予め規定した警告出力基準値を比較する警告出力要否判定部と、
     前記酔い度合い推定値が、前記警告出力基準値以上となった場合に、自動運転から手動運転への切り替えを促す警告出力を実行する警告出力実行部を有する情報処理装置。
  2.  前記情報処理装置は、さらに、
     前記警告出力後の運転者の操作情報を取得する観測データ取得部と、
     前記観測データ取得部の取得した操作情報に基づく学習処理を実行して、運転者固有の警告出力基準値を算出する学習処理部を有する請求項1に記載の情報処理装置。
  3.  前記学習処理部は、
     前記警告出力後の運転者の操作が正常な運転操作であると判定した場合は、前記警告出力基準値を上昇させ、
     正常な運転操作でないと判定した場合は、前記警告出力基準値を低下させる警告出力基準値変更処理を行う請求項2に記載の情報処理装置。
  4.  前記酔い度合い推定部は、
     自動運転実行時間の継続時間に応じて前記酔い度合いが上昇する酔い度合い算出式を適用して酔い度合い算出処理を実行する請求項1に記載の情報処理装置。
  5.  前記酔い度合い推定部は、
     車両に備えられた生体センサの検出情報を入力して、自動運転実行中の乗員の酔い度合いを推定する請求項1に記載の情報処理装置。
  6.  前記生体センサは、乗員の心拍数検出センサである請求項5に記載の情報処理装置。
  7.  前記酔い度合い推定部は、
     前記加速度センサの検出情報に基づいて算出した酔い度合い推定値と、
     前記生体センサの検出情報に基づいて算出した酔い度合い推定値との2種類の酔い度合い推定値を重み付け加算して、最終的な乗員の酔い度合い推定値を算出する請求項5に記載の情報処理装置。
  8.  警告出力要否判定部は、
     環境センサの検出情報を入力して、入力値に基づいて前記警告出力基準値を変更する請求項1に記載の情報処理装置。
  9.  移動装置の加速度を計測する加速度センサと、
     前記加速度センサの検出情報を入力して、自動運転実行中の前記移動装置の乗員の乗り物酔い度合いを推定する酔い度合い推定部と、
     前記酔い度合い推定部の推定した酔い度合い推定値と、予め規定した警告出力基準値を比較する警告出力要否判定部と、
     前記酔い度合い推定値が、前記警告出力基準値以上となった場合に、自動運転から手動運転への切り替えを促す警告出力を実行する警告出力実行部を有する移動装置。
  10.  前記移動装置は、さらに、
     前記警告出力後の運転者の操作情報を取得する観測データ取得部と、
     前記観測データ取得部の取得した操作情報に基づく学習処理を実行して、運転者固有の警告出力基準値を算出する学習処理部を有する請求項9に記載の移動装置。
  11.  前記観測データ取得部の取得する運転者の操作情報は、
     ハンドル、アクセル、またはブレーキの少なくともいずれかの操作情報を含む請求項10に記載の移動装置。
  12.  前記学習処理部は、
     前記警告出力後の運転者の操作が正常な運転操作であると判定した場合は、前記警告出力基準値を上昇させ、
     正常な運転操作でないと判定した場合は、前記警告出力基準値を低下させる警告出力基準値変更処理を行う請求項10に記載の移動装置。
  13.  前記移動装置は、さらに、
     前記乗員の生体情報を取得する生体センサを有し、
     前記酔い度合い推定部は、
     前記生体センサの検出情報を入力して、自動運転実行中の乗員の乗り物酔い度合いを推定する請求項9に記載の移動装置。
  14.  前記生体センサは、乗員の心拍数検出センサである請求項13に記載の移動装置。
  15.  前記酔い度合い推定部は、
     前記加速度センサの検出情報に基づいて算出した酔い度合い推定値と、
     前記生体センサの検出情報に基づいて算出した酔い度合い推定値との2種類の酔い度合い推定値を重み付け加算して、最終的な乗員の酔い度合い推定値を算出する請求項13に記載の移動装置。
  16.  前記移動装置は、さらに、
     前記移動装置の環境情報を取得する環境センサを有し、
     警告出力要否判定部は、
     前記環境センサの検出情報を入力して、入力値に基づいて前記警告出力基準値を変更する請求項9に記載の移動装置。
  17.  情報処理装置において実行する情報処理方法であり、
     酔い度合い推定部が、車両に備えられた加速度センサの検出情報を入力して、自動運転実行中の前記車両の乗員の乗り物酔い度合いを推定する酔い度合い推定ステップと、
     警告出力要否判定部が、前記酔い度合い推定部の推定した酔い度合い推定値と、予め規定した警告出力基準値を比較する警告出力要否判定ステップと、
     警告出力実行部が、前記酔い度合い推定値が、前記警告出力基準値以上となった場合に、自動運転から手動運転への切り替えを促す警告出力を実行する警告出力実行ステップを実行する情報処理方法。
  18.  移動装置において実行する情報処理方法であり、
     加速度センサが、移動装置の加速度を計測するステップと、
     酔い度合い推定部が、前記加速度センサの検出情報を入力して、自動運転実行中の前記移動装置の乗員の乗り物酔い度合いを推定する酔い度合い推定ステップと、
     警告出力要否判定部が、前記酔い度合い推定部の推定した酔い度合い推定値と、予め規定した警告出力基準値を比較する警告出力要否判定ステップと、
     警告出力実行部が、前記酔い度合い推定値が、前記警告出力基準値以上となった場合に、自動運転から手動運転への切り替えを促す警告出力を実行する警告出力実行ステップを実行する情報処理方法。
  19.  情報処理装置において情報処理を実行させるプログラムであり、
     酔い度合い推定部に、車両に備えられた加速度センサの検出情報を入力して、自動運転実行中の前記車両の乗員の乗り物酔い度合いを推定させる酔い度合い推定ステップと、
     警告出力要否判定部に、前記酔い度合い推定部の推定した酔い度合い推定値と、予め規定した警告出力基準値を比較させる警告出力要否判定ステップと、
     警告出力実行部に、前記酔い度合い推定値が、前記警告出力基準値以上となった場合に、自動運転から手動運転への切り替えを促す警告出力を実行させる警告出力実行ステップを実行させるプログラム。
PCT/JP2018/045515 2017-12-26 2018-12-11 情報処理装置、移動装置、および方法、並びにプログラム WO2019131116A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/955,076 US20200385025A1 (en) 2017-12-26 2018-12-11 Information processing apparatus, mobile apparatus, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-249709 2017-12-26
JP2017249709 2017-12-26

Publications (1)

Publication Number Publication Date
WO2019131116A1 true WO2019131116A1 (ja) 2019-07-04

Family

ID=67063484

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/045515 WO2019131116A1 (ja) 2017-12-26 2018-12-11 情報処理装置、移動装置、および方法、並びにプログラム

Country Status (2)

Country Link
US (1) US20200385025A1 (ja)
WO (1) WO2019131116A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10994750B2 (en) * 2019-01-24 2021-05-04 Honda Motor Co., Ltd. Vehicle control device
DE102020206389A1 (de) 2020-05-20 2021-11-25 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Kraftfahrzeugs sowie Kraftfahrzeug
WO2023243249A1 (ja) * 2022-06-14 2023-12-21 ソニーグループ株式会社 情報処理装置及び情報処理方法、並びにシステム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018204103A1 (de) * 2017-11-06 2019-05-09 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Assistenzsystems in einem Kraftfahrzeug
CN113135190A (zh) * 2020-01-17 2021-07-20 株式会社斯巴鲁 自动驾驶辅助装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006036012A (ja) * 2004-07-27 2006-02-09 Matsushita Electric Ind Co Ltd 車酔い対策装置
JP2007236644A (ja) * 2006-03-09 2007-09-20 Nissan Motor Co Ltd 乗り物酔い推定装置、乗り物酔い推定方法及び乗り物酔い推定装置付き車両
JP2015219771A (ja) * 2014-05-19 2015-12-07 マツダ株式会社 居眠り運転防止装置
WO2016120363A2 (en) * 2015-01-28 2016-08-04 Valeo Schalter Und Sensoren Gmbh Method for operating a driver assistance system of a motor vehicle with display of environmental data in an autonomous drive mode, driver assistance system as well as motor vehicle
US20170267253A1 (en) * 2016-03-21 2017-09-21 Ford Global Technologies, Llc Avoiding or alleviating travel sickness in a vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006036012A (ja) * 2004-07-27 2006-02-09 Matsushita Electric Ind Co Ltd 車酔い対策装置
JP2007236644A (ja) * 2006-03-09 2007-09-20 Nissan Motor Co Ltd 乗り物酔い推定装置、乗り物酔い推定方法及び乗り物酔い推定装置付き車両
JP2015219771A (ja) * 2014-05-19 2015-12-07 マツダ株式会社 居眠り運転防止装置
WO2016120363A2 (en) * 2015-01-28 2016-08-04 Valeo Schalter Und Sensoren Gmbh Method for operating a driver assistance system of a motor vehicle with display of environmental data in an autonomous drive mode, driver assistance system as well as motor vehicle
US20170267253A1 (en) * 2016-03-21 2017-09-21 Ford Global Technologies, Llc Avoiding or alleviating travel sickness in a vehicle

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10994750B2 (en) * 2019-01-24 2021-05-04 Honda Motor Co., Ltd. Vehicle control device
DE102020206389A1 (de) 2020-05-20 2021-11-25 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Kraftfahrzeugs sowie Kraftfahrzeug
WO2023243249A1 (ja) * 2022-06-14 2023-12-21 ソニーグループ株式会社 情報処理装置及び情報処理方法、並びにシステム

Also Published As

Publication number Publication date
US20200385025A1 (en) 2020-12-10

Similar Documents

Publication Publication Date Title
JP7136106B2 (ja) 車両走行制御装置、および車両走行制御方法、並びにプログラム
US20210155269A1 (en) Information processing device, mobile device, information processing system, method, and program
US11654936B2 (en) Movement device for control of a vehicle based on driver information and environmental information
WO2019131116A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
US20210387640A1 (en) Information processing apparatus, information processing method, and program
JPWO2019167457A1 (ja) 情報処理装置、情報処理方法、プログラム、及び移動体
US11873007B2 (en) Information processing apparatus, information processing method, and program
US11815887B2 (en) Vehicle control device, vehicle control method, vehicle, information processing device, information processing method, and program
US11377101B2 (en) Information processing apparatus, information processing method, and vehicle
JP7382327B2 (ja) 情報処理装置、移動体、情報処理方法及びプログラム
US20210027486A1 (en) Controller, control method, and program
US11200795B2 (en) Information processing apparatus, information processing method, moving object, and vehicle
US20220017093A1 (en) Vehicle control device, vehicle control method, program, and vehicle
JPWO2019039281A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
WO2021065559A1 (ja) 情報処理システム、および情報処理方法、並びに情報処理装置
JP2019045364A (ja) 情報処理装置、自己位置推定方法、及び、プログラム
US20220253065A1 (en) Information processing apparatus, information processing method, and information processing program
WO2020189156A1 (ja) 情報処理装置と情報処理方法および移動制御装置と移動制御方法
US11135987B2 (en) Information processing device, information processing method, and vehicle
US20220277556A1 (en) Information processing device, information processing method, and program
WO2019097884A1 (ja) 情報処理装置と管理装置および方法とプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18897126

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18897126

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP