WO2020145161A1 - 情報処理装置、移動装置、および方法、並びにプログラム - Google Patents

情報処理装置、移動装置、および方法、並びにプログラム Download PDF

Info

Publication number
WO2020145161A1
WO2020145161A1 PCT/JP2019/050983 JP2019050983W WO2020145161A1 WO 2020145161 A1 WO2020145161 A1 WO 2020145161A1 JP 2019050983 W JP2019050983 W JP 2019050983W WO 2020145161 A1 WO2020145161 A1 WO 2020145161A1
Authority
WO
WIPO (PCT)
Prior art keywords
driver
unit
eyeball
information
behavior
Prior art date
Application number
PCT/JP2019/050983
Other languages
English (en)
French (fr)
Inventor
英史 大場
康平 門下
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to KR1020217019797A priority Critical patent/KR20210107017A/ko
Priority to EP19909150.5A priority patent/EP3910612A4/en
Priority to CN201980087495.7A priority patent/CN113260547A/zh
Priority to US17/420,126 priority patent/US20220081009A1/en
Priority to JP2020565705A priority patent/JP7357006B2/ja
Publication of WO2020145161A1 publication Critical patent/WO2020145161A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0059Estimation of the risk associated with autonomous or manual driving, e.g. situation too complex, sensor failure or driver incapacity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/082Selecting or switching between different modes of propelling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0053Handover processes from vehicle to occupant
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0057Estimation of the time available or required for the handover
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1101Detecting tremor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/007Switching between manual and automatic parameter input, and vice versa
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/215Selection or confirmation of options
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping

Definitions

  • the present disclosure relates to an information processing device, a mobile device, a method, and a program. More specifically, the present invention relates to an information processing device, a moving device, a method, and a program for confirming the awake state of a driver of a vehicle.
  • the automatic driving technology is a technology that enables various types of sensors such as position detection means provided in a vehicle (automobile) to enable automatic driving on a road, and is expected to spread rapidly in the future.
  • automatic driving is in the development stage, and it is considered that it will take time until 100% automatic driving becomes possible.
  • automatic driving and manual driving by the driver are appropriately performed. It is predicted that the vehicle will be switched to drive. For example, when driving on a straight road with a sufficient road width such as a highway, the vehicle will run in the automatic driving mode, but when you leave the highway and stop the car at any position in the parking lot, or on a narrow mountain road. In such cases, it is predicted that mode switching such as switching to the manual driving mode and traveling by operating the driver (driver) is required.
  • the driver does not need to look in the forward direction, which is the traveling direction of the vehicle, such as taking a nap, watching TV, reading a book, or It is possible to freely act by sitting backwards and having a conversation with a person in the back seat.
  • the system (information processing device) on the vehicle side determines whether or not the driver can perform safe manual driving before switching from automatic driving to manual driving. It is necessary to judge.
  • the driver As one method for determining whether or not the driver is at a level at which safe manual driving can be performed, there is a process of verifying the brain activity state of the driver. As a typical process for verifying the driver's brain activity status, there is a process of presenting a task to the driver and verifying the answer to the task.
  • Patent Document 1 Japanese Patent Laid-Open No. 2008-225537
  • a question is output from a speaker to a driver (driver), and it is verified whether or not an answer to the question can be obtained by a microphone.
  • the configuration for outputting is disclosed.
  • Japanese Patent Laid-Open No. 2015-115045 discloses a driver's awake state by outputting a driver's operation instruction of a specific switch and measuring the time until the driver performs a correct operation according to the instruction. It discloses a configuration for determining.
  • An object of the present invention is to provide a device, a mobile device, a method, and a program.
  • the first aspect of the present disclosure is A display information generation unit that generates or acquires an issue and displays it on the display unit;
  • An eyeball behavior analysis unit that analyzes the eyeball behavior of the user who observes the task displayed on the display unit,
  • the information processing apparatus includes an awakening degree determination unit that determines the awakening degree of the user based on the analysis result of the eyeball behavior analysis unit.
  • the second aspect of the present disclosure is It is a mobile device that can switch between automatic operation and manual operation, A driver information acquisition unit that acquires driver information of the driver of the mobile device; Based on the acquired information of the driver information acquisition unit, a data processing unit that determines whether the driver has an awakening degree capable of returning to manual driving,
  • the data processing unit is A display information generation unit that generates or acquires an issue and displays it on the display unit;
  • An eyeball behavior analysis unit that analyzes the eyeball behavior of the driver observing the problem displayed on the display unit,
  • the mobile device includes a wakefulness determination unit that determines the wakefulness of the driver based on the analysis result of the eyeball behavior analysis unit.
  • the third aspect of the present disclosure is An information processing method executed by an information processing device, A display information generation unit, a display information generation step of generating or acquiring the assignment and displaying it on the display unit; Eye movement analysis unit, an eye movement analysis step of analyzing the eye movement of the user observing the task displayed on the display unit, There is an information processing method in which the awakening degree determination unit executes an awakening degree determination step of determining the awakening degree of the user based on the analysis result of the eyeball behavior analysis unit.
  • the fourth aspect of the present disclosure is An information processing method executed in a mobile device,
  • the moving device is a moving device capable of switching between automatic operation and manual operation,
  • a driver information acquisition unit a driver information acquisition step of acquiring driver information of a driver of the mobile device;
  • the data processing unit executes a data processing step of determining whether or not the driver has an awakening degree capable of returning to manual driving based on the driver information,
  • a display information generation unit a display information generation step of generating or acquiring the assignment and displaying it on the display unit;
  • Eye movement analysis unit an eye movement analysis step of analyzing the eye movement of the user observing the task displayed on the display unit,
  • the awakening degree determination unit executes an awakening degree determination step of determining the awakening degree of the user based on the analysis result of the eyeball behavior analysis unit.
  • the fifth aspect of the present disclosure is A program that causes an information processing device to execute information processing, In the display information generation unit, a display information generation step of generating or acquiring the task and displaying it on the display unit, In the eyeball behavior analysis unit, an eyeball behavior analysis step of analyzing the eyeball behavior of the user who observes the task displayed on the display unit, The program is for causing the awakening degree determination unit to execute an awakening degree determination step of determining the awakening degree of the user based on the analysis result of the eyeball behavior analysis unit.
  • the program of the present disclosure is, for example, a program that can be provided by a storage medium or a communication medium provided in a computer-readable format to an information processing device or a computer system that can execute various program codes.
  • a program that can be provided by a storage medium or a communication medium provided in a computer-readable format to an information processing device or a computer system that can execute various program codes.
  • system is a logical set configuration of a plurality of devices, and is not limited to one in which each configuration device is in the same housing.
  • the configuration of the embodiment of the present disclosure when switching from the automatic driving mode to the manual driving mode, as a means for determining whether or not the driver has an awakening degree capable of manual driving, it is possible to realize a configuration in which the behavior of the eyeball that follows the visual information of the driver who is trying to solve the displayed problem is analyzed and determined. Specifically, for example, it is determined whether or not the driver has an awakening degree capable of returning to the manual driving, based on the eyeball behavior of the driver of the moving device capable of switching between the automatic driving and the manual driving.
  • An eyeball behavior analysis unit that analyzes the eyeball behavior of the driver who observes the task displayed on the display unit, and an awakening degree determination unit that determines the awakening degree of the driver based on the analysis result of the eyeball behavior analysis unit.
  • the awakening degree determination unit analyzes whether or not the driver is performing eye movements such as fixation or microsaccade to solve the problem, and determines whether or not the driver has the awakening degree capable of returning to manual driving. Determine whether. With this configuration, it is possible to realize a configuration in which whether or not the driver has an awakening degree capable of manual driving is determined by analyzing the eyeball behavior of the driver who is trying to solve the problem displayed on the display unit. It should be noted that the effects described in the present specification are merely examples and are not limited, and may have additional effects.
  • the driver will sleep in the autonomous driving section. It is also possible to do. In addition, it may be possible to immerse yourself in secondary tasks such as watching TV or videos, or playing games. However, for example, if the driver falls asleep in the autonomous driving section, the driver's consciousness level and judgment level are lowered, that is, the awakening level is lowered. In the future, if the section where the vehicle can be driven using the automatic driving function gradually increases, a situation will arise in which the vehicle will continue to drive normally safely without intervention in driving and steering the vehicle. Even then, the driver must return to a high awake state in which he/she can drive the vehicle under normal consciousness before entering the manual operation section.
  • the current driver monitoring system emphasizes the function of detecting a temporary decrease in attention such as a driver's awakening.
  • the current driver monitoring system does not have a function of judging the awakening degree of the driver at the recovery level when the driver who is completely unconscious loses his consciousness.
  • the configuration of the present disclosure solves such a problem of the present situation, and enables determination of the awakening degree necessary for the driver to steer the vehicle, in particular, detailed determination of return to consciousness.
  • the configuration of the present disclosure estimates the state of perceptual and cognitive activity in the driver's brain, for example. Specifically, the behavior of the eyes of the driver is analyzed to determine the awakening degree of the driver.
  • the moving device according to the present disclosure is, for example, an automobile capable of traveling by switching between automatic driving and manual driving.
  • an automobile capable of traveling by switching between automatic driving and manual driving.
  • the driver driver
  • the driver looks forward while looking at the road during execution of automatic driving, the driver's alertness is high, that is, the manual driving can be started at any time.
  • the notification of switching to the manual operation may be given immediately before the time when the manual operation is required. This is because the driver can immediately start safe manual driving.
  • the mobile device of the present disclosure or the information processing device that can be mounted on the mobile device performs a process of determining the awakening level of the driver in a short time without causing a heavy burden on the driver. How early the notification is given is determined based on various observable state information obtained by the steady monitoring of the driver's state. The recovery characteristics unique to the driver, such as the time required for recovery from the observable state information, can be estimated by learning. The optimum return notification timing from this observable state is determined and notification or alarm is executed. It is necessary to confirm whether or not the driver's awake state is in a state where it is possible to return to manual driving before the actual transfer of steering of the vehicle to the driver after the notification.
  • FIG. 1 is a diagram illustrating a configuration example of an automobile 10 that is an example of a moving device of the present disclosure.
  • the information processing apparatus of the present disclosure is mounted on the automobile 10 shown in FIG.
  • the vehicle 10 shown in FIG. 1 is a vehicle that can be driven in at least two driving modes, a manual driving mode and an automatic driving mode.
  • a manual driving mode traveling is performed based on the operation of the driver (driver) 20, that is, the operation of the steering wheel (steering), the operation of the accelerator, the brake, or the like.
  • the automatic driving mode the operation by the driver (driver) 20 is not necessary, and the driving is performed based on the sensor information such as the position sensor and other ambient information detection sensors.
  • the position sensor is, for example, a GPS receiver
  • the ambient information detection sensor is, for example, a camera, an ultrasonic sensor, a radar, a LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), a sonar, or the like. These devices are also called positioning sensors.
  • FIG. 1 is a diagram for explaining the outline of the present disclosure and schematically shows main components. The detailed configuration will be described later.
  • the automobile 10 includes a data processing unit 11, a driver information acquisition unit 12, an environment information acquisition unit 13, a communication unit 14, and a notification unit 15.
  • the driver information acquisition unit 12 acquires, for example, information for determining the awakening degree of the driver, operation information of the driver, and the like. Specifically, for example, it is configured by a camera and a sensor for detecting the movement of the driver's face and eyeballs, an operation information acquisition unit of each operation unit (a steering wheel, an accelerator, a brake, etc.).
  • the environment information acquisition unit 13 acquires the traveling environment information of the automobile 10. For example, image information on the front, rear, left and right of a car, position information by GPS, LiDAR (Light Detection and Ranging, Laser Imaging, Detection and Ranging), and obstacle information around the sonar etc.
  • image information on the front, rear, left and right of a car position information by GPS, LiDAR (Light Detection and Ranging, Laser Imaging, Detection and Ranging), and obstacle information around the sonar etc.
  • the data processing unit 11 inputs the driver information acquired by the driver information acquisition unit 12 and the environmental information acquired by the environment information acquisition unit 13, and the driver in the vehicle during automatic driving can perform safe manual driving.
  • the awakening degree determination process or the like is executed to determine whether or not the state is high, that is, whether or not the vehicle has a high awakening degree capable of exhibiting the judgment ability and the exercise ability necessary for performing the manual driving.
  • a specific example of this awakening degree determination processing will be described in detail later.
  • the data processing unit 11 needs to switch from the automatic operation mode to the manual operation mode, for example, when a manual operation section in which the automatic operation is not permitted approaches from an automatic operation section in which the automatic operation is permitted. In this case, the process of notifying the driver to switch to the manual driving mode is executed via the notification unit 15.
  • the timing of this notification processing is, for example, the optimum timing calculated by inputting the driver information acquisition unit 12 and the environment information acquisition unit 13. That is, the timing is such that the driver 20 can start a safe manual operation. Specifically, when the driver's arousal level is high, a notification is given immediately before the manual driving start time, for example, 30 seconds before, and when the driver's arousal level is low, the manual driving start time is 120 seconds. Perform processing such as before.
  • the notification unit 15 is configured by a display unit, a voice output unit, or a vibrator of a steering wheel or a seat, which performs this notification.
  • FIG. 2 shows an example of a warning display on the display unit that constitutes the notification unit 15.
  • the display area of the warning display information is a display area for performing the following display while executing the automatic operation in the automatic operation mode. Although the entire display screen is used in this embodiment, a partial display of the screen may be used. "Please switch to manual operation" Note that this example is an example in which the description is clearly written, but the display is not limited to such a text display, and may be displayed by a symbol such as a pictogram.
  • the automobile 10 has a configuration capable of communicating with the server 30 via the communication unit 14. For example, a part of the process of calculating the appropriate time for the notification output in the data processing unit 11, specifically, the learning process can be performed in the server 30.
  • FIG. 3 is a diagram illustrating a specific example of processing executed by the mobile device and the information processing device of the present disclosure.
  • FIG. 3 is a diagram showing an example of setting the appropriate timing of the notification for requesting switching to the manual operation while executing the automatic operation in the automatic operation mode, and the notification processing examples of the following two examples. Showing. (A) Notification process when driver's awakening degree during execution of automatic driving is high (b) Notification process when driver's awakening degree during execution of automatic driving is low
  • the example of (a) is an example in which the driver looks forward and looks at the road during execution of automatic driving.
  • the driver's alertness is high, that is, the manual driving can be started at any time.
  • the driver can immediately start a safe manual operation even if the notification of switching to the manual operation is given immediately before the time when the manual operation is required.
  • the driver's awakening level is extremely low when the driver falls asleep while performing automatic driving.
  • the notification to switch to the manual operation is given just before the time when the manual operation is required, the driver will start the manual operation in a state in which he/she is not conscious and cause an accident. The possibility increases. Therefore, when the alertness is low as described above, it is necessary to notify the switching to the manual operation at an earlier stage.
  • the driver is required to have a sufficiently high awakening level at the start of the manual driving. That is, it is required to be in a state in which a correct driving operation can be performed based on certain judgment. If the driver's arousal level is low, manual driving cannot be started. When the driver's arousal level is low, it is necessary to give a notification to switch to the manual driving early, and even after the notification, a process of confirming the transition of the driver's arousal level is required.
  • the driver's awakening degree determination process uses, for example, the information acquired by the driver information acquisition unit 12 of the vehicle 10 shown in FIG. 1 while the vehicle 10 is traveling in an automatic driving section in which automatic driving is allowed.
  • the data processing unit 11 executes this.
  • the data processing unit 11 avoids danger such as emergency stop processing and deceleration processing of the vehicle 10. causess the traveling control unit to execute the processing.
  • FIG. 4 shows a specific configuration example of the driver information acquisition unit 12 of the automobile 10 shown in FIG.
  • FIG. 4 shows examples of various sensors included in the driver information acquisition unit 12 for obtaining information on the driver in the vehicle.
  • the driver information acquisition unit 12 includes a ToF camera, a stereo camera, a seat strain gauge, or the like as a detector for detecting the position and posture of the driver.
  • the data acquisition unit 102 is a face recognition unit (Face (Head) Recognition), a driver eye tracking unit (Driver Eye Tracker) as a detector for obtaining the bioactivity observable information of the driver. )), a driver face tracking section (driver facial tracker) and the like.
  • Face recognition unit Face (Head) Recognition
  • Driver Eye Tracker Driver Eye Tracker
  • driver face tracking section driver facial tracker
  • the driver's eye tracking unit detects the movement of the driver's eye.
  • a driver face tracking unit detects movements of the driver's face and head.
  • these are configured by, for example, a camera and various sensors.
  • a configuration using a sensor such as EOG (Electro-Oculogram) for measuring the electric potential of the eyeball may be used.
  • the driver information acquisition unit 12 includes a biological signal (Vital Signal) detector as a detector for obtaining the biological activity observable information of the driver.
  • the driver information acquisition unit 12 includes a driver authentication (Driver Identification) unit.
  • the authentication method in addition to knowledge authentication using a password or a personal identification number, biometric authentication using a face, fingerprint, iris of the pupil, voiceprint, or the like can be considered.
  • FIG. 5 schematically shows an example of a mode switching sequence from the automatic driving mode to the manual driving mode executed by the data processing unit 11 of the automobile 10 shown in FIG.
  • the driver is completely out of driving steering.
  • the driver can perform a secondary task such as a nap, watching a video, concentrating on a game, or working with a visual tool such as a tablet or a smartphone.
  • the work using the visual tool such as a tablet or a smartphone may be performed, for example, with the driver's seat displaced or in a seat different from the driver's seat.
  • the time until the driver recovers may fluctuate greatly depending on the work contents at that time.
  • the time required to actually return may be too long and too long. ..
  • the driver loses the reliability of the timings for the notification timings of the system, the awareness of the notifications decreases, and as a result, the driver's accurate notifications are reduced.
  • the system needs to optimize the notification timing in order for the driver to start the correct response to the notification to the driving.
  • Step S2 is the timing of the manual operation return request notification as described above with reference to FIG.
  • the driver is notified of a dynamic puptics such as vibration, or visually or audibly about the return to the driving.
  • the steady state of the driver is monitored, the timing at which the notification is issued is grasped, and the notification is given at the timing when the allowance time for the successful recovery is appropriately seen with a certain probability or more. That is, the execution state of the secondary task of the driver is constantly monitored passively in the preceding passive monitoring period, the system can calculate the optimum timing of the notification optimal timing, and the passive monitoring is continuously continued during the period of step S1. It is desirable that the recovery timing and the notification of recovery be performed according to the unique recovery characteristics of the driver.
  • the optimal recovery timing is learned according to the driver's recovery behavior pattern, vehicle characteristics, etc., and statistically determined for the driver to normally return from automatic operation to manual operation at a certain fixed rate or more. It is desirable to present the optimum timing to the driver. In this case, when the driver does not respond to the notification within a certain period of time, a warning is given by sounding an alarm.
  • step S3 it is confirmed whether the driver has returned to the seat.
  • step S4 the internal awakening state of the driver is confirmed by eyeball behavior analysis such as face and saccade (eyeball rotation).
  • step S5 the stability of the actual steering situation of the driver is monitored. Then, in step S6, the handover from the automatic operation to the manual operation is completed.
  • the driver needs to have a sufficiently high awakening level at the start of the manual driving. That is, it is required to be in a state in which a correct driving operation can be performed based on certain judgment. If the driver's alertness is low, manual driving cannot be started. When the driver's arousal level is low, it is necessary to give a notification to switch to the manual driving early, and even after the notification, a process of confirming the transition of the driver's arousal level is required.
  • the present disclosure makes it possible to determine whether or not a driver has an awakening level necessary for driving steering.
  • the configuration of the present disclosure estimates the state of perceptual and cognitive activity in the driver's brain, for example. Specifically, the behavior of the eyes of the driver is analyzed to estimate or determine the awakening degree of the driver.
  • B Eyeball behavior characteristic that appears when performing supplementary information search or detailed confirmation for the purpose of understanding input information such as hearing, smell, and visual stimuli.
  • the processing of the present disclosure uses the eyeball behavior characteristic of (b) above. By analyzing, the awakening degree of the driver is estimated or determined.
  • a visual task to the driver and analyze the driver's eyeball behavior when the driver understands the presented task and answers the task.
  • the driver performs a process of capturing visual information necessary for eyes to recognize and understand the task.
  • behaviors such as fixation, microsaccade (micro rotation of the eyeball), and drift that aim at the central visual field appearing as eyeball behavior are observed, and the brain activity of the driver is estimated from the behavioral analysis.
  • the present disclosure is a technique for performing awakening determination that focuses on the difference in behavior characteristics in different mental and awake states obtained by performing more detailed high-resolution analysis of eyeball behavior in this glance.
  • the reason for capturing an object in the central visual field is that it is difficult to take all the information that is in the visual field into the brain simultaneously and process it. For this reason, the visual system does not treat all information in the visual world as the same, hierarchically filters information that is important for biofunctions, and further enhances the locations that are important for the final action judgment. In order to make a fine determination, the subject to be determined is set in the central visual field, and the local detail details that characterize it are compared with the memory.
  • a visual task that requires intelligent judgment is presented to the driver, and the eye behavior that accompanies the task understanding and coping is analyzed.
  • the activity of the driver's brain is actively detected, and the awakening degree of the driver is determined.
  • the driver can immerse himself in naps, watching live sports, or playing games in the sections where automatic driving is possible.
  • the driver sleeps in the autonomous driving section, the driver is in a state where the awakening degree is lowered.
  • the driver Before entering the manual operation section, the driver needs to return to a high awake state in which he/she can drive the vehicle under normal consciousness.
  • the system of the present disclosure determines the awakening degree of the driver, notifies the driver of the return to the manual driving, and determines the control transfer start determination when the driver actually operates the steering device and starts steering. After that, the driver's arousal level is determined, and it is determined whether or not the driver's arousal level is such that the driver can manually drive before entering the manual operation section. That is, the driver's eyeball behavior analysis is performed to evaluate the driver's perceptual cognitive activity in the brain. It should be noted that even during autonomous driving, the driver may be wary of whether or not automatic driving is being performed safely. In such a situation, the driver may voluntarily stand by to return to the manual operation, conscious of the necessity of returning before the notification of the manual operation return request from the system. Since the system of the present disclosure also analyzes such a state, it is possible to analyze the eyeball behavior characteristic of the driver from the stage of monitoring the state of the driver.
  • the system of the present disclosure performs detailed behavior analysis of the eyeball, which is a time series microscopic analysis.
  • a detailed behavior analysis of the eyeball is performed in the process in which the driver visually understands the task and visually checks the object along the task to compare the captured visual information with the stored information to make a determination.
  • the behavior of the microsaccade or the like which is the local position correction of the central visual field, is observed.
  • the information that is input to the neurons that control judgment in the brain is diverse, and synaptic firing of judgment occurs when the synaptic potential exceeds a certain threshold value with the input of such diverse information. It has been known. In other words, for activities that occur in the wakeful state of the brain, additional information that starts from the accumulation of weak evidence (evidence) information in individual neurons before the target is captured in the central visual field and is the decisive factor for that judgment immediately before firing Replenishment proceeds in the relevant neuron, and when the synaptic potential exceeds a certain level, the threshold value of the decision is fired in the relevant neuron and the decision transmission starts.
  • weak evidence evidence
  • the information that determines the judgment is not necessarily the one with a high degree of certainty, but is input as the information with a weak certainty that is based on a weak basis, and the synaptic potential of the neuron that controls the judgment as a sum exceeds a certain threshold. It appears as a judgment by that, and a judgment is expressed.
  • Eye movements such as microsaccades and drifts that occur in the process of determining what the gaze target is are behaviors that are expressed in order to supplement the information that is lacking in that moment of judgment, and a state in which the degree of internal arousal in the brain is reduced. Then, the stimulus of the search behavior becomes dull, and its expression is hidden.
  • the visual process of finding an answer to a task is a part of the process of performing an intelligent decision process in the brain such as searching for details necessary for making a decision and confirming the certainty of the answer. It appears as a process such as saccade, microsaccade, or fixation that matches or approaches. Note that the firing of the above judgment includes judgment of behavior expression such as microsaccade or drift that searches for insufficient information, and is limited to the judgment as the final intelligence understanding when the understanding is completed. Not a thing.
  • Eye movement analysis is a means for indirectly observing a part of the internal activity in the brain that cannot be directly observed, and it can be used as a clue to determine the arousal state. Is.
  • the driver performs a process of moving the line of sight, that is, eyeball behavior, in order to obtain the answer to the task.
  • eyeball behavior When the driver is gazing ahead of the road when the vehicle is traveling, the eyeball behavior of the driver varies greatly depending on the situation in front of the road. No remarkable behavior appears in a monotonous road section, and a simple passive gaze behavior analysis cannot always grasp the driver's internal awakening state.
  • an active visual task is presented to the driver, and the gaze behavior expected to appear when the driver's internal arousal level is high is analyzed. As a result, the driver's awakening recovery status can be determined with high accuracy.
  • silhouettes of multiple animals whose features are not very clear.
  • a plurality of silhouettes are presented at the same time, and the problem of selecting one design with different features is presented. For example, two or more predators are randomly arranged, and only one livestock silhouette such as cow, sheep or pig is arranged.
  • the driver quickly identifies a pattern that is likely to have different characteristics, where is the difference from other patterns arranged around, and at the same time, is there no other pattern with similar characteristics? Since it is necessary to confirm it, a process of sequentially identifying individual silhouettes is performed in order to analyze the features of the design. By moving the line of sight, local features of detailed details of the pattern in the central visual field of the line of sight are taken into the brain.
  • the task of selecting one of the different silhouettes of animals as described above is one of the problems that the driver's brain perceptual cognitive activity is high because the visual information judgment process and the memory reference process proceed in parallel. It is most suitable for the evaluation process.
  • the technology that forms the basis of the present disclosure lies in the analysis of the behavior of the driver, specifically, the behavior of the eyeball, which occurs along with the thought judgment for solving the presented problem.
  • the task output means for presenting the task various means such as an instrument panel in the driver's seat, a HUD (head-up display), a portable terminal, or a voice fusion presentation can be used. Since the behavior of the driver changes depending on which of these is used, the driver's unique characteristics are acquired in advance as learning data corresponding to each output means, and the final awakening level is determined by referring to the learning data. It is preferably configured.
  • the human visual field is classified into a peripheral visual field, which has low resolution but is extremely sensitive to dynamic changes, and a central visual field, which is a narrow area where detailed information with high resolution, which is an important factor for judgment, can be obtained.
  • the important information is observed mainly in the central visual field, and the observation information is processed with reference to the fragmentary memory and the bird's-eye view memory.
  • the driver's awakening state may be different between a driver who has abundant driving experience, a business driver such as a taxi or a competitive race driver, and a beginner driver, even if the same eyeball behavior is exhibited. Therefore, it is preferable to determine the awakening level by using the learning dictionary generated by the learning process for each driver.
  • the answer to the task presented to the driver may be, for example, a system that detects a physical button press.
  • button operation is troublesome.
  • the process of the present disclosure does not require an operation for the driver such as such button operation.
  • the driver's eyeball behavior is only analyzed by the sensor, and the driver is not required to input an answer.
  • the driver moves his gaze to the information display area where the task is presented, perceives the information, and performs intelligent cognition, that is, matching with the memory, but the driver uses the eyeball so that the visual information reaches the retina. It is necessary to understand and complete the cognitive task based on the memory necessary for judgment, just by directing. Since it is necessary to capture insufficient information or to capture successive changes in the retina in these processing steps, certain behaviors such as the eye fixation (Fixation) and microsaccade (microball rotation) are observed.
  • the driver is memorized as the process of awakening recognition by the system.
  • a simple task such as color selection, it is difficult to judge whether or not sufficient grasping work of the target has started in the brain just because the line of sight is aimed at the target.
  • the saccade When looking at an object by turning the gaze as a characteristic of human visual behavior, the saccade is used to roughly deal with the central visual field of the gaze, and the information that is insufficient for the judgment to understand the viewed object and complete the judgment In order to further capture, the behavior of further capturing features such as microsaccade (microscopic rotation of eyeball) and Fixation is shown.
  • microsaccade microscopic rotation of eyeball
  • Fixation the behavior of further capturing features such as microsaccade (microscopic rotation of eyeball) and Fixation is shown.
  • the determiner that has learned and analyzed the peculiar behavior characteristics of each driver.
  • visual information is presented and the eye behavior when a person confirms the visual information is analyzed.
  • the driver's eye movements for searching for an answer occur when the driver visually recognizes the task without presenting the visual information and excessively conscious action, and the searching behavior is directly analyzed. That is, the driver can analyze the situation of the thinking activity by observing the behavior of the line of sight without visually uttering the answer or operating the button separately.
  • the driver can estimate the arousal level by starting visual observation of the task by the line of sight and analyzing the eyeball behavior in the situation where the driver is understanding.
  • the processing of the present disclosure makes it possible to determine the state of thinking activity, that is, the awakening degree of the driver, from the behavior of the line of sight, without the trouble of button operation.
  • the task is displayed on the display unit when the notification of handing over to the manual drive is displayed on the display unit during the transition from the automatic driving to the manual driving. It is displayed on a visible display unit (interface) such as a console panel or HUD to analyze the driver's eyeball behavior. By this processing, it is possible to determine the awakening degree of the driver in a short time.
  • a visible display unit such as a console panel or HUD to analyze the driver's eyeball behavior.
  • tasks such as searching for a specific insect in the background of grass, searching for a bird hidden in a tree, or searching for a four-leaf clover in grass can be used. ..
  • the mobile device of the present disclosure or the information processing device that can be mounted on the mobile device performs a process of determining the awakening level of the driver in a short time without causing a heavy burden on the driver.
  • the determination process of the awakening degree of the driver is executed by the driver information acquisition unit 12 and the data processing unit 11 of the automobile 10 illustrated in FIG. 1.
  • FIG. 6 shows the data processing unit 11, the driver information acquisition unit 12, the display unit 16, and the display information storage unit 17.
  • FIG. 6 is a diagram illustrating a partial configuration of the information processing device mounted on the mobile device of the present disclosure. That is, it is a block diagram illustrating a process of the present disclosure described below, that is, a configuration element selected and applied to a driver's awakening degree determination.
  • the driver information acquisition unit 12 has the configuration described above with reference to FIG. 4, but FIG. 6 shows only the following two configurations.
  • the movement information of the driver's face and head detected by the driver's face tracking unit (Driver Physical Tracker) 51 is input to the display unit selection unit 62 of the data processing unit 11.
  • the eye movement information of the driver detected by the driver eye tracker 52 is input to the driver eye movement analysis unit 63 of the data processing unit 11.
  • the driver face tracking section 51, the eye tracking section 52, and the data processing section 63 thereof are shown as separate configurations, but some or all of the functions of the driver are tracked in the image sensor element. It may be integrated and taken in to have a monolithic structure. In particular, by arranging a process requiring high-speed processing on the back surface of the image sensor or in the vicinity thereof, it is possible to suppress the high-speed wiring of the signal wiring and contribute to the suppression of noise generation.
  • the data processing unit 11 includes a display information generation unit 61, a display unit selection unit 62, a driver eyeball behavior analysis unit 63, a driver eyeball behavior learning device 64, and a driver awakening degree determination unit 65.
  • the display information generation unit 61 generates a task to be displayed on the display unit 16. Specifically, a problem such as selecting one design having different characteristics from the silhouettes of the plurality of animals described above is generated.
  • the display information storage unit 17 stores data that can be used to generate various tasks. Note that examples of specific problems will be described later.
  • the display selection unit 62 selects the display unit that displays the task generated by the display information generation unit 61.
  • the display unit 16 includes a display unit A (instrument panel) 71, a display unit B (front window display unit) 72, a display unit C (wearable/portable display unit) 73, and a display unit D (HUD). (Head-up display) 74 and the like.
  • the display selection unit 62 generates display information based on the driver's face and head movement information detected by the driver face tracking unit (Driver Physical Tracker) 51.
  • the task is displayed by selecting it as a display unit for displaying the task generated by the unit 61.
  • the driver's eyeball behavior analysis unit 63 inputs the movement information of the driver's eyeball detected by the driver's eyeball tracking unit (Driver Eye Tracker) 52 and analyzes the movement of the driver's eyeball.
  • the driver moves his or her line of sight to the task in order to obtain the answer to the task.
  • the display unit 16 displays a visual task that requires a decision to select one of the animal silhouettes having different characteristics.
  • the driver performs eye movements to supplement necessary information. For example, it performs eyeball behavior such as saccade (eyeball rotation), fixation (Fixation), and microsaccade (microball rotation) of the eyeball.
  • the driver's eyeball behavior analysis unit 63 analyzes the eyeball behavior of these drivers.
  • the eyeball behavior information analyzed by the driver eyeball behavior analysis unit 63 is input to the driver awakening degree determination unit 65.
  • the driver awakening degree determination unit 65 determines the driver's awakening degree based on the eyeball behavior information analyzed by the driver eyeball behavior analysis unit 63. If it is confirmed that the driver is performing eyeball behaviors such as saccade (eyeball rotation), fixation (Fixation) and microsaccade (microball rotation) for solving the problem, driving The awakening degree determination unit 65 determines that the awakening degree of the driver is high. On the other hand, when these eyeball behaviors are not observed or when the eyeball behaviors are small, the driver alertness determination unit 65 determines that the driver alertness is low.
  • the eye behavior analysis is an effective means for confirming the driver's return to consciousness. It is conventionally known that it is possible to analyze the line of sight by analyzing the direction in which the line of sight is turned. By further developing this technology and analyzing the gaze behavior at high speed, more detailed behavior detection of the eyeball can be performed.
  • FIG. 7 shows an example of the locus of the eyeball behavior of the driver when a visual task is presented so as to see certain information.
  • the example shown in FIG. 7 shows a locus of eyeball behavior when a person first gazes near the area a and then gazes near the area b.
  • a person When trying to understand the contents by visualizing certain information (problem), a person performs an eyeball rotation called a large saccade like a behavior locus shown in FIG. 7, turns the eyeball to a predetermined visual spot, and in the vicinity thereof. Fixation (fixation) and eyeball movement accompanied by microsaccade which is a minute eyeball rotation operation in a local region are performed.
  • FIG. 8 is an example of a locus of the eyeball behavior of the driver when a visual task for viewing information is presented, and is a diagram illustrating a difference in behavior when the awakening state is different.
  • the order of gaze differs depending on the viewer. Some test subjects first turn their gaze to the question text "Q", which is the task, while others look at the answer "Ans” and look at the question text "Q” and see the entire drawing of the array. There are various things such as looking at the task after a quick glance. It is important to evaluate the activity in the brain that the driver, who is the subject, sometimes exhibits the behavior of executing the search and fixation necessary for confirming the information acquisition necessary for the answer at that moment. Or that is the evaluation.
  • FIGS. 8B and 8C The observation data shown in FIGS. 8B and 8C will be described as an example.
  • (B) shows an eyeball behavior when a task is dealt with in a state of high arousal.
  • a state in which the visual task coping ability is lowered is shown in (c) as an example of a trajectory of eyeball behavior.
  • the eyeball behavior is one example in which the visual information search including the saccade of the eyeball shows a so-called eye-swimming tendency. Is.
  • This is influenced by the tendency to belong to an individual, such as the strabismus of the behavioral characteristics, the effect of the effect, and the change in visual acuity with the physical condition of the day, so it is desirable to determine the state considering the characteristics of the individual for awakening judgment. It is recommended that the judgment be made by specifying the characteristics of each individual and then taking into account the characteristics of each individual.
  • the system presents the driver with, for example, a symbol that requires some kind of thinking and observes the eyeball behavior.
  • the driver preferentially executes the thinking activity in the brain to cope with the task, and performs other secondary tasks. It is surmised that they were not completely absorbed.
  • the system may detect that the line of sight of the driver is directed to the presented information, and further perform visual recognition of the detection to determine that the recognition is completed.
  • driver-specific learning data for the awakening degree determination process based on the eyeball behavior.
  • the learning data is generated by the driver's eyeball behavior learning device 64. Alternatively, it may be configured to be generated in an external server.
  • the driver's eyeball behavior learning device 64 inputs the eyeball behavior information analyzed by the driver's eyeball behavior analysis unit 63, and outputs the driver's awakening degree information determined by the driver awakening degree determination unit 65 based on the eyeball behavior information. In addition, the driver's steering information is also input.
  • the driver's eyeball behavior learning device 64 learns the correct correspondence between the driver's eyeball behavior and the driver's awakening level during the eyeball behavior based on these input information, and stores it in the storage unit as learning data. Store.
  • driver's eyeball behavior learning device performs situation-based determination by performing learning in conjunction with the driver's biological signal by another biological sensor described later and input influencing factors such as the daytime use time zone. The accuracy of the determination may be improved by performing the determination.
  • the driver awakening degree determination unit 65 inputs the eyeball behavior information analyzed by the driver eyeball behavior analysis unit 63, and uses this input information and the learning data generated by the driver eyeball behavior learning device 64 to obtain a higher accuracy. Perform a high awakening test. If the learning data does not exist or is small, the awakening level may be determined using the correspondence data (average human data) between general eye behavior and the awakening level without using the learning data. Good.
  • the driver's eyeball behavior analysis unit 63 uses the eyeball saccade (eyeball rotation), fixation (Fixation), and microsaccade (eyeball microrotation) that are the eyeball behaviors for the driver to solve the problem. ) Etc. are acquired.
  • the driver's eyeball behavior learning device 64 constructs a dictionary for repeating the behavioral characteristics according to the driver's awakening degree of the driver, executing the cumulative learning, and determining the awakening degree from the eyeball behavior. This dictionary is used to estimate the awakening state of the user at the time of observation from the newly observed eye movement characteristic.
  • the information processing device mounted on the moving device of the present disclosure presents a predetermined task to, for example, a driver who is performing automatic driving, analyzes the eyeball behavior of the driver with respect to the task, and analyzes the eyeballs.
  • the awakening degree of the driver is determined based on the behavior.
  • the driver is presented with a task, and the eyeball behavior of the driver with respect to the task is analyzed to determine the awakening degree of the driver.
  • the recovery of the wake of the brain is an essential requirement for the procedure of manual driving.
  • a driver looks at an object and acquires information necessary for operation by using information obtained visually. Therefore, if the sensory judgment activity in the brain necessary for the operation can be analyzed, it can be judged whether or not the driver has a judgment ability capable of manual driving, that is, whether or not the driver is in a state of high arousal level.
  • the information processing apparatus presents a visual problem to the driver before returning to manual driving, and analyzes the eyeball behavior of the driver that occurs when the problem is solved. Furthermore, the awakening degree of the driver is evaluated based on the eyeball behavior observation result.
  • the visual task presented to the driver in the configuration of the present disclosure is a task that requires the task of additionally searching for insufficient information that the driver needs to solve the visual task.
  • eyeball behavior such as eyeball fixation (Fixation) or microsaccade (eyeball micro rotation) occurs.
  • the driver's eyeball behavior analysis unit 63 inputs the movement information of the driver's eyeball detected by the driver's eyeball tracking unit (Driver Eye Tracker) 52. The behavior of the driver's eyeball is analyzed. The driver's eyeball behavior analysis unit 63 analyzes whether or not saccade (eyeball rotation), fixation (Fixation), microsaccade (eyeball microrotation), etc. of the eyeball are observed as the eyeball behavior of the driver. ..
  • the eyeball behavior information analyzed by the driver eyeball behavior analysis unit 63 is input to the driver awakening degree determination unit 65, and the driver awakening degree determination unit 65 is based on the eyeball behavior information analyzed by the driver eyeball behavior analysis unit 63. , Determine the driver's arousal level. If it is confirmed that the driver is performing eyeball behaviors such as saccade (eyeball rotation), fixation (Fixation) and microsaccade (microball rotation) for solving the problem, driving The awakening degree determination unit 65 determines that the awakening degree of the driver is high. On the other hand, when these eyeball behaviors are not observed or when the eyeball behaviors are small, the driver alertness determination unit 65 determines that the driver alertness is low.
  • FIG. 9 is a diagram illustrating an example of a problem.
  • the example shown in FIG. 9 is an example in which a plurality of animal silhouettes are displayed side by side and a task “Please look at animals with long tails” is presented as a task sentence.
  • As an animal silhouette (A) Sheep (b) Only (c) Bear (d) Pig (e) Horse (f) Giraffe The silhouettes of these six types of animals are displayed.
  • the driver may generate eyeball behavior in which another target, which seems to be an incorrect answer, is fixed.
  • the correct number of correct answers for presenting the task is not one and there are a plurality of correct answers, there is a high possibility that fixation on a large number of silhouettes occurs due to the oversight confirmation processing.
  • the driver may determine that the task has ended and present the next task. In this case, as the step (S5), it is predicted that the driver's line of sight moves saccade to the next task presenting unit.
  • the driver searches for information necessary for solving the problem, that is, for an additional search that supplements the lacking information, aligns the viewpoint with a specific image display area, performs visual fixation, and acquires visual information necessary for the determination.
  • the obtained information is compared with the memory.
  • behaviors such as microsaccade (microscopic rotation of the eyeball) and involuntary eye movement are generated in order to search for additional incidental features to supplement the completion of understanding. When such a behavior is observed, it indicates that the driver is trying to solve the problem, and it can be determined that the driver's arousal level is sufficiently high.
  • the eyeball behavior of the driver observed in this way is a state in which the driver's arousal level is high, that is, a state in which the driver has an intention to solve the problem, and a state in which the driver's arousal level is low, that is, the problem is solved. It is clearly different from a state of no will or low will.
  • the information processing device of the present disclosure mounted on a mobile device presents the driver with a visual task as shown in FIG. 9, analyzes the eyeball behavior of the driver after the presentation, and the driver solves the task. It is determined whether or not the eyeball behavior (for example, the above steps (S1) to (S3)) is being performed. If yes, it is determined that the degree of arousal is high, and if not, it is determined that the degree of awakening is low.
  • the eyeball behavior for example, the above steps (S1) to (S3)
  • the action plan, nerve transmission to move the body necessary for steering as an actual driving operation, and muscular recovery cannot be observed only by eyeball behavior analysis.
  • visual confirmation accompanied by eye movement is required to obtain the visual information necessary for the judgment. For example, to visually understand the dangerous situation and to grasp the surrounding situation to avoid the danger, for example, to grasp obstacles on the road, dangerous objects such as oncoming vehicles and cliffs, and vacant directions and spaces that can proceed. Eye movements are required to visually confirm these.
  • the system (information processing device) included in the mobile device also evaluates the steering action after the driver starts the manual driving. In addition, the behavior from the timing of the driver's seat prior to sitting down to the manual driving return request notification to the return to the driving posture after sitting in the driver's seat is also evaluated.
  • a system (information processing device) included in the mobile device uses these evaluation information to generate learning data used for driver's awakening level determination based on, for example, eye movement. The learning data is preferably generated as learning data unique to each driver.
  • the driver may receive a request to return to manual driving when the driver is seated in the driver's seat, that is, when the driver is in the driving return posture.
  • the action of returning to the manual operation such as returning to the driver's seat hardly occurs.
  • the driver's awakening degree determination has few processes in which the driver's return behavior can be observed, the target behaviors that can be evaluated are limited, and the analysis information of the eyeball behavior is the few that can directly observe the driver's awakening state. It becomes an observation target.
  • the driver's internal arousal state is inferred from the eyeball behavior analysis, it is determined that the driver's brain arousal level is high, and if it is determined that the start condition for manual driving recovery is satisfied, then the driver is requested to manually drive. Will start. After the start of the manual operation, while the handover from the automatic operation to the manual operation is completed, the steering of the driver is monitored in the process of gradually entrusting the driver to steer the driving equipment from the system.
  • the system information processing device It is determined that the ability to return to driving is insufficient, and emergency deceleration, slowdown, evacuation, evacuation, stopping, etc. are taken.
  • the evaluation of the quality of the manual operation return after the driver starts the manual operation is not only an evaluation of the behavior of the eyeball but also an evaluation based on various processes as described below.
  • (1) State evaluation by steady-state monitoring (2) Evaluation of presence/absence of response to return notification, dynamic behavior accuracy evaluation such as parallax calling (3) Response quality evaluation (4) Return posture transition evaluation (5) Sitting transition, sitting posture Evaluation (6) PERCLOS (eye opening ratio) evaluation (7) Internal awakening degree evaluation by eyeball behavior analysis according to the present disclosure (8) Steering validity evaluation to steering device etc. (9) Steering noise correction validity evaluation Awakening based on eyeball behavior
  • the various quality evaluation processes described above are also performed to perform the return quality value of the driver's manual operation.
  • the information processing apparatus of the present disclosure executes not only the determination of the awake state at the cognitive stage of the brain activity of the driver but also the evaluation of the manual driving return quality after the start of the subsequent manual driving.
  • the driver when presenting a task in which the line-of-sight behavior appears to the driver, if the pattern of the same silhouette is repeated and displayed, or if the task is monotonous and the pattern in which the difference is clear is used, the driver will see the task around the task.
  • the information captured from the field of view can be used to make a decision, and an answer can be easily derived without checking the details. In such a case, the driver replies without generating eyeball behavior and ends the work for the purpose of making a detailed confirmation.
  • FIG. 10 shows an example in which two animal silhouettes are displayed side by side, and a task “Please look at animals with long tails” is presented as a task sentence.
  • A Horse
  • b Rabbit The silhouettes of these two animals are displayed.
  • a configuration may be used in which a part of the running scenery that changes from moment to moment is used as a task.
  • a map corresponding to the landscape of the driving direction where the driver's line of sight is directed (saliency map).
  • the driver's eyeball behavior may be analyzed.
  • the display information generation unit 61 has a configuration in which the same task is selected and presented so as not to be repeated.
  • FIG. 11 shows an example of the problem.
  • the example shown in FIG. 11 also displays a plurality of animal silhouettes side by side as in FIG. 9 and FIG. 10, but presents the task “Select the number of animals that will become pets” as the task sentence.
  • A Akita dog
  • cow c
  • bear d
  • poodle e
  • lion In each of the silhouettes of these five types of animals, selectable numerical values from 1 to 5 are displayed at the top.
  • the information processing apparatus of the present disclosure mounted on a mobile device presents a visual task as shown in FIG. 11 to the driver, analyzes the eyeball behavior of the driver after the presentation, and the driver solves the task. It is determined whether or not the eyeball behavior (for example, the above steps (S1) to (S13)) for performing the above is performed. For example, it is determined that the degree of arousal is high if the eyeball behavior substantially similar to the above steps (S1) to (S13) is executed, and if not, it is determined that the degree of awakening is low.
  • the eyeball behavior for example, the above steps (S1) to (S13)
  • the order of seeing silhouettes is not limited to the above example.
  • the alertness evaluation may be performed based on whether or not microsaccade (microscopic rotation of the eyeball) for discriminating between a pet and a non-pet is executed in one or more animal silhouettes.
  • FIG. 12 shows an example of different problems.
  • the example shown in FIG. 12 also displays a plurality of animal silhouettes side by side, but is an example in which the task “Please move your line of sight in order of heavier animals” is presented as the task sentence.
  • As an animal silhouette (A) Hippo (b) Horse (c) Bat (d) Pig (e) Mouse The silhouettes of these five types of animals are displayed.
  • the information processing device of the present disclosure mounted on a mobile device presents a visual task as shown in FIG. 12 to a driver, analyzes the eyeball behavior of the driver after the presentation, and the driver solves the task. It is determined whether or not the eyeball behavior (for example, the above steps (S1) to (S4)) for performing the above is performed. For example, it is determined that the degree of arousal is high if the eyeball behavior substantially similar to the above steps (S1) to (S4) is executed, and if not performed, it is determined that the degree of awakening is low.
  • the eyeball behavior for example, the above steps (S1) to (S4)
  • the alertness evaluation may be performed based on whether or not microsaccade (microscopic rotation of the eyeball) is executed in one or more animal silhouettes.
  • FIG. 13 shows another example of the problem.
  • the example shown in FIG. 13 is an example in which a plurality of fish, marine organisms, and the like are displayed side by side, and the task “How many fish (Fish) are there?” is presented as a task sentence.
  • A Skipjack
  • b Whether it is (c) Goldfish
  • d Ei
  • e Whale
  • the dotted line frame shown in the figure is shown as an example of an answer, and is not included in the displayed tasks.
  • the information processing apparatus of the present disclosure presents a visual task as shown in FIG. 13 to the driver, analyzes the eyeball behavior of the driver after presentation, and determines the eyeball behavior for the driver to solve the task. It is determined whether the above steps have been performed. It is determined that the wakefulness is high if the eyeball behavior similar to the above step is executed, and it is determined that the wakefulness is low if the eyeball behavior is not executed.
  • the task shown in FIG. 13 is to obtain the number of fish as an answer, but, for example, when this task is repeatedly presented, the gaze behavior changes.
  • the task shown in FIG. 13 is seen for the first time, it is highly possible that all the silhouettes (a) to (f) look like fish.
  • a fixation or a micro saccade microscopic rotation of the eyeball
  • FIG. 14 shows a task of displaying a plurality of animal silhouettes and selecting the number of carnivorous animals.
  • the dotted line frame shown in the figure is shown as an example of an answer, and is not included in the displayed tasks.
  • FIG. 15 shows the problem of displaying the silhouettes of a plurality of cooking utensils and ingredients and selecting the number of silhouettes for Japanese food and the number of silhouettes for Western food.
  • the dotted line frame shown in the figure is shown as an example of an answer, and is not included in the displayed tasks.
  • FIG. 16 shows a task of displaying various types of silhouettes and selecting the number of silhouettes displayed upside down.
  • FIG. 17 is an example in which the letters of the alphabet in which uppercase letters and lowercase letters are mixed are randomly displayed, and the task sentence “Please align your line of sight with the capital letters in the frame” is presented.
  • FIG. 18 shows an example in which the letters of the alphabet in which uppercase and lowercase letters are mixed are displayed at random, and the task sentence “Please move your line of sight in alphabetical order (ABC. is there. In this way, when the tasks to be viewed in alphabetical order are presented, the driver with high arousal degree determines the character order and moves the line of sight.
  • the number of characters is limited, and it may be determined only by referring to the memory without performing feature determination by fixation. Since it is difficult to observe eye movements such as fixation and micro saccades when such a judgment is made, it is preferable to present a subject that needs to capture the characteristics of each character and to induce the eye behavior. ..
  • FIG. 19 is an example in which various tools and stationery are displayed in silhouettes, and the task of “select the number of tools and stationery” is presented.
  • the dotted line frame shown in the figure is shown as an example of an answer, and is not included in the displayed tasks.
  • FIG. 20 is also an example of presenting the task of “select the number of tools and the number of stationery”, but an example of displaying a tool and stationery and a silhouette (animal) not included in any of them in the display silhouette Is.
  • the dotted line frame shown in the figure is shown as an example of an answer, and is not included in the displayed tasks.
  • FIG. 21 is an example in which various animal silhouettes are displayed and the problem of “how many animals live in the savanna?” is presented.
  • the dotted line frame shown in the figure is shown as an example of an answer, and is not included in the displayed tasks.
  • FIG. 22 is an example in which a modified character string is displayed and the problem of “how many 6 is included?” is presented.
  • a process of selecting an odd number, an even number, a vowel, a consonant, a Greek character, etc. such as a process of selecting a specific character or number from a modified character string, is effective for inducing eye movement and ophthalmologic behavior. It becomes an issue.
  • the characters U, D, R, and L are displayed, and the problem of "Please move your line of sight according to the displayed characters (U: up, D: down, R: right, L: left)" It is an example presented.
  • the driver views the characters one by one and performs a process of moving the line of sight in a direction according to the characters. In this process, the driver performs eyeball behavior such as saccade (eyeball rotation), fixation, and microsaccade (eyeball microrotation).
  • FIG. 24 is an example in which silhouettes of a plurality of different animals are displayed, and the task of “moving the line of sight in the order of horse ⁇ dog ⁇ cat ⁇ giraffe” is presented.
  • the driver performs a process of moving the line of sight in the order of horse ⁇ dog ⁇ cat ⁇ giraffe. In this process, the driver performs eyeball behavior such as saccade (eyeball rotation), fixation, and microsaccade (eyeball microrotation).
  • the problem presented to the driver needs to be a task requiring additional search for missing information for solving the problem.
  • the eyeball behavior for solving the problem at least one of eyeball behavior of saccade (eyeball rotation), fixation (Fixation), or microsaccade (eyeball microrotation) is generated. It is an issue.
  • the examples of tasks described with reference to FIGS. 9 to 24 are tasks in which silhouettes of animals and objects are arranged, tasks in which characters are arranged, and the like. In addition to these silhouettes and characters, there are various symbols, symbols, pictograms, and the like. It is possible to use various display data.
  • the driver behavior analysis unit 63 of the data processing unit 11 of the information processing apparatus illustrated in FIG. 6 analyzes the eye behavior of the Li driver after the task presentation. Specifically, the presence/absence of a specific eyeball behavior such as saccade (eyeball rotation), fixation, microsaccade (microball rotation) is detected as the eyeball behavior.
  • a specific eyeball behavior such as saccade (eyeball rotation), fixation, microsaccade (microball rotation) is detected as the eyeball behavior.
  • the examples shown in FIGS. 9 to 24 and the eyeball behavior examples that the driver who is expected to be the responder at that time are the only examples of the eyeball behavior, and the answer depends on the respondent without looking at the answer.
  • Each person exhibits different behaviors, such as the case of checking the question sentence afterwards after checking the options first and the case of repeatedly checking the question.
  • What is important is not the accuracy and repeatability of the behavior itself, or the time to obtain a direct correct answer, but the microsaccade of acquisition of necessary information and the awakening of fixation while responding to the task before answering it. It is the degree of occurrence of personal characteristics sometimes observed. That is, the driver's internal awakening level can be estimated from the appearance rate of special behaviors such as saccade, microsaccade, and fixation on the task during awakening.
  • the eyeball behavior observation information such as saccade (eyeball rotation), fixation, microsaccade (eyeball microrotation) analyzed by the driver behavior analysis unit 63 is input to the driver alertness determination unit 65.
  • the driver arousal level determination unit 65 determines whether or not the driver has a high level of awakening level at which the driver can perform the manual driving based on the driver's eyeball behavior observation information input from the driver behavior analysis unit 63. judge.
  • specific eye movements such as saccade (eye rotation), fixation, and micro saccade (eye rotation) observed as the driver's eye movement should solve the problem presented to the driver. It is determined whether or not it is occurring according to the sequence to be performed. If it occurs, it is determined that the driver has a certain problem solving ability, that is, the wakefulness is high and the driver is in the awakening state in which the manual driving can be executed. On the other hand, if it has not occurred, it is determined that the driver's wakefulness is low and that the driver is not in the wakeful state in which manual driving can be executed.
  • FIGS. 25 and 26 are flowcharts illustrating a sequence of driver awakening degree determination processing executed by the information processing apparatus of the present disclosure. Note that the processing according to the flowcharts shown in FIGS. 25 and 26 can be executed according to a program stored in the storage unit of the information processing apparatus, and is executed by a data processing unit having a program execution function such as a CPU. It The processing of each step of the flow shown in FIG. 25 will be sequentially described below.
  • Step S101 First, in step S101, the data processing unit of the information processing device acquires the eyeball behavior characteristic data (learning data).
  • the driver's eyeball behavior analysis unit 63 of the data processing unit 11 shown in FIG. 6 obtains the driver's unique eyeball behavior characteristic data (learning data) from the memory (storage unit) in the driver's eyeball behavior learning device 64. It is executed as a process to acquire.
  • the learning data may be generated and held by an external server. In this case, the learning data is acquired from the external server.
  • the eye behavior characteristic data (learning data) peculiar to the driver is the data already acquired by the learning process executed in advance. As described above, there are individual differences in eyeball behavior, and it is preferable to perform processing based on driver-specific data rather than performing similar processing for all drivers.
  • the driver's awakening state may be different between a driver or a race driver who has a lot of driving experience and a beginner driver, even if the same eyeball behavior is performed. Therefore, it is preferable to determine the awakening level by using the learning dictionary generated by the learning process for each driver. If the individual learning data is not generated, the process is performed using the average human eye behavior characteristic data (learning data) prepared in advance.
  • Step S102 driver information is acquired.
  • the process is a process executed by the driver information acquisition unit 12 shown in FIG.
  • the driver information acquired in this step S102 is mainly passive information, and the movement of the driver's face is acquired by the driver face tracking unit (Driver Physical Tracker) 51 shown in FIG. Based on the acquired movement of the driver's face, it is determined whether or not the display unit that presents the task is selected, and the display unit selection processing and the like are performed.
  • step S103 If it is determined in step S103 that the display unit for presenting the task and the eyeball behavior analysis process can be executed based on the driver information, the process proceeds to step S104.
  • step S104 the display information displayed on the display unit visible to the driver, that is, the task is generated or selected.
  • This process is a process executed by the display information generation unit 61 of the data processing unit 11 shown in FIG.
  • the display information generation unit 61 generates a task to be displayed on the display unit 16. Specifically, a problem such as selecting one design having different characteristics from the silhouettes of the plurality of animals described above is generated.
  • the display information storage unit 17 illustrated in FIG. 6 stores tasks that can be used to generate various tasks and data for task generation, and the display information generation unit 61 includes the display information storage unit 17 The task stored in the item is selected, or the task to be displayed on the display unit 16 is generated by using the stored data.
  • the problem is, for example, the problem described above with reference to FIGS. 9 to 24.
  • the driver's eyeball behavior includes saccade (eyeball rotation), fixation, and microscopic. This is an issue that allows observation of specific eyeball behavior such as saccade (microscopic rotation of the eyeball).
  • step S105 the display information selected or generated in step S104, that is, the task is displayed on the display unit. This process is executed by the display unit selection unit 62 shown in FIG.
  • the display selection unit 62 shown in FIG. 6 selects a display unit for displaying the task generated by the display information generation unit 61.
  • the display unit 16 includes a display unit A (instrument panel) 71, a display unit B (front window display unit) 72, a display unit C (wearable/portable display unit) 73, and a display unit D (HUD). (Head-up display) 74 and the like.
  • the display selection unit 62 generates display information based on the driver's face and head movement information detected by the driver face tracking unit (Driver Physical Tracker) 51.
  • the task is displayed by selecting it as a display unit for displaying the task generated by the unit 61.
  • Step S106 Next, in step S106, the awakening degree determination process based on the eyeball behavior analysis is executed.
  • This process is a process executed by the driver eyeball behavior analysis unit 63 and the driver awakening degree determination unit 65 shown in FIG.
  • the driver's eyeball behavior analysis unit 63 shown in FIG. 6 inputs the movement information of the driver's eyeball detected by the driver's eyeball tracking unit (Driver Eye Tracker) 52 shown in FIG. 6 and analyzes the movement of the driver's eyeball. To do.
  • the driver moves his or her line of sight to the task in order to obtain the answer to the task.
  • the display unit 16 displays a visual task that requires a decision to select one of the animal silhouettes having different characteristics.
  • the driver performs eye movements to supplement necessary information. For example, it performs eyeball behavior such as saccade (eyeball rotation), fixation (Fixation), and microsaccade (microball rotation) of the eyeball.
  • the driver's eyeball behavior analysis unit 63 analyzes the eyeball behavior of these drivers.
  • the eyeball behavior information analyzed by the driver eyeball behavior analysis unit 63 is input to the driver awakening degree determination unit 65.
  • the driver awakening degree determination unit 65 determines the driver's awakening degree based on the eyeball behavior information analyzed by the driver eyeball behavior analysis unit 63. If it is confirmed that the driver is performing eye movements such as saccade (eye rotation), fixation (Fixation) and micro saccade (micro rotation) to solve the problem, driving The awakening degree determination unit 65 determines that the awakening degree of the driver is high. On the other hand, when these eyeball behaviors are not observed or when the eyeball behaviors are small, the driver alertness determination unit 65 determines that the driver alertness is low.
  • step S106 A detailed flow of the process of step S106 is shown in FIG. The processing of each step of the flow shown in FIG. 26 will be described.
  • Step S201 First, in step S201, observation data of the eyeball behavior of the driver after the assignment presentation is acquired.
  • This process is a process executed by the driver's eyeball behavior analysis unit 63 shown in FIG.
  • the driver's eyeball behavior analysis unit 63 acquires acceleration data of the movement of the driver's eyeball detected by the driver's eyeball tracking unit (Driver Eye Tracker) 52 shown in FIG. 6.
  • step S202 eyeball behavior information such as saccade (eyeball rotation), fixation (Fixation) and microsaccade (eyeball microrotation) of the eyeball is acquired from the observation data acquired in step S201.
  • saccade eyeball rotation
  • fixation Fixation
  • microsaccade eyeball microrotation
  • This process is also a process executed by the driver's eyeball behavior analysis unit 63 shown in FIG.
  • the driver when the task is displayed on the display unit, the driver performs an eye movement to acquire information necessary for solving the task. For example, it performs eyeball behavior such as saccade (eyeball rotation), fixation (Fixation), and microsaccade (microball rotation) of the eyeball.
  • the driver's eyeball behavior analysis unit 63 extracts the driver's eyeball behavior information from the observation data.
  • step S203 the driver's eyeball behavior analysis unit 63 determines whether or not sufficient data for awakening degree determination has been acquired.
  • eyeball behavior information such as saccade (eyeball rotation), fixation (Fixation) and microsaccade (microball rotation) extracted from the driver's observation data is data corresponding to the problem solving process. It is determined whether or not the data is sufficient to determine whether or not
  • step S204 If it is determined to be sufficient, the process proceeds to step S204. On the other hand, if it is determined to be insufficient, the process proceeds to step S205.
  • step S204 the eyeball behavior information such as saccade (eyeball rotation), fixation (Fixation) and microsaccade (microball rotation) extracted from the driver's observation data is data corresponding to the problem solving process. If it is determined that the data is sufficient for determining whether or not there is, the process proceeds to step S204.
  • step S204 the awakening degree of the driver is determined based on the observation data of the eyeball behavior of the driver after the task presentation.
  • This process is a process executed by the driver alertness determination unit 65 shown in FIG.
  • the driver alertness determination unit 65 illustrated in FIG. 6 is based on the eye behavior of the driver after the task presentation, that is, eye behavior observation information such as saccade (eye rotation), fixation, microsaccade (eye rotation), and the like. Then, the driver's awakening degree is determined.
  • the driver wakefulness determination unit 65 determines whether the driver performs eyeball behavior such as saccade (eyeball rotation), fixation (Fixation), microsaccade (microball rotation) to solve the problem. Analyze whether or not.
  • the driver awakening degree determination unit 65 determines that the eyeball behavior of the driver corresponds to saccade (eyeball rotation), fixation (Fixation) or microsaccade (microball rotation) for solving a problem. If it is determined, it is determined that the driver's arousal level is high. On the other hand, when these eyeball behaviors are not observed or when the eyeball behaviors are small, it is determined that the driver's arousal level is low. When this awakening degree determination process is completed, the process proceeds to step S107 in the flow of FIG.
  • Step S205 On the other hand, in step S203, the eyeball behavior information such as the saccade (eyeball rotation), the fixation (Fixation) and the microsaccade (eyeball microrotation) extracted from the driver's observation data corresponds to the problem solving process. If it is determined that the data is not sufficient for determining whether or not it is data, the process proceeds to step S205.
  • the saccade eyeball rotation
  • the fixation Fixation
  • microsaccade eyeball microrotation
  • step S205 it is determined whether or not the upper limit of the number of retries of the awakening degree determination process defined in advance has been reached.
  • step S104 new display information (problem) is presented, and the processing of observing the eyeball behavior of the driver is executed again.
  • step S110 it is determined that the wakefulness evaluation has failed, that is, it is not confirmed that the driver has the wakefulness capable of returning to the manual driving, and the process ends. In this case, the return to the manual operation is not allowed, and the vehicle performs a process such as an emergency stop to avoid entering the manual operation section.
  • Step S107 The process of step S107 is executed after the awakening level determination process based on the eyeball behavior analysis is completed in step S106.
  • step S107 it is determined whether or not the driver's arousal level is at a level at which manual driving can be performed, as a result of the awakening level determination processing result by the eyeball behavior analysis in step S106.
  • This process is a process executed by the driver alertness determination unit 65 shown in FIG.
  • the driver awakening degree determination unit 65 is based on the eyeball behavior of the driver after the task presentation, that is, the eyeball behavior observation information such as saccade (eyeball rotation), fixation, and microsaccade (eyeball microrotation). Then, the driver's awakening degree is determined.
  • the driver awakening degree determination unit 65 determines that the eyeball behavior of the driver corresponds to saccade (eyeball rotation), fixation (Fixation) or microsaccade (microball rotation) for solving a problem.
  • saccade eyeball rotation
  • Fixation fixation
  • microsaccade microball rotation
  • step S107 determines that the driver's arousal level is low and that the driver cannot perform manual driving. In this case, the determination in step S107 is No, and the process proceeds to step S109.
  • Step S108 When it is determined in step S107 that the driver's arousal level is high and the driver is at a level at which manual driving can be performed, in step S108, the awakening level evaluation is determined to be acceptable, and the return to the manual driving is permitted.
  • Step S109 On the other hand, if it is determined in step S107 that the driver's arousal level is low and the level at which manual driving is not possible is reached, in step S109 the upper limit of the number of retries of the awakening level determination process defined in advance has been reached. Determine whether or not.
  • step S104 new display information (problem) is presented, and the processing of observing the eyeball behavior of the driver is executed again.
  • the process proceeds to step S110.
  • Step S110 If it is determined in step S109 that the upper limit of the number of retries of the awakening degree determination process defined in advance has been reached, the process of step S110 is executed.
  • step S110 it is determined that the wakefulness evaluation fails, that is, it is not confirmed that the driver has the wakefulness capable of returning to the manual driving, and the process ends.
  • the return to the manual operation is not allowed, and the vehicle performs a process such as an emergency stop to avoid entering the manual operation section.
  • the information processing device of the present disclosure presents a visual problem to the driver before returning to manual driving, and analyzes the eyeball behavior of the driver that occurs when the problem is solved. Specifically, it is expected that the driver's eye movements will induce specific eye movements such as saccade (eyeball rotation), fixation, and microsaccade (microball rotation) for solving problems.
  • eye movements such as saccade (eyeball rotation), fixation, and microsaccade (microball rotation) for solving problems.
  • saccade eyeball rotation
  • fixation fixation
  • microsaccade microball rotation
  • the process from visual information confirmation to the solution of the actual task is the driver's current state, the repeated implementation status of the same task, the behavioral characteristics of confirming the question after looking at the answer options, the degree of fatigue, Individual characteristics may differ greatly due to the influence of various factors such as visual acuity, visual acuity, external light interference, and wandering of the mind. Therefore, in order to make a judgment with high accuracy, a driver-specific generated by learning processing such as recovery quality (normal recovery, delayed recovery, abandonment of recovery, system emergency response) that occurs each time from repeated use over a long period of time It is preferable to use the return prediction dictionary data of. It is desirable to execute normal return prediction based on the result of eyeball behavior characteristic analysis using driver's unique return prediction dictionary data. By these processes, safe manual operation can be started.
  • recovery quality normal recovery, delayed recovery, abandonment of recovery, system emergency response
  • the determination process of whether or not the driver is in a state where safe manual driving can be started, and the input data to the above-mentioned learning device are the data acquisition unit described later. It is preferable that the vehicle 102, the road environment information, the state based on the biometric signal of the driver, and the history information obtained from 102 are included.
  • the configuration of the present disclosure determines whether or not the driver has an awakening degree capable of returning to the manual driving based on the eyeball behavior of the driver of the moving device capable of switching the automatic driving and the manual driving. It was possible.
  • the analysis method of the eye behavior is the brain activity of the subject.
  • the externally observable reflection can be analyzed, and various uses are possible in addition to determining the driver's state at the time of handing over from automatic operation to manual operation.
  • the eyeball behavior analysis method described above is for observing the correlation result with the memory information for the task, and can be used in various ways by observing and determining the reaction to the presented task. If the task presented to the subject needs to be matched with the subject's memory, the process of obtaining the answer reflects the subject's condition and psychology. Therefore, for example, it can be applied to the determination of the authenticity of the respondent when presenting a report subject such as a drinking report or an overwork labor report.
  • the presentation of tasks need not be limited to vehicle operation.
  • events and occupations such as aircraft operation, train operation, crane operation, air traffic controller, remote autonomous traffic controller, etc., as well as extended use for authenticity evaluation by psychological analysis when self-reporting It is possible.
  • the subject chooses the visual information required to solve some problem, the superior temporal groove of the temporal lobe, the parietal groove when paying attention, and the frontal cortex when moving the eye It is known.
  • the hippocampus inside the temporal lobe works to recollect what we remember.
  • the eyeball behavior analysis process of the present disclosure can also be used as a process of verifying or monitoring the mental health of a subject such as a driver. Specifically, for example, it can be used for safe operation by grasping the state of a driver of a commercial vehicle such as a bus or taxi and by using it for health management.
  • FIG. 27 shows a configuration example of the mobile device 100. Note that, hereinafter, when distinguishing a vehicle provided with the moving device 100 from other vehicles, the vehicle is referred to as the own vehicle or the own vehicle.
  • the mobile device 100 includes an input unit 101, a data acquisition unit 102, a communication unit 103, an in-vehicle device 104, an output control unit 105, an output unit 106, a drive system control unit 107, a drive system system 108, a body system control unit 109, a body system.
  • storage part 111, and the automatic driving control part 112 are provided.
  • the communication network 121 is, for example, an in-vehicle communication network or a bus compliant with any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark). Become.
  • each unit of the mobile device 100 may be directly connected without using the communication network 121.
  • the input unit 101 includes a device used by the passenger to input various data and instructions.
  • the input unit 101 includes an operation device such as a touch panel, a button, a microphone, a switch, and a lever, and an operation device that can be input by a method other than manual operation such as voice or gesture.
  • the input unit 101 may be a remote control device that uses infrared rays or other radio waves, or an externally connected device such as a mobile device or a wearable device that supports the operation of the mobile device 100.
  • the input unit 101 generates an input signal based on the data and instructions input by the passenger, and supplies the input signal to each unit of the mobile device 100.
  • the data acquisition unit 102 includes various sensors that acquire data used in the processing of the mobile device 100, and supplies the acquired data to each unit of the mobile device 100.
  • the data acquisition unit 102 includes various sensors for detecting the state of the vehicle and the like.
  • the data acquisition unit 102 includes a gyro sensor, an acceleration sensor, an inertial measurement unit (IMU), an accelerator pedal operation amount, a brake pedal operation amount, a steering wheel steering angle, and an engine speed. It is provided with a sensor or the like for detecting the number of rotations of the motor or the rotation speed of the wheels.
  • IMU inertial measurement unit
  • the data acquisition unit 102 includes various sensors for detecting information outside the vehicle.
  • the data acquisition unit 102 includes imaging devices such as a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the data acquisition unit 102 includes an environment sensor for detecting weather or weather, and an ambient information detection sensor for detecting an object around the vehicle.
  • the environment sensor includes, for example, a raindrop sensor, a fog sensor, a sunshine sensor, a snow sensor, and the like.
  • the ambient information detection sensor includes, for example, an ultrasonic sensor, radar, LiDAR (Light Detection and Ranging, Laser Imaging and Detection and Ranging), sonar, and the like.
  • FIG. 28 shows an installation example of various sensors for detecting external information of the vehicle.
  • the imaging devices 7910, 7912, 7914, 7916, 7918 are provided at at least one of the front nose of the vehicle 7900, the side mirrors, the rear bumper, the back door, and the upper part of the windshield inside the vehicle.
  • the image pickup device 7910 provided on the front nose and the image pickup device 7918 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 7900.
  • the image pickup devices 7912 and 7914 provided in the side mirrors mainly acquire an image of the side of the vehicle 7900.
  • the imaging device 7916 provided in the rear bumper or the back door mainly acquires an image of the rear of the vehicle 7900.
  • the imaging device 7918 provided on the upper part of the windshield in the vehicle interior is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic signal, a traffic sign, a lane, or the like. Further, in automatic driving in the future, when the vehicle turns right or left, it may be extended to a pedestrian crossing a road on the right or left turn destination in a wide area or even a range of approaching objects.
  • FIG. 28 shows an example of the shooting ranges of the respective image pickup devices 7910, 7912, 7914, 7916.
  • the imaging range a indicates the imaging range of the imaging device 7910 provided on the front nose
  • the imaging ranges b and c indicate the imaging ranges of the imaging devices 7912 and 7914 provided on the side mirrors
  • the imaging range d is The imaging range of the imaging device 7916 provided in the rear bumper or the back door is shown.
  • a bird's-eye view image of the vehicle 7900 viewed from above and an all-round stereoscopic display image that surrounds the vehicle periphery with a curved plane, Is obtained.
  • the sensors 7920, 7922, 7924, 7926, 7928, 7930 provided on the front, rear, sides, corners of the vehicle 7900 and on the upper part of the windshield inside the vehicle may be, for example, ultrasonic sensors or radars.
  • the sensors 7920, 7926, 7930 provided on the front nose, the rear bumper, the back door of the vehicle 7900 and the upper part of the windshield in the vehicle compartment may be LiDAR, for example.
  • These sensors 7920 to 7930 are mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, or the like. These detection results may be further applied to the improvement of the three-dimensional object display such as the bird's-eye view display or the omnidirectional three-dimensional display.
  • the data acquisition unit 102 includes various sensors for detecting the current position of the vehicle. Specifically, for example, the data acquisition unit 102 includes a GNSS receiver that receives a GNSS signal from a GNSS (Global Navigation Satellite System) satellite.
  • GNSS Global Navigation Satellite System
  • the data acquisition unit 102 includes various sensors for detecting information inside the vehicle.
  • the data acquisition unit 102 includes an imaging device that images the driver, a biometric sensor that detects biometric information of the driver, and a microphone that collects sound in the vehicle interior.
  • the biometric sensor is provided on, for example, a seat surface or a steering wheel, and detects the sitting state of a passenger sitting in a seat or the biometric information of a driver holding the steering wheel.
  • Biological signals include heart rate, pulse rate, blood flow, respiration, mind-body correlation, visual stimulation, EEG, sweating state, head posture behavior, eye, gaze, blink, saccade, microsaccade, fixation, drift, gaze , Various observable data such as pupil reaction of iris are available.
  • the observable biological activity information that reflects the observable driving state is aggregated as observable evaluation values estimated from observations, and the return delay time characteristics associated with the log of the evaluation values indicate the return delay of the relevant driver.
  • the unique characteristic of the case is used by the safety determination unit 155 to be described later to calculate the return notification timing. Further, it is used to determine the awakening degree of the driver, and is also used to determine whether or not to allow the manual driving return based on the awakening degree determination result.
  • the communication unit 103 communicates with the in-vehicle device 104 and various devices outside the vehicle, a server, a base station, etc., and transmits data supplied from each unit of the mobile device 100 and receives received data from the mobile device 100. It is supplied to each part.
  • the communication protocol supported by the communication unit 103 is not particularly limited, and the communication unit 103 can support a plurality of types of communication protocols.
  • the communication unit 103 wirelessly communicates with the in-vehicle device 104 by a wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), WUSB (Wireless USB), or the like. Further, for example, the communication unit 103 uses a USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), or MHL (via a connection terminal (and a cable, if necessary), not shown. Mobile (High-definition Link) and the like are used to perform wired communication with the in-vehicle device 104.
  • USB Universal Serial Bus
  • HDMI registered trademark
  • MHL via a connection terminal (and a cable, if necessary
  • the communication unit 103 communicates with a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or a network unique to a business operator) via a base station or an access point. Communicate.
  • a device for example, an application server or a control server
  • an external network for example, the Internet, a cloud network, or a network unique to a business operator
  • the communication unit 103 uses P2P (Peer To Peer) technology to communicate with terminals (for example, pedestrian or store terminals, or MTC (Machine Type Communication) terminals) that are in the vicinity of the vehicle. Communicate.
  • P2P Peer To Peer
  • terminals for example, pedestrian or store terminals, or MTC (Machine Type Communication) terminals
  • the communication unit 103 may be a vehicle-to-vehicle communication, a vehicle-to-infrastructure communication, a vehicle-to-home communication between the own vehicle and a house, and a vehicle-to-pedestrian communication. ) Perform V2X communication such as communication.
  • the communication unit 103 includes a beacon receiving unit, receives radio waves or electromagnetic waves transmitted from a wireless station installed on the road, and obtains information such as the current position, traffic congestion, traffic regulation, and required time. To do.
  • the vehicle is paired with a forward traveling vehicle during traveling in a section that may be a leading vehicle through the communication unit, and the information obtained from the data acquisition unit mounted on the front vehicle is obtained as pre-run information, and the data acquisition unit 102 of the own vehicle is acquired. It may be used as a supplement to the data, and it will be a means to ensure the safety of the following platoons, especially when the platooning by the leading vehicle is performed.
  • the in-vehicle device 104 is, for example, a mobile device (tablet, smartphone, etc.) or a wearable device that the passenger has, an information device that is carried in or attached to the vehicle, and a navigation device that searches for a route to an arbitrary destination. including.
  • a mobile device tablet, smartphone, etc.
  • a wearable device that the passenger has, an information device that is carried in or attached to the vehicle, and a navigation device that searches for a route to an arbitrary destination. including.
  • the description is given by limiting the information presentation of the driver's intervention required point to the corresponding driver, but the information provision is further provided to the following vehicle by platooning etc.
  • it may be used in combination with remote driving support as appropriate.
  • the output control unit 105 controls the output of various information to the passengers of the own vehicle or the outside of the vehicle.
  • the output control unit 105 generates an output signal including at least one of visual information (for example, image data) and auditory information (for example, audio data), and supplies the output signal to the output unit 106 to output the output signal. It controls the output of visual and auditory information from 106.
  • the output control unit 105 synthesizes image data captured by different imaging devices of the data acquisition unit 102 to generate a bird's-eye view image or a panoramic image, and outputs an output signal including the generated image. It is supplied to the output unit 106.
  • the output control unit 105 generates voice data including a warning sound or a warning message for a danger such as collision, contact, or entry into a dangerous zone, and outputs an output signal including the generated voice data to the output unit 106.
  • Supply for example, the output control unit 105 generates voice data including a warning sound or a warning message for a danger such as collision, contact, or
  • the output unit 106 includes a device capable of outputting visual information or auditory information to a passenger in the vehicle or outside the vehicle.
  • the output unit 106 includes a display device, an instrument panel, an audio speaker, headphones, a wearable device such as a glasses-type display worn by a passenger, a projector, a lamp, and the like.
  • the display device included in the output unit 106 includes visual information in the driver's visual field, such as a head-up display, a transmissive display, or a device having an AR (Augmented Reality) display function, in addition to a device having a normal display. It may be a display device.
  • the drive system control unit 107 controls the drive system system 108 by generating various control signals and supplying them to the drive system system 108. In addition, the drive system control unit 107 supplies a control signal to each unit other than the drive system system 108 as necessary to notify the control state of the drive system system 108 and the like.
  • the drive system 108 includes various devices related to the drive system of the vehicle.
  • the drive system 108 includes a drive force generation device for generating a drive force of an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to wheels, a steering mechanism for adjusting a steering angle, A braking device that generates braking force, an ABS (Antilock Brake System), an ESC (Electronic Stability Control), an electric power steering device, and the like are provided.
  • the body system control unit 109 controls the body system 110 by generating various control signals and supplying them to the body system 110. Further, the body system control unit 109 supplies a control signal to each unit other than the body system system 110 as necessary to notify the control state of the body system system 110 and the like.
  • the body type system 110 includes various body type devices mounted on the vehicle body.
  • the body system 110 includes a keyless entry system, a smart key system, a power window device, a power seat, a steering wheel, an air conditioner, and various lamps (for example, headlights, backlights, brake lights, blinkers, fog lights, etc.). And so on.
  • the storage unit 111 includes, for example, a magnetic storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), and a HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, and a magneto-optical storage device. ..
  • the storage unit 111 stores various programs and data used by each unit of the mobile device 100.
  • the storage unit 111 stores map data such as a three-dimensional high-precision map such as a dynamic map, a global map having a lower precision than the high-precision map and covering a wide area, and a local map including information around the vehicle.
  • Map data such as a three-dimensional high-precision map such as a dynamic map, a global map having a lower precision than the high-precision map and covering a wide area, and a local map including information around the vehicle.
  • the automatic driving control unit 112 controls automatic driving such as autonomous driving or driving support. Specifically, for example, the automatic driving control unit 112 may perform collision avoidance or impact mitigation of the own vehicle, follow-up traveling based on an inter-vehicle distance, vehicle speed maintenance traveling, collision warning of the own vehicle, or lane departure warning of the own vehicle. Performs coordinated control for the purpose of realizing the functions of ADAS (Advanced Driver Assistance System) including ADAS (Advanced Driver Assistance System). Further, for example, the automatic driving control unit 112 performs cooperative control for the purpose of autonomous driving that autonomously travels without depending on the operation of the driver.
  • the automatic driving control unit 112 includes a detection unit 131, a self-position estimation unit 132, a situation analysis unit 133, a planning unit 134, and an operation control unit 135.
  • the detection unit 131 detects various kinds of information necessary for controlling automatic driving.
  • the detection unit 131 includes a vehicle exterior information detection unit 141, a vehicle interior information detection unit 142, and a vehicle state detection unit 143.
  • the outside-vehicle information detection unit 141 performs detection processing of information outside the own vehicle based on data or signals from each unit of the mobile device 100.
  • the vehicle exterior information detection unit 141 performs detection processing, recognition processing, and tracking processing of objects around the vehicle, and detection processing of distances to objects and relative speeds.
  • Objects to be detected include, for example, vehicles, people, obstacles, structures, roads, traffic lights, traffic signs, and road markings.
  • the vehicle exterior information detection unit 141 performs a detection process of the environment around the vehicle.
  • the surrounding environment to be detected includes, for example, weather, temperature, humidity, brightness, and road surface condition.
  • the outside-vehicle information detection unit 141 uses the data indicating the result of the detection process as the self-position estimation unit 132, the map analysis unit 151 of the situation analysis unit 133, the traffic rule recognition unit 152, the situation recognition unit 153, and the operation control unit 135. It is supplied to the emergency avoidance unit 171 or the like.
  • the information acquired by the vehicle exterior information detection unit 141 is a section to which the local dynamic map (LDM) constantly updated as the section in which the traveling section can be mainly driven for autonomous driving is supplied from the infrastructure
  • the information is mainly the infrastructure. It may be possible to receive information supply from the vehicle or to travel by always receiving information update prior to entering a section from a vehicle or a group of vehicles traveling ahead in the section.
  • LDM local dynamic map
  • road environment information obtained from the section intrusion leading vehicle for the purpose of obtaining more safe road information immediately before the intrusion section such as platooning. May be complementarily used.
  • the section where autonomous driving is possible depends on the presence or absence of prior information provided by these infrastructures.
  • the updated fresh local dynamic map (LDM) that constitutes the information on the availability of autonomous driving on the route provided by the infrastructure is equivalent to providing a track that is not visible as so-called "information”.
  • the vehicle exterior information detection unit 141 is illustrated on the assumption that it is mounted on the vehicle for the sake of convenience, the information that the preceding vehicle has captured as “information” is used to further enhance the predictability during traveling. Is also good.
  • the in-vehicle information detection unit 142 performs in-vehicle information detection processing based on data or signals from each unit of the mobile device 100.
  • the in-vehicle information detection unit 142 performs driver authentication processing and recognition processing, driver state detection processing, passenger detection processing, and in-vehicle environment detection processing.
  • the driver's state to be detected includes, for example, physical condition, arousal level, concentration level, fatigue level, line-of-sight direction, detailed eyeball behavior, and the like.
  • the in-vehicle information detection unit 142 mainly has two major roles: the first role is passive monitoring of the driver's state during automatic driving, and the second role is to recover from the system. After the request is made, the driver's peripheral recognition, perception, and judgment, as well as the detection judgment of the operating capacity of the steering device, are made to the level at which manual driving is possible before reaching the section of careful driving. As a control, a failure self-diagnosis of the entire vehicle may be further performed, and when the function of the automatic driving deteriorates due to a partial malfunction of the automatic driving, the driver may similarly be prompted to return to the early manual driving.
  • Passive monitoring here refers to a type of detection means that does not require a conscious response reaction from the driver, and excludes objects that detect a response signal by transmitting physical radio waves or light from the device. is not. In other words, it refers to unconscious driver state monitoring such as during a nap, and the classification that is not a driver's cognitive response reaction is a passive method. It does not exclude active response devices that analyze and evaluate reflected or diffused signals irradiated by radio waves or infrared rays. On the other hand, the thing which asks the driver for a conscious response is called active.
  • the environment inside the vehicle to be detected includes, for example, temperature, humidity, brightness, odor, etc.
  • the in-vehicle information detection unit 142 supplies data indicating the result of the detection process to the situation recognition unit 153 of the situation analysis unit 133 and the operation control unit 135.
  • the driver could not achieve the manual operation within the appropriate deadline after the system instructed the driver to return to the operation, and even if the deceleration control was performed as it was and the time was delayed, the driver could not take over.
  • the system issues an instruction to the emergency situation avoidance unit 171 of the system, and starts deceleration, evacuation/stop procedures to evacuate the vehicle.
  • the vehicle can be decelerated early so that the arrival time to reach the takeover limit can be earned.
  • the system has a time margin for dealing with events, and it is possible to take measures for ensuring safety.
  • application of the slowdown or slowdown is limited because it increases the traffic congestion inducing factor and the risk of a rear-end collision.
  • the vehicle state detection unit 143 performs detection processing of the state of the own vehicle based on data or signals from each unit of the mobile device 100.
  • the state of the vehicle to be detected includes, for example, speed, acceleration, steering angle, presence or absence of abnormality, content of driving operation, position and inclination of power seat, state of door lock, and other in-vehicle devices. State etc. are included.
  • the vehicle state detection unit 143 supplies the data indicating the result of the detection process to the situation recognition unit 153 of the situation analysis unit 133, the emergency situation avoidance unit 171 of the operation control unit 135, and the like.
  • the self-position estimating unit 132 estimates the position and orientation of the own vehicle based on data or signals from each unit of the mobile device 100 such as the vehicle exterior information detecting unit 141 and the situation recognizing unit 153 of the situation analyzing unit 133. I do. Moreover, the self-position estimation unit 132 generates a local map (hereinafter, referred to as a self-position estimation map) used for estimating the self-position, if necessary.
  • a self-position estimation map used for estimating the self-position, if necessary.
  • the self-position estimation map is, for example, a high-precision map using a technology such as SLAM (Simultaneous Localization and Mapping).
  • the self-position estimation unit 132 supplies data indicating the result of the estimation process to the map analysis unit 151, the traffic rule recognition unit 152, the situation recognition unit 153, and the like of the situation analysis unit 133. Also, the self-position estimation unit 132 stores the self-position estimation map in the storage unit 111.
  • the situation analysis unit 133 analyzes the situation of the vehicle and surroundings.
  • the situation analysis unit 133 includes a map analysis unit 151, a traffic rule recognition unit 152, a situation recognition unit 153, a situation prediction unit 154, and a safety determination unit 155.
  • the map analysis unit 151 analyzes various maps stored in the storage unit 111 while using data or signals from each unit of the mobile device 100 such as the self-position estimation unit 132 and the vehicle exterior information detection unit 141 as necessary. Process and build a map containing the information needed to process autonomous driving.
  • the map analysis unit 151 uses the constructed map as a traffic rule recognition unit 152, a situation recognition unit 153, a situation prediction unit 154, a route planning unit 161, a behavior planning unit 162, and a motion planning unit 163 of the planning unit 134. Supply to.
  • the traffic rule recognition unit 152 recognizes a traffic rule around the vehicle on the basis of data or signals from each unit of the mobile device 100 such as the self-position estimation unit 132, the vehicle outside information detection unit 141, and the map analysis unit 151. Perform processing. By this recognition processing, for example, the position and state of the signal around the own vehicle, the content of traffic regulation around the own vehicle, the lane in which the vehicle can travel, and the like are recognized.
  • the traffic rule recognition unit 152 supplies data indicating the result of the recognition process to the situation prediction unit 154 and the like.
  • the situation recognition unit 153 is based on data or signals from the self-position estimation unit 132, the vehicle exterior information detection unit 141, the vehicle interior information detection unit 142, the vehicle state detection unit 143, and each unit of the mobile device 100 such as the map analysis unit 151. Then, the recognition process of the situation regarding the own vehicle is performed. For example, the situation recognition unit 153 performs recognition processing of the situation of the own vehicle, the situation around the own vehicle, the situation of the driver of the own vehicle, and the like. Further, the situation recognition unit 153 generates a local map (hereinafter, referred to as a situation recognition map) used for recognizing the situation around the own vehicle, as necessary.
  • the situation recognition map is, for example, an occupied grid map (Occupancy Grid Map).
  • the situation of the subject vehicle to be recognized includes, for example, the position, the posture, the movement (for example, speed, acceleration, moving direction, etc.) of the subject vehicle, and the freight load amount and freight loading that determine the movement characteristics of the subject vehicle.
  • the return start timing required for control differs depending on the characteristics of the vehicle itself, even on the same road environment such as the friction coefficient of the loaded surface, the road friction coefficient, the road curve and the slope, and the load, etc. Therefore, it is necessary to collect these various conditions, reflect them on the optimal timing for learning and control.
  • a parameter that determines the addition of the desired grace period for restoration may be set as a fixed value in advance in order to ensure a certain level of safety according to the characteristics peculiar to the load, and not all notification timings are required. It is not necessary to adopt a method of uniformly determining the decision condition by self-accumulation learning.
  • the situation around the subject vehicle to be recognized includes, for example, the type and position of the surrounding stationary object, the type, position and movement of the surrounding moving object (for example, speed, acceleration, moving direction, etc.), and the surrounding road. It includes configuration and road surface condition, ambient weather, temperature, humidity, and brightness.
  • the driver's state to be recognized includes, for example, physical condition, arousal level, concentration level, fatigue level, line-of-sight movement, and driving operation.
  • Driving a vehicle safely means loading the vehicle in a unique state, fixing the chassis of the loading section, deviating the center of gravity, maximally decelerable acceleration value, maximal loadable centrifugal force, driver
  • the situation recognition unit 153 supplies data indicating the result of the recognition process (including a situation recognition map, if necessary) to the self-position estimation unit 132, the situation prediction unit 154, and the like.
  • the situation recognition unit 153 also stores the situation recognition map in the storage unit 111.
  • the situation predicting unit 154 performs a process of predicting the situation regarding the vehicle based on data or signals from each unit of the mobile device 100 such as the map analyzing unit 151, the traffic rule recognizing unit 152, and the situation recognizing unit 153.
  • the situation prediction unit 154 performs a prediction process of the situation of the own vehicle, the situation around the own vehicle, the situation of the driver, and the like.
  • the situation of the subject vehicle to be predicted includes, for example, the behavior of the subject vehicle, occurrence of an abnormality, and the mileage that can be traveled.
  • the situation around the subject vehicle to be predicted includes, for example, the behavior of the moving body around the subject vehicle, a change in the signal state, and a change in the environment such as weather.
  • the driver's situation to be predicted includes, for example, the driver's behavior and physical condition.
  • the situation prediction unit 154 together with the data from the traffic rule recognition unit 152 and the situation recognition unit 153, data indicating the result of the prediction process, the route planning unit 161, the action planning unit 162, and the operation planning unit 163 of the planning unit 134. Etc.
  • the safety determination unit 155 learns the optimal return timing according to the driver's return behavior pattern, vehicle characteristics, etc., and provides the learning information to the situation recognition unit 153 and the like. As a result, for example, it is possible to present to the driver the statistically determined optimum timing required for the driver to normally return from the automatic driving to the manual driving at a predetermined ratio or more.
  • the route planning unit 161 plans a route to a destination based on data or signals from each unit of the mobile device 100 such as the map analysis unit 151 and the situation prediction unit 154. For example, the route planning unit 161 sets a route from the current position to the designated destination based on the global map. Further, for example, the route planning unit 161 appropriately changes the route based on traffic jams, accidents, traffic restrictions, construction conditions, and the physical condition of the driver. The route planning unit 161 supplies data indicating the planned route to the action planning unit 162 and the like.
  • the action planning unit 162 safely travels the route planned by the route planning unit 161 within the planned time based on data or signals from each unit of the mobile device 100 such as the map analysis unit 151 and the situation prediction unit 154. Plan your car's actions to do so. For example, the action planning unit 162 makes a plan such as starting, stopping, traveling direction (for example, forward, backward, turning left, turning right, turning, etc.), driving lane, traveling speed, and passing. The action planning unit 162 supplies data indicating the planned action of the own vehicle to the action planning unit 163 and the like.
  • the motion planning unit 163 based on the data or signals from each unit of the mobile device 100 such as the map analysis unit 151 and the situation prediction unit 154, calculates the motion of the vehicle for realizing the motion planned by the motion planning unit 162. To plan. For example, the motion planning unit 163 plans acceleration, deceleration, a traveling track, and the like.
  • the operation planning unit 163 supplies data indicating the planned operation of the own vehicle to the acceleration/deceleration control unit 172, the direction control unit 173, and the like of the operation control unit 135.
  • the operation control unit 135 controls the operation of the own vehicle.
  • the operation control unit 135 includes an emergency avoidance unit 171, an acceleration/deceleration control unit 172, and a direction control unit 173.
  • the emergency avoidance unit 171 is based on the detection results of the vehicle exterior information detection unit 141, the vehicle interior information detection unit 142, and the vehicle state detection unit 143, and collides, touches, enters a dangerous zone, the driver's abnormality, the vehicle Detects abnormal situations such as abnormalities.
  • the emergency avoidance unit 171 plans the operation of the own vehicle for avoiding an emergency such as a sudden stop or a sharp turn.
  • the emergency avoidance unit 171 supplies data indicating the planned operation of the own vehicle to the acceleration/deceleration control unit 172, the direction control unit 173, and the like.
  • the acceleration/deceleration control unit 172 performs acceleration/deceleration control for realizing the operation of the vehicle planned by the operation planning unit 163 or the emergency situation avoidance unit 171.
  • the acceleration/deceleration control unit 172 calculates the control target value of the driving force generation device or the braking device for realizing the planned acceleration, deceleration, or sudden stop, and drives the control command indicating the calculated control target value. It is supplied to the system control unit 107. There are two main cases in which an emergency can occur.
  • the direction control unit 173 performs direction control for realizing the operation of the vehicle planned by the operation planning unit 163 or the emergency avoidance unit 171. For example, the direction control unit 173 calculates the control target value of the steering mechanism for realizing the planned traveling track or sharp turn by the operation planning unit 163 or the emergency situation avoiding unit 171 and performs control to indicate the calculated control target value.
  • the command is supplied to the drive system control unit 107.
  • FIG. 29 is a diagram illustrating a hardware configuration example of the information processing device.
  • a CPU (Central Processing Unit) 501 functions as a data processing unit that executes various processes in accordance with a program stored in a ROM (Read Only Memory) 502 or a storage unit 508. For example, the processing according to the sequence described in the above embodiment is executed.
  • a RAM (Random Access Memory) 503 stores programs and data executed by the CPU 501. These CPU 501, ROM 502, and RAM 503 are connected to each other by a bus 504.
  • the CPU 501 is connected to an input/output interface 505 via a bus 504, and the input/output interface 505 includes inputs such as various switches, a keyboard, a touch panel, a mouse, a microphone, and a status data acquisition unit such as a sensor, a camera, and GPS.
  • An output unit 507 including a unit 506, a display and a speaker is connected. Input information from the sensor 521 is also input to the input unit 506.
  • the output unit 507 also outputs drive information for the drive unit 522 of the mobile device.
  • the CPU 501 inputs a command, situation data, and the like input from the input unit 506, executes various types of processing, and outputs the processing result to, for example, the output unit 507.
  • the storage unit 508 connected to the input/output interface 505 is composed of, for example, a hard disk, and stores programs executed by the CPU 501 and various data.
  • the communication unit 509 functions as a transmission/reception unit for data communication via a network such as the Internet or a local area network, and communicates with an external device.
  • a drive 510 connected to the input/output interface 505 drives a removable medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card, and records or reads data.
  • a removable medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card
  • a display information generation unit that generates or acquires an assignment and displays it on the display unit
  • An eyeball behavior analysis unit that analyzes the eyeball behavior of the user who observes the task displayed on the display unit
  • An information processing apparatus comprising: an awakening degree determination unit that determines an awakening degree of the user based on an analysis result of the eyeball behavior analysis unit.
  • At least one of the saccade of the eyeball (eyeball rotation), the fixation (Fixation), or the microsaccade (eyeball microrotation) is the eyeball behavior for the user to solve the task.
  • the information processing device according to (1) or (2), which is a problem that causes eyeball behavior.
  • the eyeball behavior analysis unit is The information processing apparatus according to any one of (1) to (3), which acquires data capable of determining whether or not the user is performing eyeball behavior for solving the problem.
  • the eyeball behavior analysis unit is As the eyeball behavior for the user to solve the problem, at least one of eyeball behavior of saccade (eyeball rotation), fixation (Fixation), or microsaccade (eyeball microrotation) is performed.
  • the information processing device according to any one of (1) to (4), which acquires data indicating whether or not there is.
  • the awakening degree determination unit From the eyeball behavior analysis unit, data that can be determined whether or not the user is performing eyeball behavior to solve the problem is input, and the awakening degree of the user is determined based on the input data (1 )-(5) The information processing device according to any one of the above.
  • the awakening degree determination unit From the eyeball behavior analysis unit, it is determined whether or not the user performs at least one eyeball behavior of saccade (eyeball rotation), fixation (Fixation), or microsaccade (eyeball microrotation).
  • the information processing apparatus according to any one of (1) to (6), wherein the data shown is input, and the awakening degree of the user is determined based on the input data.
  • the awakening degree determination unit When it is determined that the eyeball behavior of the user is eyeball behavior for solving the problem, it is determined that the awakening degree of the user is high, The information processing apparatus according to any one of (1) to (7), in which it is determined that the awakening degree of the user is low when it is not determined that the eyeball behavior of the user is an eyeball behavior for solving the problem.
  • the awakening degree determination unit The eyeball behavior of the user performs at least one of eyeball saccade (eyeball rotation), fixation (Fixation), or microsaccade (eyeball microrotation) as an eyeball behavior for solving the problem.
  • the information processing apparatus according to any one of (1) to (8), in which it is determined that the awakening degree of the user is high when it is determined that the user is awake.
  • the awakening degree determination unit The information processing apparatus according to any one of (1) to (9), in which it is determined whether the user has an awakening degree capable of executing manual driving.
  • the problem generated or acquired by the display information generation unit is The information processing apparatus according to any one of (1) to (10), wherein a plurality of silhouettes showing an object are arranged and a line-of-sight movement is required for each silhouette to solve the problem.
  • the problems generated or acquired by the display information generation unit are Information described in any one of (1) to (10), in which at least one data of a character, a symbol, a symbol, or a pictogram is arranged, and it is necessary to move the line of sight for each data in order to solve the problem. Processing equipment.
  • a mobile device capable of switching between automatic operation and manual operation A driver information acquisition unit that acquires driver information of the driver of the mobile device; Based on the acquired information of the driver information acquisition unit, a data processing unit that determines whether the driver has an awakening degree capable of returning to manual driving,
  • the data processing unit is A display information generation unit that generates or acquires an issue and displays it on the display unit;
  • An eyeball behavior analysis unit that analyzes the eyeball behavior of the driver observing the problem displayed on the display unit,
  • the awakening degree determination unit From the eyeball behavior analysis unit, input data that can determine whether the driver is performing eyeball behavior to solve the problem, and the driver can return to manual driving based on the input data.
  • the moving device according to (13), wherein it is determined whether or not the awakening degree is high.
  • the awakening degree determination unit Whether the driver performs at least one of the eyeball behavior of the saccade (eyeball rotation), the fixation (Fixation), and the microsaccade (eyeball microrotation) from the eyeball behavior analysis unit.
  • the control unit of the moving device allows the driver to start the manual driving
  • the control unit of the moving device does not allow the driver to start the manual driving
  • the manual driving section The mobile device according to any one of (13) to (15), which executes a process of avoiding entry into the mobile device.
  • An information processing method executed by an information processing device A display information generation unit, a display information generation step of generating or acquiring the assignment and displaying it on the display unit; Eye movement analysis unit, an eye movement analysis step of analyzing the eye movement of the user observing the task displayed on the display unit, An information processing method, wherein a wakefulness determination unit executes a wakefulness determination step of determining a wakefulness of the user based on an analysis result of the eyeball behavior analysis unit.
  • An information processing method executed by a mobile device is a moving device capable of switching between automatic operation and manual operation, A driver information acquisition unit, a driver information acquisition step of acquiring driver information of a driver of the mobile device;
  • the data processing unit executes a data processing step of determining whether or not the driver has an awakening degree capable of returning to manual driving based on the driver information,
  • a display information generation unit a display information generation step of generating or acquiring the assignment and displaying it on the display unit;
  • Eye movement analysis unit an eye movement analysis step of analyzing the eye movement of the user observing the task displayed on the display unit,
  • An information processing method wherein a wakefulness determination unit executes a wakefulness determination step of determining a wakefulness of the user based on an analysis result of the eyeball behavior analysis unit.
  • a program for executing information processing in an information processing device In the display information generation unit, a display information generation step of generating or acquiring the task and displaying it on the display unit, In the eyeball behavior analysis unit, an eyeball behavior analysis step of analyzing the eyeball behavior of the user who observes the task displayed on the display unit, A program that causes an awakening degree determination unit to execute an awakening degree determination step of determining the awakening degree of the user based on the analysis result of the eyeball behavior analysis unit.
  • the series of processes described in the specification can be executed by hardware, software, or a composite configuration of both.
  • the program in which the processing sequence is recorded is installed in the memory in the computer incorporated in the dedicated hardware and executed, or the program is stored in a general-purpose computer capable of executing various processing. It can be installed and run.
  • the program can be recorded in a recording medium in advance.
  • the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed in a recording medium such as a built-in hard disk.
  • the system will give a visual message information such as the reason for the takeover case. It is also possible to use the task of displaying with, and determining whether or not the message has been recognized.
  • the eyeball behavior of the driver who confirms the message is analyzed to determine whether the message is recognized.
  • the information search behavior may have left-right differences depending on the person's eyesight due to strabismus or monovision, so binocular analysis or one-eye analysis matching the task distance may be performed.
  • the analysis result of the eyeball behavior is other biometric information of the driver.
  • the mental health monitoring may be performed by applying to the estimation of the mental state of the driver and the calculation of the disease prediction coefficient together with the behavior information.
  • the various processes described in the specification may be executed not only in time series according to the description, but also in parallel or individually according to the processing capability of the device that executes the process or the need.
  • the system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of the respective configurations are in the same housing.
  • whether or not the driver has an awakening degree capable of manual driving is determined by the driver who is trying to solve the problem displayed on the display unit.
  • a configuration for analyzing and determining the eyeball behavior is realized. Specifically, for example, it is determined whether or not the driver has an awakening degree capable of returning to the manual driving, based on the eyeball behavior of the driver of the moving device capable of switching between the automatic driving and the manual driving.
  • An eyeball behavior analysis unit that analyzes the eyeball behavior of the driver who observes the task displayed on the display unit, and an awakening degree determination unit that determines the awakening degree of the driver based on the analysis result of the eyeball behavior analysis unit.
  • the awakening degree determination unit analyzes whether or not the driver is performing eye movements such as fixation or microsaccade to solve the problem, and determines whether or not the driver has the awakening degree capable of returning to manual driving. Determine whether. With this configuration, it is possible to realize a configuration in which whether or not the driver has an awakening degree capable of manual driving is determined by analyzing the eyeball behavior of the driver who is trying to solve the problem displayed on the display unit.
  • 74..Display unit 100..moving device, 101..input unit, 102..data acquisition unit, 103..communication unit, 104..in-vehicle device, 105..output control unit, 106..output unit, 107 ⁇ Drive system control unit, 108 ⁇ ⁇ Drive system system, 109 ⁇ ⁇ Body system control unit, 110 ⁇ ⁇ Body system system, 111 ⁇ ⁇ Storage unit, 112 ⁇ ⁇ Automatic operation control unit, 121 ⁇ ⁇ Communication network, 131..Detection unit, 132..Self position estimation unit, 133..Situation analysis unit, 134..Planning unit, 135..Motion control unit, 141..Outside vehicle information detection unit, 142..Inside vehicle information detection unit,.
  • ROM read only memory
  • 503 ..RAM 504..bus
  • 505..input/output interface 505..input/output interface
  • 506..input unit 507..output unit
  • 508..storage unit 509..communication unit
  • 510..drive 511..removable media , 521.. Sensor, 522.. Drive unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Hospice & Palliative Care (AREA)
  • Pathology (AREA)
  • Psychiatry (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Social Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Psychology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

運転者が手動運転可能な覚醒度を有するか否かを、表示部に表示された課題を解決しようとする運転者の眼球挙動を解析して判定する構成を実現する。自動運転と手動運転の切り替えが可能な移動装置の運転者の眼球挙動に基づいて運転者が手動運転に復帰可能な覚醒度を有するか否かを判定する。表示部に表示された課題を観察する運転者の眼球挙動を解析する眼球挙動解析部と、眼球挙動解析部の解析結果に基づいて、運転者の覚醒度を判定する覚醒度判定部を有する。覚醒度判定部は運転者が課題を解決するための固視やマイクロサッカード等の眼球挙動を実行しているか否かを解析して運転者が手動運転に復帰可能な覚醒度を有するか否かを判定する。

Description

情報処理装置、移動装置、および方法、並びにプログラム
 本開示は、情報処理装置、移動装置、および方法、並びにプログラムに関する。さらに詳細には、車両の運転者の覚醒状態を確認する情報処理装置、移動装置、および方法、並びにプログラムに関する。
 昨今、自動運転に関する技術開発が盛んに行われている。
 自動運転技術は、車両(自動車)に備えられた位置検出手段等の様々なセンサを用いて、道路上を自動走行可能とする技術であり、今後、急速に普及することが予測される。
 しかし、現状において自動運転は開発段階であり、100%の自動運転が可能となるまでには時間を要すると考えられ、しばらくは、自動運転と、運転者(ドライバ)による手動運転とを、適宜切り替えて走行することになると予測される。
 例えば、高速道路等、直線的で道路幅が十分な道路では、自動運転モードでの走行を行うが、高速道路から出て駐車場の好きな位置に車を止める場合や、道路幅の狭い山道等では手動運転モードに切り替えて運転者(ドライバ)の操作で走行を行うといったモード切り替えが必要となると予測される。
 車両が自動運転を実行している間は、運転者(ドライバ)は車両走行方向である前方に視線を向ける必要がなく、例えば、居眠りをしたり、テレビを見たり、本を読んだり、あるいは後ろ向きに座って後部座席の人と会話をするといった自由な行動が可能となる。
 自動運転と手動運転を切り替えて走行する車両において、自動運転モードから手動運転モードに切り替える必要が発生した場合、運転者(ドライバ)に手動運転を開始させることが必要となる。
 しかし、例えば、自動運転実行中に、運転者が居眠りをすると運転者の覚醒度が低下する。すなわち意識レベルが低下した状態となる。このような覚醒度が低下した状態で手動運転モードに切り替えてしまうと、正常な手動運転を行うことができず、最悪の場合、事故を起こす可能性がある。
 運転の安全性を確保するためには、運転者の覚醒度が高い状態、すなわちはっきりした意識のある状態で手動運転を開始させることが必要となる。
 運転者の運転復帰能力が不十分な状態のまま、自動運転走行可能区間から手動運転走行区間に侵入して自動運転機能が途切れてしまうと事故が発生する可能性があり危険である。
 このような問題を防止するためには、車両側のシステム(情報処理装置)は、自動運転から手動運転に切り替える前に、運転者が安全な手動運転を実行可能なレベルにあるか否かを判定することが必要である。
 運転者が安全な手動運転を実行可能なレベルにあるか否かを判定する一つの手法として、運転者の脳内活動状況を検証する処理がある。
 運転者の脳内活動状況を検証する代表的処理として、運転者に課題を提示して、その課題に対する回答を検証する処理がある。
 なお、特許文献1(特開2008-225537号公報)は、運転者(ドライバ)にスピーカから質問を出力し、質問に対する答えがマイクで取得できたか否かを検証し、取得できない場合はアラームを出力する構成を開示している。
 また、特許文献2(特開2015-115045号公報)は、運転者に特定のスイッチの操作指示を出力し、運転者が指示に従って正しい操作を行うまでの時間を計測して運転者の覚醒状態を判定する構成を開示している。
 しかし、これらの文献に記載の構成は、質問に対する運転者の回答や、指示に対する運転者の操作が必要であり、運転者の負担が発生する。また、これらの処理は、運転者の覚醒度の判定に時間を要する。従って、例えば自動運転から手動運転への切り替えを早急に行わなければならない場合等、緊急時に適用することは難しいという問題がある。
特開2008-225537号公報 特開2015-115045号公報
 本開示は、例えば、上述の問題点に鑑みてなされたものであり、運転者の覚醒状態の判定を短時間にかつ運転者に過大な負担を発生させずに行うことを可能とした情報処理装置、移動装置、および方法、並びにプログラムを提供することを目的とする。
 本開示の第1の側面は、
 課題を生成または取得して表示部に表示する表示情報生成部と、
 前記表示部に表示された課題を観察するユーザの眼球挙動を解析する眼球挙動解析部と、
 前記眼球挙動解析部の解析結果に基づいて、前記ユーザの覚醒度を判定する覚醒度判定部を有する情報処理装置にある。
 さらに、本開示の第2の側面は、
 自動運転と手動運転の切り替えが可能な移動装置であり、
 前記移動装置の運転者の運転者情報を取得する運転者情報取得部と、
 前記運転者情報取得部の取得情報に基づいて、前記運転者が手動運転に復帰可能な覚醒度を有するか否かを判定するデータ処理部を有し、
 前記データ処理部は、
 課題を生成または取得して表示部に表示する表示情報生成部と、
 前記表示部に表示された課題を観察する前記運転者の眼球挙動を解析する眼球挙動解析部と、
 前記眼球挙動解析部の解析結果に基づいて、前記運転者の覚醒度を判定する覚醒度判定部を有する移動装置にある。
 さらに、本開示の第3の側面は、
 情報処理装置において実行する情報処理方法であり、
 表示情報生成部が、課題を生成または取得して表示部に表示する表示情報生成ステップと、
 眼球挙動解析部が、前記表示部に表示された課題を観察するユーザの眼球挙動を解析する眼球挙動解析ステップと、
 覚醒度判定部が、前記眼球挙動解析部の解析結果に基づいて、前記ユーザの覚醒度を判定する覚醒度判定ステップを実行する情報処理方法にある。
 さらに、本開示の第4の側面は、
 移動装置において実行する情報処理方法であり、
 前記移動装置は、自動運転と手動運転の切り替えが可能な移動装置であり、
 運転者情報取得部が、前記移動装置の運転者の運転者情報を取得する運転者情報取得ステップと、
 データ処理部が、前記運転者情報に基づいて、前記運転者が手動運転に復帰可能な覚醒度を有するか否かを判定するデータ処理ステップを実行し、
 前記データ処理ステップにおいて、
 表示情報生成部が、課題を生成または取得して表示部に表示する表示情報生成ステップと、
 眼球挙動解析部が、前記表示部に表示された課題を観察するユーザの眼球挙動を解析する眼球挙動解析ステップと、
 覚醒度判定部が、前記眼球挙動解析部の解析結果に基づいて、前記ユーザの覚醒度を判定する覚醒度判定ステップを実行する情報処理方法にある。
 さらに、本開示の第5の側面は、
 情報処理装置において情報処理を実行させるプログラムであり、
 表示情報生成部に、課題を生成または取得して表示部に表示させる表示情報生成ステップと、
 眼球挙動解析部に、前記表示部に表示された課題を観察するユーザの眼球挙動を解析させる眼球挙動解析ステップと、
 覚醒度判定部に、前記眼球挙動解析部の解析結果に基づいて、前記ユーザの覚醒度を判定させる覚醒度判定ステップを実行させるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、自動運転走行モードから手動運転走行モードへ切り替える行う際に、運転者が手動運転可能な覚醒度を有するか否かを判断する手段として、表示部に表示された課題を解決しようとする運転者の視覚情報を眼で追う眼球挙動を解析して判定する構成が実現される。
 具体的には、例えば、自動運転と手動運転の切り替えが可能な移動装置の運転者の眼球挙動に基づいて運転者が手動運転に復帰可能な覚醒度を有するか否かを判定する。表示部に表示された課題を観察する運転者の眼球挙動を解析する眼球挙動解析部と、眼球挙動解析部の解析結果に基づいて、運転者の覚醒度を判定する覚醒度判定部を有する。覚醒度判定部は運転者が課題を解決するための固視やマイクロサッカード等の眼球挙動を実行しているか否かを解析して運転者が手動運転に復帰可能な覚醒度を有するか否かを判定する。
 本構成により、運転者が手動運転可能な覚醒度を有するか否かを、表示部に表示された課題を解決しようとする運転者の眼球挙動を解析して判定する構成が実現される。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
本開示の移動装置の一構成例について説明する図である。 本開示の移動装置の表示部に表示されるデータの一例について説明する図である。 本開示の移動装置の実行する処理について説明する図である。 本開示の移動装置のセンサ構成例について説明する図である。 本開示の移動装置の実行する自動運転モードから手動運転モードへのモード切り替えシーケンスの一例を示す図である。 本開示の移動装置に搭載される情報処理装置の構成例について説明する図である。 ある情報を見る視覚課題を提示した際の運転者の眼球挙動の軌跡の一例について説明する図である。 情報を見る視覚課題を提示した際の運転者の眼球挙動の軌跡の一例であり、覚醒状態が異なる場合の挙動の差について説明する図である。 表示する課題の一例について説明する図である。 表示する課題の一例について説明する図である。 表示する課題の一例について説明する図である。 表示する課題の一例について説明する図である。 表示する課題の一例について説明する図である。 表示する課題の一例について説明する図である。 表示する課題の一例について説明する図である。 表示する課題の一例について説明する図である。 表示する課題の一例について説明する図である。 表示する課題の一例について説明する図である。 表示する課題の一例について説明する図である。 表示する課題の一例について説明する図である。 表示する課題の一例について説明する図である。 表示する課題の一例について説明する図である。 表示する課題の一例について説明する図である。 表示する課題の一例について説明する図である。 本開示の情報処理装置が実行する処理シーケンスの一例について説明するフローチャートを示す図である。 本開示の情報処理装置が実行する処理シーケンスの一例について説明するフローチャートを示す図である。 本開示の移動装置の構成例について説明する図である。 本開示の移動装置の構成例について説明する図である。 情報処理装置のハードウェア構成例について説明する図である。
 以下、図面を参照しながら本開示の情報処理装置、移動装置、および方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行なう。
 1.移動装置と情報処理装置の構成と処理の概要について
 2.自動運転モードから手動運転モードへのモード切り替えシーケンスについて
 3.本開示の移動装置、情報処理装置が実行する運転者の覚醒度判定処理について
 4.情報処理装置における覚醒度判定処理の実行構成について
 5.運転者の覚醒度を判定するために運転者に提示する課題の具体例について
 6.本開示の情報処理装置が実行する運転者の覚醒度判定処理のシーケンスについて
 7.移動装置の具体的な構成と処理例について
 8.情報処理装置の構成例について
 9.本開示の構成のまとめ
  [1.移動装置と情報処理装置の構成と処理の概要について]
 手動運転のみが許容される車両や、一部の運転補助をシステムが行う部分的な自動運転車両は、基本的に運転操舵の責任は運転者にある。近年、このような車両においてドライバモニタリングシステムを装着した車両が増加している。現行のドライバモニタリングシステムは基本的に運転者の運転操舵作業を観測し、運転者の操舵離脱や異常を検出するものである。
 今後、自動運転可能な自動運転車両が普及することが予測されるが、道路インフラ等の関係で、自動運転可能な道路区間である自動運転可能区間と、自動運転が許容されない道路区間である手動運転区間が混在する状態になると考えられる。運転者は自動運転可能区間では自動運転を行うことができるが、手動運転区間に侵入する際には手動運転へ復帰しなければならない。
 車両の運転支援や走行制御制御が高度化し、今後より多くの走行状況下で運者の車両走行制御を車両のシステムが主体的に制御するようになると、運転者は、自動運転可能区間では睡眠することも起こりえる。また、テレビやビデオの視聴、あるいはゲーム等の2次タスクに没頭することもありえる。しかし、例えば自動運転区間において睡眠に陥ると、運転者の意識レベルや判断レベルが低下した状態、すなわち覚醒度が低下した状態になる。今後、自動運転機能を使用して走行しえる区間が次第に伸びると、車両の運転操舵に介在せずとも車両は正常な安全走行をし続ける状況が生まれ、そのような自動運転機能の利用状況下であっても運転者は手動運転区間に侵入する前には正常な意識下で車両を運転できる高い覚醒状態に復帰している必要がある。
 しかし、現行のドライバモニタリングシステムは、運転者の覚醒低下など一時的な注意力の低下を検出する機能に重きが置かれている。現行のドライバモニタリングシステムは、完全に意識低下した状態の運転者がその意識低下状態から復帰した際の回復レベルの運転者の覚醒度を判定する機能を有していない。
 本開示の構成は、このような現状の課題を解決するものであり、運転者の運転操舵に必要な覚醒度の判定、とりわけ意識復帰の詳細判定を可能としたものである。本開示の構成は、例えば運転者の脳内の知覚認知活動の状態を推定する。
 具体的には、運転者の眼球の挙動を解析して、運転者の覚醒度を判定する。
 まず、図1以下を参照して、移動装置と情報処理装置の構成と処理の概要について説明する。
 本開示の移動装置は、例えば、自動運転と手動運転を切り替えて走行することが可能な自動車である。
 このような自動車において、自動運転モードから手動運転モードに切り替える必要が発生した場合、運転者(ドライバ)に手動運転を開始させることが必要となる。
 しかし、自動運転実行中に運転者が行う処理(2次タスク)は様々である。
 例えば、ハンドルから手を放しているのみで、運転時と同様、自動車の前方を注視している場合もあり、本を読んでいる場合もあり、また、居眠りをしている場合もある。
 これらの処理の違いにより、運転者の覚醒度(意識レベル)は異なるものとなる。
 例えば、居眠りをすると、運転者の覚醒度が低下する。すなわち意識レベルが低下した状態となる。このように覚醒度が低下した状態では、正常な手動運転を行うことができず、その状態で手動運転モードに切り替えてしまうと、最悪の場合、事故を起こす可能性がある。
 運転の安全性を確保するためには、運転者の覚醒度が高い状態、すなわちはっきりした意識のある状態で手動運転を開始させることが必要となる。
 このためには、自動運転実行中の運転者の覚醒度に応じて、自動運転から手動運転への切り替え要求を行う通知タイミングを変更することが必要である。
 すなわち、通知から実際の運転者の覚醒が十分復帰するまでの時間は異なることからその復帰特性に合わせて通知のタイミングを変更することが必要である。
 例えば、自動運転実行中に運転者が前を向いて道路を見ているような場合は、運転者の覚醒度は高い状態、すなわち、いつでも手動運転を開始できる状態にある。
 このような場合は、手動運転への切り替え通知は、手動運転が必要となる時間の直前のタイミングに行えばよい。運転者は、すぐに安全な手動運転を開始することができるからである。
 しかし、運転者が自動運転実行中に居眠りをしているような場合、運転者の覚醒度は極めて低い状態にある。
 このような場合、手動運転への切り替え通知を手動運転が必要となる時間の直前のタイミングに行うと、運転者は意識がはっきりしない状態で手動運転を開始せざる得ない。その結果、事故を発生させる可能性が高まる。従って、このように覚醒度が低い場合は、より早い段階で手動運転への切り替え通知を行うことが必要となる。
 運転者の覚醒度が低い場合、早めに手動運転への切り替え通知を行い、さらに、その通知後においても、運転者の覚醒度の推移を確認する処理を行うことが必要となる。
 本開示の移動装置、または移動装置に搭載可能な情報処理装置は、運転者に大きな負担を発生させることなく、かつ短時間で運転者の覚醒度を判定する処理を行う。
 どの程度早めに通知を行うかは、運転者状態の定常的モニタリングにより得られる各種の可観測状態情報に基づいて決定する。可観測状態情報から復帰に要する時間等、運転者固有の復帰特性は、学習により推定することが可能である。この可観測状態からの最適な復帰通知タイミングを決定して通知や警報を実行する。運転者の覚醒状態が手動運転に復帰してよい状態であるか否かの確認が必要となるのは、通知後に実際に車両の操舵を運転者に譲渡する前の段階である。
 まず、図1以下を参照して本開示の移動装置と、移動装置に装着可能な情報処理装置の構成と処理について説明する。
 図1は、本開示の移動装置の一例である自動車10の一構成例を示す図である。
 図1に示す自動車10に本開示の情報処理装置が装着されている。
 図1に示す自動車10は少なくとも、手動運転モードと、自動運転モードの2つの運転モードによる運転が可能な自動車である。
 手動運転モードは、運転者(ドライバ)20の操作、すなわちハンドル(ステアリング)操作や、アクセル、ブレーキ等の操作に基づく走行が行われる。
 一方、自動運転モードでは、運転者(ドライバ)20による操作が不要であり、例えば位置センサや、その他の周囲情報検出センサ等のセンサ情報に基づく運転が行われる。
 位置センサは、例えばGPS受信機等であり、周囲情報検出センサは、例えば、カメラ、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等である。これら機器は測位センサともいう。
 なお、図1は、本開示の概要を説明する図であり主要な構成要素を概略的に示している。詳細構成については後段で説明する。
 図1に示すように、自動車10は、データ処理部11、運転者情報取得部12、環境情報取得部13、通信部14、通知部15を有する。
 運転者情報取得部12は、例えば、運転者の覚醒度を判定するための情報や、運転者の操作情報等を取得する。具体的には、例えば、運転者の顔や眼球の動きを検出するためのカメラやセンサ、各操作部(ハンドル、アクセル、ブレーキ等)の操作情報取得部等によって構成される。
 環境情報取得部13は、自動車10の走行環境情報を取得する。例えば、自動車の前後左右の画像情報、GPSによる位置情報、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からの周囲の障害物情報等である。
 データ処理部11は、運転者情報取得部12の取得した運転者情報や、環境情報取得部13の取得した環境情報を入力し、自動運転中の車内の運転者が安全な手動運転を実行可能な状態にあるか否か、すなわち、手動運転を行うために必要な判断能力や運動能力を発揮可能な高い覚醒度を有する可か否か覚醒度判定処理等を実行する。
 この覚醒度判定処理の具体例については後段で詳細に説明する。
 データ処理部11は、さらに、例えば、自動運転の許容される自動運転区間から、自動運転が許容されない手動運転区間が近づいてきた場合等、自動運転モードから手動運転モードへの切り替えの必要が発生した場合、通知部15を介して、運転者に対して手動運転モードへの切り替えを行うように通知する処理等を実行する。
 この通知処理のタイミングは、例えば運転者情報取得部12、環境情報取得部13を入力して算出した最適なタイミングとする。
 すなわち、運転者20が、安全な手動運転を開始できるようなタイミングとする。
 具体的には、運転者の覚醒度が高い場合は、手動運転開始時間の直前、例えば30秒前に通知を行い、運転者の覚醒度が低い場合は、余裕をもって手動運転開始時間の120秒前に行う等の処理を行う。
 通知部15は、この通知を行う表示部、音声出力部、あるいはハンドルやシートのバイブレータによって構成される、
 通知部15を構成する表示部に対する警告表示の例を図2に示す。
 図2に示すように、表示部30には、以下の各表示がなされる。
 運転モード情報=「自動運転中」、
 警告表示=「手動運転に切り替えてください」
 運転モード情報の表示領域には、自動運転モードの実行時は「自動運転中」の表示が行われ、手動運転モードの実行時は「手動運転中」の表示が行われる。
 警告表示情報の表示領域には、自動運転モードで自動運転を実行している間に、以下の表示を行う表示領域である。なお、本実施例では表示画面全体を用いているが、画面の一部表示でもよい。
 「手動運転に切り替えてください」
 なお、この例は説明を明文化した例であるが、このようなテキスト表示に限らず、例えばピクトグラムなどシンボルによる表示を行ってもよい。
 なお、図1に示すように、自動車10は通信部14を介してサーバ30と通信可能な構成を持つ。
 例えば、データ処理部11における通知出力の適正時間を算出する処理の一部、具体的には学習処理をサーバ30において行うことが可能である。
 図3は、本開示の移動装置や情報処理装置が実行する処理の具体例を示す図である。
 図3には、自動運転モードで自動運転を実行している間に、手動運転への切り替え要求を行う通知の適正タイミングの設定例を示す図であり、以下の2つの例の通知処理例を示している。
 (a)自動運転実行中の運転者の覚醒度が高い場合の通知処理
 (b)自動運転実行中の運転者の覚醒度が低い場合の通知処理
 (a)の例は、自動運転実行中に運転者が前を向いて道路を見ている例である。この場合は、運転者の覚醒度は高い状態、すなわち、いつでも手動運転を開始できる状態にある。
 このような場合は、手動運転への切り替え通知は、手動運転が必要となる時間の直前タイミングに行っても、運転者は、すぐに安全な手動運転を開始することができる。
 (b)の例は、運転者が自動運転実行中に居眠りをしているような場合、運転者の覚醒度は極めて低い状態にある。
 このような場合、手動運転への切り替え通知を、手動運転が必要となる時間の直前タイミングに行うと、運転者は、意識がはっきりしない状態子で手動運転を開始してしまい、事故を発生させる可能性が高まる。従って、このように覚醒度が低い場合は、より早い段階で、手動運転への切り替え通知を行うことが必要となる。
 前述したように、手動運転の開始時点において運転者は覚醒度が十分に高い状態であることが求められる。すなわち、確かな判断力に基づいて正しい運転動作が可能な状態であることが求められる。運転者の覚醒度が低い場合には手動運転を開始させることはがきない。
 運転者の覚醒度が低い場合、早めに手動運転への切り替え通知を行い、さらに、その通知後においても、運転者の覚醒度の推移を確認する処理を行うことが必要となる。
 運転者の覚醒度判定処理は、例えば自動車10が自動運転の許容される自動運転区間を走行中に、例えば図1に示す自動車10の運転者情報取得部12の取得した情報等を利用してデータ処理部11が実行する。自動車10が手動運転区間に侵入する前までに運転者の覚醒度が手動運転開始可能レベルまで高くならないと判定した場合、データ処理部11は、自動車10の緊急停止処理や減速処理等の危険回避処理を走行制御部に実行させる。
 図1に示す自動車10の運転者情報取得部12の具体的構成例を図4に示す。
 図4には、運転者情報取得部12に含まれる車内の運転者の情報を得るための各種センサの例を示している。例えば、運転者情報取得部12は、運転者の位置、姿勢を検出するための検出器として、ToFカメラ、ステレオカメラ、シート・ストレイン・ゲージ(Seat Strain Gauge)等を備える。また、データ取得部102は、運転者の生体活動可観測情報を得るための検出器として、顔認識部(Face(Head) Recognition)、運転者眼球追跡部(ドライバ・アイ・トラッカー(Driver Eye Tracker))、運転者顔追跡部(ドライバー・フェイシャル・トラッカー(Driver Facial Tracker))等を備える。
 運転者眼球追跡部(ドライバ・アイ・トラッカー(Driver Eye Tracker))は、運転者の眼球の動きを検出する。
 運転者顔追跡部(ドライバー・フェイシャル・トラッカー(Driver Facial Tracker))は、運転者の顔や頭部の動きを検出する。
 これらは、具体的には、例えばカメラや様々なセンサによって構成される。例えば眼球の電位計測を行うEOG(Electro-Oculogram)等のセンサを用いた構成としてもよい。
 また、運転者情報取得部12は、運転者の生体活動可観測情報を得るための検出器として、生体信号(Vital Signal)検出器を備えている。また、運転者情報取得部12は、運転者認証(Driver Identification)部を備えている。なお、認証方式としては、パスワードや暗証番号などによる知識認証他、顔、指紋、瞳の虹彩、声紋などによる生体認証も考えらえる。
  [2.自動運転モードから手動運転モードへのモード切り替えシーケンスについて]
 次に、自動運転モードから手動運転モードへの引継ぎシーケンスについて説明する。
 図5は、図1に示す自動車10のデータ処理部11が実行する自動運転モードから手動運転モードへのモード切り替えシーケンスの一例を概略的に示している。
 ステップS1は、運転者が運転操舵から完全離脱の状態にある。この状態で、運転者は、例えば、仮眠、あるいはビデオ鑑賞、ゲームに集中、タブレット、スマートフォン等の視覚ツールを用いた作業などの2次タスクを実行できる。タブレット、スマートフォン等の視覚ツールを用いた作業は、例えば、運転席をずらした状態で、あるいは運転席とは別の席で行うことも考えられる。
 これら運転者の状態次第では、ルート上の手動運転復帰が求められる区間に接近した際に、運転者が復帰するまでの時間はその時々の作業内容により大きく変動する事が想定され、事象接近の直前の通知では復帰までに時間が不足したり、事象接近に対して余裕をみたあまりにも早めに通知をした場合、実際に復帰に必要なタイミングまでの時間が長く空き過ぎたりすることが発生する。その結果、的確なタイミングで通知が行われない状況が繰り返し起こると、運転者はシステムの通知タイミングに対するタイミングの信頼性が失われ、通知に対する意識が低下して、結果的に運転者の的確な対処がおろそかになる、その結果、引き継が上手く行われないリスクが高まると同時に、安心した2次タスク実行の阻害要因にもなる。そこで、運転者が通知に対する的確な運転復帰の対処を開始するには、通知タイミングの最適化をシステムが行う必要がある。
 ステップS2は、先に図2を参照して説明したような手動運転復帰要求通知のタイミングである。運転者に対して、振動などの動的なパプティックスや視覚的あるいは聴覚的に運転復帰が通知される。データ処理部11では、例えば、運転者の定常状態がモニタリングされて、通知を出すタイミングを把握され、適宜一定以上の確率で復帰成功する余裕時間を見たタイミングで通知がなされる。つまり、前段のパッシブモニタリング期間で運転者の2次タスクの実行状態が常時パッシブにモニタリングされ、通知の最適タイミングの最適タイミングをシステムは算出する事ができ、ステップS1の期間のパッシブモニタリングを常時継続的に行って、復帰タイミングと復帰通知は、運転者の固有復帰特性に合わせ行うのが望ましい。
 つまり、運転者の復帰行動パターンや車両特性等に応じた最適復帰タイミング学習して、既定された一定以上の割合で運転者が正常に自動運転から手動運転に復帰するのに要する統計的に求めた最適タイミングを運転者へ提示するのが望ましい。この場合、通知に対して運転者が一定時間の間に応答しなかった場合には、アラームの鳴動などによる警告がなされる。
 ステップS3では、運転者が、着座復帰したか確認される。ステップS4では、顔やサッカード(眼球回転)等の眼球挙動解析により、運転者の内部覚醒度状態が確認される。ステップS5では、運転者の実操舵状況の安定度がモニタリングされる。そして、ステップS6では、自動運転から手動運転への引継ぎが完了した状態となる。
  [3.本開示の移動装置、情報処理装置が実行する運転者の覚醒度判定処理について]
 次に、開示の移動装置、情報処理装置が実行する運転者の覚醒度判定処理について説明する。
 前述したように、運転者は、手動運転の開始時点において覚醒度が十分に高い状態であることが必要である。すなわち、確かな判断力に基づいて正しい運転動作が可能な状態であることが求められる。運転者の覚醒度が低い場合、手動運転を開始させることはできない。運転者の覚醒度が低い場合、早めに手動運転への切り替え通知を行い、さらに、その通知後においても、運転者の覚醒度の推移を確認する処理を行うことが必要となる。
 本開示は、運転者が運転操舵に必要な覚醒度を有するか否かの判定を可能としたものである。本開示の構成は、例えば運転者の脳内の知覚認知活動の状態を推定する。
 具体的には、運転者の眼球の挙動を解析して、運転者の覚醒度を推定または判定する。
 ヒトの眼球の挙動特性として、主として以下の2つの特性がある。
 (a)自己の運動を三半規管等で捉え、その運動を打ち消すための前庭動眼運動を行う特性、
 (b)聴覚や臭覚や視覚刺激等の入力情報の理解のために、補足情報の探索や詳細確認を行う際に発現する眼球挙動特性
 本開示の処理は、上記(b)の眼球挙動特性を解析することで、運転者の覚醒度を推定または判定する。
 具体的には運転者に視覚的な課題を提示し、提示した課題の理解とその課題に対する回答を運転者が行う際の運転者の眼球挙動を解析する。運転者は、課題の認知理解のために目で必要な視覚情報を捕捉する処理を行う。この際の眼球挙動として出現する中心視野を対象に向ける固視(Fixation)、マイクロサッカード(眼球微小回転)、ドリフト等の挙動を観測して、その挙動解析から運転者の脳内活動を推定し、運転者が車両周囲状況の認知理解が行えるレベルに復帰しているか否か、すなわち覚醒度(覚醒レベル)を判定する。
 なお、特定の対象に視線を振り向けるこれら上記の一連の動作をグランス(Glance)と呼ぶ。本開示では、このグランスにおける眼球挙動を更に詳細な高分解解析を行うことで得られた異なる精神・覚醒状態での挙動特徴の差異に着目した覚醒判定を行う技術である。
 ヒトは五感により周囲環境の情報を認識している。その中でも、敵の存在など視覚手段により得る情報が極めて多い。視野経由では同時並行的に多種多様で極めて多くの情報が入り、その情報を処理する必要がある。
 情報処理は、意識判断と無意識判断に大別されるが、意識判断を行う場合には、例えば、判断対象に視線の中心視野を振り向け、対象の詳細特徴を中心視野で捉え、捉えた対象物と記憶情報との照合処理を実行する。
 中心視野で対象を捉えるのは、視覚的に視野に入る全ての情報を同時並行的に脳に取り入れて処理することが困難であるからである。そのため、視覚システムは視覚的外界の情報を全て同一に扱うのでは無く、生体機能的に重要となる情報を階層的にフィルタリングし、さらには最終的な行動判断に対して重要となる箇所を高精細で判別するために判断対象となる被写体を中心視野に設定し、その特徴となる局所細部詳細と記憶との照合を行う。
 この視野調整処理に際して眼球の回転挙動が発生する。なお、頭部や身体の回転移動は、視点移動が眼球挙動で間に合わない場合に補うように遅延動作として現れるに過ぎない。従って運転者の覚醒度の検出手段としては、眼球の視覚情報探索挙動の解析が最も確実でかつ遅延の無い有効な手段であると言える。
 本開示の処理では、運転者に知能的判断を要する視覚課題を提示してその課題理解と対処に伴う眼球挙動の解析を行う。この処理により、運転者の脳内活動をアクティブ検出し、運転者の覚醒度を判定する。
 前述したように、運転者は、自動運転可能区間においては仮眠やスポーツ中継の観戦やゲームに没頭することができる。しかし、例えば自動運転区間において睡眠を行うと、運転者は覚醒度が低下した状態になる。運転者は手動運転区間に侵入する前に正常な意識下で車両を運転できる高い覚醒状態に復帰している必要がある。
 本開示のシステムは、運転者の覚醒度を判定し、手動運転復帰を通知して、通知を受けて運転者が実際に操舵機器を操り操舵を開始する際の制御譲渡開始判断を決定する。その後も運転者の覚醒度を判定し、手動運転区間の侵入前に手動運転可能な覚醒度であるか否かを判定する。すなわち、運転者の眼球挙動解析により、運転者の脳内知覚認知活性度の評価を実施する。
 なお、自動運転走行中においても、運転者は自動運転が安全に行われているかを注意している場合もある。その様な状況では、運転者はシステムからの手動運転復帰要請の通知前に復帰必要性を意識して、自主的に手動運転へ復帰する待機を行う場合もある。本開示のシステムは、このような状態についても解析するため、運転者の状態モニタリングの段階から運転者の眼球挙動特性を解析することを可能としている。
 人の瞬きや顔の表情等のマクロ的な解析のみでは運転者の意識レベル、すなわち覚醒度復帰を正確に把握することが困難である。
 これに対して、本開示のシステムは、時系列的なミクロ的解析である眼球の詳細挙動解析を行う。例えば、運転者が課題を目視で理解し、その課題に沿って対象を目視して取り込んだ視覚的な情報と記憶情報とを照合して判断を行う過程の眼球の詳細挙動解析を行う。この際、細部を確認するため中心視野の局所位置補正となるマイクロサカード等の挙動が観測される。他方で、脳内で判断を司るニューロンに入力される情報は多岐にわたり、判断のシナプス発火が起きるのは、それら多岐にわたる情報の入力に伴いシナプス電位が一定以上の閾値を超えた場合に起こることが知られている。つまり、脳内の覚醒状態で起こる活動には、中心視野で対象をとらえる以前から、個々のニューロンでは弱い形跡(エビデンス)情報の蓄積から始まり、発火の直前まではその判断の決め手となる追加情報の補充が該当するニューロンで進み、シナプス電位が一定以上を超えると、該当ニュウロンで判断の閾値の発火が起こり判断の伝達開始に至る。
 つまり、判断を決める情報は必ずしも一位な確実性の高い一定の情報ではなく、弱い根拠の緩やかな確からしさの情報として入力され、その総和として判断を司るニューロンのシナプス電位が一定の閾値を超えることで判断として現れ、判断を発現する。注視対象が何かを判断する過程で起きるマイクロサッカードやドリフト等の眼球挙動は、その瞬間の判断に不足する情報を補うために発現する挙動であり、脳内の内部覚醒度が低下した状態ではその探索挙動の刺激が鈍り、その発現が非顕在化する。
 課題に対する答えを見つける目視過程は、判断に必要な細部の探索やその答えの確からしさの確認といった脳内の知能的な判断プロセスを遂行する過程の一環で視覚情報の取得のために、中心視野を対処に合わせるか近づけるサッカードやマイクロサッカード、固視といった過程として発現する。なお、上記の判断の発火とは、不足情報を探索するマイクロサッカードやドリフトといった挙動発現の判断も包含するものであり、理解が完結した時点での最終な知能的理解としての判断に限定するものではない。
 眼球挙動解析は直接的に観測ができない脳内の内部活動状況の一部を間接的に観測手段であり、覚醒状態判定の有力が手掛かりとして活用ができることに着目した脳内の内部覚醒度推定手段である。視覚的な課題を提示すると、運転者は課題の回答を得るため、視線を動かす処理、すなわち眼球挙動を行う。
 運転者が車両走行時に道路前方を注視した状態では、道路前方の状況により運転者の眼球挙動は大きく異なる。単調な道路区間などでは顕著な挙動が現れず、単純なパッシブな視線挙動解析では必ずしも運転者の内部覚醒状態の把握ができない。これに対して本開示の処理ではアクティブな目視課題を運転者に提示し、運転者の内部覚醒度が高い場合に発現が期待される視線挙動の解析を行う。これにより運転者の覚醒復帰状況を高精度で判定することができる。
 少しわかり難いので、一つの例を用いて説明する。
 特徴があまり明瞭ではない複数の動物のシルエットを提示する課題を想定する。
 複数のシルエット(図柄)を同時に提示し、それらから特徴が異なる図柄を一つ選択せよという課題を提示する。
 例えば、2つ以上の捕食動物をランダムに配置し、さらに一つだけ牛や羊や豚と言った家畜のシルエットを配置する。
 このような視覚課題に対して、運転者は特徴が異なりそうな図柄を素早く見定め、周囲に配置された他の図方との差違がどこにあり、また同時に類似特徴のある他の図柄が無いか確認する必要があるため、図柄の特徴を解析するため個々のシルエットを順次、見極める処理を行う。視線の移動により、視線の中心視野にある図柄の詳細な細部の局所的特徴が脳内に取り込まれる。
 ある図柄や事象に中心視野を向けてその図柄や事象の理解と判断の完結までどれだけ追加の特徴を取得する必要があるかは、人の記憶の参照能力や判断力等によって異なる。
 そのため、観測挙動が長く続くこともあれば、短い時間で完結するケースもある。単純な色の差異を判定させる課題や、明瞭な差異がある二者択一問題などは、周辺視野で特徴を捉えれば判断が完了し、眼球の局所探索挙動が発現しない場合があり、運転者の脳内活動状態判定に用いる課題には適さない。
 上記のような動物の複数のシルエットから特徴の異なるものを1つ選択するといった課題は、視覚情報の判断処理と記憶の参照処理が同時並行的に進むため、運転者の脳内知覚認知活性度の評価処理に最適である。
 本開示の根幹をなす技術は、提示課題の解決を行うための思考的判断に伴い発生する運転者の挙動、具体的には眼球挙動の解析にある。
 なお、課題を提示する課題出力手段としては、例えば、運転席のインストルメントパネル、HUD(ヘッドアップディスプレイ)、ポータブル端末、あるいは、音声融合提示など、様々な手段が利用可能である。これらのいずれを利用するかによっても運転者の挙動は変わるので、運転者の固有特性を各出力手段対応の学習データとして予め取得して、学習データを参照して最終的な覚醒度判定を行う構成とするのが好ましい。
 ただし、同じ課題を繰り返すと思考を伴わない反射的な動作、すなわち脳内の判断を司る活動が必要無くなり反射的動作が発生する可能性がある。従って、課題は、その都度、異なるものとして、単純な予測で回答が可能な課題の提示は避けるべきである。
 ヒトの視野は、分解能が低いが動的な変化に極めて敏感な周辺視野と、判断の重要なファクタとなる高分解の詳細情報を取得できる狭い領域の中心視野、この2つに分類される。
 重要な情報については主に中心視野で観察し、この観察情報について、断片的な記憶と俯瞰的な記憶とを参照しながら処理を行う。
 自然環境の中では、視界の周辺視野で動く敵や獲物となり得る動物などの動きに刺激を受けて視線を振り向けたりする。その際に多くの場合はサッカード(眼球回転)と呼ばれる眼球挙動が発現する。そして、視覚より詳細な分解能で情報を取得するには、眼の中心視野で情報を取得する必要がある。視野角が数度となる中心視野で詳細情報を捉える。
 上記のような複数の動物シルエットから特徴の異なる1つを選択させるといった判断を要する視覚的課題のように、記憶に基づく単純な判断が出来ない場合には、確実な判断を行うために必要とする情報を補足する視線挙動が期待され、前述した眼球の固視(Fixation)やマイクロサッカード(眼球微小回転)等の一定の挙動が観測される可能性が高まる。
 なお、眼球挙動に基づいて運転者の覚醒状態の推定処理を行う場合、全ての運転者が同じ挙動を示すとは限らない。つまり、運転者ごとに行動経験が異なり、同一の物を見たとしても理解に至る過程は異なる、周辺視野で輪郭を捉えた段階で判断が完結する人もいれば、対象を中心視野でとらえ、さらにその詳細を見ても判断に至らないケースもある。利用者すべてに対して同様な処理を行うより、運転者固有の学習辞書データに基づいて処理を行う構成とするのが好ましい。運転経験の豊富なドライバ、タクシーなどの業務ドライバや競技レースドライバーと、運転初心者とでは、同じ眼球挙動を示したとしても運転者の覚醒状態は異なる可能性があるからである。
 従って、運転者個人単位の学習処理によって生成した学習辞書を利用して覚醒度判定を行うことが好ましい。
 なお、運転者に提示した課題に対する回答は、例えば物理的なボタンの押下を検出するシステムとすることもできる。しかし、ボタン操作などは煩わしさを伴う。
 本開示の処理は、このようなボタン操作等、運転者に対する操作を要求しない。運転者の眼球挙動をセンサによって解析するのみであり、運転者に回答を入力させるといった負担は発生しない。
 運転者は課題の提示された情報表示領域に視線を移動し、情報を知覚し、知能的認知、すなわち記憶との照合を行うことになるが、運転者は視覚情報が網膜に届く様に眼球を振り向けただけで認知作業は完了せず、判断に必要な記憶を元に理解し完了する必要がある。
 これらの処理過程で不足情報を捉えたり網膜の継時変化を捉えたりする必要性から前述した眼球の固視(Fixation)やマイクロサッカード(眼球微小回転)等の一定の挙動が観測される。
 例えば、運転者に対する手動運転復帰通知に伴う課題提示を行う処理を繰り返した場合、運転者はシステムによる覚醒認知の過程であることが記憶されることになる。その結果、色の選択等の単純な課題では、単純に視線を対象に向けたからと言って脳内で十分な対象の把握作業が開始されたかどうかを判断することが難しい。
 これに対して、前述したような複数の動物シルエットから特徴の異なる1つを選択させるといった判断を要する視覚的課題の場合は、眼の中心視野を課題対象に振り向けただけでは必ずしも判断に必要な情報は取得しきれず、情報を補足することが必要となる。
 人の視覚挙動特性として視線を振り向けて対象を見る場合、サッカードで視線の中心視野を大まかに対処に振り向け、見た対象を理解して判断を完結させるには、判断に不足している情報を更に捉えるため、さらにマイクロサッカード(眼球微小回転)やFixationと言った特徴を捉える挙動を示す。
 なお、前述したように、眼球の挙動解析を通して運転者の挙動解析を行う場合、運転者毎の固有挙動特性を学習解析した判定器を用いることが好ましい。
 本開示の処理では、視覚的な情報提示を行い、その視覚情報を人が確認する際の眼球挙動を解析するものである。視覚情報を提示して運転者が過剰に意識動作することなく、課題の目視を行うとその答えを探索するための運転者の眼球挙動が発生し、この探索挙動を直接解析するものである。すなわち、運転者は視覚的に見て別途その答えを発話したり、ボタンを操作したりする作業を行わなくとも、視線の挙動観測から思考活動の状況を解析できる。
 運転者は視線による課題の目視を開始し、運転者が理解を進めている状況における眼球挙動を解析することで覚醒レベルの推定が可能となる。このように、本開示の処理は、ボタン操作などの煩わしさを伴わずに視線の挙動観測から思考活動の状況、すなわち運転者の覚醒度を判定することを可能とするものである。
 例えば、自動運転から手動運転の復帰推移の途中で、手動運転への引き継ぎ通知を表示部に表示する際に、課題を表示部に表示する。
 コンソールパネルやHUDなどの目視可能な表示部(インタフェース)に表示して、運転者の眼球挙動を解析する。この処理により、短時間で運転者の覚醒度判定が可能となる。
 課題例としては、例えば草むらの背景における特定の昆虫探しや、木々が生い茂る中に身を隠した鳥を探す課題、あるいは芝の中の四葉のクローバー探しなど、多種多様な課題が利用可能である。
 なお、覚醒度やその覚醒レベル判定には必ずしも課題に対する正解を得ることは必須ではない。不正解の場合でも、何かしらの回答やペダルを踏む動作等の運転者の反応が検出される可能性がある。このような反応に基づいて運転者の覚醒度を判定する処理を行ってもよい。なお、覚醒度が非常に高い場合には、提示情報から変化のありそうな箇所の理解観測を進めるために、対象となる画像群に視線を振り向けた後、固視やマイクロサッカード動作が断続的に出現し、このような観測挙動情報が得られた場合は挙動の固有解析から運転者の覚醒度が高いと判定することができる。
 この探索挙動の発現は、視覚課題がランプの色や単純な数値などであると周辺視野の輪郭でとらえた段階で既に答えが予測付き、中心視野で個別のランプや数値を見ずとも答えがわかるため、現れない。また、少し複雑化した課題であっても、同一課題の繰り返し性や強すぎる印象の特徴は記憶に強く残り、以下の項目5で説明するような多様な課題をランダムに提示したり、遠隔で定期更新して同一課題の繰り返し性を排除したりして課題提示を行うことで、探索挙動発現の低下を避けることができる。
  [4.情報処理装置における覚醒度判定処理の実行構成について]
 次に、本開示の移動装置、情報処理装置の覚醒度判定処理の実行構成について説明する。
 本開示の移動装置、または移動装置に搭載可能な情報処理装置は、運転者に大きな負担を発生させることなく、かつ短時間で運転者の覚醒度を判定する処理を行う。
 運転者の覚醒度の判定処理は、図1に示す自動車10の運転者情報取得部12、およびデータ処理部11において実行される。
 図6を参照して、運転者の覚醒度の判定処理を実行する具体的構成例について説明する。
 図6には、データ処理部11、運転者情報取得部12、表示部16、表示情報記憶部17を示している。
 なお、図6は、本開示の移動装置に搭載された情報処理装置の一部構成を示す図である。すなわち、以下において説明する本開示の処理、すなわち運転者の覚醒度判定に適用する構成要素を選択して示したブロック図である。
 運転者情報取得部12は、先に図4を参照して説明した構成を有するが、図6には、以下の2つの構成のみを示している。
 運転者顔追跡部(ドライバー・フェイシャル・トラッカー(Driver Facial Tracker))51と、運転者眼球追跡部(ドライバ・アイ・トラッカー(Driver Eye Tracker))52である。
 これらは、例えばカメラや顔検出センサ、眼球位置検出センサ等によって構成される。
 運転者顔追跡部(Driver Facial Tracker)51が検出した運転者の顔や頭部の動き情報は、データ処理部11の表示部選択部62に入力される。
 運転者眼球追跡部(Driver Eye Tracker)52の検出した運転者の眼球の動き情報は、データ処理部11の運転者眼球挙動解析部63に入力される。
これら、図6に示す構成では、運転者顔追跡部51、眼球追跡部52やそのデータ処理部63はそれぞれ別構成として図示をしているが、その一部または全ての機能をイメージセンサ素子に一体化して取り込み、モノシリックな構成にしても良い。特に高速処理が必要な処理を、イメージセンサの裏面や近傍に配置する事で、高速な信号配線の引き回しを抑制し、ノイズ発生を抑制することに貢献する。
 データ処理部11は、表示情報生成部61、表示部選択部62、運転者眼球挙動解析部63、運転者眼球挙動学習器64、運転者覚醒度判定部65を有する。
 表示情報生成部61は、表示部16に表示する課題を生成する。具体的には、先に説明した複数の動物のシルエットから特徴が異なる図柄を一つ選択せよという課題等を生成する。表示情報記憶部17には、様々な課題を生成するために利用可能なデータが格納されている。
 なお、具体的な課題の例については、後段で説明する。
 表示部選択部62は、表示情報生成部61が生成した課題を表示する表示部を選択する。
 表示部16には、図に示すように、表示部A(インストルメントパネル)71、表示部B(フロントウィンドウ表示部)72、表示部C(ウェアブル/ポータブル表示部)73、表示部D(HUD(ヘッドアップディスプレイ))74等、様々な形態の表示部がある。
 表示部選択部62は、運転者顔追跡部(Driver Facial Tracker)51が検出した運転者の顔や頭部の動き情報に基づいて、運転者の視線の先にある表示部を、表示情報生成部61が生成した課題を表示する表示部として選択して課題を表示する。
 運転者眼球挙動解析部63は、運転者眼球追跡部(Driver Eye Tracker)52の検出した運転者の眼球の動き情報を入力して運転者の眼球の動きを解析する。
 表示情報生成部61が生成した課題が表示部16に表示されると、運転者は課題の回答を取得するため課題に視線を移動させる。例えば、前述したように、複数の動物シルエットから特徴の異なる1つを選択させるといった判断を要する視覚的課題が表示部16に表示される。運転者は、この課題の回答を取得するため、必要とする情報を補足するための眼球挙動を行う。例えば眼球のサッカード(眼球回転)、固視(Fixation)やマイクロサッカード(眼球微小回転)等の眼球挙動を行う。
 運転者眼球挙動解析部63は、これら運転者の眼球挙動を解析する。
 運転者眼球挙動解析部63の解析した眼球挙動情報は運転者覚醒度判定部65に入力される。
 運転者覚醒度判定部65は、運転者眼球挙動解析部63の解析した眼球挙動情報に基づいて、運転者の覚醒度を判定する。
 運転者が、課題解決のための眼球のサッカード(眼球回転)、固視(Fixation)やマイクロサッカード(眼球微小回転)等の眼球挙動を実行していることが確認された場合は、運転者覚醒度判定部65は、運転者の覚醒度が高いと判定する。一方、これらの眼球挙動が観察されなかった場合、または少ない場合は、運転者覚醒度判定部65は運転者の覚醒度が低いと判定する。
 運転者眼球挙動解析部63の解析する眼球挙動の具体例について図7を参照して説明する。
 眼球の挙動解析は、運転者の意識復帰を確認する有効な手段である。なお、例えば視線を振り向けた方向を解析して視線を解析することが可能であることは、従来から知られている。この技術をさらに発展させ、高速で視線挙動の解析を行うことで、眼球のより詳細な挙動検出ができる。
 眼球の詳細挙動解析は、生体反射的に現れる挙動が一部あるものの、その挙動には脳内の神経伝達と処理を反映して現れる多くの現象も同時に見られるため、脳の認知等の活動結果が反映され、表に見える形になる。
 眼球挙動に脳内の活動が反映されることを利用して、運転者の覚醒レベルを高精度で推測することが可能となる。
 人が行動に必要な状況判断を行う場合に取得する外界情報は、視覚的情報から得られるものが多い。人が視覚的情報を知覚し、認識し、行動に移す際に、人は情報に視線を向けて、その情報と自身の記憶(記録知識)との比較参照を行う。視線の先の情報を理解するまでの間、人は、その情報が見える部分やその近傍に視線を向けたまま細かな固視、マイクロサッカード、トレモア、ドリフトと言った視覚情報認知に必要となる特定の眼球挙動を示すことが知られている。
 この眼球挙動は、人が正常な覚醒状態にある場合と、意識・覚醒低下状態にある場合とでは、異なる振る舞いを示す。
 ある情報を見るように視覚課題を提示した際の運転者の眼球挙動の軌跡の一例を図7に示す。
 図7に示す例は、人がまず、領域a付近を注視し、その後、領域b付近を注視した際の眼球挙動の軌跡を示したものである。
 ある情報(課題)を目視して内容を理解しようとする場合、人は図7に示す挙動軌跡のように大きなサッカードと呼ばれる眼球回転を行い、所定の目視箇所に眼球を振り向け、その近傍で固視(Fixation(フィクセーション))と、局所領域の微小な眼球回転動作であるマイクロサッカードを伴う眼球挙動を行う。
 以上説明をしたように、人が意識をして視覚情報から必要な情報を取得し、必要な判断を行う際に、情報を得るために特徴的な眼球挙動が発現する。他方で、意識低下したりしてこの視覚的情報探索が不十分であると、情報を確定取得する固視に必要な眼球挙動に乱れが生じる。図8は、情報を見る視覚課題を提示した際の運転者の眼球挙動の軌跡の一例であり、覚醒状態が異なる場合の挙動の差について説明する図である。図8(a)は、課題を示す図である。
 課題=小動物を数えて下さい
 この課題である。
 視線の順番は見る人により異なる。課題である問題文面「Q」に視線を最初に向ける被験者もいれば答え「Ans」を見て問題文面「Q」を見て配列の図面全体を見る被験者者もいれば、答えのシルエット情報をさっと見てから課題を見るなど様々である。脳内の活動評価に重要となるのはその評価時々で被験者である運転者がその瞬間の回答に必要となる情報取得確認を行うために必要な探索・固視を実行に移す挙動を発現しているか、その評価となる。
 図8(b)と(c)に示す観測データを例に説明する。(b)は覚醒度の高い状態で課題に対処して際の眼球挙動を示す。他方で、視覚課題対処能力が低下した状態を眼球挙動の軌跡例を(c)に示している。(c)では眼は明けているものの、課題対処に不十分は状況であり、そのため眼球挙動は眼球のサッカードを含む視覚情報探索がいわゆる目の泳いだ傾向が顕著に表れている一つの例である。
 これは挙動特性の斜視や効き目の影響、その日の体調にともなう視力変化など、個人に属した傾向に影響されるため、覚醒判定には個人の特性を加味した状態判別を行うのが望ましく、個人を特定した上で各個人の特性を加味して判定を行うのがよい。
 例えば、自動運転中に、運転者の意識保持が継続しているか否かを確認するためには、定期的なモニタリングを行うことが必要である。運転者を過度に煩わせることなくモニタリングを実施するため、システムは、例えば何らかの思考的判断を要するシンボルを運転者に提示し、眼球挙動を観測する。この観測結果として運転者が視線による思考的確認動作が行えていることが観測された場合、運転者は脳内の思考活動を課題対処のために優先して実行し、その他の2次タスクに没頭したままではないことが推察される。
 また、システムが運転者の視線が提示情報に振り向けられたことを検出し、検出したことをさらに目視認知したことを受けて認知完了と判断する処理を行ってもよい。
 なお、この眼球挙動に基づく覚醒度判定処理には、運転者固有の学習データを利用することが好ましい。学習データは、運転者眼球挙動学習器64が生成する。あるいは外部サーバにおいて生成する構成としてもよい。
 運転者眼球挙動学習器64は、運転者眼球挙動解析部63の解析した眼球挙動情報を入力し、その眼球挙動情報に基づいて運転者覚醒度判定部65が判定した運転者の覚醒度情報を入力し、さらに、運転者の運転操舵情報も入力する。
 運転者眼球挙動学習器64は、これらの入力情報に基づいて、運転者の眼球挙動と、その眼球挙動時の運転者の覚醒度レベルの正しい対応関係を学習して、学習データとして記憶部に格納する。これらの処理は外部サーバが実行する構成としてもよい。
 また、運転者眼球挙動学習器には、後述する他の生体センサによる運転者生体信号との相関や、日中の利用時間帯などの入力影響因子と連動学習することで、状況適用型判定を行うことで判定の高精度化を図ってもよい。
 運転者覚醒度判定部65は、運転者眼球挙動解析部63の解析した眼球挙動情報を入力し、この入力情報と運転者眼球挙動学習器64の生成した学習データを利用して、より精度の高い覚醒度判定を実行する。
 なお、学習データが存在しない、または少ない場合は、学習データを用いることなく、一般的な眼球挙動と覚醒度との対応データ(人の平均的データ)を用いて覚醒度判定を行う構成としてもよい。
 なお、運転者眼球挙動解析部63は、前述したように、運転者による課題解決のための眼球挙動である眼球のサッカード(眼球回転)、固視(Fixation)、マイクロサッカード(眼球微小回転)等の眼球挙動を取得する。運転者眼球挙動学習器64は、運転者の運転者覚醒度に応じた挙動特性を繰り返し、入力して累計的な学習を実行して眼球挙動から覚醒度判定を行うための辞書を構築する。この辞書は、新たに観測される眼球挙動特性から観測時のユーザの覚醒状態を推定するために用いられる。
  [5.運転者の覚醒度を判定するために運転者に提示する課題の具体例について]
 次に、運転者の覚醒度を判定するために運転者に提示する課題の具体例について説明する。
 上述したように、本開示の移動装置に搭載された情報処理装置は、例えば自動運転実行中の運転者に、所定の課題を提示して、課題に対する運転者の眼球挙動を解析して、眼球挙動に基づいて運転者の覚醒度を判定する。
 例えば、自動運転可能区間から手動運転区間に侵入する前の段階で、運転者に課題を提示して、課題に対する運転者の眼球挙動を解析して運転者の覚醒度を判定する。
 運転者による手動運転復帰手順に沿って実際のハンドルやブレーキ操舵を再開する際には、必ず視覚情報からの認知判断を伴う必要がある。つまり、脳の覚醒復帰は手動運転する手続き上の必須要件である。運転者は物を見て視覚によって得られた情報を用いて操作に必要な情報を取得する。
 従って、操作に必要な脳内の知覚判断活動が解析できれば、運転者が手動運転可能な判断能力を備えているか否か、すなわち覚醒度が高い状態にあるか否かを判定することができる。
 本開示の情報処理装置は、手動運転の復帰前に、運転者に視覚的課題を提示し、この課題の解決に際して発生する運転者の眼球挙動を解析する。さらに、この眼球挙動観測結果に基づいて運転者の覚醒度を評価する。
 本開示の構成において運転者に提示する視覚課題は、運転者が視覚課題を解決するために必要となる不足情報を追加探索する作業が必要となる課題である。
 このような不足情報の追加探索処理が行われると、眼球の固視(Fixation)やマイクロサッカード(眼球微小回転)等の眼球挙動が発生する。
 先に図6や図7を参照して説明したように、運転者眼球挙動解析部63は、運転者眼球追跡部(Driver Eye Tracker)52の検出した運転者の眼球の動き情報を入力して運転者の眼球の挙動解析を行う。
 運転者眼球挙動解析部63は、運転者の眼球挙動として、眼球のサッカード(眼球回転)、固視(Fixation)、マイクロサッカード(眼球微小回転)等が観測されているか否かを解析する。
 運転者眼球挙動解析部63の解析した眼球挙動情報は運転者覚醒度判定部65に入力され、運転者覚醒度判定部65は、運転者眼球挙動解析部63の解析した眼球挙動情報に基づいて、運転者の覚醒度を判定する。
 運転者が、課題解決のための眼球のサッカード(眼球回転)、固視(Fixation)やマイクロサッカード(眼球微小回転)等の眼球挙動を実行していることが確認された場合は、運転者覚醒度判定部65は、運転者の覚醒度が高いと判定する。一方、これらの眼球挙動が観察されなかった場合、または少ない場合は、運転者覚醒度判定部65は運転者の覚醒度が低いと判定する。
 以下、本開示の情報処理装置のデータ処理部11の表示情報生成部61が生成、または表示情報記憶部17から選択取得して運転者に提示する課題の具体例について説明する。
 図9は、課題の一例を示す図である。
 図9に示す例は、複数の動物シルエットを並べて表示して、さらに課題文として、「尾の長い動物を見てください」という課題を提示した例である。
 動物シルエットとして、
 (a)羊
 (b)しか
 (c)熊
 (d)豚
 (e)馬
 (f)きりん
 これら6種類の動物のシルエットが表示されている。
 課題文である「尾の長い動物を見てください」という課題を提示した場合、運転者の覚醒度が十分高い状態にあると仮定すると、運転者は課題解決のために以下のようなステップ(S1~S3)に従った眼球挙動を行うと予測される。
 (S1)課題確認のため、課題表示部に眼球の視線を振り向けるサッカード(眼球回転)と、課題を読み込む固視(フィクセーション)、
 (S2)各シルエットを一通り見渡す挙動、(並んで表示されているシルエット全体をさっと見渡す処理であり、特定シルエットに注目しない全体を見渡す視線移動処理)
 (S3)正解の対象となる特定のシルエットに視線を振り向けるサッカード(眼球回転)と、特定のシルエットを解析するための固視を行い、特定シルエットの尾や頭部と言った特徴部を確認する処理、
 さらに、見落としを確認する動作が出現するケースでは、
 ステップ(S4)として、運転者は、他の不正解と思われる対象も固視する眼球挙動を発生する可能性がある。
 特に、課題提示の正解が一つでなく、複数の正解がある場合には、見落としの確認処理のため、多数のシルエットへの固視が発生する可能性が高い。
 運転者が一通りのシルエットに視線を合わせ終えたら、課題終了と判定して次の課題を提示してもよい。
 この場合、ステップ(S5)として、運転者の視線が次の課題提示部にサッカード移動することが予測される。
 運転者は、例えば、上記のステップ(S1)~(S5)の眼球挙動を行うことが想定される。ただし、これは運転者の覚醒度が十分高い状態であり、課題を解決しようとする意志が存在する場合に観察される挙動である。
 運転者は、課題解決のために必要な情報の探索、すなわち不足情報を補う追加探索のため、特定の画像表示領域に視点を合わせ、固視を行って判断に必要な視覚情報を取得し、取得情報と記億との照合処理を行う。さらに理解の完結を補うための追加付随的な特徴の探索のためにマイクロサッカード(眼球微小回転)や固視微動等の挙動を発生させる。
 このような挙動が観測された場合は、運転者が課題を解決しようとしていることを示し、運転者の覚醒度が十分高い状態であると判断することができる。
 運転者は、物理光学的に網膜に到達した視覚情報を脳内に取り込み、記憶との照合を実行して課題を解決しようとしている場合は、例えば、上記のステップ(S1)~(S3)のシーケンシャルな挙動を発生させる。一方、運転者が単に反射的に特徴箇所に視線を振り向けたるだけの挙動を行った場合は、上記のステップ(S1)~(S3)のシーケンシャルな挙動は全く観察されないか、あるいは上記のステップ(S1)のみ、あるいは(S2)のみ、あるいは(S3)のみが観察されるといった状態が発生する。
 このように観測される運転者の眼球挙動は、運転者の覚醒度が高い状態、すなわち課題を解決しようとする意思がある状態と、運転者の覚醒度が低い状態、すなわち課題を解決しようとする意思がないまたは低い状態とでは明らかに異なるものとなる。
 移動装置に搭載された本開示の情報処理装置は、図9に示すような視覚的課題を運転者に提示し、提示後の運転者の眼球挙動を解析して、運転者が課題を解決するための眼球挙動(例えば上記のステップ(S1)~(S3))を行っているか否かを判定する。行っている場合は覚醒度が高いと判定し、行っていない場合は覚醒度が低いと判定する。
 運転者の覚醒状態の判断を行う場合に重要となるのは、運転者の脳内で実行される状況判断に必要な記憶の参照とその結果としての行動計画が行えるか、関連の知能部位の復活状況を判断する事である。
 このうち、行動計画と、実際の運転操作としての操舵に必要な体を動かす神経伝達と筋力的復帰は眼球の挙動解析のみでは観測が不可能である。しかし、判断に必要な視覚情報の取得には眼球挙動を伴う視覚的確認が必要となる。
 例えば、危険状況の視覚的把握や、危険を回避するための周囲状況の把握、例えば、道路の障害物や、対向車や崖等の危険物、進行可能な空き方角や空間などの把握にはこれらを視覚的に確認するための眼球挙動が必要となる。
 眼球挙動の解析のみでは、脳内の全体の覚醒度を完全に確認することは難しいものの、例えば、手動運転において必須となる行動計画に必要な脳内活動が可能な状態であるか否かの判断は可能であり、本開示の課題提示に基づく運転者の眼球挙動解析による覚醒度判定は、運転者が手動運転可能な覚醒状態であるか否かを判定するには十分な効果を奏するものであると言える。
 ただし、眼球挙動のみから判断される運転者の手動運転復帰能力が、運転者の行動判断と神経伝達と筋力的復帰を完全に反映したものであるという断定は行えない。従って、移動装置に備えられたシステム(情報処理装置)は、運転者が手動運転を開始した後の操舵行動の評価も行う。また、運転席への着座前の運転者に対する手動運転復帰要請通知のタイミングから、運転席に着座して運転姿勢へ復帰するまでの行動についても評価を行う。移動装置に備えられたシステム(情報処理装置)は、これらの評価情報を利用して、例えば眼球挙動に基づく運転者の覚醒度判定に用いる学習データを生成する。なお、学習データは各運転者固有の学習データとして生成することが好ましい。
 なお、運転者が運転席に着座した状態、すなわち運転復帰姿勢の状態で手動運転への復帰要請通知を受けることもある。この場合、運転席へ戻る等の手動運転への復帰行動はほとんど発生しない。このような場合の運転者の覚醒度判定は、運転者の復帰行動を観測できる過程が少なく、評価が行える対象行動が限られ、眼球挙動の解析情報が運転者の覚醒状態を直接観測できる数少ない観測対象となる。
 眼球挙動解析から運転者の内部覚醒状態を推測し、運転者の脳内の覚醒度が高い状態と判断され、手動運転復帰の開始必要条件を満たすと判定されれば、運転者に手動運転を開始させることになる。
 手動運転開始後は、自動運転から手動運転へ引き継ぎが完了する間、徐々に運転機器操舵をシステムから運転者に委ねる過程の運転者の操舵のモニタリングがなされる。運転者がステアリングへ負荷するトルクや操舵機器の操舵力が適切でないと判定された場合や、操舵確認ができない等の状況が確認された場合は、システム(情報処理装置)は、運転者の手動運転復帰能力が不足していると判定し、緊急減速や、徐行、あるいは退避、避難、停車等の処置を行う。
 なお、運転者の手動運転開始後の手動運転復帰品質の評価は、眼球の挙動のみから評価するものではなく、以下のような様々な処理に基づく評価も併せ行うことになる。
 (1)定常時モニタリングによる状態評価
 (2)復帰通知に対する応答有無評価、視差呼称等の動的行動正確性評価
 (3)応答品質評価
 (4)復帰姿勢推移評価
 (5)着座推移、着座姿勢評価
 (6)PERCLOS(開眼割合)評価
 (7)本開示による眼球挙動解析による内部覚醒度評価
 (8)操舵装置等への操舵妥当性評価
 (9)操舵ノイズ修正妥当性評価
 眼球挙動に基づく覚醒度評価に併せて、上記の様々な評価処理も併せて、運転者の手動運転の復帰品質価を行う。
 このように本開示の情報処理装置は、運転者の脳内活動の認知段階での覚醒状態の判定のみならず、その後の手動運転開始後の手動運転復帰品質についての評価も実行する。
 なお、運転者に対して視線挙動が発現する課題を提示する場合、同じシルエットの図柄を繰り替えして表示することや、課題が単調で違いが明白な図柄を利用すると、運転者は課題を周辺視野で捉えた情報で判断に至り、細部の確認をすることとなく簡単に回答を導き出すことが可能となる。このような場合、運転者は詳細確認を行うことを目的として眼球挙動を発生させることなく回答して作業を終えてしまうことになる。
 課題が単調で違いが明白な図柄の具体例について、図10を参照して説明する。
 図10には、2つの動物シルエットを並べて表示して、さらに課題文として、「尾の長い動物を見てください」という課題を提示した例である。
 動物シルエットとして、
 (a)馬
 (b)うさぎ
 これら2つの動物のシルエットが表示されている。
 (a)馬の図柄は尾が明確に現れた図柄である。
 課題文である「尾の長い動物を見てください」という課題を提示した場合、ほぼ全ての回答者は馬の尾の詳細やうさぎの図柄をまじまじと視線を向けてじっくり注視するまでもなく、即座にどちらの図柄の動物の尾が長いかを判断することができる。
 課題を初めて見る場合には詳細に見ることもあるが、これは、回答のための判断の必要性から見るのではなく、どのような図柄が課題提示に利用されているかの興味優先の眼球挙動に過ぎない。このような興味本位の眼球挙動は、繰り返し、同じ配置で同じ動物の同じ図柄の表示が実行されると、中心視野で対象を捉えることなく周辺視野で捉えた段階で既に判断が可能となる。従って、詳細特徴の確認動作として期待されるマイクロサッカード(眼球微小回転)など固視を特徴付ける眼球挙動が観測される可能性が低下してしまう。このような状況となると、眼球挙動に基づく運転者の脳内の覚醒度判定は困難になる。
 眼球挙動解析を用いた運転者の覚醒状態を判定するためには、常に新鮮な課題を提示することが好ましい。例えば、時々刻々変化する走行風景の一部を課題として利用する構成としてもよい。
 市街地など多様な風景が満ち溢れ、運転者が手動運転する際に視線移動をする対象が多数、存在する状況では、例えば、運転者の視線が向けられる運転方向の風景対応のマップ(サリエンシーマップ)に対する運転者の眼球挙動の解析を行う構成としてもよい。このような構成では恒常的に運転者の内部覚醒度判定を行うことも可能となる。
 しかしながら、単調な高速道路や特徴も前走車も信号等も現れない道路走行区間では、これら運転者の覚醒度判定に有効な眼球挙動が行われにくい。つまり、安定的に運転者の挙動解析が期待できない状況になる。
 そこで重要となるのが、安定的に常に固視探索対応の眼球挙動を発生させる情報提示である。このためには、繰り返し性を抑えて、感度低下の無い情報を生成して提示することが必要となる。
 繰り返し性を低下させるためには、複数の多様な課題を準備することが必要である。以下、課題の設定例を示す。
 (1)複数の動物シルエットを体重順に見させる課題
 (2)動物シルエットを、それぞれ様々な角度で回転して表示を行い、回転されたシルエットを見て動物種類を判断させる過程を含む課題
 (3)類似する図柄を配列して表示し、各図柄の違いを判断するために個別図柄の特徴の固視確認が必要となる課題
 (4)複数の料理を配列して、和食であるか洋食であるかを判断させる課題
 (5)ABC等をばらばらに表示して、文字順に見ることを要求する課題
 (6)表示図柄を家畜に設定した課題
 (7)表示図柄をペットに設定した課題
 (8)表示図柄を家禽に設定した課題
 (9)表示図柄を魚に設定した課題
 (10)表示図柄を昆虫に設定した課題
 例えば、これらの多数の課題を図6に示す表示情報記憶部17に格納し、表示情報生成部61は、これらの課題から同じ課題が繰り返されないように選択して提示する構成とすることが好ましい。
 図11に課題の一例を示す。
 図11に示す例も、図9、図10と同様、複数の動物シルエットを並べて表示しているが、課題文として、「ペットになる動物の数を選択してください」という課題を提示した例である。
 動物シルエットとして、
 (a)秋田犬
 (b)牛
 (c)熊
 (d)プードル
 (e)ライオン
 これら5種類の動物のシルエットともに、上部に1~5までの選択可能な数値が表示されている。
 課題文として「ペットになる動物の数を選択してください」を提示した場合、運転者の覚醒度が十分高い状態であると仮定すると、運転者は課題解決のために以下のようなステップ(S1~)に従った眼球挙動を行うと予測される。
 (S1)課題確認
 (S2)動物シルエット全体の把握
 (S3)周辺視野による全体観察から得られた情報と、脳内の記憶との相関を確認し、ペットになると推定される対象シルエットを確認するための個別固視のためのサッカード(眼球回転)を開始
 (S4)動物シルエット(a)秋田犬を固視
 (S5)動物シルエット(a)が犬であるか否かを判断するため、頭部を中心視野で見る局所部分の特徴を確認するためのマイクロサッカード(眼球微小回転)を実行
 (S6)他の動物シルエットへ視点を移動させるサッカード(眼球回転)
 (S7)動物シルエット(e)ライオンを固視
 (S8)動物シルエット(e)が犬であるか否かを判断するため、頭部や尾を中心視野で見る局所部分の特徴を確認するためのマイクロサッカード(眼球微小回転)を実行して、動物シルエット(e)がライオンであると判断
 (S9)他の動物シルエットへ視点を移動させるサッカード(眼球回転)
 (S10)動物シルエット(d)プードルを固視
 (S11)動物シルエット(d)が犬であることを、マイクロサッカード(眼球微小回転)を行うことなく即座に判断
 (S12)(S2)における動物シルエット全体の把握時に視野に入り、ペットでないことを仮判定していた動物シルエット(b),(c)に視線を向け、ペットでないことを再確認
 (S13)回答選択肢としての数値[2]に視線を移動させるサッカード(眼球回転)
 なお、自信が無い場合にはシルエット(b)や(c)へ特徴確認のためのサッカード(眼球回転)を伴う視線移動を行う場合もある。
 移動装置に搭載された本開示の情報処理装置は、例えば図11に示すような視覚的課題を運転者に提示し、提示後の運転者の眼球挙動を解析して、運転者が課題を解決するための眼球挙動(例えば上記のステップ(S1)~(S13))を行っているか否かを判定する。例えば上記のステップ(S1)~(S13)とほぼ同様の眼球挙動を実行していれば覚醒度が高いと判定し、行っていない場合は覚醒度が低いと判定する。
 なお、情報処理装置における覚醒度判定に際しては、運転者の眼球挙動が上記のステップ(S1)~(S13)と完全一致するか否かを判定する必要はない。例えば、上記のステップ(S1)~(S13)の半分(50%)以上を実行していれば覚醒度が高いと判定し、行っていない場合は覚醒度が低いと判定するといった処理を行う。
 なお、シルエットを見る順番は上記例に制限されない。例えば、ペットかペットでないかを判別するためのマイクロサッカード(眼球微小回転)が1つ以上の動物シルエットにおいて実行されているか否かに基づいて覚醒度評価を行ってもよい。
 図12に異なる課題の例を示す。
 図12に示す例も、複数の動物シルエットを並べて表示しているが、課題文として、「体重の重い動物順に視線を移動させてください」という課題を提示した例である。
 動物シルエットとして、
 (a)かば
 (b)馬
 (c)こうもり
 (d)豚
 (e)ねずみ
 これら5種類の動物のシルエットが表示されている。
 課題文として「体重の重い動物順に視線を移動させてください」を提示した場合、運転者の覚醒度が十分高い状態であると仮定すると、運転者は課題解決のために以下のようなステップ(S1~)に従った眼球挙動を行うと予測される。
 (S1)課題確認
 (S2)動物シルエット全体の把握
 (S3)周辺視野による全体観察から得られた情報と、脳内の記憶との相関を確認する。判断が困難なシルエットについては、特徴確認のためにサッカード(眼球回転)によるシルエットに対する視線移動を行い、さらに局所的特徴を確認するための固視やマイクロサッカード(眼球微小回転)を実行する
 (S4)判断の付かない対象が無くなったら大きい物から順次、サッカード(眼球回転)を行い、視線を移動させる。
 なお、(S4)の視線移動の実行段階で、判断が曖昧な場合は、再確認のための固視やマイクロサッカード(眼球微小回転)が発生する可能性もある。
 移動装置に搭載された本開示の情報処理装置は、例えば図12に示すような視覚的課題を運転者に提示し、提示後の運転者の眼球挙動を解析して、運転者が課題を解決するための眼球挙動(例えば上記のステップ(S1)~(S4))を行っているか否かを判定する。例えば上記のステップ(S1)~(S4)とほぼ同様の眼球挙動を実行していれば覚醒度が高いと判定し、行っていない場合は覚醒度が低いと判定する。
 なお、例えば、マイクロサッカード(眼球微小回転)が1つ以上の動物シルエットにおいて実行されているか否かに基づいて覚醒度評価を行ってもよい。
 図13に別の課題例を示す。
 図13に示す例は、複数の魚や海洋生物等を並べて表示し、課題文として、「魚(Fish)は何匹いますか」という課題を提示した例である。
 シルエットとして、
 (a)かつお
 (b)いるか
 (c)金魚
 (d)えい
 (e)くじら
 (f)たつのおとしご
 これら6種類のシルエットと選択肢1~4が表示されている。
 なお、図に示す点線枠は、回答例として示しているものであり、表示される課題には含まれない。
 課題文として「魚(Fish)は何匹いますか」を提示した場合、運転者の覚醒度が十分高い状態であると仮定すると、運転者は課題解決のための眼球挙動として、先に図11を参照して説明した課題「ペットになる動物の数を選択してください」に対する挙動と同様の処理を行うと推定される。
 すなわち、以下のようなステップを実行する。
 (S1)課題確認
 (S2)シルエット全体の把握
 (S3)周辺視野による全体観察から得られた情報と、脳内の記憶との相関を確認し、魚であると推定される対象シルエットを確認するための個別固視のためのサッカード(眼球回転)を開始
 (S4)各シルエットを順に確認するサッカード(眼球回転)を行い、判断が困難な場合は、各シルエットの局所部分の特徴を確認するための固視やマイクロサッカード(眼球微小回転)を実行する。
 (S5)回答選択肢としての数値[3]に視線を移動させるサッカード(眼球回転)
 本開示の情報処理装置は、例えば図13に示すような視覚的課題を運転者に提示し、提示後の運転者の眼球挙動を解析して、運転者が課題を解決するための眼球挙動として上記のステップを行っているか否かを判定する。上記ステップとほぼ同様の眼球挙動を実行していれば覚醒度が高いと判定し、行っていない場合は覚醒度が低いと判定する。
 なお、図13に示す課題は、魚の数を回答として求めるものであるが、例えば、この課題を繰り返し提示すると、視線挙動は変化する。
 図13に示す課題を初めて見た場合、(a)~(f)の各シルエットは全て魚に見える可能性が高い。
 あるいは、例えば(d)えい、(f)たつのおとしご等について、疑問を感じ詳細の確認をするため固視やマイクロサッカード(眼球微小回転)を実行すると想定される。
 一方、この図13に示す課題を見た経験がある運転者に再度、この類似または同一課題を提改めて示した場合は、最初に全体の複数シルエットを周辺視野で観察した段階で詳細を見ずに判断が完結してしまう可能性がある。この場合は、局所的特徴を確認するためのめ固視やマイクロサッカード(眼球微小回転)が行われない可能性がある。つまり、特徴のある対象は、その対象に求める課題の解が記憶と即座にリンクしない場合、その詳細確認にマイクロサッカードで細部を見る挙動が観測されることが期待される一方で、タツノオトシゴ等の特徴に強すぎで記憶に強く残ることでシルエットを捉えた段階で判断が完結することになる。以降に示すその他の事例で示す多様な変化付きの課題提示は、運転者が周辺視野で概要のみ捉えた段階での予測性を抑え、脳内での判断のための中心視野確認を常に促すための工夫の一貫である。
 ただし、(b)いるか、(e)くじらは、輪郭は魚に見えるが魚と異なるため、尾の特徴や頭部の特徴などをじっくり見る固視やマイクロサッカード(眼球微小回転)が実行される可能性もある。
 局所的特徴の確認のための挙動である固視やマイクロサッカード(眼球微小回転)は、運転者が課題となる図柄の特徴を見た経験や記憶等によって異なることになる。
 図14~図16にその他の課題の例を示す。
 図14は、複数の動物シルエットを表示し、肉食動物の数を選択させる課題である。
 なお、図に示す点線枠は、回答例として示しているものであり、表示される課題には含まれない。
 図15は、複数の調理用品や食材のシルエットを表示し、和食対応のシルエットの数と洋食対応のシルエットの数を選択させる課題である。
 なお、図に示す点線枠は、回答例として示しているものであり、表示される課題には含まれない。
 図16は、様々な種類のシルエットを表示し、逆さに表示されたシルエットの数を選択させる課題である。
 次に、動物や物のシルエット画像ではなく、文字を利用した課題の例について説明する。
 図17は、大文字と小文字が混在したアルファベットの文字をランダムに表示し、課題文「枠内の大文字に視線を合わせて下さい」という課題を提示した例である。
 運転者は枠内に表示された複数のアルファベットから大文字のアルファベットに視線を合わせる眼球挙動としてサッカード(眼球回転)、固視、マイクロサッカード(眼球微小回転)等を行うことになる。
 さらに、枠を移動させて、小文字に視線合せを行う課題を追加して行わせてもよい。
 このように課題を変更すると運転者に複数の判断を要求することになる。複数の異なる課題を解決するためには、運転者は判断に必要な脳内の活動領域を変更する必要がある。従って、このような複合的な課題に対する眼球挙動解析を行うことで、より精度の高い覚醒度判定が可能となる。
 図18は、大文字と小文字が混在したアルファベットの文字をランダムに表示し、課題文「枠内の文字について、アルファベット順(ABC・・)に視線を移動させて下さい」という課題を提示した例である。
 このようにアルファベット順に見る課題を提示すると、覚醒度が高い運転者は文字順を判断して視線移動を行う。
 なお、図17、図18を参照して説明した例では、文字数が限られ、固視による特徴判断を行うことなく記憶の参照のみで判断される場合もある。このような判断がなされると固視やマイクロサッケード等の眼球挙動が観察されにくくなるため、各文字の特徴を捉える必要のある課題を提示して、眼球挙動を誘発する課題とすることが好ましい。
 図19以下にその他の課題例を示す。
 図19は、様々な工具と文具をシルエット表示し、「工具の数と文具の数を選択してください」という課題を提示した例である。
 なお、図に示す点線枠は、回答例として示しているものであり、表示される課題には含まれない。
 図20も、「工具の数と文具の数を選択してください」という課題を提示した例であるが、表示シルエットに工具と文具と、いずれにも含まれないシルエット(動物)を表示した例である。
 なお、図に示す点線枠は、回答例として示しているものであり、表示される課題には含まれない。
 図21は、様々な動物シルエットを表示し、「サバンナに住む動物の数は?」という課題を提示した例である。
 なお、図に示す点線枠は、回答例として示しているものであり、表示される課題には含まれない。
 図22は、変形文字列を表示して、「6はいくつ含まれますか?」という課題を提示した例である。
 図22に示すように変形文字列から特定の文字や数字を選択させる処理等、奇数、偶数、母音、子音、ギリシャ文字等を選別させる処理は視線移動や眼科球挙動を誘発させるために有効な課題となる。
 さらに、図23は、U,D,R,Lの文字を表示し、「表示文字に従って視線を移動させてください(U:up,D:down,R:right,L:left)」という課題を提示した例である。
 運転者は、この文字を1つずつ見て、その文字に従った方向に視線を移動させる処理を行う。
 この処理に際して、運転者はサッカード(眼球回転)、固視、マイクロサッカード(眼球微小回転)等の眼球挙動を行うことになる。
 さらに、図24は、複数の異なる動物のシルエットを表示し、「馬→犬→猫→キリンの順に視線を移動させてください」という課題を提示した例である。
 運転者は、馬→犬→猫→キリンの順に視線を移動させる処理を行う。
 この処理に際して、運転者はサッカード(眼球回転)、固視、マイクロサッカード(眼球微小回転)等の眼球挙動を行うことになる。
 図9~図24を参照して様々な課題の例について説明したが、運転者に提示する課題は、課題を解決するための不足情報を追加探索する作業を必要とする課題であることが必要である。具体的には、課題を解決するための眼球挙動として、眼球のサッカード(眼球回転)、または固視(Fixation)、またはマイクロサッカード(眼球微小回転)の少なくともいずれかの眼球挙動を発生させる課題とする。
 図9~図24を参照して説明した課題例は、動物や物のシルエットを配置した課題、文字を配列した課題等であるが、これらシルエット、文字の他、シンボル、記号、ピクトグラム等、様々な表示データを利用することが可能である。
 このように、本開示の情報処理装置は、運転者に対して様々な視覚的課題を提示する。図6に示す情報処理装置のデータ処理部11の運転者挙動解析部63は、課題提示後の李運転者の眼球挙動を解析する。具体的には、眼球挙動として、サッカード(眼球回転)、固視、マイクロサッカード(眼球微小回転)等の特定の眼球挙動の有無を検出する。
 なお、これら図9~図24で示した事例とその際に期待される回答者となる運転者が示すであろう眼球挙動例に過ぎず、回答者に依存して答えを見ずに回答の選択肢を最初に眺めてから質問文を後追いで確認するケースや設問分を繰り返し確認するケースなど人それぞれ異なる挙動を示す。重要となるのは、挙動そのもの正確性や繰り返し性や直接の正解を得るまでに時間等ではなく、その回答をするまでの間に課題対処に伴い必要情報取得のマイクロサッカードや固視の覚醒時に観測される個人的特徴の発生度合いである。
 つまり、覚醒時の課題に対するサッカード、マイクロサッカードや固視といった特賞挙動の発現率等から、運転者の内部覚醒レベル推定をすることができる。
 運転者挙動解析部63が解析したサッカード(眼球回転)、固視、マイクロサッカード(眼球微小回転)等の眼球挙動観測情報は運転者覚醒度判定部65に入力される。
 運転者覚醒度判定部65は、運転者挙動解析部63から入力した運転者の眼球挙動観測情報に基づいて、運転者が手動運転を実行できるレベルの高い覚醒度を有しているか否かを判定する。
 具体的には、運転者の眼球挙動として観測されたサッカード(眼球回転)、固視、マイクロサッカード(眼球微小回転)等の特定の眼球挙動が、運転者に提示された課題の解決を行うシーケンスに従って発生しているか否かを判定する。発生していれば運転者は確かな課題解決能力を有する、すなわち覚醒度が高く手動運転を実行できる覚醒状態にあると判定する。一方、発生していなければ運転者の覚醒度が低く、手動運転を実行できる覚醒状態にないと判定する。
  [6.本開示の情報処理装置が実行する運転者の覚醒度判定処理のシーケンスについて]
 次に、本開示の情報処理装置が実行する運転者の覚醒度判定処理のシーケンスについて説明する。
 図25、図26は、本開示の情報処理装置が実行する運転者の覚醒度判定処理のシーケンスについて説明するフローチャートを示す図である。
 なお、図25、図26に示すフローチャートに従った処理は、情報処理装置の記憶部に格納されたプログラムに従って実行することが可能であり、CPU等のプログラム実行機能を有するデータ処理部において実行される。
 以下、図25に示すフローの各ステップの処理について、順次、説明する。
  (ステップS101)
 まず、情報処理装置のデータ処理部は、ステップS101において、眼球挙動特性データ(学習データ)を取得する。
 この処理は、図6に示すデータ処理部11の運転者眼球挙動解析部63が、運転者眼球挙動学習器64内のメモリ(記憶部)から運転者固有の眼球挙動特性データ(学習データ)を取得する処理として実行される。
 なお学習データは、外部サーバが生成し保持する構成としてもよく、この場合は外部サーバから学習データを取得する。
 運転者固有の眼球挙動特性データ(学習データ)は、予め実行された学習処理によって取得済みのデータである。
 前述したように、眼球挙動には個人差があり、全ての運転者に対して同様な処理を行うより、運転者固有のデータに基づいて処理を行う構成とするのが好ましい。
 運転経験の豊富なドライバや競技レースドライバーと、運転初心者とでは、同じ眼球挙動を行ったとしても運転者の覚醒状態は異なる可能性があるからである。
 従って、運転者個人単位の学習処理によって生成した学習辞書を利用して覚醒度判定を行うことが好ましい。
 なお、個人固有の学習データが生成されていない場合は、予め準備されている平均的な人の眼球挙動特性データ(学習データ)を利用して処理を行う。
  (ステップS102)
 次に、運転者情報を取得する。処理は、図6に示す運転者情報取得部12が実行する処理である。
 このステップS102において取得する運転者情報は、主にパッシブ情報であり、図6に示す運転者顔追跡部(Driver Facial Tracker)51による運転者の顔の動きを取得する。
 取得した運転者の顔の動きに基づいて、課題を提示する表示部の選択か否かを判定して表示部の選択処理等を行う。
  (ステップS103)
 次に、ステップS103において、ステップS102において取得した運転者情報に基づいて、課題を提示する表示部の選択と眼球挙動解析処理が実行可能であるか否かを判定する。
 例えば、運転者が表示部のある位置にいない場合は、課題を表示部に表示しても課題を見ることができない。
 この場合(ステップS103=No)は、例えばアラートを出力し、運転者に表示部に課題が提示されることを通知する等の処理を行い、さらに、ステップS102に戻り運転者情報の取得処理を継続して実行する。
 ステップS103において、運転者情報に基づいて課題を提示する表示部の選択と眼球挙動解析処理が実行可能であると判定した場合は、ステップS104に進む。
  (ステップS104)
 ステップS104では、運転者が見ることができる表示部に表示する表示情報、すなわち課題を生成または選択する。
 この処理は、図6に示すデータ処理部11の表示情報生成部61が実行する処理である。
 表示情報生成部61は、表示部16に表示する課題を生成する。具体的には、先に説明した複数の動物のシルエットから特徴が異なる図柄を一つ選択せよという課題等を生成する。
 なお、図6に示す表示情報記憶部17には、様々な課題を生成するために利用可能な課題や課題生成用のデータが格納されており、表示情報生成部61は、表示情報記憶部17に格納された課題を選択、または格納されたデータを利用して表示部16に表示する課題を生成する。
 課題は、例えば先に図9~図24を参照して説明したような課題であり、運転者による課題解決が行われる場合、運転者の眼球挙動としてサッカード(眼球回転)、固視、マイクロサッカード(眼球微小回転)等の特定の眼球挙動を観測可能な課題である。
  (ステップS105)
 次に、ステップS105において、ステップS104で選択または生成された表示情報、すなわち課題を表示部に表示する。
 この処理は、図6に示す表示部選択部62が実行する。
 図6に示す表示部選択部62は、表示情報生成部61が生成した課題を表示する表示部を選択する。表示部16には、図に示すように、表示部A(インストルメントパネル)71、表示部B(フロントウィンドウ表示部)72、表示部C(ウェアブル/ポータブル表示部)73、表示部D(HUD(ヘッドアップディスプレイ))74等、様々な表示部がある。
 表示部選択部62は、運転者顔追跡部(Driver Facial Tracker)51が検出した運転者の顔や頭部の動き情報に基づいて、運転者の視線の先にある表示部を、表示情報生成部61が生成した課題を表示する表示部として選択して課題を表示する。
  (ステップS106)
 次に、ステップS106において、眼球挙動解析による覚醒度判定処理を実行する。
 この処理は、図6に示す運転者眼球挙動解析部63と、運転者覚醒度判定部65が実行する処理である。
 図6に示す運転者眼球挙動解析部63は、図6に示す運転者眼球追跡部(Driver Eye Tracker)52の検出した運転者の眼球の動き情報を入力して運転者の眼球の動きを解析する。
 表示情報生成部61が生成した課題が表示部16に表示されると、運転者は課題の回答を取得するため課題に視線を移動させる。例えば、前述したように、複数の動物シルエットから特徴の異なる1つを選択させるといった判断を要する視覚的課題が表示部16に表示される。運転者は、この課題の回答を取得するため、必要とする情報を補足するための眼球挙動を行う。例えば眼球のサッカード(眼球回転)、固視(Fixation)やマイクロサッカード(眼球微小回転)等の眼球挙動を行う。
 運転者眼球挙動解析部63は、これら運転者の眼球挙動を解析する。
 運転者眼球挙動解析部63の解析した眼球挙動情報は運転者覚醒度判定部65に入力される。
 運転者覚醒度判定部65は、運転者眼球挙動解析部63の解析した眼球挙動情報に基づいて、運転者の覚醒度を判定する。
 運転者が、課題解決のために眼球のサッカード(眼球回転)、固視(Fixation)やマイクロサッカード(眼球微小回転)等の眼球挙動を実行していることが確認された場合は、運転者覚醒度判定部65は、運転者の覚醒度が高いと判定する。一方、これらの眼球挙動が観察されなかった場合、または少ない場合は、運転者覚醒度判定部65は運転者の覚醒度が低いと判定する。
 ステップS106の処理の詳細フローを図26に示す。図26に示すフローの各ステップの処理について説明する。
  (ステップS201)
 まず、ステップS201において、課題提示後の運転者の眼球挙動の観測データを取得する。
 この処理は、図6に示す運転者眼球挙動解析部63が実行する処理である。
 運転者眼球挙動解析部63は、図6に示す運転者眼球追跡部(Driver Eye Tracker)52の検出した運転者の眼球の動きの加速データを取得する。
  (ステップS202)
 次に、ステップS202において、ステップS201で取得した観測データから眼球のサッカード(眼球回転)、固視(Fixation)やマイクロサッカード(眼球微小回転)等の眼球挙動情報を取得する。
 この処理も、図6に示す運転者眼球挙動解析部63が実行する処理である。
 前述したようえに、課題が表示部に表示されると、運転者は課題の解決に必要となる情報を取得するための眼球挙動を行う。例えば眼球のサッカード(眼球回転)、固視(Fixation)やマイクロサッカード(眼球微小回転)等の眼球挙動を行う。運転者眼球挙動解析部63は、これら運転者の眼球挙動情報を観測データから抽出する。
  (ステップS203)
 次に、ステップS203において、運転者眼球挙動解析部63は、覚醒度判定に十分なデータが取得できたか否かを判定する。
 具体的には、運転者の観測データから抽出される眼球のサッカード(眼球回転)、固視(Fixation)やマイクロサッカード(眼球微小回転)等の眼球挙動情報が課題解決処理に対応したデータであるか否かを判定するに十分なデータであるか否かを判定する。
 十分であると判定した場合は、ステップS204に進む。
 一方、不十分であると判定した場合はステップS205に進む。
  (ステップS204)
 ステップS203において、運転者の観測データから抽出される眼球のサッカード(眼球回転)、固視(Fixation)やマイクロサッカード(眼球微小回転)等の眼球挙動情報が課題解決処理に対応したデータであるか否かを判定するに十分なデータであると判定した場合は、ステップS204に進む。
 ステップS204では、課題提示後の運転者の眼球挙動の観測データに基づいて、運転者の覚醒度を判定する。
 この処理は、図6に示す運転者覚醒度判定部65が実行する処理である。
 図6に示す運転者覚醒度判定部65は、課題提示後の運転者の眼球挙動、すなわちサッカード(眼球回転)、固視、マイクロサッカード(眼球微小回転)等の眼球挙動観測情報に基づいて、運転者の覚醒度判定を実行する。
 運転者覚醒度判定部65は、運転者が、課題解決のために眼球のサッカード(眼球回転)、固視(Fixation)やマイクロサッカード(眼球微小回転)等の眼球挙動を実行しているか否かを解析する。
 運転者覚醒度判定部65は、運転者の眼球挙動が、課題解決のためのサッカード(眼球回転)、固視(Fixation)やマイクロサッカード(眼球微小回転)に相当すると眼球挙動であると判断した場合は、運転者の覚醒度が高いと判定する。
 一方、これらの眼球挙動が観察されなかった場合、または少ない場合は、運転者の覚醒度が低いと判定する。
 この覚醒度判定処理が完了すると、図25のフローのステップS107に進む。
  (ステップS205)
 一方、ステップS203において、運転者の観測データから抽出される眼球のサッカード(眼球回転)、固視(Fixation)やマイクロサッカード(眼球微小回転)等の眼球挙動情報が課題解決処理に対応したデータであるか否かを判定するに十分なデータでないと判定した場合は、ステップS205に進む。
 ステップS205では、予め規定された覚醒度判定処理のリトライ回数の上限に達しているか否かを判定する。
 達していない場合は、図25のステップS104に進む。この場合は、新たな表示情報(課題)を提示して運転者の眼球挙動の観測処理を再度、実行することになる。
 一方、達している場合は、図25のステップS110に進む。この場合は、ステップS110において、覚醒度評価を不合格、すなわち運転者が手動運転復帰可能な覚醒度を有していることが確認できないと判定して処理を終了する。この場合、手動運転への復帰は許容されず、自動車は緊急停止等、手動運転区間への侵入を回避する処理を行う。
 図25に戻り、ステップS107以下の処理について説明する。
  (ステップS107)
 ステップS107の処理は、ステップS106において、眼球挙動解析による覚醒度判定処理が完了した後、実行される。
 ステップS107では、ステップS106における眼球挙動解析による覚醒度判定処理結果として、運転者の覚醒度が手動運転を実行可能なレベルにあるか否かを判定する。
 この処理は、図6に示す運転者覚醒度判定部65が実行する処理である。
 前述したように運転者覚醒度判定部65は、課題提示後の運転者の眼球挙動、すなわちサッカード(眼球回転)、固視、マイクロサッカード(眼球微小回転)等の眼球挙動観測情報に基づいて、運転者の覚醒度判定を実行する。
 運転者覚醒度判定部65は、運転者の眼球挙動が、課題解決のためのサッカード(眼球回転)、固視(Fixation)やマイクロサッカード(眼球微小回転)に相当すると眼球挙動であると判断した場合は、運転者の覚醒度が高い、すなわち手動運転を実行可能なレベルにあると判定する。
 この場合、ステップS107の判定はYesとなり、ステップS108に進む。
 一方、これらの眼球挙動が観察されなかった場合、または少ない場合は、運転者の覚醒度が低く手動運転を実行可能なレベルにないと判定する。
 この場合、ステップS107の判定はNoとなり、ステップS109に進む。
  (ステップS108)
 ステップS107において、運転者の覚醒度が高く、手動運転を実行可能なレベルにあると判定した場合は、ステップS108において、覚醒度評価を合格と判定し、手動運転復帰を許容する。
  (ステップS109)
 一方、ステップS107において、運転者の覚醒度が低く、手動運転を実行可能なレベルにないと判定した場合は、ステップS109において、予め規定された覚醒度判定処理のリトライ回数の上限に達しているか否かを判定する。
 達していない場合は、ステップS104に進む。この場合は、新たな表示情報(課題)を提示して運転者の眼球挙動の観測処理を再度、実行することになる。
 一方、達している場合は、ステップS110に進む。
  (ステップS110)
 ステップS109において、予め規定された覚醒度判定処理のリトライ回数の上限に達していると判定した場合は、ステップS110の処理を実行する。
 この場合、ステップS110において、覚醒度評価を不合格、すなわち運転者が手動運転復帰可能な覚醒度を有していることが確認できないと判定して処理を終了する。この場合、手動運転への復帰は許容されず、自動車は緊急停止等、手動運転区間への侵入を回避する処理を行う。
 このように、本開示の情報処理装置は、手動運転の復帰前に、運転者に視覚的課題を提示し、この課題の解決に際して発生する運転者の眼球挙動を解析する。具体的には、運転者の眼球挙動として、課題解決のためのサッカード(眼球回転)や、固視や、マイクロサッカード(眼球微小回転)等、特有の眼球挙動を誘発することが期待される一様でない課題を生成して提示することで、運転者の課題対応時に実際に発生する眼球挙動を観測し、その運転者の学習辞書特性をもとにその都度観測された観測時の運転者の内部覚醒レベル推定を行い、手動運転復帰の開始に値する十分は脳内の内部覚醒状態にあるか否かを判定する。
 これらの眼球挙動の解析から、運転者が十分、覚醒復帰に至っていると判定した場合は、運転者が手動運転可能な高い覚醒度を有していると判定し、手動運転の開始を許容する。
 一方、これらの眼球挙動が十分、発生していないと判定した場合は、運転者が手動運転可能な高い覚醒度を有していないと判定し、手動運転の開始を許容しない。この場合は、手動運転区間への侵入前に停止する等の緊急退避処理を行う。
 実際の課題に対する視覚情報確認から課題の解に至る過程は、運転者のその時々の状態、同一課題の繰り返し実施状況、回答選択肢を見てから設問を確認する行動特性、疲労度、該当時の視力や視力疲労度、外光妨害、心のさまよいなどなど様々な、要因の影響を受け、個人特性に大きく異なる場合がある。従って高い精度で判定を行うためには、長期の繰り返し利用から都度発生する引き継ぎ実行時の復帰品質(正常復帰、遅延復帰、復帰断念、システム緊急事対処)等の学習処理により生成した運転者固有の復帰予測辞書データを用いることが好ましい。
 運転者固有の復帰予測辞書データを利用して眼球の挙動特性解析結果に基づいて正常な復帰予測を実行することが望ましい。これらの処理により、安全な手動運転を開始させることが可能となる。
 ここでは、眼球挙動の解析についてのみ記載としているが、運転者が安全な手動運転を開始できる状態であるか否かの判定処理や、上記の学習器への入力データは、後述するデータ取得部102より得られる自車両、道路環境情報、運転者生体信号による状態、履歴情報を含める構成とすることが好ましい。
 上述したように、本開示の構成は、自動運転と手動運転の切り替えが可能な移動装置の運転者の眼球挙動に基づいて運転者が手動運転に復帰可能な覚醒度を有するか否かを判定可能としたものである。
 なお、上述した実施例では、自動運転から手動運転の引き継ぎの際に運転者の脳内の内部覚醒復帰を判定する実施例を説明したが、眼球挙動の解析手法は、被験者の脳内活動の外的観測可能な反映を解析可能とするものであり、自動運転から手動運転の引き継ぎの際の運転者状態を判定する以外にも様々な利用が可能である。
 上述した眼球挙動解析手法は、課題に対する記憶情報との相関結果を観測するものであり、提示課題に対する反応を観測して判定することで、多様な利用が可能である。
 被験者に提示した課題と、被験者の記憶との照合が必要となる課題であれば、その回答を得る過程は被験者の状態や心理を反映したものとなる。従って、例えば飲酒申告や過労労務申告などの申告課題の提示に際して回答者の真偽判定などに応用も可能である。
 さらに課題提示は車両の運行に限定する必要はない。例えば航空機の運行、電車の運行、クレーン操作、航空管制官、遠隔自動運転管制官、など多種多様な事象や職業、さらにはその他、自己申告時の心理解析による真偽評価等への拡張利用も可能である。
 なお、被験者が何らかの課題を解決するために必要とする視覚情報を選ぶ時は側頭葉の上側頭溝が、注意を向ける時は頭頂間溝が、眼を動かすときは前頭眼野が活動することが知られている。また、記憶しているものを思い出したりするには、側頭葉の内側にある海馬が働く。また自立神経失調など、いわゆる交感神経と副交感神経の相互バランスの変調による刺激反射の抑制が発生している場合には、眼球挙動が変化することも知られている。従って、本開示の眼球挙動解析処理は、運転者等の被験者のメンタルヘルスの検証やモニタリング処理としても利用可能である。具体的には例えばバス、タクシー等の商用車両の運転者の状態把握や健康管理に利用することで、安全な運行を可能とすることができる。
  [7.移動装置の具体的な構成と処理例について]
 次に、図27以下を参照して、本開示の移動装置の具体的な構成と処理例について説明する。
 図27は、移動装置100の構成例を示している。なお、以下、移動装置100が設けられている車両を他の車両と区別する場合、自車または自車両と称する。
 移動装置100は、入力部101、データ取得部102、通信部103、車内機器104、出力制御部105、出力部106、駆動系制御部107、駆動系システム108、ボディ系制御部109、ボディ系システム110、記憶部111、および、自動運転制御部112を備える。
 入力部101、データ取得部102、通信部103、出力制御部105、駆動系制御部107、ボディ系制御部109、記憶部111、および、自動運転制御部112は、通信ネットワーク121を介して、相互に接続されている。通信ネットワーク121は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、または、FlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等からなる。なお、移動装置100の各部は、通信ネットワーク121を介さずに、直接接続される場合もある。
 なお、以下、移動装置100の各部が、通信ネットワーク121を介して通信を行う場合、通信ネットワーク121の記載を省略するものとする。例えば、入力部101と自動運転制御部112が、通信ネットワーク121を介して通信を行う場合、単に入力部101と自動運転制御部112が通信を行うと記載する。
 入力部101は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部101は、タッチパネル、ボタン、マイクロフォン、スイッチ、および、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。また、例えば、入力部101は、赤外線もしくはその他の電波を利用したリモートコントロール装置、または、移動装置100の操作に対応したモバイル機器もしくはウェアラブル機器等の外部接続機器であってもよい。入力部101は、搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、移動装置100の各部に供給する。
 データ取得部102は、移動装置100の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを、移動装置100の各部に供給する。
 例えば、データ取得部102は、自車の状態等を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、および、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、もしくは、車輪の回転速度等を検出するためのセンサ等を備える。
 また、例えば、データ取得部102は、自車の外部の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ、および、その他のカメラ等の撮像装置を備える。また、例えば、データ取得部102は、天候または気象等を検出するための環境センサ、および、自車の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
 例えば、図28は、自車の外部情報を検出するための各種のセンサの設置例を示している。撮像装置7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドアおよび車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。
 フロントノーズに備えられる撮像装置7910および車室内のフロントガラスの上部に備えられる撮像装置7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像装置7912,7914は、主として車両7900の側方の画像を取得する。リアバンパまたはバックドアに備えられる撮像装置7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像装置7918は、主として先行車両または、歩行者、障害物、信号機、交通標識または車線等の検出に用いられる。また、今後自動運転においては車両の右左折の際により広域範囲にある右左折先道路の横断歩行者やさらには横断路接近物範囲まで拡張利用をしてもよい。
 なお、図28には、それぞれの撮像装置7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像装置7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像装置7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパまたはバックドアに設けられた撮像装置7916の撮像範囲を示す。例えば、撮像装置7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像、さらには車両周辺部を湾曲平面で囲う全周囲立体表示画像などが得られる。
 車両7900のフロント、リア、サイド、コーナおよび車室内のフロントガラスの上部に設けられるセンサ7920,7922,7924,7926,7928,7930は、例えば超音波センサまたはレーダであってよい。車両7900のフロントノーズ、リアバンパ、バックドアおよび車室内のフロントガラスの上部に設けられるセンサ7920,7926,7930は、例えばLiDARであってよい。これらのセンサ7920~7930は、主として先行車両、歩行者または障害物等の検出に用いられる。これら検出結果は、さらに前記俯瞰表示や全周囲立体表示の立体物表示改善に適用をしてもよい。
 図27に戻って各構成要素の説明を続ける。データ取得部102は、自車の現在位置を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号を受信するGNSS受信機等を備える。
 また、例えば、データ取得部102は、車内の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、運転者を撮像する撮像装置、運転者の生体情報を検出する生体センサ、および、車室内の音声を集音するマイクロフォン等を備える。生体センサは、例えば、座面またはステアリングホイール等に設けられ、座席に座っている搭乗者の着座状態またはステアリングホイールを握っている運転者の生体情報を検出する。生体信号としては心拍数、脈拍数、血流、呼吸、心身相関、視覚刺激、脳波、発汗状態、頭部姿勢挙動、眼、注視、瞬き、サッカード、マイクロサッカード、固視、ドリフト、凝視、虹彩の瞳孔反応など多様な可観測データが利用可能である。
 これら、可観測の運転状態を反映した生体活動可観測情報は、観測から推定される可観測評価値として集約し評価値のログと紐付けたられた復帰遅延時間特性から該当運転者の復帰遅延事案の固有特性として後述する安全性判別部155で復帰通知タイミングの算出に用いる。
 さらに、運転者の覚醒度判定に用いられ、覚醒度判定結果に基づいて手動運転復帰を許容するか否かの判定処理にも用いられる。
 通信部103は、車内機器104、並びに、車外の様々な機器、サーバ、基地局等と通信を行い、移動装置100の各部から供給されるデータを送信したり、受信したデータを移動装置100の各部に供給したりする。なお、通信部103がサポートする通信プロトコルは、特に限定されるものではなく、また、通信部103が、複数の種類の通信プロトコルをサポートすることも可能である
 例えば、通信部103は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、または、WUSB(Wireless USB)等により、車内機器104と無線通信を行う。また、例えば、通信部103は、図示しない接続端子(および、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、または、MHL(Mobile High-definition Link)等により、車内機器104と有線通信を行う。
 さらに、例えば、通信部103は、基地局またはアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワークまたは事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバまたは制御サーバ)との通信を行う。また、例えば、通信部103は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末(例えば、歩行者もしくは店舗の端末、または、MTC(Machine Type Communication)端末)との通信を行う。
 さらに、例えば、通信部103は、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、自車と家との間(Vehicle to Home)の通信、および、歩車間(Vehicle to Pedestrian)通信等のV2X通信を行う。また、例えば、通信部103は、ビーコン受信部を備え、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行規制または所要時間等の情報を取得する。なお、通信部を通して先導車両となり得る区間走行中前方走行車両とペアリングを行い、前方車搭載のデータ取得部より取得された情報を事前走行間情報として取得し、自車のデータ取得部102のデータと補完利用をしてもよく、特に先導車による隊列走行などで後続隊列のより安全性を確保する手段となる。
 車内機器104は、例えば、搭乗者が有するモバイル機器(タブレット、スマートフォンなど)もしくはウェアラブル機器、自車に搬入され、もしくは取り付けられる情報機器、および、任意の目的地までの経路探索を行うナビゲーション装置等を含む。なお、自動運転の普及でかならずしも乗員は着座固定位置に固定されないことを考慮すれば、将来的にはビデオ再生器やゲーム機器やその他車両設置から着脱利用が可能な機器に拡張利用してもよい。本実施例では、運転者の介在必要地点の情報提示を該当する運転者に限定した例をして記述をしているが、情報提供はさらに隊列走行等で後続車への情報提供をしてもよいし、更には旅客輸送相乗りバスや長距離物流商用車の運行管理センターに常時情報を上げる事で、適宜遠隔での走行支援と組み合せ利用をしてもよい。
 出力制御部105は、自車の搭乗者または車外に対する各種の情報の出力を制御する。例えば、出力制御部105は、視覚情報(例えば、画像データ)および聴覚情報(例えば、音声データ)のうちの少なくとも1つを含む出力信号を生成し、出力部106に供給することにより、出力部106からの視覚情報および聴覚情報の出力を制御する。具体的には、例えば、出力制御部105は、データ取得部102の異なる撮像装置により撮像された画像データを合成して、俯瞰画像またはパノラマ画像等を生成し、生成した画像を含む出力信号を出力部106に供給する。また、例えば、出力制御部105は、衝突、接触、危険地帯への進入等の危険に対する警告音または警告メッセージ等を含む音声データを生成し、生成した音声データを含む出力信号を出力部106に供給する。
 出力部106は、自車の搭乗者または車外に対して、視覚情報または聴覚情報を出力することが可能な装置を備える。例えば、出力部106は、表示装置、インストルメントパネル、オーディオスピーカ、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ、ランプ等を備える。出力部106が備える表示装置は、通常のディスプレイを有する装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)表示機能を有する装置等の運転者の視野内に視覚情報を表示する装置であってもよい。
 駆動系制御部107は、各種の制御信号を生成し、駆動系システム108に供給することにより、駆動系システム108の制御を行う。また、駆動系制御部107は、必要に応じて、駆動系システム108以外の各部に制御信号を供給し、駆動系システム108の制御状態の通知等を行う。
 駆動系システム108は、自車の駆動系に関わる各種の装置を備える。例えば、駆動系システム108は、内燃機関または駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。
 ボディ系制御部109は、各種の制御信号を生成し、ボディ系システム110に供給することにより、ボディ系システム110の制御を行う。また、ボディ系制御部109は、必要に応じて、ボディ系システム110以外の各部に制御信号を供給し、ボディ系システム110の制御状態の通知等を行う。
 ボディ系システム110は、車体に装備されたボディ系の各種の装置を備える。例えば、ボディ系システム110は、キーレスエントリシステム、スマートキーシステム、パワーウインドウ装置、パワーシート、ステアリングホイール、空調装置、および、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー、フォグランプ等)等を備える。
 記憶部111は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、および、光磁気記憶デバイス等を備える。記憶部111は、移動装置100の各部が用いる各種プログラムやデータ等を記憶する。例えば、記憶部111は、ダイナミックマップ等の3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ、および、自車の周囲の情報を含むローカルマップ等の地図データを記憶する。
 自動運転制御部112は、自律走行または運転支援等の自動運転に関する制御を行う。具体的には、例えば、自動運転制御部112は、自車の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自車の衝突警告、または、自車のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行う。また、例えば、自動運転制御部112は、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行う。自動運転制御部112は、検出部131、自己位置推定部132、状況分析部133、計画部134、および、動作制御部135を備える。
 検出部131は、自動運転の制御に必要な各種の情報の検出を行う。検出部131は、車外情報検出部141、車内情報検出部142、および、車両状態検出部143を備える。
 車外情報検出部141は、移動装置100の各部からのデータまたは信号に基づいて、自車の外部の情報の検出処理を行う。例えば、車外情報検出部141は、自車の周囲の物体の検出処理、認識処理、および、追跡処理、並びに、物体までの距離、相対速度の検出処理を行う。検出対象となる物体には、例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。
 また、例えば、車外情報検出部141は、自車の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、および、路面の状態等が含まれる。車外情報検出部141は、検出処理の結果を示すデータを自己位置推定部132、状況分析部133のマップ解析部151、交通ルール認識部152、および、状況認識部153、並びに、動作制御部135の緊急事態回避部171等に供給する。
 車外情報検出部141が取得する情報は、走行区間が重点的に自動運転の走行が可能な区間として常時更新されたローカルダイナミックマップ(LDM)がインフラより供給された区間であれば、主にインフラによる情報供給を受ける事が可能となり、または該当区間を先行走行する車両や車両群より区間侵入に先立ち事前に常に情報更新を受けて走行をすることがあってもよい。また、インフラより常時最新のローカルダイナミックマップの更新が行われていない場合など、取り分け隊列走行などでより安全な侵入区間直前での道路情報を得る目的で、区間侵入先導車両から得られる道路環境情報を補完的にさらに利用しても良い。自動運転が可能である区間であるかは多くの場合、これらインフラより提供される事前情報の有無により決まる。インフラより提供されるルート上の自動運転走行可否情報を構成する更新される新鮮なローカルダイナミックマップ(LDM)はいわゆる「情報」としてあたかも見えない軌道を提供していることに等しい。なお、便宜上車外情報検出部141は自車両に搭載した前提で図示をしているが、前走車が「情報」としてとらえた情報を利用する事で、走行時の事前予測性を更に高めても良い。
 車内情報検出部142は、移動装置100の各部からのデータまたは信号に基づいて、車内の情報の検出処理を行う。例えば、車内情報検出部142は、運転者の認証処理および認識処理、運転者の状態の検出処理、搭乗者の検出処理、および、車内の環境の検出処理等を行う。検出対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線方向、眼球詳細挙動等が含まれる。
 さらに、自動運転において運転者は運転操舵作業から完全に離脱した利用が将来的に想定され、運転者は一時的な居眠りや他の作業に取り掛かり、運転復帰に必要な意識の覚醒復帰がどこまで進んでいるかシステムが把握する必要が出てくる。つまり、従来考えられていたドライバモニタリングシステムでは眠気などの意識低下を見る検出手段が主であったが、今後は運転者が運転操舵に全く介在していない状態となるため、システムは運転者の運転介在度合いを操舵機器の操舵安定性等から直接的に観測する手段がなくなり、運転者の正確な意識状態が未知の状態から、運転に必要は意識復帰推移を観測し、その正確な運転者の内部覚醒状態を把握した上で操舵の自動運転から手動運転への介入譲渡を進める必要がある。
 そこで、車内情報検出部142には主に大きな2段階の役割があり、一つ目の役割は自動運転中の運転者の状態のパッシブ監視であり、二つ目の役割はいざシステムより復帰の要請が出された以降、注意下運転の区間到達までに手動運転が可能なレベルまで、運転者の周辺認知、知覚、判断とさらには操舵機器の作動能力の検出判断である。制御として更に車両全体の故障自己診断を行い、その自動運転の一部機能故障で自動運転の機能低下が発生した場合も同様に運転者による早期手動運転への復帰をうながしても良い。ここでいうパッシブモニタリングとは、運転者に意識上の応答反応を求めない種類の検出手段をさし、物理的な電波や光等を機器から発信して応答信号を検出する物を除外するものではない。つまり、仮眠中など無意識下の運転者の状態モニタリングを指し、運転者の認知応答反応でない分類をパッシブ方式としている。電波や赤外線等を照射した反射や拡散信号を解析して評価するアクティブ応答デバイスを除外するものではない。反して、運転者に応答反応を求める意識的応答を求める物はアクティブとしている。
 検出対象となる車内の環境には、例えば、気温、湿度、明るさ、臭い等が含まれる。車内情報検出部142は、検出処理の結果を示すデータを状況分析部133の状況認識部153、および、動作制御部135に供給する。なお、システムによる運転者へ運転復帰指示が出た後に運転者が的確な期限時間内に手動運転が達成できない事が判明し、自運転のまま減速制御を行って時間猶予をおこなっても引継ぎが間に合わないと判断された場合は、システムの緊急事態回避部171等に指示を出し、車両を退避の為に減速、退避・停車手順を開始する。つまり、初期状態として同じ間に合わない状況でも、車両を早期に減速させることで引継ぎ限界に到達する到達時間を稼ぎだすことができる。引継ぎ限界に到達する到達時間を稼ぎだすことで、システムによる事象対処に時間的余裕が発生し、安全確保のための対処が可能となる。ただし、後述する通りむやみな減速や徐行は渋滞誘発要因や追突リスクを上げるため適用は制限される。
 車両状態検出部143は、移動装置100の各部からのデータまたは信号に基づいて、自車の状態の検出処理を行う。検出対象となる自車の状態には、例えば、速度、加速度、舵角、異常の有無および内容、運転操作の状態、パワーシートの位置および傾き、ドアロックの状態、並びに、その他の車載機器の状態等が含まれる。車両状態検出部143は、検出処理の結果を示すデータを状況分析部133の状況認識部153、および、動作制御部135の緊急事態回避部171等に供給する。
 自己位置推定部132は、車外情報検出部141、および、状況分析部133の状況認識部153等の移動装置100の各部からのデータまたは信号に基づいて、自車の位置および姿勢等の推定処理を行う。また、自己位置推定部132は、必要に応じて、自己位置の推定に用いるローカルマップ(以下、自己位置推定用マップと称する)を生成する。
 自己位置推定用マップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。自己位置推定部132は、推定処理の結果を示すデータを状況分析部133のマップ解析部151、交通ルール認識部152、および、状況認識部153等に供給する。また、自己位置推定部132は、自己位置推定用マップを記憶部111に記憶させる。
 状況分析部133は、自車および周囲の状況の分析処理を行う。状況分析部133は、マップ解析部151、交通ルール認識部152、状況認識部153、状況予測部154および安全性判別部155を備える。
 マップ解析部151は、自己位置推定部132および車外情報検出部141等の移動装置100の各部からのデータまたは信号を必要に応じて用いながら、記憶部111に記憶されている各種のマップの解析処理を行い、自動運転の処理に必要な情報を含むマップを構築する。マップ解析部151は、構築したマップを、交通ルール認識部152、状況認識部153、状況予測部154、並びに、計画部134のルート計画部161、行動計画部162、および、動作計画部163等に供給する。
 交通ルール認識部152は、自己位置推定部132、車外情報検出部141、および、マップ解析部151等の移動装置100の各部からのデータまたは信号に基づいて、自車の周囲の交通ルールの認識処理を行う。この認識処理により、例えば、自車の周囲の信号の位置および状態、自車の周囲の交通規制の内容、並びに、走行可能な車線等が認識される。交通ルール認識部152は、認識処理の結果を示すデータを状況予測部154等に供給する。
 状況認識部153は、自己位置推定部132、車外情報検出部141、車内情報検出部142、車両状態検出部143、および、マップ解析部151等の移動装置100の各部からのデータまたは信号に基づいて、自車に関する状況の認識処理を行う。例えば、状況認識部153は、自車の状況、自車の周囲の状況、および、自車の運転者の状況等の認識処理を行う。また、状況認識部153は、必要に応じて、自車の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識用マップは、例えば、占有格子地図(Occupancy Grid Map)とされる。
 認識対象となる自車の状況には、例えば、自車の位置、姿勢、動き(例えば、速度、加速度、移動方向等)、並びに、自車の運動特性を決定付ける貨物積載量や貨物積載に伴う車体の重心移動、タイヤ圧、ブレーキ制動パッド摩耗状況に伴う制動距離移動、積載物制動に引き起こす貨物移動防止の許容最大減速制動、液体搭載物に伴うカーブ走行時の遠心緩和限界速度など車両特有、更には積載貨物特有条件とさらには路面の摩擦係数や道路カーブや勾配など、全く同じ道路環境であっても車両自体の特性、さらには積載物等によっても制御に求められる復帰開始タイミングは異なるため、それら多様な条件の収集を行い学習して制御を行う最適タイミングに反映する必要がある。車両の種類や積載物によって制御タイミングを決定する上で単純に自車両の異常の有無および内容等を観測モニタリングすれば良い内容ではない。運送輸送業などで、積載物固有の特性に応じて一定の安全性を確保する為に望ましい復帰の猶予時間の加算を決めるパラメータを予め固定値として設定をしてもよく、必ずしも全ての通知タイミング決定条件を自己累積学習より一律に定める方法をとらなくともよい。
 認識対象となる自車の周囲の状況には、例えば、周囲の静止物体の種類および位置、周囲の動物体の種類、位置および動き(例えば、速度、加速度、移動方向等)、周囲の道路の構成および路面の状態、並びに、周囲の天候、気温、湿度、および、明るさ等が含まれる。認識対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線の動き、並びに、運転操作等が含まれる。車両を安全に走行させるという事は、その車両の固有の状態で搭載している積載量や搭載部の車台固定状態、重心の偏重状態、最大減速可能加速値、最大負荷可能遠心力、運転者の状態に応じて復帰応答遅延量などに応じて、対処が求められる制御開始ポイントが大きく異なってくる。
 状況認識部153は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部132および状況予測部154等に供給する。また、状況認識部153は、状況認識用マップを記憶部111に記憶させる。
 状況予測部154は、マップ解析部151、交通ルール認識部152および状況認識部153等の移動装置100の各部からのデータまたは信号に基づいて、自車に関する状況の予測処理を行う。例えば、状況予測部154は、自車の状況、自車の周囲の状況、および、運転者の状況等の予測処理を行う。
 予測対象となる自車の状況には、例えば、自車の挙動、異常の発生、および、走行可能距離等が含まれる。予測対象となる自車の周囲の状況には、例えば、自車の周囲の動物体の挙動、信号の状態の変化、および、天候等の環境の変化等が含まれる。予測対象となる運転者の状況には、例えば、運転者の挙動および体調等が含まれる。
 状況予測部154は、予測処理の結果を示すデータを、交通ルール認識部152および状況認識部153からのデータとともに、計画部134のルート計画部161、行動計画部162、および、動作計画部163等に供給する。
 安全性判別部155は、運転者の復帰行動パターンや車両特性等に応じた最適復帰タイミングを学習し、その学習情報を状況認識部153等に提供する。これにより、例えば、既定された一定以上の割合で運転者が正常に自動運転から手動運転に復帰するのに要する統計的に求められた最適タイミングを運転者へ提示することが可能となる。
 ルート計画部161は、マップ解析部151および状況予測部154等の移動装置100の各部からのデータまたは信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部161は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、例えば、ルート計画部161は、渋滞、事故、通行規制、工事等の状況、および、運転者の体調等に基づいて、適宜ルートを変更する。ルート計画部161は、計画したルートを示すデータを行動計画部162等に供給する。
 行動計画部162は、マップ解析部151および状況予測部154等の移動装置100の各部からのデータまたは信号に基づいて、ルート計画部161により計画されたルートを計画された時間内で安全に走行するための自車の行動を計画する。例えば、行動計画部162は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行車線、走行速度、および、追い越し等の計画を行う。行動計画部162は、計画した自車の行動を示すデータを動作計画部163等に供給する
 動作計画部163は、マップ解析部151および状況予測部154等の移動装置100の各部からのデータまたは信号に基づいて、行動計画部162により計画された行動を実現するための自車の動作を計画する。例えば、動作計画部163は、加速、減速、および、走行軌道等の計画を行う。動作計画部163は、計画した自車の動作を示すデータを、動作制御部135の加減速制御部172および方向制御部173等に供給する。
 動作制御部135は、自車の動作の制御を行う。動作制御部135は、緊急事態回避部171、加減速制御部172、および、方向制御部173を備える。
 緊急事態回避部171は、車外情報検出部141、車内情報検出部142、および、車両状態検出部143の検出結果に基づいて、衝突、接触、危険地帯への進入、運転者の異常、車両の異常等の緊急事態の検出処理を行う。緊急事態回避部171は、緊急事態の発生を検出した場合、急停車や急旋回等の緊急事態を回避するための自車の動作を計画する。緊急事態回避部171は、計画した自車の動作を示すデータを加減速制御部172および方向制御部173等に供給する。
 加減速制御部172は、動作計画部163または緊急事態回避部171により計画された自車の動作を実現するための加減速制御を行う。例えば、加減速制御部172は、計画された加速、減速、または、急停車を実現するための駆動力発生装置または制動装置の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。なお、緊急事態が発生し得るケースは主に2つある。つまり、自動運転中の走行ルートで本来ならインフラより取得したローカルダイナミックマップ等で安全とされていた道路を自動運転中に突発的な理由で予想外の事故が発生し、運転者の緊急復帰が間に合わないケースと、自動運転から手動運転に運転者が的確に復帰することが困難になるケースがある。
 方向制御部173は、動作計画部163または緊急事態回避部171により計画された自車の動作を実現するための方向制御を行う。例えば、方向制御部173は、動作計画部163または緊急事態回避部171により計画された走行軌道または急旋回を実現するためのステアリング機構の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
  [8.情報処理装置の構成例について]
 上述した処理は、図27を参照して説明した移動装置の構成を適用して実行することが可能であるが、その処理の一部は、例えば移動装置に着脱可能な情報処理装置において実行することが可能である。
 図29を参照して、このような情報処理装置のハードウェア構成例について説明する。
 図29は、情報処理装置のハードウェア構成例を示す図である。
 CPU(Central Processing Unit)501は、ROM(Read Only Memory)502、または記憶部508に記憶されているプログラムに従って各種の処理を実行するデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。
 RAM(Random Access Memory)503には、CPU501が実行するプログラムやデータなどが記憶される。これらのCPU501、ROM502、およびRAM503は、バス504により相互に接続されている。
 CPU501はバス504を介して入出力インタフェース505に接続され、入出力インタフェース505には、各種スイッチ、キーボード、タッチパネル、マウス、マイクロフォン、さらに、センサ、カメラ、GPS等の状況データ取得部などよりなる入力部506、ディスプレイ、スピーカなどよりなる出力部507が接続されている。
 なお、入力部506には、センサ521からの入力情報も入力される。
 また、出力部507は、移動装置の駆動部522に対する駆動情報も出力する。
 CPU501は、入力部506から入力される指令や状況データ等を入力し、各種の処理を実行し、処理結果を例えば出力部507に出力する。
 入出力インタフェース505に接続されている記憶部508は、例えばハードディスク等からなり、CPU501が実行するプログラムや各種のデータを記憶する。通信部509は、インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部として機能し、外部の装置と通信する。
 入出力インタフェース505に接続されているドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア511を駆動し、データの記録あるいは読み取りを実行する。
  [9.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) 課題を生成または取得して表示部に表示する表示情報生成部と、
 前記表示部に表示された課題を観察するユーザの眼球挙動を解析する眼球挙動解析部と、
 前記眼球挙動解析部の解析結果に基づいて、前記ユーザの覚醒度を判定する覚醒度判定部を有する情報処理装置。
 (2) 前記課題は、前記ユーザが課題を解決するために不足情報を追加探索する作業を必要とする課題である(1)に記載の情報処理装置。
 (3) 前記課題は、前記ユーザが課題を解決するための眼球挙動として、眼球のサッカード(眼球回転)、または固視(Fixation)、またはマイクロサッカード(眼球微小回転)の少なくともいずれかの眼球挙動を発生させる課題である(1)または(2)に記載の情報処理装置。
 (4) 前記眼球挙動解析部は、
 前記ユーザが前記課題を解決するための眼球挙動を実行しているか否かを判定可能なデータを取得する(1)~(3)いずれかに記載の情報処理装置。
 (5) 前記眼球挙動解析部は、
 前記ユーザが前記課題を解決するための眼球挙動として、眼球のサッカード(眼球回転)、または固視(Fixation)、またはマイクロサッカード(眼球微小回転)の少なくともいずれかの眼球挙動を実行しているか否かを示すデータを取得する(1)~(4)いずれかに記載の情報処理装置。
 (6) 前記覚醒度判定部は、
 前記眼球挙動解析部から、前記ユーザが前記課題を解決するための眼球挙動を実行しているか否かを判定可能なデータを入力し、入力データに基づいて前記ユーザの覚醒度を判定する(1)~(5)いずれかに記載の情報処理装置。
 (7) 前記覚醒度判定部は、
 前記眼球挙動解析部から、前記ユーザが眼球のサッカード(眼球回転)、または固視(Fixation)、またはマイクロサッカード(眼球微小回転)の少なくともいずれかの眼球挙動を実行しているか否かを示すデータを入力し、入力データに基づいて前記ユーザの覚醒度を判定する(1)~(6)いずれかに記載の情報処理装置。
 (8) 前記覚醒度判定部は、
 前記ユーザの眼球挙動が前記課題を解決するための眼球挙動であると判定される場合、前記ユーザの覚醒度が高いと判定し、
 前記ユーザの眼球挙動が前記課題を解決するための眼球挙動であると判定されない場合、前記ユーザの覚醒度が低いと判定する(1)~(7)いずれかに記載の情報処理装置。
 (9) 前記覚醒度判定部は、
 前記ユーザの眼球挙動が前記課題を解決するための眼球挙動として眼球のサッカード(眼球回転)、または固視(Fixation)、またはマイクロサッカード(眼球微小回転)の少なくともいずれかの眼球挙動を実行していると判定される場合、前記ユーザの覚醒度が高いと判定する(1)~(8)いずれかに記載の情報処理装置。
 (10) 前記覚醒度判定部は、
 前記ユーザが手動運転を実行可能な覚醒度を有しているか否かを判定する(1)~(9)いずれかに記載の情報処理装置。
 (11) 前記表示情報生成部が生成または取得する課題は、
 物体を示すシルエットを複数配列し、課題解決のために各シルエットに対する視線移動が必要となる課題である(1)~(10)いずれかに記載の情報処理装置。
 (12) 前記表示情報生成部が生成または取得する課題は、
 文字、またはシンボル、または記号、またはピクトグラムの少なくともいずれかのデータを配列し、課題解決のために各データに対する視線移動が必要となる課題である(1)~(10)いずれかに記載の情報処理装置。
 (13) 自動運転と手動運転の切り替えが可能な移動装置であり、
 前記移動装置の運転者の運転者情報を取得する運転者情報取得部と、
 前記運転者情報取得部の取得情報に基づいて、前記運転者が手動運転に復帰可能な覚醒度を有するか否かを判定するデータ処理部を有し、
 前記データ処理部は、
 課題を生成または取得して表示部に表示する表示情報生成部と、
 前記表示部に表示された課題を観察する前記運転者の眼球挙動を解析する眼球挙動解析部と、
 前記眼球挙動解析部の解析結果に基づいて、前記運転者の覚醒度を判定する覚醒度判定部を有する移動装置。
 (14) 前記覚醒度判定部は、
 前記眼球挙動解析部から、前記運転者が前記課題を解決するための眼球挙動を実行しているか否かを判定可能なデータを入力し、入力データに基づいて前記運転者が手動運転に復帰可能な覚醒度を有するか否かを判定する(13)に記載の移動装置。
 (15) 前記覚醒度判定部は、
 前記眼球挙動解析部から、前記運転者が眼球のサッカード(眼球回転)、または固視(Fixation)、またはマイクロサッカード(眼球微小回転)の少なくともいずれかの眼球挙動を実行しているか否かを示すデータを入力し、入力データに基づいて前記運転者が手動運転に復帰可能な覚醒度を有するか否かを判定する(13)または(14)に記載の移動装置。
 (16) 前記覚醒度判定部が、前記運転者が手動運転に復帰可能な覚醒度を有すると判定した場合、前記移動装置の制御部は、前記運転者による手動運転開始を許容し、
 前記覚醒度判定部が、前記運転者が手動運転に復帰可能な覚醒度を有しないと判定した場合、前記移動装置の制御部は、前記運転者による手動運転開始を許容せず、手動運転区間への侵入を回避する処理を実行する(13)~(15)いずれかに記載の移動装置。
 (17) 情報処理装置において実行する情報処理方法であり、
 表示情報生成部が、課題を生成または取得して表示部に表示する表示情報生成ステップと、
 眼球挙動解析部が、前記表示部に表示された課題を観察するユーザの眼球挙動を解析する眼球挙動解析ステップと、
 覚醒度判定部が、前記眼球挙動解析部の解析結果に基づいて、前記ユーザの覚醒度を判定する覚醒度判定ステップを実行する情報処理方法。
 (18) 移動装置において実行する情報処理方法であり、
 前記移動装置は、自動運転と手動運転の切り替えが可能な移動装置であり、
 運転者情報取得部が、前記移動装置の運転者の運転者情報を取得する運転者情報取得ステップと、
 データ処理部が、前記運転者情報に基づいて、前記運転者が手動運転に復帰可能な覚醒度を有するか否かを判定するデータ処理ステップを実行し、
 前記データ処理ステップにおいて、
 表示情報生成部が、課題を生成または取得して表示部に表示する表示情報生成ステップと、
 眼球挙動解析部が、前記表示部に表示された課題を観察するユーザの眼球挙動を解析する眼球挙動解析ステップと、
 覚醒度判定部が、前記眼球挙動解析部の解析結果に基づいて、前記ユーザの覚醒度を判定する覚醒度判定ステップを実行する情報処理方法。
 (19) 情報処理装置において情報処理を実行させるプログラムであり、
 表示情報生成部に、課題を生成または取得して表示部に表示させる表示情報生成ステップと、
 眼球挙動解析部に、前記表示部に表示された課題を観察するユーザの眼球挙動を解析させる眼球挙動解析ステップと、
 覚醒度判定部に、前記眼球挙動解析部の解析結果に基づいて、前記ユーザの覚醒度を判定させる覚醒度判定ステップを実行させるプログラム。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 本明細書で主な眼球挙動を促す情報の課題提示を主に説明しているが、手動運転への引き継ぎの必要性が発生した時点で、システムから引き継ぎ事案の理由等を視覚的なメッセージ情報で表示し、メッセージの認知がなされたか否かを判定する課題も利用可能である。すなわた運転者のメッセージ確認時の眼球挙動を解析して、メッセージの認知がなされたか否かを判定する。
 眼球挙動は人によっては斜視やモノビジョンの視力矯正により、情報探索挙動に目の左右差がある場合もあるため、両目解析や課題距離に合わせた片目解析など行ってもよい。
 本明細書では、眼球挙動の解析を自動運転から手動運転への引き継ぎ時の覚醒状態判定の際に利用する例を説明しているが、眼球挙動の解析結果は、運転者のその他の生体情報や行動情報とともに、運転者の精神状態推定や疾患予測係数などの算出に適用してメンタルヘルスモニタリングを行ってもよい。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、運転者が手動運転可能な覚醒度を有するか否かを、表示部に表示された課題を解決しようとする運転者の眼球挙動を解析して判定する構成が実現される。
 具体的には、例えば、自動運転と手動運転の切り替えが可能な移動装置の運転者の眼球挙動に基づいて運転者が手動運転に復帰可能な覚醒度を有するか否かを判定する。表示部に表示された課題を観察する運転者の眼球挙動を解析する眼球挙動解析部と、眼球挙動解析部の解析結果に基づいて、運転者の覚醒度を判定する覚醒度判定部を有する。覚醒度判定部は運転者が課題を解決するための固視やマイクロサッカード等の眼球挙動を実行しているか否かを解析して運転者が手動運転に復帰可能な覚醒度を有するか否かを判定する。
 本構成により、運転者が手動運転可能な覚醒度を有するか否かを、表示部に表示された課題を解決しようとする運転者の眼球挙動を解析して判定する構成が実現される。
 10・・自動車,11・・データ処理部,12・・運転者情報取得部,13・・環境情報取得部,14・・通信部,15・・通知部,17・・表示情報記憶部,20・・運転者,30・・サーバ,51・・運転者顔追跡部(ドライバー・フェイシャル・トラッカー(Driver Facial Tracker)),52・・運転者眼球追跡部(ドライバ・アイ・トラッカー(Driver Eye Tracker)),61・・表示情報生成部,62・・表示部選択部,63・・運転者眼球挙動解析部,64・・運転者眼球挙動学習器,65・・運転者覚醒度判定部,71~74・・表示部,100・・移動装置,101・・入力部,102・・データ取得部,103・・通信部,104・・車内機器,105・・出力制御部,106・・出力部,107・・駆動系制御部,108・・駆動系システム,109・・ボディ系制御部,110・・ボディ系システム,111・・記憶部,112・・自動運転制御部,121・・通信ネットワーク,131・・検出部,132・・自己位置推定部,133・・状況分析部,134・・計画部,135・・動作制御部,141・・車外情報検出部,142・・車内情報検出部,143・・車両状態検出部,151・・マップ解析部,152・・交通ルール認識部,153・・状況認識部,154・・状況予測部,155・・安全性判別部,161・・ルート計画部,162・・行動計画部,163・・動作計画部,171・・緊急事態回避部,172・・加減速制御部,173・・方向制御部,501・・CPU,502・・ROM,503・・RAM,504・・バス,505・・入出力インタフェース,506・・入力部,507・・出力部,508・・記憶部,509・・通信部,510・・ドライブ,511・・リムーバブルメディア,521・・センサ,522・・駆動部

Claims (19)

  1.  課題を生成または取得して表示部に表示する表示情報生成部と、
     前記表示部に表示された課題を観察するユーザの眼球挙動を解析する眼球挙動解析部と、
     前記眼球挙動解析部の解析結果に基づいて、前記ユーザの覚醒度を判定する覚醒度判定部を有する情報処理装置。
  2.  前記課題は、前記ユーザが課題を解決するために不足情報を追加探索する作業を必要とする課題である請求項1に記載の情報処理装置。
  3.  前記課題は、前記ユーザが課題を解決するための眼球挙動として、眼球のサッカード(眼球回転)、または固視(Fixation)、またはマイクロサッカード(眼球微小回転)の少なくともいずれかの眼球挙動を発生させる課題である請求項1に記載の情報処理装置。
  4.  前記眼球挙動解析部は、
     前記ユーザが前記課題を解決するための眼球挙動を実行しているか否かを判定可能なデータを取得する請求項1に記載の情報処理装置。
  5.  前記眼球挙動解析部は、
     前記ユーザが前記課題を解決するための眼球挙動として、眼球のサッカード(眼球回転)、または固視(Fixation)、またはマイクロサッカード(眼球微小回転)の少なくともいずれかの眼球挙動を実行しているか否かを示すデータを取得する請求項1に記載の情報処理装置。
  6.  前記覚醒度判定部は、
     前記眼球挙動解析部から、前記ユーザが前記課題を解決するための眼球挙動を実行しているか否かを判定可能なデータを入力し、入力データに基づいて前記ユーザの覚醒度を判定する請求項1に記載の情報処理装置。
  7.  前記覚醒度判定部は、
     前記眼球挙動解析部から、前記ユーザが眼球のサッカード(眼球回転)、または固視(Fixation)、またはマイクロサッカード(眼球微小回転)の少なくともいずれかの眼球挙動を実行しているか否かを示すデータを入力し、入力データに基づいて前記ユーザの覚醒度を判定する請求項1に記載の情報処理装置。
  8.  前記覚醒度判定部は、
     前記ユーザの眼球挙動が前記課題を解決するための眼球挙動であると判定される場合、前記ユーザの覚醒度が高いと判定し、
     前記ユーザの眼球挙動が前記課題を解決するための眼球挙動であると判定されない場合、前記ユーザの覚醒度が低いと判定する請求項1に記載の情報処理装置。
  9.  前記覚醒度判定部は、
     前記ユーザの眼球挙動が前記課題を解決するための眼球挙動として眼球のサッカード(眼球回転)、または固視(Fixation)、またはマイクロサッカード(眼球微小回転)の少なくともいずれかの眼球挙動を実行していると判定される場合、前記ユーザの覚醒度が高いと判定する請求項1に記載の情報処理装置。
  10.  前記覚醒度判定部は、
     前記ユーザが手動運転を実行可能な覚醒度を有しているか否かを判定する請求項1に記載の情報処理装置。
  11.  前記表示情報生成部が生成または取得する課題は、
     物体を示すシルエットを複数配列し、課題解決のために各シルエットに対する視線移動が必要となる課題である請求項1に記載の情報処理装置。
  12.  前記表示情報生成部が生成または取得する課題は、
     文字、またはシンボル、または記号、またはピクトグラムの少なくともいずれかのデータを配列し、課題解決のために各データに対する視線移動が必要となる課題である請求項1に記載の情報処理装置。
  13.  自動運転と手動運転の切り替えが可能な移動装置であり、
     前記移動装置の運転者の運転者情報を取得する運転者情報取得部と、
     前記運転者情報取得部の取得情報に基づいて、前記運転者が手動運転に復帰可能な覚醒度を有するか否かを判定するデータ処理部を有し、
     前記データ処理部は、
     課題を生成または取得して表示部に表示する表示情報生成部と、
     前記表示部に表示された課題を観察する前記運転者の眼球挙動を解析する眼球挙動解析部と、
     前記眼球挙動解析部の解析結果に基づいて、前記運転者の覚醒度を判定する覚醒度判定部を有する移動装置。
  14.  前記覚醒度判定部は、
     前記眼球挙動解析部から、前記運転者が前記課題を解決するための眼球挙動を実行しているか否かを判定可能なデータを入力し、入力データに基づいて前記運転者が手動運転に復帰可能な覚醒度を有するか否かを判定する請求項13に記載の移動装置。
  15.  前記覚醒度判定部は、
     前記眼球挙動解析部から、前記運転者が眼球のサッカード(眼球回転)、または固視(Fixation)、またはマイクロサッカード(眼球微小回転)の少なくともいずれかの眼球挙動を実行しているか否かを示すデータを入力し、入力データに基づいて前記運転者が手動運転に復帰可能な覚醒度を有するか否かを判定する請求項13に記載の移動装置。
  16.  前記覚醒度判定部が、前記運転者が手動運転に復帰可能な覚醒度を有すると判定した場合、前記移動装置の制御部は、前記運転者による手動運転開始を許容し、
     前記覚醒度判定部が、前記運転者が手動運転に復帰可能な覚醒度を有しないと判定した場合、前記移動装置の制御部は、前記運転者による手動運転開始を許容せず、手動運転区間への侵入を回避する処理を実行する請求項13に記載の移動装置。
  17.  情報処理装置において実行する情報処理方法であり、
     表示情報生成部が、課題を生成または取得して表示部に表示する表示情報生成ステップと、
     眼球挙動解析部が、前記表示部に表示された課題を観察するユーザの眼球挙動を解析する眼球挙動解析ステップと、
     覚醒度判定部が、前記眼球挙動解析部の解析結果に基づいて、前記ユーザの覚醒度を判定する覚醒度判定ステップを実行する情報処理方法。
  18.  移動装置において実行する情報処理方法であり、
     前記移動装置は、自動運転と手動運転の切り替えが可能な移動装置であり、
     運転者情報取得部が、前記移動装置の運転者の運転者情報を取得する運転者情報取得ステップと、
     データ処理部が、前記運転者情報に基づいて、前記運転者が手動運転に復帰可能な覚醒度を有するか否かを判定するデータ処理ステップを実行し、
     前記データ処理ステップにおいて、
     表示情報生成部が、課題を生成または取得して表示部に表示する表示情報生成ステップと、
     眼球挙動解析部が、前記表示部に表示された課題を観察するユーザの眼球挙動を解析する眼球挙動解析ステップと、
     覚醒度判定部が、前記眼球挙動解析部の解析結果に基づいて、前記ユーザの覚醒度を判定する覚醒度判定ステップを実行する情報処理方法。
  19.  情報処理装置において情報処理を実行させるプログラムであり、
     表示情報生成部に、課題を生成または取得して表示部に表示させる表示情報生成ステップと、
     眼球挙動解析部に、前記表示部に表示された課題を観察するユーザの眼球挙動を解析させる眼球挙動解析ステップと、
     覚醒度判定部に、前記眼球挙動解析部の解析結果に基づいて、前記ユーザの覚醒度を判定させる覚醒度判定ステップを実行させるプログラム。
PCT/JP2019/050983 2019-01-08 2019-12-25 情報処理装置、移動装置、および方法、並びにプログラム WO2020145161A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020217019797A KR20210107017A (ko) 2019-01-08 2019-12-25 정보 처리 장치, 이동 장치 및 방법, 그리고 프로그램
EP19909150.5A EP3910612A4 (en) 2019-01-08 2019-12-25 INFORMATION PROCESSING DEVICE, MOBILE DEVICE, METHOD AND PROGRAM
CN201980087495.7A CN113260547A (zh) 2019-01-08 2019-12-25 信息处理设备、移动设备、方法和程序
US17/420,126 US20220081009A1 (en) 2019-01-08 2019-12-25 Information processing apparatus, moving apparatus, method and program
JP2020565705A JP7357006B2 (ja) 2019-01-08 2019-12-25 情報処理装置、移動装置、および方法、並びにプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019000975 2019-01-08
JP2019-000975 2019-01-08

Publications (1)

Publication Number Publication Date
WO2020145161A1 true WO2020145161A1 (ja) 2020-07-16

Family

ID=71520419

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/050983 WO2020145161A1 (ja) 2019-01-08 2019-12-25 情報処理装置、移動装置、および方法、並びにプログラム

Country Status (6)

Country Link
US (1) US20220081009A1 (ja)
EP (1) EP3910612A4 (ja)
JP (1) JP7357006B2 (ja)
KR (1) KR20210107017A (ja)
CN (1) CN113260547A (ja)
WO (1) WO2020145161A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022256877A1 (en) * 2021-06-11 2022-12-15 Sdip Holdings Pty Ltd Prediction of human subject state via hybrid approach including ai classification and blepharometric analysis, including driver monitoring systems
EP4140795A1 (en) * 2021-08-23 2023-03-01 Intel Corporation Handover assistant for machine to driver transitions

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220139093A1 (en) * 2019-04-24 2022-05-05 Mitsubishi Electric Corporation Travel environment analysis apparatus, travel environment analysis system, and travel environment analysis method
US11654919B2 (en) * 2020-08-11 2023-05-23 Aptiv Technologies Limited Adaptive user-specific automated driver assistance system warnings
JP2022063952A (ja) * 2020-10-13 2022-04-25 株式会社東海理化電機製作所 制御装置、提示システム、及びプログラム
US20230192100A1 (en) * 2021-12-22 2023-06-22 Arriver Software Llc Awareness checker for enhancing collaborative driving supervision
CN114399752A (zh) * 2022-02-19 2022-04-26 桂林电子科技大学 一种基于微眼跳特性的眼动多特征融合疲劳检测***及检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008225537A (ja) 2007-03-08 2008-09-25 Tamagawa Seiki Co Ltd 自動車の安全装置
US20080309616A1 (en) * 2007-06-13 2008-12-18 Massengill R Kemp Alertness testing method and apparatus
JP2014049138A (ja) * 2012-08-30 2014-03-17 Robert Bosch Gmbh 対話型注意力アップ方法及び装置
JP2015115045A (ja) 2013-12-16 2015-06-22 株式会社デンソー 車両用居眠り防止装置及び車両用居眠り防止システム
JP2017097518A (ja) * 2015-11-20 2017-06-01 オムロン株式会社 自動運転支援装置、自動運転支援システム、自動運転支援方法および自動運転支援プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352895A (ja) * 2004-06-11 2005-12-22 Kenwood Corp 車両運転者覚醒システム
JP6273823B2 (ja) * 2013-12-19 2018-02-07 株式会社デンソー 状態推定装置、および状態推定プログラム
JP6524501B2 (ja) * 2015-06-11 2019-06-05 パナソニックIpマネジメント株式会社 車両制御装置、車両制御方法および車両制御プログラム
JP6656393B2 (ja) * 2016-10-03 2020-03-04 三菱電機株式会社 運転権限移行判定装置および運転権限移行判定方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008225537A (ja) 2007-03-08 2008-09-25 Tamagawa Seiki Co Ltd 自動車の安全装置
US20080309616A1 (en) * 2007-06-13 2008-12-18 Massengill R Kemp Alertness testing method and apparatus
JP2014049138A (ja) * 2012-08-30 2014-03-17 Robert Bosch Gmbh 対話型注意力アップ方法及び装置
JP2015115045A (ja) 2013-12-16 2015-06-22 株式会社デンソー 車両用居眠り防止装置及び車両用居眠り防止システム
JP2017097518A (ja) * 2015-11-20 2017-06-01 オムロン株式会社 自動運転支援装置、自動運転支援システム、自動運転支援方法および自動運転支援プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022256877A1 (en) * 2021-06-11 2022-12-15 Sdip Holdings Pty Ltd Prediction of human subject state via hybrid approach including ai classification and blepharometric analysis, including driver monitoring systems
EP4140795A1 (en) * 2021-08-23 2023-03-01 Intel Corporation Handover assistant for machine to driver transitions

Also Published As

Publication number Publication date
EP3910612A4 (en) 2022-03-09
JPWO2020145161A1 (ja) 2021-11-18
JP7357006B2 (ja) 2023-10-05
KR20210107017A (ko) 2021-08-31
US20220081009A1 (en) 2022-03-17
EP3910612A1 (en) 2021-11-17
CN113260547A (zh) 2021-08-13

Similar Documents

Publication Publication Date Title
US11738757B2 (en) Information processing device, moving apparatus, method, and program
JP7155122B2 (ja) 車両制御装置及び車両制御方法
JP7204739B2 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
JP7357006B2 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
JP7080598B2 (ja) 車両制御装置および車両制御方法
US11993293B2 (en) Information processing apparatus, moving apparatus, and method, and program
JP7324716B2 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
WO2021145131A1 (ja) 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム
JPWO2019202881A1 (ja) 情報処理装置、移動装置、情報処理システム、および方法、並びにプログラム
US11518408B2 (en) Predictive impairment monitor system and method
US11447140B2 (en) Cognitive tunneling mitigation device for driving
WO2021049219A1 (ja) 情報処理装置、移動装置、情報処理システム、および方法、並びにプログラム
WO2019208450A1 (ja) 運転支援装置、運転支援方法及びプログラム
US20210155268A1 (en) Information processing device, information processing system, information processing method, and program
WO2022172724A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7238193B2 (ja) 車両制御装置および車両制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19909150

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020565705

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019909150

Country of ref document: EP

Effective date: 20210809