WO2018142853A1 - 運転評価装置、運転評価方法及び運転評価システム - Google Patents

運転評価装置、運転評価方法及び運転評価システム Download PDF

Info

Publication number
WO2018142853A1
WO2018142853A1 PCT/JP2018/000277 JP2018000277W WO2018142853A1 WO 2018142853 A1 WO2018142853 A1 WO 2018142853A1 JP 2018000277 W JP2018000277 W JP 2018000277W WO 2018142853 A1 WO2018142853 A1 WO 2018142853A1
Authority
WO
WIPO (PCT)
Prior art keywords
cognitive
behavior
driving
driving operation
cognitive behavior
Prior art date
Application number
PCT/JP2018/000277
Other languages
English (en)
French (fr)
Inventor
麻子 北浦
泰彦 中野
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Publication of WO2018142853A1 publication Critical patent/WO2018142853A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to a driving evaluation device, a driving evaluation method, and a driving evaluation system.
  • a technique for evaluating driving based on driving operation of a moving body such as an automobile and confirmation operation by a driver is known. For example, when a rear confirmation scene arrives, a driver's predetermined rear confirmation operation and an eye open state during the rear confirmation operation are detected, and driving in the rear confirmation scene is performed based on the detection results.
  • a technique for scoring and evaluating the driving behavior of a person is known. Also known is a technique for generating a driving operation history from driving operation information and behavior information, and extracting from the driving operation history a driving operation that is dangerous and has a correct line-of-sight movement relative to the driving operation based on the distance to the surrounding car. Yes.
  • the evaluation is performed by measuring the visual recognition time when the driver visually recognizes the side mirror and evaluating the visual behavior of the driver when the own vehicle changes the lane to the lane of another vehicle based on the visual recognition time, the relative distance, and the relative speed.
  • Techniques for calculating points are also known.
  • An object of one aspect is to provide a driving evaluation device, a driving evaluation method, and a driving evaluation system that can realize effective driving evaluation.
  • the driving evaluation device acquires sensing information related to the state of the moving body and selects a driving operation.
  • the driving evaluation device acquires sensing information related to the state of the driver, selects a cognitive behavior by the driver, and selects a related cognitive behavior candidate from the selected cognitive behavior.
  • the driving evaluation device selects one or more cognitive behaviors as an evaluation target using one of the start / end time and duration of each related cognitive behavior candidate group and the detailed state at the start / end of the cognitive behavior.
  • the driving evaluation device calculates a driver confirmation state index using a time difference between the start time of the selected driving operation and the start end time of the selected action group.
  • FIG. 1 is a diagram illustrating an example of a relationship between a cognitive behavior group and an operation.
  • FIG. 2 is a diagram illustrating an example of a cognitive behavior candidate group estimated from a driver gaze direction angle.
  • FIG. 3 is a diagram illustrating an example of sensor data used to specify driving behavior.
  • FIG. 4 is a diagram illustrating an example of the driving evaluation system according to the first embodiment.
  • FIG. 5 is a diagram illustrating an example of the driving operation storage unit according to the first embodiment.
  • FIG. 6 is a diagram illustrating an example of the cognitive behavior storage unit according to the first embodiment.
  • FIG. 7 is a diagram illustrating an example of the determination condition storage unit according to the first embodiment.
  • FIG. 8 is a diagram illustrating an example of a relationship between driving operation and cognitive behavior in the first embodiment.
  • FIG. 9 is a diagram illustrating an example of determination conditions and determination results in the first embodiment.
  • FIG. 10 is a flowchart illustrating an example of the driving operation selection process.
  • FIG. 11 is a flowchart illustrating an example of the cognitive behavior selection process according to the first embodiment.
  • FIG. 12 is a flowchart illustrating an example of the confirmation index calculation process.
  • FIG. 13 is a diagram illustrating an example of cognitive behavior in the second embodiment.
  • FIG. 14 is a diagram illustrating an example of a determination condition storage unit according to the second embodiment.
  • FIG. 15 is a diagram illustrating an example of determination conditions and determination results according to the second embodiment.
  • FIG. 16 is a diagram illustrating an example of the relationship between cognitive behavior and vehicle position.
  • FIG. 17 is a diagram illustrating an example of the relationship between the vehicle position and the line-of-sight direction.
  • FIG. 18 is a diagram illustrating an example of an action storage unit according to the third embodiment.
  • FIG. 19 is a flowchart illustrating an example of a cognitive behavior selection process according to the third embodiment.
  • FIG. 20 is a diagram illustrating an example of an evaluation result in the fourth embodiment.
  • FIG. 21 is a diagram illustrating another example of the evaluation result in the fourth embodiment.
  • FIG. 22 is a flowchart illustrating an example of the evaluation output process according to the fourth embodiment.
  • FIG. 23 is a diagram illustrating an example of a computer that executes a driving evaluation program.
  • an operation of a moving body such as an automobile and an action for confirming safety by a driver who operates the automobile or an action of issuing a signal such as a blinker are detected, and the relation between the operation and the action is specified.
  • the structure to perform is demonstrated.
  • the action for confirming the safety by the driver and the action for issuing a signal such as a blinker may be collectively referred to as “cognitive action” for convenience.
  • FIG. 1 is a diagram illustrating an example of a relationship between a cognitive behavior group and an operation.
  • the cognitive behavior is detected from 1101 five seconds before the operation to 1201 five seconds after the operation starts.
  • five cognitive actions 1901 to 1905 such as a driver's left and right swing, eye movement, and blinker operation are detected.
  • a configuration for selecting any one of the plurality of cognitive actions will be described.
  • FIG. 2 is a diagram illustrating an example of a cognitive behavior candidate group estimated from a driver gaze direction angle.
  • FIG. 2 is a graph plotting time-series changes in the driver's left and right gaze 2001 (deg) and the driver up and down gaze 2002 (deg) detected during driving of an automobile or the like. Show.
  • FIG. 6 the detected driver's line of sight changes particularly significantly at time 2103 from time 2101 to 2102, for example.
  • the driver's line of sight also changes greatly particularly at time 2203 from time 2201 to 2202 and time 2303 from time 2301 to 2302. In this case, at times 2103, 2203, and 2303, it is detected that the driver has performed cognitive behavior.
  • FIG. 3 is a diagram illustrating an example of sensor data used to specify driving behavior.
  • a graph 9000 in FIG. 3 shows vehicle speed (km / h) 9001, accelerator opening (%) 9002, steering angle (deg) 9003, and brake depression amount (%) 9004 detected while the vehicle or the like is traveling. Shows changes over time.
  • a graph 9100 in FIG. 3 shows time-series changes in the lateral gravity change Gx (G) 9101 and the longitudinal gravity change Gy (G) 9202 of the automobile, which are detected while the automobile is running. Indicates. Further, the graph 9200 of FIG.
  • FIG 3 shows a time-series change in the change (deg) 9201 of the steering angle of the automobile and the value (deg) 9202 obtained by integrating the change 9201 of the steering angle, which is detected while the automobile is traveling. Indicates.
  • the driving operation similarly to the cognitive behavior, it is detected that the driver has performed the driving operation at a timing when there is a large change.
  • FIG. 4 is a diagram illustrating an example of the driving evaluation system according to the first embodiment.
  • the driving evaluation system 1 in this embodiment includes a driving evaluation device 100 and a sensor group 200.
  • the driving evaluation apparatus 100 and the sensor group 200 are connected to each other via a network N such as a CAN (Controller Area Network) (not shown) so as to be able to communicate with each other.
  • the driving evaluation apparatus 100 and the sensor group 200 are mounted on a moving body such as an automobile, for example.
  • the sensor group 200 is a plurality of sensors for grasping information on a moving body such as an automobile and a cognitive behavior of a person who operates the moving body such as a driver.
  • a speedometer and a tachograph that acquire the speed of the automobile and the engine speed.
  • an ECU Electronic Control Unit
  • Etc Etc.
  • a GPS (Global Positioning System) positioning sensor that acquires the traveling position of an automobile, a situation of a vehicle that travels around the automobile, the position of a lane, and the like, an image or an arbitrary electromagnetic wave A distance measuring sensor utilizing the above may be used.
  • a weather sensor, a brightness sensor, or the like that acquires surrounding weather and road surface conditions, such as an acceleration sensor that acquires a yaw rate or a shake of an automobile, may be used.
  • a camera that acquires line-of-sight information including driver blink information, driver head orientation information, and the like, a gyro sensor, a myoelectric potential measuring device, and the like Sensors, distance measuring devices using arbitrary electromagnetic waves, and the like.
  • the driving evaluation apparatus 100 includes a communication unit 110, a storage unit 120, and a control unit 130.
  • the communication unit 110 acquires data from the sensor group 200 and outputs the data to the control unit 130. Further, the communication unit 110 outputs data received from a user terminal (not shown) to the control unit 130 and transmits data output from the control unit 130.
  • the storage unit 120 stores various data such as a program executed by the control unit 130, for example.
  • the storage unit 120 includes a sensor data storage unit 121, a driving operation storage unit 122, a cognitive behavior storage unit 123, a determination condition storage unit 124, and an evaluation storage unit 125.
  • the storage unit 120 corresponds to a semiconductor memory device such as a random access memory (RAM), a read only memory (ROM), and a flash memory, and a storage device such as a hard disk drive (HDD).
  • RAM random access memory
  • ROM read only memory
  • HDD hard disk drive
  • the sensor data storage unit 121 stores various sensor data acquired from the sensor group 200.
  • the sensor data storage unit 121 stores sensor data such as a vehicle speed, a steering angle, an accelerator / brake pedal depression amount, shift information, turn signal information, and acceleration.
  • the sensor data storage unit 121 also stores driver's line-of-sight information, head orientation information, and the like. Information stored in the sensor data storage unit 121 is input by a sensor data acquisition unit 131 described later.
  • FIG. 5 is a diagram illustrating an example of the driving operation storage unit according to the first embodiment.
  • the driving operation storage unit 122 includes an “operation type”, an “operation start time” and an “operation end time”, an “operation vicinity region”, and “selection region 1” to “selection region 3”. And “reliability” are stored in association with “operation ID”. Information stored in the driving operation storage unit 122 is input by the driving operation selection unit 132 described later.
  • “Operation ID” is an identifier that uniquely identifies the selected driving operation.
  • “Operation type” stores the type of operation selected, such as lane change, right turn, left turn.
  • the “operation start time” and “operation end time” respectively store the time when the driving operation is started and the time when the driving operation is ended.
  • the “operation vicinity area” stores a time when the operation operation is in proximity. As shown in FIG. 5, the operation vicinity region is a time such as 5 seconds before and after the operation, for example.
  • “Selection area 1” to “selection area 3” store a cognitive action selection area, which is included in the operation vicinity area and is subdivided in time close to the operation start time.
  • the cognitive action selection area is an area that is the same as or smaller than the driving operation scene vicinity area used to select the cognitive action candidate.
  • the cognitive action selection area means an area having an arbitrary time width set based on the start time of the driving operation scene, but is preferably a time section including many cognitive actions that are directly connected to the driving operation. For this reason, you may set so that the cognitive action selection area may occupy at least the time from the start of the driving operation to the middle of the driving operation. For example, as illustrated in FIG. 5, the driving operation selection unit 132 sets “5700” from “5694.5” seconds, which is 4 seconds before the driving operation start time of the operation ID “operation 1”, to the middle of the driving operation. .5 ”seconds is the cognitive action selection area.
  • the reliability stores the reliability indicating how accurately the driving operation detected based on the sensor data is estimated. Details of the reliability will be described later.
  • FIG. 6 is a diagram illustrating an example of the cognitive behavior storage unit according to the first embodiment. As illustrated in FIG. 6, the cognitive behavior storage unit 123 stores “recognition type”, “recognition start time”, “recognition end time”, and “reliability” in association with “recognition ID”. . Note that the information stored in the cognitive behavior storage unit 123 is input by the cognitive behavior selection unit 133 described later.
  • “recognition ID” is an identifier for uniquely identifying the selected cognitive behavior.
  • the “recognition type” stores selected recognition types such as confirmation actions such as confirmation of various mirrors, left and right visual confirmation, and cue actions such as blinker display.
  • the “recognition start time” and “recognition end time” store the time when the cognitive behavior starts and the time when the cognitive behavior ends.
  • the reliability stores the reliability indicating how accurately the cognitive behavior detected based on the sensor data is estimated. Details of the reliability will be described later.
  • the determination condition storage unit 124 stores a condition for determining which one of a plurality of cognitive actions detected corresponding to the driving operation is to be selected.
  • FIG. 7 is a diagram illustrating an example of the determination condition storage unit according to the first embodiment. As illustrated in FIG. 7, the determination condition storage unit 124 stores “target item” and “range” in association with “condition ID”. The information stored in the determination condition storage unit 124 is input in advance from a user terminal (not shown), for example.
  • condition ID is an identifier for uniquely identifying a determination condition.
  • the “target item” and “range” store the condition of the cognitive behavior stored in the cognitive behavior storage unit 123.
  • the condition ID “condition 1” includes “selection region 1” to “selection region 3” in which the recognition start time of the recognition behavior stored in the recognition behavior storage unit 123 is stored in the driving operation storage unit 122. If it is included, the information that the determination condition is satisfied is stored.
  • the evaluation storage unit 125 stores information on the result of evaluating the correspondence between the cognitive behavior and the driving operation.
  • the evaluation storage unit 125 stores a processing result by the confirmation index calculation unit 134 described later.
  • control unit 130 is a processing unit that controls the overall processing of the driving evaluation apparatus 100.
  • the control unit 130 is realized, for example, by executing a program stored in an internal storage device using a RAM as a work area by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like.
  • the control unit 130 may be realized by an integrated circuit such as ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array).
  • the control unit 130 includes a sensor data acquisition unit 131, a driving operation selection unit 132, a cognitive behavior selection unit 133, a confirmation index calculation unit 134, and an evaluation output unit 135.
  • the sensor data acquisition unit 131, the driving operation selection unit 132, the cognitive behavior selection unit 133, the confirmation index calculation unit 134, and the evaluation output unit 135 are an example of an electronic circuit included in the processor and an example of a process executed by the processor.
  • the sensor data acquisition unit 131 acquires sensor data from the sensor group 200 through the communication unit 110 and stores the sensor data in the sensor data storage unit 121.
  • the driving operation selection unit 132 refers to the sensor data storage unit 121, selects a driving operation, and calculates a reliability for the selected driving operation. For example, in order to evaluate the relationship between “recognition / judgment” and “operation” of recognition / judgment / operation in driving, the driving operation selection unit 132 selects a control-processed driving scene that may carry out both. Control-controlled driving scenes include, for example, lane changes and back road changes, avoiding collisions such as sudden deceleration or jumping out of the preceding vehicle, driving in places where the curve curvature changes greatly, including turning left and right, crosswinds and road surface irregularities And adaptive driving to environmental changes. In other words, the driving operation selection unit 132 selects a scene in which the type and amount of operation required from the situation changes.
  • the driving operation selection unit 132 is configured to change the vehicle operation state such as the yaw rate, the position, the speed, and the acceleration, and the driving operation contents such as the steering angle, the accelerator pedal, and the brake pedal depression amount for these scenes. Based on the change, the generation of the driving operation behavior to be evaluated is detected. In addition, the driving operation selection unit 132 uses the road white line obtained from the surrounding image of the own vehicle or the change in the positional relationship between the road and roadside features and the own vehicle to generate the driving operation behavior to be evaluated. It may be detected. Then, the driving operation selection unit 132 estimates at least the operation start time as the generation timing of the driving operation. Furthermore, the driving operation selection unit 132 sets the reliability for the selection result of the driving operation. Note that the driving operation selection unit 132 may specify an approach to an intersection, a road condition, and the like using a map data group (not shown).
  • the driving operation selection unit 132 uses the position of the moving body obtained from the sensor data and the road connection information and the intersection information obtained from the map data group as an example of grasping the occurrence of the right / left turn, and the current position becomes the intersection. Presumed that it entered. Next, the driving operation selection unit 132 is selected from any of the occurrence of large left and right steering obtained from the sensor data, left and right shaking by the yaw rate, acceleration sensor, etc., the amount of depression of the accelerator and brake, and the movement flow change of the outside image. Estimate the occurrence of right or left turn.
  • the driving operation selection unit 132 travels on a multi-lane road that is not an intersection based on the position of the moving body from the sensor data, the lane condition obtained from the map data group, the traveling road shape, and the like. Understand that the vehicle is in the middle, and estimate the lane change by estimating the curve based on the yaw rate, steering angle, etc. obtained from the sensor data, or by changing the amount of movement in the lateral direction.
  • the driving operation selection unit 132 calculates the cumulative steering amount from the integral amount 9202 of the steering angle as shown in FIG. 3, and a pair of scenes that greatly change from the positive cumulative steering amount to the negative cumulative steering amount or vice versa. Is identified. Then, the driving operation selection unit 132 detects the first steering start timing of the identified pair as, for example, the timing of starting the right turn operation.
  • the driving operation selection unit 132 extracts a cognitive behavior candidate for the vicinity of the driving operation which is a sufficiently large time range including the driving operation.
  • the range in the vicinity of the driving operation is larger than the cognitive behavior selection area of the time element used for classification of cognitive behavior described later, so that as many cognitive behaviors as possible can be acquired even by drivers who do not frequently cognitive behavior It may be a large size.
  • the driving operation selection unit 132 calculates the reliability related to the selected driving operation. For example, when there are a plurality of driving operations similar to the selected driving operation in the vicinity, the driving operation selection unit 132 sets the reliability low in consideration of the possibility that the driving operation start timing cannot be accurately estimated. Also good. Also, when turning right or left at large intersections or signalized intersections, there is a high possibility of frequent pausing and moving the steering, and it is difficult to know exactly when the road starts to bend. It is difficult for the unit 132 to accurately estimate the scene start timing. Alternatively, when the operation start timing is estimated from the end of the operation, the time from the start of the operation to the end of the operation generally varies greatly depending on the scene, so there is a possibility that a large estimation error occurs.
  • the driving operation selection unit 132 may determine that the reliability of the selected driving operation is low.
  • the driving operation selection unit 132 may estimate and set the low.
  • the driving operation selection unit 132 may exclude the scene itself from the evaluation and exclude it from the selection scene of the driving operation action data selection unit instead of estimating the reliability of the driving operation low.
  • the confirmation index calculation unit 134 adopts driving operation when the reliability is equal to or higher than a predetermined threshold. May be.
  • the traveling locus of the moving object can be clearly understood.
  • the corresponding driving scene may be selected using the value of the entire road. For example, after grasping the shaking and the steering change of the entire travel path, when the shaking and the steering change greatly deviate from the shaking and the steering change, the driving operation action selected by the driving operation selecting unit 132 may be used.
  • the cognitive behavior selection unit 133 refers to the sensor data storage unit 121 to select the cognitive behavior and calculates the reliability for the selected cognitive behavior.
  • the cognitive behavior selection unit 133 identifies the cognitive behavior corresponding to the driving operation scene selected by the driving operation selection unit 132 and the cognitive behavior group near the driving operation start.
  • the cognitive behavior selection unit 133 classifies the cognitive behavior using any one or more of the time element, the cognitive status element, and other elements, and selects one or more cognitive actions using the classification result.
  • the cognitive behavior selection unit 133 extracts, as a cognitive behavior candidate section, a portion where the value changes greatly from side to side with respect to the change in the left and right driver gazes acquired from the sensor data.
  • the cognitive behavior selection unit 133 extracts cognitive behavior candidates.
  • the cognitive behavior selection unit 133 can acquire a sensor data group sufficiently after the start of the driving operation scene for the vicinity of the driving operation that is a sufficiently large time range including the driving operation. Depending on the situation, a determination process of cognitive behavior may be performed.
  • the cognitive behavior selection unit 133 estimates and calculates a cognitive behavior group as a selection candidate from the driver gaze value, head direction value, and the like of sensor data using existing means. For example, the cognitive behavior selection unit 133 does not have a line of sight and heading toward the moving body traveling direction before the start of the driving operation scene, but a new line of sight that faces a direction that depends on the traveling direction of the vehicle that changes according to the driving operation.
  • the head direction is a selection candidate confirmation candidate group. That is, the cognitive behavior selection unit 133 sets the direction toward the area where another person may be in contact with the new vehicle running path generated by the driving operation, and the right direction if the lane is changed to the right as the confirmation candidate group.
  • the cognitive behavior selection unit 133 calculates the contact possibility area more strictly from the own vehicle speed, the road shape, etc., and selects the confirmation candidate group by finely determining the angle in the right direction according to the area.
  • the cognitive action selection unit 133 sets an angle with a slight margin because the area and the cognitive action direction do not always match exactly. May be.
  • it may be configured to detect that the line of sight is directed to the left side information in order to confirm the rearview mirror in the vehicle.
  • the cognitive behavior selection unit 133 acquires a plurality of cognitive behavior candidates in this manner, and then selects one or more cognitive behavior candidates to be used for evaluation by examining time elements included in each cognitive behavior.
  • FIG. 8 is a diagram illustrating an example of a relationship between driving operation and cognitive behavior in the first embodiment. As illustrated in FIG. 8, the recognition behavior selection unit 133 extracts the recognition behavior 3101 of recognition 1 to the recognition behavior 3106 of recognition 6 included in the operation vicinity region 3020 of the operation 3001 specified by the driving operation selection unit 132.
  • the time zone from t0 to t2 close to the operation start time t1 is “cognitive action selection region” as “region 1” 3011 and “region 2” 3012. And “region 3” 3013.
  • 3201 (+) indicates a time difference from the recognition action start time of “cognition 1” to the driving operation start time, and indicates that the recognition action start time is before the driving operation start time.
  • 3206 ( ⁇ ) indicates a time difference from the recognition action start time of “cognition 6” to the driving operation start time, and indicates that the recognition action start time is after the driving operation start time.
  • the cognitive behavior shown in FIG. 8 is an example, and a different number of cognitive behaviors may be detected for one driving operation scene, or no cognitive behavior may be detected.
  • timing evaluation using each processing unit of the present invention may be performed together with information that the cognitive behavior and the cue behavior are zero.
  • the corresponding driving operation action scene may be excluded from the implementation target.
  • the cognitive behavior selection unit 133 calculates the reliability of each cognitive behavior for one or more cognitive behaviors selected from the cognitive behavior candidate group. For example, the cognitive behavior selection unit 133 calculates the reliability of the calculated cognitive behavior from the occurrence status of the cognitive behavior group used at the time of selection and the surrounding environment status based on the current position specified by GPS. For example, the cognitive behavior selection unit 133 sets a low reliability when selecting from a plurality of similar point candidates or when sensor data (gaze data, etc.) is missing when the cognitive behavior is calculated. Further, the cognitive behavior selection unit 133 may be configured to set a low reliability when the position of the moving body is a large intersection when the driving operation behavior related to the cognitive behavior is performed. .
  • the reason why the reliability is low is that the choice of cognitive behavior itself remains ambiguity, the data that is the basis of the selection of cognitive behavior itself is not reliable in the first place, and cognitive behavior is usually The reason is that it is difficult to select the cognitive behavior because it is likely to be mixed with the forward vision.
  • the cognitive behavior selection unit 133 determines which of these cognitive behaviors matches with each from the start / end time of each cognitive behavior and the start time of the driving operation scene selected by the driving operation selection unit 132.
  • the time element includes information indicating whether the start time and the end time of the cognitive action are located in the cognitive action selection region or the driving operation time, and how much of the entire confirmation time overlaps with the driving operation time. And so on. That is, the time element is a content indicating a time relationship between the cognitive behavior and the driving operation behavior in consideration of the time distribution state of each driving operation and the cognitive behavior.
  • the driving operation selection unit 132 classifies the cognitive behaviors using such time elements and then selects the cognitive behaviors to determine which of the plurality of cognitive behaviors is the behavior to be confirmed with some intention. It becomes possible to estimate.
  • the element for grasping the situation during the operation is higher than the confirmation before the driving operation.
  • the cognitive behavior is completed before the driving operation, it is presumed that the surrounding confirmation factor before the operation is strong.
  • the cognitive behavior selection unit 133 selects the cognitive behavior that matches the content to be evaluated with respect to the cognitive behavior group that has been given meaning using the time element classification. An example of this will be described with reference to FIG.
  • FIG. 9 is a diagram illustrating an example of determination conditions and determination results in the first embodiment.
  • FIG. 9 shows a “confirmation object” indicating what kind of cognitive behavior is to be evaluated, and “top priority condition” and “general condition” used in the confirmation object.
  • FIG. 9 further shows a “determination result” in which the determination results for the evaluation target are displayed in the order of selection priority.
  • “Condition 1” to “Condition 6” in FIG. 9 indicate the respective conditions stored in the determination condition storage unit 124.
  • “A” and “B” indicate examples of selection determination.
  • selection determination example A in which “condition 1” and “condition 3” are used as the highest priority conditions using classification, and “condition 5” and “condition 6” are the general conditions after that.
  • the cognitive behavior selecting unit 133 determines whether or not there is a confirmation candidate that actually matches in the order of confirmation of the determination result shown in “determination result” in FIG. 9.
  • the cognitive action selection part 133 selects one cognitive action with the highest priority among the cognitive actions shown in the determination result of FIG. In this case, as illustrated in FIG.
  • the cognitive behavior selection unit 133 selects the cognitive behavior with the cognition ID “cognition 3”. Note that the number of cognitive behaviors selected in this case is not limited to one, and the configuration may be such that the cognitive behavior selection unit 133 selects a plurality of cognitive behaviors in descending order of priority.
  • the cognitive behavior is selected using the selection determination example B with the “recognition status before operation” shown in FIG. Select.
  • the cognitive behavior selecting unit 133 selects the cognitive behavior having the cognition ID “cognition 2”.
  • condition combinations shown in FIG. 9 are merely examples, and any condition using any of the classifications shown in FIG. 7 may be used.
  • the two-stage condition designation of the highest priority condition and the general condition is used.
  • each of the plurality of conditions may have a priority order with respect to each other. There may be no condition group. The former can achieve cognitive behavior selection based on more detailed cognitive behavior semantics, but if the conditions are complex and the meaning of the meaning is ambiguous, the priority of the classification may be mistaken. Conditions may be used.
  • the priority order of the conditions using the time element classification may be adjusted as appropriate using the surrounding situation and the vehicle situation at the time of the driving operation acquired from the map information of the sensor data and the map data group.
  • the cognitive behavior selection unit 133 may drive in the case of a situation where the host vehicle speed is high, a moving body is present in the vicinity, a downtown area, a narrow road, etc. Cognitive behavior at a time timing closer to the start of operation is preferred. For this reason, in such a case, the condition priority order is adjusted so that a cognitive behavior candidate closer to the start of the driving operation is selected as the cognitive behavior. For example, it is assumed that the condition 3 in FIG.
  • the cognitive behavior selection unit 133 may determine the priority order in accordance with whether the reliability is equal to or higher than a predetermined threshold, for example, in addition to the above time element classification when specifying the confirmation target.
  • the cognitive behavior selection unit 133 similarly selects a cue behavior such as a blinker operation, for example.
  • the cognitive behavior selection unit 133 grasps the operation of the winker operation from the sensor data in the vicinity of the driving operation selected by the driving operation selection unit 132, and the start time that is the instruction timing for starting the winker operation, and the end of the operation An end time that is an instruction timing is calculated.
  • the recognition action selection unit 133 determines, for example, the last signal action among the plurality of signal actions when the operation start and end times are performed within a very short time near the start of the driving operation. Select. This is an example of selecting the evaluation target as the one whose evaluation is most deteriorated because there is a possibility that an accident is induced as the signal action is delayed and the accident is often caused by the worst case.
  • a selection determination using the same element extraction and classification as the “time element” may be performed to select one. Good. Since this selection method determines whether or not it is a signal action related to the operation start, it can be expected to evaluate more accurately than mechanically selecting the last signal action. In addition to this, a plurality of signal actions may be selected instead of selecting one signal action.
  • the cognitive behavior selection unit 133 corresponds to the driving operation behavior selected by the driving operation selection unit 132 and the reliability of the driving operation behavior, and determines one or more cognitive behaviors and the reliability of the cognitive behavior. calculate.
  • the confirmation index calculation unit 134 includes the driving operation with reliability selected by the driving operation selection unit 132 and one or more cognitive behaviors with reliability selected by the cognitive behavior selection unit 133 from the vicinity of the driving operation behavior.
  • a confirmation index is calculated for.
  • the confirmation index calculation unit 134 calculates the confirmation index using, for example, the following formula (1).
  • the confirmation index is an example of a cognitive state index.
  • Start timing difference Driving operation start time-Cognitive action start time ...
  • the cognitive behavior of “cognition 3” started in “5685.4” seconds is selected with respect to the driving operation started in “5688.5” seconds.
  • the start timing difference is calculated as follows using Equation (1).
  • the confirmation index calculation unit 134 calculates the confirmation index using the following formula (2).
  • a and B are arbitrary numerical values of correction value parameters.
  • the use timing is a time after the original operation start timing.
  • correction is performed such that the corrected timing difference is slightly larger than before correction.
  • the correction amount of the correction value parameter may be adjusted using the vehicle speed at the start of the driving operation.
  • the confirmation index calculation unit 134 may collectively set the time difference confirmation index when a plurality of confirmation actions have been selected. For example, the confirmation index calculation unit 134 simply calculates an arithmetic average value, a geometric average value, a maximum value, a minimum value, an intermediate value, a variance or a deviation, a difference between a maximum and a minimum, and the like. Any of the statistics may be used as a time difference confirmation index. By calculating the minimum value, it is possible to perform an evaluation focusing on more dangerous confirmation behavior. In addition, it is possible to carry out an evaluation adding the frequency of confirmation actions from the difference between the maximum and minimum, average, variance, deviation, and the like. Psychological characteristics of dangerous drivers also include restless behavior, and frequency is not necessarily cautious, but can also be related to danger, so a more precise assessment can be performed. I can do it.
  • the confirmation index calculation unit 134 calculates the start timing difference after calculating the start timing difference after calculating each start timing difference, instead of collecting the time difference confirmation index into one time difference confirmation index. It does not matter as a difference confirmation index. That is, the confirmation action start times are combined into one using any of the statistics, and the start timing difference is calculated from the values.
  • An example of correcting the start timing difference using the average value is shown in Expression (3).
  • the start timing difference is calculated as a value that increases as the confirmation or signal is performed earlier than the driving operation behavior.
  • the confirmation index calculation unit 134 calculates the time difference confirmation index
  • the cue behavior that occurs as a result of consideration for surrounding others and the confirmation behavior index that occurs as a result of recognition related to the driver's own behavior confirmation are the time difference
  • the calculation is preferably performed separately from the confirmation index, but is not limited thereto.
  • the confirmation index calculation unit 134 may be one index in which a cue action is added to the recognition action.
  • the confirmation index calculation unit 134 sets a special value (such as “minus infinity”) indicating lack in the time difference confirmation index when all the confirmation actions and signal actions are missing and cannot be taken. deep.
  • the confirmation index calculation unit 134 further calculates the overall reliability for the time difference confirmation index using the reliability calculated by the driving operation selection unit 132 and the cognitive behavior selection unit 133, respectively.
  • the confirmation index calculation unit 134 uses, for example, the following formula (4) and formula (5).
  • Evaluation index reliability k x driving action reliability x f (confirmation action reliability) ... Formula (4)
  • Evaluation index reliability k x driving action reliability + t x f (confirmation action reliability) ... Formula (5)
  • k and t are arbitrary parameters. k and t may be fixed values, or may be parameters using the reliability level in order to absorb the influence of the difference in the reliability level used in the calculation.
  • f confirmation action reliability means an arbitrary statistic calculated for the reliability of a plurality of confirmation actions. This statistic includes simple sums and sums of reliability.
  • the time difference confirmation index calculated by the confirmation index calculation unit 134 appropriately selects and acquires the driving operation of the driver and the cognitive behavior in the vicinity of the driving operation from among a large number of behavior groups in the driving data. Then, a time difference timing is calculated as a time difference confirmation index. Thereby, a driver can be evaluated paying attention to the balance of operation (operation) and recognition judgment (confirmation and cue).
  • the time difference confirmation index is a clue as to whether or not the calculated time difference confirmation index value is a reliable value in consideration of both the scene environment situation of the driving operation and the cognitive behavior situation of the driver. Calculated as evaluation index reliability. For this reason, a driver can be evaluated not only in a fixed place and a fixed driving scene but also in general driving where various driving scenes are mixed.
  • FIG. 10 is a flowchart illustrating an example of the driving operation selection process.
  • the sensor data acquisition unit 131 of the driving evaluation device 100 waits until a predetermined driving scene occurs (S100: No).
  • S101: Yes the sensor data acquisition unit 131 stores sensor data corresponding to the predetermined driving scene in the sensor data storage unit 121 (S101).
  • the driving operation selection unit 132 refers to the sensor data storage unit 121 and determines whether sensor data corresponding to a predetermined driving operation has been detected (S102). When it is not determined that the sensor data corresponding to the predetermined driving operation is detected (S102: No), the sensor data acquisition unit 131 returns to S101 and repeats the process.
  • the driving operation selection unit 132 selects the driving operation from the sensor data and stores it in the driving operation storage unit 122 (S103).
  • the driving operation selection unit 132 calculates the reliability of the selected driving operation and stores it in the driving operation storage unit 122 (S104). Thereafter, the terminal A shifts to a cognitive behavior selection process.
  • FIG. 11 is a flowchart illustrating an example of the cognitive behavior selection process according to the first embodiment.
  • the driving operation selection unit 132 sets a region near the selected driving operation (S200).
  • the cognitive behavior selection unit 133 refers to the sensor data storage unit 121 and acquires a cognitive behavior candidate group in the set neighborhood area (S201).
  • the cognitive behavior selection unit 133 determines whether or not the cognitive behavior is detected in the vicinity region (S202). If it is not determined that the cognitive behavior has been detected (S202: No), the cognitive behavior selection unit 133 stores the lack of the cognitive behavior in the cognitive behavior storage unit 123 (S204), and then calculates the confirmation index through the terminal B. Transition to processing.
  • the cognitive behavior selection unit 133 determines that the cognitive behavior is detected (S202: Yes)
  • the cognitive behavior time element is calculated (S203).
  • the cognitive behavior selection unit 133 selects the cognitive behavior using the calculated time element and stores it in the cognitive behavior storage unit 123 (S210).
  • the cognitive behavior selection unit 133 calculates the reliability of the selected cognitive behavior and stores it in the cognitive behavior storage unit 123 (S211). Thereafter, the process proceeds to the confirmation index calculation process through the terminal B.
  • FIG. 12 is a flowchart illustrating an example of the confirmation index calculation process.
  • the confirmation index calculation unit 134 refers to the cognitive behavior storage unit 123 and determines whether or not the cognitive behavior corresponding to the driving operation is set (S300). If the confirmation index calculation unit 134 does not determine that the cognitive behavior is set (S300: No), the process ends.
  • the confirmation index calculation unit 134 calculates the reliability of the confirmation index using the reliability of the selected cognitive behavior and the reliability of the driving operation, and stores it in the evaluation storage unit 125 (S302). Thereafter, the process ends.
  • the driving evaluation apparatus acquires sensing information related to the state of the moving body, selects a driving operation, acquires sensing information related to the state of the driver of the moving body, and drives the driving operation.
  • the driving evaluation device selects a related cognitive behavior candidate from the selected cognitive behavior, and uses either the start / end time and duration of each related cognitive behavior candidate group, or the detailed state at the start / end of the cognitive behavior. Select one or more cognitive behaviors for evaluation. Further, the driving evaluation device calculates a driver's cognitive state index using a time difference between the start time of the selected driving operation and the start / end time of the selected action group. Thereby, effective driving
  • the driving evaluation device in the present embodiment calculates the reliability of the driving operation, calculates the reliability of the cognitive behavior, and determines the reliability of the confirmation action group, the reliability of the driving operation and the reliability of the cognitive behavior. Calculate using degrees. Thereby, data with low reliability can be excluded from determination targets.
  • Example 1 although the recognition behavior selection part 133 demonstrated the structure which classifies recognition behavior using a time element, embodiment is not restricted to this. In a present Example, the structure which classifies cognitive action using another confirmation condition element in addition to a time element is demonstrated.
  • FIG. 13 is a diagram illustrating an example of cognitive behavior in the second embodiment.
  • the cognitive behavior candidate examples 1 to 12 illustrated in FIG. 13 include information 4001 regarding the start time of cognitive behavior and information 4011 regarding the end time, similarly to the cognitive behavior illustrated in FIG. 8. Note that the recognition behavior candidate examples 1 to 12 shown in FIG. 13 are considered to have occurred at the same confirmation start time for comparison and illustration.
  • the candidate cognitive behavior examples 2 and 3 shown in FIG. 13 further include timings 4201 and 4202 when the driver blinks. Further, an arrow 4101 in FIG. 13 indicates the minimum duration of the time when the cognitive behavior is performed.
  • candidate examples 1 to 4 and 5 to 8 and 9 to 12 have the same duration of cognitive behavior, 1 to 4 are confirmed to be the longest, and then 5 to 8 are confirmed to be long. .
  • blinking means blinking of a psychic (temporary) that occurs for a short time.
  • a tonic (persistent) blink that is the occurrence of a blink for a long time.
  • blinking occurs in relation to two stages of information processing and decision making.
  • Candidate Example 2 shown in FIG. 13 when blink 4201 occurs at the start of cognitive behavior, it is assumed that the cognitive behavior of the driver includes complicated information processing, and complicated decision making is performed based on the cognitive behavior. It is used for cognitive behavior selection judgment.
  • blink 4202 occurs at the end of the cognitive action as in candidate example 3 shown in FIG. 13, it can be considered that the end of the visual action with high interest is meant.
  • such blinks are used for cognitive behavior selection determination as being more cognitive behavior useful for driving operation.
  • the minimum duration 4101 is a condition for determining whether or not the candidate for cognitive behavior holds enough time for the driver to not only turn his / her line of sight to the relevant part but also to visually recognize the part. It is.
  • the minimum duration may be set as an arbitrary value using a general gaze behavior value. For example, the minimum stop time for fixation, which is conscious gaze behavior, the rest time required when saccade, which is gaze behavior when changing the visual recognition target, continuously occurs, the driver An arbitrary value is determined in advance using any one of the time until perception perception when information recognized by sight is transmitted to the brain center.
  • the driving evaluation system 2 in the present embodiment includes a driving evaluation device 500 and a sensor group 200.
  • the driving evaluation device 500 includes a communication unit 110, a storage unit 520, and a control unit 530.
  • the storage unit 520 stores various data such as a program executed by the control unit 530, for example.
  • the storage unit 520 includes a sensor data storage unit 121, a driving operation storage unit 122, a cognitive behavior storage unit 523, a determination condition storage unit 524, and an evaluation storage unit 125.
  • the cognitive behavior storage unit 523 stores information on the cognitive behavior selected based on the sensor data. In addition to the information stored in the cognitive behavior storage unit 123 in the first embodiment illustrated in FIG. 6, the cognitive behavior storage unit 523 further stores the timing at which the driver performed blinking.
  • the determination condition storage unit 524 stores a condition for determining which of a plurality of cognitive actions detected corresponding to the driving operation is to be selected.
  • FIG. 14 is a diagram illustrating an example of a determination condition storage unit according to the second embodiment. As illustrated in FIG. 14, the determination condition storage unit 524 stores “target item” and “range” in association with “condition ID” in the same manner as the determination condition storage unit 124 in the first embodiment.
  • “target item” and “range” store the condition of the cognitive behavior as in the determination condition storage unit 124.
  • the determination condition storage unit 524 stores, as a determination condition, for example, whether “blinks are detected” at the timing indicated by “Range”.
  • the determination condition storage unit 524 stores, for example, whether or not the duration of the cognitive behavior is “minimum duration or more” as the determination condition.
  • the “minimum duration” may be input from a user terminal (not shown) in advance and stored in the determination condition storage unit 124, for example.
  • the determination condition storage unit 524 further includes a determination condition regarding the time situation in the first embodiment in addition to the determination condition regarding the blink or the minimum duration, and stores both the time element and the confirmation situation element as the determination condition. May be.
  • control unit 530 is a processing unit that performs overall processing of the driving evaluation apparatus 500.
  • the control unit 530 includes a sensor data acquisition unit 131, a driving operation selection unit 132, a cognitive behavior selection unit 533, a confirmation index calculation unit 534, and an evaluation output unit 135.
  • the cognitive behavior selection unit 533 refers to the sensor data storage unit 121 to select the cognitive behavior and calculates the reliability for the selected cognitive behavior. In the same manner as the cognitive behavior selection unit 133, the cognitive behavior selection unit 533 extracts a portion where a blink has occurred in addition to a portion where the value of the sensor data has changed greatly as a section of a cognitive behavior candidate.
  • the cognitive behavior selection unit 533 acquires a plurality of cognitive behavior candidates, and then checks the confirmation status element in addition to the time element included in each cognitive behavior, so that one cognitive behavior candidate is used for evaluation. Select above.
  • An example of the determination result by the cognitive behavior selection unit 533 will be described with reference to FIG.
  • FIG. 15 is a diagram illustrating an example of determination conditions and determination results according to the second embodiment.
  • “Condition 1” to “Condition 4” in FIG. 15 indicate the respective conditions stored in the determination condition storage unit 524.
  • “C” to “E” indicate examples of selection determination.
  • the determination condition storage unit 524 further stores “priority condition” as a determination condition between the “highest priority condition” and the “general condition”.
  • Selection determination examples C and D are examples in which conditions 1 and 2 are related to confirmation status elements related to information processing and decision making based on blinks, and the cognitive behavior is to be selected when evaluating with confident confirmation instead of random vision. is there.
  • the cognitive behavior selection unit 533 selects “candidate example 3” among the candidate examples 1 to 12 shown in FIG. 13 as the cognitive behavior with the highest priority based on the selection determination example C, for example.
  • the selection determination example D is different from the selection determination example C in that the start blink is not included as a general condition. Furthermore, for example, when it is known that the time resolution of the gaze calculation of the sensor data is low and the blink determination information cannot be obtained, or when the gaze position cannot be grasped due to a gaze detection error, and the gaze position can be obtained by the blink. There may be cases where it is difficult to make a judgment when there is no such item. In such a case, a selection determination example E that does not include determination conditions related to blinks may be used. Note that any of the selection determination examples C to E and the selection determination example A or B may be used in combination.
  • the cognitive behavior selection unit 533 corresponds to the driving operation behavior selected by the driving operation selection unit 132 and the reliability of the driving operation behavior, and determines one or more cognitive behaviors and the reliability of the cognitive behavior. calculate.
  • the determination conditions in the second embodiment are not limited to the conditions shown in FIG.
  • the direction of the confirmation line of sight may be used as the determination condition, and a classification that the line of sight is directed in the vicinity of the course direction changed by the moving body by the driving operation may be added.
  • achieving evaluation regarding the important cognitive action required in order to avoid the danger which arises by driving operation can be selected.
  • classification regarding the magnitude of confirmation may be performed using the magnitude of changes in line of sight and head swing. For example, by measuring the movement of the line of sight when an arbitrary vehicle part (a left-right mirror, a rearview mirror, etc.) of a general vehicle is viewed in advance, and using that as a threshold value, a recognition action for visually recognizing the vehicle part is performed. It can be selected with priority.
  • the cognitive behavior is classified using the start and end order of movement and head movement change.
  • the head direction starts moving before the line of sight or the head direction ends moving after the line of sight.
  • the driving evaluation device in the present embodiment selects one or more cognitive actions from the cognitive action candidate group by further using the blink occurrence state at the time of cognitive actions. Thereby, driving
  • the driving evaluation apparatus selects one or more cognitive actions from the confirmation action candidate group by further using the changed advanced road direction in which the confirmation direction is the driving operation action.
  • the recognition action which visually recognizes vehicle parts, such as various mirrors, can be selected preferentially.
  • the driving evaluation device uses one or more cognitive behaviors from the confirmation behavior candidate group using whether or not the gaze movement starts moving earlier than the head direction at the start or end of the cognitive action. Is selected. Thereby, it is possible to grasp the case where the line of sight that may indicate active visual recognition starts moving first.
  • the configuration for evaluating the driving behavior using the time difference between the cognitive behavior and the driving operation has been described, but the embodiment is not limited thereto.
  • a configuration for classifying cognitive behavior using a difference in vehicle position during cognitive behavior and driving operation will be described.
  • FIG. 16 is a diagram illustrating an example of the relationship between cognitive behavior and vehicle position.
  • FIG. 16 shows an example in which an automobile 6100 traveling in a position 6101 in a lane 6001 changes the lane to the right across the white line 6000. As shown in FIG. 16, the automobile 6100 starts the driving operation at the position 6102 and continues the driving operation until the position 6105 is reached. In addition, it is assumed that the driver of the automobile 6100 performs cognitive behavior at the positions 6101, 6103, and 6104.
  • the position of the automobile 6100 is estimated and calculated by combining, for example, the positioning of the vehicle position by GPS and the vehicle orientation estimated from the gyro sensor of the vehicle, or is estimated and calculated from an in-vehicle camera image installed at the front center of the automobile 6100. It can be obtained by doing. In the latter case, where the position can be estimated with higher accuracy, the standard for identifying the position of the automobile 6100 is the center of the front of the vehicle close to the camera setting position, which is considered to be relatively easy to calculate. As long as the definition is unified throughout the evaluation, the calculation may be performed using other parts such as the center of gravity of the automobile 6100 (the center of the own vehicle) and the assumed position of the driver. Further, as will be described later, a numerical value obtained by normalizing the distance based on the lane width, the vehicle width of the automobile, or the like may be used instead of the distance itself.
  • the lateral position of the automobile 6100 in the lane moves to the right from 6201 to 6205, and the distance from the automobile 6100 to the origin when the white line 6000 is used as the origin as a reference of the lateral position is from 6301. It changes like 6305.
  • the lateral position is calculated so that the position in the left lane before the right lane change as a driving operation is positive and the position in the lane after movement is negative.
  • a configuration for evaluating driving using a difference in position from this reference instead of the time in the first or second embodiment will be described.
  • FIG. 17 is a diagram illustrating an example of the relationship between the vehicle position and the line-of-sight direction. As shown in FIG. 17, the automobile 6100 moves to a space 6501 where another automobile may exist. In this case, there is a possibility that the automobile 6100 collides with another automobile in the intersection space 6503.
  • the driving evaluation system 3 in the present embodiment includes a driving evaluation device 600 and a sensor group 200.
  • the driving evaluation apparatus 600 includes a communication unit 110, a storage unit 620, and a control unit 630.
  • the storage unit 620 stores various data such as a program executed by the control unit 630, for example. Further, the storage unit 620 includes a sensor data storage unit 121, a driving operation storage unit 622, a cognitive behavior storage unit 623, a determination condition storage unit 624, an evaluation storage unit 125, and an action storage unit 626.
  • the driving operation storage unit 622 stores information related to the driving operation selected based on the sensor data, like the driving operation storage unit 122 in the first embodiment. However, the driving operation storage unit 622 is different from the driving operation storage unit 122 in that it stores “vehicle position” in association with “operation ID”.
  • the cognitive behavior storage unit 623 stores information related to the cognitive behavior selected based on the sensor data, similarly to the cognitive behavior storage unit 123. However, the cognitive behavior storage unit 623 is different from the cognitive behavior storage unit 123 in that it stores the position of the car at the time of performing the cognitive behavior in association with the “cognition ID”.
  • FIG. 18 is a diagram illustrating an example of an action storage unit according to the third embodiment.
  • the behavior storage unit 626 includes “recognition / operation type”, “lateral distance value”, “in-lane position”, “vertical distance value”, “R distance value”, “ The “R code”, “normalized R distance”, and “reliability” are stored in association with “action ID”.
  • the position of the vehicle at the time when the vehicle starts the lane change operation shown in “Action 2” is used as a reference.
  • the position (each distance value, etc.) in each cognitive action can be used as it is as a substitute for the time difference index calculated by the confirmation index calculation unit 134 in the first embodiment.
  • the processing of the confirmation index calculation unit 634 to be described can be reduced.
  • action ID is an identifier for uniquely identifying the selected driving operation.
  • the “recognition / operation type” stores the type of the selected driving operation or cognitive action.
  • the “lateral distance value” indicates the position of the vehicle at the time when the driving operation or the cognitive behavior is performed. In FIG. 18, since the position of the vehicle at the time when the vehicle starts the lane change operation is used as a reference, the lateral distance is “0” m in “action 2” that is the time when the driving operation is started. As described above, the lateral distance value is positive before the driving operation is started, and the lateral distance value is negative after the driving operation is started.
  • in-lane position indicates the position of the automobile in the lane with the distance value normalized by the travel lane width.
  • the actual lane width may be used as the lane width, and the lane width size on general roads such as general roads, main roads, and highways is determined in advance, You may use it selectively.
  • the lane width is a lane width of 3.5 m determined as an expressway, and the position in the lane calculated using the lane width is shown.
  • the “vertical distance value” indicates the distance of the vertical position of the automobile with reference to the position in “action 2” (hereinafter sometimes referred to as “origin”). Similar to the lateral distance value described above, the vertical distance value is positive before the driving operation is started, and the vertical distance value is negative after the driving operation is started.
  • the “R distance value” indicates the distance from the origin obtained from the horizontal distance value and the vertical distance value, that is, the distance from the position in “action 2”. At this time, in order to give a sign to the R distance value, a rule has been introduced in which either the horizontal distance or the vertical distance is negative. “R code” indicates whether the sign of the R distance value is positive or negative.
  • the R code is “none” at the position of “behavior 2” that is the origin.
  • the R distance value is calculated by, for example, the following formula (6).
  • normalized R distance value indicates a distance obtained by normalizing the R distance value with the vehicle speed (representative vehicle speed) at that time.
  • the representative vehicle speed is, for example, the speed at the origin that is the starting point or the ending point for obtaining the R distance, and the position at “behavior 1”, “behavior 3”, “behavior 4” or “behavior 5” that is also the starting point or ending point.
  • Speed may be used, and the representative vehicle speed may be calculated using both speeds. For example, the lower speed of both speeds may be selected, the speed of the origin may be selected, or the average speed of both may be used as the representative vehicle speed.
  • FIG. 18 shows an example in which 80 km / h, that is, 22.222 m / s, is used as the representative vehicle speed.
  • control unit 630 is a processing unit that performs overall processing of the driving evaluation apparatus 600.
  • the control unit 630 includes a sensor data acquisition unit 131, a driving operation selection unit 632, a cognitive behavior selection unit 633, a confirmation index calculation unit 634, and an evaluation output unit 135.
  • the driving operation selection unit 632 refers to the sensor data storage unit 121 and selects a driving operation. At this time, the driving operation selection unit 632 refers to the sensor data storage unit 121 and identifies the position of the vehicle at the time when the selected driving operation is performed.
  • the cognitive behavior selection unit 633 refers to the sensor data storage unit 121 and selects the cognitive behavior. At this time, the cognitive behavior selection unit 633 refers to the sensor data storage unit 121 and specifies the position of the vehicle at the time when the selected cognitive behavior is performed.
  • the confirmation index calculation unit 634 calculates a confirmation index for the driving operation and one or more cognitive actions.
  • the confirmation index calculation unit 634 calculates the confirmation index using, for example, the following equation (8).
  • the confirmation index is an example of a cognitive state index.
  • Start position difference position at the start of driving operation ⁇ position at the start of cognitive action (8)
  • FIG. 19 is a flowchart illustrating an example of a cognitive behavior selection process according to the third embodiment. Since the driving operation selection process and the confirmation index calculation process are the same as those in the first embodiment, detailed description thereof is omitted.
  • the driving operation selection unit 632 sets a region near the selected driving operation (S500).
  • the cognitive behavior selection unit 633 refers to the sensor data storage unit 621 and acquires a cognitive behavior candidate group in the set neighborhood area (S501).
  • the cognitive behavior selection unit 633 determines whether or not the cognitive behavior is detected in the vicinity region (S502). When it is not determined that the cognitive behavior is detected (S502: No), the cognitive behavior selection unit 633 stores the lack of the cognitive behavior in the cognitive behavior storage unit 623 (S504), and then calculates the confirmation index through the terminal B. Transition to processing.
  • the cognitive behavior selection unit 633 determines that the cognitive behavior is detected (S502: Yes)
  • the cognitive behavior selection unit 633 calculates the positional relationship between the cognitive behavior and the driving operation (S503).
  • the cognitive behavior selection unit 633 selects the cognitive behavior using the calculated positional relationship, and stores it in the cognitive behavior storage unit 623 (S510). Further, the cognitive behavior selection unit 633 calculates the reliability of the selected cognitive behavior and stores it in the cognitive behavior storage unit 623 (S511). Thereafter, the process proceeds to the confirmation index calculation process through the terminal B.
  • the driving evaluation apparatus acquires sensing information related to the state of the moving body, selects a driving operation, acquires sensing information related to the state of the driver of the moving body, and drives the driving operation.
  • the cognitive behavior of the person selects related cognitive behavior candidates from the selected cognitive behavior, and selects one or more cognitive behaviors as evaluation targets using the position of the car at the start and end times of each related cognitive behavior candidate group. To do.
  • the driving evaluation device calculates the driver's cognitive state index using the difference between the position of the moving body at the start time of the selected driving operation and the position of the moving body at the start / end time of the cognitive action.
  • the present embodiment it is possible to perform an evaluation taking into consideration the feasibility of whether or not operation stop / sudden return can be performed in the event of an emergency in each timing evaluation, and implementation effectiveness.
  • the lateral distance varies depending on the vehicle speed and the steering angle. In the sense that if the distance value is a positive value, that is, the confirmation in the lateral position close to the original lane, even if the driver overlooks another car, the operation can be stopped and the emergency return can be made.
  • Example 3 in addition to the evaluation of the cognitive behavior and the driving operation, the evaluation including the concept of safer confirmation behavior can be performed, so that a more complete safety evaluation can be realized.
  • the action storage unit 626 further stores information on the time when the driving operation or the cognitive action was performed, and used in combination with the evaluation using the time. As an evaluation, both may be performed simultaneously.
  • the evaluation in Example 3 can also consider the possibility of danger recovery such as the possibility of an operation interruption, but since the position change in the lane is used, the driving operation including the situation where the driving lane itself such as the intersection cannot be clearly defined and grasped ( There is a problem that it is difficult to apply to left and right turns. For this reason, it is desirable to implement Example 1 which can be used for evaluation of Example 2 such as lane change and can also evaluate right and left turns based on time elements.
  • the driving operation selection unit 632 and the cognitive behavior selection unit 633 further calculate the reliability of the driving operation or the cognitive behavior, and the behavior storage unit 626 adds to the information shown in FIG. Further, the configuration may be such that the reliability is stored.
  • the driving evaluation device may output a warning in real time when a dangerous state such as a lack of cognitive behavior is detected. Further, the driving evaluation device may be configured to output a result of statistically evaluating the driving of the driver by using the confirmation index calculated in each embodiment.
  • FIG. 20 is a diagram illustrating an example of an evaluation result in the fourth embodiment.
  • the value becomes higher in a range 7002.
  • the cognitive behavior after the driving operation the value increases in a range 7003.
  • a graph 7101 shows a driver who tends to perform cognitive behavior before driving operation
  • a graph 7102 tends to perform cognitive behavior much before and after driving operation. Indicates a driver.
  • the value of a graph is low, it turns out that the cognitive action with respect to driving operation is missing in many cases.
  • FIG. 21 is a diagram illustrating another example of the evaluation result in the fourth embodiment.
  • FIG. 21 shows a graph in which a plurality of drivers are clustered based on the evaluation results of driving operation and cognitive behavior.
  • a cluster 8100 is a cluster to which a driver who has a high risk of an accident belongs, which often lacks cognitive behavior or is performed after a driving operation. In this case, the driver 8201 can visually recognize that it does not belong to the cluster.
  • the driving evaluation system 4 in this embodiment includes a driving evaluation apparatus 700 and a sensor group 200.
  • the driving evaluation apparatus 700 includes a communication unit 110, a storage unit 120, and a control unit 730.
  • the control unit 730 is a processing unit that controls the overall processing of the driving evaluation apparatus 700.
  • the control unit 730 further includes an evaluation utilization unit 736 in addition to the sensor data acquisition unit 131, the driving operation selection unit 132, the cognitive behavior selection unit 133, the confirmation index calculation unit 134, and the evaluation output unit 135.
  • the evaluation utilization unit 736 detects a time-series change in the confirmation index, and outputs a warning when a predetermined condition is satisfied. For example, the evaluation utilization unit 736 outputs a warning when the confirmation index warns that the tendency to fall below a predetermined threshold exceeds a predetermined time.
  • the evaluation utilization unit 736 calculates the average and variance or deviation of the collected confirmation indexes after collecting the confirmation indexes for a certain period.
  • a warning is output.
  • the evaluation utilization unit 736 outputs a warning when it is specified that the average value of the driver confirmation index belongs to the cluster 8100 shown in FIG.
  • FIG. 22 is a flowchart illustrating an example of the evaluation output process according to the fourth embodiment.
  • the evaluation output process is executed after the end of the confirmation index calculation process shown in FIG. 12 or at an arbitrary timing.
  • the evaluation utilization unit 736 of the driving evaluation apparatus 700 detects a time-series change in the calculated confirmation index (S700). Then, the evaluation utilization unit 736 determines whether or not a negative tendency that the confirmation index falls below a predetermined threshold continues for a predetermined time or more in a time-series change (S701). If the evaluation utilization unit 736 does not determine that the negative tendency continues (S701: No), the process proceeds to step S710. On the other hand, the evaluation utilization part 736 outputs a warning, when it determines with the negative tendency continuing (S701: Yes) (S702).
  • the evaluation utilization unit 736 waits until a predetermined period elapses (S710: No). When the predetermined period has passed (S710: Yes), the evaluation utilization unit 736 calculates the average and variance or deviation of the calculated confirmation index (S711). Then, the evaluation utilization unit 736 determines whether or not the calculated average and variance or deviation correspond to a predetermined abnormal value (S712). The evaluation utilization part 736 complete
  • the driving evaluation apparatus holds the map data group for grasping the surrounding environment information with respect to the position of the moving body, and uses the calculated time difference confirmation index and the map data group to drive the driver. An action evaluation value is calculated. Thereby, a dangerous driver can be statistically specified based on the evaluation result.
  • the driving evaluation apparatus in the present embodiment uses the time difference confirmation index at a plurality of times to evaluate the dangerous driver or the dangerous driving state from the size of the index or the variation of the index. Thereby, dangerous drivers can be extracted based on comparison with other drivers.
  • the present invention may be implemented in various different forms other than the above-described embodiments.
  • the configuration in which the driving evaluation system 1 evaluates the relationship between the driving operation of the automobile and the cognitive behavior has been described.
  • the present invention is not limited to this, and driving of other mobile objects such as ships, railroads, and aircrafts is performed.
  • the structure which evaluates the relationship between operation and cognitive behavior may be sufficient.
  • the driving operation selection unit 132 uses a change in the positional relationship between the white line and the moving object by white line recognition using the front camera image of the moving object, a change in position movement using the roadside objects and distance measurement data around the moving object, and the like. Thus, a lane change may be detected. As a result, the driving operation selection unit 132 can directly grasp the change in the position of the moving body, and therefore estimates the lane change without particularly worrying about the difference in the magnitude of the sway and the steering in the lane change between the highway and the general road. I can do it. At this time, although strictly after the operation, the driving operation selection unit 132 may use the timing when the moving body starts exceeding the white line as the direct operation start timing.
  • the movement start timing is estimated from the moving body speed before and after the white line and used as the operation start timing, or the specified time before the white line is exceeded as the movement start timing and used as the operation start timing.
  • the steering / shaking time with a particularly large change may be regarded as the operation start timing.
  • the driving operation selection unit 132 may estimate the movement end and the operation end timing by the same method, and may estimate the operation start timing from the operation end timing.
  • the method of directly substituting the timing when the moving object begins to cross the white line with respect to the timing of the operation operation to be originally grasped is the same evaluation if the time difference between the two timings is considered to be an almost constant amount in the device reaction time after the operation operation Available as Further, the driving operation selection unit 132 can easily detect the timing based on an obvious external change such as exceeding the white line, and can utilize a part of the function of detecting the wobbling driving that has started to be mounted on the vehicle.
  • the configuration for acquiring the speed using the vehicle speed sensor has been described.
  • the present invention is not limited to this, and the speed is estimated from the position of the moving body such as GPS, the amount of depression of the accelerator, the brake, and the like. It may be a configuration.
  • the driving evaluation device 100 may be configured to further store map data as supplementary information for grasping the surrounding environment information with respect to the position of the vehicle.
  • Map data includes feature composition and usage area data around the moving body, road connection information such as road structure and intersections, arbitrary GIS data including road and intersection types, traffic volume, etc., weather such as weather temperature Information, real-time environmental information such as road congestion and accidents may be included.
  • the size of the cognitive action selection area shown in FIG. 5 may be appropriately adjusted according to the current driving environment and the like. For example, according to the traffic congestion situation around the moving body estimated from sensor data and map data, it takes time for the whole driving operation including confirmation if it is congested, so refer to the speed of the moving body if necessary It is also good for a wider range. Or adjusted according to the road environment obtained from the map information from the location point of the moving body at the start of operation (road size type, road width, crowded environment such as nearby commercial areas, dangerous point information such as near spot), etc. It is good also as a recognition action selection area
  • the number of selected areas is not limited to the example shown in FIG. 5, and two or four or more selected areas may be stored, or may not include the selected areas. .
  • the selection areas 1 to 3 do not necessarily have to be divided into three equal parts. For example, the time before the operation start may be subdivided and the time after the operation start may be integrated.
  • points are assigned to each time element classification in advance, and whether or not the points are given depending on whether or not each classification matches May be determined.
  • the cognitive behavior may be selected by calculating and comparing the sum of the points for each cognitive behavior candidate.
  • the point score of each classification of this summing point method is not fixed, but may be weighted to indicate priority or may be changed according to the number of corresponding cognitive behavior candidates.
  • the points are divided by the matching cognitive behaviors to make it a fraction of the number of candidates, or points with a weight that becomes smaller as the number of candidates increases, If there are other candidates, the change may be made such as by halving the score when there is no other candidate.
  • This point is not only adjusted by the number of other matching cognitive behavior candidates, but may be appropriately adjusted according to the surrounding situation and the vehicle situation at the time of the driving operation, similarly to the condition priority order.
  • the cognitive action selection areas shown in FIG. 5 may be classified finely, and weights may be assigned to the cognitive actions included in the respective selection areas, and selection judgment may be made preferentially from the weighted ones.
  • the region 1 shown in FIG. 5 is a time interval before the operation behavior, there is a possibility of cognitive behavior that bears the strategy before performing the driving operation behavior. For this reason, when it is desired to perform the evaluation based on the conscious cognitive behavior in the vicinity before the driving operation, a large weight is given to the cognitive behavior in the region 1.
  • the selection may be performed by reducing the weight of the cognitive behaviors included in the region 3 farther from the driving operation, or both of them may be selected. The same small weight may be used.
  • the region 2 becomes the cognitive behavior immediately before the driving operation
  • adjustment such as increasing the weight of the region 2 may be performed.
  • the remaining areas 1 and 3 may be given the same small weight, or the area 3 may be a weight smaller than the area 1 because the area 3 becomes the cognitive action during the driving operation.
  • the weight of the reciprocal value that is opposite to the magnitude of the time difference from the operation start time to the confirmation start time may be used as the weight of each cognitive action. good.
  • This weight may be appropriately adjusted according to the surrounding situation and the vehicle situation at the time of the driving operation similarly to the condition priority order and the classification point.
  • the cognitive behavior selection unit 133 may determine the selection priority order using the classification for each element, determine the weight in advance, and determine one, or does it match the classification of each element? You may determine by comparing the total value of the point given by no for every cognitive action.
  • each component of each part shown in the figure is functionally conceptual and does not necessarily need to be physically configured as shown.
  • the specific form of distribution / integration of each unit is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed / integrated in arbitrary units according to various loads or usage conditions. Can be configured.
  • various processing functions performed by each device may be executed entirely or arbitrarily on a CPU (or a microcomputer such as an MPU or MCU (Micro Controller Unit)).
  • various processing functions may be executed in whole or in any part on a program that is analyzed and executed by a CPU (or a microcomputer such as an MPU or MCU) or on hardware based on wired logic. Needless to say, it is good.
  • each component of each illustrated apparatus is functionally conceptual and does not necessarily need to be physically configured as illustrated.
  • the specific state of distribution / integration of each device is not limited to the one shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.
  • all or any part of each processing function performed in each processing unit can be realized by a CPU and a program analyzed and executed by the CPU, or can be realized as hardware by wired logic. . *
  • FIG. 23 is a diagram illustrating an example of a computer that executes a driving evaluation program.
  • the computer 300 includes a CPU 310, an HDD 320, and a RAM 340. These units 300 to 340 are connected via a bus 400. *
  • the HDD 320 includes a driving evaluation program 320a that performs the same functions as the sensor data acquisition unit 131, the driving operation selection unit 132, the cognitive behavior selection unit 133, the confirmation index calculation unit 134, and the evaluation output unit 135 of the driving evaluation device 100 described above. Stored in advance. Note that the driving evaluation program 320a may be appropriately separated. *
  • the HDD 320 stores various information.
  • the HDD 320 stores sensor data 320b, driving operation data 320c, and cognitive behavior data 320d stored in each storage unit illustrated in FIG. *
  • the CPU 310 reads the driving evaluation program 320a from the HDD 320, expands it in the RAM 340, and executes each process using the sensor data 320b, the driving operation data 320c, and the cognitive behavior data 320d stored in the HDD 320. That is, the driving evaluation program 320a performs the same operations as the sensor data acquisition unit 131, the driving operation selection unit 132, the cognitive behavior selection unit 133, the confirmation index calculation unit 134, and the evaluation output unit 135.
  • the program is stored in a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, or an IC card inserted into the computer 300. Then, the computer 300 may read and execute the program from these.
  • a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, or an IC card inserted into the computer 300.
  • the program is stored in “another computer (or server)” connected to the computer 300 via a public line, the Internet, a LAN, a WAN, or the like. Then, the computer 300 may read and execute the program from these.
  • Driving evaluation system 100 500, 600, 700 Driving evaluation device 110 Communication unit 120, 520, 620 Storage unit 121 Sensor data storage unit 122 Driving operation storage unit 123 Cognitive behavior storage unit 124 Judgment condition storage unit 125 Evaluation storage unit 130, 530, 630, 730 Control unit 131 Sensor data acquisition unit 132, 632 Driving operation selection unit 133, 633 Cognitive behavior selection unit 134, 634 Confirmation index calculation unit 135 Evaluation output unit 736 Evaluation utilization unit 200 Sensor group

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

【課題】効果的な運転評価を実現できる。 【解決手段】運転評価装置は、移動体の状態に関するセンシング情報を取得して、運転操作を選定する。運転評価装置は、運転者の状態に関するセンシング情報を取得して、運転者による認知行動を選定し、選定された認知行動から関連認知行動候補を選定する。また、運転評価装置は、各関連認知行動候補群の開始終了時刻及び持続時間、認知行動の開始終了時の詳細状態のいずれかを用いて1つ以上の認知行動を評価対象として選定する。さらに、運転評価装置は、選定した該運転操作の開始時刻と選定した該行動群の開始終了時刻との時間差を用いて、ドライバの確認状態指標を算出する。

Description

運転評価装置、運転評価方法及び運転評価システム
 本発明は、運転評価装置、運転評価方法及び運転評価システムに関する。
 自動車等の移動体の運転動作等と、運転者による確認動作等とに基づいて、運転を評価する技術が知られている。例えば、後方確認シーンが到来した場合に、運転者の予め定められた後方確認動作と、その後方確認動作の際の開眼状態を検出し、それらの検出結果に基づいて、当該後方確認シーンにおける運転者の運転挙動を採点評価する技術が知られている。また、運転操作情報と挙動情報とから運転動作履歴を生成し、周囲の車との距離に基づき危険で且つ運転動作に対する視線移動が正しかった運転動作を運転動作履歴から抽出する技術が知られている。さらに、ドライバがサイドミラーを視認した視認時間を計測して、視認時間と相対距離及び相対速度とに基づいて、自車両が他車両の車線へ車線変更したときのドライバの視認行動を評価する評価点を算出する技術も知られている。
特開2015-141432号公報 特開2009-288941号公報 特開2012-247871号公報
 しかし、上記技術においては、運転操作の近傍で複数回の認知行動が発生したことを検出した場合に、どの認知行動を採用するかを選定することが想定されていない。
 一つの側面では、効果的な運転評価を実現できる運転評価装置、運転評価方法及び運転評価システムを提供することを目的とする。
 一つの態様において、運転評価装置は、移動体の状態に関するセンシング情報を取得して、運転操作を選定する。運転評価装置は、運転者の状態に関するセンシング情報を取得して、運転者による認知行動を選定し、選定された認知行動から関連認知行動候補を選定する。また、運転評価装置は、各関連認知行動候補群の開始終了時刻及び持続時間、認知行動の開始終了時の詳細状態のいずれかを用いて1つ以上の認知行動を評価対象として選定する。さらに、運転評価装置は、選定した該運転操作の開始時刻と選定した該行動群の開始終了時刻との時間差を用いて、ドライバの確認状態指標を算出する。
 一つの態様によれば、効果的な運転評価を実現できる。
図1は、認知行動群と操作との関係の一例を示す図である。 図2は、ドライバ視線方向角から推定した認知行動候補群の一例を示す図である。 図3は、運転行動を特定するために用いられるセンサデータの一例を示す図である。 図4は、実施例1における運転評価システムの一例を示す図である。 図5は、実施例1における運転操作記憶部の一例を示す図である。 図6は、実施例1における認知行動記憶部の一例を示す図である。 図7は、実施例1における判定条件記憶部の一例を示す図である。 図8は、実施例1における運転操作と認知行動との関係の一例を示す図である。 図9は、実施例1における判定条件及び判定結果の一例を示す図である。 図10は、運転操作選定処理の一例を示すフローチャートである。 図11は、実施例1における認知行動選定処理の一例を示すフローチャートである。 図12は、確認指標算出処理の一例を示すフローチャートである。 図13は、実施例2における認知行動の一例を示す図である。 図14は、実施例2における判定条件記憶部の一例を示す図である。 図15は、実施例2における判定条件及び判定結果の一例を示す図である。 図16は、認知行動と車両位置との関係の一例を示す図である。 図17は、車両位置と視線方向との関係の一例を示す図である。 図18は、実施例3における行動記憶部の一例を示す図である。 図19は、実施例3における認知行動選定処理の一例を示すフローチャートである。 図20は、実施例4における評価結果の一例を示す図である。 図21は、実施例4における評価結果の別の一例を示す図である。 図22は、実施例4における評価出力処理の一例を示すフローチャートである。 図23は、運転評価プログラムを実行するコンピュータの一例を示す図である。
 以下に、本願の開示する運転評価装置、運転評価方法及び運転評価システムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、以下に示す各実施例は、矛盾を起こさない範囲で適宜組み合わせても良い。
 本実施例においては、例えば自動車等の移動体の操作と、自動車を操作するドライバによる安全を確認するための行動やウインカーなどの合図を出す行動とを検出し、操作と行動との関係を特定する構成について説明する。なお、以下において、ドライバによる安全を確認するための行動やウインカーなどの合図を出す行動とを合わせて、便宜上「認知行動」と表記する場合がある。
 まず、本実施例における認知行動と操作との関係について、図1を用いて説明する。図1は、認知行動群と操作との関係の一例を示す図である。図1において、例えば自動車が右側に車線変更する運転操作1001が検出された場合、例えば操作の開始5秒前1101から、操作開始の5秒後1201までの時間における認知行動が検出される。例えば、ドライバの左右への首振りや視線移動、ウインカーの操作などの5つの認知行動1901乃至1905が検出される。本実施例においては、かかる複数の認知行動のうちいずれかを取捨選択する構成について説明する。
 次に、認知行動の検出について、図2を用いて説明する。図2は、ドライバ視線方向角から推定した認知行動候補群の一例を示す図である。図2は、自動車等の運転中に検出される、ある時間帯におけるドライバの左右方向の視線2001(deg)及びドライバの上下方向の視線2002(deg)の時系列的な変化をプロットしたグラフを示す。図2
に示すように、検出されたドライバの視線は、例えば時刻2101から2102までの時間2103において特に大きく変化している。同様に、ドライバの視線は、例えば時刻2201から2202までの時間2203、及び時刻2301から2302までの時間2303においても特に大きく変化している。この場合、時間2103、2203及び2303において、ドライバが認知行動を実施したことが検出される。
 次に、運転操作の検出について、図3を用いて説明する。図3は、運転行動を特定するために用いられるセンサデータの一例を示す図である。図3のグラフ9000は、自動車等の走行中に検出される、自動車の速度(km/h)9001、アクセル開度(%)9002、操舵角(deg)9003及びブレーキ踏み込み量(%)9004の時系列的な変化を示す。また、図3のグラフ9100は、自動車等の走行中に検出される、自動車の横方向の重力の変化Gx(G)9101及び縦方向の重力の変化Gy(G)9202の時系列的な変化を示す。さらに、図3のグラフ9200は、自動車等の走行中に検出される、自動車の操舵角の変化(deg)9201と、操舵角の変化9201を積分した値(deg)9202の時系列的な変化を示す。運転操作についても、認知行動と同様に、大きな変化があったタイミングで、ドライバが運転操作を行ったことが検出される。
[機能ブロック]
 次に、本実施例における運転評価システムの一例について、図4を用いて説明する。図4は、実施例1における運転評価システムの一例を示す図である。図4に示すように、本実施例における運転評価システム1は、運転評価装置100と、センサ群200とを含む。運転評価装置100と、センサ群200とは、例えば図示しないCAN(Controller Area Network)などのネットワークNによって相互に通信可能に接続されている。運転
評価装置100及びセンサ群200は、例えば自動車などの移動体に実装される。
 センサ群200は、自動車等の移動体の情報と、ドライバ等の移動体を操作する者の認知行動を把握するための複数のセンサである。移動体の情報を取得するセンサ群200の一例としては、自動車の速度やエンジン回転数を取得する速度計やタコグラフがある。また、センサ群200の別の一例として、自動車の操舵角、アクセル・ブレーキペダル踏み込み量、シフト情報、ウインカー情報等を取得するECU(Electronic Control Unit
)等がある。さらに、センサ群200の別の一例として、自動車の走行位置を取得するGPS(Global Positioning System)測位センサや、自動車周辺を走行する車両の状況
や車線の位置などを取得する、映像や任意の電磁波を活用した測距センサ等を用いてもよい。また、センサ群200の別の一例として、自動車のヨーレートや揺れ等を取得する加速度センサ等、周辺の天候や路面状況を取得する気象センサや明度センサ等を用いてもよい。
 また、移動体を操作する者の認知行動を取得するセンサ群200の一例としては、ドライバの瞬き情報を含む視線情報、ドライバの頭向き情報等を取得するカメラ、ジャイロセンサや筋電位測定機器等のセンサ類、任意の電磁波を活用した測距デバイス等がある。
 次に、運転評価装置100は、通信部110と、記憶部120と、制御部130とを有する。通信部110は、センサ群200からデータを取得して、制御部130に出力する。また、通信部110は、図示しないユーザの端末等から受信したデータを制御部130に出力し、制御部130から出力されたデータを送信する。
 記憶部120は、例えば制御部130が実行するプログラムなどの各種データなどを記憶する。また、記憶部120は、センサデータ記憶部121、運転操作記憶部122、認知行動記憶部123、判定条件記憶部124及び評価記憶部125を有する。記憶部120は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュ
メモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
 センサデータ記憶部121は、センサ群200から取得された各種のセンサデータを記憶する。センサデータ記憶部121は、例えば、自動車の速度、操舵角、アクセル・ブレーキペダル踏み込み量、シフト情報、ウインカー情報、加速度等のセンサデータを記憶する。また、センサデータ記憶部121は、ドライバの視線情報、頭向き情報等も記憶する。なお、センサデータ記憶部121に記憶される情報は、後に説明するセンサデータ取得部131により入力される。
 次に、運転操作記憶部122は、センサデータに基づいて選定される運転操作に関する情報を記憶する。図5は、実施例1における運転操作記憶部の一例を示す図である。図5に示すように、運転操作記憶部122は、「操作種別」と、「操作開始時刻」及び「操作終了時刻」と、「操作近傍領域」と、「選定領域1」乃至「選定領域3」と、「信頼度」とを、「操作ID」に対応付けて記憶する。なお、運転操作記憶部122に記憶される情報は、後に説明する運転操作選定部132により入力される。
 図5において、「操作ID」は、選定された運転操作を一意に識別する識別子(Identifier)である。「操作種別」は、車線変更や右折、左折など、選定された操作の種別を記憶する。「操作開始時刻」及び「操作終了時刻」は、当該運転操作が開始された時刻と、運転操作が終了した時刻とをそれぞれ記憶する。「操作近傍領域」は、当該運転操作に近接した時間を記憶する。図5に示すように、操作近傍領域は、例えば操作の前後各5秒間などの時間である。
 「選定領域1」乃至「選定領域3」は、操作近傍領域に含まれる、操作開始時刻に近接する時間を細分化した認知行動選定領域を記憶する。なお、認知行動選定領域とは、認知行動候補を選定するのに用いた運転操作シーン近傍領域と同じかそれより小さい領域である。認知行動選定領域は、運転操作シーンの開始時刻を基準として設定する任意の時間幅の領域を意味しているが、運転操作に直結する認知行動を多く含む時間区間であることが好ましい。このため、認知行動選定領域が、少なくとも運転操作開始のしばらく前から運転操作半ばまでの時間を占めているように設定してもよい。例えば、運転操作選定部132は、図5に示すように、操作ID「操作1」の運転操作開始時刻の4秒前である「5694.5」秒から、当該運転操作の途中までの「5700.5」秒までの時間領域を認知行動選定領域とする。
 信頼度は、センサデータに基づいて検出された運転操作が、どの程度正確に推定されたかを示す信頼度を記憶する。信頼度の詳細については後に説明する。
 次に、認知行動記憶部123は、センサデータに基づいて選定される認知行動に関する情報を記憶する。図6は、実施例1における認知行動記憶部の一例を示す図である。図6に示すように、認知行動記憶部123は、「認知種別」と、「認知開始時刻」及び「認知終了時刻」と、「信頼度」とを、「認知ID」に対応付けて記憶する。なお、認知行動記憶部123に記憶される情報は、後に説明する認知行動選定部133により入力される。
 図6において、「認知ID」は、選定された認知行動を一意に識別する識別子である。「認知種別」は、各種ミラーの確認、左右目視確認などの確認行動や、ウインカー表示などの合図行動といった、選定された認知の種別を記憶する。「認知開始時刻」及び「認知終了時刻」は、当該認知行動が開始された時刻と、認知行動が終了した時刻とをそれぞれ記憶する。
 信頼度は、センサデータに基づいて検出された認知行動が、どの程度正確に推定されたかを示す信頼度を記憶する。信頼度の詳細については後に説明する。
 次に、判定条件記憶部124は、運転操作に対応して検出された複数の認知行動のうち、どれを取捨選択するかを判定する条件を記憶する。図7は、実施例1における判定条件記憶部の一例を示す図である。図7に示すように、判定条件記憶部124は、「対象項目」と、「範囲」とを、「条件ID」に対応付けて記憶する。なお、判定条件記憶部124に記憶される情報は、例えば図示しないユーザ端末から事前に入力される。
 図7において、「条件ID」は、判定条件を一意に識別する識別子である。「対象項目」及び「範囲」は、認知行動記憶部123に記憶される認知行動の条件を記憶する。図7において、例えば条件ID「条件1」は、認知行動記憶部123に記憶される認知行動の認知開始時刻が、運転操作記憶部122に記憶される「選定領域1」乃至「選定領域3」に含まれる場合に、判定条件を満たすことを記憶する。
 次に、評価記憶部125は、認知行動と運転操作との対応関係を評価した結果に関する情報を記憶する。評価記憶部125には、後に説明する確認指標算出部134による処理結果が記憶される。
 図4に戻って、制御部130は、運転評価装置100の全体的な処理を司る処理部である。制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。この制御部130は、センサデータ取得部131、運転操作選定部132、認知行動選定部133、確認指標算出部134及び評価出力部135を有する。なお、センサデータ取得部131、運転操作選定部132、認知行動選定部133、確認指標算出部134及び評価出力部135は、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例である。
 センサデータ取得部131は、通信部110を通じて、センサ群200からセンサデータを取得し、センサデータ記憶部121に記憶する。
 運転操作選定部132は、センサデータ記憶部121を参照して、運転操作を選定するとともに、選定された運転操作に対する信頼度を算出する。運転操作選定部132は、例えば、運転における認知・判断・操作の「認知・判断」と「操作」の関係を評価するため、双方を実施する可能性のある統制処理運転シーンを選定する。統制処理運転シーンには、例えば車線変更やバック走行などの走路変更、先行車の急減速や飛び出しなどへの衝突回避、右左折を含めたカーブ曲率が大きく変化する場所の走行、横風・路面不整などの環境変化への適応走行、などがある。すなわち、運転操作選定部132は、状況から求められる操作の種類や量が変化するシーンを選定する。
 具体的には、運転操作選定部132は、これらのシーンに対し、ヨーレートや位置、速度、加速度、等による車両状態の変化や、操舵角、アクセルペダルやブレーキペダル踏み込み量等の運転操作内容の変化に基づいて評価対象である運転操作行動の発生を検知する。また、運転操作選定部132は、自車周囲映像等から取得する路白線や路上・路側地物等と自車との位置関係の変化等を用いて、評価対象である運転操作行動の発生を検知してもよい。そして、運転操作選定部132は、該運転操作の発生タイミングとして、少なくとも操作開始時刻を推定する。さらに、運転操作選定部132は、運転操作の選定結果に対する信頼度を設定する。なお、運転操作選定部132は、図示しない地図データ群を用
いて、交差点への進入や道路状況などを特定してもよい。
 例えば、運転操作選定部132は、右左折発生把握の一例として、センサデータから得た移動体の位置と、地図データ群から得た道路接続情報や交差点情報とを用いて、現在位置が交差点に入ったと推定する。次に、運転操作選定部132は、センサデータから得た左右への大きな操舵の発生やヨーレートや加速度センサ等による左右揺れ、アクセルやブレーキなどの踏込量、車外映像の動きフロー変化のいずれかから右左折発生を推定する。
 また、運転操作選定部132は、車線変更発生の一例としては、同じくセンサデータから移動体の位置と、地図データ群から得られる車線状況、走行路形状などから、交差点ではない複数車線道路を走行中であることを把握し、センサデータから得たヨーレートや操舵角等によるカーブ推定や、横方向の移動量変化などで車線変更を推定する。
 例えば、運転操作選定部132は、図3に示すような操舵角の積分量9202から累積操舵量を算出し、プラス累積操舵量からマイナス累積操舵量、またはその逆へと大きく変化するシーンのペアを特定する。そして、運転操作選定部132は、特定されたペアの最初の操舵開始タイミングを、例えば右折操作開始のタイミングとして検知する。
 また、運転操作選定部132は、図5に示すように、運転操作を含む充分大きな時間範囲である運転操作近傍を対象として、認知行動候補を抽出する。運転操作近傍の範囲は、後述する認知行動の分類に用いる時刻要素の認知行動選定領域よりも大きく、認知行動が頻繁でないドライバでも複数の認知行動が取得できるよう、できるだけ多くの認知行動をとれるような大きさとしてもよい。
 さらに、運転操作選定部132は、選定された運転操作に関する信頼度を算出する。例えば、運転操作選定部132は、選定された運転操作に類似する運転操作が近傍に複数あった場合は、運転操作開始タイミングが正確に推定できない可能性を鑑みて、信頼度を低く設定してもよい。また、大規模交差点や信号交差点の右左折の場合は、頻繁に一時停止して操舵を動かす可能性が高く、厳密に走行路が曲がり始めたタイミングを把握するのが困難なため、運転操作選定部132がシーン開始タイミングを正確に見積もるのが困難である。あるいは、操作終了から操作開始タイミングを推定した場合に、操作開始から操作終了までの時間は一般的にシーンに依存して大きく変わるため、推定誤差が大きく発生する可能性がある。このような場合、運転操作選定部132は、選定された運転操作の信頼度が低いと判定しても良い。その他に、利用しているセンサの稼働状況、例えば雨天や夜間の測距性能の低下、悪路走行による加速度値の誤差発生可能性、補足衛星数低下によるGPS精度低下可能性等から、信頼度の低さを見積もって設定してもよい。
 また、運転操作選定部132は、運転操作の信頼度を低く見積もる代わりに、そのシーン自体を評価から除いて、運転操作行動データ選定部の選定シーンから除いても良い。一方、安定したドライバ評価を実現するためには、より多くのデータを用いる方が望ましいので、確認指標算出部134は、信頼度が所定の閾値以上である場合に、運転操作を採用するようにしてもよい。
 なお、あらかじめ取り貯めておいた各データを使って評価する場合など、評価したい運転シーンよりずっと後の時刻のデータも閲覧利用できる場合には、移動体の走行軌跡が明確に把握できるため、走行路全体の値を用いて、該当運転シーンを選定してもよい。例えば、走行路全体の揺れや操舵変化を把握したうえで、その揺れ及び操舵変化から大きく逸脱する揺れ及び操舵変化が発生した場合を、運転操作選定部132の選定する運転操作行動としても良い。
 次に、認知行動選定部133は、センサデータ記憶部121を参照して、認知行動を選定するとともに、選定された認知行動に対する信頼度を算出する。認知行動選定部133は、運転操作選定部132で選定した運転操作シーン及び運転操作開始近傍の認知行動群に対応する認知行動を特定する。認知行動選定部133は、時刻要素と認知状況要素、その他の要素のいずれか1つ以上を用いて認知行動を分類し、分類結果を用いて認知行動を1つ以上選定する。
 認知行動選定部133は、図2に示すように、センサデータから取得した左右のドライバ視線の変化に対し、特に左右に大きく値が変化している部分を、認知行動候補の区間として抽出する。認知行動選定部133は、認知行動候補を抽出する。
 なお、運転操作に関する認知行動は、運転操作の開始より若干遅れて発生する可能性もある。このため、認知行動選定部133は、図5に示すように、運転操作を含む充分大きな時間範囲である運転操作近傍を対象として、運転操作シーンの開始よりも充分後のセンサデータ群が取得できる状況で、認知行動の判定処理を実施してもよい。
 認知行動選定部133は、選定候補となる認知行動群を、センサデータのドライバ視線値や頭向き値等から、既存の手段を用いて推定算出する。例えば、認知行動選定部133は、運転操作シーンの開始前の移動体走行方向に向けた視線及び頭向きではなく、運転操作によって変化する自車走行方向に依存した方向を向いた新たな視線及び頭向きを、選定候補の確認候補群とする。すなわち、認知行動選定部133は、運転操作によって生じる新たな自車走路と他者が接触する可能性があるエリアに向けた方向、右への車線変更ならば右側方向を確認候補群とする。
 このとき、認知行動選定部133は、より厳密に接触可能性エリアを自車速度や道路形状などから計算して、そのエリアに応じて右側方向の角度を細かく決定して確認候補群を選定しても良いが、これに限られない。例えば、無意識での頭向きや視線移動も本評価対象にする場合には、必ずしもエリアと認知行動方向が正確に合致するとは限らないので、認知行動選定部133は、やや余裕のある角度を設定してもよい。例えば、右側に車線変更する際、車内のバックミラーを確認するために、左側情報に視線が向いたことを検出するような構成であってもよい。このように、どのようなシーンであっても状況把握を必要とする、接触可能性のあるエリア方向への確認を選定することで、シーンに依らない評価を実現することが出来る。なお、以下において、認知行動選定部133が、視線の方向を検出して用いる構成について説明するが、頭の向きの方向を同様に検出するような構成であってもよい。
 本実施例において、認知行動選定部133は、このように複数の認知行動候補を取得した後、各認知行動に含まれる時刻要素を調べることで、評価に用いる認知行動候補を1つ以上選定する。図8は、実施例1における運転操作と認知行動との関係の一例を示す図である。図8に示すように、認知行動選定部133は、運転操作選定部132が特定した、操作3001の操作近傍領域3020に含まれる認知1の認知行動3101乃至認知6の認知行動3106を抽出する。
 また、図8に示すように、操作近傍領域3020のうち、操作開始時刻t1に近接するt0からt2までの時間帯は「認知行動選定領域」として、「領域1」3011、「領域2」3012及び「領域3」3013に三分割される。なお、3201(+)は、「認知1」の認知行動開始時刻から、運転操作開始時刻までの時間差を示し、認知行動開始時刻が運転操作開始時刻より前であることを示す。同様に、3206(-)は、「認知6」の認知行動開始時刻から、運転操作開始時刻までの時間差を示し、認知行動開始時刻が運転操作開始時刻より後であることを示す。3202(+)乃至3205(-)についても同
様である。
 なお、図8に示す認知行動は一例であり、一つの運転操作シーンに対して異なる数の認知行動が検出され、又は認知行動が一つも検出されない場合もある。運転操作行動の近傍に認知行動が全く存在しない場合には、認知行動及び合図行動がゼロであるという情報と共に以後の本発明の各処理部を用いたタイミング評価を実施してもよく、タイミング評価の実施対象から該当運転操作行動シーンを除外してもよい。
 次に、認知行動選定部133は、認知行動候補群から選定した1つ以上の認知行動に対し、それぞれの認知行動に対する信頼度を算出する。例えば、認知行動選定部133は、選定時に用いた認知行動群の発生状況や、GPSにより特定された現在位置による周辺環境状況から、算出した認知行動の信頼度を算出する。認知行動選定部133は、例えば、複数の類似ポイント候補から選定した時や、該認知行動を算出した時のセンサデータ(視線データ等)の欠落状況が大きい場合は低い信頼度を設定する。また、認知行動選定部133は、該認知行動に関係する運転操作行動を実施した時の移動体の位置が大規模な交差点だった場合に低い信頼度を設定するような構成であってもよい。これらの場合に信頼度を低くしているのは、それぞれ、認知行動の選択自体に曖昧さが残ること、認知行動の選択の元となるデータ自体がそもそも信頼性が低いこと、認知行動が通常の前方視と混じる可能性が高く認知行動の選定が難しいこと、などの理由である。
 次に、抽出された各認知行動が、時刻要素の条件を満たすか否かを判定する。時刻要素は、例えば図7に示す判定条件記憶部124に記憶された条件1乃至6のいずれかである。認知行動選定部133は、各認知行動がこれらのどれに合致するのか、各認知行動の開始終了時刻と、運転操作選定部132が選定した運転操作シーンの開始時刻から判断する。
 図7に示すように、時刻要素は、認知行動の開始時刻及び終了時刻が認知行動選定領域及び運転操作時間のいずれに位置するのかという情報や、確認時間全体のどの程度が運転操作時間と重なっているのかなどである。すなわち、時刻要素は、それぞれの運転操作及び認知行動の時間分布状態を鑑みた、認知行動と運転操作行動との時間関係を示す内容である。運転操作選定部132は、このような時刻要素を使って認知行動を分類した上で認知行動を選定することで、複数の認知行動のいずれが、どのような意図をもって確認する行動なのか、ある程度推定することが可能になる。例えば、操作中に認知行動の大部分を実施している認知行動であれば、運転操作前の確認というより、操作中の状況把握の要素が高いことが推定される。また、運転操作前に認知行動全体が終了している認知行動であれば、操作前の周辺確認の要素が強いと推定される。
 認知行動選定部133は、時刻要素の分類を使って意味づけを行った認知行動群に対し、評価したい内容に合致した認知行動を選定する。この一例を図9を用いて説明する。図9は、実施例1における判定条件及び判定結果の一例を示す図である。図9は、どのような認知行動を評価の対象とするかを示す「確認対象」と、当該確認対象において用いられる「最優先条件」及び「一般条件」を示す。また、図9は、当該評価の対象における判定結果を、選択優先順位順に表示した「判定結果」をさらに示す。なお、図9の「条件1」乃至「条件6」は、判定条件記憶部124に記憶された各条件を示す。また、「A」及び「B」は、それぞれ選定判定例を示す。
 例えば、操作時の認知状況を特に評価したい場合には、操作のごく直前の無意識の認知行動を含めて選定することが好ましい。この場合、図9に示すように、分類を用いた最優先条件として「条件1」及び「条件3」を用い、それに次ぐ一般条件として「条件5」及び「条件6」とする選定判定例Aを用いて、認知行動群の利用優先順を決める。例えば、
認知行動を1つ選定したい場合には、認知行動選定部133は、図9の「判定結果」に示す判定結果の確認順に、実際に合致する確認候補が存在するかを判定する。そして、認知行動選定部133は、図9の判定結果に示す認知行動のうち、最も優先順位の高い認知行動を1つ選択する。この場合、図9に示すように、認知行動選定部133は、認知ID「認知3」の認知行動を選定する。なお、この場合において選択される認知行動は1つに限られず、認知行動選定部133が、優先順位の高い順に複数の認知行動を選択するような構成であってもよい。
 同様にして、例えば、操作前の周辺確認から意識的な認知行動を主に評価したい場合、図9に示す「操作前の認知状況」を確認対象とする選定判定例Bを用いて認知行動を選定する。この場合、例えば、認知行動を1つ選定したい場合には、認知行動選定部133は、認知ID「認知2」の認知行動を選択する。
 なお、図9に示す条件組合せは一例であって、図7で示す分類のいずれかを活用した条件であればよい。また、図9では最優先条件と一般条件の2段階の条件指定としたが、後に説明するように、複数の条件それぞれが互いに対する優先順を持つ条件であってもよく、また優先順が特にない条件群であってもよい。前者の方がよりきめ細やかな認知行動の意味づけによる認知行動選定を実現できるが、条件が複雑になり、意味づけが曖昧な分類の優先度の決定を誤る可能性がある場合は、後者の条件を用いてもよい。
 また、この時刻要素分類を用いた条件の優先順は、センサデータや地図データ群の地図情報から取得した該運転操作時の周辺状況や自車状況を用いて、適宜調整しても構わない。例えば、認知行動選定部133は、自車速度が高速で走行する場合、周辺に移動体が存在する場合、繁華街を走行する場合、狭路を走行する場合等の状況の場合には、運転操作開始により近い時間タイミングでの認知行動が好ましい。このため、このような場合には、認知行動として運転操作開始により近い認知行動候補が選定されるよう、条件優先順を調整する。例えば、図7の条件3がより優先するようなポイントとする。
 なお、認知行動選定部133は、確認対象を特定する際に、上記の時間要素分類に加えて、例えば信頼度が所定の閾値以上であるかに応じて優先順位を決定してもよい。
 また、認知行動選定部133は、運転操作近傍における確認行動に加えて、例えばウインカー操作などの合図行動も同様に選定する。例えば、認知行動選定部133は、運転操作選定部132が選定した運転操作の近傍において、センサデータからウインカー操作の稼働を把握し、ウインカー稼働を開始する指示タイミングである開始時刻と、稼働終了の指示タイミングである終了時刻を算出する。この場合において、認知行動選定部133は、複数回の稼働開始終了が、運転操作開始近傍のごく短い時間内で実施された場合には、複数回の合図行動のうち、例えば最後の合図行動を選定する。これは、合図行動が遅いほど事故誘発の可能性があり、かつ、事故は最悪の場合に起因することが多いことから評価対象を最も評価が悪化するものとして選定する一例である。
 この他に、ウインカー操作などの複数の合図行動から、1つの合図行動を選定する方法として、「時刻要素」と同じ要素の抽出及び分類を用いた選定判定を行って1つを選定してもよい。この選定方法は、操作開始に関連する合図行動かどうかを判断して選定するため、機械的に最後の合図行動を選択するよりも正確な評価を期待出来る。この他にも、1つの合図行動を選定するのではなく、複数の合図行動を選定してもよい。
 このようにして、認知行動選定部133は、運転操作選定部132が選定した運転操作行動及び該運転操作行動に対する信頼度に対応し、1つ以上の認知行動と、該認知行動の信頼度を算出する。
 次に、確認指標算出部134は、運転操作選定部132が選定した信頼度付きの運転操作と、認知行動選定部133が該運転操作行動近傍から選定した信頼度付きの1つ以上の認知行動とに対して、確認指標を算出する。確認指標算出部134は、例えば以下に示す式(1)を用いて、確認指標を算出する。なお、確認指標は、認知状態指標の一例である。
 開始タイミング差=運転操作開始時刻-認知行動開始時刻・・・式(1)
 例えば、図9に示す判定結果においては、「5698.5」秒に開始された運転操作に対して、「5695.4」秒に開始された「認知3」の認知行動が選定されている。この場合、開始タイミング差は、式(1)を用いて、以下のとおり算出される。
 開始タイミング差=5698.5-5695.4=4.1秒
 なお、運転操作選定部132における算出方法により、算出した操作開始時刻が本来の運転操作開始より若干ずれが生じるとあらかじめ分かっている場合には、上記式(1)の結果を補正して開始タイミング差としても良い。例えば、確認指標算出部134は、下記の式(2)を用いて、確認指標を算出する。
 補正後の開始タイミング差=A×開始タイミング差+B・・・式(2)
 なお、A及びBは、補正値パラメータの任意数値とする。
 例えば、評価の対象とする自動車が車線の白線を超えはじめたタイミングを操作開始タイミングとみなして利用する場合等に、利用するタイミングは、本来の操作開始タイミングより後の時刻となる。この場合、補正したタイミング差が補正前に比べて若干値が大きくなるような補正を実施する。このとき、該運転操作開始時の車両速度などを使って、補正値パラメータの補正量を調整してもよい。
 また、確認指標算出部134は、複数の確認行動が選定済の場合は、纏めて時刻差確認指標としてよい。確認指標算出部134は、例えば、単純に複数の確認行動の開始タイミング差の算術平均値、幾何平均値、最大値、最小値、中間値、分散や偏差、最大と最小の差などの任意の統計量のいずれかを時刻差確認指標にしてよい。最小値を算出することにより、より危険な確認行動に着目した評価を実施することが出来る。また、最大と最小の差、平均、分散、偏差などから、確認行動の頻繁さを加えた評価を実施することが出来る。危険ドライバの心理学特性として、落ち着きがない挙動も挙げられており、頻繁さが必ずしも慎重さに関わるわけではなく、危険にも関係する可能性があるため、より精密な評価を実施することが出来る。
 この他にも、確認指標算出部134は、それぞれの開始タイミング差を算出してから1つの時刻差確認指標に纏めるのではなく、1つの確認行動に纏めてから開始タイミング差を算出して時刻差確認指標としても構わない。すなわち、確認行動開始時刻を該統計量のいずれかを用いて1つに纏めておき、その値から開始タイミング差を算出する。平均値を使って開始タイミング差を補正する一例を式(3)に示す。以後の説明の便宜上、開始タイミング差は、運転操作行動より早く確認や合図を行ったほど、指標が大きくなるような値として算出するものとする。
 開始タイミング差=運転操作行動開始時刻-複数確認行動群の平均開始時刻
                               ・・・式(3)
 なお、確認指標算出部134が時刻差確認指標を算出する際、周辺他者に対する配慮の結果発生する合図行動と、ドライバ本人の挙動確認に関わる認知の結果発生する確認行動の指標は、時刻差確認指標と別に算出することが好ましいが、これに限られない。例えば、確認指標算出部134は、認知行動に、合図行動も加えた1つの指標にしても構わない。
 また、確認指標算出部134は、全ての確認行動や合図行動が欠落して取れない場合には、時刻差確認指標にも欠落を示す特別な値(「マイナス無限大」等)を設定しておく。
 確認指標算出部134は、さらに運転操作選定部132及び認知行動選定部133がそれぞれ算出した信頼度を使って、時刻差確認指標に対する総合的な信頼度を算出する。確認指標算出部134は、例えば、下記式(4)及び式(5)を用いる。
 評価指標信頼度=k×運転操作行動信頼度×f(確認行動信頼度)・・・式(4)
 評価指標信頼度=k×運転操作行動信頼度+t×f(確認行動信頼度)・・・式(5)
 なお、上記式(4)及び式(5)において、k、tは任意のパラメータである。k及びtは固定値であってもよいし、計算に利用した信頼度数の違いの影響を吸収するために、該信頼度数を使ったパラメータであってもよい。また、f (確認行動信頼度) は、複数の確認行動の信頼度に対して算出する任意の統計量を意味する。この統計量には、単純な信頼度の総和、総積なども含まれるものとする。
 このように、確認指標算出部134が算出する時刻差確認指標は、運転者の運転操作と、該運転操作近傍での認知行動を、走行データ内の多数の行動群の中から適切に選定取得し、時刻差確認指標として時間差タイミングを算出する。これにより、動作(操作)と認知判断(確認及び合図)との働きバランスに着目して、ドライバを評価できる。また、同様に時刻差確認指標は、運転操作のシーン環境状況と、ドライバの認知行動状況との双方を鑑みながら、算出する時刻差確認指標値が信頼のおける値であるか否かの手がかりを評価指標信頼度として算出する。このため、決まった場所及び決まった運転シーンに限らず、様々な運転シーンの混ざる一般走行でドライバを評価できる。
[処理の流れ]
 次に、本実施例における運転評価システム1による運転評価処理について、図10乃至図12を用いて説明する。図10は、運転操作選定処理の一例を示すフローチャートである。図10に示すように、運転評価装置100のセンサデータ取得部131は、所定の運転シーンが発生するまで待機する(S100:No)。センサデータ取得部131は、所定の運転シーンが発生したと判定した場合(S101:Yes)、所定の運転シーンに対応するセンサデータをセンサデータ記憶部121に記憶する(S101)。
 次に、運転操作選定部132は、センサデータ記憶部121を参照し、所定の運転操作に該当するセンサデータを検出したか否かを判定する(S102)。所定の運転操作に該当するセンサデータが検出されたと判定されない場合(S102:No)、センサデータ取得部131はS101に戻って処理を繰り返す。
 運転操作選定部132は、所定の運転操作に該当するセンサデータが検出されたと判定した場合(S102:Yes)、センサデータから運転操作を選定し、運転操作記憶部122に記憶する(S103)。また、運転操作選定部132は、選定された運転操作の信頼度を算出し、運転操作記憶部122に記憶する(S104)。その後、端子Aを通じて
、認知行動選定処理に移行する。
 次に、認知行動選定処理について説明する。図11は、実施例1における認知行動選定処理の一例を示すフローチャートである。図11に示すように、運転操作選定部132は、選定された運転操作の近傍領域を設定する(S200)。次に、認知行動選定部133は、センサデータ記憶部121を参照して、設定された近傍領域内の認知行動候補群を取得する(S201)。
 次に、認知行動選定部133は、近傍領域内で認知行動を検出したか否かを判定する(S202)。認知行動が検出されたと判定しない場合(S202:No)、認知行動選定部133は、認知行動が欠落していることを認知行動記憶部123に記憶し(S204)、その後端子Bを通じて確認指標算出処理に移行する。
 認知行動選定部133は、認知行動が検出されたと判定した場合(S202:Yes)、認知行動の時刻要素を算出する(S203)。次に、認知行動選定部133は、算出された時刻要素を用いて認知行動を選択し、認知行動記憶部123に記憶する(S210)。また、認知行動選定部133は、選定された認知行動の信頼度を算出し、認知行動記憶部123に記憶する(S211)。その後、端子Bを通じて、確認指標算出処理に移行する。
 次に、認知行動選定処理について説明する。図12は、確認指標算出処理の一例を示すフローチャートである。図12に示すように、確認指標算出部134は、認知行動記憶部123を参照して、運転操作に対応する認知行動が設定されているか否かを判定する(S300)。確認指標算出部134は、認知行動が設定されたと判定しない場合(S300:No)、処理を終了する。
 一報、確認指標算出部134は、認知行動が設定されたと判定した場合(S300:Yes)、認知行動と運転操作との確認指標を算出し、評価記憶部125に記憶する(S301)。次に、確認指標算出部134は、選定された認知行動の信頼度と運転操作の信頼度とを用いて、確認指標の信頼度を算出し、評価記憶部125に記憶する(S302)。その後、処理を終了する。
[効果]
 以上説明したように、本実施例における運転評価装置は、移動体の状態に関するセンシング情報を取得して、運転操作を選定するとともに、移動体の運転者の状態に関するセンシング情報を取得して、運転者による認知行動を選定する。また、運転評価装置は、選定された認知行動から関連認知行動候補を選定すると共に、各関連認知行動候補群の開始終了時刻及び持続時間、認知行動の開始終了時の詳細状態のいずれかを用いて1つ以上の認知行動を評価対象として選定する。さらに、運転評価装置は、選定された運転操作の開始時刻と選定した行動群の開始終了時刻との時間差を用いて、ドライバの認知状態指標を算出する。これにより、効果的な運転評価を実現できる。
 また、本実施例における運転評価装置は、運転操作行動の信頼度を算出し、認知行動の信頼度を算出し、確認行動群の信頼度を、運転操作行動の信頼度と、認知行動の信頼度とを用いて算出する。これにより、信頼性の低いデータを判定対象から除外することができる。
 実施例1においては、認知行動選定部133が、時刻要素を用いて認知行動を分類する構成について説明したが、実施の形態はこれに限られない。本実施例においては、時刻要
素に加えて、他の確認状況要素を用いて、認知行動を分類する構成について説明する。
 まず、実施例2において対象とする認知行動について、図13を用いて説明する。図13は、実施例2における認知行動の一例を示す図である。図13に示す認知行動候補例1乃至12は、図8に示す認知行動と同様に、認知行動の開始時刻に関する情報4001及び終了時刻に関する情報4011を有する。なお、図13に示す認知行動候補例1乃至12は、比較して図示するために、同じ確認開始時刻に発生したものとみなしている。
 これに加えて、図13に示す認知行動候補例2及び3は、さらにドライバの瞬目(まばたき)を行ったタイミング4201及び4202を含む。また、図13の矢印4101は、認知行動を行った時間の最低持続時間を示す。
 図13に示すように、認知行動候補例の1、2、3、5、6、7、9、10、11の開始及び終了時付近には瞬目が発生している。また、候補例1~4と5~8、9~12はそれぞれ認知行動の持続時間が同じであり、1~4が最も長く確認し、続いて5~8が長く確認している例である。
 本実施例における瞬目は、一瞬の短時間発生するPhasic(一過性)のまばたきを意味する。他に長時間での瞬目発生であるtonic(持続性)瞬目もあるが、本実施例においては、Phasic瞬目を対象とする。
 瞬目発生は情報処理と意思決定の2つの段階に関係して発生すると言われている。図13に示す候補例2のように、認知行動開始時に瞬目4201が発生する場合は、ドライバによる認知行動が複雑な情報処理を内包すると見做し、該認知行動で複雑な意思決定を行っているとして認知行動選定判断に利用される。
 同様に、図13に示す候補例3のように、認知行動終了時に瞬目4202が発生する場合は、関心の高い視認行動の終了を意味しているとみなすことができる。本実施例において、このような瞬目は、より運転操作に有用な認知行動であるとして認知行動選定判断に利用される。
 また、最低持続時間4101は、ドライバが単に視線を該当箇所に向けるだけではなく、該箇所に関する視認を行うだけの十分な時間を該認知行動候補が保持しているか否かを判断するための条件である。最低持続時間は、一般的な視線挙動数値を用いた任意の値として設定して良い。例えば、意識的な視線挙動である固視(Fixation)の最低停留時間や、視認対象を大きく変化させる時の視線挙動であるサッカード(Saccade)が連続発生する際に必要な休止時間や、ドライバが視覚によって認知した情報が脳中枢に伝達される知覚認知までの時間、などのいずれかを利用してあらかじめ任意の値を決定しておく。
 以下、実施例2においては、実施例1における図7に示すような条件に加えて、例えば瞬目の有無や、認知行動の持続時間に基づいて、認知行動を分類する構成について説明する。
[機能ブロック]
 まず、本実施例における運転評価システム2の一例について説明する。なお、以下の実施例において、先に説明した図面に示す部位と同一の部位には同一の符号を付し、重複する説明は省略する。また、運転評価システム2については図示を省略する。
 本実施例における運転評価システム2は、運転評価装置500と、センサ群200とを
含む。運転評価装置500は、通信部110と、記憶部520と、制御部530とを有する。
 記憶部520は、例えば制御部530が実行するプログラムなどの各種データなどを記憶する。また、記憶部520は、センサデータ記憶部121、運転操作記憶部122、認知行動記憶部523、判定条件記憶部524及び評価記憶部125を有する。
 認知行動記憶部523は、センサデータに基づいて選定される認知行動に関する情報を記憶する。認知行動記憶部523は、図6に示す実施例1における認知行動記憶部123が記憶する情報に加えて、さらにドライバが瞬目を行ったタイミングを合わせて記憶する。
 次に、判定条件記憶部524は、運転操作に対応して検出された複数の認知行動のうち、どれを取捨選択するかを判定する条件を記憶する。図14は、実施例2における判定条件記憶部の一例を示す図である。図14に示すように、判定条件記憶部524は、実施例1における判定条件記憶部124と同様に、「対象項目」と、「範囲」とを、「条件ID」に対応付けて記憶する。
 図14において、「対象項目」及び「範囲」は、判定条件記憶部124と同様に、認知行動の条件を記憶する。判定条件記憶部524は、「条件1」及び「条件2」に示すように、例えば、「範囲」に示すタイミングで「瞬目を検出」したか否かを判定条件として記憶する。また、判定条件記憶部524は、「条件3」に示すように、例えば、認知行動の持続時間が「最低持続時間以上」であるか否かを判定条件として記憶する。なお、「最低持続時間」は、例えば事前に図示しないユーザの端末から入力され、判定条件記憶部124に記憶されるような構成であってもよい。また、判定条件記憶部524が、瞬目や最低持続時間に関する判定条件に加えて、実施例1における時刻状況に関する判定条件をさらに含み、時刻要素と確認状況要素との両方を判定条件として記憶してもよい。
 次に、制御部530は、運転評価装置500の全体的な処理を司る処理部である。この制御部530は、センサデータ取得部131、運転操作選定部132、認知行動選定部533、確認指標算出部534及び評価出力部135を有する。
 認知行動選定部533は、センサデータ記憶部121を参照して、認知行動を選定するとともに、選定された認知行動に対する信頼度を算出する。認知行動選定部533は、認知行動選定部133と同様に、センサデータの値が大きく変化している部分に加えて、瞬目が発生した箇所も、認知行動候補の区間として抽出する。
 実施例2における認知行動選定部533は、複数の認知行動候補を取得した後、各認知行動に含まれる時刻要素に加えて、確認状況要素を調べることで、評価に用いる認知行動候補を1つ以上選定する。認知行動選定部533による判定結果の一例を図15を用いて説明する。図15は、実施例2における判定条件及び判定結果の一例を示す図である。なお、図15の「条件1」乃至「条件4」は、判定条件記憶部524に記憶された各条件を示す。また、「C」乃至「E」は、それぞれ選定判定例を示す。なお、判定条件記憶部524は、判定条件として、「最優先条件」と「一般条件」の中間に、さらに「優先条件」を記憶する。
 選定判定例CとDは、瞬目による情報処理及び意思決定に関する確認状況要素に関する条件1及び2を持ち、漫然視ではなく確信的な確認で評価する場合の認知行動を選定しようとしている一例である。認知行動選定部533は、例えば選定判定例Cに基づき、最も優先順位の高い認知行動として、図13に示す候補例1乃至12のうち、「候補例3」を
選定する。
 また、選定判定例Dは、開始時の瞬目を一般条件として含まない点が、選定判定例Cと異なる。さらに、例えば、センサデータの視線算出の時間解像度が低く、瞬目判断情報が取れないことが判明している場合や、視線検出のエラーによって注視位置が把握できない場合と瞬目によって注視位置が取れない場合の分別判断が困難な場合等も考えられる。このような場合には、瞬目に関する判定条件を含まない選定判定例Eを用いてもよい。なお、選定判定例C乃至Eのいずれかと、選定判定例A又はBとを組み合わせて用いてもよい。
 なお、図15に示す3つの条件は、いずれも最優先条件として「条件3」を採用している。このため、図13に示す候補例1乃至12のうち、持続時間が最低持続時間に満たない「候補例9」乃至「候補例12」は、いずれの条件でも優先順位が低くなっている。
 このようにして、認知行動選定部533は、運転操作選定部132が選定した運転操作行動及び該運転操作行動に対する信頼度に対応し、1つ以上の認知行動と、該認知行動の信頼度を算出する。
 なお、実施例2における判定条件は、図14に示す条件に限られない。例えば、判定条件として、確認視線の方向を用いても良く、運転操作によって移動体が変更する進路方向近傍を向いた視線である、という分類を追加してもよい。これにより、運転操作によって生じる危険を避けるために必要な重要な認知行動に関する評価を実現するための認知行動候補群の選定を行うことができる。
 また、視線や頭振りの変化の大きさを使った、確認の大きさに関する分類を行っても良い。例えば、あらかじめ一般的な車両の任意の車両部品(左右ミラー、バックミラーなど)を視認する際の視線移動を測定しておき、それを閾値に使うことで、該車両部品を視認する認知行動を優先的に選定することができる。
 また、視線と頭向きの双方のデータが利用できる際には、それぞれの値自身に対する要素分類を行う他に、移動と頭向きの移動変化の開始、および終了順を使って認知行動を分類して良い。例えば、頭向きが視線よりも先に移動を開始するか、頭向きが視線よりも後に移動を終了するか、等の分類である。この分類を利用することで、能動的な視認を示す可能性のある視線が先に移動を開始する場合を把握することができる。
[効果]
 以上説明したように、本実施例における運転評価装置は、認知行動時の瞬目発生状況をさらに用いて該認知行動候補群から1つ以上の認知行動を選定する。これにより、瞬目による情報処理及び意思決定に関する確認状況要素を反映して、運転を評価することができる。
 また、本実施例における運転評価装置は、確認方向が運転操作行動における変更先進路方向をさらに用いて該確認行動候補群から1つ以上の認知行動を選定する。これにより、各種ミラーなどの車両部品を視認する認知行動を優先的に選定することができる。
 さらに、本実施例における運転評価装置は、認知行動の開始時または終了時に、視線移動が頭向きよりも早く移動を開始するか否かを用いて該確認行動候補群から1つ以上の認知行動を選定する。これにより、能動的な視認を示す可能性のある視線が先に移動を開始する場合を把握することができる。
 実施例1及び2においては、認知行動と運転操作との時間差を用いて運転行動を評価する構成について説明したが、実施の形態はこれに限られない。本実施例においては、認知行動時及び運転操作時における車両の位置の差を用いて、認知行動を分類する構成について説明する。
 図16は、認知行動と車両位置との関係の一例を示す図である。図16は、車線6001における位置6101を走行中の自動車6100が、白線6000を横切って右側に車線変更する例を示す。図16に示すように、自動車6100は位置6102において運転操作を開始し、位置6105に到達するまで運転操作を継続する。また、自動車6100のドライバは、位置6101、6103及び6104において認知行動を行うものとする。
 なお、自動車6100の位置は、例えば、GPSによる車両位置の測位と車両のジャイロセンサなどから推定する車両向きを組み合わせて推定算出したり、自動車6100の前方中央に設置した車載カメラ映像から推定算出したりすることで取得できる。より高精度な位置推定が可能な後者の場合、自動車6100の位置を特定するための基準は、比較的計算がしやすいと思われるカメラ設定位置に近い自車の前部中央とするが、全評価を通して統一した定義であれば、自動車6100の重心(自車中心)、ドライバの想定位置など、他の部位を使っても算出しても構わない。また、後に示すように、距離そのものではなく、車線幅や自動車の車幅等に基づいて距離を正規化した数値を用いてもよい。
 この場合において、車線内における自動車6100の横方向の位置は、6201から6205まで右側に移動し、白線6000を横位置の基準となる原点とした場合の自動車6100から原点までの距離は、6301から6305のように変化していく。なお、以下の説明においては、運転操作である右車線変更を行う前の左側の車線での位置がプラス、移動後の車線での位置がマイナスになるように、横位置を算出している。本実施例においては、実施例1又は2における時刻の代わりに、この基準からの位置の差を用いて、運転を評価する構成について説明する。
 この場合において、自動車6100は、運転操作である右車線変更により、他の自動車が存在する可能性のある空間(右側の車線)に移動することとなる。図17は、車両位置と視線方向との関係の一例を示す図である。図17に示すように、自動車6100は、他の自動車が存在する可能性のある空間6501に移動する。この場合、交差空間6503において、自動車6100が他の自動車と衝突する可能性が生じる。
 そこで、実施例3においては、自動車6100の視線方向6601及び6602に着目し、視線方向が交差空間6503と合致しているか否かに基づいて運転を評価する例について説明する。
[機能ブロック]
 まず、本実施例における運転評価システム3の一例について説明する。なお、以下の実施例において、先に説明した図面に示す部位と同一の部位には同一の符号を付し、重複する説明は省略する。また、運転評価システム3については図示を省略する。
 本実施例における運転評価システム3は、運転評価装置600と、センサ群200とを含む。運転評価装置600は、通信部110と、記憶部620と、制御部630とを有する。
 記憶部620は、例えば制御部630が実行するプログラムなどの各種データなどを記
憶する。また、記憶部620は、センサデータ記憶部121、運転操作記憶部622、認知行動記憶部623、判定条件記憶部624、評価記憶部125及び行動記憶部626を有する。
 運転操作記憶部622は、実施例1における運転操作記憶部122と同様に、センサデータに基づいて選定される運転操作に関する情報を記憶する。ただし、運転操作記憶部622は、「操作ID」に対応付けて「自動車の位置」を記憶する点が運転操作記憶部122とは異なる。
 次に、認知行動記憶部623は、認知行動記憶部123と同様に、センサデータに基づいて選定される認知行動に関する情報を記憶する。ただし、認知行動記憶部623は、「認知ID」に対応付けて、認知行動を行った時点における自動車の位置を記憶する点が、認知行動記憶部123とは異なる。
 次に、行動記憶部626は、運転操作又は認知行動を行った時点における自動車の位置を記憶する。図18は、実施例3における行動記憶部の一例を示す図である。図18に示すように、行動記憶部626は、「認知・操作種別」と、「横距離値」と、「車線内位置」と、「縦距離値」と、「R距離値」と、「R符号」と、「正規化R距離」と、「信頼度」とを、「行動ID」に対応付けて記憶する。なお、図18においては、図16に示す白線に代えて、「行動2」に示す、自動車が車線変更操作を開始した時点における自動車の位置を基準としている。運転操作時の位置そのものを原点とすることで、各認知行動での位置(各距離値等)を、そのまま実施例1における確認指標算出部134で算出する時刻差指標の代用として利用でき、後に説明する確認指標算出部634の処理を低減できる。
 図18において、「行動ID」は、選定された運転操作を一意に識別する識別子である。「認知・操作種別」は、選定された運転操作又は認知行動の種別を記憶する。「横距離値」は、当該運転操作又は認知行動を行った時点における車両の位置を示す。図18においては、自動車が車線変更操作を開始した時点における自動車の位置を基準とするため、運転操作開始時点にあたる「行動2」において横距離が「0」mとなる。上で述べたように、運転操作開始前においては、横距離値がプラスとなり、運転操作開始後は横距離値がマイナスとなる。
 図18において、「車線内位置」は、走行車線幅で距離値を正規化した、車線内における自動車の位置を示す。なお、車線幅は実際の走行車線の幅を用いてもよく、一般道、幹線道路、高速道路、等の一般的な道路での車線幅サイズをあらかじめ決めておき、走行している道路種別で選択利用しても良い。図18においては、車線幅は高速道路として決めておいた車線幅3.5mとし、当該車線幅を用いて算出された車線内位置を示す。
 図18において、「縦距離値」は、「行動2」における位置(以下において、「原点」と表記する場合がある。)を基準とした、自動車の縦位置の距離を示す。上で述べた横距離値と同様に、運転操作開始前においては、縦距離値がプラスとなり、運転操作開始後は縦距離値がマイナスとなる。「R距離値」は、横距離値及び縦距離値から求めた原点からの距離、すなわち、「行動2」における位置との距離を示す。このとき、R距離値に符号を与えるために、横距離または縦距離のいずれかが負の場合は負とするルールを導入している。「R符号」は、R距離値の符号がプラスであるかマイナスであるかを示す。なお、原点である「行動2」の位置においては、R符号は「なし」となる。R距離値は、例えば以下に示す式(6)により算出される。縦方向の位置も考慮して走行距離Rを使った値を用いることで、走行ルート内での走行タイミングを考慮した評価になり、この結果、より沢山(長く)走行してから確認した、等のドライバの体感的な実施タイミング評価を実現できる。なお、その際に車速を考慮して正規化すれば、疑似的に時刻と同じような値とす
ることも可能である。
Figure JPOXMLDOC01-appb-M000001
 図18において、「正規化R距離値」は、R距離値をその時の車速(代表車速)で正規化した距離を示す。なお、代表車速は、例えばR距離を求める始点又は終点となる原点での速度、同じく始点又は終点となる「行動1」、「行動3」、「行動4」又は「行動5」における位置での速度とを用いてもよく、双方の速度を用いて代表車速を算出してもよい。例えば、双方の速度のうち低速の方を選択したり、原点の速度を選択したり、あるいは、双方の平均速度を代表車速としたりしてもよい。図18においては、代表車速として、時速80km、すなわち、秒速22.222mを利用する例を示した。
 正規化R距離=R距離値÷代表車速・・・式(7)
 次に、制御部630は、運転評価装置600の全体的な処理を司る処理部である。この制御部630は、センサデータ取得部131、運転操作選定部632、認知行動選定部633、確認指標算出部634及び評価出力部135を有する。
 運転操作選定部632は、センサデータ記憶部121を参照して、運転操作を選定する。この際、運転操作選定部632は、センサデータ記憶部121を参照して、選定された運転操作が実施された時点における自動車の位置を特定する。
 認知行動選定部633は、センサデータ記憶部121を参照して、認知行動を選定する。この際、認知行動選定部633は、センサデータ記憶部121を参照して、選定された認知行動が実施された時点における自動車の位置を特定する。
 次に、確認指標算出部634は、運転操作と1つ以上の認知行動とに対して、確認指標を算出する。確認指標算出部634は、例えば以下に示す式(8)を用いて、確認指標を算出する。なお、確認指標は、認知状態指標の一例である。
 開始位置差=運転操作開始時点における位置-認知行動開始時点における位置
                                ・・・式(8)
[処理の流れ]
 次に、本実施例における運転評価システム3による評価出力処理について、図19を用いて説明する。図19は、実施例3における認知行動選定処理の一例を示すフローチャートである。なお、運転操作選定処理及び確認指標算出処理については実施例1と同様であるため、詳細な説明は省略する。
 図19に示すように、運転操作選定部632は、選定された運転操作の近傍領域を設定する(S500)。次に、認知行動選定部633は、センサデータ記憶部621を参照して、設定された近傍領域内の認知行動候補群を取得する(S501)。
 次に、認知行動選定部633は、近傍領域内で認知行動を検出したか否かを判定する(S502)。認知行動が検出されたと判定しない場合(S502:No)、認知行動選定部633は、認知行動が欠落していることを認知行動記憶部623に記憶し(S504)、その後端子Bを通じて確認指標算出処理に移行する。
 認知行動選定部633は、認知行動が検出されたと判定した場合(S502:Yes)、認知行動と運転操作との位置関係を算出する(S503)。次に、認知行動選定部633は、算出された位置関係を用いて認知行動を選択し、認知行動記憶部623に記憶する(S510)。また、認知行動選定部633は、選定された認知行動の信頼度を算出し、認知行動記憶部623に記憶する(S511)。その後、端子Bを通じて、確認指標算出処理に移行する。
[効果]
 以上説明したように、本実施例における運転評価装置は、移動体の状態に関するセンシング情報を取得して、運転操作を選定するとともに、移動体の運転者の状態に関するセンシング情報を取得して、運転者による認知行動を選定する。また、運転評価装置は、選定された認知行動から関連認知行動候補を選定すると共に、各関連認知行動候補群の開始終了時刻における自動車の位置を用いて1つ以上の認知行動を評価対象として選定する。さらに、運転評価装置は、選定された運転操作の開始時刻における移動体の位置と認知行動の開始終了時刻における移動体の位置との差を用いて、ドライバの認知状態指標を算出する。これにより、特に操作後の認知行動実施において、実施時間差を用いた評価に比べて、どの地点で実施したのかという概念を導入することができる。このため、本実施例によれば、各タイミング評価に万が一の場合の操作中止・急復帰を実施できるか否かの実現可能性、実施有効性も加味した評価が可能になる。すなわち、単純に運転操作より早い時刻に確認した場合同士であっても、車速や操舵角度によっては横距離が異なることになる。距離値がプラス値である場合、すなわち元の車線に近い横位置での確認である程、運転者が他の自動車を見落とす等の万が一の場合でも操作中止や急復帰も出来るという意味で、より安全な認知行動であるということができる。その際に、横距離値そのものではなく、さらに車線幅で正規化した車線内位置を使うことで、自動車が隣車線へ進入しても、該車線の車線幅が広ければ衝突する可能性が少なくなることも加味した評価が可能になる。このように、実施例3では、認知行動と運転操作との評価に加えて、より安全な確認行動という概念を含めた評価をすることができるため、より充実した安全評価が実現できる。
 なお、実施例1のように時刻を用いた値の評価の代用として使う代わりに、行動記憶部626が運転操作又は認知行動を行った時刻の情報をさらに記憶し、時刻を用いた評価と併用した評価として同時に両方を実施してもよい。実施例3における評価は、操作中断可能性などの危険リカバリ可能性も考慮できるが、車線内の位置変化を使うため、交差点内などの走行車線自体を明確に定義把握できない状況を含む運転操作(右左折等)に適用することが難しいという課題がある。このため、車線変更等の実施例2の評価に併用して、時刻要素に基づいて右左折も評価できる実施例1を実施することが望ましい。
 また、実施例1及び2と同様に、運転操作選定部632及び認知行動選定部633が、さらに運転操作又は認知行動の信頼度を算出し、行動記憶部626が、図18に示す情報に加えて、さらに信頼度を記憶するような構成であってもよい。
 上で述べた各実施例に加えて、運転評価装置が、認知行動の欠落など危険な状態を検出した場合に、リアルタイムで警告を出力するような構成であってもよい。また、運転評価装置が、各実施例において算出された確認指標を利用して、ドライバの運転を統計的に評価した結果を出力するような構成であってもよい。
 実施例4において出力される評価結果について、図20及び図21を用いて説明する。図20は、実施例4における評価結果の一例を示す図である。図20において、運転操作を行ったタイミング7001に対し、運転操作よりも前に認知行動を行う傾向にある場合は範囲7002において値が高くなる。一方、運転操作の後に認知行動を行う傾向にある
場合は、範囲7003において値が高くなる。例えば、グラフ7101は、運転操作よりも前に多く認知行動を行う傾向にあるドライバを示すものであり、グラフ7102は、運転操作前においても、運転操作後においても多く認知行動を行う傾向にあるドライバを示すものである。また、グラフの値が低いと、運転操作に対する認知行動が欠落する場合が多いことがわかる。
 次に、図21は、実施例4における評価結果の別の一例を示す図である。図21は、運転操作と認知行動との評価結果に基づいて、複数のドライバをクラスタリングしたグラフを示す。図21において、例えばクラスタ8100は、認知行動が欠落するか、運転操作より後に行う場合が多い、事故を起こす危険性が高いドライバが属するクラスタである。この場合、ドライバ8201は、当該クラスタには属していないことを視認できる。
[機能ブロック]
 まず、本実施例における運転評価システム4の一例について説明する。なお、以下の実施例において、先に説明した図面に示す部位と同一の部位には同一の符号を付し、重複する説明は省略する。また、運転評価システム4については図示を省略する。
 本実施例における運転評価システム4は、運転評価装置700と、センサ群200とを含む。運転評価装置700は、通信部110と、記憶部120と、制御部730とを有する。
 制御部730は、運転評価装置700の全体的な処理を司る処理部である。この制御部730は、センサデータ取得部131、運転操作選定部132、認知行動選定部133、確認指標算出部134及び評価出力部135に加えて、さらに評価利用部736を有する。
 評価利用部736は、確認指標の時系列的な変化を検出し、所定の条件を満たした場合に警告を出力する。例えば、評価利用部736は、確認指標が、所定の閾値を下回る傾向が所定の時間以上警告した場合に、警告を出力する。
 また、評価利用部736は、一定期間確認指標を収集した後に、収集された確認指標の平均及び、分散または偏差を算出する。そして、取得された確認指標が異常値に該当する場合に、警告を出力する。例えば、評価利用部736は、ドライバの確認指標の平均値が、図21に示すクラスタ8100に属することが特定された場合に警告を出力する。
[処理の流れ]
 次に、本実施例における運転評価システム4による評価出力処理について、図22を用いて説明する。図22は、実施例4における評価出力処理の一例を示すフローチャートである。なお、評価出力処理は、図12に示す確認指標算出処理の終了後、又は任意のタイミングで実行される。
 図22に示すように、運転評価装置700の評価利用部736は、算出された確認指標の時系列的な変化を検出する(S700)。そして、評価利用部736は、時系列的な変化において、確認指標が所定の閾値を下回るマイナス傾向が、予め規定された時間以上継続しているか否かを判定する(S701)。評価利用部736は、マイナス傾向が継続していると判定しない場合(S701:No)、ステップS710に進む。一方、評価利用部736は、マイナス傾向が継続していると判定した場合(S701:Yes)、警告を出力する(S702)。
 次に、評価利用部736は、所定の期間が経過するまで待機する(S710:No)。
評価利用部736は、所定の期間が経過した場合(S710:Yes)、算出された確認指標の平均及び、分散または偏差を算出する(S711)。そして、評価利用部736は、算出された平均、及び分散または偏差が、所定の異常値に該当するか否かを判定する(S712)。評価利用部736は、所定の異常値に該当すると判定しなかった場合(S712:No)、処理を終了する。一方、評価利用部736は、所定の異常値に該当すると判定した場合(S712:Yes)、警告を出力する(S703)。
[効果]
 以上説明したように、本実施例における運転評価装置は、移動体の位置に対する周辺環境情報を把握する地図データ群を保持し、算出した時刻差確認指標と地図データ群とを用いてドライバの運転行動の評価値を算出する。これにより、評価結果に基づいて、危険なドライバを統計的に特定できる。
 また、本実施例における運転評価装置は、複数時刻での時刻差確認指標を用いて、該指標の大きさ又は、該指標のばらつきから、危険ドライバまたは危険運転状態を評価する。これにより、他のドライバとの比較に基づいて、危険なドライバを抽出できる。
 さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。例えば、上記各実施例においては運転評価システム1が自動車の運転操作と認知行動との関係を評価する構成について説明したが、これに限られず、船舶や鉄道、航空機などのその他の移動体の運転操作と認知行動との関係を評価するような構成であってもよい。
 また、運転操作選定部132は、移動体の前カメラ映像を用いた白線認識による白線と移動体の位置関係変化や、移動体周辺の路側物と測距データを用いた位置移動変化などを用いて、車線変更を検出してもよい。これにより、運転操作選定部132は、移動体の位置変化を直接把握できるため、高速道路と一般道の車線変更における揺れや操舵の大きさの違いを特に気にせず、車線変更の推定を行うことが出来る。このとき、運転操作選定部132は、厳密には操作後ではあるが、白線を移動体が超えはじめたタイミングを直接操作開始タイミングと見做して利用してもよい。また、白線超え前後の移動体速度から移動開始タイミングを推定して操作開始タイミングに利用したり、白線超えより規定時間前を移動開始タイミングと見做して操作開始タイミングに利用したり、白線超え前の特に変化の大きい操舵・揺れ時刻を操作開始タイミングと見做しても良い。
 あるいは、運転操作選定部132は、移動終了や操作終了タイミングを同様の方法で推定し、操作終了タイミングから操作開始タイミングを推定しても良い。本来把握したい運転操作実施タイミングに対し、白線を移動体が超えはじめたタイミングを直接代用する方法は、両タイミングの時間差は運転操作実施後の装置反応時間でほぼ一定量と考えれば、ほぼ同じ評価として利用できる。また、運転操作選定部132は、白線超え等の明らかな外界変化により、容易にタイミングを検知できるとともに、車両搭載が始まっているふらつき運転検出の一部機能を活用できる。
 また、実施例1においては、車速センサを用いて速度を取得する構成について説明したが、これに限られず、GPS等の移動***置、アクセルやブレーキなどの踏込量などから速度を推定するような構成であってもよい。
 なお、運転評価装置100が、自動車の位置に対する周辺環境情報を把握するための補足情報として、地図データをさらに記憶するような構成であってもよい。地図データは、移動体の周辺の地物構成や用途地域データ、走行道路の構造や交差点などの道路接続情報
、道路や交差点の種別・交通量等を含む任意のGISデータ、天候気温等の気象情報、道路混雑状況や事故等のリアルタイムの環境情報のいずれかを含んでよい。
 なお、図5に示す認知行動選定領域の大きさを、現在の走行環境等に合わせて適宜調整しても構わない。例えば、センサデータと地図データから推定した移動体周辺の道路渋滞状況に合わせて、渋滞気味な場合には確認を含めた運転操作全体に時間がかかるため、必要なら移動体の速度も参考にしながら範囲を広めにとっても良い。あるいは、操作開始時の移動体の位置地点から地図情報から得た道路環境(道路規模種別、道路幅、周辺の商業地などの混雑環境、ヒヤリ地点等の危険地点情報)等に合わせて調整した規定距離だけ離れた地点を、実際に移動体が通過した時刻を使って、認知行動選定領域としても良い。
 また、選定領域の数は図5に示す例に限られず、選定領域が2つ、又は4つ以上記憶されるような構成であってもよく、また選定領域を含まない構成であってもよい。また、選定領域1乃至3は、必ずしも三等分された時間でなくてもよく、例えば操作開始前の時間は細分化し、操作開始後の時間はひとまとめにするような構成であってもよい。
 なお、各実施例における、各時刻要素の分類及び条件分岐で認知行動を選定する代わりに、各時刻要素分類にあらかじめポイントを割り振っておき、各分類に合致するか否かで該ポイントの付与有無を決定してもよい。この場合、各認知行動候補毎に該ポイントの合算値を算出して比較し、認知行動を選定してもよい。この合算点方式の各分類のポイント点数は固定ではなく、優先度を示す重みを付けたり、該当する認知行動候補の数で変更させても良い。例えば、該分類に合致する認知行動が複数ある場合には、合致する認知行動同士でポイントを分け合って候補数分の1としたり、候補数が多いほど小さくなる重みを掛けたポイントにしたり、単純に他候補もある場合は無い場合の点数の半分にする等の変更を行って付与してもよい。このようにポイントを調整することで、より該当する認知行動候補が少ない分類を優先した選択の曖昧さを避けた選定が実現できる。このポイントは、他の合致する認知行動候補の数で調整するだけでなく、条件優先順と同様に、該運転操作時の周辺状況や自車状況で適宜調整しても構わない。
 この他に、図5に示す認知行動選定領域を細かく分類し、それぞれ選定領域ごとに含まれる認知行動に対して重みを付けて、重みのあるものから優先的に選定判断してもよい。例えば、図5に示す領域1は、より操作行動より前の時間区間のため、運転操作行動を行う前の戦略を担う認知行動の可能性がある。このため、運転操作前の周辺の意識的な認知行動で評価を実施したい場合には、領域1の認知行動に大きな重みをつける。この場合、残りの領域2、3に含まれる認知行動に対しては、より運転操作から遠い領域3に含まれる認知行動の重みを小さくすることで、選定を行ってもよいし、それら双方を同じ小さい重みにしてもよい。
 一方で、領域2は運転操作直前の認知行動になるため、操作直前の無意識または習慣的な認知行動を評価したい場合には、領域2の重みを大きくする等の調整をしてもよい。この場合にも、残る領域1と3の認知行動を同じ小さい重みにしてもよいし、または領域3は運転操作中の認知行動になるため、領域1より小さい重みにしてもよい。
 または、認知行動選定領域の領域分けによる重み付けをする代わりに、操作開始時刻からの確認開始時刻までの時間差の大きさとは逆になる例えば逆数にした値の重みを、各認知行動の重みとしても良い。これにより、開始時刻が運転操作行動の開始時刻より前か後かに関わらず、より運転操作開始に近い認知行動を選定することが出来、運転操作行動により密接な認知行動の評価を行うことができる。この重みについても、条件優先順や分類ポイントと同様に、該運転操作時の周辺状況や自車状況で適宜調整してもよい。また、この重みがゼロの領域も設定することで、実質的に、該領域の認知行動は選定しない足きり
領域を実現することができ、他の意味づけによる重みと併せて簡素な構成で優先条件の判断と足きり判断を同時に実現することができる。
 なお、認知行動選定部133は、このように各要素に関して分類を用いた選択優先順や、重み付け等をあらかじめ決めておいて1つを決定する形でも良いし、各要素の分類に合致するか否かで付与するポイントの合算値を各認知行動毎に比較し決定しても良い。
[システム]
 また、図示した各部の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマ
イクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウェア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。
 また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的状態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各処理部にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。 
[運転評価プログラム]
 また、上記の実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータシステムで実行することによって実現することもできる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータシステムの一例を説明する。図23は、運転評価プログラムを実行するコンピュータの一例を示す図である。
 図23に示すように、コンピュータ300は、CPU310、HDD320、RAM340を有する。これら300~340の各部は、バス400を介して接続される。 
 HDD320には上記の運転評価装置100のセンサデータ取得部131、運転操作選定部132、認知行動選定部133、確認指標算出部134及び評価出力部135と同様の機能を発揮する運転評価プログラム320aが予め記憶される。なお、運転評価プログラム320aについては、適宜分離してもよい。 
 また、HDD320は、各種情報を記憶する。例えば、HDD320は、図4に示した各記憶部に記憶されるセンサデータ320b、運転操作データ320c、認知行動データ320dを記憶する。 
 そして、CPU310が、運転評価プログラム320aをHDD320から読み出してRAM340に展開し、HDD320に記憶されたセンサデータ320b、運転操作データ320c、認知行動データ320dを用いて各処理を実行する。すなわち、運転評価プログラム320aは、センサデータ取得部131、運転操作選定部132、認知行動選定部133、確認指標算出部134及び評価出力部135と同様の動作を実行する。
 なお、上記した運転評価プログラム320aについては、必ずしも最初からHDD320に記憶させることを要しない。 
 例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD-ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」にプログラムを記憶させておく。そして、コンピュータ300がこれらからプログラムを読み出して実行するようにしてもよい。 
 さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータ300に接続される「他のコンピュータ(またはサーバ)」などにプログラムを記憶させておく。そして、コンピュータ300がこれらからプログラムを読み出して実行するようにしてもよい。
 1、2、3、4 運転評価システム
 100、500、600、700 運転評価装置
 110 通信部
 120、520、620 記憶部
 121 センサデータ記憶部
 122 運転操作記憶部
 123 認知行動記憶部
 124 判定条件記憶部
 125 評価記憶部
 130、530、630、730 制御部
 131 センサデータ取得部
 132、632 運転操作選定部
 133、633 認知行動選定部
 134、634 確認指標算出部
 135 評価出力部
 736 評価利用部
 200 センサ群

Claims (9)

  1.  移動体の状態に関するセンシング情報を取得して、運転操作を選定する運転操作行動選定部と、
     前記移動体の運転者の状態に関するセンシング情報を取得して、前記運転者による認知行動を選定し、選定された前記運転操作行動から関連認知行動候補を選定すると共に、各関連認知行動候補群の開始終了時刻及び持続時間、認知行動の開始終了時の詳細状態、及び各関連認知行動候補群の開始終了時刻における自動車の位置のいずれかを用いて1つ以上の認知行動を評価対象として選定する認知行動選定部と、
     選定された前記運転操作の開始時刻と選定した前記1つ以上の認知行動の開始終了時刻との時間差又は前記開始時刻における前記移動体の位置と前記開始終了時刻における前記移動体の位置との差を用いて、ドライバの認知状態指標を算出する確認指標算出部と、
     を有する、運転評価装置。
  2.  前記運転操作行動選定部は、前記運転操作行動の信頼度を算出し、
     前記認知行動選定部は、前記認知行動の信頼度を算出し、
     前記確認指標算出部は、前記1つ以上の認知行動の信頼度を、前記運転操作行動の信頼度と、前記認知行動の信頼度とを用いて算出することを特徴とする請求項1に記載の運転評価装置。
  3.  該認知行動選定部において、前記認知行動時の瞬目発生状況をさらに用いて前記関連認知行動候補から前記1つ以上の認知行動を選定することを特徴とする請求項1又は2に記載の運転評価装置。
  4.  該認知行動選定部において、確認方向が前記運転操作行動における変更先進路方向をさらに用いて前記関連認知行動候補から前記1つ以上の認知行動を選定することを特徴とする請求項1乃至3のいずれか1つに記載の運転評価装置。
  5.  該認知行動選定部において、前記認知行動の開始時または終了時に、視線移動が頭向きよりも早く移動を開始するか否かを用いて前記1つ以上の認知行動から前記1つ以上の認知行動を選定することを特徴とする請求項1乃至4のいずれか1つに記載の運転評価装置。
  6.  前記移動体の位置に対する周辺環境情報を把握する地図データ群を保持し、
     前記確認指標算出部で算出した確認指標と前記地図データ群とを用いてドライバの運転行動の評価値を算出する評価利用部を更に保持することを特徴とする請求項1乃至5のいずれか1つに記載の運転評価装置。
  7.  前記評価利用部において、複数時刻での時刻差確認指標を用いて、該指標の大きさ又は該指標のばらつきから、危険ドライバまたは危険運転状態を評価することを特徴とする請求項6に記載の運転評価装置。
  8.  コンピュータが、
     移動体の状態に関するセンシング情報を取得して、運転操作を選定し、
     前記移動体の運転者の状態に関するセンシング情報を取得して、前記運転者による運転操作行動を選定し、選定された前記運転操作行動から関連認知行動候補を選定すると共に、各関連認知行動候補群の開始終了時刻及び持続時間、認知行動の開始終了時の詳細状態、及び各関連認知行動候補群の開始終了時刻における自動車の位置のいずれかを用いて1つ以上の認知行動を評価対象として選定し、
     選定された前記運転操作の開始時刻と選定した前記1つ以上の認知行動の開始終了時刻
    との時間差又は前記開始時刻における前記移動体の位置と前記開始終了時刻における前記移動体の位置との差を用いて、ドライバの認知状態指標を算出する
     処理を実行することを特徴とする運転評価方法。
  9.  移動体及び運転者の状態をセンシングするセンサ群と、
     運転操作を選定する運転操作行動データ選定部と、
     該運転操作の時刻近傍で実施された視線及び頭向き変化及びウィンカ挙動から関連行動候補を選定すると共に、各候補行動群の開始終了時刻及び持続時間、各行動の開始終了時の詳細状態のいずれかを用いて1つ以上の行動を評価対象として選定する認知行動選定部と、
     選定した該運転操作の開始時刻と選定した該行動群の開始終了時刻との時間差を用いて、ドライバの確認状態指標を算出する確認指標算出部と、
     を有する、運転評価システム。
PCT/JP2018/000277 2017-01-31 2018-01-10 運転評価装置、運転評価方法及び運転評価システム WO2018142853A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-016292 2017-01-31
JP2017016292A JP2018124789A (ja) 2017-01-31 2017-01-31 運転評価装置、運転評価方法及び運転評価システム

Publications (1)

Publication Number Publication Date
WO2018142853A1 true WO2018142853A1 (ja) 2018-08-09

Family

ID=63040495

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/000277 WO2018142853A1 (ja) 2017-01-31 2018-01-10 運転評価装置、運転評価方法及び運転評価システム

Country Status (2)

Country Link
JP (1) JP2018124789A (ja)
WO (1) WO2018142853A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111554113A (zh) * 2019-02-12 2020-08-18 欧姆龙株式会社 驾驶评价画面及其显示方法、程序、驾驶评价***
CN113326772A (zh) * 2021-05-28 2021-08-31 青岛海尔工业智能研究院有限公司 作业分析方法、装置、电子设备、及存储介质

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7136720B2 (ja) * 2019-02-27 2022-09-13 トヨタ自動車株式会社 評価装置
JP7463151B2 (ja) * 2020-03-23 2024-04-08 株式会社デンソーテン 状態検出装置および状態検出方法
JPWO2023032806A1 (ja) * 2021-08-31 2023-03-09
WO2023062804A1 (ja) * 2021-10-15 2023-04-20 三菱電機株式会社 乗員状態検知装置、乗員状態検知システム、車両制御システム、および乗員状態検知方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009251861A (ja) * 2008-04-04 2009-10-29 Toyota Motor Corp 運転評価装置、及び運転評価方法
JP2010039138A (ja) * 2008-08-04 2010-02-18 Toyota Motor Corp 車両用運転評価装置
JP2013140605A (ja) * 2006-11-03 2013-07-18 Robert Bosch Gmbh 運転手の状態を識別するための方法および装置
JP2015127937A (ja) * 2013-11-29 2015-07-09 富士通株式会社 運転支援装置、方法、及びプログラム
JP2015141516A (ja) * 2014-01-28 2015-08-03 株式会社デンソー 運転評価装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013140605A (ja) * 2006-11-03 2013-07-18 Robert Bosch Gmbh 運転手の状態を識別するための方法および装置
JP2009251861A (ja) * 2008-04-04 2009-10-29 Toyota Motor Corp 運転評価装置、及び運転評価方法
JP2010039138A (ja) * 2008-08-04 2010-02-18 Toyota Motor Corp 車両用運転評価装置
JP2015127937A (ja) * 2013-11-29 2015-07-09 富士通株式会社 運転支援装置、方法、及びプログラム
JP2015141516A (ja) * 2014-01-28 2015-08-03 株式会社デンソー 運転評価装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111554113A (zh) * 2019-02-12 2020-08-18 欧姆龙株式会社 驾驶评价画面及其显示方法、程序、驾驶评价***
CN113326772A (zh) * 2021-05-28 2021-08-31 青岛海尔工业智能研究院有限公司 作业分析方法、装置、电子设备、及存储介质

Also Published As

Publication number Publication date
JP2018124789A (ja) 2018-08-09

Similar Documents

Publication Publication Date Title
WO2018142853A1 (ja) 運転評価装置、運転評価方法及び運転評価システム
US11023751B2 (en) Systems and methods for safe route determination
JP6940612B2 (ja) ニアクラッシュ判定システムおよび方法
JP5938569B2 (ja) 方位情報を考慮する高度運転者支援システム、及びその動作方法
US9734390B2 (en) Method and device for classifying a behavior of a pedestrian when crossing a roadway of a vehicle as well as passenger protection system of a vehicle
JP6292054B2 (ja) 運転支援装置、方法、及びプログラム
US8711003B2 (en) Vehicle location information-based abnormal driving determination and warning system
US8947218B2 (en) Driving support device
US10336252B2 (en) Long term driving danger prediction system
Leonhardt et al. Feature evaluation for lane change prediction based on driving situation and driver behavior
Chang et al. Onboard measurement and warning module for irregular vehicle behavior
JP5691237B2 (ja) 運転支援装置
JP2012123625A (ja) 車両運転推定システム
JP2013242615A (ja) 運転シーン遷移予測装置および車両用推奨運転操作提示装置
JP2020521978A (ja) 安全ルート決定のためのシステムと方法
Rodemerk et al. Predicting the driver's turn intentions at urban intersections using context-based indicators
JP2021127002A (ja) 車両制御装置、車両制御方法、およびプログラム
CN113412212A (zh) 其它车辆动作预测方法以及其它车辆动作预测装置
WO2022201962A1 (ja) 運転特性判定装置、運転特性判定方法及び運転特性判定プログラム
WO2019232022A1 (en) Systems and methods for safe route determination
JP7376996B2 (ja) 車両の危険状況判別装置、車両の危険状況判別方法、及びプログラム
US20190147264A1 (en) Concentration determination apparatus, concentration determination method, and program for concentration determination
Scanlon Evaluating the Potential of an Intersection Driver Assistance System to Prevent US Intersection Crashes
US20220172089A1 (en) Behavior prediction device
US20220332313A1 (en) Method for avoiding a collision in road traffic on the basis of adaptively setting potentially occupied areas

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18747685

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18747685

Country of ref document: EP

Kind code of ref document: A1