WO2021048946A1 - 情報提示装置、情報提示方法、及び、情報提示プログラム - Google Patents

情報提示装置、情報提示方法、及び、情報提示プログラム Download PDF

Info

Publication number
WO2021048946A1
WO2021048946A1 PCT/JP2019/035660 JP2019035660W WO2021048946A1 WO 2021048946 A1 WO2021048946 A1 WO 2021048946A1 JP 2019035660 W JP2019035660 W JP 2019035660W WO 2021048946 A1 WO2021048946 A1 WO 2021048946A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
stimulus
steering wheel
driver
moving body
Prior art date
Application number
PCT/JP2019/035660
Other languages
English (en)
French (fr)
Inventor
貴士 太田
道学 吉田
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to DE112019007608.6T priority Critical patent/DE112019007608T5/de
Priority to JP2020509533A priority patent/JP6723494B1/ja
Priority to CN201980100050.8A priority patent/CN114340975B/zh
Priority to PCT/JP2019/035660 priority patent/WO2021048946A1/ja
Publication of WO2021048946A1 publication Critical patent/WO2021048946A1/ja
Priority to US17/583,807 priority patent/US20220144331A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
    • B62D15/0265Automatic obstacle avoidance by steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • B60R16/027Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems between relatively movable parts of the vehicle, e.g. between steering wheel and column
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W50/16Tactile feedback to the driver, e.g. vibration or force feedback to the driver on the steering wheel or the accelerator pedal
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D1/00Steering controls, i.e. means for initiating a change of direction of the vehicle
    • B62D1/02Steering controls, i.e. means for initiating a change of direction of the vehicle vehicle-mounted
    • B62D1/04Hand wheels
    • B62D1/046Adaptations on rotatable parts of the steering wheel for accommodation of switches
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/029Steering assistants using warnings or proposing actions to the driver without influencing the steering system
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D1/00Steering controls, i.e. means for initiating a change of direction of the vehicle
    • B62D1/02Steering controls, i.e. means for initiating a change of direction of the vehicle vehicle-mounted
    • B62D1/04Hand wheels
    • B62D1/06Rims, e.g. with heating means; Rim covers

Definitions

  • the present invention relates to an information presentation device, an information presentation method, and an information presentation program.
  • Patent Document 1 suggests a technique of presenting environmental information around a vehicle to a driver by tactile sensation when the vehicle is driven by mounting a tactile presentation device on the steering wheel as a means of presenting information.
  • Patent Document 1 describes a tactile presentation device installed on the circumference of the steering wheel to provide information on the direction of the object, the direction in which the vehicle should travel, and the like when the object is close to the vehicle.
  • the present invention is stimulus information that can be used by a tactile presentation device mounted on the steering wheel, and transmits the information to the driver regardless of the area where the driver holds the steering wheel and the arm.
  • the purpose is to appropriately generate stimulus information.
  • the information presentation device of the present invention In an information presenting device that transmits the stimulus information to the steering wheel of a moving body including a steering wheel that presents information to the driver based on the stimulus information corresponding to the stimulus.
  • the pattern information is received from a pattern database that stores pattern information indicating a contact pattern between the steering wheel and the palm or the like when a human is holding the steering wheel.
  • the driver determines a part such as a palm holding the steering wheel, and generates grip information including information on the part such as the palm. Department and When the moving body may come into contact with an obstacle located around the moving body, the stimulus information for guiding the driver to avoid the obstacle by stimulating the palm or the like is used. It is provided with a stimulus generation unit that is generated based on gripping information.
  • the grip detection unit generates grip information based on the grip detection information received from the grip detection sensor included in the steering wheel and the pattern information received from the pattern database.
  • the stimulus generation unit generates stimulus information based on the gripping information.
  • Stimulation information that can be used by the tactile presentation device mounted on the steering wheel, and is stimulus information that appropriately conveys information to the driver regardless of the area where the driver holds the steering wheel and the arm. Can be generated.
  • FIG. 3 is a configuration diagram of a mobile body 100 including the information presentation device 103 according to the first and second embodiments. It is a block diagram of the steering wheel 200 included in the moving body 100, (a) is the front view of the steering wheel 200, (b) is the cross-sectional view of AA shown in (a). An example of mounting the environment detection sensor 101 on the moving body 100.
  • the block diagram of the information presenting apparatus 103 which concerns on Embodiment 1.
  • FIG. The block diagram of the stimulus generation part 350 which concerns on Embodiment 1.
  • FIG. The hardware block diagram of the information presenting apparatus 103 which concerns on Embodiment 1.
  • FIG. The flowchart which shows the operation of the information presenting apparatus 103 which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the pattern information, (a) is the intensity distribution in the driver's palm and the like, (b) is the intensity distribution in the steering wheel 200, (c) is the image of the development of the steering wheel 200 shown in (b). ..
  • the flowchart which shows the operation of the gripping detection part 340 which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the stimulus information generated by the stimulus generation part 350 which concerns on Embodiment 1, (a) is a graph explaining a right rotation pattern, (b) is a graph explaining a left rotation pattern, (c). Is a diagram showing the stimulation position.
  • the flowchart which shows the operation of the stimulus generation part 350 which concerns on Embodiment 1.
  • the flowchart which shows the operation of the modification which concerns on Embodiment 1.
  • the block diagram of the information presenting apparatus 103 which concerns on Embodiment 2.
  • FIG. The flowchart which shows the operation of the information presenting apparatus 103 which concerns on Embodiment 2.
  • FIG. 2 It is a figure explaining the stimulus information generated by the stimulus generation part 360 which concerns on Embodiment 2, (a) is the figure which shows the orientation around the moving body 100, (b) is the figure which shows the correspondence of the right hand and the direction. (C) is a diagram showing the correspondence between the left hand and the orientation. It is a figure which shows the stimulus information generated by the stimulus generation part 360 which concerns on Embodiment 2, (a) is the figure which shows the orientation around the moving body 100, (b) is the figure which shows the correspondence of the right hand and the orientation. It is a figure which shows the example of the stimulus information generated by the stimulus generation part 360 which concerns on Embodiment 2, (a) is a graph explaining a stimulus pattern 1, (b) is a graph explaining a stimulus pattern 2, (c). Is a diagram showing the stimulation position. The figure which shows the image which the obstacle located in the blind spot of a driver is approaching a moving body 100. The figure which shows the image which the obstacle located in the blind spot of a driver is approaching a moving
  • FIG. 1 is a diagram showing a configuration example of a mobile body 100 equipped with the information presenting device 103 according to the present embodiment.
  • the moving body 100 includes an environment detection sensor 101, a state detection sensor 102, an information presentation device 103, and a steering wheel 200.
  • the moving body 100 is typically a vehicle, but may be any object, such as a ship or an airplane, that requires humans to control its direction during movement.
  • FIG. 2 is a diagram showing a configuration example of the steering wheel 200.
  • a typical example of the steering wheel 200 is shown on the left side of this figure, and a cross-sectional view of the steering wheel 200 in the BA cross section is shown on the right side.
  • the steering wheel 200 has a tactile presentation device 201 and a grip detection sensor 202.
  • the shape of the steering wheel 200 is typically elliptical, but may be different.
  • the surface of the normal grip portion of the steering wheel 200 is such that any part such as the palm of the hand comes into contact with the tactile presentation device 201 regardless of which part of the normal grip the driver grips. Covered by.
  • the grip is This is the portion of the steering wheel 200 that the driver normally grips when controlling the direction of the moving body 100.
  • the steering wheel 200 has an elliptical shape, it is an outer peripheral portion of the steering wheel 200.
  • Directional control of the moving body 100 includes maintaining the moving body 100 moving in the front direction.
  • the tactile presentation device 201 is a device that conveys information to the driver through the tactile sensation of the palm or the like by stimulating the palm or the like of the driver.
  • the tactile presentation device 201 applies electrical stimulation to the driver using electrodes.
  • the tactile presentation device 201 typically outputs an obstacle to the palm or the like by using electrodes at locations corresponding to signals from the tactile presentation processing unit (not shown). Guide the driver to avoid it.
  • the tactile presentation device 201 adjusts the intensity of the electrical stimulation and the stimulation position.
  • the tactile presentation device 201 transmits the position of the obstacle and the threat to the driver.
  • the tactile presentation device 201 may give a tactile stimulus to the palm or the like by ultrasonic waves, and has a built-in device that stimulates a specific position of the palm or the like by being partially physically movable. It is also possible to give a tactile stimulus to the palm or the like by another method, or to give a plurality of types of stimuli to the palm or the like.
  • the environment detection sensor 101 is Detects environmental information indicating the environment around the mobile body 100, It is a group of sensors for detecting obstacles, pedestrians, vehicles, etc. It may be composed of a plurality of types of sensors. As a specific example, the environmental information includes distance information between the moving body 100 and an object existing around the moving body 100, and image information around the moving body 100. The number of sensors constituting the environment detection sensor 101 may be arbitrary.
  • the sensors that make up the environment detection sensor 101 are It can be any sensor that can acquire information about the surroundings. Specific examples include LiDAR (Light Detection And Ringing), a sensor that measures the distance to an object such as a millimeter-wave radar and sonar, and a sensor that acquires the surrounding environment such as a camera as an image.
  • LiDAR Light Detection And Ringing
  • a sensor that measures the distance to an object such as a millimeter-wave radar and sonar
  • a sensor that acquires the surrounding environment such as a camera as an image.
  • FIG. 3 is a diagram showing an example of mounting the environment detection sensor 101 on the moving body 100.
  • four environment detection sensors 101 are attached to the front, the back, and the four corners of the moving body 100, and these environment detection sensors 101 acquire information around the moving body 100. It is represented by a part of the circle.
  • the state detection sensor 102 The mobile information indicating the state of the mobile 100 is detected, and the mobile information is detected.
  • a group of sensors for acquiring the state of the moving body 100 such as the speed, acceleration, and / or steering angle of the moving body 100. It may be composed of a plurality of types of sensors. The number of sensors constituting the state detection sensor 102 may be arbitrary.
  • the moving body information includes the speed, acceleration, turning speed, and steering angle of the moving body 100.
  • Specific examples of the sensor constituting the state detection sensor 102 include a sensor capable of acquiring the motion state of a moving body 100 such as GPS (Global Positioning System) and INS (registered trademark, Inertial Navigation System), a rotary encoder, and the like. It is a sensor that detects an input to the moving body 100.
  • the information acquired by the state detection sensor 102 is used for predicting the trajectory of the moving body 100 by the information presenting device 103.
  • the information presentation device 103 The information between the environment detection sensor 101 and the state detection sensor 102 is controlled, and the information to be sent to the tactile presentation device 201 is determined. Appropriate tactile information is generated by processing the information acquired from the environment detection sensor 101 and the state detection sensor 102 using the internal module.
  • FIG. 4 is a diagram showing a configuration example of the information presentation device 103 according to the present embodiment.
  • the information presenting device 103 includes an obstacle detection unit 300, an orbit prediction unit 310, a danger determination unit 320, an orbit calculation unit 330, a grip detection unit 340, and a stimulus generation unit 350. It is composed of a communication unit (interface) 380 and a recording unit 390. The recording unit 390 is not shown in this figure.
  • the obstacle detection unit 300 Detecting obstacles around the moving body 100 based on the data from the environment detection sensor 101, Typically, the obstacle information including the detected distance to the obstacle, the traveling direction of the moving body 100, the angle formed by the obstacle, and the size of the obstacle is calculated.
  • the obstacle detection unit 300 may include information about other obstacles such as the shape of the obstacle in the obstacle information.
  • the obstacle detection unit 300 calculates the obstacle information for each obstacle.
  • the trajectory prediction unit 310 calculates the predicted trajectory of the moving body 100 based on the moving body information acquired from the state detection sensor 102.
  • the danger determination unit 320 Typically, based on the obstacle information calculated by the obstacle detection unit 300 and the predicted trajectory of the moving body 100 calculated by the orbit prediction unit 310, whether or not the moving body 100 may come into contact with the obstacle. Is determined. When there are a plurality of obstacles, the danger determination unit 320 executes the above processing for each obstacle.
  • the orbit calculation unit 330 A trajectory for avoiding an obstacle determined by the danger determination unit 320 to come into contact with the moving body 100 is calculated. Calculate the speed and steering angle required to pass the calculated trajectory. When there are a plurality of high-risk obstacles, the trajectory calculation unit 330 calculates a trajectory or the like for avoiding all the high-risk obstacles.
  • the grip detector 340 typically The grip detection information recorded by the recording unit 390, based on the grip detection information regarding the contact state between the driver and the steering wheel 200, and the pattern information stored in the pattern DB (database) 501. To generate The generated gripping information is recorded in the recording unit 390.
  • Gripping information is Includes information on parts such as the palm where the driver is holding the steering wheel 200. Typically, the information includes the grip area, the grip arm, and the grip finger. When the gripping arms are both left and right arms, information on the gripping area and the gripping fingers is included for each arm.
  • the gripping region is a region in which the arm tip of the driver 1 and the steering wheel 200 are in contact with each other when the driver is gripping the steering wheel 200, and is a region on the steering wheel 200.
  • the palm or the like is a portion such as a palm and a finger that the driver and the steering wheel 200 may normally come into contact with when the driver grips the steering wheel 200.
  • the gripping arm is one arm that grips the steering wheel 200.
  • the gripping finger is at least one finger on the tip of one arm holding the steering wheel 200.
  • the pattern DB 501 is a database that stores pattern information.
  • Pattern information is Information indicating the contact pattern between the palm and the like and the steering wheel 200 when a human is holding the steering wheel 200.
  • the format of the pattern information may be arbitrary.
  • the pattern information is, as a specific example, The driver determines the pressure or capacitance threshold in each part such as the palm generated when the driver is holding the steering wheel 200, the positional relationship of each part, the size of the part, etc. Information including features that can be obtained when the steering wheel 200 is placed.
  • the pattern information may be information indicating the distribution of pressure or capacitance.
  • the grip detection unit 340 typically uses pattern information as a comparison target.
  • the stimulus generation unit 350 typically generates stimulus information that guides the driver to follow the control information recorded by the recording unit 390.
  • the stimulus information is stimulus information given to the driver by the tactile presentation device 201, and typically includes a stimulus position and a stimulus pattern.
  • the stimulation position is a position on the tactile presentation device 201, and is a position where the tactile presentation device 201 stimulates the driver's palm or the like.
  • the stimulation pattern includes a portion where the tactile presentation device 201 stimulates the driver's palm or the like, an order regarding the portion to be stimulated, a timing, and the like.
  • FIG. 5 is a diagram showing a configuration example of the stimulus generation unit 350.
  • the stimulus generation unit 350 includes a position adjustment unit 351, a pattern generation unit 352, and a position determination unit 353.
  • the communication unit 380 is an interface for the information presenting device 103 to communicate with an external device.
  • the communication method of the communication unit 380 may be wired or wireless.
  • the recording unit 390 records information necessary for processing each unit of the information presenting device 103.
  • Each unit other than the recording unit 390 of the information presenting device 103 can record information in the recording unit 390.
  • the grip detection sensor 202 It is a sensor that detects that the driver is holding the steering wheel 200. It may be a pressure sensor, a capacitance type sensor, or another sensor.
  • the grip detection sensor 202 is a pressure sensor, when the driver grips the steering wheel 200, pressure is generated at the contact portion between the driver's palm or the like and the steering wheel 200. Therefore, the grip detection sensor 202 grips the steering wheel 200. The contact strength of the region can be detected.
  • the grip detection sensor 202 is a capacitance type sensor, when the driver grips the steering wheel 200, the capacitance changes due to the difference in the gap between the palm or the like and the steering wheel 200, so that the grip detection sensor 202 202 can detect the gripping area.
  • the grip detection sensor 202 may be a combination of a plurality of types of sensors.
  • FIG. 6 is a diagram showing a hardware configuration example of the information presentation device 103.
  • the information presenting device 103 includes a processor 10, a memory 11, a storage device 12, and a communication IF 13.
  • the device used as the information presenting device 103 is an ECU (Electronic Control Unit).
  • Processor 10 It is a processing device that executes an information presentation program, an OS (Operating System) 19, and the like. It is connected to the memory 11 and temporarily stores the data necessary for the calculation and / or saves the data, and reads and executes the program stored in the memory 11.
  • the processing device is Sometimes called an IC (Integrated Circuit), As a specific example, it is a CPU (Central Processing Unit).
  • the information presenting device 103 may include a plurality of processors that replace the processor 10. These plurality of processors share and execute each function of the program. Each processor is, as a specific example, a CPU.
  • the memory 11 is a storage for temporarily storing data in the process of processing a program, and as a specific example, a RAM (Random Access Memory), a flash memory, or a combination thereof.
  • the recording unit 390 is composed of a memory 11.
  • the storage device 12 The information presentation program, each program executed by the processor 10, SW16, data used at the time of execution of each program, and the like are stored. As a specific example, it is an HDD (Hard Disk Drive) or an SSD (Solid State Drive).
  • HDD Hard Disk Drive
  • SSD Solid State Drive
  • a receiver for receiving data used by the information presenting device 103 and a transmitter for transmitting data output by the information presenting device 103 are provided.
  • the data output by the environment detection sensor 101 and / or the state detection sensor 102 is received according to the instruction from the processor 10, and the data is transmitted to the tactile presentation device 201.
  • Specific examples are Ethernet (registered trademark) or CAN (Control Area Network).
  • the communication unit 380 is composed of a communication IF.
  • the communication IF 13 may have a plurality of ports.
  • SW16 shows the software configuration of the present embodiment, and includes an obstacle detection unit 300, a trajectory prediction unit 310, a danger determination unit 320, a trajectory calculation unit 330, a grip detection unit 340, a stimulus generation unit 350, and the like. It is composed of OS19.
  • OS 19 is loaded from the storage device 12 by the processor 10, expanded into the memory 11, and executed by the processor 10.
  • the information presentation program is read from the memory 11 into the processor 10 and executed by the processor 10.
  • the function of the information presenting device 103 is realized by the information presenting program.
  • the data or the like handled by the information presentation program is stored in the memory 11, the storage device 12, or the register or cache memory in the processor 10.
  • the data acquired by the communication IF 13 and the calculation result of the information presentation program are typically stored in the memory 11.
  • the data and the like stored in the memory 11 and the storage device 12 are input and output in response to a request from the processor 10.
  • the information presentation program may be recorded and provided on a computer-readable medium, may be stored in a storage medium and provided, or may be provided as a program product.
  • the OS 19 and the SW 16 may be stored in the memory 11.
  • the recording unit 390 may be composed of the storage device 12, or may be composed of the memory 11 and the storage device 12.
  • the operation procedure of the information presenting device 103 corresponds to the information presenting method. Further, the program that realizes the operation of the information presenting device 103 corresponds to the information presenting program.
  • the information presenting device 103 transmits information for guiding the driver to avoid obstacles to the driver via the driver's tactile sensation.
  • the environment detection sensor 101 constantly detects environmental information and
  • the state detection sensor 102 constantly detects moving object information.
  • FIG. 7 is an example of a flowchart showing the operation of the information presenting device 103.
  • the information presenting device 103 may appropriately change the order of the processes shown in this figure, and may execute some processes in parallel.
  • Step S101 Environment detection process
  • the obstacle detection unit 300 The environment information around the mobile body 100 detected by the environment detection sensor 101 is acquired via the communication unit 380, and the environment information is acquired.
  • the acquired environmental information is recorded in the recording unit 390.
  • Step S102 State detection process
  • the orbit prediction unit 310 The mobile body information detected by the state detection sensor 102 is acquired via the communication unit 380, and is obtained.
  • the acquired mobile body information is recorded in the recording unit 390.
  • Step S103 Obstacle detection process
  • the obstacle detection unit 300 Obstacles are detected based on the environmental information recorded by the recording unit 390, and When the obstacle detection unit 300 detects at least one obstacle, the obstacle detection unit 300 records the obstacle information as obstacle information in the recording unit 390.
  • the method by which the obstacle detection unit 300 detects an obstacle may be arbitrary.
  • the obstacle detection unit 300 Obstacle area is detected by image processing the image acquired by the camera. Based on the information acquired by LiDAR and / or millimeter-wave radar, etc., the distance between the moving object 100 and the detected obstacle area is calculated. Based on the obstacle area and the calculated distance, it is determined whether or not there is a possibility that the moving body 100 and the obstacle in the obstacle area come into contact with each other.
  • the danger determination unit 320 determines whether or not there is a possibility that the moving body 100 and the detected obstacle may come into contact with each other based on the obstacle information recorded by the recording unit 390.
  • the danger determination unit 320 determines whether or not there is a possibility that the moving body 100 and each obstacle may come into contact with each other.
  • step S104 If the danger determination unit 320 determines that the moving body 100 may come into contact with at least one of the detected obstacles, the process proceeds to step S104. Otherwise, the process proceeds to step S101.
  • Step S104 Orbit prediction process
  • the orbit prediction unit 310 Based on the moving body information recorded by the recording unit 390, the trajectory of the moving body 100 is predicted, and the trajectory is predicted.
  • the predicted trajectory is stored in the recording unit 390 as trajectory prediction information.
  • the orbit prediction unit 310 as a specific example, The turning speed of the moving body 100 is calculated based on the information acquired by the gyro sensor.
  • the traveling speed of the moving body 100 is calculated based on the information acquired by the acceleration sensor and / or the wheel speed sensor.
  • the trajectory of the moving body 100 is predicted based on the turning speed and the traveling speed.
  • Step S105 Avoidance trajectory calculation process
  • the orbit calculation unit 330 Based on the obstacle information and the trajectory prediction information recorded by the recording unit 390, the avoidance activation that can avoid the obstacle is calculated.
  • Calculate the control information required to pass the avoidance orbit The calculated avoidance information and control information are stored in the recording unit 390.
  • the control information is information on the steering angle required to pass through the avoidance trajectory.
  • Step S106 Gripping detection process
  • the grip detection unit 340 The grip detection information is acquired from the grip detection sensor 202, and the grip detection information is acquired.
  • the acquired grip detection information is stored in the recording unit 390, and is stored in the recording unit 390.
  • the gripping information is generated based on the acquired gripping detection information and the pattern information stored in the pattern DB 501.
  • the generated gripping information is recorded in the recording unit 390.
  • Step S107 Stimulus generation process
  • the stimulus generator 350 Stimulation information is generated based on the gripping information and control information recorded by the recording unit 390.
  • the generated stimulus information is recorded in the recording unit 390.
  • the stimulus generation unit 350 generates stimulus information that guides the driver to rotate the steering wheel in the direction indicated by the control information.
  • Step S108 Transmission process
  • the stimulus generation unit 350 transmits the stimulus information recorded by the recording unit 390 to the tactile presentation device 201 via the communication unit 380.
  • the tactile presentation device 201 presents information to the driver by stimulating the driver's palm or the like based on the received stimulus information.
  • FIG. 8 is a diagram illustrating an example of pattern information.
  • the figure shown in the upper left of this figure is a diagram showing an example of pressure distribution and an example of capacitance distribution when a person is holding a rod-shaped object.
  • the pressure and capacitance between the palm and the rod-shaped object are usually the hypothenar eminence at the base of the first finger, as shown in this figure. It becomes higher at the hypothenar eminence at the base of the fifth finger and at each fingertip from the first finger to the fifth finger.
  • the figure shown on the right side of this figure is a diagram showing an example of the pressure distribution around the gripping region when the driver is gripping the steering wheel 200.
  • the figure shown in the lower right is an unfolded view of the surface portion around the gripping region as shown in the image of unfolding, and is a diagram showing an example of the pressure distribution around the gripping region.
  • the pattern DB 501 records information linking the pressure distribution shown in this figure with the hand portion as pattern information.
  • the grip detection unit 340 discriminates between the grip arm and the grip finger by comparing such pattern information with the grip detection information.
  • FIG. 9 is a diagram showing input / output data of the grip detection unit 340 in the grip detection process. As shown in this figure, the grip detection unit 340 is used in the grip detection process. Receives grip detection information and pattern information, The gripping information is output to the recording unit 390.
  • FIG. 10 is an example of a flowchart showing the operation of the grip detection unit 340 in the grip detection process.
  • the grip detection unit 340 may appropriately change the order of the processes shown in this figure.
  • Step S201 Information acquisition process
  • the grip detection unit 340 When the grip detection unit 340 acquires the grip detection information from the grip detection sensor 202, the acquired grip detection information is recorded in the recording unit 390, and the process proceeds to step S202. In other cases, the process of this step is continued.
  • Step S202 Specific processing
  • the grip detection unit 340 The gripping area is specified based on the gripping detection information recorded by the recording unit 390, and the gripping area is specified.
  • the identified gripping area is recorded in the recording unit 390.
  • the grip detection unit 340 specifies each grip area.
  • Step S203 Discrimination process
  • the grip detection unit 340 Read the pattern information from the pattern DB 501, By comparing the grip detection information recorded by the recording unit 390 with the pattern information, the gripping arm and the gripping finger are discriminated for each gripping area.
  • the discriminated gripping arm and gripping finger are recorded in the recording unit 390 in correspondence with the gripping area.
  • the grip detection unit 340 may adopt an arbitrary method as a method for discriminating between the grip arm and the grip finger, and as a specific example, adopts a method based on template matching or machine learning.
  • the grip detection unit 340 is based on the parts that the driver, such as the ball of the thumb and the first finger, surely contacts when gripping the object, and the distance, the positional relationship, and the positional relationship from these parts. / Alternatively, the gripping arm and the gripping finger are discriminated by comparing the output intensity threshold value and the pattern information with the pattern information.
  • the stimulus generation unit 350 generates stimulus information corresponding to a stimulus that causes a phenomenon called a manifestation motion.
  • the stimulus of the stimulus information in this example makes the driver feel as if the gripping region is moving by sequentially changing the stimulus position at regular intervals.
  • the tactile presentation device 201 guides the driver to rotate the steering wheel 200 counterclockwise or clockwise based on the stimulus information.
  • the stimulus information in this example will be specifically described.
  • FIG. 11 is a diagram showing an example of stimulus information.
  • P11 to p18 represent the stimulus position of the stimulus information.
  • the right rotation pattern is a diagram showing the relationship between the time, the stimulating force, and the stimulating position when the driver is guided to rotate the steering wheel 200 to the right.
  • the left rotation pattern is the same as the right rotation pattern except that the right rotation in the right rotation pattern is read as the left rotation.
  • Stimulation power is the intensity of stimulation.
  • the stimulus generation unit 350 guides the driver to rotate the steering wheel 200 to the right, the stimulus generation unit 350 generates the stimulus information shown in the right rotation pattern, that is, stimulates the palm or the like while sequentially changing the stimulus position at regular intervals. Generate stimulus information corresponding to that.
  • the tactile presentation device 201 When stimulating the palm or the like based on the stimulus information shown in the clockwise rotation pattern, the tactile presentation device 201 gives a stimulus force Fa stimulus to p11 at time t1 and a stimulus force Fa stimulus to p12 at time t2. By giving stimuli in order, a right-handed manifestation movement is generated.
  • the stimulus generation unit 350 When the stimulus generation unit 350 guides the driver to rotate the steering wheel 200 counterclockwise, the stimulus generation unit 350 generates stimulus information shown in the counterclockwise rotation pattern.
  • the stimulus generation unit 350 When the driver holds the steering wheel 200 with only his left or right hand, the stimulus generation unit 350 generates stimulus information that stimulates only the holding hand in the same manner as stimulus information that stimulates both hands. ..
  • FIG. 12 is an example of a flowchart showing the operation of the stimulus generation unit 350.
  • the stimulus generation unit 350 may appropriately change the order of the processes shown in this figure.
  • the stimulus generation unit 350 similarly executes the process of this flowchart regardless of whether the driver holds the steering wheel 200 with both hands or one hand.
  • Step S301 Validity determination process
  • the position adjusting unit 351 generates effective part information based on the gripping information recorded by the recording unit 390.
  • the effective part information includes information on a part such as the palm of the driver, and a part where the tactile presentation device 201 can give an effective stimulus to the driver.
  • the pattern generation unit 352 typically generates a stimulation pattern including a stimulation force and an output frequency based on the control information recorded by the recording unit 390.
  • Step S303 Position selection process
  • the position-fixing unit 353 Based on the effective site information generated by the position adjusting unit 351 and the stimulation pattern generated by the pattern generating unit 352, a stimulation position that causes a manifestation motion is selected. Generates stimulus information based on the stimulus position and stimulus pattern, The generated stimulus information is recorded in the recording unit 390.
  • the positioning unit 353 when the driver holds the steering wheel 200 with both hands and the driver holds the steering wheel 200 with both hands, as a specific example, the steering wheel 200 is left.
  • the stimulation positions corresponding to p11 to p18 in FIG. 11 are selected.
  • the information presentation device 103 In the information presenting device 103 that transmits stimulus information to the steering wheel 200 of the mobile body 100 including the steering wheel 200 that presents information to the driver based on the stimulus information corresponding to the stimulus.
  • the steering wheel 200 receives the grip detection information regarding the contact state between the driver and the steering wheel 200, and the pattern information indicating the contact pattern between the steering wheel 200 and the palm or the like when a human is gripping the steering wheel 200 is obtained. Pattern information is received from the stored pattern database 501, and based on the grip detection information and the pattern information, the part of the palm or the like where the driver is holding the steering wheel 200 is determined, and the part of the palm or the like is determined.
  • a grip detection unit 340 that generates grip information including information, When the moving body 100 may come into contact with an obstacle located around the moving body 100, the stimulus information for guiding the driver to avoid the obstacle by stimulating the palm or the like is obtained based on the grasping information. It includes a stimulus generation unit 350 to generate.
  • the information presentation device 103 An obstacle detection unit 300 that receives environmental information indicating the environment around the mobile body 100 from the mobile body 100, and an obstacle detection unit 300. It is provided with a danger determination unit 320 that detects an obstacle based on environmental information and determines whether or not there is a possibility that the moving body 100 and the obstacle come into contact with each other.
  • the information presentation device 103 Orbit prediction that receives moving body information including the speed, acceleration, turning speed, and steering angle of the moving body 100 from the moving body 100, predicts the trajectory of the moving body 100 based on the moving body information, and generates trajectory prediction information.
  • Part 310 and It is equipped with an orbit calculation unit 330 that generates control information based on orbit prediction information.
  • the stimulus generation unit 350 generates stimulus information based on the gripping information and the control information.
  • the stimulus generation unit 350 generates stimulus information corresponding to a stimulus that causes a apparent movement.
  • the stimulus generation unit 350 is a stimulus that alternately stimulates the driver's left hand and right hand to stimulate the stimulus corresponding to the stimulus information, and sequentially places the bases of the fifth to second fingers of the driver's left hand one by one. It is a stimulus that stimulates the bases of the second to fifth fingers of the driver's right hand one by one in order, and by changing the stimulating part at regular intervals, steering is performed. Guide the driver to turn the wheel 200 clockwise.
  • the grip detection unit 340 generates grip information based on the grip detection information received from the grip detection sensor 202 included in the steering wheel 200 and the pattern information received from the pattern DB 501.
  • the stimulus generation unit 350 generates stimulus information based on the gripping information, so that the stimulus generation unit 350 generates the stimulus information. It is stimulus information that can be used by the tactile presentation device mounted on the steering wheel 200, and appropriately transmits the information to the driver regardless of the area where the driver holds the steering wheel 200 and the arm. Stimulation information can be generated.
  • the pattern information when the pattern information is acquired from the pattern DB 501 that stores the pattern information related to the strength distribution such as the gripping arm, the gripping finger, and the pressure distribution as shown in FIG. 8, the pattern information is obtained. And the intensity distribution detected based on the grip detection information, the gripping arm and the gripping finger are discriminated, and the stimulus information that stimulates the driver according to the position of the gripping arm and / or the gripping finger is generated. can do. Therefore, according to the present embodiment, even when the driver changes or the driver changes the way of holding, the stimulus information that guides the driver by giving the stimulus to an appropriate position is provided. Can be generated. Therefore, according to the present embodiment, it is possible to assist the driver in driving the moving body 100 more safely.
  • the gripping detection unit 340 can discriminate not only the gripping arm but also the palm and the five fingers that grip the steering wheel 200. Therefore, the stimulus generation unit 350 can appropriately select the stimulus position within the range of the gripping region regardless of the gripping method.
  • the stimulus information that presents appropriate stimuli to the left and right hands is provided. Can be generated.
  • the left side of the steering wheel 200 is the left side of the steering wheel 200 as seen by the driver when the steering wheel 200 is not turned.
  • the driver's gripping state can be detected regardless of the gripping method. Therefore, when the driver crosses his arms while turning, a person with a disability such as a missing finger moves. Even when the body 100 is being driven, it is possible to generate stimulus information that gives a stimulus according to the gripping method.
  • the stimulus generation unit 350 generates stimulus information corresponding to the stimulus that guides the driver to steer in the direction indicated by the control information.
  • the tactile presentation device 201 can guide the driver to avoid obstacles by presenting information to the driver based on the stimulus information.
  • FIG. 13 is a diagram showing an image when the moving body 100 is expected to go out of the lane and the moving body 100 and another vehicle are expected to come into contact with each other.
  • the danger determination unit 320 predicts.
  • the stimulus generation unit 350 generates stimulus information as shown in the counterclockwise rotation pattern of FIG.
  • the tactile presentation device 201 guides the driver to rotate the steering wheel 200 counterclockwise by stimulating the driver's palm or the like based on the stimulus information as shown in the counterclockwise rotation pattern to generate a manifestation motion. Therefore, according to the present embodiment, when the moving body 100 goes out of the lane and may come into contact with another vehicle, stimulus information for guiding the driver so that the moving body 100 does not go out of the lane is generated. Can be done.
  • FIG. 14 is a diagram showing an image when the moving body 100 changes lanes and it is expected that the moving body 100 and another vehicle come into contact with each other.
  • the stimulus generation unit 350 generates stimulus information as shown in the counterclockwise rotation pattern of FIG.
  • the tactile presentation device 201 stimulates the driver's palm or the like based on the stimulus information as shown in the counterclockwise rotation pattern to generate a pseudo-motion, thereby preventing the moving body 100 from changing lanes. To induce. Therefore, according to the present embodiment, when the moving body 100 may come into contact with another vehicle when changing lanes or the like, it is possible to generate stimulus information for guiding the driver to maintain the lane. ..
  • the information presenting device 103 does not have to be mounted on the moving body 100. In this modification, the information presenting device 103 communicates with the mobile body 100 via the communication unit 380.
  • the information presenting device 103 does not have to acquire environmental information from the environment detection sensor 101 included in the mobile body 100.
  • the information presenting device 103 may acquire environmental information from another vehicle by using vehicle-to-vehicle communication, and obtains environmental information from a communication device installed on the roadside by using road-to-vehicle communication. It may be acquired, or environmental information may be acquired from a central control device or the like using a general communication network.
  • the information presentation device 103 It is not necessary to acquire the moving body information from the state detection sensor 102 included in the moving body 100. It is not necessary to acquire the pattern information from the pattern DB 501 included in the moving body 100.
  • the information presenting device 103 does not have to include the obstacle detection unit 300. In this modification, the information presenting device 103 acquires obstacle information via the communication unit 380.
  • the information presenting device 103 does not have to include the trajectory prediction unit 310. In this modification, the information presenting device 103 acquires the trajectory prediction information via the communication unit 380.
  • the information presenting device 103 does not have to include the danger determination unit 320.
  • the information presentation device 103 is Obtain information on whether or not there is a possibility of contact with obstacles via the communication unit 380, Information necessary for generating information regarding whether or not there is a possibility of contact with an obstacle may be transmitted to the outside via the communication unit 380.
  • the information presenting device 103 does not have to include the trajectory calculation unit 330.
  • the information presentation device 103 is The control information is acquired via the communication unit 380, and the control information is acquired. Information necessary for generating control information may be transmitted to the outside via the communication unit 380.
  • the information presenting device 103 may be composed of a plurality of computers.
  • the danger determination unit 320 may consider the trajectory prediction information when determining whether or not there is a possibility of contact with an obstacle.
  • FIG. 15 is an example of a flowchart showing the operation of the information presenting device 103 in this modification.
  • the information presenting device 103 executes the process of step S104 before executing the process of step S103.
  • the danger determination unit 320 determines whether or not there is a possibility of contact with the obstacle based on the obstacle information and the trajectory prediction information recorded by the recording unit 390.
  • the danger determination unit 320 may predict the trajectory of the obstacle and determine whether or not to contact the obstacle in consideration of the predicted trajectory.
  • the grip detection unit 340 does not have to detect the grip region. In this modification, the grip detection unit 340 typically acquires and uses information on the grip region detected by the grip detection sensor 202.
  • the grip detection unit 340 does not have to determine the grip finger.
  • the stimulus generation unit 350 typically generates stimulus information that stimulates a portion of the gripping region other than the gripping finger.
  • the stimulus generation unit 350 may inform the driver of the amount of rotation of the steering wheel 200 by setting the stimulus time interval.
  • the stimulus generator 350 typically When guiding the driver to turn the steering wheel 200 a lot, the stimulus information with a short stimulus time interval is generated.
  • stimulation information with a long stimulation time interval is generated.
  • the positional relationship between the tactile presentation device 201 and the grip detection sensor 202 may be arbitrary.
  • the tactile presentation device 201 and the grip detection sensor 202 may not be arranged on the entire circumference of the steering wheel 200, but may be arranged only in the area gripped by a general driver.
  • each functional component is realized by software has been described.
  • each functional component may be realized by hardware.
  • the information presenting device 103 includes an electronic circuit 17 instead of the processor 10.
  • the information presenting device 103 includes an electronic circuit 17 in place of the processor 10, the memory 11, and / or the storage device 12.
  • the electronic circuit 17 is a dedicated electronic circuit that realizes the functions of each functional component (and the memory 11 and the storage device 12). Electronic circuits are sometimes called processing circuits.
  • the electronic circuit 17 is assumed to be a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, a logic IC, a GA (Gate Array), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Gate Array). Will be done.
  • Each functional component may be realized by one electronic circuit 17, or each functional component may be realized by being distributed in a plurality of electronic circuits 17.
  • the processor 10, the memory 11, the storage device 12, and the electronic circuit 17 described above are collectively referred to as a "processing circuit Lee". That is, the function of each functional component is realized by the processing circuit.
  • FIG. 16 is a diagram showing a configuration example of the information presentation device 103 according to the present embodiment.
  • the information presenting device 103 is The danger determination unit 320, the orbit calculation unit 330, and the stimulus generation unit 350 are not provided. It includes a risk calculation unit 321 and a stimulus generation unit 360.
  • the obstacle detection unit 300, the trajectory prediction unit 310, and the grip detection unit 340 are the same as those in the first embodiment.
  • the risk calculation unit 321 Typically, the risk level of the obstacle included in the obstacle information is calculated based on the obstacle information calculated by the obstacle detection unit 300 and the predicted trajectory of the moving body 100 calculated by the trajectory prediction unit 310. .. When the obstacle information includes a plurality of obstacles, the risk calculation unit 321 calculates the risk for each obstacle.
  • the stimulus generation unit 360 generates stimulus information based on the obstacle information, the grip information, and the risk level information recorded by the recording unit 390. When there are a plurality of high-risk obstacles, the stimulus generation unit 360 typically generates stimulus information corresponding to all the high-risk obstacles.
  • the information presentation device 103 is Acts as a warning device to warn the driver If there is an obstacle around the moving body 100, the driver is warned through the tactile sensation of the driver's palm or the like. The stimulus does not guide the driver to operate the steering wheel 200.
  • FIG. 17 is an example of a flowchart showing the operation of the information presenting device 103.
  • the information presenting device 103 may appropriately change the order of processing shown in this figure.
  • the information presentation device 103 Instead of executing the processes of step S104 and step S105, the process of step S114 is executed, and the process is executed. Instead of executing the process of step S107, the process of step S117 is executed.
  • Step S114 Risk calculation process
  • the risk calculation unit 321 The risk level of the obstacle included in the obstacle information recorded by the recording unit 390 is calculated based on the distance between the obstacle and the moving body 100 and / or the speed of the moving body 100 and the like. Generate risk information based on the calculated risk The generated risk information is recorded in the recording unit 390.
  • the risk calculation unit 321 may calculate the risk of obstacles by any method.
  • Step S117 Stimulus generation process
  • the stimulus generator 360 Stimulation information is generated based on the obstacle information, gripping information, and risk information recorded by the recording unit 390.
  • the generated stimulus information is recorded in the recording unit 390.
  • Step S303 Position selection process
  • the stimulus generation unit 360 selects a stimulus position that can convey the position of the obstacle to the driver, instead of selecting a stimulus position that causes the apparent movement.
  • FIG. 18 is a diagram for explaining stimulus information in which the gripping region and the orientation are associated with each other.
  • the driver uses both hands and both hands hold the steering wheel 200 with five fingers. It is assumed that the bases of the second to fifth fingers of both arms of the driver are in close contact with the steering wheel 200.
  • the information presenting device 103 associates the gripping area with the orientation as shown in this figure.
  • the information presenting device 103 is The orientation around the moving body 100 is represented by an angle.
  • the front direction of the moving body 100 is set to 0 degrees.
  • the orientation the angle formed by the front direction of the moving body 100 and each direction, and the angle in the clockwise direction when the moving body 100 is viewed from directly above is used. Make the driver's right hand correspond to the right direction with respect to the front direction of the vehicle, Align the driver's left hand with the direction to the left of the front of the vehicle.
  • the stimulus generation unit 360 Correspond to 0 degrees near the second finger of the right hand, The area of the 2nd to 4th fingers of the right hand corresponds to 45 degrees to 135 degrees. The area around the 5th finger is made to correspond to 180 degrees.
  • the stimulus generation unit 360 generates stimulus information that stimulates a location corresponding to the orientation in which the obstacle is located.
  • the tactile presentation device 201 can intuitively transmit the direction in which the obstacle is located to the driver by stimulating the driver's palm or the like based on the stimulus information.
  • FIG. 19 is a diagram similar to FIG. 18, and is a diagram for explaining stimulation information when the driver is holding the steering wheel 200 only with his / her right hand.
  • the stimulus generation unit 360 may be used.
  • the area around the second finger of the right hand corresponds to 0 to 45 degrees and 315 to 360 degrees.
  • the area of the 2nd to 4th fingers of the right hand corresponds to 45 to 135 degrees and 225 to 315 degrees. Correspondence around the fifth finger from 135 degrees to 225 degrees.
  • the stimulus generation unit 360 When the driver holds the steering wheel 200 only with his / her left hand, the stimulus generation unit 360 generates stimulus information in the same manner as in this example.
  • the stimulus generation unit 360 may inform the driver of the distance between the moving body 100 and the obstacle and / or the degree of danger of the obstacle by the stimulating force.
  • FIG. 20 is a diagram showing an example of stimulus information generated by the stimulus generation unit 360 in the situations shown in FIGS. 21 and 22, and is a diagram showing the relationship between the time and the stimulus force.
  • 21 and 22 are diagrams showing an image in which an obstacle located in the blind spot of the driver is approaching the moving body 100.
  • the sensor field of view indicates the range detected by the environment detection sensor 101.
  • the driver's field of view indicates the field of view of the driver of the moving body 100.
  • the stimulus generator 360 To signal the presence of a pedestrian to the left, p20 was stimulated as shown in stimulation pattern 1. In order to inform that the vehicle is present in the right direction, p21 is stimulated as shown in the stimulation pattern 2.
  • the stimulation cycle of the stimulation pattern 1 is shorter than the stimulation cycle of the stimulation pattern 2. Since the vehicle has a higher risk than the pedestrian, the stimulating force of the stimulating pattern 2 is larger than the stimulating force of the stimulating pattern 1. The degree of danger of the vehicle does not have to be higher than the degree of danger of pedestrians.
  • the information presentation device 103 In the information presenting device 103 that transmits stimulus information to the steering wheel 200 of the mobile body 100 including the steering wheel 200 that presents information to the driver based on the stimulus information corresponding to the stimulus.
  • the steering wheel 200 receives the grip detection information regarding the contact state between the driver and the steering wheel 200, and the pattern information indicating the contact pattern between the steering wheel 200 and the palm or the like when a human is gripping the steering wheel 200 is obtained. Pattern information is received from the stored pattern database 501, and based on the grip detection information and the pattern information, the part of the palm or the like where the driver is holding the steering wheel 200 is determined, and the part of the palm or the like is determined.
  • a grip detection unit 340 that generates grip information including information
  • the stimulus generation unit 360 that generates stimulus information that conveys the danger level of the obstacle to the driver by stimulating the palm or the like based on the gripping information. And.
  • the information presentation device 103 An obstacle detection unit 300 that receives environmental information indicating the environment around the mobile body 100 from the mobile body 100, and an obstacle detection unit 300. It is equipped with a risk calculation unit 321 that detects obstacles and calculates the risk of obstacles based on environmental information.
  • the stimulus generation unit 360 generates stimulus information based on the grasping information and the degree of risk.
  • the stimulus generation unit 360 is a stimulus that stimulates the driver's hand portion corresponding to the direction in which the obstacle is located and the direction with respect to the traveling direction of the moving body 100, and is a stimulus corresponding to the stimulus information. It is a stimulus of strength according to the degree of danger of the object.
  • Embodiment 2 *** Explanation of the effect of Embodiment 2 *** As described above, according to the present embodiment, even when the driver of the moving body 100 is looking at a direction different from the obstacle while driving the moving body 100, the driver has a field of view. It is possible to generate stimulus information corresponding to a stimulus that can sense an external obstacle.
  • the driver can set the stimulating force according to the risk of the obstacle by associating the orientation of the obstacle with respect to the moving body 100 with a part such as the palm. It is possible to generate stimulus information corresponding to a stimulus that can not only detect the presence of an obstacle but also intuitively detect the direction and the degree of danger of the obstacle. Therefore, according to the present embodiment, not only the driver of the moving body 100 is warned that the obstacle is approaching the moving body 100, but also specifically, in what direction and how much. It is possible to generate stimulus information corresponding to a stimulus that also warns whether an obstacle is approaching a distance.
  • the information presenting device 103 does not have to include the risk calculation unit 321.
  • the information presentation device 103 is Obtaining risk information via the communication unit 380, The information necessary for generating the risk level information may be transmitted to the outside via the communication unit 380.
  • the stimulus generation unit 360 may generate stimulus information that sequentially stimulates all the stimulus points corresponding to the obstacles.
  • the embodiment is not limited to the one shown in the first and second embodiments, and various changes can be made as needed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

情報提示装置(103)は、移動体(100)運転手とステアリングホイール(200)との接触状態に関する把持検出情報と、ステアリングホイール(200)と手掌等との接触パターンを示すパターン情報とに基づいて、運転手がステアリングホイール(200)を把持している手掌等の部位を判別し、手掌等の部位の情報を含む把持情報を生成する把持検出部(340)と、移動体(100)が移動体(100)の周囲に位置する障害物と接触する可能性がある場合に、障害物を回避するよう運転手を誘導する刺激情報を把持情報に基づいて生成する刺激生成部(350)とを備える。

Description

情報提示装置、情報提示方法、及び、情報提示プログラム
 本発明は、情報提示装置、情報提示方法、及び、情報提示プログラムに関する。
 近年、安全意識の高まりにより、衝突回避システム、接近警告システム等の運転支援機能を搭載した自動車が一般的になってきている。これらのシステムは、主に音により運転手に情報を伝達する。音により情報を伝達する場合、音の強弱、鳴動パターン等により危険の深刻度を運転手に伝達することができるが、どの方向にどのような危険があるか等の情報を伝達することができない。また、音による不用意な警告は、かえって運転手の混乱、緊張等を招く原因となることがある。
 音に代わり、インストルメントパネルに警告灯を設置することにより視覚情報を提示する手法もある。しかし、この手法を採用する場合、運転手は情報を確認するために視線を前方から外す必要があるため、運転手の前方に対する注意の欠如を招く。
 特許文献1では、情報を提示する手段としてステアリングホイールに触提示装置を実装することにより、車両運転時に車両周囲の環境情報を触覚により運転手に提示する技術が示唆されている。
 特許文献1には、対象物が自車両に接近している場合に、対象物の方向、自車両の進行すべき方向等の方向に関する情報を、ステアリングホイール円周上に設置された触覚提示装置がステアリングホイールの振動等、特定パターンの刺激を発生させることにより、運転手に提示する技術が開示されている。
特開2010-018204号公報
 しかしながら、特許文献1の技術では、
 把持領域に基づいて把持腕が左右どちらであるかを判定し、
 運転手は、対象物の方向等の情報を受け取るために、左右の手それぞれにより、ステアリングホイールの指定された位置を把持する必要がある。
 そのため、右左折をする際に左右の手の把持領域を入れ替えた場合、又は、把持方法に運転手固有の癖がある場合等において、把持腕の左右の判定結果が反転すること、又は、運転手がステアリングホイールを把持していることを認識できないこと等があるため、これらの場合に、触覚提示装置が運転手に提示する刺激に対応する刺激情報を適切に生成することができないことがある。
 従って、特許文献1の技術には、運転手がステアリングホイールの限定された領域を定められた腕により把持していない限り、運転手に対して情報を伝達する刺激情報を適切に生成することができないという課題がある。
 本発明は、ステアリングホイールに実装された触提示装置が利用することができる刺激情報であって、運転手がステアリングホイールを把持している領域と腕とによらず、運転手に情報を伝達する刺激情報を適切に生成することを目的とする。
 本発明の情報提示装置は、
 刺激に対応する刺激情報に基づいて運転手に情報を提示するステアリングホイールを備える移動体の前記ステアリングホイールに前記刺激情報を送信する情報提示装置において、
 前記ステアリングホイールから前記運転手と前記ステアリングホイールとの接触状態に関する把持検出情報を受信し、
 人間が前記ステアリングホイールを把持しているときの、前記ステアリングホイールと手掌等との接触パターンを示すパターン情報を記憶しているパターンデータベースから前記パターン情報を受信し、
 前記把持検出情報と、前記パターン情報とに基づいて、前記運転手が前記ステアリングホイールを把持している手掌等の部位を判別し、前記手掌等の部位の情報を含む把持情報を生成する把持検出部と、
 前記移動体が前記移動体の周囲に位置する障害物と接触する可能性がある場合に、前記手掌等を刺激することにより前記障害物を回避するよう前記運転手を誘導する前記刺激情報を前記把持情報に基づいて生成する刺激生成部と
を備える。
 本発明の情報提示装置によれば、
 把持検出部が、ステアリングホイールが備える把持検出センサから受信した把持検出情報と、パターンデータベースから受信したパターン情報とに基づいて把持情報を生成し、
 刺激生成部が、把持情報に基づいて刺激情報を生成することにより、
 ステアリングホイールに実装された触提示装置が利用することができる刺激情報であって、運転手がステアリングホイールを把持している領域と腕とによらず、運転手に情報を適切に伝達する刺激情報を生成することができる。
実施の形態1及び2に係る情報提示装置103を備える移動体100の構成図。 移動体100が備えるステアリングホイール200の構成図であり、(a)はステアリングホイール200の正面図、(b)は(a)に示すA-A断面図。 環境検出センサ101の移動体100への搭載例。 実施の形態1に係る情報提示装置103の構成図。 実施の形態1に係る刺激生成部350の構成図。 実施の形態1に係る情報提示装置103のハードウェア構成図。 実施の形態1に係る情報提示装置103の動作を示すフローチャート。 パターン情報の例を示す図であり、(a)は運転手の手掌等における強度分布、(b)はステアリングホイール200における強度分布、(c)は(b)に示すステアリングホイール200の展開のイメージ。 把持検出処理における把持検出部340の入出力データを示す図。 実施の形態1に係る把持検出部340の動作を示すフローチャート。 実施の形態1に係る刺激生成部350が生成する刺激情報の例を示す図であり、(a)は右回転パターンを説明するグラフ、(b)は左回転パターンを説明するグラフ、(c)は刺激位置を示す図。 実施の形態1に係る刺激生成部350の動作を示すフローチャート。 移動体100が車線をはみ出し、移動体100と他車とが接触することが予想される場合のイメージ。 移動体100が車線変更を行い、移動体100と他車とが接触することが予想される場合のイメージ。 実施の形態1に係る変形例の動作を示すフローチャート。 実施の形態2に係る情報提示装置103の構成図。 実施の形態2に係る情報提示装置103の動作を示すフローチャート。 実施の形態2に係る刺激生成部360が生成する刺激情報を説明する図であり、(a)は移動体100の周囲の方位を示す図、(b)は右手と方位の対応を示す図、(c)は左手と方位の対応を示す図。 実施の形態2に係る刺激生成部360が生成する刺激情報を示す図であり、(a)は移動体100の周囲の方位を示す図、(b)は右手と方位の対応を示す図。 実施の形態2に係る刺激生成部360が生成する刺激情報の例を示す図であり、(a)は刺激パターン1を説明するグラフ、(b)は刺激パターン2を説明するグラフ、(c)は刺激位置を示す図。 運転手の死角に位置する障害物が移動体100に接近しているイメージを表す図。 運転手の死角に位置する障害物が移動体100に接近しているイメージを表す図。
 実施の形態1.
 以下、本実施の形態について、図面を参照しながら詳細に説明する。
***構成の説明***
 図1は、本実施の形態に係る情報提示装置103を搭載している移動体100の構成例を示す図である。
 本図に示すように、移動体100は、環境検出センサ101と、状態検出センサ102と、情報提示装置103と、ステアリングホイール200とを搭載している。
 移動体100は、典型的には車両であるが、船、飛行機等、移動時に人間が方向を制御する必要がある任意の物体であって良い。
 図2は、ステアリングホイール200の構成例を示す図である。
 本図の左側にステアリングホイール200の典型例を示し、右側にステアリングホイール200のBA断面における断面図を示す。
 本図に示すように、ステアリングホイール200は、触覚提示装置201と、把持検出センサ202とを有する。
 ステアリングホイール200の形状は、典型的には楕円形状であるが、異なる形状であっても良い。
 ステアリングホイール200の通常把持部の表面は、運転手が通常把持部のどの部位を把持した場合であっても、手掌等のいずれかの部位が触覚提示装置201に接触するよう、触覚提示装置201により覆われている。
 通常把持部は、
 ステアリングホイール200の内、運転手が移動体100の方向制御時に、通常、把持する部分のことであり、
 ステアリングホイール200が楕円形状である場合、ステアリングホイール200の外周部分である。
 移動体100の方向制御には、移動体100が正面方向に移動することを維持することが含まれる。
 触覚提示装置201は、運転手の手掌等に刺激を与えることにより、手掌等の触覚を介して運転手に情報を伝える装置である。
 触覚提示装置201は、具体例として、電極を用いて運転手に電気刺激を与える。本例において、触覚提示装置201は、典型的には、触覚提示処理部(図示せず)からの信号に対応する箇所の電極を用いて電気刺激を手掌等に出力することにより、障害物を回避するよう運転手を誘導する。この際、触覚提示装置201は、電気刺激の強度と、刺激位置とを調整する。なお、触覚提示装置201は、実施の形態2において、運転手に障害物の位置と脅威とを伝達する。
 触覚提示装置201は、超音波により手掌等に触覚刺激を与えるものであっても良く、一部が物理的に可動することにより手掌等の特定の位置を刺激するデバイスを内蔵するものであっても良く、他の手法により手掌等に触覚刺激を与えるものであっても良く、複数種類の刺激を手掌等に与えるものであっても良い。
 環境検出センサ101は、
 移動体100の周辺の環境を示す環境情報を検出し、
 障害物と、歩行者と、車両と等を検知するためのセンサ群であり、
 複数種類のセンサから構成されて良い。
 環境情報は、具体例として、移動体100と移動体100の周囲に存在する物体との距離情報と、移動体100の周囲の画像情報とを含む。
 環境検出センサ101を構成するセンサの個数は、任意であって良い。
 環境検出センサ101を構成するセンサは、
 周囲の情報を取得できる任意のセンサであって良く、
 具体例として、LiDAR(Light Detection And Ranging)、ミリ波レーダー、ソナー等の対象物までの距離を計測するセンサ、カメラ等の周辺環境を画像として取得するセンサ等である。
 図3は、環境検出センサ101の移動体100への搭載例を示す図である。
 本図において、4つの環境検出センサ101が移動体100の前と、後と、4隅とに取り付けられおり、これらの環境検出センサ101が移動体100の周辺の情報を取得している様子を円の一部により表している。
 状態検出センサ102は、
 移動体100の状態を示す移動体情報を検出し、
 移動体100の速度、加速度、及び/又は、操舵角等の、移動体100の状態を取得するためのセンサ群であり、
 複数種類のセンサから構成されて良い。
 状態検出センサ102を構成するセンサの個数は、任意であって良い。
 移動体情報は、具体例として、移動体100の速度と加速度と旋回速度と操舵角とを含む。
 状態検出センサ102を構成するセンサは、具体例として、GPS(Global Positioning System)、INS(登録商標、Internal Navigation System)等の移動体100の運動状態を取得することができるセンサ、ロータリーエンコーダ等の移動体100への入力を検出するセンサである。
 状態検出センサ102が取得した情報は、情報提示装置103による移動体100の軌道予測に用いられる。
 情報提示装置103は、
 環境検出センサ101と、状態検出センサ102との情報を制御し、触覚提示装置201に送る情報を決定し、
 環境検出センサ101と、状態検出センサ102とから取得した情報を、内部モジュールを用いて処理することにより、適切な触覚情報を生成する。
 図4は、本実施の形態に係る情報提示装置103の構成例を示す図である。
 本図に示すように、情報提示装置103は、障害物検出部300と、軌道予測部310と、危険判定部320と、軌道算出部330と、把持検出部340と、刺激生成部350と、通信部(インタフェイス)380と、記録部390とから構成される。なお、記録部390は本図に示していない。
 障害物検出部300は、
 環境検出センサ101からのデータに基づいて移動体100の周辺の障害物を検出し、
 典型的には、検出した障害物までの距離と、移動体100の進行方向と障害物とが成す角度と、障害物のサイズとから成る障害物情報を算出する。障害物検出部300は、障害物の形状等、他の障害物に関する情報を障害物情報に含めても良い。
 障害物検出部300は、複数の障害物を検出した場合、障害物毎に障害物情報を算出する。
 軌道予測部310は、状態検出センサ102から取得した移動体情報に基づいて移動体100の予測軌道を算出する。
 危険判定部320は、
 典型的には、障害物検出部300が算出した障害物情報と、軌道予測部310が算出した移動体100の予測軌道とに基づき、移動体100が障害物と接触する可能性があるか否かを判定する。
 危険判定部320は、障害物が複数ある場合、障害物毎に上記の処理を実行する。
 軌道算出部330は、
 危険判定部320が移動体100と接触する可能性があると判定した障害物を回避する軌道を算出し、
 算出した軌道を通るために必要な速度と操舵角とを算出する。
 軌道算出部330は、危険度が高い障害物が複数ある場合、危険度が高い障害物全ての障害物を回避する軌道等を算出する。
 把持検出部340は、典型的には、
 記録部390が記録している把持検出情報であって、運転手とステアリングホイール200との接触状態に関する把持検出情報と、パターンDB(データベース)501が記憶しているパターン情報とに基づいて把持情報を生成し、
 生成した把持情報を、記録部390に記録する。
 把持情報は、
 運転手がステアリングホイール200を把持している手掌等の部位の情報を含み、
 典型的には、把持領域と、把持腕と、把持指とを含む情報であり、
 把持腕が左右両腕である場合、それぞれの腕について、把持領域と、把持指との情報を含む。
 把持領域は、運転手がステアリングホイール200を把持しているときに運転手の1の腕先とステアリングホイール200とが接触している領域であって、ステアリングホイール200上の領域のことである。
 手掌等は、手掌と、指と等、運転手がステアリングホイール200を把持した際に、運転手とステアリングホイール200とが、通常、接触することがある部分のことである。
 把持腕は、ステアリングホイール200を把持している1の腕のことである。
 把持指は、ステアリングホイール200を把持している1の腕先にある少なくとも1の指のことである。
 パターンDB501は、パターン情報を記憶しているデータベースである。
 パターン情報は、
 人間がステアリングホイール200を把持しているときの、手掌等とステアリングホイール200との接触パターンを示す情報であり、
 人間がステアリングホイール200を把持しているときの、手の位置と、把持検出センサ202の出力との関係を表す情報であり、
 把持検出部340が、把持腕と把持指とを判別する際に必要な情報である。
 パターン情報の形式は、任意であって良い。
 パターン情報は、具体例として、
 運転手がステアリングホイール200を把持しているときに発生する手掌等の各部位における圧力又は静電容量の閾値と、各部位の位置関係と、部位の大きさと等の、運転手が手掌等をステアリングホイール200に置いているときに取得することができる特徴を含む情報であり、
 ステアリングホイール200を把持しているそれぞれの手について、手の部位の位置関係と、圧力又は静電容量との関係に関する情報である。
 パターン情報は、圧力又は静電容量の分布を示す情報であっても良い。
 把持検出部340は、典型的には、パターン情報を比較対象として用いる。
 刺激生成部350は、典型的には、記録部390が記録している制御情報に従うよう運転手を誘導する刺激情報を生成する。
 刺激情報は、触覚提示装置201が運転手に与える刺激の情報であり、典型的には、刺激位置と刺激パターンとを含む。
 刺激位置は、触覚提示装置201上の位置であって、触覚提示装置201が運転手の手掌等を刺激する位置である。
 刺激パターンは、具体例として、触覚提示装置201が運転手の手掌等を刺激する部位、刺激する部位に関する順序、タイミング等から成る。
 図5は、刺激生成部350の構成例を示す図である。
 刺激生成部350は、本図に示すように、位置調整部351と、パターン生成部352と、位置決定部353とから成る。
 通信部380は、情報提示装置103が外部の機器と通信するためのインタフェイスである。通信部380の通信方法は、有線と無線とを問わない。
 記録部390は、情報提示装置103の各部の処理において必要な情報を記録している。情報提示装置103の記録部390以外の各部は、記録部390に情報を記録することができる。
 把持検出センサ202は、
 運転手がステアリングホイール200を把持していることを検出するセンサであり、
 圧力センサであっても良く、静電容量式のセンサであっても良く、他のセンサであっても良い。
 把持検出センサ202が圧力センサである場合、運転手がステアリングホイール200を把持することにより、運転手の手掌等とステアリングホイール200との接触部分に圧力が発生するため、把持検出センサ202は、把持領域の接触強度を検出することができる。
 把持検出センサ202が静電容量式のセンサである場合、運転手がステアリングホイール200を把持する際に、手掌等とステアリングホイール200との隙間の差異によって静電容量が変化するため、把持検出センサ202は、把持領域を検出することができる。
 把持検出センサ202は、複数種類のセンサを組み合わせたものであっても良い。
 図6は、情報提示装置103のハードウェア構成例を示す図である。
 本図に示すように、情報提示装置103は、プロセッサ10と、メモリ11と、記憶装置12と、通信IF13とから構成される。
 情報提示装置103として用いられる装置は、具体例として、ECU(Electric Control Unit)である。
 プロセッサ10は、
 情報提示プログラムと、OS(Operating System)19と等を実行するプロセッシング装置であり、
 メモリ11と接続されており、演算に必要なデータの一時記憶、及び/又は、データの保存を行い、メモリ11に格納されたプログラムを読み出して実行する。
 プロセッシング装置は、
 IC(Integrated Circuit)と呼ばれることもあり、
 具体例として、CPU(Central Prosessing Unit)である。
 情報提示装置103は、プロセッサ10を代替する複数のプロセッサを備えていても良い。これら複数のプロセッサは、プログラムの各機能を分担して実行する。それぞれのプロセッサは、具体例として、CPUである。
 メモリ11は、プログラムの処理途中のデータを一時的に記憶するストレージであり、具体例として、RAM(Randam Access Memory)、フラッシュメモリ、又は、これらを組み合わせたものである。
 記録部390は、メモリ11から構成される。
 記憶装置12は、
 情報提示プログラムと、プロセッサ10によって実行される各プログラムと、SW16と、各プログラムの実行時に使用されるデータと等を記憶し、
 具体例として、HDD(Hard Disk Drive)、又は、SSD(Solid State Drive)である。
 通信IF13は、
 情報提示装置103が使用するデータを受信するレシーバと、情報提示装置103が出力するデータを送信するトランスミッタとを備え、
 プロセッサ10からの指示に従って環境検出センサ101及び/又は状態検出センサ102が出力するデータを受信し、触覚提示装置201にデータを送信し、
 具体例として、Ethernet(登録商標)、又は、CAN(Controller Area Network)である。
 通信部380は、通信IFから構成される。
 なお、通信IF13は、複数のポートであっても良い。
 SW16は、本実施の形態のソフトウェア構成を示し、障害物検出部300と、軌道予測部310と、危険判定部320と、軌道算出部330と、把持検出部340と、刺激生成部350と、OS19とから構成される。
 OS19は、プロセッサ10によって記憶装置12からロードされ、メモリ11に展開され、プロセッサ10によって実行される。
 情報提示プログラムは、メモリ11からプロセッサ10に読み込まれ、プロセッサ10によって実行される。
 情報提示装置103の機能は、情報提示プログラムによって実現される。
 情報提示プログラムが扱うデータ等は、メモリ11、記憶装置12、又は、プロセッサ10内のレジスタ又はキャッシュメモリに記憶される。
 通信IF13が取得するデータと、情報提示プログラムの算出結果とは、典型的には、メモリ11に記憶される。メモリ11及び記憶装置12に記憶されたデータ等は、プロセッサ10からの要求に応じて入出力される。
 情報提示プログラムは、コンピュータ読取可能な媒体に記録されて提供されても良く、記憶媒体に格納されて提供されても良く、プログラムプロダクトとして提供されても良い。
 OS19と、SW16とは、メモリ11に記憶されていても良い。
 記録部390は、記憶装置12から構成されても良く、メモリ11と記憶装置12とから構成されても良い。
***動作の説明***
 情報提示装置103の動作手順は、情報提示方法に相当する。また、情報提示装置103の動作を実現するプログラムは、情報提示プログラムに相当する。
 情報提示装置103は、障害物を回避するよう運転手を誘導する情報を、運転手の触覚を介して運転手に伝達する。
 本実施の形態において、典型的には、移動体100が稼働している間、
 環境検出センサ101は、環境情報を常時検出しており、
 状態検出センサ102は、移動体情報を常時検出している。
 図7は、情報提示装置103の動作を示すフローチャートの例である。情報提示装置103は、本図に示す処理の順序を適宜変更して良く、一部の処理を並行して実行しても良い。
(ステップS101:環境検出処理)
 障害物検出部300は、
 環境検出センサ101が検出した移動体100の周囲の環境情報を、通信部380を介して取得し、
 取得した環境情報を記録部390に記録する。
(ステップS102:状態検出処理)
 軌道予測部310は、
 状態検出センサ102が検出した移動体情報を、通信部380を介して取得し、
 取得した移動体情報を記録部390に記録する。
(ステップS103:障害物検出処理)
 障害物検出部300は、
 記録部390が記録している環境情報に基づいて障害物を検出し、
 障害物検出部300は、少なくとも1の障害物を検出した場合、障害物の情報を障害物情報として記録部390に記録する。
 障害物検出部300が障害物を検出する手法は、任意であって良い。
 障害物検出部300は、具体例として、
 カメラが取得した画像を画像処理することにより障害物領域を検出し、
 LiDAR及び/又はミリ波レーダー等が取得した情報に基づいて、移動体100と検出した障害物領域との距離を算出し、
 障害物領域と、算出した距離とに基づいて、移動体100と、障害物領域の障害物とが接触する可能性があるか否かを判定する。
 危険判定部320は、記録部390が記録している障害物情報に基づいて、移動体100と、検出した障害物とが接触する可能性があるか否かを判定する。
 危険判定部320は、障害物情報に複数の障害物が含まれている場合、移動体100と、それぞれの障害物とが接触する可能性があるか否かを判定する。
 情報提示装置103は、
 危険判定部320が、移動体100と、検出した障害物の内少なくとも1つとが接触する可能性があると判定した場合、ステップS104に進み、
 それ以外の場合、ステップS101に進む。
(ステップS104:軌道予測処理)
 軌道予測部310は、
 記録部390が記録している移動体情報に基づいて、移動体100の軌道を予測し、
 予測した軌道を軌道予測情報として記録部390に格納する。
 軌道予測部310は、具体例として、
 ジャイロセンサが取得した情報に基づいて移動体100の旋回速度を算出し、
 加速度センサ及び/又は車輪速センサが取得した情報に基づいて移動体100の走行速度を算出し、
 旋回速度と、走行速度とに基づいて移動体100の軌道を予測する。
(ステップS105:回避軌道算出処理)
 軌道算出部330は、
 記録部390が記録している障害物情報と軌道予測情報とに基づいて、障害物を回避することができる回避起動を算出し、
 回避軌道を通るために必要な制御情報とを算出し、
 算出した回避情報と制御情報とを記録部390に格納する。
 制御情報は、具体例として、回避軌道を通るために必要な操舵角の情報である。
(ステップS106:把持検出処理)
 把持検出部340は、
 把持検出センサ202から把持検出情報を取得し、
 取得した把持検出情報を記録部390に格納し、
 取得した把持検出情報と、パターンDB501が記憶しているパターン情報とに基づいて把持情報を生成し、
 生成した把持情報を記録部390に記録する。
(ステップS107:刺激生成処理)
 刺激生成部350は、
 記録部390が記録している把持情報と制御情報とに基づいて刺激情報を生成し、
 生成した刺激情報を記録部390に記録する。
 刺激生成部350は、具体例として、制御情報が示す方向にステアリングを回転するよう運転手を誘導する刺激情報を生成する。
(ステップS108:送信処理)
 刺激生成部350は、記録部390が記録している刺激情報を、通信部380を介して触覚提示装置201に送信する。
 触覚提示装置201は、受信した刺激情報に基づいて運転手の手掌等を刺激することにより、運転手に情報を提示する。
***把持検出処理の動作の説明***
 図8は、パターン情報の例を説明する図である。
 本図の左上に示す図は、人が棒状の物体を把持しているときの、圧力の分布の例と、静電容量の分布の例とを示す図である。
 人が棒状の物体を把持しているとき、通常、手掌等と棒状の物体との間における圧力と静電容量とは、本図に示すように、第1手指の付け根の母指球と、第5手指付け根の小指球と、第1手指から第5手指までの各指先と等において高くなる。
 本図の右側に示す図は、運転手がステアリングホイール200を把持しているときの、把持領域周辺の圧力分布の例を示す図である。右下に示す図は、展開のイメージに示すように把持領域周辺の表面部分を展開した図であり、把持領域周辺の圧力分布の例を示す図である。
 パターンDB501は、具体例として、本図に示す圧力分布と手の部位とを結びつけた情報をパターン情報として記録している。
 把持検出部340は、具体例として、このようなパターン情報と、把持検出情報とを比較することにより、把持腕と、把持指とを判別する。
 図9は、把持検出処理における把持検出部340の入出力データを示す図である。
 本図に示すように、把持検出部340は、把持検出処理において、
 把持検出情報と、パターン情報とを受信し、
 把持情報を記録部390に出力する。
 図10は、把持検出部340の把持検出処理における動作を示すフローチャートの例である。把持検出部340は、本図に示す処理の順序を適宜変更しても良い。
(ステップS201:情報取得処理)
 把持検出部340は、
 把持検出部340が把持検出センサ202から把持検出情報を取得した場合に、取得した把持検出情報を記録部390に記録し、ステップS202に進み、
 それ以外の場合、本ステップの処理を続ける。
(ステップS202:特定処理)
 把持検出部340は、
 記録部390が記録している把持検出情報に基づいて把持領域を特定し、
 特定した把持領域を記録部390に記録する。
 把持検出部340は、把持領域が複数ある場合、それぞれの把持領域を特定する。
(ステップS203:判別処理)
 把持検出部340は、
 パターンDB501からパターン情報を読み出し、
 記録部390が記録している把持検出情報と、パターン情報とを比較することにより、把持領域毎に、把持腕と把持指とを判別し、
 判別した把持腕と把持指とを、把持領域と対応させて記録部390に記録する。
 把持検出部340は、把持腕と把持指とを判別する手法として任意の手法を採用して良く、具体例として、テンプレートマッチング、又は、機械学習に基づく手法を採用する。
 把持検出部340は、具体例として、母指球と、第1手指と等の運転手が物体を把持する際に確実に接触する部位を規準とし、これらの部位からの距離、位置関係、及び/又は、出力の強度の閾値等と、パターン情報とを比較することによって、把持腕と把持指とを判別する。
***刺激生成処理の動作の説明***
 ステップS107に示す刺激生成処理を説明する。
 刺激生成部350は、具体例として、仮現運動という現象が発生するような刺激に対応する刺激情報を生成する。本例における刺激情報の刺激は、一定時間おきに刺激位置を順次変更することにより、あたかも把持領域が動いているかのように運転手に錯覚させるものである。本例において、触覚提示装置201は、刺激情報に基づいてステアリングホイール200を左回転又は右回転するよう運転手を誘導する。
 以下、本例における刺激情報について具体的に説明する。
 図11は、刺激情報の例を示す図である。
 本図において、
 p11からp18は、刺激情報の刺激位置を表しており、
 右回転パターンは、ステアリングホイール200を右回転するよう運転手を誘導する場合における、時刻と、刺激力と、刺激位置との関係を表した図であり、
 左回転パターンは、右回転パターンにおける右回転を左回転に読み替えることを除いて右回転パターンと同様である。
 刺激力は、刺激の強度のことである。
 刺激生成部350は、ステアリングホイール200を右回転するよう運転手を誘導する場合、右回転パターンに示す刺激情報を生成する、即ち、一定時間おきに刺激位置を順に変えながら手掌等に刺激を与えることに対応する刺激情報を生成する。
 触覚提示装置201は、右回転パターンに示す刺激情報に基づいて手掌等を刺激する場合、時刻t1においてp11に刺激力Faの刺激を与え、時刻t2においてp12に刺激力Faの刺激を与えるというように順に刺激を与えることにより、右回転の仮現運動を生じさせる。
 刺激生成部350は、ステアリングホイール200を左回転するよう運転手を誘導する場合、左回転パターンに示す刺激情報を生成する。
 なお、刺激生成部350は、運転手が左手又は右手のみでステアリングホイール200を把持している場合、把持している手のみを刺激する刺激情報を、両手を刺激する刺激情報と同様に生成する。
 図12は、刺激生成部350の動作を示すフローチャートの例である。刺激生成部350は、本図に示す処理の順序を適宜変更しても良い。
 刺激生成部350は、運転手がステアリングホイール200を両手で把持しているか片手で把持しているかに関わらず、同様に本フローチャートの処理を実行する。
(ステップS301:有効判断処理)
 位置調整部351は、記録部390が記録している把持情報に基づいて、有効部位情報を生成する。
 有効部位情報は、運転手の手掌等の部位であって、触覚提示装置201が運転手に有効な刺激を与えることができる部位の情報を含む。
(ステップS302:パターン生成処理)
 パターン生成部352は、記録部390が記録している制御情報に基づいて、典型的には、刺激力と、出力周波数とを含む刺激パターンを生成する。
(ステップS303:位置選択処理)
 位置決定部353は、
 位置調整部351が生成した有効部位情報と、パターン生成部352が生成した刺激パターンとに基づいて、仮現運動が生じるような刺激位置を選択し、
 刺激位置と、刺激パターンとに基づいて刺激情報を生成し、
 生成した刺激情報を記録部390に記録する。
 位置決定部353は、運転手が両手を用いてステアリングホイール200を把持しており、運転手が両手とも五指を用いてステアリングホイール200を把持している場合、具体例として、ステアリングホイール200を左回転するよう運転手を誘導する場合、図11のp11からp18に対応する刺激位置を選択する。
***実施の形態1の特徴***
 情報提示装置103は、
 刺激に対応する刺激情報に基づいて運転手に情報を提示するステアリングホイール200を備える移動体100のステアリングホイール200に刺激情報を送信する情報提示装置103において、
 ステアリングホイール200から運転手とステアリングホイール200との接触状態に関する把持検出情報を受信し、人間がステアリングホイール200を把持しているときの、ステアリングホイール200と手掌等との接触パターンを示すパターン情報を記憶しているパターンデータベース501からパターン情報を受信し、把持検出情報と、パターン情報とに基づいて、運転手がステアリングホイール200を把持している手掌等の部位を判別し、手掌等の部位の情報を含む把持情報を生成する把持検出部340と、
 移動体100が移動体100の周囲に位置する障害物と接触する可能性がある場合に、手掌等を刺激することにより障害物を回避するよう運転手を誘導する刺激情報を把持情報に基づいて生成する刺激生成部350と
を備える。
 情報提示装置103は、
 移動体100から移動体100の周辺の環境を示す環境情報を受信する障害物検出部300と、
 環境情報に基づいて、障害物を検出し、移動体100と障害物とが接触する可能性があるか否かを判定する危険判定部320と
を備える。
 情報提示装置103は、
 移動体100から移動体100の速度と加速度と旋回速度と操舵角とを含む移動体情報を受信し、移動体情報に基づいて移動体100の軌道を予測して軌道予測情報を生成する軌道予測部310と、
 軌道予測情報に基づいて制御情報を生成する軌道算出部330と
を備え、
 刺激生成部350は、把持情報と、制御情報とに基づいて刺激情報を生成する。
 刺激生成部350は、仮現運動が発生するような刺激に対応する刺激情報を生成する。
 刺激生成部350は、刺激情報に対応する刺激を、運転手の左手と右手とを交互に刺激する刺激であって、運転手の左手の第5手指から第2手指の付け根を1箇所ずつ順に刺激する刺激であって、運転手の右手の第2手指から第5手指の付け根を1箇所ずつ順に刺激する刺激であって、一定時間おきに刺激する箇所を変更する刺激とすることにより、ステアリングホイール200を右回転するよう運転手を誘導する。
***実施の形態1の効果の説明***
 以上のように、本実施の形態によれば、
 把持検出部340が、ステアリングホイール200が備える把持検出センサ202から受信した把持検出情報と、パターンDB501から受信したパターン情報とに基づいて把持情報を生成し、
 刺激生成部350が、把持情報に基づいて刺激情報を生成することにより、
 ステアリングホイール200に実装された触提示装置が利用することができる刺激情報であって、運転手がステアリングホイール200を把持している領域と腕とによらず、運転手に情報を適切に伝達する刺激情報を生成することができる。
 本実施の形態によれば、図8に示すような、把持腕と、把持指と、圧力分布と等の強度分布に関するパターン情報を記憶しているパターンDB501からパターン情報を取得した場合、パターン情報と、把持検出情報に基づいて検出した強度分布とを比較し、把持腕と、把持指とを判別し、把持腕及び/又は把持指の位置に応じて運転手に刺激を与える刺激情報を生成することができる。
 そのため、本実施の形態によれば、運転手が代わった場合、又は、運転手が持ち方を変更した場合であっても、適切な位置に刺激を与えることにより運転手を誘導する刺激情報を生成することができる。
 従って、本実施の形態によれば、運転手がより安全に移動体100を運転することを支援することができる。
 また、本実施の形態によれば、把持検出部340が、把持腕だけではなく、ステアリングホイール200を把持している手掌及び五指の部位を判別することができる。そのため、刺激生成部350は、把持方法と関係なく、把持領域の範囲内において刺激位置を適切に選択することができる。
 具体例として、移動体100の運転手が、旋回時にステアリングホイール200の左側を右手で、右側を左手で把持している場合であっても、左右の手に適切な刺激を提示する刺激情報を生成することができる。ステアリングホイール200の左側は、ステアリングホイール200を回していない状態において、運転手から見たステアリングホイール200の左側のことである。
 本実施の形態によれば、把持方法に関わらず運転手の把持状態を検出することができるため、運転手が旋回時に腕を交差した場合、指の欠損がある等、障害を持つ人が移動体100を運転している場合であっても、把持方法に応じた刺激を与える刺激情報を生成することができる。
 また、移動体100の運転手が、運転中に、前方不注意等により車線逸脱し、移動体100と障害物とが接触する可能性が生じた場合、又は、車線変更時に運転手の死角から接近した障害物と移動体100とが接触する可能性が生じた場合であっても、
 刺激生成部350が、制御情報が示す方向に操舵するよう運転手を誘導する刺激に対応する刺激情報を生成し、
 触覚提示装置201が、刺激情報に基づいて運転手に情報を提示することにより、障害物を回避するよう運転手を誘導することができる。
 以下、本実施の形態に係る効果について、図を用いて説明する。
 図13は、移動体100が車線をはみ出し、移動体100と他車とが接触することが予想される場合のイメージを表す図である。
 移動体100が本図に示すように、移動体100が、車線をはみ出し、他車と接触する可能性がある危険判定部320が予測した場合、
 刺激生成部350は、図11の左回転パターンに示すような刺激情報を生成し、
 触覚提示装置201は、左回転パターンに示すような刺激情報に基づいて運転手の手掌等を刺激して仮現運動を発生させることによって、ステアリングホイール200を左回転するよう運転手を誘導する。
 従って、本実施の形態によれば、移動体100が車線をはみ出し、他車と接触する可能性がある場合、移動体100が車線をはみ出さないよう運転手を誘導する刺激情報を生成することができる。
 図14は、移動体100が車線変更を行い、移動体100と他車とが接触することが予想される場合のイメージを表す図である。
 移動体100が本図に示すように、移動体100が、車線をはみ出し、他車と接触する可能性があることを危険判定部320とが予測した場合、
 刺激生成部350は、図11の左回転パターンに示すような刺激情報を生成し、
 触覚提示装置201は、左回転パターンに示すような刺激情報に基づいて運転手の手掌等を刺激して仮現運動を発生させることによって、移動体100が車線変更することを抑止するよう運転手を誘導する。
 従って、本実施の形態によれば、移動体100が車線変更等を行う際に他車と接触する可能性がある場合、車線を維持するよう運転手を誘導する刺激情報を生成することができる。
<変形例1>
 情報提示装置103は、移動体100に搭載されていなくても良い。
 本変形例において、情報提示装置103は、通信部380を介して移動体100と通信する。
<変形例2>
 情報提示装置103は、移動体100が備える環境検出センサ101から環境情報を取得しなくても良い。
 本変形例において、情報提示装置103は、具体例として、車車間通信を用いて他車から環境情報を取得しても良く、路車間通信を用いて路側に設置された通信装置から環境情報を取得しても良く、一般的な通信網を用いて中央制御装置等から環境情報を取得しても良い。
 同様に、情報提示装置103は、
 移動体100が備える状態検出センサ102から移動体情報を取得しなくても良く、
 移動体100が備えるパターンDB501からパターン情報を取得しなくても良い。
<変形例3>
 情報提示装置103は、障害物検出部300を備えなくても良い。
 本変形例において、情報提示装置103は、通信部380を介して障害物情報を取得する。
<変形例4>
 情報提示装置103は、軌道予測部310を備えなくても良い。
 本変形例において、情報提示装置103は、通信部380を介して軌道予測情報を取得する。
<変形例5>
 情報提示装置103は、危険判定部320を備えなくても良い。
 本変形例において、情報提示装置103は、
 通信部380を介して障害物と接触する可能性があるか否かに関する情報を取得し、
 障害物と接触する可能性があるか否かに関する情報を生成するために必要な情報を通信部380を介して外部に送信しても良い。
<変形例6>
 情報提示装置103は、軌道算出部330を備えなくても良い。
 本変形例において、情報提示装置103は、
 通信部380を介して制御情報を取得し、
 制御情報を生成するために必要な情報を通信部380を介して外部に送信しても良い。
<変形例7>
 情報提示装置103は、複数のコンピュータから構成されても良い。
<変形例8>
 危険判定部320は、障害物と接触する可能性があるか否かを判定する際に、軌道予測情報を考慮しても良い。
 図15は、本変形例における情報提示装置103の動作を示すフローチャートの例である。
 本変形例において、
 情報提示装置103は、ステップS103の処理を実行する前にステップS104の処理を実行し、
 ステップS103において、危険判定部320は、記録部390が記録している障害物情報と軌道予測情報とに基づいて、障害物と接触する可能性があるか否かを判定する。
<変形例9>
 危険判定部320は、検出した障害物が移動している場合、障害物の軌道を予測し、予測した軌道を考慮して障害物と接触するか否かを判定しても良い。
<変形例10>
 把持検出部340は、把持領域を検出しなくても良い。
 本変形例において、把持検出部340は、典型的には、把持検出センサ202が検出した把持領域の情報を取得して用いる。
<変形例11>
 把持検出部340は、把持指を判定しなくても良い。
 本変形例において、刺激生成部350は、典型的には、把持領域の把持指以外の部分を刺激する刺激情報を生成する。
<変形例12>
 刺激生成部350は、刺激する時間間隔を設定することにより、ステアリングホイール200を回す量を運転手に伝えても良い。
 本変形例において、刺激生成部350は、典型的には、
 ステアリングホイール200を大きく回すよう運転手を誘導する場合、刺激する時間間隔が短い刺激情報を生成し、
 ステアリングホイール200を小さく回すよう運転手を誘導する場合、刺激する時間間隔が長い刺激情報を生成する。
<変形例13>
 触覚提示装置201と、把持検出センサ202との位置関係は、任意であって良い。
<変形例14>
 触覚提示装置201と、把持検出センサ202とを、ステアリングホイール200の全周に配置せず、一般的な運転手が把持する領域にのみ配置しても良い。
<変形例15>
 本実施の形態では、各機能構成要素をソフトウェアで実現する場合を説明した。しかし、変形例として、各機能構成要素はハードウェアで実現されても良い。
 各機能構成要素がハードウェアで実現される場合には、情報提示装置103は、プロセッサ10に代えて、電子回路17を備える。あるいは、図示しないが、情報提示装置103は、プロセッサ10、メモリ11、及び/又は記憶装置12に代えて、電子回路17を備える。電子回路17は、各機能構成要素(及びメモリ11と記憶装置12)の機能を実現する専用の電子回路である。電子回路を、処理回路と呼ぶこともある。
 電子回路17は、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)が想定される。
 各機能構成要素を1つの電子回路17で実現してもよいし、各機能構成要素を複数の電子回路17に分散させて実現してもよい。
 あるいは、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
 前述したプロセッサ10とメモリ11と記憶装置12と電子回路17とを、総称して「プロセッシングサーキットリー」という。つまり、各機能構成要素の機能は、プロセッシングサーキットリーにより実現される。
 実施の形態2.
 以下、前述した実施の形態と異なる点について、図面を参照しながら説明する。
***構成の説明***
 図16は、本実施の形態に係る情報提示装置103の構成例を示す図である。
 本図に示すように、情報提示装置103は、
 危険判定部320と、軌道算出部330と、刺激生成部350とを備えず、
 危険度算出部321と、刺激生成部360とを備える。
 障害物検出部300と、軌道予測部310と、把持検出部340とは、実施の形態1と同様である。
 危険度算出部321は、
 典型的には、障害物検出部300が算出した障害物情報と、軌道予測部310が算出した移動体100の予測軌道とに基づいて、障害物情報に含まれる障害物の危険度を算出する。
 危険度算出部321は、障害物情報に複数の障害物が含まれる場合、障害物毎に危険度を算出する。
 刺激生成部360は、記録部390が記録している障害物情報と把持情報と危険度情報とに基づいて、刺激情報を生成する。
 刺激生成部360は、危険度が高い障害物が複数ある場合、典型的には、危険度が高い障害物全てに対応する刺激情報を生成する。
***動作の説明***
 本実施の形態に係る情報提示装置103は、
 運転手に警告する警告装置として機能し、
 移動体100の周囲に障害物が存在する場合、運転手の手掌等の触覚を介して運転手に警告し、
 刺激によりステアリングホイール200を操作するよう運転手を誘導しない。
 図17は、情報提示装置103の動作を示すフローチャートの例である。情報提示装置103は、本図に示す処理の順序を適宜変更しても良い。
 情報提示装置103は、
 ステップS104と、ステップS105との処理を実行する代わりに、ステップS114の処理を実行し、
 ステップS107の処理を実行する代わりに、ステップS117の処理を実行する。
(ステップS114:危険度算出処理)
 危険度算出部321は、
 記録部390が記録している障害物情報に含まれる障害物の危険度を、障害物と移動体100との距離、及び/又は、移動体100の速度等に基づいて算出し、
 算出した危険度に基づいて危険度情報を生成し、
 生成した危険度情報を記録部390に記録する。
 危険度算出部321は、任意の手法により障害物の危険度を算出して良い。
(ステップS117:刺激生成処理)
 刺激生成部360は、
 記録部390が記録している障害物情報と把持情報と危険度情報とに基づいて刺激情報を生成し、
 生成した刺激情報を記録部390に記録する。
(ステップS303:位置選択処理)
 刺激生成部360は、仮現運動が生じるような刺激位置を選択する代わりに、障害物の位置を運転手に伝えることができるような刺激位置を選択する。
 刺激生成部360が生成する刺激情報の例を、図を用いて説明する。
 図18は、把持領域と、方位とを対応付けた刺激情報を説明する図である。
 本図において、
 運転手は、両手を用い、両手とも5指を用いてステアリングホイール200を把持しており、
 運転手の両腕の第2手指から第5手指の付け根は、ステアリングホイール200に密着しているものとする。
 情報提示装置103は、具体例として、本図に示すように、把持領域と、方位とを対応付ける。
 情報提示装置103は、本図に示すように、
 移動体100の周囲の方位を角度により表し、
 移動体100の正面方向を0度とし、
 方位として、移動体100の正面方向と各方向とが成す角度であって、移動体100を真上から見た場合の時計回り方向の角度を用い、
 運転手の右手を車両の正面方向に対して右側の方位と対応させ、
 運転手の左手を車両の正面方向に対して左側の方位と対応させる。
 刺激生成部360は、具体例として、
 右手の第2手指付近を0度と対応させ、
 右手の第2手指から第4手指の領域を45度から135度までと対応させ、
 第5手指付近を180度と対応させる。
 本例において、
 刺激生成部360は、障害物が位置する方位に対応する箇所を刺激する刺激情報を生成し、
 触覚提示装置201は、前記刺激情報に基づいて運転手の手掌等を刺激することにより、運転手に対して障害物が位置する方位を直感的に伝達することができる。
 図19は、図18と同様の図であり、運転手が右手のみによりステアリングホイール200を把持している場合における刺激情報を説明する図である。
 刺激生成部360が運転手の両手を刺激する刺激情報を生成する場合と異なる点について、以下で説明する。
 刺激生成部360は、運転手が右手のみによりステアリングホイール200を把持している場合、具体例として、
 右手の第2手指付近を0度から45度までと315度から360度までとに対応させ、
 右手の第2手指から第4手指の領域を45度から135度までと、225度から315度までとに対応させ、
 第5手指付近を135度から225度までと対応させる。
 刺激生成部360は、運転手が左手のみによりステアリングホイール200を把持している場合、本例と同様に刺激情報を生成する。
 刺激生成部360は、刺激力によって移動体100と障害物との距離、及び/又は、障害物の危険度を運転手に伝えても良い。
 図20は、図21と図22とに示す状況において刺激生成部360が生成する刺激情報の例を示す図であって、時刻と刺激力との関係を示す図である。
 図21と図22とは、運転手の死角に位置する障害物が移動体100に接近しているイメージを示す図である。センサ視野は、環境検出センサ101が検知している範囲を示す。運転手視野は、移動体100の運転手の視野を示す。
 本例において、刺激生成部360は、
 左方向に歩行者が存在することを知らせるために、p20を刺激パターン1に示すように刺激し、
 右方向に車両が存在することを知らせるために、p21を刺激パターン2に示すように刺激する。
 本例において、
 歩行者の方が車両よりも移動体100に近いため、刺激パターン1の刺激の周期は刺激パターン2の刺激の周期よりも短く、
 車両の方が歩行者よりも危険度が高いため、刺激パターン2の刺激力は刺激パターン1の刺激力よりも大きい。
 なお、車両の危険度が歩行者の危険度よりも高くなくても良い。
***実施の形態2の特徴***
 情報提示装置103は、
 刺激に対応する刺激情報に基づいて運転手に情報を提示するステアリングホイール200を備える移動体100のステアリングホイール200に刺激情報を送信する情報提示装置103において、
 ステアリングホイール200から運転手とステアリングホイール200との接触状態に関する把持検出情報を受信し、人間がステアリングホイール200を把持しているときの、ステアリングホイール200と手掌等との接触パターンを示すパターン情報を記憶しているパターンデータベース501からパターン情報を受信し、把持検出情報と、パターン情報とに基づいて、運転手がステアリングホイール200を把持している手掌等の部位を判別し、手掌等の部位の情報を含む把持情報を生成する把持検出部340と、
 移動体100と、移動体100の周囲に障害物が存在する場合に、手掌等を刺激することにより運転手に障害物の危険度を伝える刺激情報を把持情報に基づいて生成する刺激生成部360と
を備える。
 情報提示装置103は、
 移動体100から移動体100の周辺の環境を示す環境情報を受信する障害物検出部300と、
 環境情報に基づいて、障害物を検出し、障害物の危険度を算出する危険度算出部321と
を備え、
 刺激生成部360は、把持情報と、危険度とに基づいて刺激情報を生成する。
 刺激生成部360は、刺激情報に対応する刺激を、障害物が位置する方位であって、移動体100の進行方向に対する方位に対応する運転手の手の部位を刺激する刺激であって、障害物の危険度に応じた強さの刺激とする。
***実施の形態2の効果の説明***
 以上のように、本実施の形態によれば、移動体100の運転手が移動体100の運転中に、障害物とは異なる方向に視線を向けている場合であっても、運転手が視野外の障害物を感知することができる刺激に対応する刺激情報を生成することができる。
 また、本実施の形態によれば、移動体100に対する障害物の方位と、手掌等の部位とを対応付けることと、刺激力を障害物の危険度に応じたものとすることにより、運転手が障害物の存在を感知することができるだけではなく、障害物の方位と危険度とを直感的に感知することもできる刺激に対応する刺激情報を生成することができる。
 従って、本実施の形態によれば、移動体100の運転手に対して、障害物が移動体100に接近していることを警告するだけではなく、具体的に、どの方位に、どの程度の距離に障害物が迫ってきているかについても警告する刺激に対応する刺激情報を生成することができる。
<変形例16>
 情報提示装置103は、危険度算出部321を備えなくても良い。
 本変形例において、情報提示装置103は、
 通信部380を介して危険度情報を取得し、
 危険度情報を生成するために必要な情報を通信部380を介して外部に送信しても良い。
<変形例17>
 刺激生成部360は、障害物が複数ある場合、障害物に対応する刺激箇所全てを順に刺激する刺激情報を生成しても良い。
***他の実施の形態***
 前述した各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 また、実施の形態は、実施の形態1から2で示したものに限定されるものではなく、必要に応じて種々の変更が可能である。
 10 プロセッサ、11 メモリ、12 記憶装置、13 通信IF、16 SW、17 電子回路、19 OS、100 移動体、101 環境検出センサ、102 状態検出センサ、103 情報提示装置、200 ステアリングホイール、201 触覚提示装置、202 把持検出センサ、300 障害物検出部、310 軌道予測部、320 危険判定部、321 危険度算出部、330 軌道算出部、340 把持検出部、350 刺激生成部、351 位置調整部、352 パターン生成部、353 位置決定部、360 刺激生成部、380 通信部、390 記録部、501 パターンDB(パターンデータベース)。

Claims (12)

  1.  刺激に対応する刺激情報に基づいて運転手に情報を提示するステアリングホイールを備える移動体の前記ステアリングホイールに前記刺激情報を送信する情報提示装置において、
     前記ステアリングホイールから前記運転手と前記ステアリングホイールとの接触状態に関する把持検出情報を受信し、人間が前記ステアリングホイールを把持しているときの、前記ステアリングホイールと手掌等との接触パターンを示すパターン情報を記憶しているパターンデータベースから前記パターン情報を受信し、前記把持検出情報と、前記パターン情報とに基づいて、前記運転手が前記ステアリングホイールを把持している手掌等の部位を判別し、前記手掌等の部位の情報を含む把持情報を生成する把持検出部と、
     前記移動体が前記移動体の周囲に位置する障害物と接触する可能性がある場合に、前記手掌等を刺激することにより前記障害物を回避するよう前記運転手を誘導する前記刺激情報を前記把持情報に基づいて生成する刺激生成部と
    を備える情報提示装置。
  2.  前記移動体から前記移動体の周辺の環境を示す環境情報を受信する障害物検出部と、
     前記環境情報に基づいて、前記障害物を検出し、前記移動体と前記障害物とが接触する可能性があるか否かを判定する危険判定部と
    を備える請求項1に記載の情報提示装置。
  3.  前記移動体から前記移動体の速度と加速度と旋回速度と操舵角とを含む移動体情報を受信し、前記移動体情報に基づいて前記移動体の軌道を予測して軌道予測情報を生成する軌道予測部と、
     前記軌道予測情報に基づいて制御情報を生成する軌道算出部と
    を備え、
     前記刺激生成部は、前記把持情報と、前記制御情報とに基づいて前記刺激情報を生成する請求項1又は2に記載の情報提示装置。
  4.  前記刺激生成部は、仮現運動が発生するような刺激に対応する前記刺激情報を生成する請求項1から3のいずれか1項に記載の情報提示装置。
  5.  前記刺激生成部は、前記刺激情報に対応する刺激を、前記運転手の左手と右手とを交互に刺激する刺激であって、前記運転手の左手の第5手指から第2手指の付け根を1箇所ずつ順に刺激する刺激であって、前記運転手の右手の第2手指から第5手指の付け根を1箇所ずつ順に刺激する刺激であって、一定時間おきに刺激する箇所を変更する刺激とすることにより、前記ステアリングホイールを右回転するよう運転手を誘導する請求項4に記載の情報提示装置。
  6.  刺激に対応する刺激情報に基づいて運転手に情報を提示するステアリングホイールを備える移動体の前記ステアリングホイールに前記刺激情報を送信する情報提示装置において、
     前記ステアリングホイールから前記運転手と前記ステアリングホイールとの接触状態に関する把持検出情報を受信し、人間が前記ステアリングホイールを把持しているときの、前記ステアリングホイールと手掌等との接触パターンを示すパターン情報を記憶しているパターンデータベースから前記パターン情報を受信し、前記把持検出情報と、前記パターン情報とに基づいて、前記運転手が前記ステアリングホイールを把持している手掌等の部位を判別し、前記手掌等の部位の情報を含む把持情報を生成する把持検出部と、
     前記移動体と、前記移動体の周囲に障害物が存在する場合に、前記手掌等を刺激することにより前記運転手に前記障害物の危険度を伝える前記刺激情報を前記把持情報に基づいて生成する刺激生成部と
    を備える情報提示装置。
  7.  前記移動体から前記移動体の周辺の環境を示す環境情報を受信する障害物検出部と、
     前記環境情報に基づいて、前記障害物を検出し、前記障害物の危険度を算出する危険度算出部と
    を備え、
     前記刺激生成部は、前記把持情報と、前記危険度とに基づいて前記刺激情報を生成する請求項6に記載の情報提示装置。
  8.  前記刺激生成部は、前記刺激情報に対応する刺激を、前記障害物が位置する方位であって、前記移動体の進行方向に対する方位に対応する前記運転手の手の部位を刺激する刺激であって、前記障害物の危険度に応じた強さの刺激とする請求項6又は7に記載の情報提示装置。
  9.  刺激に対応する刺激情報に基づいて運転手に情報を提示するステアリングホイールを備える移動体の前記ステアリングホイールに前記刺激情報を送信する情報提示装置における情報提示方法において、
     把持検出部が、
     前記ステアリングホイールから前記運転手と前記ステアリングホイールとの接触状態に関する把持検出情報を受信し、
     人間が前記ステアリングホイールを把持しているときの、前記ステアリングホイールと手掌等との接触パターンを示すパターン情報を記憶しているパターンデータベースから前記パターン情報を受信し、
     前記把持検出情報と、前記パターン情報とに基づいて、前記運転手が前記ステアリングホイールを把持している手掌等の部位を判別し、前記手掌等の部位の情報を含む把持情報を生成し、
     刺激生成部が、
     前記移動体が前記移動体の周囲に位置する障害物と接触する可能性がある場合に、前記手掌等を刺激することにより前記障害物を回避するよう前記運転手を誘導する前記刺激情報を前記把持情報に基づいて生成する情報提示方法。
  10.  刺激に対応する刺激情報に基づいて運転手に情報を提示するステアリングホイールを備える移動体の前記ステアリングホイールに前記刺激情報を送信する情報提示装置であるコンピュータに、
     前記ステアリングホイールから前記運転手と前記ステアリングホイールとの接触状態に関する把持検出情報を受信させ、
     人間が前記ステアリングホイールを把持しているときの、前記ステアリングホイールと手掌等との接触パターンを示すパターン情報を記憶しているパターンデータベースから前記パターン情報を受信させ、
     前記把持検出情報と、前記パターン情報とに基づいて、前記運転手が前記ステアリングホイールを把持している手掌等の部位を判別させ、前記手掌等の部位の情報を含む把持情報を生成させ、
     前記移動体が前記移動体の周囲に位置する障害物と接触する可能性がある場合に、前記手掌等を刺激することにより前記障害物を回避するよう前記運転手を誘導する前記刺激情報を前記把持情報に基づいて生成させる情報提示プログラム。
  11.  刺激に対応する刺激情報に基づいて運転手に情報を提示するステアリングホイールを備える移動体の前記ステアリングホイールに前記刺激情報を送信する情報提示装置における情報提示方法において、
     把持検出部が、
     前記ステアリングホイールから前記運転手と前記ステアリングホイールとの接触状態に関する把持検出情報を受信し、
     人間が前記ステアリングホイールを把持しているときの、前記ステアリングホイールと手掌等との接触パターンを示すパターン情報を記憶しているパターンデータベースから前記パターン情報を受信し、
     前記把持検出情報と、前記パターン情報とに基づいて、前記運転手が前記ステアリングホイールを把持している手掌等の部位を判別し、前記手掌等の部位の情報を含む把持情報を生成し、
     刺激生成部が、
     前記移動体と、前記移動体の周囲に障害物が存在する場合に、前記手掌等を刺激することにより前記運転手に前記障害物の危険度を伝える前記刺激情報を前記把持情報に基づいて生成する情報提示方法。
  12.  刺激に対応する刺激情報に基づいて運転手に情報を提示するステアリングホイールを備える移動体の前記ステアリングホイールに前記刺激情報を送信する情報提示装置であるコンピュータに、
     前記ステアリングホイールから前記運転手と前記ステアリングホイールとの接触状態に関する把持検出情報を受信させ、
     人間が前記ステアリングホイールを把持しているときの、前記ステアリングホイールと手掌等との接触パターンを示すパターン情報を記憶しているパターンデータベースから前記パターン情報を受信させ、
     前記把持検出情報と、前記パターン情報とに基づいて、前記運転手が前記ステアリングホイールを把持している手掌等の部位を判別させ、前記手掌等の部位の情報を含む把持情報を生成させ、
     前記移動体と、前記移動体の周囲に障害物が存在する場合に、前記手掌等を刺激することにより前記運転手に前記障害物の危険度を伝える前記刺激情報を前記把持情報に基づいて生成させる情報提示プログラム。
PCT/JP2019/035660 2019-09-11 2019-09-11 情報提示装置、情報提示方法、及び、情報提示プログラム WO2021048946A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE112019007608.6T DE112019007608T5 (de) 2019-09-11 2019-09-11 Informationssignalisierungsvorrichtung, informationssignalisierungsverfahrenund informationssignalisierungsprogramm
JP2020509533A JP6723494B1 (ja) 2019-09-11 2019-09-11 情報提示装置、情報提示方法、及び、情報提示プログラム
CN201980100050.8A CN114340975B (zh) 2019-09-11 2019-09-11 信息提示装置、信息提示方法以及计算机能读取的记录介质
PCT/JP2019/035660 WO2021048946A1 (ja) 2019-09-11 2019-09-11 情報提示装置、情報提示方法、及び、情報提示プログラム
US17/583,807 US20220144331A1 (en) 2019-09-11 2022-01-25 Information indicating device, information indicating method, and computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/035660 WO2021048946A1 (ja) 2019-09-11 2019-09-11 情報提示装置、情報提示方法、及び、情報提示プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/583,807 Continuation US20220144331A1 (en) 2019-09-11 2022-01-25 Information indicating device, information indicating method, and computer readable medium

Publications (1)

Publication Number Publication Date
WO2021048946A1 true WO2021048946A1 (ja) 2021-03-18

Family

ID=71523932

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/035660 WO2021048946A1 (ja) 2019-09-11 2019-09-11 情報提示装置、情報提示方法、及び、情報提示プログラム

Country Status (5)

Country Link
US (1) US20220144331A1 (ja)
JP (1) JP6723494B1 (ja)
CN (1) CN114340975B (ja)
DE (1) DE112019007608T5 (ja)
WO (1) WO2021048946A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113650624B (zh) * 2021-08-30 2024-01-19 东风柳州汽车有限公司 驾驶提醒方法、设备、存储介质及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008162554A (ja) * 2007-01-04 2008-07-17 Toyota Motor Corp 操舵制御装置及びその制御方法
JP2009001094A (ja) * 2007-06-20 2009-01-08 Tokai Rika Co Ltd 操舵装置
JP2010018204A (ja) * 2008-07-11 2010-01-28 Nippon Soken Inc 情報提示装置および情報提示システム
JP2011005893A (ja) * 2009-06-23 2011-01-13 Nissan Motor Co Ltd 車両の走行制御装置および車両の走行制御方法
WO2011125478A1 (ja) * 2010-04-02 2011-10-13 シャープ株式会社 車両用警告装置
JP2015156096A (ja) * 2014-02-20 2015-08-27 トヨタ自動車株式会社 入力装置および入力取得方法
JP2016049956A (ja) * 2014-09-02 2016-04-11 トヨタ自動車株式会社 把持状態判定装置、把持状態判定方法、入力装置、入力取得方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10027922A1 (de) * 2000-06-06 2002-01-24 Bosch Gmbh Robert Verfahren zum Detektieren der Position von Händen auf einem Lenkrad
JP2013079056A (ja) * 2011-09-21 2013-05-02 Jvc Kenwood Corp 車両における操作対象装置の制御装置及び運転者特定方法
US9159221B1 (en) * 2012-05-25 2015-10-13 George Stantchev Steering wheel with remote control capabilities
JP5884742B2 (ja) * 2013-01-21 2016-03-15 トヨタ自動車株式会社 ユーザインタフェース装置および入力取得方法
JP6192390B2 (ja) * 2013-07-05 2017-09-06 キヤノン株式会社 光電変換装置、光電変換システム
JP2014227000A (ja) * 2013-05-21 2014-12-08 日本電産エレシス株式会社 車両制御装置、その方法およびそのプログラム
US9623907B2 (en) * 2014-01-13 2017-04-18 Harman International Industries, Inc. Haptic language through a steering mechanism
US20150307022A1 (en) * 2014-04-23 2015-10-29 Ford Global Technologies, Llc Haptic steering wheel
JP6143982B2 (ja) * 2015-02-06 2017-06-07 三菱電機株式会社 車載機器操作装置および車載機器操作システム
CN205113412U (zh) * 2015-07-20 2016-03-30 比亚迪股份有限公司 车辆转向盘和具有其的车辆
JP2018025848A (ja) * 2016-08-08 2018-02-15 株式会社東海理化電機製作所 操作入力装置
DE102016216590A1 (de) * 2016-09-01 2018-03-01 Bayerische Motoren Werke Aktiengesellschaft Verfahren, Vorrichtung und Computerprogramm zur Erzeugung und Übermittlung einer Fahrerinformation
DE102016217772A1 (de) * 2016-09-16 2018-03-22 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung, Betriebsverfahren und elektronische Steuereinheit zur Steuerung eines zumindest teilweise automatisiert fahrbaren Fahrzeugs
US10525986B2 (en) * 2018-06-11 2020-01-07 Harman International Industries, Incorporated System and method for steering wheel haptic notification

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008162554A (ja) * 2007-01-04 2008-07-17 Toyota Motor Corp 操舵制御装置及びその制御方法
JP2009001094A (ja) * 2007-06-20 2009-01-08 Tokai Rika Co Ltd 操舵装置
JP2010018204A (ja) * 2008-07-11 2010-01-28 Nippon Soken Inc 情報提示装置および情報提示システム
JP2011005893A (ja) * 2009-06-23 2011-01-13 Nissan Motor Co Ltd 車両の走行制御装置および車両の走行制御方法
WO2011125478A1 (ja) * 2010-04-02 2011-10-13 シャープ株式会社 車両用警告装置
JP2015156096A (ja) * 2014-02-20 2015-08-27 トヨタ自動車株式会社 入力装置および入力取得方法
JP2016049956A (ja) * 2014-09-02 2016-04-11 トヨタ自動車株式会社 把持状態判定装置、把持状態判定方法、入力装置、入力取得方法

Also Published As

Publication number Publication date
JP6723494B1 (ja) 2020-07-15
CN114340975B (zh) 2023-11-28
DE112019007608T5 (de) 2022-06-02
CN114340975A (zh) 2022-04-12
JPWO2021048946A1 (ja) 2021-03-18
US20220144331A1 (en) 2022-05-12

Similar Documents

Publication Publication Date Title
CN109476318B (zh) 用于车辆的触觉通知***
KR102223270B1 (ko) 여분의 초음파 radar를 구비한 자율 주행 차량
US9827811B1 (en) Vehicular haptic feedback system and method
KR101795902B1 (ko) 차량 시스템
CN105321375B (zh) 驾驶辅助装置
JP2018081080A (ja) 自律走行車(adv)用の緊急処理システム
JP6934618B2 (ja) ジェスチャ入力システム及びジェスチャ入力方法
JP2018079916A (ja) 自律走行車(adv)用のビジュアルコミュニケーションシステム
JPWO2017056995A1 (ja) 車両状態表示システム
EP3121764B1 (en) Animal type determination device
JP2017019436A (ja) 自動運転システム
CN110182222B (zh) 用于通知前方车辆离开的自主驾驶控制装置及方法
CN113165645A (zh) 用于警告车辆驾驶员的设备和方法
JP2018188028A (ja) 運転者監視装置、及び運転者監視方法
US11181909B2 (en) Remote vehicle control device, remote vehicle control system, and remote vehicle control method
CN111090280A (zh) 使用智能目标的雷达对象分类和通信
JP6819173B2 (ja) 運転支援方法及び運転支援装置
WO2021048946A1 (ja) 情報提示装置、情報提示方法、及び、情報提示プログラム
US11830254B2 (en) Outside environment recognition device
US11473929B2 (en) Vehicle event identification
US20230415810A1 (en) Driving support device, driving support method, and storage medium
WO2023149003A1 (ja) 車両制御装置
KR20230174784A (ko) 주행 환경에 기반한 전방충돌방지 보조 방법 및 장치
KR20240077631A (ko) 가상 센서 데이터를 이용한 자율주행차량의 성능평가 방법 및 장치
JP2021147029A (ja) 方向転換予測補助

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2020509533

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19944893

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 19944893

Country of ref document: EP

Kind code of ref document: A1