WO2018123598A1 - 感情改善装置および感情改善方法 - Google Patents

感情改善装置および感情改善方法 Download PDF

Info

Publication number
WO2018123598A1
WO2018123598A1 PCT/JP2017/044774 JP2017044774W WO2018123598A1 WO 2018123598 A1 WO2018123598 A1 WO 2018123598A1 JP 2017044774 W JP2017044774 W JP 2017044774W WO 2018123598 A1 WO2018123598 A1 WO 2018123598A1
Authority
WO
WIPO (PCT)
Prior art keywords
emotion
unpleasant
user
predetermined
unit
Prior art date
Application number
PCT/JP2017/044774
Other languages
English (en)
French (fr)
Inventor
里志 羽根田
誠 山村
貴正 宇田川
将人 藤原
聖 小野寺
木全 隆一
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to US16/473,324 priority Critical patent/US20200121888A1/en
Priority to EP17889134.7A priority patent/EP3549430B1/en
Priority to CN201780079118.XA priority patent/CN110087451A/zh
Publication of WO2018123598A1 publication Critical patent/WO2018123598A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M21/02Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis for inducing sleep or relaxation, e.g. by direct nerve stimulation, hypnosis, analgesia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D34/00Mowers; Mowing apparatus of harvesters
    • A01D34/006Control or measuring arrangements
    • A01D34/008Control or measuring arrangements for automated or remotely controlled operation
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D34/00Mowers; Mowing apparatus of harvesters
    • A01D34/01Mowers; Mowing apparatus of harvesters characterised by features relating to the type of cutting apparatus
    • A01D34/412Mowers; Mowing apparatus of harvesters characterised by features relating to the type of cutting apparatus having rotating cutters
    • A01D34/63Mowers; Mowing apparatus of harvesters characterised by features relating to the type of cutting apparatus having rotating cutters having cutters rotating about a vertical axis
    • A01D34/64Mowers; Mowing apparatus of harvesters characterised by features relating to the type of cutting apparatus having rotating cutters having cutters rotating about a vertical axis mounted on a vehicle, e.g. a tractor, or drawn by an animal or a vehicle
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • A61B5/015By temperature mapping of body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D2101/00Lawn-mowers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0204Acoustic sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0027Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the hearing sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0044Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/33Controlling, regulating or measuring
    • A61M2205/3306Optical measuring means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/33Controlling, regulating or measuring
    • A61M2205/3375Acoustical, e.g. ultrasonic, measuring means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/50General characteristics of the apparatus with microprocessors or computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/50General characteristics of the apparatus with microprocessors or computers
    • A61M2205/52General characteristics of the apparatus with microprocessors or computers with memories providing a history of measured variating parameters of apparatus or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/50Temperature
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound

Definitions

  • the present invention relates to an emotion improving device and an emotion improving method for improving an emotion of a user of a work machine.
  • Patent Document 1 there is known an apparatus that estimates the emotions of a plurality of passengers in a vehicle and controls the vehicle so as to improve the emotions (see, for example, Patent Document 1).
  • Patent Document 1 when the passengers start to fight each other while the vehicle is running, the maximum amount of cool air is blown out from the air outlet of the air conditioner to the passenger, thereby giving the passenger a chance to regain calmness.
  • Patent Document 1 is configured to improve the feelings of a vehicle occupant, and it is difficult to apply the technology described in Patent Document 1 to a working machine that does not assume riding.
  • One aspect of the present invention is an emotion improving device that improves an unpleasant emotion of a user of a work machine, based on a biometric information acquisition unit that acquires biometric information of the user and biometric information acquired by the biometric information acquisition unit. And the unpleasant emotion determination unit for determining whether or not the predetermined unpleasant emotion has occurred, and when the unpleasant emotion determining unit determines that the predetermined unpleasant emotion has occurred, the predetermined action for improving the unpleasant emotion is given to the user And a work implement control unit that controls the work implement so as to be directed.
  • Another aspect of the present invention is an emotion improvement method for improving an unpleasant emotion of a user of a work machine, acquires the user's biometric information, and based on the acquired biometric information, whether the user has a predetermined unpleasant emotion Determining whether or not a predetermined unpleasant emotion has occurred, and controlling the work implement to perform a predetermined operation for improving the unpleasant emotion toward the user.
  • the present invention it is possible to satisfactorily improve the uncomfortable feeling of the user of the work machine based on the operation of the work machine.
  • FIG. 2 is a plan view showing an example of a work area where work is performed by the work machine of FIG.
  • the flowchart which shows an example of the process performed with CPU of FIG. 2A.
  • the figure which shows the modification of FIG. The figure which shows the example which comprises an emotion improvement apparatus with several working machines.
  • FIG. 1 is a side view showing a schematic configuration of a working machine (lawn mower) 1 having an emotion improving device 100 according to an embodiment of the present invention.
  • the work machine 1 includes a vehicle body 2 and a pair of left and right front wheels 3 and a rear wheel 4, and has a weight and dimensions that can be carried by the user himself / herself.
  • the working machine 1 has a total length of about 500 mm, a total width of about 300 mm, and a height of about 300 mm.
  • a charging terminal 6 for charging a battery (FIG. 2A) mounted on the vehicle body 2 is provided at the front end portion of the vehicle body 2.
  • FIG. 2A is a block diagram showing a schematic configuration of the emotion improving device 100 provided in the work machine 1.
  • the work machine 1 includes an ECU (electronic control unit) 10, a camera 21, a microphone 22, a thermography 23, a sensor group 24, a speaker 25, a work actuator 26, and a traveling device connected to the ECU 10.
  • the actuator 27, the communication unit 28, the battery 29, and the charging unit 30 are all provided in the vehicle body 2.
  • the ECU 10 includes a CPU (processor) 10A, a memory 10B such as ROM and RAM, and other peripheral circuits.
  • the camera 21, the microphone 22, and the thermography 23 constitute a biometric information acquisition unit 20 that acquires biometric information of the user. That is, the camera 21 images the upper body including the user's face, and detects the facial expression and behavior of the user.
  • the microphone 22 acquires the voice spoken by the user.
  • the voice acquired by the microphone 22 is recognized by a voice recognition unit (not shown) of the ECU 10.
  • the thermography 23 detects the user's body temperature, for example, the surface temperature of the face.
  • the biometric information acquisition unit 20 (21 to 23) is used to estimate the user's emotion.
  • the user includes not only a person using the work machine 1 but also a person existing around the work machine 1. In other words, a person who can recognize the work machine 1, in other words, a person around the work machine 1 is called a user.
  • the sensor group 24 includes a pair of magnetic sensors 24a that are spaced apart in the vehicle width direction, and the magnetic field strength is detected by the magnetic sensors 24a. Although illustration is omitted, the sensor group 24 includes a Yaw sensor that detects an angular velocity generated around the height axis of the work machine 1, a G sensor that detects acceleration acting on the work machine 1, and an orientation of the work machine 1. Azimuth sensor that detects whether the work machine 1 is in contact with an obstacle, a wheel speed sensor that detects the wheel speed of the left and right rear wheels 4, a GPS sensor that detects the position of the work machine 1, and A voltage sensor for detecting the remaining voltage of the battery 29 is also included.
  • the speaker 25 outputs sound to the user, and the work machine 1 can interact with the user by providing the microphone 22 and the speaker 25.
  • the work actuator 26 is constituted by an electric motor connected to the rotary shaft 5 a, and the blade 5 is rotationally driven by the drive of the work actuator 26.
  • the travel actuator 27 is disposed on the left and right inner sides of the left and right rear wheels 4 and is composed of a pair of electric motors that independently drive the left and right rear wheels 4. By generating a speed difference in the rotation of the left and right rear wheels 4, the work implement 1 can turn in any direction.
  • the communication unit 28 includes a transmission / reception antenna and a signal processing circuit that processes a signal transmitted / received via the transmission / reception antenna, and the work machine 1 is connected to an external device (for example, a relay disposed in the same site) via the communication unit 28. Wireless communication with a device, a server, a portable terminal carried by a user, or the like.
  • the battery 29 is used as a power source for supplying power to each electrical component of the work machine 1.
  • the charging unit 30 is connected to the charging terminal 6 and the battery 29, and stores the electric power supplied from the charging station (FIG. 3) via the charging terminal 6 in the battery 29.
  • FIG. 3 is a plan view showing an example of the work area AR.
  • the work area AR is demarcated by an area wire 7 laid in advance in the garden (for example, buried at a predetermined depth from the ground), and the travel range of the work implement 1 is defined by the area wire 7.
  • a current flows through the area wire 7, a magnetic field is generated in the work area AR.
  • the magnetic field intensity in the work area AR is detected by the magnetic sensor 24a.
  • the magnetic field strength changes according to the distance from the area wire 7.
  • the ECU 10 (CPU 10A) determines whether or not the work implement 1 has reached the area wire 7 based on a signal from the magnetic sensor 24a. If it is determined that the area wire 7 has been reached, a control signal is output to the travel actuator 27 and the work implement 1 is turned toward the inside of the work area AR as indicated by the arrow in FIG. In this way, the ECU 10 outputs a control signal to the travel actuator 27 in accordance with the signal from the magnetic sensor 24a, whereby the work implement 1 travels autonomously within the work area AR. At this time, the ECU 10 also outputs a control signal to the work actuator 26, whereby the work implement 1 automatically performs the lawn mowing work while traveling in the work area AR.
  • the charging station 8 for charging the battery 29 is disposed on the area wire 7.
  • the ECU 10 When the voltage of the battery 29 is detected by the sensor group 24 (for example, a voltage sensor) at the time of work, the ECU 10 outputs a control signal to the travel actuator 27 and, for example, connects the work machine 1 along the area wire 7 to the charging station. The battery 29 is charged by returning to 8.
  • the ECU 10 When the charging of the battery 29 is completed, the ECU 10 outputs a control signal to the traveling actuator 27 to release the work implement 1 from the charging station 8, and then drives the working actuator 26 to resume the work.
  • the work area AR is set by laying the area wire 7 and the work machine 1 (ECU 10) recognizes the work area AR by the signal from the magnetic sensor 24a.
  • the method of setting and recognizing the region is not limited to the above.
  • the ECU 10 may receive a beacon signal or the like via the communication unit 28 and recognize the work area using the received signal, thereby performing work in the work area.
  • a work area map may be stored in advance in the memory 10B of the ECU 10, and work may be performed in the work area while detecting its own position using a GPS sensor or the like. That is, the work area may be set using a work area setting unit other than the area wire 7 and the work area may be recognized using a position detector other than the magnetic sensor.
  • the work machine 1 is used to try to improve unpleasant emotions. That is, since the work machine 1 automatically performs work in the vicinity of the user, the user can easily feel the work machine 1 familiar. Therefore, when the user has an unpleasant feeling, the working machine 1 is configured as follows in the present embodiment in order to provide a predetermined service for improving the unpleasant feeling to the user.
  • FIG. 2B is a block diagram showing a functional configuration of the ECU 10.
  • the ECU 10 includes an unpleasant emotion determination unit 11, an operation storage unit 13, an operation selection unit 14, a work implement control unit 15, and an effect measurement unit 16.
  • movement selection part 14, the working machine control part 15, and the effect measurement part 16 are functions which CPU10A bears, and the action
  • storage part 13 is a function which the memory 10B bears.
  • the unpleasant emotion determination unit 11 includes an emotion estimation unit 12.
  • the emotion estimation unit 12 estimates the user's emotion based on the biological information acquired by the biological information acquisition unit 20.
  • the user's emotions are applied emotions by combining the eight basic emotions (expectation, joy, acceptance, anxiety, surprise, sadness, disgust, anger) and their two adjacent emotions using, for example, Plutchik's emotional circle. And can be classified.
  • the emotion estimation unit 12 selects one of these classified emotions, that is, an emotion model.
  • the emotion estimation unit 12 first identifies the user's facial expression (mouth angle, etc.) and behavior (gesture gesture, etc.) based on the image signal from the camera 21, and based on the audio signal from the microphone 22.
  • the user's utterance content, voice such as the accent and pronunciation of the uttered voice are specified, and the temperature of the user's face is specified based on the temperature detection signal from the thermography 23.
  • these identified facial expressions, behaviors, voices, facial temperature forms are compared with a plurality of facial expressions, behaviors, voices, facial temperature forms stored in advance in association with a plurality of emotions.
  • the user's emotion is estimated by judging which form is stored in advance.
  • the unpleasant emotion determination unit 11 quantifies the user's emotion estimated by the emotion estimation unit 12. For example, pleasant emotions (positive emotions) such as joy and enjoyment are converted into positive values, and unpleasant emotions (negative emotions) such as sadness and anger are converted into negative values. In this case, for example, the stronger the emotion (the closer to the inner side of the emotion circle), the larger the value representing the emotion (absolute value). Thereby, the unpleasant emotion determination part 11 calculates
  • the operation storage unit 13 stores a plurality of improvement operations that are candidates for improving unpleasant emotions.
  • the improvement operation for example, the work machine 1 crosses a plurality of users by driving the travel actuator 27, and the work machine 1 travels around the user in a predetermined pattern by driving the travel actuator 27 (for example, zigzag travel).
  • a predetermined pattern for example, a heart pattern
  • the action selection unit 14 selects an improvement action to be applied in order to improve an unpleasant emotion from among a plurality of improvement actions stored in the action storage unit 13. For example, the improvement operation with the highest priority is selected.
  • the operation to be selected may be determined according to the degree of unpleasant emotion obtained by the unpleasant emotion determination unit 11. For example, when the estimated degree of unpleasant emotion is small, the improvement operation corresponding to the unpleasant emotion may be selected instead of selecting the improvement operation with the highest priority.
  • An improvement operation that can be easily performed by the work machine 1 may be preferentially selected.
  • the work machine control unit 15 includes at least one of the work actuator 26, the travel actuator 27, and the speaker 25 so that the work machine 1 performs the improvement operation selected by the operation selection unit 14, that is, the predetermined operation for improving unpleasant emotions.
  • a crab control signal is output.
  • the effect measurement unit 16 measures the degree of improvement of unpleasant emotion when the work implement 1 performs the improvement operation selected by the operation selection unit 14 according to a command from the work implement control unit 15. Specifically, based on the biometric information acquired by the biometric information acquisition unit 20, the user's emotion is estimated, and whether or not the degree of unpleasant emotion has been improved to a predetermined value or more, for example, an unpleasant emotion (a negative emotion). It is determined whether or not it has become 0, that is, whether or not there has been a sufficient improvement effect of unpleasant emotions.
  • the operation selection unit 14 lowers the priority of the operation and performs another improvement operation. select. For example, when the improvement level of the unpleasant feeling when the improvement action with the highest priority is selected is less than a predetermined value, the priority of the action is lowered by one step, and the improvement action with the next highest priority is selected. When the improvement level of the unpleasant feeling is determined to be greater than or equal to a predetermined value by executing the selected improvement action, the priority of the action is raised. That is, the priority order of the improvement operation stored in the operation storage unit 13 is updated.
  • FIG. 4 is a flowchart showing an example of processing executed by the ECU 10 (CPU 10A) in accordance with a program stored in the memory 10B in advance. The process shown in this flowchart is started when the work machine 1 detects conversations between a plurality of users using the camera 21 and the microphone 22, for example, and is repeatedly executed at a predetermined cycle.
  • step S1 the biometric information of the user is acquired by the biometric information acquisition unit 20 (camera 21, microphone 22, thermography 23).
  • step S ⁇ b> 2 the emotion of the user is estimated based on the acquired biological information by the process in the emotion estimation unit 12.
  • step S3 the degree of the user's unpleasant emotion is calculated by quantifying the user's emotion estimated in step S1 by the processing in the unpleasant emotion determination unit 11, and the degree of unpleasant emotion is a predetermined value. Whether or not a predetermined unpleasant emotion has occurred is determined.
  • step S ⁇ b> 4 for example, the improvement operation with the highest priority is selected from among a plurality of improvement operations stored in advance in the operation storage unit 13 by the process in the operation selection unit 14.
  • step S5 the work implement 1 is controlled to perform the improvement operation selected in step S4 by the processing in the work implement control unit 15. For example, a control signal is output to the traveling actuator 27 so that the work machine 1 performs a predetermined traveling operation.
  • step S 6 the emotion of the user is estimated based on the biological information acquired by the biological information acquisition unit 20 by the processing in the effect measurement unit 16. That is, the effect of improving unpleasant emotion is measured.
  • step S7 it is determined whether or not the degree of unpleasant emotion has been improved to a predetermined value or more. If negative in step S7, the process returns to step S4. In this case, the priority of the previously selected improvement operation (for example, the improvement operation with the highest priority) is lowered by one step, and another improvement operation (for example, the improvement operation with the next highest priority) is selected and operated. The priority order of the improvement operation stored in the storage unit 13 is updated. Thereafter, the same processing is repeated until affirmative in step S7. If the determination in step S7 is affirmative, the process ends.
  • FIG. 5 is a plan view of the work area AR showing an example of the operation of the emotion improving device 100.
  • the process of FIG. 4 is started.
  • the work machine 1 determines that the user has a predetermined unpleasant emotion (for example, an angry emotion) (step S3). Therefore, the work machine 1 selects an operation with the highest priority, for example, a traveling operation crossing between the users 201 and 202 as a predetermined improvement operation (step S4). Then, the work machine 1 travels across the users 201 and 202 as indicated by an arrow A in FIG. 5 while grasping the positions of the users 201 and 202 with the camera 21 or the like (step S5).
  • a predetermined unpleasant emotion for example, an angry emotion
  • the work machine 1 lowers the priority of the improvement operation and selects another improvement operation ( Step S7 ⁇ Step S4). For example, as the next highest priority operation, an improvement operation that zigzags around the users 201 and 202 is selected. Accordingly, the work machine 1 zigzags around the users 201 and 202 as indicated by an arrow B in FIG. 5 while grasping the positions of the users 201 and 202 with the camera 21 or the like. Thereafter, when the discomfort feelings of the users 201 and 202 are improved, the work machine 1 ends the improvement operation. When the improvement is not improved, the priority of the selected improvement operation is lowered and another improvement operation is executed. .
  • the emotion improving apparatus 100 that improves the user's unpleasant emotion using the work machine 1 is based on the biometric information acquisition unit 20 that acquires the biometric information of the user and the biometric information acquired by the biometric information acquisition unit 20.
  • An unpleasant emotion determination unit 11 that determines whether or not a predetermined unpleasant emotion has occurred in the user, and when the predetermined unpleasant emotion is determined by the unpleasant emotion determining unit 11,
  • a work machine control unit 15 that controls the work machine 1 so as to perform the improvement operation toward the user (FIGS. 2A and 2B).
  • the unpleasant emotion determination unit 11 includes an emotion estimation unit 12 that estimates a user's emotion based on the biological information acquired by the biological information acquisition unit 20 (FIG. 2B), and the emotion estimated by the emotion estimation unit 12
  • the degree of the user's unpleasant emotion is obtained based on the above, and if the obtained degree reaches a predetermined value, it is determined that the predetermined unpleasant emotion has occurred.
  • an appropriate improvement operation according to the degree of the unpleasant emotion can be performed.
  • the emotion improving apparatus 100 includes a plurality of improvement actions that are candidates for a predetermined improvement action, storing an action storage unit 13 with priorities, and a plurality of improvement actions stored in the action storage unit 13. And an operation selection unit 14 that selects an improvement operation with a high priority from (FIG. 2B).
  • the work machine control unit 15 controls the work machine 1 to perform the improvement operation selected by the operation selection unit 14.
  • the emotion improving device 100 further includes an effect measuring unit 16 that measures the degree of improvement of the user's unpleasant emotion when the work machine 1 performs the operation selected by the operation selecting unit 14 (FIG. 2B).
  • an effect measuring unit 16 measures the degree of improvement of the user's unpleasant emotion when the work machine 1 performs the operation selected by the operation selecting unit 14 (FIG. 2B).
  • the action selection unit 14 lowers the priority of the selected improvement action and selects another improvement action.
  • the priority order of the improvement actions is updated according to the degree of improvement of the unpleasant feeling, so that the work machine 1 can select the optimum improvement action.
  • the effectiveness may decrease with the passage of time, but according to this embodiment, depending on the degree of improvement of unpleasant emotions Since the priority order of the improvement operation is updated at any time, the optimum improvement operation can always be selected.
  • the biological information acquisition unit 20 includes a camera 21, a microphone 22, and a thermography 23 provided in the work machine 1 (FIG. 2A).
  • the work machine 1 is configured by a lawn mower that performs lawn mowing work while autonomously traveling in the work area AR (FIG. 1). Since such a work machine 1 performs work in the vicinity of the user, the user feels close attachment to the user. Therefore, the user's unpleasant feeling can be effectively improved via the work machine 1.
  • the work machine 1 is a mobile work machine that performs a predetermined work while autonomously traveling in the work area AR (FIG. 1), and the biometric information acquisition unit 20 acquires biometric information of a plurality of users and is uncomfortable.
  • the emotion determination unit 11 determines whether or not a predetermined unpleasant emotion occurs between the plurality of users based on the biological information of the plurality of users acquired by the biological information acquisition unit 20, and the work implement control unit 15 When it is determined by the unpleasant emotion determination unit 11 that a predetermined unpleasant emotion has occurred, the work implement 1 is controlled to travel around a plurality of users (for example, between the users 201 and 202) (FIG. 5). Thereby, since a user's interest moves to the working machine 1, a dispute between users can be suppressed effectively.
  • step S1 As an emotion improvement method for improving the user's unpleasant emotion using the work machine 1, the user's biometric information is acquired (step S1), and a predetermined unpleasant emotion is generated in the user based on the acquired biometric information.
  • step S3 if it is determined that a predetermined unpleasant emotion has occurred, the work implement 1 is controlled to perform a predetermined improvement operation for improving the unpleasant emotion toward the user. (Step S5).
  • unpleasant emotions such as a user's anger, can be improved effectively.
  • FIG. 6 is a diagram showing an emotion improving apparatus 100A as a modification of FIG.
  • the emotion improving device 100 is configured by the work machine 1 alone, but in FIG. 6, the emotion improving device 100 ⁇ / b> A is configured by the work device 1 and the processing device 101.
  • the processing device 101 includes an ECU, a storage unit, a communication unit, and the like, and is configured so that the work machine 1 and the external processing device 101 can communicate with each other wirelessly via the communication unit.
  • the ECU 10 of the work machine 1 can acquire data from the processing device 101 as necessary. Therefore, a part of the ECU 10 can be provided in the processing apparatus 101, and the configuration of the ECU 10 can be simplified.
  • FIG. 7 is a block diagram conceptually showing an example thereof.
  • the lawn mower shown by 1 ⁇ / b> A
  • the watering machine shown by 1 ⁇ / b> B
  • Sprinkler 1B is connected to a water supply source through a pipe, and can spray water from a nozzle to a predetermined area in accordance with driving of an electromagnetic valve (working actuator) that communicates or blocks the water supply source and the nozzle.
  • a light 1C for illuminating a predetermined outdoor area is also connected to the processing apparatus 101.
  • the biological information acquisition unit 20 is provided in any one or a plurality (for example, all) of the lawn mower 1A, the water sprinkler 1B, and the light 1C.
  • the processing apparatus 101 determines whether or not a predetermined unpleasant emotion (for example, an angry emotion) has occurred in the user based on the biological information acquired by the biological information acquisition unit 20, and the predetermined unpleasant emotion has occurred. If determined, the lawnmower 1A, the water sprinkler 1B, and the light 1C are controlled so as to perform a predetermined operation for improving the unpleasant feeling toward the user.
  • the electromagnetic valve of the water sprayer 1B is controlled so as to inject water from the water sprayer 1B.
  • water can be jetted in consideration of the direction of the sun so as to generate a rainbow.
  • You may control the light 1C so that illumination light may blink.
  • only the watering machine 1B can be used as the working machine.
  • the work machine 1 may not be a mobile type capable of self-propelling but may be a fixed type incapable of self-propelling, but the configuration of the work machine is not limited to the above.
  • it may be a movable working machine that has a movable arm and a movable hand and can hold a plant or the like, and uses this working machine to collect a plant or the like to improve a user's unpleasant feeling. You may do it. That is, the predetermined action for improving the unpleasant emotion is not limited to the above, and if it is determined that the predetermined unpleasant feeling has occurred, the predetermined operation for improving the unpleasant feeling is performed for the user. As long as the machine is controlled, any work machine control unit may be used.
  • the camera 21 as the imaging device, the microphone 22 as the sound collecting device, and the thermography 23 as the temperature capturing device detect the user's aspect that changes according to the degree of work satisfaction.
  • the configuration of the part is not limited to this.
  • the biological information may be acquired by at least one of the imaging device, the sound collection device, and the temperature imaging device instead of all of them.
  • the same biometric information as described above or other biometric information may be acquired by another device (wearable device or the like). You may provide a biometric information acquisition part other than a working machine (for example, the wall of a building, etc.).
  • a user's emotion is estimated in the emotion estimation part 12 based on the biometric information acquired by the biometric information acquisition part 20, and the degree of a user's unpleasant emotion is determined in the unpleasant emotion determination part 11 based on the estimated emotion.
  • a predetermined value a negative predetermined value
  • the unpleasant emotion determination unit may simply determine whether a predetermined unpleasant emotion has occurred in the user without obtaining the degree of unpleasant emotion, and therefore the emotion estimation unit can be omitted.
  • a plurality of improvement actions that are candidates for a predetermined action for improving unpleasant emotions are stored in the action storage unit 13 with priorities, and a priority order is selected from the plurality of stored actions.
  • the motion selection unit 14 selects a high motion, but for example, a constant motion may be always performed in order to improve unpleasant emotions, and therefore the motion storage unit and the motion selection unit are omitted. You can also.
  • the effect measurement unit 16 measures the degree of improvement of the user's unpleasant emotion, but the effect measurement unit can be omitted.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Anesthesiology (AREA)
  • Automation & Control Theory (AREA)
  • Educational Technology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Social Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Pain & Pain Management (AREA)
  • Acoustics & Sound (AREA)
  • Environmental Sciences (AREA)
  • Hematology (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

感情改善装置(100)は、ユーザの生体情報を取得する生体情報取得部(20)と、生体情報取得部(20)により取得された生体情報に基づき、ユーザに所定の不快感情が生じているか否かを判定する不快感情判定部(11)と、不快感情判定部(11)により所定の不快感情が生じていると判定されると、不快感情を改善させる所定の動作をユーザに向けて行うように作業機を制御する作業機制御部(15)とを備える。

Description

感情改善装置および感情改善方法
 本発明は、作業機のユーザの感情を改善させる感情改善装置および感情改善方法に関する。
 従来より、車両の複数の乗員の感情を推定し、その感情を改善するように車両を制御する装置が知られている(例えば特許文献1参照)。この特許文献1記載の装置では、車両走行中に乗員同士が言い争いを始めると、乗員に対し空調装置の吹出口から最大風量の冷風を吹き出し、これにより乗員に冷静さを取り戻すきっかけを与える。
特開2016-137200号公報
 ところで、作業機のユーザの感情が悪化した場合、そのユーザの感情を改善し得るように作業機を構成することが望ましい。しかしながら、上記特許文献1記載の装置は、車両の乗員の感情を改善するように構成されており、上記特許文献1記載の技術を、乗車を前提としない作業機に適用することは難しい。
 本発明の一態様は、作業機のユーザの不快感情を改善させる感情改善装置であり、ユーザの生体情報を取得する生体情報取得部と、生体情報取得部により取得された生体情報に基づき、ユーザに所定の不快感情が生じているか否かを判定する不快感情判定部と、不快感情判定部により所定の不快感情が生じていると判定されると、不快感情を改善させる所定の動作をユーザに向けて行うように作業機を制御する作業機制御部と、を備える。
 本発明の他の態様は、作業機のユーザの不快感情を改善させる感情改善方法であり、ユーザの生体情報を取得し、取得された生体情報に基づき、ユーザに所定の不快感情が生じているか否かを判定し、所定の不快感情が生じていると判定されると、不快感情を改善させる所定の動作をユーザに向けて行うように作業機を制御することを含む。
 本発明によれば、作業機のユーザの不快感情を作業機の動作に基づいて良好に改善することができる。
本発明の実施形態に係る感情改善装置を有する作業機の概略構成を示す図。 図1の感情改善装置の概略構成を示すブロック図。 図2AのECUの機能的構成を示すブロック図。 図1の作業機により作業を行う作業領域の一例を示す平面図。 図2AのCPUで実行される処理の一例を示すフローチャート。 本発明の実施形態に係る感情改善装置の動作の一例を示す図。 図1の変形例を示す図。 複数の作業機により感情改善装置を構成する例を示す図。
 以下、図1~図7を参照して本発明の実施形態について説明する。本発明の感情改善装置は種々の作業機に適用することができるが、以下の実施形態では、特に自律走行しながら芝刈り作業を行うことが可能な芝刈り機に適用する例を説明する。
 図1は、本発明の実施形態に係る感情改善装置100を有する作業機(芝刈り機)1の概略構成を示す側面図である。図1に示すように、作業機1は、車体2と、左右一対の前輪3および後輪4とを備え、ユーザ自身が手で持って搬送可能な重量および寸法を有する。一例を挙げると、作業機1の全長は500mm程度、全幅は300mm程度、高さは300mm程度である。
 車体2の底面からは、地面(芝地)GRに向けて回転軸5aに支持された芝刈り用の円盤形状のブレード5が突設され、作業機1は、ブレード5の回転により、地面GRを走行しながら芝刈り作業を行うことができる。車体2の前端部には、車体2に搭載されたバッテリ(図2A)を充填するための充電端子6が設けられる。
 図2Aは、作業機1に設けられる感情改善装置100の概略構成を示すブロック図である。図2Aに示すように、作業機1は、ECU(電子制御ユニット)10と、ECU10にそれぞれ接続されたカメラ21、マイク22、サーモグラフィ23、センサ群24、スピーカ25、作業用アクチュエータ26、走行用アクチュエータ27、通信ユニット28、バッテリ29、および充電ユニット30とを有し、これらは全て車体2に設けられる。ECU10は、CPU(プロセッサ)10Aと、ROM,RAMなどのメモリ10Bと、その他の周辺回路などを有する。
 カメラ21、マイク22およびサーモグラフィ23は、それぞれユーザの生体情報を取得する生体情報取得部20を構成する。すなわち、カメラ21は、ユーザの顔を含む上半身を撮像し、ユーザの顔の表情や行動を検出する。マイク22は、ユーザの発話した音声を取得する。マイク22で取得した音声は、ECU10の音声認識部(不図示)で音声認識される。サーモグラフィ23は、ユーザの体温、例えば顔の表面温度を検出する。
 生体情報取得部20(21~23)は、ユーザの感情を推定するために用いられる。なお、ユーザには、作業機1を使用している人だけでなく、作業機1の周囲に存在する人も含まれる。すなわち、ここでは、作業機1が認識可能な人、換言すると作業機1の周囲の人をユーザと呼ぶ。
 センサ群24は、車幅方向に離間して配置された一対の磁気センサ24aを含み、磁気センサ24aにより磁界強度が検出される。なお、図示は省略するが、センサ群24は、作業機1の高さ方向の軸線回りに生じる角速度を検出するYawセンサ、作業機1に作用する加速度を検出するGセンサ、作業機1の方位を検出する方位センサ、作業機1と障害物との接触の有無を検出する接触センサ、左右の後輪4の車輪速を検出する車輪速センサ、作業機1の位置を検出するGPSセンサ、およびバッテリ29の残電圧を検出する電圧センサ等も含む。スピーカ25は、ユーザに対し音声を出力し、マイク22とスピーカ25とを設けることで作業機1はユーザと対話することができる。
 作業用アクチュエータ26は、回転軸5aに連結された電動モータにより構成され、作業用アクチュエータ26の駆動によりブレード5が回転駆動される。走行用アクチュエータ27は、左右の後輪4の左右内側に配置されて、左右の後輪4を独立に駆動する一対の電動モータにより構成される。左右の後輪4の回転に速度差を生じさせることで、作業機1は任意の方向に旋回することができる。
 通信ユニット28は、送受信アンテナと、送受信アンテナを介して送受信した信号を処理する信号処理回路とを含み、通信ユニット28を介して作業機1が外部機器(例えば同一の敷地内に配置された中継装置やサーバ、ユーザが携帯する携帯端末等)と無線で通信することができる。バッテリ29は、作業機1の各電気部品に電力を供給するための電力源として用いられる。充電ユニット30は、充電端子6とバッテリ29とに接続され、充電端子6を介して充電ステーション(図3)で供給された電力をバッテリ29に蓄電する。
 以上のように構成された作業機1は、予め定められた作業領域内を自律走行して作業を行う。図3は、作業領域ARの一例を示す平面図である。作業領域ARは、予め庭に敷設(例えば地面から所定深さに埋設)されたエリアワイヤ7によって画定され、エリアワイヤ7により作業機1の走行範囲が規定される。エリアワイヤ7に電流が流されることで、作業領域ARに磁界が発生する。作業領域ARの磁界強度は、磁気センサ24aにより検出される。
 磁界強度は、エリアワイヤ7からの距離に応じて変化する。ECU10(CPU10A)は、磁気センサ24aからの信号に基づき、作業機1がエリアワイヤ7に到達したか否かを判定する。そして、エリアワイヤ7に到達したと判定すると、走行用アクチュエータ27に制御信号を出力し、図3の矢印に示すように、作業機1を作業領域ARの内側に向けて旋回させる。このようにECU10は、磁気センサ24aからの信号に応じて走行用アクチュエータ27に制御信号を出力し、これにより作業機1が作業領域AR内を自律走行する。このときECU10は、作業用アクチュエータ26にも制御信号を出力し、これにより作業機1は、作業領域AR内を走行しながら自動的に芝刈り作業を行う。
 エリアワイヤ7上には、バッテリ29を充電するための充電ステーション8が配置される。作業時に、センサ群24(例えば電圧センサ)によってバッテリ29の電圧不足が検出されると、ECU10は、走行用アクチュエータ27に制御信号を出力し、例えばエリアワイヤ7に沿って作業機1を充電ステーション8まで帰還させ、バッテリ29を充電する。バッテリ29の充電が完了すると、ECU10は、走行用アクチュエータ27に制御信号を出力して作業機1を充電ステーション8から離脱させ、その後、作業用アクチュエータ26を駆動して作業を再開する。
 なお、以上では、エリアワイヤ7を敷設して作業領域ARを設定するとともに、磁気センサ24aからの信号により作業機1(ECU10)が作業領域ARを認識しながら作業を行うようにしたが、作業領域の設定および認識の手法は上述したものに限らない。例えば、通信ユニット28を介してECU10がビーコン信号等を受信し、この受信信号を用いて作業領域を認識することにより、作業領域で作業を行うようにしてもよい。予めECU10のメモリ10Bに作業領域のマップを記憶し、GPSセンサ等により自位置を検出しながら、作業領域で作業を行うようにしてもよい。すなわち、エリアワイヤ7以外の作業領域設定部を用いて作業領域を設定するとともに、磁気センサ以外の位置検出器を用いて作業領域を認識し、作業を行うようにしても良い。
 ところで、例えば作業領域ARにおいて複数のユーザ(作業機1の周囲の人)が言い争いをしている等により、ユーザが不快な感情を有しているとき、その不快感情を改善させることが好ましい。本実施形態では、作業機1を用いて不快感情の改善を試みる。すなわち、作業機1は、ユーザの近傍にて自動的に作業を行うため、ユーザは作業機1を身近なものに感じやすい。そこで、ユーザが不快感情を有するとき、ユーザに対し不快感情を改善するような所定のサービスを提供すべく、本実施形態では以下のように作業機1を構成する。
 図2Bは、ECU10の機能的構成を示すブロック図である。図2Bに示すように、ECU10は、不快感情判定部11と、動作記憶部13と、動作選択部14と、作業機制御部15と、効果測定部16とを有する。このうち、不快感情判定部11、動作選択部14、作業機制御部15および効果測定部16は、CPU10Aが担う機能であり、動作記憶部13は、メモリ10Bが担う機能である。不快感情判定部11は、感情推定部12を有する。
 感情推定部12は、生体情報取得部20により取得された生体情報に基づきユーザの感情を推定する。ユーザの感情は、例えばPlutchikの感情の輪を用いて、8つの基本感情(期待、喜び、受容、不安、驚き、悲しみ、嫌悪、怒り)と、それらの隣り合う2つの感情の組み合わせによる応用感情とに分類することができる。感情推定部12は、これら分類された感情、つまり感情モデルの中から1つを選択する。
 より具体的には、感情推定部12は、まず、カメラ21からの画像信号に基づいてユーザの表情(口角等)や行動(身振り手振り等)を特定し、マイク22からの音声信号に基づいてユーザの発話内容や発話した音声のアクセント、発音等の音声を特定し、さらにサーモグラフィ23からの温度検出信号に基づいてユーザの顔面の温度を特定する。次いで、これら特定された表情、行動、音声、顔面温度の形態と、予め複数の感情に関連付けて記憶された複数の表情、行動、音声、顔面温度の形態とを比較し、特定された形態が予め記憶されたどの形態に当てはまるかを判断することにより、ユーザの感情を推定する。
 不快感情判定部11は、感情推定部12により推定されたユーザの感情を数値化する。例えば喜びや楽しみなどの快感情(正の感情)をプラスの値で、悲しみや怒りなどの不快感情(負の感情)をマイナスの値で数値化する。この場合、例えば感情が強いほど(感情の輪の内側に行くほど)、感情を表す値(絶対値)を大きくする。これにより、不快感情判定部11はユーザの不快感情の度合い(例えば怒りの度合い)を求める。さらに、不快感情判定部11は、求められた不快感情の度合いが所定値に達していると、改善すべき所定の不快感情が生じていると判定する。
 動作記憶部13は、不快感情を改善する候補となる複数の改善動作を記憶する。改善動作には、例えば、走行用アクチュエータ27の駆動により複数のユーザの間を作業機1が横切る動作、走行用アクチュエータ27の駆動によりユーザの周囲を作業機1が所定パターンで走行(例えばジグザグ走行)する動作、作業用アクチュエータ26と走行用アクチュエータ27の駆動により作業機1が所定模様(例えばハート模様)に芝を刈る動作、話題を提供あるいは謝罪の言葉を含む音声をスピーカ25から出力する動作、マイク22から入力された音声をスピーカ25からオウム返しで出力する動作、スピーカ25から所定の音楽を出力する動作、通信ユニット28を介してユーザの携帯電話に所定のメッセージのメールを送信あるいは電話をかける動作、ユーザが快感情であったときの過去の会話を録音しておき、そのときの会話を出力する動作等が含まれる。
 これらの改善動作は、それぞれ優先順位が付されて記憶される。不快感情の改善の程度が大きいと予想される改善動作であるほど、優先順位は高くなる。
 動作選択部14は、動作記憶部13に記憶された複数の改善動作の中から、不快感情を改善するために適用すべき改善動作を選択する。例えば、優先順位の最も高い改善動作を選択する。なお、不快感情判定部11で求められた不快感情の度合いに応じて、選択する動作を決定してもよい。例えば、推定された不快感情の度合いが小さいとき、優先順位の最も高い改善動作を選択するのではなく、不快感情に対応した改善動作を選択してもよい。作業機1が容易に実行可能な改善動作を、優先的に選択してもよい。
 作業機制御部15は、動作選択部14により選択された改善動作、すなわち不快感情を改善させる所定動作を作業機1が行うように、作業用アクチュエータ26、走行用アクチュエータ27およびスピーカ25の少なくともいずれかに制御信号を出力する。
 効果測定部16は、作業機制御部15での指令により作業機1が動作選択部14により選択された改善動作を行ったときの不快感情の改善の程度を測定する。具体的には、生体情報取得部20により取得された生体情報に基づき、ユーザの感情を推定し、不快感情の程度が所定値以上に改善されたか否か、例えば不快感情(マイナスの感情)が0になったか否か、すなわち不快感情の十分な改善の効果があったか否かを判定する。
 動作選択部14は、選択した改善動作に対し、効果測定部16により測定された不快感情の改善の程度が所定値未満と判定されると、その動作の優先順位を引き下げて他の改善動作を選択する。例えば、最も優先順位の高い改善動作を選択したときの不快感情の改善の程度が所定値未満のとき、その動作の優先順位を1段階引き下げて、次に優先順位の高い改善動作を選択する。そして、選択した改善動作を実行することにより、不快感情の改善の程度が効果測定部16において所定値以上と判定されると、その動作の優先順位を引き上げる。すなわち、動作記憶部13に記憶される改善動作の優先順位を更新する。
 図4は、予めメモリ10Bに記憶されたプログラムに従いECU10(CPU10A)で実行される処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えばカメラ21やマイク22により作業機1が複数のユーザ同士の会話を検出すると開始され、所定周期で繰り返し実行される。
 まず、ステップS1で、生体情報取得部20(カメラ21、マイク22、サーモグラフィ23)によりユーザの生体情報を取得する。次いで、ステップS2で、感情推定部12での処理により、取得された生体情報に基づきユーザの感情を推定する。次いで、ステップS3で、不快感情判定部11での処理により、ステップS1で推定されたユーザの感情を数値化することで、ユーザの不快感情の度合いを算出するとともに、不快感情の度合いが所定値に達しているか否か、すなわち所定の不快感情が生じているか否かを判定する。
 ステップS3で肯定されるとステップS4に進み、否定されると処理を終了する。ステップS4では、動作選択部14での処理により、予め動作記憶部13に記憶された複数の改善動作の中から、例えば優先順位の最も高い改善動作を選択する。次いで、ステップS5で、作業機制御部15での処理により、ステップS4で選択した改善動作を行うように、作業機1を制御する。例えば、作業機1が所定の走行動作を行うように走行用アクチュエータ27に制御信号を出力する。
 次いで、ステップS6で、効果測定部16での処理により、生体情報取得部20により取得された生体情報に基づきユーザの感情を推定する。すなわち、不快感情の改善の効果を測定する。次いで、ステップS7で、不快感情の程度が所定値以上に改善されたか否かを判定する。ステップS7で否定されると、ステップS4に戻る。この場合、前回選択した改善動作(例えば優先順位の最も高い改善動作)の優先順位を1段階引き下げるとともに、これとは別の改善動作(例えば次に優先順位の高い改善動作)を選択し、動作記憶部13に記憶された改善動作の優先順位を更新する。以降、ステップS7で肯定されるまで同様の処理を繰り返す。ステップS7で肯定されると処理を終了する。
 本実施形態に係る感情改善装置100の動作をより具体的に説明する。図5は、感情改善装置100の動作の一例を示す作業領域ARの平面図である。図5に示すように、作業領域ARにおいて複数のユーザ201,202の会話が検出されると、図4の処理が開始される。ユーザ同士が言い争いをしているとき、作業機1は、ユーザが所定の不快感情(例えば怒りの感情)を有すると判定する(ステップS3)。したがって、作業機1は、優先順位の最も高い動作、例えばユーザ201,202間を横切る走行動作を所定の改善動作として選択する(ステップS4)。そして、作業機1はカメラ21等によりユーザ201,202の位置を把握しながら、図5の矢印Aに示すように、ユーザ201,202間を横切るように走行する(ステップS5)。
 このように作業機1がユーザ201,202間を横切ると、ユーザ201,202の注意が作業機1に向けられ、作業機1の動作が、ユーザ201,202がお互いに冷静さを取り戻すきっかけを与える。このため、ユーザ201,202は言い争いをやめるようになり、その結果、ユーザ201,202の不快感情の程度が所定値以上に改善される。
 一方、所定の改善動作を行ったにも拘らず、ユーザの感情の程度が所定値以上まで改善されないとき、作業機1はその改善動作の優先順位を下げるとともに、別の改善動作を選択する(ステップS7→ステップS4)。例えば、次に優先順位の高い動作として、ユーザ201,202の周囲をジグザグ走行する改善動作を選択する。これにより作業機1は、カメラ21等によりユーザ201,202の位置を把握しながら、図5の矢印Bに示すように、ユーザ201,202の周囲をジグザグ走行する。その後、ユーザ201,202の不快感情が改善されると、作業機1は改善動作を終了し、改善されないときは、選択された改善動作の優先順位を下げるとともに、さらに別の改善動作を実行する。
 本実施形態によれば以下のような作用効果を奏することができる。
(1)作業機1を用いてユーザの不快感情を改善させる感情改善装置100は、ユーザの生体情報を取得する生体情報取得部20と、生体情報取得部20により取得された生体情報に基づき、ユーザに所定の不快感情が生じているか否かを判定する不快感情判定部11と、不快感情判定部11により所定の不快感情が生じていると判定されると、その不快感情を改善させる所定の改善動作をユーザに向けて行うように作業機1を制御する作業機制御部15と、を備える(図2A,図2B)。この構成により、作業機を用いてユーザの不快感情、特にユーザ同士に生じた不快感情(例えばユーザ同士が言い争っているときの怒りの感情)を改善することが可能となる。
(2)不快感情判定部11は、生体情報取得部20により取得された生体情報に基づきユーザの感情を推定する感情推定部12を有し(図2B)、感情推定部12により推定された感情に基づいてユーザの不快感情の度合いを求め、求められた度合いが所定値に達していると、所定の不快感情が生じていると判定する。このようにユーザの不快感情の度合いを求めることで、不快感情の度合いに応じた適切な改善動作を行うことができる。
(3)感情改善装置100は、所定の改善動作の候補である複数の改善動作を、優先順位を付けて記憶する動作記憶部13と、動作記憶部13に記憶された複数の改善動作の中から優先順位の高い改善動作を選択する動作選択部14と、をさらに備える(図2B)。作業機制御部15は、不快感情判定部11により所定の不快感情が生じていると判定されると、動作選択部14により選択された改善動作を行うように作業機1を制御する。このように複数の改善動作に優先順位を付しておくことで、所定の不快感情が生じていると判定されたときに、最も効果があると予想される改善動作を選択することができ、これによりユーザの不快感情を効果的に改善することができる。
(4)感情改善装置100は、作業機1が動作選択部14により選択された動作を行ったときのユーザの不快感情の改善の程度を測定する効果測定部16をさらに備える(図2B)。動作選択部14は、効果測定部16により測定された不快感情の改善の程度が所定値未満と判定されると、選択された改善動作の優先順位を引き下げて他の改善動作を選択する。これにより不快感情の改善の程度に応じて改善動作の優先順位が更新されるため、作業機1は最適な改善動作を選択することが可能となる。すなわち、特定のユーザにとって所定の改善動作が最も有効であったとしても、時間の経過とともにその有効性が低下する場合があるが、本実施形態によれば、不快感情の改善の程度に応じて改善動作の優先順位を随時更新するので、常に最適な改善動作を選択することができる。
(5)生体情報取得部20は、作業機1に設けられたカメラ21、マイク22およびサーモグラフィ23を有する(図2A)。これによりユーザの表情、行動、音声、および体温(顔面温度)を認識することができ、改善動作の前提となるユーザの不快感情の程度を良好に推定することができる。
(6)作業機1を、作業領域ARを自律走行しながら芝刈り作業を行う芝刈り機により構成した(図1)。このような作業機1はユーザの近傍で作業を行うことから、ユーザにとって身近で愛着を感じるものであり、このため作業機1を介してユーザの不快感情を効果的に改善することができる。
(7)作業機1は、作業領域ARを自律走行しながら所定の作業を行う移動型作業機であり(図1)、生体情報取得部20は、複数のユーザの生体情報を取得し、不快感情判定部11は、生体情報取得部20により取得された複数のユーザの生体情報に基づき、複数のユーザ同士に所定の不快感情が生じているか否かを判定し、作業機制御部15は、不快感情判定部11により所定の不快感情が生じていると判定されると、複数のユーザの周囲(例えばユーザ201,202間)を走行するように作業機1を制御する(図5)。これによりユーザの関心が作業機1に移るため、ユーザ同士の言い争いなどを効果的に抑制することができる。
(8)作業機1を用いてユーザの不快感情を改善させる感情改善方法として、ユーザの生体情報を取得し(ステップS1)、取得された生体情報に基づき、ユーザに所定の不快感情が生じているか否かを判定し(ステップS3)、所定の不快感情が生じていると判定されると、不快感情を改善させる所定の改善動作をユーザに向けて行うように作業機1を制御するようにした(ステップS5)。これにより、ユーザの怒りなどの不快感情を効果的に改善することができる。
 上記実施形態は、種々の形態に変形することができる。以下、変形例について説明する。図6は、図1の変形例としての感情改善装置100Aを示す図である。図1では、作業機1単体で感情改善装置100を構成したが、図6では、作業機1と処理装置101とにより感情改善装置100Aが構成される。処理装置101は、ECU、記憶部、通信ユニット等を有し、作業機1と外部の処理装置101とが通信ユニットを介して互いに無線通信可能に構成される。このような構成によれば、作業機1のECU10が必要に応じて処理装置101からデータを取得することができる。したがって、ECU10の一部を処理装置101に設けることができ、ECU10の構成を簡素化できる。
 上記実施形態では、単一の作業機1により感情改善装置100を構成したが、複数の作業機により感情改善装置を構成することもできる。図7は、その一例を概念的に示すブロック図である。図7では、作業機1として上述した芝刈り機(1Aで示す)と散水機(1Bで示す)とが、無線または有線で処理装置101に通信可能に接続される。散水機1Bは、配管を介して給水源に接続され、給水源とノズルとを連通または遮断する電磁弁(作業用アクチュエータ)の駆動に応じて、ノズルから屋外の所定領域に散水することができる。処理装置101には、屋外の所定領域を照明するためのライト1Cも接続される。
 このように構成された感情改善装置100Bにおいては、芝刈り機1Aと散水機1Bとライト1Cのいずれか1つまたは複数(例えば全て)に生体情報取得部20が設けられる。処理装置101は、生体情報取得部20により取得された生体情報に基づいてユーザに所定の不快感情(例えば怒りの感情)が生じているか否かを判定し、所定の不快感情が生じていると判定されると、不快感情を改善させる所定の動作をユーザに向けて行うように芝刈り機1Aと散水機1Bとライト1Cとを制御する。例えば上述した芝刈り機1Aの動作に代えて、または芝刈り機1Aの動作に加え、散水機1Bから水を噴射するように散水機1Bの電磁弁を制御する。この場合、虹を発生させるように太陽の方向を考慮して水を噴射することもできる。照明光を点滅させるようにライト1Cを制御してもよい。作業機として例えば散水機1Bのみを用いることもできる。
 上述したように作業機1は自走可能な移動式ではなく、自走不能な固定式であってもよいが、作業機の構成は上述したものに限らない。例えば可動アームと可動ハンドとを有して、植物等を把持することが可能な可動式作業機としてもよく、この作業機を用いて、ユーザの不快感情を改善させるために植物等を採取するようにしてもよい。すなわち、不快感情を改善させる所定の動作は上述したものに限らず、所定の不快感情が生じていると判定されると、その不快感情を改善させる所定の動作をユーザに向けて行うように作業機を制御するのであれば、作業機制御部はいかなるものでもよい。
 上記実施形態では、撮像装置としてのカメラ21、集音装置としてのマイク22および撮温装置としてのサーモグラフィ23により作業満足度に応じて変化するユーザの態様を検出するようにしたが、生体情報取得部の構成はこれに限らない。例えば、撮像装置、集音装置および撮温装置の全てではなく、これらの少なくとも1つで生体情報を取得するようにしてもよい。他の機器(ウェアラブル機器等)により上述したのと同一の生体情報あるいは他の生体情報(例えば脈拍や心拍数等)を取得するようにしてもよい。生体情報取得部を作業機以外(例えば建造物の壁等)に設けてもよい。
 上記実施形態では、生体情報取得部20により取得された生体情報に基づき感情推定部12でユーザの感情を推定し、その推定された感情に基づいて不快感情判定部11でユーザの不快感情の度合いを求め、求められた度合いが所定値(マイナスの所定値)に達していると、所定の不快感情(例えば怒りの不快感情)が生じていると判定するようにした。しかしながら、不快感情判定部は、不快感情の度合いを求めることなく、単にユーザに所定の不快感情が生じているか否かを判定するようにしてもよく、したがって感情推定部を省略することもできる。
 上記実施形態では、不快感情を改善するための所定の動作の候補である複数の改善動作を、優先順位を付けて動作記憶部13で記憶するとともに、記憶された複数の動作の中から優先順位の高い動作を動作選択部14で選択するようにしたが、例えば不快感情を改善するために常に一定の動作を行わせるようにしてもよく、したがって、動作記憶部と動作選択部とを省略することもできる。上記実施形態では、効果測定部16においてユーザの不快感情の改善の程度を測定するようにしたが、効果測定部を省略することもできる。
 すなわち、以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能である。
1 作業機、11 不快感情判定部、12 感情推定部、13 動作記憶部、14 動作選択部、15 作業機制御部、16 効果測定部、20 生体情報取得部、21 カメラ、22 マイク、23 サーモグラフィ、100、100A、100B 感情改善装置

Claims (8)

  1.  作業機のユーザの不快感情を改善させる感情改善装置であって、
     ユーザの生体情報を取得する生体情報取得部と、
     前記生体情報取得部により取得された生体情報に基づき、ユーザに所定の不快感情が生じているか否かを判定する不快感情判定部と、
     前記不快感情判定部により前記所定の不快感情が生じていると判定されると、該不快感情を改善させる所定の動作をユーザに向けて行うように前記作業機を制御する作業機制御部と、を備えることを特徴とする感情改善装置。
  2.  請求項1に記載の感情改善装置において、
     前記不快感情判定部は、前記生体情報取得部により取得された生体情報に基づきユーザの感情を推定する感情推定部を有し、前記感情推定部により推定された感情に基づいてユーザの不快感情の度合いを求め、求められた度合いが所定値に達していると、前記所定の不快感情が生じていると判定することを特徴とする感情改善装置。
  3.  請求項1または2に記載の感情改善装置において、
     前記所定の動作の候補である複数の動作を、優先順位を付けて記憶する動作記憶部と、
     前記動作記憶部に記憶された複数の動作の中から優先順位の高い動作を選択する動作選択部と、をさらに備え、
     前記作業機制御部は、前記不快感情判定部により前記所定の不快感情が生じていると判定されると、前記動作選択部により選択された動作を行うように前記作業機を制御することを特徴とする感情改善装置。
  4.  請求項3に記載の感情改善装置において、
     前記作業機が前記動作選択部により選択された動作を行ったときのユーザの不快感情の改善の程度を測定する効果測定部をさらに備え、
     前記動作選択部は、前記効果測定部により測定された不快感情の改善の程度が所定値未満と判定されると、前記選択された動作の優先順位を下げて他の動作を選択することを特徴とする感情改善装置。
  5.  請求項1~4のいずれか1項に記載の感情改善装置において、
     前記生体情報取得部は、前記作業機に設けられた撮像装置、集音装置および撮温装置の少なくとも1つを有することを特徴とする感情改善装置。
  6.  請求項1~5のいずれか1項に記載の感情改善装置において、
     前記作業機は、作業領域を自律走行しながら芝刈り作業を行う芝刈り機および散水機の少なくともいずれかであることを特徴とする感情改善装置。
  7.  請求項1~5のいずれか1項に記載の感情改善装置において、
     前記作業機は、作業領域を自律走行しながら所定の作業を行う移動型作業機であり、
     前記生体情報取得部は、複数のユーザの生体情報を取得し、
     前記不快感情判定部は、前記生体情報取得部により取得された複数のユーザの生体情報に基づき、複数のユーザ同士に前記所定の不快感情が生じているか否かを判定し、
     前記作業機制御部は、前記不快感情判定部により前記所定の不快感情が生じていると判定されると、複数のユーザの周囲を走行するように前記作業機を制御することを特徴とする感情改善装置。
  8.  作業機のユーザの不快感情を改善させる感情改善方法であって、
     ユーザの生体情報を取得し、
     取得された生体情報に基づき、ユーザに所定の不快感情が生じているか否かを判定し、
     前記所定の不快感情が生じていると判定されると、不快感情を改善させる所定の動作をユーザに向けて行うように前記作業機を制御することを含むことを特徴とする感情改善方法。
PCT/JP2017/044774 2016-12-27 2017-12-13 感情改善装置および感情改善方法 WO2018123598A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/473,324 US20200121888A1 (en) 2016-12-27 2017-12-13 Emotion improving apparatus and emotion improving method
EP17889134.7A EP3549430B1 (en) 2016-12-27 2017-12-13 Emotion improvement device and emotion improvement method
CN201780079118.XA CN110087451A (zh) 2016-12-27 2017-12-13 情绪改善装置以及情绪改善方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-253719 2016-12-27
JP2016253719A JP2018102705A (ja) 2016-12-27 2016-12-27 感情改善装置および感情改善方法

Publications (1)

Publication Number Publication Date
WO2018123598A1 true WO2018123598A1 (ja) 2018-07-05

Family

ID=62707488

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/044774 WO2018123598A1 (ja) 2016-12-27 2017-12-13 感情改善装置および感情改善方法

Country Status (5)

Country Link
US (1) US20200121888A1 (ja)
EP (1) EP3549430B1 (ja)
JP (1) JP2018102705A (ja)
CN (1) CN110087451A (ja)
WO (1) WO2018123598A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021014585A1 (ja) * 2019-07-23 2021-01-28 本田技研工業株式会社 自律作業機、制御装置、自律作業機の制御方法、制御装置の動作方法及びプログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10780940B2 (en) 2018-01-12 2020-09-22 Shimano Inc. Human-powered vehicle control device
CN109446876B (zh) * 2018-08-31 2020-11-06 百度在线网络技术(北京)有限公司 手语信息处理方法、装置、电子设备和可读存储介质
CN110626352A (zh) * 2019-10-08 2019-12-31 昆山聚创新能源科技有限公司 车辆及其司乘人员焦虑情况的检测方法和装置
CN110825503B (zh) * 2019-10-12 2024-03-19 平安科技(深圳)有限公司 主题切换方法、装置及存储介质、服务器
CN110712651A (zh) * 2019-11-05 2020-01-21 大陆投资(中国)有限公司 用于车内监控的方法和装置
CN115047824A (zh) * 2022-05-30 2022-09-13 青岛海尔科技有限公司 数字孪生多模态设备控制方法、存储介质及电子装置
EP4375156A1 (en) 2022-11-22 2024-05-29 Toyota Jidosha Kabushiki Kaisha Method and data processing device for controlling a device based on a state of its user

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006282115A (ja) * 2005-04-04 2006-10-19 Denso Corp 自動車用ユーザーもてなしシステム
JP2008054915A (ja) * 2006-08-31 2008-03-13 Iseki & Co Ltd 作業車輌
JP2008070966A (ja) * 2006-09-12 2008-03-27 Fujitsu Ten Ltd 車両制御装置および車両制御方法
JP5050449B2 (ja) * 2006-08-30 2012-10-17 井関農機株式会社 作業車両
US20140088840A1 (en) * 2012-09-27 2014-03-27 Claas Selbstfahrende Erntemaschinen Gmbh Method for operating an agricultural working machine
JP5775440B2 (ja) * 2011-12-09 2015-09-09 ヤンマー株式会社 電動作業車両
JP5917841B2 (ja) * 2011-06-15 2016-05-18 日産自動車株式会社 気分判定装置及び気分判定装置の作動方法
JP2016137200A (ja) 2015-01-29 2016-08-04 マツダ株式会社 車両用乗員感情対応制御装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4655572B2 (ja) * 2004-03-25 2011-03-23 日本電気株式会社 信号処理方法および信号処理装置、ならびに、ロボット
TW200924706A (en) * 2007-12-12 2009-06-16 Inst Information Industry Emotion sensing and relaxing system and its method
KR101173944B1 (ko) * 2008-12-01 2012-08-20 한국전자통신연구원 차량 운전자의 감성 조절 시스템 및 방법
CA2932689C (en) * 2013-12-05 2018-07-31 Pst Corporation, Inc. Estimation device, program, estimation method, and estimation system
CN104338228A (zh) * 2014-10-15 2015-02-11 惠州Tcl移动通信有限公司 一种情绪调节方法及终端
JP6213489B2 (ja) * 2015-01-29 2017-10-18 マツダ株式会社 車両用乗員感情対応制御装置
CN104741280B (zh) * 2015-04-10 2017-11-10 佘惠林 多功能喷水、滚球式发光装置
CN205394569U (zh) * 2016-03-18 2016-07-27 中国石油大学(华东) 情绪安慰机器人
CN105835069A (zh) * 2016-06-06 2016-08-10 李志华 智能家用保健机器人

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006282115A (ja) * 2005-04-04 2006-10-19 Denso Corp 自動車用ユーザーもてなしシステム
JP5050449B2 (ja) * 2006-08-30 2012-10-17 井関農機株式会社 作業車両
JP2008054915A (ja) * 2006-08-31 2008-03-13 Iseki & Co Ltd 作業車輌
JP2008070966A (ja) * 2006-09-12 2008-03-27 Fujitsu Ten Ltd 車両制御装置および車両制御方法
JP5917841B2 (ja) * 2011-06-15 2016-05-18 日産自動車株式会社 気分判定装置及び気分判定装置の作動方法
JP5775440B2 (ja) * 2011-12-09 2015-09-09 ヤンマー株式会社 電動作業車両
US20140088840A1 (en) * 2012-09-27 2014-03-27 Claas Selbstfahrende Erntemaschinen Gmbh Method for operating an agricultural working machine
JP2016137200A (ja) 2015-01-29 2016-08-04 マツダ株式会社 車両用乗員感情対応制御装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021014585A1 (ja) * 2019-07-23 2021-01-28 本田技研工業株式会社 自律作業機、制御装置、自律作業機の制御方法、制御装置の動作方法及びプログラム

Also Published As

Publication number Publication date
EP3549430A1 (en) 2019-10-09
US20200121888A1 (en) 2020-04-23
CN110087451A (zh) 2019-08-02
EP3549430B1 (en) 2021-06-23
JP2018102705A (ja) 2018-07-05
EP3549430A4 (en) 2019-12-11

Similar Documents

Publication Publication Date Title
WO2018123598A1 (ja) 感情改善装置および感情改善方法
WO2018043235A1 (ja) 音源の方向を認識する自律行動型ロボット
CN107168320B (zh) 一种导游服务机器人
WO2017169826A1 (ja) お出迎え行動する自律行動型ロボット
JP5366048B2 (ja) 情報提供システム
WO2018123599A1 (ja) 作業システムおよび作業方法
JP4822319B2 (ja) コミュニケーションロボットおよびそれを用いた注意制御システム
JP5768273B2 (ja) 歩行者の軌跡を予測して自己の回避行動を決定するロボット
WO2018092436A1 (ja) 感情推定装置、および、感情推定システム
JPWO2007132571A1 (ja) ロボット
JP2008282073A (ja) ペット誘導ロボットおよびペット誘導方法
JP2007139710A (ja) 歩行補助ロボット
CN207387674U (zh) 一种会议服务智能机器人
JP5755011B2 (ja) ロボット群制御装置および方法
CN109223346A (zh) 一种语音控制导航的盲人轮椅及其控制方法
JP6796458B2 (ja) 電気掃除機
CN105690397A (zh) 迎宾机器人
KR20190006331A (ko) 이동식 대쉬보드 로봇
CN115195637A (zh) 一种基于多模交互和虚拟现实技术的智能座舱***
CN105266982A (zh) 一种智能轮椅
JP2003266353A (ja) ロボット装置及びその制御方法
US11969876B2 (en) Robot and control method of robot
JP6605442B2 (ja) 情報提供装置および情報提供方法
WO2021090704A1 (ja) 自律移動体、情報処理方法、プログラム、及び、情報処理装置
JP6985930B2 (ja) 自律移動体の運用方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17889134

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017889134

Country of ref document: EP

Effective date: 20190703