CN109000635B - 信息提供装置及信息提供方法 - Google Patents

信息提供装置及信息提供方法 Download PDF

Info

Publication number
CN109000635B
CN109000635B CN201810566624.8A CN201810566624A CN109000635B CN 109000635 B CN109000635 B CN 109000635B CN 201810566624 A CN201810566624 A CN 201810566624A CN 109000635 B CN109000635 B CN 109000635B
Authority
CN
China
Prior art keywords
emotion
user
vehicle
information
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810566624.8A
Other languages
English (en)
Other versions
CN109000635A (zh
Inventor
相马英辅
汤原博光
滝川桂一
后藤绅一郎
今泉聡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of CN109000635A publication Critical patent/CN109000635A/zh
Application granted granted Critical
Publication of CN109000635B publication Critical patent/CN109000635B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/02Registering or indicating driving, working, idle, or waiting time only
    • G07C5/06Registering or indicating driving, working, idle, or waiting time only in graphical form
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明提供一种信息提供装置及信息提供方法,能够一方面减轻或消除车辆的用户的不适感,一方面根据驾驶负荷提供信息。信息提供装置(2)包括:情绪确定部(100),确定车辆的虚拟情绪(图5的步骤108A、步骤108B);以及输出控制部(100),根据车辆的虚拟情绪,确定使输出部(15)、(17)输出的信息的内容及输出方式中的一者或两者(图5的步骤112A、步骤112B)。情绪确定部(100)在满足如下条件,即,行驶状态检测部(11)、所检测到的车辆的行驶状态为规定的行驶状态的期间已持续规定期间以上时(图5的步骤106,是),将规定的情绪确定为所述车辆的虚拟情绪(图5的步骤108A)。

Description

信息提供装置及信息提供方法
技术领域
本发明涉及一种信息提供装置及信息提供方法。
背景技术
现有,已知对车辆的乘客提供信息的装置。
例如,专利文献1的技术揭示了如下的装置:根据司机的驾驶负荷等级,在驾驶负荷高时不提示信息而予以保留,在驾驶负荷低时提示信息,从而可以不干扰司机的注意而提供信息。
[现有技术文献]
[专利文献]
[专利文献1]日本专利特开2008-241309号公报
发明内容
[发明所要解决的问题]
专利文献1的技术是根据驾驶负荷等级来判断是否需要提示信息。驾驶的负荷状况是时刻变化的,所以有可能根据驾驶负荷等级的变化而频繁地切换信息的输出与不输出,从而有可能让车辆的用户产生不适感。
因此,本发明的目的在于提供一种信息提供装置及信息提供方法,能够一方面减轻或消除车辆的用户的不适感,一方面根据驾驶负荷提供信息。
[解决问题的技术手段]
本发明的信息提供装置,包括:
输出部,输出信息;
行驶状态检测部,检测车辆的行驶状态;
情绪确定部,确定所述车辆的虚拟情绪;以及
输出控制部,根据所述车辆的虚拟情绪,确定使所述输出部输出的信息的内容及输出方式中的一者或两者;并且
所述情绪确定部构成为在满足如下条件,即,所述行驶状态检测部所检测到的所述车辆的行驶状态为规定的行驶状态的期间已持续规定期间以上时,将规定的情绪确定为所述车辆的虚拟情绪。
根据所述构成的信息提供装置,响应于车辆的虚拟情绪,确定输出部所输出的信息的内容及输出方式中的一者或两者。在所输出的信息的内容或输出方式中,会反映与车辆的虚拟情绪相应的倾向。可以给认识到各种倾向的信息的内容或输出方式的用户,带来车辆似乎有情绪的印象。甚至可以带给用户如下印象,即,即使信息的内容及输出方式中的一者或两者发生变更,也是因为车辆的情绪发生了改变,从而能够减轻或消除带给用户的不适感。
并且,当满足所述车辆的行驶状态为规定的行驶状态的期间已持续规定期间以上的条件时,车辆的行驶稳定,与不满足条件时相比驾驶负荷低的状态更容易长期持续。当车辆的行驶稳定时,推测为用户的驾驶负荷低。在驾驶负荷低时,用户容易对所输出的信息给予关注。与正在关注信息时信息的内容及输出方式中的一者或两者频繁地发生变化的情况相比,通过在这种用户容易对信息给予关注的期间内以与规定的情绪相应的倾向的信息的内容及输出方式中的一者或两者输出信息,可以一方面减轻或消除带给用户的不适感,一方面适当地提供信息。
由此,能够一方面减轻或消除带给用户的不适感,一方面根据用户的驾驶负荷对用户适当地提供信息。
在本发明的信息提供装置中,优选的是包括:
输入部,探测所述车辆的用户对所述信息的反应;以及
嗜好推断部,基于在所述条件已满足的期间内,所述输入部所探测到的所述用户对所述信息的反应,推断所述用户的嗜好。
在本说明书中所谓“反应”,是作为如下用语来使用:除了包含无条件反射或条件反射等在生物体中基于刺激而引起的运动以外,还包含对某事件或动作等的交流(communication)或动作等的回应。
根据所述构成的信息提供装置,基于在所述条件已满足的期间内用户对输出部所输出的信息的反应,来推断用户的嗜好。如上所述,在条件满足的期间是推断为驾驶负荷低的期间时,可推测为在驾驶负荷低时用户容易关注到所提供的信息。因此,驾驶负荷低时的反应可推测为是用户关注到所提供的信息后的反应,因此可靠性高地表示用户的嗜好的可能性大。
因此,根据所述构成的信息提供装置,能够基于可靠性高的反应,以高精度推断用户的嗜好。
在所述构成的信息提供装置中,优选的是:
根据所述规定的情绪而输出的信息包含用于推断所述用户的嗜好的询问。
根据所述构成的信息提供装置,由于根据车辆的规定的情绪而输出的信息包含用于推断所述用户的嗜好的询问,因此能够高效率地收集用于推断用户的嗜好的可靠性高的信息。
在这些信息提供装置中,优选的是包括:
用户情绪推断部,推断所述车辆的用户的情绪;并且
所述嗜好推断部构成为根据所述用户情绪推断部所推断出的所述用户的情绪,确定对所述输入部所探测到的所述用户对所述信息的反应的可靠性。
根据所述构成的信息提供装置,构成为根据所述用户情绪推断部所推断出的所述用户的情绪,确定对用户的反应的可靠性。
在这里,推测到:当用户感觉不畅快时用户几乎不关注所提供的信息,或者反之当用户感觉畅快时用户则关注所提供的信息,并认真地给予回应等,用户的反应的可靠性会根据用户的情绪而发生变化。
因此,通过根据用户的情绪,在用户的反应上添加可靠性,可以在推断用户的嗜好时,对成为依据的信息适当地评估可靠性。
在本发明的信息提供装置中,优选的是:
所述车辆的行驶状态包含所述车辆的行驶速度,
所述条件为如下条件:所述车辆的行驶速度处于不含零的速度范围内的期间已持续规定期间以上。
根据所述构成的信息提供装置,在条件满足的期间内,车辆的行驶速度稳定在固定的范围内,因此用户的驾驶负荷降低,从而推测为用户容易关注到从输出部输出的信息。通过在所述期间内根据车辆的规定的情绪,确定从输出部输出的信息的内容及输出方式中的一者或两者,能够一方面减轻或消除带给用户的不适感,一方面根据用户的驾驶负荷,对用户适当地提供信息。
在本发明的信息提供装置中,优选的是:
所述车辆的行驶状态包含所述车辆的加速度,
所述条件为如下条件:所述车辆的加速度处于含零的加速度范围内的期间已持续规定期间以上。
根据所述构成的信息提供装置,在条件满足的期间内,车辆的加速度稳定在固定的范围内,因此用户的驾驶负荷降低,从而推测为用户容易关注到从输出部输出的信息。通过在所述期间内根据车辆的规定的情绪,确定从输出部输出的信息的内容及输出方式中的一者或两者,能够一方面减轻或消除带给用户的不适感,一方面根据用户的驾驶负荷对用户适当地提供信息。
本发明的信息提供方法,其是计算机所执行的方法,所述计算机包括输出信息的输出部及检测车辆的行驶状态的行驶状态检测部,包括:
第一步骤,确定所述车辆的虚拟情绪;以及
第二步骤,根据所述车辆的虚拟情绪,确定使所述输出部输出的信息的内容及输出方式中的一者或两者;并且
所述第一步骤是在满足如下条件时,将规定的情绪确定为所述车辆的虚拟情绪,所述条件即,所述检测到的所述车辆的行驶状态为规定的行驶状态的期间已持续规定期间以上。
附图说明
图1是基本***的构成说明图。
图2是代理(agent)装置的构成说明图。
图3是便携式终端装置的构成说明图。
图4是说明代理的情绪表现的构成的图。
图5是信息输出处理的流程图。
图6是基本情绪表现的图谱(map)的说明图。
图7是附加部件的图谱的说明图。
符号的说明
1:代理装置
2:便携式终端装置
3:服务器
4:无线通信网
11、21:传感器部
12:车辆信息部
13、23:存储部
14、24:无线部
15、25:显示部
16、26:操作输入部
17:音频部
18:导航部
27:语音输出部
41、411:基本表情图像
42、421、422:附加部件
43、431:应用表情图像
100、200:控制部
111、211:GPS传感器
112:车速传感器
113、213:陀螺仪传感器
131:代理图像
141、241:近距离无线通信部
142、242:无线通信网通信部
191:摄像部(车内摄像机)
192、292:语音输入部(话筒)
231:数据存储部
232:应用程序存储部
291:摄像部(摄像机)
T1:第一阈值
T2:第二阈值
X:车辆(移动体)
具体实施方式
(基本***的构成)
图1所示的基本***包括搭载在对象车辆X(移动体)上的代理装置1、可以由乘客带入到对象车辆X的内部的便携式终端装置2(例如智能手机)及服务器(server)3。代理装置1、便携式终端装置2及服务器3具备通过无线通信网(例如互联网)4相互进行无线通信的功能。代理装置1及便携式终端装置2具备在共处于同一对象车辆X的空间内等在物理上靠近时,通过近距离无线方式(例如蓝牙(Bluetooth)(注册商标))而相互进行无线通信的功能。对象车辆X相当于本发明的“车辆”。
(代理装置的构成)
例如,如图2所示,代理装置1包括控制部100、传感器部11(包括全球定位***(Global Positioning System,GPS)传感器111、车速传感器112及陀螺仪传感器(gyrosensor)113)、车辆信息部12、存储部13、无线部14(包括近距离无线通信部141及无线通信网通信部142)、显示部15、操作输入部16、音频(audio)部17(语音输出部)、导航(navigation)部18、摄像部191(车内摄像机)及语音输入部192(话筒)。代理装置1相当于本发明的“信息提供装置”的一例。显示部15及音频部17分别相当于本发明的“输出部”的一例。操作输入部16及语音输入部192分别相当于本发明的“输入部”的一例。传感器部11相当于本发明的“行驶状态检测部”。控制部100通过执行后述运算,而作为本发明的“情绪确定部”、“输出控制部”、“嗜好推断部”、“用户情绪推断部”发挥作用。再者,代理装置1中不必包含信息提供装置的所有构成要素,代理装置1通过经由通信使外部的服务器等执行需要的功能,而使其作为信息提供装置的构成要素发挥作用。
传感器部11的GPS传感器111基于来自全球定位***(Global PositioningSystem,GPS)卫星的信号而算出当前位置。车速传感器112基于来自旋转轴的脉冲信号而算出对象车辆X的速度。陀螺仪传感器113检测角速度。通过这些GPS传感器111、车速传感器112、陀螺仪传感器113,可以准确地算出对象车辆X的当前位置或方向。并且,GPS传感器111也可以从GPS卫星获取表示当前日期和时间的信息。
车辆信息部12通过控制器局域网总线技术(controller area network-bus,CAN-BUS)等车内网络来获取车辆信息。在车辆信息中,包含例如点火(ignition)开关(switch,SW)的接通/断开(ON/OFF)、安全装置***的动作状况(自动数据采集***(advanceddriver assistance systems,ADAS)、防死锁刹车***(anti-lock brake system,ABS)及气囊(air bag)等)的信息。操作输入部16除了探测按下开关等操作的输入以外,还探测可用于推断乘客的情绪的转向装置(steering)、加速踏板(accelerator pedal)或刹车踏板(brake pedal)的操作量、窗户及空调的操作(温度设定等)等的输入。
存储部13存储代理图像131。
代理图像131作为车辆X的虚拟角色的脸的图像,是模仿人脸的图像。如图4所示,代理图像131包含基本表情图像41及附加部件42。通过将基本表情图像41与附加部件42加以组合,来构成应用表情图像43。代理图像131例如是从服务器3下载的图像。
例如,如图4所示,基本表情图像41是与喜欢、平静、厌恶及忍耐的情绪分别相对应的图像。附加部件42是与各个基本表情图像41相对应的可爱、高兴、畅快、安心、悲伤、生气、痛苦及难受的相关部件。
例如,通过将喜欢的基本表情图像411与对应于喜欢的可爱的附加部件421加以组合,而构成可爱的应用表现图像431。
无线部14的近距离无线通信部141是例如无线保真(Wireless Fidelity,Wi-Fi)(注册商标)、蓝牙(Bluetooth)(注册商标)等的通信部,无线通信网通信部142是与以第3代移动通信技术(The 3rd Generation Telecommunication,3G)或蜂窝技术(cellular)、长期演进技术(Long Term Evolution,LTE)通信等的所谓移动电话网为代表的无线通信网连接的通信部。
(便携式终端装置的构成)
例如,如图3所示,便携式终端装置2包括控制部200、传感器部21(包括GPS传感器211及陀螺仪传感器213)、存储部23(包括数据存储部231及应用程序存储部232)、无线部24(包括近距离无线通信部241及无线通信网通信部242)、显示部25、操作输入部26、语音输出部27、摄像部291(摄像机)及语音输入部292(话筒)。便携式终端装置2也可以作为本发明的“信息提供装置”而发挥作用。这时,显示部25及语音输出部27分别相当于本发明的“输出部”的一例。操作输入部26及语音输入部292分别相当于本发明的“输入部”的一例。控制部200能够作为本发明的“情绪确定部”、“输出控制部”、“嗜好推断部”、“用户情绪推断部”而发挥作用。
便携式终端装置2包含与代理装置1共同的构成要素。便携式终端装置2不含获取车辆信息的构成要素(参照图2的车辆信息部12),但是可以例如通过近距离无线通信部241而从代理装置1或对象车辆X所具备的“行驶状态检测部”获取车辆信息。并且,便携式终端装置2也可以按照存储于应用程序存储部232中的应用程序(软件),具备分别与代理装置1的音频部17及导航部18相同的功能。
(服务器的构成)
服务器3由一台或多台计算机构成。服务器3构成为从各个代理装置1或便携式终端装置2接收数据及请求(request),将数据存储于数据库等存储部中,执行与请求相应的处理,并将处理结果发送至代理装置1或便携式终端装置2。
构成服务器3的计算机的一部分或全部也可以由例如一个或多个代理装置1或便携式终端装置2的构成要素的移动电台(mobile station)构成。
所谓本发明的构成要素是以执行所负责的运算处理的方式而“构成”,是指构成所述构成要素的中央处理器(central processing unit,CPU)等运算处理装置是以从只读存储器(read only memory,ROM)、随机存取存储器(random access memory,RAM)等存储器或记录介质中除了读取需要的信息以外还读取软件,并对所述信息按照所述软件执行运算处理的方式而“编程”或“设计(design)”。各构成要素也可以由共同的处理器(运算处理装置)构成,各构成要素还可以由可相互通信的多个处理器构成。
(信息输出处理)
其次,参照图5~图7,对信息输出处理进行说明。
代理装置1的控制部100根据传感器部11所获取到的信息、操作输入部16所探测到的操作、摄像部191所拍摄的图像、语音输入部192所探测到的语音、及从未图示的对象车辆X的用户即对象用户所佩戴的可穿戴传感器(wearable sensor)获取到的对象用户的生物信息中的至少一者,识别对象车辆X的行驶状态及对象用户的状态中的一者或两者(图5的步骤102)。并且,控制部100将所识别出的对象车辆X的行驶状态及对象用户的状态中的一者或两者的时间序列数据(time-series data)存储于存储部13中。
例如,控制部100根据传感器部11所获取到的信息,识别作为对象车辆X的动作状态的时间序列位置、对象车辆X的行驶速度、对象车辆X的方向。
并且,例如,控制部100根据操作输入部16所探测到的操作,识别作为对象用户的状态的对“现在的心情如何?”等问卷调查的回答。
并且,例如,控制部100根据摄像部191所拍摄的图像,识别作为对象用户的状态的对象用户的表情及行为。
并且,例如,控制部100根据语音输入部192所探测到的语音,识别作为对象用户的状态的对象用户的说话内容及说话时的音高(voice pitch)。
并且,例如,控制部100识别从对象用户所佩戴的可穿戴设备接收到的生物信息(肌电(myoelectricity)、脉搏、血压、血氧浓度、体温等)。
控制部100根据对象车辆X的行驶状态及对象用户的状态中的一者或两者,推断对象用户的情绪(图5的步骤104)。
例如,控制部100也可以按照预先制定的规则,基于对象车辆X的行驶状态及对象用户的状态中的一者或两者,推断对象用户的情绪。
表示情绪的信息包括喜欢、平静、厌恶、忍耐之类的情绪的类别、以及利用整数表达而表示情绪的强弱的强度。情绪的类别至少包含喜欢、平静之类的正面情绪及厌恶、忍耐之类的负面情绪。
例如,当对象车辆X的速度为规定速度以上的状态已持续规定时间以上时,控制部100也可以将例如喜欢的正面情绪推断为对象用户的情绪的类别。并且,当对象车辆X的速度未达规定速度的状态已持续规定时间以上,或对象车辆X的速度在短期内频繁地增减时,控制部100也可以将例如厌恶的负面情绪推断为对象用户的情绪的类别。
并且,控制部100也可以随着这些状态持续越长,将越高的值推断为对象用户的情绪的强度。
并且,控制部100例如,也可以基于针对问卷调查的回答,来推断对象用户的情绪。例如,当针对问卷调查的回答为“非常镇静”时,控制部100将对象用户的情绪的类别推断为正面情绪的“平静”,并将对象用户的情绪的强度推断为高值(例如3)。当针对问卷调查的回答为“稍感焦躁”时,控制部100也可以将对象用户的情绪的类别推断为负面情绪的“厌恶”,并将对象用户的情绪的强度推断为低值(例如1)。
并且,控制部100也可以基于对象用户的表情,来推断对象用户的情绪。例如,控制部100在进行图像分析而判断为对象用户呈现正在笑的表情时,也可以将对象用户的情绪的类别推断为正面情绪的“喜欢”,将对象用户的情绪的强度推断为高值(例如5)。并且,例如,在控制部100进行图像分析而判断为对象用户呈现发闷气的表情时,控制部100也可以将对象用户的情绪的类别推断为负面情绪的“厌恶”,并将对象用户的情绪的强度推断为低值(例如2)。除此以外或取而代之,控制部100也可以考虑对象用户的视线或脸的朝向来推断对象用户的情绪。
并且,控制部100也可以基于对象用户的行为,来推断对象用户的情绪。例如,在控制部100进行图像分析而判断为对象用户几乎没动时,控制部100也可以将对象用户的情绪的类别推断为正面情绪的“平静”,并将情绪的强度推断为低值(例如2)。并且,例如,当控制部100进行图像分析而判断为对象用户正在不镇静地活动时,控制部100也可以将对象用户的情绪的类别推断为负面情绪的“厌恶”,并将情绪的强度推断为高值(例如4)。
并且,控制部100也可以基于对象用户的说话内容,来推断对象用户的情绪。例如,控制部100在进行语音分析而判断为对象用户的说话内容是正在表扬或期待某事等正面的内容时,也可以将对象用户的情绪推断为作为正面情绪的“喜欢”,并将对象用户的情绪的强度推断为低值(例如1)。例如,控制部100在进行语音分析而判断为对象用户的说话内容是正在指责某事之类等负面的内容时,将对象用户的情绪推断为作为负面情绪的“厌恶”,并将对象用户的情绪的强度推断为高值(例如5)。并且,控制部100在对象用户的说话内容中包含特定的关键词时(“太棒了”、“超级棒”等),也可以将所述关键词所关联的情绪的类别及情绪的强度推断为对象用户的情绪。
并且,控制部100也可以基于对象用户说话时的音高,来推断对象用户的情绪。例如,控制部100在对象用户说话时的音高为规定高度以上时,也可以将对象用户的情绪推断为作为正面情绪的“喜欢”,并将对象用户的情绪的强度推断为高值(例如5)。控制部100也可以在对象用户说话时的音高未达规定高度时,将对象用户的情绪推断为作为负面情绪的“忍耐”,并将对象用户的情绪的强度推断为中等程度的值(例如3)。
并且,控制部100也可以利用来自对象用户所佩戴的可穿戴设备的生物信息(肌电、脉搏、血压、血氧浓度、体温等)来推断对象用户的情绪。
并且,例如,控制部100也可以利用情绪引擎(emotion engine),基于对象车辆X的行驶状态及对象用户的状态,来推断对象用户的情绪,所述情绪引擎是从通过机械学习而生成的对象车辆X的行驶状态及对象用户的状态,输出对象用户的情绪。
并且,例如,控制部100也可以参照预先制定的表,基于对象车辆X的行驶状态及对象用户的状态,来推断对象用户的情绪。
控制部100也可以将这些组合起来推断对象用户的情绪。
控制部100判定如下条件是否已满足:对象车辆X的行驶状态为规定的行驶状态的期间已持续规定期间以上(图5的步骤106)。
所谓规定的行驶状态,例如,优选的是对象车辆X正在高速公路上行驶等对象车辆X有可能稳定行驶的状态。例如,所谓规定的行驶状态,也可以是对象车辆X的行驶速度处于规定速度范围(第一速度以上,并且第二速度以下,其中第一速度大于0km/h,第二速度在第一速度以上)的状态。并且,例如,所谓规定的行驶状态,也可以是对象车辆X的前后加速度或横向加速度处于没有突然加速或突然减速的规定的加速度范围(第一加速度以上,并且第二加速度以下,其中第一加速度在0km/h2以下,第二加速度在0km/h2以上)的状态。并且,例如,所谓规定的行驶状态,也可以是对象车辆X的方向处于从某个方向算起规定的角度范围内的状态。所谓某个方向,例如,也可以是指从对象车辆X的时间序列位置推断出的对象车辆X的行进方向。
所谓规定期间,优选的是对象车辆X正在高速公路上行驶等可以判断为对象车辆X的行驶稳定的可能性大的期间(例如30秒、1分钟或5分钟)。
当所述判定结果为肯定时(图5的步骤106,是(YES)),控制部100将第一情绪确定为对象车辆X的虚拟情绪(图5的步骤108A)。第一情绪例如为正面情绪,有喜欢、平静、可爱、高兴、畅快、安心。
控制部100也可以进而考虑到对象用户的情绪,以接近对象用户的情绪的方式,确定对象车辆X的虚拟情绪。控制部100也可以将代理情绪指标值调整成第一情绪(例如“高兴”)之后,通过与后述图5的步骤108B同样的处理来确定对象车辆X的虚拟情绪。
控制部100制作与第一情绪相对应的代理图像(图5的步骤110A)。例如,如果是高兴的情绪,那么通过将图4的基本表情图像41中喜欢的基本表情图像与附加部件42中高兴的附加部件加以组合,来制作高兴的应用表现。
控制部100根据第一情绪,选择所输出的信息的内容及输出方式(图5的步骤112A)。所输出的信息的内容也可以是关于用户的嗜好的询问、其它询问、新闻、小知识、用户正在行驶的地区的介绍、名胜的介绍、音乐等的内容及其说明等各种内容,但是优选包含关于用户的嗜好的询问。并且,所输出的信息的信息量优选的是丰富,并且优选的是规定阈值以上的信息量。并且,输出信息的间隔优选的是比较频繁,而且优选的是以规定间隔以下输出信息。此外,所输出的信息的输出方式优选的是反映第一情绪的方式,例如,优选的是所输出的语音的音调(tone)高的方式。
控制部100按照所选择的输出的信息的内容及输出方式,将信息输出至显示部15及音频部17中的一者或两者(图5的步骤114A)。
控制部100经由操作输入部16、摄像部191、语音输入部192及可穿戴传感器,识别作为对象用户的反应的操作信息、对象用户的表情、对象用户的行为、对象用户的语音及对象用户的生物信息中的至少一者(图5的步骤116A)。
控制部100根据对象用户的情绪,评估用户的反应的可靠性(图5的步骤118A)。例如,控制部100在对象用户的情绪为正面情绪的情况下,评估为情绪的强度越高,用户的反应的可靠性越高。例如,控制部100评估为在对象用户的情绪为正面情绪的情况下,用户的反应的可靠性高于对象用户的情绪为负面情绪的情况。例如,控制部100在对象用户的情绪为负面情绪的情况下,评估为对象用户的情绪的强度越低(负面情绪越弱),用户的反应的可靠性越高。
控制部100基于对象用户的反应及其可靠性,推断对象用户的嗜好(图5的步骤120A)。
例如,在图5的步骤114A中所输出的询问为“喜欢大海吗?”,图5的步骤116A中的用户的反应为肯定所述询问的内容,且图5的步骤118A中的可靠性为高的情况下,控制部100判断为用户喜欢大海的准确度高。并且,例如,在图5的步骤114A中所输出的询问为“喜欢大海吗?”,图5的步骤116A中的用户的反应为肯定所述询问的内容,且图5的步骤118A中的可靠性为低的情况下,控制部100判断为用户喜欢大海的准确度低。
并且,例如,在图5的步骤114A中所输出的询问为“喜欢大海吗?”,图5的步骤116A中的用户的反应为否定所述询问的内容,且图5的步骤118A中的可靠性为高的情况下,控制部100判断为用户厌恶大海的准确度高。并且,例如,在图5的步骤114A中所输出的询问为“喜欢大海吗?”,图5的步骤116A中的用户的反应为否定所述询问的内容,且图5的步骤118A中的可靠性为低的情况下,控制部100判断为用户厌恶大海的准确度低。
控制部100将所推断出的表示用户的嗜好的信息存储于存储部13中,并且发送至服务器3。服务器3将所接收到的推断出的表示用户的嗜好的信息与识别对象用户的信息一并加以存储。
控制部100基于所推断出的用户的嗜好,确定所输出的信息,并输出至显示部15及音频部17中的一者或两者(图5的步骤122A)。
例如,控制部100在判断为用户喜欢大海的准确度高时,既可以使大海的相关信息(大海的相关新闻、大海的相关话题、大海的相关音乐、规定距离以内的大海的介绍)的输出频率高于规定的基准,也可以使输出内容比规定的基准更详细,也可以使输出时间长于规定的基准,还可以使输出音量等大于规定的基准。
并且,例如,控制部100在判断为用户厌恶大海的准确度高时,既可以使大海的相关信息(大海的相关新闻、大海的相关话题、大海的相关音乐、规定距离以内的大海的介绍)的输出频率低于规定的基准,也可以使输出内容比规定的基准更简单,也可以使输出时间短于规定的基准,还可以使输出音量等小于规定的基准。
并且,控制部100在用户的嗜好的准确度低时,也可以设为输出同类的信息,以提高用户的嗜好的准确度。
当图5的步骤106的判定结果为否定时(图5的步骤106,否(NO)),控制部100确定第二情绪作为对象车辆X的虚拟情绪,并确定与第二情绪相应的表现(图5的步骤108B,图5的步骤110B)。控制部100将对象车辆X的虚拟情绪确定成与用户的情绪相似的情绪。此外,除了例如在稳定行驶时容易为正面情绪、在出现突然刹车或突然转向时容易为负面情绪等用户情绪以外,控制部100还可以考虑对象车辆X的行驶状态,来确定对象车辆X的虚拟情绪。
例如,控制部100利用稳定状态的第一值及平稳的第二值来评估用户的情绪,将第一值及第二值作为代理情绪指标值进行评估。
然后,控制部100基于代理情绪指标值根据图6或图7所示的情绪图谱,来确定对象车辆X的虚拟情绪,并确定与所述情绪相对应的表现。再者,图6及图7的情绪图谱是以稳定状态的第一轴及平稳度的第二轴来表现。
例如,当代理情绪指标值处于图6的第一象限时,控制部100将对象车辆X的虚拟情绪确定为“喜欢”,并选择喜欢的基本表情图像411,作为代理的情绪表现的基本表现。控制部100也可以取代图像或除了图像以外,选择内容或发声方式与代理的情绪相对应的语音短信或音乐,作为代理的情绪表现的基本表现。
并且,例如,当代理情绪指标值中,第一轴的值为第一阈值T1以上,并且第二轴的值为第二阈值T2以上时,控制部100利用如图7所示的图谱,将对象车辆X的虚拟情绪确定为“可爱”,并选择“可爱”的附加部件421作为代理的情绪表现的应用表现。并且,例如,当代理情绪指标值中,第一轴的值为第一阈值T1以上,并且第二轴的值为零以上并且未达第二阈值T2时,控制部100将对象车辆X的虚拟情绪确定为“高兴”,并选择“高兴”的附加部件422,作为代理的情绪表现的应用表现。此外,例如,当代理情绪指标值中,第一轴的值为0以上并且未达第一阈值T1时,控制部100则不选择作为代理的情绪表现的应用表现的附加部件。并且,控制部100也可以基于与第一轴或第二轴不同的评估轴,来选择附加部件。
控制部100也可以取代图像或除了图像以外,选择内容或发声方式与代理的情绪相对应的语音短信或音乐,作为代理的情绪表现的附加部件。
控制部100根据第二情绪,选择所输出的信息的内容及输出方式(图5的步骤112B)。所输出的信息的内容也可以是新闻、小知识、用户正在行驶的地区的介绍、名胜的介绍、音乐等的内容及其说明等各种内容,但优选的是不包含关于用户的嗜好的询问。并且,所输出的信息的信息量优选的是少量,并且优选的是未达规定的阈值的信息量。并且,输出信息的间隔优选的是比较长,并且优选的是空开规定间隔以上的间隔而输出信息。并且,所输出的信息的输出方式优选的是反映第二情绪的方式,例如,优选的是所输出的语音的音调低的方式。
控制部100按照所选择的输出的信息的内容及输出方式,将信息输出至显示部15及音频部17中的一者或两者(图5的步骤114B)。
(本实施方式的作用效果)
根据所述构成的代理装置1,根据对象车辆X的虚拟情绪,确定显示部15或音频部17中的一者或两者所输出的信息的内容及输出方式中的一者或两者(图5的步骤112A或步骤112B)。在所输出的信息的内容或输出方式中,会反映与对象车辆X的虚拟情绪相应的倾向。可以给识别出各种倾向的信息的内容或输出方式的用户,带来对象车辆X似乎具有情绪的印象。甚至可以带给用户如下印象,即,即使信息的内容及输出方式中的一者或两者发生变更,也是因为车辆的情绪发生了改变,从而能够减轻或消除带给用户的不适感。
并且,当满足如下条件,即,对象车辆X的行驶状态为规定的行驶状态的期间已持续规定期间以上时(图5的步骤106,是(YES)),对象车辆X的行驶稳定,从而与不满足条件的情况相比,驾驶负荷低的状态更容易长期持续。当对象车辆X的行驶稳定时,推测为用户的驾驶负荷低。当驾驶负荷低时,用户容易对所输出的信息给予关注。通过在这种用户容易对信息给予关注的期间内,以与规定的情绪相应的倾向的信息的内容及输出方式中的一者或两者输出信息(图5的步骤114A),可以与正在关注信息时信息的内容及输出方式中的一者或两者频繁地发生变化的情况相比,一方面减轻或消除带给用户的不适感,一方面适当地提供信息。
由此,可以一方面减轻或消除带给用户的不适感,一方面根据用户的驾驶负荷适当地对用户提供信息。
根据所述构成的代理装置1,基于在条件已满足的期间内用户对显示部15及音频部17中的一者或两者所输出的信息的反应,来推断用户的嗜好(图5的步骤120A)。如上所述,在条件满足的期间是推断为驾驶负荷低的期间时,可推测为在驾驶负荷低时用户容易关注到所提供的信息。因此,驾驶负荷低时的反应可推测为是用户关注到所提供的信息后的反应,因此可靠性高地表示用户的嗜好的可能性大。
因此,根据所述构成的代理装置1,可以基于可靠性高的反应,以高精度推断用户的嗜好。
根据所述构成的代理装置1,根据车辆的规定的情绪而输出的信息包含用于推断所述用户的嗜好的询问,因此可以高效率地收集用于推断用户的嗜好的可靠性高的信息。
根据所述构成的代理装置1,构成为根据控制部100所推断出的所述用户的情绪,确定对用户的反应的可靠性(图5的步骤118A)。
在这里,推测到:当用户感觉不畅快时用户几乎不关注所提供的信息,或者反之当用户感觉畅快时用户则关注所提供的信息,并认真地给予回应等,用户的反应的可靠性会根据用户的情绪而发生变化。
因此,通过根据用户的情绪在用户的反应上添加可靠性,可以在推断用户的嗜好时对成为依据的信息适当地评估可靠性。
根据所述构成的代理装置1,在条件满足的期间内,对象车辆X的行驶速度稳定在固定的范围内,因此推测用户的驾驶负荷降低,且用户容易对从输出部输出的信息给予关注。通过在所述期间内根据车辆的规定的情绪确定从输出部输出的信息的内容及输出方式中的一者或两者(图5的步骤112A),可以一方面减轻或消除带给用户的不适感,一方面根据用户的驾驶负荷对用户适当地提供信息。
根据所述构成的代理装置1,在满足条件的期间内,对象车辆X的加速度稳定在固定的范围内,因此推测用户的驾驶负荷降低,且用户容易对从输出部输出的信息给予关注。通过在所述期间内根据车辆的规定的情绪确定从输出部输出的信息的内容及输出方式中的一者或两者(图5的步骤112A),能够一方面减轻或消除带给用户的不适感,一方面根据用户的驾驶负荷对用户适当地提供信息。

Claims (6)

1.一种信息提供装置,其特征在于,包括:
输出部,输出信息;
行驶状态检测部,检测车辆的行驶状态;
情绪确定部,确定所述车辆的虚拟情绪;
输出控制部,根据所述车辆的虚拟情绪,确定使所述输出部输出的信息的内容及输出方式中的一者或两者;
输入部,探测所述车辆的用户对所述信息的反应;
嗜好推断部;以及
控制部,判断所述车辆的行驶状态是否为规定的行驶状态且在规定的行驶状态的期间已持续规定期间以上,
其中,在判定所述车辆的行驶状态为规定的行驶状态的期间已持续规定期间以上,通过所述情绪确定部将规定的情绪确定为所述车辆的虚拟情绪;通过所述输出控制部根据所述规定的情绪,确定所述输出部所输出的信息的内容及输出方式;通过所述嗜好推断部基于用户对所述信息的反应,推断所述用户的嗜好;通过所述控制部基于所推断出的所述用户的嗜好,确定所输出的信息的输出频率。
2.根据权利要求1所述的信息提供装置,其特征在于:
根据所述规定的情绪所确定的所述信息包含用于推断所述用户的嗜好的询问。
3.根据权利要求1或2所述的信息提供装置,其特征在于,包括:
用户情绪推断部,推断所述车辆的用户的情绪;
其中,所述嗜好推断部构成为根据所述用户情绪推断部所推断出的所述用户的情绪,确定对所述输入部所探测到的所述用户对所述信息的反应的可靠性。
4.根据权利要求1或2所述的信息提供装置,其特征在于:
所述车辆的行驶状态包含所述车辆的行驶速度,
所述规定的行驶状态为:所述车辆的行驶速度处于不含零的速度范围内。
5.根据权利要求1或2所述的信息提供装置,其特征在于:
所述车辆的行驶状态包含所述车辆的加速度,
所述规定的行驶状态为:所述车辆的加速度处于含零的加速度范围内。
6.一种信息提供方法,其是计算机所执行的方法,所述计算机包括输出信息的输出部及检测车辆的行驶状态的行驶状态检测部,其特征在于,包括:
第一步骤,确定所述车辆的虚拟情绪;以及
第二步骤,判断所述车辆的行驶状态是否为规定的行驶状态且在规定的行驶状态的期间已持续规定期间以上,在判定所述车辆的行驶状态为规定的行驶状态的期间已持续规定期间以上,包括:
将规定的情绪确定为所述车辆的虚拟情绪;
根据所述规定的情绪,确定所述输出部所输出的信息的内容及输出方式;
探测所述车辆的用户对所述信息的反应;
基于用户对所述信息的反应,推断所述用户的嗜好;以及
基于所推断出的所述用户的嗜好,确定所输出的信息的输出频率。
CN201810566624.8A 2017-06-07 2018-06-05 信息提供装置及信息提供方法 Active CN109000635B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-112831 2017-06-07
JP2017112831A JP6639444B2 (ja) 2017-06-07 2017-06-07 情報提供装置及び情報提供方法

Publications (2)

Publication Number Publication Date
CN109000635A CN109000635A (zh) 2018-12-14
CN109000635B true CN109000635B (zh) 2022-08-09

Family

ID=64564031

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810566624.8A Active CN109000635B (zh) 2017-06-07 2018-06-05 信息提供装置及信息提供方法

Country Status (3)

Country Link
US (1) US10929652B2 (zh)
JP (1) JP6639444B2 (zh)
CN (1) CN109000635B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6846624B2 (ja) * 2017-02-23 2021-03-24 パナソニックIpマネジメント株式会社 画像表示システム、画像表示方法及びプログラム
US11996093B2 (en) * 2017-10-02 2024-05-28 Sony Corporation Information processing apparatus and information processing method
KR102574937B1 (ko) * 2018-05-18 2023-09-05 현대자동차주식회사 차량 및 그 제어 방법
EP3875461A4 (en) 2018-10-31 2022-07-13 Koei Chemical Company, Limited SILYLAMINE COMPOUND AND LATENT CURING AGENT CONTAINING THESE SILYLAMINE COMPOUND
JP7068156B2 (ja) * 2018-12-28 2022-05-16 本田技研工業株式会社 情報処理装置及びプログラム
JP6708273B1 (ja) * 2019-02-08 2020-06-10 スズキ株式会社 車両用対話装置
JP2020144274A (ja) * 2019-03-07 2020-09-10 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
US11507855B2 (en) * 2019-03-22 2022-11-22 Motorola Mobility Llc Generating action suggestions based on a change in user mood
US10908677B2 (en) * 2019-03-25 2021-02-02 Denso International America, Inc. Vehicle system for providing driver feedback in response to an occupant's emotion
JP2021097765A (ja) * 2019-12-20 2021-07-01 株式会社東海理化電機製作所 制御装置およびプログラム
JP7469467B2 (ja) * 2020-03-30 2024-04-16 上海臨港絶影智能科技有限公司 デジタルヒューマンに基づく車室インタラクション方法、装置及び車両
CN111736700A (zh) * 2020-06-23 2020-10-02 上海商汤临港智能科技有限公司 基于数字人的车舱交互方法、装置及车辆
CN113320537A (zh) * 2021-07-16 2021-08-31 北京航迹科技有限公司 一种车辆控制方法和***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6249720B1 (en) * 1997-07-22 2001-06-19 Kabushikikaisha Equos Research Device mounted in vehicle
CN101167360A (zh) * 2005-03-15 2008-04-23 松下电器产业株式会社 电视***、广播接收装置及操作终端

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4032492B2 (ja) * 1998-03-23 2008-01-16 株式会社エクォス・リサーチ エージェント装置
JP3609590B2 (ja) * 1997-08-13 2005-01-12 株式会社日立製作所 情報提供システム、端末における情報の出力方法、移動情報端末及び情報提供装置
US6980098B2 (en) * 2001-01-29 2005-12-27 Sony Corporation Information processing apparatus, information processing method and program executed in information processing apparatus
JP2003072488A (ja) * 2001-08-31 2003-03-12 Sony Corp 車載装置、車両及び車両情報の処理方法
JP4701564B2 (ja) * 2001-08-31 2011-06-15 ソニー株式会社 メニュー表示装置及びメニューの表示方法
US8331621B1 (en) * 2001-10-17 2012-12-11 United Toll Systems, Inc. Vehicle image capture system
JP4682714B2 (ja) 2005-06-14 2011-05-11 トヨタ自動車株式会社 対話システム
JP4321543B2 (ja) * 2006-04-12 2009-08-26 トヨタ自動車株式会社 車両周辺監視装置
JP4970922B2 (ja) * 2006-12-19 2012-07-11 アルパイン株式会社 車載用ナビゲーション装置及び緊急情報提供方法
DE102006062061B4 (de) * 2006-12-29 2010-06-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zum Bestimmen einer Position basierend auf einem Kamerabild von einer Kamera
JP2008241309A (ja) 2007-03-26 2008-10-09 Denso Corp 車両用サービス提示装置
US20110043635A1 (en) * 2008-02-28 2011-02-24 Ryujiro Fujita Vehicle driving evaluation apparatus and method, and computer program
JP4992925B2 (ja) 2009-03-23 2012-08-08 トヨタ自動車株式会社 音声対話装置及びプログラム
JP4852630B2 (ja) * 2009-06-25 2012-01-11 本田技研工業株式会社 バッテリ充放電制御装置
CN102142253B (zh) 2010-01-29 2013-05-29 富士通株式会社 语音情感识别设备及方法
CN102200969A (zh) 2010-03-25 2011-09-28 日电(中国)有限公司 基于句子顺序的文本情感极性分类***和方法
US8919848B2 (en) * 2011-11-16 2014-12-30 Flextronics Ap, Llc Universal console chassis for the car
JP5966121B2 (ja) * 2011-10-03 2016-08-10 株式会社ユピテル 運転支援システムおよび運転支援プログラム
US9348479B2 (en) 2011-12-08 2016-05-24 Microsoft Technology Licensing, Llc Sentiment aware user interface customization
US20140310610A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Vehicle occupant impairment assisted vehicle
WO2014007153A1 (ja) * 2012-07-03 2014-01-09 クラリオン株式会社 車両周囲監視装置
US9499051B2 (en) * 2013-03-28 2016-11-22 Panasonic Intellectual Property Management Co., Ltd. Presentation information learning method, server, and terminal device
JP2015022124A (ja) * 2013-07-18 2015-02-02 株式会社オートネットワーク技術研究所 運転特徴判定システム
US9195895B1 (en) * 2014-05-14 2015-11-24 Mobileye Vision Technologies Ltd. Systems and methods for detecting traffic signs
JP2016001170A (ja) * 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理プログラム、及び、処理方法
JP6330601B2 (ja) * 2014-09-18 2018-05-30 株式会社デンソー 運転負荷推定装置、運転負荷推定方法
JP6287728B2 (ja) * 2014-09-25 2018-03-07 株式会社デンソー 車載システム、車両制御装置、および車両制御装置用のプログラム
WO2017015949A1 (en) 2015-07-30 2017-02-02 Intel Corporation Emotion augmented avatar animation
JP6601069B2 (ja) 2015-09-01 2019-11-06 カシオ計算機株式会社 対話制御装置、対話制御方法及びプログラム
JP6515764B2 (ja) * 2015-09-28 2019-05-22 株式会社デンソー 対話装置及び対話方法
EP3525141B1 (en) * 2016-11-16 2021-03-24 Honda Motor Co., Ltd. Emotion inference device and emotion inference system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6249720B1 (en) * 1997-07-22 2001-06-19 Kabushikikaisha Equos Research Device mounted in vehicle
CN101167360A (zh) * 2005-03-15 2008-04-23 松下电器产业株式会社 电视***、广播接收装置及操作终端

Also Published As

Publication number Publication date
JP2018205211A (ja) 2018-12-27
US10929652B2 (en) 2021-02-23
US20180357473A1 (en) 2018-12-13
CN109000635A (zh) 2018-12-14
JP6639444B2 (ja) 2020-02-05

Similar Documents

Publication Publication Date Title
CN109000635B (zh) 信息提供装置及信息提供方法
JP6713490B2 (ja) 情報提供装置及び情報提供方法
CN110505837B (zh) 信息处理设备、信息处理方法和记录介质
US9043133B2 (en) Navigation systems and associated methods
CN107886045B (zh) 设施满意度计算装置
US20180093673A1 (en) Utterance device and communication device
CN107886970B (zh) 信息提供装置
JP2018180983A (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6655726B2 (ja) 情報提供装置、及び移動体
CN108932290B (zh) 地点提案装置及地点提案方法
JP2009168773A (ja) ナビゲーション装置および情報提供方法
JP6657415B2 (ja) 情報提供装置、及び移動体
JP6627810B2 (ja) 運転モード切替制御装置、方法およびプログラム
CN113401129A (zh) 信息处理装置、记录介质以及信息处理方法
JP6816247B2 (ja) 情報提供装置
JP7151400B2 (ja) 情報処理システム、プログラム、及び制御方法
CN111568447A (zh) 信息处理装置和信息处理方法
US20230181868A1 (en) Systems and methods to provide a relaxation regimen to an occupant of a vehicle
CN110998688A (zh) 信息控制装置
CN115631550A (zh) 一种用户反馈的方法和***
CN116569236A (zh) 车辆用辅助装置以及车辆用辅助方法
JP2024026816A (ja) 情報処理システム、情報処理装置、情報処理方法、及び、プログラム
JP2020129290A (ja) 車両用対話装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant