CN110364164A - 对话控制装置、对话***、对话控制方法以及存储介质 - Google Patents
对话控制装置、对话***、对话控制方法以及存储介质 Download PDFInfo
- Publication number
- CN110364164A CN110364164A CN201910207297.1A CN201910207297A CN110364164A CN 110364164 A CN110364164 A CN 110364164A CN 201910207297 A CN201910207297 A CN 201910207297A CN 110364164 A CN110364164 A CN 110364164A
- Authority
- CN
- China
- Prior art keywords
- mentioned
- speech
- reaction
- robot
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000006243 chemical reaction Methods 0.000 claims abstract description 160
- 238000012545 processing Methods 0.000 claims description 119
- 230000009471 action Effects 0.000 claims description 69
- 238000004891 communication Methods 0.000 claims description 58
- 210000004209 hair Anatomy 0.000 claims description 15
- 238000006757 chemical reactions by type Methods 0.000 claims description 5
- 230000007935 neutral effect Effects 0.000 claims description 4
- 241001465754 Metazoa Species 0.000 claims description 2
- 235000013305 food Nutrition 0.000 claims description 2
- 230000004044 response Effects 0.000 description 18
- 230000006870 function Effects 0.000 description 16
- 238000012360 testing method Methods 0.000 description 14
- 230000001815 facial effect Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 8
- 239000000203 mixture Substances 0.000 description 6
- 210000003128 head Anatomy 0.000 description 5
- 238000009877 rendering Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000005428 wave function Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 229920003002 synthetic resin Polymers 0.000 description 1
- 239000000057 synthetic resin Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
本发明涉及对话控制装置、对话***、对话控制方法以及存储介质。本发明高精度地掌握使用者的喜好,并进行与使用者的喜好相符合的对话。机器人(100A)包括:反应取得单元(110A),取得多个反应判定结果,该多个反应判定结果中包含对规定对象针对机器人(100A)的发言的反应进行了判定的结果、以及对规定对象针对与机器人(100A)相独立地设置的机器人(100B)的发言的反应进行了判定的结果;以及发言控制单元(115A),基于由反应取得单元(110A)取得的多个反应判定结果,对包含机器人(100A)以及机器人(100B)在内的多个发言装置中的至少任一个的发言进行控制。
Description
本申请以2018年3月26日提交的日本专利申请2018-058200以及2018年12月28日提交的日本专利申请2018-247382为基础,享受这些申请的优先权,并将这些基础申请的内容全部援引于本申请。
技术领域
本发明涉及对话控制装置、对话***、对话控制方法以及存储介质。
背景技术
与人进行交流的机器人等设备的开发正在发展,为了使这种机器人等设备得到普及,亲近容易度是较重要的方面。例如,日本特开2006-071936号公报公开了以下技术:通过与使用者的对话来学习使用者的喜好,并进行与使用者的喜好相符合的对话。
在日本特开2006-071936号公报公开的技术中,难以高精度地掌握使用者的喜好。
发明内容
本发明是鉴于上述那样的情况而进行的,其目的在于提供能够高精度地掌握使用者的喜好、并进行与使用者的喜好相符合的对话的对话控制装置、对话***、对话控制方法以及存储介质。
为了实现上述目的,本发明所涉及的对话控制装置的一个方式的特征在于,具备:反应取得单元,取得多个反应判定结果,该多个反应判定结果中包含对规定对象针对第1发言装置的发言的反应进行了判定的结果、以及对上述规定对象针对与上述第1发言装置相独立地设置的第2发言装置的发言的反应进行了判定的结果;以及发言控制单元,基于由上述反应取得单元取得的多个反应判定结果,对包含上述第1以及第2发言装置上述第1以及第2发言装置在内的多个发言装置中的至少任一个的上述发言进行控制。
另外,为了实现上述目的,本发明所涉及的对话***的一个方式为,具备构成为能够发言的第1发言装置和第2发言装置、以及对话控制装置,该对话***的特征在于,上述对话控制装置具备:反应取得单元,取得多个反应判定结果,该多个反应判定结果中包含对规定对象针对第1发言装置的发言的反应进行了判定的结果、以及对上述规定对象针对与上述第1发言装置相独立地设置的上述第2发言装置的发言的反应进行了判定的结果;以及发言控制单元,基于由上述反应取得单元取得的多个反应判定结果,对包含上述第1以及第2发言装置在内的多个发言装置中的至少任一个的上述发言进行控制。
另外,为了实现上述目的,本发明涉及的对话控制方法的一个方式的特征在于,包括:取得多个反应判定结果的处理,该多个反应判定结果中包含对规定对象针对第1发言装置的发言的反应进行了判定的结果、以及对上述规定对象针对与上述第1发言装置相独立地设置的第2发言装置的发言的反应进行了判定的结果;以及基于所取得的上述多个反应判定结果,对包含上述第1以及第2发言装置在内的多个发言装置中的至少任一个的上述发言进行控制的处理。
另外,为了实现上述目的,本发明所涉及的存储介质的一个方式的特征在于,存储使计算机作为如下单元发挥功能的程序:反应取得单元,取得多个反应判定结果,该多个反应判定结果中包含对规定对象针对第1发言装置的发言的反应进行了判定的结果、以及对上述规定对象针对与上述第1发言装置相独立地设置的第2发言装置的发言的反应进行了判定的结果;以及发言控制单元,基于由上述反应取得单元取得的多个反应判定结果,对包含上述第1以及第2发言装置在内的多个发言装置中的至少任一个的上述发言进行控制。
发明的效果
根据本发明,能够提供能够高精度地掌握使用者的喜好、并进行与使用者的喜好相符合的对话的对话控制装置、对话***、对话控制方法以及存储介质。
附图说明
图1是表示本发明的第1实施方式所涉及的对话***的构成的图。
图2是第1实施方式所涉及的机器人的主视图。
图3是表示第1实施方式所涉及的机器人的构成的框图。
图4是表示第1实施方式所涉及的声音反应极性判定表的一例的图。
图5是表示第1实施方式所涉及的对话控制处理的流程的流程图。
图6是表示第1实施方式所涉及的用户确定处理的流程的流程图。
图7是表示第1实施方式所涉及的声音判定处理的流程的流程图。
图8是表示第1实施方式所涉及的表情判定处理的流程的流程图。
图9是表示第1实施方式所涉及的行动判定处理的流程的流程图。
图10是表示第1实施方式所涉及的嗜好判定处理的流程的流程图。
图11是表示第2实施方式的对话***的构成框图。
具体实施方式
以下,参照附图对本发明实施方式进行详细地说明。
(第1实施方式)
本发明的第1实施方式所涉及的对话***1构成为包含多个机器人100。多个机器人100被配置于规定对象的办公室、住宅等居住空间内,多个机器人100与规定对象进行对话。在以下的说明中,对2台机器人100与规定对象进行对话的例子进行说明,但是对话***1也可以构成为包含3台以上的机器人100。
此处,规定对象是指使用对话***的用户(使用者),典型地说,是对话***的所有者、该所有者的家庭成员或朋友等。另外,除了人以外,规定对象还包含例如作为宠物饲养的动物、与机器人100不同的其他机器人。
如图1所示,对话***1具备能够相互通信的2台机器人100,与用户USR进行对话。此处,为了便于说明,朝向图1的纸面而将左侧的机器人100设为机器人100A,朝向图1的纸面而将右侧的机器人100设为机器人100B。此外,在不区分机器人100A和机器人100B地进行说明的情况下,有时将任一个机器人或者将这些机器人统称地记载为“机器人100”。机器人100A和机器人100B被配置于相互不同的场所,且分别设置于相同的规定对象无法识别机器人100A以及机器人100B的发言的双方那样的场所。例如,机器人100A被配置在规定对象的办公室,机器人100B被配置在远离该办公室的规定对象的住宅。或者,机器人100A配置在规定对象常去的设施,机器人100B配置在远离该设施的规定对象常去的其他设施。
如图2所示,机器人100是在外观上具有模仿了人的立体形状的机器人。另外,机器人100的外饰由以合成树脂为主的材料形成。机器人100具有躯体部101、与躯体部101的上部连接的头部102、与躯体部101的左右分别连接的手部103、以及从躯体部101向下部连接的两只脚部104。另外,头部102具有左右一对眼部105、嘴部106以及左右一对耳部107。此外,将图2的上侧、下侧、左侧、右侧分别设为机器人100的上侧、下侧、右侧、左侧。
接着,参照图3对机器人100的构成进行说明。图3示出对机器人100A和机器人100B的各构成进行表示的框图,机器人100A与机器人100B的构成相同。首先,以机器人100A为例对其构成进行说明。
如图3所示,机器人100A具有控制部110A、存储部120A、摄像部130A、声音输入部140A、声音输出部150A、移动部160A以及通信部170A。这些各部经由总线BL相互电连接。
控制部110A由具有CPU(Central Processing Unit:中央处理单元)、ROM(ReadOnly Memory:只读存储器)、RAM(Random Access Memory:随机存取存储器)的计算机构成,对机器人100A整体的动作进行控制。控制部110A通过由CPU读出ROM所存储的控制程序并在RAM上执行,由此对机器人100A的各部的动作进行控制。
控制部110A通过执行控制程序,由此作为用户检测部111A、用户确定部112A、用户信息取得部113A、声音识别部114A、发言控制部115A、声音合成部116A、反应判定部117A以及嗜好判定部118A发挥功能。
用户检测部111A检测在机器人100A周围(例如,离机器人100A为半径2m的范围内)存在的用户USR。用户检测部111A例如对后述的摄像部130A进行控制而对机器人100A周围进行摄像,通过对物体的活动、头、面部等进行检测,由此对在机器人100A周围存在的用户USR进行检测。
用户确定部112A确定用户检测部111A检测到的用户USR。用户确定部112A例如从摄像部130A的摄像图像中提取与用户USR的面部部分相当的面部图像。然后,用户确定部112A从该面部图像中检测出特征量,与后述的存储部120A的用户信息数据库中所登记的、表示面部的特征量的面部信息进行对照,基于对照的结果来计算相似度,并根据计算出的相似度是否满足规定的基准来确定用户USR。在存储部120A的用户信息数据库中存储有规定的多个用户USR的表示各自的面部的特征量的面部信息。通过用户确定部112A来确定用户检测部111A检测到的用户USR是这些用户USR中的哪个用户USR。特征量是能够识别用户USR的信息即可,例如是将眼、鼻、嘴等面部所包含的各部分的形状、大小、配置等外观特征用数值进行了表示的信息。在以下的说明中,将由用户检测部111A检测到、且由用户确定部112A确定出的用户USR称为对象用户。如此,用户确定部112A作为本发明的对象确定单元发挥功能。
用户信息取得部113A取得表示对象用户的发言、外观、行动等的用户信息。在本实施方式中,用户信息取得部113A例如对摄像部130A、声音输入部140A进行控制,而取得包含拍摄到对象用户的摄像图像的图像数据的图像信息、以及包含对象用户发出的声音的声音数据的声音信息中的至少任一个,作为用户信息。如此,用户信息取得部113A与摄像部130A、声音输入部140A协作而作为本发明的取得单元发挥功能。
声音识别部114A对用户信息取得部113A取得的声音信息中所包含的声音数据实施声音识别处理,并转换为表示对象用户的发言内容的文本数据。声音识别处理例如使用存储部120A的声音信息DB(Data Base:数据库)122A所存储的音响模型、语言模型、单词词典。声音识别部114A例如从所取得的声音数据中消除背景噪声,对被消除了背景噪声之后的声音数据中所包含的音位进行识别,参照单词词典生成将识别出的音位列转换为单词的多个转换候选。然后,声音识别部114A参照语言模型从所生成的多个转换候选中选择妥当性最高的候选,作为与声音数据对应的文本数据进行输出。
发言控制部115A对机器人100A的发言进行控制。发言控制部115A例如参照存储部120A的发言信息DB123A所存储的发言信息,从发言信息DB123A所存储的发言信息中提取与状况相应的多个发言候选。然后,发言控制部115A参照用户信息DB121A所存储的用户信息中所包含的嗜好信息,从所提取的多个发言候选中选择与对象用户的嗜好相适合的发言候选,并决定为机器人100A的发言内容。如此,发言控制部115A作为本发明的发言控制单元发挥功能。
另外,发言控制部115A经由通信部170A与机器人100B进行通信,并与机器人100B的发言控制部115B协作而如以下那样调整并决定机器人100A的发言内容。
即,发言控制部115A与机器人100B的发言控制部115B协作,例如取得机器人100B发言后的经过时间,当在所取得的经过时间为规定经过时间(例如72小时)以内时机器人100A发言的情况下,调整并决定机器人100A的发言的话题,以使机器人100A发言的话题成为与在机器人100A的发言开始前的规定经过时间以内机器人100B发言了的话题不同的话题。这样的话题的决定,在机器人100B的发言控制部115B中也同样地进行。通过以上,机器人100A以及机器人100B发言的话题被决定为相互不同的话题,并按照所决定的话题来控制两个机器人100A、100B的发言。
如后述那样,机器人100A以及机器人100B分别判定对象用户针对自身的发言的反应,并基于其判定结果来收集(存储)对象用户的嗜好信息,但是在该情况下,当机器人100A与机器人100B发言的话题重复、或者总是关联时,无法收集对象用户的新的嗜好信息、更广领域的嗜好信息。另外,对象用户也会由于听到重复的话题的发言而感到厌烦。通过将机器人100A与机器人100B的发言的话题决定为相互不同的话题,由此能够收集更多的各种各样的嗜好信息。
与此相对,当在机器人100B发言后经过了规定经过时间以上的情况下,发言控制部115A独自地决定发言内容,而不被机器人100B的发言内容限制。即,机器人100A以及100B发言的话题(发言内容)相互不协作、且相互无关(相互独立)地决定。
发言控制部115A生成并输出表示与机器人100B协作决定的自身的发言内容的文本数据。
声音合成部116A生成与从发言控制部115A输入的表示机器人100A的发言内容的文本数据对应的声音数据。声音合成部116A例如使用存储部120A的声音信息DB122A中保存的音响模型等,生成将文本数据所示的文字串读出的声音数据。另外,声音合成部116A控制声音输出部150A,以便将所生成的声音数据进行声音输出。
反应判定部117A判定对象用户针对机器人100A的发言的反应。由此,对于上述规定的多个用户USR中的由用户确定部112A确定出的每个对象用户,判定针对机器人100A的发言的反应。反应判定部117A具有声音判定部117AA、表情判定部117BA以及行动判定部117CA。声音判定部117AA、表情判定部117BA以及行动判定部117CA分别基于对象用户的声音、表情以及行动,将针对对象机器人100A的发言的反应分类为三个极性,由此进行判定。三个极性为肯定的反应即“积极(Positive)”、否定的反应即“消极(Negative)”以及既不肯定也不否定的中立的反应即“中性(Neutral)”。
声音判定部117AA基于在机器人100A发言后对象用户所发出的声音,判定对象用户针对机器人100A的发言的反应。声音判定部117AA基于文本数据将对象用户的发言内容分类为声音反应极性的“积极”、“消极”以及“中性”这三个极性,由此判定对象用户针对机器人100A的发言的反应,上述文本数据是声音识别部114A对于在机器人100A的发言后用户信息取得部113A取得的声音实施声音识别处理而生成的。如此,声音判定部117AA作为本发明的声音判定单元发挥功能。
表情判定部117BA基于机器人100A发言后的对象用户的表情,判定对象用户针对机器人100A的发言的反应。表情判定部117BA计算表示笑脸的程度的笑脸度,作为用于评价对象用户的表情的指标。表情判定部117BA从在机器人100A的发言后用户信息取得部113A取得的摄像图像中提取对象用户的面部图像,并检测对象用户的面部的特征量。表情判定部117BA参照存储部120A的反应判定信息DB124A中存储的笑脸度信息,并基于所检测出的特征量来计算对象用户的笑脸度。表情判定部117BA根据计算出的笑脸度,将对象用户的表情分类为表情反应极性的“积极”、“消极”以及“中性”这三个极性,由此判定对象用户针对机器人100A的发言的反应。如此,表情判定部117BA作为本发明的表情判定单元发挥功能。
行动判定部117CA基于机器人100A发言后的对象用户的行动,判定对象用户针对机器人100A的发言的反应。行动判定部117CA从在机器人100A的发言后用户信息取得部113A取得的摄像图像中检测对象用户的行动,并将对象用户的行动分类为行动反应极性的“积极”、“消极”以及“中性”这三个极性,由此判定对象用户针对机器人100A的发言的反应。如此,行动判定部117CA作为本发明的行动判定单元发挥功能。
嗜好判定部118A确定对象用户与机器人100A之间的对话的话题,并基于反应判定部117A的各判定结果来判定嗜好度,该嗜好度表示对象用户针对所确定的话题的嗜好的高度。由此,对于上述规定的多个用户USR中的由用户确定部112A确定出的每个对象用户,判定其嗜好度。此处,所谓嗜好是指无论有形还是无形而与各种事物有关的兴趣、喜好,例如除了包含与食品、体育、天气等有关的兴趣、喜好以外,还包含对于机器人100的对应(发言内容)的喜好。嗜好判定部118A按照对象用户对于话题的嗜好从高到低的顺序,将嗜好度分类为“嗜好度A”、“嗜好度B”、“嗜好度C”以及“嗜好度D”这四个等级。如此,嗜好判定部118A作为本发明的确定单元以及嗜好判定单元发挥功能。
此外,用户检测部111A、用户确定部112A、用户信息取得部113A、声音识别部114A、发言控制部115A、声音合成部116A、反应判定部117A以及嗜好判定部118A,可以通过单个计算机来实现各功能,也可以分别通过独立的计算机来实现各功能。
存储部120A具备能够改写存储内容的非易失性的半导体存储器、硬盘驱动器等,并存储控制部110A对机器人100A的各部进行控制所需要的各种数据。
存储部120A具有分别保存各种数据的多个数据库。存储部120A例如具有用户信息DB121A、声音信息DB122A、发言信息DB123A以及反应判定信息DB124A。另外,在存储部120A中,按照每个用户USR存储包含机器人100A发言的发言日期时间以及发言的话题等的发言履历信息。
用户信息DB121A将与所登记的多个用户USR的各个有关的各种信息作为用户信息进行积累并存储。用户信息例如包含为了识别多个用户USR的各个而预先分配的用户识别信息(例如,用户USR的ID)、表示用户USR的面部的特征量的面部信息、以及表示用户USR对于各话题的嗜好度的嗜好信息。如此,多个用户USR各自的嗜好信息被存储为,使用用户识别信息能够识别出是哪个用户USR的嗜好信息。
声音信息DB122A为,作为用于声音识别处理或者声音合成处理的数据,例如保存有音响模型、单词词典以及语言模型,上述音响模型表示将含义与其他词语进行区别的声音的最小单位即音位的各自的特征(频率特性),上述单词词典将音位的特征与单词建立对应,上述语言模型表示单词的排列及其连接概率。
发言信息DB123A存储表示机器人100A的发言候选的发言信息。发言信息例如包含开始与对象用户交谈的情况下的发言候选、对于对象用户的发言的应答的情况下的发言候选、以及与机器人100B会话的情况下的发言候选等、对应于与对象用户的对话状况的各种发言候选。
反应判定信息DB124A存储反应判定信息,在反应判定部117A判定对象用户针对机器人100A的发言的反应时使用该反应判定信息。反应判定信息DB124A为,作为反应判定信息,例如存储在反应判定部117A的声音判定部117AA判定对象用户针对机器人100A的发言的反应时使用的声音判定信息。声音判定信息例如以图4所示的声音反应极性判定表的形式存储。在声音反应极性判定表中,后述的声音反应极性与特征关键字建立对应。另外,反应判定信息DB124A为,作为反应判定信息,例如存储在反应判定部117A的表情判定部117BA计算对象用户的笑脸度时使用的笑脸度信息。笑脸度信息例如是根据眼角、嘴角的位置、眼、嘴的大小等的变化程度,将笑脸度在0~100%的范围内进行数值化而得到的信息。
摄像部130A由摄像机构成,该摄像机具备镜头、以及CCD(Charge CoupledDevice:图像耦合器件)图像传感器、CMOS(Complementary Metal Oxide Semiconductor:互补金属氧化物半导体)图像传感器等摄像元件,摄像部130A对机器人100A的周围进行摄像。摄像部130A例如设置于头部102的正面上部,对头部102的前方进行摄像,生成并输出数字图像数据。摄像机安装于以能够改变镜头所朝向的方向的方式动作的马达驱动的架台(万向架等),并构成为能够对用户USR的面部等进行追踪。
声音输入部140A由麦克风、A/D(Analog to Digital:模拟数字)转换器等构成,例如将由设置在耳部107的麦克风拾音到的声音进行放大,并将实施了A/D转换、编码等信号处理的数字声音数据(声音信息)输出到控制部110A。
声音输出部150A由扬声器、D/A(Digital to Analog:数字模拟)转换器等构成,对从控制部110A的声音合成部116A供给的声音数据实施译码、D/A转换、放大等信号处理,并将模拟声音信号从例如设置在嘴部106的扬声器输出。
机器人100A通过声音输入部140A的麦克风对对象用户的声音进行拾音,并在控制部110A的控制下,将与对象用户的发言内容对应的声音从声音输出部150A的扬声器输出,由此能够与对象用户进行对话而产生交流。如此,机器人100A作为本发明的第1发言装置发挥功能。
移动部160A是用于使机器人100A移动的部位。移动部160A具有分别设置于机器人100A的左右的脚部104的底部的车轮、旋转驱动左右的车轮的马达、以及对马达进行驱动控制的驱动电路。根据从控制部110A接收到的控制信号,驱动电路向马达供给驱动用的脉冲信号。马达根据驱动用的脉冲信号使左右的车轮旋转驱动,而使机器人100A移动。如此,移动部160A作为本发明的移动单元发挥功能。此外,构成为左右的车轮分别独立地旋转驱动,但机器人100A只要能够进行前进、后退、转弯、加减速等行驶,则马达的数量是任意的。例如,可以设置连结机构、转向机构等而通过一个马达来驱动左右的车轮。另外,也能够与马达的数量相匹配地适当变更驱动电路的数量。
通信部170A由用于使用无线通信方式来进行通信的无线通信模块以及天线构成,与机器人100B进行无线数据通信。作为无线通信方式,例如能够适当地采用Bluetooth(注册商标)、BLE(Bluetooth Low Energy:低功耗蓝牙)、ZigBee(注册商标)、红外线通信等近距离无线通信方式、WiFi(Wireless Fidelity)等无线LAN通信方式。在本实施方式中,机器人100A经由通信部170A与机器人100B进行无线数据通信,由此机器人100A以及机器人100B与对象用户进行对话。
机器人100B与机器人100A相同,因此对其构成进行简单说明。与机器人100A同样,机器人100B具备控制部110B、存储部120B、摄像部130B、声音输入部140B、声音输出部150B、移动部160B以及通信部170B。控制部110B对机器人100B整体的动作进行控制,通过执行控制程序而作为用户检测部111B、用户确定部112B、用户信息取得部113B、声音识别部114B、发言控制部115B、声音合成部116B、反应判定部117B以及嗜好判定部118B发挥功能。发言控制部115B参照用户信息DB121B所存储的用户信息中包含的嗜好信息,从所提取的多个发言候选中选择与对象用户的嗜好相适合的发言候选,并决定为机器人100B的发言内容。经由通信部170B与机器人100A进行通信,并与机器人100A的发言控制部115A协作,例如取得机器人100A发言后的经过时间。在所取得的经过时间为上述规定经过时间以内时,发言控制部115B调整并决定机器人100B的发言内容,以使得机器人100B发言的话题与在机器人100B的发言开始前的规定经过时间以内机器人100A发言了的话题不同。反应判定部117B判定对象用户针对机器人100B的发言的反应。反应判定部117B具有声音判定部117AB、表情判定部117BB以及行动判定部117CB。声音判定部117AB通过基于对象用户的声音将针对对象机器人100B的发言的反应分类为“积极”、“消极”、“中性”这三个极性来进行判定。表情判定部117BB通过基于对象用户的表情将针对对象机器人100B的发言的反应分类为“积极”、“消极”、“中性”这三个极性来进行判定。行动判定部117CB通过基于对象用户的行动将针对对象机器人100B的发言的反应分类为“积极”、“消极”、“中性”这三个极性来进行判定。存储部120B具有分别保存各种数据的多个数据库。存储部120B例如具有用户信息DB121B、声音信息DB122B、发言信息DB123B以及反应判定信息DB124B。另外,在存储部120B中,按照每个用户USR来存储包含机器人100B发言的发言日期时间以及发言的话题等的发言履历信息。机器人100B通过声音输入部140B的麦克风对对象用户的声音进行拾音,并在控制部110B的控制下,从声音输出部150B的扬声器输出与对象用户的发言内容对应的声音,由此能够与对象用户进行对话而产生交流。如此,机器人100B作为本发明的第2发言装置发挥功能。
接着,参照图5所示的流程图对机器人100执行的对话控制处理进行说明。对话控制处理是根据对象用户的嗜好来控制对话的处理。此处,以机器人100A的控制部110A执行的情况为例来说明对话控制处理。控制部110A以用户检测部111A在机器人100A的周围检测到用户USR的情况为契机,开始对话控制处理。
控制部110A为,当开始对话控制处理时,首先执行用户确定处理(步骤S101)。此处,参照图6所示的流程图,对用户确定处理进行说明。用户确定处理是确定用户检测部111A检测出的存在于机器人100A周围的用户的处理。
控制部110A为,当开始用户确定处理时,首先从由摄像部130A取得的摄像图像中提取对象用户的面部图像(步骤S201)。控制部110A(用户确定部112A)例如对摄像图像中的肤色区域进行检测,并判定在肤色区域内是否存在与眼、鼻、嘴等面部部分相当的部分,当判断为存在与面部部分相当的部分时,将肤色区域视为面部图像而进行提取。
接着,控制部110A对与所提取的面部图像对应的登记用户进行检索(步骤S202)。控制部110A(用户确定部112A)例如从所提取的面部图像中检测特征量,并与存储部120A的用户信息DB121A中存储的面部信息进行对照,对相似度为规定的基准以上的登记用户进行检索。
控制部110A根据步骤S202中的检索结果来确定存在于机器人100周围的用户USR(步骤S203)。控制部110A(用户确定部112A)例如将与如下的特征量对应的用户USR,确定为存在于机器人100A周围的对象用户,上述特征量是用户信息DB121A中所存储的上述多个用户USR各自的面部的特征量中、与从面部图像中检测出的特征量之间的相似度最高的特征量。
控制部110A在执行了步骤S203的处理之后,结束用户确定处理,使处理返回到对话控制处理。
返回到图5,在执行了用户确定处理(步骤S101)之后,控制部110A建立与机器人100B(其他机器人)之间的通信连接(步骤S102)。此处,所谓通信连接的建立是指,指定通信对象而进行规定的过程、并建立相互能够收发数据的状态。控制部110A控制通信部170A而进行基于通信方式的规定的过程,由此建立与机器人100B之间的通信连接。此外,在机器人100A与机器人100B使用红外线通信方式来进行数据通信的情况下,不需要事先建立通信连接。
接着,控制部110A判定在比上述规定经过时间短的规定时间内(例如,20秒以内)、在步骤S101中确定出的对象用户是否发言(步骤S103)。控制部110A例如使用附设于CPU的RTC(Real Time Clock:实时时钟)计测的当前时刻信息来计测从本处理的执行开始时起的经过时间,并基于用户信息取得部113A取得的声音信息来判定在规定时间内对象用户有无发言。
当判定为在规定时间内对象用户发言了的情况下(步骤S103:是),控制部110A(发言控制部115A)判断为正在执行与对象用户之间的对话,并与机器人100B协作地决定作为针对对象用户的发言的应答的发言内容(步骤S104)。控制部110A(发言控制部115A)参照存储部120A的发言信息DB123A以及用户信息DB121A,决定与对象用户的发言内容相对应、且与用户信息DB121A中存储的对象用户的嗜好相适合的话题的候选。在该情况下,作为与对象用户的嗜好相适合的话题的候选,决定与后述的嗜好度A以及B对应的话题。
在该步骤S104中,在决定出的话题的候选为一个时,将其决定为最终的话题。另一方面,在决定出多个话题的候选的情况下,当在机器人100B的存储部120B中存储有发言履历信息时,控制部110A(发言控制部115A)经由通信部170A读出存储部120B中所存储的发言履历信息,并判定在所读出的发言履历信息中是否存在与多个话题的候选中的某一个相同或者相关联的话题、且是从其发言日期时间起到当前(即,机器人100A的发言开始时)为止的经过时间为规定经过时间以内的话题(以下称为“第1比较对象话题”)。
然后,控制部110A(发言控制部115A)为,当判定为在发言履历信息中存在上述第1比较对象话题时,从多个话题的候选中除去与上述第1比较对象话题一致或者相关联的话题,并最终地决定话题。在通过该除去而剩余的话题的候选存在多个的情况下,将从其中随机地选择出的一个话题决定为最终的话题。
另一方面,在决定出多个话题的候选的情况下,当在机器人100B的存储部120B中未存储任何发言履历信息时、或者当判定为在发言履历信息中不存在第1比较对象话题时,将从决定出的多个话题的候选中随机地选择出的一个话题决定为最终的话题。发言控制部115A输出表示按照如以上那样决定出的话题的发言内容的文本数据。
另一方面,当判定为在规定时间内对象用户未发言的情况下(步骤S103:否),控制部110A(发言控制部115A)决定与对象用户交谈的发言的话题(步骤S105)。此时,控制部110A(发言控制部115A)参照存储部120A的发言信息DB123A以及用户信息DB121A,决定与用户信息DB121A中所存储的对象用户的嗜好相适合的多个话题的候选。在该情况下,作为与对象用户的嗜好相适合的话题的候选,决定与后述的嗜好度A以及B对应的话题。
在该步骤S105中,在决定出的话题的候选为一个时,将其决定为最终的话题。另一方面,在决定出多个话题的候选时,与步骤S104的情况相同,从这多个话题的候选中选择最终的话题。具体地说,控制部110A(发言控制部115A)为,在决定出多个话题的候选的情况下,当在机器人100B的存储部120B中存储有发言履历信息时,控制部110A(发言控制部115A)经由通信部170A读出存储部120B中所存储的发言履历信息,并判定在所读出的发言履历信息中是否存在上述第1比较对象话题。
然后,控制部110A(发言控制部115A)为,当判定为在发言履历信息中存在第1比较对象话题时,从多个话题的候选中除去与第1比较对象话题一致或者相关联的话题,并最终地决定话题。在通过该除去而剩余的话题的候选存在多个的情况下,将从其中随机地选择出的一个话题决定为最终的话题。
另一方面,在决定出多个话题的候选的情况下,当在机器人100B的存储部120B中未存储任何发言履历信息时、或者当判定为在发言履历信息中不存在第1比较对象话题时,将从决定出的多个话题的候选中随机地选择出的一个话题决定为最终的话题。
在对象用户在规定时间内未发言的情况下与对象用户交谈的动作,成为对象用户与机器人100A以及机器人100B之间的对话的触发,为了促使对象用户使用对话***1而实施。
在执行了步骤S104或者步骤S105之后,控制部110A基于按照决定出的话题的发言内容来进行发言(步骤S106)。控制部110A(声音合成部116A)生成与从发言控制部115A输入的表示机器人100A的发言内容的文本数据对应的声音数据,并控制声音输出部150A而输出基于声音数据的声音。
步骤S107~步骤S109是用于判定对象用户针对步骤S106中的机器人100A的发言的反应的处理。
控制部110A(反应判定部117A的声音判定部117AA)首先执行声音判定处理(步骤S107)。此处,参照图7所示的流程图对声音判定处理进行说明。声音判定处理是基于在机器人100A的发言后从对象用户发出的声音来判定对象用户针对机器人100A的发言的反应的处理。
声音判定部117AA为,当开始声音判定处理时,首先判定在步骤S106中的机器人100A的发言后是否存在对象用户的发言(步骤S301)。控制部110A基于用户信息取得部113A在机器人100A的发言后取得的声音信息,判定有无针对机器人100A的发言的对象用户的发言。
在判定为在机器人100A的发言后存在对象用户的发言的情况下(步骤S301:是),声音判定部117AA从针对机器人100A的发言的对象用户的发言中提取特征关键字(步骤S302)。声音判定部117AA基于由声音识别部114生成的表示对象用户的发言内容的文本数据,例如提取与感情相关的关键字,作为对对象用户的发言内容赋予特征的特征关键字。
接着,声音判定部117AA基于特征关键字来判定声音反应极性(步骤S303)。声音判定部117AA例如参照在存储部120A的反应判定信息DB124A中作为反应判定信息而存储的图4所示的声音反应极性判定表,根据与所提取的特征关键字建立了对应的声音反应极性来进行判定。声音判定部117AA例如在特征关键字为“喜欢”、“快乐”等的情况下,将声音反应极性判定为“积极”。
另一方面,当判定为在机器人100A的发言后没有对象用户的发言的情况下(步骤S301:否),由于对象用户针对机器人100A的发言的反应不明确,因此声音判定部117AA将声音反应极性判定为“中性”(步骤S304)。
控制部110在执行了步骤S303或者S304之后,结束声音判定处理,使处理返回到对话控制处理。
返回到图5,在执行了声音判定处理(步骤S107)之后,控制部110A(反应判定部117的表情判定部117BA)执行表情判定处理(步骤S108)。此处,参照图8所示的流程图对表情判定处理进行说明。表情判定处理是基于对象用户的表情来判定对象用户针对机器人100A的发言的反应的处理。
控制部110A(反应判定部117A的表情判定部117BA)为,当开始表情判定处理时,首先,从在步骤S106中的机器人100A的发言后由用户信息取得部113A取得的摄像图像中提取对象用户的面部图像(步骤S401)。
接着,表情判定部117BA基于在步骤S401中提取的面部图像,计算对象用户的笑脸度(步骤S402)。控制部110例如参照反应判定信息DB124A中所存储的笑脸度信息,基于面部图像中的眼角位置的变化、嘴大小的变化等,在0~100%的范围内计算出对象用户的笑脸度。
接着,表情判定部117BA判定在步骤S402中计算出的对象用户的笑脸度是否为70%以上(步骤S403)。在对象用户的笑脸度为70%以上的情况下(步骤S403:是),控制部110将表情反应极性判定为“积极”(步骤S405)。
在对象用户的笑脸度不为70%以上的情况下(步骤S403:否),控制部110A判定对象用户的笑脸度是否为40%以上且小于70%(步骤S404)。在对象用户的笑脸度为40%以上且小于70%的情况下(步骤S404:是),控制部110将表情反应极性判定为“中性”(步骤S406)。
在对象用户的笑脸度不为40%以上且小于70%的情况下(步骤S404:否),即,在对象用户的笑脸度小于40%的情况下,控制部110将表情反应极性判定为“消极”(步骤S407)。
控制部110A在步骤S405~S407的任一个中判定了对象用户的表情反应极性之后,结束表情判定处理,使处理返回到对话控制处理。
返回到图5,在执行了表情判定处理(步骤S108)之后,控制部110A执行行动判定处理(步骤S109)。此处,参照图9所示的流程图对行动判定处理进行说明。行动判定处理是基于对象用户的行动来判定对象用户针对机器人100A的发言的反应的处理。
控制部110A(反应判定部117A的行动判定部117CA)为,当开始行动判定处理时,首先判定对象用户是否活泼地运动(步骤S501)。行动判定部117CA基于在步骤S106中的机器人100A的发言后由用户信息取得部113A取得的摄像图像中的对象用户的运动来进行判定。在判定为对象用户活泼地运动的情况下(步骤S501:是),行动判定部117CA判定对象用户的视线是否朝向机器人100A(步骤S502)。行动判定部117CA例如根据用户信息取得部113A取得的摄像图像中的眼睛区域内的瞳孔位置和面部的朝向等来确定对象用户的视线的朝向,由此进行判定。
在判定为对象用户的视线朝向机器人100A的情况下(步骤S502:是),行动判定部117CA将行动反应极性判定为“积极”(步骤S508)。另一方面,在判定为对象用户的视线未朝向机器人100A的情况下(步骤S502:否),行动判定部117CA将行动反应极性判定为“消极”(步骤S509)。
在步骤S501中,在判定为对象用户未活泼地运动的情况下(步骤S501:否),行动判定部117CA判定对象用户是否接近了机器人100A(步骤S503)。行动判定部117CA例如根据用户信息取得部113A取得的摄像图像中的面部图像的大小变化来进行判定。
在判定为对象用户接近了机器人100A的情况下(步骤S503:是),行动判定部117CA判定对象用户的视线是否朝向机器人100A(步骤S504)。在判定为对象用户的视线朝向机器人100A的情况下(步骤S504:是),行动判定部117CA将行动反应极性判定为“积极”(步骤S508)。另一方面,在判定为对象用户的视线未朝向机器人100A的情况下(步骤S504:否),行动判定部117CA将行动反应极性判定为“消极”(步骤S509)。
在步骤S503中,在判定为对象用户未接近机器人100A的情况下(步骤S503:否),行动判定部117CA判定对象用户是否从机器人100A远离了(步骤S505)。在判定为对象用户从机器人100A远离了的情况下(步骤S505:是),行动判定部117CA将行动反应极性判定为“消极”(步骤S509)。
另一方面,在判定为对象用户未从机器人100A远离的情况下(步骤S505:否),行动判定部117C判定是否观察不到对象用户的面部(步骤S506)。在对象用户使面部的朝向反转等而变得无法从摄像图像中提取对象用户的面部图像的情况下,行动判定部117CA判定为观察不到对象用户的面部部分。在判定为观察不到对象用户的面部部分的情况下(步骤S506:是),行动判定部117CA将行动反应极性判定为“中性”(步骤S510)。
在判定为不是观察不到对象用户的面部部分的情况下(步骤S506:否),行动判定部117CA判定对象用户的视线是否朝向机器人100A(步骤S507)。在判定为对象用户的视线朝向机器人100A的情况下(步骤S507:是),行动判定部117CA将行动反应极性判定为“积极”(步骤S508)。另一方面,在判定为对象用户的视线未朝向机器人100A的情况下(步骤S507:否),行动判定部117CA将行动反应极性判定为“消极”(步骤S509)。
控制部110为,当在步骤S508~步骤S510的任一个中判定了对象用户的行动反应极性之后,结束行动判定处理,使处理返回到对话控制处理。
返回到图5,在执行了行动判定处理(步骤S109)之后,控制部110A(嗜好判定部118A)执行嗜好判定处理(步骤S110)。此处,参照图10所示的流程图对嗜好判定处理进行说明。嗜好判定处理是如下的处理:使用声音判定处理、表情判定处理、行动判定处理的各判定结果,综合地判定对象用户针对对象用户与机器人100A之间的对话的话题的嗜好度。
嗜好判定部118A为,当开始嗜好判定处理时,首先,确定对象用户与机器人100A之间的对话的话题(步骤S601)。嗜好判定部118A为,在对话控制处理的步骤S105中,当在对象用户在规定时间未发言的情况下与对象用户交谈时,在预先设定有话题的情况下,参照RAM等中所存储的话题关键字,确定对象用户与机器人100A之间的对话的话题。另一方面,在未预先设定话题的情况下,基于由声音识别部114A产生的表示对象用户的发言内容的文本数据,从对象用户的发言中提取题关键字,由此确定对象用户与机器人100A之间的对话的话题。例如,根据“喜欢棒球”这样的对象用户的发言来确定“棒球”这样的话题。
接着,嗜好判定部118A判定通过图7的声音判定处理判定出的声音反应极性是否为“积极”(步骤S602),在声音反应极性为“积极”的情况下(步骤S602:是),将嗜好度判定为“嗜好度A”(步骤S609)。
在声音反应极性不为“积极”的情况下(步骤S602:否),嗜好判定部118A判定声音反应极性是否为“消极”(步骤S603)。在声音反应极性为“消极”的情况下(步骤S603:是),嗜好判定部118A判定通过图8的表情判定处理判定出的表情反应极性是否为“积极”(步骤S604)。在表情反应极性为“积极”的情况下(步骤S604:是),嗜好判定部118A将嗜好度判定为“嗜好度B”(步骤S610)。另一方面,在表情反应极性不为“积极”的情况下(步骤S604:否),嗜好判定部118A将嗜好度判定为“嗜好度D”(步骤S612)。
在步骤S603中,在声音反应极性不为“消极”的情况下(步骤S603:否),嗜好判定部118A判定通过图9的行动判定处理判定出的行动反应极性是否为“积极”(步骤S605)。在行动反应极性为“积极”的情况下(步骤S605:是),嗜好判定部118A判定表情反应极性是否为“积极”或者“中性”中的某一个(步骤S606)。在表情反应极性为“积极”或者“中性”中的某一个的情况下(步骤S606:是),嗜好判定部118A将嗜好度判定为“嗜好度A”(步骤S609)。另一方面,在表情反应极性不是“积极”和“中性”的任一个的情况下(步骤S606:否),即,在表情反应极性为“消极”的情况下,嗜好判定部118A将嗜好度判定为“嗜好度C”(步骤S611)。
在步骤S605中,在行动反应极性不为“积极”的情况下(步骤S605:否),嗜好判定部118A判定行动反应极性是否为“中性”(步骤S607),在行动反应极性不为“中性”的情况下(步骤S607:否),嗜好判定部118A将嗜好度判定为“嗜好度C”(步骤S611)。
另一方面,在行动反应极性为“中性”的情况(步骤S607:是),嗜好判定部118A判定表情反应极性是否为“积极”(步骤S608)。嗜好判定部118A为,在表情反应极性为“积极”的情况下(步骤S608:是),将嗜好度判定为“嗜好度B”(步骤S610),在表情反应极性不为“积极”的情况下(步骤S608:否),将嗜好度判定为“嗜好度D”(步骤S612)。
在步骤S609~步骤S612的任一个中,在判定了对象用户的嗜好度之后,嗜好判定部118A结束嗜好判定处理,使处理返回到对话控制处理。
返回到图5,在执行了嗜好判定处理(步骤S110)之后,控制部110A将嗜好判定结果反映到嗜好度信息中(步骤S111)。控制部110A为,作为嗜好判定处理的嗜好判定结果,将使对象用户与机器人100A之间的对话的话题和嗜好度建立了对应的信息,追加到用户信息DB121A中所存储的用户信息的嗜好度信息中,而对嗜好度信息进行更新。由此,嗜好度信息按照每个用户USR被更新。对象用户与机器人100A之间的对话的话题是RAM等中所存储的话题关键字所表示的话题。另外,控制部110A对通信部170A进行控制,将使对象用户与机器人100A之间的对话的话题和嗜好度建立了对应的信息,发送给机器人100B。接受到该信息的机器人100B同样地将其追加到用户信息DB121B中所存储的用户信息的嗜好度信息中,而对嗜好度信息进行更新。由此,机器人100A与机器人100B能够共享各自的嗜好判定结果。此外,与多个话题的各个建立对应地存储的嗜好度信息所包含的嗜好度的初始值被设定为嗜好度A。如此,包含反应判定部117A(117B)、嗜好判定部118A(118B)的控制部110A(110B)以及通信部170A(170B)作为本发明的反应取得单元发挥功能。
在执行了步骤S111的处理之后,控制部110A判定在机器人100A周围是否存在对象用户(步骤S112)。在判定为在机器人100A周围存在对象用户的情况下(步骤S112:是),控制部110A判断为能够继续与对象用户进行对话,并使处理返回到步骤S103。在该步骤S112为是的情况下的步骤S103中,判定从步骤S106的发言完成起的经过时间是否为规定时间以内。
另一方面,在判定为在机器人100A周围不存在对象用户的情况下(步骤S112:否),控制部110A判断为不能够继续与对象用户进行对话,并解除与机器人100B(其他机器人)的通信连接(步骤S113)。控制部110A对通信部170A进行控制而进行基于通信方式的规定的过程,由此解除与机器人100B的通信连接。之后,控制部110A结束对话控制处理。
以上是机器人100A的控制部110A执行的对话控制处理,机器人100B的控制部110B执行的对话控制处理也相同。如图5所示,控制部110B开始对话控制处理。如图6所示那样执行用户确定处理。
在图5的步骤S103中,在判定为在规定时间内对象用户发言了的情况下(步骤S103:是),控制部110B(发言控制部115B)判断为正在执行与对象用户的对话,并决定作为针对对象用户的发言的应答的发言内容(步骤S104)。控制部110B(发言控制部115B)参照存储部120B的发言信息DB123B以及用户信息DB121B,决定与对象用户的发言内容对应、且与对象用户的嗜好相适合的话题的候选。
在该步骤S104中,当决定出的话题的候选为一个时,将其决定为最终的话题。另一方面,在决定出多个话题的候选的情况下,当在机器人100A的存储部120A中存储有发言履历信息时,控制部110B(发言控制部115B)经由通信部170B读出存储部120A中所存储的发言履历信息。然后,控制部110B(发言控制部115B)判定在所读出的发言履历信息中,是否存在与多个话题的候选的某一个相同或者相关联的话题、且是从其发言日期时间起到当前(即机器人100B的发言开始时)为止的经过时间为规定经过时间以内的话题(以下称为“第2比较对象话题”)。
控制部110B(发言控制部115B)为,当判定为存在第2比较对象话题时,从多个话题的候选中除去与上述第2比较对象话题一致或者相关联的话题,并最终地决定话题。
另一方面,在决定出多个话题的候选的情况下,当在机器人100A的存储部120A中未存储任何发言履历信息时、或者当判定为在发言履历信息中不存在第2比较对象话题时,将从决定出的多个话题的候选中随机地选择的一个话题决定为最终的话题。发言控制部115B输出表示按照如以上那样决定出的话题的发言内容的文本数据。
另一方面,在判定为在规定时间内对象用户未发言的情况下(步骤S103:否),控制部110B(发言控制部115B)决定与对象用户交谈的发言内容(步骤S105)。此时,控制部110B(发言控制部115B)参照存储部120B的发言信息DB123B以及用户信息DB121B,决定与用户信息DB121B中所存储的对象用户的嗜好相适合的多个话题的候选。在该情况下,作为与对象用户的嗜好相适合的话题,将与嗜好度A以及B对应的话题决定为话题的候选。
在该步骤S105中,在决定出的话题的候选为一个时,将其决定为最终的话题。另一方面,在决定出多个话题的候选时,与步骤S104的情况同样,从这多个话题的候选中选择最终的话题。具体地,控制部110B(发言控制部115B)为,在决定出多个话题的候选的情况下,当在机器人100A的存储部120A中存储有发言履历信息时,控制部110B(发言控制部115B)经由通信部170B读出存储部120A中所存储的发言履历信息。然后,控制部110B(发言控制部115B)判定在所读出的发言履历信息中是否存在上述第2比较对象话题。
控制部110B(发言控制部115B)为,在判定为存在第2比较对象话题时,从多个话题的候选中除去与第2比较对象话题一致或者相关联的话题,并最终地决定话题。
另一方面,在决定出多个话题的候选的情况下,但在机器人100A的存储部120A中未存储任何发言履历信息时、或者当判定为在发言履历信息中不存在第2比较对象话题时,将从决定出的多个话题的候选中随机地选择出的一个话题决定为最终的话题。
控制部110B为,当基于按照决定出的话题的发言内容进行发言(步骤S106)并输出声音时,执行判定对象用户的反应的图7所示的声音判定处理、图8所示的表情判定处理、以及图9所示的行动判定处理。当行动判定处理结束时,执行图10所示的嗜好判定处理。控制部110B将嗜好判定处理中的嗜好判定结果追加到用户信息DB121B中所存储的用户信息的嗜好度信息中,而对嗜好度信息进行更新。另外,控制部110B对通信部170B进行控制,将使对象用户与机器人100B之间的对话的话题和嗜好度建立了对应的信息发送给机器人100A。接受到该信息的机器人100A同样地将其追加到用户信息DB121A中所存储的用户信息的嗜好度信息中,而对嗜好度信息进行更新。由此,机器人100A与机器人100B共享各自的嗜好判定结果。
此外,在上述的第1实施方式中,当在机器人100A以及100B中的一个机器人发言后、在上述规定经过时间以内另一个机器人发言的情况下,将另一个机器人发言的话题决定为与在另一个机器人发言前的规定经过时间以内一个机器人发言了的话题不同的话题。在除此以外的情况下,相互不协作而相互无关(相互独立)地决定机器人100A以及100B发言的话题。也可以代替该决定方法,在用户信息DB121A(DB121B)中所存储的对象用户的嗜好信息的数量小于规定的阈值的情况下,将机器人100A以及100B发言的话题决定为相互不同的话题,在为规定的阈值以上的情况下,相互无关地决定机器人100A以及100B发言的话题。即,也可以为,在规定的条件成立时,将机器人100A以及100B发言的话题决定为相互不同的话题,在规定的条件不成立时,相互无关地决定机器人100A以及100B发言的话题。或者,也可以与规定的条件无关,总是相互不协作而相互无关地决定机器人100A以及100B发言的话题(发言内容)。
(第2实施方式)
在上述实施方式中,机器人100A和机器人100B分别具有反应判定、发言控制的功能,但是这些功能也可以与机器人100A和机器人100B相独立地存在。在本实施方式中,设置能够与机器人100A以及机器人100B进行通信的外部服务器,服务器进行机器人100A和机器人100B的反应判定、发言控制的处理。
如图11所示,本实施方式中的对话***1包括机器人100A、机器人100B以及服务器200。
与第1实施方式同样,机器人100A具备控制部110A、存储部120A、摄像部130A、声音输入部140A、声音输出部150A、移动部160A以及通信部170A。但是,与第1实施方式的情况不同,控制部110A不具备发言控制部115A、反应判定部117A以及嗜好判定部118A。另外,与第1实施方式的情况不同,存储部120A不具备用户信息DB121A、声音信息DB122A、发言信息DB123A以及反应判定信息DB124A。机器人100B的构成也与机器人100A同样,具备控制部110B、存储部120B、摄像部130B、声音输入部140B、声音输出部150B、移动部160B以及通信部170B。控制部110B不具备发言控制部115B、反应判定部117B以及嗜好判定部118B。另外,存储部120B不具备用户信息DB121B、声音信息DB122B、发言信息DB123B以及反应判定信息DB124B。
服务器200具备控制部210、存储部220以及通信部270。控制部210具备发言控制部215、反应判定部217以及嗜好判定部218。即,代替机器人100A以及机器人100B,服务器200进行用于进行机器人100A以及机器人100B各自的发言的控制、用户的反应的判定、用户的嗜好的判定等各种处理。存储部220具备用户信息DB221、声音信息DB222、发言信息DB223以及反应判定信息DB224。即,将机器人100A和机器人100B所具备的上述数据库汇集到服务器200中。另外,存储部220按照每个用户USR来存储发言履历信息,该发言履历信息包含机器人100A和机器人100B进行了发言的发言日期时间以及所发言的话题等。服务器200经由通信部270、机器人100A的通信部170A以及机器人100B的通信部170B与机器人100A以及机器人100B进行无线数据通信。由此,服务器200控制机器人100A和机器人100B与对象用户进行对话的情况。如此,通信部170A、170B作为本发明的第1通信单元发挥功能。另外,通信部270作为本发明的第2通信单元发挥功能。
接着,对本实施方式中的对话控制处理进行说明。此处,以机器人100A的对话控制处理为例进行说明。机器人100A的控制部110A以用户检测部111A在机器人100A周围检测到用户USR的情况为契机,开始对话控制处理。
控制部110A为,当开始对话控制处理(参照图5)时,首先,执行用户确定处理。控制部110A检索与从摄像图像中提取出的面部图像对应的登记用户,该摄像图像是从摄像部130A取得的。控制部110A(用户确定部112A)访问服务器200的存储部220的用户信息DB221,将从摄像图像中提取出的面部图像与用户信息DB221中所存储的多个用户各自的面部图像进行对照,将用户USR确定为对象用户。此处,控制部110A作为本发明的对象确定单元发挥功能。
接受到用户USR的信息的服务器200的控制部210为,在判定为在规定时间内对象用户进行了发言的情况下,控制部210(发言控制部215)判断为正在执行与对象用户的对话,并决定作为针对对象用户的发言的应答的发言内容。控制部210(发言控制部215)参照存储部220的发言信息DB223以及用户信息DB221,决定与对象用户的发言内容对应、且与对象用户的嗜好相适合的话题的候选。
在决定出的话题的候选为一个时,将其决定为最终的话题。另一方面,在决定出多个话题的候选的情况下,当在存储部220中存储有机器人100B的发言履历信息时,控制部210(发言控制部215)读出存储部220中所存储的发言履历信息,并判定在所读出的发言履历信息中是否存在第1比较对象话题。
控制部210(发言控制部215)为,当判定为存在第1比较对象话题时,从多个话题的候选中除去与上述第1比较对象话题一致或者相关联的话题,并最终地决定话题。
另一方面,在决定出多个话题的候选的情况下,在未存储任何的机器人100B的发言履历信息时、或者在判定为在发言履历信息中不存在第1比较对象话题时,将从决定出的多个话题的候选中随机地选择出的一个话题决定为最终的话题。发言控制部215输出表示按照如以上那样决定的话题的发言内容的文本数据。
另一方面,在判定为在规定时间内对象用户未发言的情况下,控制部210(发言控制部215)决定与对象用户交谈的发言内容。此时,发言控制部215参照存储部220的发言信息DB223以及用户信息DB221,决定与用户信息DB221中所存储的对象用户的嗜好相适合的多个话题的候选。
在决定出的话题的候选为一个时,将其决定为最终的话题。另一方面,在决定出多个话题的候选时,从这多个话题的候选中选择最终的话题。在决定出多个话题的候选的情况下,当存储有机器人100B的发言履历信息时,控制部210(发言控制部215)读出发言履历信息,并判定是否存在第1比较对象话题。
控制部210(发言控制部215)为,在判定为存在第1比较对象话题时,从多个话题的候选中除去与第1比较对象话题一致或者相关联的话题,并最终地决定话题。
另一方面,在决定出多个话题的候选的情况下,在未存储任何的机器人100B的发言履历信息时、或者在判定为在发言履历信息中不存在第1比较对象话题时,将从决定出的多个话题的候选中随机地选择出的一个话题决定为最终的话题。
机器人100A经由通信部170A接收文本数据,并发送到声音合成部116A。声音合成部116A访问服务器200的存储部220的声音信息DB222,使用声音信息DB222中所保存的音响模型等,根据所接收到的文本数据来生成声音数据。声音合成部116A对声音输出部150A进行控制,对所生成的声音数据进行声音输出。
接着,执行反应判定处理(参照图7到图9),该反应判定处理判定对象用户针对机器人100A的发言的反应。
控制部210(反应判定部217的声音判定部217A)执行声音判定处理(参照图7)。声音判定部217A基于在机器人100A发言后对象用户发出的声音,来判定对象用户针对机器人100A的发言的反应。当对象用户发言时,机器人100A的声音识别部114A访问服务器200的存储部220的声音信息DB222,使用声音信息DB222中所保存的音响模型等,根据声音数据来生成文本数据。文本数据被发送到服务器200。声音判定部217A基于通过通信部270接收到的文本数据,判定对象用户针对机器人100A以及机器人100B的发言的反应。
在执行了声音判定处理之后,控制部210(反应判定部217的表情判定部217B)执行表情判定处理(参照图8)。表情判定部217B基于机器人100A发言后的对象用户的表情,判定对象用户针对机器人100A的发言的反应。当机器人100A的用户信息取得部113A取得用户的摄像图像时,用户信息取得部113A经由通信部170A将摄像图像发送到服务器200。表情判定部217B从经由通信部270取得的摄像图像中检测对象用户的面部的特征量,参照存储部220的反应判定信息DB224中所存储的笑脸度信息,基于所检测到的特征量来计算对象用户的笑脸度。表情判定部217B根据计算出的笑脸度来判定对象用户针对机器人100A的发言的反应。
在执行了表情判定处理之后,控制部210执行行动判定处理(参照图9)。行动判定部217C基于机器人100A发言之后的对象用户的行动,来判定对象用户针对机器人100A的发言的反应。行动判定部217C基于从经由通信部270取得的摄像图像中检测出的对象用户的行动,来判定对象用户针对机器人100A的发言的反应。
在执行了行动判定处理之后,控制部210(嗜好判定部218A)执行嗜好判定处理(参照图10)。嗜好判定部218确定对象用户与机器人100A之间的对话的话题,并基于反应判定部217的各判定结果,来判定表示对象用户针对话题的嗜好的高度的嗜好度。
在执行了嗜好判定处理之后,控制部210将嗜好判定结果反映到嗜好度信息中。控制部210为,作为嗜好判定处理的嗜好判定结果,将使对象用户与机器人100A之间的对话的话题和嗜好度建立了对应的信息,追加到用户信息DB221中所存储的用户信息的嗜好度信息中,而对嗜好度信息进行更新。由此,嗜好信息按照每个用户USR被更新。
对于机器人100B也进行同样的控制处理。在第1实施方式中,机器人100A将对象用户与机器人100A之间的对话的嗜好度信息进行更新,并且发送给机器人100B,接受到该信息的机器人100B同样地将用户信息DB121B中所存储的嗜好度信息进行更新。由此,机器人100A与机器人100B能够共享各自的嗜好判定结果。与此相对,在本实施方式中,在服务器200的用户信息DB221中按照每个用户USR存储有机器人100A以及机器人100B的嗜好度信息,因此不需要对相互的嗜好度信息进行更新。
在上述实施方式中,服务器200执行了机器人100A以及机器人100B各自的发言的控制、用户的反应的判定、以及用户的嗜好的判定等各种处理。但是,并不限于此,服务器200能够选择地执行机器人100A以及机器人100B的任意处理。例如,也可以为,服务器200的控制部210仅具有发言控制部215,并仅执行机器人100A以及机器人100B的发言控制的处理,其他处理由机器人100A以及机器人100B执行。另外,也可以为,机器人100A以及机器人100B的用户检测、用户确定、用户信息取得、声音识别、声音合成、发言控制、反应判定、嗜好判定的处理全部由服务器执行。另外,在本实施方式中,服务器200的存储部220具备用户信息DB221、声音信息DB222、发言信息DB223、以及反应判定信息DB224。但是,并不限于此,服务器200能够具备任意的数据库。例如,在本实施方式中也可以为,不是服务器200具备声音信息DB222,而是机器人100A以及机器人100B分别具备声音信息DB222。另外,关于用户信息DB221的确定用户的面部信息,也可以是不仅服务器200具备,而且机器人100A以及机器人100B也分别具备。由此,在声音识别、声音合成、用户确定时,机器人100A以及机器人100B不需要访问服务器200。
如以上说明的那样,根据第1实施方式,对话***1具备机器人100A以及机器人100B,并基于对对象用户针对机器人100A的发言的反应进行了判定的结果(即对象用户的嗜好信息)以及对对象用户针对机器人100B的发言的反应进行了判定的结果(即对象用户的嗜好信息),控制机器人100A以及机器人100B各自的发言。
根据第2实施方式,对话***1具备机器人100A、机器人100B以及服务器200,服务器200基于对对象用户针对机器人100A的发言的反应进行了判定的结果(即对象用户的嗜好信息)以及对对象用户针对机器人100B的发言的反应进行了判定的结果(即对象用户的嗜好信息),控制机器人100A以及机器人100B各自的发言。通过以上,根据第1以及第2实施方式,能够高精度且有效地掌握对象用户的喜好,并进行与对象用户的喜好相符合的对话。
此外,本发明不限定于上述实施方式,能够进行各种变形和应用。上述实施方式也可以如以下那样变形。
在上述实施方式中,机器人100A与机器人100B被设置在相互的发言未被对象用户识别的场所。与此相对,对机器人100A与机器人100B被设置在相互的发言被对象用户识别的场所的情况下的变形例进行说明。在该情况下,机器人100A和机器人100B能够同时与对象用户进行对话。但是,当机器人100A和机器人100B的发言时刻重复或者连续时,有可能无法适当地判断对象用户是对哪个发言进行了反应。于是,无法适当地取得对象用户的嗜好信息,另外,无法适当地应答。因此,发言控制部115A(115B)为,为了防止机器人100A以及机器人100B的发言时刻相互重复、或者相互连续,而与机器人100B的发言控制部115B(机器人100A的发言控制部115A)协作地决定机器人100A(100B)的发言开始时期。发言控制部115A(115B)将机器人100A(100B)的发言开始时期决定为,机器人100A以及机器人100B彼此的发言间隔例如成为足够判断对象用户的反应的时间等规定时间以上。另外,机器人100B的发言控制部115B(机器人100A的发言控制部115A)将机器人100B(100A)的发言开始时期决定为,机器人100B(100A)不会在机器人100A(100B)的发言中以及发言结束紧后连续地发言。机器人100A和机器人100B的发言开始时期,除了由发言控制部115A、115B分别决定以外,也可以由某一方决定。在服务器200对机器人100A以及机器人100B的发言进行控制的情况下,发言控制部215决定二者的发言开始时期。由此,机器人100A以及机器人100B的发言不会相互连续地进行,而是在相互相差规定时间以上的定时进行。由此,能够高精度地掌握对象用户的嗜好,并进行与对象用户的嗜好相符合的对话。
并且,在上述变形例中也可以为,发言控制部115A与机器人100B的发言控制部115B协作,将机器人100A以及机器人100B发言的话题决定为相互不同的话题。在该情况下,也可以与第1实施方式的情况同样,当在机器人100A以及100B中的一个机器人发言后、在上述规定经过时间以内另一个机器人发言的情况下,将另一个机器人发言的话题决定为与在另一个机器人的发言前的规定经过时间以内一个机器人进行了发言的话题不同的话题,在除此以外的情况下,相互不协作且相互无关(相互独立)地决定机器人100A以及100B发言的话题。或者,在该情况下,也可以为,在用户信息DB121A(DB121B)中所存储的对象用户的嗜好信息的数量小于规定的阈值的情况下,将机器人100A以及100B发言的话题决定为相互不同的话题,在为规定的阈值以上的情况下,相互无关地决定机器人100A以及100B发言的话题。或者,也可以与上述那样的规定条件无关,总是相互不协作且相互无关地决定机器人100A以及100B发言的话题(发言内容)。
另外,例如,也可以具备根据发言控制部115A对发言的控制来对移动部160A进行控制的移动控制单元。移动控制单元例如可以将移动部160A控制为,与机器人100A的发言开始相配合地使机器人100A接近对象用户。
例如,也可以为,构成对话***1的多个机器人100采用主设备/从设备方式,例如,作为主设备发挥功能的机器人100,将作为从设备发挥功能的机器人100的发言内容包含在内而一并决定,并对作为从设备发挥功能的机器人100指示基于所决定的发言内容进行发言。在该情况下,作为主设备发挥功能的机器人100和作为从设备发挥功能的机器人100的决定方法是任意的,例如,可以使最先检测以及确定了周围的用户USR的机器人作为主设备发挥功能,使其他机器人100作为从设备发挥功能。另外,例如,可以使最先被用户USR接通电源的机器人100作为主设备发挥功能,使接着被接通电源的机器人100作为从设备发挥功能,也可以构成为,用户USR能够使用物理的开关等设定作为主设备发挥功能的机器人100和作为从设备发挥功能的机器人100。
另外,可以预先决定作为主设备发挥功能的机器人100和作为从设备发挥功能的机器人100。在该情况下,也可以省略一部分作为从设备发挥功能的机器人100能够执行的功能。例如,在按照作为主设备发挥功能的机器人100的指示来进行发言的情况下,作为从设备发挥功能的机器人100也可以不具备与发言控制部115A等相当的功能。
另外,在上述实施方式中,对机器人100A和机器人100B与对象用户进行对话的例子进行了说明,但是也可以构成为,通过1台机器人100来实施与对象用户的对话。在该情况下,例如,1台机器人100为,与上述的作为主设备发挥功能的情况同样,一并决定自身的发言内容以及其他机器人的发言内容,并改变声色地将所决定的发言内容依次进行声音输出,由此表现为如1台机器人100对其他机器人的发言进行代言即可。
在上述实施方式中,以对话***1是具备多个机器人100的机器人***的情况为例进行了说明,但是对话***1也可以由具备机器人100所具备的构成的全部或者一部分的多个对话装置构成。
在上述实施方式中,控制部110A、110B的CPU执行的控制程序预先存储在ROM等中。但是,本发明并不限定于此,也可以将用于执行上述各种处理的控制程序安装到现存的通用计算机、架构、工作站等电子设备,由此使其作为与上述实施方式所涉及的机器人100A、100B相当的装置发挥功能。例如,作为与机器人100A、100B相当的发言装置,包含具有声音辅助功能的便携终端、数字标牌等。所谓数字标牌是指在显示器等电子显示设备上显示影像、信息的***。此外,发言并不限于通过扬声器进行声音输出,也包含在显示设备上作为文字进行显示。因此,将发言用文字显示的便携终端、数字标牌等也被包含作为与机器人100A、100B相当的发言装置。
这样的程序的提供方法是任意,例如,可以保存于计算机能够读取的记录介质(软盘、CD(Compact Disc:紧凑型盘)-ROM、DVD(Digital Versatile Disc:数字多功能光盘)-ROM)等而分发,也可以预先将程序保存在互联网等网络上的存储器中,通过对其进行下载来提供。
另外,在通过OS(Operating System:操作***)与应用程序的分担、或者OS与应用程序的协作来执行上述处理的情况下,也可以仅将应用程序保存到记录介质、存储器中。另外,也能够在载波上重叠程序而经由网络发布。例如,可以在网络上的公告板(BulletinBoard System(BBS):电子公告板***)中公告上述程序,并经由网络发布程序。而且,也可以构成为,启动所发布的程序,在OS的控制下,与其他应用程序同样地执行,由此能够执行上述处理。
本发明在不脱离本发明的广义的精神和范围内,能够成为各种实施方式以及变形。另外,上述实施方式是用于说明本发明的,并不限定本发明的范围。即,本发明的范围不由实施方式、而由专利请求的范围表示。并且,在专利请求的范围内以及与专利请求的范围同等的发明的意义的范围内实施的各种变形被视为在本发明的范围内。
Claims (20)
1.一种对话控制装置,其特征在于,具备:
反应取得单元,取得多个反应判定结果,该多个反应判定结果中包含对规定对象针对第1发言装置的发言的反应进行了判定的结果、以及对上述规定对象针对与上述第1发言装置相独立地设置的第2发言装置的发言的反应进行了判定的结果;以及
发言控制单元,基于由上述反应取得单元取得的多个反应判定结果,对包含上述第1以及第2发言装置在内的多个发言装置的至少任一个的上述发言进行控制。
2.如权利要求1所述的对话控制装置,其特征在于,
上述反应取得单元取得如下情况下的、包含对上述规定对象针对上述第1以及第2发言装置的各个发言的反应进行了判定的结果的上述多个反应判定结果,上述情况为:通过上述第1发言装置对上述规定对象进行上述发言的场所、以及通过上述第2发言装置对上述规定对象进行上述发言的场所,是上述规定对象不能够识别上述第1以及第2发言装置的上述发言的双方的场所。
3.如权利要求1所述的对话控制装置,其特征在于,
上述发言控制单元进行控制,以使上述第1以及第2发言装置的上述发言不相互连续地进行、而在相互相差规定时间以上的定时进行。
4.如权利要求1所述的对话控制装置,其特征在于,
上述发言控制单元将上述第1以及第2发言装置的上述发言的话题决定为相互不同的话题。
5.如权利要求1所述的对话控制装置,其特征在于,
上述发言控制单元相互无关地决定上述第1以及第2发言装置的上述发言的内容。
6.如权利要求1所述的对话控制装置,其特征在于,
上述多个反应判定结果是基于规定对象发出的声音以及上述规定对象的摄像图像中的至少任一个、对上述规定对象针对上述第1以及第2发言装置的发言的反应进行了判定的结果。
7.如权利要求1所述的对话控制装置,其特征在于,
还具备取得单元,该取得单元取得上述规定对象发出的声音以及上述规定对象的摄像图像中的至少任一个,
上述反应取得单元为,通过基于由上述取得单元取得的上述声音以及上述摄像图像中的上述至少任一个,对上述规定对象针对上述第1以及第2发言装置各自的上述发言的反应进行判定,由此取得上述多个反应判定结果。
8.如权利要求7所述的对话控制装置,其特征在于,
上述反应取得单元具备声音判定单元、表情判定单元以及行动判定单元中的至少任一个,
上述声音判定单元基于由上述取得单元取得的上述声音,判定上述规定对象针对上述第1以及第2发言装置各自的上述发言的上述声音的内容,
上述表情判定单元基于由上述取得单元取得的上述摄像图像,判定上述规定对象针对上述第1以及第2发言装置各自的上述发言的表情,
上述行动判定单元基于由上述取得单元取得的上述摄像图像,判定上述规定对象针对上述第1以及第2发言装置各自的上述发言的行动,
上述反应取得单元基于上述声音判定单元、上述表情判定单元以及上述行动判定单元中的上述至少任一个的判定结果,判定上述规定对象针对上述第1以及第2发言装置各自的上述发言的反应,由此取得上述多个反应判定结果。
9.如权利要求8所述的对话控制装置,其特征在于,
上述反应取得单元基于上述规定对象的上述声音、上述表情以及上述行动中的至少任一个,将上述规定对象的上述反应分类为肯定的反应、否定的反应、以及既不肯定也不否定的中立的反应,由此判定上述规定对象的上述反应。
10.如权利要求7所述的对话控制装置,其特征在于,还具备:
确定单元,基于上述规定对象发出的上述声音、上述第1发言装置的上述发言、以及上述第2发言装置的上述发言中的至少任一个,确定与上述规定对象的对话的话题;以及
嗜好判定单元,基于所取得的上述多个反应判定结果来判定嗜好度,该嗜好度表示上述规定对象针对由上述确定单元确定出的上述话题的嗜好的程度,
上述发言控制单元基于由上述嗜好判定单元判定的嗜好度,对上述多个发言装置的上述至少任一个的上述发言进行控制。
11.如权利要求10所述的对话控制装置,其特征在于,
上述嗜好是与有形和无形无关而与事物有关的兴趣、喜好,除了与食品、体育、天气有关的兴趣、喜好之外,还包含针对上述第1发言装置和上述第2发言装置的至少任一个的发言内容的喜好。
12.如权利要求10所述的对话控制装置,其特征在于,
上述嗜好判定单元按照上述规定对象针对上述话题的上述嗜好从高到低的顺序将上述嗜好度判定为多个等级,
上述发言控制单元基于由上述嗜好判定单元判定的表示上述嗜好度的上述多个等级的信息,对上述多个发言装置的上述至少任一个的上述发言进行控制。
13.如权利要求1所述的对话控制装置,其特征在于,
上述规定对象包含人、动物或者机器人。
14.如权利要求1至13中任一项所述的对话控制装置,其特征在于,
还具备对象确定单元,该对象确定单元从相互不同的多个对象中确定上述规定对象,
上述反应取得单元取得多个反应判定结果,该多个反应判定结果中包含对上述确定出的上述规定对象针对上述第1发言装置的发言的反应进行了判定的结果、以及对上述确定出的上述规定对象针对与上述第1发言装置相独立地设置的第2发言装置的发言的反应进行了判定的结果。
15.如权利要求1所述的对话控制装置,其特征在于,
上述对话控制装置设置于上述第1以及第2发言装置中的至少任一个。
16.如权利要求1所述的对话控制装置,其特征在于,
上述对话控制装置与上述第1以及第2发言装置相独立地设置。
17.一种对话***,具备构成为能够发言的第1发言装置和第2发言装置、以及对话控制装置,其特征在于,
上述对话控制装置具备:
反应取得单元,取得多个反应判定结果,该多个反应判定结果中包含对规定对象针对第1发言装置的发言的反应进行了判定的结果、以及对上述规定对象针对与上述第1发言装置相独立地设置的上述第2发言装置的发言的反应进行了判定的结果;以及
发言控制单元,基于由上述反应取得单元取得的多个反应判定结果,对包含上述第1以及第2发言装置在内的多个发言装置中的至少任一个的上述发言进行控制。
18.如权利要求17所述的对话***,其特征在于,
上述第1以及第2发言装置分别具备:
取得单元,取得上述规定对象发出的声音以及上述规定对象的摄像图像的至少任一个;以及
第1通信单元,
上述对话控制装置还具备用于经由上述第1通信单元与上述第1以及第2发言装置进行通信的第2通信单元,
上述对话控制装置的上述反应取得单元为,
经由上述第1通信单元以及第2通信单元取得由上述第1发言装置的上述取得单元取得的上述声音以及上述摄像图像中的上述至少任一个即第1数据,并基于上述取得的上述第1数据来判定上述规定对象针对上述第1发言装置的上述发言的反应,由此取得上述规定对象针对上述第1发言装置的上述发言的反应的判定结果即第1反应判定结果,
经由上述第1通信单元以及第2通信单元取得由上述第2发言装置的上述取得单元取得的上述声音和上述摄像图像中的上述至少任一个即第2数据,并基于上述取得的上述第2数据来判定上述规定对象针对上述第2发言装置的上述发言的反应,由此取得上述规定对象针对上述第2发言装置的上述发言的反应的判定结果即第2反应判定结果,
上述对话控制装置的上述发言控制单元基于由上述反应取得单元取得的包含上述第1以及第2反应判定结果的上述多个反应判定结果,经由上述第2通信单元以及第1通信单元,对上述第1以及第2发言装置的上述发言进行控制。
19.一种对话控制方法,其特征在于,包括:
取得多个反应判定结果的处理,该多个反应判定结果中包含对规定对象针对第1发言装置的发言的反应进行了判定的结果、以及对上述规定对象针对与上述第1发言装置相独立地设置的第2发言装置的发言的反应进行了判定的结果;以及
基于所取得的上述多个反应判定结果,对包含上述第1以及第2发言装置在内的多个发言装置中的至少任一个的上述发言进行控制的处理。
20.一种存储介质,其特征在于,
存储使计算机作为如下单元发挥功能的程序:
反应取得单元,取得多个反应判定结果,该多个反应判定结果中包含对规定对象针对第1发言装置的发言的反应进行了判定的结果、以及对上述规定对象针对与上述第1发言装置相独立地设置的第2发言装置的发言的反应进行了判定的结果;以及
发言控制单元,基于由上述反应取得单元取得的多个反应判定结果,对包含上述第1以及第2发言装置在内的多个发言装置中的至少任一个的上述发言进行控制。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018058200 | 2018-03-26 | ||
JP2018-058200 | 2018-03-26 | ||
JP2018-247382 | 2018-12-28 | ||
JP2018247382A JP2019175432A (ja) | 2018-03-26 | 2018-12-28 | 対話制御装置、対話システム、対話制御方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110364164A true CN110364164A (zh) | 2019-10-22 |
CN110364164B CN110364164B (zh) | 2023-12-05 |
Family
ID=68167044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910207297.1A Active CN110364164B (zh) | 2018-03-26 | 2019-03-19 | 对话控制装置、对话***、对话控制方法以及存储介质 |
Country Status (2)
Country | Link |
---|---|
JP (3) | JP2019175432A (zh) |
CN (1) | CN110364164B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7407560B2 (ja) * | 2019-10-30 | 2024-01-04 | 日本放送協会 | キーワード評価装置、キーワード評価方法及びキーワード評価プログラム |
WO2021131737A1 (ja) * | 2019-12-27 | 2021-07-01 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
JP2021144086A (ja) * | 2020-03-10 | 2021-09-24 | 株式会社東海理化電機製作所 | エージェントシステム、およびコンピュータプログラム |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1561514A (zh) * | 2001-09-27 | 2005-01-05 | 松下电器产业株式会社 | 对话装置、对话主机装置、对话子机装置、对话控制方法及对话控制程序 |
JP2006178063A (ja) * | 2004-12-21 | 2006-07-06 | Toyota Central Res & Dev Lab Inc | 対話処理装置 |
JP2008158697A (ja) * | 2006-12-21 | 2008-07-10 | Nec Corp | ロボット制御装置 |
JP2016020963A (ja) * | 2014-07-14 | 2016-02-04 | シャープ株式会社 | 対話評価装置、対話評価システム、対話評価方法および対話評価プログラム |
JP2016109897A (ja) * | 2014-12-08 | 2016-06-20 | シャープ株式会社 | 電子機器、発話制御方法、およびプログラム |
CN106233378A (zh) * | 2014-05-13 | 2016-12-14 | 夏普株式会社 | 控制装置和消息输出控制*** |
CN106484093A (zh) * | 2015-09-01 | 2017-03-08 | 卡西欧计算机株式会社 | 对话控制装置、对话控制方法 |
CN106503030A (zh) * | 2015-09-03 | 2017-03-15 | 卡西欧计算机株式会社 | 对话控制装置、对话控制方法 |
CN106663219A (zh) * | 2014-04-17 | 2017-05-10 | 软银机器人欧洲公司 | 处理与机器人的对话的方法和*** |
WO2017094212A1 (ja) * | 2015-11-30 | 2017-06-08 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN107053186A (zh) * | 2015-12-14 | 2017-08-18 | 卡西欧计算机株式会社 | 对话装置、机器人、对话方法以及存储介质 |
JP2017194910A (ja) * | 2016-04-22 | 2017-10-26 | Cocoro Sb株式会社 | 応対データ収集システム、顧客応対システム及びプログラム |
WO2017200072A1 (ja) * | 2016-05-20 | 2017-11-23 | 日本電信電話株式会社 | 対話方法、対話システム、対話装置、およびプログラム |
WO2017200077A1 (ja) * | 2016-05-20 | 2017-11-23 | 日本電信電話株式会社 | 対話方法、対話システム、対話装置、及びプログラム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004021509A (ja) | 2002-06-14 | 2004-01-22 | Mitsubishi Heavy Ind Ltd | 情報共有型ロボット |
JP2004062063A (ja) * | 2002-07-31 | 2004-02-26 | Matsushita Electric Ind Co Ltd | 対話型装置 |
JP2005099934A (ja) * | 2003-09-22 | 2005-04-14 | Konica Minolta Photo Imaging Inc | ロボットサービスシステム |
JP2007011674A (ja) | 2005-06-30 | 2007-01-18 | National Institute Of Information & Communication Technology | 対話ロボットを用いた理由説明サービス処理方法およびその装置,およびそのプログラム |
JP2015184563A (ja) * | 2014-03-25 | 2015-10-22 | シャープ株式会社 | 対話型家電システム、サーバ装置、対話型家電機器、家電システムが対話を行なうための方法、当該方法をコンピュータに実現させるためのプログラム |
JP2015219583A (ja) | 2014-05-14 | 2015-12-07 | 日本電信電話株式会社 | 話題決定装置、発話装置、方法、及びプログラム |
JP6555113B2 (ja) | 2015-12-14 | 2019-08-07 | 株式会社デンソー | 対話装置 |
JP2017151517A (ja) * | 2016-02-22 | 2017-08-31 | 富士ゼロックス株式会社 | ロボット制御システム |
JP6380469B2 (ja) * | 2016-06-23 | 2018-08-29 | カシオ計算機株式会社 | ロボット、ロボット制御方法及びプログラム |
JP6767206B2 (ja) * | 2016-08-30 | 2020-10-14 | シャープ株式会社 | 応答システム |
JP6731598B2 (ja) * | 2016-08-31 | 2020-07-29 | Jsw株式会社 | 観賞魚用コミュニケーション装置、観賞魚用コミュニケーションシステム、および観賞魚とのコミュニケーション方法 |
-
2018
- 2018-12-28 JP JP2018247382A patent/JP2019175432A/ja active Pending
-
2019
- 2019-03-19 CN CN201910207297.1A patent/CN110364164B/zh active Active
-
2023
- 2023-02-07 JP JP2023016582A patent/JP7416295B2/ja active Active
- 2023-07-21 JP JP2023119290A patent/JP2023133410A/ja active Pending
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1561514A (zh) * | 2001-09-27 | 2005-01-05 | 松下电器产业株式会社 | 对话装置、对话主机装置、对话子机装置、对话控制方法及对话控制程序 |
JP2006178063A (ja) * | 2004-12-21 | 2006-07-06 | Toyota Central Res & Dev Lab Inc | 対話処理装置 |
JP2008158697A (ja) * | 2006-12-21 | 2008-07-10 | Nec Corp | ロボット制御装置 |
CN106663219A (zh) * | 2014-04-17 | 2017-05-10 | 软银机器人欧洲公司 | 处理与机器人的对话的方法和*** |
CN106233378A (zh) * | 2014-05-13 | 2016-12-14 | 夏普株式会社 | 控制装置和消息输出控制*** |
JP2016020963A (ja) * | 2014-07-14 | 2016-02-04 | シャープ株式会社 | 対話評価装置、対話評価システム、対話評価方法および対話評価プログラム |
JP2016109897A (ja) * | 2014-12-08 | 2016-06-20 | シャープ株式会社 | 電子機器、発話制御方法、およびプログラム |
CN106484093A (zh) * | 2015-09-01 | 2017-03-08 | 卡西欧计算机株式会社 | 对话控制装置、对话控制方法 |
CN106503030A (zh) * | 2015-09-03 | 2017-03-15 | 卡西欧计算机株式会社 | 对话控制装置、对话控制方法 |
WO2017094212A1 (ja) * | 2015-11-30 | 2017-06-08 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN107053186A (zh) * | 2015-12-14 | 2017-08-18 | 卡西欧计算机株式会社 | 对话装置、机器人、对话方法以及存储介质 |
JP2017194910A (ja) * | 2016-04-22 | 2017-10-26 | Cocoro Sb株式会社 | 応対データ収集システム、顧客応対システム及びプログラム |
WO2017200072A1 (ja) * | 2016-05-20 | 2017-11-23 | 日本電信電話株式会社 | 対話方法、対話システム、対話装置、およびプログラム |
WO2017200077A1 (ja) * | 2016-05-20 | 2017-11-23 | 日本電信電話株式会社 | 対話方法、対話システム、対話装置、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP7416295B2 (ja) | 2024-01-17 |
CN110364164B (zh) | 2023-12-05 |
JP2023133410A (ja) | 2023-09-22 |
JP2023055910A (ja) | 2023-04-18 |
JP2019175432A (ja) | 2019-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6816925B2 (ja) | 育児ロボットのデータ処理方法及び装置 | |
US11670324B2 (en) | Method for predicting emotion status and robot | |
CN110364164A (zh) | 对话控制装置、对话***、对话控制方法以及存储介质 | |
US8538750B2 (en) | Speech communication system and method, and robot apparatus | |
Vinola et al. | A survey on human emotion recognition approaches, databases and applications | |
CN100445046C (zh) | 机器人装置及其行为控制方法 | |
US7987091B2 (en) | Dialog control device and method, and robot device | |
US20200086496A1 (en) | Emotion recognizer, robot including the same, and server including the same | |
CN110119815A (zh) | 模型训练方法、装置、存储介质及设备 | |
US8340816B2 (en) | User preference inferring apparatus, user profile inferring apparatus, and robot | |
JP7400923B2 (ja) | 情報処理装置および情報処理方法 | |
CN110427462A (zh) | 与用户互动的方法、装置、存储介质及服务机器人 | |
WO2016080553A1 (ja) | 学習型ロボット、学習型ロボットシステム、及び学習型ロボット用プログラム | |
JP7476941B2 (ja) | ロボット、ロボットの制御方法及びプログラム | |
CN107825429A (zh) | 对话装置和方法 | |
JP7205148B2 (ja) | ロボット、制御方法、及び、プログラム | |
JP2021108142A (ja) | 情報処理システム、情報処理方法、および情報処理プログラム | |
CN109108962A (zh) | 机器人、机器人的控制方法以及存储介质 | |
CN110263131A (zh) | 回复信息生成方法、装置及存储介质 | |
EP3893215A1 (en) | Information processing device, information processing method, and program | |
EP3502940A1 (en) | Information processing device, robot, information processing method, and program | |
JP6887035B1 (ja) | 制御システム、制御装置、制御方法及びコンピュータプログラム | |
KR20190114931A (ko) | 로봇 및 그의 제어 방법 | |
CN113952583B (zh) | 一种基于vr技术的认知训练方法及*** | |
JP7156300B2 (ja) | 情報処理装置、情報処理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |