CN106843463B - 一种用于机器人的交互输出方法 - Google Patents
一种用于机器人的交互输出方法 Download PDFInfo
- Publication number
- CN106843463B CN106843463B CN201611168881.3A CN201611168881A CN106843463B CN 106843463 B CN106843463 B CN 106843463B CN 201611168881 A CN201611168881 A CN 201611168881A CN 106843463 B CN106843463 B CN 106843463B
- Authority
- CN
- China
- Prior art keywords
- emotion
- interactive
- robot
- scene
- attribute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种用于机器人的交互输出方法以及机器人。方法包括:获取多模态输入信息并解析,确认当前交互场景的场景描述、当前交互参与者的参与者属性以及目标物;获取所述目标物在所述场景描述以及所述参与者属性限定下所对应的情绪信息;结合所述情绪信息生成多模态输出数据并输出。根据本发明的方法,在机器人面对目标物时,可以在机器人的交互输出中体现模拟人类的情绪信息,从而大大提高机器人的拟人化水平,增强机器人的用户体验。
Description
技术领域
本发明涉及机器人领域,具体涉及一种用于机器人的交互输出方法。
背景技术
随着机器人技术的不断发展,智能机器人的越来越多的被应用到人类日常的生产生活中。
为了提高机器人的用户体验,需要不断提高机器人的拟人化水平。在现有技术中,通常采用不断精细化模仿人类行为的方式来提高机器人的拟人化水平,例如复制人类说话的语气、模仿人类的一些***不高,大大影响了机器人的用户体验。
发明内容
本发明提供了一种用于机器人的交互输出方法,所述方法包括:
获取多模态输入信息并解析,确认当前交互场景的场景描述、当前交互参与者的参与者属性以及目标物;
获取所述目标物在所述场景描述以及所述参与者属性限定下所对应的情绪信息;
结合所述情绪信息生成多模态输出数据并输出。
在一实施例中,所述交互场景的场景描述包含多个维度的场景信息元素,所述场景描述包含但不限于时间、地点、当前环境总人数。
在一实施例中,所述交互参与者为当前交互对象或机器人自身。
在一实施例中,获取所述目标物对应的情绪信息,其中:
从预存的目标物关联情绪体系中提取所述目标物对应的情绪信息。
在一实施例中,所述方法还包括:
获取当前交互场景的场景描述以及当前交互对象的交互对象属性;
确定所述当前交互对象的关注对象,获取所述关注对象的关注对象描述;
确定所述当前交互对象针对所述关注对象的情绪信息;
关联记录所述当前交互场景的场景描述、所述当前交互对象的交互对象属性、所述关注对象描述以及所述情绪信息获取关联记录数据;
积累所述关联记录数据,分析整理所述关联记录数据获取所述目标物关联情绪体系。
在一实施例中,所述目标物关联情绪体系可以表示为
F{An,Bn,Sn}={Cn,Dn}*Pn
其中:
F{An,Bn,Sn}为场景描述Sn、参与者属性An以及目标物Bn;
{Cn,Dn}表示对应F{An,Bn,Sn}的情绪信息,Cn为情绪类型,Dn为情绪值;
Pn为情绪信息{Cn,Dn}出现的概率值。
本发明还提出了一种智能机器人,所述机器人包括:
采集模块,其配置为获取多模态输入信息;
交互解析模块,其配置为解析所述多模态输入信息,确认当前交互场景的场景描述、当前交互参与者的参与者属性以及目标物;
情绪解析模块,其配置为获取所述目标物在所述场景描述以及所述参与者属性限定下所对应的情绪信息;
输出模块,其配置为结合所述情绪信息生成多模态输出数据并输出。
在一实施例中,所述情绪解析模块包含存储有目标物关联情绪体系的存储单元,其中:
所述情绪解析模块配置为从预存的目标物关联情绪体系中提取所述目标物对应的情绪信息。
在一实施例中,所述机器人还包括情绪体系构造模块,所述情绪体系构造模块包含:
场景采集单元,其配置为获取当前交互场景的场景描述;
交互对象采集单元,其配置为获取当前交互对象的交互对象属性;
关注对象采集单元,其配置为确定所述当前交互对象的关注对象,获取所述关注对象的关注对象描述;
情绪信息采集单元,其配置为确定所述当前交互对象针对所述关注对象的情绪信息;
关联记录单元,其配置为关联记录所述当前交互场景的场景描述、所述当前交互对象的交互对象属性、所述关注对象描述以及所述情绪信息获取关联记录数据;
记录保存单元,其配置为保存并积累所述关联记录数据;
数据整理单元,其配置为分析整理所述关联记录数据获取所述目标物关联情绪体系。
在一实施例中,保存在所述存储单元的所述目标物关联情绪体系可以表示为
F{An,Bn,Sn}={Cn,Dn}*Pn,
其中:
F{An,Bn,Sn}为场景描述Sn、参与者属性An以及目标物Bn;
{Cn,Dn}表示对应F{An,Bn,Sn}的情绪信息,Cn为情绪类型,Dn为情绪值;
Pn为情绪信息{Cn,Dn}出现的概率值。
根据本发明的方法,在机器人面对目标物时,可以在机器人的交互输出中体现模拟人类的情绪信息,从而大大提高机器人的拟人化水平,增强机器人的用户体验。
本发明的其它特征或优点将在随后的说明书中阐述。并且,本发明的部分特征或优点将通过说明书而变得显而易见,或者通过实施本发明而被了解。本发明的目的和部分优点可通过在说明书、权利要求书以及附图中所特别指出的步骤来实现或获得。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例共同用于解释本发明,并不构成对本发明的限制。在附图中:
图1是根据本发明一实施例的方法流程图;
图2、图3以及图4是根据本发明实施例的方法的部分流程图;
图5以及图6是根据本发明实施例的机器人***结构简图;
图7是根据本发明一实施例的机器人***部分结构简图。
具体实施方式
以下将结合附图及实施例来详细说明本发明的实施方式,借此本发明的实施人员可以充分理解本发明如何应用技术手段来解决技术问题,并达成技术效果的实现过程并依据上述实现过程具体实施本发明。需要说明的是,只要不构成冲突,本发明中的各个实施例以及各实施例中的各个特征可以相互结合,所形成的技术方案均在本发明的保护范围之内。
为了提高机器人的用户体验,需要不断提高机器人的拟人化水平。人类行为的一个重要特征是人类的各种日常行为往往是伴随着特定情绪的。在不同的环境中、面对不同的对象,人类会产生不同的情绪并基于该情绪采用不同的行为模式,情绪指向的***导致了人类行为的不确定性。但是,现有技术中,机器人对人类的模仿实际上无法模仿人类的情绪,这就导致机器人最终的行为输出十分干涩生硬,拟人化水平不高,大大影响了机器人的用户体验。
为了进一步提高机器人的拟人化水平,增强机器人的用户体验,本发明提出了一种用于机器人的交互输出方法。在本发明的方法中,机器人在进行交互输出时通过交互输出体现特定的情绪从而使得交互输出更加接近人类的交互输出。在此步骤中,关键点之一在于确保机器人所体现的情绪与正常人类在同样的交互环境下所体现出的情绪一致。因此,进一步的,在本发明一实施例中,通过模拟人类情绪的确定方式来确定在特定交互环境下机器人该体现的情绪。
接下来基于附图详细描述根据本发明实施例的方法的详细流程,附图的流程图中示出的步骤可以在包含诸如一组计算机可执行指令的计算机***中执行。虽然在流程图中示出了各步骤的逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
在通常的交互环境中,人类面对不同的目标物时会抱有不同的情绪(例如,一般的:面对玩具或者图画书,儿童会表现出喜欢的情绪;而面对全是字的书籍,儿童则会表现出不喜欢或无视的情绪),也就是说,目标物会直接影响到所要体现出的情绪。因此,在一实施例中,机器人首先需要确定当前所要面对的目标物是什么,而后再确定对应的情绪。
如图1所示,在一实施例中,机器人首先解析多模态输入数据(步骤S100),然后根据解析结果确定目标物(步骤S111)。
进一步的,在正常的交互场景中,不同的人类面对相同的目标物时会抱有不同的情绪(例如,一般的:面对洋娃娃,女孩会表现出喜欢的情绪,男孩会表现出不喜欢或是无视的情绪;而面对汽车模型,女孩则会表现出不喜欢或无视的情绪,男孩会表现出喜欢的情绪)。也就是说,人类自身的属性特征(性别、年龄、性格、喜好以及特殊个性等)也会直接影响所要体现出的情绪(或者说交互输出中所体现出的情绪是人类自身属性特征的映射)。因此,在一实施例中,机器人在确定所要体现出的情绪之前,还需要确认自身所要体现的是何种人类属性特征。
如图1所示,机器人还根据步骤S100的解析结果确定当前交互参与者的参与者属性(在交互输出中体现映射何种人类属性特征的情绪)(步骤S112)。
进一步的,由于普通人类交互输出中所体现出的情绪映射的是自身属性特征。为了模拟人类的情绪输出模式,在一实施例中,为机器人预设固定的属性特征。在步骤S112中,定义当前交互参与者为机器人自身,直接调用机器人所预设的属性特征。
进一步的,在某些交互场景中,交互双方中的一方(A)为了维持交互话题的延续性,提高另一方(B)的交互意愿,A会配合B的情绪来进行交互输出(例如,在家长与孩子进行交互的过程中,即使家长对儿童玩具并不感兴趣,但是也会配合孩子的喜好表现出对儿童玩具感兴趣的样子)。在这种情况下,A的交互输出所体现的情绪就不是A的属性特征的映射,而是匹配B的属性特征。
延伸到人机交互的场合,在一实施例中,为了提高交互对象的交互意愿,机器人配合交互对象的属性特征进行情绪输出。在步骤S112中,定义当前交互参与者为当前交互对象,获取当前交互对象的属性特征。
进一步的,在一实施例中,采用了上述两种参与者属性确认方式相结合的方式。如图2所示,机器人解析多模态输入数据(步骤S200),根据解析结果判断是否要配合当前的交互对象进行情绪输出(步骤S210)。如果是,则获取当前交互对象的属性特征(基于当前交互对象的属性特征确定要输出的情绪)(步骤S211)。如果不需要配合,则调用机器人预设的机器人属性特征(步骤S212)。
以一具体的应用环境为例,机器人与儿童进行交互,面对儿童玩具,为了增强儿童的交互意愿,机器人配合儿童表现出自身也对儿童玩具抱有喜欢的情绪。在另一具体的应用环境中,机器人与成人进行交互,机器人被设定为扮演儿童的角色,不需要配合成人的喜好,机器人表现出自身对儿童玩具抱有喜欢的情绪。
进一步的,由于机器人在本质上并不存在固定的属性特征(预设的属性特征只是一种预定义,与人类所固有的属性特征并不相同,不是不可更改的)。并且在大多数的人机交互过程中,机器人交互输出的侧重目标并不是体现自身的性格特征,而是尽可能的增强用户的交互意愿,提高用户体验。因此,在一实施例中,默认机器人始终配合当前交互对象的属性特征进行交互输出。
进一步的,当不存在特定的交互对象时,机器人才调用自身预设的机器人属性特征。
如图3所示,机器人解析多模态输入数据(步骤S300),根据解析结果判断当前是否存在交互对象(步骤S310)。如果是,则获取当前交互对象的属性特征(基于当前交互对象的属性特征确定要输出的情绪)(步骤S311)。如果不存在,则调用机器人预设的机器人属性特征(步骤S312)。
进一步的,在本发明一实施例中,图1所示的步骤S112中,参与者属性可以是一类人的属性(例如,7~10岁男孩),也可以是具体的某个用户的身份标识(例如用户A)。这样,在某些针对特定用户的交互场景中,机器人就可以根据用户的身份标识确定匹配该用户的情绪。例如机器人的交互对象限定为用户A以及用户B,用户A喜欢汽车讨厌洋娃娃、用户B喜欢洋娃娃讨厌汽车。那么机器人在人机交互过程中,当面对汽车时,如果交互对象识别为用户A,则机器人在交互输出中体现喜欢的情绪;当面对洋娃娃时,如果交互对象识别为用户B,则机器人在交互输出中体现喜欢的情绪。
进一步的,在正常的交互场景中,当前所处的交互场景的环境状态也会影响到人类的情绪。因此,在一实施例中,机器人在确定所要体现出的情绪之前,还需要确认自身所处的交互场景。如图1所示,机器人还根据步骤S100的解析结果确定当前交互场景的场景描述(步骤S113)。
进一步的,实际的交互场景是一个众多场景元素的综合体。其中每个场景元素的变化都有可能影响到交互场景内进行交互的人类的具体情绪表现。为了尽可能的模拟人类情绪输出(使得机器人的情绪输出与相同场景下的人类情绪输出一致),就需要尽可能细致的采集当前交互场景的信息。因此,在一实施例中,步骤S113中,交互场景的场景描述包含多个维度的场景信息元素,场景描述包含但不限于时间、地点、当前环境总人数。
当目标物(步骤S111)、参与者属性(步骤S112)以及场景描述(步骤S113)被确认后,机器人就根据目标物、参与者属性以及场景描述获取目标物在场景描述以及参与者属性限定下所对应的情绪信息(确认具有参与者属性的人类在场景描述限定下的交互场景中面对目标物所抱有的情绪)(步骤S120)。并最后结合情绪信息生成多模态输出数据并输出(步骤S130)。由于步骤S130最终输出的多模态数据中可以体现拟人化的情绪,使得机器人的交互输出更加贴合人类的交互输出,这就大大提高了机器人的拟人化水平,增强了机器人的用户体验。
这里需要指出的是,在图1所示的步骤中,步骤S111、S112以及S113的执行先后顺序并不需要特别限制。在具体的实施例中,可以以任意执行顺序或者同时执行上述步骤。
在图1所示步骤中,保证机器人拟人化水平的关键点之一在于步骤S120中获取到的情绪要和普通人类在同样交互状况下所抱有的情绪一致。为了实现这一点,在本发明一实施例中,参照正常交互状态下,不同属性特征的人类在不同交互场景下面对不同目标物所抱有的不同情绪来构造目标物关联情绪体系。在步骤120中,基于目标物、参与者属性以及场景描述从预存的目标物关联情绪体系中提取目标物对应的情绪信息。
具体的,在一实施例中,目标物关联情绪体系可以表示为
F{An,Bn,Sn}={Cn,Dn}*Pn
其中:
F{An,Bn,Sn}为场景描述Sn、参与者属性An以及目标物Bn;
{Cn,Dn}表示对应F{An,Bn,Sn}的情绪信息,Cn为情绪类型,Dn为情绪值;
Pn为情绪信息{Cn,Dn}出现的概率值。
在图1所示的步骤S111、S112以及S113中,确定了目标物Bn、参与者属性An以及场景描述Sn(也就确定了F{An,Bn,Sn})。这样在步骤S120中就可以直接确定对应F{An,Bn,Sn}的{Cn,Dn}*Pn,从而确定对应的情绪信息。
进一步的,由于人类的情绪体系是一个复杂多变的***,其不能以简单的描述进行概括。因此,在一实施例中,采用数据积累、数据训练的方式构造目标物关联情绪体系。具体的,获取不同的人类情绪信息并同时采集人类输出该情绪信息时对应的交互场景描述、人类属性特征以及目标物属性特征。积累此类记录数据,并对足够数据量规模的记录数据进行分析归纳整理,从而最终获取目标物关联情绪体系。
进一步的,在本发明一实施例中,利用机器人,在人机交互过程中实现数据的采集。具体的,如图4所示,在人机交互过程中,获取当前交互场景的场景描述(Sn)(步骤S404)以及当前交互对象的交互对象属性(An)(步骤S403);确定当前交互对象的关注对象(步骤S401),获取关注对象的关注对象描述(Bn)(步骤S400);获取当前交互对象针对关注对象的情绪信息(Cn以及Dn)(步骤S405);关联记录当前交互场景的场景描述、当前交互对象的交互对象属性、关注对象描述以及情绪信息,获取关联记录数据(步骤S410)。
针对不同的交互对象、交互场景和/或关注对象多次进行关联记录,积累关联记录数据(步骤420)。分析整理关联记录数据(步骤430),从而获取目标物关联情绪体系(步骤S440)。这样,最终获取到的目标物关联情绪体系就会准确体现实际交互过程中真实人类的情绪输出情况,使得机器人可以获取到与真实人类情绪一致的情绪信息,保证机器人交互输出体现出的情绪信息符合真实人类的情况。
综上,根据本发明的方法,在机器人面对目标物时,可以在机器人的交互输出中体现模拟人类的情绪信息,从而大大提高机器人的拟人化水平,增强机器人的用户体验。
基于本发明的方法,本发明还提出了一种智能机器人。如图5所示,在一实施例中,机器人包括:
采集模块510,其配置为获取多模态输入信息;
交互解析模块520,其配置为解析多模态输入信息,确认当前交互场景的场景描述、当前交互参与者的参与者属性以及目标物;
情绪解析模块530,其配置为获取目标物在场景描述以及参与者属性限定下所对应的情绪信息;
输出模块540,其配置为结合情绪信息生成多模态输出数据并输出。
进一步的,在一实施例中,情绪解析模块基于预存的目标物关联情绪体系获取情绪信息。具体的,如图6所示,在一实施例中,情绪解析模块630包含存储有目标物关联情绪体系的存储单元631。采集模块610获取多模态输入信息;交互解析模块620解析多模态输入信息,确认当前交互场景的场景描述、当前交互参与者的参与者属性以及目标物;情绪解析模块630从存储单元631中预存的目标物关联情绪体系中提取获取目标物在场景描述以及参与者属性限定下所对应的情绪信息;输出模块640结合情绪信息生成多模态输出数据并输出。
进一步的,在一实施例中,保存在存储单元631的目标物关联情绪体系可以表示为
F{An,Bn,Sn}={Cn,Dn}*Pn
其中:
F{An,Bn,Sn}为场景描述Sn、参与者属性An以及目标物Bn;
{Cn,Dn}表示对应F{An,Bn,Sn}的情绪信息,Cn为情绪类型,Dn为情绪值;
Pn为情绪信息{Cn,Dn}出现的概率值。
情绪解析模块630从交互解析模块620处获取当前交互场景的场景描述Sn、当前交互参与者的参与者属性An以及目标物Bn,从而确定F{An,Bn,Sn}。根据F{An,Bn,Sn}提取对应的{Cn,Dn}*Pn,进而确定对应的情绪信息(Cn以及Dn)。
进一步的,在本发明一实施例中,机器人还包括用于获取目标物关联情绪体系的情绪体系构造模块,该情绪体系构造模块通过在人机交互过程中进行数据收集来获取目标物关联情绪体系。具体的,如图7所示,在一实施例中,情绪体系构造模块包含:
场景采集单元711,其配置为获取当前交互场景的场景描述;
交互对象采集单元712,其配置为获取当前交互对象的交互对象属性;
关注对象采集单元713,其配置为确定当前交互对象的关注对象,获取关注对象的关注对象描述;
情绪信息采集单元714,其配置为确定当前交互对象针对关注对象的情绪信息;
关联记录单元720,其配置为关联记录当前交互场景的场景描述、当前交互对象的交互对象属性、关注对象描述以及情绪信息获取关联记录数据;
记录保存单元730,其配置为保存并积累关联记录数据;
数据整理单元740,其配置为分析整理关联记录数据获取目标物关联情绪体系。
数据整理单元740获取到目标物关联情绪体系后就将目标物关联情绪体系保存到情绪解析模块的存储单元中。进一步的,当关联记录单元720记录到新的关联信息后(记录保存单元730中的关联记录数据增加后),数据整理单元740分析整理新增加的关联信息并判断是否需要对目标物关联情绪体系进行更新,如果需要更新,则生成新的目标物关联情绪体系替换情绪解析模块的存储单元中的目标物关联情绪体系。
或者,当关联记录单元720记录到新的关联信息后(记录保存单元730中的关联记录数据增加后),数据整理单元740分析整理新增加的关联信息并判断是否需要扩充目标物关联情绪体系中的条目或是修改目标物关联情绪体系中的条目,如果需要,则生成新的条目填充到情绪解析模块的存储单元中的目标物关联情绪体系或者替换情绪解析模块的存储单元中的目标物关联情绪体系中的已有条目。
虽然本发明所公开的实施方式如上,但所述的内容只是为了便于理解本发明而采用的实施方式,并非用以限定本发明。本发明所述的方法还可有其他多种实施例。在不背离本发明实质的情况下,熟悉本领域的技术人员当可根据本发明做出各种相应的改变或变形,但这些相应的改变或变形都应属于本发明的权利要求的保护范围。
Claims (6)
1.一种用于机器人的交互输出方法,其特征在于,所述方法包括:
获取多模态输入信息并解析,确认当前交互场景的场景描述、当前交互参与者的参与者属性以及目标物;其中,根据解析结果判断当前是否存在交互对象,如果存在,则获取当前交互对象的属性特征作为交互参与者的属性特征,如果不存在,则调用机器人预设的机器人属性特征作为交互参与者的属性特征;参与者的属性为某类用户的属性或者某个用户的身份标识;
获取所述目标物在所述场景描述以及所述参与者属性限定下所对应的情绪信息;
结合所述情绪信息生成多模态输出数据并输出;
其中,所述获取所述目标物对应的情绪信息的过程,包括:
获取当前交互场景的场景描述以及当前交互对象的交互对象属性;
确定所述当前交互对象的关注对象,获取所述关注对象的关注对象描述;
确定所述当前交互对象针对所述关注对象的情绪信息;
关联记录所述当前交互场景的场景描述、所述当前交互对象的交互对象属性、所述关注对象描述以及所述情绪信息获取关联记录数据;
积累所述关联记录数据,分析整理所述关联记录数据获取所述目标物关联情绪体系;
从预存的目标物关联情绪体系中提取所述目标物对应的情绪信息。
2.根据权利要求1所述的方法,其特征在于,所述交互场景的场景描述包含多个维度的场景信息元素,所述场景描述包含但不限于时间、地点、当前环境总人数。
3.根据权利要求1所述的方法,其特征在于,所述交互参与者为当前交互对象或机器人自身。
4.根据权利要求1所述的方法,其特征在于,所述目标物关联情绪体系可以表示为
F{An,Bn,Sn}={Cn,Dn}*Pn
其中:
F{An,Bn,Sn}为场景描述Sn、参与者属性An以及目标物Bn;
{Cn,Dn}表示对应F{An,Bn,Sn}的情绪信息,Cn为情绪类型,Dn为情绪值;
Pn为情绪信息{Cn,Dn}出现的概率值。
5.一种智能机器人,其特征在于,所述机器人包括:
采集模块,其配置为获取多模态输入信息;
交互解析模块,其配置为解析所述多模态输入信息,确认当前交互场景的场景描述、当前交互参与者的参与者属性以及目标物;
所述交互解析模块进一步配置为:根据解析结果判断当前是否存在交互对象,如果存在,则获取当前交互对象的属性特征作为交互参与者的属性特征,如果不存在,则调用机器人预设的机器人属性特征作为交互参与者的属性特征;其中,参与者的属性为某类用户的属性或者某个用户的身份标识;
情绪解析模块,其配置为获取所述目标物在所述场景描述以及所述参与者属性限定下所对应的情绪信息;
所述情绪解析模块包含存储有目标物关联情绪体系的存储单元,所述情绪解析模块还配置为从预存的目标物关联情绪体系中提取所述目标物对应的情绪信息;
输出模块,其配置为结合所述情绪信息生成多模态输出数据并输出;
情绪体系构造模块,所述情绪体系构造模块包含:
场景采集单元,其配置为获取当前交互场景的场景描述;
交互对象采集单元,其配置为获取当前交互对象的交互对象属性;
关注对象采集单元,其配置为确定所述当前交互对象的关注对象,获取所述关注对象的关注对象描述;
情绪信息采集单元,其配置为确定所述当前交互对象针对所述关注对象的情绪信息;
关联记录单元,其配置为关联记录所述当前交互场景的场景描述、所述当前交互对象的交互对象属性、所述关注对象描述以及所述情绪信息获取关联记录数据;
记录保存单元,其配置为保存并积累所述关联记录数据;
数据整理单元,其配置为分析整理所述关联记录数据获取所述目标物关联情绪体系。
6.根据权利要求5所述的机器人,其特征在于,保存在所述存储单元的所述目标物关联情绪体系可以表示为
F{An,Bn,Sn}={Cn,Dn}*Pn
其中:
F{An,Bn,Sn}为场景描述Sn、参与者属性An以及目标物Bn;
{Cn,Dn}表示对应F{An,Bn,Sn}的情绪信息,Cn为情绪类型,Dn为情绪值;
Pn为情绪信息{Cn,Dn}出现的概率值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611168881.3A CN106843463B (zh) | 2016-12-16 | 2016-12-16 | 一种用于机器人的交互输出方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611168881.3A CN106843463B (zh) | 2016-12-16 | 2016-12-16 | 一种用于机器人的交互输出方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106843463A CN106843463A (zh) | 2017-06-13 |
CN106843463B true CN106843463B (zh) | 2020-07-28 |
Family
ID=59139726
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611168881.3A Active CN106843463B (zh) | 2016-12-16 | 2016-12-16 | 一种用于机器人的交互输出方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106843463B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107894831A (zh) * | 2017-10-17 | 2018-04-10 | 北京光年无限科技有限公司 | 一种用于智能机器人的交互输出方法以及*** |
CN108363492B (zh) * | 2018-03-09 | 2021-06-25 | 南京阿凡达机器人科技有限公司 | 一种人机交互方法及交互机器人 |
CN109129467B (zh) * | 2018-07-27 | 2022-03-25 | 南京阿凡达机器人科技有限公司 | 一种基于认知的机器人交互方法及*** |
CN110085225B (zh) * | 2019-04-24 | 2024-01-02 | 北京百度网讯科技有限公司 | 语音交互方法、装置、智能机器人及计算机可读存储介质 |
CN113075996B (zh) * | 2020-01-06 | 2024-05-17 | 京东方艺云(杭州)科技有限公司 | 一种用户情绪改善方法和*** |
CN117215403A (zh) * | 2023-07-26 | 2023-12-12 | 北京小米机器人技术有限公司 | 智能设备控制方法、装置、智能设备与存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105345818A (zh) * | 2015-11-04 | 2016-02-24 | 深圳好未来智能科技有限公司 | 带有情绪及表情模块的3d视频互动机器人 |
CN105701211A (zh) * | 2016-01-13 | 2016-06-22 | 北京光年无限科技有限公司 | 面向问答***的主动交互数据处理方法及*** |
CN106022466A (zh) * | 2016-05-23 | 2016-10-12 | 深圳互道科技有限公司 | 个性化机器人及其实现机器人个性化的方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100825719B1 (ko) * | 2005-12-09 | 2008-04-29 | 한국전자통신연구원 | 복수의 감정 생성 로봇 및 로봇에서 복수의 감정 생성 방법 |
-
2016
- 2016-12-16 CN CN201611168881.3A patent/CN106843463B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105345818A (zh) * | 2015-11-04 | 2016-02-24 | 深圳好未来智能科技有限公司 | 带有情绪及表情模块的3d视频互动机器人 |
CN105701211A (zh) * | 2016-01-13 | 2016-06-22 | 北京光年无限科技有限公司 | 面向问答***的主动交互数据处理方法及*** |
CN106022466A (zh) * | 2016-05-23 | 2016-10-12 | 深圳互道科技有限公司 | 个性化机器人及其实现机器人个性化的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106843463A (zh) | 2017-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106843463B (zh) | 一种用于机器人的交互输出方法 | |
US11618170B2 (en) | Control of social robot based on prior character portrayal | |
CN106548773B (zh) | 基于人工智能的儿童用户搜索方法及装置 | |
CN108942919B (zh) | 一种基于虚拟人的交互方法及*** | |
CN110830852B (zh) | 一种视频内容的处理方法及装置 | |
CN108200483B (zh) | 动态多模态视频描述生成方法 | |
KR20210110620A (ko) | 상호작용 방법, 장치, 전자 장치 및 저장 매체 | |
CN109086860B (zh) | 一种基于虚拟人的交互方法及*** | |
CN108804698A (zh) | 基于人物ip的人机交互方法、***、介质及设备 | |
US9796095B1 (en) | System and method for controlling intelligent animated characters | |
US9805493B2 (en) | Social identity models for automated entity interactions | |
JP2018014094A (ja) | 仮想ロボットのインタラクション方法、システム及びロボット | |
JP2018525691A (ja) | 知識マップに基づくヒューマンコンピュータインタラクション方法及びシステム | |
US11734520B2 (en) | Dialog apparatus, method and program for the same | |
US20180204107A1 (en) | Cognitive-emotional conversational interaction system | |
CN111414506B (zh) | 基于人工智能情绪处理方法、装置、电子设备及存储介质 | |
Tao et al. | Affective information processing | |
CN108470188A (zh) | 基于图像分析的交互方法及电子设备 | |
CN116543082B (zh) | 数字人的生成方法、装置和数字人的生成*** | |
Khodabakhsh et al. | A taxonomy of audiovisual fake multimedia content creation technology | |
KR20200059112A (ko) | 로봇 상호작용 시스템 및 그를 위한 프로그램 | |
CN113238654A (zh) | 基于多模态的反应式响应生成 | |
Calvo et al. | Introduction to affective computing | |
Wan et al. | Midoriko chatbot: LSTM-based emotional 3D avatar | |
KR20180012192A (ko) | 유아동용 학습 장치 및 그 동작 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |