CN108115678B - 机器人及其动作控制方法和装置 - Google Patents

机器人及其动作控制方法和装置 Download PDF

Info

Publication number
CN108115678B
CN108115678B CN201611069128.9A CN201611069128A CN108115678B CN 108115678 B CN108115678 B CN 108115678B CN 201611069128 A CN201611069128 A CN 201611069128A CN 108115678 B CN108115678 B CN 108115678B
Authority
CN
China
Prior art keywords
robot
emotion
action
control instruction
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611069128.9A
Other languages
English (en)
Other versions
CN108115678A (zh
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Kuang Chi Hezhong Technology Ltd
Original Assignee
Shenzhen Kuang Chi Hezhong Technology Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Kuang Chi Hezhong Technology Ltd filed Critical Shenzhen Kuang Chi Hezhong Technology Ltd
Priority to CN201611069128.9A priority Critical patent/CN108115678B/zh
Priority to PCT/CN2017/092038 priority patent/WO2018095041A1/zh
Publication of CN108115678A publication Critical patent/CN108115678A/zh
Application granted granted Critical
Publication of CN108115678B publication Critical patent/CN108115678B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种机器人及其动作控制方法和装置。该方法包括:接收控制指令,其中,控制指令用于指示机器人执行预定动作;将控制指令输入预设模型,得到输出结果,其中,输出结果包括与机器人执行的预定动作相对应的行为情感模式,预设模型至少基于用户反馈的情感评价参数训练得到;根据输出结果控制机器人按照行为情感模式执行预定动作。通过本发明,解决了机器人行为表现单一无法满足用户需求的问题。

Description

机器人及其动作控制方法和装置
技术领域
本发明涉及机器人领域,具体而言,涉及一种机器人及其动作控制方法和装置。
背景技术
机器人发展至今,功能越来越完善,对机器人的要求也越来越高,现有的强化学***衡、控制机器人行走的方法,但是在决策模式上尚未深度发展,另外强化学习(Reinforcement Learning,简称为RL)技术本身也正在发展,远达不到成熟的程度。原理上,强化学习灵感来自行为心理学,最早体现在巴甫洛夫的狗,斯金纳箱等实验,生物学上也有神经可塑性等理论支持。但是强化学习方法并未触及情感的训练模型,机器人上也并未有类似的实现方式,停留在计算机视觉、自然语言处理等程度,机器人无法根据用户的喜好有不同的行为表现。
针对相关技术中机器人行为表现单一无法满足用户需求的问题,目前尚未提出有效的解决方案。
发明内容
本发明的主要目的在于提供一种机器人及其动作控制方法和装置,以解决行为表现单一无法满足用户需求的问题。
为了实现上述目的,根据本发明的一个方面,提供了一种机器人动作控制方法,该方法包括:接收控制指令,其中,控制指令用于指示机器人执行预定动作;将控制指令输入预设模型,得到输出结果,其中,输出结果包括与机器人执行的预定动作相对应的行为情感模式,预设模型至少基于用户反馈的情感评价参数训练得到;根据输出结果控制机器人按照行为情感执行预定动作。
进一步地,所述行为情感模式用于确定所述机器人对所述预定动作的行为情感状态,在所述机器人执行所述预定动作时,所述机器人的状态为所述行为情感状态。
进一步地,在将所述控制指令输入预设模型,得到输出结果之前,该方法还包括:接收事物集中的多个事物对应的行为情感指数,其中,行为情感指数用于表示机器人对事物集中的多个事物的喜好程度;根据事物集中的多个事物对应的行为情感指数建立预设模型。
进一步地,事物集中的多个事物为机器人执行的预定动作对应的事物。
进一步地,事物集中事物的数量为n个,n为大于1的整数;预设模型的计算公式为
Figure BDA0001164466160000021
其中,wx为预设的基础参数,wi为事物集中的第i项事物的影响参数,xi为事物集中的第i项事物当前被设置的开关状态参数,bi为事物集中的第i项事物的评价结果数值。
进一步地,输出结果还包括预定动作的期望值,在根据输出结果控制机器人按照行为情感模式执行预定动作之后,该方法还包括:接收对机器人执行预定动作的反馈结果;根据反馈结果和期望值更新预设模型。
进一步地,控制指令包括以下至少之一:图像控制指令;语音控制指令;生物信号控制指令。
为了实现上述目的,根据本发明的另一方面,还提供了一种机器人动作控制装置,该装置包括:第一接收单元,用于接收控制指令,其中,控制指令用于指示机器人执行预定动作;输入单元,用于将控制指令输入预设模型,得到输出结果,其中,输出结果包括与机器人执行的预定动作相对应的行为情感模式,预设模型至少基于用户反馈的情感评价参数训练得到;控制单元,用于根据输出结果控制机器人按照行为情感模式执行预定动作。
进一步地,行为情感模式用于确定机器人对预定动作的行为情感状态,在机器人执行预定动作时,机器人的状态为行为情感状态。
进一步地,该装置还包括:第二接收单元,用于在将控制指令输入预设模型,得到输出结果之前,接收事物集中的多个事物对应的行为情感指数,其中,行为情感指数用于表示机器人对事物集中的多个事物的喜好程度;建立单元,用于根据事物集中的多个事物对应的行为情感指数建立预设模型。
进一步地,事物集中的多个事物为机器人执行的预定动作对应的事物。
进一步地,事物集中事物的数量为n个,n为大于1的整数;预设模型的计算公式为
Figure BDA0001164466160000022
其中,wx为预设的基础参数,wi为事物集中的第i项事物的影响参数,xi为事物集中的第i项事物当前被设置的开关状态参数,bi为事物集中的第i项事物的评价结果数值。
进一步地,输出结果还包括预定动作的期望值,该装置还包括:第三接收单元,用于在根据输出结果控制机器人按照行为情感模式执行预定动作之后,接收对机器人执行预定动作的反馈结果;更新单元,用于根据反馈结果和期望值更新预设模型。
进一步地,控制指令包括以下至少之一:图像控制指令;语音控制指令;生物信号控制指令。
为了实现上述目的,根据本发明的另一方面,还提供了一种机器人,该机器人包括:本发明实施例的机器人动作控制装置。
本发明通过接收控制指令,其中,控制指令用于指示机器人执行预定动作;将控制指令输入预设模型,得到输出结果,其中,输出结果包括与机器人执行的预定动作相对于的行为情感模式,预设模型至少基于用户反馈的情感评价参数训练得到;根据输出结果控制机器人按照行为情感模式执行预定动作,解决了机器人行为表现单一无法满足用户需求的问题,进而达到了根据用户需要表现出不同的行为的效果。
附图说明
构成本申请的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明第一实施例的机器人动作控制方法的流程图;
图2是根据本发明第二实施例的机器人动作控制方法的流程图;以及
图3是根据本发明实施例的机器人动作控制装置的示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本发明。
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本发明实施例提供了一种机器人动作控制方法。
图1是根据本发明第一实施例的机器人动作控制方法的流程图,如图1所示,该方法包括以下步骤:
步骤S102:接收控制指令,其中,控制指令用于指示机器人执行预定动作;
步骤S104:将控制指令输入预设模型,得到输出结果,其中,输出结果包括与机器人执行的预定动作相对应的行为情感模式,预设模型至少基于用户反馈的情感评价参数训练得到。
步骤S106:根据输出结果控制机器人按照行为情感模式执行预定动作。
该实施例采用接收控制指令,然后将控制指令输入预设模型,得到输出结果,根据输出结果控制机器人按照行为情感模式执行预定动作,由于预设模型是基于用户反馈的情感评价参数训练得到的,能够确定机器人执行预定动作时的行为情感模式,因此,根据模型输出结果控制机器人按照行为情感模式执行预定动作能够解决机器人行为表现单一无法满足用户需求的问题,进而达到了根据用户需要表现出不同的行为的效果。
本发明实施例的机器人可以是智能服务型机器人,陪伴型机器人等,可选地,控制指令包括图像控制指令、语音控制指令、生物信号控制指令中的至少一个,控制指令也可以是其他类型的指令,接收控制指令可以是机器人通过摄像头检测到主人发出的动作,接收到的图像控制指令,或者是接收到语音控制指令,例如,接收到主人向机器人发出的“跳舞”语音控制指令,机器人还可以接收可穿戴的生物信号控制指令,例如,主人穿戴的一些生物信号检测的设备检测到主人身体状态出现异常发出控制指令,机器人接收到生物信号控制指令。控制指令控制机器人执行预定动作,预定动作可以是机器人跳舞、扫地、转圈等动作,在接收到控制指令之后,将控制指令输入预设模型,进行模型计算,得到输出结果,根据得到的输出结果控制机器人按照行为情感执行预定动作。通过本发明实施例的技术方案,机器人能够具有多种情感模式与用户交互。
可选地,在将控制指令输入预设模型,得到输出结果之前,接收事物集中的多个事物对应的行为情感指数,其中,行为情感指数用于表示机器人对事物集中的多个事物的喜好程度;根据事物集中的多个事物对应的行为情感指数建立预设模型。
预设模型的建立需要事物集中的事物对应的指数,其中,事物集中的多个事物可以是能够反映机器人的行为情感的事物,例如,唱歌跳舞、扫地等事物,事物集中的事物对应的指数可以是用户对该事物的喜好程度,例如,在用户比较在意某个事物时指数比较高,用户不太在意某个事物时,指数比较低。在接收到事物集中的多个事物对应的指数之后,根据对应的行为情感指数建立预设模型。行为情感模式用于确定机器人对预定动作的行为情感状态,在机器人执行预定动作时,机器人的状态为该行为情感状态,行为情感状态可以与行为情感模式相对应,在一种行为情感模式下,可以具有一种行为情感状态。
可选地,输出结果包括预定动作的期望值,在根据输出结果控制机器人按照行为情感执行预定动作之后,接收对机器人的动作的反馈结果;根据反馈结果和期望值更新预设模型。
将控制指令输入预设模型得到的输出结果包括预定动作的期望值,预定动作的期望值可以用于表示机器人执行预定动作时的行为情感的期望值,例如,机器人在执行预定动作时是否是开心的执行,在机器人按照行为情感执行预定动作之后,接收对机器人的动作的反馈结果,反馈结果是由用户发出的,例如,主人对机器人的行为进行打分,接收对机器人的动作的反馈结果,然后根据反馈结果和预定动作的期望值更新预设模型,例如,可以根据反馈结果和预定动作的期望值的差值更新预设模型。
可选地,事物集中事物的数量为n个,其中,n为大于1的整数,预设模型的计算公式为
Figure BDA0001164466160000051
其中,wx为预设的基础参数,wi为事物集中的第i项事物的影响参数,xi为事物集中的第i项事物当前被设置的开关状态参数,bi为事物集中的第i项事物的评价结果数值。
预设模型的计算公式为
Figure BDA0001164466160000052
其中,wx为预设的基础参数,可以是一个定值,由用户设置或者出厂前设置,wi为事物集中的第i项事物的影响参数,第i项事物的影响参数可以是第i项事物对主人的重要程度,xi为事物集中的第i项事物当前被设置的开关状态参数,xi具有两个数值,在取第一数值时,例如,xi=1,表示第i项事物对于主人的影响状态为开启,在取第二数值时,例如,xi=0,表示第i项事物对于主人的影响状态为关闭。在第i项事物对于主人的影响状态为关闭时,机器人对该事物的行为情感不会对主人产生影响。bi为事物集中的第i项事物的评价结果数值,可以是主人对于机器人执行该事物时的行为情感的打分。
在一个可选的应用场景中,机器人在接收到主人的语音指令“扫地”之后,根据预设的模型得到扫地时的行为情感,然后执行扫地动作,如果预设模型输出的行为情感模式为开心模式,则机器人表现出开心的扫地,例如,动作轻快,同时播放音乐等,主人对机器人的行为情感很满意,打分较高,则机器人根据主人打分可以判断出,主人喜欢在扫地时表现出的开心的行为情感状态,因此,在下一次机器人扫地时,依旧表现出开心的行为情感,如果主人厌倦了机器人在扫地时表现出的开心的行为情感,则给机器人打低分,机器人根据打分判断出主人不喜欢扫地时表现出的开心的行为情感状态,则在下一次扫地时,表现出不开心的行为情感状态。
图2是根据本发明第二实施例的机器人动作控制方法的流程图,该实施例可以作为上述第一实施例的优选实施方式,如图2所示,该机器人动作控制方法包括以下步骤:
步骤S201:接收控制指令。
控制指令可以是视觉输入信号(Vision input),语言输入(Language input)和可穿戴生物信号输入(Wearable biosignal input)中的一个或多个。
步骤S202:在线强化训练。
在线强化训练(Soul Model Reinforcement Learning Core)可以是将控制指令输入预设的模型进行计算,得到输出结果,根据输出结果确定机器人的行为输出。并且,预设模型能够根据奖惩机制的反馈进行更新,以实现在线强化训练。
步骤S203:行为输出。
在根据预设模型得到输出结果之后,根据输出结果控制机器人的行为输出(Behavior output)。
步骤S204:用户评价反馈。
在接收到用户评价反馈(Human evaluation feedback),例如,用户对机器人的行为打分。
步骤S205:反馈,奖惩机制。
通过引入奖惩机制反馈(Feedback Reward/punishment block),对预设模型进行修正,实现在线强化训练。
步骤S206:期望值。
根据预设模型得到期望值(Expectation),将期望值和用户反馈评价作为反馈奖惩机制的依据,可以是将用户反馈评价和期望值的差值作为反馈参数。
本发明实施例的技术方案在原理上采用了行为心理学的原理,最早应用在巴甫洛夫的狗,斯金纳箱等实验中,生物学上也有神经可塑性等理论支持。但是现有技术的强化学习并未触及情感的训练模型,机器人上也并未有类似的实现方式,停留在计算机视觉、自然语言处理等程度,本发明实施例首次提出情感模型的构建以及实现。
本发明是关于如何让机器生命更好的与人类进行情感交流,使用在线的强化学习加入心理学概念正负强化和正负惩罚进行长时间的训练,目的在于用户与机器人的交互过程中能感受到接近人类的情感反馈。
行为心理学的强化惩罚理论涵盖正负强化和正负惩罚。以下是简单介绍:
1.正强化:给予一种好刺激。为了建立一种适应性的行为模式,运用奖励的方式,使这种行为模式重复出现,并保持下来。例如企业对积极提出合理化建议的职工颁发奖金。
2.负强化:去掉一个坏刺激。为引发所希望的行为的出现而设立。例如企业不允许在工作时间打个人电话,一位员工有这种习惯,这种行为一出现就受到指责,但一旦他停止这种行为了,就应立即停止对他的指责。
3.正惩罚:施加一个坏刺激。这是当不适当的行为出现时,给予处罚的一种方法。
4.负惩罚:去掉一个好刺激。这种惩罚比之正惩罚更为常用。当不适当的行为出现时,不再给予原有的奖励。
基于强化学习的基本思想,反馈回路是奖励驱动(reward-driven,简称为RL)的,期望可以表示为wx+b,b表示为奖励参数,由评价函数判断赋值。但是心理学认为人类的行为情感来源于两方面,分别是好刺激与坏刺激,人的行为可以理解为复数的好刺激和复数的坏刺激的乘加效果,但是现有的RL并未加入这类分类机制,本发明实施例的技术方案加入此机制,并应用于人机交互机器人。因此RL的期望模型为wx+(w1x1+b1)+(w2x2+b2)+……。在原有的强化学习的基础上扩展了维度。关于新增加的维度,一部分是来源于预设。根据公式,w1x1+b1表示为该事物下的期望贡献模型,w1为定值,预设于设计师,在概念上等同于人类对某种事物的喜好程度,而b1代表为该事物的奖惩参数。假如拖地是一类事物,对于小孩子来说很可能就是厌恶事物,则w1为负数,x1为0或者1代表该事物的开关状态,b1代表当前事物的奖惩程度。事物集可以增加,但需要预设该事物的喜好程度。综合所有事物的期望贡献模型,则可以得到该个体当前时间点的奖惩程度,反馈于该个体的输入。模型的改变直接影响了该模型的训练方式,人机交互机器人虽说可以使用预先训练好的转移模型,但是人性化方面总是为人所诟病,因此本发明实施例的技术方案将该预先训练好的转移模型改成在线学习方式,让用户亲自训练该机器人,使该机器人的行为模式逐渐贴近用户,最终服务于用户。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机***中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本发明实施例提供了一种机器人动作控制装置,该装置可以用于执行本发明实施例的机器人动作控制方法。
图3是根据本发明实施例的机器人动作控制装置的示意图,如图3所示,该装置包括:
第一接收单元10,用于接收控制指令,其中,所述控制指令用于指示机器人执行预定动作;
输入单元20,用于将所述控制指令输入预设模型,得到输出结果,其中,输出结果包括与机器人执行的预定动作相对应的行为情感模式,所述预设模型至少基于用户反馈的情感评价参数训练得到;
控制单元30,用于根据所述输出结果控制所述机器人按照所述行为情感模式执行所述预定动作。
该实施例采用第一接收单元,用于接收控制指令,其中,控制指令用于指示机器人执行预定动作;输入单元,用于将控制指令输入预设模型,得到输出结果,其中,预设模型用于确定机器人执行预定动作时的行为情感模式,预设模型至少基于用户反馈的情感评价参数训练得到;控制单元,用于根据输出结果控制机器人按照行为情感模式执行预定动作,从而解决了机器人行为表现单一无法满足用户需求的问题,进而达到了根据用户需要表现出不同的行为的效果。
可选地,行为情感模式用于确定机器人对预定动作的行为情感状态,在机器人执行预定动作时,机器人的状态为行为情感状态。
可选地,该装置还包括:第二接收单元,用于在将所述控制指令输入预设模型,得到输出结果之前,接收事物集中的多个事物对应的行为情感指数,其中,所述行为情感指数用于表示所述机器人对所述事物集中的多个事物的喜好程度;建立单元,用于根据所述事物集中的多个事物对应的所述行为情感指数建立所述预设模型。
可选地,所述事物集中的多个事物为所述机器人执行的所述预定动作对应的事物。
可选地,事物集中事物的数量为n个,n为大于1的整数预设模型的计算公式为
Figure BDA0001164466160000081
其中,wx为预设的基础参数,wi为事物集中的第i项事物的影响参数,xi为事物集中的第i项事物当前被设置的开关状态参数,bi为事物集中的第i项事物的评价结果数值。
可选地,输出结果包括预定动作的期望值,该装置还包括:第三接收单元,用于在根据输出结果控制机器人按照行为情感模式执行预定动作之后,接收对机器人的动作的反馈结果;更新单元,用于根据反馈结果和期望值更新预设模型。
可选地,控制指令包括以下至少之一:图像控制指令;语音控制指令;生物信号控制指令。
本发明实施例还提供了一种机器人,该机器人包括本发明实施例的机器人动作控制装置。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (13)

1.一种机器人动作控制方法,其特征在于,包括:
接收控制指令,其中,所述控制指令用于指示机器人执行预定动作;
将所述控制指令输入预设模型,得到输出结果,其中,所述输出结果包括与所述机器人执行的所述预定动作相对应的行为情感模式,所述预设模型至少基于用户反馈的情感评价参数训练得到;
根据所述输出结果控制所述机器人按照所述行为情感模式执行所述预定动作;
在将所述控制指令输入预设模型,得到输出结果之前,所述方法还包括:
接收事物集中的多个事物对应的行为情感指数,其中,所述行为情感指数用于表示所述机器人对所述事物集中的多个事物的喜好程度;
根据所述事物集中的多个事物对应的所述行为情感指数建立所述预设模型,
其中,所述预设模型输出的行为情感模式包括开心模式和与不开心的行为情感状态对应的行为情感模式,所述预定动作包括扫地,如果所述预设模型输出的行为情感模式为开心模式,则所述机器人表现出开心的扫地,机器人根据主人打分判断出主人是否喜欢在扫地时表现出的开心的行为情感模式,如果是,则在下一次扫地时依旧表现出开心的行为情感模式,如果否,则在下一次扫地时表现出不开心的行为情感状态。
2.根据权利要求1所述的方法,其特征在于,所述行为情感模式用于确定所述机器人对所述预定动作的行为情感状态,在所述机器人执行所述预定动作时,所述机器人的状态为所述行为情感状态。
3.根据权利要求1所述的方法,其特征在于,所述事物集中的多个事物为所述机器人执行的所述预定动作对应的事物。
4.根据权利要求1所述的方法,其特征在于,所述事物集中事物的数量为n个,n为大于1的整数;所述预设模型的计算公式为
Figure FDA0002636707790000011
其中,wx为预设的基础参数,wi为所述事物集中的第i项事物的影响参数,xi为所述事物集中的第i项事物当前被设置的开关状态参数,bi为所述事物集中的第i项事物的评价结果数值。
5.根据权利要求1所述的方法,其特征在于,所述输出结果还包括所述预定动作的期望值,在根据所述输出结果控制所述机器人按照所述行为情感模式执行所述预定动作之后,所述方法还包括:
接收对所述机器人执行所述预定动作的反馈结果;
根据所述反馈结果和所述期望值更新所述预设模型。
6.根据权利要求1所述的方法,其特征在于,所述控制指令包括以下至少之一:
图像控制指令;
语音控制指令;
生物信号控制指令。
7.一种机器人动作控制装置,其特征在于,包括:
第一接收单元,用于接收控制指令,其中,所述控制指令用于指示机器人执行预定动作;
输入单元,用于将所述控制指令输入预设模型,得到输出结果,其中,所述输出结果包括与所述机器人执行的所述预定动作相对应的行为情感模式,所述预设模型至少基于用户反馈的情感评价参数训练得到;
控制单元,用于根据所述输出结果控制所述机器人按照所述行为情感模式执行所述预定动作,
第二接收单元,用于在将所述控制指令输入预设模型,得到输出结果之前,接收事物集中的多个事物对应的行为情感指数,其中,所述行为情感指数用于表示所述机器人对所述事物集中的多个事物的喜好程度;
建立单元,用于根据所述事物集中的多个事物对应的所述行为情感指数建立所述预设模型,
其中,所述预设模型输出的行为情感模式包括开心模式和与不开心的行为情感状态对应的行为情感模式,所述预定动作包括扫地,如果所述预设模型输出的行为情感模式为开心模式,则所述机器人表现出开心的扫地,机器人根据主人打分判断出主人是否喜欢在扫地时表现出的开心的行为情感模式,如果是,则在下一次扫地时依旧表现出开心的行为情感模式,如果否,则在下一次扫地时表现出不开心的行为情感状态。
8.根据权利要求7所述的装置,其特征在于,所述行为情感模式用于确定所述机器人对所述预定动作的行为情感状态,在所述机器人执行所述预定动作时,所述机器人的状态为所述行为情感状态。
9.根据权利要求7所述的装置,其特征在于,所述事物集中的多个事物为所述机器人执行的所述预定动作对应的事物。
10.根据权利要求7所述的装置,其特征在于,所述事物集中事物的数量为n个,n为大于1的整数;所述预设模型的计算公式为
Figure FDA0002636707790000031
其中,wx为预设的基础参数,wi为所述事物集中的第i项事物的影响参数,xi为所述事物集中的第i项事物当前被设置的开关状态参数,bi为所述事物集中的第i项事物的评价结果数值。
11.根据权利要求7所述的装置,其特征在于,所述输出结果还包括所述预定动作的期望值,所述装置还包括:
第三接收单元,用于在根据所述输出结果控制所述机器人按照所述行为情感模式执行所述预定动作之后,接收对所述机器人执行所述预定动作的反馈结果;
更新单元,用于根据所述反馈结果和所述期望值更新所述预设模型。
12.根据权利要求7所述的装置,其特征在于,所述控制指令包括以下至少之一:
图像控制指令;
语音控制指令;
生物信号控制指令。
13.一种机器人,其特征在于,包括权利要求7至12中任一项所述的机器人动作控制装置。
CN201611069128.9A 2016-11-28 2016-11-28 机器人及其动作控制方法和装置 Active CN108115678B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201611069128.9A CN108115678B (zh) 2016-11-28 2016-11-28 机器人及其动作控制方法和装置
PCT/CN2017/092038 WO2018095041A1 (zh) 2016-11-28 2017-07-06 机器人及其动作控制方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611069128.9A CN108115678B (zh) 2016-11-28 2016-11-28 机器人及其动作控制方法和装置

Publications (2)

Publication Number Publication Date
CN108115678A CN108115678A (zh) 2018-06-05
CN108115678B true CN108115678B (zh) 2020-10-23

Family

ID=62194768

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611069128.9A Active CN108115678B (zh) 2016-11-28 2016-11-28 机器人及其动作控制方法和装置

Country Status (2)

Country Link
CN (1) CN108115678B (zh)
WO (1) WO2018095041A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110576433B (zh) * 2018-06-08 2021-05-18 香港商女娲创造股份有限公司 机器人动作生成方法
WO2020019252A1 (zh) * 2018-07-26 2020-01-30 深圳前海达闼云端智能科技有限公司 训练人工智能模型的方法、装置、存储介质及机器人
JP2021094677A (ja) * 2019-12-19 2021-06-24 本田技研工業株式会社 ロボット制御装置、ロボット制御方法、プログラム及び学習モデル
CN114578720B (zh) * 2020-12-01 2023-11-07 合肥欣奕华智能机器股份有限公司 控制方法及控制***
CN112861804A (zh) * 2021-03-17 2021-05-28 上海庞勃特科技有限公司 一种人体动作评价方法、评价装置及评价***
CN116935497B (zh) * 2023-09-19 2024-01-05 广州中鸣数码科技有限公司 一种比赛控制方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1463215A (zh) * 2001-04-03 2003-12-24 索尼公司 有腿移动机器人及其动作教学方法和存储介质
JP2004098252A (ja) * 2002-09-11 2004-04-02 Ntt Docomo Inc コミュニケーション端末、***ロボットの制御方法及び***ロボットの制御装置
CN103456314A (zh) * 2013-09-03 2013-12-18 广州创维平面显示科技有限公司 一种情感识别方法以及装置
CN104350541A (zh) * 2012-04-04 2015-02-11 奥尔德巴伦机器人公司 能够将与用户的自然对话合并到其行为中的机器人,以及编程和使用所述机器人的方法
CN105930374A (zh) * 2016-04-12 2016-09-07 华南师范大学 基于最近反馈的情感机器人对话方法、***以及机器人
CN105945949A (zh) * 2016-06-01 2016-09-21 北京光年无限科技有限公司 面向智能机器人的信息处理方法及***
CN105988591A (zh) * 2016-04-26 2016-10-05 北京光年无限科技有限公司 一种面向智能机器人的动作控制方法及装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6519506B2 (en) * 1999-05-10 2003-02-11 Sony Corporation Robot and control method for controlling the robot's emotions
EP1112822A4 (en) * 1999-05-10 2005-07-20 Sony Corp ROBOTS AND CONTROL PROCESSES THEREOF
KR101014321B1 (ko) * 2009-02-24 2011-02-14 한국전자통신연구원 최소 분류 오차 기법을 이용한 감정 인식 방법
CN101618280B (zh) * 2009-06-30 2011-03-23 哈尔滨工业大学 具有人机交互功能的仿人头像机器人装置及行为控制方法
KR20110002757A (ko) * 2009-07-02 2011-01-10 삼성전자주식회사 감성 모델 장치, 감성 모델의 성향 학습 장치 및 방법
US9117168B2 (en) * 2012-09-28 2015-08-25 Korea Institute Of Industrial Technology Apparatus and method for calculating internal state for artificial emotion
CN105260745A (zh) * 2015-09-30 2016-01-20 西安沧海网络科技有限公司 一种基于大数据进行情感识别及预测的信息推送服务***
CN105807933B (zh) * 2016-03-18 2019-02-12 北京光年无限科技有限公司 一种用于智能机器人的人机交互方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1463215A (zh) * 2001-04-03 2003-12-24 索尼公司 有腿移动机器人及其动作教学方法和存储介质
JP2004098252A (ja) * 2002-09-11 2004-04-02 Ntt Docomo Inc コミュニケーション端末、***ロボットの制御方法及び***ロボットの制御装置
CN104350541A (zh) * 2012-04-04 2015-02-11 奥尔德巴伦机器人公司 能够将与用户的自然对话合并到其行为中的机器人,以及编程和使用所述机器人的方法
CN103456314A (zh) * 2013-09-03 2013-12-18 广州创维平面显示科技有限公司 一种情感识别方法以及装置
CN105930374A (zh) * 2016-04-12 2016-09-07 华南师范大学 基于最近反馈的情感机器人对话方法、***以及机器人
CN105988591A (zh) * 2016-04-26 2016-10-05 北京光年无限科技有限公司 一种面向智能机器人的动作控制方法及装置
CN105945949A (zh) * 2016-06-01 2016-09-21 北京光年无限科技有限公司 面向智能机器人的信息处理方法及***

Also Published As

Publication number Publication date
CN108115678A (zh) 2018-06-05
WO2018095041A1 (zh) 2018-05-31

Similar Documents

Publication Publication Date Title
CN108115678B (zh) 机器人及其动作控制方法和装置
Li et al. Human-centered reinforcement learning: A survey
Xi et al. The rise and potential of large language model based agents: A survey
CN100509308C (zh) 用于机器人的行为控制***和行为控制方法及机器人装置
AU2003288790B2 (en) Proactive user interface
EP1327504B1 (en) Robot device and behavior control method for robot device
KR101028814B1 (ko) 소프트웨어 로봇 장치와 그 장치에서 소프트웨어 로봇의행동 발현 방법
DE69921563T2 (de) System und Methode zur Steuerung von Objekten durch Simulation von Gefühlen und Persönlichkeit im Objekt
KR100624403B1 (ko) 인체의 신경계 기반 정서 합성 장치 및 방법
CN106845624A (zh) 与智能机器人的应用程序有关的多模态交互方法及***
RU2316818C2 (ru) Устройство, моделирующее вдохновение, устройство, моделирующее спонтанную эмоцию, и соответствующие способы и программы
CN109754088A (zh) 具有训练生成式对抗网络的模块化基础结构的计算***
KR101678018B1 (ko) 감성 모델 장치 및 감성 모델 장치의 행동 결정 방법
US20110004577A1 (en) Emotion model, apparatus, and method for adaptively modifying personality features of emotion model
US7937348B2 (en) User profiles
WO2015158881A1 (en) Methods and systems for managing dialogs of a robot
KR20090112213A (ko) 로봇의 호감도 형성장치 및 그 방법
EP1956528A2 (en) Apparatus and Method for Expressing Behavior of Software Robot
CN110569352B (zh) 一种可定制外观和性格的虚拟助手的设计***及方法
Li et al. Facial feedback for reinforcement learning: a case study and offline analysis using the TAMER framework
Lee et al. Hierarchical emotional episodic memory for social human robot collaboration
Prasad et al. Human-robot handshaking: A review
Hafez et al. Improving robot dual-system motor learning with intrinsically motivated meta-control and latent-space experience imagination
Dong et al. A new action execution module for the learning intelligent distribution agent (LIDA): The sensory motor system
KR100503652B1 (ko) 가상 생명체 시스템과 이를 이용한 교육용 소프트웨어시스템

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant