CN110139732A - 具有环境控制特征的社交机器人 - Google Patents

具有环境控制特征的社交机器人 Download PDF

Info

Publication number
CN110139732A
CN110139732A CN201780082251.0A CN201780082251A CN110139732A CN 110139732 A CN110139732 A CN 110139732A CN 201780082251 A CN201780082251 A CN 201780082251A CN 110139732 A CN110139732 A CN 110139732A
Authority
CN
China
Prior art keywords
social
robot
user
data
indicator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780082251.0A
Other languages
English (en)
Other versions
CN110139732B (zh
Inventor
G·I·吉维奇
L·S·奥斯特罗夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Warner Bros Entertainment Inc
Original Assignee
Warner Bros Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Warner Bros Entertainment Inc filed Critical Warner Bros Entertainment Inc
Publication of CN110139732A publication Critical patent/CN110139732A/zh
Application granted granted Critical
Publication of CN110139732B publication Critical patent/CN110139732B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

用于控制社交机器人的方法和设备包括基于社交机器人和用户之间的社交交互来操作电子输出器件。社交机器人利用算法或其他逻辑解决方案步骤以基于对社交交互的观察来推断用户精神状态,例如情绪或期望。基于推断的精神状态,社交机器人致使电子输出器件的动作被选择。动作可以包括例如播放选择的视频片段、冲泡一杯咖啡或调整百叶窗。

Description

具有环境控制特征的社交机器人
相关申请的交叉引用
本申请依据35 U.S.C§119(e)要求于2016年11月10日提交的美国临时申请序列号62/420,492的优先权,其全部内容通过参考并入本文。
技术领域
本公开涉及社交机器人,以及用于控制社交机器人的方法。
背景技术
在机器人领域中已知各种类人机器人、非类人机器人和组合的类人/非类人机器人。“机器人”是可编程的、自主的或半自主的机器,其被编程为对所感测的环境输入作出响应,并且从而与其环境的某些独立方面交互。非类人机器人通常被设计成执行不涉及与人交互的特定任务,例如,装配线制造或货物的自动处理等,其仅涉及与无生命物体的交互。类人机器人被构造成类似于人(包括人们可识别的特征,例如躯干、手臂、腿、头部、面部等)。现实的类人机器人构造复杂且昂贵,因此不常见。组合的类人/非类人机器人至少包括一个人类可识别的特征,结合非类人的特征。例如,包括响应于人类语音的语音响应特征的智能电话是一种组合的类人/非类人机器人。另一个示例是用于在虚拟环境中与人类用户交互的虚拟机器人,例如在线社交网站或视频游戏中,其看起来是另一个用户。
类人机器人和类人机器人/非类人机器人二者通常被用作社交机器人。如本文中所使用的,“社交机器人”是一种交互式机器,其被设计为通过展示与社交机器人交互的人类或其他社交动物本能上可识别的社交行为,而唤起与人类或其他与之交互的社交动物的情感或社交行为响应。在本能上可识别为社交的行为可以包括例如发声、语音、肢体语言(例如,姿势)、面部表情以及如下文所述的其他行为。
类似于与人类用户交互的任何其他计算机器,机器人可以能够利用计算机网络的计算机中的处理能力和大量数据来提供用户感兴趣的内容。随着“物联网”的出现,更多的电器和器件连接到广域网,并且可以使用网络终端进行控制。网络终端被设计为响应于用户命令,并且可以被编程为检测和记录用户偏好以识别用户可能感兴趣的广告或其他内容。然而,网络终端并非旨在模仿人类的社交行为;相反,它们被优化用于引导用户与专用应用程序交互,所述专用应用程序通常被设计用于访问各种类型的内容:例如,网页、视频、数据库等。相比之下,社交机器人根据定义包括针对社交行为(例如,显示情绪或情感)设计的特征。机器人的这种社交功能不被认为对计算机终端执行的各种功能有用;事实上,将社交机器人用于社交和终端功能似乎都很愚蠢。社交机器人的“终端潜力”,无论多么可想而知,都在很大程度上被浪费了。
因此,希望提供以较少限制的方式利用社交机器人的方法,并提供利用其社交和终端潜力来为用户提供新的、协同的和意想不到的好处的社交机器人。
发明内容
该发明内容和以下详细描述应当被解释为集成公开的补充部分,这些部分可以包括冗余主题和/或补充主题。任何段落中的省略都不指代综合申请中描述的任何要素的优先权或相对重要性。这些段落之间的差异可以包括替代实施例的补充公开、附加细节或使用不同术语的相同实施例的替代描述,如从各自的公开内容中将是明显的。
如本文中所使用的,“社交动作”是为了引发社交响应的目的而执行的动作,因此在需要响应的人的意识下执行。一些动作(例如,面部表情)至少在由机器人执行时是纯粹社交的,因为除了引发社交响应之外,机器人没有理由执行该动作。其他动作(例如,为口渴的用户填充一杯水或打开电器)可具有社交目的和其他目的(例如,将清洁的水放入玻璃杯中而不会溢出)。在本申请中,机器人的社交动作是机器人跟踪用户的社交响应的任何动作,并且机器人的社交动作和用户的社交响应之间的相关程度确定机器人的进一步动作。机器人的社交动作可以包括,例如,面部表情、肢体语言(包括类人元素(例如,头部、手臂等)的姿势)、语音、发声、运动、手势、触摸、向用户提供对象或物质、从用户移除对象或物质、打开或关闭另一台机器、控制机器或电器的操作以引发社交响应、播放记录的音频或音频-视频内容或试图将社交消息或信号传达给机器人用户的任何其他动作。
社交机器人可以被实施为具有在真实环境中移动其机身的至少一部分的能力的真实机器。另外,社交机器人可以被实施为可以仅在虚拟环境中表达的虚拟机,例如,视频游戏环境、在沉浸式虚拟现实环境中或者增强现实(AR)环境中的机器人角色。如本文中所使用的,术语“社交机器人”通常包括真实和虚拟社交机器人。当具体指出社交机器人的这些类别中的一个时,本文中将使用术语“真实社交机器人”或“虚拟社交机器人”。
社交机器人可以包括耦合到用于驱动社交机器人的组件的至少一个电路的一个或更多个处理器,以及连接到至少一个电路的社交表情组件。社交表情组件可以包括根据至少一个社交行为算法由一个或更多个处理器控制的人类可识别的表情特征。在一个实施例中,社交表情组件可以包括显示社交机器人的动画面部或面部的表情部分(诸如眼睛、眉毛、嘴或嘴唇)的视频屏幕。
社交机器人还可以包括视频相机,其连接到至少一个电路并且被定位在社交机器人上用于观察用户和/或用户环境。机器人还可以包括连接到至少一个电路的麦克风,其被定位用于接收来自用户和/或用户环境的声音。机器人可以包括或可以耦合到用于测量用户的一个或更多个机身状态的一个或更多个传感器,例如,脉搏传感器、皮肤温度传感器、凝视方向传感器等。
社交机器人还包括程序存储器,其耦合到至少一个电路和一个或更多个处理器。程序存储器保存被配置为由一个或更多个处理器执行的程序指令,使得社交机器人执行包括以下的操作:通过操作社交表情组件与用户进行社交交互,至少部分地基于来自视频相机和麦克风的数据确定用户行为,将用户行为与社交机器人的社交行为相关联,基于相关生成数据信号,以及发射配置用于引起电子输出器件或其他机电器件(例如用于填充咖啡壶的电子启动阀)的数据信号,以响应于由数据信号编码的信息。
在更详细的方面,指令还被配置用于使社交机器人基于相关执行导出当前精神状态指示符,并且基于将与标识符相关联的语义元数据与当前精神状态指示符进行比较,来选择预先记录的或在线音频-视频内容片段(clip)的标识符。例如,社交机器人可以导出用于“困倦”精神状态的指示符,并且基于一天中的时间、困倦指示符以及用户的行为模式或过去的内容选择,选择用于活泼的、激动的音频和/或视频片段的标识符。在一个方面中,例如,社交机器人的存储器保存用于预先记录的或在线音频-视频内容片段的标识符,每个片段与关于对应的内容片段的语义元数据相关联,并且指令还被配置用于使社交机器人执行内容选择算法,从而引起选择标识符。替代地,指令还被配置用于使社交机器人执行将内部用户状态的指示符发射到远程服务器,以及从远程服务器接收标识符。在替代实施例中,内容片段的选择由远程服务器执行。在替代实施例中,远程服务器还可以提供选择的内容。
在另一个方面,确定当前精神状态指示符包括使用行为分析算法,确定用户情绪(快乐、困倦、无聊等)的指示符或用户期望(想要安静、想要娱乐等)的指示符。该算法可以将当前社交交互与过去的社交交互进行比较以确定精神状态。例如,如果社交机器人发出语音或礼节性声音以获得关注,并且在检测到用户活动时用户忽略了响应时,机器人可以断定用户“分心”或“忙碌”。
在一些实施例中,电子输出器件是或包括音频-视频输出器件,并且指令还被配置为使社交机器人执行配置数据信号,以便由音频-视频输出器件输出预先记录的或在线的音频-视频内容片段。例如,社交机器人可以使位于机器人自身上的视频屏幕显示视频内容片段。视频屏幕还可用于显示社交机器人的动画面部。作为替代方案,视频屏幕可以是单独的组件,位于机器人上或作为独立电器(例如,用户的电视或移动电话,或者是用户穿戴的增强现实耳机或眼镜的一部分)。
替代地或另外地,电子输出器件或机电器件是家用电器,例如,咖啡机、水龙头、电动百叶窗、电子锁、家庭音频***或家庭影院***。该指令还可以包括配置数据信号,使得它引起家用电器响应。例如,由数据信号编码的信息可以包括用于家用电器的操作指令。因此,社交机器人可以分析用户的社交行为并且预测或响应这种需求,如社交机器人能否通过其自身或者与辅助电器协作来满足这种需求。
在另一个方面,电子输出器件或机电器件可以是机动车辆或船舶,例如自动驾驶汽车。在这种情况下,指令可以包括配置数据信号,使得它使机动车辆或船舶响应,例如通过编码车辆操作指令。例如,社交机器人可以响应于检测到来自用户的社交信号来控制车辆的音频***,如果预期用户将很快想要乘车,则可以启动车辆或给车辆通电,或者指示自动驾驶车辆以将用户运输到指定目的地,其中机器人选择至少某种程度的当前精神状态下的目的地,当前精神状态是基于用户和社交机器人之间的社交交互来确定的来。
社交机器人可以包括一组模块,其在由彼此定义关系的共同控制,其中该组模块作为整体被设计为与人类(或其他,例如宠物狗)伴侣进行社交交互。例如,JiboTM是具有旋转头部、视频屏幕面部、耳朵(音频输入)和静态(非动画)语音输出的被动躯干。智能电话提供了另一种类型的机器人的示例,该机器人由被动框架、视频屏幕面部、耳朵(音频输入)和静态(非动画)语音输出构成。像AsimoTM这样的机器人更复杂,其具有非视频面部特征,以及运动和用于关节连接四肢的装置。决策引擎响应于诸如语音、注视方向、面部表情、肢体语言和其他社交线索的用户动作来控制社交机器人的输出。决策引擎可以被配置为展示特定的机器人个性或情绪,其可以基于环境因素或用户命令而变化。关于控制机器人表达某种个性的进一步细节可以如2016年7月7日提交的美国临时专利序列号82/367335(“’335申请”)中所描述的,其全部并入本文。
‘335申请公开了用于基于个性配置文件连同激励-响应对(stimulus-responsepair)检测来选择社交机器人的响应的方法。机器人被编程为通过个性过滤器或配置文件将激励(包括激励的背景)与响应匹配。在一个方面中,机器人响应可以包括生成数据信号,用于使电子输出器件响应于由数据信号编码的信息,例如选择要为用户播放的视频片段。换句话说,社交机器人的个性配置文件可以使用‘335申请中描述的方法来影响基于机器人的个性配置文件的所播放内容或其他动作的选择。例如,在相同的社交交互和背景下,具有“儿童”个性的机器人可以选择与具有“成人”个性的机器人不同的音频-视频内容。
在一些实施例中,机器人可以使用“测试”程序来识别其中交互正在发生的正在交互的人或环境。例如,社交机器人可以使用测试程序与人交互。测试程序不需要采用明显的测试形式。相反,测试程序可以被设计为被视为单次设置或配置过程、游戏或一些其他娱乐过程,其对交互的人的个性进行采样,同时也使他们娱乐。例如,测试可以对交互的人的语音、特征、情绪、表情或习惯进行采样,并将识别特征存储在人的配置文件中以供将来参考。初始交互设置或配置过程可能仅在最初与人类交互时或者可能每次与机器人开始会话时由机器人执行,以便机器人可以确定交互的人的年龄、性别、身高和体型、移动性(即人类是否能够自由移动、或卧床不起、或虚弱或……)、口语(因为机器人能熟练掌握几种语言)或其他因素。机器人可以存储该人的配置文件,从而稍后识别该人,例如,通过采用面部识别软件,当该人再次与机器人交互时。使用语音识别软件,一旦识别出一个人,即使他/她的外观发生变化以使人在视觉上无法识别,机器人仍然可以基于语音进行识别。
类似地,经由物体识别或图像分析软件,机器人可以确定机器人和人类占据的空间(例如室内、室外、单元域或大区域、现在是什么时间、是白天还是夜晚)的特性,这样可以最好地管理适当的对话和相关行为。例如,如果是光天化日的时候,说出星星看起来多么可爱似乎是不合适的,如果人类无法移动或准备睡觉,就没有必要说“让我们去散步”。以这种方式,机器人可以根据环境上适当的情况模仿或对位(counterpoint)语音、特征、(一个或更多个)情绪、表情或习惯。例如,如果机器人稍后在随后会议中检测到(例如通过经由机器学习或人工智能或示例的咨询模板或咨询数据库识别)人类被压抑,那么它可能会试图通过讲笑话、提供玩游戏、播放喜欢的歌曲或视频片段或其他情绪提升交互来鼓舞人类的精神。所有上述交互可以虚拟地发生,即,机器人和(一个或更多个)人类在不同的地方,通过某些视听***进行交互,例如经由Skype。
在另一个方面中,响应于当前激励或预期的未来状况,社交机器人的操作与本地或远程内容数据库集成,该内容数据库选择性地与社交机器人的用户共享。例如,内容数据库可以包括基于其语义内容索引的视频片段、音频-视频片段或音频片段。社交机器人可以被配置为输出用于任何社交目的片段中的选择的一个。例如,如果社交机器人感测到其用户不高兴,则它可以从用户已知的喜爱内容或字符的片段中选择幽默片段。对于进一步示例,如果社交机器人正在评论感测到的社交情况,例如,为了鼓励用户进行一些锻炼,它可以播放一个片段,该片段被标记为适合具有与当前用户匹配的个人特性或人口统计中的特性的用户,并且以某种方式提醒用户起床并进行一些锻炼。相应地,可以通过社交机器人的内容选择算法选择的片段的背景和选择来使用户娱乐。在更详细的方面,并且对于进一步的示例,机器人可以:
·了解当前用户或用户可能关注的相关内容片段类型,例如通过识别使(一个或更多个)目标用户感兴趣的区域、流派、作品(散文、诗歌、图片、视频、艺术等),然后视听输出所选择的内容片段,上述识别通过询问或‘测试’(一个或更多个)目标用户的兴趣水平;
·无线发送选择的内容片段(或将它们从远程服务器发送)到独立于机器人的视听显示装备(例如,扬声器、电话、平板电脑、PC、智能电视、AR耳机或眼镜等),使得(一个或更多个)目标用户可以看到和/或听到与涉及社交机器人的社交交互同步的,或者响应于授权的用户请求的内容片段;
·命令诸如AmazonTM EchoTM和Fire StickTM之类的无线器件以调入或以其他方式获得(一个或更多个)目标用户的相关内容,其中内容由社交机器人基于用户/情境参数来选择,或由用户来选择。
本公开的方法和设备可以体现在各种类型的社交机器人中,以及体现在用于支持社交机器人的操作的计算机网络中。例如,可以使用云计算资源部分地或完全地执行相关内容片段的选择,其中结果与本地机器人共享以供本地使用。以下技术描述实现了上面概述的社交机器人的所有功能能力。
附图说明
通过下面结合附图给出的详细描述,本公开的特征、性质和优点将变得更加明显,附图中相同的附图标记在整个说明书和附图中相应地标识相同的元件。
图1是说明了用于社交机器人的***和方法的方面的框图,该社交机器人基于与用户的社交交互来选择娱乐内容或其他响应。
图2是示出了用于社交机器人基于与用户的社交交互来选择记录的数字内容或其他响应的方法的元素的流程图。
图3是示出了用于社交机器人基于用户的社交动作确定符号输出(例如,精神状态指示符)的方法的方面的流程图。
图4是说明了连同权利要求3的方法使用的社交动作数据的方面的表格。
图5是示出了用于社交机器人基于指示来自诸如图3中所示的过程的精神状态的符号输出来选择和生成环境控制输出的方法的方面的流程图。
图6是说明了基于精神状态指示符使用语义元数据来选择数字内容的表格。
图7A和图7B是分别说明了可量化的激励和响应参数的方面的概念图,可量化的激励和响应参数配对在一起可用于在数字上定义社交行为。
图8是说明了用于数字上表示激励或响应的数据结构的方面的表格。
图9是提供与4×4数字响应值配对的4×6数字激励值的图形说明的概念图,其中所说明的激励-响应对(行为)与行为的单个1×8数字精神状态指示符相关。
图10是示出了用于针对社交机器人的操作对激励进行进行实时表征激励的方法和***的方面的流程图,其中激励与基于用于控制社交机器人的一个或更多个个性配置文件的一个或更多个响应相关联。
图11是示出了真实社交机器人的方面和组件的框图。
图12是示出了真实社交机器人的示例的等距视图。
图13是示出了虚拟社交机器人的方面和组件的框图。
图14是示出了虚拟社交机器人的示例的组合框图和呈现。
图15是示出了对协调的真实和虚拟社交机器人的响应的分配的概念图。
图16是说明了用于基于与用户(或多个用户)的社交交互来操作用于产生环境控制输出的虚拟社交机器人的方法的示例的流程图。
图17-图18是说明了图16的方法的进一步的方面的流程图。
图19是说明了被配置用于执行图16的方法的社交机器人的示例的框图。
具体实施方式
参考图1,说明了社交机器人***100,其包括用于选择数字内容(例如,记录的或在线音频-视频内容)或其他环境控制动作的社交机器人102。应当了解的是,社交机器人102可以适于响应于用户的社交行为来选择其他环境控制功能。该***包括各种模块和数据结构,这些模块和数据结构可以包含在硬件、软件、固件或前述的某种组合中。硬件、软件、固件或组合可以在社交机器人本身中本地实施,或者部分地使用利用计算机或数据通信网络与社交机器人通信的计算机处理能力来实施。
社交机器人102可以包括***100中的“物联网”(loT)节点,***100包括其他loT节点、局域网(LAN)节点或其他计算机网络。社交机器人可以通过向***100中的另一节点发送控制信号来采取环境控制动作。如本文中所使用的,“环境控制动作”包括向机器或器件发信号,该机器或器件通过改变与社交机器人102进行社交交互的用户150的环境来响应该信号令。例如,智能显示器件130可以从机器人102接收信号,并且作为响应,播放选择的视频片段,该视频片段在语义上与社交机器人检测到的用户150的社交信令相关联,智能电器128(例如,咖啡机或其他饮料或食物准备器件)可以从机器人102接收信号,并且作为响应,为用户150冲泡或分配饮料或食物。智能家居控制器122可以从机器人102接收信号,并且作为响应,通过向智能照明***124发信号来调整用户150环境中的照明,或者通过向智能音频***126发信号来控制音乐或环境声音的播放。
智能显示器件130可以是或可以包括智能电话、记事本计算机、个人计算机、智能电视、虚拟现实耳机、增强现实耳机或其他显示器件。机器人100可以直接在对等传输中或者通过计算机和/或通信网络间接地从发射器向智能显示器件130发送信号。从机器人102到显示节点130的信号可以识别机器人102正在请求智能显示器件130播放或显示的内容视频片段(例如,“片段#12345”)或数字图形图像。智能显示器件130可以位于用户150的视线内,用户150与社交机器人102(例如,在同一房间中)进行社交交互。所请求的视频片段或图像可以驻留在显示节点130的存储器中,或者可以由器件130或机器人102从数据存储器请求,例如,经由路由器132和广域网(WAN)136从服务器134请求或从在线资源请求。另外,或者在替代方案中,社交机器人可以使用内部显示器件110来播放或显示所请求的视频片段或数字图像。
相应地,如本文中更详细描述的,用户150和机器人102之间的社交交互的目的以及由机器人102执行的处理包括取悦用户150,该取悦通过显示内容(例如,视频或静止图像),播放音频内容,或者以在某种程度上补充用户的情绪或期望的其他方式调整用户的环境,部分地通过选择使用户惊喜、高兴或以其他方式吸引用户的动作。换句话说,例如,用户不需要请求播放特定内容,或者采取特定动作来调整环境。相反,***100的机器人102或其他元件(例如,服务器134)基于用户150与机器人102的社交交互来选择适当的内容。社交动作可以是完全非语言的,并且不必是对由采取请求的动作的用户的任何明确的口头请求或命令的响应。相反,机器人102和***100的操作预期将取悦用户或在机器人102和用户150之间的社交交互中实现某些功能的动作。
(与虚拟的相对的)真实的社交机器人102可以包括机电组件,该机电组件包括配置为容纳在外甲(exoskeleton)或外壳中的计算机的电路。该电路可以包括一个或更多个中央处理单元104,可操作地耦合到驱动电动机108的电动机驱动器控制器,电动机108移动包括连接到社交机器人102的头部或机身部分的机械装置的负载,致使头部或机身部分以社交上有意义的方式移动。例如,电动机108或电动机组可以控制头部相对于躯干的移动,例如通过围绕一个或更多个独立轴转动头部,或者使用轮子、踏板、腿部或其他机械装置相对于地面移动机器人躯干。处理器104确定响应并向电动机驱动器108提供运动控制信号。运动控制信号使电动机108按照处理器104选择的响应移动连接的机身部位。
除了处理器104之外,机器人102还可以包含用于计算的其他组件。例如,处理器电路可以耦合到用于输入用户控件的用户接口组件(未示出),例如键盘或触摸屏。处理器电路可以耦合到显示组件110,例如触摸屏或其他显示器。显示器110可以用于用户界面,以显示社交机器人的表情特征(例如,面部),或者用于两者。处理器电路可以耦合到一个或更多个传感器114、116、120,传感器114、116、120被配置用于感测机器人周围的环境或机器人与之交互的对象的一个或更多个环境状况。一个或更多个传感器120可以包括例如相机114、光传感器、麦克风116、温度传感器、压力传感器、加速器、触摸传感器、接近传感器或其他感测或物联网(loT)微机电传感器(MEMS)器件。处理器电路可以耦合到通信端口105,用于耦合到计算机网络,或耦合到数据通信网络,用于接收数据和程序指令。处理器电路还可以耦合到音频输出换能器(未示出),用于输出机器人发声。处理器电路还可以耦合到易失性随机存取存储器器件106,用于存储程序指令和数据。
上面参考的‘335申请描述了在机器人操作之前使用的机器人行为映射子***,其用于在可能的情况下将个人行为映射到社交机器人行为,并且将机器人的所有社交行为与用于定义机器人的个性配置文件的个性尺度相关联。当社交机器人与其实时用户或用户交互时,实时社交机器人行为模块实时操作,致使社交机器人表达一个或更多个个性。个性配置文件分析子***接收角色或人的行为数据,并基于预定义或适合的个性尺度来分析数据。如本文中所使用的,“行为数据”限于描述或定义激励-响应对组的数据,包括但不限于关于任何特定对的相对发生频率的统计数据。可以在任何期望的细节水平上描述激励和响应,包括不同的细节水平。例如,激励和响应可以是广义的,例如“被忽略”的激励和“寻求被注意”的响应。对于进一步的示例,激励中的一个或两个可以是更加具体的,例如听力激励“你好吗?”与“这和你有什么关系!?”的响应配对。虽然行为可以以任何有用的方式表征,但可能需要选择激励和响应来针对角色的个性配置文件,其可以很容易地映射到社交机器人能够检测的激励,以及社交机器人能够执行的响应。此外,行为应该是或者能够与机器人的社交功能相关联。‘335申请中描述的行为检测和分析可以用于评估用户社交交互以便选择内容。
例如,角色分析可以用于情绪检测。角色分析模块可以从分析过程产生两个结果:特性社交行为的列表,以及一个或更多个个性配置文件组,每个个性配置文件与用户的不同情绪相关联。“情绪”可以被认为是“个性模式”;在技术术语中,每种情绪是一组不同的个性特质值,可以在连续的时期观察到,并且响应于一个或更多个情绪触发而出现和/或消散至少一些可预测性。角色分析过程可以通过在不同的连续时间段上对激励响应数据进行分组、匹配不同时期的类似行为以及识别在其中观察到不同情绪的时间段的触发来发现用户的情绪。机器人102可以部分地基于机器人使用如上概述的过程观察的用户情绪来内容选择或确定其他动作。
图2概括了可以由社交机器人102执行的社交交互分析和响应方法200的方面。在102处,其可以发生在新会话的开端附近,社交机器人识别正在与其交互的用户。例如,机器人可以通过相机和图像分析使用面部识别,通过麦克风和音频分析使用语音识别,或者使用其他生物特征身份因素来识别与社交机器人交互的用户。如果用户未被识别为特定个体,则社交机器人可以基于观察到的人口统计线索(例如,大小、年龄、性别)对用户进行分类,并且在208处检索用于观察到的人口统计类型的默认偏好配置文件。如果机器人识别用户,则机器人可在210处检索用户偏好配置文件。偏好配置文件可以是或可以包括保存一组符号(例如,二进制数)的数字数据结构。这些符号以任何合适的方式指示用户对某些类型的记录内容、喜欢的角色或风格的偏好,以及与机器人的内容或动作选择相关的其他偏好。
在212处,社交机器人执行动作(即,从用户的角度来看‘激励’)。此外,在动作期间和动作之后,机器人收集指示用户对机器人动作的响应的传感器数据。例如,机器人可以相对于用户移动(例如,靠近、移开或转向面部)并且在问候中发出发声。机器人还可以使用面部组件生成面部表情。在214处,机器人接收并分析传感器数据以确定用户响应。例如,机器人可以接收和分析音频或视频输入以确定用户是否已经口头响应,以及由机器人的一个或更多个相机成像的面部表情或肢体语言提供的任何可用的情感子文本。
机器人激励可以与用户响应匹配,并且针对识别的匹配对的数据结构检查所得到的(表示社交动作的)激励-响应对。在216处,通过匹配保存的对来识别激励-响应对,在218处,机器人可以将社交动作与精神状态指示符相关。相同的精神状态指示符可以与不同的激励-响应对相关。相反,相同的激励-响应对有时可以与一个以上的精神状态指示符相关,但在许多情况下,它只与一个指示符相关。精神状态指示符可以是符号(例如,二进制数),其以任何有用的方式与机器人能够响应于用户的精神状态而执行的一组一个或更多个响应相关。
在220处,机器人确定其是否已识别出精神状态指示符。如果不是,则可以在212处继续执行社交动作并评估用户响应。如果是,则机器人可以在222处选择与精神状态指示符相关联的合适的响应之一。在224处,机器人可以(例如,通过扫描)检测可用的输出节点以执行响应。在226处,机器人生成用于可用输出节点的数据信号,其被配置为启动输出节点的响应的执行。在230处,机器人可以将数据信号发射到选择的输出节点,致使输出节点执行如本文所描述的响应。在执行响应时,输出节点可以从机器人或从另一个网络节点检索要输出的视频或音频内容的数字副本。在232处,机器人如果完成的话可以终止会话或者如果没有完成的话,继续在212处的社交监控。
图3说明了社交机器人用于识别社交动作的过程300的方面,包括机器人激励或用户响应的表征可以基于来自独立传感器***的不同输入数据的方面。机器人使用传感器数据来概括与特定用户响应相关联的各种不同的符号(例如,二进制数)。例如,基于相机输入数据,机器人识别用户响应可以包括面部识别过程302。对用户响应的识别可以进一步包括例如生物特征检测过程304,诸如确定用户注视的方向、用户脉搏或用户皮肤温度。对用户响应的识别还可以包括,例如,机器人分析由麦克风收集的音频数据的语音识别306。对用户响应的识别还可以包括,例如,诸如通过分析摄影数据、从位置信标或全球定位***(GPS)或IoT MEMS接收数据、参考日期时间时钟或任何其他合适的方式,识别环境情况或背景308。对用户响应的识别还可以包括,例如,诸如通过使用摄影数据和接近传感器数据,确定机器人和用户的相对位置和方向310。如果有用的话,其他类型的用户响应参数也可以由机器人确定,作为社交动作识别的一部分。
在312处,机器人可以将当前识别记录在高速缓冲存储器314中,并且可以清除超时或过期的数据。类似地,机器人可以保持指示高速缓存314中的机器人输出激励的符号,其按时间顺序与检测到的用户响应相关。在316处,社交机器人可以使用社交动作过滤器来过滤短期存储器314中的高速缓存的数据。社交动作过滤器可以包括例如将记录在数据结构中的激励-响应对链接到各个精神状态指示符的数据结构。在318处,如果机器人检测到匹配,则可以在320处输出精神状态指示符。精神状态指示符可以是符号(例如,二进制)值,其具有社交动作过滤器确定的与一组社交动作数据的特定相关(例如,一对一或一对多)。明显的是,“精神状态指示符”中的短语“精神状态”仅仅是方便的术语,并不限制指示符的衍生或使用方式。如所描述的,指示符是机器确定的符号值,该确定是基于机器人已知或由机器人检测到的社交交互和背景,并且不需要与用户的实际精神状态相关。然而,在精心设计的实施方式中,精神状态指示符可以并且通常应当对应于用户的精神状态,只要该精神状态涉及用户可能接受的社交动作。所描述的用于生成精神状态指示符和选择社交响应的过程例示了用于模仿由社交动作表达的人类共情(empathy)的过程。在322处,机器人如果完成的话可以终止会话或者如果未完成,则在324处继续符号生成。
图4说明了以表格数据结构组织的与方法300结合使用的社交动作过滤器参数集400的方面。所说明的参数集400包括不同数据类别中的不同符号值(例如,二进制数或字符串)。每个值对应于具有语义含义的社交动作。例如,“面部表情”类别402可以由与社交动作相关的一个或更多个值填充,例如中性表情、微笑、露齿而笑和笑。“其他生物特征”类别404可以由与社交动作相关的一个或更多个值填充,例如中间范围内的站立、行走和脉搏。“语音”类别406可以由与语言通信相关的一个或更多个值填充,诸如笑、或者任何有趣、逗乐、搞笑的单词。“环境情况”类别408可以由与社交环境相关的一个或更多个值填充,例如早晨、工作日、明亮或在家。“机器人-人类关系状态”类别410可以由与相对位置相关的一个或更多个值填充,例如比某个距离‘x’更近或彼此面对。所说明的类别和值仅仅是用于说明基本概念的示例,而不是将方法300限制于这些示例。用于社交动作过滤器的参数集400可以包括不同符号值之间的布尔逻辑,例如,逻辑“AND”,其要求来自任何类别402、404、406、408或410的至少一个值存在;以及逻辑“OR”,其要求在同样类别中的任何值之间,因此如果存在来自每个类别的任何一个或更多个值,则找到匹配。其他逻辑布置也可能是合适的。
机器人可以应用许多不同的社交动作过滤器参数集来找到一个或更多个精神状态指示符。在一个方面中,过滤器参数集可以被配置使得社交动作的某些组合将与不同的精神状态指示符相关。当机器人发现多个匹配的精神状态指示符时,它可以使用任何合适的过程选择用于管理响应的指示符之一,例如,随机选择、准随机选择、基于过去选择的加权顺序(例如,“轮流”)或将选择基于进一步的信息(例如,询问用户,或参考诸如用户偏好、趋势流行度或机器人‘情绪’的附加信息)。替代地,如果指示了多个精神状态,则机器人可以选择推迟其响应。
图5示出了由社交机器人用于基于指示来自诸如方法300的过程的精神状态的符号输出来选择和生成环境控制输出的方法500的方面。在502处,机器人接收或导出精神状态指示符,其符号形式与机器人的处理***兼容,例如二进制数,其落入由机器人的响应选择算法保留的值的范围内以用于从可用的响应选项中选择。在504处,机器人基于将精神状态指示符与独立地与响应列表中的每个条目相关联的语义元数据进行比较来过滤用户的当前响应列表518。当前响应列表518可以由后台过程516构建和保持,后台过程516在机器人和/或与机器人通信的网络的其他节点上操作。列表518可以包括机器人能够进行的每个可能的响应,排除由保障性、安全性或用户偏好设置阻拦的响应。在替代方案中,列表518可以包括全集的较小子集,例如用于减少带宽或数据存储要求,用于确保使用新响应或用于创建与某些响应的时间顺序关联。
在继续描述图5之前,考虑社交机器人如何利用语义元数据。图6说明了用于实现使用语义元数据600来基于精神状态指示符来选择数字内容的响应列表。应当了解,语义元数据600在机器级别表达为机器可读符号值,例如,作为保留用于表达语义概念的范围中的二进制值。机器可读符号通过数据库或其他数据结构与人类可读符号(例如,如图6中所说明的单词或短语)一一相关联,例如用于管理接口,或者在用于将语义元数据众包分配给响应动作的应用程序中。为了说明简单,图6中所示的表只具有两个记录,第一记录,其中响应602(剧本兔八哥Sylvester(Looney Tunes Sylvester)中的猫说“苦难的豆煮玉米”)与语义元数据604(对应于人类可读符号“闹剧”和“出其不意”)相关联,以及第二记录,其中响应606(剧本弱点(The Blind Side)中的桑德拉布洛克(Sandra Bullock)说“你威胁我的儿子,你威胁我”)与语义元数据608相关联(对应于人类可读符号“保护”和“确定”)。应当了解,响应列表通常将包括比两个更多的条目,并且表中的响应条目可以包括除“播放内容‘X’”之外的其他环境控制动作,例如:“打开百叶窗”、“把灯关小”、“冲泡一杯茶”等。
精神状态指示符610(具有对应的人类可读符号“焦虑”)与语义元数据608相关,如虚线所指示的,并且不与语义元数据604相关。相应地,在过滤过程504中,机器人可以排除第一响应602并且将第二响应606包括在过滤的共情响应子集520中。可以以各种方式记录语义元数据600和精神状态指示符(例如,指示符610)之间的相关。例如,语义元数据600可以表示为一组数值,其中每个数值指示特定精神状态指示符的两极对立之间的范围中的值。例如,假设机器人使用100个不同的精神状态指示符,那么每个响应动作将与100个或更少的不同值相关联,每个值由数字值和与评分相关的精神状态指示符的索引号(或精神状态指示符本身)组成。继续该示例,从-31到+31的范围可以由六位二进制数指示,其中-31指示最强可能的负相关,+31指示最强可能的正相关,并且零指示没有相关(例如,不相关或不适用)。该示例中的每个响应动作将针对一个或更多个精神状态指示符进行评分,其中使用人类管理员和/或众包数据或其他度量将未评分的指示符指定为默认值零。使用数字评分使机器人能够按评分对响应进行排名,从而增加选择与任何给定精神状态指示符最相关的响应的概率。
此外,对于不同的响应策略,可以在不同维度(或轴)上对语义相关的双极性评分进行评分。例如,一种策略可能是“表达同情和支持”。另一种可能是“将呈现另一种观点”(例如,争辩);还有另一种可能是“注入幽默”等。可以基于适用的策略轴为每个响应分配单独的评分。例如,给定与焦虑相关的精神状态610,响应606可能对“同情和支持”评分为强烈肯定,而对于“争辩”或“开个玩笑”评分为中性或零。这些评分的开发对文化因素必然是主观的和敏感的,因此可能是众包(crowd sourcing)的良好候选者,例如通过经由用户调查分发和收集数据,或使用小组讨论。
再次参考图5,给定共情响应的子集520,机器人可以基于可用的输出器件应用第二滤波器506。例如,在需要响应时,完成响应所需的一些播放器器件或电器可能不可用或不合适(例如,基于用户设置)。因此,机器人可以消除需要使用非活动输出器件的响应,导出仅包括可用的共情响应的实际或推定的第二子集522。
在508处,机器人可以选择响应策略,假设与子集522中的响应相关联的语义数据能够在给定任何特定精神状态指示符的情况下区分不同响应策略的特定响应的相关。上面的段落中提供了各种响应策略和相关联的评分***的示例。在机器级别处,每个响应策略可以实施为分支或变量,其使得响应的选择唯一地或主要地基于与机器人选择的响应策略相关的语义元数据的子集。响应策略的选择508可以基于随机或准随机因素,诸如机器人情绪,或者可以基于更确定的因素,诸如与精神状态指示符、目前用户会话中的最近过去的精神状态指示符、用户偏好设置或其他因素相关联的强度或清晰度得分。一旦机器人选择策略,就可以基于所选策略的语义元数据对可用的共情响应522进行过滤或排序。这导出实际或构造性第三子集524,其仅包括策略可用的共情响应。
在510处,机器人选择子集524中的一个或更多个保持的响应。可以使用随机因素或准随机因素来完成从子集524的选择,使得机器人行为不是确定性的,同时仍然保存策略性和共情性。替代地或另外地,可以使用确定性方法来完成选择,例如通过选择由语义值评分排序的列表中的最高条目。机器人可以为不同的输出器件选择不同的响应,例如,通过家庭控制单元把房间灯调暗并在家庭娱乐中心或车辆声音***或娱乐***上播放浪漫片段。在512处,对于创建所选的响应所涉及的每个输出器件,机器人对用于在数据信号中引起所选的响应的指令进行编码。然后,机器人将数据信号发射到计算机网络,以便直接或通过中间服务节点(例如,服务器134)传送到每个所涉及的器件。在514处,机器人如果完成的话可以终止会话或者如果没有完成的话,继续到在502处的下一个精神状态指示符。
如在‘335申请中更详细描述的,社交行为可以通过激励-响应符号对来表征。图7A提供定义激励的多个参数的示例,以及用于组织按组排列的逻辑类别中的激励参数的***700。激励参数的组织对于将语义含义与激励-响应对相关联是有用的,并因此用于基于这样的对选择精神状态指示符。虽然‘335申请教导了用于导出个性评分的数字方法,但是本公开指出了如何使用相同或相似的方法来获得用于上面概述的过程的精神状态指示符。
顶级类别702在一般的最高有用级上定义激励。在所说明的示例中,激励是机器人或角色与其他东西之间的相对位置。其余参数可以按任意数量的次级组织。此处例如,参数被组织成四组:时间(何时)组710、身份(谁/什么)组720、位置(何处)组730以及性能方式(如何)组740。每个组都包含介于一种分类的两极对立的评分。例如,时间组710可以包含日期时间评分712和星期时间评分714,指示激励何时发生。可以将这些评分中的每个归一化为在所选尺度的端点之间连续运行的数字得分。例如,如果将8位尺度用于日期时间参数712,则从刚刚过去的午夜到第二天的午夜的每个24小时时段可以被划分为128等量递增,使得时间记录能够达到粒度128/24(每小时5又1/3单位,或11.25分钟)。这对于关联社交响应应该是足够的粒度。当情绪或其他响应相关与一周中的几天相关时,使用相同的八位尺度来表示一周中几天的时间导致粒度减少7倍,或78.75分钟。对于进一步的示例,身份组720可以包括测量被定位以引起激励的人或事物的特征的值,例如,人/事物尺度720、性别尺度724和外向尺度726。同样地,位置组730涉及激励发生的位置,例如圈占(enclosure)参数732和邻域字符参数734。对于进一步的示例,性能参数组740的方式可以包括接近度量742、一个或更多个取向度量744和相对运动度量746。
为了说明的目的简化了***700,并且参数示例中包括的具体措施不如已经描述的组织和量化原则重要。在所说明的原理下,任何给定的激励可以表示为测量值矩阵。例如,每个组可以提供一行激励矩阵,每列可以在相邻参数之间描绘,反之亦然;矩阵可以具有任何有用的维数。具有一维或二维的矩阵被认为是有用的;更高的尺寸会增加复杂性,但也可能有用。矩阵的每个单元可以保存8位(或其他)数值,其含义取决于***700。应当了解的是,使用用于不同激励的标准***将能够实现快速机器比较以及不同激励之间的相关及其相关联的响应。与每个单元相关联的特定含义并不重要,但至少在某些情况下,单元的值应该对响应产生重大影响,否则参数不值得跟踪。因此,可以组织一般激励组织***700以使得能够对所有感兴趣的激励使用标准矩阵,同时最大化每个单元值对相关联的社交响应的影响。
图7B示出了应用于***750的相同组织和量化原理,用于表征社交响应,在该示例中,顶级类别752与语音相关。时间组760与日期时间无关,因为该方面由激励发生的时间控制。主时间参数762与在接收到激励之后进行说话响应的速度有关。身份组770可以包含语音内容的数字度量,例如语音长度772、其幽默字符774、其真值776等。在图7A-图7B所说明的组织方案中,所说的实际单词不能容易地用数字表示。相反,对于使用独特的常备用语(stock phrases)的角色,可以基于组720中的内容身份参数的组合对每个常备用语进行评分,从而在社交适合于展示的个性时通过评分比较来识别。位置组780可以包含参数782、784,其涉及语音相对于被寻址的人或事物而被寻址(addressed)的方向,或者其涉及如果被指示离开(例如,转离、摇其头)的非直截了当的响应被认为更确切,则从被寻址的人或事物转离。性能参数组790的方式可以包括调步参数790、音量参数794和细微参数796。类似的组织原则可以用于激励***(例如,700)和响应***(750),但是在两种情况下都应该注意激励的测量参数不是更真实地与响应相关,反之亦然。
图8说明了用于保存用于激励或响应的量化的多参数数据的平坦数据结构800的方面。报头801可以包括用于顶级激励或响应类别的标识符802。报头801还可以包括数据结构800中使用的子类的总数(‘N’)808的指示806。每个子类标识符810、814、818可以与如上所述的参数组相关联。报头801之后可以是值列表812、816、820,其可以各自定义可以通过位位置区分的若干不同参数。组内的参数可以按预定顺序由数值812、816、820中的预定位数指定。数据结构800包括数字值的字符串,其具有足够的索引信息以利用该字符串。
图9以图形方式说明了***900,其中4×6数字激励值902与4×4数字响应值904配对。另外,所说明的激励-响应对902、904基于任何有用的尺度与该对的单个1×8数字精神状态指示符906相关。在所说明的示例中,黑色表示最大值,白色表示最小值,灰色表示某个中间值,以及“X”表示空(不适用)值。每个单元或方框表示激励或响应的参数值。因此,***900说明了如何使用纯数值方法将特定精神状态指示符906与一个或更多个数字表示的激励-响应对相关联。
例如,给定在一致方案下数字表示的许多激励-响应对的大量集,处理器可确定激励矩阵的每个单元与响应矩阵的每个单元之间的相关系数。对于激励矩阵的每个单元,处理器可以使用诸如皮尔森相关系数之类的度量在整个行为集上确定最正相关的响应参数和最负相关的响应参数。例如,行-列(1、1)处的激励参数的值可以与(1、4)处的响应参数最正相关,并且与(2、2)处的响应参数最负相关。如果是这样,则作为整体的激励响应对902、904的精神状态指示符906的前两个值可以指示相关的值。例如,正相关的量(例如,0和1之间的数字)可以由七个二进制数字加一个数字来指示,以指示符号(正或负),而负相关的量可以使用相同的方案指示。如果针对每个激励值重复这一过程,则可以确定激励-响应对的数字精神状态指示符,而无需人类定性地评估激励-响应对。这可以针对与特定用户识别的每个不同的激励-响应对集来完成,以为用户提供一组定制的精神状态指示符。替代地或另外地,可以聚合来自不同用户的激励响应数据以提供聚合的精神状态指示符。与预定的标准化尺度不同,纯数字定义的精神状态指示符的含义取决于激励-响应(精神状态指示符的含义从其中导出)和用于导出它的数值方法。只要数值方法反映了行为集的激励与响应之间相关的合理度量,如果不比通过更多定性方法导出的指示符更好的话,数值导出的精神状态指示符也应该同样有效。
与上文描述的示例不同,使用纯自动化的数字处理定义的定量精神状态指示符可能不具有可以容易地用单词表达的任何含义。尽管如此,自动确定的指示符使社交机器人能够选择适当的响应,因为指示符将捕获激励和响应之间最重要的相关。例如,考虑从特定激励-响应对(902、904)导出的数字确定的精神状态指示符如何与结合图6描述的语义元数据相关联。精神状态指示符将需要像以前一样相对于语义元数据进行评分。然而,可以在选择的关键精神状态指示符之间***评分。例如,如果认为特定的精神状态指示符特别好地指示了“焦虑”的精神状态,则可以将其指定为焦虑精神状态的“关键”值。
对于多因素精神状态指示符,不同因素可能与不同的响应策略或多或少相关,因为每个因素都与特定的激励/响应因素有关。一些激励/响应因素与某些响应策略比其他策略更相关。例如,衡量用户反映社交机器人行为的程度的“镜子”因素可能与表达同情的策略正相关,并与提供对比意见的策略负相关。因此,如前所描述的,语义关联评分也可以在不同策略的不同关键精神状态指示符值之间进行插值。有利地,对精神状态指示符使用数字确定的度量可以促进对语义元数据的相关联的数字确定,从而减少对人类参与的需要。
一般而言,无论精神状态指示符是纯数字推导还是基于某些人类可理解的符号,基于适用的尺度对任何特定的激励-响应对进行评分,都应该使社交机器人能够在以后识别所有机器人的社交行为的适当子集,该子集仅包含当前角色和情绪的特定个性配置文件的期望相似度(例如,正负10%)内的行为,或者被标记为从开发当前个性配置文件的行为集的一部分。无论如何开发个性配置文件,社交机器人的实时操作总是基于编程到机器人控制的(一个或更多个)处理器中的算法而完全自动化。
用于响应表征的过程1000的示例在图10中所示为社交机器人的处理器的性能。响应表征有助于从精神状态指示创建激励-响应对。在框1002处,处理器经由数据流或文件接收传感器数据(如果是真实的社交机器人)或建模的环境数据(如果是虚拟社交机器人),并将接收的数据记录在高速缓冲存储器1004中。在1006处,处理器使用如机器人领域中已知的任何合适的事件检测方法来分析来自高速缓存的数据并检测一个或更多个用户事件。检测到的事件是由用户生成的社交事件,例如,微笑、转向面对机器人、转离机器人和低语等。处理器将检测到的事件的标识符放置在事件高速缓存1008中。与事件检测1006并行地,处理器将当前事件高速缓存1008的内容与计算机存储器中的机器人用户响应库1012进行比较1010,计算机存储器包含与机器人输出的任何定义的社交激励相关联的所有用户响应。如果没有检测到响应1016,则该过程循环回到框1002,直到社交机器人的操作在1020结束。如果在1016处检测到响应,则处理器发信号通知警报1014,其指示用于构建当前激励-响应对的检测到的响应的标识符。将机器人忽略可能是社交响应,也可能是无意的。因此,如果激励和环境状况可能是有意的,则可以将缺乏响应识别为“故意忽略”响应。机器人本身负责产生相关的激励,因此可以通过记录特定激励-响应事件的发生来响应警报。一旦在1014处提供警报,处理器刷新1018高速缓存1004和1008,并且过程1000循环回到框1002,直到社交机器人的操作完成。
前述方法中的每个可以实施为真实社交机器人1100中的模块或由真实社交机器人1100处理,例如如图11中示意性所示。社交机器人1100可以包括机电组件,该机电组件包括被配置为容纳在外甲或外壳1130中的计算机的电路。该电路可以包括(一个或更多个)中央处理单元1102,其可操作地耦合到驱动电动机1122的电动机驱动器控制器1120,电动机1122移动负载(负载包括连接到社交机器人1100的头部或机身部分的机械装置),从而导致头部或机身部分以具有社交意义的方式移动。处理器基于如上所描述的选择的行为响应来确定响应并向电动机驱动器1120提供运动控制信号。运动控制信号使电动机1122按照处理器1102选择的响应移动连接的机身部位。
除了处理器1102之外,机器人1100还可以包含用于计算的其他组件。例如,处理器电路可以耦合到用户接口组件1104,例如键盘或触摸屏,用于输入用户控制。处理器电路可以耦合到显示组件1110,例如触摸屏或其他显示器。显示器1110可以用于用户界面,以显示社交机器人的表情特征(例如,面部),或者用于两者。处理器电路可以耦合到一个或更多个传感器1106,传感器1106被配置用于感测机器人周围的环境或机器人与之交互的对象的一个或更多个环境状况。一个或更多个传感器1106可以包括例如相机、光传感器、麦克风、温度传感器、压力传感器、加速度计、触摸传感器、接近传感器、脉冲传感器、注视方向传感器或其他传感或低通道MEMS器件。处理器电路可以耦合到通信端口1108,用于耦合到计算机网络,或耦合到数据通信网络,用于接收数据和程序指令。处理器电路还可以耦合到音频输出换能器1118,用于输出机器人发声。处理器电路还可以耦合到易失性随机存取存储器器件1114和非易失性存储器1116,用于程序指令和数据的长期存储。在图12中以等距视图示出了真实社交机器人1200的示例。社交机器人1200包括具有机械基座的智能电话1202(或类似的计算和无线通信器件)的部件。智能电话1202经由有线或无线接口耦合到基座1204中的电源和控制电路。智能电话1202和基座单元1204分别或一起包括电子基板,该电子基板拥有耦合到存储器的一个或更多个处理器以及耦合到用于驱动机器人的组件的至少一个电路。基座单元中的电路可以类似于结合图11描述的电路,减去由智能电话提供的触摸屏显示器。智能电话中的电路也可以类似于图11的电路,减去电动机和运动组件。基座单元和智能电话一起包括具有图11中所描绘的所有组件的电路。例如,机器人的传感器可以包括安装在智能电话1202的机身中的相机1226。
在一些实施例中,用于控制社交机器人的操作的主处理器和应用程序位于智能电话1202中,其中基座单元1204中的处理器作为从属***或客户端***操作。在替代实施例中,用于控制社交机器人的操作的主处理器和应用程序位于基座单元1204中,其中智能电话1202扮演客户端或从属角色。双器件模块化结构提供了使得通常可用的通用器件(智能电话)能够提供机器人1200的许多必要组件的优点,同时仍允许其在其他时间用作智能电话。尽管如此,本文中用于控制真实社交机器人的方法同样适用于机器人的模块化和整体设计。
在机器人1200中,面部组件包括显示屏1216,显示由智能电话处理器控制的人类可识别的表情特征1218,包括可配置的眉毛1220、可配置的一双眼睛1222和可配置的嘴1224。这些组件可以是基于要模拟的角色的个性配置文件动画化的。屏幕1216和智能电话音频换能器还可用于输出环境响应,例如播放选择的音频-视频片段。机器人1200还包括无线通信特征,通过该无线通信特征,它可以响应于用户的社交行为发送用于控制环境节点的数据信号,如上文更详细地描述的。
机器人1200还包括耦合到面部组件的可移动头部组件。可移动头部组件包括智能电话1202。虽然机器人1200缺少类人躯干或附肢,但如果需要,可以添加这些躯干或附肢。可移动头部(电话1202)本身可以至少部分地由智能电话1202中的处理器控制,而基座单元1204及其包括的旋转“颈部”组件1206的移动可以至少部分地由基座单元1204中的处理器控制,其与智能电话1202中的处理器通信。
机器人1200还可以包括耦合到智能电话1202的控制电路的音频输出(未示出)。替代地或另外地,音频输出换能器可以位于基座单元1204中。音频输出传感器中的任何一个或两个都可以用于机器人的社交发声。音频换能器也可以用作接近感应声纳***的组件。
基座壳体1208可以被配置为经由颈部机械装置1206耦合到头部组件(智能电话1202)的躯干组件,颈部机械装置1206由基部单元1204中的一个或更多个处理器控制。颈部机械装置1206允许头部组件1202相对于躯干组件1208旋转。躯干组件(壳体)1208可以经由位于基座壳体1208内部的电动机和电动机驱动器连接到控制电路。基座壳体1208可以由轮子或脚轮(其在1210处示出)支撑,其中至少一个在机器人的中央处理器的控制下由电动机驱动,并且其中至少一个可以被转向。相应地,壳体1208可以在任何可导航的硬表面上移动和旋转。“头部”1202还可以转动到面向该区域中的任何用户、人或物体,由颈部和躯干组件1206、1208提供两个旋转自由度。
为了防止碰撞或跌倒,一对接近传感器1212、1214和/或相机1226可以向在机器人的处理器中执行的导航引擎提供导航数据。导航引擎可限制或更改可移动躯干1208和颈部1206的运动以防止碰撞和跌倒,同时另外提供符合所请求的社交行为的输出运动。
为此,机器人1200的计算机存储器可以保存程序指令,当程序指令由其一个或更多个处理器执行时,致使社交机器人向用户与机器人的社交交互提供共情环境响应(例如,播放视频片段),并执行如本文所描述的更详细的操作。
本文中描述的共情环境控制技术可以同样应用于虚拟社交机器人,虚拟社交机器人可以与虚拟环境中的用户进行社交交互,并且与用户的真实或虚拟环境中的网络节点通信。因此,虚拟社交机器人可以实施本文描述的不需要物理机器人动作的任何详细操作。
例如,图13以框图形式示出了虚拟社交机器人1300的硬件组件。虚拟社交机器人1300包括控制处理器1302,其可以用于生成虚拟环境和其中的虚拟社交机器人,或者可以专用于社交机器人或社交机器人以及其虚拟环境的一些有限部分。处理器1302可以耦合到能够执行程序指令的短期存储器1304(例如,RAM),以及用于虚拟数据和程序指令的长期存储设备的非易失性数据存储1306。处理器1302可以耦合到通信端口,用于经由数据通信或计算机网络发送和接收数据。
可以经由至少两个输出来表达虚拟社交机器人1300:音频和视频。社交机器人1300可以包括耦合到处理器1302的音频驱动器组件1312,产生用于提供给音频输出换能器1320的音频信号1313。社交机器人1300还可以包括耦合到处理器1302的图形驱动器组件1310,产生用于提供给视频显示器件1318的视频信号1313。虚拟社交机器人1300可以将程序指令保存在存储器1304中,当程序指令由处理器1302执行时,使得社交机器人向用户与机器人的社交交互提供共情环境响应(例如,播放视频片段),并执行如本文所描述的更详细的操作。
图14示出了虚拟社交机器人的硬件或固件组件1400的示例。机器人的硬件组件可以与结合图13示出和描述的那些一致。固件组件1400的软件可包括几何网格1402、骨架的电枢或***1404、网格变形规则1406集以及表面呈现数据1408(例如,漫反射、镜面反射和凸起或高度图),该网格变形规则1406组控制网格如何响应电枢1404的移动。软件或固件组件可包括模型操纵和呈现领域中已知的任何合适的元件。可以以任何期望的方式配置组件,以致使当被呈现时,呈现在任何期望外观1410的虚拟社交机器人中。具有某种个性的单个虚拟机器人甚至可以采用不同的外观作为社交表达的形式。操纵和呈现虚拟角色的技术方面在本领域中是很好理解的,并且可以容易地适用于基于本文中所描述的针对社交机器人的社交交互技术来使用环境控制。
参考图15,可以协调1500真实社交机器人和虚拟社交机器人以表示整体的真实虚拟社交机器人。例如,携带***件的真实移动社交机器人可以围绕虚拟现实游戏的物理游戏空间移动(例如,通过在地板上方移动、在空中飞行、爬壁或这些或其他运动的组合)。每个穿戴虚拟现实(或增强现实)装备的一个或更多个用户可以在对应于真实社交机器人的当前位置的位置处看到和听到在虚拟环境(或增强真实环境)中呈现的虚拟社交机器人。真实社交机器人可以响应于真实环境和虚拟环境中的用户动作而移动。例如,魁地奇(Quidditch)的游戏可能会以这种方式进行,或者类似的游戏,其中魁地奇飞贼被具有个性的角色所取代,例如,进一步的示例,“捕捉兔八哥(capture Bug Bunny)”的游戏;混合社交机器人的许多使用情况也是可能的。在这些使用情况的每个中,用于混合现实会话的控制处理器可以将整体(总)的行为响应集1502分配给真实响应集1504和虚拟社交机器人响应集1506。例如,可以将整体运动响应分配给真实机器人,以及分配给虚拟机器人的其他响应(例如,面部表情和语音)。激励用于触发响应可以相反地通过聚合在真实和虚拟背景中检测到的激励来检测。控制处理器可以进一步同步响应集1504、1508,以便协调真实社交机器人和虚拟社交机器人的响应。在其他方面,响应于用户与机器人的社交交互,提供共情环境输出(例如,播放视频片段)可以如本文其他地方所描述的那样执行。
鉴于前述,并通过附加的示例,图16示出了方法800或用于控制响应于用户与机器人的社交交互,提供共情环境输出(例如,播放视频片段或其他非机器人动作)的社交机器人的方法的方面。方法1800可以由计算机处理器来执行,所述计算机处理器控制真实社交机器人、混合现实输出器件、计算机网络或前述的组合以及连接到如上文所描述的处理器的组件。执行方法1600的真实或虚拟社交机器人可以包括耦合到至少一个电路的一个或更多个处理器,用于驱动社交机器人的组件,例如图11中所示的处理器1102和相关联电路。社交机器人还可以包括连接到至少一个电路的社交表情组件,社交表情组件包括由一个或更多个处理器根据社交行为算法控制的人类可识别的表情特征。例如,真实社交机器人可以包括如图12所示的描画面部的显示屏1216,而虚拟社交机器人可以包括用于具有面部的角色1410的呈现和建模组件。执行方法1600的社交机器人可以进一步包括相机或麦克风中的至少一个,该相机连接到至少一次电路,被定位用于观察与社交机器人交互的用户,麦克风连接到至少一个电路,被定位用于接收来自用户的声音的。例如,图1中所示的真实社交机器人102包括相机114和麦克风116二者。虚拟社交机器人可以使用耳机接口并从为感测用户动作而定位安装在耳机上的相机或麦克风接收数据。执行方法1600的社交机器人还可以包括程序存储器,其耦合到至少一个电路和一个或更多个处理器,程序存储器保存程序指令,其被配置为由一个或更多个处理器执行,使得社交机器人执行该方法的操作。例如,社交机器人可以包括如图1所示的存储器106、如图11所示的RAM 114或如图13所示的存储器1304。
方法1600可以包括在1610处通过操作社交表情组件与用户进行社交交互。社交表情组件可以耦合到用于驱动社交机器人的组件的至少一个电路。社交表情组件可以包括根据社交行为算法由至少一个电路控制的人类可识别的表情特征(例如,在视频屏幕上显示的眼睛、眉毛、嘴)。社交行为算法可以基于检测到的社交设置和用户社交响应来选择机器人的社交动作(例如,微笑、皱眉、说话、转动、移动)。
方法1600还可以包括:在1620,由一个或更多个处理器至少部分地基于来自耦合到至少一个电路的视频相机和麦克风的数据来确定用户行为。“确定”是指基于来自视频相机或麦克风的输入识别用户行为的意义。在一个方面中,用于确定1620的信息的来源可包括耦合到处理器的一个或更多个物理传感器,并且确定1620的操作包括基于来自一个或更多个传感器的数据识别该组事件。用户的社交动作排除了用户向机器人发出命令,而是其意图是机器人自动执行用户命令。然而,社交动作可以包括用户的请求,在机器人至少部分地基于进行请求的社交内容确定其响应的内容中,而不仅仅是请求的内容。确定1620可以包括各种社交动作识别模式,例如,结合图3的框302-310所描述的。也可以使用用于社交动作识别的其他技术。
方法1600还可以包括:在1630处,由一个或更多个处理器将用户行为与社交机器人的社交行为相关。相关1630可以包括过滤动作数据的高速缓存,例如,结合图3的框316和图4所描述的,或者如结合图9-图10所描述的纯数字相关。如上文所解释的,相关开发了精神状态指示符,并且它是能够响应于用户的社交行为举止,选择共情环境行为的精神状态指示符。在前述公开中已经提供了共情动作的各种示例,例如,播放所选视频片段、更换房间照明、播放情绪音乐等。
方法1600还可以包括在1640处基于相关生成数据信号。例如,处理器可以在为用户环境中的输出器件选择响应之后,编码指令用于使输出器件在输出器件所连接的网络的通信层上执行响应。方法1600还可以包括:在1650处,输出数据信号,该数据信号被配置用于使电子输出器件响应由数据信号编码的信息。例如,处理器可以将数据信号发送到社交机器人的发射器组件,该社交机器人的发射器组件将数据信号发射到输出器件。
在该方法的一个实施例中,机器人包括电子基板,该电子基板拥有耦合到存储器的一个或更多个处理器以及用于驱动机器人的组件的至少一个电路。在这样的实施例中,使机器人执行响应可以包括向电路发送电信号,其中该信号被配置为使连接到电路的电动机移动机器人的一部分(例如,头部、颈部或附肢)。另外或者替代地,机器人包括电子基板,其拥有可操作地耦合到存储器和社交表情组件处理器,社交表情组件包括由一个或更多个处理器根据社交行为算法控制的人类可识别的表情特征。在这样的实施例中,使机器人执行响应可以包括向社交表情组件发送电信号,该信号被配置为引起表情特征的移动。例如,社交表情组件可以包括视频显示屏幕,并且机器人可以向显示屏幕发送编码一个或更多个人类可识别的表情特征(例如,至少两个这样的特征)的视频信号,从而引起面部表情中的那些特征的动画。
在替代实施例中,机器人包括耦合到存储器、用户输入端口和视频输出器件的处理器,例如视频屏幕、投影仪、虚拟现实耳机或增强现实耳机。机器人的社交行为的用户体验可以完全是虚拟的。在这样的实施例中,使机器人执行响应可以包括建模虚拟计算机环境中的模型的动画,呈现环境和机器人以及向视频输出器件发送电信号,使视频输出器件输出视频或执行响应的机器人的等效移动图像。在这样的实施例中,关于机器人经历的事件的信息的来源可以包括机器人在其中起作用的虚拟环境的计算机模型,并且识别激励可以包括跟踪计算机模型的活动。
图17和图18示出了可以并入方法1600中的附加操作1700和1800。任何一个或更多个附加操作1700或1800可以以任何操作顺序与方法1600的其他操作组合。将操作1700和1800组织成单独的图仅仅是为了说明方便,并且不应该被解释为对所公开的方法有意义。
参考图17,方法1600可以包括任何一个或更多个附加操作1700。方法1600可以包括在1710处基于相关确定当前精神状态指示符。精神状态指示符可以如例如结合图3和图4的框316所描述的那样确定,或者如结合图9-图10所描述的那样确定。替代地,可以在不导出单个符号指示符的情况下完成相关,例如,通过确定多个指示符,或者通过使用关系数据结构来将用户行为与机器人的社交行为相关。
方法1600可以包括在1720处,基于将与标识符相关联的语义元数据与当前精神状态指示符进行比较,引起选择预先记录的音频-视频内容片段的标识符。在上文中结合图5和图6描述了选择预先记录的音频-视频片段的更详细方面。在一个方面中,响应于当前精神状态指示符或响应于预期的未来状况,可以选择性地与社交机器人的用户共享本地或远程内容数据库。例如,内容数据库可以包括基于其语义内容索引的视频片段、音频-视频片段或音频片段。社交机器人可以被配置为输出用于任何社交目的的片段中所选择的一个。例如,如果社交机器人感测到其用户不高兴,则可以从用户已知喜欢的内容或角色的片段中选择幽默片段。对于进一步的示例,如果社交机器人正在评论感测到的社交情况,例如,为了鼓励用户进行一些锻炼,它可以播放一个片段,该片段被标记为适合具有与当前用户匹配的个人特性或人口统计中的特性的用户,并且以某种方式提醒用户起床并进行一些锻炼。相应地,可以通过社交机器人的内容选择算法选择的片段的背景和选择来使用户娱乐。在更详细的方面,并且对于进一步的示例,机器人可以:
·了解当前用户或用户可能关注的相关内容片段类型,例如通过识别使(一个或更多个)目标用户感兴趣的区域、流派、作品(散文、诗歌、图片、视频、艺术等),然后视听输出所选择的内容片段,上述识别通过询问或‘测试’(一个或更多个)目标用户的兴趣水平;
·无线发送选择的内容片段(或将它们从远程服务器发送)到独立于机器人的视听显示装备(例如,扬声器、电话、平板电脑、PC、智能电视、AR耳机或眼镜等),使得(一个或更多个)目标用户可以看到和/或听到与涉及社交机器人的社交交互同步的,或者响应于授权的用户请求的内容片段;
·命令诸如AmazonTM EchoTM和Fire StickTM之类的无线器件以调入或以其他方式获得(一个或更多个)目标用户的相关内容,其中内容由社交机器人基于用户/情境参数来选择,或由用户来选择。
方法1600可以包括在1730处,将当前精神状态指示符发射到远程服务器,以及从远程服务器接收预先记录的音频-视频内容片段的标识符。相应地,机器人可以依赖于另一个网络节点来执行内容选择。所选择的内容可以从任何合适的网络节点流式传输或以其他方式提供给选择的输出器件。在一个方面,社交机器人的存储器可以保存用于预先记录的音频-视频内容片段的标识符,每个片段与关于对应的内容片段的语义元数据的语义元数据相关联。在这种情况下,方法1600可以包括在1730处使社交机器人执行内容选择算法,从而引起标识符的选择。
方法1600可以包括在1740处,至少部分地通过确定当前精神状态指示符来执行相关,使得指示符指示用户情绪的指示符或用户期望的指示符中的至少一个。例如,皱眉可以被解释为指示不愉快的情绪。不安定的行为可以被解释为指示对不同的东西或激励的渴望。
在一个方面,电子输出器件可以是或可以包括音频-视频输出器件。方法1600可以包括在1750处使社交机器人执行配置数据信号,使得预先记录的音频-视频内容片段由音频-视频输出器件输出。例如,社交机器人可以将音频-视频片段流式传输到输出器件,通过内部总线将其发送到集成到社交机器人的电路中的视频输出器件,或者将包含音频-视频片段的文件发送到输出器件。音频-视频输出器件可以耦合到社交表情组件,例如,视频输出器件可以通过计算机网络耦合到社交机器人。替代地,社交表情组件可以是或可以包括音频-视频输出器件,例如,用于提供机器人的面部表情的视频屏幕也可以用于输出视频。
参考图18,方法1600可以包括任何一个或更多个附加操作1800。方法1600可以包括在1810处配置数据信号以使电子输出器件响应,其中电子输出器件包括家用电器或机动车辆中的至少一个,以及由数据信号编码的信息包括用于家用电器或机动车辆的操作指令。响应于相关(例如,使用精神状态指示符)操作家用电器的示例在上面例如,结合图1所描述。
如上所述,社交机器人可以包括专用的生物特征传感器,例如,脉搏传感器、皮肤温度传感器或凝视方向传感器。生物特征传感器可以耦合到至少一个电路,用于响应于用户的身体上的状态提供数据信号。在这种情况下,方法1600可以包括在1820处进一步基于来自生物特征传感器的数据信号确定当前精神状态指示符。生物特征传感器可以经由干涉(intervening)无线接收器和发射器对耦合到至少一个电路。
方法1600可以包括在1830处进一步基于与用户的社交交互正在发生时的检测到的背景来选择将数据信号发送到输出器件而引起的响应。例如,社交机器人可以依据用户在家、在办公环境中或者在其他人附近来选择不同的内容进行游戏。在一个方面,该方法可包括在1840处进一步基于位置信标或其他物联网微机电传感器(IOT MEMS)信号选择响应。例如,社交机器人可以从位于该区域中的发射器接收具有位置或当前事件信息的无线信标。社交机器人可以包括将位置或当前事件信息作为排除以其他方式相关的共情动作的附加过滤器。替代地,机器人可以使用信标信息作为吸引者,其包括响应列表中的附加共情动作。方法1600可以进一步包括结合上面概述的步骤的更详细的操作,如在前面的描述中所描述的。
图19是说明了用于响应于用户与机器人的社交交互来控制提供共情环境输出(例如,播放视频片段或其他非机器人动作)的社交机器人的设备或***1900的组件的概念框图。设备或***1900可以包括用于执行如本文所描述的功能或处理操作的附加或更详细的组件。例如,处理器1910和存储器1916可以包含用于响应于用户与机器人的社交交互而提供共情环境输出的过程的实例化。如图所描绘的,设备或***1900可以包括功能框,其可以表示由处理器、软件或其组合(例如,固件)实施的功能。
如图19所说明的,设备或***1900可以包括用于与用户进行社交交互的电子组件1902。组件1902可以是或可以包括用于所述交互的装置。所述装置可以包括耦合到存储器1916的处理器1910,处理器基于存储在存储器中的程序指令执行算法。这种算法可以包括更详细的操作的序列,用于与用户进行社交交互,例如,如结合图1-图2所描述的。例如,所述装置可以包括耦合到至少一个电路的社交表情组件,用于驱动社交机器人的组件。社交表情组件可以包括根据社交行为算法由机器人的至少一个电路控制的人类可识别的表情特征,其中至少一个电路包括一个或更多个处理器。
设备1900还可以包括用于至少部分地基于来自耦合到至少一个电路的视频相机和麦克风的数据来确定用户行为的电子组件1903。组件1903可以是或可以包括用于所述确定的装置。所述装置可以包括耦合到存储器1916和至少一个传感器(未示出)的处理器1910,处理器基于存储在存储器中的程序指令执行算法。这种算法可以包括更详细的操作的序列,例如,如结合图3在框302-310处所描述的。
设备1900还可以包括用于将用户行为与社交机器人的社交行为相关的电子组件1904。组件1904可以是或可以包括用于所述相关的装置。所述装置可以包括耦合到存储器1916的处理器1910,处理器基于存储在存储器中的程序指令执行算法。这种算法可以包括更详细的操作的序列,例如,用于导出精神状态指示符的任何过程,如本文上面结合图4或图9-图10所描述的。
设备1900还可以包括用于基于相关生成数据信号的电子组件1905。组件1905可以是或可以包括用于所述生成的装置。所述装置可以包括耦合到存储器1916的处理器1910,处理器基于存储在存储器中的程序指令执行算法。这种算法可以包括更详细的操作的序列,例如,通过输出器件接收期望动作的标识符,以及根据输出器件的应用接口编码执行动作的指令。
设备1900还可以包括电子组件1906,其用于输出数据信号,所述数据信号被配置用于使电子输出器件响应于由数据信号编码的信息,生成共情响应的。组件1906可以是或可以包括用于所述输出的装置。所述装置可包括处理器1910,其可操作地耦合到存储器1916,以及耦合到电机驱动器1912、音频适配器1913、显示适配器1914中的一个或更多个,或耦合到网络接口模块,处理器基于存储在存储器中的程序指令执行算法。这种算法可以包括更详细的操作的序列,例如,寻址(addressing)数据信号到选择的输出器件,将被寻址的数据信号提供给网络接口模块,以及经由网络接口模块将数据信号发送到输出器件。
设备1900可以可选地包括具有至少一个处理器的处理器模块1910。处理器1910可以经由总线1913或类似的通信耦合与模块1902-1906进行操作性通信。替代地,可以将一个或更多个模块实例化为处理器的存储器中的功能模块。处理器1910可以实现由电子组件1902-1906执行的过程或功能的启动和调度。
在相关方面,设备1900可以包括网络接口模块(未示出),其可操作用于通过计算机网络与***组件通信,在收发器1912之外额外地或代替收发器1912。网络接口模块可以是或可以包括例如以太网端口或串行端口(例如,通用串行总线(USB)端口)。在进一步的相关方面,设备1900可以可选地包括用于存储信息的模块,例如存储器器件1916。计算机可读介质或存储器模块1916可以经由总线1913等可操作地耦合到设备1900的其他组件。存储器模块1916可以适于存储计算机可读指令和数据,用于实现模块1902-1906及其子组件或处理器1910或方法1600以及本文中所公开的一个或更多个附加操作1700或1800的过程和行为。存储器模块1916可以保留用于执行与模块1902-1906相关联的功能的指令。虽然示出为在存储器1916外部,但是应该理解,模块1902-1906可以存在于存储器1916内或处理器1910的片上存储器中。
设备1900可以包括配置为无线发射器/接收器或者有线发射器/接收器的收发器(未示出),用于向/从另一个***组件发射并且从另一个***组件接收通信信号。在替代实施例中,处理器1910可以包括来自在计算机网络上操作的器件的联网地微处理器。另外,设备1900可以包括音频适配器1913,用于向音频输出器件提供音频信号,使输出器件将社交机器人响应发声给用户。设备1900可以包括显示适配器1914,用于为虚拟环境提供视频信号、为用户提供社交机器人输出或二者。设备1900可以包括用于向电动机提供电力的电动机驱动器,使电动机以提供社交动作用于用户体验的的方式移动社交机器人的一部分。
所属领域的技术人员将进一步了解,结合本文中所公开的方面而描述的各种说明性逻辑框、模块、电路和算法步骤可实施为电子硬件、计算机软件或二者的组合。为了清楚地说明硬件和软件的这种可互换性,上面已经在其功能方面对各种说明性的组件、框、模块、电路和步骤进行了总体描述。将此功能性实施为硬件还是软件取决于特定应用和强加于整个***的设计约束。技术人员可以针对每个特定应用以不同方式实施所描述的功能,但是这种实施决策不应被解释为导致脱离本公开的范围。
如在本申请中所使用的,术语“组件”、“模块”、“***”等旨在指代与计算机相关的实体,硬件、硬件和软件的组合、软件或执行中的软件。例如,组件或模块可以是但不限于是在处理器上运行的进程、处理器、对象、可执行文件、执行的线程、程序和/或计算机。举例来说,在服务器上运行的应用程序和服务器都可以是组件或模块。一个或更多个组件或模块可以驻留在进程和/或执行的线程内,并且组件或模块可以位于一个计算机上和/或分布在两个或更多个计算机之间。
将根据可包括多个组件、模块等的***来呈现各个方面。应理解和了解,各种***可包括附加组件、模块等,和/或可不包括结合附图所讨论的所有组件、模块等。也可以使用这些方法的组合。本文公开的各个方面可以在电子器件上执行,包括利用触摸屏显示技术、提示用户接口、可穿戴接口和/或鼠标和键盘类型接口的器件。这种器件的示例包括VR输出器件(例如,VR头戴式耳机)、AR输出器件(例如,AR头戴式耳机或眼镜)、(台式和移动式)计算机、智能电话、个人数字助理(PDA)、平板电脑、机动车辆或船只、包括自动驾驶汽车和其他有线和无线电子器件。
另外,结合本文公开的方面描述的各种说明性逻辑框、模块和电路可以用通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其他可编程逻辑器件、分立门或晶体管逻辑、分立硬件组件或其任何组合来实施或执行,其被设计用于执行本文中所描述的功能。通用处理器可以是微处理器,但是替代地,处理器可以是任何传统的处理器、控制器、微控制器或状态机。处理器还可以实施为计算器件的组合,例如DSP和微处理器的组合、多个微处理器、结合DSP内核的一个或更多个微处理器或任何其他这样的配置。
本文中公开的操作方面可以直接体现在硬件中、由处理器执行的软件模块中或者二者的组合中。软件模块可以驻留在RAM存储器、闪存、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动磁盘、CD-ROM、数字通用光盘(DVD)、Blu-rayTM或本领域已知的任何其他形式的存储介质。示例性存储介质耦合到处理器,使得处理器可以从存储介质读取信息和向存储介质写入信息。替代地,存储介质可以与处理器集成。处理器和存储介质可以驻留在ASIC中。ASIC可以驻留在客户端器件或服务器中。替代地,处理器和存储介质可以作为分立组件驻留在客户端器件或服务器中。在另一个替代方案中,本文公开的操作方面可以体现在软件的流中,该软件的流实时或接近实时地馈送到机器人硬件,然后由处理器或软件模块或二者的组合执行。通过这种方式,可以将计算能力卸载到云端,结果是,机器人的机载处理是有限的,而基于云的计算能力几乎可以不受限制,这允许更复杂的输入、后续分析、识别和/或响应,以及将在云中完成的相关的计算任务。
此外,可以使用标准编程和/或工程技术将一个或更多个版本实施为方法、设备或制品,以产生软件、固件、硬件或其任何组合,以控制计算机实施所公开的方面。非暂时性计算机可读介质可包括但不限于磁存储器件(例如,硬盘、软盘、磁条或其他格式)、光盘(例如,光盘(CD)、DVD,Blu-rayTM或其他格式)、智能卡和闪存器件(例如,卡、签或其他格式)。本领域技术人员将认识到,在不脱离所公开方面的范围的情况下,可以对该配置进行许多修改。
提供对所公开的方面的先前描述是为了使所属领域的技术人员能够制作或使用本公开。对于本领域技术人员来说,对这些方面的各种修改是明显的,并且在不脱离本公开的精神或范围的情况下,本文中定义的一般原理可以应用于其他实施例。因此,本公开不旨在限于本文所示的实施例,而是与符合本文公开的原理和新颖特征的最宽范围相一致。
在上文描述的示例性***的视图中,已经参考若干流程图描述了可以根据所公开的主题实施的方法。虽然为了简化解释说明的目的,将方法示出并描述为一系列框,但应理解和了解的是,所要求保护的主题不受框的顺序限制,因为一些框可以以与本文描绘的和描述的不同的顺序和/或与本文描绘的和描述的其他框同时出现。此外,可能不需要所有说明的框来实施本文描述的方法。附加地,应进一步了解,本文所公开的方法能够存储在制品上以促进将此类方法传输和转移到用于社交机器人的处理电路。

Claims (29)

1.一种社交机器人,其包括:
一个或更多个处理器,其耦合到用于驱动所述社交机器人的组件的至少一个电路;
社交表情组件,其连接到所述至少一个电路,所述社交表情组件包括由所述一个或更多个处理器根据社交行为算法控制的人类可识别的表情特征;
相机或麦克风中的至少一个,所述相机连接到所述至少一个电路,定位用于观察与所述社交机器人交互的用户,所述麦克风连接到所述至少一个电路,定位用于接收来自所述用户的声音;和
程序存储器,其耦合到所述至少一个电路和所述一个或更多个处理器,所述程序存储器保存程序指令,所述程序指令被配置为由所述一个或更多个处理器执行,使所述社交机器人执行包括以下操作的操作:
通过所述社交表情组件与所述用户进行社交交互,
至少部分地基于来自视频相机或所述麦克风中的至少一个的数据来确定用户行为,
将所述用户行为与所述社交机器人的社交行为相关,
基于所述相关生成数据信号,以及
发射所述数据信号,所述数据信号被配置用于使电子输出器件响应由所述数据信号编码的信息。
2.根据权利要求1所述的社交机器人,其中,所述指令还被配置用于使所述社交机器人基于所述相关来执行确定当前精神状态指示符,并且基于与所述标识符相关联的语义元数据与所述当前精神状态指示符进行比较来引起对预先记录的音频-视频内容片段的标识符的选择。
3.根据权利要求2所述的社交机器人,其中,所述指令还被配置用于使所述社交机器人执行将所述当前精神状态指示符发射到远程服务器,以及从所述远程服务器接收所述标识符。
4.根据权利要求2所述的社交机器人,其中所述存储器保存用于预先记录的音频-视频内容片段的标识符,每个预先记录的音频-视频内容片段与关于所述内容片段中的对应的内容片段的语义元数据相关联,并且其中所述指令还被配置用于使所述社交机器人执行执行内容选择算法,从而引起标识符的选择。
5.根据权利要求2所述的社交机器人,其中,所述相关还包括:确定所述当前精神状态指示符,所述当前精神状态指示符包括用户情绪的指示符或用户期望的指示符中的至少一个。
6.根据权利要求2所述的社交机器人,其中,所述电子输出器件包括音频-视频输出器件,并且所述指令还被配置用于使所述社交机器人执行配置所述数据信号,使得由所述音频-视频输出器件输出所述预先记录的音频-视频内容片段。
7.根据权利要求5所述的社交机器人,还包括耦合到所述社交表情组件的所述音频-视频输出器件。
8.根据权利要求6所述的社交机器人,其中,所述社交表情组件包括所述音频-视频输出器件。
9.根据权利要求7所述的社交机器人,其中,所述指令还被配置用于执行内容选择算法,所述内容选择算法包括基于包括用户情绪或用户期望中的至少一个的所述当前精神状态指示符来选择所述标识符。
10.根据权利要求1所述的社交机器人,其中,所述指令还被配置用于配置所述数据信号以使所述电子输出器件响应,其中所述电子输出器件包括家用电器或机动车辆中的至少一个,以及由所述数据信号编码的信息包括用于家用电器或机动车辆的操作指令。
11.根据权利要求1所述的社交机器人,其中所述社交表情组件包括连接到所述至少一个电路的面部组件,所述面部组件包括由所述一个或更多个处理器控制的至少两个人类可识别的表情特征,并且选自:可配置的眉毛、至少一个可配置的眼睛和可配置的嘴。
12.根据权利要求2所述的社交机器人,其中生物特征传感器耦合到用于响应于所述用户的身体上的状态提供数据信号的至少一个电路,并且其中所述指令还被进一步配置用于基于来自所述生物特征传感器的所述数据信号确定所述当前精神状态指示符。
13.根据权利要求12所述的社交机器人,其中,所述生物特征传感器经由干涉无线接收器和发射器对耦合到所述至少一个电路。
14.一种用于基于社交机器人与其用户之间的在先社交交互来控制所述社交机器人的环境的方法,所述方法包括:
通过操作社交表情组件来与所述用户进行社交交互,所述社交表情组件耦合到用于驱动所述社交机器人的组件的至少一个电路的,并且包括根据社交行为算法由所述至少一个电路控制的人类可识别的表情特征,其中,所述至少一个电路包括一个或更多个处理器;
至少部分地基于来自耦合到所述至少一个电路的视频相机和麦克风的数据由所述一个或更多个处理器来确定用户行为,
通过所述一个或更多个处理器将所述用户行为与所述社交机器人的社交行为相关,
基于所述相关生成数据信号,以及
输出所述数据信号,所述数据信号被配置用于使电子输出器件响应由所述数据信号编码的信息。
15.根据权利要求14所述的方法,还包括:基于所述相关确定当前精神状态指示符,并基于将与所述标识符相关联的语义元数据与所述当前精神状态指示符进行比较,引起选择预先记录的音频-视频内容片段的标识符。
16.根据权利要求15所述的方法,还包括将所述当前精神状态指示符发射到远程服务器,以及从所述远程服务器接收所述标识符。
17.根据权利要求15所述的方法,其中耦合到所述一个或更多个处理器的存储器保存用于预先记录的音频-视频内容片段的标识符,每个片段与关于所述内容片段中的对应的内容片段的语义元数据相关联,并且还包括执行内容选择算法,从而引起选择所述标识符。
18.根据权利要求15所述的方法,其中,所述相关还包括确定所述当前精神状态指示符,所述当前精神状态指示符包括用户情绪的指示符或用户期望的指示符中的至少一个。
19.根据权利要求15所述的方法,其中,所述电子输出器件包括音频-视频输出器件,并且还包括配置所述数据信号,使得所述预先记录的音频-视频内容片段由所述音频-视频输出器件输出。
20.根据权利要求14所述的方法,其中,所述电子输出器件包括家用电器或机动车辆中的至少一个,并且由所述数据信号编码的信息包括用于所述家用电器或机动车辆的操作指令。
21.根据权利要求15所述的方法,还包括进一步基于来自生物特征传感器的数据信号确定所述当前精神状态指示符,所述生物特征传感器被配置为响应于所述用户的身体上的状态提供数据信号。
22.一种计算机可读介质,其编码有指令,当所述指令由处理器执行时,使用于基于社交机器人与其用户之间的在先社交交互来控制所述社交机器人的环境的设备,执行:
通过操作社交表情组件与用户进行社交交互,所述社交表情组件耦合到用于驱动所述社交机器人的组件的至少一个电路,并且包括根据社交行为算法由所述至少一个电路控制的人类可识别的表情特征,其中所述至少一个电路包括一个或更多个处理器;
至少部分地基于来自耦合到所述至少一个电路的视频相机和麦克风的数据来确定用户行为,
将所述用户行为与所述社交机器人的社交行为相关,
基于所述相关生成数据信号,以及
输出所述数据信号,所述数据信号被配置用于使电子输出器件响应由所述数据信号编码的信息。
23.一种用于基于社交机器人与其用户之间的在先社交交互来控制所述社交机器人的环境的设备,包括:
用于通过操作社交表情组件来与所述用户进行社交交互的装置,所述社交表情组件耦合到用于驱动所述社交机器人的组件的至少一个电路,并且包括根据社交行为算法由所述至少一个电路控制的人类可识别的表情特征,其中所述至少一个电路包括一个或更多个处理器;
用于至少部分地基于来自耦合到所述至少一个电路的视频相机和麦克风的数据来确定用户行为的装置,
用于将所述用户行为与所述社交机器人的社交行为相关的装置,
用于基于所述相关生成数据信号的装置,以及
用于输出所述数据信号的装置,该数据信号被配置用于使电子输出器件响应由所述数据信号编码的信息。
24.根据权利要求23所述的器件,其进一步包括用于基于所述相关确定当前精神状态指示符,且基于将与所述标识符相关联的语义元数据与所述当前精神因素状态指示符进行比较,引起选择预先记录的音频-视频内容片段的标识符的装置。
25.根据权利要求24所述的设备,还包括用于将所述当前精神状态指示符发射到远程服务器,以及从所述远程服务器接收所述标识符的装置。
26.根据权利要求24所述的设备,其中耦合到所述一个或更多个处理器的存储器保存用于预先记录的音频-视频内容片段的标识符,每个片段与关于所述内容片段中的对应的内容片段的语义元数据相关联,并且还包括用于执行内容选择算法从而引起选择所述标识符的装置。
27.根据权利要求24所述的设备,还包括用于确定所述当前精神状态指示符的装置,所述当前精神状态指示符包括用户情绪的指示符或用户期望的指示符中的至少一个。
28.根据权利要求24所述的设备,其中,所述电子输出器件包括音频-视频输出器件,并且还包括用于配置所述数据信号,使得由所述音频-视频输出器件输出所述预先记录的音频-视频内容片段的装置。
29.根据权利要求24所述的设备,还包括用于进一步基于来自生物特征传感器的数据信号确定所述当前精神状态指示符的装置,所述生物特征传感器被配置为响应于所述用户的身体上的状态提供所述数据信号。
CN201780082251.0A 2016-11-10 2017-11-09 具有环境控制特征的社交机器人 Active CN110139732B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662420492P 2016-11-10 2016-11-10
US62/420,492 2016-11-10
PCT/US2017/060951 WO2018089700A1 (en) 2016-11-10 2017-11-09 Social robot with environmental control feature

Publications (2)

Publication Number Publication Date
CN110139732A true CN110139732A (zh) 2019-08-16
CN110139732B CN110139732B (zh) 2023-04-04

Family

ID=62110567

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780082251.0A Active CN110139732B (zh) 2016-11-10 2017-11-09 具有环境控制特征的社交机器人

Country Status (7)

Country Link
US (2) US11370125B2 (zh)
EP (1) EP3538329A4 (zh)
JP (1) JP7351745B2 (zh)
KR (1) KR102502228B1 (zh)
CN (1) CN110139732B (zh)
CA (1) CA3043016A1 (zh)
WO (1) WO2018089700A1 (zh)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109421044A (zh) * 2017-08-28 2019-03-05 富泰华工业(深圳)有限公司 智能机器人
US11151883B2 (en) 2017-11-03 2021-10-19 International Business Machines Corporation Empathic autonomous vehicle
US10814487B2 (en) * 2018-01-22 2020-10-27 Disney Enterprises, Inc. Communicative self-guiding automation
US10841247B2 (en) * 2018-02-02 2020-11-17 Sony Interactive Entertainment Inc. Social media connection for a robot
DE102019122790B4 (de) * 2018-08-24 2021-03-25 Nvidia Corp. Robotersteuerungssystem
US11833681B2 (en) * 2018-08-24 2023-12-05 Nvidia Corporation Robotic control system
US10981073B2 (en) 2018-10-22 2021-04-20 Disney Enterprises, Inc. Localized and standalone semi-randomized character conversations
KR102673293B1 (ko) * 2018-11-08 2024-06-11 현대자동차주식회사 서비스 로봇 및 그의 운용 방법
EP3928270A4 (en) * 2019-02-19 2022-11-16 Next Jump, Inc. IMPROVEMENTS ASSOCIATED WITH INTERACTIVE ELECTRONIC FEEDBACK SYSTEMS AND PROCESSES FOR EMPLOYEES
US11367361B2 (en) * 2019-02-22 2022-06-21 Kyndryl, Inc. Emulating unmanned aerial vehicle (UAV)
WO2020191310A1 (en) * 2019-03-21 2020-09-24 Life-Dash, LLC Bot systems and methods
US10802843B1 (en) 2019-05-31 2020-10-13 Apple Inc. Multi-user configuration
US11010121B2 (en) 2019-05-31 2021-05-18 Apple Inc. User interfaces for audio media control
EP4134811A1 (en) 2019-05-31 2023-02-15 Apple Inc. User interfaces for audio media control
KR20210020312A (ko) * 2019-08-14 2021-02-24 엘지전자 주식회사 로봇 및 그의 제어 방법
KR20210023367A (ko) * 2019-08-23 2021-03-04 엘지전자 주식회사 로봇 및 그의 제어 방법
CN110866588B (zh) * 2019-11-08 2023-05-02 中国科学院软件研究所 一种实现智能虚拟数字动物的可学习能力模型个性化的训练学习方法与***
CN111618856B (zh) * 2020-05-27 2021-11-05 山东交通学院 基于视觉兴奋点的机器人控制方法、***及机器人
CN112230887B (zh) * 2020-09-11 2023-11-14 重庆誉存大数据科技有限公司 一种应用于决策引擎中的指标的脚本配置***
US11645476B2 (en) 2020-09-29 2023-05-09 International Business Machines Corporation Generating symbolic domain models from multimodal data
TW202226002A (zh) * 2020-12-15 2022-07-01 萬達人工智慧科技股份有限公司 電子卡片產生裝置及電子卡片產生方法
US11960615B2 (en) 2021-06-06 2024-04-16 Apple Inc. Methods and user interfaces for voice-based user profile management
CN117648411A (zh) * 2022-08-19 2024-03-05 华为技术有限公司 一种表情生成方法以及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102947855A (zh) * 2010-06-23 2013-02-27 微软公司 社交交互的加速
US20140200416A1 (en) * 2010-06-07 2014-07-17 Affectiva, Inc. Mental state analysis using heart rate collection based on video imagery
CN105409197A (zh) * 2013-03-15 2016-03-16 趣普科技公司 用于提供持久伙伴装置的设备和方法
US20160151917A1 (en) * 2013-03-15 2016-06-02 JIBO, Inc. Multi-segment social robot

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) * 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
JPH0612401A (ja) * 1992-06-26 1994-01-21 Fuji Xerox Co Ltd 感情模擬装置
US6031549A (en) * 1995-07-19 2000-02-29 Extempo Systems, Inc. System and method for directed improvisation by computer controlled characters
US5832189A (en) * 1996-09-26 1998-11-03 Interval Research Corporation Affect-based robot communication methods and systems
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
WO1999054015A1 (en) * 1998-04-16 1999-10-28 Creator Ltd. Interactive toy
US6230111B1 (en) 1998-08-06 2001-05-08 Yamaha Hatsudoki Kabushiki Kaisha Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object
US6513046B1 (en) * 1999-12-15 2003-01-28 Tangis Corporation Storing and recalling information to augment human memories
JP4687936B2 (ja) * 2001-03-22 2011-05-25 ソニー株式会社 音声出力装置および音声出力方法、並びにプログラムおよび記録媒体
JP3988121B2 (ja) * 2002-03-15 2007-10-10 ソニー株式会社 学習装置、記憶方法及びロボット装置
US7113848B2 (en) * 2003-06-09 2006-09-26 Hanson David F Human emulation robot system
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
US7689319B2 (en) * 2003-08-12 2010-03-30 Advanced Telecommunications Research Institute International Communication robot control system
US9191228B2 (en) * 2005-03-16 2015-11-17 Icontrol Networks, Inc. Cross-client sensor user interface in an integrated security network
JP2006146630A (ja) 2004-11-22 2006-06-08 Sony Corp コンテンツ選択再生装置、コンテンツ選択再生方法、コンテンツ配信システムおよびコンテンツ検索システム
JP4457983B2 (ja) * 2005-06-27 2010-04-28 ヤマハ株式会社 演奏操作援助装置及びプログラム
US7720572B2 (en) * 2005-09-30 2010-05-18 Irobot Corporation Companion robot for personal interaction
US8898708B2 (en) * 2006-10-04 2014-11-25 Bindu Rama Rao Media distribution server that presents interactive media to digital devices
US20080183573A1 (en) * 2007-01-31 2008-07-31 James Edward Muschetto Method and Apparatus for Increasing Accessibility and Effectiveness of Advertisements Delivered via a Network
CN101669090A (zh) * 2007-04-26 2010-03-10 福特全球技术公司 情绪提示***和方法
US8909370B2 (en) * 2007-05-08 2014-12-09 Massachusetts Institute Of Technology Interactive systems employing robotic companions
JP2009087074A (ja) 2007-09-28 2009-04-23 Panasonic Electric Works Co Ltd 機器制御システム
WO2009158653A1 (en) * 2008-06-27 2009-12-30 Intuitive Automata, Inc. Apparatus and method for assisting in achieving desired behavior patterns
ES2358139B1 (es) * 2009-10-21 2012-02-09 Thecorpora, S.L. Robot social.
RU2011104786A (ru) * 2011-02-10 2012-08-20 Государственное образовательное учреждение высшего профессионального образования города Москвы "Московский городской педагогически Мобильный интеллектуальный робот-ассистент
US9079313B2 (en) * 2011-03-15 2015-07-14 Microsoft Technology Licensing, Llc Natural human to robot remote control
US10176725B2 (en) * 2011-08-29 2019-01-08 Worcester Polytechnic Institute System and method of pervasive developmental disorder interventions
IN2014CN03495A (zh) * 2011-11-09 2015-10-16 Koninkl Philips Nv
US8751042B2 (en) * 2011-12-14 2014-06-10 Toyota Motor Engineering & Manufacturing North America, Inc. Methods of robot behavior generation and robots utilizing the same
KR101336641B1 (ko) * 2012-02-14 2013-12-16 (주) 퓨처로봇 감성 교감 로봇 서비스 시스템 및 그 방법
WO2013176760A1 (en) * 2012-05-22 2013-11-28 Intouch Technologies, Inc. Graphical user interfaces including touchpad driving interfaces for telemedicine devices
US9956687B2 (en) * 2013-03-04 2018-05-01 Microsoft Technology Licensing, Llc Adapting robot behavior based upon human-robot interaction
US10687183B2 (en) * 2014-02-19 2020-06-16 Red Hat, Inc. Systems and methods for delaying social media sharing based on a broadcast media transmission
EP2933070A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Methods and systems of handling a dialog with a robot
CN107000210A (zh) 2014-07-15 2017-08-01 趣普科技公司 用于提供持久伙伴装置的设备和方法
US20160063874A1 (en) * 2014-08-28 2016-03-03 Microsoft Corporation Emotionally intelligent systems
JP2016076799A (ja) 2014-10-03 2016-05-12 シャープ株式会社 家電管理システム、家電、リモコン装置、ロボット
US10334158B2 (en) * 2014-11-03 2019-06-25 Robert John Gove Autonomous media capturing
US20170127150A1 (en) * 2015-11-04 2017-05-04 Ubitus Inc. Interactive applications implemented in video streams
US10168859B2 (en) * 2016-04-26 2019-01-01 International Business Machines Corporation Contextual determination of emotion icons
CN109789550B (zh) 2016-07-27 2023-05-30 华纳兄弟娱乐公司 基于小说或表演中的先前角色描绘的社交机器人的控制
WO2018045081A1 (en) * 2016-08-31 2018-03-08 Taechyon Robotics Corporation Robots for interactive comedy and companionship
US10595090B2 (en) * 2016-09-02 2020-03-17 Sony Corporation System and method for optimized and efficient interactive experience
US10853411B2 (en) * 2018-04-06 2020-12-01 Rovi Guides, Inc. Systems and methods for identifying a media asset from an ambiguous audio indicator

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140200416A1 (en) * 2010-06-07 2014-07-17 Affectiva, Inc. Mental state analysis using heart rate collection based on video imagery
CN102947855A (zh) * 2010-06-23 2013-02-27 微软公司 社交交互的加速
CN105409197A (zh) * 2013-03-15 2016-03-16 趣普科技公司 用于提供持久伙伴装置的设备和方法
US20160151917A1 (en) * 2013-03-15 2016-06-02 JIBO, Inc. Multi-segment social robot

Also Published As

Publication number Publication date
US20190366557A1 (en) 2019-12-05
KR20190079669A (ko) 2019-07-05
WO2018089700A1 (en) 2018-05-17
KR102502228B1 (ko) 2023-02-20
CA3043016A1 (en) 2018-05-17
CN110139732B (zh) 2023-04-04
US12011822B2 (en) 2024-06-18
US20220395983A1 (en) 2022-12-15
US11370125B2 (en) 2022-06-28
JP2019536150A (ja) 2019-12-12
EP3538329A4 (en) 2020-08-19
EP3538329A1 (en) 2019-09-18
JP7351745B2 (ja) 2023-09-27

Similar Documents

Publication Publication Date Title
CN110139732A (zh) 具有环境控制特征的社交机器人
CN109789550B (zh) 基于小说或表演中的先前角色描绘的社交机器人的控制
US11148296B2 (en) Engaging in human-based social interaction for performing tasks using a persistent companion device
KR102014623B1 (ko) 화상 표시장치, 화제 선택 방법, 화제 선택 프로그램, 화상 표시 방법 및 화상 표시 프로그램
US20170206064A1 (en) Persistent companion device configuration and deployment platform
AU2014236686B2 (en) Apparatus and methods for providing a persistent companion device
US20180232571A1 (en) Intelligent assistant device communicating non-verbal cues
CA3019535A1 (en) Persistent companion device configuration and deployment platform
CN107000210A (zh) 用于提供持久伙伴装置的设备和方法
WO2019040196A1 (en) CONTINUOUS SELECTION OF SCENARIOS BASED ON IDENTIFIED LABELS DESCRIBING A CONTEXTUAL ENVIRONMENT OF A USER FOR EXECUTION BY A MODEL OF ARTIFICIAL INTELLIGENCE OF THE USER BY AN AUTONOMOUS PERSONAL COMPANION
CN109891357A (zh) 情感智能陪伴装置
US20190193280A1 (en) Method for personalized social robot interaction
Hanke et al. Embodied ambient intelligent systems
CN111919250B (zh) 传达非语言提示的智能助理设备
WO2018183812A1 (en) Persistent companion device configuration and deployment platform
Zomer Shaping proactivity: Designing interactions with proactive ambient artefacts
Lanzon Going with instincts: Sensory Overload in Interaction Design

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant