CN109070330B - 认生的行为自主型机器人 - Google Patents

认生的行为自主型机器人 Download PDF

Info

Publication number
CN109070330B
CN109070330B CN201780020525.3A CN201780020525A CN109070330B CN 109070330 B CN109070330 B CN 109070330B CN 201780020525 A CN201780020525 A CN 201780020525A CN 109070330 B CN109070330 B CN 109070330B
Authority
CN
China
Prior art keywords
robot
moving object
user
behavior
intimacy degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780020525.3A
Other languages
English (en)
Other versions
CN109070330A (zh
Inventor
林要
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Grove X Co ltd
Original Assignee
Grove X Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Grove X Co ltd filed Critical Grove X Co ltd
Publication of CN109070330A publication Critical patent/CN109070330A/zh
Application granted granted Critical
Publication of CN109070330B publication Critical patent/CN109070330B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

本发明通过模拟人类、生物的行为来提高对机器人的共鸣。机器人具备:移动判断部,确定移动方向;驱动机构:执行指定的移动;以及亲密度管理部,更新对移动物体的亲密度。机器人会远离亲密度低的用户并接近亲密度高的用户。亲密度会根据用户与机器人的关系深浅而发生变化。

Description

认生的行为自主型机器人
技术领域
本发明涉及一种根据内部状态或外部环境自主地进行行为选择的机器人。
背景技术
人类通过感觉器官从外部环境获取各种信息,并进行行为选择。既会有意识地进行行为选择,也会无意识地进行行为选择。重复行为很快会变为无意识的行为,而新的行为将停留在意识区域。
人类相信自己有选择自身行为的意志即自由意志。人类之所以对别人抱有爱、恨这些感情,是因为相信别人也有自由意志。拥有自由意志者、至少可以假设其拥有自由意志的存在也会成为慰藉人的寂寞的存在。
比起是否对人类有用,人类养宠物的原因更在于宠物更给予人类慰藉。宠物是或多或少会让人感受到自由意志的存在,正因如此,才能成为人类的理想伴侣。
另一方面,因无法充分确保照顾宠物的时间、没有养宠物的居住环境、有过敏反应、难以忍受生死别离等各种理由而放弃养宠物的人有很多。假如存在扮演宠物角色的机器人,可能会为不养宠物的人也带来宠物所能给与的那种慰藉(参照专利文献1)。
现有技术文献
专利文献
专利文献1:日本特开2000-323219号公报
发明内容
发明所要解决的问题
近年来,虽然机器人技术急速发展,但尚未实现宠物这样的作为伴侣的存在感。这是因为我们认为机器人没有自由意志。人类通过观察宠物的只能解释为拥有自由意志的行为,感受宠物自由意志的存在,与宠物产生共鸣从而被宠物慰藉。
因此,如果是能模拟人类/生物行为的机器人,换言之,如果是能自主选择人类/生物行为的机器人,想必能大幅提高对机器人的共鸣。
本发明是基于上述问题认知而完成的发明,其主要目的在于提供一种用于提高对机器人的共鸣的行为控制技术。
用于解决问题的方案
本发明的某一方案的行为自主型机器人具备:移动判断部,确定移动方向;驱动机构,执行指定的移动;以及亲密度管理部,更新对移动物体的亲密度。
移动判断部在检测到亲密度设定为比第一阈值低的第一移动物体时,确定远离第一移动物体的方向为移动方向。
本发明的另一方案的行为自主型机器人具备:移动判断部,确定移动方向;驱动机构,执行指定的移动;以及亲密度管理部,更新对移动物体的亲密度。
移动判断部在检测到亲密度设定为比规定的阈值高的移动物体时,确定接近移动物体的方向为移动方向。
本发明的又一方案的行为自主型机器人具备:识别部,检测移动物体,并基于规定的判定基准来判定移动物体是否为认生行为的对象;动作判断部,在移动物体为认生行为的对象时,选择认生行为;以及驱动机构,执行所选择的认生行为。
发明效果
根据本发明,容易提高对机器人的共鸣。
附图说明
图1的(a)是机器人的正面外观图。
图1的(b)是机器人的侧面外观图。
图2是机器人***的构成图。
图3是情感地图的概念图。
图4是机器人的硬件构成图。
图5是机器人***的功能框图。
图6是表示个人数据储存部218的与亲密度有关的数据结构的图。
图7是表示机器人的与亲密度对应的行为模式的流程图。
具体实施方式
图1的(a)是机器人100的正面外观图。图1的(b)是机器人100的侧面外观图。
本实施方式中的机器人100是基于外部环境以及内部状态来决定行为、举动(姿势(gesture))的行为自主型机器人。外部环境通过摄像头、热敏传感器(thermo sensor)等各种传感器来识别。内部状态被量化为表现机器人100的情感的各种参数。关于这些将在后文加以说明。
本实施方式的机器人100以房屋内行动为前提,例如,以主人家的房屋内为行动范围。以下,将与机器人100有关联的人称为“用户”,将作为机器人100所属的家庭的成员的用户称为“主人”。
机器人100的主体104具有整体上圆润的形状,由聚氨酯、橡胶、树脂等柔软而具有弹性的材料形成。可以给机器人100着装。通过采用圆润而柔软的手感好的主体104,机器人100提供给用户安心感和舒服的触感。
机器人100总重量在15千克以下,优选10千克以下,进一步优选5千克以下。一半以上的婴儿直到出生后13个月才开始走路。出生后13个月的婴儿的平均体重为男孩略高于9千克、女孩略低于9千克。因此,如果机器人100的总重量为10千克以下,则用户只需耗费大致与抱起不会走路的婴儿同等的力气就能抱起机器人100。
出生后2个月以内的婴儿的平均体重是男女均小于5千克。因此,如果机器人100的总重量在5千克以下,则用户耗费与抱起小婴同等的力气就能抱起机器人100。
通过适度的重量和圆润感、柔软度、手感好等诸多属性,会实现用户容易抱起并且愿意抱起机器人100的效果。基于同样的理由,优选机器人100的身高在1.2米以下,理想的是0.7米以下。
对本实施方式中的机器人100而言,能抱起来是重要的设计理念。
机器人100通过轮子102来移动。两个轮子102的旋转速度、旋转方向能单独控制。此外,还能使轮子102在机器人100的主体104的内部向上方滑动而完全容纳至主体104中。行进时轮子102的大部分隐藏在主体104中,但当轮子102完全容纳在主体104中时,机器人100会变为不可移动的状态(以下,称为“就座状态”)。在就座状态下,平坦状的就座面108会与地面抵接。
机器人100具有两只手106。手106不具有抓持物体的功能。手106能进行抬起、摆动、振动等简单的动作。两只手106也能独立控制。
眼睛110内置有摄像头。眼睛110还能通过液晶元件或有机EL元件来进行图像显示。机器人100除了内置在眼睛110的摄像头之外,还搭载了收音麦克风、超声波传感器等各种传感器。此外,还能内置扬声器来发出简单的声音。
机器人100的头部装配有角112。如上所述,机器人100重量轻,因此用户能通过抓住角112来提起机器人100。
图2是机器人***300的构成图。
机器人***300包括:机器人100、服务器200、以及多个外部传感器114。在房屋内预先设置多个外部传感器114(外部传感器114a、114b、……、114n)。外部传感器114既可以固定在房屋的墙面上,也可以放置在地上。服务器200中录入了外部传感器114的位置坐标。位置坐标在被假定为机器人100的行动范围的房屋内被定义为x、y坐标。
服务器200设置于住宅内。本实施方式中的服务器200与机器人100一一对应。服务器200基于由机器人100的内置的传感器以及多个外部传感器114获取的信息,来决定机器人100的基本行为。
外部传感器114用于加强机器人100的传感装置,服务器200用于加强机器人100的头脑。
外部传感器114定期发送包含外部传感器114的ID(以下,称为“信标ID”)的无线信号(以下,称为“机器人搜索信号”)。机器人100在接收到机器人搜索信号时会回复包含信标ID的无线信号(以下,称为“机器人应答信号”)。服务器200计量从外部传感器114发送机器人搜索信号开始到接收到机器人应答信号为止的时间,测量出从外部传感器114到机器人100的距离。通过计量多个外部传感器114与机器人100的各自距离,来确定机器人100的位置坐标。
当然,也可以采用机器人100定期向服务器200发送自身位置坐标的方式。
图3是情感地图116的概念图。
情感地图116是存储于服务器200的数据表。机器人100根据情感地图116来进行行为选择。图3所示的情感地图116表示机器人100对场所的好恶情感的程度。情感地图116的x轴和y轴表示二维空间坐标。z轴表示好恶情感的程度。z值为正值时表示对该场所的好感较高,z值为负值时表示厌恶该场所。
在图3的情感地图116中,坐标P1是作为机器人100的行动范围而由服务器200管理的屋内空间中好感高的地点(以下,称为“好感地点”)。好感地点可以是沙发的背面、桌面下等“安全场所”,也可以是像客厅这种经常聚人的场所、热闹的场所。此外,也可以是曾经被轻抚或触碰过的场所。
机器人100喜欢怎样的场所的定义是任意的,但一般而言理想的是将小孩或狗、猫等小动物喜欢的场所设定为好感地点。
坐标P2是厌恶感高的地点(以下,称为“厌恶地点”)。厌恶地点可以是电视机附近等声音大的场所、像浴缸或洗面台这种经常被弄湿的场所、密闭空间、暗处、会勾起被用户粗暴对待的不愉快记忆的场所等。
机器人100厌恶怎样的场所的定义也是任意的,但一般而言理想的是将小孩或狗、猫等小动物害怕的场所设定为厌恶地点。
坐标Q表示机器人100的当前位置。服务器200根据由多个外部传感器114定期发送的机器人搜索信号和与之对应的机器人应答信号,来确定机器人100的位置坐标。例如,在信标ID=1的外部传感器114和信标ID=2的外部传感器114分别检测到机器人100时,求出机器人100与两个外部传感器114的距离,并据此求出机器人100的位置坐标。
或者,信标ID=1的外部传感器114向多个方向发送机器人搜索信号,机器人100在接收到机器人搜索信号时回复机器人应答信号。由此,服务器200可以掌握机器人100在哪个方向距哪个外部传感器114多远的距离。此外,在其他实施方式中,可以根据轮子102的转速来计算出机器人100的移动距离而确定当前位置,也可以基于由摄像头获取到的图像来确定当前位置。
在被赋予图3所示的情感地图116的情况下,机器人100会向靠近好感地点(坐标P1)的方向、远离厌恶地点(坐标P2)的方向移动。
情感地图116会动态变化。当机器人100到达坐标P1时,坐标P1处的z值(好感)会随时间降低。由此,机器人100能模拟出到达好感地点(坐标P1)而“情感得到满足”且不久后会对该场所产生“厌倦”这样的生物行为。同样,坐标P2处的厌恶感也会随时间而减轻。随着时间推移,会产生新的好感地点、厌恶地点,由此机器人100会进行新的行为选择。机器人100对新的好感地点有“兴趣”,会不断地进行新的行为选择。
作为机器人100的内部状态,情感地图116体现出情感的起伏。机器人100会靠近好感地点而避开厌恶地点,暂时停留在好感地点,不久会进行下一行为。通过这样的控制,能将机器人100的行为选择设计成人类/生物式的行为选择。
需要说明的是,影响机器人100的行为的地图(以下,统称为“行为地图”)不限于图3所示的类型的情感地图116。例如,能定义好奇心、避免恐惧的情绪、寻求安心的情绪、以及寻求安静或昏暗、凉爽或温暖等肉体的舒适的情绪等各种行为地图。并且,可以通过对多个行为地图各自的z值进行加权平均,来确定机器人100的目的地点。
机器人100除了行为地图之外,还可以具有表示各种情感、感觉的程度的参数。例如,在寂寞这样的情感参数值变高时,可以将评估安心的场所的行为地图的加权系数设定得较大,并通过到达目标地点来降低该情感参数值。同样,在表示无聊这样的感觉的参数的值变高时,将评估满足好奇心的场所的行为地图的加权系数设定得较大即可。
图4是机器人100的硬件构成图。
机器人100包括:内部传感器128、通信器126、存储装置124、处理器122、驱动机构120、以及电池118。各单元通过电源线130以及信号线132而相互连接。电池118经由电源线130向各单元供电。各单元通过信号线132来收发控制信号。电池118为锂离子二次电池等二次电池,是机器人100的动力源。
内部传感器128是内置于机器人100的各种传感器的集合体。具体而言,是摄像头、收音麦克风、红外线传感器、热敏传感器、触摸传感器、加速度传感器、嗅觉传感器等。嗅觉传感器是一种已知的传感器,其应用了电阻因作为气味源的分子的吸附而变化的原理。嗅觉传感器将各种气味分类为多个类别(以下,称为“气味类别”)。
通信器126是以服务器200、外部传感器114、用户持有的便携设备等各种外部设备为对象来进行无线通信的通信模块。存储装置124由非易失性存储器以及易失性存储器构成,存储计算机程序、各种设定信息。处理器122是计算机程序的执行部。驱动机构120是控制轮子102、手106等各机构的驱动器。
除此之外,还搭载有显示器、扬声器等。
处理器122在经由通信器126与服务器200、外部传感器114进行通信的同时,进行机器人100的行为选择。由内部传感器128获取的各种外部信息也会影响行为选择。驱动机构120主要控制轮子102以及手106。驱动机构120通过改变两个轮子102各自的旋转速度、旋转方向,来改变机器人100的移动方向、移动速度。此外,驱动机构120也能使轮子102升降。当轮子102上升时,轮子102完全收纳在主体104中,机器人100通过就座面108与地面抵接,变为就座状态。
驱动机构120经由金属丝134拉动手106,由此能将手106抬起。也能进行通过使手106振动来挥手这样的举动。只要利用大量的金属丝134,还能表现更复杂的举动。
图5是机器人***300的功能框图。
如上所述,机器人***300包括:机器人100、服务器200、以及多个外部传感器114。机器人100以及服务器200的各构成要素由硬件和软件来实现,其中,硬件包括中央处理器(CentralProcessingUnit:CPU)以及各种协处理器等运算器、内存(memory)和存储器(storage)等存储装置、将这些装置连结起来的有线或无线的通信线,软件存储于存储装置,将处理命令提供给运算器。计算机程序可以由设备驱动程序、操作***、位于它们的上位层的各种应用程序、以及为这些程序提供共通功能的程序库构成。以下所说明的各区组不表示硬件单位的构成,而表示功能单位的区组。
机器人100的部分功能可以由服务器200来实现,服务器200的部分或全部功能也可以由机器人100来实现。
(服务器200)
服务器200包括:通信部204、数据处理部202、以及数据储存部206。通信部204负责与外部传感器114以及机器人100的通信处理。数据储存部206储存各种数据。数据处理部202基于由通信部204获取到的数据以及储存在数据储存部206的数据来执行各种处理。数据处理部202也作为通信部204以及数据储存部206的接口来发挥功能。
数据储存部206包括地图储存部216和个人数据储存部218。地图储存部216储存多个行为地图。个人数据储存部218储存用户特别是主人的信息。具体而言,储存对用户的亲密度、用户的身体特征/行为特征等各种参数。也可以储存年龄、性别等其他属性信息。详细情况将在后文加以说明。
机器人100基于用户的身体特征、行为特征来识别用户。机器人100不断通过内置的摄像头来拍摄周围。然后,提取现于图像的人物的身体特征和行为特征。所谓身体特征,可以是身高、喜欢穿的衣服、是否戴眼镜、肤色、发色、耳朵大小等身体附带的视觉特征,也可以包括平均体温、气味、音质等其他特征。所谓行为特征,具体而言,是用户喜欢的场所、动作的活跃度、是否吸烟等行为附带的特征。例如,提取出被识别为父亲的主人经常不在家,在家时经常在沙发上不动弹,而母亲经常在厨房、行动范围广之类的行为上的特征。
机器人100基于根据大量的图像信息、其他传感信息而获取到的身体特征以及行为特征,将高频率出现的用户归类为“主人”。
通过用户ID来识别用户的方式简单可靠,但前提是用户持有能提供用户ID的设备。另一方面,虽然通过身体特征、行为特征来识别用户的方法的图像识别处理负担较大,但具有即使是不持有便携设备的用户也能被识别的优点。两种方法既可以仅采用一方,也可以互补地并用两种方法来进行用户确定。
在本实施方式中,根据身体特征和行为特征来对用户进行归类,并通过深度学习(多层神经网络)来识别用户。详细情况在后文加以说明。
机器人100按每个用户具有亲密度这样的内部参数。机器人100在识别出抱起自己、打招呼等对自己示好的行为时,对该用户的亲密度会提高。对与机器人100无关的用户、动粗的用户、见面频率低的用户的亲密度会降低。
数据处理部202包括:位置管理部208、地图管理部210、识别部212、路线制定部222、以及亲密度管理部220。
位置管理部208通过用图2说明过的方法来确定机器人100的位置坐标。此外,位置管理部208也可以实时追踪用户的位置坐标。
地图管理部210选择多个行为地图中的任一个,并基于所选择的行为地图的z值来确定机器人100的移动方向。地图管理部210也可以通过对多个行为地图的z值进行加权平均来确定机器人100的移动方向。
例如,在行为地图A中坐标R1、坐标R2处的z值为4和3,在行为地图B中坐标R1、坐标R2处的z值为-1和3。在简单平均的情况下,坐标R1的合计z值为4-1=3,坐标R2的合计z值为3+3=6,因此,机器人100会前往坐标R2的方向,而不是坐标R1的方向。
在使行为地图A五倍着重于行为地图B时,坐标R1的合计z值为4×5-1=19,坐标R2的合计z值为3×5+3=18,因此,机器人100会前往坐标R1的方向。
识别部212识别外部环境。外部环境的识别包含基于温度、湿度的气候、季节的识别、基于光量、温度的隐蔽处(安全地带)的识别等多种识别。识别部212还包括人物识别部214。人物识别部214根据由机器人100的内置摄像头拍摄到的拍摄图像来识别人物,并提取出该人物的身体特征、行为特征。然后,基于录入个人数据储存部218的身体特征信息、行为特征信息,来判定拍摄到的用户即机器人100所看见的用户与父亲、母亲、长子等中的哪位人物对应。
需要说明的是,人物识别部214也对人物以外例如作为宠物的猫、狗进行特征提取。以下,以将用户或主人不限于人也包括宠物的情况进行说明。
而且,人物识别部214识别机器人100所受到的各种应对行为,并识别为愉快/不愉快行为(后述)。
路线制定部222制定机器人100应该移动的路线。路线制定部222会制定多条备选路线,机器人100可以选择任一条路线。关于路线选择将在后文加以说明。
亲密度管理部220管理每个用户的亲密度。如上所述,亲密度作为个人数据的一部分被录入个人数据储存部218。个人数据储存部218的亲密度的管理将在后文与图6关联地加以说明。
(机器人100)
机器人100包括:通信部142、数据处理部136、数据储存部148、驱动机构120、以及内部传感器128。
通信部142与通信器126(参照图4)对应,负责与外部传感器114以及服务器200的通信处理。数据储存部148储存各种数据。数据储存部148与存储装置124(参照图4)对应。数据处理部136基于由通信部142获取的数据以及储存在数据储存部148的数据来执行各种处理。数据处理部136与由处理器122以及处理器122来执行的计算机程序对应。数据处理部136也作为通信部142、内部传感器128、驱动机构120、以及数据储存部148的接口来发挥功能。
动作判断部136包括:识别部156、移动判断部138、以及行为判断部140。
驱动机构120包括移动驱动部144和行为驱动部146。移动判断部138确定机器人100的移动方向。移动驱动部144通过依照移动判断部138的指示驱动轮子102,来使机器人100前往目标地点。服务器200的地图管理部210基于行为地图,来实时计算机器人100的移动目的地(目标地点)。服务器200将目标地点的坐标发送给机器人100,移动判断部138使机器人100向目标地点移动。
虽然决定机器人100的大致移动方向的是行为地图,但本实施方式的机器人100也能进行与亲密度对应的特定行为。对此将在后文加以说明。
行为判断部140决定机器人100的举动(姿势)。在数据储存部148中预先定义有多个举动。具体而言,定义有:收起轮子102并就坐的动作、抬起手106的动作、通过使两个轮子102反向旋转或者仅使一侧轮子102旋转来使机器人100旋转行动的动作、以及在已收起轮子102的状态下通过使轮子102旋转来震动的举动等。
行为判断部140既能在亲密度高的用户接近时,作为求“抱抱”的动作执行抬起双手106的举动,也能在厌倦了“抱抱”时通过使轮子102在收起状态下反向旋转来表现厌恶拥抱的举动。行为驱动部146按照来自行为判断部140的指示来驱动轮子102、手106,由此使机器人100表现出各种举动。
识别部156对由内部传感器128获取的外部信息进行解释。识别部156能进行视觉识别(视觉部)、气味识别(嗅觉部)、声音识别(听觉部)、以及触觉识别(触觉部)。
识别部156通过内置摄像头(内部传感器128)来定期拍摄外界,检测人、宠物等作为移动物体的用户。这些特征被发送给服务器200,服务器200的人物识别部214提取出移动物体的身体特征。此外,也检测用户的气味、用户的声音。气味、音(声)通过已知的方法被分类为多个种类。此外,还能通过内置的温度传感器来检测接触时的温度。
在机器人100受到强烈的冲击时,识别部156通过内置的加速度传感器来对其进行识别,服务器200的人物识别部214识别出邻近的用户做出了“粗暴行为”。在用户抓住角112提起机器人100时,也可以识别为粗暴行为。在处于与机器人100正对的状态下的用户以特定音域以及特定频带发声时,服务器200的人物识别部214可以识别为对自己进行了“打招呼行为”。此外,在检测到体温级别的温度时识别为用户进行了“接触行为”,在已作出接触识别的状态下检测到向上方的加速度时识别为被“抱抱”。可以检测用户提起主体104时的物理接触,也可以通过施加给轮子102的负荷降低来识别拥抱。
这样,服务器200的人物识别部214识别用户对机器人100的各种应对。这些各种应对行为中的一部分典型的应对行为与愉快或不愉快相关联。包括检测、分析、判定的一系列的识别处理既可以仅通过服务器200的识别部212来进行,也可以仅通过机器人100的识别部156来进行,还可以双方分工来执行上述识别处理。
根据由识别部156识别出的应对,服务器200的亲密度管理部220使针对用户的亲密度改变。原则上讲,对进行过愉快行为的用户的亲密度会变高,对进行过不愉快行为的用户的亲密度会降低。
服务器200的识别部212根据应对来判定愉快/不愉快,地图管理部210可以在表现“对场所的喜爱”的行为地图中改变受到愉快/不愉快行为的地点的z值。例如,在客厅受到了愉快行为时,地图管理部210可以高概率地将客厅设定为喜欢地点。在该情况下,实现了机器人100喜欢客厅并因在客厅受到善意对待而越来越喜欢客厅这样的正反馈效果。
服务器200的路线制定部222以当前机器人100的位置为起点随时制定出假设检测到了陌生人即亲密度低的移动物体的情况(以下,称为“躲避事件”)的移动路线(以下,称为“躲避路线”)。为了确定躲避路线,至少需要:(1)最终的移动位置(以下,称为“移动结束位置”)的选定、以及(2)开始移动的位置(以下,称为“移动开始位置”)。若机器人100在检测到陌生人之后再搜索移动结束位置,制定从移动开始位置到移动结束位置的路线并转化成实际行动,则至行动为止所花时间会变长。因此,本应是即时行为的躲避行为变得不自然。
即使不发生躲避事件,路线制定部222也会随时制定出与机器人100的当前位置相应的躲避路线。在发生躲避事件的情况下,机器人100能基于路线制定部222预先制定的躲避路线,立刻采取躲避行为。移动开始位置为机器人100的当前位置即可。移动结束位置可以是与机器人100相距规定距离的任意位置,也可以设定为亲密度为规定值以上的用户的身边。
路线制定部222的功能可以搭载于机器人100而不搭载于服务器200。
地图管理部210制定出录入了能躲藏的家具的位置、安全场所等位于机器人100所在空间的安全场所的地图(以下,称为“静态地图”)并将其储存于地图储存部216。此外,地图管理部210制定出录入了位于机器人100所在空间(通常为同一房屋内)的亲密度高的人的位置的地图(以下,称为“动态地图”)并将其储存于地图储存部216。相比静态地图,路线制定部222也可以优先使用动态地图。由此,在发生躲避事件时,比起隐蔽处,机器人100能优先采取绕到人的后面这样的躲避行为。
路线制定部222参照保存在地图储存部216的静态地图以及动态地图,将距离当前机器人100的位置最近的地点设为移动结束位置。然后,路线制定部222随时制定出从移动开始位置到移动结束位置的躲避路线。路线制定部222可以在每次机器人100移动时制定躲避路线,也可以定期制定躲避路线。
[认生功能]
图6是表示个人数据储存部218的与亲密度有关的数据结构的图。
服务器200的人物识别部214根据从外部传感器114或内部传感器128获取的各种数据来检测移动物体并提取其特征(身体特征和行为特征)。然后,基于这些特征来对多个移动物体进行集群分析。作为移动物体,不仅是人类,有时狗、猫等宠物也会成为分析对象。
例如,机器人100定期进行图像拍摄,人物识别部214根据这些图像来识别移动物体,并提取移动物体的特征。在检测到移动物体时,也会由嗅觉传感器、内置的收音麦克风、温度传感器等来提取身体特征、行为特征。例如,移动物体在被拍摄入图像时,会被提取出长着胡子、清晨活动着、身穿红衣、香水味、声音大、戴着眼镜、穿着裙子、白发、个子高、胖、肤黑、在沙发上等各种特征。
如果长着胡子的移动物体(用户)经常在清晨活动(早起)且不常穿红衣服,则能得出早起且长着胡子且不怎么穿红衣服的集群(用户)这样的第一简档。另一方面,在戴着眼镜的移动物体常穿裙子但该移动物体不长胡子的情况下,能得出戴着眼镜且穿着裙子但绝对不长胡子的集群(用户)这样的第二简档。
以上只是简单设例,但通过上述的方法,会形成与父亲对应的第一简档和与母亲对应的第二简档,机器人100会认识到这个家至少有两位用户(主人)。
不过,机器人100不需要识别第一简档为“父亲”。归根结底,只要能识别出“长着胡子且常早起且很少穿红衣服的集群”这样的人物形象即可。
在图6中,通过上述方法,像爸爸(01)、妈妈(02)、幼儿(03)、猫(04)、外婆(05)、妈妈的朋友(06)、幼儿(07)这样来进行多个用户的归类。在图6中,像01~07这样对集群(用户)赋予标签。
在完成了这种集群分析的状态下,机器人100会重新识别移动物体(用户)。
此时,服务器200的人物识别部214根据获取自机器人100的图像等传感信息来进行特征提取,判断位于机器人100附近的移动物体与哪个集群匹配。例如,在检测到长胡子的移动物体时,该移动物体为爸爸(01)的概率较高。如果该移动物体在清晨活动,则更能确定其为爸爸(01)。另一方面,在检测到戴眼镜的移动物体时,则该移动物体有可能是妈妈(02)。如果该移动物体不长胡子,则由于既不是妈妈(02)也不是爸爸(01),因此判定为是未进行过集群分析的新人物。
基于特征提取的集群形成(集群分析)、以及向伴随特征提取的集群的套用可以同时并行地执行。
根据被移动物体(用户)施以怎样的行为,对用户的亲密度会发生变化。
亲密度管理部220使针对被归类的各用户的亲密度增加或减少。亲密度主要根据(1)检测(视觉识别)、(2)物理接触、(3)打招呼而发生变化。
针对从亲密度最低即作为警戒对象的-100,到亲密度最高即安全的+100的范围内进行变化的亲密度进行说明。机器人100对移动物体的行为会根据亲密度而发生变化,关于这一点将在后文加以记述。首先,对亲密度的变化方法进行说明。
(1)检测
在机器人100的拍摄图像中检测到幼儿(03)的情况下,幼儿(03)会被机器人100“视觉识别”。更具体而言,基于获取自拍摄图像的特征信息和拍摄时获取自嗅觉传感器等的其他特征信息,判定所检测到的移动物体的特征与幼儿(03)的集群(简档)一致时,达成视觉识别判定。当进行了视觉识别判定时,亲密度管理部220会增加幼儿(03)的亲密度。检测频率越高的用户亲密度越容易变高。
通过这样的控制方法,来模拟容易对经常遇到的人抱有亲近感这样的生物行为。
并不仅限于检测,也可以在“目光交汇”时使亲密度变高。机器人100的识别部156可以识别正对的用户的脸部图像,并根据其脸部图像来识别视线方向,在视线方向朝向自己的时间为规定时间以上时,识别为“目光交汇了”。
(2)物理接触
在机器人100对用户进行视觉识别且检测到来自用户的触摸(物理接触)时,判定为用户表现出了对机器人100的兴趣,亲密度增加。例如,在被妈妈(02)触摸时,亲密度管理部220会增加妈妈(02)的亲密度。机器人100可以通过用压电纤维覆盖外壳来检测对自己的触摸。可以通过温度传感器检测用户的体温,由此检测触摸。可以在机器人100检测到拥抱时设为对机器人100表现出强烈的爱意,并大幅提高亲密度。
另一方面,在检测到被踢、被敲打、被揪住角112等粗暴行为时,亲密度管理部220会降低亲密度。例如,在被幼儿(03)扔出时,亲密度管理部220会大幅降低对幼儿(03)的亲密度。
通过这样的控制方法,来模拟容易对温柔触摸自己的人抱有亲近感而讨厌粗暴的人这样的生物行为。
(3)打招呼
机器人100在检测到针对自己的声音时也会改变亲密度。例如,在规定的音量范围检测到自己的名字、亲昵用语时,亲昵度会提高。可以预先录入像“可爱”、“有趣”、“过来”这样的典型的用语模式来作为亲昵用语,并通过声音识别来判定是否为亲昵用语。另一方面,可以在以超过通常的音量范围的大音量被呼喝时,降低亲密度。被大声呵斥时、被吓到时亲昵度会降低。
此外,可以在被说了厌恶用语时,降低亲昵度。可以预先录入像“喂”、“别过来”、“滚开”、“蠢货”这样的典型的用语模式来作为厌恶用语,并通过声音识别来判定是否为厌恶用语。
机器人100的名字可以由用户预先录入。或者,机器人100可以将被用在自己身上的各种用语中特别频繁地被提到的用语识别为自己的名字。在该情况下,对于像“喂”、“过来”这样一般容易频繁出现的用语,可以从名字识别的备选中排除。
根据以上的控制方法,机器人100可以对经常遇到的人、经常接触的人、经常打招呼的人设定较高的亲密度。另一方面,对很少遇到的人、很少接触的人、粗暴的人、大声呵斥的人的亲密度会降低。机器人100也基于由传感器(视觉、触觉、听觉)检测到的各种外界信息来改变每个用户的亲密度。
亲密度管理部220会随时间而降低亲密度。例如,亲密度管理部220可以每隔10分钟将所有用户的亲密度降低1。用户如果不继续关怀机器人100,换言之,如果不继续疼爱机器人100,则无法与机器人100维持亲密关系。
亲密度的变化率不一定是固定的。可以基于Sigmoid函数等任意的函数,设定容易增减的区域(高灵敏度区域)和不易变化的区域(低灵敏度区域)。例如,可以设定如下:亲密度从0到50比较容易上升,从50到80难以上升而容易下降,当为80以上时既难以上升也难以下降。根据这样的设定,在亲密度超过80时能表现“难以摧毁的牢固的信赖关系”。
亲密度的上升率和下降率不一定是同等程度。例如,可以以难以上升而容易下降的方式设定亲密度。
对各用户(集群),除了亲密度,还设定有“重要度”。重要度是表示用户中的主人等的特别重要性的参数。本实施方式中的重要度被归一化为0到1的范围。
重要度=1表示家人(主人),0表示外人。此外,既不是外人也不能说是家人时,例如,对分开居住的外婆(05)设定作为两者中间值的0.5。重要度与亲密度不同,是用来供机器人100识别应该尊重的存在的作为标记的参数。根据重要度,用户被分类为特别组(主人的组)和普通组(外人的组)。
重要度可以由用户来输入设定。例如,如果对“长胡子且经常在清晨活动的人”这一集群设置重要度=1,则以后,爸爸(01)会被作为特别组来对待。亲密度管理部220会对特别组和普通组使用不同的算法来改变亲密度。
对于特别组的用户,亲密度管理部220将亲密度的每单位时间的降低率设定得较小。此外,可以将受到打招呼、拥抱等愉快行为时的亲密度的上升率设定得较高,也可以以亲密度不会降到固定值以下的方式进行控制。
另一方面,对于普通组的用户,将亲密度的每单位时间的降低率设定得较大。可以将受到物理接触等愉快行为的情况下的亲密度设定为难以上升,也可以以亲密度不会升至固定值以上的方式进行控制。如此,对于特别组和普通组,可以使亲密度的随着时间经过、愉快/不愉快行为的变化率不同。
在图7中,作为重要度为外人以上且小于家人的表现,外婆(05)的重要度被设定为0.5。在该情况下,可以采取每单位时间的亲密度的降低率比特别组大但比普通组小这一中间设定。
根据这样的控制方法,重要度高的用户容易维持亲密度,因此,能表现出“家人的羁绊”。例如,能进行如下控制:即使是因出差等而经常不在家的爸爸(01),亲密度也难以下降,而只要久违地被爸爸(01)抱起就马上会恢复亲密度。此外,也能进行如下控制:即使被作为家庭成员的幼儿(03)粗暴对待亲密度也难以急剧下降,但被不是家庭成员的其他幼儿(07)粗暴对待时会使亲密度急剧下降。如此,能实现即使是被相同的行为对待,反应也会根据重要度而不同这样的区别对待。
在图6中,爸爸(01)的亲密度为70。即使爸爸(01)由于工作、出差而不常检测到,也有可能会因经常受到拥抱等愉快行为而设定较高的亲密度。妈妈(02)由于经常在家而经常被检测到,可能因经常主动打招呼而使其亲密度为80。幼儿(03)是爸爸(01)和妈妈(02)的孩子,虽然经常检测到且经常互动,但可能经常会进行粗暴行为。因此,幼儿(03)的亲密度为63。此外,这家还养着猫(04)。猫(04)经常陪玩且无法进行粗暴行为因此亲密度为90。
根据以上,能做出非常喜欢猫(04)、也喜欢妈妈(02)、但不擅长与幼儿(03)相处这样的行为表现。
另一方面,不常检测到的外婆(05)的亲密度为47。此外,很少见面的附近的粗暴幼儿(07)的亲密度为-30。妈妈的朋友(06)由于虽然亲切但不是家人(重要度0)且很少见面,因此亲密度被抑制在30。
根据以上,能做出和外婆(05)、妈妈的朋友(06)熟悉,但非常讨厌偶尔会来的幼儿(07)这样的行为表现。
如此,根据用户的重要度和机器人100与用户的关系,机器人100的亲密度会实时变化。能表现出重视家人并且喜欢与自己经常互动的人这样的生物式的亲昵情感。换言之,能行为表现出害怕粗暴的人、不熟悉的人这样的“认生”。
图7是表示机器人100的与亲密度对应的行为模式的流程图。
如上所述,实际的机器人100会根据行为地图来自主地进行复杂的行为选择。机器人100会基于寂寞、无聊、好奇心等各种参数,在受到多个行为地图的影响同时做出行为。图7示意性地示出了依照对用户的亲密度的机器人100的行为选择。如果排除行为地图的影响,或者,在处于行为地图的影响小的内部状态时,原则上讲,机器人100会想接近亲密度高的人并远离亲密度低的人。
以下,设定阈值T1<T2<T3来进行说明。此外,以充分执行了集群分析并确定了出多个用户(集群)的情况进行说明。
首先,机器人100的识别部156通过内部传感器128等来识别用户,人物识别部214判定该用户属于哪个集群(S10)。在该用户的亲密度为阈值T2(中间阈值)以上时(S12的是),移动判断部138将移动方向设定为接近用户的方向,移动驱动部144执行接近行为(S14)。
进而,在用户的亲密度为阈值T3(上方阈值)以上时(S16的是),行为判断部140指示行为驱动部146执行爱意举动(S18)。爱意举动是指预定的向人示好的举动。例如,可以执行呈坐下状态并举起两只手106来求拥抱的举动。此外,可以绕着用户进行转圈行为,也可以从内置扬声器发出哔哔声等特有的“叫声”。或者,可以主动轻碰用户来使用户的注意转向自己。
在阈值小于T3时(S16的否),不执行爱意举动。
另一方面,在亲密度比阈值T2(中间域值)小(S12的否),甚至亲密度比阈值T1(下方阈值)还小时(S20的是),移动判断部138将移动方向设定为远离用户的方向,移动驱动部144执行逃离行为。
在该集群的亲密度比阈值T2(中间域值)小(S12的否)但在阈值T1(下方阈值)以上时(S20的否),不执行逃离行为。
综上所述,机器人100的行为根据亲密度被分类如下。
(1)亲密度非常高的集群(亲密度为阈值T3以上)
机器人100通过进行接近行为并且进行爱意举动来强烈地表达亲昵之情。
(2)亲密度较高的集群(亲密度为阈值T2以上且小于T3)
机器人100仅进行接近行为。
(3)亲密度较低的集群(亲密度为阈值T1以上且小于T2)
机器人100不进行特别的动作。
(4)亲密度特别低的集群(亲密度小于T1)
机器人100进行逃离行为。
根据以上的控制方法,机器人100在看见亲密度高的用户时会接近该用户,相反,在看见亲密度低的用户时会远离此用户。通过这样的控制方法,能行为表现出“认生”。此外,在出现客人(亲密度低的用户A)时,机器人100有时也会远离客人而走向家人(亲密度高的用户B)。在该情况下,用户B能感觉到机器人100认生并感到不安、依赖自己。通过这样的行为表现,用户B会被唤起被选择、被依赖的喜悦以及随之而来的喜爱之情。
另一方面,当作为客人的用户A频繁来访、打招呼、触摸时,机器人100对用户A的亲密度会逐渐上升,机器人100不会对用户A做出认生行为(逃离行为)。用户A也能通过感受到机器人100逐渐与自己熟悉而对机器人100抱有喜爱。
需要说明的是,不限于始终执行以上的行为选择。例如,在表示机器人100的好奇心的内部参数变高时,求出满足好奇心的场所的行为地图会被着重使用,因此机器人100也有可能不选择影响亲密度的行为。此外,在设置在门厅的外部传感器114检测到用户回家的情况下,有可能优先执行迎接用户的行为。
以上,基于实施方式对机器人100以及包括机器人100的机器人***300进行了说明。
通过一个以上的行为地图表现出了无法模式化、难以预测且生物式的行为选择。通过这样的方法来模拟生物的行为选择。
对宠物的喜爱大多是由被宠物需要、被依赖的感觉而引起的。宠物亲近自己、对自己以外的存在感到认生的情况容易唤起用户对宠物的喜爱。机器人100也能表现出容易引起人类对宠物的喜爱的认生,由此能增强用户对机器人100的喜爱。
需要说明的是,本发明不限定于上述实施方式、变形例,可以在不脱离技术精神的范围内对构成要素进行变形来具体化。也可以通过将上述实施方式、变形例中所公开的多个构成要素适当组合来形成各种发明。此外,也可以从上述实施方式、变形例中所示的全部构成要素中去掉若干构成要素。
对由一个机器人100和一个服务器200、多个外部传感器114构成机器人***300的情况进行了说明,但机器人100的部分功能可以由服务器200来实现,服务器200的部分或全部功能也可以分配给机器人100。既可以是一个服务器200控制多个机器人100,也可以是多个服务器200协作控制一个以上的机器人100。
机器人100、服务器200以外的第三装置也可以承担部分功能。图5中所说明的机器人100的各功能和服务器200的各功能的集合体也可以整体地作为一个“信息处理装置”来掌控。关于怎样对一个或多个硬件分配实现本发明所需的多个功能,只要能鉴于各硬件的处理能力、机器人***300所要求的规格等来决定即可。
在本实施方式中,主要对由机器人100的识别部156通过内部传感器128来检测用户的情况进行了说明,但也可以由服务器200的识别部212通过外部传感器114来检测用户的存在。外部传感器114也可以内置嗅觉传感器、收音麦克风。特别是在内部传感器128对声音、气味的检测精度不足时,能通过与外部传感器114的并用来提高检测精度。此外,在拍摄用户时,如果不仅通过作为内部传感器128的内置摄像头,还通过内置于外部传感器114的摄像头来从其他角度拍摄同一用户,能更容易进行特征提取。
在本实施方式中,对如下情况进行了说明:机器人100在拍摄各种用户时也会获取气味、声音、体温等其他数据,并根据这些数据进行特征提取,并通过进行集群分析来识别(归类)多个用户。
作为变形例,用户可以预先在服务器200上设置各用户的身体特征、行为特征。例如,作为爸爸(01)的特征,可以向服务器200的个人数据储存部218输入长胡子、早起、身高170厘米、吸烟者等信息来作为示教数据。服务器200可以基于这些特征信息,通过深度学习等已知的方法来进行用户检测。
作为更简单的用户识别方法,机器人100也可以通过定期从用户所持有的智能手机等便携设备接收用户ID来识别用户。对于宠物,也可以通过将射频识别(RadioFrequencyIdentifier:RFID)标签附到项圈上来轻易识别。根据这样的控制方法,能大幅减轻机器人100、服务器200的处理负担。
机器人100可以通过发送搜索信号并从各外部传感器114接收应答信号来确定机器人100自身的位置坐标。或者,也可以由外部传感器114发送具有指向性的搜索信号并据此来确定从外部传感器114到机器人100的距离和方向。
多个机器人100可以相互交换信息。当第一机器人100对用户A的亲密度变高时,第一机器人100可以向第二机器人100通知对用户A的亲密度(好印象)。此后,即使是初次见面,第二机器人100也可以预先将对用户A的亲密度设定得较高。
根据这样的控制方法,即使是初次见面,第二机器人100也会喜欢第一机器人100所喜欢的用户A,因此能拥有“机器人100喜欢的类型”这样的感觉。
在第一机器人100对用户B的亲密度变低时,第一机器人100也可以向第二机器人100通知对用户B的亲密度(坏印象)。此后,即使是初次见面,第二机器人100也可以预先将对用户B的亲密度设定得较低。
根据这样的控制方法,即使是初次见面,第二机器人100也会讨厌第一机器人100所讨厌的用户B,因此其他机器人100也会讨厌欺负机器人100的用户。因此,还能实现对用户的评价会在多个机器人100之间传递这样的控制。
识别部212可以基于亲密度来进行“喜欢类型”和“讨厌类型”这样的分类。例如,假设机器人100对爸爸(01)急剧降低了亲密度。假设爸爸(01)具有长胡子、声音大、有烟味等特征。在该情况下,机器人100在从初次见面的用户身上检测到烟味时,能通过将对该用户的亲密度的初始值设定得比通常低来表现对“香烟”的不待见。同样,机器人100也可以针对长胡子的人,将亲密度的初始值设定得较低。即,体现出了由于讨厌爸爸(01)因此也讨厌带有爸爸(01)特征的胡子,由于讨厌胡子因此也讨厌长胡子的其他人这样的联想性的行为选择。
反之,假设对作为吸烟者的爸爸(01)的亲密度非常高的情况。在该情况下,机器人100可以在从初次见面的用户身上检测到烟味时,将对该用户的亲密度的初始值设定得比通常高。即,体现出了由于喜欢爸爸(01)因此也喜欢带有爸爸(01)特征的烟味,由于喜欢烟味因此也喜欢吸烟者这样的联想性的行为选择。
而且,机器人100可以进行记忆亲密用户的气味并追寻该气味的行为。例如,在对爸爸(01)的亲密度较高时,机器人100可以以会受到散发与爸爸(01)相同的气味的场所吸引的方式,设定基于气味的行为地图。亲密度管理部220不仅可以设定用户的亲密度,还可以基于用户的亲密度来对气味类别设定亲密度。例如,在用户1的气味属于气味类别1时,可以对气味类别1设定与用户1同等的亲密度。此外,服务器200可以通过内置有气味传感器的外部传感器114来将屋内各部分的气味绘成图。然后,可以通过设定将散发与气味类别1相同气味的地点设为舒适地点的行为地图,来影响机器人100的行为选择。例如,会在长时间没看到亲密度高的爸爸(01)时,通过着重使用气味的行为地图,实现被散发与爸爸(01)相同气味的舒适地点吸引这样的行为。
同样,也可以将与亲密度低的用户的气味相同气味类别的地点设为不适地点。例如,可以执行讨厌在非常讨厌的附近的幼儿(07)回家后散发与该幼儿(07)相同气味的不适地点这样的行为。
基于亲密度的作为行为选择基准的阈值T1~T3可以是固定值,也可以是可变值。例如,能通过使这些阈值随机变化来表现机器人100的即兴的行为模式。在无聊时,例如,在留在家看家且没有检测到用户的时间跨度达到固定时间以上时,可以使阈值T1~T3整体降低。在该情况下,由于对亲密度没那么高的用户也会执行接近行为、爱意举动,因此,能行为表现出机器人100的“寂寞”。同样,可以在房间暗时、安静时使阈值降低,在因许多愉快行为而满足度高涨时使阈值上升。
重要度可以由用户在0~1的范围自由设定,也可以自动设定。检测频率高的用户,例如,规定期间内检测到的次数为规定次数以上的用户是家人的可能性较高,可以将重要度设定为1。同样,检测频率低的用户不是家人而可以将重要度设定为0。可以根据检测频率,在0~1之间调整重要度。
此外,可以将在清晨时段(例如,上午6:00到8:00)、夜间时段(例如,下午8:00到10:00)等只有家人在的可能性较高的规定时段内被高频率地识别到的用户判定为家人。然后,对于在这样的时段内检测频率高的用户,亲密度管理部220可以将重要度设定得较高。可以通过在0到1之间归一化检测频率来确定重要度。
可以将从最初向机器人100接入电源开始后规定时间以内检测到的用户识别为家人。对于从最初向机器人100接入电源开始后10分钟以内检测到的用户,亲密度管理部220可以将重要度设定为1。根据这样的控制方法,能实现与所谓的印刻现象(imprinting)同样的效果。
重要度可以是固定值,也可以是可变值。可以将重要度设为难以变动的长期型参数,而将亲密度设为容易变动的短期型参数。重要度可以在用户长时间未被检测到时逐渐降低,并在频繁地被检测到时逐渐提高。而且,可以通过这两个参数的组合,例如相加、相乘来定义综合亲密度。在重要度为规定的阈值以上时,可以使用亲密度容易上升而难以下降的算法,在重要度小于阈值时,可以使用亲密度容易下降而难以上升的算法。
根据这样的控制方法,如果是家人,则即使是暂时疏远或者受到粗暴行为时,也容易维持机器人100与用户的羁绊。这是由于综合亲密度因重要度高而难以下降。但是,即便如此,当长期疏远时,不仅亲密度,重要度也会降低,综合亲密度会降低,最终羁绊也会变淡。
另一方面,对于不是家人的用户,机器人100很难亲近。这是由于综合亲密度会因重要度低而难以上升。但是,即便如此,亲密度、重要度也会因长时间相处而慢慢上升,综合亲密度变高,不久便能产生羁绊。如果重要度变高则亲密度也容易上升,因此,能实现“最初很难相处但突然就变得亲密了”这一状态。
如果产生非常深厚的羁绊,当达到绝对忠诚状态时,即使在用户死亡、消失的情况下,机器人100也能实现追寻该用户的特征信息例如气味、追寻具有与消失的用户相同的身体特征的其他用户等补偿行为性的行为表现。
当与亲密的家人久别重逢时,可以在接近行为之后,执行所有的爱意举动来表现“热烈欢迎”。
当用户没有被检测到的情况持续下去时,亲密度会稍微降低。在该情况下,可以设为最开始那一周的亲密度仅降低少许,但当超过一周时亲密度急速降低。根据这样的控制方法,能表现“一周的记忆力”这种有低等动物特点的记忆力的薄弱。计算机的特征在于能永远保持记忆。能通过表现出记忆力差来为机器人100加入生物的特征。
可以根据重要度来使亲密度的初始值不同。
即使是相同的愉快行为,也可以根据亲密度来使其效果不同。例如,可以设为当被亲密度高的用户抱起时亲密度会进一步上升,但当被亲密度低的用户强行抱起时亲密度反而会降低。亲密度低的用户需要通过让自己混熟、打招呼、进行身体接触来慢慢提高亲密度,并在此基础上通过抱起机器人100来稍微提高亲密度。根据这样的控制方法,能实现与野生动物的饲养类似的关系。
在本实施方式中,对向人示好的爱意举动进行了说明,也可以将警戒举动定义为表现出对人的警戒心的举动。警戒举动例如为背向用户、后退等举动。机器人100可以在遇见亲密度低的用户时先采取警戒举动再进行逃离行为。
机器人100的眼睛110可以是显示瞳部图像的显示器。机器人100可以具备改变眼睛110的瞳部图像的位置、大小的“瞳部控制部”。
以下,将移动判断部138以及行为判断部140统称为“动作判断部”。机器人100在检测到人类、宠物等移动物体时,判断该移动物体是否为认生行为的对象。作为是否是认生行为的对象的判断基准,可以想到对移动物体的亲密度为规定的阈值以下、进行特征提取而得到的结果无法分类到现有的集群(无法辨识人物或是初次见面)等。判定基准能由机器人100的设计者来任意设定。
认生行为只要是以向远离作为认生行为的对象的用户(以下,称为“回避用户”)的方向移动(逃走)的方式,减少机器人100与规避用户接触的可能性的行为即可。例如,机器人100可以通过使瞳部图像不朝向规避用户,换言之,机器人100可以通过避开规避用户的视线来减少规避用户接触机器人100的可能性。同样,可以考虑闭上瞳部图像、使脖子或身体的方向不朝向规避用户、躲在隐蔽处(后述)、在被其他用户抱起时扭脖子并用头部顶住该用户的胸部等。在机器人100被抱起时,可以进行瞬间将视线朝向规避用户的所谓的瞥眼。此外,可以通过猛地上下摆动手106来吓阻规避用户。吓阻实际上不需要发挥出恐吓的效果,只要做出打算恐吓的动作表现即可。需要说明的是,如果是口吐人言的类型的机器人,可以在检测到规避用户时减少说话量。
如上所述,亲密度管理部220以用户的视觉识别、物理接触、打招呼等相互作用为契机来更新对用户的亲密度。机器人100的识别部156可以通过设置在机器人100的体表的触摸传感器,例如静电容量传感器来检测来自用户的物理接触。
服务器200的路线制定部222在躲避事件发生前预先生成躲避路线。机器人100沿躲避路线移动也是“认生行为”的一种。躲避路线的移动开始位置设定为机器人100的当前位置,移动结束位置(目的地)设定为距离机器人100的当前地点或规避用户的当前地点规定距离以上的位置、亲密度为规定的阈值以上的用户所在的地点、或者桌椅等规定高度以上的构造物所在的地点。躲避事件可以是指检测到亲密度为规定的阈值以下的移动物体(规避用户),也可以是指在规定期间以内例如一秒以内同时检测到规定数量以上的移动物体。根据这样的控制方法,不论是在出现陌生人、害怕的人时,还是在同时出现大量的人时,都能使机器人100采取认生行为。
如上所述,地图管理部210可以管理静态地图和动态地图双方或一方。静态地图中录入有“安全地点”。“安全地点”可以是像桌下这种上方有遮挡物的地点、距离墙壁规定距离以内的地点。当在通常移动中检测到符合上述定义的场所时,机器人100的识别部156会向服务器200发送检测信号。服务器200的地图管理部210将此时机器人100的当前位置作为“安全地点”录入到静态地图。“安全地点”可以由用户预先在静态地图中设定。机器人100在检测到作为认生行为的对象的用户(移动物体)时,参照动态地图,通过将亲密度为规定的阈值以上的用户所在的地点设定为移动目标地点来执行与规避用户拉开距离的认生行为。此外,机器人100也可以在检测到规避用户时,参照静态地图,移动至一个以上的“安全地点”中的任一个,例如最近的安全地点。
也可以对安全地点设定安全度。机器人100可以基于安全度、以及机器人100从当前地点到安全地点的距离双方,来选择作为移动目的地的安全地点。安全度可以在静态地图中由用户来设定,也可以基于以遮挡物的数量、大小、与隐蔽物的距离等各种检查项目为变量的规定的评价函数,由地图管理部210来计算安全度。
当存在多个机器人100时,一方的机器人100可以向另一方的机器人100通知“亲密度”。例如,第一机器人100具有与用户A有关的足够多的信息,第二机器人100不具有或几乎不具有用户A的信息。此时,第一机器人100也会将对用户A的亲密度通知给第二机器人100。第二机器人100基于第一机器人100对用户A的亲密度来调整自己对用户A的亲密度。例如,在第一机器人100对用户A的亲密度为“80”、第二机器人100对用户A的亲密度为“50(中立)”时,第二机器人100可以将对用户A的亲密度变更为其平均值“65”,也可以与第一机器人100同样地将亲密度变更为80。10根据这样的控制方法,能表现出第一机器人100对用户A的印象会传递给第二机器人0而形成第二机器人100对用户A的“先入之见”的样子。
第一机器人100和第二机器人100可以交换亲密度信息。例如,在第一机器人100对用户A的亲密度为“80”、第二机器人100对用户A的亲密度为“-30”时,第一机器人100可以将亲密度减去规定值例如“10”来向下修正为“70”,第二机器人100可以将对用户A的亲密度加上规定值例如“10”来向上修正为“-20”。根据这样的控制方法,能将多个机器人对用户A的“印象”平均化,因此能表现出根据其他机器人100的意见来改变自己的印象的样子。作为应在多个机器人100之间进行收发的信息,除了亲密度之外,还可以考虑安全地点信息、用户的简档信息等各种信息。
识别部212可以将亲密度比阈值T3高的用户分类为“喜欢类型”,将比阈值T4(≤阈值T3)低的用户分类为“讨厌类型”。亲密度管理部220可以对喜欢类型的用户和讨厌类型的用户的特征进行提取,增加对具有喜欢类型的用户所具备且讨厌类型的用户所不具备的特征的第三用户的亲密度。同样,也可以减少对具有讨厌类型的用户所具备且喜欢类型的用户所不具备的特征的第四用户的亲密度。
例如,喜欢类型的一个以上的用户常穿红衣,而讨厌类型的用户几乎不穿红衣服的情况下,亲密度管理部220可以在其他用户穿红衣服时增加对该用户的亲密度。根据这样的控制方法,能基于喜欢类型、讨厌类型的特征来表现对初次见面的用户形成“先入之见”。先入之见在表现机器人100的“个性”方面也是有效的。用户的特征可以是挠头发、咬手指、用手托腮等癖好、起床时刻等行为模式(行为特征),也可以是眼睛的大小、肤色、气味、音质、音量等身体特征,还可以是所穿的服装。
机器人100或服务器200可以具备储存用户的生活模式的生活模式储存部。或者,机器人100的通信部142也可以通过访问作为外部数据库而形成的生活模式储存部来适当地获取每个用户的生活模式信息。生活模式储存部按每个用户来录入起床时刻、为了上班等而外出的时刻、回家时刻、以及就寝时刻,来作为生活模式信息。这些时刻通常不固定,因此,也可以录入它们的平均值、众数值来作为代表值。不仅可以按用户,也可以按星期几、季节来录入多种生活模式数据。
生活模式可以由用户来设定。或者,机器人100可以通过观察用户的行为来检测出起床时刻等。例如,可以通过将某一用户A从卧室出来的时刻录入生活模式储存部来确定用户A的起床时刻。机器人100的识别部156通过摄像头等来识别用户A的起床,通信部142通过将起床时刻录入数据储存部148或外部数据库,登记用户A的起床时刻来作为生活模式。
识别部156可以将一天开始最早起床的用户B识别为“家人”。识别部156可以将在用户B之后规定时间以内起床的用户也识别为家人。在规定的清晨时段起床的用户、在规定的夜间时段回家的用户也可以被识别为家人。识别部156可以以在清晨时段起床的概率为规定概率以上为条件,判定用户是家人还是客人。
识别部156可以将从机器人100被引入家庭并第一次接通电源开始后,规定时间以内检测到的用户识别为家人,用户也可以预先在自己被机器人100的摄像头拍摄到的状态下,通过对机器人100实施规定的操作来将自己登记为家人。例如,在通过摄像头拍摄到用户C时,识别部156可以在用户C发出“是家人呦”这样的规定的关键词时,对用户C(更具体而言为用户C的概貌)赋予“家人”这样的标签。进而,在作为家人的用户C以“这是家人呦”来介绍用户D时,识别部156可以将用户D识别为家人。如此,在第一用户以及第二用户正被拍摄的状态下,被认定为家人的第一用户告知第二用户也是家人时,识别部156可以将第二用户识别为家人。
认生行为可以是回避与规避用户的接触的行为。该回避行为可以是绕到物体、人等“遮挡物”的背后。例如,当存在规避用户D、亲密度高的用户E时,移动判断部138(或路线制定部222)可以以使用户E位于机器人100所在地点与用户D的所在地点之间的方式,换言之,向通过用户E来躲开用户D的位置,确定机器人100的移动方向。
作为遮挡物,可以是桌子、墙壁、椅子等规定高度以上的物体,也可以是亲密度为规定的阈值以上的用户、被认定为家人的用户、或者亲密度至少比上述用户D高的另一用户E。当存在两位规避用户时,动作判断部可以优先回避亲密度更低的规避用户。
机器人100不需要实际躲开用户D,可以是看起来“打算躲开”的回避行为。例如,即使机器人100躲在椅子后,用户D可能也可以看到机器人100躲在椅子后。机器人100也可以与用户D保持距离,直到搭载的摄像头拍摄不到用户D。机器人100也可以以使用户D进入搭载的摄像头的死角的方式进行移动。虽然机器人100的摄像头拍摄不到用户D,但用户D并不一定看不到机器人100。在该情况下,能实现所谓的“顾头不顾尾”这样的生物式的行为表现。
当在第一动作中检测到作为认生行为的对象的移动物体时,动作判断部可以中止第一动作。动作判断部可以在中止第一动作后,指示驱动机构120进行认生行为。例如,当通过对讲机等检测到有人回家时,机器人100会为了迎接而移动至门厅。但是,当回家者为规避用户时,机器人100可以中断迎接并向起居室等移动(回避行为)。第一行为假设为在同一场所巡回的游戏、以凉爽的场所为目的地的移动、跳舞等各种行为模式。
服务器200或机器人100可以具有情感管理部。情感管理部管理表示机器人100的情感(寂寞、好奇心、被认可欲等)的各种情感参数。这些情感参数总是在波动。多个行为地图的重要度会根据情感参数而发生变化,机器人100的移动目标地点会根据行为地图而发生变化,情感参数会因机器人100的移动、时间经过而发生变化。
例如,在表示寂寞的情感参数高时,情感管理部将评价安心场所的行为地图的权重系数设定得较大。当机器人100到达该行为地图中能消除寂寞的地点时,情感管理部会降低表示寂寞的情感参数。此外,各种情感参数也会因后述的应对行为而发生变化。例如,当被主人“拥抱”时表示寂寞的情感参数会降低,在长时间没有看到主人时表示寂寞的情感参数会逐步上升。

Claims (19)

1.一种行为自主型机器人,其特征在于,具备:
移动判断部,确定移动方向;
驱动机构,执行由所述移动判断部指定的移动;以及
亲密度管理部,更新对移动物体的亲密度,
所述移动判断部在检测到亲密度设定为比第一阈值低的第一移动物体时,在预先登记或预先检测到的地点中,基于与各个该地点相关联的安全度来选择安全地点,将该所选择的安全地点设定为移动目标地点,基于与遮挡物相关的变量来计算安全度。
2.根据权利要求1所述的行为自主型机器人,其特征在于,
所述移动判断部在检测到亲密度设定为比第一阈值高的第二移动物体时,确定接近所述第二移动物体的方向为移动方向。
3.根据权利要求2所述的行为自主型机器人,其特征在于,
所述移动判断部将连结所述第一移动物体和机器人的直线上所述第二移动物体所在的方向确定为移动方向。
4.根据权利要求2或3所述的行为自主型机器人,其特征在于,
还具备:行为判断部,从多种举动中选择任一种举动,
所述行为判断部选择被定义为对所述第二移动物体示好的举动的爱意举动。
5.根据权利要求1至3中任一项所述的行为自主型机器人,其特征在于,
所述亲密度管理部根据移动物体的检测频率来改变对该移动物体的亲密度。
6.根据权利要求1至3中任一项所述的行为自主型机器人,其特征在于,
所述亲密度管理部在检测到与移动物体的物理接触时,改变对该移动物体的亲密度。
7.根据权利要求6所述的行为自主型机器人,其特征在于,
所述亲密度管理部在检测到被作为移动物体的人抱起时,改变对该移动物体的亲密度。
8.根据权利要求1至3中任一项所述的行为自主型机器人,其特征在于,
所述移动判断部在检测到所述第一移动物体和亲密度比所述第一移动物体高的第三移动物体双方时,确定从所述第一移动物体前往所述第三移动物体的方向为移动方向。
9.根据权利要求1至3中任一项所述的行为自主型机器人,其特征在于,
还具备:嗅觉部,检测气味并对气味进行分类,
所述亲密度管理部将移动物体的气味的类别与该移动物体的亲密度关联,
所述移动判断部在检测到与亲密度高于第三阈值的移动物体所对应的气味类别属于同一气味类别的舒适地点时,将前往所述舒适地点的方向设定为移动方向。
10.根据权利要求1至3中任一项所述的行为自主型机器人,其特征在于,
所述亲密度管理部分别对属于特别组的移动物体和属于普通组的移动物体使用不同的算法来更新亲密度。
11.根据权利要求1至3中任一项所述的行为自主型机器人,其特征在于,
所述移动判断部在检测到亲密度低于规定的阈值的移动物体时,依据预先生成的躲避路线来确定移动方向。
12.根据权利要求1所述的行为自主型机器人,其特征在于,
所述移动判断部将多个安全地点中与所述第一移动物体相距规定距离以上的安全地点设定为移动目标地点。
13.根据权利要求1所述的行为自主型机器人,其特征在于,
所述移动判断部选择具有规定高度以上的高度的物体所在的地点来作为安全地点。
14.根据权利要求1所述的行为自主型机器人,其特征在于,
所述移动判断部选择上方存在遮挡物的地点来作为安全地点。
15.一种行为自主型机器人,其特征在于,具备:
动作控制部;
驱动机构,执行与第一亲密度关联的第一动作和认生行为;
识别部,检测移动物体,并判定所述移动物体是否为比第一亲密度低的第二亲密度的认生行为的对象;以及
动作判断部,在所述移动物体为所述认生行为的对象时,选择认生行为,
当检测到所述移动物体时,所述动作控制部指示所述驱动机构开始第一动作,
当在所述第一动作的执行过程中检测到作为认生行为的对象的移动物体时,所述动作判断部指示所述驱动机构中断所述第一动作、执行所述认生行为。
16.根据权利要求15所述的行为自主型机器人,其特征在于,
还具备:亲密度管理部,基于与移动物体的互动,来更新对所述移动物体的亲密度,
所述动作判断部在对所述移动物体的亲密度小于规定的阈值时选择所述认生行为。
17.根据权利要求15或16所述的行为自主型机器人,其特征在于,
在检测到作为认生行为的对象的移动物体时,作为所述认生行为,所述动作判断部选择回避所述移动物体的行为。
18.根据权利要求17所述的行为自主型机器人,其特征在于,
作为所述认生行为,所述动作判断部将回避方向设定为作为所述认生行为的对象的移动物体进入机器人的死角的位置。
19.根据权利要求15所述的行为自主型机器人,其特征在于,
还具备:瞳部控制部,控制机器人的瞳部图像,
在所述移动物体为所述认生行为的对象时,作为所述认生行为,所述瞳部控制部根据预先定义的控制方法来改变瞳部图像。
CN201780020525.3A 2016-04-08 2017-03-16 认生的行为自主型机器人 Active CN109070330B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016-078051 2016-04-08
JP2016078051 2016-04-08
PCT/JP2017/010612 WO2017175559A1 (ja) 2016-04-08 2017-03-16 人見知りする自律行動型ロボット

Publications (2)

Publication Number Publication Date
CN109070330A CN109070330A (zh) 2018-12-21
CN109070330B true CN109070330B (zh) 2022-07-15

Family

ID=60001024

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780020525.3A Active CN109070330B (zh) 2016-04-08 2017-03-16 认生的行为自主型机器人

Country Status (6)

Country Link
US (1) US11192257B2 (zh)
JP (2) JP6402320B2 (zh)
CN (1) CN109070330B (zh)
DE (1) DE112017001874T5 (zh)
GB (1) GB2563786B (zh)
WO (1) WO2017175559A1 (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10427305B2 (en) * 2016-07-21 2019-10-01 Autodesk, Inc. Robotic camera control via motion capture
JP6515899B2 (ja) * 2016-10-04 2019-05-22 トヨタ自動車株式会社 音声対話装置及びその制御方法
JPWO2019088160A1 (ja) * 2017-11-01 2020-11-12 Groove X株式会社 反射行動を実行可能な自律行動型ロボット
US11453123B2 (en) * 2017-12-27 2022-09-27 Stmicroelectronics, Inc. Robotic device with time-of-flight proximity sensing system
JP6989395B2 (ja) * 2018-01-10 2022-01-05 パナソニック株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
JP7102169B2 (ja) * 2018-02-28 2022-07-19 パナソニックホールディングス株式会社 装置、ロボット、方法、及びプログラム
EP3795225A4 (en) * 2018-05-15 2022-03-30 Sony Group Corporation CONTROL DEVICE, CONTROL METHOD AND PROGRAM
JP7326707B2 (ja) * 2018-06-21 2023-08-16 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP7133840B2 (ja) * 2018-09-03 2022-09-09 株式会社国際電気通信基礎技術研究所 ロボット、ロボット制御プログラムおよびロボット制御方法
US20220088788A1 (en) * 2019-02-15 2022-03-24 Sony Group Corporation Moving body, moving method
JP7273566B2 (ja) * 2019-03-19 2023-05-15 パナソニックホールディングス株式会社 ロボット、ロボットの制御方法及びプログラム
US20220288791A1 (en) * 2019-04-16 2022-09-15 Sony Group Corporation Information processing device, information processing method, and program
DE102019213032A1 (de) * 2019-08-29 2021-03-04 navel robotics GmbH Roboter mit einer verhaltenssteuerungseinheit und verfahren zur verhaltenssteuerung eines roboters
JP7392377B2 (ja) * 2019-10-10 2023-12-06 沖電気工業株式会社 機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法
JP7323475B2 (ja) * 2020-02-19 2023-08-08 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および行動モード設定方法
JP7456211B2 (ja) * 2020-03-13 2024-03-27 オムロン株式会社 移動支援装置、移動支援方法、及びプログラム
CN112497217B (zh) * 2020-12-02 2022-12-13 深圳市香蕉智能科技有限公司 一种机器人的交互方法、装置、终端设备及可读存储介质
CN112494956A (zh) * 2020-12-15 2021-03-16 四川长虹电器股份有限公司 一种将物品转换成宠物的拟化方法和宠物拟化***
JP2024076459A (ja) * 2022-11-25 2024-06-06 カシオ計算機株式会社 動作制御装置、動作制御方法、及び、プログラム

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11126017A (ja) * 1997-08-22 1999-05-11 Sony Corp 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム
JP2000323219A (ja) 1999-05-10 2000-11-24 Sony Corp 接続装置及びロボットシステム
WO2000067962A1 (fr) * 1999-05-10 2000-11-16 Sony Corporation Robot
US6519506B2 (en) * 1999-05-10 2003-02-11 Sony Corporation Robot and control method for controlling the robot's emotions
WO2000067959A1 (fr) 1999-05-10 2000-11-16 Sony Corporation Dispositif robotique et procede de commande associe
JP2000326274A (ja) * 1999-05-24 2000-11-28 Nec Corp 自律行動ロボット
US6539284B2 (en) * 2000-07-25 2003-03-25 Axonn Robotics, Llc Socially interactive autonomous robot
JP2002127059A (ja) 2000-10-20 2002-05-08 Sony Corp 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体
JP2002137182A (ja) * 2000-10-31 2002-05-14 Yamaha Motor Co Ltd 動作内容決定装置
JP2002307354A (ja) 2000-11-07 2002-10-23 Sega Toys:Kk 電子玩具
JP2003311028A (ja) 2002-04-26 2003-11-05 Matsushita Electric Ind Co Ltd ペットロボット装置
US20060293786A1 (en) 2003-08-21 2006-12-28 Tmsuk Co., Ltd. Robot system and remote operation system of robot
KR100654676B1 (ko) * 2005-03-07 2006-12-08 삼성광주전자 주식회사 로봇청소기
EP2281667B1 (en) 2005-09-30 2013-04-17 iRobot Corporation Companion robot for personal interaction
JP4682217B2 (ja) * 2007-03-07 2011-05-11 パナソニック株式会社 行動制御装置、方法、プログラム
KR100953407B1 (ko) * 2008-04-24 2010-04-19 한국과학기술원 로봇의 호감도 형성장치 및 그 방법
JP2009072910A (ja) * 2008-12-22 2009-04-09 Nec Corp ロボット装置及びその制御方法
JP5429462B2 (ja) * 2009-06-19 2014-02-26 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット
CN102770820B (zh) * 2009-12-22 2015-11-25 Atonarp株式会社 机器人以及控制机器人的方法
WO2012172721A1 (ja) 2011-06-14 2012-12-20 パナソニック株式会社 ロボット装置、ロボット制御方法、及びロボット制御プログラム
CN102902271A (zh) * 2012-10-23 2013-01-30 上海大学 基于双目视觉的机器人目标识别与抓取***及方法
JP6151856B2 (ja) * 2014-05-06 2017-06-21 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 表面上での投射物のヒットを検出するための装置、輸送体、施設、および方法
CN107530882B (zh) * 2015-04-22 2021-08-10 索尼公司 移动体控制***、控制方法以及存储介质
US9776323B2 (en) * 2016-01-06 2017-10-03 Disney Enterprises, Inc. Trained human-intention classifier for safe and efficient robot navigation
WO2017169826A1 (ja) 2016-03-28 2017-10-05 Groove X株式会社 お出迎え行動する自律行動型ロボット

Also Published As

Publication number Publication date
US20190030723A1 (en) 2019-01-31
US11192257B2 (en) 2021-12-07
JP2019005591A (ja) 2019-01-17
JP6402320B2 (ja) 2018-10-10
GB2563786B (en) 2021-08-04
WO2017175559A1 (ja) 2017-10-12
GB2563786A (en) 2018-12-26
JPWO2017175559A1 (ja) 2018-04-12
CN109070330A (zh) 2018-12-21
DE112017001874T5 (de) 2018-12-27

Similar Documents

Publication Publication Date Title
CN109070330B (zh) 认生的行为自主型机器人
CN109475781B (zh) 理解物理接触的行为自主型机器人
CN109153127B (zh) 执行迎接行为的行为自主型机器人
JP6436548B2 (ja) 自律行動型ロボット
JP7068709B2 (ja) 瞳を変化させる自律行動型ロボット
JP6884401B2 (ja) 服を着る自律行動型ロボット
JP6494062B2 (ja) 音源の方向を認識する自律行動型ロボット
JP6409209B2 (ja) 涼しさを求める自律行動型ロボット
JP7236142B2 (ja) 自律行動型ロボット
JP6671577B2 (ja) 人を識別する自律行動型ロボット
JP2018192559A (ja) 曲面形状のボディに対するタッチを検出する自律行動型ロボット

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant