CN110024000B - 使瞳部变化的行为自主型机器人 - Google Patents

使瞳部变化的行为自主型机器人 Download PDF

Info

Publication number
CN110024000B
CN110024000B CN201780072408.1A CN201780072408A CN110024000B CN 110024000 B CN110024000 B CN 110024000B CN 201780072408 A CN201780072408 A CN 201780072408A CN 110024000 B CN110024000 B CN 110024000B
Authority
CN
China
Prior art keywords
robot
eye
image
user
eye image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780072408.1A
Other languages
English (en)
Other versions
CN110024000A (zh
Inventor
林要
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Grove X Co ltd
Original Assignee
Grove X Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Grove X Co ltd filed Critical Grove X Co ltd
Priority to CN202311702963.1A priority Critical patent/CN117666867A/zh
Publication of CN110024000A publication Critical patent/CN110024000A/zh
Application granted granted Critical
Publication of CN110024000B publication Critical patent/CN110024000B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/80Creating or modifying a manually drawn or painted image using a manual input device, e.g. mouse, light pen, direction keys on keyboard
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Geometry (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

机器人的眼睛中设置有显示屏,在显示屏上显示眼部图像(174)。机器人从用户的拍摄图像中提取用户的眼睛的特征量。用户的眼睛的特征量被反映至眼部图像(174)。例如为瞳孔区域(158)以及瞳部图像(164)的尺寸、眼睑图像(176)的形状。此外,眨眼的频率等也可以作为特征量而被反映。也可以对各个用户设定亲密度,并根据亲密度决定反映哪个用户的特征量。

Description

使瞳部变化的行为自主型机器人
技术领域
本发明涉及一种根据内部状态或外部环境自主地作出行为选择的机器人。
背景技术
人类为了寻求慰藉而饲养宠物。另一方面,有很多人因为无法充分确保照顾宠物的时间、没有养宠物的居住环境、有过敏反应、难以忍受生离死别等各种理由而放弃养宠物。假如存在扮演宠物角色的机器人,可能会为无法养宠物的人也带来像宠物所能给予的那种慰藉(参照专利文献1)。近年来,虽然机器人技术急速进步,但尚未实现宠物这样的作为伴侣的存在感。
现有技术文献
专利文献
专利文献1:日本特开2000-323219号公报
非专利文献
非专利文献1:VITOR F.PAMPLONA,MANUEL M.OLIVEIRA and GLADIMIRV.G.BARANOSKI,“Photorealistic Models for Pupil Light Reflex and IridalPattern Deformation”ACM Transactions on Graphics,Vol.28,No.4,Article 106,August 2009
发明内容
发明所要解决的问题
俗话说“宠物像主人”。人类具有对熟悉的事物感到亲近的特性,因此人类可能会下意识地选择与自己相似的宠物。此外,宠物随着成长/老化,其姿容/表情会发生变化。在姿容/表情中,眼睛是对于表现表情、个性、成熟度等而言特别重要的部分。本发明人认为通过强化机器人的眼睛的表现力,应该能大幅提高对机器人的共鸣。
本发明是基于本发明人的上述着眼点而完成的发明,其主要目的在于提出一种提高机器人的眼睛的表现力的技术。
用于解决问题的方案
本发明的某一方案的行为自主型机器人具备:动作控制部,选择动作;驱动机构,执行由动作控制部选择的动作;眼生成部,生成眼部图像;眼显示部,使所述眼部图像显示于机器人的面部区域;以及特征提取部,从用户的拍摄图像中提取用户的眼睛的特征量。
眼生成部使用户的眼睛的特征量反映至眼部图像。
本发明的另一方案的行为自主型机器人具备:动作控制部,选择动作;驱动机构,执行由动作控制部选择的动作;眼生成部,生成眼部图像;以及眼显示部,使眼部图像显示于机器人的面部区域。
眼生成部使眼部图像发生经年变化。
本发明的另一方案的行为自主型机器人具备:动作控制部,选择动作;驱动机构,执行由动作控制部选择的动作;眼生成部,生成眼部图像;眼显示部,使眼部图像显示于机器人的面部区域;以及光检测部,检测外部光源。
眼生成部使眼部图像中包含反光,并根据外部光源的方向使反光的位置变化。
本发明的另一方案的行为自主型机器人具备:动作控制部,选择动作;驱动机构,执行由动作控制部选择的动作;眼生成部,生成眼部图像;眼显示部,使眼部图像显示于机器人的面部区域;以及光检测部,检测外部光。
眼生成部根据外部光的光量,使眼部图像中所含的瞳部图像的尺寸变化。
本发明的另一方案的行为自主型机器人具备:摄像头;动作控制部,选择动作;驱动机构,执行由动作控制部选择的动作;眼生成部,生成眼部图像;以及眼显示部,使眼部图像显示于机器人的面部区域。
眼生成部使由摄像头拍摄到的被拍摄体图像重叠至眼部图像。
本发明的另一方案的行为自主型机器人具备:动作控制部,选择动作;驱动机构,执行由动作控制部选择的动作;眼生成部,生成眼部图像;眼显示部,使眼部图像显示于机器人的面部区域;视线检测部,检测用户的视线;以及图标储存部,将图标和显示条件对应起来进存储。
眼生成部在任一图标的显示条件成立且检测到指向机器人的视线时,将图标重叠至眼部图像。
本发明的另一方案的行为自主型机器人具备:动作控制部,选择动作;驱动机构,执行由动作控制部选择的动作;眼生成部,生成眼部图像;眼显示部,使眼部图像显示于机器人的面部区域;以及图标储存部,将图标和显示条件对应起来进存储。
眼生成部在任一图标的显示条件成立时,在执行眼部图像的眨眼的定时将图标重叠至眼部图像。
发明效果
根据本发明,容易提高机器人的眼睛的表现力。
附图说明
图1的(a)是机器人的正面外观图。
图1的(b)是机器人的侧面外观图。
图2是概略地表示机器人的构造的剖面图。。
图3是机器人***的构成图。
图4是情感地图的概念图。
图5是机器人的硬件构成图。
图6是机器人***的功能框图。
图7是眼部图像的外观图。
图8是眼部图像的放大图。
图9的(a)是不显示眼睑图像时的眼部图像。
图9的(b)是眼睑图像下垂到内眦侧时的眼部图像。
图9的(c)是眼睑图像下垂到外眦侧时的第一眼部图像。
图9的(d)是眼睑图像下垂到外眦侧时的第二眼部图像。
图9的(e)是除了显示眼睑图像还显示下眼睑时的眼部图像。
图10是进行映入显示时的眼部图像的外观图。
图11是图标重叠显示于瞳孔区域时的眼部图像的外观图。
图12是将反光变更为图标时的眼部图像的外观图。
具体实施方式
图1的(a)是机器人100的正面外观图。图1的(b)是机器人100的侧面外观图。
本实施方式中的机器人100是基于外部环境以及内部状态来决定行为、举动(gesture)的行为自主型机器人。外部环境通过摄像头、热敏传感器(thermo sensor)等各种传感器来识别。内部状态被量化为表现机器人100的情感的各种参数。对此将在后文加以说明。
机器人100原则上以主人家的房屋内为行动范围。以下,将与机器人100有关联的人称为“用户”,将作为机器人100所属的家庭成员的用户称为“主人”。
机器人100的主体104具有整体上圆润的形状,包括由聚氨酯、橡胶、树脂、纤维等柔软而具有弹性的材料形成的外皮。可以给机器人100着装。通过采用圆润而柔软的手感好的主体104,机器人100给予用户安心感和舒服的触感。
机器人100总重量在15千克以下,优选10千克以下,进一步优选5千克以下。一半以上的婴儿到出生后13个月才开始走路。出生后13个月的婴儿的平均体重为男孩略高于9千克、女孩略低于9千克。因此,如果机器人100的总重量为10千克以下,则用户只需耗费大致与抱起不会走路的婴儿同等的力气就能抱起机器人100。出生后2个月以内的婴儿的平均体重是男女均小于5千克。因此,如果机器人100的总重量在5千克以下,则用户耗费与抱起小婴儿同等的力气就能抱起机器人100。
通过适度的重量和圆润感、柔软度、手感好等诸多属性,会实现用户容易抱起并且愿意抱起机器人100的效果。基于同样的理由,优选机器人100的身高在1.2米以下,理想的是0.7米以下。对本实施方式的机器人100而言,能抱起来是重要的设计理念。
机器人100具备用于进行三轮行进的三个轮子。如图所示,包括一对前轮102(左轮102a、右轮102b)和一个后轮103。前轮102为驱动轮,后轮103为从动轮。前轮102不具有转向机构,但能独立控制旋转速度、旋转方向。后轮103由所谓的全向轮(omni wheel)构成,能自由旋转以便使机器人100向前后左右移动。机器人100能通过使右轮102b的转速大于左轮102a来进行左转或逆时针旋转。机器人100能通过使左轮102a的转速大于右轮102b来进行右转或顺时针旋转。
前轮102以及后轮103能通过驱动机构(转动机构、连杆机构)而完全收纳于主体104。行进时各轮子的大部分隐藏在主体104中,而当各轮子完全收纳于主体104时,机器人100会变为不可移动的状态。即,随着轮子的收纳动作,主体104下垂而就座于地面F。在该就座状态下,形成于主体104的底部的平坦状的就座面108(接地底面)与地面F抵接。
机器人100具有两只手106。手106不具有抓持物体的功能。手106能进行抬起、摆动、振动等简单的动作。两只手106也能独立控制。
眼睛110能通过液晶元件或有机EL元件来进行图像显示。机器人100搭载有能确定声源方向的麦克风阵列、超声波传感器等各种传感器。此外,还能内置扬声器来发出简单的声音。
机器人100的头部装配有角112。如上所述,机器人100重量轻,因此用户能通过抓住角112来提起机器人100。角112装配有全景摄像头,能一次性拍摄机器人100的整个上部区域。
图2是概略表示机器人100的构造的剖面图。
如图2所示,机器人100的主体104包括:基础框架308、主体框架310、一对树脂制的轮罩312、以及外皮314。基础框架308由金属构成,构成主体104的轴芯并且支承内部机构。基础框架308通过多个侧板336将上板332和下板334上下连结而构成。在多个侧板336间设有足够的间隔,以便能进行通气。在基础框架308的内侧容纳有电池118、控制电路342、以及各种驱动器。
主体框架310由树脂材料构成,包括头部框架316以及躯干部框架318。头部框架316呈中空半球状,形成机器人100的头部骨架。躯干部框架318呈分段筒状,形成机器人100的躯干部骨架。躯干部框架318与基础框架308固定为一体。头部框架316以可相对位移的方式组装于躯干部框架318的上端部。
头部框架316设有偏转(yaw)轴320、俯仰(pitch)轴322、横摆(roll)轴324这三个轴以及用于旋转驱动各轴的驱动器326。驱动器326包括用于独立驱动各轴的多个伺服马达。为了进行转头动作而驱动偏转轴320,为了进行点头动作而驱动俯仰轴322,为了进行歪头动作而驱动横摆轴324。
头部框架316的上部固定有支承偏转轴320的板325。板325上形成有多个用于确保上下之间的通气的通气孔327。
以从下方支承头部框架316以及其内部机构的方式设有金属制的基板328。基板328经由桥接(crosslink)机构329(缩放机构)与板325连结,另一方面,经由接头330与上板332(基础框架308)连结。
躯干部框架318容纳基础框架308和轮子驱动机构370。轮子驱动机构370包括转动轴378以及驱动器379。为了在躯干部框架318的下半部与轮罩312之间形成前轮102的收纳空间S而将躯干部框架318的下半部设置得窄。
外皮314由聚氨酯橡胶形成,从外侧覆盖主体框架310以及轮罩312。手106与外皮314一体成形。在外皮314的上端部设有用于导入外部空气的开口部390。
图3是机器人***300的构成图。
机器人***300包括:机器人100、服务器200、以及多个外部传感器114。在房屋内预先设置多个外部传感器114(外部传感器114a、114b、……、114n)。外部传感器114既可以固定在房屋的墙面上,也可以放置在地上。服务器200中录入了外部传感器114的位置坐标。位置坐标在被假定为机器人100的行动范围的房屋内被定义为x、y坐标。
服务器200设置于房屋内。本实施方式中的服务器200与机器人100通常一一对应。服务器200基于获取自机器人100的内置传感器以及多个外部传感器114的信息,来决定机器人100的基本行为。
外部传感器114用于强化机器人100的感觉器,服务器200用于强化机器人100的头脑。
外部传感器114定期发送包括外部传感器114的ID(以下,称为“信标ID”)的无线信号(以下,称为“机器人搜索信号”)。机器人100在接收到机器人搜索信号时会回复包括信标ID的无线信号(以下,称为“机器人应答信号”)。服务器200测量从外部传感器114发送机器人搜索信号开始到接收到机器人应答信号为止的时间,来测定出从外部传感器114到机器人100的距离。通过测量多个外部传感器114与机器人100的各自距离,来确定机器人100的位置坐标。
当然,也可以采用机器人100定期向服务器200发送自身位置坐标的方式。
图4是情感地图116的概念图。
情感地图116是储存于服务器200的数据表。机器人100根据情感地图116来作出行为选择。图4所示的情感地图116表示机器人100对场所的好恶情感的程度。情感地图116的x轴和y轴表示二维空间坐标。z轴表示好恶情感的程度。z值为正值时表示对该场所的好感较高,z值为负值时表示厌恶该场所。
在图4的情感地图116中,坐标P1是作为机器人100的行动范围而由服务器200管理的屋内空间中好感高的地点(以下,称为“好感地点”)。好感地点可以是沙发的背面、桌子下等“安全场所”,也可以是像客厅这种经常聚人的场所、热闹的场所。此外,也可以是曾经被轻抚或触碰过的场所。
机器人100喜欢怎样的场所的定义是任意的,但一般而言理想的是将小孩或狗、猫等小动物喜欢的场所设定为好感地点。
坐标P2是厌恶感高的地点(以下,称为“厌恶地点”)。厌恶地点可以是电视机附近等声音大的场所、像浴缸和洗面台这种经常被弄湿的场所、密闭空间、暗处、会勾起被用户粗暴对待的不愉快记忆的场所等。
机器人100厌恶怎样的场所的定义也是任意的,但一般而言理想的是将小孩或狗、猫等小动物害怕的场所设定为厌恶地点。
坐标Q表示机器人100的当前位置。服务器200根据由多个外部传感器114定期发送的机器人搜索信号和与之对应的机器人应答信号,来确定机器人100的位置坐标。例如,在信标ID=1的外部传感器114和信标ID=2的外部传感器114分别检测到机器人100时,求出机器人100与两个外部传感器114的距离,并据此求出机器人100的位置坐标。
或者,信标ID=1的外部传感器114向多个方向发送机器人搜索信号,机器人100在接收到机器人搜索信号时回复机器人应答信号。由此,服务器200可以掌握机器人100在哪个方向距哪个外部传感器114多远的距离。此外,在其他实施方式中,可以根据前轮102或后轮103的转速来计算机器人100的移动距离而确定当前位置,也可以基于由摄像头获取到的图像来确定当前位置。
在被赋予图4所示的情感地图116的情况下,机器人100会向靠近好感地点(坐标P1)的方向、远离厌恶地点(坐标P2)的方向移动。
情感地图116会动态变化。当机器人100到达坐标P1时,坐标P1处的z值(好感)会随时间降低。由此,机器人100能模拟出到达好感地点(坐标P1)而“情感获得满足”且不久后会对该场所产生“厌倦”这样的生物行为。同样,坐标P2处的厌恶感也会随时间而减轻。随着时间推移,会产生新的好感地点、厌恶地点,由此机器人100会进行新的行为选择。机器人100对新的好感地点有“兴趣”,会不断地作出行为选择。
作为机器人100的内部状态,情感地图116体现出情感的起伏。机器人100会靠近好感地点而避开厌恶地点,暂时停留在好感地点,不久会进行下一行为。通过这样的控制,能将机器人100的行为选择设计成人类/生物的行为选择。
需要说明的是,影响机器人100的行为的地图(以下,统称为“行为地图”)不限于图4所示的类型的情感地图116。例如,能定义好奇、避免恐惧的情绪、寻求安心的情绪、以及寻求安静或昏暗、凉爽或温暖等肉体的舒适的情绪等各种行为地图。并且,可以通过对多个行为地图各自的z值进行加权平均,来确定机器人100的目的地点。
机器人100除了行为地图之外,还可以具有表示各种情感、感觉的程度的参数。例如,在寂寞这样的情感参数的值变高时,可以将评估安心场所的行为地图的加权系数设定得较大,并通过到达目标地点来降低该情感参数值。同样,在表示无聊这样的感觉的参数的值变高时,将评估满足好奇心的场所的行为地图的加权系数设定得较大即可。
图5是机器人100的硬件构成图。
机器人100包括:显示屏170、内部传感器128、通信器126、存储装置124、处理器122、驱动机构120以及电池118。驱动机构120包括上述的轮子驱动机构370。处理器122和存储装置124包括在控制电路342中。各单元通过电源线130以及信号线132而相互连接。电池118经由电源线130向各单元供电。各单元通过信号线132来收发控制信号。电池118为锂离子二次电池,是机器人100的动力源。
显示屏170设置于机器人100的眼睛110,显示眼部图像(后述)。
内部传感器128是内置于机器人100的各种传感器的集合体。具体而言,是摄像头(全景摄像头)、麦克风阵列、测距传感器(红外线传感器)、热敏传感器、触摸传感器、加速度传感器、嗅觉传感器、触摸传感器等。触摸传感器设置于外皮314与主体框架310之间,检测用户的触摸。嗅觉传感器是一种已知的传感器,其应用了电阻因作为气味源的分子的吸附而变化的原理。嗅觉传感器将各种气味分类为多种类别。
通信器126是以服务器200、外部传感器114、用户持有的便携设备等各种外部设备为对象来进行无线通信的通信模块。存储装置124由非易失性内存以及易失性内存构成,存储计算机程序、各种设定信息。处理器122是计算机程序的执行部。驱动机构120是控制内部机构的驱动器。除此之外,还搭载有显示器、扬声器等。
处理器122在经由通信器126与服务器200、外部传感器114进行通信的同时,进行机器人100的行为选择。由内部传感器128获取的各种外部信息也会影响行为选择。驱动机构120主要控制轮子(前轮102)和头部(头部框架316)。驱动机构120通过改变两个前轮102各自的旋转速度、旋转方向,来改变机器人100的移动方向、移动速度。此外,驱动机构120还能使轮子(前轮102以及后轮103)升降。当轮子上升时,轮子完全收纳在主体104中,机器人100通过就座面108与地面F抵接,变为就座状态。此外,驱动机构120经由金属线135来控制手106。
图6是机器人***300的功能框图。
如上所述,机器人***300包括:机器人100、服务器200、以及多个外部传感器114。机器人100以及服务器200的各构成要素由硬件和软件来实现,其中,硬件包括中央处理器(CentralProcessingUnit:CPU)以及各种协处理器等运算器、内存(memory)和存储器(storage)等存储装置、将这些装置连结起来的有线或无线的通信线,软件存储于存储装置,将处理命令提供应给运算器。计算机程序可以由设备驱动程序、操作***、位于它们的上位层的各种应用程序、以及为这些程序提供共通功能的程序库构成。以下所说明的各区组不表示硬件单位的构成,而表示功能单位的区组。
机器人100的部分功能可以由服务器200来实现,服务器200的部分或全部功能也可以由机器人100来实现。
(服务器200)
服务器200包括:通信部204、数据处理部202、以及数据储存部206。
通信部204负责与外部传感器114以及机器人100的通信处理。数据储存部206储存各种数据。数据处理部202基于由通信部204获取到的数据以及储存在数据储存部206的数据来执行各种处理。数据处理部202也作为通信部204以及数据储存部206的接口来发挥功能。
数据储存部206包括:动作储存部232、地图储存部216以及个人数据储存部218。
机器人100具有多个动作模式(动作)。定义有抖动手106、蛇行接近主人、歪头注视主人等各种各样的动作。
动作储存部232存储对动作的控制内容进行定义的“动作文件”。各动作通过动作ID来识别。动作文件也被下载到机器人100的动作储存部160。执行哪个动作有时由服务器200来决定,有时也由机器人100来决定。
机器人100的动作大多构成为包括多个单位动作的复合动作。例如,可表现为在机器人100接近主人时转向主人的单位动作、一边抬手一边接近的单位动作、一边晃动身体一边接近的单位动作、以及一边举起双手一边坐下的单位动作的组合。通过这样的四个动作的组合,会实现“接近主人、中途抬手、最后晃动身体坐下”这样的动作。动作文件中,与时间轴建立关联地定义了设于机器人100的驱动器的旋转角度、角速度等。依据动作文件(驱动器控制信息),随着时间经过来控制各驱动器,由此实现各种动作。
将从前一个单位动作变化到下一个单位动作时的过渡时间称为“间隔”。根据单位动作变更所需的时间、动作的内容来定义间隔即可。间隔的长度可调整。
以下,将何时选择哪个动作、实现动作基础上的各驱动器的输出调整等等与机器人100的行为控制有关的设定统称为“行为特性”。机器人100的行为特性由动作选择算法、动作的选择概率、动作文件等来定义。
动作储存部232除了动作文件以外,还储存对各种事件发生时应执行的动作进行定义的动作选择表。在动作选择表中,为事件对应一个以上的动作及其选择概率。
地图储存部216除了多个行为地图以外,还储存表示椅子、桌子等障碍物的配置状况的地图。个人数据储存部218储存用户特别是主人的信息。具体而言,储存表示对用户的亲密度和用户的身体特征/行为特征的主人信息。也可以储存年龄、性别等其他的属性信息。
机器人100按每个用户具有亲密度这样的内部参数。机器人100在识别出抱起自己、打招呼等对自己示好的行为时,对该用户的亲密度会提高。对与机器人100无关的用户、动粗的用户、见面频率低的用户的亲密度会降低。
数据处理部202包括:位置管理部208、地图管理部210、识别部212、动作控制部222、亲密度管理部220以及状态管理部244。
位置管理部208通过用图3说明过的方法来确定机器人100的位置坐标。位置管理部208也可以实时追踪用户的位置坐标。
状态管理部244管理充电率、内部温度、处理器122的处理负荷等的各种物理状态等各种内部参数。状态管理部244包括情感管理部234。
情感管理部234对表示机器人100的情感(寂寞、好奇心、认可欲望等)的各种情感参数进行管理。这些情感参数经常波动。多个行为地图的重要度根据情感参数而发生变化,机器人100的移动目标地点根据行为地图而发生变化,情感参数随着机器人100的移动、时间经过而发生变化。
例如,在表示寂寞的情感参数高时,情感管理部234将评估安心场所的行为地图的加权系数设定得较大。当机器人100到达该行为地图中能消除寂寞的地点时,情感管理部234降低表示寂寞的情感参数。此外,各种情感参数也根据后述的应对行为而发生变化。例如,当被主人“抱抱”时,表示寂寞的情感参数降低,在长期看不到主人时,表示寂寞的情感参数一点一点地增加。
地图管理部210通过与图4关联地进行过说明的方法,针对多个行动地图改变各坐标的参数。地图管理部210既可以选择多个行为地图中的任一个,也可以对多个行为地图的z值进行加权平均。例如,在行为地图A中坐标R1、坐标R2处的z值为4和3,在行为地图B中坐标R1、坐标R2处的z值为-1和3。在简单平均的情况下,坐标R1的合计z值为4-1=3,坐标R2的合计z值为3+3=6,因此,机器人100会前往坐标R2的方向,而不是坐标R1的方向。
在使行为地图A五倍着重于行为地图B时,坐标R1的合计z值为4×5-1=19,坐标R2的合计z值为3×5+3=18,因此,机器人100会前往坐标R1的方向。
识别部212识别外部环境。外部环境的识别包括基于温度、湿度的气候、季节的识别;基于光量、温度的隐蔽处(安全地带)的识别等多种识别。机器人100的识别部156通过内部传感器128获取各种环境信息,并在对其进行了一次处理后转发至服务器200的识别部212。
具体而言,机器人100的识别部156从图像中提取与移动物体特别是人物、动物对应的图像区域,并从提取到的图像区域中提取“特征向量”作为表示移动物体的身体特征、行为特征的特征量的集合。特征向量分量(特征量)是将各种身体/行为特征量化后获得的数值。例如,人类的眼睛的横向宽度被数值化为0~1的范围,形成一个特征向量分量。从人物的拍摄图像中提取特征向量的方法使用已知的面部识别技术。机器人100将特征向量发送给服务器200。
服务器200的识别部212还包括人物识别部214和应对识别部228。
人物识别部214将提取自由机器人100的内置摄像头拍摄到的拍摄图像的特征向量、和预先录入个人数据储存部218的用户(集群)的特征向量进行比较,由此判定拍摄到的用户与哪位人物对应(用户识别处理)。人物识别部214包括表情识别部230。表情识别部230通过对用户的表情进行图像识别来推测用户的情感。
需要说明的是,人物识别部214也对人物以外的移动物体、例如作为宠物的猫、狗进行用户识别处理。
应对识别部228识别机器人100所受到的各种应对行为,并将其分类为愉快/不愉快行为。此外,应对识别部228还通过识别主人对机器人100的行为的应对行为,分类为肯定/否定反应。
愉快/不愉快行为根据用户的应对行为对生物而言是舒服的还是不愉快的来判别。例如,对于机器人100而言,被抱起是愉快行为,被踢是不愉快行为。根据用户的应对行为表现出了用户的愉快情感还是不愉快情感,来判别肯定/否定反应。例如,被抱起是表示用户的愉快情感的肯定反应,被踢是表示用户的不愉快情感的否定反应。
服务器200的动作控制部222与机器人100的动作控制部150相互配合,决定机器人100的动作。服务器200的动作控制部222基于地图管理部210的行为地图选择,来制定机器人100的移动目标地点和移动至该移动目标地点的移动路线。动作控制部222可以制定多条移动路线并在此基础上选择任一条移动路线。
动作控制部222从动作储存部232的多个动作中选择机器人100的动作。各动作按情况与选择概率建立对应。例如,定义了如下的选择方法:当主人作出愉快行为时,以20%的概率执行动作A,当气温为30度以上时,以5%的概率执行动作B。
行为地图决定移动目标地点、移动路线,并根据后述的各种事件选择动作。
亲密度管理部220管理每个用户的亲密度。如上所述,亲密度作为个人数据的一部分被录入个人数据储存部218。在检测到愉快行为时,亲密度管理部220会增加对该主人的亲密度。在检测到不愉快行为时亲密度会下垂。此外,长时间未见到的主人的亲密度会逐渐下垂。
(机器人100)
机器人100包括:通信部142、数据处理部136、数据储存部148、内部传感器128、显示屏170以及驱动机构120。
通信部142与通信器126(参照图5)对应,负责与外部传感器114、服务器200以及其他机器人100的通信处理。数据储存部148储存各种数据。数据储存部148与存储装置124(参照图5)对应。数据处理部136基于由通信部142获取到的数据以及储存在数据储存部148的数据来执行各种处理。数据处理部136与处理器122以及由处理器122执行的计算机程序对应。数据处理部136也作为通信部142、内部传感器128、驱动机构120、以及数据储存部148的接口来发挥功能。
数据储存部148包括定义机器人100的各种动作的动作储存部160和图标储存部172。
各种动作文件从服务器200的动作储存部232被下载到机器人100的动作储存部160。通过动作ID来识别动作。为了表现收起前轮102并坐下、抬起手106、通过使两个前轮102反转或仅使单侧的前轮102旋转来使机器人100作出旋转行为、通过在收起前轮102的状态下使前轮102旋转来颤动、在远离用户时一度停止并回头等各种各样的动作,在动作文件中按时序定义有各种驱动器(驱动机构120)的动作定时、动作时间、动作方向等。
各种数据也可以从地图储存部216以及个人数据储存部218被下载到数据储存部148。
图标储存部172储存图标图像及其显示条件所对应的图标信息。像后文所描述的,通过使图标显示于机器人的眼睛110,为用户提供各种信息。例如,机器人100的通信部142经由互联网从外部站点获取天气信息。在雨天时或预计会在几小时内降雨时,表示雨伞的图标会被显示于眼睛110(在后文加以详细说明)。在该情况下,雨伞的图标的显示条件是“雨天时或预计会在几小时内降雨时”。图标储存部172中还储存有除此之外的各种图标。在机器人100搭载有空气清洁度传感器时,可以根据空气清洁度、化学物质含量来显示图标。具体而言,在二氧化碳浓度、空气中的悬浮颗粒的浓度达到规定值以上时,可以显示表示该情况的图标。除此之外,还能根据室温、机器人100的内部温度、电池118的充电率、有无故障、由情感管理部234管理的情感状态来显示各种图标。
内部传感器128包括:摄像头134、光检测部138以及视线检测部140。本实施方式的摄像头134是装配于角112的全景摄像头。光检测部138是光传感器,检测外部光源的方向、光的颜色、光量。视线检测部140是根据摄像头134的拍摄图像来检测用户的眼睛的活动的已知的传感器。在本实施方式中,通过视线检测部140检测用户对机器人100的注视。
数据处理部136包括:识别部156、动作控制部150、眼生成部152以及眼显示部154。
机器人100的动作控制部150与服务器200的动作控制部222配合来决定机器人100的动作。可以是部分动作由服务器200来决定,其他动作由机器人100来决定。此外,也可以由机器人100来决定动作,但在机器人100的处理负荷高时由服务器200来决定动作。也可以由服务器200来决定基础动作,并由机器人100来决定追加动作。根据机器人***300的规格来设计服务器200和机器人100如何分担动作的决定处理即可。
机器人100的动作控制部150与服务器200的动作控制部222一起决定机器人100的移动方向。可以由服务器200来决定基于行为地图的移动,并由机器人100的动作控制部150来决定躲避障碍物等的即时移动。驱动机构120按照动作控制部150的指示来驱动前轮102,由此使机器人100前往移动目标地点。
机器人100的动作控制部150向驱动机构120指示执行所选择的动作。驱动机构120根据动作文件来控制各驱动器。
动作控制部150既能在亲密度高的用户接近时,执行抬起双手106的动作作为求“抱抱”的举动,也能在厌倦了“抱抱”时通过在收起左右前轮102的状态下交替反复进行反向旋转和停止来表现厌恶拥抱的动作。驱动机构120按照动作控制部150的指示来驱动前轮102、手106、头部(头部框架316),由此使机器人100表现出各种各样的动作。
眼生成部152生成眼部图像。眼生成部152对应于两只眼睛110分别控制两个眼部图像。眼显示部154使由眼生成部152生成的眼部图像显示于设置于眼睛110的显示屏170。眼部图像的详细情况将在后文加以说明。
机器人100的识别部156对由内部传感器128获取到的外部信息进行解释。识别部156能进行视觉识别(视觉部)、气味识别(嗅觉部)、声音识别(听觉部)、触觉识别(触觉部)。
识别部156通过内置的全景摄像头来定期拍摄外界,检测人、宠物等移动物体。识别部156包括特征提取部146。特征提取部146从移动物体的拍摄图像中提取特征向量。如上所述,特征向量是表示移动物体的身体特征和行为特征的参数(特征量)的集合。在检测到移动物体时,也会由嗅觉传感器、内置的收音麦克风、温度传感器等来提取身体特征、行为特征。例如,在移动物体被拍摄入图像时,会提取出长胡子、在清晨活动、身穿红衣、有香水味、声音大、戴眼镜、穿裙子、白发、高个子、胖、肤黑、在沙发上等各种特征。这些特征也被量化为特征向量分量。
机器人***300基于根据大量的图像信息、其他传感信息而获取到的身体特征以及行为特征,将高频率出现的用户归类为“主人”。
例如长胡子的移动物体(用户)经常在清晨活动(早起)且不常穿红衣服,则能得出早起且长胡子且不怎么穿红衣服的集群(用户)这样的第一简档。另一方面,在戴眼镜的移动物体常穿裙子但该移动物体不长胡子的情况下,能得出戴眼镜且穿裙子但绝对不长胡子的集群(用户)这样的第二简档。
以上只是简单设例,但通过上述的方法,会形成与父亲对应的第一简档和与母亲对应的第二简档,机器人100会认识到这个家至少有两位用户(主人)。
不过,机器人100不需要识别第一简档为“父亲”。归根结底,只要能识别出“长胡子且常早起且很少穿红衣服的集群”这样的人物形象即可。按简档定义赋予简档特征的特征向量。
在完成这种集群分析的状态下,机器人100会重新识别移动物体(用户)。
此时,服务器200的人物识别部214基于新的移动物体的特征向量来执行用户识别处理,并判断移动物体与哪个简档(集群)对应。例如,在检测到长胡子的移动物体时,该移动物体是父亲的概率较高。如果该移动物体在清晨行动,更能确定其为父亲。另一方面,在检测到戴眼镜的移动物体时,则该移动物体有可能是母亲。如果该移动物体不长胡子,由于既不是母亲也不是父亲,因此判定为是未进行过集群分析的新人物。
基于特征提取的集群(简档)的形成(集群分析)、以及向伴随特征提取的集群的套用可以同时并行地执行。
在包括检测/分析/判定的一系列识别处理之中,机器人100的识别部156进行识别所需的信息的取舍选择、提取,判定等解释处理则由服务器200的识别部212来执行。识别处理既可以仅由服务器200的识别部212来进行,也可以仅由机器人100的识别部156来进行,还可以如上所述双方分工来执行上述识别处理。
在机器人100受到强烈的冲击时,识别部156通过内置的加速度传感器来对其进行识别,服务器200的应对识别部228识别出邻近的用户做出了“粗暴行为”。在用户抓住角112提起机器人100时,也可以识别为粗暴行为。在处于与机器人100正对的状态下的用户以特定音域以及特定频带发声时,服务器200的应对识别部228可以识别为对自己进行了“打招呼行为”。此外,在检测到体温级别的温度时识别为用户进行了“接触行为”,在已作出接触识别的状态下检测到向上方的加速度时识别为被“抱抱”。可以检测用户抬起主体104时的物理接触,也可以通过施加给轮子102的负荷降低来识别拥抱。
总之,机器人100通过内部传感器128来获取用户的行为作为物理信息,服务器200的应对识别部228判定愉快/不愉快,服务器200的识别部212执行基于特征向量的用户识别处理。
服务器200的应对识别部228识别用户对机器人100的各种应对。各种应对行为中的一部分典型的应对行为与愉快或不愉快、肯定或否定建立对应。一般而言作为愉快行为的应对行为几乎都为肯定反应,作为不愉快行为的应对行为几乎都为否定反应。愉快/不愉快行为与亲密度关联,肯定/否定反应会影响机器人100的行为选择。
根据由识别部156识别出的应对行为,服务器200的亲密度管理部220使针对用户的亲密度变化。原则上讲,对进行过愉快行为的用户的亲密度会变高,对进行过不愉快行为的用户的亲密度会降低。
服务器200的识别部212根据应对来判定愉快/不愉快,地图管理部210可以改变表现“对场所的喜爱”的行为地图中经历愉快/不愉快行为的地点的z值。例如,在客厅经历了愉快行为时,地图管理部210可以高概率地将客厅设定为喜欢地点。在该情况下,实现了机器人100喜欢客厅并因在客厅受到愉快行为而越来越喜欢客厅这样的正反馈效果。
根据被移动物体(用户)施以怎样的行为,对用户的亲密度会发生变化。
机器人100可以对经常遇到的人、经常接触的人、经常打招呼的人设定较高的亲密度。另一方面,对很少遇到的人、很少接触的人、粗暴的人、大声呵斥的人的亲密度会降低。机器人100也基于由传感器(视觉、触觉、听觉)检测到的各种外界信息来改变每个用户的亲密度。
实际的机器人100会按照行为地图来自主进行复杂的行为选择。机器人100会在基于寂寞程度、无聊程度、好奇等各种参数而受到多个行为地图的影响的同时作出行为。当排除了行为地图的影响时,或者当处于行为地图的影响小的内部状态时,原则上讲,机器人100会接近亲密度高的人,远离亲密度低的人。
机器人100的行为根据亲密度被分类如下。
(1)亲密度非常高的用户
机器人100通过接近用户(以下,称为“接近行为”)并且进行预先定义为对人示好的举动的爱意举动来强烈地表达亲昵之情。
(2)亲密度比较高的用户
机器人100仅作出接近行为。
(3)亲密度比较低的用户
机器人100不进行特别的动作。
(4)亲密度特别低的用户
机器人100作出逃离行为。
根据以上的控制方法,机器人100在看见亲密度高的用户时会接近该用户,相反,在看见亲密度低的用户时会远离该用户。通过这样的控制方法,能行为表现出“认生”。此外,在出现客人(亲密度低的用户A)时,机器人100有时也会远离客人而走向家人(亲密度高的用户B)。在该情况下,用户B能感觉到机器人100认生并感到不安、依赖自己。通过这样的行为表现,用户B会被唤起被选择、被依赖的喜悦以及随之而来的喜爱之情。
另一方面,当作为客人的用户A频繁来访、打招呼、触摸时,机器人100对用户A的亲密度会逐渐上升,机器人100不会对用户A作出认生行为(逃离行为)。用户A也能通过感受到机器人100逐渐与自己熟悉而对机器人100抱有喜爱。
需要说明的是,不限于始终执行以上的行为选择。例如,在表示机器人100的好奇心的内部参数变高时,寻求满足好奇心的场所的行为地图会被着重使用,因此机器人100也有可能不选择影响到了亲密度的行为。此外,在设置于门厅的外部传感器114检测到用户回家的情况下,有可能优先执行迎接用户的行为。
图7是眼部图像174的外观图。
眼生成部152生成包括瞳部图像164和周缘图像168的眼部图像174。眼生成部152动画显示眼部图像174。具体而言,通过移动瞳部图像164来表现机器人100的视线。此外,以规定的定时执行眨眼动作。眼生成部152按照各种动作模式来表现眼部图像174的各种动作。眼显示部154将眼部图像174于眼睛110的显示屏170。理想的是,显示屏170与人的眼球同样具有曲面形状。本实施方式的显示屏170以平面形状进行说明。
瞳部图像164包括瞳孔区域158和角膜区域162。此外,瞳部图像164也显示用于表现外部光的映入的反光(catch light)166。眼部图像174的反光166不是因外部光的反射而发光的区域,而是通过眼生成部152表现为高亮度区域的图像区域。
眼生成部152能使瞳部图像164在显示屏170中上下左右移动。在机器人100的识别部156识别出移动物体时,眼生成部152生成使瞳部图像164朝向移动物体的所在方向这样的动作模式(动画数据)。眼显示部154根据该动作模式改变眼部图像174的显示,由此表现机器人100的“注视”。如上所述,眼生成部152分别控制显示于两只眼睛110的眼部图像174。在使机器人100的视线朝向用户等对象物时,眼生成部152使两个眼部图像174都朝向对象物。
眼生成部152也可以根据在显示屏170上所处的位置来改变瞳部图像164的形状。具体而言,在瞳部图像164位于显示屏170的中心时为正圆形,在位于周缘部分时变化为椭圆形。通过根据位置改变瞳部图像164的形状,即使是平面的显示屏170,也能使其看起来像实际的眼球那样的曲面形状。眼生成部152生成模拟眼球的3D实体,并将其投影至显示屏170(投影面),由此将眼部图像174表现为俯视图像。
光检测部138检测太阳、电灯等外部光源。眼生成部152与外部光源的所在方向对应地改变反光166的位置。图7表示从机器人100来看外部光源位于左上方的情况下的反光166的显示位置。通过使反光166的位置与外部光源联动,能表现更真实的眼部图像174。此外,瞳部图像164也同样,在根据其位置将反光166变形为椭圆形状以使显示屏170看起来是曲面形状方面是有效的。
图8是眼部图像174的放大图。
本实施方式的眼部图像174还包括与瞳部图像164以及周缘图像168重叠表示眼睑(眼皮)的眼睑图像176。眼睑图像176包括睫毛178。周缘图像168是相当于人的结膜的部分。瞳部图像164所包括的角膜区域162是相当于人的角膜的部分。还可以在角膜区域162显示虹膜。
眼生成部152改变眼部图像174之中的眼睑图像176、瞳孔区域158、角膜区域162以及反光166。眼部图像174的变化有恒久稳定的变化(以下称为“恒久变化”)和暂时性的变化(以下称为“暂时变化”)两种。
恒久变化还有随着时间经过不可逆的变化(以下称为“经年变化”)、和导入主人的眼睛的特征的变化(以下称为“反映变化”)两种。即,机器人100的眼睛110具有与主人的眼睛越来越像这样的特性。
(1)恒久变化
(1-1)经年变化
据说人的瞳孔的直径随着老化而变小。随着老化,结膜的白色变暗,闭眼的肌力衰退,因此眼睑逐渐下垂。此外,据说幼儿期眨眼的次数少,成年后眨眼次数稳定。
眼生成部152通过眼部图像174来表现生物特别是人类的眼睛随着成长/老化而发生的变化。眼生成部152在机器人100出厂时后随着时间经过使眼部图像174逐渐发生变化。具体而言,眼生成部152随着时间经过而缩小角膜区域162的直径,降低眼睑图像176的定位位置。特别是可以在经过长时间后,设定为眼睑图像176不会抬升到规定位置以上。眼生成部152通过定期地垂下眼睑图像176来表现眨眼,眨眼的频率也随着机器人100的老化而发生变化。
(1-2)反映变化
眼睛是容易给别人留下印象的重要部位。特征提取部146拍摄主人的眼睛并提取出眼睛的特征。在特征提取中,通过使眼睛的外观特征数值化来提取出特征量。眼睛的外观不仅可以包括瞳孔的大小等静态特性,还可以包括视线的移动习惯、眨眼的频率等动态特性。更具体而言,提取眼睑的形状、定位位置、眼睑的下垂方式、睫毛的长度、瞳孔的大小、颜色等参数作为眼睛的特征量。瞳孔的定位位置、翻白眼或眯眼的习惯、眨眼的频率等动态特性也是特征量。如果是女性,则有时会因化妆而使睫毛的长度、眼睑图像176的颜色发生变化。
眼生成部152还将主人的眼睛的特征量反映至眼部图像174,由此使机器人100的眼睛110像主人。在本实施方式中,眼生成部152长年累月地将主人的特征反映至眼部图像174。例如,当机器人100在眼睑的外眦侧有下垂趋势的主人的身旁的情况下,眼生成部152改变机器人100的眼睑图像176以使外眦侧下垂。
眼生成部152通过调整作为眼睑图像176、瞳部图像164等各部分的边界线的样条曲线,更具体而言,通过调整样条曲线上的一个以上的控制点,来改变眼部图像174。例如,通过改变形成眼睑图像176与瞳部图像164的边界的样条曲线,来改变眼睑图像176的形状。如果逐渐改变样条曲线的控制点,则能使眼部图像174的感觉随着时间逐渐发生变化。
眼生成部152可以准备多个眼部图像174的图像模式。而且,通过切换多个眼部图像174,来改变眼部图像174的感觉。
在有多个主人时,眼生成部152将亲密度最高的主人的特征反映至眼部图像174。在亲密度最高的主人从主人P1变化为主人P2时,眼生成部152选择主人P2的特征作为新的反映变化的模型。
通过经年变化以及反映变化,机器人100逐渐成长/老化,并且渐渐像主人。因此,主人对机器人100感到亲近感,并且能感到机器人100的成长/老化。也可以仅基于经年变化和反映变化中的一方使眼睛110恒久变化。
(2)暂时变化
暂时变化主要由外部光产生。眼部图像174也会产生因“映入”、“图标”的显示而引起的暂时变化,但这样的变化在后文再加以说明。如上所述,眼生成部152与外部光方向对应地改变反光166的位置。此外,眼生成部152根据外部光源的形状、光量改变反光166的形状、颜色以及尺寸。例如,如果外部光源是窗户,则眼生成部152将反光166改变为窗户的形状。如果外部光源为蓝色,则反光166为蓝色。光量越大时,眼生成部152将反光166的尺寸设置得越大。当存在多个光源时,眼生成部152显示多个反光166。
眼生成部152可以在检测到用户对机器人100的视线时,放大反光166的尺寸。视线检测部140通过对拍摄图像进行图像分析并检测出用户的瞳孔的朝向,来判断用户是否注视着机器人100。此外,可以以拍摄图像的用户的面部区域的大小为规定值以上时、通过测距传感器(未图示)检测到用户位于规定距离以内为条件,执行视线检测。
当光量大时,眼生成部152放大瞳孔区域158的直径。对于光量与瞳孔径的关系,根据已知的模型来控制即可(例如,参照非专利文献1的算式(2))。当光量特别大时可以通过使眼睑图像176下垂来表现出“刺眼的样子”。
图9的(a)至图9的(e)是各种眼部图像174的外观图。均与右眼对应。
图9的(a)是不显示眼睑图像176时的眼部图像174。图9的(b)是眼睑图像176下垂到内眦侧时的眼部图像174。图9的(c)是眼睑图像176下垂到外眦侧时的眼部图像174。图9的(c)是所谓的“耷拉眼”。图9的(d)不及图9的(c),但眼睑图像176下垂到外眦侧。此外,在图9的(e)中,除了显示眼睑图像176,还显示下眼睑180。通过下眼睑180的图像,还能模拟出卧蚕。
通过将主人的特征反映为瞳部图像164的尺寸、颜色、眼睑图像176的角度、形状等,能表现出与用户相似的面部。例如,如果主人是耷拉眼,则眼生成部152像图9的(c)、图9的(d)那样,使眼睑图像176的定位位置下降。如果主人是双眼皮,则眼生成部15将眼睑图像176变更为双眼皮图像。主人的特征也反映为眼睑图像176的睫毛178的长度、根数。
图10是进行映入显示时的眼部图像174的外观图。
眼生成部152将由摄像头134摄像到的被拍摄体182重叠显示于瞳部图像164。由此,表现机器人100的所见映在瞳部图像164特别是瞳孔区域158的样子。通过将被拍摄体182主动显示于瞳部图像164,能提高眼睛110的质感。眼生成部152也可以像鱼眼镜头那样将被拍摄体182变形地显示于瞳部图像164。如果进行这样的变形显示,则能使眼部图像174看起来与眼球同样是曲面形状。
图11是图标184重叠显示于瞳孔区域158时的眼部图像174的外观图。图12是将反光166变更为图标184时的眼部图像174的外观图。
当规定的显示条件成立时,眼生成部152将图标184显示于瞳孔区域158或反光166。例如,在晴天时将表示晴天的图标184重叠显示于瞳孔区域158(参照图11)。用户通过观察瞳孔区域158能确认室外晴朗。图标184还可以表示将来的天气(天气预报)而不是当前的天气。
既可以将图标184显示于瞳孔区域158,也可以将反光166变化为图标184。在图12中,反光166变化为表示降雨的图标184。
当通过视线检测部140检测到对机器人100的视线时,如果任一图标184的显示条件成立,则眼生成部152显示该图标184。当检测到规定时间以上的视线检测即凝视时,眼生成部152可以显示图标184。
当能在固定值以上大小的面部图像中检测到双眼区域时,视线检测部140可以判断为用户正在观察机器人100。当该观察状态持续规定时间时判定为“凝视”,眼生成部152可以将图标184显示得淡、暗或小。而且,当观察状态进一步继续时,眼生成部152可以逐渐将图标184显示得深、亮或大。
通过声音识别部(未图示)识别用户的声音,眼生成部152可以显示对应于声音的图标184。例如,在用户发出“天气如何?”的招呼声时,眼生成部152可以对关键词“天气”作出反应,显示表示当前的天气的图标184。在用户发出“明天天气如何”的招呼声时,眼生成部152可以对关键词“明天”、“天气”作出反应,显示表示明天的天气的图标184。在用户发出“肚子饿了吗?”的招呼声时,眼生成部152可以识别“肚子饿”的意思,显示表示电池118的充电率的指示图像作为图标184。眼生成部152可以以在凝视持续规定时间时发出各种招呼声为条件,显示对应的图标184。
眼生成部152在经过规定时间时撤销图标184。或者眼生成部152可以以未检测到来自用户的凝视为条件撤销图标184。可以以淡出方式慢慢撤销图标184。
眼生成部152既可以在任意的定时例如随机地显示图标184,也可以在显示条件成立时一直显示图标184。此外,眼生成部152可以执行定期关闭眼睑图像176的“眨眼显示”,并配合该眨眼的定时地显示图标184。
以上,基于实施方式对机器人100以及包括机器人100的机器人***300进行了说明。
根据本实施方式,能使表现机器人100的外观上的个性的眼睛110与主人的眼睛相似。主人会因为机器人100的眼睛110与自己的眼睛相似而容易对机器人100抱有亲近感。此外,由于机器人100的眼睛110与多个主人之中亲密度高的主人渐渐变得相似,因此能通过眼部图像174定性地提示亲密度这样的定量值。因此,主人会被激发想与机器人100亲近、想被它喜欢的意愿。
此外,由于眼睛110经年变化,因此能通过眼睛110表现机器人100的成长/老化。因此,主人容易对长时间在一起的机器人100保持喜爱。
在人物摄影中有用闪光灯等将反光映入眼睛的技巧。反光具有使人的眼睛看起来生动的效果。在本实施方式的机器人100中,眼生成部152主动地显示反光166的图像来作为眼部图像174的一部分。反光原本是外部光的映入(反射光),而机器人100通过显示反光166来强调机器人100的眼睛110的可爱。
眼生成部152根据外部光源的方向改变反光166的位置,因此能实现没有不协调感的真实的图像表现。眼生成部152通过根据光量变更瞳孔区域158的尺寸,能表现出像生物一样的眼睛110。通过将被拍摄体182重叠地显示于眼部图像174来表现映入,由此提高机器人100的眼睛110的质感。控制眨眼的频率、定时也有助于眼睛110的真实感。
本实施方式的机器人100以非语言交流(non-verbalcommunication)为基本理念。另一方面,机器人100也能作为信息终端发挥功能。根据本实施方式,能将天气、充电率等各种有用信息通过眼部图像174以图标184的形式进行传达。机器人100遵循非语言而感性这样的基本理念,并且也作为对用户有用的信息终端发挥功能。
可以想到,如果以仅在用户注视机器人100时显现图标184的方式进行显示,用户将会主动注视机器人100。在主人以极近距离注视机器人100时,摄像头134容易提取主人的特征向量。增加主人注视机器人100的机会在提高用户识别处理的精度方面是有效的。
需要说明的是,本发明不限定于上述实施方式、变形例,可以在不脱离技术精神的范围内对构成要素进行变形来具体化。也可以通过适当组合上述实施方式、变形例中所公开的多个构成要素来形成各种发明。此外,也可以从上述实施方式、变形例中所示的全部构成要素中去掉若干构成要素。
对由一个机器人100和一个服务器200、多个外部传感器114构成机器人***300的情况进行了说明,但机器人100的部分功能可以由服务器200来实现,服务器200的部分或全部功能也可以分配给机器人100。既可以是一个服务器200控制多个机器人100,也可以是多个服务器200协同控制一个以上的机器人100。
机器人100、服务器200以外的第三装置也可以承担部分功能。图6中所说明的机器人100的各功能和服务器200的各功能的集合体也可以整体作为一个“机器人”来掌握。关于怎样为一个或多个硬件分配实现本发明所需的多个功能,只要能鉴于各硬件的处理能力、机器人***300所要求的规格等来决定即可。
如上所述,“狭义的机器人”是不包括服务器200的机器人100,而“广义的机器人”是机器人***300。服务器200的很多功能将来也有可能会集成至机器人100。
眼生成部152可以根据时间段、机器人100的内部状态来控制眼睑图像176。例如,在充电率低时可以使眼睑图像176下垂,充电中可以使眼睑图像176完全下垂而闭眼。深夜时,可以通过使眼睑图像176下垂来表现“犯困程度”。
本实施方式的眼睑图像176形成为眼部图像174的一部分。作为变形例,眼睑图像176、下眼睑180可以形成为覆盖显示屏170的物理性的罩。
在表示寂寞的参数达到规定阈值以上时,可以反映母亲的特征,在表示好奇心的参数达到规定的阈值以上时,可以反映父亲的特征。也可以按不同的状况(situation)分别获取主人的眼睛的特征量。例如,特征提取部146可以分别获取主人P1笑着时眼睛的特征量和主人P1悲伤时眼睛的特征量。
将笑着时眼睛的特征量与平时的眼睛的特征量的变化量(不同)设为特征量变化A,将悲伤时眼睛的特征量与平时的眼睛的特征量的变化量(不同)设为特征量变化B。此外,将主人P1的特征量变化A设为大于主人P2的特征量变化A。另一方面,将主人P2的特征量变化B设为大于主人P1的特征量变化B。在该情况下,眼生成部152可以在表示寂寞的参数为规定阈值以上时反映主人P2的特征,并在表示喜悦的参数为规定的阈值以上时反映主人P1的特征。机器人100在处于高兴这样的情感状态时,与具有笑脸特征的某位主人P1相似。此外,机器人100在处于寂寞这样的情感状态时,与具有表情悲伤的特征的某位主人P2相似。根据这样的控制方法,能使主人的特征性表情与机器人100的情感状态同步。
眼生成部152可以根据充电率、处理器122的处理负荷、机器人100的内部温度等各种内部状态、光量为规定值以上时、夜间10点以后、天气等外部状态,选择作为反映变化的对象的主人。根据这样的控制方法,能使主人感受到机器人在某些特定的状态时与自己相似。此外,可以想到,由于能将多个主人各自的特征容导入机器人100,因此容易使多个主人抱有亲近感。
在有多个主人时,眼生成部152可以基于对各各主人的亲密度来对各个主人的特征向量分量进行加权平均,由此将多个主人的特征反映到眼睛110。
人的眼睛往往左右形状不同。在机器人100中,也可以在右眼110反映主人的右眼的特征,并在左眼110反映主人的左眼的特征。
眼生成部152可以通过晃动反光166、瞳孔区域158或使其润泽来表现眼睛110的光润。
反映变化中包括:选择作为反映变化的对象的主人的处理1、提取选出的主人的特征的处理2以及将选出的主人的特征反映至眼部图像174的处理3这三种处理。处理1完成后执行处理2,处理2完成后经过一定时间执行处理3。
眼生成部152可以在将机器人100接到家里后立即开始眼部图像174的反映变化。例如,眼生成部152可以选择将机器人100被接到家里并接通电源后第一个识别出的主人作为反映变化的对象(处理1)。或者,可以设定眼生成部152开始反映变化前规定的犹豫期间。犹豫期间是一种观察期间,用于确保机器人100选择作为反映变化的对象的主人的处理1。眼生成部152在经过犹豫期间后,可以以任意主人为对象开始反映变化。例如,对任意主人的亲密度为规定阈值以上时,可以将该主人作为反映变化的对象。在该情况下,将亲密度超过阈值之前的期间作为犹豫期间。犹豫期间可以是固定的时间。
眼生成部152可以记录机器人100被接到家里后第一次接通电源的日期时间。或者,可以在第一次接通电源时启动计时器。不限于接通电源,只要将规定的触发事件发生的日期时间记录为基准日期时间即可。基于这样的时刻信息,眼生成部152可以使眼部图像174随时间而变化。
机器人100的眼睛110可以具备多个显示层。具体而言,可以形成使被投影了表示眼球的3D实体的第一层(眼部图像174的显示面)、显示图标184的第二层、显示眼睑图像176的第三层重叠并在最上层(外部侧)显示特殊信息的第四层。此处所说的特殊信息是指电池余量为规定值以下、发生了***错误等由机器人100的设计者定义的通知给用户的必要性高或对紧急性有要求的信息。图标184也可以通过显示于3D实体的瞳部图像164而显示于第一层(最深层),而非第二层。
可以预先对机器人100设定多种“气质”。作为经年变化,气质A的机器人100的眼生成部152可以将眼睑图像176逐渐变化为耷拉眼,气质B的机器人100的眼生成部152可以将眼睑图像176逐渐变化为吊梢眼。这样,可以基于机器人100的先天设定来决定经年变化的模式。
此外,可以根据针对机器人100的环境、经验,使眼部图像174经年变化。例如,可以根据愉快行为和不愉快行为中哪个承受得多来决定眼部图像174的经年变化模式。根据有亲密度为第一阈值以上的主人时、有多个亲密度为第二阈值以上的主人时、没有亲密度为第三阈值以下的主人时等各个条件,眼生成部152可以选择多种经年变化模式中的任一个。作为一个示例,承受愉快行为比不愉快行为多的机器人100的眼生成部152使眼睑图像176变化为耷拉眼,使瞳孔区域158变化得比初始设定大。另一方面,承受不愉快行为比愉快行为多的机器人100的眼生成部152可以使眼睑图像176变化为吊梢眼,使瞳孔区域158变化得比初始设定小。
眼生成部152可以将机器人100的情感状态反映至眼部图像174。例如,可以在处于某一情感状态(例如惊讶)时放大瞳孔区域158而表现出“睁大眼”的样子,也可以在处于其他情感状态(例如动揺)时提高眨眼的频率。眼生成部152可以与图标184同样地在眨眼时改变眼部图像174。根据这样的控制方法,主人能根据机器人100的眼部图像174感知机器人100的情感。这样,不仅使眼部图像174经年变化、反映变化,还可以根据情感状态使眼部图像174暂时变化。
眼生成部152可以根据机器人100的所在地点改变眼部图像174。例如可以在机器人100位于情感地图116的好感地点时放大瞳孔区域158而表现出“睁大眼”的样子,也可以在机器人100位于厌恶地点时提高眨眼的频率表现出“不安”的样子。这样,可以通过眼部图像174表现出机器人100对场所的情感。
在进行映入显示时,可以是:凝视状态持续的越久,眼生成部152将被拍摄体182显示变更为越浓、越大、越清晰。
眼生成部152既可以将拍摄图像直接投影到瞳部图像164,也可以将拍摄图像进行了加工处理之后投影。例如,在拍摄图像的焦点未对准时,可以在实施高通滤波等已知的图像校正的基础上,生成更清晰的被拍摄体182的图像。
眼生成部152可以为一个用户预先保存多个拍摄图像,并在由于用户过近等原因而无法获得合适的拍摄图像时,将所保存的拍摄图像映入显示至瞳部图像164来代替实际的拍摄图像。根据这样的处理方法,即使在由摄像头134拍摄的拍摄图像模糊时,也能映入显示合适的被拍摄体182的图像。此外,在代替所保存的拍摄图像而进行映入显示时,也可以根据机器人100与用户的距离来放大/缩小拍摄图像。在机器人100与用户特别接近时,也可以通过特写用的摄像头拍摄用户。
当按压设置于机器人100的规定的复位按钮时、或从服务器200向机器人100发送了规定的复位命令时,眼生成部152可以将恒久变化复位。当被执行了复位时,眼生成部152清除经年变化或反映变化,变更为出厂时的眼部图像174。通过复位,例如可以恢复成数日前、数周前的规定的地点的眼部图像174。在该情况下,眼生成部152需要保存眼部图像174的恒久变化的时序信息。根据这样的复位功能,即使在眼部图像174没有发生期望的恒久变化时,也能“回溯”至数日前或数年前的眼部图像174。复位可以由主人在任意的定时执行,可以设置次数限制,还可以通过密码等限制复位的权限。
复位后如果机器人100的外部环境不变,则机器人100的眼部图像174进行与上一次同样的恒久变化的可能性高。作为变形例,用户可以设定眼部图像174的变化趋势。例如,在选择了“英武”这样的变化趋势时,眼部图像174可以抑制眼睑图像176的垂下。在选择了“可爱”这样的变化趋势时,眼部图像174可以将睫毛178设定得比平常长,并将瞳部图像164的直径放大得比平常时大。用户既可以通过声音来进行指示,也可以经由设置于机器人100或服务器200的操作部来进行指示。
恒久变化(经年变化和反映变化)的速度可以是可变的。例如,动作控制部150可以在购入机器人100后不久的期间将经年变化的速度设定得大,并在经过规定期间后降低经年变化的速度。根据这样的控制方法,能表现当机器人100“幼小”时眼部图像174容易变化,当机器人100“成熟”时眼部图像174稳定这样的类似生物的成长/老化。
机器人***300不一定要在出厂时具备改变眼部图像的功能。可以在机器人***300出厂后,通过经由通信网下载实现眼部图像控制功能的眼部图像控制程序,来实现机器人***300的功能强化。

Claims (16)

1.一种机器人,其特征在于,具备:
眼生成部,生成眼部图像;
眼显示部,使所述眼部图像显示于机器人的面部区域;以及
特征提取部,从用户的拍摄图像中提取所述用户的眼睛的特征量,
所述眼生成部设定规定的观察期间并在所述观察期间内选定用户,并以已经历了所述观察期间为条件,在此后的期间内使所述选定的用户的眼睛的特征量反映至所述眼部图像,
所述特征量包括静态特性。
2.根据权利要求1所述的机器人,其特征在于,
所述眼生成部使所述眼部图像中所含的瞳部图像的尺寸变化。
3.根据权利要求1所述的机器人,其特征在于,
所述眼生成部使所述眼部图像中所含的眼睑图像的形状变化。
4.根据权利要求1所述的机器人,其特征在于,
所述眼生成部使所述眼部图像的动作模式变化。
5.根据权利要求1所述的机器人,其特征在于,
还具备光检测部,所述光检测部检测外部光,
所述眼生成部根据外部光的光量,使所述眼部图像中所含的瞳部图像的尺寸变化,并在所述光量为规定量以上时,进一步使所述眼部图像中所含的眼睑图像的形状变化。
6.一种机器人,其特征在于,具备:
眼生成部,生成眼部图像;
眼显示部,使所述眼部图像显示于机器人的面部区域;
特征提取部,从用户的拍摄图像中提取所述用户的眼睛的特征量;以及
状态管理部,管理机器人的内部状态,
所述眼生成部基于所述内部状态,选择应该使特征量反映至所述眼部图像的用户,
所述特征量包括静态特性。
7.根据权利要求6所述的机器人,其特征在于,
所述内部状态是对用户的亲密度。
8.一种机器人,其特征在于,具备:
眼生成部,生成眼部图像;以及
眼显示部,使所述眼部图像显示于机器人的面部区域,
所述眼生成部基于机器人的成长环境决定经年变化模式,并根据经年变化模式使所述眼部图像发生经年变化。
9.根据权利要求8所述的机器人,其特征在于,
还具备特征提取部,所述特征提取部从用户的拍摄图像中提取所述用户的眼睛的特征量,
所述眼生成部基于所述用户的眼睛的特征量,使所述眼部图像发生经年变化。
10.一种机器人,其特征在于,具备:
眼生成部,生成眼部图像;
眼显示部,使所述眼部图像显示于机器人的面部区域;以及
光检测部,检测外部光源,
所述眼生成部使所述眼部图像包含反光,并根据所述外部光源的方向使所述反光的位置变化,
所述眼生成部晃动所述反光或使其润泽。
11.根据权利要求10所述的机器人,其特征在于,
所述眼生成部还根据所述外部光源的光量使反光的尺寸变化。
12.一种机器人,其特征在于,具备:
摄像头;
眼生成部,生成眼部图像;
眼显示部,使所述眼部图像显示于机器人的面部区域;以及
视线检测部,检测用户的视线,
所述眼生成部使由所述摄像头拍摄到的被拍摄体图像重叠至所述眼部图像,并根据用户的视线的检测所持续的时间使所述被拍摄体图像变化。
13.一种机器人,其特征在于,具备:
眼生成部,生成眼部图像;
眼显示部,使所述眼部图像显示于机器人的面部区域;以及
图标储存部,将图标和显示条件对应起来进行储存,
当任一图标的显示条件成立时,所述眼生成部将所述图标重叠至所述眼部图像。
14.根据权利要求13所述的机器人,其特征在于,
还具备视线检测部,所述视线检测部检测用户的视线,
当检测到对所述机器人的视线时,所述眼生成部将所述图标重叠至所述眼部图像。
15.根据权利要求13所述的机器人,其特征在于,
所述眼生成部还使所述眼部图像包含反光,并使所述反光变化为所述图标。
16.根据权利要求13所述的机器人,其特征在于,
所述眼生成部在执行眼部图像的眨眼的定时将所述图标重叠至所述眼部图像。
CN201780072408.1A 2016-11-24 2017-11-20 使瞳部变化的行为自主型机器人 Active CN110024000B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311702963.1A CN117666867A (zh) 2016-11-24 2017-11-20 机器人

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016-227681 2016-11-24
JP2016227681 2016-11-24
PCT/JP2017/041619 WO2018097089A1 (ja) 2016-11-24 2017-11-20 瞳を変化させる自律行動型ロボット

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202311702963.1A Division CN117666867A (zh) 2016-11-24 2017-11-20 机器人

Publications (2)

Publication Number Publication Date
CN110024000A CN110024000A (zh) 2019-07-16
CN110024000B true CN110024000B (zh) 2023-12-26

Family

ID=62196008

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202311702963.1A Pending CN117666867A (zh) 2016-11-24 2017-11-20 机器人
CN201780072408.1A Active CN110024000B (zh) 2016-11-24 2017-11-20 使瞳部变化的行为自主型机器人

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202311702963.1A Pending CN117666867A (zh) 2016-11-24 2017-11-20 机器人

Country Status (6)

Country Link
US (2) US11623347B2 (zh)
JP (2) JP6508864B2 (zh)
CN (2) CN117666867A (zh)
DE (1) DE112017005954T8 (zh)
GB (1) GB2571027B (zh)
WO (1) WO2018097089A1 (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102645817B1 (ko) * 2016-12-06 2024-03-08 한화로보틱스 주식회사 로봇의 비헤이비어 관리 방법 및 장치
DE112018005034B4 (de) 2017-09-11 2022-05-12 Groove X, Inc. Autonom handelnder Roboter, der den Begleiter anblickt
JP2019101492A (ja) * 2017-11-28 2019-06-24 トヨタ自動車株式会社 コミュニケーション装置
JP6970757B2 (ja) * 2017-12-26 2021-11-24 株式会社Nttドコモ 情報処理装置
WO2020009098A1 (ja) * 2018-07-02 2020-01-09 Groove X株式会社 ロボット
JP7298861B2 (ja) * 2018-08-31 2023-06-27 Groove X株式会社 日常生活を記録する自律行動型ロボット
KR102608798B1 (ko) * 2019-01-12 2023-12-05 가부시키가이샤 제트엠피 자율 주행 차량, 배송 시스템, 기억 매체 및 프로그램
JP7414299B2 (ja) * 2019-04-04 2024-01-16 Groove X株式会社 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法
KR102288658B1 (ko) * 2019-05-15 2021-08-11 엘지전자 주식회사 로봇 및 그의 제어 방법
KR102314385B1 (ko) * 2019-08-08 2021-10-19 엘지전자 주식회사 로봇 및 그의 제어 방법
WO2020190362A2 (en) * 2020-01-17 2020-09-24 Futurewei Technologies, Inc. A social interaction robot
US20210331310A1 (en) * 2020-04-28 2021-10-28 Ubtech Robotics Corp Ltd Neck mechanism for robot
CN111546338A (zh) * 2020-05-08 2020-08-18 华为技术有限公司 一种机器人的控制方法、装置、机器人以及存储介质
KR102295836B1 (ko) * 2020-11-20 2021-08-31 오로라월드 주식회사 성장형 스마트 토이 장치 및 스마트 토이 시스템
JP2022142506A (ja) * 2021-03-16 2022-09-30 本田技研工業株式会社 制御装置、制御方法、およびロボット制御システム
JP2024048495A (ja) * 2022-09-28 2024-04-09 カシオ計算機株式会社 機器の制御装置、機器の制御方法及びプログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001215940A (ja) * 2000-01-31 2001-08-10 Toshiba Corp 表情を有する知的ロボット
CN1649419A (zh) * 2004-01-28 2005-08-03 惠普开发有限公司 在非平面表面上显示面部特征的方法和***
JP2005242566A (ja) * 2004-02-25 2005-09-08 Canon Inc 画像合成装置及び方法
JP2005313886A (ja) * 1997-07-22 2005-11-10 Equos Research Co Ltd エージェント装置
JP2006106950A (ja) * 2004-10-01 2006-04-20 Tokyo Univ Of Science 画像表示装置、画像表示方法、及びプログラム
CN101751852A (zh) * 2008-11-28 2010-06-23 复旦大学 机器人实现拟人表情的方法
CN105405157A (zh) * 2014-09-08 2016-03-16 欧姆龙株式会社 肖像画生成装置、肖像画生成方法
CN105459126A (zh) * 2015-12-30 2016-04-06 深圳亿家智宝电子科技有限公司 一种机器人交流装置及其实现方法
CN105835071A (zh) * 2016-06-07 2016-08-10 苏州全谱光电科技有限公司 一种投影式人形机器人

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10289006A (ja) 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
JP2000099490A (ja) 1998-08-06 2000-04-07 Yamaha Motor Co Ltd 擬似的な精神情報に基づいて作動する装置
JP2000323219A (ja) 1999-05-10 2000-11-24 Sony Corp 接続装置及びロボットシステム
JP2002330365A (ja) * 2001-04-27 2002-11-15 Toshiba Corp 対人会話型ナビゲーション装置
NZ540885A (en) 2002-12-20 2009-02-28 Chakshu Res Inc Ophthalmic formulation for the prevention and treatment of ocular conditions
JP4972218B1 (ja) * 2011-08-12 2012-07-11 株式会社バンダイ 動作体玩具
US20150298315A1 (en) * 2013-11-21 2015-10-22 Origami Robotics, Inc. Methods and systems to facilitate child development through therapeutic robotics
US20160042648A1 (en) * 2014-08-07 2016-02-11 Ravikanth V. Kothuri Emotion feedback based training and personalization system for aiding user performance in interactive presentations
CN107155363A (zh) * 2015-01-05 2017-09-12 (株)未来机器人 利用社交网络服务的机器人服务方法及机器人装置
JP6841167B2 (ja) * 2017-06-14 2021-03-10 トヨタ自動車株式会社 コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム
BR102017016910A8 (pt) * 2017-08-07 2022-08-23 Db1 Global Software S/A Robô auxiliar com inteligência artificial
US10762414B1 (en) * 2018-04-19 2020-09-01 Kinoo, Inc. Systems and methods for sharing an artificial intelligence personality

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005313886A (ja) * 1997-07-22 2005-11-10 Equos Research Co Ltd エージェント装置
JP2001215940A (ja) * 2000-01-31 2001-08-10 Toshiba Corp 表情を有する知的ロボット
CN1649419A (zh) * 2004-01-28 2005-08-03 惠普开发有限公司 在非平面表面上显示面部特征的方法和***
JP2005242566A (ja) * 2004-02-25 2005-09-08 Canon Inc 画像合成装置及び方法
JP2006106950A (ja) * 2004-10-01 2006-04-20 Tokyo Univ Of Science 画像表示装置、画像表示方法、及びプログラム
CN101751852A (zh) * 2008-11-28 2010-06-23 复旦大学 机器人实现拟人表情的方法
CN105405157A (zh) * 2014-09-08 2016-03-16 欧姆龙株式会社 肖像画生成装置、肖像画生成方法
CN105459126A (zh) * 2015-12-30 2016-04-06 深圳亿家智宝电子科技有限公司 一种机器人交流装置及其实现方法
CN105835071A (zh) * 2016-06-07 2016-08-10 苏州全谱光电科技有限公司 一种投影式人形机器人

Also Published As

Publication number Publication date
US20190279070A1 (en) 2019-09-12
DE112017005954T5 (de) 2019-09-05
GB201907135D0 (en) 2019-07-03
CN110024000A (zh) 2019-07-16
JP7068709B2 (ja) 2022-05-17
JP2019149181A (ja) 2019-09-05
JP6508864B2 (ja) 2019-05-08
DE112017005954T8 (de) 2019-10-24
US11623347B2 (en) 2023-04-11
GB2571027A (en) 2019-08-14
GB2571027B (en) 2022-08-10
CN117666867A (zh) 2024-03-08
JPWO2018097089A1 (ja) 2019-02-28
WO2018097089A1 (ja) 2018-05-31
US20230249355A1 (en) 2023-08-10

Similar Documents

Publication Publication Date Title
CN110024000B (zh) 使瞳部变化的行为自主型机器人
JP7231924B2 (ja) 活動量をコントロールされる自律行動型ロボット
CN109475781B (zh) 理解物理接触的行为自主型机器人
JP7177497B2 (ja) 相手を見つめる自律行動型ロボット
JP6472113B2 (ja) 自然な距離感を保つ自律行動型ロボットおよびプログラム
JP6671577B2 (ja) 人を識別する自律行動型ロボット
JP7236142B2 (ja) 自律行動型ロボット
JP2024045247A (ja) ロボット

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant