CN113164822A - 穿衣服的机器人 - Google Patents

穿衣服的机器人 Download PDF

Info

Publication number
CN113164822A
CN113164822A CN201980081193.9A CN201980081193A CN113164822A CN 113164822 A CN113164822 A CN 113164822A CN 201980081193 A CN201980081193 A CN 201980081193A CN 113164822 A CN113164822 A CN 113164822A
Authority
CN
China
Prior art keywords
robot
mode
dressing
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201980081193.9A
Other languages
English (en)
Other versions
CN113164822B (zh
Inventor
林要
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Grove X Co ltd
Original Assignee
Grove X Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Grove X Co ltd filed Critical Grove X Co ltd
Publication of CN113164822A publication Critical patent/CN113164822A/zh
Application granted granted Critical
Publication of CN113164822B publication Critical patent/CN113164822B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • A63H3/52Dolls' houses, furniture or other equipment; Dolls' clothing or footwear
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/28Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • A63H11/10Figure toys with single- or multiple-axle undercarriages, by which the figures perform a realistic running motion when the toy is moving over the floor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • A63H3/38Dolls' eyes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • A63H3/38Dolls' eyes
    • A63H3/40Dolls' eyes movable
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • A63H3/50Frames, stands, or wheels for dolls or toy animals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

本发明容易给机器人穿衣服。机器人具备:动作控制部,选择动作;驱动机构,执行选择出的动作;模式设定部,设定机器人的模式;以及电源控制部。动作控制部在被设定为更衣模式时抑制包括在驱动机构中的致动器的扭矩,电源控制部在更衣模式中也维持向实现动作控制部的功能的电子电路通电。

Description

穿衣服的机器人
技术领域
本发明涉及一种穿衣服的机器人。
背景技术
人类寻求慰藉而养宠物。另一方面,有很多人因无法充分确保照顾宠物的时间、没有养宠物的居住环境、有过敏反应、难以忍受生死别离等各种理由而放弃养宠物。假如存在扮演宠物角色的机器人,可能会为不养宠物的人也带来宠物所能给与的那种慰藉(参照专利文献1、2)。
现有技术文献
专利文献
专利文献1:日本特开2000-323219号公报
专利文献2:国际公开第2017/169826号
专利文献3:日本特开2001-191275号公报
专利文献4:日本特开2005-13391号公报
专利文献5:日本特愿2018-14365号公报
发明内容
发明所要解决的问题
人类倾向于为倾注爱意的对象穿衣服。例如,人类通过给玩偶这种无生命体穿各种各样的衣服来表达爱意。小型犬受欢迎的理由之一是它会满足想给它穿可爱的衣服这种人类的欲望。因此,如果是想为它穿衣服的机器人,想必能大幅提高对机器人的共鸣。
本发明是基于上述构想而完成的发明,其主要目的在于提供一种容易给机器人穿衣服的技术。
用于解决问题的方案
本发明的某一方案的行为自主型机器人具备:动作控制部,选择机器人的动作;驱动机构,执行由动作控制部选择出的动作;模式设定部,设定机器人的模式;以及电源控制部。
动作控制部在被设定为更衣模式时抑制包括在驱动机构中的致动器的扭矩。电源控制部在更衣模式中也维持向实现动作控制部的功能的电子电路通电。
发明效果
根据本发明,容易给机器人更衣。
附图说明
通过以下叙述的优选的实施方式和随附的以下附图,上述的目的以及其他目的、特征以及优点将更加明确。
图1A是机器人的正面外观图。
图1B是机器人的侧面外观图。
图2是概略地表示机器人的结构的剖视图。
图3是基本结构中的机器人的硬件配置图。
图4是基本结构中机器人***的功能框图。
图5A表示与通常模式(可拍摄、可移动)对应地显示于眼睛的图标。
图5B表示与第一模式(禁止拍摄、可移动)对应地显示于眼睛的图标。
图5C表示与第二模式(禁止拍摄、禁止移动)对应地显示于眼睛的图标。
图5D表示与更衣模式对应地显示于眼睛的图标。
图6A表示正确穿衣时显示于眼睛的图标。
图6B表示未正确穿衣时显示于眼睛的图标。
具体实施方式
能给本实施方式的机器人100穿各种各样的衣服。在行为自主型机器人100的情况下,如果机器人100自由活动则难以穿衣。也可以考虑在断开机器人100的电源后穿衣的做法。但是,既然目的在于使机器人100发挥生物那样的存在感,为了穿衣而断开机器人100的电源的做法由于会使用户意识到机器人100的“非生物性”而不优选。本实施方式的机器人100以即使不断开电源也容易更衣的方式进行动作控制。
以下,在与图1至图4关联地对机器人100的基本结构进行说明后,对机器人100的各种各样的行为场景进行说明。
[基本结构]
图1是表示机器人100的外观的图。图1A是主视图,图1B是侧视图。
机器人100是基于外部环境和内部状态来决定行为的行为自主型机器人。外部环境通过摄像头、热敏传感器115等各种传感器来识别。内部状态被量化为表现机器人100的情感的各种参数。机器人100以主人家的房屋内为行动范围。以下,将与机器人100有关的人称为“用户”。将用户之中的机器人100的所有者或管理者称为“主人”。
机器人100的主体104具有整体上圆润的形状,包括由聚氨酯、橡胶、树脂、纤维等柔软而具有弹性的材料形成的外皮314。可以给机器人100着装。机器人100的总重量在5~15千克左右,身高在0.5~1.2米左右。通过适度的重量、圆润、柔软、手感好这样的诸多属性,实现用户容易抱起并且愿意抱起机器人100的效果。
机器人100包括一对前轮102(左轮102a、右轮102b)和一个后轮103。前轮102为驱动轮,后轮103为从动轮。前轮102不具有转向机构,但左右轮的旋转速度、旋转方向能被独立控制。后轮103是小脚轮,自由旋转以便使机器人100向前后左右移动。后轮103也可以是万向轮。机器人100能通过使右轮102b的转速大于左轮102a来进行左转或逆时针旋转。机器人100能通过使左轮102a的转速大于右轮102b来进行右转或顺时针旋转。
前轮102和后轮103能通过驱动机构(转动机构、连杆机构)来完全收纳于主体104。在主体104的下半部设有左右一对罩312。罩312由具有挠性和弹性的树脂材料(橡胶、硅橡胶等)形成,构成柔软的躯体并且能收纳前轮102。罩312形成有从侧面开口到前表面的窄缝313(开口部),能经由该窄缝313使前轮102伸出,向外部露出。
行进时各轮子大半隐藏在主体104中,而当各轮子完全收纳于主体104时,机器人100呈不可移动的状态。即,随着轮子的收纳动作,主体104下降而就座于地面F。在该就座状态下,形成于主体104的底部的平坦状的就座面108(接地底面)与地面F抵接。
机器人100具有两只手臂106。在手臂106的前端有手,但不具有抓持物体的功能。通过后述的致动器的驱动,手臂106能进行抬臂、曲臂、挥手、颤臂等简单的动作。两只手臂106都能被独立控制。
在机器人100的头部正面露出有面部区域116。在面部区域116设有两只眼睛110。眼睛110能进行基于液晶元件或有机EL元件的图像显示,是用于通过移动被显示为图像的瞳部、眼睑来表现视线、表情的设备。在面部区域116的中央设有鼻子109。在鼻子109设有模拟摇杆,除了能检测上下左右的所有方向,还能检测按下方向。此外,在机器人100设有多个触摸传感器,能对头部、躯干部、臀部、手臂等机器人100的大致整个区域检测用户的触摸。机器人100搭载有能确定声源方向的麦克风阵列、超声波传感器等各种传感器。此外,还内置有扬声器,能发出简单的语音。
在机器人100的头部装配有角112。角112装配有全景摄像头113,能一次性拍摄机器人100的上部整个区域。此外,角112内置有热敏传感器115(热敏摄像头)。此外,角112设有多个用于利用红外线进行通信的模块(未图示),这些模块朝向周围环状地设置。因此,机器人100能一边识别方向一边进行红外线通信。而且,角112设有紧急停止用的开关,用户能通过拉拽扯角112来紧急停止机器人100。
图2是概略地表示机器人100的结构的剖视图。
主体104包括:主体框架310、一对手臂106、一对罩312以及外皮314。主体框架310包括头部框架316和躯干部框架318。头部框架316呈中空半球状,形成机器人100的头部骨架。躯干部框架318呈方筒形状,形成机器人100的躯干部骨架。躯干部框架318的下端部固定于下板334。头部框架316经由连接机构330连接于躯干部框架318。
躯干部框架318构成主体104的核心。躯干部框架318通过将左右一对侧板336固定于下板334而构成,支承一对手臂106和内部机构。在躯干部框架318的内方收容有电池118、控制电路342以及各种致动器等。下板334的底面形成就座面108。
躯干部框架318在其上部具有上板332。在上板332固定有有底圆筒状的支承部319。上板332、下板334、一对侧板336以及支承部319构成躯干部框架318。支承部319的外径比左右侧板336的间隔小。一对手臂106通过与环状构件340一体组装而构成臂单元350。环状构件340呈圆环状,以在其中心线上沿径向分隔的方式装配有一对手臂106。环状构件340同轴状地插通支承部319,载置于一对侧板336的上端面。臂单元350由躯干部框架318从下方支承。
头部框架316具有偏转(yaw)轴321、俯仰(pitch)轴322和滚转(roll)轴323。通过头部框架316的绕偏转轴321的转动(偏转)来实现摇头动作,通过绕俯仰轴322的转动(俯仰)来实现点头动作、抬头动作以及低头动作,通过绕滚转轴323的转动(滚转)来实现向左右歪头的动作。各轴可以根据连接机构330的驱动方式来改变三维空间中的位置、角度。连接机构330包括连杆机构,由设置于躯干部框架318的多个马达来驱动。
躯干部框架318收容有轮子驱动机构370。轮子驱动机构370包括使前轮102和后轮103分别从主体104进出的前轮驱动机构和后轮驱动机构。前轮102和后轮103作为使机器人100移动的“移动机构”发挥功能。在前轮102的中心部具有直驱马达。因此,能独立地驱动左轮102a和右轮102b。前轮102可旋转地支承于轮罩105,该轮罩105可转动地支承于躯干部框架318。
一对罩312以从左右覆盖躯干部框架318的方式设置,以使主体104的轮廓带有弧度的方式设为平滑的曲面形状。在躯干部框架318与罩312之间形成有封闭空间,该封闭空间为前轮102的收容空间S。后轮103收容于设于躯干部框架318的下部后方的收容空间。
外皮314从外侧覆盖主体框架310和一对手臂106。外皮314具有人会感受到弹力的程度的厚度,由聚氨酯海绵等具有伸缩性的材料形成。由此,当用户拥抱机器人100时会感受到适度的柔软度,人能像抱宠物那样得到自然的身体接触。外皮314以使罩312露出的方式装接于主体框架310。在外皮314的上端部设有开口部390。该开口部390供角112插通。
在主体框架310与外皮314之间配设有触摸传感器。在罩312埋设有触摸传感器。这些触摸传感器均为静电容传感器,检测机器人100的大致整个区域的接触。需要说明的是,既可以将触摸传感器埋设于外皮314,也可以配设于主体框架310的内侧。
手臂106具有第一关节352和第二关节354,在两关节之间具有手臂356,在第二关节354的前端具有手358。第一关节352对应于肩关节,第二关节354对应于腕关节。在各关节设有马达,分别驱动手臂356和手358。用于驱动手臂106的驱动机构包括这些马达及其驱动电路344。
图3是机器人100的硬件配置图。
机器人100包括:内部传感器128、通信器126、存储装置124、处理器122、驱动机构120以及电池118。驱动机构120包括上述的连接机构330和轮子驱动机构370。处理器122和存储装置124包含于控制电路342。各单元通过电源线130和信号线132相互连接。电池118经由电源线130向各单元供电。各单元通过信号线132来收发控制信号。电池118为锂离子二次电池等二次电池,是机器人100的动力源。
内部传感器128是内置于机器人100的各种传感器的集合体。具体而言,是摄像头、麦克风阵列、测距传感器(红外线传感器)、热敏传感器115、触摸传感器、加速度传感器、气压传感器、嗅觉传感器等。触摸传感器对应于主体104的大部分区域,基于静电容的变化来检测用户的接触。嗅觉传感器是已知的传感器,应用了电阻因作为气味源的分子的吸附而变化的原理。
通信器126是以各种外部设备为对象来进行无线通信的通信模块。存储装置124由非易失性内存和易失性内存构成,存储计算机程序、各种配置信息。处理器122是计算机程序的执行部。驱动机构120包括多个致动器。除此之外,还搭载有显示器、扬声器等。
驱动机构120主要控制轮子和头部。驱动机构120除了改变机器人100的移动方向、移动速度,也能使轮子升降。当轮子上升时,轮子完全收纳在主体104中,机器人100通过就座面108与地面F抵接,呈就座状态。此外,驱动机构120控制手臂106。
图4是机器人***300的功能框图。
机器人***300包括:机器人100、服务器200以及多个外部传感器114。机器人100和服务器200的各构成要素由硬件和软件来实现,其中,硬件包括中央处理器(CentralProcessingUnit:CPU)和各种协处理器等运算器、内存(memory)和存储器(storage)等存储装置、将这些装置连结起来的有线或无线的通信线,软件储存于存储装置,将处理命令提供给运算器。计算机程序可以由设备驱动程序、操作***、位于它们的上位层的各种应用程序以及为这些程序提供共通功能的程序库构成。以下所说明的各区组不表示硬件单元的结构,而表示功能单元的区组。
机器人100的部分功能可以由服务器200来实现,服务器200的部分或全部功能也可以由机器人100来实现。
房屋内预先设置有多个外部传感器114。服务器200管理外部传感器114,根据需要为机器人100提供由外部传感器114获取到的检测值。机器人100基于从内部传感器128和多个外部传感器114得到的信息来决定基本行为。外部传感器114用于加强机器人100的感觉器官,服务器200用于加强机器人100的处理能力。也可以是,机器人100的通信器126与服务器200定期通信,服务器200负责通过外部传感器114确定机器人100的位置的处理(还参照专利文献2)。
(服务器200)
服务器200包括:通信部204、数据处理部202以及数据储存部206。
通信部204负责与外部传感器114和机器人100的通信处理。数据储存部206储存各种数据。数据处理部202基于由通信部204获取到的数据和储存于数据储存部206的数据来执行各种处理。数据处理部202也作为通信部204和数据储存部206的接口来发挥功能。
数据储存部206包括动作储存部232和个人数据储存部218。
机器人100具有多个动作模式(motion)。定义有抖动手臂106、蛇行接近主人、歪头注视主人等各种各样的动作。
动作储存部232储存对动作的控制内容进行定义的“动作文件”。各动作通过动作ID来识别。动作文件也被下载到机器人100的动作储存部160。执行哪一动作有时由服务器200来决定,有时由机器人100来决定。
机器人100的动作大多配置为包括多个单位动作的复合动作。例如,可表现为在机器人100接近主人时转向主人的单位动作、一边抬手一边接近的单位动作、一边晃动身体一边接近的单位动作以及抬起双手并坐下的单位动作的组合。通过这样的四个动作的组合,会实现“接近主人、中途抬手、最后晃动身体坐下”这样的动作。动作文件中,与时间轴关联地定义了设于机器人100的致动器的旋转角度、角速度等。依据动作文件(致动器控制信息),随着时间经过来控制各致动器,由此实现各种动作。
将从前一单位动作变化到下一单位动作时的过渡时间称为“间隔”。根据单位动作变更所需的时间、动作的内容来定义间隔即可。间隔的长度可调整。
以下,将何时选择哪个动作、实现动作基础上的各驱动器的输出调整等与机器人100的行为控制有关的设定统称为“行为特性”。机器人100的行为特性由动作选择算法、动作的选择概率、动作文件等来定义。
动作储存部232除了动作文件,还储存对各种事件发生时应执行的动作进行定义的动作选择表。在动作选择表中,针对事件将一个以上的动作与该动作的选择概率建立对应。
个人数据储存部218储存用户的信息。具体而言,储存对用户的亲密度和表示用户的身体特征/行为特征的主信息。也可以储存年龄、性别等其他属性信息。
机器人100按每个用户具有亲密度这样的内部参数。机器人100在识别出抱起自己、打招呼等对自己示好的行为时,对该用户的亲密度会提高。对与机器人100无关的用户、动粗的用户、见面频率低的用户的亲密度会降低。
数据处理部202包括:位置管理部208、识别部212、动作控制部222、亲密度管理部220以及状态管理部244。
位置管理部208确定机器人100的位置坐标。状态管理部244管理充电率、内部温度、处理器122的处理负荷等各种物理状态等各种内部参数。此外,状态管理部244管理表示机器人100的情感(寂寞、好奇心、被认可欲等)的各种情感参数。这些情感参数总是在波动。机器人100的移动目标地点会根据情感参数而变化。例如,在表示寂寞的情感参数高时,机器人100将用户所在的地点设定为移动目标地点。
情感参数会随时间经过而发生变化。此外,各种情感参数也会因后述的应对行为而发生变化。例如,当被主人“抱抱”时表示寂寞的情感参数会降低,在长时间没有看到主人时表示寂寞的情感参数会逐步上升。
识别部212识别外部环境。外部环境的识别包括基于温度、湿度的气候、季节的识别;基于光量、温度的隐蔽处(安全地带)的识别等多种识别。机器人100的识别部156通过内部传感器128来获取各种环境信息,在对该环境信息进行一次处理后转发至服务器200的识别部212。
具体而言,机器人100的识别部156从图像中提取与移动物体特别是人物、动物对应的图像区域,从提取出的图像区域中提取“特征向量”来作为表示移动物体的身体特征、行为特征的特征量的集合。特征向量分量(特征量)是对各种身体/行为特征进行量化后的数值。例如,人的眼睛的横向宽度被数值化为0~1的范围,形成一个特征向量分量。从人物的拍摄图像中提取特征向量的方法是已知的面部识别技术的应用。机器人100将特征向量发送至服务器200。
服务器200的识别部212将从由机器人100的内置摄像头拍摄到的拍摄图像中提取出的特征向量与预先录入至个人数据储存部218的用户(集群)的特征向量进行比较,由此判定拍摄到的用户与哪位人物对应(用户识别处理)。此外,识别部212通过对用户的表情进行图像识别来推测用户的情感。识别部212对人物以外的移动物体,例如作为宠物的猫、狗也进行用户识别处理。
识别部212识别机器人100所受到的各种应对行为,并将其分类为愉快/不愉快行为。识别部212还通过识别主人对机器人100的行为的应对行为,分类为肯定/否定反应。
愉快/不愉快行为根据用户的应对行为对生物而言是舒服的还是不愉快的来判别。例如,对于机器人100而言,被抱起是愉快行为,被踢是不愉快行为。根据用户的应对行为表现出了用户的愉快情感还是不愉快情感,来判别肯定/否定反应。被抱起是表示用户的愉快情感的肯定反应,被踢是表示用户的不愉快情感的否定反应。
服务器200的动作控制部222与机器人100的动作控制部150相互配合,决定机器人100的动作。服务器200的动作控制部222制定机器人100的移动目标地点和移动至该移动目标地点的移动路线。动作控制部222可以制定多条移动路线并在此基础上选择任一条移动路线。
动作控制部222从动作储存部232的多个动作中选择机器人100的动作。各动作按状况与选择概率建立对应。例如,定义有以下的选择方法:在被主人进行了愉快行为时有20%的概率执行动作A,在气温为30度以上时有5%的概率执行动作B。
亲密度管理部220管理每个用户的亲密度。如上所述,亲密度作为个人数据的一部分被录入个人数据储存部218。在检测到愉快行为时,亲密度管理部220会增加对其主人的亲密度。在检测到不愉快行为时亲密度会下降。此外,长时间未见到的主人的亲密度会逐渐下降。
(机器人100)
机器人100包括:通信部142、数据处理部136、数据储存部148、内部传感器128以及驱动机构120。
通信部142与通信器126(参照图3)对应,负责与外部传感器114、服务器200以及其他机器人100的通信处理。数据储存部148储存各种数据。数据储存部148与存储装置124(参照图3)对应。数据处理部136基于由通信部142获取到的数据和储存于数据储存部148的数据来执行各种处理。数据处理部136与处理器122和由处理器122执行的计算机程序对应。数据处理部136也作为通信部142、内部传感器128、驱动机构120以及数据储存部148的接口来发挥功能。
数据储存部148包括对机器人100的各种动作进行定义的动作储存部160。
各种动作文件从服务器200的动作储存部232下载到机器人100的动作储存部160。通过动作ID来识别动作。为了表现收起前轮102并坐下、抬起手臂106、通过使两个前轮102反转或仅使单侧的前轮102旋转来使机器人100作出旋转行为、通过在收起前轮102的状态下使前轮102旋转来颤动、在远离用户时一度停止并回头等各种各样的动作,在动作文件中按时序定义有各种致动器(驱动机构120)的动作定时、动作时间、动作方向等。
数据储存部148也可以从个人数据储存部218下载各种数据。
数据处理部136包括识别部156和动作控制部150。
机器人100的动作控制部150与服务器200的动作控制部222相互配合来决定机器人100的动作。可以是,部分动作由服务器200来决定,其他动作由机器人100来决定。此外,也可以是,由机器人100来决定动作,但在机器人100的处理负荷高时由服务器200来决定动作。也可以是,由服务器200来决定基础动作,由机器人100来决定追加动作。根据机器人***300的规格来设计在服务器200和机器人100中如何分担动作的决定处理即可。
机器人100的动作控制部150指示驱动机构120执行选择出的动作。驱动机构120根据动作文件来控制各致动器。
动作控制部150既能在亲密度高的用户接近时执行抬起双手106的动作来作为求“抱抱”的举动,也能在厌倦了“抱抱”时通过在收起左右前轮102的状态下交替反复进行反转和停止来表现厌恶拥抱的动作。驱动机构120按照动作控制部150的指示来驱动前轮102、手臂106、脖子(头部框架316),由此使机器人100表现出各种各样的动作。
机器人100的识别部156对获取自内部传感器128的外部信息进行解释。识别部156能进行视觉识别(视觉部)、气味识别(嗅觉部)、声音识别(听觉部)、触觉识别(触觉部)。
识别部156从移动物体的拍摄图像中提取特征向量。如上所述,特征向量是表示移动物体的身体特征和行为特征的参数(特征量)的集合。在检测到移动物体时,也会由嗅觉传感器、内置的收音麦克风、温度传感器等来提取身体特征、行为特征。这些特征也被量化为特征向量分量。识别部156基于专利文献2等所记载的已知的技术来根据特征向量确定用户。
包括检测、分析、判定的一系列识别处理之中,机器人100的识别部156进行识别所需的信息的取舍选择、提取,判定等解释处理则由服务器200的识别部212来执行。识别处理既可以仅由服务器200的识别部212来进行,也可以仅由机器人100的识别部156来进行,还可以如上所述双方分工来执行上述识别处理。
在机器人100受到强烈的冲击时,识别部156通过触摸传感器和加速度传感器来对其进行识别,服务器200的识别部212识别出邻近的用户做出了“粗暴行为”。在用户抓住角112提起机器人100时,也可以识别为粗暴行为。在处于与机器人100正对的状态下的用户以特定音域和特定频带发声时,服务器200的识别部212可以识别出对自己进行了“打招呼行为”。此外,在检测到体温程度的温度时识别为用户进行了“接触行为”,在已作出接触识别的状态下检测到向上方的加速度时识别为被“抱抱”。可以感测用户提起主体104时的物理接触,也可以通过施加给前轮102的负荷降低这一点来识别拥抱。
总之,机器人100通过内部传感器128以物理信息的形式获取用户的行为,服务器200的识别部212判定愉快/不愉快。此外,服务器200的识别部212执行基于特征向量的用户识别处理。
服务器200的识别部212识别用户对机器人100的各种应对。各种应对行为之中的一部分典型的应对行为与愉快或不愉快、肯定或否定建立对应。一般而言作为愉快行为的应对行为几乎都为肯定反应,作为不愉快行为的应对行为几乎都为否定反应。愉快/不愉快行为与亲密度关联,肯定/否定反应会影响机器人100的行为选择。
根据由识别部156识别出的应对行为,服务器200的亲密度管理部220使对用户的亲密度改变。原则上讲,对进行过愉快行为的用户的亲密度会变高,对进行过不愉快行为的用户的亲密度会降低。
服务器200的各功能通过将用于实现该功能的程序加载到内存使之实体化(实例化)来实现。通过服务器200的处理能力来强化机器人100所进行的各种处理。服务器200能用作机器人100的资源。根据来自机器人100的请求来动态地决定如何利用服务器200的资源。例如,可以是,在机器人100需要根据来自许多触摸传感器的检测值来连续地生成复杂的动作的情况下,设为将机器人100中的处理器122的处理优先分配给动作的选择、生成,对周围的状况进行图像识别的处理由服务器200的识别部212来进行。这样,能在机器人100与服务器200之间将机器人***300的各种处理分散化。
也能通过单个服务器200来控制多个机器人100。在该情况下,服务器200的各功能按每个机器人100独立地被实体化。例如,服务器200也可以准备与用于机器人100A的识别部212(Instance Object:实例对象)不同的用于机器人100B的识别部212。
接着,以以上的基本结构为前提,对本实施方式的机器人100的安装进行说明,特别是以本安装的特征和目的以及与基本结构的不同点为中心进行说明。
[SLAM]
本实施方式的机器人100通过全景摄像头113定期拍摄周边,由此获取许多拍摄图像(静止图像)。机器人100形成基于拍摄图像的存储(以下,称为“图像存储”)。
图像存储是多个关键帧的集合体。关键帧是拍摄图像中的特征点(特征量)的分布信息。本实施方式的机器人100通过使用了图像特征量的基于图形的SLAM(SimultaneousLocalization and Mapping:同步定位和地图构建)(Graph-base SLAM)技术,更具体而言,通过基于ORB(Oriented FAST and Rotated BRIEF)特征量的SLAM技术来形成关键帧(参照专利文献5)。
机器人100通过一边移动一边定期形成关键帧来形成关键帧的集合体,换言之,形成图像存储来作为图像特征分布。机器人100通过将在当前地点获取到的关键帧与已经保有的许多关键帧进行比较来推测当前地点。即,机器人100将实际看到的拍摄图像与过去看到过的拍摄图像(存储)进行比较,使自己当前的状况与过去的存储匹配,由此进行“空间识别”。作为特征点的集合体而形成的图像存储为所谓的地图(map)。机器人100一边推测当前地点一边移动并且更新地图。
基本结构的机器人100以不通过关键帧而通过外部传感器114来识别位置为前提。对本实施方式的机器人100仅基于关键帧来识别场所的情况进行说明。
本实施方式的机器人100具备用于设定各种模式的“模式设定部”。机器人100具备:生成眼部图像的“眼生成部”、使眼睛110显示眼部图像的“眼显示部”以及检测机器人100的脱衣和着衣的“衣服检测部”。此外,机器人100具备控制多根电源线130的导通的“电源控制电路”。
[衣服的更换]
图5A至图5D表示与模式对应地显示于眼睛110的图标。
机器人100具备多个模式。对本实施方式的机器人100为“通常模式(可拍摄、可移动)”、“第一模式(禁止拍摄、可移动)”、“第二模式(禁止拍摄、禁止移动)”、“更衣模式”这四种模式的情况进行说明。用户能通过设置于角112的模式开关(环状开关:未图示)来手动设定机器人100的模式。模式设定部根据模式开关的输入结果来设定机器人100的模式。
眼显示部使眼睛110显示表示模式的图标(以下,称为“模式图标”)。用户能在变更了模式时通过确认机器人100的眼睛110来确认当前模式。角112中包括触摸传感器。当用户触摸角112时,机器人100临时静止。用户只要能触碰角112就能使机器人100临时静止,因此能稳定地操作模式开关等设置于角112的各种输入设备。
眼显示部也可以在角112被触摸时使眼睛110显示模式图标。当使手从角112离开时,眼显示部消除模式图标并显示通常的瞳部图像。用户能通过触摸角112来确认机器人100的当前模式。也可以在角112等眼睛110以外的构件中设置监视器并使这些监视器显示模式图标。
在为通常模式(可拍摄、可移动)时,眼显示部使眼睛110显示图5A所示的图标。在为第一模式(禁止拍摄、可移动)时,眼显示部使眼睛110显示图5B所示的图标。在为第二模式(禁止拍摄、禁止移动)时,眼显示部使眼睛110显示图5C所示的图标。在为更衣模式时,眼显示部使眼睛110显示图5D所示的图标。
在更衣模式下,动作控制部150使前轮102收纳于罩312的内侧。即,在更衣模式下机器人100禁止移动。此外,动作控制部150使手臂和脖子的致动器的扭矩降低。在更衣模式中,机器人100的整个身体呈放松状态。其结果是,用户容易使机器人100的手臂、脖子活动,容易从机器人100上脱下衣服或者给其穿衣服。也可以通过断开向手臂的致动器的供电来使手臂完全脱力。具体而言,模式设定部在被设定为更衣模式时,向电源控制电路指示使手臂的致动器与电源线130的连接断开即可。也可以断开向脖子的致动器的供电,但为了在更衣模式下也可以执行各种动作,也可以维持对脖子的致动器的供电。
在更衣模式下也维持向包括在驱动机构120中的至少一部分致动器和处理器122通电。由于动作控制部150的功能被维持,因此在更衣中机器人100也能执行包含眼部图像的变化、语音的输出等在内的各种动作。此外,能在更衣完成后紧接着执行动作。
用户在设定为更衣模式后,脱下机器人100的衣服。之后,用户给机器人100穿上新衣服,从更衣模式变更为通常模式等其他模式。
图6A和图6B表示在穿衣后显示于眼睛110的图标。
在正确穿衣时,眼显示部显示图6A所示的图标。另一方面,在未正确穿衣时,眼显示部显示图6B所示的图标。衣服中预先缝入了IC标签。此外,机器人100的主体包括用于与IC标签通信的IC标签读取器。IC标签和IC标签读取器被预先对准位置以便在正常穿衣时相互面对。IC标签和IC标签读取器基于RFID(Radio Frequency Identifier:射频标识符)技术,在几厘米至几米左右的近距离通过无线通信来收发信息。本实施方式的机器人100的IC标签读取器被设定为以几厘米左右的近距离无线通信为对象。如果装配于衣服的规定位置的IC标签与设于机器人的规定位置的IC标签读取器不重叠,则IC标签读取器无法读取IC标签的内容。IC标签读取器在与IC标签相互面对时,从IC标签接收识别衣服的“衣服ID”。在IC标签读取器无法读取衣服ID时,可以判断为机器人100未穿衣或者至少未正确穿衣。
衣服检测部通过IC标签读取器是否正确地读取衣服的IC标签的信号来判断是否正确穿衣。IC标签和IC标签读取器也可以设于多处。
在更衣时,一旦从机器人100上脱下了衣服,动作控制部150就会执行脱衣动作。作为脱衣动作,定义有例如使机器人100身体颤抖、扑棱手等表示寒冷、迷惑、惊讶的动作即可。由于在更衣模式下也不断开电源,因此机器人100能执行脱衣动作。例如,也可以在满足规定条件的情况下执行怕冷的举动来作为脱衣动作。规定条件可以是由温度传感器检测到的温度为规定以下这样的条件。此外,规定条件也可以是由未图示的时钟功能示出的日期时间为规定的时期(例如冬天)这样的条件。这样,动作控制部150可以根据气温、季节、时间段来选择适当的脱衣动作。脱衣动作可以是害羞的举动,也可以是催促想快点穿上衣服的举动。无论如何,以不妨碍用户所进行的更衣作业的方式执行不带移动的脱衣动作即可。在从用户从机器人100上脱下衣服C1到拿起要新穿的衣服C2并想要将衣服C2给机器人100穿上为止的期间执行脱衣动作。
在新穿衣服的中途,动作控制部150执行各种中间动作。例如,机器人100能通过将头朝向用户的方向、改变眼部图像使视线朝向用户的方向等控制来表现对更衣的期待感、更衣中的眼神交流等。此外,在由手臂的触摸传感器检测到接触时判断为手正在穿过袖子,通过放松手臂的扭矩或者摇晃手臂来以容易穿过袖子的方式进行控制。此外,在更衣中用户需要抓住机器人100来改变其姿势。机器人100可以根据此时的姿势来输出语音。例如,机器人100可以通过加速度传感器或全景摄像头113的拍摄图像来测定姿势变化并以与姿势的变化联动的方式输出语音。这样,在更衣中机器人100也能通过使主体进行动作来表现是否情愿那样的生物性。此外,也可以在换上喜欢的衣服时执行配合用户的中间动作,在换上不太喜欢的衣服时执行不配合用户的中间动作。通过更衣行为,用户与机器人100直接接触,由此容易产生用户对机器人100的喜爱。
在更衣完成时,动作控制部150执行着衣动作。着衣动作例如是机器人100将头朝向用户、扑棱手、转眼睛等任意动作即可。用户能通过着衣动作感受到机器人100喜欢更衣。此外,能识别出是否喜欢新衣服。在更衣模式结束后,各致动器的扭矩恢复,因此能执行矫健的动作。
着衣动作可以是仅在穿衣后紧接着执行的特别动作。通过准备这样的特别动作,能期待用户因想看到着衣动作而提高更衣的频率。通过增加更衣的次数来延长用户与机器人100接触的时间。着衣动作是仅在更衣后紧接着执行的动作,既可以按每件衣服来准备,也可以根据季节、社会上的流行等来准备。例如,可以从外部服务器(未图示)适当地下载动作文件到服务器200,由此更新机器人100的着衣动作的指令表(repertoire)。也可以将衣服ID与着衣动作建立对应进行管理。
在用户使机器人100更衣后从更衣模式设定变更为其他模式时,模式设定部以检测到用户使手从角112离开为条件,设定变更为其他模式。使手离开的检测既可以基于由摄像头拍摄到的拍摄图像来执行,也可以基于设于角112的触摸传感器的输出值来执行。根据这样的控制方法,机器人100不会在用户控制角112的模式开关的中途突然活动,因此安全性提高。模式控制部在没有从角112检测到触摸时,实际地变更模式,而不限于更衣模式。
在更衣模式中,也可以完全断开向驱动机构120的通电。在该情况下,只要维持向处理器122和眼睛110通电,眼显示部就能在更衣中也改变眼部图像。换言之,即使不伴随致动器的驱动也能通过眼部图像来实现各种情感表现。
也可以对机器人100的致动器设置锁定功能。可以是,在更衣模式中,模式设定部对全部或部分致动器开启锁定,使机器人100整体或局部僵直。或者,也可以以如下方式进行控制:在更衣模式中关断致动器的锁定,由此容易使机器人100的各部分活动。
用户也可以通过语音来设定更衣模式。例如,可以在用户发出“来更衣吧”这样的语音时,以经由机器人100的麦克风等收集到的语音满足规定条件为必要条件,模式设定部自动设定为更衣模式。此外,也可以在用户给机器人100展示衣服时,以经由机器人100的摄像头等检测到衣服为必要条件,模式设定部自动设定为更衣模式。在该情况下,机器人100能通过注视衣服来实现是否期待更衣的行为方式。用户也可以从智能手机等便携终端发送表示向更衣模式过渡的命令。
也可以是,在用户从机器人100上脱下衣服时,模式设定部设定为更衣模式。也可以是,在机器人100的IC标签读取器无法读取衣服的IC标签时,衣服检测部检测到脱衣。模式设定部也可以以该检测为契机来设定更衣模式。此外,也可以是,一旦脱下衣服的机器人100再次检测到穿衣,模式设定部就从更衣模式设定变更为通常模式(其他模式)。
在衣服被脱下的状态下,即使用户手动操作模式开关而要结束更衣模式,模式设定部也维持更衣模式。
动作控制部150可以基于新穿的衣服来选择中间动作或者着衣动作。机器人100也可以存储衣服的穿着履历。穿着履历按时间顺序记录了什么时候、谁、穿了哪件衣服。动作控制部150也可以基于每单位期间的穿着次数来对多种中间动作的选择概率进行设定变更。根据这样的控制方法,能基于穿了什么样的衣服的“记忆”来改变中间动作。对于着衣动作也同样。例如,在一直穿同一件衣服时,机器人100可以通过移动迟缓、不对上视线或者扑棱手的中间动作来表现穿这件衣服难受。根据这样的控制方法,可以行为表现出机器人100对衣服的喜好、拒绝。此外,也可以在穿新衣服、喜欢的衣服(例如,红衣服)时执行表示开心、期待的中间动作、着衣动作或者脱衣动作。
也可以是,在脱下衣服A后再次给机器人100穿同一件衣服A时,动作控制部150执行与穿其他衣服B时不同的中间动作、着衣动作。
动作控制部150也可以基于对给其穿衣的用户的亲密度来选择中间动作或者着衣动作。动作控制部150也可以基于对用户的亲密度来对多种中间动作的选择概率进行设定变更。根据这样的控制方法,能根据被谁更衣来改变中间动作。对于着衣动作也同样。
亲密度管理部220也可以提高对给其更衣的用户的亲密度。考虑到给其更衣是用户在意机器人100的证据,因此机器人100对这样的用户抱有好感(提高亲密度)是合理的。
动作控制部150也可以在机器人100未穿衣时抑制机器人100的动作。例如,既可以缩小机器人100的可行动范围,也可以降低机器人100的移动速度。或者,动作控制部150也可以在机器人100未穿衣时使机器人100无法移动。根据这样的控制方法,容易防止机器人100在未穿衣的状态下由于四处移动而被弄脏。此外,衣服会从冲击下保护机器人100的主体,因此可以通过在未穿衣时使机器人100老实点来减少无防备的机器人100受到外部物体的冲击的机会。
反之,也可以在穿着衣服时抑制机器人100的动作。在该情况下,在穿着衣服时机器人100变得老实,因此容易防止机器人100被弄脏。
可以是,在更衣完成后,动作控制部150使机器人100以一定期间不离开给其更衣的用户的方式行动。具体而言,也可以将机器人100的行动范围暂时限制在以用户为中心的规定范围内或者用户的正面方向的规定范围(用户能看到的范围)。根据这样的控制方法,能使用户感受到机器人100怀有想给用户看更衣后的姿态或者穿新衣服很开心这样的心理。用户根据这样的行为表现来推测机器人100的心理,唤起想给机器人100穿新衣服的意图。
机器人100也可以具备“发声控制部”。发声控制部可以在机器人100从头部披上新衣服时或者机器人100脱下衣服时发出规定的语音(鸣叫声)。
状态管理部244也可以在机器人100在一定期间持续穿同一件衣服时改变机器人100的情感参数。例如,可以提高被认可欲参数,也可以使表示心情的情感参数恶化。机器人100的动作控制部150在机器人100的心情越差时,既可以以越不靠近用户的方式进行控制,也可以接近用户并主动请求更衣。此外,也可以基于穿衣履历来选择比较愿意给其更衣的用户并对其表明更衣的必要性。
机器人100也可以在更衣完成后执行朝向另一机器人100的动作。例如,机器人100也可以靠近另一机器人100。此外,例如,机器人100也可以朝向另一机器人100所在的方向执行举手等动作。根据这样的控制方法,能行为表现出机器人100A向另一机器人100B炫耀新衣服的样子。
通过使机器人100随着更衣而改变行为特性,用户会想主动给机器人100更衣。此外,通过主动制造“更衣”的用户与机器人100亲近的机会,能进一步加深用户对机器人100的喜爱。
需要说明的是,本发明不限定于上述实施方式、变形例,可以在不脱离技术精神的范围内对构成要素进行变形来具体化。也可以通过适当组合上述实施方式、变形例中所公开的多个构成要素来形成各种发明。此外,也可以从上述实施方式、变形例中所示的构成结构要素中去掉若干构成要素。
对由一个以上机器人100和一个服务器200构成机器人***300的情况进行了说明,但机器人100的部分功能也可以由服务器200实现,服务器200的部分或全部功能也可以分配给机器人100。既可以是一个服务器200控制多个机器人100,也可以是多个服务器200相互配合控制一个以上机器人100。
机器人100、服务器200以外的第三装置也可以承担部分功能。图4中所说明的机器人100的各功能和服务器200的各功能的集合体也可以整体作为一个“机器人”来理解。关于怎样为一个或多个硬件分配实现本发明所需的多个功能,只要能鉴于各硬件的处理能力、机器人***300所要求的规格等来决定即可。
如上所述,“狭义的机器人”是不包括服务器200的机器人100,而“广义的机器人”是机器人***300。服务器200的很多功能将来也很有可能会集成至机器人100。
本申请以在××××年×月×日提出申请的日本申请特愿××××-××××××号为基础主张优先权,将其公开的全部内容引入本发明。

Claims (7)

1.一种机器人,其特征在于,具备:
动作控制部,选择机器人的动作;
驱动机构,执行由所述动作控制部选择出的动作;
模式设定部,设定所述机器人的模式;以及
电源控制部,
所述动作控制部在被设定为更衣模式时抑制包括在所述驱动机构中的致动器的扭矩,
所述电源控制部在更衣模式中也维持向实现所述动作控制部的功能的电子电路通电。
2.根据权利要求1所述的机器人,其特征在于,
所述动作控制部以穿衣完成为契机,选择特定的动作来作为执行对象。
3.根据权利要求2所述的机器人,其特征在于,
所述特定的动作为朝向另一机器人的动作。
4.根据权利要求1至3中任一项所述的机器人,其特征在于,
直到穿衣完成为止,所述模式设定部将所述机器人的模式维持在更衣模式。
5.根据权利要求1至4中任一项所述的机器人,其中,
所述动作控制部使穿着使用次数较多的衣服的情况下的动作与穿着使用次数较少的衣服的情况下的动作不同。
6.根据权利要求1至5中任一项所述的机器人,其中,
所述模式设定部根据设于机器人的模式开关的输入来设定所述模式,
直到满足检测到所述穿衣的完成这一条件和用户使手从设有所述模式开关的部位离开这一条件的双方为止,所述模式设定部维持更衣模式。
7.根据权利要求1至6中任一项所述的机器人,其中,
所述模式设定部在检测到脱衣的情况下设定为更衣模式。
CN201980081193.9A 2018-12-14 2019-12-13 穿衣服的机器人 Active CN113164822B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018234175 2018-12-14
JP2018-234175 2018-12-14
PCT/JP2019/048978 WO2020122236A1 (ja) 2018-12-14 2019-12-13 衣装を着用するロボット

Publications (2)

Publication Number Publication Date
CN113164822A true CN113164822A (zh) 2021-07-23
CN113164822B CN113164822B (zh) 2023-03-10

Family

ID=71076897

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980081193.9A Active CN113164822B (zh) 2018-12-14 2019-12-13 穿衣服的机器人

Country Status (4)

Country Link
US (1) US20210283516A1 (zh)
JP (2) JP7420387B2 (zh)
CN (1) CN113164822B (zh)
WO (1) WO2020122236A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA202512S (en) * 2018-12-17 2021-05-03 Groove X Inc Robot toy
JP7113270B1 (ja) 2020-12-10 2022-08-05 パナソニックIpマネジメント株式会社 ロボット制御方法及び情報提供方法
CN114179125A (zh) * 2021-11-29 2022-03-15 北京云迹科技股份有限公司 一种便捷安装拆卸且可清洗的机器人衣服
US11826670B1 (en) * 2023-07-27 2023-11-28 Placo Bubbles Limited Moving bubble toy animal

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000093664A (ja) * 1998-09-18 2000-04-04 Takara Co Ltd 組合せ玩具
JP2001191275A (ja) * 1999-10-29 2001-07-17 Sony Corp ロボット・システム、外装及びロボット装置
CA2298287A1 (en) * 2000-02-08 2001-08-08 Albert Wai Chan Clothing for interactive dress-up toy
CN1942289A (zh) * 2004-04-16 2007-04-04 松下电器产业株式会社 机器人、提示输出装置、机器人控制***、机器人控制方法、机器人控制程序及集成电路
CN107428006A (zh) * 2015-04-10 2017-12-01 维思动株式会社 机器人、机器人控制方法以及机器人***
RU2637981C1 (ru) * 2017-03-01 2017-12-08 Максим Александрович Попов Комплексный способ подбора и проектирования индивидуально-эргономических физических предметов на основе бесконтактной антропометрии
WO2018008323A1 (ja) * 2016-07-08 2018-01-11 Groove X株式会社 服を着る自律行動型ロボット
WO2018216713A1 (ja) * 2017-05-26 2018-11-29 Groove X株式会社 衣装製作支援装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005013391A (ja) * 2003-06-25 2005-01-20 Takara Co Ltd 作動玩具
JP2006281397A (ja) * 2005-04-01 2006-10-19 Sanyo Electric Co Ltd 脚式歩行ロボット並びにその静的バランス制御方法
US20070128979A1 (en) * 2005-12-07 2007-06-07 J. Shackelford Associates Llc. Interactive Hi-Tech doll

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000093664A (ja) * 1998-09-18 2000-04-04 Takara Co Ltd 組合せ玩具
JP2001191275A (ja) * 1999-10-29 2001-07-17 Sony Corp ロボット・システム、外装及びロボット装置
CA2298287A1 (en) * 2000-02-08 2001-08-08 Albert Wai Chan Clothing for interactive dress-up toy
CN1942289A (zh) * 2004-04-16 2007-04-04 松下电器产业株式会社 机器人、提示输出装置、机器人控制***、机器人控制方法、机器人控制程序及集成电路
CN107428006A (zh) * 2015-04-10 2017-12-01 维思动株式会社 机器人、机器人控制方法以及机器人***
WO2018008323A1 (ja) * 2016-07-08 2018-01-11 Groove X株式会社 服を着る自律行動型ロボット
RU2637981C1 (ru) * 2017-03-01 2017-12-08 Максим Александрович Попов Комплексный способ подбора и проектирования индивидуально-эргономических физических предметов на основе бесконтактной антропометрии
WO2018216713A1 (ja) * 2017-05-26 2018-11-29 Groove X株式会社 衣装製作支援装置

Also Published As

Publication number Publication date
CN113164822B (zh) 2023-03-10
WO2020122236A1 (ja) 2020-06-18
US20210283516A1 (en) 2021-09-16
JP2024045160A (ja) 2024-04-02
JP7420387B2 (ja) 2024-01-23
JPWO2020122236A1 (ja) 2021-11-04

Similar Documents

Publication Publication Date Title
CN113164822B (zh) 穿衣服的机器人
CN109475781B (zh) 理解物理接触的行为自主型机器人
CN110024000B (zh) 使瞳部变化的行为自主型机器人
JP6472113B2 (ja) 自然な距離感を保つ自律行動型ロボットおよびプログラム
JP7177497B2 (ja) 相手を見つめる自律行動型ロボット
JP6884401B2 (ja) 服を着る自律行動型ロボット
CN110520258B (zh) 具有柔软外皮的机器人
JP7236142B2 (ja) 自律行動型ロボット
JP6671577B2 (ja) 人を識別する自律行動型ロボット
JP6678897B2 (ja) ロボット
JP2020000279A (ja) 仮想キャラクタを想定する自律行動型ロボット
JP2019214119A (ja) ロボットの関節に好適なジョイント構造
JP6755447B2 (ja) 緊急停止機能を有する自律行動型ロボット
CN110520257B (zh) 具有柔软外皮的机器人
JP6579538B2 (ja) 衣装製作支援装置
JPWO2020171120A1 (ja) ロボットおよびその外皮
JP2018192559A (ja) 曲面形状のボディに対するタッチを検出する自律行動型ロボット
CN112970034A (zh) 信息处理设备、信息处理方法和程序
JP2024045247A (ja) ロボット

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant