CN109108961A - 机器人、机器人的控制方法以及存储介质 - Google Patents
机器人、机器人的控制方法以及存储介质 Download PDFInfo
- Publication number
- CN109108961A CN109108961A CN201810632789.0A CN201810632789A CN109108961A CN 109108961 A CN109108961 A CN 109108961A CN 201810632789 A CN201810632789 A CN 201810632789A CN 109108961 A CN109108961 A CN 109108961A
- Authority
- CN
- China
- Prior art keywords
- robot
- movement
- given object
- sight
- operating member
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H13/00—Toy figures with self-moving parts, with or without movement of the toy as a whole
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H13/00—Toy figures with self-moving parts, with or without movement of the toy as a whole
- A63H13/005—Toy figures with self-moving parts, with or without movement of the toy as a whole with self-moving head or facial features
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/28—Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/001—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H2200/00—Computerized interactive toys, e.g. dolls
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/45—Nc applications
- G05B2219/45007—Toy
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Geometry (AREA)
- Manipulator (AREA)
- Toys (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供机器人、机器人的控制方法以及存储介质。机器人具备:动作部,其使机器人动作;判定部,其判定给定的对象的视线是否正朝向机器人的方向;和动作控制部,其基于判定部的判定结果来控制动作部。
Description
对相关申请的交叉参考
本申请基于并主张日本申请第2016-122873号(申请人2017年6月23日)的优先权,并通过参考将其完整内容并入此。
技术领域
本发明涉及机器人、机器人的控制方法以及存储介质。
背景技术
已知与人进行沟通的机器人。例如特开2012-239557号公报公开了用作模仿动物的形状的宠物玩具的机器人。特开2012-239557号公报公开的机器人在脸的位置具备液晶显示装置和触摸传感器,若抚摸显示于液晶显示装置的脸,就会使脸的表情变化,并使头部以及耳部摇动。
在所述那样的机器人中谋求提升亲近感。
发明内容
本发明用于解决以上那样的课题,目的在于,提供能使亲近感提升的机器人、机器人的控制方法以及存储介质。
本发明所涉及的机器人的一个方式具备:动作部,其使自装置动作;判定部,其判定给定的对象的视线是否正朝向所述自装置一方;和动作控制部,其基于所述判定部的判定结果来控制所述动作部。
另外,本发明所涉及的机器人的控制方法的一个方式包含:使机器人动作,判定给定的对象的视线是否正朝向所述机器人一方,基于判定的判定结果来控制所述机器人的动作。
另外,本发明所涉及的存储介质的一个方式存放程序,该程序使机器人的计算机作为如下各部发挥功能:动作部,其使所述机器人动作;判定部,其判定给定的对象的视线是否正朝向所述机器人一方;和动作控制部,其基于所述判定部的判定结果来控制所述动作部。
根据本发明,能提供能使亲近感提升的机器人、机器人的控制方法以及存储介质。
本发明的其他目的和优点将会以下的说明中阐明,其部分将在说明中显而易见,或者可以通过发明的实践来学习到。本发明的目的和优点可以通过下文特别指出的手段和组合来理解和获取。
作为说明书的一部分的附图对本发明的具体实施方式进行了例示,与上面给出的一般描述还有以下给出的具体实施方式的详细描述一起,来说明本发明的原理。
附图说明
图1是本发明的实施方式所涉及的机器人的主视图。
图2是本发明的实施方式所涉及的机器人的立体图。
图3是表示本发明的实施方式所涉及的机器人的硬件结构的框图。
图4是表示本发明的实施方式所涉及的机器人的功能结构的框图。
图5是表示由本发明的实施方式所涉及的机器人执行的单独动作的示例的第1图。
图6是表示由本发明的实施方式所涉及的机器人执行的单独动作的示例的第2图。
图7A~图7C都是表示本发明的实施方式中的摄像图像的示例的图。
图8A~图8C都是表示本发明的实施方式所涉及的机器人活动可动部的示例的图。
图9A~图9C都是表示本发明的实施方式所涉及的机器人变更眼部的显示图像的示例的图。
图10是表示由本发明的实施方式所涉及的机器人执行的机器人控制处理的流程的流程图。
图11是表示由本发明的实施方式所涉及的机器人执行的视线判定处理的流程的流程图。
具体实施方式
以下参考附图对本发明的实施方式进行说明。另外,对图中相同或相当的部分标注相同标号。
在图1以及图2示出本发明的实施方式所涉及的机器人100的外观。机器人100是模仿宠物(玩赏动物)的宠物机器人。机器人100是具有模仿动物的形状、按照预先规定的动作程序自律动作的装置。
机器人100对来自存在于自装置的外部的给定的对象的呼唤或接触等来自外部的刺激做出反应,进行各种动作。由此机器人100与给定的对象取得沟通,能与给定的对象进行交流。所谓给定的对象,是存在于机器人100的外部且成为与机器人100进行沟通以及交流的对方的对象。作为给定的对象,具体能举出机器人100的所有者即用户、用户的周围的人(用户的亲人或友人等)、用户的周围的动物(被用户等饲养的宠物等)、与机器人100不同的其他机器人等。给定的对象也能称作沟通对象、沟通对方、交流对象或交流对方等。
如图1以及图2所示那样,机器人100在外观上具有模仿小型犬的立体的形状。机器人100例如以塑料等硬质合成树脂为主要材料而制作。机器人100具备头部101、躯干部102、耳部103、眼部104、口部105、手部107、脚部108和尾巴部109。
头部101、耳部103、手部107、脚部108以及尾巴部109是能通过内置于机器人100的驱动构件而活动的部位。头部101通过设于脖子的脖子的关节而能在俯仰、翻滚以及偏转这3个方向上转动地安装在躯干部102。在眼部104设有显示与眼相关的图像(眼球等)的显示部117。在口部105设有对机器人100的前方进行摄像的摄像部115a。
在图3示出机器人100的硬件结构。如图3所示那样,机器人100具备CPU(CentralProcessing Unit,中央处理器)110、计时部110a、存储器111、蓄电池112、驱动器113、可动部114、传感器部115、无线通信部116、显示部117、声音输出部118和图像认识部119。
CPU110例如是微处理器等,是执行各种处理以及运算的中央运算处理部。CPU110经由用于转发命令以及数据的传输路径即***总线与机器人100的各部连接,来控制机器人100整体。计时部110a具备RTC(Real Time Clock,实时时钟)。
存储器111具备作为CPU1 10的工作存储器发挥功能的RAM(Random AccessMemory,随机存取存储器)和ROM(Read Only Memory,只读存储器)、闪速存储器等的非易失性存储器。存储器111存储包括OS(Operating System,操作***)、应用程序等在内的CPU110为了进行各种处理而使用的程序以及数据。另外,存储器111存储通过CPU110进行各种处理而生成或取得的数据。
蓄电池112是对电能进行蓄电、对机器人100的各部提供电力的蓄电池。蓄电池112在机器人100回归到充电站时,由充电站充电。
驱动器113具备:使机器人100的可动部114驱动的电动机、致动器等驱动构件;和驱动这些驱动构件的驱动电路。所谓可动部114,是可动的部位,具体是头部101、耳部103、手部107、脚部108以及尾巴部109。CPU1 10基于动作程序对驱动电路发送控制信号。驱动电路按照从CPU110发送的控制信号来对驱动构件提供驱动用的脉冲信号。驱动构件按照从驱动电路提供的脉冲信号使可动部114驱动。
机器人100通过驱动器113使可动部114驱动而能进行各种动作。例如机器人100能通过活动手部107和脚部108而向前方或后方移动,能改变自装置的朝向。另外,机器人100能通过摇摆头部101、活动耳部103或摇动尾巴部109等来模仿犬的动作以及举止。
传感器部115具备探测自装置的周围或内部的物理量的多个传感器。如图3所示那样,传感器部115包括对周围进行摄像的摄像部115a、探测声音的声音传感器115b、探测对自装置的接触的接触传感器115c以及测定到周围的物体的距离的距离传感器115d。另外,虽未图示,但传感器部115包括探测自装置的运动的加速度传感器、探测自装置的转动的陀螺仪传感器、探测自装置的方位的地磁传感器、探测自装置的周围的温度的温度传感器、探测自装置的周围的气压的气压传感器等。
摄像部115a是所谓的摄像机,设置在口部105。摄像部115a具备:将从被摄体射出的光集光来取得被摄体的图像的图像取得部;和对由图像取得部取得的图像进行处理的图像处理部。声音传感器115b设置在头部101,探测从给定的对象发出的声音、周围的环境音等。虽未图示,但机器人100具备多个麦克风包围头部101,作为声音传感器115b,能效率良好地探测在四方产生的声音。其他传感器设置在机器人100的各处,取得表示机器人100的周围或内部的状态的信息。其他传感器设置在机器人100的适宜的位置。传感器部115用这样的多个传感器取得表示机器人100的周围或内部的状态的信息,提供给CPU110。
无线通信部116具有用于与外部的设备无线进行通信的接口。无线通信部116在CPU110的控制下遵循例如Wi-Fi(Wireless Fidelity,无线保真)等无线LAN(Local AreaNetwork,局域网)或Bluetooth(注册商标)等通信标准与充电站进行无线通信。
显示部117例如是液晶显示器、有机EL(Electro Luminescence,电致发光)显示器、LED(Light Emitting Diode,发光二极管)等显示设备。显示部117设置在眼部104的眼球部分,在未图示的显示驱动电路的控制下,对应于状况显示各种图像。
声音输出部118具备扬声器和声音输出接口,将由CPU110生成的声音数据变换成声音输出到外部。扬声器设置在头部101。声音输出部118输出包含动物的叫声以及人的语音在内的各种声音。例如机器人100用声音传感器115b收集给定的对象的声音,将与给定的对象的发声内容对应的声音从声音输出部118输出。由此能与给定的对象进行简单的会话。
图像认识部119具备DSP(Digital Signal Processor,数字信号处理器)、GPU(Graphics Processing Unit,图形处理器)等图像处理用的处理器和暂时保存处理的图像的缓冲存储器,认识(识别)由摄像部115a摄像的图像。图像认识部119使用周知的图像认识手法来认识由摄像部115a摄像的图像中所含的人、脸、物体、图案等。
接下来参考图4来说明机器人100的功能性结构。如图4所示那样,机器人100在功能上具备存在探测部120、行动探测部130、动作控制部140和判定部150。CPU110将存储于ROM的程序读出到RAM,通过执行该程序进行控制来作为这些各部发挥功能。
存在探测部120探测存在于机器人100的外部的给定的对象的存在。所谓给定的对象,是机器人100的所有者即用户、用户的周围的人、动物等成为与机器人100的交流对方(沟通对方)的对象。
存在探测部120用设于口部105的摄像部115a对周围进行摄像,来取得表征周围的样子的图像。然后,存在探测部120用图像认识部119认识由摄像部115a取得的图像,判定是否在图像中拍到人或动物。如此,存在探测部120通过CPU110与摄像部11Sa以及图像认识部119协作而实现。
行动探测部130探测针对机器人100的给定的对象的行动。所谓针对机器人100的给定的对象的行动,是指给定的对象为了与机器人100进行交流(沟通)而发动的对话或接触等行动。作为给定的对象对机器人100的行动,例如对机器人100进行呼唤、与机器人100的表面接触或对机器人100示出身体动作。行动探测部130用传感器部115的各种传感器探测这样的给定的对象所进行的行动。
具体说明,在被给定的对象呼唤的情况下,行动探测部130经由声音传感器115b探测从给定的对象发出的声音。另外,在被给定的对象接触的情况下,行动探测部130经由接触传感器115c探测接触。或者在被给定的对象示出身体动作的情况下,行动探测部130经由摄像部115a探测身体动作。如此,行动探测部130通过CPU110与传感器部115的各种传感器协作而实现。
动作控制部140控制动作部170使动作部170执行动作表190中所确定动作。动作部170包含可动部114、显示部117和声音输出部118,是通过活动可动部114、在显示部117显示图像、或从声音输出部118输出声音来使机器人100动作的部位。动作表190是确定动作部170的动作的表,预先存储在存储器111。动作控制部140参考动作表190,对应于状况使动作部170执行各种动作。动作控制部140通过CPU110与驱动器113、可动部114、显示部117以及声音输出部118协作而实现。
在行动探测部130探测到针对机器人100的给定的对象的行动的情况下,动作控制部140使动作部170执行用于对探测到的行动做出响应的动作。该动作是用于与给定的对象进行交流(沟通)的动作,也称作交流动作(交流行动)或响应动作(响应行动)。
具体说明,在行动探测部130探测到来自给定的对象的声音的情况下,动作控制部140将与探测到的声音对应的声音从声音输出部118输出,或者活动头部101使其朝向给定的对象一方,或者活动手部107以及脚部108使其向给定的对象一方向移动。另外,在行动探测部130探测到接触的情况下,动作控制部140摇动尾巴部109,或在显示部117显示给定的图像。或者,在行动探测部130探测到给定的对象的身体动作的情况下,动作控制部140将与探测到的身体动作对应的声音从声音输出部118输出,或在显示部117显示给定的图像。
如此,动作控制部140对应于行动探测部130探测到的给定的对象的行动使机器人100执行各种不同的动作,作为交流动作。由此给定的对象能与机器人100取得沟通而享受乐趣。动作表190规定给定的对象的行动与行动探测部130探测到该行动的情况下机器人100要执行的交流动作的对应关系。动作控制部140参考动作表190来决定使动作部170执行的交流动作。
另一方面,在行动探测部130未探测到针对机器人100的给定的对象的行动的情况下,动作控制部140使机器人100执行与交流动作不同的单独动作。所谓单独动作,是相对给定的对象独立地由机器人100单独执行的动作,是不经过与给定的对象的交流(沟通)的自发性动作。单独动作也称作单独行动、单独游玩。
换言之,动作控制部140在机器人100与存在于周围的任意对象进行交流的情况下,使机器人100执行前述的交流动作,另一方面,在机器人100与存在于周围的哪个对象都未进行交流的情况下,使机器人100执行单独动作,由此使机器人100执行模仿宠物的自然的动作,能提升对机器人100的亲近。
在图5以及图6示出在动作表190中确定的单独动作的示例。如图5以及图6所示那样,动作表190按每个条件规定机器人100要执行的单独动作。
图5表示在机器人100的周围存在给定的对象但没有与机器人100的交流的情况下的单独动作的示例。在行动探测部130最后探测到针对机器人100的给定的对象的行动起经过规定时间的情况下,动作控制部140使机器人100执行图5所示的任意的单独动作。具体说明,动作控制部140对应于表示机器人100的感情的信息使机器人100执行不同的单独动作。所谓表示机器人100的感情的信息,是为了模拟实际的动物而设定的、用于让机器人100表现喜怒哀乐等情绪的信息。
表示机器人100的感情的信息具体如图5所示那样,基于表示平静的程度的第1感情值″calm″和表示兴奋的程度的第2感情值″excite″而示出「心神不安的情绪」、「有干劲的情绪」、「快乐的情绪」以及「镇静的情绪」这4种感情。动作控制部140根据与给定的对象的交流中的给定的对象的行动以及其他状况来使第1感情值和第2感情值变化,使机器人100的感情变化。
例如在机器人100示出「心神不安情绪」的感情的情况下,动作控制部140使机器人100执行「寻找什么地移动到房间的角落并盯着」等当中任意1个单独动作。在机器人100示出「有干劲的情绪」的感情的情况下,动作控制部140使机器人100执行「像是要去外面而移动到房间的一端团团转」等当中任意1个单独动作。在机器人100示出「快乐的情绪」的感情的情况下,动作控制部140使机器人100执行「歌唱」等当中任意1个单独动作。在机器人100示出「镇静的情绪」的感情的情况下,动作控制部140使机器人100执行「出神地盯着窗外看」等当中任意1个单独动作。执行在各感情下能执行的多个单独动作当中的哪个单独动作,是随机决定的。
图6表示机器人100的周围的环境或时间所引起的单独动作的示例。在行动探测部130未探测到针对机器人100的给定的对象的行动、且机器人100的周围的环境和时间当中至少一方满足特定的条件的情况下,动作控制部140使机器人100执行图6所示的任意的单独动作。
所谓机器人100的周围的环境,例如是音量、温度、气压、明亮度、障碍物等能与机器人100交流的给定的对象以外的外部的信息。这样的环境通过声音传感器115b、接触传感器115c、距离传感器115d、温度传感器、气压传感器等探测。时间是当前的时刻、日期时间或季节等信息,由计时部110a测量。所谓特定的条件,是与环境或时间相关的条件。作为特定的条件,如图6所示那样,有「听得到音乐」、「听得到人彼此的会话」等与环境相关的条件、和「到了睡觉的时间」、「到了新年或生日等的早上」等与时间相关的条件。
在机器人100的周围的环境和时间当中至少一方满足特定的条件的情况下,动作控制部140使机器人100执行与满足的条件对应的单独动作。例如在满足「听得到音乐」的条件的情况下,动作控制部140使机器人100执行「改变表情在周围团团转」的单独动作。在满足「没有认识出人却被抚摸」的条件的情况下,动作控制部140使机器人100执行「吃惊地环顾周围」的单独动作。如此,动作控制部140对环境、时间等外部的刺激做出反应来使动作部170中的可动部114、显示部117和声音输出部118的至少任一者动作,由此使机器人100执行与刺激对应的单独动作。
回到图4所示的机器人100的功能性结构的说明。判定部150在机器人100执行单独动作时判定给定的对象的视线是否朝向机器人100一方。判定部150为了判定给定的对象的视线是否朝向机器人100一方而执行(1)脸的检测、(2)脸的朝向的检测以及(3)视线的检测这3种处理。
第1,判定部150从摄像部115a的摄像图像检测脸。在图7A~图7C示出给定的对象即用户210被摄像得到的摄像图像200的示例。图7A表示从正面对用户210摄像的摄像图像200,图7B、图7C表示从斜向对用户210摄像得到的摄像图像200。判定部150从例如图7A~图7C所示的摄像图像200,用图像认识部119使用周知的脸认识的手法来检测相当于用户210的脸的脸区域220。
具体说明,判定部150从摄像图像200中所含的各像素当中确定肤色的像素,并将确定的肤色的像素的区域检测为脸区域220。或者,判定部150也可以从摄像图像200提取眼、鼻、口等这样的脸的部位作为特征点,以提取的部位的位置为基准来检测脸区域220。如此,判定部150从摄像图像200检测用户210的脸。
第2,判定部150使用周知的手法检测出从摄像图像200检测到的脸的朝向。具体说明,判定部150基于检测到的脸区域220中的眼、鼻、口等部位的位置关系来检测俯仰、翻滚以及偏转这3个方向上的脸的朝向。
例如在图7A所示的摄像图像200中,用户210的脸朝向正面即机器人100一方。在该情况下,判定部150将俯仰、翻滚以及偏转各个方向上的脸的朝向检测为0度。与此相对,在图7B、图7C所示的摄像图像200中,用户210的脸在俯仰以及翻滚的方向上未倾斜,但在偏转的方向上倾斜。在该情况下,判定部150将偏转的方向上的脸的朝向检测为例如-15度。如此,判定部150检测摄像图像200中的用户210的脸的朝向。
第3,判定部150使用周知的手法来检测在摄像图像200中摄像的用户210的视线。具体说明,判定部150确定脸区域220中所含的眼,检测确定的眼的内部的虹膜(瞳孔)的位置。然后判定部150根据眼的内部的虹膜的位置来检测用户210的视线、即用户210所看向的方向。
基于以上那样的(1)脸的检测、(2)脸的朝向的检测以及(3)视线的检测这3种处理,判定部150判定给定的对象的视线是否正朝向机器人100一方。例如在检测到的脸位于摄像图像200的中央且脸以及视线朝向正面的情况下,判定部150判定为给定的对象的视线正朝向机器人100一方。另外,在检测到的脸位于摄像图像200的中央以外但脸或视线朝向摄像部115a的方向的情况下,判定部150也判定为给定的对象的视线正朝向机器人100一方。如此,判定部150基于由摄像部115a拍摄给定的对象得到的图像来判定给定的对象的视线是否正朝向机器人100一方。
判定部150在机器人100执行单独动作时判定为给定的对象的视线正朝向机器人100一方的情况下,开始计时部110a的计时。然后判定部150判定给定的对象的视线是否连续给定时间以上朝向机器人100一方。给定时间例如是1秒到数秒程度的长度的时间,预先设定并存储到存储器111。判定部150通过让CPU110与摄像部115a、图像认识部119以及计时部110a协作而实现。
与此相对,在机器人100没有执行单独动作时,判定部150不判定给定的对象的视线是否正朝向机器人100一方。换言之,在机器人100正执行与给定的对象的交流动作的情况下,由于将执行该交流动作优先,因此判定部150不执行判定给定的对象的视线的处理。
动作控制部140基于判定部150的判定结果来控制动作部170。具体说明,在由判定部150判定为给定的对象的视线连续给定时间以上朝向机器人100一方的情况下,动作控制部140使动作部170执行作为针对视线的响应的第1动作。
所谓第1动作,是用于响应从给定的对象向机器人100的视线的动作,作为动作表190的一部分而预先规定。第1动作具体是(1)活动可动部114、(2)变更显示于显示部117的图像或(3)使声音输出部118输出声音。在由判定部150判定为给定的对象的视线连续给定时间以上朝向机器人100一方的情况下,动作控制部140参考动作表190来使动作部170执行这些当中至少1个动作作为第1动作。
(1)第1,动作控制部140通过活动可动部114来使动作部170执行第1动作。具体说明,动作控制部140通过驱动器113使脖子的关节驱动来活动头部101。动作控制部140例如如图8A所示那样使头部101在翻滚方向上转动倾斜,或者如图8B所示那样使头部101在俯仰方向上转动而点头,作为第1动作。或者动作控制部140也可以活动头部101,使其朝向给定的对象一方。另外,动作控制部140也可以如图8C所示那样向给定的对象摇摆尾巴部109,作为第1动作。
(2)第2,动作控制部140通过变更显示于显示部117的图像来使动作部170执行第1动作。具体说明,动作控制部140使显示于显示部117的虹膜(瞳孔)的图像例如如图9A所示那样放大瞳孔,如图9B所示那样变更成闭上两眼的图像,或如图9C所示那样使瞳孔的位置移动。或者动作控制部140也可以在显示部117显示图像,使眼含泪,闭上单眼(使眼色)、使自装置的视线朝向给定的对象的方向(目光接触)、或者闭上两眼后再睁开(眨眼)。
(3)第3,动作控制部140通过从声音输出部118输出声音来使动作部170执行第1动作。具体说明,动作控制部140使声音输出部118向给定的对象输出「哎」、「看这!」等声音,作为针对给定的对象的视线的响应。输出的声音从预先准备的多个候补当中按照给定的规则选择。
在给定的对象的视线连续给定时间以上朝向机器人100一方的情况下,动作控制部140使动作部170执行这样的第1动作当中至少1者。具体说明,由图像认识部119认识给定的对象的脸,动作控制部140按照图像认识部119的认识结果使使动作部170执行不同的动作,作为第1动作。换言之,从由图像认识部119认识的脸判别给定的对象的年龄、性别、表情等,动作控制部140按照判别结果来决定(1)活动可动部114、(2)变更显示于显示部117的图像、(3)使声音输出部118输出声音,或它们的组合。如此,通过根据对方的不同而示出不同的响应,能提升机器人100的亲近感。
另一方面,动作控制部140从给定的对象的视线朝向机器人100一方起到经过给定时间为止使动作部170执行单独动作。换言之,即使由判定部150判定为给定的对象的视线正朝向机器人100一方,直到经过给定时间为止,动作控制部140也使动作部170继续执行执行中的单独动作,不执行对该视线做出响应的动作。由此,动作控制部140从给定的对象的视线朝向机器人100一方起到经过给定时间为止使机器人100装作没有察觉到给定的对象。
在由判定部150判定为给定的对象的视线未朝向机器人100一方的情况下,动作控制部140使动作部170执行与第1动作不同的第2动作。第2动作是促使给定的对象将视线朝向机器人100一方的动作,作为动作表190的一部分而预先规定。例如动作控制部140使头部101转动,以吸引给定的对象的注意。或者,动作控制部140使脚部108驱动,使机器人100向给定的对象一方移动,或移动到给定的对象的视线前方。
在作为这样的第2动作的结果是给定的对象将视线朝向机器人100的情况下,动作控制部140使动作部170开始前述的第1动作。另外,在给定的对象对机器人100发起对话、接触等行动的情况下,动作控制部140使动作部170开始与给定的对象的交流动作。如此,在机器人100正执行单独动作时给定的对象未看机器人100一方的情况,动作控制部140执行吸引给定的对象的动作。由此能提升机器人100的亲近感。
关于以上那样构成的机器人100中执行的处理的流程,参考图10以及图11所示的流程图来进行说明。
首先,参考图10来说明由机器人100执行的机器人控制处理。若通过接通机器人100的电源且对蓄电池112进行了充电从而机器人100成为能正常动作的状态,则图10所示的机器人控制处理开始。
开始机器人控制处理后,CPU110判定是否探测到给定的对象(步骤S1)。具体说明,CPU110通过摄像部115a对机器人100的周围进行摄像。然后,CPU110对通过摄像得到的图像进行解析,判定是否在机器人100的周围存在人或动物等成为与机器人100的交流(沟通)对方的对象。在步骤S1,CPU110作为存在探测部120发挥功能。
在判定的结果是未探测到成为交流对方的给定的对象的情况下(步骤S1“否”),CPU110停留在步骤S1,直到探测到给定的对象为止都进行待机。
另一方面,在探测到成为交流对方的给定的对象的情况下(步骤S1“是”),CPU110判定是否与给定的对象进行交流(步骤S2)。具体说明,CPU110判定是否经由音传感器115b、接触传感器115c、摄像部115a等探测到来自给定的对象的呼唤、接触或身体动作等针对机器人100的行动。并且CPU110在探测到针对机器人100的给定的对象的行动的情况下判定为与该给定的对象进行交流。在步骤S2,CPU110作为行动探测部130发挥功能。
在与给定的对象进行交流的情况下(步骤S2“是”),CPU110使机器人100执行交流动作(步骤S3)。所谓交流动作,是用于与给定的对象进行交流的动作,是用于在步骤S2对探测到的给定的对象的行动做出响应的动作。具体说明,CPU110控制动作部170中的可动部114、显示部117或声音输出部118,来使动作部170执行与探测到的行动对应的动作。由此机器人100与给定的对象进行交流(沟通)。在步骤S3,CPU110作为动作控制部140发挥功能。
与此相对,在不与给定的对象进行交流的情况下(步骤S2“否”),CPU110跳过步骤S3的处理。
如此,在与给定的对象进行交流后或在跳过步骤S3后,CPU110判定单独动作的条件是否成立(步骤S4)。所谓单独动作的条件,是用于机器人100执行单独动作的条件。单独动作的条件具体是从在步骤S2最后探测到针对机器人100的给定的对象的行动起经过规定时间的情况,或者是机器人100的周围的环境和时间当中至少一方满足图6所示的特定的条件的情况。CPU110通过传感器部115进行的周围的环境的探测以及计时部110a进行的计时来判定单独动作的条件是否成立。CPU110还作为判断机器人100是否正进行单独动作的判断部发挥功能。
在单独动作的条件不成立的情况下(步骤S4“否”),CPU110回到步骤S1的处理,再度判定是否探测到给定的对象。在探测到给定的对象且与给定的对象进行交流的条件成立的期间,CPU110重复步骤S1到步骤S4的处理,持续与给定的对象的交流。
与此相对,在单独动作的条件成立的情况下(步骤S4“是”),CPU110使机器人100执行单独动作(步骤S5)。具体说明,CPU110控制动作部170中的可动部114、显示部117或声音输出部118,来使动作部170执行与成立的条件对应的单独动作。
例如在从最后探测到给定的对象的行动起经过规定时间的情况下,CPU110按照这时的表示机器人100的感情的信息来使动作部170执行图5所示的单独动作当中的任意者。与此相对,在机器人100的周围的环境和时间当中至少一方满足特定的条件的情况下,CPU110使动作部170执行图6所示的单独动作当中的任意者。在步骤S5,CPU110作为动作控制部140发挥功能。
在使机器人100执行单独动作的期间,CPU110执行视线判定处理(步骤S6)。参考图11所示的流程图来说明步骤S6中的视线判定处理的详细。
图11所示的视线判定处理开始后,CPU110从摄像部115a的摄像图像检测脸(步骤S61)。具体说明,CPU110使用周知的脸认识的手法从例如图7A~图7C所示的摄像图像200检测相当于给定的对象的脸的脸区域220。
若从摄像图像检测到脸,则CPU110检测脸的朝向(步骤S62)。具体说明,CPU110基于检测到的脸区域220中的眼、鼻、口等部位的位置关系来检测俯仰、翻滚以及偏转这3个方向上的脸的朝向。
检测到脸的朝向后,CPU110检测视线(步骤S63)。具体说明,CPU110确定脸区域220中所含的眼,基于所确定的眼的内部的虹膜的位置来检测给定的对象正在看的方向。
检测到视线后,CPU110判定为给定的对象的视线是否正朝向机器人100一方(步骤S64)。具体说明,在检测到的脸位于摄像图像200的中央且脸以及视线正朝向正面的情况下,CPU110判定为给定的对象的视线正朝向机器人100一方。另外,在检测到的脸虽位于摄像图像200的中央以外但脸或视线正朝向摄像部115a一方的情况下,CPU110也判定为给定的对象的视线正朝向机器人100一方。
在判定的结果是给定的对象的视线未朝向机器人100一方的情况下(步骤S64“是”),CPU110开始计时部110a的计时,判定是否从给定的对象的视线朝向机器人100一方起经过了给定时间(步骤S65)。
在未经过给定时间的情况下(步骤S65“否”),CPU110使动作部170持续单独动作(步骤S66)。之后CPU110回到步骤S64,再度判定给定的对象的视线是否正朝向机器人100一方。换言之,CPU110即使判定为给定的对象的视线正朝向机器人100一方,直到经过给定时间为止,也使机器人100继续执行执行中的单独动作,使其装作未察觉到视线。然后CPU110判定给定的对象的视线朝向机器人100一方的状态是否连续持续给定时间。
若判定为给定的对象的视线朝向机器人100一方持续给定时间(步骤S65“是”),则CPU110使动作部170执行作为对视线的响应的第1动作(步骤S67)。具体说明,CPU110通过图像认识部119认识给定的对象的脸。然后CPU110按照脸认识的结果使动作部170从如下动作当中执行动作:(1)活动可动部114、(2)变更显示于显示部117的图像、和(3)使声音输出部118输出声音。
与此相对,在步骤S64中判定为给定的对象的视线未朝向机器人100一方的情况下(步骤S64“否”),CPU110使动作部170执行第2动作(步骤S68)。具体说明,CPU110通过使头部101转动或使自装置移动来促使给定的对象将视线朝向机器人100一方。
通过以上结束图11所示的视线判定处理。另外在图11所示的视线判定处理中,CPU110在步骤S61到步骤S65作为判定部150发挥功能,在步骤S66到步骤S68作为动作控制部140发挥功能。
回到图10,若执行视线判定处理,则CPU110回到步骤S1的处理,再度判定是否探测到给定的对象。在判定的结果是探测到给定的对象的情况下,CPU110执行步骤S2以后的处理。如此,CPU110在探测到给定的对象的期间重复执行与给定的对象的交流动作或单独动作的处理。这时,CPU110在执行单独动作时执行视线判定处理。
如以上说明的那样,本实施方式所涉及的机器人100在执行单独动作时判定给定的对象的视线是否正朝向自装置一方,基于判定结果来控制动作部170。如此,通过对视线做出响应进行动作,能提升亲近感。
特别地,本实施方式所涉及的机器人100在给定的对象的视线正朝向自装置一方的情况下,也在直到经过给定时间为止都使动作部170持续单独动作,若视线朝向持续给定时间,则使动作部170执行作为对视线的响应的第1动作。如此,机器人100由于即使被视线朝向也暂时装作没察觉到,因此能像真正的动物那样行动,能更加提升亲近感。
(变形例)
以上说明了本发明的实施方式,但所述实施方式是一例,本发明的适用范围并不限于此。即,本发明的实施方式能有种种应用,所有的实施方式都包含在本发明的范围内。
例如在所述实施方式中,机器人100是模仿小型犬的宠物机器人。但本发明所涉及的机器人100并不限于模仿小型犬的形状,可以有任意的形状。例如本发明所涉及的机器人100可以是模仿大型犬的机器人,也可以是模仿包括猫、鼠或兔等在内的其他种类的动物的机器人,也可以是模仿人的机器人。
在所述实施方式中,显示部117设于眼部104,摄像部115a设于口部105。但在本发明中,显示部117也可以设于眼部104以外的场所,摄像部115a也可以设于口部105以外的场所(例如鼻部等)。在显示部117设于眼部104的情况下,动作控制部140通过机械地活动眼球部分来控制机器人100的视线的方向。
在所述实施方式中,动作控制部140在给定的对象的视线朝向机器人100一方持续给定时间以上的情况下,使动作部170对应于图像认识部119的认识结果执行不同的动作作为第1动作。但在本发明中,动作控制部140也可以对应于由距离传感器115d测定的与给定的对象的距离使动作部170执行不同的动作,作为第1动作。例如可以,在由距离传感器115d测定的与给定的对象的距离比阈值近的情况下,动作控制部140变更显示于显示部117的图像作为第1动作。在该情况下,动作控制部140为了不带来距离近引发的压迫感,也可以调整显示于显示部117的图像,将自装置的视线从给定的对象的视线的方向躲开。
或者也可以,在给定的对象的视线朝向机器人100一方持续给定时间以上的情况下,动作控制部140对应于机器人100的视线是否正朝向给定的对象一方来使动作部170执行不同的动作作为第1动作。例如可以在机器人100的视线正朝向给定的对象一方的情况下,动作控制部140如图8A~图8C以及图9A~图9C所示那样控制可动部114、显示部117或声音输出部118,在机器人100的视线未朝向给定的对象一方的情况下,动作控制部140控制头部101的活动或眼部104的显示,使得机器人100的视线朝向给定的对象的方向。另外也可以,动作控制部140对应于执行中的单独动作使动作部170执行不同的动作作为第1动作。
在所述实施方式中,在机器人100中,通过CPU110执行存储于ROM的程序而分别作为存在探测部、行动探测部、动作控制部以及判定部发挥功能。但在本发明中,机器人100也可以取代CPU而具备例如ASIC(Application Specific Integrated Circuit,特定用途集成电路)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)或各种控制电路等专用的硬件,专用的硬件分别作为存在探测部、行动探测部、动作控制部以及判定部发挥功能。在该情况下,可以将各部的功能分别以个别的硬件实现,也可以将各部的功能汇总以单一的硬件实现。另外,可以将各部的功能当中一部分用专用的硬件实现,将其他一部分用软件或固件实现。
另外,能作为预先具备用于实现本发明所涉及的功能的构成的机器人来提供自不必说,还能通过程序的运用使已有的信息处理装置等作为本发明所涉及的机器人发挥功能。即,通过运用用于实现所述实施方式例示的机器人100的各功能结构的程序,使得能由控制已有的信息处理装置等的CPU等能执行,能作为本发明所涉及的机器人发挥功能。
另外,这样的程序的运用方法为任意。能将程序容纳在例如软盘、CD(CompactDisc,光盘)-ROM、DVD(Digital Versatile Disc,数字多功能盘)-ROM、存储卡等计算机可读的存储介质中运用。进而,还能将程序叠加到载波,经由因特网等通信媒体来运用。例如在通信网络上的公告板(BBS:Bulletin Board System)公告发布程序。并且,也可以构成为通过起动该程序,在OS(Operating System,操作***)的控制下与其他应用程序同样地执行,由此能执行所述的处理。
以上说明了本发明的优选的实施方式,但本发明并不限定于这些特定的实施方式,在本发明中包含权利要求书所记载的发明和其等同的范围。
Claims (23)
1.一种机器人,具备:
动作部,其使机器人动作;
判定部,其判定给定的对象的视线是否正朝向所述自装置一方;和
动作控制部,其基于所述判定部的判定结果来控制所述动作部。
2.根据权利要求1所述的机器人,其中,
所述机器人还具备:
判断部,其判断是否正执行单独动作,所述单独动作是在所述自装置的周围存在所述给定的对象的情况下相对所述给定的对象独立地由所述自装置单独执行的动作,是不经由与所述给定的对象的交流的自发的动作,
在由所述判断部判断为正进行所述单独动作的情况下,所述判定部判定所述给定的对象的所述视线是否正朝向所述自装置一方。
3.根据权利要求2所述的机器人,其中,
所述机器人还具备:
摄像部,其对所述给定的对象进行摄像,
所述判定部基于由所述摄像部拍摄所述给定的对象得到的图像来判定所述视线是否正朝向所述自装置一方。
4.根据权利要求2所述的机器人,其中,
在由所述判断部判断为未进行所述单独动作的情况下,所述判定部不判定所述视线是否朝向所述自装置一方。
5.根据权利要求2所述的机器人,其中,
在由所述判定部判定为所述视线正朝向所述自装置一方的情况下,所述动作控制部使所述动作部执行作为对所述视线的响应的第1动作。
6.根据权利要求5所述的机器人,其中,
在由所述判断部判断为正在进行所述单独动作的情况下,所述判定部判定所述视线是否朝向所述自装置一方持续给定时间以上,
在由所述判定部判定为所述视线朝向所述自装置一方持续所述给定时间以上的情况下,所述动作控制部使所述动作部执行所述第1动作。
7.根据权利要求6所述的机器人,其中,
所述动作控制部从所述视线朝向所述自装置一方起到经过所述给定时间为止使所述动作部执行所述单独动作,来装作未察觉到所述视线。
8.根据权利要求5所述的机器人,其中,
所述动作部包含可动的可动部,
所述动作控制部通过活动所述可动部来使所述动作部执行所述第1动作。
9.根据权利要求8所述的机器人,其中,
所述可动部是所述机器人的头部或尾巴部,
所述动作控制部通过活动所述头部或摇摆所述尾巴部来使所述动作部执行所述第1动作。
10.根据权利要求5所述的机器人,其中,
所述动作部包含显示图像的显示部,
所述动作控制部通过变更显示于所述显示部的所述图像来使所述动作部执行所述第1动作。
11.根据权利要求5所述的机器人,其中,
所述动作部包含输出声音的声音输出部,
所述动作控制部通过从所述声音输出部输出所述声音来使所述动作部执行所述第1动作。
12.根据权利要求5所述的机器人,其中,
所述机器人还具备:
图像认识部,其认识所述给定的对象的脸,
所述动作控制部对应于所述图像认识部的认识结果使所述动作部执行不同的动作,以作为所述第1动作。
13.根据权利要求5所述的机器人,其中,
在由所述判定部判定为所述视线未朝向所述自装置一方的情况下,所述动作控制部使所述动作部执行与所述第1动作不同的第2动作。
14.根据权利要求2所述的机器人,其中,
所述机器人还具备:
行动探测部,其探测所述给定的对象的针对所述自装置的行动,
在所述行动探测部探测到所述行动的情况下,所述动作部执行用于对所述行动做出响应的交流动作,在所述行动探测部未探测到所述行动的情况下,所述动作部在从最后探测所述给定的对象的所述行动起经过了规定时间时执行所述单独动作。
15.根据权利要求1~14中任一项所述的机器人,其中,
所述给定的对象是人或动物或与所述自装置不同的其他机器人。
16.根据权利要求2所述的机器人,其中,
所述单独动作基于表示所述自装置的感情的信息、或表示所述自装置的周围的环境的信息、或表示时间的信息而设定。
17.根据权利要求16所述的机器人,其中,
表示所述自装置的所述感情的信息是通过表示平静的程度的第1感情值和表示兴奋的程度的第2感情值的组合设定的信息,
所述动作控制部根据与所述给定的对象的交流中的所述给定的对象的行动使所述第1感情值和所述第2感情值变化,来使所述自装置的所述感情变化。
18.根据权利要求16所述的机器人,其中,
表示所述自装置的所述周围的环境的信息是包含音量、温度、气压、明亮度、障碍物的所述给定的对象以外的外部的信息。
19.根据权利要求16所述的机器人,其中,
表示所述时间的信息是包含当前的时刻、当前的日期时间、当前的季节的信息。
20.根据权利要求13所述的机器人,其中,
所述第2动作是促使所述给定的对象将所述视线朝向所述自装置一方的动作。
21.根据权利要求20所述的机器人,其中,
所述第2动作是使所述自装置的头部转动的动作或使所述自装置移动的动作。
22.一种机器人的控制方法,其中,包含:
使机器人动作,
判定给定的对象的视线是否正朝向所述机器人一方,
基于判定的判定结果来控制所述机器人的动作。
23.一种存储介质,存放程序,所述程序使机器人的计算机作为如下各部发挥功能:
动作部,其使所述机器人动作;
判定部,其判定给定的对象的视线是否正朝向所述机器人一方;和
动作控制部,其基于所述判定部的判定结果来控制所述动作部。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017-122873 | 2017-06-23 | ||
JP2017122873A JP6572943B2 (ja) | 2017-06-23 | 2017-06-23 | ロボット、ロボットの制御方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109108961A true CN109108961A (zh) | 2019-01-01 |
Family
ID=62750873
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810632789.0A Pending CN109108961A (zh) | 2017-06-23 | 2018-06-19 | 机器人、机器人的控制方法以及存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11000952B2 (zh) |
EP (1) | EP3456487A3 (zh) |
JP (1) | JP6572943B2 (zh) |
CN (1) | CN109108961A (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6515899B2 (ja) * | 2016-10-04 | 2019-05-22 | トヨタ自動車株式会社 | 音声対話装置及びその制御方法 |
CN111093913A (zh) * | 2017-09-11 | 2020-05-01 | Groove X 株式会社 | 注视对方的行为自主型机器人 |
US20210232150A1 (en) * | 2018-05-15 | 2021-07-29 | Sony Corporation | Control device, control method, and program |
JP7107017B2 (ja) * | 2018-06-21 | 2022-07-27 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
JP7024754B2 (ja) * | 2019-03-25 | 2022-02-24 | カシオ計算機株式会社 | 制御装置、ロボット、制御方法およびプログラム |
WO2020213245A1 (ja) * | 2019-04-16 | 2020-10-22 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US11376733B2 (en) * | 2019-06-11 | 2022-07-05 | Facebook Technologies, Llc | Mechanical eyeball for animatronic devices |
US11511410B2 (en) * | 2019-06-17 | 2022-11-29 | Lg Electronics Inc. | Artificial intelligence (AI) robot and control method thereof |
JP7273637B2 (ja) * | 2019-07-17 | 2023-05-15 | 本田技研工業株式会社 | ロボット管理装置、ロボット管理方法およびロボット管理システム |
JP7392377B2 (ja) * | 2019-10-10 | 2023-12-06 | 沖電気工業株式会社 | 機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法 |
JP2021074202A (ja) * | 2019-11-07 | 2021-05-20 | ソニー株式会社 | 自律移動体、情報処理方法、プログラム、及び、情報処理装置 |
DE102021106403A1 (de) * | 2021-03-16 | 2022-09-22 | Geobra Brandstätter Stiftung & Co. Kg | Spielsystem und Spiel mit dem Spielsystem |
US11419399B1 (en) | 2021-09-01 | 2022-08-23 | Spin Master Ltd. | Storage device with movable element |
CA3187953A1 (en) * | 2022-08-12 | 2024-02-12 | Spin Master Ltd. | Device with flapping display |
WO2024127816A1 (ja) * | 2022-12-16 | 2024-06-20 | ソニーグループ株式会社 | 情報処理装置、情報処理方法および記憶媒体 |
CN117506948A (zh) * | 2023-11-21 | 2024-02-06 | 南方科技大学 | 一种社交机器人及交互方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070270074A1 (en) * | 2005-01-18 | 2007-11-22 | Aochi Yuichi | Robot Toy |
US20110245974A1 (en) * | 2010-03-31 | 2011-10-06 | Sony Corporation | Robot device, method of controlling robot device, and program |
CN102609089A (zh) * | 2011-01-13 | 2012-07-25 | 微软公司 | 用于机器人和用户交互的多状态模型 |
EP2810748A1 (en) * | 2012-02-03 | 2014-12-10 | Nec Corporation | Communication draw-in system, communication draw-in method, and communication draw-in program |
CN105291088A (zh) * | 2014-06-02 | 2016-02-03 | 精工爱普生株式会社 | 机器人、机器人***以及控制方法 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002307354A (ja) | 2000-11-07 | 2002-10-23 | Sega Toys:Kk | 電子玩具 |
JP2003071761A (ja) | 2001-09-03 | 2003-03-12 | Sony Corp | ロボット並びにロボットのための表示装置 |
JP4481663B2 (ja) * | 2004-01-15 | 2010-06-16 | キヤノン株式会社 | 動作認識装置、動作認識方法、機器制御装置及びコンピュータプログラム |
JP2005279895A (ja) | 2004-03-30 | 2005-10-13 | Advanced Telecommunication Research Institute International | ロボット |
JP4247149B2 (ja) * | 2004-03-30 | 2009-04-02 | 株式会社国際電気通信基礎技術研究所 | ロボット |
US7626569B2 (en) * | 2004-10-25 | 2009-12-01 | Graphics Properties Holdings, Inc. | Movable audio/video communication interface system |
JP5186723B2 (ja) * | 2006-01-05 | 2013-04-24 | 株式会社国際電気通信基礎技術研究所 | コミュニケーションロボットシステムおよびコミュニケーションロボットの視線制御方法 |
JP5162852B2 (ja) * | 2006-07-18 | 2013-03-13 | 株式会社国際電気通信基礎技術研究所 | アンドロイド制御システム |
WO2008030542A2 (en) * | 2006-09-07 | 2008-03-13 | The Procter & Gamble Company | Methods for measuring emotive response and selection preference |
JP4728982B2 (ja) * | 2007-03-05 | 2011-07-20 | 株式会社東芝 | 利用者と対話する装置、方法およびプログラム |
JP4576445B2 (ja) * | 2007-04-12 | 2010-11-10 | パナソニック株式会社 | 自律移動型装置および自律移動型装置用プログラム |
US9400503B2 (en) * | 2010-05-20 | 2016-07-26 | Irobot Corporation | Mobile human interface robot |
US20160191995A1 (en) * | 2011-09-30 | 2016-06-30 | Affectiva, Inc. | Image analysis for attendance query evaluation |
JP2012239557A (ja) * | 2011-05-17 | 2012-12-10 | Shain:Kk | ロボット玩具 |
US8885882B1 (en) * | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
US9656392B2 (en) * | 2011-09-20 | 2017-05-23 | Disney Enterprises, Inc. | System for controlling robotic characters to enhance photographic results |
JP2013099800A (ja) | 2011-11-07 | 2013-05-23 | Fujitsu Ltd | ロボット、ロボットの制御方法及び制御プログラム |
KR102062310B1 (ko) * | 2013-01-04 | 2020-02-11 | 삼성전자주식회사 | 전자 장치에서 헤드 트래킹 기술을 이용하여 제어 서비스를 제공하기 위한 장치 및 방법 |
CA3187490A1 (en) * | 2013-03-15 | 2014-09-18 | Interaxon Inc. | Wearable computing apparatus and method |
KR20220136517A (ko) * | 2013-06-27 | 2022-10-07 | 아이사이트 모빌 테크놀로지 엘티디 | 디지털 디바이스와 상호작용을 위한 다이렉트 포인팅 검출 시스템 및 방법 |
US10366689B2 (en) | 2014-10-29 | 2019-07-30 | Kyocera Corporation | Communication robot |
JP6382772B2 (ja) * | 2015-06-01 | 2018-08-29 | 日本電信電話株式会社 | 視線誘導装置、視線誘導方法、および視線誘導プログラム |
JP6706473B2 (ja) * | 2015-09-14 | 2020-06-10 | 株式会社コーエーテクモゲームス | 情報処理装置、表示制御方法、及び表示制御プログラム |
US20180072226A1 (en) * | 2016-03-16 | 2018-03-15 | Jesse Clement Bunch | Extended perception system |
JP2018036993A (ja) * | 2016-09-02 | 2018-03-08 | オリンパス株式会社 | 表示システム、携帯情報機器、ウエラブル型端末、情報表示方法およびプログラム |
WO2018106242A1 (en) * | 2016-12-08 | 2018-06-14 | Perfect Vision Technology (Hk) Ltd. | Methods and systems for measuring human faces for fitting, selecting, and optimizing eyeglasses |
-
2017
- 2017-06-23 JP JP2017122873A patent/JP6572943B2/ja active Active
-
2018
- 2018-06-19 CN CN201810632789.0A patent/CN109108961A/zh active Pending
- 2018-06-22 US US16/016,325 patent/US11000952B2/en active Active
- 2018-06-22 EP EP18179360.5A patent/EP3456487A3/en not_active Withdrawn
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070270074A1 (en) * | 2005-01-18 | 2007-11-22 | Aochi Yuichi | Robot Toy |
US20110245974A1 (en) * | 2010-03-31 | 2011-10-06 | Sony Corporation | Robot device, method of controlling robot device, and program |
CN102609089A (zh) * | 2011-01-13 | 2012-07-25 | 微软公司 | 用于机器人和用户交互的多状态模型 |
EP2810748A1 (en) * | 2012-02-03 | 2014-12-10 | Nec Corporation | Communication draw-in system, communication draw-in method, and communication draw-in program |
CN105291088A (zh) * | 2014-06-02 | 2016-02-03 | 精工爱普生株式会社 | 机器人、机器人***以及控制方法 |
Also Published As
Publication number | Publication date |
---|---|
US11000952B2 (en) | 2021-05-11 |
JP6572943B2 (ja) | 2019-09-11 |
JP2019008510A (ja) | 2019-01-17 |
EP3456487A2 (en) | 2019-03-20 |
EP3456487A3 (en) | 2019-04-17 |
US20180370039A1 (en) | 2018-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109108961A (zh) | 机器人、机器人的控制方法以及存储介质 | |
EP1151779B1 (en) | Robot and action deciding method for robot | |
CN109108960A (zh) | 机器人、机器人的控制方法以及存储介质 | |
CN109955264B (zh) | 机器人、机器人控制***、机器人的控制方法以及记录介质 | |
JP7502520B2 (ja) | ロボット、ロボットの制御方法及びプログラム | |
US20200110968A1 (en) | Identification device, robot, identification method, and storage medium | |
US11780098B2 (en) | Robot, robot control method, and recording medium | |
CN107870588B (zh) | 机器人、故障诊断***、故障诊断方法以及记录介质 | |
JP2024009862A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR100517813B1 (ko) | Lcd의 눈을 가지는 봉제 인형 | |
CN114712862A (zh) | 虚拟宠物交互方法、电子设备及计算机可读存储介质 | |
JP2024050757A (ja) | 撮影システム、撮影方法、撮影プログラム、及びぬいぐるみ | |
JP7238796B2 (ja) | 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム | |
JP2005231012A (ja) | ロボット装置及びその制御方法 | |
WO2020166373A1 (ja) | 情報処理装置および情報処理方法 | |
WO2023037608A1 (ja) | 自律移動体、情報処理方法、及び、プログラム | |
WO2023037609A1 (ja) | 自律移動体、情報処理方法、及び、プログラム | |
JP2004066418A (ja) | 自律ロボット | |
JP2001157983A (ja) | ロボット装置及びロボット装置の性格判別方法 | |
JP7329457B2 (ja) | 着ぐるみ演出支援装置、着ぐるみ演出支援システムおよび着ぐるみ演出支援方法 | |
JP2003266350A (ja) | ロボット装置及び内部状態表出装置 | |
JP2003266364A (ja) | ロボット装置 | |
JP2024047370A (ja) | ロボット、ロボット制御方法及びプログラム | |
JP2024047372A (ja) | ロボット、ロボット制御方法及びプログラム | |
JP2024047376A (ja) | ロボット、ロボット制御方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190101 |
|
WD01 | Invention patent application deemed withdrawn after publication |