CN1416381A - 机器人设备、用于控制机器人设备运动的方法以及用于控制机器人设备运动的*** - Google Patents

机器人设备、用于控制机器人设备运动的方法以及用于控制机器人设备运动的*** Download PDF

Info

Publication number
CN1416381A
CN1416381A CN01806444A CN01806444A CN1416381A CN 1416381 A CN1416381 A CN 1416381A CN 01806444 A CN01806444 A CN 01806444A CN 01806444 A CN01806444 A CN 01806444A CN 1416381 A CN1416381 A CN 1416381A
Authority
CN
China
Prior art keywords
action
robot device
output
information
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN01806444A
Other languages
English (en)
Other versions
CN1309535C (zh
Inventor
佐部浩太郎
石井和夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN1416381A publication Critical patent/CN1416381A/zh
Application granted granted Critical
Publication of CN1309535C publication Critical patent/CN1309535C/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/28Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99951File or database maintenance
    • Y10S707/99952Coherency, e.g. same view to multiple users
    • Y10S707/99953Recoverability
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99951File or database maintenance
    • Y10S707/99952Coherency, e.g. same view to multiple users
    • Y10S707/99955Archiving or backup

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

一种主机器人设备在命令生成状态(ST2)下生成音阶命令,进入主机器人设备等待副机器人设备响应的响应等待状态(ST3)。当副机器人设备响应由主机器人设备生成的音阶命令而输出情感表达声音时,主机器人设备识别该情感表达声音,并且输出相同的情感表达声音。主机器人设备根据作为响应动作状态(ST4)下的响应计数的变量(NumResponse)值,选择动作(NumResponse),从而实现动作。

Description

机器人设备、用于控制机器人设备运动的方法 以及用于控制机器人设备运动的***
技术领域
本发明涉及一种机器人装置、用于控制机器人装置动作的动作控制方法以及用于控制多个机器人装置动作的动作控制***,特别涉及一种便于执行自动动作的机器人装置以及这种机器人装置的动作控制方法和动作控制***。
背景技术
最近,外表像动物如狗或猫的机器人装置已投向市场。在这些机器人装置中,存在一种响应外界信息或该机器人装置的内部状态而自动行动的装置。例如,该机器人装置设计为根据作为外界信息的用户命令、或者根据表示其内部状态的情感级别进行行动。
下面是响应表示机器人装置内部状态的情感级别而工作的机器人装置功能。
如图1的例子所示,机器人装置具有可变状态A到D,并且设计为在预设条件下或者在预设时刻在这些状态之间进行变换。状态A到D由相关状态下所采取的姿态或由装置执行的动作来定义。
例如,当机器人在状态A下处于‘气愤’时,它相应发出例如‘pi-ro-li-ro-li’的声音,并且当机器人在状态B下处于‘高兴’时,它相应发出‘pi-po-pa’的声音。
而且,通过机器人装置根据用户命令进行工作的功能,发生机器人装置与用户之间的交互。这些功能可以列举为例如对外界用户的接触作出反应的功能和根据外界命令进行行动的功能。
例如,通过向机器人装置提供检测其与外界的接触的触摸传感器,并且通过使用触摸传感器使机器人装置的动作响应对其的接触,实现机器人装置对外界如用户的接触作出反应的功能。触摸传感器例如可以安装在机器人装置的头部。
对于机器人装置根据外界命令进行工作的功能,可以使用如下技术。
例如,可以采用输出音阶(scale)命令作为外界命令的设备。音阶命令是指通过音阶声音使机器人装置表达预设动作的命令。机器人装置识别由外部控制设备输出的音阶命令,并且执行音阶命令对应的动作。输出该音阶命令的外部通信设备可以列举为例如声音命令器。同时,最近已开始建立采用音阶命令的装置控制***的技术。
通过作为外界信息的接触或者音阶命令,处于待命状态的机器人装置通过头部触摸传感器上的轻微触摸,检测到‘被轻拍’,或者通过触摸传感器上的强烈触摸,检测到‘被击打’,如图2所示。作为对其的反应,在检测到‘被轻拍’时,机器人装置发出‘pi-po-pa’声音来表示气愤,而在检测到‘被击打’时,机器人装置发出‘pi-ro-li-ro-li’声音来表示悲伤。如果使用音阶命令,例如音阶语言,机器人装置发出例如‘pi-ro-li’作为识别音阶命令对应的动作。
通过外界接触刺激或者音阶命令,影响机器人装置的动作,从而允许用户与机器人装置间的交互。
同时,传统机器人装置的动作仅根据它自己的情感或者用户给出的信息进行确定。如果多个机器人装置可以通过通信彼此进行交互,并且因此多个机器人装置可以相互作出反应并且进行工作,机器人装置的娱乐性将得以进一步的提高。
而且,如果希望多个机器人装置相互进行对话,可能会出现多个机器人装置不属于同一机器类型这种情况。例如,一个机器人装置可能是原始型号(original model)的装置,而另一个可能是一般型号(generic model)的产品,或者多个机器人装置可能由不同的制造商提供。在这种情况下,对于机器人装置彼此相互作出反应是困难的。
一般型号的机器人装置可能提供有原始型号机器人装置的功能。换句话说,在某些情况下,原始型号的机器人装置不提供一般型号机器人装置所拥有的功能。因此,在某些情况下,交互功能受限于具有同一机器类型的机器人装置。
然而,通过允许具有不同交互功能的多个机器人装置之间的交互,可以增强机器人装置的娱乐性。另外,可以这样说,各种机器人装置间的这种交互使得可以有效利用机器人装置的资源。
发明内容
鉴于本技术领域的上述现状,本发明的目的是提供一种可以与其它机器人装置进行对话的机器人装置、用于控制机器人装置动作的方法以及用于控制机器人装置的***。
为完成上述目的,根据本发明的机器人装置包括:动作部件;动作检测装置,用于检测包含在由另一机器人装置输出的动作中的信息;动作部件控制装置,用于根据由动作检测装置检测的信息,控制动作部件;以及测量装置,用于测量由动作部件输出的动作对应的其它机器人装置的反应次数。动作部件控制装置根据其它机器人装置的反应次数通过工作部件输出动作。
如上构造的机器人装置通过动作检测装置检测包含在由其它机器人装置输出的动作中的信息,并且通过动作部件控制装置控制动作部件,以输出一个动作。此时,动作部件控制装置控制动作部件,以响应由用于测量反应次数的装置测量的其它机器人装置的反应次数。这允许机器人装置响应其它机器人装置的动作进行行动。
为完成上述目的,根据本发明的机器人装置还包括:动作检测装置,用于检测包含在由另一机器人装置输出的动作中的信息;以及动作输出装置,用于输出由动作检测装置检测的信息对应的动作。
如上构造的机器人装置检测包含在由另一机器人装置输出的动作中的信息,以通过动作输出装置输出由动作检测装置检测的信息对应的动作。这允许机器人装置响应其它机器人装置的动作进行行动。
为完成上述目的,根据本发明的一种具有动作部件的机器人装置的动作控制方法包括:动作检测步骤,检测包含在由另一机器人装置输出的动作中的信息;动作部件控制步骤,根据由动作检测步骤检测的信息,控制动作部件;以及测量步骤,根据由动作部件输出的动作,测量其它机器人装置的反应次数。动作部件控制步骤根据其它机器人装置的反应次数通过工作部件输出动作。这允许机器人装置响应其它机器人装置的动作进行行动。
为完成上述目的,根据本发明的机器人装置动作控制方法包括:动作检测步骤,检测包含在由另一机器人装置输出的动作中的信息;以及动作输出步骤,使一个机器人装置输出由动作检测步骤检测的信息对应的动作。
为完成上述目的,根据本发明的机器人装置动作控制***包括多个机器人装置,该机器人装置包括:动作检测装置,用于检测包含在由对方机器人装置输出的动作中的信息;以及动作输出装置,用于输出由动作检测装置检测的信息对应的动作。
使用该机器人装置动作控制***,机器人装置通过动作检测装置检测包含在由对方机器人装置输出的动作中的信息,以通过动作输出装置输出由动作检测装置检测的信息对应的动作。该机器人装置动作控制***允许机器人装置响应其它机器人装置的动作进行行动。
为完成上述目的,根据本发明的机器人装置动作控制方法包括:动作输出步骤,当一个机器人装置处于预设状态时,一个机器人输出预设动作;以及响应动作输出步骤,其它机器人装置输出由那个机器人输出的预设动作对应的动作。该机器人装置动作控制方法允许机器人装置响应其它机器人装置的动作进行行动。
通过阅读如附图所示的本发明实施例,本发明的其它目的、特性和优点将会变得更加清楚。
附图简述
图1示出设计用于根据情感改变发音的传统机器人装置;
图2示出通过例如音阶命令控制其动作的传统机器人装置;
图3示出实施本发明的机器人装置外形的透视图;
图4示出机器人装置电路结构的方框图;
图5示出机器人装置软件结构的方框图;
图6示出机器人装置软件结构中的中间件层结构的方框图;
图7示出机器人装置软件结构中的应用层结构的方框图;
图8示出应用层行为模型库结构的方框图;
图9示出作为机器人装置行为决策信息的有限概率自动机;
图10示出为有限概率自动机的每个节点提供的状态变换表;
图11示出允许与具有不同对话功能的其它机器人装置进行对话的机器人装置;
图12示出在机器人装置上提供的音阶命令数据库的说明性结构;
图13示出能够通过相同对话功能进行对话的机器人装置;
图14示出在主机器人装置和接收机器人装置都处于高兴情况下的对话交换;
图15示出在主机器人装置处于气愤而接收机器人装置处于高兴情况下的对话交换;
图16示出在主机器人装置发出一个命令并且接收机器人装置响应该命令而进行工作的情况下的对话交换。
最佳实施方式
将参照附图对本发明的优选实施例进行详细说明。本实施例面向响应外界信息、周围环境(外因)或者内部状态(内因)而自动行动的自动机器人装置。
在本实施例中,首先对该机器人装置的结构进行说明,然后对本发明在该机器人装置中的应用部分进行详细的说明。
(1)本实施例的机器人装置结构
如图3所示,机器人装置就是模拟一个动物如‘狗’的所谓宠物机器人,并且分别由连接在躯干单元2左右边的前后方上的腿部单元3A、3B、3C和3D和连接到躯干单元2前后端的头部单元4和尾部单元5进行构成。
参照图4,躯干单元2包括控制器单元16,由通过内部总线15相互连接在一起的CPU(central processing unit,中央处理单元)10、DRAM(DynamicRandom Access Memory,动态随机存取存储器)11、闪存ROM(read-onlymemory,只读存储器)12、PC(personal computer,个人计算机)卡接口电路13和信号处理电路14,以及用作机器人装置1电源的电池17组成。躯干单元2还安装有用于检测机器人装置1姿态和运动加速的角速度传感器18和加速度传感器19。
在头部单元4上,在适当的位置上安装有用于对外界状态进行摄像的CCD(charge coupled device,电荷耦合器件)摄像机20、用于检测由于物理动作如用户的‘抚摸’或‘轻拍’而产生的压力的触摸传感器21、用于测量前方对象距离的距离传感器22、用于采集外部声音的麦克风23、用于输出声音如悲嗥的扬声器24以及相当于机器人装置1‘眼睛’的多个LED(light emittingdiode,发光二极管)。
腿部单元3A到3D的关节部分、腿部单元3A到3D与躯干单元2的连接部分、头部单元4与躯干单元2的连接部分以及尾部单元5的尾巴5A的连接部分提供有大量对应于自由度数目的调节器251到25n和电位计261到26n。例如,调节器251到25n包括伺服马达。通过驱动伺服马达来控制腿部单元3A到3D,以变换到目标姿态或运动。
传感器,如角速度传感器18、加速度传感器19、触摸传感器21、地面接触传感器23R/L、姿态传感器24、距离传感器25、麦克风26、距离传感器22、麦克风23、扬声器24和电位计251到25n通过相关集线器271到27n连接到控制器单元16的信号处理电路14,而CCD摄像机20和电池17直接连接到信号处理电路14。
信号处理电路14顺序捕获从上述各个传感器提供的传感器数据、图象数据或语音数据,以使数据通过内部总线15顺序存储在DRAM 11的预设位置中。另外,信号处理电路14顺序捕获表示从电池17提供的剩余电池电量的剩余电池电量数据,以将如此捕获的数据存储在DRAM 11的预设位置中。
随后当CPU 10执行机器人装置1的动作控制时,使用如此存储在DRAM11中的各个传感器数据、图象数据、语音数据和剩余电池电量数据。
实际上,在机器人装置1的初始加电阶段,CPU 10直接或通过PC卡接口电路13,读出插在躯干单元2的PC卡插槽(未示出)中的存储器卡28或者存储在闪存ROM 12中的控制程序,以在DRAM 11中进行存储。
然后CPU 10根据从信号处理电路14顺序存储到DRAM 11的传感器数据、图象数据、语音数据或剩余电池电量数据,检查它自己的状态和周围状态以及可能出现的用户命令或动作。
CPU 10还根据检查结果和存储在DRAM 11中的控制程序,确定下一后续动作,同时根据所确定的结果,在必要时驱动调节器251到25n,以产生行为,如上下或左右摆动头部单元4或者移动腿部单元3A到3D进行行走或跳跃。
CPU 10在必要时生成语音数据,并且通过信号处理电路14将所生成的数据作为语音信号发送到扬声器24,以将从语音信号得来的语音输出到外界或者打开/关闭或闪烁多个LED。
采用这种方式,本机器人装置1能够自动行动,以响应它自己的状态和周围状态,或者用户的命令或动作。
(2)控制程序的软件结构
图5示出机器人装置1中上述控制程序的软件结构。图5中,设备驱动程序层30位于控制程序的最低层,并且形成为由多个设备驱动程序构成的设备驱动程序集31。每个设备驱动程序是一个允许直接访问在常规计算机中使用的硬件如CCD摄像机20(图4)或计时器,并且执行处理以响应相关硬件中断的对象。
机器人服务器对象32由如下部件组成:虚拟机器人33;电源管理器34,包括一组负责开关电源的软件项;设备驱动程序管理器35,包括一组管理各种其它设备驱动程序的软件项;以及设计机器人36,包括一组管理机器人装置1的机构的软件项。虚拟机器人33,位于设备驱动程序层30的最低层,包括一组提供用于访问硬件项(包括上述各种传感器和调节器251到25n))接口的软件项。
管理器对象37由对象管理器38和服务管理器39构成。对象管理器38是一组软件项,用于管理包括在机器人服务器对象32、中间件层40和应用层41中的各个软件项的引导和结束,而服务管理器39是一组软件项,用于根据存储在存储器卡28(图4)中的连接文件所表述的各个对象间的连接信息管理各个对象的连接。
中间件层40位于机器人服务器对象32的高层,并且由一组提供机器人装置1基本功能如图象处理或语音处理的软件项构成。应用层41位于中间件层40的高层,并且是一组用于根据构成中间件层40的软件项的处理结果决定机器人装置1行为的软件项。
图6和图7示出中间件层40和应用层41的特定软件结构。
参照图6,中间件层40包括:识别***60,具有信号处理模块50到58以及输入语义转换器模块59,其中信号处理模块50到58分别用于噪声、温度或亮度检测、音阶识别、距离或姿态检测,用于触摸传感器,用于运动检测以及用于颜色识别;和输出***69,具有输出语义转换器模块68以及信号处理模块61到67,其中信号处理模块61到67分别用于姿态管理、跟踪、运动再现、行走、从跌倒状态恢复、LED发光以及用于声音再现。
识别***60的信号处理模块50到58从由机器人服务器对象32的虚拟机器人33从DRAM 11(图4)读出的传感器数据、图象数据和语音数据中捕获相关数据,以对数据进行处理并且将处理结果发送到输入语义转换器模块59。注意,虚拟机器人33构造为,用于根据预设通信协议对信号进行交换或转换的组件。
输入语义转换器模块59识别自己的状态、周围状态、用户命令或动作,如“烦恼”、“闷热”、“光”、“检测到一个球”、“检测到跌倒”、“被抚摸”、“被轻拍”、“听到do-mi-so(多-米-索)音阶”、“检测到一个运动对象”或“检测到一个障碍”,以将识别结果输出到应用层41(图5)。
如图7所示,应用层41由五个模块构成,即行为模型库70、行为开关模块71、学习模块72、情感模型73和本能模型74。
如图8所示,在行为模型库70中,提供有与多个预选条件项,如‘剩余电池电量少’、‘从跌倒状态恢复’、‘规避障碍’、‘表达情感’或‘检测到一个球’相关联的各个独立行为模型701到70n
当从输入语义转换器模块59提供识别结果,或者从提供最后一次识别结果的时间开始超过预设时间时,行为模型701到70n参考由情感模型73保存的情感参数值和由本能模型74保存的相应欲望参数值,决定下一行为,以将决定结果发送到行为开关模块71。
在本实施例中,行为模型701到70n使用称作有限概率自动机的算法作为决定下一行为的技术。该算法根据为相互连接各个节点NODE0到NODEn的弧ARC1到ARCn设置的变换概率值P1到Pn,从概率上确定从节点NODE0到NODEn中的哪个节点(状态)变换到这些节点NODE0到NODEn中的哪个节点。
具体地说,针对每个节点NODE0到NODEn,每个行为模型701到70n包括图10所示的状态变换表80,形成与这些节点NODE0到NODEn相关联的各自行为模型701到70n
在状态变换表80中,作为节点NODE0到NODEn中变换条件的输入事件(识别结果)以优先级次序列在‘输入事件名称’列中,并且用于变换条件的进一步条件在‘数据名称’和‘数据范围’列的相关行中进行表述。
因此,在图10的状态变换表80所示的节点NODE100中,‘检测到球’(BALL)识别结果、与识别结果一起给出的球大小(SIZE)为‘0到1000’表示用于变换到另一节点的条件。类似地,‘检测到一个障碍(OBSTACLE)’识别结果、与识别结果一起给出的障碍距离(DISTANCE)的范围为‘0到100’表示用于变换到另一节点的条件。
另外,在当前节点NODE100中,如果没有输入任何识别结果,但是周期性地由行为模型701到70n进行参考的参数值中,保存在情感模型73中的各个情感和欲望参数值中的参数值‘快乐’(JOY)、‘惊奇’(SURPRISE)或‘悲伤’(SADNESS)中的任何一个在‘50至100’的范围内,也可以变换到另一节点。
而且,在状态变换表80中,可以从节点NODE0到NODEn进行变换的目标节点名称在‘到其它节点的变换概率’列的‘变换目标节点’行中示出。另外,当满足在‘输入事件名称’、‘数据名称’和‘数据范围’列中表述的所有条件时,可以变换到其它节点NODE0到NODEn的变换概率输入在‘到其它节点的变换概率’列的相应位置中。在变换到节点NODE0到NODEn的时候要输出的行为在‘到其它节点的变换概率’列的‘输出行为’行中表示。同时,在‘到其它节点的变换概率’列中,每一行的概率值总和为100%。
因此,在由图10的状态变换表80表示的节点NODE100中,如果识别结果为‘检测到球’并且球的大小(SIZE)在‘0至1000’的范围内,可以变换到‘节点NODE120(节点120)’的概率为30%,并且然后输出“动作1”行为。
在每个行为模型701到70n中,每个均表述为该状态变换表80的多个节点NODE0到NODEn集合串联在一起,从而根据来自输入语义转换器模块59的识别结果,通过使用节点NODE0到NODEn的状态变换表从概率上确定下一行为,并且将决定结果输出到行为开关模块71。
图7所示的行为开关模块71将一个命令发送到中间件层40的输出语义转换器模块68,以从行为模型库70的各个行为模型701到70n输出的行为中选择具有预设高优先级的从行为模型701到70n的其中之一输出的行为,并且执行该行为。该命令下面称作行为命令。在本实施例中,图8所示的行为模型701到70n优先级次序如下给出:行为模型在图8中的排位越低,它的优先级就越高。
行为开关模块71在行为结束之后根据从输出语义转换器模块68提供的行为完成信息,向学习模块72、情感模型73和本能模型74通知行为完成这一结果。
学习模块72从输入语义转换器模块59提供的识别结果中,输入作为用户动作如‘轻拍’或‘抚摸’接收的指令识别结果。
学习模块72根据识别结果和来自行为开关模块71的通知修改行为模型库70中行为模型701到70n的变换概率,从而当动作为‘轻拍’(‘斥责’)或‘抚摸’(‘表扬’)时,当前行为的出现概率将分别增大或减小。
另一方面,情感模型73保存表示六种情感类型中每种情感强度的参数,这六种情感类型为快乐(JOY)、悲伤(SADNESS)、气愤(ANGER)、惊奇(SURPRISE)、厌恶(DISGUST)和恐惧(FEAR)。情感模型73根据由输入语义转换器模块59提供的特定识别结果如‘轻拍’或‘抚摸’、所过去的时间以及来自行为开关模块71的通知,周期性地更新这些情感类型的参数值。
具体地说,情感模型73根据下面方程(1)计算下一周期的当前情感类型参数值E[t+1]:
E[t+1]=E[t]+ke×ΔE[t]
                                                         …(1)其中,ΔE[t]是根据例如由输入语义转换器模块59提供的识别结果、在相关时间的机器人装置1行为、或者从前一更新事件开始过去的时间,通过预设方程计算得出的情感类型变化量,E[t]是情感类型的当前参数值,并且ke是表示情感类型敏感度的系数。情感模型73将情感类型的当前参数值E[t]替换为所计算的值,以更新情感类型的参数值。采用类似的方式,情感模型73更新全部情感类型的参数值。
预先确定各个识别结果和来自输出语义转换器模块68的通知将对各个情感类型的参数值变化ΔE[t]具有什么影响,从而‘被轻拍’识别结果将大大影响‘气愤’情感类型参数值的变化量ΔE[t],同时‘被轻拍’识别结果将大大影响‘快乐’情感类型参数值的变化量ΔE[t]。
来自输出语义转换器模块68的通知是所谓的行为反馈信息(行为结束信息)和有关行为出现结果的信息。情感模型73还根据该信息改变情感。例如,通过‘吠叫’可以降低气愤的情感级别。同时,来自输出语义转换器模块68的通知还输入到学习模块72,然后学习模块72根据该通知修改行为模型701到70n的相应变换概率。
同时,可以通过行为开关模块71的输出(带情感的行为)作出行为结果的反馈。
另一方面,本能模型74保存表示四种相互独立欲望强度的参数,这四种欲望为‘锻炼欲’、‘喜爱欲’、‘食欲’和‘好奇心’。本能模型74根据从输入语义转换器模块59提供的识别结果、所过去的时间以及来自行为开关模块71的通知,周期性地更新这些欲望的参数值。
具体地说,对于‘锻炼欲’、‘喜爱欲’、和‘好奇心’,本能模型74在预设周期,根据下面方程(2)计算下一周期的这些欲望参数值I[k+1]:
I[k+1]=I[k]+ki×ΔI[k]
                                                              …(2)其中,ΔI[k]是根据识别结果、所过去的时间和输出语义转换器模块68的通知通过预设方程计算得出的在相关时间的当前欲望变化量,I[k]是欲望的当前参数值,并且ki是表示当前欲望敏感度的系数,并且将当前参数值I[k]替换为所计算的值,以更新该欲望参数值。本能模型74更新除‘食欲’之外的各个欲望参数值。
预先确定识别结果和来自输出语义转换器模块68的通知对各个欲望参数值变化量ΔI[k]的影响,从而例如,来自输出语义转换器模块68的通知大大影响‘疲劳’参数值的变化量ΔI[k]。
在本实施例中,各个情感类型和各个欲望(本能)的参数在0至100的范围内进行变化,同时还为各个情感类型和各个欲望单独设置系数值ke和ki。
如图6所示,中间件层40的输出语义转换器模块68将如上所述由应用层41的行为开关模块71提供的抽象行为命令,如‘向前走’、‘快乐’、‘哭泣’和‘跟踪(追球)’发送到输出***69的信号处理模块61到67。
给定一个行为命令,信号处理模块61到67根据该行为命令,生成要提供给相关调节器251到25n(图4)用来执行行为的伺服命令值,要从扬声器24(图4)输出的声音语音数据和/或要提供给‘眼睛’LED的驱动数据,并且按照该次序通过机器人服务器对象32的虚拟机器人33和信号处理电路14(图4)将这些数据发送到相关调节器251到25n、扬声器24或LED。
因此,机器人装置1能够根据控制程序执行自动行为,以响应它自己的内部状态、周围状态(外部状态)或者来自用户的命令或动作。
在下面说明中,首先对机器人装置的结构进行说明,然后对本发明的相关部分进行说明。
(3)通过应用本发明而实现的结构
通过应用本发明,具有上述结构的机器人装置能够响应另一机器人装置的动作而进行工作。这使得多个机器人装置可以相互进行对话。而且,该机器人装置可以与具有不同对话功能的另一机器人装置进行对话。首先,对根据本发明能够与具有不同对话功能的机器人装置进行对话的本发明机器人装置进行说明,随后对能够进行基于相同对话功能的对话的本发明机器人装置进行说明。
(3-1)与具有不同对话功能的机器人装置进行对话的机器人装置
本发明的机器人装置能够与具有不同对话功能的另一机器人装置进行对话。
具有不同对话功能的机器人装置例如是不同机器类型的机器人装置、从不同制造商提供的机器人装置以及由同一制造商生产但是类型号码或型号不同的机器人装置。在本实施例中,假定与具有通过音阶命令进行控制的对话功能的其它机器人装置进行对话,作出说明。在这种情况下,作为对话对方的其它机器人装置在其待命状态下,当识别出由音阶声音组成的音阶命令时,发出例如‘pi-ro-lin’作为预设动作。
通过本发明的本实施例机器人装置,它具有这种音阶命令输出功能,并且例如通过同步动作对其它机器人装置的动作作出反应,并且通过音阶命令控制它的动作,用户能够欣赏机器人装置间的反应动作,作为机器人装置的对话。
本发明的机器人装置以在下面说明中将要阐明的方式实现与其它机器人装置的对话。在本说明中,本实施例的机器人装置称作主机器人装置,并且具有与主机器人装置不同对话功能的机器人装置称作副机器人装置。
主机器人装置包括:动作检测装置,用于检测包含在由作为其它机器人装置的副机器人装置输出的动作中的信息;以及动作输出装置,用于输出由动作检测装置检测的信息对应的动作。具体地说,主机器人装置包括如上所述的CPU 10。具体地说,CPU 10将上述装置实现为具有如下功能:动作检测功能,检测包含在由副机器人装置输出的动作中的信息;以及动作输出功能,输出由动作检测装置检测的信息对应的动作。也就是,CPU 10通过各种信号处理模块实现上述功能。
主机器人装置还包括用于与副机器人装置交换信息的通信装置。在此的信息是通过音阶声音来交换的信息。因此,通信装置通过扬声器24实现信息发送/接收。该信息也是表示动作意义的意义信息。例如,该信息可以是表示动作本身或包含在动作中的情感的意义信息。
具有上述结构的主机器人装置通过一系列处理动作如所谓的对话模式,实现与副机器人装置的对话功能。具体地说,主机器人装置通过图8所示的行为模型之一,例如对话行为模型,实现对话功能。
具有这种功能的主机器人装置识别‘情感表达声音’,如‘pi-ro-lin’,这是副机器人装置在如图11所示的空闲状态ST1下发出的声音信号。这时,主机器人装置检测副机器人装置的存在,从而获悉副机器人装置处在附近的位置。该识别表示主机器人装置处于准备开始或发起对话功能的预设条件和预设状态下(例如,对话行为模型)。
空闲状态ST1是主机器人装置自动行动的状态,也就是机器人装置根据外部环境或响应其自己的情感状态而自动行动的状态。
当识别出由副机器人装置发出的情感表达声音时,主机器人装置使副机器人装置变换到‘坐下’姿态。需要说明的是,主机器人装置不一定非要使副机器人装置变换到‘坐下’姿态,而可以使副机器人装置变换到其它姿态或者继续它的自动行为。
主机器人装置然后变到命令产生状态ST2,以产生由音阶声音组成的音阶命令。例如,主机器人装置随机生成音阶命令。
具体地说,主机器人装置包括由各种音阶命令组成的数据库。需要说明的是,各种音阶命令与要由副机器人装置执行的各个不同动作内容相关联,并且这些音阶声音对应于声音名称的不同组合。形成主机器人装置数据库的音阶命令是所谓声音命令器的音阶命令,以控制例如副机器人装置。
例如,主机器人装置包括由音阶命令的音阶声音模式和命令内容构成的数据库,如图12所示。命令内容是动作内容,如由副机器人装置在识别出相应音阶模式时执行的发音动作。同时,通过音阶命令实现的命令不限于发音命令,而是可以包括例如姿态变换命令。
主机器人装置采用这种方式所拥有的音阶命令可以在生产时进行登记,也可以在以后进行重新登记或更新。主机器人装置随机选择例如数据库中的音阶命令,并且输出所选择的音阶命令。
主机器人装置还可以输出与动作相关联的音阶命令。通常,音阶命令保持为用于控制机器人装置的信号模式,并且以对机器人装置有意义的方式进行处理。然而,对于人而言,这些命令是没有意义的。因此,通过使主机器人装置输出与音阶命令相关联的动作,用户能够理解音阶命令的意义。
在输出音阶命令的时候,主机器人装置进入等待副机器人装置反应的状态ST3。主机器人装置在预设时间内保持它的反应等待状态ST3。
当识别出由主机器人装置发出的音阶命令时,副机器人装置根据音阶命令输出情感表达声音。然而,副机器人装置是否必定响应音阶命令是不能确定的。原因是副机器人装置可能已通过它自己的自动行为移到某远处,或者由于例如环境噪音不能检测到音阶命令。为了解决这一问题,主机器人装置提供各种动作来响应副机器人装置的反应。
当副机器人装置已输出情感表达声音以响应由主机器人装置发出的音阶命令时,主机器人装置识别出该情感表达声音,并且输出相同的情感表达声音。例如,主机器人装置读出并输出副机器人装置的情感表达声音,该情感表达声音从一开始就由主机器人装置保存在数据库中。
用户能够欣赏在主机器人装置与辅机器人装置之间所执行的动作,作为这些机器人装置间的对话。
当识别出情感表达声音(音阶反应声音)时,主机器人装置对变量NumResponse加1,同时将变量NumTimup设为0。需要说明的是,变量NumResponse是表示副机器人装置反应次数的变量。当进入对话功能处理或模式时,该变量NumResponse设为初始值0。另一方面,变量NumTimup是表示副机器人装置不能对主机器人装置发出的音阶命令作出反应的次数。该值在下面称作无反应次数。例如,根据在预设时间范围内没有出现副机器人装置的反应,确定副机器人装置不能对命令作出反应。当进入对话功能处理或模式时,该变量NumTimup也设为初始值0。
副机器人装置的情感识别是通过提供显示音阶反应声音和对应情感的表并且对所检测的音阶反应声音参考该表来实现的。不提供这种表也是可能的,在这种情况下,根据对音阶反应的检测声音进行基音、功率等的分析,对情感进行识别。
当副机器人装置1已作出反应时,主机器人装置执行预设动作作为下一反应动作。
主机器人装置根据上述NumResponse的值执行动作。主机器人装置使用该变量NumResponse作为决定动作的变量。具体地说,主机器人装置具有各种动作,如动作(1)、动作(2)、动作(3)...,并且通过动作(NumResponse)确定其中之一作为副机器人装置的动作。
变量NumResponse表示由主机器人装置识别出的副机器人装置反应次数。因此,该数越大,副机器人装置的反应次数就越多。大体上,如在交谈或对话的情况下,对于别人表达高兴的动作,反应一般都是给他或她高兴的表情。基于这种考虑,动作(1)、动作(2)、动作(3)...这些动作定义为表示‘高兴’的动作以这一次序逐渐加强这种方式。
在反应动作状态ST4下,主机器人装置根据当前变量NumResponse,从如上定义的动作中选择动作(NumResponse),以执行动作。也就是,如果变量NumResponse为1到5,主机器人装置使得执行相应动作(NumResponse),再次变到命令发出状态ST2,以随机选择音阶命令来输出所选的音阶命令。在反应等待状态ST3下,主机器人装置等待副机器人装置的反应。作为例子,如果副机器人装置作出反应,主机器人装置使得再次执行预设动作,以响应副机器人装置的反应动作,将变量NumResponse加1。主机器人装置然后执行表示更高兴的动作,以响应已加1的变量NumResponse。
当变量NumResponse超过5时,主机器人装置执行动作‘万岁’(‘好哇’)作为动作(6),然后返回到空闲状态ST1。也就是,主机器人装置完成与副机器人装置进行对话的处理或模式,然后返回到自动行为模式。
因此,主机器人装置响应副机器人装置的反应,根据反应次数执行可变动作。用户能够欣赏在主机器人装置与副机器人装置之间所交换的动作,作为机器人装置间的对话。
需要说明的是,主机器人装置表示‘高兴’的动作随着副机器人装置的反应次数的增加,变得更加强烈。对此,我们可以称之为“动作调整”。
如果在反应等待状态ST3的预设时间范围内不能识别出副机器人装置的反应,主机器人装置执行表示‘悲伤’的动作。机器人装置还将表示无反应次数的变量NumTimup加1。没有副机器人装置的反应的情况可能是这样的情况:副机器人装置已通过它自己的自动行为移到某远处,或者副机器人装置由于例如环境噪音不能检测到音阶命令。
同时,甚至当副机器人装置不能作出反应时,主机器人装置也表达表示‘悲伤’的动作。可以这样说,在这种情况下,主机器人装置识别出副机器人装置不能作出反应动作。
在不能得到副机器人装置的反应时,主机器人装置执行前述动作,并且再次在命令发出状态ST2下随机选择音阶命令,输出所选的音阶命令,然后再次在反应等待状态ST3下等待副机器人装置的反应。如果在该反应等待状态ST3下,主机器人装置在预设次数内最终都不能识别副机器人装置的反应,也就是,如果无反应次数已达到预设值,它执行更悲伤的动作。在本例中,当在四次内最终都不能识别副机器人装置的反应时,也就是,如果表示无反应次数的变量NumTimup超过3,主机器人装置执行表示‘更悲伤’的动作,然后返回到空闲状态ST1。
因此,在不能得到副机器人装置的反应时,主机器人装置根据无反应次数执行可变动作,从而用户能够欣赏在主机器人装置与副机器人装置之间所交换的动作,作为机器人装置间的对话。
同时,在本实施例中,要从前述反应等待状态ST3执行‘更悲伤’的动作的情况是在主机器人装置多次变回的反应等待状态ST3下最终都没有检测到副机器人装置的反应这一情况。这是因为当在反应等待状态ST3下副机器人装置已作出响应时,将表示无反应次数的变量NumTimup初始化为0。如果,在不能得到副机器人装置对主机器人装置动作的反应时,副机器人装置对主机器人装置的随后动作作出反应,主机器人装置执行‘高兴’动作,并且将表示无反应次数的变量NumTimup初始化为0。
当然,上述处理不是限制性的。例如,可以对无反应次数进行连续计数,而不将变量NumTimup初始化为0来响应副机器人装置的反应,也就是,不依赖于是否已作出反应。
因此,主机器人装置能够根据副机器人装置对主机器人装置动作的反应动作(包括无反应动作)以及无反应次数,执行各种动作。这使得用户欣赏机器人装置间的反应动作,作为机器人装置间的对话,成为可能。
主机器人装置通过控制原始型号或由其它制造商生产的机器人装置(使用外部控制命令如音阶命令控制其动作)与它自己的动作保持同步来实现这种对话。因此,用户能够欣赏同一制造商的不同型号机器人装置间或者不同制造商的机器人装置间的反应动作,作为机器人装置间的对话。
(3-2)进行基于相同对话功能的对话的机器人装置
下面将对本发明的根据两个机器人装置间的对话功能所进行的对话进行说明。在此说明的每个装置具有相同的对话功能,这使得两个机器人装置可以相互进行对话。
每个机器人装置包括:动作检测装置,用于检测包含在由对方机器人装置输出的动作中的信息;以及动作输出装置,用于输出由动作检测装置检测的信息对应的动作。具体地说,主机器人装置通过它的CPU实现如下功能:动作检测功能,检测包含在由对方机器人装置输出的动作中的信息;以及动作输出功能,输出由动作检测装置检测的信息对应的动作。也就是,CPU 10通过各种信号处理模块实现这些功能。
两个机器人装置都构造为当处于预设状态时输出预设动作。因此,当处于预设状态时,一个机器人装置通过动作输出功能输出预设动作,另一机器人装置输出由前述机器人装置输出的动作对应的动作。
这两个机器人装置具有彼此类似的结构,以实现与对方机器人装置的对话。下面将参照图13对这两个机器人装置间的对话进行说明。
这两个机器人装置都处于空闲状态ST11、ST21,如图13所示。当处于预设状态时,一个机器人装置执行它的动作,从而开始这两个机器人装置间的对话。其中,处于预设状态下的机器人装置表示例如机器人装置具有情感概率或级别特定值,或者机器人装置识别出其它机器人装置的存在。情感级别是上述情感的参数值。通过以预设采样间距进行监测,可以检测机器人装置是否处于该预设状态。如果在该采样时刻不能检测到预设状态,主机器人装置可以认为这种状态超时,从而返回到空闲状态ST11。在预设状态下并且首先执行对话动作的机器人装置称作‘主机器人装置’,另一机器人装置则称作‘接收机器人装置’。
当处于预设状态时,每个机器人装置都输出预设动作。因此,根据处于预设状态的时刻,‘另一机器人装置’可以是主机器人装置,剩下的机器人装置则为接收机器人装置。也就是,每个机器人装置根据情况都可以变为‘主机器人装置’或‘接收机器人装置’。
首先在预设状态下开始或发起对话功能从而成为主机器人装置的机器人装置发出‘Yahhoo!’和‘音阶声音(1)’作为动作ST12。需要说明的是,‘Yahhoo!’是作为语言的发音,而‘音阶声音(1)’是音阶声音,如‘pi-po-paa’,只是一个声音序列。在下面说明中,以音阶声音(2)、(3)和(4)...作为音阶声音的例子。其中每一个都具有不同的音阶模式。音阶声音(2)、(3)和(4)...代表在现有技术中作为音阶命令进行建立的技术。
同时,输出与如‘Yahhoo!’的发音相关联的音阶声音,在这种情况下,作为对话对方的接收机器人装置不能识别语言‘Yahhoo!’发音动作的意义。因此,如果机器人装置能够识别该动作的意义,那么音阶声音就没有必要。也就是,当对方装置不能理解该动作的意义时,即当发音动作是长文本时,与动作一起同时输出音阶声音。在这种情况下,音阶声音用作机器人装置间的有效对话手段。
接收机器人装置识别主机器人装置的这种发音,以从空闲状态ST21变到反应动作ST22。也就是,接收机器人装置以主机器人装置的发音作为触发,启动它的对话功能。
接收机器人装置发出‘Yahhoo!’和‘音阶声音(2)作为反应动作ST22。接收机器人装置通过由主机器人装置发出的‘Yahhoo!’和‘音阶声音(1)’中的‘音阶声音(1)’,识别主机器人装置的发音。
如上所述,音阶声音是已经建立为控制机器人装置中音阶命令的技术。通过应用如此建立的音阶识别***,机器人装置1通过音阶声音的音阶声音模式,准确地识别命令。
主机器人装置识别接收机器人装置的‘音阶声音(2)’发音,并且发出‘高兴’和‘声音(3)’作为它的反应动作ST13。重复对对方动作的反应动作,同时反应动作内容发生改变。
也就是,接收机器人装置识别主机器人装置的‘音阶声音(3)’发音,并且发出‘冷静’和‘音阶声音(4)’作为反应动作ST23。其中,‘冷静’是表示例如‘要冷静’内容的发音。主机器人装置识别‘音阶声音(4)’发音,并且发出‘高兴!’和‘音阶声音(5)’作为它的反应动作ST14。其中,‘高兴!’只是‘高兴’的强化表达。接收机器人装置识别主机器人装置的‘音阶声音(5)’的发音,并且发出‘高兴’和‘音阶声音(6)’作为它的反应动作ST24。主机器人装置然后识别接收机器人装置的‘音阶声音(6)’发音,并且发出‘满意’作为对话动作的最后动作。与此保持一致,接收机器人装置类似地发出‘满意’,与主机器人装置的发音保持同时性。
采用这种方式,充当主机器人装置和接收机器人装置的两个机器人装置能够对对方的动作作出反应,从而用户能够欣赏机器人装置间的反应动作,作为机器人装置间的对话。
如上所述,通过采用现有技术的音阶声音识别***,可以识别对方的动作。当然,这不是限制性的,一个机器人装置也可以直接识别由机器人装置发出的有意义的语言,如‘Yahhoo!’以采取反应动作,从而用户能够认为机器人装置的对话是更现实的对话。
在预设时间内不能得到对方机器人装置的反应,该状态可以认为处于超时状态,再次返回到空闲状态。
在图14到16中,按时间发生顺序表示通过上述对话功能实现的机器人装置(主机器人装置和接收机器人装置)之间的反应动作。
图14示出在主机器人装置和接收机器人装置都处于高兴情况下的对话交换,图15示出在主机器人装置处于气愤并且接收机器人装置遭到斥责情况下的对话交换,并且图16示出在主机器人装置发出一个命令并且接收机器人装置对该命令进行响应的情况下的对话交换。这些可变对话功能可以实现为行为模型。
具体地说,当主机器人装置发出‘Yahhoo!’时,接收机器人装置发出‘Yahhoo!’作为反应动作。其中,如果可能相对容易地理解这种发音,则不需要输出音阶声音。也就是,如果能够容易地识别如‘Yahhoo!’的发音,那么主机器人装置只发出‘Yahhoo!’,而无需输出相应的音阶声音,对方机器人装置然后识别该‘Yahhoo!’。
主机器人装置对接收机器人装置的‘Yahhoo!’发音进行响应,发出‘高兴’和‘音阶声音(音阶命令)’,同时接收机器人装置对主机器人装置的‘高兴’和‘音阶声音’发音进行响应,发出‘冷静’和‘音阶声音’。主机器人装置再次对接收机器人装置的‘高兴’和‘音阶声音’发音进行响应,识别‘音阶声音’发音并且发出‘高兴’和‘音阶声音’。接收机器人装置对主机器人装置的‘高兴!’和‘音阶声音’发音进行响应,识别‘音阶声音’发音并且发出‘高兴’和‘音阶声音’。主机器人装置对接收机器人装置的‘高兴’和‘音阶声音’发音进行响应,发出‘舒适’作为对话的最后动作,同时接收机器人装置与之保持同时性发出‘舒适’作为对话的最后动作。
图15示出在主机器人装置处于气愤并且接收机器人装置遭到斥责情况下的交换。在这种情况下,当主机器人装置发出‘Yahhoo!’时,接收机器人装置发出‘Yahhoo!’作为反应动作。主机器人装置对接收机器人装置的‘Yahhoo!’发音进行响应,发出‘气愤’和‘音阶声音(音阶命令)’,同时接收机器人装置对主机器人装置的‘气愤’和‘音阶声音’发音进行响应,识别‘音阶声音’发音并且发出‘冷静’和‘音阶声音’。主机器人装置对接收机器人装置的‘冷静’和‘音阶声音’发音进行响应,识别‘音阶声音’发音并且发出‘气愤’和‘音阶声音’。接收机器人装置对主机器人装置的‘气愤’和‘音阶声音’发音进行响应,识别‘音阶声音’发音并且发出‘悲伤’和‘音阶声音’。主机器人装置对‘悲伤’和‘音阶声音’发音进行响应,发出‘气愤’作为对话的最后动作。与之保持同时性,接收机器人装置发出‘悲伤’作为对话的最终动作。
对于图16所示的在主机器人装置发出一个命令并且接收机器人装置对其进行响应情况下的交换,主机器人装置首先发出‘Yahhoo!’,同时接收机器人装置对其进行响应,并且发出‘Yahhoo!’。主机器人装置抬起他或她的右手(右前肢),并且发出‘音阶声音(音阶命令)’,以响应接收机器人装置的发音‘Yahhoo!’,同时接收机器人装置对主机器人装置的抬起他或她的右手(右前肢)动作和‘音阶声音(音阶命令)’发音进行响应,识别‘音阶’发音并且执行右转他或她身体的动作。
虽然接收机器人装置能够通过音阶声音向主机器人装置通知动作的结束,但是主机器人装置也可以执行时间管理,以检测接收方动作的结束。例如,主机器人装置可以保存右转接收机器人装置身体的执行时间,测量自从抬起右手或发出音阶声音开始过去的时间,并且将测量时间与它所保存的右转执行时间进行比较,以掌握实际正在进行的接收机器人装置右转躯干动作的结束。
在检测到接收机器人装置右转动作结束之后,主机器人装置执行抬起左手(左前肢)的动作,同时发出‘音阶声音(音阶命令)’。接收机器人装置对主机器人装置的抬起左手(左前肢)动作和‘音阶声音(音阶命令)’进行响应,识别‘音阶声音’发音,并且执行左转其躯干的动作。主机器人装置然后自从抬起左手或发出音阶声音开始过去的时间,并且将其与它所保存的左转执行时间进行比较,以获悉实际正在执行的左转接收机器人装置动作的结束。
在检测到接收机器人装置左转动作结束之后,主机器人装置执行抬起双手(两个前肢)的动作,同时发出‘音阶声音(音阶命令)’。接收机器人装置对主机器人装置的抬起双手(两个前肢)动作和发音(音阶命令)进行响应,识别‘音阶声音’发音,并且执行向前移动的动作。
采用这种方式,在主机器人装置发出一个命令并且接收机器人装置对其进行响应的情况下进行交换。
如前面参照图14到16的说明,机器人装置能够实现与对方机器人的各种对话。
在上述实施例中,通过音阶声音发生机器人装置间的通信。然而,这不是限制性的,例如,可以通过红外线在机器人装置之间发送或接收信息。
同样,在上述实施例中,主要是根据声音输出或发音动作进行机器人装置动作的对话。这也不是限制性的,也可以通过驱动可移动部件如前后肢进行对话。在这种情况下,机器人装置通过图象识别装置如CCD摄像机20识别对方的动作。如果识别机器人装置的运动仍然相当困难,可以与机器人装置的运动保持一致输出例如音阶声音,以允许通过音阶声音识别运动动作的意义,从而实现机器人装置间的可靠对话。
如果机器人装置自动生成的发音句子难以理解,通过同时输出作为音阶声音的内容信息,对方机器人装置能够可靠地遵循该复杂文本进行行动。
工业可应用性
如上所述,根据本发明,机器人装置能够通过动作检测装置检测包含在由另一机器人装置输出的动作中的信息,使动作输出装置输出由动作检测装置检测的信息对应的动作,从而机器人装置能够响应其它机器人装置的动作进行工作,以提高机器人装置的娱乐性。

Claims (40)

1.一种具有动作部件的移动机器人装置,包括:
动作检测装置,用于检测包含在由另一机器人装置输出的动作中的信息;
动作部件控制装置,用于根据由所述动作检测装置检测的信息,控制所述动作部件;以及
测量装置,用于测量由所述动作部件输出的动作所对应的所述其它机器人装置的反应次数;
所述动作部件控制装置根据所述其它机器人装置的反应次数,通过所述动作部件输出动作。
2.如权利要求1所述的机器人装置,其中,所述信息是所述其它机器人装置的情感信息。
3.一种机器人装置,包括:
动作检测装置,用于检测包含在由另一机器人装置输出的动作中的信息;以及
动作输出装置,用于输出由所述动作检测装置检测的信息所对应的动作。
4.如权利要求3所述的机器人装置,其中,所述信息是有关所述动作的意义的信息。
5.如权利要求3所述的机器人装置,其中,输出动作是输出声音信号的输出动作。
6.如权利要求3所述的机器人装置,其中,机器人装置根据外部环境和/或内部状态改变情感,并且根据所述情感执行自动行为。
7.如权利要求3所述的机器人装置,其中,所述其它机器人装置根据外部环境和/或内部状态改变情感,并且在所述动作中表达情感,以输出所述动作;并且其中
所述动作检测装置检测在所述动作中表现的情感,作为所述信息。
8.如权利要求3所述的机器人装置,进一步包括:
通信装置,用于与所述其它机器人装置进行信息发送/接收。
9.如权利要求8所述的机器人装置,其中,所述通信装置发送与由所述动作输出装置输出的动作相关联的有关所述动作意义的信息。
10.如权利要求9所述的机器人装置,其中,机器人装置将可以由所述其它机器人装置检测的所述意义信息作为数据库进行保存;
所述通信装置发送与由所述动作输出装置输出的动作相关联的所述意义信息。
11.如权利要求8所述的机器人装置,其中,机器人装置通过所述通信装置,接收与由所述其它机器人装置输出的动作相关联的由所述其它机器人装置发送的所述动作意义信息;
所述动作检测装置检测由所述通信装置接收的所述意义信息,作为包含在所述动作中的信息。
12.如权利要求11所述的机器人装置,其中,机器人装置将由所述其它机器人装置发送的所述意义信息作为数据库进行保存;
所述动作检测装置从由所述通信装置接收的信号中根据所述数据库选择所述意义信息,以检测所选意义信息作为包含在所述动作中的信息。
13.如权利要求8所述的机器人装置,其中,所述通信装置通过音阶声音执行通信。
14.如权利要求8所述的机器人装置,其中,所述通信装置通过红外线信号执行通信。
15.如权利要求3所述的机器人装置,其中,动作输出装置当处于预设状态时输出预设动作。
16.如权利要求15所述的机器人装置,其中,机器人装置根据外部环境和/或内部状态改变情感;并且
其中当作为所述预设状态情感级别处于预设级别时,所述动作输出装置在它的动作中表达情感,以输出结果动作。
17.如权利要求15所述的机器人装置,其中,当作为所述预设状态检测到存在所述其它机器人装置时,输出所述预设动作。
18.如权利要求3所述的机器人装置,其中,所述动作检测装置检测包含在其它机器人装置处于预设状态时输出的动作中的信息。
19.如权利要求3所述的机器人装置,其中,所述动作输出装置对由所述动作检测装置检测的所述信息进行响应,调整与由所述动作检测装置检测的信息相关联的前面动作,以输出经过调整的前面动作,其中,前面动作已引起所述其它机器人装置的动作。
20.如权利要求19所述的机器人装置,其中,所述前面动作是输出音阶声音的动作,并且其中
所述动作输出装置对所述音阶声音进行调整,以输出经过调整的音阶声音。
21.一种用于控制具有动作部件的移动机器人装置的动作的方法,包括:
动作检测步骤,检测包含在由另一机器人装置输出的动作中的信息;
动作部件控制步骤,根据由所述动作检测步骤检测的信息,控制所述动作部件;以及
测量步骤,用于测量由所述动作部件输出的动作对应的所述其它机器人装置的反应次数;
所述动作部件控制步骤根据所述其它机器人装置的反应次数,通过所述动作部件输出动作。
22.如权利要求21所述的动作控制方法,其中,所述信息是所述其它机器人装置的情感信息。
23.一种用于控制机器人装置的动作的方法,包括:
动作检测步骤,检测包含在由另一机器人装置输出的动作中的信息;以及
动作输出步骤,使一个机器人装置输出由所述动作检测步骤检测的信息所对应的动作。
24.如权利要求23所述的动作控制方法,其中,所述信息是有关所述动作意义的信息。
25.如权利要求23所述的动作控制方法,其中,输出动作是输出声音信号的输出动作。
26.如权利要求23所述的动作控制方法,进一步包括:
发送步骤,发送与在所述动作输出步骤输出的动作相关联的有关所述动作意义的信息。
27.如权利要求23所述的动作控制方法,进一步包括:
接收步骤,接收与由所述其它机器人装置输出的动作相关联的由所述其它机器人装置发送的有关所述动作的意义的信息;
所述动作检测步骤检测在所述接收步骤接收的所述意义信息,作为包含在所述动作中的信息。
28.一种用于多个机器人装置的动作控制***,响应对方机器人装置的动作而执行相应的动作,所述***包括多个由如下装置组成的机器人装置:
动作检测装置,用于检测包含在由所述对方机器人装置输出的动作中的信息;以及
动作输出装置,用于输出由所述动作检测装置检测的所述信息对应的动作。
29.如权利要求28所述的机器人装置动作控制***,其中,所述信息是有关所述动作意义的信息。
30.如权利要求28所述的机器人装置动作控制***,其中,当动作输出装置处于预设状态时,所述动作输出装置输出预设动作;并且
其中,一个机器人装置当处于预设状态时通过所述动作输出装置输出预设动作,
其它机器人装置输出由所述一个机器人装置输出的所述预设动作对应的动作。
31.如权利要求30所述的机器人装置动作控制***,其中,所述机器人装置根据外部环境和/或内部状态改变它的情感;
当作为所述预设状态达到情感预设级别时,所述动作输出装置用动作表达情感,输出结果动作。
32.如权利要求30所述的机器人装置动作控制***,其中,当作为所述预设状态检测到存在其它机器人装置时,输出所述预设动作。
33.如权利要求28所述的机器人装置动作控制***,其中,所述动作是输出声音的动作。
34.如权利要求28所述的机器人装置动作控制***,其中,
所述动作输出装置调整与由所述动作检测装置检测的所述信息相关联的前面动作,以输出经过调整的前面动作,其中,前面动作已引起所述其它机器人装置的动作。
35.如权利要求28所述的机器人装置动作控制***,其中,
机器人装置包括通信装置,用于与对方机器人装置进行信息发送/接收;并且
其中,一个机器人装置通过所述通信装置发送与由所述动作输出装置输出的动作相关联的所述动作意义信息;
其它机器人装置通过所述通信装置接收所述意义信息,并且通过所述动作检测装置检测该意义信息,作为包含在所述动作中的信息。
36.如权利要求35所述的机器人装置动作控制***,其中,所述通信装置通过音阶声音执行通信。
37.如权利要求35所述的机器人装置动作控制***,其中,所述通信装置通过红外线执行通信。
38.一种用于控制与对方机器人装置动作相关联的机器人装置动作的方法,所述方法包括:
动作输出步骤,当一个机器人装置处于预设状态时,一个机器人输出预设动作;以及
响应动作输出步骤,其它机器人装置输出由所述一个机器人装置输出的所述预设动作所对应的动作。
39.如权利要求38所述的机器人装置动作控制方法,其中,所述信息是有关所述动作意义的信息。
40.如权利要求38所述的机器人装置动作控制方法,其中,
所述一个机器人装置根据外部环境和/或内部状态改变情感;
所述一个机器人装置当处于作为所述预设状态的预设情感级别时,在动作中表达‘悲伤’情感,以输出结果动作。
CNB018064442A 2000-12-06 2001-12-06 机器人设备、用于控制机器人设备运动的方法以及用于控制机器人设备运动的*** Expired - Fee Related CN1309535C (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP372092/00 2000-12-06
JP2000372092 2000-12-06
JP372092/2000 2000-12-06

Publications (2)

Publication Number Publication Date
CN1416381A true CN1416381A (zh) 2003-05-07
CN1309535C CN1309535C (zh) 2007-04-11

Family

ID=18841690

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB018064442A Expired - Fee Related CN1309535C (zh) 2000-12-06 2001-12-06 机器人设备、用于控制机器人设备运动的方法以及用于控制机器人设备运动的***

Country Status (5)

Country Link
US (2) US6889117B2 (zh)
KR (1) KR100843822B1 (zh)
CN (1) CN1309535C (zh)
TW (1) TWI236610B (zh)
WO (1) WO2002045916A1 (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101650553B (zh) * 2008-08-11 2013-04-24 悠进机器人股份公司 控制智能机器人和制作机器人内容的制作工具的应用方法
WO2015074410A1 (zh) * 2013-11-22 2015-05-28 嘉兴市德宝威微电子有限公司 机器人***及其同时表演控制方法
CN105785821A (zh) * 2016-03-31 2016-07-20 北京海尔广科数字技术有限公司 机器人动作同步方法及装置
CN106233378A (zh) * 2014-05-13 2016-12-14 夏普株式会社 控制装置和消息输出控制***
CN106371455A (zh) * 2016-08-29 2017-02-01 马登山 一种智能交互方法和***
CN106406328A (zh) * 2016-11-05 2017-02-15 杭州畅动智能科技有限公司 一种基于机器人开发平台的运动控制方法
CN106648614A (zh) * 2016-11-05 2017-05-10 杭州畅动智能科技有限公司 基于模块化平台的机器人开发***架构及其主控单元
CN108665891A (zh) * 2017-03-28 2018-10-16 卡西欧计算机株式会社 声音检测装置、声音检测方法以及记录介质

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7925492B2 (en) 2004-01-06 2011-04-12 Neuric Technologies, L.L.C. Method for determining relationships through use of an ordered list between processing nodes in an emulated human brain
US7089218B1 (en) * 2004-01-06 2006-08-08 Neuric Technologies, Llc Method for inclusion of psychological temperament in an electronic emulation of the human brain
US20070156625A1 (en) * 2004-01-06 2007-07-05 Neuric Technologies, Llc Method for movie animation
CN100380324C (zh) * 2000-08-28 2008-04-09 索尼公司 通信设备和通信方法、网络***、以及机器人设备
JP2002283261A (ja) * 2001-03-27 2002-10-03 Sony Corp ロボット装置及びその制御方法、並びに記憶媒体
JP2003205483A (ja) * 2001-11-07 2003-07-22 Sony Corp ロボットシステム及びロボット装置の制御方法
US20040002790A1 (en) * 2002-06-28 2004-01-01 Paul Senn Sensitive devices and sensitive applications
CN100351789C (zh) * 2003-03-28 2007-11-28 索尼株式会社 信息提供设备、方法和信息提供***
US20050105769A1 (en) * 2003-11-19 2005-05-19 Sloan Alan D. Toy having image comprehension
JP2006074207A (ja) * 2004-08-31 2006-03-16 Toshiba Corp 移動型情報装置とこの移動方法、及び情報システムと位置推定方法
DE502004007902D1 (de) * 2004-09-16 2008-10-02 Siemens Ag Automatisierungssystem mit affektiver Steuerung
US8473449B2 (en) * 2005-01-06 2013-06-25 Neuric Technologies, Llc Process of dialogue and discussion
JP2006277120A (ja) * 2005-03-28 2006-10-12 Toshiba Corp オブジェクト管理装置、オブジェクト管理方法およびオブジェクト管理プログラム
US8588970B2 (en) * 2006-10-13 2013-11-19 Honeywell International Inc. Robotic system with distributed integrated modular avionics across system segments
JP4550849B2 (ja) * 2007-03-22 2010-09-22 株式会社東芝 アーム搭載移動ロボット
CN101493903A (zh) * 2008-01-24 2009-07-29 鸿富锦精密工业(深圳)有限公司 有性格特征的类生物装置及其展现方法
US20090210476A1 (en) * 2008-02-19 2009-08-20 Joseph Arie Levy System and method for providing tangible feedback according to a context and personality state
TWI447660B (zh) * 2009-12-16 2014-08-01 Univ Nat Chiao Tung Robot autonomous emotion expression device and the method of expressing the robot's own emotion
JP5612971B2 (ja) * 2010-09-07 2014-10-22 オリンパス株式会社 マスタスレーブマニピュレータ
KR20120047577A (ko) * 2010-11-04 2012-05-14 주식회사 케이티 대화형 행동모델을 이용한 로봇 인터랙션 서비스 제공 장치 및 방법
US9079313B2 (en) * 2011-03-15 2015-07-14 Microsoft Technology Licensing, Llc Natural human to robot remote control
US9753453B2 (en) 2012-07-09 2017-09-05 Deep Learning Robotics Ltd. Natural machine interface system
US9211645B2 (en) * 2012-12-13 2015-12-15 Korea Institute Of Industrial Technology Apparatus and method for selecting lasting feeling of machine
US9324245B2 (en) * 2012-12-13 2016-04-26 Korea Institute Of Industrial Technology Apparatus and method for creating artificial feelings
US10350763B2 (en) * 2014-07-01 2019-07-16 Sharp Kabushiki Kaisha Posture control device, robot, and posture control method
CN106325113B (zh) * 2015-06-26 2019-03-19 北京贝虎机器人技术有限公司 机器人控制引擎及***
US10272349B2 (en) * 2016-09-07 2019-04-30 Isaac Davenport Dialog simulation
CN106346475A (zh) * 2016-11-01 2017-01-25 上海木爷机器人技术有限公司 机器人和机器人控制方法
US10120386B2 (en) 2016-11-18 2018-11-06 Robert Bosch Start-Up Platform North America, LLC, Series 1 Robotic creature and method of operation
US11633863B2 (en) * 2018-04-06 2023-04-25 Digital Dream Labs, Llc Condition-based robot audio techniques

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
JPH11126017A (ja) * 1997-08-22 1999-05-11 Sony Corp 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム
KR20010052699A (ko) 1998-11-30 2001-06-25 이데이 노부유끼 로봇 장치, 로봇 장치의 제어방법 및 프로그램 기록 매체
JP3424631B2 (ja) * 1999-01-13 2003-07-07 ソニー株式会社 ロボット装置及びソフトウエアの更新方法
US6505097B1 (en) * 1999-01-13 2003-01-07 Sony Corporation Arithmetic processing device, inter-object communication method, and robot
KR20010041969A (ko) * 1999-01-18 2001-05-25 이데이 노부유끼 로봇 장치, 로봇 장치의 본체 유닛 및 로봇 장치의 결합유닛
JP4366617B2 (ja) * 1999-01-25 2009-11-18 ソニー株式会社 ロボット装置
JP2000218065A (ja) 1999-01-28 2000-08-08 Sony Corp 情報処理装置及び情報処理方法
JP4106796B2 (ja) 1999-02-10 2008-06-25 ソニー株式会社 ロボット装置及びその制御方法
CN1205002C (zh) * 1999-05-10 2005-06-08 索尼公司 机器人装置及其控制方法
JP3555107B2 (ja) * 1999-11-24 2004-08-18 ソニー株式会社 脚式移動ロボット及び脚式移動ロボットの動作制御方法
JP2001157983A (ja) 1999-11-30 2001-06-12 Sony Corp ロボット装置及びロボット装置の性格判別方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101650553B (zh) * 2008-08-11 2013-04-24 悠进机器人股份公司 控制智能机器人和制作机器人内容的制作工具的应用方法
WO2015074410A1 (zh) * 2013-11-22 2015-05-28 嘉兴市德宝威微电子有限公司 机器人***及其同时表演控制方法
CN106233378A (zh) * 2014-05-13 2016-12-14 夏普株式会社 控制装置和消息输出控制***
CN105785821B (zh) * 2016-03-31 2019-10-22 海尔优家智能科技(北京)有限公司 机器人动作同步方法及装置
CN105785821A (zh) * 2016-03-31 2016-07-20 北京海尔广科数字技术有限公司 机器人动作同步方法及装置
CN106371455A (zh) * 2016-08-29 2017-02-01 马登山 一种智能交互方法和***
CN106371455B (zh) * 2016-08-29 2019-01-25 马登山 一种智能交互方法和***
CN106406328A (zh) * 2016-11-05 2017-02-15 杭州畅动智能科技有限公司 一种基于机器人开发平台的运动控制方法
CN106648614A (zh) * 2016-11-05 2017-05-10 杭州畅动智能科技有限公司 基于模块化平台的机器人开发***架构及其主控单元
CN106406328B (zh) * 2016-11-05 2020-04-03 杭州畅动智能科技有限公司 一种基于机器人开发平台的运动控制方法
CN106648614B (zh) * 2016-11-05 2021-05-18 杭州畅动智能科技有限公司 基于模块化平台的机器人开发***架构及其主控单元
CN108665891A (zh) * 2017-03-28 2018-10-16 卡西欧计算机株式会社 声音检测装置、声音检测方法以及记录介质
CN108665891B (zh) * 2017-03-28 2023-05-02 卡西欧计算机株式会社 声音检测装置、声音检测方法以及记录介质

Also Published As

Publication number Publication date
KR100843822B1 (ko) 2008-07-04
US6889117B2 (en) 2005-05-03
WO2002045916A1 (fr) 2002-06-13
US20040093118A1 (en) 2004-05-13
TWI236610B (en) 2005-07-21
CN1309535C (zh) 2007-04-11
US7076334B2 (en) 2006-07-11
US20050090935A1 (en) 2005-04-28
KR20020080407A (ko) 2002-10-23

Similar Documents

Publication Publication Date Title
CN1309535C (zh) 机器人设备、用于控制机器人设备运动的方法以及用于控制机器人设备运动的***
CN1290034C (zh) 机器人装置及其行为控制方法
CN1103659C (zh) 机器人装置及机器人装置动作决定方法
CN1590038A (zh) 机器人设备、机器人设备的控制方法和机器人设备用玩具
CN1457287A (zh) 用于机器人装置的操作控制的方法、程序、和记录介质、以及机器人装置
CN100351789C (zh) 信息提供设备、方法和信息提供***
CN1304345A (zh) 机器人装置及其控制方法
CN1460051A (zh) 机器人装置及其控制方法和存储介质
CN1253810C (zh) 信息处理装置和信息处理方法
CN1273912C (zh) 机器人装置、面容识别方法和面容识别装置
CN1151016C (zh) 机器人设备及其控制方法,和机器人性格判别方法
CN101030370A (zh) 信息处理***和方法、及机器人装置
CN1758991A (zh) 机器人装置、其行为控制方法及程序
CN1124191C (zh) 编辑装置、编辑方法和记录媒体
CN1720520A (zh) 对话控制设备和方法,以及机器人设备
CN1304346A (zh) 机器人装置及其控制方法
CN1460050A (zh) 对于机器人装置的动作教学装置和方法以及存储介质
CN1392827A (zh) 控制机器人的行为的装置和控制该装置的方法
CN1835828A (zh) 用于通信机器人的控制***
CN1459090A (zh) 话音输出装置
CN1302056A (zh) 信息处理设备,信息处理方法和存储介质
CN1461463A (zh) 语音合成设备
CN1619470A (zh) 具有演变代理的前摄用户接口
CN1448856A (zh) 信息处理终端、服务器、信息处理程序及其计算机可读介质
CN1221936C (zh) 词序列输出设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20070411

Termination date: 20131206