CN1761554A - 机器人设备、信息处理方法和程序 - Google Patents
机器人设备、信息处理方法和程序 Download PDFInfo
- Publication number
- CN1761554A CN1761554A CNA2004800070865A CN200480007086A CN1761554A CN 1761554 A CN1761554 A CN 1761554A CN A2004800070865 A CNA2004800070865 A CN A2004800070865A CN 200480007086 A CN200480007086 A CN 200480007086A CN 1761554 A CN1761554 A CN 1761554A
- Authority
- CN
- China
- Prior art keywords
- robot
- unit
- action
- communication
- communication quality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 8
- 238000003672 processing method Methods 0.000 title claims abstract description 8
- 238000004891 communication Methods 0.000 claims abstract description 68
- 230000009471 action Effects 0.000 claims abstract description 57
- 238000012545 processing Methods 0.000 claims abstract description 23
- 230000007246 mechanism Effects 0.000 claims description 32
- 238000005259 measurement Methods 0.000 claims description 12
- 238000000034 method Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 8
- 230000005540 biological transmission Effects 0.000 description 19
- 230000001133 acceleration Effects 0.000 description 13
- 238000003860 storage Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 230000004913 activation Effects 0.000 description 9
- 206010034719 Personality change Diseases 0.000 description 8
- 238000005096 rolling process Methods 0.000 description 8
- 230000008451 emotion Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 230000005055 memory storage Effects 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 4
- 210000000245 forearm Anatomy 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000014759 maintenance of location Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 210000000544 articulatio talocruralis Anatomy 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 210000000629 knee joint Anatomy 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 210000000323 shoulder joint Anatomy 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 210000002310 elbow joint Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000009183 running Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W84/00—Network topologies
- H04W84/02—Hierarchically pre-organised networks, e.g. paging networks, cellular networks, WLAN [Wireless Local Area Network] or WLL [Wireless Local Loop]
- H04W84/10—Small scale networks; Flat hierarchical networks
- H04W84/12—WLAN [Wireless Local Area Networks]
Landscapes
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
提供能够将与接入点的通信状态通知给用户的机器人设备、信息处理方法以及程序。机器人(5)根据用户指令和周围环境自动决定动作。根据IEEE802.11b,人形机器人(5)与接入点(2)通信,并且经由例如网络(3),控制家庭电器(4-1),以及从个人计算机(4-2)接收指令来执行预定的处理。机器人(5)周期地计算与接入点(2)的通信质量,并且在通信质量低于预定级别已经持续一预定时期段的情况下,发出“我看不见接入点。我应该做什么。”在那以后机器人进入等待用户指令的状态。当用户发出指令时,机器人根据指令采取动作。
Description
技术领域
本发明涉及机器人设备、信息处理方法和程序,尤其涉及当通过无线电与通信设备通信时,根据无线电信号的通信质量行动的机器人设备,及其信息处理方法和程序。
背景技术
如图1所示,已经开发出每一个都根据用户的指令或周围环境行动的自动机器人。关于某些机器人,如用于通过网络3控制家庭电器4-1并通过网络3从个人计算机4-2接收指令的目的的机器人,每个这样的机器人都可以与接入点2通信。机器人1基于如IEEE(电气和电子工程师协会)802.11b通过无线电与接入点2通信(参照日本未审查专利申请公开No.2001-191279)。
典型的机器人1具有用于指示无线电信号的强度的指示器。例如,当诸如微波炉之类的用于发射电磁波的设备运行时,或者当机器人1在独立移动时被物体挡住时,用户可以识别与接入点2的通信质量的下降。
然后,根据使用这样的指示器的方法,当用户注意任何事情,诸如,如果用户与机器人1交互,用户不能充分识别通信状态。
发明内容
考虑上述情况做出本发明。根据本发明,使用了自动机器人特有的功能(如,语音和手势),使得用户可以容易地了解机器人1和接入点2之间的通信。
本发明提供一种自动机器人设备,用于通过无线电与通信设备通信,并根据用户指令或周围环境独立确定动作,该设备包括:测量装置,用于测量从通信设备接收的无线电信号的通信质量;确定装置,用于根据测量装置测量的通信质量确定动作;和处理装置,用于执行允许机器人设备采用确定装置确定的动作的处理。
确定装置可以根据机器人设备的当前动作的详细内容和测量装置测量的通信质量确定动作。
确定装置可以确定预定语音的产生,而处理装置可以通过扬声器输出语音。
本发明提供一种用于自动机器人设备的信息处理方法,其中机器人设备通过无线电与通信设备通信,并根据用户指令或周围环境独立确定动作,该方法包括:测量步骤,测量从通信设备接收的无线电信号的通信质量;确定步骤,用于根据测量步骤测量的通信质量确定动作;和处理步骤,执行允许机器人设备采用确定步骤中确定的动作的处理。
本发明提供一种用于自动机器人设备的程序,其中机器人设备通过无线电与通信设备通信,并根据用户指令或周围环境独立确定动作,该程序允许计算机执行的处理包括:测量步骤,测量从通信设备接收的无线电信号的通信质量;确定步骤,用于根据测量步骤测量的通信质量确定动作;和处理步骤,执行允许机器人设备采用确定步骤中确定的动作的处理。
根据本发明的机器人设备,信息处理方法和程序,执行测量从通信设备接收的无线电信号的通信质量,根据测量的通信质量确定动作和允许机器人设备采用确定的动作的处理。
附图说明
图1是典型计算机***的结构的方框图。
图2是应用本发明的机器人***的方框图。
图3是图2中的机器人的外部透视图。
图4是图2中的机器人的背面的外部透视图。
图5是解释图2中的机器人的示意图。
图6是图2中的机器人的内部结构的方框图。
图7是主要解释与图2中的机器人的控制相关的部件的方框图。
图8是图7中的主控制器的结构的方框图。
图9图8中的语音识别单元的结构的方框图。
图10是解释图2中的机器人的操作的流程图。
具体实施方式
图2显示应用了本发明的机器人5的使用的例子。
根据用户指令或周围环境独立确定动作的人形机器人5根据IEEE802.11b与接入点2通信。例如,机器人5通过网络3控制家庭电器4-1,并通过网络3接收来自个人计算机4-2的指令来执行预定的处理。
图3是应用了本发明的双足行走机器人5的前面的外部透视图。图4是机器人5的背面的外部透视图。图5是解释机器人5的骨架的示意图。
机器人5还包括躯干单元11、布置在躯干单元11上面的头部单元12、连接到躯干单元11的左上和右上部的预定位置的手臂单元13A和13B,以及连接到躯干单元11的左下和右下部的预定位置的腿部单元14A和14B。
通过将框架21经由腰关节机构23连接到腰座(waist base)21来构造躯干单元11。框架21用作躯干上半部,而腰座用作躯干下半部。在躯干单元11中,当驱动固定在作为躯干下半部的腰座22上的腰关节机构23的传动臂A1或A2时,如图5所示,躯干上半部可以围绕滚动轴24或俯仰轴(pitch axis)25独立旋转。滚动轴24和俯仰轴25正交。
头部单元12通过颈(neck)关节机构27连接到肩座(shoulder base)26的上表面的中部。肩座26固定在框架21的上端。驱动颈关节机构27的传动臂A3或A4,使得头部单元12可以围绕俯仰轴28和摆动轴(yaw axis)29独立旋转。如图5所示,俯仰轴28与摆动轴29正交。
手臂单元13A和13B通过相应肩关节机构30连接到肩座26的左侧和右侧。如图5所示,设计每个手臂单元13A和13B,使得当驱动肩关节机构30的传动臂A5或A6时,对应的手臂单元可以独立围绕俯仰轴31或滚动轴32旋转。俯仰轴31与滚动轴32正交。
在这种情况下,通过将作为上臂的传动臂A7的从动轴通过肘关节单元44连接到作为前臂的传动臂A8并将手34附加到前臂的末端来构造出手臂单元13A和13B。
如图5所示,在每个手臂单元13A和13B中,当驱动传动臂A7时,对应的前臂可以绕摆动轴35旋转。如图5所示,当驱动传动臂A8时,对应的前臂可以围绕俯仰轴36旋转。
腿部单元14A和14B通过相应臀关节机构37连接到作为下部躯干的腰座22。如图5所示,设计每个腿部单元14A和14B,使得当驱动臀关节机构37的传动臂A9、A10或A11时,对应的腿部单元可以独立绕摆动轴38、滚动轴39和俯仰轴40转动。摆动轴38、滚动轴39和俯仰轴40相互正交。
在每个腿部单元14A和14B中,作为大腿的框架41的下端通过膝关节机构42连接到作为小腿的框架43,并且框架43的下端通过踝关节机构44连接到脚。
因此,如图5所示,在每个腿部单元14A和14B中,当驱动作为膝关节机构42的传动臂A12时,对应的小腿可以围绕俯仰轴46旋转。如图5所示,当驱动踝关节机构的传动臂A13或A14时,对应的脚45可以独立围绕俯仰轴47或滚动轴48转动。俯仰轴47与滚动轴48正交。
腿部单元14A和14B分别具有足底传感器91(图7)。每个足底传感器91布置在脚45的底部(与地板接触的表面)。根据对应的足底传感器91的开/关状态确定脚45是否与地板接触。
盒控制单元52中具有将在下面描述的主控制器61(图6)和其它部件。控制单元52布置在作为躯干单元11的下部躯干的腰座22的背面。
图6是解释机器人5的传动臂和用于传动臂的控制***的图。
控制单元52包括主控制器61,用于控制整个机器人5和将在下面描述的外部电路62的操作。外部电路62包括D/A转换单元单元101、A/D转换单元102、电池103、电池传感器131、加速度传感器132、通信单元105和外部存储器106(在图7中显示)。
控制单元52连接到在各个部件单元(即,躯干单元11、头部单元12、手臂单元13A和13B和腿部单元14A和14B)中布置的副控制器63A到63D。控制单元52向每个副控制器63A到63D提供必要的电源电压,并且与副控制器63A到63D通信。
副控制器63A到63D分别连接到部件单元中的对应的传动臂A1到A14。根据从主控制器61供给的各种控制指令,副控制器63A到63D控制部件单元中的传动臂A1到A14,以便以特定状态驱动每个传动臂。
图7是机器人5的内部结构的方框图。
头部单元12具有外部传感器单元71,包括在预定位置上用作机器人5的“眼睛”的CCD(电荷耦合部件)照相机81,用作其“耳朵”的传声器、头部传感器51和用作机器人5的“嘴”的扬声器72。控制单元52中具有包含了电池传感器131和加速传感器132的内部传感器。腿部单元14A和14B分别具有在底面上的足底传感器91,每个足底传感器91用作机器人5的一个“人体感觉”。
在外部传感器单元71中,CCD照相机81获得周围情况的图像,并且将获得的图像信号通过A/D转换器发送到主控制器61。传声器82收集作为用户语音输入的、诸如“行走”、“停止”或“抬起你的右手”之类的指令语音,并且将获得的语音信号通过A/D转换单元102发送到主控制器61。
例如如图3和4所示,头部传感器51布置在头部单元的上部。头部传感器51检测由用户的物理动作如“拥抱”或“轻拍”所产生的压力,并且通过A/D转换单元将压力检测信号作为检测的结果发送到主控制器61。
足底传感器91布置在每只脚45的脚底。当脚45与地板接触时,足底传感器91通过A/D转换单元102向主控制器61发送接触信号。主控制器61根据接触信号是否存在确定对应的脚45是否与地板接触。由于足底传感器91分别布置在腿部单元14A和14B的两只脚45的脚底,因此主控制器61根据每个接触信号是否存在可以确定机器人5的两只脚45是否与地板接触,一只脚是否与地板接触,或者两只脚45是否都不与地板接触。
控制单元52包括主控制器61、D/A转换单元101、A/D转换单元102、电池103、内部传感器单元104、通信单元105和外部存储器106。
D/A(数字/模拟)转换单元101将从主控制器61供给的数字信号转换为模拟信号,然后将信号提供给扬声器72。A/D(模拟/数字)转换单元102将从CCD81、传声器82、头部传感器51和足底传感器91供给的模拟信号转换为数字信号,然后,将信号提供给主控制器61。
在内部传感器单元104中,电池传感器131定期检测在电池103中剩余的电量,并且将指示检测结果的电池电平检测信号发送到主控制器61。加速传感器132定期在三个轴方向上检测关于机器人5的移动的加速度(x、y和z轴),并且将指示检测结果的加速度检测信号发送到主控制器61。
主控制器61包括CPU 111,用于控制主控制器61和内部存储器112的全部操作。内部存储器112存储运行该***以便CPU 111控制各个单元的OS(操作***)122、应用程序122和其它必要的数据。
根据从外部传感器单元71中的CCD照相机81、传声器82和头部传感器51和足底传感器91分别供给的图像信号、语音信号、压力检测信号、接触信号(在下面,统称为外部传感器信号S1),并根据从内部传感器单元104中的电池传感器131和加速传感器132分别供给的电池电平检测信号和加速度检测信号(在下面,统称为内部传感器信号S2),主控制器61确定机器人5的周围和内部状况、用户指令或是否出现用户导引(approach)。
根据机器人5的周围和内部状况、用户指令或通信单元105从个人计算机4-2接收的指令以及存储在内部存储器112中的控制程序或在那时加载的存储在外部存储器106中的各种控制参数,主控制器61确定机器人5的动作,根据确定的结果产生控制指令COM,并且将控制指令COM发送到确定的动作所需的副控制器63A到63D。根据控制指令COM,副控制器63A到63D驱动各个传动臂A1到A14。因此,例如,机器人5可以执行机械运动,如上下或水平摇头不单元12,抬起手臂单元13A或13B,或交替移动腿部单元14A和14B来行走。
按照需要,主控制器61还根据到外部的语音信号将预定的语音信号提供给扬声器来输出语音。
通信单元105根据IEEE802.11b通过无线电与接入点2通信。当更新OS121的版本或应用程序122时,通过通信单元105下载更新的OS或应用程序并存储在内部存储器112中。此外,通信单元105可以接收预定的指令并提供给CPU 111。
外部存储器106包括,如EEPROM(电可擦除可编程只读存储器)。外部存储器106可以通过形成在躯干单元11上的插槽加载到躯干单元11上。外部存储器106存储例如将在下面描述的情感模型。
图8显示图7中的主控制器61的功能结构的实例。主控制器61执行存储在内部存储器112中的OS 121和应用程序122,因此实现图8中所示的功能结构。在图8中,省略了D/A转换单元101和A/D转换单元102。
在主控制器61中,传感器输入处理单元201根据从头部传感器51、足底传感器91、加速度传感器132、传声器82、CCD照相机81和通信单元105分别供给的压力检测信号、接触信号、加速度检测信号、语音信号、图像信号和无线电信号的通信质量信号来识别特定外部条件、用户的特定导引和用户指令。传感器输入处理单元201将指示识别结果的状态识别信息发送到模型存储单元202和动作确定机构单元203的每一个上。
换句话说,传感器输入处理单元201包括压力处理单元221、加速处理单元222、语音识别单元223、图像识别单元224和通信质量测量单元225。
压力处理单元221处理从头部传感器51供给的压力检测信号。例如,当作为处理结果,检测到施加了预定阈值或更高的压力一小段时间时,压力处理单元221识别该机器人被轻拍(责备)。当检测到施加了低于阈值的压力一长段时间时,压力处理单元221识别给机器人被拥抱(赞扬)。压力处理单元221将状态识别信息作为识别的结果发送到模型存储单元202和动作确定机构单元203的每一个上。
此外,压力处理单元221处理从足底传感器91供给的接触信号。例如,当从布置在腿部单元14A的脚45上的足底传感器91接收接触信号时,压力处理单元221识别腿部单元14A的脚45与地板接触(地面)。当压力处理单元221没有从腿部单元14A的足底传感器91接收到接触信号时,压力处理单元221识别腿部单元14A的脚45没有与地板接触(地面)。类似地,根据来自腿部单元14B的足底传感器91的接触信号的存在与否,压力处理单元221识别腿部单元14B的足底传感器91是否与地板接触(地面)。压力处理单元221将作为识别结果的状态识别信息发送到模型存储单元202和动作确定机构单元203的每一个上。
根据从加速传感器132供给的加速度检测信号,加速度处理单元222识别躯干单元11的加速度的方向和幅度,然后将作为识别结果的状态识别信息发送到模型存储单元202和动作确定机构单元203的每一个上。
语音识别单元223使用来自传声器82的语音信号执行语音识别。语音识别单元223将关于字符串的数据或字符串(如“行走”、“趴下”或“抓球”)作为状态识别信息(用作语音识别的结果)通知给模型存储单元202和动作确定机构单元203。
图像识别单元224使用从CCD照相机81供给的图像信号执行图像识别处理。当检测“红色圆形物体”或“与地面垂直并具有预定高度或更高的平面”,图像识别单元224将图像识别结果(如“有个球”或“有堵墙”)作为状态识别信息通知给模型存储单元202和动作确定机构单元203。
通信质量测量单元225根据通过通信单元105从接入点2接收的信号测量通信质量,并且将状态识别信息作为测量结果发送到动作确定机构单元203。通信质量指的是例如对应于抗噪声性或差错率(如果在扩频带中以爆发方式出现干扰波,则在通信分组中出现差错)的无线电信号强度。
模型存储单元202存储并管理情感模型、本能模型和展示情感、本能的成长模型以及机器人5的成长步骤。
在该实例中,情感模型使用预定范围(如-1.0到1.0)中的值展示情感状态(等级),诸如“高兴”、“沮丧”、“生气”和“娱乐”等等。根据从传感器输入处理单元201供给的状态识别信息和逝去的时间来改变本能模型值。
本能模型使用预定范围中的值展示欲望状态(等级),诸如“进食本能”、“睡觉本能”和“移动本能”。根据从传感器输入处理单元201供给的状态识别信息和逝去的时间改变本能模型值。
成长模型使用预定范围中的值展示成长状态(等级),诸如“儿童阶段”、“青少年阶段”、“中年阶段”和“老年阶段”。根据从传感器输入处理单元201供给的状态识别信息和逝去的时间改变本能模型值。
模型存储单元202将状态信息发送到动作确定机构单元203中。状态信息涉及由上述各个情感模型、本能模型和成长模型值显示的情感、本能和成长状态。
除了从传感器处理单元201供给的状态识别信息之外,模型存储单元202从动作确定机构单元203接收动作信息,该动作信息指示机器人5的当前或过去动作的详细内容,如“长时间行走”。当接收相同的状态识别信息时,模型存储单元202根据动作信息指示的机器人5的动作产生不同的状态信息。
例如,当机器人5问候用户而用户轻拍机器人5的头部时,将指示机器人5已经问候用户的动作信息和指示用户轻拍机器人5的状态识别信息提供给模型存储单元202。在这种情况下,模型存储单元202增加展示“高兴”的情感模型值。
动作确定机构单元203根据从传感器输入处理单元201供给的状态识别信息、从模型存储单元202供给的状态信息和逝去的时间确定下一个动作,然后将关于确定的动作的详细内容的动作指令输出到态度改变机构单元204。
态度改变机构单元204根据从动作确定机构单元203供给的动作指令信息产生态度改变信息以将机器人5的当前态度改变为下一个态度,然后将态度改变信息发送到控制机构单元205。
控制机构单元205根据从态度改变装置204供给的态度改变信息产生控制信号来驱动各个传动臂A1到A14,并且将控制信号发送到副控制器63A到63D。根据控制信号,副控制器63A到63D驱动合适的传动臂,因此允许机器人5执行各种动作。
语音合成单元208从动作确定机构单元203接收语音指令信息。根据语音指令信息,语音合成单元208通过规则执行例如语音合成,并且将合成的语音提供给扬声器来输出合成的语音。
图9是传感器输入处理单元201中的语音识别单元223的功能的功能方框图。
语音数据通过图7中的传声器82和A/D转换单元102提供给语音设备单元。语音数据提供给特征量提取单元251中。
特征提取单元251在每一恰当的帧对从A/D转换单元102供给的语音数据执行声音分析处理,因此提取用作特征量(如MFCC(Mel频率倒谱系数))的特征向量。
通过特征提取单元251获得的每一帧特征向量依次提供给特征向量缓冲器252,并在其中存储。因此,特征向量缓冲器252根据时序存储帧特征向量。
例如,特征向量缓冲器252存储从特定语音开始到结束(语音片断)的时序特征向量。
匹配单元253根据例如连续密度HMM(如果需要,参照声音模型数据库254、字典数据库255和语法数据库256),使用存储在特征向量缓冲器252中的特征向量来识别由传声器82接收的语音。
换句话说,声音模型数据库254在预定单元(PLU(语音语言单元))中存储一系列指示声音特征的声音模型,诸如要识别的语音的语言中的音位或音节。字典数据库255存储包含了要识别的词(单词)的发音的信息(音位信息)的词典。语法数据库256存储用于描述如何链接(连接)包含在字典数据库255的词典中的词的语法规则(语言模型)。
匹配单元253根据字典数据库255中的词典连接存储在声音模型数据库254中的声音模型,因此形成词声音模型(词模型)。此外,匹配单元253根据存储在语法数据库256中的语法规则连接几个词模型,然后根据连续密度HMM执行所连接的词模型和时序特征向量之间的匹配,由此识别通过传声器82接收的语音。换句话说,匹配单元253从上述产生的词模型中计算用于指示存储在特征向量缓冲器252中的时序特征向量的所观察的似然性的分数。例如,匹配单元253检测具有最高分数的词模型序列,并且输出对应于词模型序列的词序列作为语音识别的结果。
将参照图10的流程图描述当将与接入点2的通信状态通知用户时机器人5的操作。
在步骤S1中,机器人5的主控制器61根据通过通信单元105从接入点2接收的信号开始测量通信质量(如,无线电信号强度或差错率)。在该实例中,以几十秒的间隔测量通信质量。
在步骤S2中,机器人5的主控制器61确定是否在预定时间T或更长时间内连续测量到预定阈值th(当无线电信号强度指示通信质量时的预定强度,或者当差错率指示通信质量时的预定差错率)或更低的通信质量。如果是,则操作前进到步骤S3。
在步骤S3中,机器人5的主控制器61产生语音指令信息以便允许机器人5产生用于指示机器人5不能与接入点2通信的语音,如“我不能看见接入点。我该怎么办”的话音消息,并且还根据信息通过规则执行语音合成。然后,主控制器61向扬声器72提供合成的语音,从而输出语音。因此,机器人5产生话音消息“我不能看见接入点。我该怎么办”。
当机器人5离开接入点2时,还可以允许机器人5产生话音消息“我不能看见接入点。我能不去这里么?”。如上所述,进一步考虑机器人5的当前动作的消息内容确定要从机器人5产生的话音消息,因此导致机器人5的更自然的语音。
在步骤S4中,机器人5的主控制器61处于等待模式,直到主控制器61从用户接收到指令为止。当从用户接收指令时,操作前进到步骤S5。主控制器61根据指令确定动作,产生对应于确定的动作的详细内容的动作指令信息、态度改变指令和控制信号,并且将控制信号发送到各个传动臂A。因此,机器人5响应于用户的指令采取动作。
例如,当机器人5看来冰箱放置在接入点前面时,用户发出指令来防止该情况,如说“向左走10步”。如果微波炉放置在机器人5行动的位置附近,用户说,如“停止”(并且用户关闭微波炉)。当机器人5离开接入点2并产生话音消息“我不能看见接入点。我不必去这里吗?”,用户说“别去那里”。
当机器人5接收上述语音时,机器人5识别语音作为指令。例如,响应于指令“向左走10步”,机器人5仅向左移动10步(重复十次腿部单元14A向左移动一步并且腿部单元14B向左移动一步的操作)。响应于“停止”或“不要去那里”的指令,机器人5停止当前动作。在允许机器人5根据用户语音行动之前,机器人5可以产生用于指示机器人5已经识别用户指令的话音消息,如“是,明白”。
上述例子涉及机器人5使用机器人5不能与接入点2通信的事实的语音通知用户的情况。此外,机器人5可以执行预定的动作(姿势),如摇头12。
如上所述,机器人5使用自动机器人特有的功能通知用户通信质量的状态。因此,用户可以容易地获得通信状态。
在本说明书中,描述程序的步骤不仅包括根据描述的次序基于时序执行的步骤,还包括不需要基于时序执行,而是同时或独立执行的步骤。
在本说明书中,***定义为每一个包含多个单元的装置的统一整体。
工业实用性
根据本发明,可以很容易通知用户,如通信状态。
Claims (5)
1.一种自动机器人设备,用于通过无线电与通信设备通信,并根据用户指令或周围环境独立确定动作,该设备包括:
测量装置,用于测量从通信设备接收的无线电信号的通信质量;
确定装置,用于根据测量装置测量的通信质量确定动作;和
处理装置,用于执行允许机器人设备采用确定装置确定的动作的处理。
2.如权利要求1所述的机器人设备,其中,确定装置根据机器人设备的当前动作的详细内容和测量装置测量的通信质量确定动作。
3.如权利要求1所述的机器人设备,其中,确定装置确定预定语音的产生,而处理装置通过扬声器输出语音。
4.一种用于自动机器人设备的信息处理方法,其中机器人设备通过无线电与通信设备通信,并根据用户指令或周围环境独立确定动作,该方法包括:
测量步骤,测量从通信设备接收的无线电信号的通信质量;
确定步骤,用于根据测量步骤测量的通信质量确定动作;和
处理步骤,执行允许机器人设备采用确定步骤中确定的动作的处理。
5.一种用于自动机器人设备的程序,其中机器人设备通过无线电与通信设备通信,并根据用户指令或周围环境独立确定动作,该程序允许计算机执行的处理包括:
测量步骤,测量从通信设备接收的无线电信号的通信质量;
确定步骤,用于根据测量步骤测量的通信质量确定动作;和
处理步骤,执行允许机器人设备采用确定步骤中确定的动作的处理。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP098070/2003 | 2003-04-01 | ||
JP2003098070A JP2004299033A (ja) | 2003-04-01 | 2003-04-01 | ロボット装置、情報処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1761554A true CN1761554A (zh) | 2006-04-19 |
CN100352622C CN100352622C (zh) | 2007-12-05 |
Family
ID=33156663
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2004800070865A Expired - Fee Related CN100352622C (zh) | 2003-04-01 | 2004-03-18 | 机器人设备、信息处理方法和程序 |
Country Status (6)
Country | Link |
---|---|
US (1) | US7885727B2 (zh) |
EP (1) | EP1609568B1 (zh) |
JP (1) | JP2004299033A (zh) |
KR (1) | KR20060006904A (zh) |
CN (1) | CN100352622C (zh) |
WO (1) | WO2004089579A1 (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7636621B2 (en) | 2006-07-07 | 2009-12-22 | Industrial Technology Research Institute | Path guidance method for autonomous mobile device |
CN104698986A (zh) * | 2013-12-05 | 2015-06-10 | 上海能感物联网有限公司 | 汉语语音遥控机器人的控制器装置 |
CN104827457A (zh) * | 2014-02-07 | 2015-08-12 | 广明光电股份有限公司 | 机器手臂的教导装置及方法 |
CN105983972A (zh) * | 2015-03-19 | 2016-10-05 | 发那科株式会社 | 机器人控制*** |
CN106125925A (zh) * | 2016-06-20 | 2016-11-16 | 华南理工大学 | 基于手势和语音控制的智能抓捕方法 |
CN106422349A (zh) * | 2016-11-09 | 2017-02-22 | 遵义市斑寅科技有限公司 | 一种多功能机器人玩具 |
CN107185259A (zh) * | 2017-06-30 | 2017-09-22 | 美科科技(北京)有限公司 | 用于多方位连接的电子模块和模块化电子构建*** |
CN107703813A (zh) * | 2017-10-27 | 2018-02-16 | 安徽硕威智能科技有限公司 | 一种基于可编程卡片驱动的卡片机器人及其控制*** |
CN112789569A (zh) * | 2018-10-16 | 2021-05-11 | 索尼公司 | 信息处理装置、信息处理方法以及信息处理程序 |
CN112823083A (zh) * | 2018-11-05 | 2021-05-18 | 得麦股份有限公司 | 可配置和交互式的机器人*** |
CN114901570A (zh) * | 2020-02-28 | 2022-08-12 | 欧姆龙株式会社 | 控制装置及搬送*** |
CN115052717A (zh) * | 2020-02-17 | 2022-09-13 | 香港理工大学 | 便于老人训练和治疗的治疗机器人 |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006098295A1 (ja) * | 2005-03-14 | 2006-09-21 | Pioneer Corporation | 発話情報発生装置、玩具、発話情報出力装置、及び、発話情報出力システム |
DE112006000695T5 (de) * | 2005-03-25 | 2008-02-07 | Kabushiki Kaisha Yaskawa Denki, Kitakyushu | Automatisches Maschinensystem und drahtloses Kommunikationsverfahren für dasselbe |
US20070063834A1 (en) * | 2005-08-15 | 2007-03-22 | Motorola, Inc. | Method and apparatus to reduce loss or damage to remote control devices |
JP4261529B2 (ja) * | 2005-08-31 | 2009-04-30 | 株式会社東芝 | ホームロボットにおける処理方法及びホームロボット |
US20080071540A1 (en) * | 2006-09-13 | 2008-03-20 | Honda Motor Co., Ltd. | Speech recognition method for robot under motor noise thereof |
JP4658891B2 (ja) * | 2006-10-02 | 2011-03-23 | 本田技研工業株式会社 | ロボットの制御装置 |
US8180486B2 (en) | 2006-10-02 | 2012-05-15 | Honda Motor Co., Ltd. | Mobile robot and controller for same |
JP4506855B2 (ja) * | 2008-03-05 | 2010-07-21 | 株式会社デンソー | カーナビゲーションシステム |
JP5595030B2 (ja) * | 2009-12-17 | 2014-09-24 | 三菱重工業株式会社 | 移動体制御システム、制御装置、制御方法、プログラム及び記録媒体 |
GB201110839D0 (en) * | 2011-06-27 | 2011-08-10 | Centek Internat Hk Ltd | Hand held micro-processing device control system and method of use thereof |
KR101237297B1 (ko) * | 2012-05-31 | 2013-03-04 | 주식회사 하이로시 | 모바일 기기를 이용한 구동장치 및 그 제어방법 |
JP5978027B2 (ja) * | 2012-06-28 | 2016-08-24 | 本田技研工業株式会社 | 移動ロボットの制御装置 |
KR20160041282A (ko) * | 2014-10-07 | 2016-04-18 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
WO2016061471A1 (en) * | 2014-10-17 | 2016-04-21 | Hitachi High Technologies America, Inc. | Interactive laboratory robotic system |
WO2017126768A1 (ko) * | 2016-01-20 | 2017-07-27 | (주)유진로봇 | 이동로봇을 원격으로 제어하는 원격 제어 장치 및 시스템과 그의 수행방법 |
JP6655412B2 (ja) * | 2016-02-09 | 2020-02-26 | シャープ株式会社 | 制御装置、制御装置の制御方法、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体、ならびに会話装置 |
US10532464B1 (en) * | 2017-07-05 | 2020-01-14 | Luis GUZMAN | Walking robot |
JP7281198B2 (ja) * | 2018-01-31 | 2023-05-25 | Groove X株式会社 | 経験に基づいて行動する自律行動型ロボット |
US10977872B2 (en) | 2018-10-31 | 2021-04-13 | Sony Interactive Entertainment Inc. | Graphical style modification for video games using machine learning |
US11636673B2 (en) | 2018-10-31 | 2023-04-25 | Sony Interactive Entertainment Inc. | Scene annotation using machine learning |
US10854109B2 (en) | 2018-10-31 | 2020-12-01 | Sony Interactive Entertainment Inc. | Color accommodation for on-demand accessibility |
US11375293B2 (en) | 2018-10-31 | 2022-06-28 | Sony Interactive Entertainment Inc. | Textual annotation of acoustic effects |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5159701A (en) * | 1989-03-31 | 1992-10-27 | E. F. Johnson Company | Method and apparatus for a distributive wide area network for a land mobile transmission trunked communication system |
EP0522200B1 (en) * | 1991-07-10 | 1998-05-13 | Samsung Electronics Co., Ltd. | Mobile monitoring device |
JPH09103979A (ja) * | 1995-10-06 | 1997-04-22 | Hitachi Zosen Corp | 遠隔操縦方法およびその装置 |
US6147598A (en) * | 1997-07-03 | 2000-11-14 | Trimble Navigation Limited | Vehicle theft system including a handheld computing device |
US6338013B1 (en) * | 1999-03-19 | 2002-01-08 | Bryan John Ruffner | Multifunctional mobile appliance |
ATE306096T1 (de) * | 1999-08-31 | 2005-10-15 | Swisscom Ag | Mobiler roboter und steuerverfahren für einen mobilen roboter |
JP4207336B2 (ja) * | 1999-10-29 | 2009-01-14 | ソニー株式会社 | 移動ロボットのための充電システム、充電ステーションを探索する方法、移動ロボット、コネクタ、及び、電気的接続構造 |
JP3411529B2 (ja) * | 1999-11-02 | 2003-06-03 | 株式会社国際電気通信基礎技術研究所 | 自律移動ロボット |
JP2001150374A (ja) * | 1999-11-25 | 2001-06-05 | Sony Corp | ロボットの故障診断システム |
JP2001191279A (ja) | 1999-12-28 | 2001-07-17 | Sony Corp | 行動管理システム、行動管理方法及びロボット装置 |
JP2001188555A (ja) | 1999-12-28 | 2001-07-10 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
EP1195231A4 (en) * | 2000-03-31 | 2006-01-25 | Sony Corp | ROBOTIC DEVICE, ROBOTIC DEVICE ACTION CONTROL METHOD, EXTERNAL FORCE DETECTION DEVICE, AND EXTERNAL FORCE DETECTION METHOD |
WO2001099392A1 (en) * | 2000-06-21 | 2001-12-27 | Seiko Epson Corporation | Mobile telephone and radio communication device cooperatively processing incoming call |
DE50211080D1 (de) * | 2001-02-27 | 2007-11-29 | Nokia Siemens Networks Gmbh | Verfahren zur relokation des diversitätspunktes einer mobilen station in einem funkzugriffsnetz |
US6804396B2 (en) | 2001-03-28 | 2004-10-12 | Honda Giken Kogyo Kabushiki Kaisha | Gesture recognition system |
JP2002321177A (ja) * | 2001-04-23 | 2002-11-05 | Sony Corp | 脚式移動ロボット及びその制御方法 |
JP2002341937A (ja) * | 2001-05-18 | 2002-11-29 | Hitachi Ltd | 作業ロボットの移動方法 |
US6763282B2 (en) * | 2001-06-04 | 2004-07-13 | Time Domain Corp. | Method and system for controlling a robot |
JP2003089079A (ja) * | 2001-09-11 | 2003-03-25 | Hitachi Hybrid Network Co Ltd | ロボットの非常用自律移動システム及び非常用自律移動プログラム |
US20030087607A1 (en) * | 2001-11-05 | 2003-05-08 | General Motors Corporation | Method for wireless modem carrier level control |
JP2003179538A (ja) * | 2001-12-10 | 2003-06-27 | Sony Corp | 無線通信システム、無線通信中継装置、移動制御方法、移動制御プログラム及び移動制御プログラム格納媒体 |
JP2004032062A (ja) * | 2002-06-21 | 2004-01-29 | Nec Corp | 無線通信システムおよび中継器 |
-
2003
- 2003-04-01 JP JP2003098070A patent/JP2004299033A/ja active Pending
-
2004
- 2004-03-18 KR KR1020057018605A patent/KR20060006904A/ko not_active Application Discontinuation
- 2004-03-18 CN CNB2004800070865A patent/CN100352622C/zh not_active Expired - Fee Related
- 2004-03-18 US US10/551,393 patent/US7885727B2/en not_active Expired - Fee Related
- 2004-03-18 WO PCT/JP2004/003678 patent/WO2004089579A1/ja active Application Filing
- 2004-03-18 EP EP04721682A patent/EP1609568B1/en not_active Expired - Fee Related
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7636621B2 (en) | 2006-07-07 | 2009-12-22 | Industrial Technology Research Institute | Path guidance method for autonomous mobile device |
CN104698986A (zh) * | 2013-12-05 | 2015-06-10 | 上海能感物联网有限公司 | 汉语语音遥控机器人的控制器装置 |
CN104827457A (zh) * | 2014-02-07 | 2015-08-12 | 广明光电股份有限公司 | 机器手臂的教导装置及方法 |
CN104827457B (zh) * | 2014-02-07 | 2016-09-14 | 广明光电股份有限公司 | 机器手臂的教导装置及方法 |
CN105983972A (zh) * | 2015-03-19 | 2016-10-05 | 发那科株式会社 | 机器人控制*** |
CN106125925B (zh) * | 2016-06-20 | 2019-05-14 | 华南理工大学 | 基于手势和语音控制的智能抓捕方法 |
CN106125925A (zh) * | 2016-06-20 | 2016-11-16 | 华南理工大学 | 基于手势和语音控制的智能抓捕方法 |
CN106422349A (zh) * | 2016-11-09 | 2017-02-22 | 遵义市斑寅科技有限公司 | 一种多功能机器人玩具 |
CN107185259A (zh) * | 2017-06-30 | 2017-09-22 | 美科科技(北京)有限公司 | 用于多方位连接的电子模块和模块化电子构建*** |
CN107703813A (zh) * | 2017-10-27 | 2018-02-16 | 安徽硕威智能科技有限公司 | 一种基于可编程卡片驱动的卡片机器人及其控制*** |
CN112789569A (zh) * | 2018-10-16 | 2021-05-11 | 索尼公司 | 信息处理装置、信息处理方法以及信息处理程序 |
CN112823083A (zh) * | 2018-11-05 | 2021-05-18 | 得麦股份有限公司 | 可配置和交互式的机器人*** |
CN115052717A (zh) * | 2020-02-17 | 2022-09-13 | 香港理工大学 | 便于老人训练和治疗的治疗机器人 |
CN114901570A (zh) * | 2020-02-28 | 2022-08-12 | 欧姆龙株式会社 | 控制装置及搬送*** |
CN114901570B (zh) * | 2020-02-28 | 2024-01-19 | 欧姆龙株式会社 | 控制装置及搬送*** |
Also Published As
Publication number | Publication date |
---|---|
EP1609568A4 (en) | 2010-03-03 |
US20060247825A1 (en) | 2006-11-02 |
KR20060006904A (ko) | 2006-01-20 |
US7885727B2 (en) | 2011-02-08 |
CN100352622C (zh) | 2007-12-05 |
EP1609568B1 (en) | 2012-07-04 |
JP2004299033A (ja) | 2004-10-28 |
WO2004089579A1 (ja) | 2004-10-21 |
EP1609568A1 (en) | 2005-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1761554A (zh) | 机器人设备、信息处理方法和程序 | |
CN110444191B (zh) | 一种韵律层级标注的方法、模型训练的方法及装置 | |
CN1132148C (zh) | 语音识别对话装置 | |
CN1204543C (zh) | 信息处理设备,信息处理方法和存储介质 | |
KR100940630B1 (ko) | 로봇 장치와, 문자 인식 장치 및 문자 인식 방법과, 제어프로그램 및 기록 매체 | |
CN1220174C (zh) | 话音输出装置和方法 | |
CN1372505A (zh) | 机器人控制装置和方法 | |
US11675360B2 (en) | Information processing apparatus, information processing method, and program | |
CN1591569A (zh) | 语音通信***和方法、及机器人装置 | |
WO2022156654A1 (zh) | 一种文本数据处理方法及装置 | |
CN1221936C (zh) | 词序列输出设备 | |
KR20190098099A (ko) | 안마 기구 | |
US11478925B2 (en) | Robot and method for controlling same | |
JP4433273B2 (ja) | ロボット装置及びロボット装置の制御方法 | |
JP4600736B2 (ja) | ロボット制御装置および方法、記録媒体、並びにプログラム | |
US20200346341A1 (en) | Information processing apparatus, information processing method, and program | |
JP2005335001A (ja) | ロボット制御装置および方法、記録媒体、並びにプログラム | |
JP2004304714A (ja) | 情報処理システム、情報処理装置、情報処理方法、およびプログラム | |
JP2004286805A (ja) | 話者識別装置および話者識別方法、並びにプログラム | |
WO2020130734A1 (ko) | 사용자 상태에 기초하여 반응을 제공하는 전자 장치 및 그의 동작 방법 | |
WO2020004213A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2003044080A (ja) | ロボット装置、文字認識装置及び文字認識方法、並びに、制御プログラム及び記録媒体 | |
JP2004258289A (ja) | ロボット制御装置および方法、記録媒体、並びにプログラム | |
JP2004309523A (ja) | ロボット装置の動作パターン共有システム、ロボット装置の動作パターン共有方法、及びロボット装置 | |
CN118016094A (zh) | 一种智能体的发声方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20071205 Termination date: 20210318 |