CN101020312A - 基于网络功能的机器人传递行为的方法和装置 - Google Patents
基于网络功能的机器人传递行为的方法和装置 Download PDFInfo
- Publication number
- CN101020312A CN101020312A CN 200710005688 CN200710005688A CN101020312A CN 101020312 A CN101020312 A CN 101020312A CN 200710005688 CN200710005688 CN 200710005688 CN 200710005688 A CN200710005688 A CN 200710005688A CN 101020312 A CN101020312 A CN 101020312A
- Authority
- CN
- China
- Prior art keywords
- behavior
- robot
- sensor
- network based
- mark
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种基于网络功能的机器人传递行为的方法,涉及网络机器人技术,为解决用户通过网络更充分的交互提出。具体方案包括:发送端机器人通过传感器感知用户对机器人的行为,并转化为行为信号,发送端机器人感知的行为信号经过信号数据分析,得出行为标记;将行为标记通过网络发送给接收端机器人;接收端机器人对接收到的行为标记分析,展示行为。本发明还公开了一种实现上述方法的装置。通过机器人之间的行为传递达到用户之间的交互,增加了消息传递的方式,丰富了用户传递感情的方式,可以更为有效地表达情感,并且增加了用户传递情感的类型,能够达到更充分的交互。
Description
技术领域
本发明涉及一种网络机器人技术,尤其涉及一种能够传递动作、声音、文字、图像的基于网络功能的机器人传递行为的方法和装置。
背景技术
目前,人们的交流方式越来越多样化,除了传统的电话以外,可视化的交流已经渐渐普及。电脑以及互联网的广泛应用更促进了多媒体通讯以及交流的发展,即时聊天软件通过互联网连接到一台或多台服务器进行聊天。这种方式速度快、功能多,深受网友喜爱,如美国微软公司的MSN,美国雅虎公司的雅虎通,腾讯公司的QQ等。在即时聊天软件里,人们不但可以发送传统的文字,声音和图片到对方的电脑屏幕上,还可以发送动态的图标到对方电脑屏幕上来表达更为丰富的感情,通常称之为表情信息,如开心,忧伤,哭泣,惊讶等。然而,无论是基于电脑或电话的聊天软件都只能传递动画,文字和声音,而无法将人们的感情信息以动作的方式进行传递,更无法将动作展现出来。文字、声音和图片的传输通常是通过按照一定的格式或者编码转换的数字信号,通过相应的传输协议,比如超文本传输协议http、文件传输协议ftp、简单对象访问协议SOAP传输。
随着机器人技术的发展,除工业用机器人外,家用机器人也取得了巨大的进步,机器人已经成为学习、生活、娱乐的好伙伴。家用机器人有五大类型:娱乐机器人可以带来欢乐,如宠物机器人等;应用机器人用于保卫家庭,如吸尘器机器人等;静态机器人能够安排生活,如智能药箱机器人等;助理机器人可以帮你认人;类人机器人拥有复杂的情感,如索尼的QRIO类人机器人。本发明的基于网络功能的机器人是家用机器人的一种。
中国专利公开号为CN1900987的专利申请文件公开的是使用自行机器人的家庭网络***,该自行机器人和通过网络连接的家用设备可以被在室内或者在户外无线的控制。该自行机器人接收从无线操作单元传送的操作命令,将表示是否已经接收到该命令的信息传送给该操作单元,执行对应于该命令的任务,并且输出控制信号给可访问的家用设备。但是,在这样的家庭网络***中,并不能实现机器人之间的行为传递,不能达到充分交互的目的。
中国专利公开号为CN1734521A的专利申请文件公开的是对话型宠物机器人,能够进行简单人机交互。对话型宠物机器人具有控制部,用于进行按照从存储部读出的程序的记述处理。程序用分支规定与用户的会话顺序,对应记述着某一提问的内容、成为对提问的回答的多个选择支和对每个选择支的动作。当语音输出提问内容的情况下,将与提问对应的多个选择支作为对提问的回答的候选显示在显示器上。当通过用户说话显示在显示器上的多个选择支中的任何一个全文的情况下,进行语音识别,特定与用户的说话对应的一个选择支,并且将与该一个选择支对应的动作决定为对回答对话型宠物机器人下一步应采取的反应。但是,在这样的对话型宠物机器人中,只能提供人与机器人的直接对话,并无法通过网络实现远程交流,而且,表现形式较为单一,只具有对话方式并不能非常有效的表达情感。在结构上无法实现表情、动作、灯光等效果,因此这种对话型宠物机器人并不能够达到充分交互的根本目的。
发明内容
有鉴于此,本发明的主要目的在于提供一种基于网络功能的机器人传递行为的方法和装置,用户可以通过机器人经网络交互,能有效地支持表情、声音和动作信息通过网络传递,并用动作、声音和/或灯光等表现出来。
为达到上述目的,本发明的技术方案是这样实现的:
一种基于网络功能的机器人的传递行为的方法,其特征在于,该方法包括以下步骤:
a.发送端机器人通过传感器感知用户对机器人的行为,并转化为行为信号,发送端机器人感知的行为信号经过信号数据分析,得出行为标记;
b.将行为标记通过网络发送给接收端机器人;
c.接收端机器人对接收到的行为标记分析,展示行为。
所述行为包括动作、声音和/或灯光。
所述传感器感知用户对机器人的行为包括用户对机器人所做的触摸、手势动作、声音和/或用户对机器人肢体动作的关节转动。
所述信号数据分析包括信号数据预处理和行为检索。
所述行为标记分析包括行为标记检索和行为分解。
一种基于网络功能的机器人传递行为的装置,其特征在于,该装置包括:
传感器,用于感知用户对机器人所做的行为,得出行为信号;
存储器,用于存储行为标记;
微处理器,对所述行为信号进行信号数据分析得出行为标记,及对行为标记分析;
网络适配器,用于连接网络,将行为标记发送到接收端,及从发送端接收行为标记;
驱动装置,根据行为标记分析,展现机器人动作。
所述驱动装置包括驱动单元、驱动电机、扬声器、显示装置和/或发光装置。
所述驱动电机包括颈部驱动电机、手臂驱动电机和/或躯干驱动电机。
所述传感器为触觉传感器、手势动作传感器、编码传感器和/或声音传感器。
所述触觉传感器包括头部触觉传感器和/或手臂触觉传感器;
所述手势动作传感器包括距离传感器、视觉传感器和光敏传感器;
所述编码传感器包括颈部编码传感器、手臂编码传感器和/或躯干编码传感器。
因此,本发明的基于网络功能的机器人传递行为的方法和机器人传递行为的装置中,用户对机器人的行为,通过网络传送给接收端机器人,接收端机器人展示行为,接收端用户得知该行为后,也可将需要传送的行为反馈给发送端,完成行为的交互。通过机器人之间的行为传递达到用户之间的交互,可以更为有效地表达情感,丰富了用户传递感情的方式。与现有技术中只应用即时通讯终端发送消息给接收端机器人的方式相比,本发明中的机器人通过传感器感知用户行为,并通过信号数据预处理,得出行为标记,通过网络发送,增加了消息的方式,并且能够达到更充分的交互。此外,基于网络功能的机器人传递行为的方法和装置借助于动作、灯光、声音表现形式,增加了用户传递情感的类型。
附图说明
图1为本发明基于网络功能的机器人传递行为的***架构示意图;
图2为本发明基于网络功能的机器人传递行为的***流程图;
图3为本发明中基于网络功能的机器人传递行为的装置内部连接方式示意图;
图4为本发明中基于网络功能的机器人传递行为的装置的结构示意图。
具体实施方式
下面结合附图及具体实施例对本发明再作进一步详细的说明。
如图1所示,本发明的机器人本体101和102可以通过无线109利用无线网卡110连接到个人电脑(PC)主机103,或者直接通过有线111经串口连接到PC主机104,PC主机103和104再连接到互联网107;机器人本体101和102也可以通过无线108经无线路由器106连接到互联网107,无线路由器106可以让无线设备直接连接到互联网而不需要使用额外PC。
发送端机器人101感知用户对机器人的行为,将行为转化为行为标记,行为标记是指行为的名称,用于标记行为信息。行为标记经互联网发送到接收端机器人102,接收端机器人102将行为标记转化成控制信号,控制机器人发出动作、声音、灯光。
用户也可使用即时通讯终端设备,比如,个人数字助理(PDA)112、移动电话113或者电脑114给接收端机器人发送消息,接收端机器人将接收到的信息转化成控制信号,控制机器人发出动作、声音、灯光。
如图2所示,触觉传感器201检测用户对发送端机器人的触摸动作;手势动作传感器202检测用户对发送端机器人的手势动作;编码传感器203是一种可以感知连接在传感器上的轴转动角度和速度的传感器,用于检测用户对机器人头部、手臂和躯干部的转动。声音传感器204检测用户对机器人发送的语音信号。
传感器检测到的信号进行信号数据预处理206,去除噪声,并将不同的信号以可接受的数据形式进行信号转换以及编码。
行为模式库207和209是两个数据库,存储着所有行为的行为标记和行为特征码,两个数据库内容相同的。行为标记是指行为的名称,行为特征码是指该行为具有的一系列特征,一个行为标记包括多个行为特征码。比如,行为标记1是指行为“开心”,包括行为特征码11、12和13,行为特征码11表示“手臂抬起90度,并保持5秒”,行为特征码12表示“脸部绿色的LED灯闪烁20次,每次间隔1秒”,行为特征码13表示“声音响起,并保持5秒”。
信号数据预处理206后,微处理器在行为模式库207中检索出行为标记。即时通讯终端发送的消息205也可以作为行为标记。行为标记传输208是行为标记通过互联网传送到接收端机器人。接收端机器人根据行为标记在行为模式库209中匹配,得出行为特征码。接收端机器人根据行为特征码将行为分解210,获得行为的控制信号。接收端机器人根据控制信号控制液晶显示屏211、灯光212、扬声器213和驱动电机214,从而完成整个行为的识别,传输和展示过程。比如,接收端机器人接收到行为标记1,微处理器在行为模式库中匹配,得出行为特征码11,12和13,行为分解,获得行为控制信号,控制驱动电机,使机器人手臂抬起90度,并保持5秒,控制脸部绿色的LED灯闪烁20次,每次间隔1秒,控制扬声器发出声音,并保持5秒。
如图3和图4所示,触觉传感器201是一种可以感知触摸动作的传感器,头部触觉传感器301装于机器人头部401顶端,用于获取用户对机器人的头部401的触摸动作信号;手臂触觉传感器302装于手臂404终端,用于获取用户对机器人手臂404的触摸动作信号。
手势动作传感器202用于感知用户对机器人的手势动作信息,由距离传感器303、视觉传感器304以及光敏传感器305配合完成。手势动作的检测通过距离传感器303、视觉传感器304以及光敏传感器305互相配合实现。光敏传感器305可以感知外界光线强弱,用于判断是否进行手势动作触发;视觉传感器304用于采集手势动作图像,通常为摄像头;距离传感器303可以检测出用户手势动作对于机器人的距离改变。视觉传感器304采集到的图像信息以及距离传感器303感知的距离改变的幅度和频率信息将结合起来作为手势动作信号。
编码传感器203是一种感知连接在传感器上的轴转动角度和速度的传感器,用于感知用户对机器人肢体的动作而造成的关节转动信号。颈部编码传感器306装于颈部、用于感知机器人头部401的转动信号;手臂编码传感器307装于手臂404终端,用于感知手臂404的转动信号;躯干编码传感器308装于腰部405,用于感知机器人躯干部402的转动信号。
声音传感器204是一种可以感知语音信息的传感器,装于机器人头部401,用于感知用户对机器人发送的语音信号。声音传感器204多为麦克风。
信号处理单元309将传感器感知的信号进行初步处理,目的是去除噪声,并将不同的信号以能被微处理器310接受的数据形式进行信号转换以及编码。网络适配器312可以获得从另一个机器人或者即时通讯终端传送过来的行为标记,也可以将本机器人的行为标记通过互联网传送给另一个机器人。网络适配器312分为有线方式和无线方式。网络适配器312有线方式是通过计算机串行接口、通用串行总线(USB)接口或者有线以太网实现,网络适配器312无线方式是通过蓝牙或者无线网卡实现。存储器313中存储着包括行为标记和行为特征码的行为模式库。微处理器310可以在行为模式库中检索出相应的行为标记。微处理器310对信号分类以及进行动作分解。驱动单元311将信号转化成液晶显示屏控制信号、灯光控制信号、扬声器控制信号以及电机驱动信号。
液晶显示屏211装于机器人的躯干部402,用于显示日期、时间、问候语、在线人员姓名、聊天内容、传送的图片表情、天气预报,网络预定的新闻等。灯光212包括头部灯光显示屏317和手臂灯光318,用于展示表情,灯光多采用发光二极管(LED)灯。扬声器213装于机器人的底座403上,用于机器人的声音展现。驱动电机214分为颈部驱动电机314、手臂驱动电机315以及躯干驱动电机316。机器人的肢体运动包括三部分,头部401的三自由度转动,由三个颈部驱动电机314实现;手臂404的二自由度转动,每个手臂404的运动由二个手臂驱动电机315实现;以及躯干部402的一个自由度的转动,由装于腰部405的一个躯干驱动电机316实现。
机器人作为发送端,机器人内部工作流程:信号处理单元309初步处理传感器感知到的信号和即时通讯终端发送的信息,微处理器310利用处理后的信号,在存储器313的行为模式库中检索出行为标记,网络适配器312将行为标记通过互联网传送到接收端。
机器人作为接收端,机器人内部的工作流程:机器人通过网络适配器312接收行为标记,微处理器310在存储器313的行为模式库中根据行为标记得出行为特征码,将信号分解。驱动单元311将分解后的信号转化为机器人控制信号,控制机器人动作、声音、灯光展示。
可见,应用上面描述的基于网络功能的机器人传递表情、声音和动作信息的方法和基于网络功能的机器人装置,能有效支持表情、声音和动作信息通过互联网传递和交互,并能够利用动作、声音、灯光效果等表现出来。
以上所述,仅为本发明的较佳实施例而已,并非用来限定本发明的保护范围。
Claims (10)
1、一种基于网络功能的机器人的传递行为的方法,其特征在于,该方法包括以下步骤:
a.发送端机器人通过传感器感知用户对机器人的行为,并转化为行为信号,发送端机器人感知的行为信号经过信号数据分析,得出行为标记;
b.将行为标记通过网络发送给接收端机器人;
c.接收端机器人对接收到的行为标记分析,展示行为。
2、根据权利要求1所述的基于网络功能的机器人传递行为的方法,其特征在于,所述行为包括动作、声音和/或灯光。
3、根据权利要求1所述的基于网络功能的机器人传递行为的方法,其特征在于,所述传感器感知用户对机器人的行为包括用户对机器人所做的触摸、手势动作、声音和/或用户对机器人肢体动作的关节转动。
4、根据权利要求1至3中任一项所述的基于网络功能的机器人传递行为的方法,其特征在于,所述信号数据分析包括信号数据预处理和行为检索。
5、根据权利要求1至3中任一项所述的基于网络功能的机器人传递行为的方法,其特征在于,所述行为标记分析包括行为标记检索和行为分解。
6、一种基于网络功能的机器人传递行为的装置,其特征在于,该装置包括:
传感器,用于感知用户对机器人所做的行为,得出行为信号;
存储器,用于存储行为标记;
微处理器,对所述行为信号进行信号数据分析得出行为标记,及对行为标记分析;
网络适配器,用于连接网络,将行为标记发送到接收端,及从发送端接收行为标记;
驱动装置,根据行为标记分析,展现机器人动作。
7、根据权利要求6所述的基于网络功能的机器人传递行为的装置,其特征在于,所述驱动装置包括驱动单元、驱动电机、扬声器、显示装置和/或发光装置。
8、根据权利要求7所述的基于网络功能的机器人传递行为的装置,其特征在于,所述驱动电机包括颈部驱动电机、手臂驱动电机和/或躯干驱动电机。
9、根据权利要求6至8中任一项所述的基于网络功能的机器人传递行为的装置,其特征在于,所述传感器为触觉传感器、手势动作传感器、编码传感器和/或声音传感器。
10、根据权利要求9所述的基于网络功能的机器人传递行为的装置,其特征在于,所述触觉传感器包括头部触觉传感器和/或手臂触觉传感器;所述手势动作传感器包括距离传感器、视觉传感器和光敏传感器;所述编码传感器包括颈部编码传感器、手臂编码传感器和/或躯干编码传感器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 200710005688 CN101020312A (zh) | 2007-03-13 | 2007-03-13 | 基于网络功能的机器人传递行为的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 200710005688 CN101020312A (zh) | 2007-03-13 | 2007-03-13 | 基于网络功能的机器人传递行为的方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101020312A true CN101020312A (zh) | 2007-08-22 |
Family
ID=38708228
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 200710005688 Pending CN101020312A (zh) | 2007-03-13 | 2007-03-13 | 基于网络功能的机器人传递行为的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101020312A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101947788A (zh) * | 2010-06-23 | 2011-01-19 | 焦利民 | 一种智能机器人 |
CN102035808A (zh) * | 2009-09-30 | 2011-04-27 | 北京拉手网络技术有限公司 | 多媒体交互方法、***、多媒体终端及多媒体服务端 |
CN102065566A (zh) * | 2010-12-27 | 2011-05-18 | 广东工业大学 | 一种多机器人***的快速会话建立方法 |
CN102596516A (zh) * | 2009-07-10 | 2012-07-18 | 奥尔德巴伦机器人公司 | 用于产生移动机器人的情境行为的***和方法 |
CN102822814A (zh) * | 2010-03-18 | 2012-12-12 | 惠普发展公司,有限责任合伙企业 | 与设备的交互 |
CN105144202A (zh) * | 2013-03-04 | 2015-12-09 | 微软技术许可有限责任公司 | 基于人类-机器人交互来调节机器人行为 |
CN105929942A (zh) * | 2015-02-27 | 2016-09-07 | 意美森公司 | 基于用户情绪产生动作 |
CN105960623A (zh) * | 2014-04-04 | 2016-09-21 | Abb瑞士股份有限公司 | 用于控制机器人的便携式装置及其方法 |
WO2017101128A1 (zh) * | 2015-12-17 | 2017-06-22 | 深圳市知加力科技开发有限公司 | 具有情绪表现能力的机器人 |
-
2007
- 2007-03-13 CN CN 200710005688 patent/CN101020312A/zh active Pending
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102596516A (zh) * | 2009-07-10 | 2012-07-18 | 奥尔德巴伦机器人公司 | 用于产生移动机器人的情境行为的***和方法 |
CN102596516B (zh) * | 2009-07-10 | 2016-04-13 | 奥尔德巴伦机器人公司 | 用于产生移动机器人的情境行为的***和方法 |
CN102035808A (zh) * | 2009-09-30 | 2011-04-27 | 北京拉手网络技术有限公司 | 多媒体交互方法、***、多媒体终端及多媒体服务端 |
CN102822814A (zh) * | 2010-03-18 | 2012-12-12 | 惠普发展公司,有限责任合伙企业 | 与设备的交互 |
CN101947788A (zh) * | 2010-06-23 | 2011-01-19 | 焦利民 | 一种智能机器人 |
CN102065566A (zh) * | 2010-12-27 | 2011-05-18 | 广东工业大学 | 一种多机器人***的快速会话建立方法 |
US9956687B2 (en) | 2013-03-04 | 2018-05-01 | Microsoft Technology Licensing, Llc | Adapting robot behavior based upon human-robot interaction |
CN105144202A (zh) * | 2013-03-04 | 2015-12-09 | 微软技术许可有限责任公司 | 基于人类-机器人交互来调节机器人行为 |
US11097424B2 (en) | 2013-03-04 | 2021-08-24 | Microsoft Technology Licensing, Llc | Adapting robot behavior based upon human-robot interaction |
US10300606B2 (en) | 2013-03-04 | 2019-05-28 | Microsoft Technology Licensing, Llc | Adapting robot behavior based upon human-robot interaction |
CN105144202B (zh) * | 2013-03-04 | 2017-10-24 | 微软技术许可有限责任公司 | 基于人类‑机器人交互来调节机器人行为 |
CN105960623A (zh) * | 2014-04-04 | 2016-09-21 | Abb瑞士股份有限公司 | 用于控制机器人的便携式装置及其方法 |
US10166673B2 (en) | 2014-04-04 | 2019-01-01 | Abb Schweiz Ag | Portable apparatus for controlling robot and method thereof |
CN105960623B (zh) * | 2014-04-04 | 2019-02-05 | Abb瑞士股份有限公司 | 用于控制机器人的便携式装置及其方法 |
CN105929942A (zh) * | 2015-02-27 | 2016-09-07 | 意美森公司 | 基于用户情绪产生动作 |
WO2017101128A1 (zh) * | 2015-12-17 | 2017-06-22 | 深圳市知加力科技开发有限公司 | 具有情绪表现能力的机器人 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101020312A (zh) | 基于网络功能的机器人传递行为的方法和装置 | |
JP5040865B2 (ja) | ロボット制御システム、遠隔管理装置、遠隔管理方法及びプログラム | |
CN101927492B (zh) | 一种家用智能机器人*** | |
TWI430189B (zh) | 訊息擬真處理系統、裝置及方法 | |
CN107018237A (zh) | 一种未读消息处理方法、终端及计算机可读存储介质 | |
WO2018012073A1 (ja) | エージェントロボット制御システム、エージェントロボットシステム、エージェントロボット制御方法、および記録媒体 | |
CN1501278A (zh) | 使用巨型计算机的家庭机器人和家庭网络*** | |
US8103382B2 (en) | Method and system for sharing information through a mobile multimedia platform | |
CN109389005A (zh) | 智能机器人及人机交互方法 | |
CN107945029A (zh) | 保险产品的推送方法、***、终端、客户终端及存储介质 | |
CN107358953A (zh) | 语音控制方法、移动终端及存储介质 | |
CN106325065A (zh) | 机器人交互行为的控制方法、装置及机器人 | |
CN201813390U (zh) | 基于网络传递行为的机器人装置 | |
CN108021397A (zh) | 一种日程处理方法、装置及移动终端 | |
CN106325228A (zh) | 机器人的控制数据的生成方法及装置 | |
CN108536638A (zh) | 智能书签的设置方法、移动终端、***及可读存储介质 | |
CN107220850A (zh) | 一种广告的推送方法、终端及计算机可读存储介质 | |
CN106826851A (zh) | 一种基于多传感器融合技术的智能早教机器人 | |
CN108765522A (zh) | 一种动态图像生成方法及移动终端 | |
CN105388786B (zh) | 一种智能提线木偶偶人控制方法 | |
CN107864086A (zh) | 信息快速分享方法、移动终端及计算机可读存储介质 | |
EP1496678A3 (en) | Mobile communication terminal and method for inputting characters by speech recognition | |
Chen et al. | Human-robot interaction based on cloud computing infrastructure for senior companion | |
CN107450744A (zh) | 一种个人信息输入方法和移动终端 | |
Brunette et al. | Some sensor network elements for ubiquitous computing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Open date: 20070822 |