CN101650553B - 控制智能机器人和制作机器人内容的制作工具的应用方法 - Google Patents

控制智能机器人和制作机器人内容的制作工具的应用方法 Download PDF

Info

Publication number
CN101650553B
CN101650553B CN 200810131379 CN200810131379A CN101650553B CN 101650553 B CN101650553 B CN 101650553B CN 200810131379 CN200810131379 CN 200810131379 CN 200810131379 A CN200810131379 A CN 200810131379A CN 101650553 B CN101650553 B CN 101650553B
Authority
CN
China
Prior art keywords
robot
content
tools
behavior
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN 200810131379
Other languages
English (en)
Other versions
CN101650553A (zh
Inventor
申庆澈
朴性州
姜福炫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
YOUJIN ROBOT CO Ltd
Original Assignee
YOUJIN ROBOT CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by YOUJIN ROBOT CO Ltd filed Critical YOUJIN ROBOT CO Ltd
Priority to CN 200810131379 priority Critical patent/CN101650553B/zh
Publication of CN101650553A publication Critical patent/CN101650553A/zh
Application granted granted Critical
Publication of CN101650553B publication Critical patent/CN101650553B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)

Abstract

本发明提供控制智能机器人和制作机器人内容的制作工具的应用方法。使用本发明的机器人制作工具,即便是没有任何硬件控制程序设计经验的用户也可以通过简单的学习就能够控制由机器人的头、轮、胳膊和脸部表情组成而表现感情的眼睛和嘴LED,并按照机器人行为的类别根据各种相互不同的多种参数值变形,可以便利地制作机器人的动作,因此不仅可以缩短开发机器人服务的时间,还可以减少相应的精力。这样普通人也可以轻易地利用自己的机器人制作基于多媒体的机器人程序。而且通过机器人的内容播放器和三维仿真器,即便是没有机器人也可以确认音频、影像引擎、动作表现等内容的动机。

Description

控制智能机器人和制作机器人内容的制作工具的应用方法
技术领域
本发明是涉及控制智能机器人和制作机器人内容用的制作工具及其应用方法,更具体地说,涉及如下的应用方法和内容的制作方法:利用用于制作可对智能型机器人进行程序化的基于多媒体的控制程序和机器人内容的制作工具,有效控制智能型机器人的硬件和显示装置。
背景技术
通常,为了控制机器人,大多数情况下,要经过如下的一系列过程:开发人员按需开发程序后,通过对机器人直接执行后找出结果的错误,进行多次调试。
尤其,程序员需要在程序中在代码级别上对机器人动作、音频识别、音频合成、GUI(Graphical User Interface)等全面事项进行逻辑编码,而且在修改及维护时也需要进行频繁的制作后直接对机器人进行测试,因此不仅需要专业知识,还需要大量的时间和费用。
还有,连接显示的画面和实际机器人动作完成同步化的过程也非常不容易。
由于这些技术限制,为智能型机器人商品化,利用多种机器人资源,开发能够有效地向最终用户传达体系化信息的大量机器人用内容的必要性无法得到满足,而且能够给实际生活提供多种有用内容的机器人予以商品化也是一个难题。
而且,为开发机器人服务,大多数情况下,必须由程序员直接进行编码或编制单独脚本,这样就给内容开发专家使用带来了难度,因此很难期待开发出高质量的机器人服务。
发明内容
本发明是考虑以上的缺点作出的,目的在于提供为了有效控制智能型机器人的硬件及显示装置,基于多媒体,对智能型机器人进行程序化的制作工具及利用这些给用户提供更加人性化界面的机器人用内容的制作方法。
尤其是,提供利用了如下制作工具的智能型机器人的内容制作方法:在制作为了对机器人进行程序化而开发的基于多媒体的控制程序的过程中,为了由不是程序员的普通用户通过组合机器人的动作行为、音频识别、音频合成、GUI等而有效控制机器人的内容。
本发明提供用于控制智能型机器人和制作机器人用内容的制作工具的应用方法,利用包括机器人动作窗口的机器人制作工具制作机器人内容,其中,所述机器人窗口由如下部分构成:命令种类,其用于区分头、轮、胳膊、眼睛、以及嘴的机器人控制部位;命令代码,其按照进行控制的部位,对可行的行为模式以固有代码进行定义;命令名称,其对各个行为代码进行赋予;用于机器人行为的详细控制的参数种类;以及上下极限值,其表示在机器人硬件中可以处理的限度范围,该应用方法的特征在于,该应用方法包括执行如下处理的步骤:在PC中进行再现时,同时驱动内容播放器、音频识别和合成引擎、三维机器人仿真器;在内容播放器中预先仿真由所述机器人制作工具制作的机器人内容,在实际机器人中将由播放器产生的命令传达给机器人,在PC中将命令传达给仿真器;以及在驱动三维仿真器时,如实地表现与机器人动作相同的头、轮、胳膊、眼睛、以及嘴的动作情况。
还有,本发明提供如下的用于控制多平台机器人的常用机器人制作工具的应用方法:机器人开发者无需追加程序设计作业,也能够由内容开发人员快捷而便利地开发机器人用内容的制作环境,并通过支持内容再现和仿真功能,保持了在制作机器人内容时最大限度减少错误发生等现有机器人制作工具的优点,同时将分离为具有内容信息的文件和具有机器人命令的文件的制作和再现结构合并成了一个内容文件,从而解决了同步化相关限制,改善了在每次开发新机器人时需要重新开发制作工具和内容的缺点。
还有,本发明提供如下的网络环境中的人性化机器人内容制作***:管理服务器中具备可以在网络环境中制作机器人内容的内容制作模块,从而摆脱只限现有机器人开发人员及提供服务的企业制作机器人行为或事件情节的制作限度,能够使机器人用户轻易地接受并制作情节,并通过这些可以执行多种机器人动作,制作符合用户个性的各个情节,增大自身对机器人的亲密度,而且还可以进一步提高机器人应用度或关注度。
为了实现上述机器人制作工具的应用方法,本发明的用于控制多平台机器人的常用制作工具的应用方法,利用机器人动作、音频识别、音频合成等的对机器人的所有控制和基于多媒体的制作功能、以及能够使不具有机器人的用户也可以进行与机器人相同形式的仿真的内容播放器和三维仿真器,并且营造出具有有机器人动作信息及音频合成、音频识别登记用的静态客体信息窗口的制作环境,该应用方法包括:定义机器人命令的定义步骤;输入所述定义的机器人命令而使用的输入步骤;根据所述输入的命令制作内容的制作步骤;传达步骤,执行所述制作的内容,并把所述机器人命令传达到所述机器人的控制器;以及根据所述传达的命令驱动机器人的驱动步骤。
还有,为实现内容制作方法,本发明的网络环境中的人性化机器人内容制作***,在网络环境中制作机器人内容,将其传输给机器人,并驱动机器人,该网络环境中的人性化机器人内容制作***包括:存储并提供多个机器人内容和机器人内容制作工具的管理服务器;用户终端,其通过通信网络与所述管理服务器连接,通过由管理服务器提供的机器人内容和制作工具,当用于输入命令信息时,制作出执行一定动作的机器人内容;以及接收通过所述用户终端制作的机器人内容而执行该内容的机器人。
由此,根据本发明,提供即便是对控制机器人没有专业知识的人也可以通过短期学习就能制作与机器人联动的多媒体内容的程序环境。
而且,可以按机器人的身体部位及动作特性适用各不相同种类的参数,重新制作未定义的多种机器人的动作。
还有,通过机器人制作工具提供控制机器人表情、感情、头、轮、胳膊等的硬件控制和音频合成及音频识别的功能,可以与GUI一同开发高复用度的机器人内容,而且具有缩短开发期限和减少费用的效果,同时,通过内容播放器及三维仿真器在PC中也可以完美地仿真制作的机器人内容,完成事前检查作业及欣赏等。
虽然目前使用的技术情况只能处理定义的机器人动作行为,但本发明通过按行为种类赋予多种形式的参数属性,可以体现内容制作者希望的更加准确的机器人动作行为。
尤其是,不实际拥有机器人的内容制作人员在利用机器人制作工具制作内容后,通过播放器、音频合成及识别引擎、仿真器等可以完美地仿真内容和机器人的同步化等。
而且,因本发明中修改变更事项及今后的更新都非常容易,在制作机器人内容时可以节省大量的费用和时间。
还有,根据用于控制多平台的机器人的本发明的机器人制作工具的应用方法,可以利用常用化的多媒体机器人制作工具的行为脚本添加具有复杂参数的机器人详细的控制,而且通过自动编制脚本函数的机器人制作工具可提供即便是机器人用内容制作人员不具备对机器人或特定函数的专业知识,也能够便利地进行开发的界面,因此在机器人商品化中可以提供能够开发高附加值内容的技术。
而且本发明还可以适用到国内外开发中的多种形式的其他类型机器人界面中,从而减少重复开发的负担,可以在较短的时间内开发出高完成度的机器人用内容。
还有可以通过添加适用用户应答、导航、脸部识别等客体,提供与PC差别化及体现机器人特性内容的功能。
同时,即便是机器人处于开发中或开发人员实际不拥有机器人,也可以通过提供在PC环境中播放的完美的仿真功能,最大限度减少验收步骤时间和费用。
还有,因本发明的管理服务器中具备可以在网络环境中制作机器人内容的内容制作模块,从而摆脱了只限现有机器人开发人员及提供服务企业制作机器人行为或事件情节的制作限度,可以使机器人用户能够轻易地接受机器人制作情节,完成更加多样的机器人动作。
而且,还可以制作符合用户各自个性的情节,增大自身对机器人的亲密度,进一步提高对机器人应用度或关注度。
同时,通过提供共享模块共享各个用户制作的机器人内容,能够开发多数人多样的机器人行为及事件。
附图说明
图1是示出本发明的机器人制作工具的编辑画面的图。
图2是示出本发明的机器人的直接驱动部分的图。
图3是示出开发及再现机器人内容过程的流程图。
图4a是机器人制作工具的定义的XML文件的画面。
图4b是定义机器人动作控制命令的表。
图4c是定义机器人动作控制参数的表。
图5a是控制机器人动作的Behavior Control Window(行为控制窗口)画面。
图5b是控制机器人位置的Navigation Service Window(导航服务窗口)画面。
图5c是控制机器人音频识别和音频合成的Voice Service Window(音频服务窗口)画面。
图5d是控制机器人识别脸部、检测脸部、识别事物等影像识别的Vision Service Window(视频服务窗口)画面。
图5e是提供机器人的电池、音频、***等信息的Information ServiceWindow(信息服务窗口)画面。
图6是再现通过本发明开发的内容的播放器和三维仿真器画面。
图7是本发明的管理服务器提供的机器人制作工具结构图。
图8是图7中的管理服务器的结构图。
图9是本发明的基于网络的机器人UCC制作工具屏幕截图画面。
具体实施方式
以下通过附图,更详细地说明本发明的相关内容。
图1是示出本发明的机器人制作工具的编辑画面的图,在执行动画制作工具(flash)和机器人制作工具的状态下,具有用于登记机器人动作信息及音频识别的机器人制作工具(机器人行为信息)窗口。
即,在执行机器人制作工具的状态下,在右侧有执行用于登记机器人动作信息及音频识别的音频识别窗口。登记新机器人动作的模式及实际登记音频合成、音频识别词汇的作业都在机器人动作信息窗口完成。
还有,用户自定义动作的添加也是通过机器人制作工具提供的功能完成。机器人制作工具通过指定粘贴脚本的焦点区域的功能来自动添加选择的命令。把动画制作工具函数fscommand脚本***到动画制作工具的相应部分上。
区分头、轮、眼睛、嘴、胳膊等机器人控制部位的就是命令语的种类。需要按机器人添加胳膊或追加控制关节时,如果利用装有机器人控制相关信息的外部文件中规定的通信协议定义命令语代码和参数,则内容开发人员在执行机器人制作工具时动态加载到目录中。由此机器人制作工具可以制作符合特定目的和用途的机器人内容。
对各个命令模式的参数具有动态加载的结构。比如,虽然现有的机器人可以通过5个参数种类进行所有的控制,但如果想控制更加复杂的具有胳膊和腿部关节的机器人,可能需要10个以上或更多的参数。
因此装有机器人信息的外部文件中不仅有模式信息,还具有参数种类及基本值。这时随其他参数变动而变更上下极限值限制等的修改式也以独立的外部文件形式存在,不被特定机器人所从属,因此可以进行扩展。
图1中的脚本生成区域将在图5a及5e中详细说明。
新机器人动作的模式登记及实际登记音频合成、音频识别词汇的作业都在机器人行为信息窗口中实现。而且用户自定义行为客体的添加也是通过机器人制作工具提供的选项功能完成。把机器人制作工具中生成的fscommand***到动画制作工具的time line中相应的位置。
这时,命令语的种类用来区分头、轮、眼睛、嘴、胳膊等的机器人控制部位,命令语代码按所控制的各个部位对可行的行为模式定义固有的代码。
需要按机器人添加胳膊或追加控制关节时,可以定义预先定义的命令语代码和参数以添加用户定义行为,制作符合相应机器人的内容,因此具有可以制作符合特定目的和用途的机器人用内容的通用性。
参数可以对机器人行为进行详细的控制,因此参数值类型和参数值被成对登记。以目前开发中的机器人为基准,所有机器人行为具有1秒维持时间和1次反复次数参数值。机器人内容制作人员可以任意设定维持时间和反复次数,并按行为的特性具有移动角度、移动距离、移动长度、移动终点、移动方向等多种类型的参数种类。
如果制作人员在制作内容时,为了使旁白声音等达到同步,用TTS变更延长维持时间或变更行为的反复次数或变更移动角度及移动距离等参数值时,可以通过脚本生成效果变更参数值,在生成脚本后即可自动生成机器人控制相关的″FsCommand″命令语。
这时机器人行为的反复次数受维持时间及移动距离或角度等的影响,所有参数的上下极限值都存在限制范围。
上下极限值是指机器人硬件能够处理的限度范围,在用户输入参数值后,将通过内部检查上下极限值,如果超过范围将会通过信息告知。
所有机器人行为中作为基本提供的值都是每妙1次,而内容制作人员可以在上下极限值范围内任意定义值。
比如,如果机器人头的上下移动最大角度为10度,那么在输入参数11度时将发出参数上下极限值超过的信息。或具有防止出现1秒的维持时间内上下摆头100次以上等过激行为的硬件控制的功能。
而且机器人制作人员可以轻易地添加新机器人行为和参数。通过简单的选项功能就可以按选项的各个步骤和顺序输入命令语代码和参数类型及种类、上下极限值,添加新的机器人行为。
图2是目前以开发结束而常用化的机器人,是示出本发明中直接驱动的图。在动画制作工具的time line中,可以通过结构进行方式的结构,控制头210、轮220和胳膊230的动作,可以通过控制眼睛240和嘴LED250,有效地表现脸部表情,可以通过头/耳朵/轮LED把机器人的感情状态传达给最终用户。
这时因LED按感情分别定义为三色,可以通过颜色表现机器人的情绪状态。
此外本发明中提供的time line图层结构还提供内容制作人员可以直接定义对韩英音频合成(TTS)和韩文音频识别事项的制作环境。在这里图中符号260是指TFT LCD(触摸屏)。
图3是示出开发及再现机器人内容过程的流程图。
参考图3,在本发明的机器人中开发及再现机器人内容的过程S300包括:定义机器人命令的定义步骤S310;输入所述定义的机器人命令而使用的输入步骤S320;根据所述输入的命令制作内容的制作步骤S330;执行所述制作的内容,并把所述机器人命令传达到所述机器人的控制器的传达步骤S340;以及根据所述传达的命令驱动机器人的驱动步骤S350。
由如上步骤构成的过程S300详细说明如下。
首先用XML等电脑语言定义机器人命令的自由度和极限值等参数S310。
如上定义的控制机器人所需XML信息在机器人制作工具中读出后输入S320。在脚本生成区域中提供机器人行为信息的同时,可以添加登记根据机器人不同的多种行为信息的命令而进行使用。
然后,根据所述输入的值,与动画制作工具等多媒体工具互动而转换为可以互换的特定函数FsCommand制作内容S330。作为常用多媒体工具的动画制作工具能够适用用于机器人的多种内容。
这样制作的内容通过内容播放器予以驱动,所述输入的命令就转达到传达步骤S340。内容播放器是可以把机器人制作工具制作的机器人内容以机器人或三维仿真器展现的程序,可以与画面上的UI联动而驱动机器人的动作S350。
图4a相当于图3中说明的定义步骤,是把开发机器人内容所需的所有机器人联动功能以XML定义的文件。将起到以后从机器人制作工具中加载而用于内容制作的程序库作用。XML定义要素包括所有装置控制、影像和音频引擎等。
图4b是示出XML中定义的机器人动作控制相关目录的图,可以控制机器人轮、头、胳膊、表情、位置等。此外XML还包括即将在图5中说明的音频引擎和影像引擎相关控制。
图4c是定义控制机器人动作时硬件参数属性的图。在开发机器人用内容的过程中,为控制硬件上的多种控制部分,需要定义多种动作模式,而且企划内容中要求通过更加精密的控制来表现多种动作。为此按各自的动作部位赋予符合其特性的参数种类及参数值,就能在机器人制作工具中制作内容的水平上,可以得到自由控制机器人的效果。
参数种类基本上包括执行相应机器人行为的维持时间和反复次数,此外还包括头、胳膊、轮的移动角度、移动距离、移动长度、移动终点、移动方向等多种类型。这里定义的有按行为代码定义的行为名称和各参数基本值、最小值、最大值。维持时间是指持续维持相应行为的时间,单位为秒(sec)。最大可定义为3600秒,即1小时。反复次数是对维持时间的行为进行反复的属性,反复次数的最大值受维持时间、移动角度、旋转角度、晃动次数等的影响。
图5是本发明的机器人制作工具的各个窗口画面示意图。
图5a是控制机器人动作用的Behavior Control Window。可以联动以XML定义的控制头、轮、胳膊、脸部表情等动作来开发内容。可以提供控制机器人所需的多种行为种类,而且可根据机器人由制作人员添加机器人行为。也可以定义命令语和参数登记新的机器人行为予以使用。而且还可以登记经常使用的机器人行为,以简单的操作把行为脚本***到动画制作工具内容中。机器人行为由命令语种类、命令语代码、命令语名称、参数的数据类型、参数种类、上下极限值组成。
而且,因具有机器人平台相关的扩展性,在需要新的关节控制时,相应机器人中使用的内容也可以使用这些开发控制的内容。像这样,支持添加需要控制的命令语登记及修改的功能。如果利用这些,还可以开发用于需要控制拥有蜘蛛状的多个腿部的机器人的内容。
比如,需要同时进行轮控制、LED控制、头控制时,无需每次反复地向行为客体添加,只需以经常使用的行为进行登记就可以使用户便利地通过以前登记过的行为模板进行登记。
而且,具有用于适用到其他平台的机器人的扩展性功能。这里,扩展性是指利用机器人制作工具添加根据机器人不同的新命令语的功能。比如,如果需要机器人的关节控制,则在相应机器人中使用的内容中也需要机器人控制的关节控制相关的命令语。而在机器人制作工具中就可以登记及修改这些追加的机器人控制命令语。
图5b是控制机器人位置的Navigation Service Window画面。可以联动导航行走控制、自律充电等的位置控制开发特定化的内容。
图5c是控制机器人的音频识别和音频合成的Voice Service Window画面。可以针对韩语/英语/中国语等多国语言的机器人开发特定化内容。音频识别按识别方式具有单一识别语和区间识别语两种,其中相当于单一识别语的是文件识别语,相当于区间识别语的是结构识别语。其特征如下。
文件识别语具有定义特定机器人内容文件和特定文件的全局使用的识别语的功能,区间识别语定义只能在特定范围的开始和结束结构区间被激活的结构识别语。
结构识别语具有可以定义在相同的内容页面内两个以上相同识别语的相互不同链接路径的优点。
但在相同区间将不能重复相同的识别语处理相互不同的链接路径。
机器人制作工具的播放器中内置有与机器人相同的韩文和英文音频合成引擎,可以在机器人制作工具制作内容时,选择韩英模式进行登记。登记音频合成时,在音频合成登记窗口可以利用机器人音频合成的核心和速度参数值属性表现多种感情变化的适合机器人的声音。
图5d是控制机器人识别脸部、检测脸部、识别事物等影像的VisionService Window画面。可以与影像识别引擎联动开发机器人所特定化的内容。比如脸部识别客体时,可以按识别的用户制作采取特定行为的内容,比如在内容上表现“~先生/女士,您好!”时,可以通过脸部识别认出目前识别的用户,并在接收这些信息后,可以在内容中按其识别的人表现各自相互不同程度的反应。
图5e是提供机器人电池信息、扬声器和麦克风音量设定、产品序号、数据库信息等的Information Service Window画面。
下面是为开发与PC差别化的内容而添加的功能,可以创造出机器人新的增值价值。主要为机器人的脸部识别、用户应答、导航、对话技术等功能,为了把已经体现的技术要素适用到内容中,把重点放在了开发多种内容上。
图6是再现在机器人制作工具中制作的内容的播放器画面。利用机器人制作工具制作机器人用内容后,在PC中再现就可以同时驱动内容播放器、音频识别和合成引擎、三维机器人仿真器。
内容播放器600可以说是把从机器人制作工具中制作的机器人内容在机器人显示装置中再现的再现程序。播放器在机器人和电脑中可以相同地动作,程序也是由一个结构。在实际的机器人中会把播放器中发生的命令传达给机器人,而在PC上把命令传达给仿真器。
还有,在PC环境中驱动播放器时,一并执行与机器人相同的音频合成和音频识别引擎,因此可以与机器人输出输入环境相同的环境在电脑中测试机器人内容。
由此,在制作机器人内容后,制作人员可以通过执行播放器确认内容画面和音频识别、音频合成及机器人动作状态来充分地完成测试,由此可以最大限度减少内容的调试步骤及机器人的动作错误。
三维仿真器用于确认与内容同步化而动作的实际机器人的驱动状态,即便是没有机器人也可以与机器人相同地进行仿真。使用三维仿真器即便是没有机器人也可以把许多制作人员制作的机器人用内容进行仿真。
三维仿真器的驱动可以如实地表现与实际机器人动作相同的头、胳膊、轮、脸部(眼睛和嘴)、LED等的移动。这时内容播放器和仿真器是通过TCP/IP(Transmission Control Protocol/Internet Protoco1)通信接收输入而做出与机器人相同的动作。
同时,还提供可以在网络环境中多个用户各自单独制作机器人内容的机器人内容制作***。尤其是,通过在管理服务器中具备可以在网络环境中制作机器人内容的内容制作模块,摆脱了只限现有机器人开发人员及提供服务的企业制作机器人行为或事件情节的制作限度,能够使机器人用户轻易地制作情节,并通过这些可以执行多种机器人动作,制作符合用户个性的各个情节,增大自身对机器人的亲密度,进一步提高机器人应用度或关注度。
图7是概略示出本发明的制作***的结构图,图8是详细示出图7中的管理服务器710的结构图。虽然图7的管理服务器710和图8的管理服务器800的标号不同,但属于相同的管理服务器。
参考附图,本发明的制作***大体上包括:存储并提供多种机器人内容及机器人内容制作工具的管理服务器700;用户终端730,其通过通信网络与所述管理服务器700连接,并通过由管理服务器700提供的机器人内容及制作工具,在用户输入命令信息后,制作执行一定动作的机器人内容;以及接受所述用户终端730制作的机器人内容后执行内容的机器人740。
在这里所述管理服务器700通过包括互联网在内的通信网络与机器人740或用户终端730连接,完成机器人内容的传输或内容制作。
通过提供的机器人制作工具完成所述管理服务器700的制作,这种机器人制作工具是由如下部分构成:机器人设置模块810,其在与用户终端730接触时,传输所制作的机器人内容,以设定要适用的对象机器人740;制作机器人内容的内容制作模块820;在实现已制作机器人内容前执行虚拟驱动的仿真器830;把机器人内容以远程形式传输给对象机器人的传输模块840;以及为了让用户共享制作完成的机器人内容而予以存储并在请求时给于提供的共享提供模块850。
在这里,所述机器人设置模块810为完成机器人内容制作后传输制作内容时指定传输对象机器人而准备,可以指定为机器人类型名称或机器人IP设置等。在这里机器人类型名称可以用XML表示。
同时所述内容制作模块820是完成有关机器人行为或事件的具体情节制作模块,这种内容制作模块820包括:选择机器人内容的特定目标结构以便让用户更加轻易地完成制作的结构选择部821;由图标形式构成所设定的机器人行为或事件,以便在通过所述结构选择部821选择的结构中,轻易地***用户所指的机器人行为或事件的图标组成部822;以及情节制作部823,其基于情节来进行制作,以便所述设定的机器人行为或事件的图标能够顺利地执行所指的行为或事件。
所述结构选择部821是为优先选择对机器人行为或事件的特定目标结构而配备的,作为一例,***优先选择执行头、手、脚等动作或音频输入/输出、影像输入/输出等的对象结构。
这样,在结构选择部821完成结构选择后,图标组成部822以图标形式提供让用户轻易地***机器人行为或事件的行为及事件图标,这时用户只需选择这些图标形式的行为或事件即可。
用户选择这样的行为或事件的图标后,通过情节制作部823实现制作有关具体的执行动作命令信息的情节制作。
这种情节制作用于制作以机器人行为或事件表现的图标的步骤性连接方式,简单地说是组成基于活动和行为情节的连接方式。
这时,用户不仅可以通过内容制作模块820直接制作情节,作为基本内容还提供由已制作情节组成的例题信息。而例题信息的正确体现方法应该是以模板形式体现,这样用户就可以通过制作这种相应的模板而轻易地对机器人适用自己希望的情节。
同时,所述仿真器830用于确认完成的内容制作是否正确执行所指行为或事件,可以通过所述仿真器830在网络环境中确认制作的结果。
还有,所述传输模块840用于向对象机器人传输制作完的内容,通常应以互联网传输为正确,但也完全可以通过多种通信方式完成与机器人740的通信。
在这里,传输模块840将读取前述机器人设置模块810输入的信息传输给对象机器人。
由此所述共享提供模块850具有把用户各自单独制作的行为或事件内容存储到共享提供模块850中单独存在的数据库中,并在用户请求时传输给用户的功能。
这样,其他用户就可以共享并使用各个用户按个性及主意以多样形式表现的庞大的制作内容,随之机器人740可执行功能也会变得更加广阔。同时用户通过共享信息也会大大提高对制作内容的关注度。
这种制作内容的共享功能是本发明的最大特点之一,该功能将会在提高本发明目的之机器人利用度和关注度中担当决定性作用。
同时,所述用户终端730是通过包括互联网在内的通信网络连接到管理服务器710上,在网络环境下实现机器人用内容制作的,各个用户接入到通信网络的工具,这种用户终端730不仅可以采用普通个人电脑,还可以采用能够输出通过管理服务器710提供的网页,能够把用户输入的信息传输到管理服务器710的所有通信设备。
由此便携式移动通信机器之手机、PDA、P2P、PMP等都可以适用到本发明的用户终端730中。
同时,所述机器人740将会通过通信网络接收前述用户制作的制作内容,按内容中设定的命令信息,即按行为或活动情节进行动作。
当然,所述机器人740中将安装可以接入包括互联网在内通信网络的通信模块,而这种通信模块应使用具有IP的无线网络模块。
以下通过本发明的机器人制作工具图示画面简单说明被制作的过程。
图9是示出本发明的基于网络的机器人UCC制作工具屏幕截图画面的图,示出了用户通过用户终端接入到管理服务器后,由管理服务器提供制作工具的一例。
参考附图,在用户选择条件并满足条件时,将进行内容制作以设定执行的动作。
这些条件及命令的选择是通过图标组成部822提供的图标来完成。因此用户就能够轻易地进行制作。而各个图标还可以通过′and′或′or′等条件符号,进行多种多样的组合。
还有,如果利用鼠标把对条件或命令的图标拖拽到画面中央显示的仿真器830中,不仅可以完成设定,还可以进行仿真仿真。
在完成对多种条件及动作的内容后,可以通过存储内容及传输模块840传输给机器人740,并能够按设定的条件执行动作。

Claims (2)

1.一种用于控制智能型机器人和制作机器人用内容的制作工具的应用方法,利用包括机器人动作窗口的机器人制作工具制作机器人内容,其中,所述机器人动作窗口由如下部分构成:命令种类,其用于区分头、轮、胳膊、眼睛、以及嘴的机器人控制部位;命令代码,其按照进行控制的部位,对可行的行为模式以固有代码进行定义;命令名称,其对各个行为代码进行赋予;用于机器人行为的详细控制的参数种类;以及上下极限值,其表示在机器人硬件中可以处理的限度范围,
该应用方法的特征在于,
该应用方法包括执行如下处理的步骤:
在PC中进行再现时,同时驱动内容播放器、音频识别和合成引擎、三维仿真器;
在内容播放器中预先仿真由所述机器人制作工具制作的机器人内容,在实际机器人中将由播放器产生的命令传达给机器人,在PC中将命令传达给三维仿真器;以及
在驱动三维仿真器时,如实地表现与机器人动作相同的头、轮、胳膊、眼睛、以及嘴的动作情况。
2.根据权利要求1所述的用于控制智能型机器人和制作机器人用内容的制作工具的应用方法,其特征在于,
所述内容播放器和三维仿真器是通过TCP/IP通信接收输入,与机器人相同地进行动作。
CN 200810131379 2008-08-11 2008-08-11 控制智能机器人和制作机器人内容的制作工具的应用方法 Expired - Fee Related CN101650553B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 200810131379 CN101650553B (zh) 2008-08-11 2008-08-11 控制智能机器人和制作机器人内容的制作工具的应用方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 200810131379 CN101650553B (zh) 2008-08-11 2008-08-11 控制智能机器人和制作机器人内容的制作工具的应用方法

Publications (2)

Publication Number Publication Date
CN101650553A CN101650553A (zh) 2010-02-17
CN101650553B true CN101650553B (zh) 2013-04-24

Family

ID=41672806

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 200810131379 Expired - Fee Related CN101650553B (zh) 2008-08-11 2008-08-11 控制智能机器人和制作机器人内容的制作工具的应用方法

Country Status (1)

Country Link
CN (1) CN101650553B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102279569B (zh) * 2010-06-08 2013-05-08 华宝通讯股份有限公司 机械装置动作编辑***及其方法
CN105225050A (zh) * 2015-10-12 2016-01-06 杭州萝卜圈网络技术有限公司 基于互联网的跨平台虚实融合个性化智能机器设计和竞技***
CN106003025A (zh) * 2016-05-31 2016-10-12 上海未来伙伴机器人有限公司 三维机器人模型创建方法和装置
CN109791396B (zh) * 2017-08-25 2022-07-08 深圳市大富智慧健康科技有限公司 人工智能终端、***及其行为控制方法
CN110278477A (zh) * 2019-05-28 2019-09-24 王东 一种控制文件生成方法、电子设备控制方法及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1392824A (zh) * 2000-09-28 2003-01-22 索尼公司 编辑***和方法及存储介质
CN1416381A (zh) * 2000-12-06 2003-05-07 索尼公司 机器人设备、用于控制机器人设备运动的方法以及用于控制机器人设备运动的***
KR100498061B1 (ko) * 2004-12-20 2005-07-01 주식회사 아이오. 테크 수신된 이메일에 포함된 동작 명령에 따라 동작을 하는홈로봇 시스템
EP1908561A1 (en) * 2005-07-22 2008-04-09 HONDA MOTOR CO., Ltd. Controller of mobile robot

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1392824A (zh) * 2000-09-28 2003-01-22 索尼公司 编辑***和方法及存储介质
CN1416381A (zh) * 2000-12-06 2003-05-07 索尼公司 机器人设备、用于控制机器人设备运动的方法以及用于控制机器人设备运动的***
KR100498061B1 (ko) * 2004-12-20 2005-07-01 주식회사 아이오. 테크 수신된 이메일에 포함된 동작 명령에 따라 동작을 하는홈로봇 시스템
EP1908561A1 (en) * 2005-07-22 2008-04-09 HONDA MOTOR CO., Ltd. Controller of mobile robot

Also Published As

Publication number Publication date
CN101650553A (zh) 2010-02-17

Similar Documents

Publication Publication Date Title
US11227439B2 (en) Systems and methods for multi-user virtual reality remote training
Lanham Learn ARCore-Fundamentals of Google ARCore: Learn to build augmented reality apps for Android, Unity, and the web with Google ARCore 1.0
Shaer et al. A specification paradigm for the design and implementation of tangible user interfaces
US20060048092A1 (en) Object oriented mixed reality and video game authoring tool system and method
CN101650553B (zh) 控制智能机器人和制作机器人内容的制作工具的应用方法
CN110210012A (zh) 一种基于虚拟现实技术交互性课件制作方法
KR101275020B1 (ko) 통신망을 이용한 로봇 개발 플랫폼의 집단협업공간 제공시스템
Coronado et al. Towards a modular and distributed end-user development framework for human-robot interaction
CN108961420A (zh) 基于ar云存储技术的机械制造教学辅助***及开发方法
Dumas Frameworks, description languages and fusion engines for multimodal interactive systems
CN117608552A (zh) 面向gui的任务自动执行插件生成方法及服务获取方法
Angleraud et al. Teaching semantics and skills for human-robot collaboration
Gris et al. Virtual agent interaction framework (VAIF): a tool for rapid development of social agents
Trouilhet et al. Model-driven engineering for end-users in the loop in smart ambient systems
Beaudouin-Lafon Human-computer interaction
Giunchi et al. DreamCodeVR: Towards Democratizing Behavior Design in Virtual Reality with Speech-Driven Programming
Blumendorf Multimodal interaction in smart environments: a model-based runtime system for ubiquitous user interfaces
Koussaifi et al. Putting the end-user in the loop in smart ambient systems: an approach based on model-driven engineering
Grill et al. Conwiz: The contextual wizard of oz
Preston The definitive guide to building Java robots
Duarte Design and evaluation of adaptive multimoldal systems
Aikio Possibilities of extended reality in product development processes in a technology company, state of the art and projections
Rizzo et al. UDOO App Inventor: Introducing Novices to the internet of things
Emad Addressing Usability Issues: Redesigning the User Interface of Collaborative Robot Franka Panda
Sun Through Case Study of Smart Lock to Explore Natural Interaction in MR based Smart Home Controller

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20130424

Termination date: 20180811

CF01 Termination of patent right due to non-payment of annual fee