CN100583034C - 软件机器人设备 - Google Patents
软件机器人设备 Download PDFInfo
- Publication number
- CN100583034C CN100583034C CN200710149208A CN200710149208A CN100583034C CN 100583034 C CN100583034 C CN 100583034C CN 200710149208 A CN200710149208 A CN 200710149208A CN 200710149208 A CN200710149208 A CN 200710149208A CN 100583034 C CN100583034 C CN 100583034C
- Authority
- CN
- China
- Prior art keywords
- software robot
- function
- sobot
- action
- player
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/16—Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/60—Software deployment
- G06F8/65—Updates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/12—Computing arrangements based on biological models using genetic models
- G06N3/126—Evolutionary algorithms, e.g. genetic algorithms or genetic programming
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Mathematical Physics (AREA)
- Physiology (AREA)
- Genetics & Genomics (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- Electrically Operated Instructional Devices (AREA)
- Manipulator (AREA)
- Stored Programmes (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
公开一种具有基因编码的软件机器人设备(sobot设备)。该sobot设备包括应用模块、人工活动目标引擎、sobot协议模块、更新代理、更新协议模块、网络接口、sobot播放器、脚本引擎、播放器数据库、存储库接口、sobot图形/音频接口、3D引擎、***软件、存储器装置、显示部分和音频输出部分。
Description
技术领域
本发明涉及一种具有基因编码的软件机器人,更具体地说,涉及一种具有兼容的软件机器人平台的软件机器人设备。
背景技术
在软件机器人(sobot)中找到的基因编码是包括多个人工染色体的机器人基因组,所述基因编码使软件机器人能够具有在接收到外部刺激输入时显示独特的响应和行为的个性。例如,小狗sobot可通过显示摇尾巴或轻声低吠的动作来对如喂食刺激的输入做出反应。sobot还具有诸如学***衡(homeostasis)、感情等)和行为的机器人的个性或人格。在这种情况下,动机、自我平衡、感情、行为等的特征如以下的表1所示:
表1
人格 | 除了简单概要的技术细节之外的全部或部分行为特征的确定因素。包括动机、自我平衡和感情。即,人格引擎表示涉及全部的动机、自我平衡和感情的引擎。产生各种内部状态和行为。 |
动机 | 激发生物的活动并控制其模式的处理。选择和执行活动的起因。示例包括好奇、亲密、疲劳、回避、占有、支配等。 |
自我平衡 | 无论内部和外部环境持续变化如何,维持不同但相互依赖的有机体元素之间的平衡的稳定状态的功能。选择和执行活动的起因。示例包括饥饿、睡眠、疲倦等。 |
感情 | 作为强烈感受而主观经历的心理和生理反应。示例如快乐、悲伤、愤怒、害怕等。 |
行为 | 有机体做出的涉及动作的任何事情,例如移动和停止。示例如睡觉、进食、奔跑等。有机体选择的行为类型是有限的,并且在任意时刻只能进行一项行为。 |
此外,人工染色体可被分类为三个组:(1)必要元素相关组,(2)内部状态相关组,以及(3)行为选择相关组。必要元素相关组染色体定义显著影响内部状态和外部行为的改变的必要参数,内部状态相关组染色体定义根据施加给机器人的外部刺激的输入影响机器人内部状态的参数。而行为选择相关染色体定义确定与当前确定的内部状态相应的外部行为的参数。在这种情况下,内部状态被定义为动机、自我平衡、感情等。即,可通过机器人的自身内部状态和作为根据外部刺激输入影响机器人的内部状态参数的内部状态相关染色体来确定机器人的内部状态。
这也应用于行为选择相关染色体,只是行为选择相关染色体涉及各种行为而不是外部刺激,并涉及用于与它们的各种内部状态相关的具体行为的各种参数。作为显著影响内部状态和外部行为的变化的必要参数的必要元素相关染色体组可包括:易失性、初始值、平均值、收敛值、根据时间的衰减值,以及根据诸如动机、自我平衡和感情的各个内部状态在特定时间确定的特定值。结果,机器人基因组包括:必要元素相关染色体,作为影响内部状态和外部行为的改变的必要参数使用;内部状态相关染色体,作为根据外部刺激输入来影响机器人的内部状态的参数使用;以及行为选择相关染色体,作为确定与当前确定的内部状态相应的外部行为的参数使用。
可通过人工活动目标引擎(artificial animated obiect engine)来确定必要元素相关染色体组、内部状态相关染色体组和行为选择相关染色体组的所有参数,以及内部状态根据外部刺激的改变(诸如感情、动机和自我平衡的改变)和与所述改变相应的行为。在本领域中,与所述人工活动目标引擎相关的处理一般在由Jong-Whan KIM发明并于2004年9月10日公布的标题为“Artificial Animated Object System and an Educational Software System UsingIt”的第2004-78322号韩国公开专利公布中得知。
然而,虽然当前sobot技术已经显著发展了sobot的人工活动目标引擎的状态,但是该技术仍然缺乏开发有用的sobot应用所必需的其他组件的标准。因此,已经根据每个开发者单独地开发对sobot应用进行开发所需的组件。此外,由于人工活动目标引擎不是独立于硬件的,所以配备有人工活动目标引擎的每个设备需要不同的端口接入***。因此,每当开发sobot或将其应用于特定设备时就要开发不同的平台,从而阻碍了不同sobot应用之间的兼容性,并因此妨碍了将来的sobot应用开发。
发明内容
本发明的一方面在于基本解决至少上面的问题和/或缺点,并提供至少下述的优点。因此,本发明的一方面在于提供一种具有覆盖开发sobot应用所需的所有组件的标准化平台的sobot设备。
本发明的另一目的在于提供一种具有用于诸如移动电话、WIBRO电话、PDA和PC的各种设备的单独平台的sobot设备。
本发明的另一目的在于为sobot开发者提供一种便利的环境,以仅使用在该sobot设备的平台中提供的接口来开发sobot应用。
根据本发明的一方面,提供一种具有基因编码的sobot设备。该sobot包括人工活动目标引擎,所述人工活动目标引擎包括:感知模块、学***衡和感情的内部状态,从而确定sobot的行为;sobot协议模块,提供用于sobot和另一外部装置之间的sobot相关的数据通信的通信协议;更新代理,控制sobot相关的数据的更新;更新协议模块,在更新代理的控制下提供用于发送/接收更新数据的更新协议;网络接口,与sobot协议和更新协议合作通过网络将sobot与另一装置进行接口连接;播放器数据库,存储分别描述sobot进行的多个行为的多个动作脚本文件;脚本引擎,对分别描述多个行为的多个动作文件进行编码,以产生存储在播放器数据库中的各自的动作脚本文件,以及对从播放器数据库检索的脚本文件进行解析;存储器装置,存储包括至少一个sobot的基因编码、基本模型信息、内部状态信息、动作信息和资源信息的sobot数据;存储库接口,将存储器装置与播放器数据库进行接口连接;输出应用模块,通过图像和声音进行sobot可视化的输出;sobot图形/音频接口,将输出应用模块与显示装置进行接口连接;应用模块,将与sobot的输出和控制相关的外部输入传送给sobot播放器,将影响sobot的内部状态的外部输入传送到人工活动目标引擎和sobot播放器,将与sobot的通信相关的外部输入传送到sobot协议模块,以及将人工活动目标引擎确定的行为传送到sobot播放器;以及sobot播放器,与脚本引擎和输出应用模块合作,根据应用模块的输入通过存储库接口和sobot图形/音频接口输出sobot。
附图说明
通过下面参照附图进行的详细描述,本发明的上述和其他目标、特点和优点将会变得更加清楚,其中:
图1是示出根据本发明的sobot设备的平台结构的框图;
图2是示出根据本发明的在sobot设备中产生sobot的处理的流程图;
图3是示出根据本发明的在sobot设备中改变sobot的行为的处理的流程图;
图4是示出根据本发明的在sobot设备中产生另一sobot的处理的流程图;
图5是示出根据本发明的在sobot设备中管理sobot的处理的流程图;
图6是示出根据本发明的在sobot设备中管理sobot的动作的处理的流程图;
图7是示出根据本发明的在sobot设备中管理sobot的项的处理的流程图;
图8是示出根据本发明的在sobot设备中管理sobot的场景的处理的流程图;
图9是示出根据本发明的在sobot设备中管理sobot的资源的处理的流程图;
图10是示出根据本发明的在sobot设备中发送和接收消息的处理的流程图;
图11是示出根据本发明的在sobot设备中执行串行通信的处理的流程图;以及
图12是示出根据本发明的在sobot设备中执行TCP/IP通信的处理的流程图。
具体实施方式
以下将参照附图描述本发明的优选实施例。在下面的描述中,由于已知功能或结构会在不必要的细节上模糊本发明,因此将不对其进行详细描述。
在图1中,示出根据本发明实施例的具有基因编码的sobot设备的平台结构。sobot设备适合于以可感知的形式产生sobot,所述sobot设备可包括多个sobot。sobot设备包括:应用模块10、人工活动目标引擎20、sobot协议模块30、更新代理40、更新协议模块50、网络接口60、sobot播放器70、脚本引擎80、播放器数据库90、存储库接口100、sobot图形/音频接口110、***软件120、3D引擎130、存储器装置140、显示部分(未示出)和音频输出部分(未示出)。应用模块10是最高层并且提供外部输入接口,所述外部输入接口包括的装置例如有:sobot授权装置、压力传感器和光学传感器。
存储器装置140存储与至少一个sobot相应的sobot数据。sobot数据包括:sobot的基本模型信息、内部状态信息、动作信息、资源信息和基因编码。基因编码是包括多个人工染色体的机器人基因组,人工染色体可被分为必要元素相关组、内部状态相关组和行为选择相关组。必要元素相关组染色体定义显著影响机器人的内部状态和外部行为的改变的必要参数,内部状态相关组染色体定义根据施加给机器人的外部刺激的输入影响机器人内部状态的参数。另外,行为选择相关组染色体定义确定与当前确定的内部状态相应的外部行为的机器人的参数。
在一个实施例中,基因编码对于相应的sobot是唯一确定的,并且不可改变。基本模型信息表示sobot的类型和模型,并且还为sobot提供特定的基因编码,例如,某种特征,诸如与小狗、猫或甚至机器人相关的特征。内部状态信息表示与动机、自我平衡和感情相关的sobot的性格特征,并且可根据相应的基因编码和用户施加的外部刺激输入由人工活动目标引擎20进行改变,或者当sobot已经被激活时由传感器进行检测以被用户感知。动作信息表示根据内部状态信息由人工活动目标引擎20确定的sobot做出的动作。资源信息表示与特定的sobot相应的各种子项设置,例如,sobot性格可具有的附属和场景。
人工活动目标引擎20还包括:感知模块21,感知外部环境;内部状态模块23,表示诸如人工活动目标的感情状态的sobot的内部状态;行为选择模块24,根据外部信息和内部状态选择人工活动目标的行为;学***衡和感情的内部状态,以确定sobot的行为,例如动作和脸部表情。
人工活动目标引擎20还可通过基因编码来存储、管理和控制sobot的个性和感情信息。因此,人工活动目标引擎20使用户能够利用不同的基因编码创建sobot的个性和感情。另外,人工活动目标引擎20根据通过学习、记忆和本能功能收集的数据来确定对外显示的动作。
以下,将更详细地描述每个模块。感知模块21预处理涉及sobot的内部状态改变和行为选择的信息以及用于学***衡和感情。动机特征使sobot能够开始动作,自我平衡特征使sobot能够期望维持,感情特征定义sobot的感情状态。动机特征的示例如好奇、亲密、单调、回避和贪婪。自我平衡特征的示例如疲劳、饥饿和困乏。感情特征的示例如快乐、悲伤、愤怒、害怕和平静。
优选地,sobot的内部状态的范围可被扩展或缩小以包括多种其他变化。行为选择模块24包括一般行为选择器和内在行为选择器,以基于从感知模块21和内部状态模块23接收的输入并考虑其可能性来选择预先存储的动作中的一个。行为选择模块24可将内在行为选择器确定的动作选为最终动作。学习模块22可包括:喜好学习器,用于使sobot能够根据作为表示表扬或责备的用户输入来避免或接近用户输入所期望的目的;以及语音学习器,使sobot执行用户的语音命令所请求的动作。电机模块25为sobot提供一种根据行为选择模块24选择的行为在虚拟空间中移动的方法。已经在由Jong-Whan KIM发明并于2004年9月10日公布的标题为“Artificial Animated Object Systemand an Educational Software System Using It”的第2004-78322号韩国公开专利公布中公开了这样的处理:人工活动目标引擎20根据相应的基因编码和外部输入改变sobot的内部状态,以确定用于sobot的行为,并使sobot执行学习。
sobot协议模块30提供使sobot设备能够与sobot服务器(用于控制sobot的传送、信息和证书)以及与其他装置进行通信的协议。涉及sobot的所有信息通过sobot协议模块30被发送到sobot服务器和其他装置。Sobot服务器控制sobot的指定、传送、信息和证书以及配备有每个sobot的设备的信息。另外,sobot服务器与内容提供商进行合作,以更新sobot的动作脚本文件和sobot相关资源,诸如sobot的类型、项和场景。
更新代理40控制与sobot相关的所有更新,作为更新sobot设备的平台的结构文件和资源的子***。连接到sobot服务器之后,更新代理40将存储在sobot设备中的sobot的更新版本与sobot服务器当前提供的更新版本进行比较,以找出更新数据。更新代理40利用从软件服务器接收的更新数据更新sobot设备的平台的结构文件和资源。
更新协议模块50提供用于在更新代理40的控制下执行实际更新的OMADM(目标管理架构装置管理)协议。网络接口60将sobot设备与sobot服务器或网络中的其他装置进行接口连接。例如,网络接口60提供用于串行通信、TCP/IP(传输控制协议/互联网协议)通信和SMS(短消息服务)/MMS(多媒体消息服务)通信的接口。
sobot图形/音频接口110和3D引擎130是用于产生sobot的最终输出应用。可根据在sobot设备中提供的输出应用的类型,以图形、文本或音频形式来产生sobot。在本实施例中,配备有sobot图形/音频接口110和3D引擎130的sobot设备以3D图像产生sobot。sobot图形/音频接口110支持用于任意类型的3D引擎的端口接入。在另一示例中,如果sobot平台安装在机器人中(为机器人提供操作应用作为最终输出应用),则由该机器人产生sobot。
脚本引擎80在sobot播放器70的控制下对sobot的动作脚本文件进行编码和解码。为了使sobot能够实际地执行动作,以脚本文件格式存储和管理与sobot的每个动作相应的动作文件,从而减小其大小并便于传输。sobot的动作可以是脸部表情(诸如微笑、流泪和扭曲),或者是动作(诸如行走、奔跑、躺下和坐立)。用于产生这样的动作的动作文件可包括表示一个或多个动作以及这些动作之间的相互关系的数据。可通过sobot服务器或sobot设备来组成动作文件,但是最终以脚本文件格式存储到sobot设备中。sobot播放器70控制脚本引擎80,以对先前存储在使sobot能够执行相应的动作的播放器数据库90中的动作脚本进行解析,或者对的产生的编写成相应的动作脚本文件的动作文件进行编码,所述动作脚本文件存储在播放器数据库90中。
播放器数据库90结合sobot设备中提供的输出应用存储多个动作脚本文件以及产生sobot所需的数据。在该实施例中,播放器数据库90存储与3D建模相关的信息、文本和行为信息。存储库接口100将sobot播放器70与播放器数据库90和存储器装置140进行接口连接,以将分别从播放器数据库90和存储器装置140检索的动作脚本和sobot数据交付到sobot播放器70。
sobot播放器70通过控制应用模块10、脚本引擎80、播放器数据库90、存储库接口100、sobot图形/音频接口110和3D引擎130来启动sobot的实际产生和动作。即,通过从应用模块10接收请求期望的sobot的命令,sobot播放器70经由存储库接口100从存储器装置140检索相应的sobot数据。然后,sobot播放器70通过存储库接口100从播放器数据库90获得与sobot数据的动作信息相应的动作脚本,所述动作脚本通过sobot图形/音频接口110被交付到脚本引擎80。sobot播放器70还将sobot数据的基本模型和资源信息交付到sobot图形/音频接口110,所述sobot图形/音频接口110与3D引擎130合作以可视化地产生sobot。
应用模块10将施加给产生的sobot的用户输入交付到人工活动目标引擎20。用户输入例如可以是当用户触碰sobot设备时所触摸的压力传感器检测到的值。或者,该值可以是用户通过以文本形式提供的菜单选择的一个值,所述文本形式例如为“喂食”。人工活动目标引擎20根据用户的输入和从存储器装置检索的sobot的基因编码改变sobot的内部状态,并且选择与内部状态的改变相应的行为,以请求应用模块10指定相应于该行为的动作。应用模块10将人工活动目标引擎20指定的动作交付到sobot播放器70,所述sobot播放器70又通过存储库接口100获得与指定的动作相应的动作脚本,将其交付到sobot图形/音频接口110。然后,脚本引擎80对从sobot图形/音频接口110接收的动作脚本进行解析,以使sobot图形/音频接口110能够与3D引擎合作,根据动作脚本产生表示sobot的操作的图像和音频。
然而,如果存储器装置140存储多个sobot的sobot数据,并且从应用模块10接收到对另一sobot的请求,则软件播放器70与存储库接口100和sobot图形/音频接口110合作,以将当前产生的sobot替换为新产生的sobot。在这种情况下,如果先前产生的sobot的sobot数据被改变,则将其存储在存储器装置140中。除了产生sobot的功能之外,sobot播放器70还执行管理sobot数据的功能。
在图2到图11中,示出显示产生sobot的sobot设备的处理的流程图,并示出在流程图的每一步骤中使用的平台接口。
图2示出根据本发明实施例的产生sobot的sobot设备的处理。当接收到产生sobot的请求时,在步骤201,应用模块10将产生sobot指定函数InitPlayer()发送到sobot播放器70,以指定所产生的sobot。在步骤203,sobot播放器70将创建装置函数CreateDevice()发送到sobot图形/音频接口110,以确定并初始化用于产生sobot的装置。在此实施例中,产生装置是3D图像。在步骤205,应用模块10将sobot产生函数ShowSobot()发送到sobot播放器70,以产生sobot。然后,在步骤207,sobot播放器70将sobot模式获取函数GetSobotSchema()发送到存储库接口100,以获取用于产生sobot的基本的sobot模式。然后,在步骤209,sobot播放器70将sobot数据获取函数GetSobot()发送到存储库接口100,以从存储器装置140检索sobot数据。在步骤211,sobot播放器70将动作获取函数GetAction()发送到存储库接口100,以检索与sobot数据的动作信息相应的动作脚本。存储库接口100从数据库90检索由GetAction()函数定义的相应的动作脚本,将其交付到sobot播放器70。在步骤213,sobot播放器70还将场景形成函数MakeScene()发送到sobot图形/音频接口110,以根据sobot数据的资源信息设置产生的sobot的场景。在这种情况下,sobot图形/音频接口110与3D引擎130合作,以根据由MakeScene()函数定义的场景信息形成sobot的背景场景。
此外,在步骤215,sobot播放器70将对在步骤211获得的动作脚本进行定义的动作设置函数SetAction()发送到sobot图形/音频接口110,在步骤217,sobot图形/音频接口110又将解析函数Parse()发送到脚本引擎80以对SetAction()定义的动作脚本进行解析。当脚本引擎80已经解析了动作脚本时,在步骤219,sobot播放器70将渲染函数Render()发送到sobot图形/音频接口110,从而sobot图形/音频接口110与3D引擎合作,以根据sobot数据的基本模型和资源信息将sobot建模成3D图像。然后,在步骤221,sobot图形/音频接口110将脚本运行函数RunScript()发送到脚本引擎80,脚本引擎80又与3D引擎130合作以运行解析的动作脚本,从而使产生的sobot能够执行相应的动作。
在图3中,示出根据引起行为改变的外部输入来改变产生的sobot的行为的处理的流程图。在步骤231,应用模块10将与外部输入相应的产生的行为改变函数发送到人工活动目标引擎20。人工活动目标引擎20根据包含在产生的行为改变函数中的外部输入和sobot的基因数据改变sobot的内部状态,从而选择与改变的内部状态相应的行为。然后,在步骤233,人工活动目标引擎20将动作设置函数SetAction()发送到应用模块10,以设置与选择的行为相应的动作。在步骤235,应用模块10将接收的SetAction()函数发送到sobot播放器70,在步骤237,sobot播放器70又将动作获取函数GetAction()发送到存储库接口100,以便检索与SetAction()函数定义的新动作相应的动作脚本。存储库接口100从数据库90检索GetAction()函数定义的相应的动作脚本,并交付到sobot播放器70。在步骤239,sobot播放器70将定义用于设置sobot的新动作的动作脚本的动作设置函数SetAction()发送到sobot图形/音频接口110,在步骤241,sobot图形/音频接口110又将解析函数Parse()发送到脚本引擎80,以对SetAction()定义的动作脚本进行解析。脚本引擎80对接收的动作脚本进行解析。然后,在步骤243,sobot播放器70将渲染函数Render()发送到sobot图形/音频接口110,以执行新动作。接收到Render()函数后,在步骤245,sobot图形/音频接口110将脚本运行函数RunScript()发送到脚本引擎80,脚本引擎80又与3D引擎130合作以运行解析的动作脚本,从而使产生的sobot能够执行新动作。
图4是示出在移除当前产生的sobot之后产生另一sobot的处理的流程图。接收到将产生的sobot替换为新的sobot的请求后,在步骤251,应用模块10将产生的包含新sobot的识别信息的sobot改变函数ChangeSobot()发送到sobot播放器70。在步骤253,sobot播放器70将sobot模式获取函数GetSobotSchema()发送到存储库接口100,以获取用于产生新sobot的基本sobot方案。然后,在步骤255,sobot播放器70将sobot数据获取函数GetSobot()发送到存储库接口100,以从存储器装置140检索新sobot的sobot数据。在步骤257,sobot播放器70将动作获取函数GetAction()发送到存储库接口100,以检索与sobot数据的动作信息相应的动作脚本。存储库接口100从数据库90检索GetAction()定义的相应的动作脚本,将其交付到sobot播放器70。在步骤259,sobot播放器70将模型移除函数RemoveModel()发送到sobot图形/音频接口110,以从显示部分删除当前产生的sobot。然后,在步骤261,sobot播放器70将模型添加函数Addmodel()发送到sobot图形/音频接口110,从而sobot图形/音频接口110与3D引擎合作,以根据在步骤255获得的sobot数据的基本模型和资源信息,以及在步骤257获得的动作脚本将新sobot建模成3D图像。然后,在步骤263,sobot播放器70将渲染函数Render()发送到sobot图形/音频接口110,以将与3D引擎合作建模而成的新sobot输出到显示装置。
另外,如图5到图9所示,通过用户的输入来管理存储在播放器数据库90中的动作脚本和存储在存储器装置140中的sobot数据,图5和图9分别示出在根据本发明实施例的sobot设备中的管理sobot的处理、管理sobot的动作的处理、管理sobot的项的处理、管理sobot的场景的处理和管理sobot的资源的处理。
在图5中,在步骤271,应用模块10将sobot列表检索函数GetSobotList()发送到sobot播放器70。sobot播放器70为用户提供从存储器装置140检索的sobot列表。如果用户从sobot列表选择特定的sobot,则在步骤273,应用模块100将sobot获取函数GetSobot()发送到sobot播放器70,以检索提供给用户的被选择sobot的sobot数据。如果用户添加新sobot,则在步骤275,应用模块10将sobot添加函数AddSobot()发送到sobot播放器70,以存储新sobot的sobot数据。如果用户请求删除sobot,则应用模块10将sobot删除函数DeleteSobot()发送到sobot播放器70,以删除相应的sobot数据。
如图6所示,用户还可编辑包含在sobot播放器数据中的动作信息。如果用户请求包含在特定sobot的sobot数据中的动作列表,则在步骤281,应用模块10将动作列表获取函数GetActionList()发送到sobot播放器70。Sobot播放器70为用户提供根据包含在所述sobot数据中的动作信息准备的动作列表。如果用户从动作列表选择特定的动作,则在步骤283,应用模块10将定义动作的动作获取函数GetAction()发送到sobot播放器70,以检索为用户提供的所选择的动作的详细信息。如果用户添加新动作,则在步骤285,应用模块10将动作添加函数AddAction()发送到sobot播放器70,以将用户选择的新动作添加到sobot数据。如果用户请求删除动作,则在步骤287,应用模块10将动作删除函数DeleteAction()发送到sobot播放器70,以删除用户选择的动作。
另外,如图7所示,用户还可改变在sobot中设置的资源的项。所述项可表示sobot带有的各种附属。如果用户请求与特定sobot相关的项列表,则在步骤291,应用模块10将项列表获取函数GetItemList()发送到sobot播放器70。sobot播放器70为用户提供根据包含在sobot数据中的资源信息准备的项列表。如果用户从项列表选择特定的项,则在步骤293,应用模块10将项获取函数GetItem()发送到sobot播放器70,以检索为用户提供的选择项的详细信息。然而,如果用户添加与特定sobot相关的新项,则在步骤295,应用模块10将项添加函数AddItem()发送到sobot播放器70,以将新项添加到sobot数据。如果用户请求删除特定项,则在步骤297,应用模块10将项删除函数DeleteItem()发送到sobot播放器70,以删除所述项。
除了项之外,如图8和图9所示,在sobot中设置的其他资源可相似于图7而被管理。参照图8考虑背景场景,在步骤301到307,应用模块10响应于用户的输入,以将场景列表获取函数GetSceneList()、场景获取函数GetScene()、场景添加函数AddScene()和场景删除函数DeleteScene()分别发送到sobot播放器70,以向用户提供为特定sobot的场景设置的列表和特定场景的详细信息,并添加新场景和删除特定场景。另外,参照图9考虑资源,在步骤311到317,应用模块10响应于用户的输入,从而将资源列表获取函数GetResourceList()、资源获取函数GetResource()、资源添加函数AddResource()和资源删除函数DeleteResource()分别发送到sobot播放器70,以向用户提供为特定sobot设置的资源列表和特定资源的详细信息,并添加新资源和删除特定资源。在这种情况下,资源表示除了项和场景之外的其他东西。虽然在上面的描述中进行了省略,但是通过sobot播放器70与存储库接口100合作的方式来执行如图5到图9所示的处理。即,输入到sobot播放器70的函数被交付到将sobot播放器70与存储器装置140进行接口连接的存储库接口100。
如图10到图12所示,可通过sobot协议模块30将sobot发送到外部终端,图10和图12分别示出了在根据本发明实施例的sobot设备中的:发送和接收消息的处理、执行串行通信的处理和执行TCP/IP通信的处理。参照图10对诸如SMS和MMS的消息的发送和接收进行描述。
如果用户请求SMS和MMS的准备,则应用模块10根据所应用的通信装置,将消息代理函数CreateMessageAgent()发送到sobot协议模块30,以创建和初始化消息通信代理(诸如SMS/MMS消息代理)。然后,应用模块10根据用户的输入准备附加到sobot的消息。其后,如果用户请求发送消息,则在步骤321,应用模块10将消息发送函数SendMessage()发送到sobot协议模块30,sobot协议模块30又通过网络接口60发送消息。此后,在步骤323,应用模块10通过接听者注册函数CreateListener()注册接听者。然后,在步骤325,应用模块10通过接听函数Listen()监测响应于在步骤321通过sobot协议模块30发送的消息的答复消息的接收。然后,在步骤327,sobot协议模块30通过消息接收函数ReceiveMessage()将接收的SMS或MMS消息传送到应用模块10。
参照图11描述以串行通信发送sobot的处理。如果用户请求以串行通信发送特定sobot,则在步骤331,应用模块10将串行通信代理函数CreateSerialAgent()发送到sobot协议模块30,以获取通过网络接口60的串行通信代理。在这种情况下,串行通信代理可以是根据实际连接装置的串行电话代理或串行IPC代理。然后,在步骤333,应用模块10将连接函数Connect()发送到sobot协议模块30,以请求通过网络接口60的串行通信的连接。此后,在步骤335,应用模块10将发送函数Send()发送到sobot协议模块30,sobot协议模块30又通过网络接口60将特定sobot发送到外部装置。如果sobot设备需要从以串行通信连接的外部装置接收sobot,则在步骤337,sobot协议模块30将从网络接口60接收到的接收函数Receive()发送到应用模块10,以准备sobot设备来接收该sobot。当串行通信完成时,在步骤339,应用模块10将关闭函数Close()发送到sobot协议模块30以将其结束。
参照图12描述以TCP/IP通信发送sobot的处理。如果用户请求TCP/IP通信,则在步骤341,应用模块10将TCP/IP通信代理函数CreateTcpipAgent()发送到sobot协议模块30,以对TCP/IP通信代理进行初始化。在这种情况下,TCP/IP通信代理可以是TCP/IP电话代理或TCP/IP PDA代理。然后,在步骤343,应用模块10将连接函数Connect()发送到sobot协议模块30,以请求通过网络接口60的TCP/IP通信的连接。此后,在步骤345,应用模块10将发送函数Send()发送到sobot协议模块30,sobot协议模块30又通过网络接口60将特定sobot发送到外部装置。如果sobot设备需要通过TCP/IP通信从外部装置接收sobot,则在步骤347,sobot协议模块30将从网络接口60接收到的接收函数Receive()发送到应用模块10,以准备sobot设备来接收该sobot。当TCP/IP通信完成时,在步骤349,应用模块10将关闭函数Close()发送到sobot协议模块30以将其结束。
虽然在图10到图12中没有示出,但是从应用模块10接收的函数被交付到网络接口60,以执行每种通信。除了上面提到的函数以外,与产生sobot相关的各种其他函数可用于sobot设备的操作,所述函数诸如用于获取场景管理器的场景管理器函数GetSceneManager(),用于改变相机的位置从而以不同的视角显示产生的3D sobot的相机移动函数MoveCamera(),用于使sobot能够在改变位置的同时执行指定的动作的模型移动函数MoveModel(),用于控制背景音乐的背景音乐设置函数SetBGM,以及背景音乐停止函数StopBGM。
如上所述,本发明提供一种具有覆盖开发sobot应用所需的所有组件的标准化平台的sobot设备,从而可将诸如移动电话、WIBRO电话、PDA和PC的各种设备包括于具有单独平台的sobot设备,并为开发者保证便利的环境,从而仅通过使用在sobot设备的平台中提供的接口来开发应用。
虽然已经参照本发明的特定优选实施例对本发明进行了示出和描述,但是本领域的技术人员将理解,在不脱离本发明的精神和范围的情况下,可以在形式和细节上做出各种改变。
Claims (21)
1、一种具有基因编码的软件机器人设备,所述软件机器人包括:
人工活动目标引擎,包括:感知模块、学***衡和感情的内部状态,以确定软件机器人的行为;
软件机器人协议模块,提供用于软件机器人和其他外部装置之间的软件机器人相关数据通信的通信协议;
更新代理,控制软件机器人相关数据的更新;
更新协议模块,在更新代理的控制下提供用于发送/接收更新数据的更新协议;
网络接口,与软件机器人协议和更新协议合作通过网络将软件机器人与另一装置进行接口连接;
播放器数据库,存储分别描述软件机器人做出的多个行为的多个动作脚本文件;
脚本引擎,对分别描述多个行为的多个动作文件进行编码,以产生存储在播放器数据库中的各自的动作脚本文件,以及对从播放器数据库检索的脚本文件进行解析;
存储器装置,存储软件机器人数据,所述软件机器人数据包括至少一个软件机器人的基因编码、基本模型信息、内部状态信息、动作信息和资源信息;
存储库接口,将软件机器人播放器与播放器数据库和存储器装置进行接口连接;
输出应用模块,通过图像和声音进行软件机器人的可视化输出;
软件机器人图形/音频接口,将输出应用模块与显示装置进行接口连接;
应用模块,将与软件机器人的输出和控制相关的外部输入发送到软件机器人播放器,将影响软件机器人的内部状态的外部输入发送到人工活动目标引擎和软件机器人播放器,将与软件机器人的通信相关的外部输入发送到软件机器人协议模块,以及将人工活动目标引擎确定的行为发送到软件机器人播放器;以及
软件机器人播放器,与所述脚本引擎和输出应用模块合作,根据应用模块的输入通过存储库接口和软件机器人图形/音频接口进行软件机器人的输出。
2、如权利要求1所述的软件机器人设备,其中,所述感知模块预处理用于内部状态改变、行为选择和学习的外部刺激输入,以根据优先级顺序从多个当前输入外部刺激选择具有较高优先级的外部刺激输入,被选择的刺激被交付到内部状态模块、行为选择模块和学习模块;
内部状态模块根据外部刺激和相应的基因编码来改变内部状态,以将改变的内部状态通知给行为选择模块;
行为选择模块根据外部刺激和内部状态来选择先前存储的行为中的一个;
学习模块理解外部刺激期望的目的,以根据表示表扬或责备的外部刺激做出回避或接近;以及
电机模块根据行为选择模块选择的行为提供移动软件机器人的算法。
3、如权利要求2所述的软件机器人设备,其中,所述感知模块包括多个传感器、符号器和注意选择器;
如果出现特定事件,则所述行为选择模块产生用于最终动作的新行为;以及
所述学习模块使软件机器人执行与用户的语音命令相应的活动。
4、如权利要求1所述的软件机器人设备,其中,所述基本模型信息表示软件机器人的性格类型和模型;所述内部状态信息表示软件机器人的内部状态,所述内部状态包括由人工活动目标引擎根据应用于产生的软件机器人的外部输入以及基因编码而最近改变的动机、自我平衡和感情;所述动作信息表示根据内部状态信息由人工活动目标确定以被执行的动作。
5、如权利要求1所述的软件机器人设备,其中,所述更新代理通过当连接到软件机器人服务器时确认近来更新的软件机器人的版本来控制软件机器人设备接收近来更新的数据。
6、如权利要求1所述的软件机器人设备,其中,所述更新协议模块提供目标管理架构装置管理协议。
7、如权利要求1所述的软件机器人设备,其中,所述网络接口提供短消息服务、多媒体消息服务、串行通信和TCP/IP通信所需的接口。
8、如权利要求1所述的软件机器人设备,其中,所述输出应用模块是3D引擎。
9、如权利要求1所述的软件机器人设备,其中,所述播放器数据库存储支持输出应用模块的数据。
10、如权利要求1所述的软件机器人设备,其中,如果所述应用模块请求软件机器人播放器产生软件机器人、先前产生的软件机器人的不同行为或者不同的软件机器人,则软件机器人播放器通过存储库接口从存储器装置检索相应软件的软件机器人数据,并从播放器数据库检索必需的动作脚本,以通过与所述脚本引擎和输出应用模块合作经由软件机器人图形/音频接口产生相应的软件机器人。
11、如权利要求1所述的软件机器人设备,其中,如果用户通过应用模块输入软件机器人产生命令,则软件机器人播放器、存储库接口、存储器装置、软件机器人图形/音频接口、脚本引擎、播放器数据库和输出应用模块互相交换以下函数:产生的软件机器人指定函数InitPlayer()、创建装置函数CreateDevice()、软件机器人产生函数ShowSobot()、软件机器人模式获取函数GetSobotSchema()、软件机器人数据获取函数GetSobot()、动作获取函数GetAction()、场景形成函数MakeScene()、动作设置函数SetAction()、解析函数Parse()、渲染函数Render()和脚本运行函数RunScript(),从而软件机器人播放器通过存储库接口从存储器装置检索期望的软件机器人的软件机器人数据,以从所述软件机器人数据检测动作信息,并随后通过存储库接口从播放器数据库获取与所述动作信息相应的动作脚本,通过软件机器人图形/音频接口将动作脚本交付到脚本引擎以产生解析的动作脚本,软件机器人播放器还从所述软件机器人数据检测基本模型信息和资源信息,由此软件机器人图形/音频接口与输出应用模块合作,以根据基本模型信息和资源信息以及解析的动作脚本可视化地产生期望的软件机器人。
12、如权利要求1所述的软件机器人设备,其中,如果产生的软件机器人接收到外部刺激输入,则人工活动目标引擎、软件机器人播放器、存储库接口、存储器装置、软件机器人图形/音频接口、脚本引擎、播放器数据库和输出应用模块互相交换以下函数:产生的行为改变函数、动作设置函数SetAction()、动作获取函数GetAction()、解析函数Parse()、渲染函数Render()和脚本运行函数RunScript(),从而应用模块将外部输入应用到人工活动目标引擎,并将来自人工活动目标引擎的动作应用到软件机器人播放器;
人工活动目标引擎根据外部输入和从存储器装置检索的软件机器人的基因编码改***件机器人的内部状态,并选择与改变的内部状态相应的行为,以将相应于选择的行为指定的动作交付到应用模块;以及
软件机器人播放器通过存储库接口获取与动作相应的动作脚本,以通过软件机器人图形/音频接口将该动作脚本交付到脚本引擎以对其进行解析;以及
软件机器人图形/音频接口与输出应用模块合作,以使软件机器人根据解析的动作脚本进行操作。
13、如权利要求1所述的软件机器人设备,其中,如果在先前产生的软件机器人存在的情况下请求输出另一软件机器人,则软件机器人播放器、存储库接口、存储器装置、软件机器人图形/音频接口、脚本引擎、播放器数据库和输出应用模块互相交换以下函数:产生的软件机器人改变函数ChangeSobot()、软件机器人模式获取函数GetSobotSchema()、软件机器人数据获取函数GetSobot()、动作获取函数GetAction()、模型移除函数RemoveModel()、模型添加函数AddModel()和渲染函数Render(),从而软件机器人播放器使软件机器人图形/音频接口停止输出先前产生的软件机器人,通过存储库接口从存储器装置获取所述另一软件机器人的软件机器人数据,从所述软件机器人数据检测动作信息,并通过存储库接口从播放器数据库获取与所述动作信息相应的动作脚本,以将所述动作脚本连同基本模型信息与资源信息一起交付到软件机器人图形/音频接口;以及
软件机器人图形/音频接口与输出应用模块合作,以根据基本模型信息和资源信息以及动作脚本可视化地输出所述另一软件机器人。
14、如权利要求1所述的软件机器人设备,其中,所述软件机器人播放器应用户的请求,通过软件机器人列表检索函数GetSobotList()、软件机器人数据获取函数GetSobot()、软件机器人添加函数AddSobot()和软件机器人删除函数DeleteSobot()来提供存储在存储器装置中的软件机器人列表和指定的软件机器人的详细信息,添加新软件机器人的软件机器人数据,以及删除指定的软件机器人的软件机器人数据。
15、如权利要求1所述的软件机器人设备,其中,所述软件机器人播放器应用户的请求,通过动作列表获取函数GetActionList()、动作获取函数GetAction()、动作添加函数AddAction()和动作删除函数DeleteAction()以根据包括在软件机器人数据中的动作信息和在动作列表中指定的动作的详细信息来提供动作列表添加新动作,以及删除指定的动作。
16、如权利要求1所述的软件机器人设备,其中,所述软件机器人播放器应用户的请求,通过项列表获取函数GetItemList()、项获取函数GetItem()、项添加函数AddItem()和项删除函数DeleteItem()以根据包括在软件机器人数据中的资源信息和项列表中指定项的详细信息来提供项列表,添加新项,以及删除指定项。
17、如权利要求1所述的软件机器人设备,其中,所述软件机器人应用户的请求,通过场景列表获取函数GetSceneList()、场景获取函数GetScene()、场景添加函数AddScene()和场景删除函数DeleteScene()以根据包括在软件机器人数据中的资源信息和场景列表中指定场景的详细信息来提供场景列表,添加新场景,以及删除指定场景。
18、如权利要求1所述的软件机器人设备,其中,所述软件机器人应用户的请求,通过资源列表获取函数GetResourceList()、资源获取函数GetResource()、资源添加函数AddResource()和资源删除函数DeleteResource()以根据包括在软件机器人数据中的资源信息和资源列表中指定资源的详细信息来提供资源列表,添加新资源,以及删除指定资源。
19、如权利要求1所述的软件机器人设备,其中,所述软件机器人播放器应用户的请求,通过消息代理函数CreateMessageAgent()、消息发送函数SendMessage()、接听者注册函数CreateListener()、接听函数Listen()和消息接收函数ReceiveMessage()来执行短消息服务和多媒体消息服务。
20、如权利要求1所述的软件机器人设备,其中,所述软件机器人应用户的请求,通过串行通信代理函数CreateSerialAgent()、连接函数Connect()、发送函数Send()、接收函数Receive()和关闭函数Close()来执行串行通信。
21、如权利要求1所述的软件机器人设备,其中,所述软件机器人播放器应用户的请求,通过TCP/IP通信代理函数CreateTcpipAgent()、连接函数Connect()、发送函数Send()、接收函数Receive()和关闭函数Close()来执行TCP/IP通信。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060086439 | 2006-09-07 | ||
KR1020060086439A KR100827088B1 (ko) | 2006-09-07 | 2006-09-07 | 소프트웨어 로봇 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101140515A CN101140515A (zh) | 2008-03-12 |
CN100583034C true CN100583034C (zh) | 2010-01-20 |
Family
ID=38740291
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200710149208A Expired - Fee Related CN100583034C (zh) | 2006-09-07 | 2007-09-07 | 软件机器人设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US7890446B2 (zh) |
EP (1) | EP1901211B1 (zh) |
KR (1) | KR100827088B1 (zh) |
CN (1) | CN100583034C (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103399739A (zh) * | 2013-07-19 | 2013-11-20 | 苏州大学 | 一种机器人程序开发平台的生成方法与*** |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8648867B2 (en) | 2006-09-25 | 2014-02-11 | Neurala Llc | Graphic processor based accelerator system and method |
CN101493903A (zh) * | 2008-01-24 | 2009-07-29 | 鸿富锦精密工业(深圳)有限公司 | 有性格特征的类生物装置及其展现方法 |
US8689217B2 (en) | 2008-10-31 | 2014-04-01 | Electronics And Telecommunications Research Institute | System and method for thread processing robot software components responsive to periodic, dedicated, and passive modes |
TW201019242A (en) * | 2008-11-11 | 2010-05-16 | Ind Tech Res Inst | Personality-sensitive emotion representation system and method thereof |
KR101190597B1 (ko) | 2008-12-19 | 2012-10-15 | 한국전자통신연구원 | 로봇 소프트웨어 컴포넌트를 위한 메소드 포트 장치 및 구성 방법 |
FR2963132A1 (fr) * | 2010-07-23 | 2012-01-27 | Aldebaran Robotics | Robot humanoide dote d'une interface de dialogue naturel, methode d'utilisation et de programmation de ladite interface |
KR20120047577A (ko) * | 2010-11-04 | 2012-05-14 | 주식회사 케이티 | 대화형 행동모델을 이용한 로봇 인터랙션 서비스 제공 장치 및 방법 |
US8762305B1 (en) * | 2010-11-11 | 2014-06-24 | Hrl Laboratories, Llc | Method and system for dynamic task selection suitable for mapping external inputs and internal goals toward actions that solve problems or elicit rewards |
CN102624762B (zh) * | 2011-01-30 | 2016-01-20 | 深圳市腾讯计算机***有限公司 | 基于云计算提升机器人软件功能的方法和云计算服务器 |
JP6069607B2 (ja) * | 2013-03-26 | 2017-02-01 | 株式会社国際電気通信基礎技術研究所 | ロボットサービス連携システムおよびプラットフォーム |
WO2014204615A2 (en) | 2013-05-22 | 2014-12-24 | Neurala, Inc. | Methods and apparatus for iterative nonspecific distributed runtime architecture and its application to cloud intelligence |
WO2014190208A2 (en) | 2013-05-22 | 2014-11-27 | Neurala, Inc. | Methods and apparatus for early sensory integration and robust acquisition of real world knowledge |
CN103678485B (zh) * | 2013-12-26 | 2017-05-10 | 中国运载火箭技术研究院 | 虚拟试验流程节点驱动与活动封装*** |
US9626566B2 (en) | 2014-03-19 | 2017-04-18 | Neurala, Inc. | Methods and apparatus for autonomous robotic control |
CA2941250A1 (en) | 2014-03-19 | 2015-09-24 | Neurala, Inc. | Methods and apparatus for autonomous robotic control |
WO2016014137A2 (en) * | 2014-05-06 | 2016-01-28 | Neurala, Inc. | Apparatuses, methods, and systems for defining hardware-agnostic brains for autonomous robots |
RU2615822C2 (ru) * | 2015-05-19 | 2017-04-11 | Алексей Игоревич Салмин | Хранилище для футляров с информацией, синхронизирующее дополнительное смешанное лазерное освещение с работой зоны интенсивного развития техники, и носовые опоры солнцезащитных очков |
CN105929838B (zh) * | 2016-05-20 | 2019-04-02 | 腾讯科技(深圳)有限公司 | 一种飞行器的飞行控制方法和移动终端以及飞行控制端 |
CN106101288A (zh) * | 2016-08-24 | 2016-11-09 | 何乙诚 | 一种机器人远程控制*** |
US10646994B2 (en) | 2017-04-25 | 2020-05-12 | At&T Intellectual Property I, L.P. | Robot virtualization leveraging Geo analytics and augmented reality |
US10733004B2 (en) | 2017-04-26 | 2020-08-04 | At&T Intellectual Property I, L.P. | Intelligent service on-demand robot virtualization |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6563503B1 (en) | 1999-05-07 | 2003-05-13 | Nintendo Co., Ltd. | Object modeling for computer simulation and animation |
DE69937058T2 (de) * | 1999-10-26 | 2008-05-29 | Sony France S.A. | Verfahren und System zur Agentsübertragung für einen Roboter |
KR20010111503A (ko) * | 2000-02-09 | 2001-12-19 | 이데이 노부유끼 | 정보 처리 장치 및 방법, 데이터 유지 장치 및 프로그램 |
KR20020026165A (ko) * | 2000-03-24 | 2002-04-06 | 이데이 노부유끼 | 로봇 장치의 행동 결정 방법 및 로봇 장치 |
US20020082077A1 (en) * | 2000-12-26 | 2002-06-27 | Johnson Douglas R. | Interactive video game system with characters that evolve physical and cognitive traits |
WO2003078113A1 (fr) * | 2002-03-15 | 2003-09-25 | Sony Corporation | Systeme de commande de robot, procede correspondant, et robot |
JP2004054769A (ja) | 2002-07-23 | 2004-02-19 | Ns Solutions Corp | 貸出資産管理システム、貸出資産管理方法、その記録媒体およびプログラム |
KR100503652B1 (ko) | 2003-03-04 | 2005-07-22 | 한국과학기술원 | 가상 생명체 시스템과 이를 이용한 교육용 소프트웨어시스템 |
KR100542758B1 (ko) * | 2003-12-10 | 2006-01-20 | 한국전자통신연구원 | 유비쿼터스 네트워크 기반의 소봇을 이용한 시스템 및소봇의 전이 및 이동 방법 |
US20090018698A1 (en) * | 2004-11-26 | 2009-01-15 | Electronics And Telecommunications Research Instit | Robot system based on network and execution method of that system |
-
2006
- 2006-09-07 KR KR1020060086439A patent/KR100827088B1/ko active IP Right Grant
-
2007
- 2007-09-06 EP EP07115831.5A patent/EP1901211B1/en not_active Expired - Fee Related
- 2007-09-07 US US11/852,047 patent/US7890446B2/en not_active Expired - Fee Related
- 2007-09-07 CN CN200710149208A patent/CN100583034C/zh not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103399739A (zh) * | 2013-07-19 | 2013-11-20 | 苏州大学 | 一种机器人程序开发平台的生成方法与*** |
Also Published As
Publication number | Publication date |
---|---|
KR100827088B1 (ko) | 2008-05-02 |
EP1901211B1 (en) | 2019-03-06 |
CN101140515A (zh) | 2008-03-12 |
US7890446B2 (en) | 2011-02-15 |
EP1901211A2 (en) | 2008-03-19 |
EP1901211A3 (en) | 2011-05-11 |
US20080066065A1 (en) | 2008-03-13 |
KR20080022810A (ko) | 2008-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN100583034C (zh) | 软件机器人设备 | |
CN110767220B (zh) | 一种智能语音助手的交互方法、装置、设备及存储介质 | |
US8126832B2 (en) | Artificial intelligence system | |
CN1655119B (zh) | 便于生成***简介的*** | |
CN107430502A (zh) | 由帮助信息动态推断用于软件应用的语音命令 | |
CN104992703B (zh) | 语音合成方法和*** | |
KR20090086805A (ko) | 진화하는 사이버 로봇 | |
IL174116A (en) | A proactive UI that includes a learning component | |
JP6728319B2 (ja) | 人工知能機器で複数のウェイクワードを利用したサービス提供方法およびそのシステム | |
CN110427459B (zh) | 语音识别网络的可视化生成方法、***及平台 | |
CN108108465A (zh) | 一种推送推荐内容的方法和装置 | |
US10272349B2 (en) | Dialog simulation | |
CN116088882A (zh) | 一种基于智能穿戴设备的功能配置方法、***及介质 | |
CN114048299A (zh) | 对话方法、装置、设备、计算机可读存储介质及程序产品 | |
CA3175497A1 (en) | Systems, devices and methods for the dynamic generation of dialog-based interactive content | |
CN110286893B (zh) | 服务生成方法、装置、设备、***和存储介质 | |
US7711778B2 (en) | Method for transmitting software robot message | |
CN101273643A (zh) | 音乐视频服务方法、***和终端 | |
KR20060131829A (ko) | 모바일 단말 기기들에서 진동 출력 명령을 구현하는 방법및 장치 | |
CN107622052B (zh) | 自然语言处理方法、装置、存储介质及终端设备 | |
CN107767857B (zh) | 一种信息播放方法、第一电子设备和计算机存储介质 | |
JP2001191274A (ja) | データ保持装置、ロボット装置、変更装置及び変更方法 | |
CN115499401B (zh) | 一种播放语音数据的方法、***、计算机设备及介质 | |
CN114237402B (zh) | 一种虚拟现实的空间移动控制***及方法 | |
CN116999812A (zh) | 数据处理方法、设备、存储介质及计算机程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20100120 Termination date: 20190907 |