CN116214528B - 一种人形机器人存储控制方法及控制*** - Google Patents

一种人形机器人存储控制方法及控制*** Download PDF

Info

Publication number
CN116214528B
CN116214528B CN202310517300.6A CN202310517300A CN116214528B CN 116214528 B CN116214528 B CN 116214528B CN 202310517300 A CN202310517300 A CN 202310517300A CN 116214528 B CN116214528 B CN 116214528B
Authority
CN
China
Prior art keywords
data
action
stored
control
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310517300.6A
Other languages
English (en)
Other versions
CN116214528A (zh
Inventor
李修录
朱小聪
尹善腾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Axd Anxinda Memory Technology Co ltd
Original Assignee
Axd Anxinda Memory Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Axd Anxinda Memory Technology Co ltd filed Critical Axd Anxinda Memory Technology Co ltd
Priority to CN202310517300.6A priority Critical patent/CN116214528B/zh
Publication of CN116214528A publication Critical patent/CN116214528A/zh
Application granted granted Critical
Publication of CN116214528B publication Critical patent/CN116214528B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Manipulator (AREA)

Abstract

本发明适用于数据处理技术领域,尤其涉及一种人形机器人存储控制方法及控制***,所述方法包括:获取待存储数据,所述待存储数据至少包括场景数据和控制数据;根据人形机器人的部位划分将待存储数据划分为多个动作数据集;查询预设的标准动作数据库,对动作数据集进行分析,得到动作差异数据;将待存储数据转化为控制动作集,将场景数据转换为场景特征,对控制动作集、动作差异数据以及场景特征进行存储。本发明通过对待存储数据进行分析,将其转换为多个动作,确定每一个动作与标准动作之间的操控差异,以控制动作集、动作差异数据以及场景特征作为恢复待存储数据的依据进行存储,大大降低了数据存储所需的内存,减少了数据存储的成本。

Description

一种人形机器人存储控制方法及控制***
技术领域
本发明属于数据处理技术领域,尤其涉及一种人形机器人存储控制方法及控制***。
背景技术
人形机器人,是一种旨在模仿人类外观和行为的机器人尤其特指具有和人类相似肌体的种类,机器人学方面的进展已经可以设计出功能化拟真化的人形机器人。
但是在人形机器人的使用过程中,为了对其进行研究,其操作数据将会被记录下来,如果对人形机器人的所有元件产生的数据均进行记录,则会产生大量的数据,需要占用大量的内存。
发明内容
本发明实施例的目的在于提供一种人形机器人存储控制方法,旨在解决如果对人形机器人的所有元件产生的数据均进行记录,则会产生大量的数据,需要占用大量的内存的问题。
本发明实施例是这样实现的,一种人形机器人存储控制方法,所述方法包括:
获取待存储数据,所述待存储数据至少包括场景数据和控制数据;
根据人形机器人的部位划分将待存储数据划分为多个动作数据集,所述动作数据集包含独立动作数据包和联动动作数据包;
基于动作数据集查询预设的标准动作数据库,对动作数据集进行分析,得到动作差异数据;
将待存储数据转化为控制动作集,将场景数据转换为场景特征,对控制动作集、动作差异数据以及场景特征进行存储。
优选的,所述根据人形机器人的部位划分将待存储数据划分为多个动作数据集的步骤,具体包括:
将人形机器人按照功能区域划分为多个独立控制区,所述独立控制区之间通过配合完成对应动作;
识别待存储数据中包含的动作内容,根据动作内容对待存储数据进行划分,得到多个动作数据块;
确定每个动作数据块包含的动作,将其划分为独立动作数据包和联动动作数据包。
优选的,所述基于动作数据集查询预设的标准动作数据库,对动作数据集进行分析,得到动作差异数据的步骤,具体包括:
根据动作数据集包含的动作检索标准动作数据库,寻找与之匹配的标准动作数据;
提取标准动作数据对应的标准响应参数,并提取动作数据集的实时响应参数;
将标准响应参数与实时响应参数进行比对,将其差值作为动作差异数据。
优选的,所述将待存储数据转化为控制动作集,将场景数据转换为场景特征,对控制动作集、动作差异数据以及场景特征进行存储的步骤,具体包括:
对待存储数据进行识别,确定其中包含的所有动作的先后顺序,得到控制动作集,所述控制动作集至少包括各个动作执行的时间;
提取不同动作对应的场景数据,将对应动作所需的判定条件进行记录,得到场景特征;
确定每一个动作对应的场景特征以及动作差异数据,将其与控制动作集一并存储。
优选的,所述场景数据包括交互图像、交互语音和交互指令。
优选的,需要使用存储的数据时,根据控制动作集检索对应的场景特征以及动作差异数据,将上述数据导入到对应的机器人模型中进行运算,得到待存储数据。
本发明实施例的另一目的在于提供一种人形机器人存储控制***,所述***包括:
数据获取模块,用于获取待存储数据,所述待存储数据至少包括场景数据和控制数据;
动作划分模块,用于根据人形机器人的部位划分将待存储数据划分为多个动作数据集,所述动作数据集包含独立动作数据包和联动动作数据包;
动作分析模块,用于基于动作数据集查询预设的标准动作数据库,对动作数据集进行分析,得到动作差异数据;
数据存储模块,用于将待存储数据转化为控制动作集,将场景数据转换为场景特征,对控制动作集、动作差异数据以及场景特征进行存储。
优选的,所述动作划分模块包括:
机器人分区单元,用于将人形机器人按照功能区域划分为多个独立控制区,所述独立控制区之间通过配合完成对应动作;
动作识别单元,用于识别待存储数据中包含的动作内容,根据动作内容对待存储数据进行划分,得到多个动作数据块;
数据划分单元,用于确定每个动作数据块包含的动作,将其划分为独立动作数据包和联动动作数据包。
优选的,所述动作分析模块包括:
数据匹配单元,用于根据动作数据集包含的动作检索标准动作数据库,寻找与之匹配的标准动作数据;
参数提取单元,用于提取标准动作数据对应的标准响应参数,并提取动作数据集的实时响应参数;
数据对比单元,用于将标准响应参数与实时响应参数进行比对,将其差值作为动作差异数据。
优选的,所述数据存储模块包括:
动作集识别单元,用于对待存储数据进行识别,确定其中包含的所有动作的先后顺序,得到控制动作集,所述控制动作集至少包括各个动作执行的时间;
场景特征提取单元,用于提取不同动作对应的场景数据,将对应动作所需的判定条件进行记录,得到场景特征;
数据分解存储单元,用于确定每一个动作对应的场景特征以及动作差异数据,将其与控制动作集一并存储。
本发明实施例提供的一种人形机器人存储控制方法,通过对待存储数据进行分析,将其转换为多个动作,确定每一个动作与标准动作之间的操控差异,以控制动作集、动作差异数据以及场景特征作为恢复待存储数据的依据进行存储,大大降低了数据存储所需的内存,减少了数据存储的成本。
附图说明
图1为本发明实施例提供的一种人形机器人存储控制方法的流程图;
图2为本发明实施例提供的根据人形机器人的部位划分将待存储数据划分为多个动作数据集的步骤的流程图;
图3为本发明实施例提供的基于动作数据集查询预设的标准动作数据库,对动作数据集进行分析,得到动作差异数据的步骤的流程图;
图4为本发明实施例提供的将待存储数据转化为控制动作集,将场景数据转换为场景特征,对控制动作集、动作差异数据以及场景特征进行存储的步骤的流程图;
图5为本发明实施例提供的一种人形机器人存储控制***的架构图;
图6为本发明实施例提供的一种动作划分模块的架构图;
图7为本发明实施例提供的一种动作分析模块的架构图;
图8为本发明实施例提供的一种数据存储模块的架构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,为本发明实施例提供的一种人形机器人存储控制方法的流程图,所述方法包括:
S100,获取待存储数据,所述待存储数据至少包括场景数据和控制数据。
在本步骤中,获取待存储数据,所述待存储数据为人形机器人在运行过程中产生的数据,人形机器人可以为迎宾机器人,待存储数据则为人形机器人运行过程中产生的数据,如电机的转动角度,伸缩缸的伸缩长度等,其还包括控制数据和场景数据,控制数据是指控制人形机器人中各个部件运转的指令数据,如控制A电机转动,控制B伸缩缸伸长等,场景数据则为触发各个动作的触发事件,如通过人形机器人中的图像采集单元检测到人员进入,则控制人形机器人摆动手臂,形成迎宾的动作,那么通过图像采集单元采集到的图像则为场景数据,控制数据则为控制人形机器人摆出迎宾动作的控制指令。
S200,根据人形机器人的部位划分将待存储数据划分为多个动作数据集,所述动作数据集包含独立动作数据包和联动动作数据包。
在本步骤中,根据人形机器人的部位划分将待存储数据划分为多个动作数据集,人形机器人之所以被称之为人形机器人,其与人体相似,也具有四肢与面部器官,如迎宾机器人,其保留有手臂,手臂由多个部分组成,部分之间可以相对活动,具体是通过内部设置的电机或者其他驱动结构控制,因此,每一个组成部分具有独立的驱动单元,每一个部分可以完成独立的动作,如大臂部分抬升、下降等,那么人形机器人在执行一系列动作时,可以将其视为多个部分的动作集合,如迎宾动作,包含提升大臂、收回小臂、翻转手掌等,因此,每一个动作都可以以各个部位的组合来实现,动作数据集包含独立动作数据包和联动动作数据包,独立动作数据包包含由一个人形机器人组成部分完成的动作产生的所有数据,如翻转手腕,联动动作数据包则是需要多个人形机器人组成部分联合完成的动作产生的所有数据,如挥手示意。
S300,基于动作数据集查询预设的标准动作数据库,对动作数据集进行分析,得到动作差异数据。
在本步骤中,基于动作数据集查询预设的标准动作数据库,在标准动作数据库中,预设有多个动作,包括由单个人形机器人组成部分完成的独立动作以及由多个人形机器人组成部分联合完成的联合动作,并记录由各个动作对应的执行动作,如实现A独立动作,需要对应的组成部分执行十个指令,执行每个指令的参数A1-A10,而在实际操作过程中,由于所需的动作并不完全相同,如标准动作为抬升大臂20°,而实际需要执行的动作为抬升大臂15°,那么完成该动作所需指令对应的参数必然不同,将两者进行比较,对差异值进行记录,得到动作差异数据。
S400,将待存储数据转化为控制动作集,将场景数据转换为场景特征,对控制动作集、动作差异数据以及场景特征进行存储。
在本步骤中,将待存储数据转化为控制动作集,人形机器人的所有动作都是通过各个组成部分来完成的,因此可以按照时间顺序对各个动作进行排序,以形成动作时间序列,即得到控制动作集,进一步的,将场景数据转换为场景特征,此过程用于实现减少无用数据,以提取关键数据,最终将控制动作集、动作差异数据以及场景特征存储起来,为了保证被存储数据的准确率,调取对应的控制动作集、动作差异数据以及场景特征,根据控制动作集确定人形机器人完成的动作,进而根据控制动作集查询对应的标准动作数据库确定标准动作,并且根据动作差异数据对标准动作进行调整,以形成初步恢复数据,并将场景特征导入到预设的机器人模型中,进行模拟运算,得到输出结果,将输出结果与初步恢复数据进行校核,判定初步恢复数据的有效性,若有效,则以控制动作集、动作差异数据以及场景特征替换待存储数据,反之则直接存储待存储数据。
如图2所示,作为本发明的一个优选实施例,所述根据人形机器人的部位划分将待存储数据划分为多个动作数据集的步骤,具体包括:
S201,将人形机器人按照功能区域划分为多个独立控制区,所述独立控制区之间通过配合完成对应动作。
在本步骤中,将人形机器人按照功能区域划分为多个独立控制区,独立控制区为能够指定单独指令的人形机器人组成部分,如腕部、手部、小臂以及大臂等,各个独立控制区能够完成独立指令,如抬升小臂等。
S202,识别待存储数据中包含的动作内容,根据动作内容对待存储数据进行划分,得到多个动作数据块。
在本步骤中,识别待存储数据中包含的动作内容,人形机器人的动作实际上由动作完成的,如预设的迎宾动作、问候动作、鞠躬动作等,而每一个预设的动作都是需要通过多个独立控制区的动作来实现的,因此,按照预设动作对待存储数据进行划分,从而得到多个数据块。
S203,确定每个动作数据块包含的动作,将其划分为独立动作数据包和联动动作数据包。
在本步骤中,确定每个动作数据块包含的动作,不同的动作需要不同的独立控制区来完成,因此,根据独立控制区的数量来进行划分,将其划分为独立动作数据包和联动动作数据包。
如图3所示,作为本发明的一个优选实施例,所述基于动作数据集查询预设的标准动作数据库,对动作数据集进行分析,得到动作差异数据的步骤,具体包括:
S301,根据动作数据集包含的动作检索标准动作数据库,寻找与之匹配的标准动作数据。
在本步骤中,根据动作数据集包含的动作检索标准动作数据库,在使用之前,根据人形机器人可以实现的预设动作来配置标准动作数据库,若一个预设动作包括多个不同的执行方式,如以90°鞠躬,以120°鞠躬,即鞠躬可以采用不同的弯曲角度执行,那么则随机选择一种角度作为标准动作,将其所需的控制指令存储至标准动作数据库中,那么在检索时,判定当前人形机器人执行的动作,确定对应的标准动作,以得到标准动作数据。
S302,提取标准动作数据对应的标准响应参数,并提取动作数据集的实时响应参数。
在本步骤中,提取标准动作数据对应的标准响应参数,在标准动作数据中,对完成该标准动作的指令均进行记录,将其进行提取,如电机转动角度、转动速度等,同样的,对于实时响应参数,也是实际上执行的指令。
S303,将标准响应参数与实时响应参数进行比对,将其差值作为动作差异数据。
在本步骤中,将标准响应参数与实时响应参数进行比对,由于执行的动作存在一定的差异,如鞠躬90度和鞠躬100度,两者的电机控制参数存在差异,通过对比确定参数之间的差值,以得到动作差异数据,具体的,可以直接以正负数据进行表示,如标准响应参数为50,实时响应参数为30,则动作差异数据记载-20。
如图4所示,作为本发明的一个优选实施例,所述将待存储数据转化为控制动作集,将场景数据转换为场景特征,对控制动作集、动作差异数据以及场景特征进行存储的步骤,具体包括:
S401,对待存储数据进行识别,确定其中包含的所有动作的先后顺序,得到控制动作集,所述控制动作集至少包括各个动作执行的时间。
在本步骤中,对待存储数据进行识别,对于同一个动作,通过人形机器人处理后,将会产生多个执行步骤,而导致最终的结果相同,如预设动作A包含两个独立控制区b和c,实现预设动作A可以先控制b,再控制c,也可以先控制c,再控制b,将执行动作的顺序进行记录,形成控制动作集。
S402,提取不同动作对应的场景数据,将对应动作所需的判定条件进行记录,得到场景特征。
在本步骤中,提取不同动作对应的场景数据,人形机器人在执行动作时,是根据实时场景分析得到的,如通过图像采集设备识别到人员进入,则判定需要执行对应的动作,那么对应的判定条件为,检测到画面变动,将画面导入人脸识别模型,检测到人员,同时红外探测装置检测到热源,那么则判定存在人员进入,此时,执行对应动作,那么将判定条件对应的数据作为场景特征进行提取,即包括面部图像、画面变化率、红外图像像素数量、人员位置等信息。
S403,确定每一个动作对应的场景特征以及动作差异数据,将其与控制动作集一并存储。
在本步骤中,确定每一个动作对应的场景特征以及动作差异数据,并进行存储,为了进行数据的验证,调取对应的控制动作集、动作差异数据以及场景特征,根据控制动作集确定人形机器人完成的动作,进而根据控制动作集查询对应的标准动作数据库确定标准动作,并且根据动作差异数据对标准动作进行调整,以形成初步恢复数据,并将场景特征导入到预设的机器人模型中,进行模拟运算,得到输出结果,将输出结果与初步恢复数据进行校核,判定初步恢复数据的有效性,若有效,则以控制动作集、动作差异数据以及场景特征替换待存储数据,反之则直接存储待存储数据。
如图5所示,为本发明实施例提供的一种人形机器人存储控制***,所述***包括:
数据获取模块100,用于获取待存储数据,所述待存储数据至少包括场景数据和控制数据。
在本***中,数据获取模块100获取待存储数据,所述待存储数据为人形机器人在运行过程中产生的数据,人形机器人可以为迎宾机器人,待存储数据则为人形机器人运行过程中产生的数据,如电机的转动角度,伸缩缸的伸缩长度等,其还包括控制数据和场景数据,控制数据是指控制人形机器人中各个部件运转的指令数据,如控制A电机转动,控制B伸缩缸伸长等,场景数据则为触发各个动作的触发事件,如通过人形机器人中的图像采集单元检测到人员进入,则控制人形机器人摆动手臂,形成迎宾的动作,那么通过图像采集单元采集到的图像则为场景数据,控制数据则为控制人形机器人摆出迎宾动作的控制指令。
动作划分模块200,用于根据人形机器人的部位划分将待存储数据划分为多个动作数据集,所述动作数据集包含独立动作数据包和联动动作数据包。
在本***中,动作划分模块200根据人形机器人的部位划分将待存储数据划分为多个动作数据集,人形机器人之所以被称之为人形机器人,其与人体相似,也具有四肢与面部器官,如迎宾机器人,其保留有手臂,手臂由多个部分组成,部分之间可以相对活动,具体是通过内部设置的电机或者其他驱动结构控制,因此,每一个组成部分具有独立的驱动单元,每一个部分可以完成独立的动作,如大臂部分抬升、下降等,那么人形机器人在执行一系列动作时,可以将其视为多个部分的动作集合,如迎宾动作,包含提升大臂、收回小臂、翻转手掌等,因此,每一个动作都可以以各个部位的组合来实现,动作数据集包含独立动作数据包和联动动作数据包,独立动作数据包包含由一个人形机器人组成部分完成的动作产生的所有数据,如翻转手腕,联动动作数据包则是需要多个人形机器人组成部分联合完成的动作产生的所有数据,如挥手示意。
动作分析模块300,用于基于动作数据集查询预设的标准动作数据库,对动作数据集进行分析,得到动作差异数据。
在本***中,动作分析模块300基于动作数据集查询预设的标准动作数据库,在标准动作数据库中,预设有多个动作,包括由单个人形机器人组成部分完成的独立动作以及由多个人形机器人组成部分联合完成的联合动作,并记录由各个动作对应的执行动作,如实现A独立动作,需要对应的组成部分执行十个指令,执行每个指令的参数A1-A10,而在实际操作过程中,由于所需的动作并不完全相同,如标准动作为抬升大臂20°,而实际需要执行的动作为抬升大臂15°,那么完成该动作所需指令对应的参数必然不同,将两者进行比较,对差异值进行记录,得到动作差异数据。
数据存储模块400,用于将待存储数据转化为控制动作集,将场景数据转换为场景特征,对控制动作集、动作差异数据以及场景特征进行存储。
在本***中,数据存储模块400将待存储数据转化为控制动作集,人形机器人的所有动作都是通过各个组成部分来完成的,因此可以按照时间顺序对各个动作进行排序,以形成动作时间序列,即得到控制动作集,进一步的,将场景数据转换为场景特征,此过程用于实现减少无用数据,以提取关键数据,最终将控制动作集、动作差异数据以及场景特征存储起来,为了保证被存储数据的准确率,调取对应的控制动作集、动作差异数据以及场景特征,根据控制动作集确定人形机器人完成的动作,进而根据控制动作集查询对应的标准动作数据库确定标准动作,并且根据动作差异数据对标准动作进行调整,以形成初步恢复数据,并将场景特征导入到预设的机器人模型中,进行模拟运算,得到输出结果,将输出结果与初步恢复数据进行校核,判定初步恢复数据的有效性,若有效,则以控制动作集、动作差异数据以及场景特征替换待存储数据,反之则直接存储待存储数据。
如图6所示,作为本发明的一个优选实施例,所述动作划分模块200包括:
机器人分区单元201,用于将人形机器人按照功能区域划分为多个独立控制区,所述独立控制区之间通过配合完成对应动作。
在本模块中,机器人分区单元201将人形机器人按照功能区域划分为多个独立控制区,独立控制区为能够指定单独指令的人形机器人组成部分,如腕部、手部、小臂以及大臂等,各个独立控制区能够完成独立指令,如抬升小臂等。
动作识别单元202,用于识别待存储数据中包含的动作内容,根据动作内容对待存储数据进行划分,得到多个动作数据块。
在本模块中,动作识别单元202识别待存储数据中包含的动作内容,人形机器人的动作实际上由动作完成的,如预设的迎宾动作、问候动作、鞠躬动作等,而每一个预设的动作都是需要通过多个独立控制区的动作来实现的,因此,按照预设动作对待存储数据进行划分,从而得到多个数据块。
数据划分单元203,用于确定每个动作数据块包含的动作,将其划分为独立动作数据包和联动动作数据包。
在本模块中,数据划分单元203确定每个动作数据块包含的动作,不同的动作需要不同的独立控制区来完成,因此,根据独立控制区的数量来进行划分,将其划分为独立动作数据包和联动动作数据包。
如图7所示,作为本发明的一个优选实施例,所述动作分析模块300包括:
数据匹配单元301,用于根据动作数据集包含的动作检索标准动作数据库,寻找与之匹配的标准动作数据。
在本模块中,数据匹配单元301根据动作数据集包含的动作检索标准动作数据库,在使用之前,根据人形机器人可以实现的预设动作来配置标准动作数据库,若一个预设动作包括多个不同的执行方式,如以90°鞠躬,以120°鞠躬,即鞠躬可以采用不同的弯曲角度执行,那么则随机选择一种角度作为标准动作,将其所需的控制指令存储至标准动作数据库中,那么在检索时,判定当前人形机器人执行的动作,确定对应的标准动作,以得到标准动作数据。
参数提取单元302,用于提取标准动作数据对应的标准响应参数,并提取动作数据集的实时响应参数。
在本模块中,参数提取单元302提取标准动作数据对应的标准响应参数,在标准动作数据中,对完成该标准动作的指令均进行记录,将其进行提取,如电机转动角度、转动速度等,同样的,对于实时响应参数,也是实际上执行的指令。
数据对比单元303,用于将标准响应参数与实时响应参数进行比对,将其差值作为动作差异数据。
在本模块中,数据对比单元303将标准响应参数与实时响应参数进行比对,由于执行的动作存在一定的差异,如鞠躬90度和鞠躬100度,两者的电机控制参数存在差异,通过对比确定参数之间的差值,以得到动作差异数据,具体的,可以直接以正负数据进行表示,如标准响应参数为50,实时响应参数为30,则动作差异数据记载-20。
如图8所示,作为本发明的一个优选实施例,所述数据存储模块400包括:
动作集识别单元401,用于对待存储数据进行识别,确定其中包含的所有动作的先后顺序,得到控制动作集,所述控制动作集至少包括各个动作执行的时间。
在本模块中,动作集识别单元401对待存储数据进行识别,对于同一个动作,通过人形机器人处理后,将会产生多个执行步骤,而导致最终的结果相同,如预设动作A包含两个独立控制区b和c,实现预设动作A可以先控制b,再控制c,也可以先控制c,再控制b,将执行动作的顺序进行记录,形成控制动作集。
场景特征提取单元402,用于提取不同动作对应的场景数据,将对应动作所需的判定条件进行记录,得到场景特征。
在本模块中,场景特征提取单元402提取不同动作对应的场景数据,人形机器人在执行动作时,是根据实时场景分析得到的,如通过图像采集设备识别到人员进入,则判定需要执行对应的动作,那么对应的判定条件为,检测到画面变动,将画面导入人脸识别模型,检测到人员,同时红外探测装置检测到热源,那么则判定存在人员进入,此时,执行对应动作,那么将判定条件对应的数据作为场景特征进行提取,即包括面部图像、画面变化率、红外图像像素数量、人员位置等信息。
数据分解存储单元403,用于确定每一个动作对应的场景特征以及动作差异数据,将其与控制动作集一并存储。
在本模块中,数据分解存储单元403确定每一个动作对应的场景特征以及动作差异数据,并进行存储,为了进行数据的验证,调取对应的控制动作集、动作差异数据以及场景特征,根据控制动作集确定人形机器人完成的动作,进而根据控制动作集查询对应的标准动作数据库确定标准动作,并且根据动作差异数据对标准动作进行调整,以形成初步恢复数据,并将场景特征导入到预设的机器人模型中,进行模拟运算,得到输出结果,将输出结果与初步恢复数据进行校核,判定初步恢复数据的有效性,若有效,则以控制动作集、动作差异数据以及场景特征替换待存储数据,反之则直接存储待存储数据。
应该理解的是,虽然本发明各实施例的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,各实施例中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink) DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种人形机器人存储控制方法,其特征在于,所述方法包括:
获取待存储数据,所述待存储数据至少包括场景数据和控制数据;
根据人形机器人的部位划分将待存储数据划分为多个动作数据集,所述动作数据集包含独立动作数据包和联动动作数据包;
基于动作数据集查询预设的标准动作数据库,对动作数据集进行分析,得到动作差异数据;
将待存储数据转化为控制动作集,将场景数据转换为场景特征,对控制动作集、动作差异数据以及场景特征进行存储;
其中,所述根据人形机器人的部位划分将待存储数据划分为多个动作数据集的步骤,具体包括:将人形机器人按照功能区域划分为多个独立控制区,所述独立控制区之间通过配合完成对应动作;识别待存储数据中包含的动作内容,根据动作内容对待存储数据进行划分,得到多个动作数据块;确定每个动作数据块包含的动作,将其划分为独立动作数据包和联动动作数据包;
其中,所述基于动作数据集查询预设的标准动作数据库,对动作数据集进行分析,得到动作差异数据的步骤,具体包括:根据动作数据集包含的动作检索标准动作数据库,寻找与之匹配的标准动作数据;提取标准动作数据对应的标准响应参数,并提取动作数据集的实时响应参数;将标准响应参数与实时响应参数进行比对,将其差值作为动作差异数据;
其中,所述将待存储数据转化为控制动作集,将场景数据转换为场景特征,对控制动作集、动作差异数据以及场景特征进行存储的步骤,具体包括:对待存储数据进行识别,确定其中包含的所有动作的先后顺序,得到控制动作集,所述控制动作集至少包括各个动作执行的时间;提取不同动作对应的场景数据,将对应动作所需的判定条件进行记录,得到场景特征;确定每一个动作对应的场景特征以及动作差异数据,将其与控制动作集一并存储。
2.根据权利要求1所述的人形机器人存储控制方法,其特征在于,所述场景数据包括交互图像、交互语音和交互指令。
3.根据权利要求1所述的人形机器人存储控制方法,其特征在于,需要使用存储的数据时,根据控制动作集检索对应的场景特征以及动作差异数据,将上述数据导入到对应的机器人模型中进行运算,得到待存储数据。
4.一种人形机器人存储控制***,其特征在于,所述***包括:
数据获取模块,用于获取待存储数据,所述待存储数据至少包括场景数据和控制数据;
动作划分模块,用于根据人形机器人的部位划分将待存储数据划分为多个动作数据集,所述动作数据集包含独立动作数据包和联动动作数据包;
动作分析模块,用于基于动作数据集查询预设的标准动作数据库,对动作数据集进行分析,得到动作差异数据;
数据存储模块,用于将待存储数据转化为控制动作集,将场景数据转换为场景特征,对控制动作集、动作差异数据以及场景特征进行存储;
其中,所述动作划分模块包括:机器人分区单元,用于将人形机器人按照功能区域划分为多个独立控制区,所述独立控制区之间通过配合完成对应动作;动作识别单元,用于识别待存储数据中包含的动作内容,根据动作内容对待存储数据进行划分,得到多个动作数据块;数据划分单元,用于确定每个动作数据块包含的动作,将其划分为独立动作数据包和联动动作数据包;
其中,所述动作分析模块包括:数据匹配单元,用于根据动作数据集包含的动作检索标准动作数据库,寻找与之匹配的标准动作数据;参数提取单元,用于提取标准动作数据对应的标准响应参数,并提取动作数据集的实时响应参数;数据对比单元,用于将标准响应参数与实时响应参数进行比对,将其差值作为动作差异数据;
其中,所述数据存储模块包括:动作集识别单元,用于对待存储数据进行识别,确定其中包含的所有动作的先后顺序,得到控制动作集,所述控制动作集至少包括各个动作执行的时间;场景特征提取单元,用于提取不同动作对应的场景数据,将对应动作所需的判定条件进行记录,得到场景特征;数据分解存储单元,用于确定每一个动作对应的场景特征以及动作差异数据,将其与控制动作集一并存储。
CN202310517300.6A 2023-05-10 2023-05-10 一种人形机器人存储控制方法及控制*** Active CN116214528B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310517300.6A CN116214528B (zh) 2023-05-10 2023-05-10 一种人形机器人存储控制方法及控制***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310517300.6A CN116214528B (zh) 2023-05-10 2023-05-10 一种人形机器人存储控制方法及控制***

Publications (2)

Publication Number Publication Date
CN116214528A CN116214528A (zh) 2023-06-06
CN116214528B true CN116214528B (zh) 2023-10-03

Family

ID=86569993

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310517300.6A Active CN116214528B (zh) 2023-05-10 2023-05-10 一种人形机器人存储控制方法及控制***

Country Status (1)

Country Link
CN (1) CN116214528B (zh)

Citations (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57207908A (en) * 1981-06-17 1982-12-20 Hitachi Ltd Robot controller
EP0104270A1 (en) * 1982-09-23 1984-04-04 Kabushiki Kaisha Sankyo Seiki Seisakusho Robot control apparatus
JPS625408A (ja) * 1985-07-01 1987-01-12 Fanuc Ltd 関節形ロボツトの制御方式
JP2000153479A (ja) * 1998-09-03 2000-06-06 Ricoh Elemex Corp ロボットシステム
JP2003211380A (ja) * 2002-01-18 2003-07-29 Honda Motor Co Ltd 移動ロボットの異常検知装置
CN101020313A (zh) * 2007-03-08 2007-08-22 华中科技大学 一种模块化嵌入式多足机器人运动控制器
KR20090109652A (ko) * 2008-04-16 2009-10-21 삼성전자주식회사 휴머노이드 로봇 및 그의 제어 방법
KR20110035128A (ko) * 2009-09-29 2011-04-06 주식회사 케이티 네트워크 기반 로봇행동 관리 시스템
CA2944774A1 (en) * 2014-04-08 2015-10-15 Kawasaki Jukogyo Kabushiki Kaisha Data collection system and method
WO2016025941A1 (en) * 2014-08-15 2016-02-18 University Of Central Florida Research Foundation, Inc. Control interface for robotic humanoid avatar system and related methods
CN205905033U (zh) * 2016-07-15 2017-01-25 杭州欢乐飞机器人科技股份有限公司 一种迎宾机器人
JP2017213612A (ja) * 2016-05-30 2017-12-07 トヨタ自動車株式会社 ロボットおよびロボットの制御方法
CN107515900A (zh) * 2017-07-24 2017-12-26 宗晖(上海)机器人有限公司 智能机器人及其事件备忘***和方法
CN108229855A (zh) * 2018-02-06 2018-06-29 上海小蚁科技有限公司 服务质量监测方法及装置、计算机可读存储介质、终端
EP3441037A1 (de) * 2017-08-11 2019-02-13 avateramedical GmbH Verfahren zur zulassungskontrolle eines in einem chirurgischen robotersystem einzusetzenden chirurgischen instruments und chirurgisches robotersystem
US10216695B1 (en) * 2017-09-21 2019-02-26 Palantir Technologies Inc. Database system for time series data storage, processing, and analysis
WO2019120148A1 (zh) * 2017-12-19 2019-06-27 北京可以科技有限公司 模块化机器人的控制***、模块化机器人***及控制模块化机器人的方法
CN110175150A (zh) * 2019-05-15 2019-08-27 重庆大学 基于数据压缩的迎宾机器人数据存储监控***
CN110253567A (zh) * 2019-05-22 2019-09-20 北京镁伽机器人科技有限公司 用于控制机器人运动的运动控制***、方法及机器人
WO2020207017A1 (zh) * 2019-04-11 2020-10-15 上海交通大学 农业场景无标定机器人运动视觉协同伺服控制方法与设备
CN112329341A (zh) * 2020-11-02 2021-02-05 浙江智昌机器人科技有限公司 一种基于ar和随机森林模型的故障诊断***及方法
CN112988467A (zh) * 2021-04-19 2021-06-18 深圳市安信达存储技术有限公司 一种固态硬盘及其数据恢复方法和终端设备
WO2021189695A1 (zh) * 2020-03-25 2021-09-30 平安科技(深圳)有限公司 分布式的数据库动态扩容方法、装置、设备及存储介质
CN115220375A (zh) * 2021-09-30 2022-10-21 达闼科技(北京)有限公司 机器人控制方法、装置、存储介质及电子设备
EP4088886A1 (en) * 2021-05-14 2022-11-16 The Boeing Company Rapid change mechanism for complex end effectors

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111055275B (zh) * 2019-12-04 2021-10-29 深圳市优必选科技股份有限公司 一种动作模仿方法、装置、计算机可读存储介质及机器人

Patent Citations (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57207908A (en) * 1981-06-17 1982-12-20 Hitachi Ltd Robot controller
EP0104270A1 (en) * 1982-09-23 1984-04-04 Kabushiki Kaisha Sankyo Seiki Seisakusho Robot control apparatus
JPS625408A (ja) * 1985-07-01 1987-01-12 Fanuc Ltd 関節形ロボツトの制御方式
JP2000153479A (ja) * 1998-09-03 2000-06-06 Ricoh Elemex Corp ロボットシステム
JP2003211380A (ja) * 2002-01-18 2003-07-29 Honda Motor Co Ltd 移動ロボットの異常検知装置
CN101020313A (zh) * 2007-03-08 2007-08-22 华中科技大学 一种模块化嵌入式多足机器人运动控制器
KR20090109652A (ko) * 2008-04-16 2009-10-21 삼성전자주식회사 휴머노이드 로봇 및 그의 제어 방법
KR20110035128A (ko) * 2009-09-29 2011-04-06 주식회사 케이티 네트워크 기반 로봇행동 관리 시스템
CA2944774A1 (en) * 2014-04-08 2015-10-15 Kawasaki Jukogyo Kabushiki Kaisha Data collection system and method
WO2016025941A1 (en) * 2014-08-15 2016-02-18 University Of Central Florida Research Foundation, Inc. Control interface for robotic humanoid avatar system and related methods
JP2017213612A (ja) * 2016-05-30 2017-12-07 トヨタ自動車株式会社 ロボットおよびロボットの制御方法
CN205905033U (zh) * 2016-07-15 2017-01-25 杭州欢乐飞机器人科技股份有限公司 一种迎宾机器人
CN107515900A (zh) * 2017-07-24 2017-12-26 宗晖(上海)机器人有限公司 智能机器人及其事件备忘***和方法
EP3441037A1 (de) * 2017-08-11 2019-02-13 avateramedical GmbH Verfahren zur zulassungskontrolle eines in einem chirurgischen robotersystem einzusetzenden chirurgischen instruments und chirurgisches robotersystem
US10216695B1 (en) * 2017-09-21 2019-02-26 Palantir Technologies Inc. Database system for time series data storage, processing, and analysis
WO2019120148A1 (zh) * 2017-12-19 2019-06-27 北京可以科技有限公司 模块化机器人的控制***、模块化机器人***及控制模块化机器人的方法
CN108229855A (zh) * 2018-02-06 2018-06-29 上海小蚁科技有限公司 服务质量监测方法及装置、计算机可读存储介质、终端
WO2020207017A1 (zh) * 2019-04-11 2020-10-15 上海交通大学 农业场景无标定机器人运动视觉协同伺服控制方法与设备
CN110175150A (zh) * 2019-05-15 2019-08-27 重庆大学 基于数据压缩的迎宾机器人数据存储监控***
CN110253567A (zh) * 2019-05-22 2019-09-20 北京镁伽机器人科技有限公司 用于控制机器人运动的运动控制***、方法及机器人
WO2021189695A1 (zh) * 2020-03-25 2021-09-30 平安科技(深圳)有限公司 分布式的数据库动态扩容方法、装置、设备及存储介质
CN112329341A (zh) * 2020-11-02 2021-02-05 浙江智昌机器人科技有限公司 一种基于ar和随机森林模型的故障诊断***及方法
CN112988467A (zh) * 2021-04-19 2021-06-18 深圳市安信达存储技术有限公司 一种固态硬盘及其数据恢复方法和终端设备
EP4088886A1 (en) * 2021-05-14 2022-11-16 The Boeing Company Rapid change mechanism for complex end effectors
CN115220375A (zh) * 2021-09-30 2022-10-21 达闼科技(北京)有限公司 机器人控制方法、装置、存储介质及电子设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘帅 ; 王敏珍 ; 刘超 ; .基于模式识别的机器人运行轨迹数据分类存储***设计.现代电子技术.2020,(第04期),全文. *
基于VR场景设计的采摘机器人协同作业分析;成艳真;;农机化研究(第12期);全文 *

Also Published As

Publication number Publication date
CN116214528A (zh) 2023-06-06

Similar Documents

Publication Publication Date Title
CN109522818B (zh) 一种表情识别的方法、装置、终端设备及存储介质
CN108446585B (zh) 目标跟踪方法、装置、计算机设备和存储介质
WO2020215573A1 (zh) 验证码的识别方法、装置、计算机设备和存储介质
WO2020140665A1 (zh) 双录视频质量检测方法、装置、计算机设备和存储介质
CN106991395B (zh) 信息处理方法、装置及电子设备
CN109743624B (zh) 视频切割方法、装置、计算机设备和存储介质
CN110751022A (zh) 基于图像识别的城市宠物活动轨迹监测方法及相关设备
WO2016172872A1 (zh) 用于验证活体人脸的方法、设备和计算机程序产品
US20220215560A1 (en) Method and device for tracking multiple target objects in motion state
CN105825268A (zh) 面向机器人学习动作表达的数据处理方法和***
CN110610154A (zh) 行为识别方法、装置、计算机设备和存储介质
CN113239874A (zh) 基于视频图像的行为姿态检测方法、装置、设备及介质
CN111063083B (zh) 门禁控制方法、装置、计算机可读存储介质和计算机设备
CN110046577B (zh) 行人属性预测方法、装置、计算机设备和存储介质
CN110826484A (zh) 车辆重识别的方法、装置、计算机设备及模型训练方法
CN111240984A (zh) 异常页面识别方法、装置、计算机设备和存储介质
CN111582179B (zh) 监控视频分析方法、装置、计算机设备以及存储介质
CN110941992A (zh) 微笑表情检测方法、装置、计算机设备及存储介质
CN111242840A (zh) 手写体字符生成方法、装置、计算机设备和存储介质
CN116214528B (zh) 一种人形机器人存储控制方法及控制***
WO2020132933A1 (zh) 短文本过滤方法、装置、介质及计算机设备
Dai et al. Loop closure detection using KPCA and CNN for visual SLAM
CN112241705A (zh) 基于分类回归的目标检测模型训练方法和目标检测方法
CN116631106A (zh) 一种闸机门禁控制方法、***、设备和存储介质
CN111104937A (zh) 车门信息检测方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant