CN110216671A - 一种基于计算机仿真的机械抓手训练方法及*** - Google Patents

一种基于计算机仿真的机械抓手训练方法及*** Download PDF

Info

Publication number
CN110216671A
CN110216671A CN201910398732.3A CN201910398732A CN110216671A CN 110216671 A CN110216671 A CN 110216671A CN 201910398732 A CN201910398732 A CN 201910398732A CN 110216671 A CN110216671 A CN 110216671A
Authority
CN
China
Prior art keywords
crawled
environment
handgrip
model
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910398732.3A
Other languages
English (en)
Inventor
鲍磊
赵鑫
高少龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Software Robot Technology Co Ltd
Original Assignee
Suzhou Software Robot Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Software Robot Technology Co Ltd filed Critical Suzhou Software Robot Technology Co Ltd
Priority to CN201910398732.3A priority Critical patent/CN110216671A/zh
Publication of CN110216671A publication Critical patent/CN110216671A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例涉及一种基于计算机仿真的机械抓手训练方法及***,其中,所述方法包括:分别构建仿真的被抓取物环境和抓手环境;利用所述抓手环境中的传感器仿真采集所述被抓取物环境中的二维图像数据,并根据所述二维图像数据确定至少一个被抓取物的三维信息;根据所述被抓取物的三维信息,控制所述抓手环境中的抓手对所述被抓取物进行至少一次仿真抓取的机器学习训练,以获得当前被抓取物环境下的最优抓取模型参数。本申请提供的技术方案能够提高机械手抓取训练的效率和适应能力。

Description

一种基于计算机仿真的机械抓手训练方法及***
技术领域
本申请涉及数据处理技术领域,特别涉及一种基于计算机仿真的机械抓手训练方法及***。
背景技术
现有的机械抓手,一般是针对一个固定的任务开发的。这意味着机械手的抓取控制方法都是预先设计并调试的。然而,随着制造业大面积的自动化需求,快速部署机械手臂正成为新的研究方向。一般而言,需要针对特定的任务,例如待抓取的物体,进行机械手臂控制方法的调试。现有技术需要针对一个任务,例如一个特定的工厂,调试机械抓手,使得抓取方法能够适应该任务。这个过程往往需要较长的时间周期,且抓取次数受限。
现有技术中往往是通过实物在实际场景中进行反复尝试来进行机械手的调试,以确定在该场景下针对该实物的一个理想的抓取方式。这种方式虽然能解决一定的问题,但首先受人工经验影响较大,且调试结果受到的限制较多,仅能针对特定的场景对特定的物体实现有效抓取。同时,现有的调试方式对实物进行反复操作,完成前必然会多次失败,极易损坏抓手或抓取物;而且每次为恢复调试场景需要人工介入的工作较多,实现效率和成本均不理想。
计算机仿真技术能给机械手训练带来一定的便利,但现有的仿真方式过于依赖仿真环境模拟的真实性,反而让训练结果难以适应真实环境。典型地,如果训练时直接利用仿真的3维模型数据,实际上并未能使机械手的物体识别能力得到训练,实际应用效果差;其次,仿真模拟并不能穷举所有的真实场景,对于未能充分训练的新物体新场景,现有方式适应能力差失误率高,极易损坏被抓取物。
发明内容
本申请的目的在于提供一种基于计算机仿真的机械抓手训练方法及***,能够提高机械手抓取训练的效率和适应能力。
为实现上述目的,本申请提供一种基于计算机仿真的机械抓手训练方法,所述方法包括:
分别构建仿真的被抓取物环境和抓手环境;
利用所述抓手环境中的传感器仿真采集所述被抓取物环境中的二维图像数据,并根据所述二维图像数据确定至少一个被抓取物的三维信息;
根据所述被抓取物的三维信息,控制所述抓手环境中的抓手对所述被抓取物进行至少一次仿真抓取的机器学习训练,以获得当前被抓取物环境下的最优抓取模型参数。
进一步地,所述分别构建仿真的被抓取物环境和抓手环境包括:
根据物理样本分别建立各个被抓取物和各个抓手的三维仿真模型,其中,所述三维仿真模型具有对应所述物理样本的多个实际物理属性;
选取多个被抓取物的三维仿真模型随机建立被抓取物环境;
选取至少一个抓手的三维仿真模型对应所述被抓取物环境设置建立所述抓手环境;其中,所述被抓取物环境与所述抓手环境的数据相互独立。
进一步地,所述方法还包括:
根据物理样本建立各个被抓取物的三维仿真模型,并通过所述三维仿真模型模拟传感器得到的表面图像,建立所述表面图像与所述三维仿真模型和/或所述物理样本之间的关联关系;
使用所述三维仿真模型、所述传感器采集的二维图像数据以及建立的所述关联关系对神经网络模型进行训练,得到用于根据二维图像数据识别三维物体的第一人工智能模型;其中,所述第一人工智能模型可对待识别的二维图像数据进行识别,以得到所述待识别的二维图像数据对应的被抓取物的三维信息。
进一步地,所述抓取模型包括规划抓取策略的第二人工智能模型和进行抓手控制的第三人工智能模型;其中,
所述第二人工智能模型根据所述二维图像数据和所述被抓取物的三维信息规划输出抓取任务及执行策略;
所述第三人工智能模型根据所述执行策略控制抓手驱动单元的输出,使所述抓手抓取并移动所述被抓取物来实现所述抓取任务。
进一步地,当所述方法应用于多个抓手的训练场景时,所述第二人工智能模型的输出还包括抓手选择策略。
进一步地,所述方法还包括:
如在真实环境中只能得到指标低于预设阈值的抓取方案,则将真实图像和根据所述真实图像获得的物体的三维信息在线输入并对应构建仿真的环境,对所述抓取模型进行实时训练,并按实时训练的结果确定所述真实环境的抓取方案。
为实现上述目的,本申请还提供一种基于计算机仿真的机械抓手训练***,所述***包括:
环境构建单元,用于分别构建仿真的被抓取物环境和抓手环境;
仿真单元,用于利用所述抓手环境中的传感器仿真采集所述被抓取物环境中的二维图像数据,并根据所述二维图像数据确定至少一个被抓取物的三维信息;
训练单元,用于根据所述被抓取物的三维信息,控制所述抓手环境中的抓手对所述被抓取物进行至少一次仿真抓取的机器学习训练,以获得当前被抓取物环境下的最优抓取模型参数。
进一步地,所述环境构建单元包括:
模型建立模块,用于根据物理样本分别建立各个被抓取物和各个抓手的三维仿真模型,其中,所述三维仿真模型具有对应所述物理样本的多个实际物理属性;
被抓取环境选取模块,用于选取多个被抓取物的三维仿真模型随机建立被抓取物环境;
抓手环境选取模块,用于选取至少一个抓手的三维仿真模型对应所述被抓取物环境设置建立所述抓手环境;其中,所述被抓取物环境与所述抓手环境的数据相互独立。
进一步地,所述***还包括:
关联关系建立单元,用于根据物理样本建立各个被抓取物的三维仿真模型,并通过所述三维仿真模型模拟传感器得到的表面图像,建立所述表面图像与所述三维仿真模型和/或所述物理样本之间的关联关系;
智能模型训练单元,用于使用所述三维仿真模型、所述传感器采集的二维图像数据以及建立的所述关联关系对神经网络模型进行训练,得到用于根据二维图像数据识别三维物体的第一人工智能模型;其中,所述第一人工智能模型可对待识别的二维图像数据进行识别,以得到所述待识别的二维图像数据对应的被抓取物的三维信息。
进一步地,所述抓取模型包括规划抓取策略的第二人工智能模型和进行抓手控制的第三人工智能模型;其中,
所述第二人工智能模型根据所述二维图像数据和所述被抓取物的三维信息规划输出抓取任务及执行策略;
所述第三人工智能模型根据所述执行策略控制抓手驱动单元的输出,使所述抓手抓取并移动所述被抓取物来实现所述抓取任务。
进一步地,当所述方法应用于多个抓手的训练场景时,所述第二人工智能模型的输出还包括抓手选择策略。
进一步地,所述***还包括:
实时训练单元,用于如在真实环境中只能得到指标低于预设阈值的抓取方案,则将真实图像和根据所述真实图像获得的物体的三维信息在线输入并对应构建仿真的环境,对所述抓取模型进行实时训练,并按实时训练的结果确定所述真实环境的抓取方案。
本公开实施例的另一方面提供了一种电子设备,包括:存储器以及一个或多个处理器;
其中,所述存储器与所述一个或多个处理器通信连接,所述存储器中存储有可被所述一个或多个处理器执行的指令,所述指令被所述一个或多个处理器执行时,所述电子设备用于实现如前述各实施例所述的方法。
本公开实施例的又一方面提供了一种计算机可读存储介质,其上存储有计算机可执行指令,当所述计算机可执行指令被计算装置执行时,可用来实现如前述各实施例所述的方法。
本公开实施例的再一方面还提供了一种计算机程序产品,所述计算机程序产品包括存储在计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,可用来实现如前述各实施例所述的方法。
由上可见,本申请提供的技术方案,通过计算机仿真可以建立二维图像和实体目标模型之间的预测模型,并基于该预测模型规划抓取策略。该方法更适用于多物体随机堆叠的场景,在该场景下,物体姿态更随机,物体之间可能存在遮挡,***通过传感器获得二维图像,并可以根据该二维图像预测出物体的三维信息。在预测出物体的三维信息后,可以更精准地规划抓取策略。通过本发明提出的方法,能够在非常短的时间内完成大量的机械手臂训练操作,进而加快机械手臂部署到不同任务中的周期。尤其是,不需要浪费大量的物料就可以找到最优的抓取方案,例如像玻璃杯这种易碎商品,实物抓取训练失败意味着造成物料的损失,而仿真式的训练则可以将损失降为零。
附图说明
图1为本申请实施例中基于计算机仿真的机械抓手训练方法的流程图;
图2为本申请的一个实施例中使用各种模型构建仿真环境的示意图;
图3为本申请的一个实施例中根据二维图像获取三维信息的场景示意图;
图4为本申请的一个实施例中采用多抓手进行仿真训练的场景示意图;
图5为本申请的一个实施例中仿真训练的实现方法流程示意图;
图6为本申请实施例中基于计算机仿真的机械抓手训练***的功能模块示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施方式中的附图,对本申请实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式仅仅是本申请一部分实施方式,而不是全部的实施方式。基于本申请中的实施方式,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施方式,都应当属于本申请保护的范围。
现有技术中,机械抓手的精细控制需要复杂的控制逻辑实现,而且往往只能针对固定的场景和任务预先设计并配置,这使得机械抓手的使用范围受限且成本偏高。人工智能技术的出现虽然可以在一定程度上帮助机械抓手的训练,但现有的实物训练方式仍然会受到场景、时间和训练次数的限制,效率和成本并不理想。计算机仿真技术可以带来进一步的便利,但现有的仿真训练直接使用仿真模型的数据参数,并未能对机械抓手的识别能力进行有效训练,同时对于未经训练的新物体新场景也难以适应,仍存在较为明显的缺陷。本申请提供一种基于计算机仿真的机械抓手训练方法,对抓取场景的各个层面均进行严格的仿真和独立训练,从而可快速实现机械抓手的训练,并可有效应用于真实场景。具体地,请参阅图1,所述方法包括:
S1:分别构建仿真的被抓取物环境和抓手环境。
在本实施方式中,所述被抓取物环境和所述抓手环境均根据预先建立的三维模型构建,其中,所述被抓取物环境随机生成并且所述被抓取物环境与所述抓手环境相互独立。
具体地,可以在空白的三维场景中放置随机选取的被抓取物立体模型,选取的多个被抓取物立体模型在一定空间内任意堆积或摆放以形成被抓取物环境,而抓手的立体模型(包括抓手、传感器和抓手控制部等)构成的抓手环境可以针对被抓取物环境放置。
进一步地,为了获得更全面的训练效果,仿真训练需要进行多次,也并不仅限于在同一模拟环境下进行;因此,仿真的被抓取物环境和抓手环境通常会根据需要进行多次重复构建,每次构建的被抓取物环境和/或抓手环境可以完全相同、部分相同或完全不同等,在此不应对仿真环境的构建次数和形式做出具体的限制。
此外,在本申请的实施例中,所述“随机生成”和所述“在一定空间内任意”等表述均是指模拟现实环境中可能发生的情况,对于现实环境中不可能存在的情况,比如不符合物理规则、不符合逻辑或不符合自然规律的,不属于本申请技术方案进行模拟时的选择范围。
S2:利用所述抓手环境中的传感器采集所述被抓取物环境中的二维图像数据,并根据所述二维图像数据确定被抓取物的三维信息。
在本实施方式中,图像传感器拍摄的图片,可以从中识别物体表面的形状、轮廓尺寸、颜色、材质等等,多个物体堆叠时进一步识别物体的堆叠关系、相互距离等(包括抓手与被抓取物的相对位置距离)。当然也可借助距离传感器或激光雷达等测量尺寸、位置关系和距离等数据。
上述的图像识别和确定三维信息均是借助人工智能技术,可以把经过训练后的人工智能模型看作黑盒,输入指定格式的待识别二维图像数据,模型可以自动输出三维信息的识别结果,模型内部自行进行多层级的特征提取、置信度计算等操作,无需用户了解和干预。
S3:根据所述被抓取物的三维信息,控制抓手对被抓取物进行至少一次仿真抓取的机器学习训练,并获得当前被抓取物环境下的最优抓取模型参数。
在本申请的一个实施例中,在仿真环境中可以多次尝试不同的抓取策略。亦即对于一个已构建的仿真的被抓取物环境和抓手环境,如果某次模拟训练时抓取失败或抓取结果不理想,可以随时将场景还原到初始状态或某个中间状态,重新选择抓取策略或部分调整后进行再次模拟训练,直到得到最理想的结果。由于采用仿真方式,场景还原的效率极高且代价极小,同时不会对被抓取物和/或抓手造成任何物理伤害,因而可最大限度地支持反复训练,可以保证训练得到最优结果。
其中,所述最优抓取模型参数表示在使用该参数时抓取模型的输出可以达到最理想的结果。所述抓取模型通常包括规划抓取策略的第二人工智能模型和进行抓手控制的第三人工智能模型;其中,所述第二人工智能模型根据所述二维图像数据和所述被抓取物的三维信息规划输出抓取任务及执行策略;所述第三人工智能模型根据所述执行策略控制抓手驱动单元的输出,使所述抓手抓取并移动所述被抓取物来实现所述抓取任务。因而更具体地,最理想的结果指抓取模型根据场景中的二维图像数据和三维信息输出的控制量可以使抓手最大程度满足完成抓取任务的各项指标。其中,任务完成的指标可以包括至少一种性能要求,比如成功率最高、抓取速度最快、单次可抓取物体最多、可持续抓取次数最多、最节能、最安静、最平稳、故障率最低等;更优选地,还可对各个指标设置一定的权重,按照多个指标的综合性能来挑选最优。
当然,除采用上述第三人工智能模型的方式外,将抓取策略转换为对抓手驱动单元的控制信号也可以使用多种可行的实施方式,比如采用传统的驱动控制逻辑,通过将策略目标到计算机指令的转换(必要时还包括数模转换),也能实现抓手的驱动控制。因此,上述实施例中不应视作对抓取策略到抓手控制的具体实现方式的限制,任何可行的驱动控制方式均可适用于本申请的实施例中。
由上可见,本申请可以通过计算机仿真,建立二维图像和实体目标模型之间的预测模型,并基于该预测模型规划抓取策略,更适用于多物体随机堆叠的场景,此时物体姿态更随机,物体之间可能存在遮挡,***通过图像传感器获得二维图像,但是通过预测对应的目标物体,更精准的规划抓取策略。
下面进一步结合各示意图详细说明本申请的一些优选实施方式。如图2所示,在本申请的一个优选实施例中,仿真的被抓取物环境和抓手环境可以分别由多个目标物体的三维模型组合而成。比如,被抓取物环境中,可以包括各种物料的模型211,随机选取任意数量的物料模型211自然堆放在一定空间内;相应地,还可以在被抓取物环境中设置一些相关的配件模型212,如料盘、货架、传送带等,其配置和使用方式与真实物体相同,在此不再一一展开描述。而抓手环境中,也可以包括各种抓手的模型221,典型地如吸盘式、机械夹指式、柔性手指式等;抓手模型221可以安装在执行机构(如机械臂、机器人等)模型223上,同时还设置有相机模型222,用于模拟真实抓手的图像采集过程。
在一个应用示例中,仿真环境的具体实现方法为:通过计算机建立目标物体的物理模型,包括重心、表面粗糙度、形状等。建立多个目标物体堆叠的场景。建立抓手的物理模型。获得该物理场景的二维图像,规划抓取策略,通过抓手模型去测试抓取成功率。基于物理仿真的抓取成功率,训练抓取策略规划模型。
如图3所示,在本申请的一个优选实施例中,根据二维图像数据确定被抓取物的三维信息可分多个步骤实现。在图3中,首先通过相机模型采集被抓取物环境中的全部被抓取物的二维图像(图3上部的二维图像以俯视图为示例);随后对二维图像中的物体进行识别,获得多个物体的相对位置关系和堆积体的表面图像数据(图3下左为一个侧面视图示例);进一步根据识别出物体的三维模型补全堆积体的全部图像数据(尤其是下部被遮挡的不可见部分的数据;图3下右为同一侧面视图的示例)。通过补全的全部图像数据可以获得堆积体各个不同角度的任意三维信息,从而可选择能有效分离各被抓取物的抓取方式(抓手选择、抓取角度选择、抓取力度选择、运动方向选择等),进行精确的抓取策略规划。
其中,根据二维图像数据推断被抓取物的三维信息也可通过机器学习方式实现,即在物理仿真引擎中建立目标物体的三维模型,并模拟图像传感器得到的表面图像,得到两者之间的关系;使用三维模型、图像及两者关系对神经网络模型进行训练,可得到由二维图像数据识别三维物体的人工智能模型。
计算机仿真训练也可以训练多抓手。即抓取***包括多个抓手,多个抓手具有不同的特征,例如软体、硬体、表面粗糙度等。抓手环境中也模拟多个抓手分别对被抓取物环境进行抓取训练。训练抓取***对一个任务的抓手选择方法和抓取方案规划方法。具体的,评估***可以顺序或同时,让多种抓手执行相同的任务,每种抓手单独根据当前任务训练对应的抓取方法,当每种抓取方法达到最优时,比较多种抓手的性能,得到最优抓手选择方案。
进一步如图4所示,在本申请的一个优选实施例中,最优抓手选择方案还可以是多种抓手的组合使用,比如针对多个被抓取物的具体情况选用不同的抓手实现分别抓取。在图4中,抓手模型包括吸盘式、机械夹指式、柔性手指式等多种形式,根据对被抓取物环境中的多个被抓取物的识别结果,规划被抓取物的抓取顺序和每次抓取时使用的抓手类型。典型地,在图4中,首先使用吸盘式抓手抓取堆积体最表面的立方体,随后使用夹指式抓手抓取左侧边缘未受其他物体干扰的L形物体,再使用柔性手指式抓手抓取堆积体当前最表面的球体,然后使用吸盘式抓手抓取三棱锥体等等。采用上述优选实施方式,本申请可通过多种抓手实现最优选的抓取策略规划。
在实际应用中,本申请的方案可以按照以下步骤实现:
A:通过物理仿真引擎,对所需抓取的物品进行精细建模,包括物品形状、颜色、质量、重心、表面粗糙度、弹性模量等。
B:对夹具(包括吸盘)进行建模,除了夹具的形状、尺寸等基本特征,还应建立其抓取物品的评估算法,譬如吸盘接触物体后真空所能产生的提升力等,以更真实地仿真各种夹具在不同情况下能否有效地抓取物品。
C:抓取任务建模,包括所要实现的移载动作、所用机械臂***、物品承载或传输装置、物品来料形式(堆叠、平铺或者散乱放置),即在已有“物品”和“夹具”这两个核心要素的精细模型后,按真实应用场景建立其他仿真环境。
构建机械臂、夹具、相机、物料和相关附属设备的虚拟模型,以及重力、环境参数完毕的仿真环境。其中物料模型除了品类齐全外,其中所述虚拟模型包括物理属性的模型,例如质量、密度、重心、表面特性;以便于在仿真环境下真实模拟抓取效果。
此处,仿真环境建模越完整,把训练结果转移到真实环境越方便,不用在重新设定抓放位置、动作范围约束等变量。
仿真环境中完成训练后(譬如抓取成功率达到99.9%),还应在真实环境中进行验证或修正,强化学习。
D:在虚拟环境中模拟进行抓取作业,即虚拟训练,获得抓取效果最优的抓取算法。
可选的,仿真引擎可以接收人工标注,例如不同的物品在不同姿态下的最优抓取方案作为仿真参考。另外也可以通过人工干预(标定、指导)的方式,在训练初期对算法进行指导,以便仿真结果尽快收敛。
进一步参见图5,在本申请的一个优选实施例中,完整的仿真训练可以是多个单次抓取仿真训练过程的循环。在初始构建仿真环境之后开始本轮仿真训练,随机生成物料堆积状态,然后逐次进行仿真的抓取训练。对于每一个抓取动作的训练都可以视作是一次相对独立的单次抓取仿真,如图5右侧所示,单次抓取仿真从扫描物料表面生成二维图像、由二维图像匹配物料数据获得三维信息开始,内部进一步可包括一个反复抓取试验/训练的循环过程:对于每次抓取尝试,先选择优先抓取的目标、合适夹具和合适抓取姿态(图5仅作为一种示例,几项选择的顺序可以不按照图5的示例进行),然后控制实施仿真抓取,根据抓取结果判断本次抓取尝试效果(是否抓取成功、耗时、物体状态等均可作为判断标准),随后更新抓取策略模型和/或选择再次进行尝试;如再次进行尝试则复原抓取前物料状态进入循环,更改策略再次进行仿真抓取。实施单次抓取仿真后,进一步判断是否完成本轮训练目标(比如全部抓取完成等),若未完成训练目标,则循环进行单次抓取仿真;若完成训练目标则进一步判断是否需要进行重新训练(比如针对新的场景、新的物体、新的抓手等),如需重新训练,则再次生成物料堆积状态,循环进行单次抓取仿真;如判断无需重新训练,则输出当前的训练模型结束仿真训练。
当然,本领域相关技术人员可以理解,图5作为一种示例性的流程说明,可采用任意可行的计算机***实现,其执行顺序无需严格依照图5的示例进行,而可根据***处理能力和/或场景需要而任意调整步骤的执行顺序或对某些步骤采取并行处理,故图5不应视作对本申请实施例的方法流程所作的具体限制。
以上方法进一步包含两种应用方式:
离线训练:计算机仿真训练以离线预训练方式进行,即通过虚拟仿真环境进行大量的模拟,在获得足够多的模拟数据并完成抓取方案训练后,在真实环境中部署抓取算法,抓取设备在真实环境中根据获得的真实图像利用预训练出的模型直接生成抓取方案。
实时训练:预训练方式同上,但如在真实环境中碰到难以给出成功率较高的抓取方案时(比如碰到未经充分训练的环境或物体时),将真实图像和根据图像获得的物体的三维信息在线输入至虚拟仿真环境中,对抓取模型进行实时训练,并按实时训练的结果确定抓取方案完成抓取。
本申请以上提供的方案,训练可以分为有监督的机器学习和无监督的机器学习,区别在于输入的数据中是否包括对结果的标注。任何训练方式均可适用于本申请的方案,但更优选对预测模型采取有监督学习方式,对抓取规划模型采取无监督学习方式。
预测模型的输入为被抓取物的二维图像,输出为被抓取物的实体参数(比如包括位置、形状、材质、表面粗糙度、质量、重心等);抓取规划模型的输入为上述实体参数,输出为抓手的抓取策略(比如包括抓手类型、运动方向、速度、抓取角度、抓取力度、提取速度、提取高度等)。
两个模型均需要经过预先训练,本申请的方案可以分为两个过程,一是各个模型的训练过程,二是使用训练后的模型帮助抓手完成抓取动作,核心是训练过程,关键点在于本申请是在仿真环境中进行虚拟训练。
如果被抓物存在遮挡,可以根据当前可获知的数据尽可能预测,而且抓取原则上是从上而下把物体逐一抓走,因此有少量遮挡对预测影响不大,遮挡严重时可以先抓取或调整遮挡物。具体抓取方式由抓取规划模型自行判断,预测模型这里只需要尽可能输出准确的预测结果即可(存在严重遮挡也是预测结果的一种)。
三维立体模型和二维表面图像的关系可以是各自数据中的对应标识;可以由人工添加,也可在模拟时自动添加。
后面使用立体模型、图像和关系进行训练即为有监督的机器学习训练过程,其中图像为输入的样本,根据关系获取的立体模型为标注,神经网络对样本进行特征提取,以试图建立样本与标注之间相对稳定的置信度联系。
多抓手是指抓手的类型可以有多种,每种抓手分别训练,在针对不同的抓取任务时可以选取最合适(成功率最高等)的抓手类型来操作。同时控制的抓手数量不做限制,传统自控技术已可实现同时控制多个部件来执行不同操作。
每种抓手分别训练,各自训练完成后再按照一定的指标综合挑选最优,比如成功率最高、抓取速度最快、单次可抓取物体最多、可持续抓取次数最多、最节能、最安静、最平稳、故障率最低等。
请参阅图6,本申请还提供一种基于计算机仿真的机械抓手训练***,所述***包括:
环境构建单元,用于分别构建仿真的被抓取物环境和抓手环境;
仿真单元,用于利用所述抓手环境中的传感器仿真采集所述被抓取物环境中的二维图像数据,并根据所述二维图像数据确定至少一个被抓取物的三维信息;
训练单元,用于根据所述被抓取物的三维信息,控制所述抓手环境中的抓手对所述被抓取物进行至少一次仿真抓取的机器学习训练,以获得当前被抓取物环境下的最优抓取模型参数。
在一个实施方式中,所述环境构建单元包括:
模型建立模块,用于根据物理样本分别建立各个被抓取物和各个抓手的三维仿真模型,其中,所述三维仿真模型具有对应所述物理样本的多个实际物理属性;
被抓取环境选取模块,用于选取多个被抓取物的三维仿真模型随机建立被抓取物环境;
抓手环境选取模块,用于选取至少一个抓手的三维仿真模型对应所述被抓取物环境设置建立所述抓手环境;其中,所述被抓取物环境与所述抓手环境的数据相互独立。
在一个实施方式中,所述***还包括:
关联关系建立单元,用于根据物理样本建立各个被抓取物的三维仿真模型,并通过所述三维仿真模型模拟传感器得到的表面图像,建立所述表面图像与所述三维仿真模型和/或所述物理样本之间的关联关系;
智能模型训练单元,用于使用所述三维仿真模型、所述传感器采集的二维图像数据以及建立的所述关联关系对神经网络模型进行训练,得到用于根据二维图像数据识别三维物体的第一人工智能模型;其中,所述第一人工智能模型可对待识别的二维图像数据进行识别,以得到所述待识别的二维图像数据对应的被抓取物的三维信息。
在一个实施方式中,所述抓取模型包括规划抓取策略的第二人工智能模型和进行抓手控制的第三人工智能模型;其中,
所述第二人工智能模型根据所述二维图像数据和所述被抓取物的三维信息规划输出抓取任务及执行策略;
所述第三人工智能模型根据所述执行策略控制抓手驱动单元的输出,使所述抓手抓取并移动所述被抓取物来实现所述抓取任务。
在一个实施方式中,当所述方法应用于多个抓手的训练场景时,所述第二人工智能模型的输出还包括抓手选择策略。
在一个实施方式中,所述***还包括:
实时训练单元,用于如在真实环境中只能得到指标低于预设阈值的抓取方案,则将真实图像和根据所述真实图像获得的物体的三维信息在线输入并对应构建仿真的环境,对所述抓取模型进行实时训练,并按实时训练的结果确定所述真实环境的抓取方案。
由上可见,本申请提供的技术方案,通过计算机仿真可以建立二维图像和实体目标模型之间的预测模型,并基于该预测模型规划抓取策略。该方法更适用于多物体随机堆叠的场景,在该场景下,物体姿态更随机,物体之间可能存在遮挡,***通过传感器获得二维图像,并可以根据该二维图像预测出物体的三维信息。在预测出物体的三维信息后,可以更精准地规划抓取策略。通过本发明提出的方法,能够在非常短的时间内完成大量的机械手臂训练操作,进而加快机械手臂部署到不同任务中的周期。尤其是,不需要浪费大量的物料就可以找到最优的抓取方案,例如像玻璃杯这种易碎商品,实物抓取训练失败意味着造成物料的损失,而仿真式的训练则可以将损失降为零。
上面对本申请的各种实施方式的描述以描述的目的提供给本领域技术人员。其不旨在是穷举的、或者不旨在将本发明限制于单个公开的实施方式。如上所述,本申请的各种替代和变化对于上述技术所属领域技术人员而言将是显而易见的。因此,虽然已经具体讨论了一些另选的实施方式,但是其它实施方式将是显而易见的,或者本领域技术人员相对容易得出。本申请旨在包括在此已经讨论过的本发明的所有替代、修改、和变化,以及落在上述申请的精神和范围内的其它实施方式。

Claims (12)

1.一种基于计算机仿真的机械抓手训练方法,其特征在于,所述方法包括:
分别构建仿真的被抓取物环境和抓手环境;
利用所述抓手环境中的传感器仿真采集所述被抓取物环境中的二维图像数据,并根据所述二维图像数据确定至少一个被抓取物的三维信息;
根据所述被抓取物的三维信息,控制所述抓手环境中的抓手对所述被抓取物进行至少一次仿真抓取的机器学习训练,以获得当前被抓取物环境下的最优抓取模型参数。
2.根据权利要求1所述的方法,其特征在于,所述分别构建仿真的被抓取物环境和抓手环境包括:
根据物理样本分别建立各个被抓取物和各个抓手的三维仿真模型,其中,所述三维仿真模型具有对应所述物理样本的多个实际物理属性;
选取多个被抓取物的三维仿真模型随机建立被抓取物环境;
选取至少一个抓手的三维仿真模型对应所述被抓取物环境设置建立所述抓手环境;其中,所述被抓取物环境与所述抓手环境的数据相互独立。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据物理样本建立各个被抓取物的三维仿真模型,并通过所述三维仿真模型模拟传感器得到的表面图像,建立所述表面图像与所述三维仿真模型和/或所述物理样本之间的关联关系;
使用所述三维仿真模型、所述传感器采集的二维图像数据以及建立的所述关联关系对神经网络模型进行训练,得到用于根据二维图像数据识别三维物体的第一人工智能模型;其中,所述第一人工智能模型可对待识别的二维图像数据进行识别,以得到所述待识别的二维图像数据对应的被抓取物的三维信息。
4.根据权利要求1所述的方法,其特征在于,所述抓取模型包括规划抓取策略的第二人工智能模型和进行抓手控制的第三人工智能模型;其中,
所述第二人工智能模型根据所述二维图像数据和所述被抓取物的三维信息规划输出抓取任务及执行策略;
所述第三人工智能模型根据所述执行策略控制抓手驱动单元的输出,使所述抓手抓取并移动所述被抓取物来实现所述抓取任务。
5.根据权利要求4所述的方法,其特征在于,当所述方法应用于多个抓手的训练场景时,所述第二人工智能模型的输出还包括抓手选择策略。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
如在真实环境中只能得到指标低于预设阈值的抓取方案,则将真实图像和根据所述真实图像获得的物体的三维信息在线输入并对应构建仿真的环境,对所述抓取模型进行实时训练,并按实时训练的结果确定所述真实环境的抓取方案。
7.一种基于计算机仿真的机械抓手训练***,其特征在于,所述***包括:
环境构建单元,用于分别构建仿真的被抓取物环境和抓手环境;
仿真单元,用于利用所述抓手环境中的传感器仿真采集所述被抓取物环境中的二维图像数据,并根据所述二维图像数据确定至少一个被抓取物的三维信息;
训练单元,用于根据所述被抓取物的三维信息,控制所述抓手环境中的抓手对所述被抓取物进行至少一次仿真抓取的机器学习训练,以获得当前被抓取物环境下的最优抓取模型参数。
8.根据权利要求7所述的***,其特征在于,所述环境构建单元包括:
模型建立模块,用于根据物理样本分别建立各个被抓取物和各个抓手的三维仿真模型,其中,所述三维仿真模型具有对应所述物理样本的多个实际物理属性;
被抓取环境选取模块,用于选取多个被抓取物的三维仿真模型随机建立被抓取物环境;
抓手环境选取模块,用于选取至少一个抓手的三维仿真模型对应所述被抓取物环境设置建立所述抓手环境;其中,所述被抓取物环境与所述抓手环境的数据相互独立。
9.根据权利要求7所述的***,其特征在于,所述***还包括:
关联关系建立单元,用于根据物理样本建立各个被抓取物的三维仿真模型,并通过所述三维仿真模型模拟传感器得到的表面图像,建立所述表面图像与所述三维仿真模型和/或所述物理样本之间的关联关系;
智能模型训练单元,用于使用所述三维仿真模型、所述传感器采集的二维图像数据以及建立的所述关联关系对神经网络模型进行训练,得到用于根据二维图像数据识别三维物体的第一人工智能模型;其中,所述第一人工智能模型可对待识别的二维图像数据进行识别,以得到所述待识别的二维图像数据对应的被抓取物的三维信息。
10.根据权利要求7所述的***,其特征在于,所述抓取模型包括规划抓取策略的第二人工智能模型和进行抓手控制的第三人工智能模型;其中,
所述第二人工智能模型根据所述二维图像数据和所述被抓取物的三维信息规划输出抓取任务及执行策略;
所述第三人工智能模型根据所述执行策略控制抓手驱动单元的输出,使所述抓手抓取并移动所述被抓取物来实现所述抓取任务。
11.根据权利要求10所述的***,其特征在于,当所述方法应用于多个抓手的训练场景时,所述第二人工智能模型的输出还包括抓手选择策略。
12.根据权利要求7所述的***,其特征在于,所述***还包括:
实时训练单元,用于如在真实环境中只能得到指标低于预设阈值的抓取方案,则将真实图像和根据所述真实图像获得的物体的三维信息在线输入并对应构建仿真的环境,对所述抓取模型进行实时训练,并按实时训练的结果确定所述真实环境的抓取方案。
CN201910398732.3A 2019-05-14 2019-05-14 一种基于计算机仿真的机械抓手训练方法及*** Pending CN110216671A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910398732.3A CN110216671A (zh) 2019-05-14 2019-05-14 一种基于计算机仿真的机械抓手训练方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910398732.3A CN110216671A (zh) 2019-05-14 2019-05-14 一种基于计算机仿真的机械抓手训练方法及***

Publications (1)

Publication Number Publication Date
CN110216671A true CN110216671A (zh) 2019-09-10

Family

ID=67821069

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910398732.3A Pending CN110216671A (zh) 2019-05-14 2019-05-14 一种基于计算机仿真的机械抓手训练方法及***

Country Status (1)

Country Link
CN (1) CN110216671A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110948492A (zh) * 2019-12-23 2020-04-03 浙江大学 一种基于深度学***台和抓取方法
CN111730606A (zh) * 2020-08-13 2020-10-02 深圳国信泰富科技有限公司 一种高智能机器人的抓取动作控制方法及***
CN112435521A (zh) * 2020-10-27 2021-03-02 北京控制工程研究所 一种空间遥操作机械臂在轨训练***及方法
US20210122038A1 (en) * 2018-06-28 2021-04-29 Siemens Aktiengesellschaft Method and device for ascertaining control parameters in a computer-assisted manner for a favorable action of a technical system
CN113034668A (zh) * 2021-03-01 2021-06-25 中科数据(青岛)科技信息有限公司 一种ar辅助的机械模拟操作方法和***
EP3944934A1 (de) * 2020-07-29 2022-02-02 Liebherr-Verzahntechnik GmbH Verfahren zur automatischen bestimmung von konstruktionsparametern eines greifers

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101938668A (zh) * 2010-09-10 2011-01-05 中国科学院自动化研究所 对多级透镜多视角场景的三维重建的方法
CN102663814A (zh) * 2012-03-30 2012-09-12 上海第二工业大学 利用二维图像生成三维几何模型的自动建模方法
CN102682477A (zh) * 2012-05-16 2012-09-19 南京邮电大学 一种基于结构先验的规则场景三维信息提取方法
EP2500148A1 (de) * 2011-03-17 2012-09-19 KUKA Roboter GmbH Verfahren und Vorrichtung zum Steuern eines Roboters mit Hilfe eines virtuellen Modells des Roboters
CN103759670A (zh) * 2014-01-06 2014-04-30 四川虹微技术有限公司 一种基于数字近景摄影的物体三维信息获取方法
CN105809734A (zh) * 2016-03-10 2016-07-27 杭州师范大学 一种基于多视角交互式的机械模型三维建模方法
CN108058172A (zh) * 2017-11-30 2018-05-22 深圳市唯特视科技有限公司 一种基于自回归模型的机械手抓取方法
CN108972494A (zh) * 2018-06-22 2018-12-11 华南理工大学 一种仿人机械手抓取控制***及其数据处理方法
CN109145766A (zh) * 2018-07-27 2019-01-04 北京旷视科技有限公司 模型训练方法、装置、识别方法、电子设备及存储介质
CN109483534A (zh) * 2018-11-08 2019-03-19 腾讯科技(深圳)有限公司 一种物体抓取方法、装置和***

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101938668A (zh) * 2010-09-10 2011-01-05 中国科学院自动化研究所 对多级透镜多视角场景的三维重建的方法
EP2500148A1 (de) * 2011-03-17 2012-09-19 KUKA Roboter GmbH Verfahren und Vorrichtung zum Steuern eines Roboters mit Hilfe eines virtuellen Modells des Roboters
CN102663814A (zh) * 2012-03-30 2012-09-12 上海第二工业大学 利用二维图像生成三维几何模型的自动建模方法
CN102682477A (zh) * 2012-05-16 2012-09-19 南京邮电大学 一种基于结构先验的规则场景三维信息提取方法
CN103759670A (zh) * 2014-01-06 2014-04-30 四川虹微技术有限公司 一种基于数字近景摄影的物体三维信息获取方法
CN105809734A (zh) * 2016-03-10 2016-07-27 杭州师范大学 一种基于多视角交互式的机械模型三维建模方法
CN108058172A (zh) * 2017-11-30 2018-05-22 深圳市唯特视科技有限公司 一种基于自回归模型的机械手抓取方法
CN108972494A (zh) * 2018-06-22 2018-12-11 华南理工大学 一种仿人机械手抓取控制***及其数据处理方法
CN109145766A (zh) * 2018-07-27 2019-01-04 北京旷视科技有限公司 模型训练方法、装置、识别方法、电子设备及存储介质
CN109483534A (zh) * 2018-11-08 2019-03-19 腾讯科技(深圳)有限公司 一种物体抓取方法、装置和***

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210122038A1 (en) * 2018-06-28 2021-04-29 Siemens Aktiengesellschaft Method and device for ascertaining control parameters in a computer-assisted manner for a favorable action of a technical system
CN110948492A (zh) * 2019-12-23 2020-04-03 浙江大学 一种基于深度学***台和抓取方法
CN110948492B (zh) * 2019-12-23 2021-10-22 浙江大学 一种基于深度学***台和抓取方法
EP3944934A1 (de) * 2020-07-29 2022-02-02 Liebherr-Verzahntechnik GmbH Verfahren zur automatischen bestimmung von konstruktionsparametern eines greifers
CN111730606A (zh) * 2020-08-13 2020-10-02 深圳国信泰富科技有限公司 一种高智能机器人的抓取动作控制方法及***
CN111730606B (zh) * 2020-08-13 2022-03-04 深圳国信泰富科技有限公司 一种高智能机器人的抓取动作控制方法及***
CN112435521A (zh) * 2020-10-27 2021-03-02 北京控制工程研究所 一种空间遥操作机械臂在轨训练***及方法
CN113034668A (zh) * 2021-03-01 2021-06-25 中科数据(青岛)科技信息有限公司 一种ar辅助的机械模拟操作方法和***
CN113034668B (zh) * 2021-03-01 2023-04-07 中科数据(青岛)科技信息有限公司 一种ar辅助的机械模拟操作方法和***

Similar Documents

Publication Publication Date Title
CN110216671A (zh) 一种基于计算机仿真的机械抓手训练方法及***
James et al. Transferring end-to-end visuomotor control from simulation to real world for a multi-stage task
Bousmalis et al. Robocat: A self-improving foundation agent for robotic manipulation
CN109483573A (zh) 机器学习装置、机器人***以及机器学习方法
Mariolis et al. Pose and category recognition of highly deformable objects using deep learning
JP6671694B1 (ja) 機械学習装置、機械学習システム、データ処理システム及び機械学習方法
CN109074513A (zh) 用于机器人抓握的深度机器学习方法和装置
CN110125930A (zh) 一种基于机器视觉和深度学习的机械臂抓取控制方法
Jørgensen et al. An adaptive robotic system for doing pick and place operations with deformable objects
CN109483534A (zh) 一种物体抓取方法、装置和***
Sun et al. Learning pregrasp manipulation of objects from ungraspable poses
CN113076615B (zh) 基于对抗式深度强化学习的高鲁棒性机械臂操作方法及***
CN110152290A (zh) 游戏运行方法和装置、存储介质及电子装置
CN110303498A (zh) 搬运***及其控制方法、地砖铺贴***
Mahjourian et al. Hierarchical policy design for sample-efficient learning of robot table tennis through self-play
JP2022187984A (ja) モジュール化ニューラルネットワークを用いた把持学習
Demura et al. Picking up one of the folded and stacked towels by a single arm robot
Kołosowski et al. Collaborative robot system for playing chess
Bahety et al. Bag all you need: Learning a generalizable bagging strategy for heterogeneous objects
Jiang et al. Mastering the complex assembly task with a dual-arm robot: A novel reinforcement learning method
CN114131603A (zh) 基于感知增强和场景迁移的深度强化学习机器人抓取方法
Biza et al. One-shot imitation learning via interaction warping
CN113436293B (zh) 一种基于条件生成式对抗网络的智能抓取图像生成方法
Roudbari et al. Autonomous Vision-based Robotic Grasping of Household Objects: A Practical Case Study
Wan et al. DeepClaw: A robotic hardware benchmarking platform for learning object manipulation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190910

RJ01 Rejection of invention patent application after publication