CN110340891A - 基于点云模板匹配技术的机械臂定位抓取***及方法 - Google Patents

基于点云模板匹配技术的机械臂定位抓取***及方法 Download PDF

Info

Publication number
CN110340891A
CN110340891A CN201910623223.6A CN201910623223A CN110340891A CN 110340891 A CN110340891 A CN 110340891A CN 201910623223 A CN201910623223 A CN 201910623223A CN 110340891 A CN110340891 A CN 110340891A
Authority
CN
China
Prior art keywords
mechanical arm
point cloud
cloud data
point
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910623223.6A
Other languages
English (en)
Other versions
CN110340891B (zh
Inventor
童晶
袁承城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou Campus of Hohai University
Original Assignee
Changzhou Campus of Hohai University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou Campus of Hohai University filed Critical Changzhou Campus of Hohai University
Priority to CN201910623223.6A priority Critical patent/CN110340891B/zh
Publication of CN110340891A publication Critical patent/CN110340891A/zh
Application granted granted Critical
Publication of CN110340891B publication Critical patent/CN110340891B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于点云模板匹配技术的机械臂定位抓取***,包括依次连接的数据采集模块、数据处理和传输模块、机械臂控制模块。本发明还公开了一种基于点云模板匹配技术的机械臂定位抓取方法。本发明基于三维点云配准方法在场景中寻找目标物体,克服了利用普通彩色相机采集的场景二维图像信息难以检测存在相互遮挡的多个目标物体、缺乏纹理细节的目标物体等问题,准确性高,适用于货物分拣码垛场景,具有良好的应用前景。

Description

基于点云模板匹配技术的机械臂定位抓取***及方法
技术领域
本发明涉及点云处理算法领域,具体涉及一种基于点云模板匹配技术的机械臂定位抓取方法。
背景技术
机械臂可以替代人类进行高强度、简单重复的工作,例如流水线货物的分拣、码垛等;此外,还可以完成具有危险性、伤害性的工作,例如高空作业、扫雷、喷漆等。机械臂的应用不仅能降低人力成本、保证生产安全,还能大幅提高生产效率,有广泛的应用前景。
传统的机械臂应用,通常根据人为设定的指令行走固定的轨迹、执行固定的抓取姿态,机械臂无法自主的与环境发生交互,一旦环境发生变化,就需要人为重新设定指令,这降低了生产活动的效率。
发明内容
针对现有技术的不足,本发明的目的在于提供一种低成本高精度的机械臂定位抓取方法,以解决现有技术中存在的机械臂无法自主的与环境发生交互的问题。
为了实现上述目标,本发明采用如下的技术方案:
一种基于点云模板匹配技术的机械臂定位抓取***,包括依次连接的数据采集模块、数据处理和传输模块、机械臂控制模块;
所述数据采集模块用于获取待抓取目标物体的场景点云数据;
所述数据处理和传输模块用于通过场景点云数据获取目标物体的位姿信息并将位姿信息传输至机械臂控制模块;
所述机械臂控制模块用于根据位姿信息执行对目标物体的抓取。
进一步的,所述数据采集模块包括深度相机和电脑;
所述深度相机用于获取待抓取目标物体的场景点云数据并将所述场景点云数据保存至电脑中。
一种基于点云模板匹配技术的机械臂定位抓取方法,所述方法包括以下步骤:
采集待抓取目标物体的场景点云数据;
根据所述场景点云数据获取目标物体的目标点云数据;
根据所述目标点云数据计算目标物体在深度相机下的位姿信息;
根据所述深度相机下的位姿信息和机械臂示教计算目标物体在机械臂基坐标系下的位姿信息;
根据所述机械臂基坐标系下的位姿信息规划抓取目标物体的轨迹和相应姿态并实施抓取。
进一步的,所述目标点云数据的获取方法包括:
对所述场景点云数据进行滤波处理获取无噪点和背景的点云;
根据所述无噪点和背景的点云所在的三维空间创建多个三维体素栅格,以所述体素栅格中所有点云的重心点作为采样点云;
对所述采样点云进行分割获取目标点云数据。
进一步的,所述深度相机下的位姿信息计算方法包括:
提取所述目标点云数据的关键点;
将所述目标点云数据和模板点云数据的关键点进行初始配准、精配准获取齐次变换矩阵。
进一步的,所述初始配准的方法包括:
从目标点云数据的关键点中选取样本点;
根据特征直方图获取所述样本点在模板点云数据的关键点中的初始对应点;
根据所述样本点和初始对应点获取初始齐次变换矩阵。
进一步的,所述精配准的方法包括:
a、根据所述初始齐次变换矩阵获取所述样本点在模板点云数据的关键点中的精准对应点;
b、计算所述样本点和精准对应点的均方根,获取样本点和精准对应点之间均方根最小的变换;
c、重复所述步骤(a)、步骤(b),迭代计算直到达到设定的迭代次数或误差小于阈值即停止得到齐次变换矩阵。
进一步的,所述机械臂基坐标系下的位姿信息计算方法包括:
根据机械臂示教的旋转矩阵、平移向量和所述齐次变换矩阵得到三者的组合齐次变换矩阵即机械臂基坐标系下的位姿信息。
进一步的,所述场景点云数据的采集方法包括:
通过深度相机采集场景的深度图像,通过通用数据采集接口OpenNI将深度图像数据转换为场景点云数据。
与现有技术相比,本发明的有益效果是:
本发明将深度相机与机械臂相结合,利用PrimeSense深度相机采集待抓取目标所在场景的点云数据,创建目标物体的三维点云模板,结合点云两两配准算法计算得到目标物体在深度相机坐标系下的位置、姿态信息,通过机械臂示教得到机械臂夹爪和模板物体之间的齐次变换矩阵,综上得到目标物体在机械臂坐标系下的坐标,从而规划出机械臂末端夹爪抓取目标的运动轨迹和姿态,实现了机械臂可以自主的与环境发生交互的功能;相对于传统的用昂贵的激光设备采集点云的方式,成本得到了大幅的降低,能促进低成本视觉方案在机械臂领域的应用。
附图说明
图1为机械臂的结构示意图;
图2为***模块关系示意图;
图3为目标物体定位算法流程图。
具体实施方式
下面将结合本发明中的附图,对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动条件下所获得的所有其它实施例,都属于本发明保护的范围。
如图1、图2所示,一种基于点云模板匹配技术的机械臂定位抓取***,包括依次连接的数据采集模块、数据处理和传输模块、机械臂控制模块。
所述数据采集模块用于获取待抓取目标物体的场景点云数据;
所述数据处理和传输模块用于通过场景点云数据获取目标物体的位姿信息并将位姿信息传输至机械臂控制模块;
所述机械臂控制模块用于根据位姿信息执行对目标物体的抓取。
所述数据采集模块包括深度相机和电脑;
所述深度相机用于获取待抓取目标物体所在场景的三维场景点云数据,并将获取的场景点云数据保存在电脑本地内存。
所述数据处理和传输模块,用于从场景点云数据中识别、定位出待抓取的目标物体,计算出目标物体在深度相机坐标系下的位置和姿态信息,分别对应于一个旋转矩阵和平移向量;然后,通过机械臂和深度相机联合示教,将深度相机下的位姿信息转换至机械臂基坐标系得到目标物体在机械臂基坐标系下的位姿信息;最后,将机械臂基坐标系下的位姿信息通过Socket网络通信传送至机械臂控制柜。
所述机械臂控制模块,用于接收目标物体的位姿信息,依据位姿信息规划机械臂末端夹爪的运动轨迹和相应姿态,执行对目标物体的抓取。
如图3所示,一种基于点云模板匹配技术的物体定位方法,所述定位抓取方法包括以下步骤:
步骤一、电脑端控制深度相机采集待抓取目标物体所在场景的场景点云数据;
步骤二、根据所述场景点云数据获取目标物体的目标点云数据;
步骤三、根据所述目标点云数据计算出目标物体在深度相机下的位姿信息;
步骤四、根据所述深度相机下的位姿信息结合机械臂示教的结果计算出目标物体在机械臂基坐标系下的位姿信息。
步骤五、利用Socket网络通信将机械臂基坐标系下的位姿信息通过网线传送至机械臂。
步骤六、机械臂根据接收到的机械臂基坐标系下的位姿信息,规划抓取目标物体的轨迹和相应姿态并实施抓取。
所述目标点云数据的获取方法包括:
2.1、场景点云数据滤波;
通过统计滤波去除场景点云数据中的噪点,通过直通滤波去除场景点云数据场景的背景获取得到无噪点和背景的点云。统计滤波步骤通过对每个点的邻域进行统计分析,计算它和它邻近点的平均距离,得到的结果服从正态分布,所以能得到临近点距离的均值。将距离大于均值的点定义为离群点,将其从场景点云数据中移除;直通滤波步骤通过指定一个需要滤波的方向,设置一个阈值,然后按照此方向遍历点云,并判断每个点是否在阈值区间内,将不在阈值内的点删除。
2.1、获取采样点云;
通过在无噪点和背景的点云所在的三维空间内创建多个三维体素栅格,体素栅格可视为微小的空间三维立方体,点云依据空间分布的不同落入相应的体素内,计算体素中所有点的重心,以重心点近似替代该体素中的所有点作为采样点云。以此降低点云场景密度但同时依然保持点云形状特征。
2.3对所述采样点云进行分割获取目标点云数据;
通过随机采样一致性算法区分不同特征、不同区域的点云,主要过程为从所有数据中选取m个样本点,在m维空间中去定义点和点之间一些性质的亲或疏,据此完成聚类操作。假设m个点云数据可以聚合成n个类,然后将类间距离最小的两个类再聚合成一个类,聚合之后需要重新计算类间距离,因为样本点发生了变化。类间距重新计算之后,再一次比较所有类间距离,再次合并距离最小的两个类,如此反复迭代,直到任何两个类之间的距离都大于设定的阈值或者类的数目小于预定义的数目时,停止迭代,完成点云分割,得到目标点云数据。
所述深度相机下的位姿信息计算方法包括:
3.1、目标点云数据的关键点提取及关键点特征描述子计算;
通过以下步骤提取目标点云数据的关键点:遍历深度图像的每个点,重点关注邻近区域有较明显深度变化的点,以此进行边缘检测;依据邻近区域表面的数值波动计算表面变化的系数,找到变化的主方向;根据主方向计算兴趣值,该值可以表征变化的主方向和其它方向的不同;对计算得到的所有兴趣值进行平滑滤波;对滤波的数据进行无最大值压缩,以此找到最终的NARF(Normal Aligned Radial Feature,法向对齐径向特征)关键点。通过计算关键点的FPFH(fast point feature histograms,快速点特征直方图)描数子描述关键点周围的形状特征,以此作为模板点云与目标点云的配准依据。
3.2、点云粗配准;
通过采样一致性初始配准算法完成模板点云和目标点云的关键点之间的粗配准,流程包括:从目标点云数据的关键点数据集P中选取适当样本点,设定最小的配对距离值dmin,确保样本点的配对距离大于dmin;对于从数据集P中选取的样本点,需要根据特征直方图找到在对应的模板点云数据的关键点数据集Q中的初始对应点并存储,从而确定对应关系;通过样本点及其对应的初始对应点可以计算出初始齐次变换矩阵。
3.3、点云精配准。
通过迭代最近点算法完成模板点云有目标点云之间的精配准,流程包括:a、根据所述初始齐次变换矩阵获取所述样本点在模板点云数据的关键点中的精准对应点;b、对得到的样本点和精准对应点计算均方根,寻找使得样本点和精准对应点之间均方根最小的变换;c、从重复上述步骤(a)、(b)的操作,迭代计算直到达到设定的迭代次数或误差小于阈值即停止,得到齐次变换矩阵,误差最小是指计算的相邻两次均方根的差的绝对值小于设定的目标误差阈值。
所述机械臂基坐标系下的位姿信息计算方法包括:
根据机械臂示教的旋转矩阵、平移向量和所述齐次变换矩阵得到三者的组合齐次变换矩阵即机械臂基坐标系下的位姿信息。
所述方法还包括目标物体模板点云制作及场景点云获取和机械臂与深度相机联合示教;
目标物体模板点云制作及场景点云获取:
通过深度相机采集场景的深度图像,通过通用数据采集接口OpenNI(开放自然交互接口)将深度数据转换为点云数据并保存到电脑本地;将模板物体Model放入场景,重新采集点云数据,手动剪裁点云得到目标物体的点云模板ModelCloud。
机械臂与深度相机联合示教:将深度相机绑定在机械臂上,设定机械臂的初始位置,手动调节机械臂至抓取模板目标物体Model的位置,通过机械臂控制柜读取旋转矩阵R1、平移向量T1。
本发明并不受上述实施方式的限制,在未背离本发明的精神实质与原理下所作的任何改变、修饰、替代、组合和简化,均应为等效的置换方式,都包含在本发明的保护范围之内。尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (9)

1.一种基于点云模板匹配技术的机械臂定位抓取***,其特征在于,包括依次连接的数据采集模块、数据处理和传输模块、机械臂控制模块;
所述数据采集模块用于获取待抓取目标物体的场景点云数据;
所述数据处理和传输模块用于通过场景点云数据获取目标物体的位姿信息并将位姿信息传输至机械臂控制模块;
所述机械臂控制模块用于根据位姿信息执行对目标物体的抓取。
2.根据权利要求1所示的一种基于点云模板匹配技术的机械臂定位抓取***,其特征在于,所述数据采集模块包括深度相机和电脑;
所述深度相机用于获取待抓取目标物体的场景点云数据并将所述场景点云数据保存至电脑中。
3.一种基于点云模板匹配技术的机械臂定位抓取方法,其特征在于,所述方法包括以下步骤:
采集待抓取目标物体的场景点云数据;
根据所述场景点云数据获取目标物体的目标点云数据;
根据所述目标点云数据计算目标物体在深度相机下的位姿信息;
根据所述深度相机下的位姿信息和机械臂示教计算目标物体在机械臂基坐标系下的位姿信息;
根据所述机械臂基坐标系下的位姿信息规划抓取目标物体的轨迹和相应姿态并实施抓取。
4.根据权利要求3所述的一种基于点云模板匹配技术的机械臂定位抓取方法,其特征在于,所述目标点云数据的获取方法包括:
对所述场景点云数据进行滤波处理获取无噪点和背景的点云;
根据所述无噪点和背景的点云所在的三维空间创建多个三维体素栅格,以所述体素栅格中所有点云的重心点作为采样点云;
对所述采样点云进行分割获取目标点云数据。
5.根据权利要求3所述的一种基于点云模板匹配技术的机械臂定位抓取方法,其特征在于,所述深度相机下的位姿信息计算方法包括:
提取所述目标点云数据的关键点;
将所述目标点云数据和模板点云数据的关键点进行初始配准、精配准获取齐次变换矩阵。
6.根据权利要求5所述的一种基于点云模板匹配技术的机械臂定位抓取方法,其特征在于,所述初始配准的方法包括:
从目标点云数据的关键点中选取样本点;
根据特征直方图获取所述样本点在模板点云数据的关键点中的初始对应点;
根据所述样本点和初始对应点获取初始齐次变换矩阵。
7.根据权利要求6所述的一种基于点云模板匹配技术的机械臂定位抓取方法,其特征在于,所述精配准的方法包括:
a、根据所述初始齐次变换矩阵获取所述样本点在模板点云数据的关键点中的精准对应点;
b、计算所述样本点和精准对应点的均方根,获取样本点和精准对应点之间均方根最小的变换;
c、重复所述步骤(a)、步骤(b),迭代计算直到达到设定的迭代次数或误差小于阈值即停止得到齐次变换矩阵。
8.根据权利要求7所述的一种基于点云模板匹配技术的机械臂定位抓取方法,其特征在于,所述机械臂基坐标系下的位姿信息计算方法包括:
根据机械臂示教的旋转矩阵、平移向量和所述齐次变换矩阵得到三者的组合齐次变换矩阵即机械臂基坐标系下的位姿信息。
9.根据权利要求3所述的一种基于点云模板匹配技术的机械臂定位抓取方法,其特征在于,所述场景点云数据的采集方法包括:
通过深度相机采集场景的深度图像,通过通用数据采集接口OpenNI将深度图像数据转换为场景点云数据。
CN201910623223.6A 2019-07-11 2019-07-11 基于点云模板匹配技术的机械臂定位抓取***及方法 Active CN110340891B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910623223.6A CN110340891B (zh) 2019-07-11 2019-07-11 基于点云模板匹配技术的机械臂定位抓取***及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910623223.6A CN110340891B (zh) 2019-07-11 2019-07-11 基于点云模板匹配技术的机械臂定位抓取***及方法

Publications (2)

Publication Number Publication Date
CN110340891A true CN110340891A (zh) 2019-10-18
CN110340891B CN110340891B (zh) 2022-05-24

Family

ID=68175836

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910623223.6A Active CN110340891B (zh) 2019-07-11 2019-07-11 基于点云模板匹配技术的机械臂定位抓取***及方法

Country Status (1)

Country Link
CN (1) CN110340891B (zh)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110793437A (zh) * 2019-10-23 2020-02-14 珠海格力智能装备有限公司 手操器的定位方法、装置、存储介质及电子设备
CN110980276A (zh) * 2019-12-30 2020-04-10 南京埃克里得视觉技术有限公司 一种三维视觉配合机器人实施铸件自动下料的方法
CN111085997A (zh) * 2019-12-17 2020-05-01 清华大学深圳国际研究生院 基于点云获取和处理的抓取训练方法及***
CN111168685A (zh) * 2020-02-17 2020-05-19 上海高仙自动化科技发展有限公司 机器人控制方法、机器人和可读存储介质
CN111311679A (zh) * 2020-01-31 2020-06-19 武汉大学 一种基于深度相机的自由漂浮目标位姿估计方法
CN111652936A (zh) * 2020-08-06 2020-09-11 天津迦自机器人科技有限公司 开放式货箱装车三维感知和码垛规划方法及***
CN112366615A (zh) * 2020-09-22 2021-02-12 亿嘉和科技股份有限公司 一种垂直距离1m场景的不移斗线路搭接方法
CN112509145A (zh) * 2020-12-22 2021-03-16 珠海格力智能装备有限公司 基于三维视觉的物料分拣方法和装置
CN112509063A (zh) * 2020-12-21 2021-03-16 中国矿业大学 一种基于边缘特征匹配的机械臂抓取***及方法
CN112883984A (zh) * 2021-02-26 2021-06-01 山东大学 一种基于特征匹配的机械臂抓取***与方法
CN113021333A (zh) * 2019-12-25 2021-06-25 沈阳新松机器人自动化股份有限公司 一种物体的抓取方法、***及终端设备
CN113483664A (zh) * 2021-07-20 2021-10-08 科派股份有限公司 一种基于线结构光视觉的屏风板自动上料***及方法
CN113793383A (zh) * 2021-08-24 2021-12-14 江西省智能产业技术创新研究院 一种3d视觉识别取放***及方法
CN113927606A (zh) * 2021-12-20 2022-01-14 湖南视比特机器人有限公司 一种机器人3d视觉抓取方法、纠偏方法及***
CN114241286A (zh) * 2021-12-08 2022-03-25 浙江华睿科技股份有限公司 对象的抓取方法、装置、存储介质及电子装置
CN114939891A (zh) * 2022-06-28 2022-08-26 上海仙工智能科技有限公司 一种基于物体平面特征的复合机器人3d抓取方法及***
CN115582827A (zh) * 2022-10-20 2023-01-10 大连理工大学 一种基于2d和3d视觉定位的卸货机器人抓取方法
CN116197886A (zh) * 2021-11-28 2023-06-02 梅卡曼德(北京)机器人科技有限公司 图像数据处理方法、装置、电子设备和存储介质
CN116503450A (zh) * 2023-03-20 2023-07-28 盐城工学院 一种基于3d视觉定位的轮胎标刻方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103824270A (zh) * 2013-09-25 2014-05-28 浙江树人大学 一种快速的离散三维点云滤波方法
JP2015201192A (ja) * 2014-04-03 2015-11-12 エアバス デーエス ゲゼルシャフト ミット ベシュレンクテル ハフツング 物体の位置及び向きの検出
CN105225269A (zh) * 2015-09-22 2016-01-06 浙江大学 基于运动机构的三维物体建模***
CN106041937A (zh) * 2016-08-16 2016-10-26 河南埃尔森智能科技有限公司 一种基于双目立体视觉的机械手抓取控制***的控制方法
CN106934833A (zh) * 2017-02-06 2017-07-07 江苏华航威泰机器人科技有限公司 一种散乱堆放物料拾取装置和方法
CN107598775A (zh) * 2017-07-27 2018-01-19 芜湖微云机器人有限公司 一种通过激光进行检测并多轴机器人打磨的方法
CN107914272A (zh) * 2017-11-20 2018-04-17 北京科技大学 一种七自由度机械臂组件抓取目标物体的方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103824270A (zh) * 2013-09-25 2014-05-28 浙江树人大学 一种快速的离散三维点云滤波方法
JP2015201192A (ja) * 2014-04-03 2015-11-12 エアバス デーエス ゲゼルシャフト ミット ベシュレンクテル ハフツング 物体の位置及び向きの検出
CN105225269A (zh) * 2015-09-22 2016-01-06 浙江大学 基于运动机构的三维物体建模***
CN106041937A (zh) * 2016-08-16 2016-10-26 河南埃尔森智能科技有限公司 一种基于双目立体视觉的机械手抓取控制***的控制方法
CN106934833A (zh) * 2017-02-06 2017-07-07 江苏华航威泰机器人科技有限公司 一种散乱堆放物料拾取装置和方法
CN107598775A (zh) * 2017-07-27 2018-01-19 芜湖微云机器人有限公司 一种通过激光进行检测并多轴机器人打磨的方法
CN107914272A (zh) * 2017-11-20 2018-04-17 北京科技大学 一种七自由度机械臂组件抓取目标物体的方法

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110793437A (zh) * 2019-10-23 2020-02-14 珠海格力智能装备有限公司 手操器的定位方法、装置、存储介质及电子设备
CN111085997A (zh) * 2019-12-17 2020-05-01 清华大学深圳国际研究生院 基于点云获取和处理的抓取训练方法及***
CN113021333A (zh) * 2019-12-25 2021-06-25 沈阳新松机器人自动化股份有限公司 一种物体的抓取方法、***及终端设备
CN110980276A (zh) * 2019-12-30 2020-04-10 南京埃克里得视觉技术有限公司 一种三维视觉配合机器人实施铸件自动下料的方法
CN110980276B (zh) * 2019-12-30 2021-08-17 南京埃克里得视觉技术有限公司 一种三维视觉配合机器人实施铸件自动下料的方法
CN111311679A (zh) * 2020-01-31 2020-06-19 武汉大学 一种基于深度相机的自由漂浮目标位姿估计方法
CN111311679B (zh) * 2020-01-31 2022-04-01 武汉大学 一种基于深度相机的自由漂浮目标位姿估计方法
CN111168685B (zh) * 2020-02-17 2021-06-18 上海高仙自动化科技发展有限公司 机器人控制方法、机器人和可读存储介质
CN111168685A (zh) * 2020-02-17 2020-05-19 上海高仙自动化科技发展有限公司 机器人控制方法、机器人和可读存储介质
CN111652936A (zh) * 2020-08-06 2020-09-11 天津迦自机器人科技有限公司 开放式货箱装车三维感知和码垛规划方法及***
CN112366615A (zh) * 2020-09-22 2021-02-12 亿嘉和科技股份有限公司 一种垂直距离1m场景的不移斗线路搭接方法
CN112366615B (zh) * 2020-09-22 2022-04-22 亿嘉和科技股份有限公司 一种垂直距离1m场景的不移斗线路搭接方法
CN112509063A (zh) * 2020-12-21 2021-03-16 中国矿业大学 一种基于边缘特征匹配的机械臂抓取***及方法
CN112509145B (zh) * 2020-12-22 2023-12-08 珠海格力智能装备有限公司 基于三维视觉的物料分拣方法和装置
CN112509145A (zh) * 2020-12-22 2021-03-16 珠海格力智能装备有限公司 基于三维视觉的物料分拣方法和装置
CN112883984A (zh) * 2021-02-26 2021-06-01 山东大学 一种基于特征匹配的机械臂抓取***与方法
CN113483664A (zh) * 2021-07-20 2021-10-08 科派股份有限公司 一种基于线结构光视觉的屏风板自动上料***及方法
CN113483664B (zh) * 2021-07-20 2022-10-21 科派股份有限公司 一种基于线结构光视觉的屏风板自动上料***及方法
CN113793383A (zh) * 2021-08-24 2021-12-14 江西省智能产业技术创新研究院 一种3d视觉识别取放***及方法
CN116197886A (zh) * 2021-11-28 2023-06-02 梅卡曼德(北京)机器人科技有限公司 图像数据处理方法、装置、电子设备和存储介质
CN114241286A (zh) * 2021-12-08 2022-03-25 浙江华睿科技股份有限公司 对象的抓取方法、装置、存储介质及电子装置
CN114241286B (zh) * 2021-12-08 2024-04-12 浙江华睿科技股份有限公司 对象的抓取方法、装置、存储介质及电子装置
CN113927606A (zh) * 2021-12-20 2022-01-14 湖南视比特机器人有限公司 一种机器人3d视觉抓取方法、纠偏方法及***
CN114939891A (zh) * 2022-06-28 2022-08-26 上海仙工智能科技有限公司 一种基于物体平面特征的复合机器人3d抓取方法及***
CN114939891B (zh) * 2022-06-28 2024-03-19 上海仙工智能科技有限公司 一种基于物体平面特征的复合机器人3d抓取方法及***
CN115582827A (zh) * 2022-10-20 2023-01-10 大连理工大学 一种基于2d和3d视觉定位的卸货机器人抓取方法
CN116503450A (zh) * 2023-03-20 2023-07-28 盐城工学院 一种基于3d视觉定位的轮胎标刻方法

Also Published As

Publication number Publication date
CN110340891B (zh) 2022-05-24

Similar Documents

Publication Publication Date Title
CN110340891A (zh) 基于点云模板匹配技术的机械臂定位抓取***及方法
Sun et al. Aerial 3D building detection and modeling from airborne LiDAR point clouds
CN106356757B (zh) 一种基于人眼视觉特性的电力线路无人机巡检方法
CN103258345B (zh) 一种基于地面激光雷达三维扫描的树木枝干参数提取方法
CN106296693B (zh) 基于3d点云fpfh特征实时三维空间定位方法
CN108081266B (zh) 一种基于深度学习的机械臂手部抓取物体的方法
CN106651900B (zh) 一种基于轮廓分割的高架原位草莓三维建模方法
CN103529855B (zh) 一种旋转可调式双目视觉的目标识别定位装置及其在农业果实采摘机械的应用
CN111968217B (zh) 基于图片的smpl参数预测以及人体模型生成方法
CN111553949B (zh) 基于单帧rgb-d图像深度学习对不规则工件的定位抓取方法
CN103049912B (zh) 一种基于任意三面体的雷达-相机***外部参数标定方法
CN110070567A (zh) 一种地面激光点云配准方法
CN111724433A (zh) 一种基于多目视觉的作物表型参数提取方法及***
CN110223345A (zh) 基于点云的配电线路作业对象位姿估计方法
CN109816664A (zh) 一种三维点云分割方法及装置
CN107481274A (zh) 一种三维作物点云的鲁棒性重构方法
CN111508015B (zh) 一种基于三维实景数据的建筑物高度提取方法及其装置
CN114882109A (zh) 一种面向遮挡、杂乱场景下的机器人抓取检测方法及***
CN107066975B (zh) 基于深度传感器的视频识别与跟踪***及其方法
CN112288859B (zh) 一种基于卷积神经网络的三维人脸建模方法
CN105513094A (zh) 基于三维Delaunay三角剖分的立体视觉跟踪方法及***
CN114758215A (zh) 一种配网带电作业机器人接地环及其螺栓的识别定位方法
CN114750154A (zh) 一种配网带电作业机器人的动态目标识别定位与抓取方法
Fang et al. A framework of power pylon detection for UAV-based power line inspection
CN112991300A (zh) 一种基于邻域特征的单木骨架提取及可视化方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant