CN110653820A - 一种结合几何约束的机器人抓取位姿估计方法 - Google Patents
一种结合几何约束的机器人抓取位姿估计方法 Download PDFInfo
- Publication number
- CN110653820A CN110653820A CN201910930621.2A CN201910930621A CN110653820A CN 110653820 A CN110653820 A CN 110653820A CN 201910930621 A CN201910930621 A CN 201910930621A CN 110653820 A CN110653820 A CN 110653820A
- Authority
- CN
- China
- Prior art keywords
- point
- robot
- points
- target object
- pose
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
Abstract
一种结合几何约束的机器人抓取位姿估计方法,属于机器人视觉抓取技术领域。本发明利用夹持器简化形状约束生成初始抓取位姿,能够生成包含稳定抓取位姿的抓取样本;之后通过力封闭约束快速进行半稳定抓取位姿筛选,之后利用力平衡约束分析半稳定抓取位姿,估计出目标物体稳定的抓取位姿;本发明适用于不同物体的抓取位姿估计,在一秒内能够估计出稳定的抓取位姿,计算效率高,更改算法中夹持器的参数,可以应用到其他类型夹持器,算法具有适用性。
Description
技术领域
本发明属于机器人视觉抓取技术领域,具体地,涉及基于多重几何约束的机器人抓取位姿估计方法。
背景技术
近年来,计算机视觉和机器人技术不断发展,推动了家庭服务机器人融入到人类的生活中。家庭服务机器人除了定位和导航外,对物体进行抓取操作是机器人为人类提供优质服务的前提。机器人利用视觉信息对物体进行快速稳定的抓取位姿检测,然后根据抓取位姿对物体进行操作是目前比较常用的一种方法。
传统的机器人抓取方法是建立物体抓取位姿数据集,再基于模板进行匹配,模型库的大小、精度以及计算机资源直接影响了抓取位姿估计的好坏。由于在家庭环境等非结构化环境中,物体种类繁多、形状姿态各异且不规则,使传统方法缺乏良好的泛化性能。本领域的技术人员研究基于RGBD相机获得目标物体的特征信息,分析目标物体稳定的抓取位姿是一种不需要建立模型库,对于不同类型的物体具有适用性的方法,但是其计算的复杂度严重影响了抓取检测的实时性。
发明内容
为了解决现有技术的上述问题,本发明提出基于多重几何约束的机器人抓取位姿估计方法,不需要物体三维模型库,适用于不同物体的抓取位姿估计,并且能够在抓取稳定性的同时,保证算法的实时性。
本发明的技术方案:
一种结合几何约束的机器人抓取位姿估计方法,包括以下步骤:
步骤S1:在服务机器人的末端安装RGB-D相机,基于张正友相机标定算法与Tsai-Lenz手眼标定算法,进行相机参数标定和手眼标定;
步骤S2:利用RGB-D相机采集目标物体的场景点云图像,采用随机抽样一致性(Random SampleConsensus,RANSAC)算法对目标物体所在平面进行拟合,得到所述目标物体所在平面;
步骤S3:在目标物体的场景点云图像中提取步骤S2得到的平面以上的点所对应的点云,得到所述目标物体的点云,并计算目标物体表面的法线;
步骤S4:将机器人的夹持器进行几何形状的简化,在场景点云图像中,基于夹持器几何形状约束下生成初始抓取位姿。
步骤S5:分析初始抓取位姿工作空间中的点云,在力封闭约束条件下进行粗筛选,得到半稳定抓取位姿。
步骤S6:基于k-最近邻凹包轮廓检测算法提取夹持器工作空间中点云图像中的边缘点;
步骤S7:基于力平衡约束分析得到目标物体稳定的抓取位姿;
步骤S8:根据相机坐标系OcXcYcZc到机器人坐标系OrXrYrZr的坐标变换关系,将目标物体稳定抓取位姿转换到所述机器人坐标系OrXrYrZr下,得到机器人的抓取位姿。
进一步地,所述方法是在ROS操作***上实现的,包括三维点云的获取与处理、各种数学运算、运动规划环节;
进一步地,所述目标物体点云法线的计算问题近似化解为切面计算的问题,再转换为最小二乘法拟合平面的问题;
进一步地,所述初始抓取位姿的生成包括:先对所述目标物体点云进行下采样并计算法线,再在法线方向上基于所述夹持器几何形状约束生成初始抓取位姿;
进一步地,所述夹持器几何形状的工作空间为真实夹持器在夹指闭合时,夹指所扫描过的区域;
进一步地,所述夹持器几何形状约束包括:所述夹持器几何形状的工作空间中包含目标物体的点云、所述夹持器几何形状与所述场景点云没有接触;
进一步地,所述力封闭约束条件为:夹持器抓取物体时与物体表面的两接触点的连线位于两摩擦锥内部;(夹持器工作空间中目标物体点云上的两个点的连线位于两摩擦锥内部)
进一步地,所述基于k-最近邻凹包轮廓检测算法需要将半稳定抓取位姿的工作空间中的点云进行二维平面投影;
进一步地,所述力平衡约束分析是通过利用最小二乘法拟合半稳定抓取位姿工作空间的点云轮廓直线,并基于所述点云轮廓直线分析是否满足力平衡约束;
本发明的有益效果:本发明利用夹持器简化形状约束生成初始抓取位姿,能够生成包含稳定抓取位姿的抓取样本;之后通过力封闭约束快速进行半稳定抓取位姿筛选,之后利用力平衡约束分析半稳定抓取位姿,估计出目标物体稳定的抓取位姿;本发明适用于不同物体的抓取位姿估计,在一秒内能够估计出稳定的抓取位姿,计算效率高,更改算法中夹持器的参数,可以应用到其他类型夹持器,算法具有适用性。
附图说明
图1为本发明具体实施方式的方法流程图;
图2为本发明具体实施方式的夹持器简化形状;
图3为本发明具体实施方式中符合力封闭约束的一对接触点;
图4为本发明使用的基于k-最近邻凹包轮廓检测算法示意图;其中,(a)为寻找边界轮廓的下一顶点B的示意图;(b)为寻找边界轮廓的下一顶点C的示意图;(c)为点云在抓取区域的轮廓边界点连成的边界轮廓线;
图5为本发明具体实施方式中使用最小二乘法拟合的边缘轮廓直线。
具体实施方式
下面将结合本申请实施方式中的附图,对本申请的实施方式中的技术方案进行清楚、完整的描述,显然,所描述的实施方式仅仅是作为例示,并非用于限制本申请。
实验环境为Kinetic版ROS,基于Ubuntu16.04操作***,计算机配置为Intel(R)Core(TM)i7 2.6GHz,16GB RAM。如图1所示,本发明实例中采用的机器人为Jaco机器人,采用的RGB-D相机为Intel(R)的RealSence SR300。相机被安装在机器人末端,构成eye-in-hand手眼***。要被检测的目标物体均为家庭环境中常见的物体,放置于实验台待抓取区域。通过本发明所述的目标物体抓取位姿估计方法,得到稳定的物体抓取位姿,提供机器人进行抓取操作。
具体实施步骤如下:
S1:在机器人的末端安装RGB-D相机,基于张正友相机标定算法与利用基于视觉的机器人控制软件(ViSP)进行手眼自标定计算,进行相机参数标定和手眼标定。
通过ROS中Moveit!控制机器人运动,采集RGB-D相机坐标下aruco_marker的位姿以及末端执行器相对于机器人基坐标下的位姿,在机器人的工作空间中分散的采集20组数据,利用基于视觉的机器人控制软件(ViSP)进行手眼自标定计算。
步骤S2:利用RGB-D相机采集目标物体的场景点云图像,采用随机抽样一致性(Random SampleConsensus,RANSAC)算法对目标物体所在平面进行拟合,得到所述目标物体所在平面。具体包括:
S21:从场景点云中选取3个不共线的点,根据平面方程:
Ax+By+Cz+D=0 (1)
计算这三个点所对应的平面模型,其中A、B、C、D为该平面方程的四个系数;
S22:根据三维空间中点到平面的欧式距离计算公式:
计算场景点云中除S21选取的3个点外的点到S21计算得到的平面模型之间欧式距离的偏差,偏差小于阈值d的点设为局内点,并***内点的个数;
S23:重复执行步骤S21-S22,当达到预设迭代次数M时,选取含有局内点最多的点云数据作为平面模型;
步骤S3:在目标物体场景点云中提取步骤S2得到的平面以上的点所对应的点云,得到所述目标物体的点云,并计算目标物体表面的法线;
计算步骤S2所得到的平面与RGB-D相机原点的距离d1,由RGB-D相机与目标物体同处步骤S2所得到的平面一侧,计算场景点云中除了步骤S2的局内点以外的点与RGB-D相机原点的距离,并提取距离小于d1的点为目标物体点云;
根据下式计算目标物体点云上每个点pi的协方差矩阵:
步骤S4:将机器人的夹持器进行几何形状的简化,在点云场景图像中,基于夹持器几何形状约束下生成初始抓取位姿。
如图2所示为机器人夹持器简化的几何形状,通过长方体的组合对夹持器进行简化,尽管在细节上有些丢失,但简化后的形状更容易分析与场景中点云的位置关系。
夹持器的形状约束包括简化后的形状内部不包含场景中的点云,保证了抓取位姿不与场景中的物体发生碰撞;夹持器的工作空间中包含目标物体的点云,保证夹持器闭合时作用力能作用到目标物体上。
步骤S5:分析初始抓取位姿工作空间中的点云,在力封闭约束条件下进行粗筛选,得到半稳定抓取位姿。
根据有摩擦点接触模型分析夹持器与目标物体的作用力,将接触点的作用力f分为沿物体表面法向分力fn和切向分力fl,设P点为夹持器夹指与目标物体表面的接触点,以P为顶点,接触点法向方向为轴可得到该接触点的摩擦圆锥(friction cone)该圆锥相对于表面法线的圆锥角为α=arg tanμ,其中μ为静摩擦因数。将夹持器与物体的接触表面近似分解为多个点接触,假设如图3的p1和p2是物体表面上的两个点,当其满足条件arg(p1-p2)∈(α1∩-α2)时,为符合力封闭约束的两个点。其中α1、α2为点p1、p2摩擦圆锥的轴角。
当夹持器工作空间中符合力封闭条件的点大于n时,判断其为半稳定的抓取区域。
步骤S6:基于k-最近邻凹包轮廓检测算法提取夹持器工作空间中点云图像中的边缘点,具体步骤如下:
S61:将工作空间中的点云投影到二维平面上;
S62:对投影面上的点建立k-d树
S63:取投影面上点集合中纵坐标最小的点作为边界轮廓的第一个点A;
S64:如图4中的(a)所示,利用k-d树搜索点A的k个最近邻点,计算水平线与点A到最近邻点的直线在顺时针方向的角度,角度最大的点即为边界轮廓的下一顶点B;
S65:如图4中的(b)所示,利用k-d树搜索当前顶点B的k个最近邻点,计算当前顶点到前一顶点的直线与当前顶点到最近邻点的直线在顺时针方向的角度,角度最大即为轮廓的下一顶点C。
S66:重复步骤S64直至轮廓与第一个顶点A闭合,得到点云的边界轮廓点。
如图4中的(c)所示为点云在抓取区域的轮廓边界点连成的边界轮廓线。
步骤S7:基于力平衡约束分析得到目标物体稳定的抓取位姿;
如图5为使用最小二乘法拟合经过步骤S6得到的边缘抓取点的轮廓直线,当拟合的边界直线夹角小于θ时,在夹持器抓取目标物体的过程中能达到力平衡状态,不会引起夹持器与物体之间的相对滑动,此时满足抓取力平衡约束条件。
步骤S8:根据相机坐标系OXYZ到机器人的坐标系OXYZ的坐标变换关系,将目标物体稳定抓取位姿转换到所述机器人坐标系OXYZ下,得到机器人的抓取位姿。
相机坐标系OXYZ到服务机器人的机器人坐标系OXYZ的坐标变换关系为:
其中,(xc,yc,zc)T和(xr,yr,zr)T分别为所述稳定抓取位姿在相机坐标系OcXcYcZc和机器人坐标系OrXrYrZr中的坐标,所述手眼关系矩阵Th通过步骤S1中得到;利用公式(4)将目标物体稳定抓取位姿转换到所述机器人坐标系OrXrYrZr下,作为机器人抓取目标物体的抓取位姿。
优选的,目标物体可抓取区域小于夹持器的工作空间。
优选的,目标物体距离相机初始距离应在0.5~1m。
优选的,在进行点云模型提取时阈值d为0.01米,机器人夹持器与物体的静摩擦因数μ取0.3,摩擦锥角α取16.7°,在进行力封闭约束判断时取n值为夹持器工作空间点云数量的10%,基于k-最近邻凹包轮廓检测算法中k取10。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (10)
1.一种结合几何约束的机器人抓取位姿估计方法,其特征在于,包括以下步骤:
步骤S1:在服务机器人的末端安装RGB-D相机,基于张正友相机标定算法与Tsai-Lenz手眼标定算法,进行相机参数标定和手眼标定;
步骤S2:利用RGB-D相机采集目标物体的场景点云图像,采用随机抽样一致性(RandomSampleConsensus,RANSAC)算法对目标物体所在平面进行拟合,得到所述目标物体所在平面;
步骤S3:在目标物体的场景点云图像中提取步骤S2得到的平面以上的点所对应的点云,得到所述目标物体的点云,并计算目标物体表面的法线;
步骤S4:将机器人的夹持器进行几何形状的简化,在场景点云图像中,基于夹持器几何形状约束下生成初始抓取位姿;
步骤S5:分析初始抓取位姿工作空间中的点云,在力封闭约束条件下进行粗筛选,得到半稳定抓取位姿;
步骤S6:基于k-最近邻凹包轮廓检测算法提取夹持器工作空间中点云图像中的边缘点;
步骤S7:基于力平衡约束分析得到目标物体稳定的抓取位姿;
步骤S8:根据相机坐标系OcXcYcZc到机器人坐标系OrXrYrZr的坐标变换关系,将目标物体稳定抓取位姿转换到所述机器人坐标系OrXrYrZr下,得到机器人的抓取位姿。
4.根据权利要求1或2所述的一种结合几何约束的机器人抓取位姿估计方法,其特征在于,步骤S5的具体过程如下:
根据有摩擦点接触模型分析夹持器与目标物体的作用力,将接触点的作用力f分为沿物体表面法向分力fn和切向分力fl,设P点为夹持器夹指与目标物体表面的接触点,以P为顶点,接触点法向方向为轴,得到该接触点的摩擦圆锥,该圆锥相对于表面法线的圆锥角为α=argtanμ,其中μ为静摩擦因数;将夹持器与物体的接触表面分解为多个点接触,设p1和p2是物体表面上的两个点,当其满足条件arg(p1-p2)∈(α1∩-α2)时,为符合力封闭约束的两个点;其中α1、α2为点p1、p2摩擦圆锥的轴角;
当夹持器工作空间中符合力封闭条件的点大于n时,判断其为半稳定的抓取区域。
5.根据权利要求3所述的一种结合几何约束的机器人抓取位姿估计方法,其特征在于,步骤S5的具体过程如下:
根据有摩擦点接触模型分析夹持器与目标物体的作用力,将接触点的作用力f分为沿物体表面法向分力fn和切向分力fl,设P点为夹持器夹指与目标物体表面的接触点,以P为顶点,接触点法向方向为轴,得到该接触点的摩擦圆锥,该圆锥相对于表面法线的圆锥角为α=argtanμ,其中μ为静摩擦因数;将夹持器与物体的接触表面分解为多个点接触,设p1和p2是物体表面上的两个点,当其满足条件arg(p1-p2)∈(α1∩-α2)时,为符合力封闭约束的两个点;其中α1、α2为点p1、p2摩擦圆锥的轴角;
当夹持器工作空间中符合力封闭条件的点大于n时,判断其为半稳定的抓取区域。
6.根据权利要求1、2或5所述的一种结合几何约束的机器人抓取位姿估计方法,其特征在于,步骤S6的具体过程如下:
S61:将工作空间中的点云投影到二维平面上;
S62:对投影面上的点建立k-d树
S63:取投影面上点集合中纵坐标最小的点作为边界轮廓的第一个点A;
S64:利用k-d树搜索点A的k个最近邻点,计算水平线与点A到最近邻点的直线在顺时针方向的角度,角度最大的点即为边界轮廓的下一顶点B;
S65:利用k-d树搜索当前顶点B的k个最近邻点,计算当前顶点到前一顶点的直线与当前顶点到最近邻点的直线在顺时针方向的角度,角度最大即为轮廓的下一顶点C;
S66:重复步骤S64直至轮廓与第一个顶点A闭合,得到点云的边界轮廓点。
7.根据权利要求3所述的一种结合几何约束的机器人抓取位姿估计方法,其特征在于,步骤S6的具体过程如下:
S61:将工作空间中的点云投影到二维平面上;
S62:对投影面上的点建立k-d树
S63:取投影面上点集合中纵坐标最小的点作为边界轮廓的第一个点A;
S64:利用k-d树搜索点A的k个最近邻点,计算水平线与点A到最近邻点的直线在顺时针方向的角度,角度最大的点即为边界轮廓的下一顶点B;
S65:利用k-d树搜索当前顶点B的k个最近邻点,计算当前顶点到前一顶点的直线与当前顶点到最近邻点的直线在顺时针方向的角度,角度最大即为轮廓的下一顶点C;
S66:重复步骤S64直至轮廓与第一个顶点A闭合,得到点云的边界轮廓点。
8.根据权利要求4所述的一种结合几何约束的机器人抓取位姿估计方法,其特征在于,步骤S6的具体过程如下:
S61:将工作空间中的点云投影到二维平面上;
S62:对投影面上的点建立k-d树
S63:取投影面上点集合中纵坐标最小的点作为边界轮廓的第一个点A;
S64:利用k-d树搜索点A的k个最近邻点,计算水平线与点A到最近邻点的直线在顺时针方向的角度,角度最大的点即为边界轮廓的下一顶点B;
S65:利用k-d树搜索当前顶点B的k个最近邻点,计算当前顶点到前一顶点的直线与当前顶点到最近邻点的直线在顺时针方向的角度,角度最大即为轮廓的下一顶点C;
S66:重复步骤S64直至轮廓与第一个顶点A闭合,得到点云的边界轮廓点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910930621.2A CN110653820B (zh) | 2019-09-29 | 2019-09-29 | 一种结合几何约束的机器人抓取位姿估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910930621.2A CN110653820B (zh) | 2019-09-29 | 2019-09-29 | 一种结合几何约束的机器人抓取位姿估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110653820A true CN110653820A (zh) | 2020-01-07 |
CN110653820B CN110653820B (zh) | 2022-11-01 |
Family
ID=69039645
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910930621.2A Active CN110653820B (zh) | 2019-09-29 | 2019-09-29 | 一种结合几何约束的机器人抓取位姿估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110653820B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111604902A (zh) * | 2020-05-18 | 2020-09-01 | 哈尔滨工业大学 | 一种适用于机械手在手操作的目标滑动检测方法 |
CN112465898A (zh) * | 2020-11-20 | 2021-03-09 | 上海交通大学 | 一种基于棋盘格标定板的物体3d位姿标签获取方法 |
CN112720477A (zh) * | 2020-12-22 | 2021-04-30 | 泉州装备制造研究所 | 一种基于局部点云模型的物体最优抓取识别方法 |
CN112720487A (zh) * | 2020-12-23 | 2021-04-30 | 东北大学 | 基于自适应动态力平衡的机械臂抓取方法和*** |
CN112818930A (zh) * | 2021-02-26 | 2021-05-18 | 梅卡曼德(北京)机器人科技有限公司 | 一种堆垛箱体的识别方法及抓取位姿的确定方法 |
CN113240751A (zh) * | 2021-05-18 | 2021-08-10 | 广州慧炬智能科技有限公司 | 一种机器人末端相机的标定方法 |
CN114474056A (zh) * | 2022-01-26 | 2022-05-13 | 北京航空航天大学 | 一种面向抓取操作的单目视觉高精度目标定位方法 |
WO2022116677A1 (zh) * | 2020-12-02 | 2022-06-09 | 达闼机器人股份有限公司 | 目标物体抓取方法、装置、存储介质及电子设备 |
CN116883516A (zh) * | 2023-09-07 | 2023-10-13 | 西南科技大学 | 相机参数标定方法及装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050265583A1 (en) * | 1999-03-08 | 2005-12-01 | Vulcan Patents Llc | Three dimensional object pose estimation which employs dense depth information |
CN106553195A (zh) * | 2016-11-25 | 2017-04-05 | 中国科学技术大学 | 工业机器人抓取过程中的物体6自由度定位方法及*** |
CN107483096A (zh) * | 2017-09-18 | 2017-12-15 | 河南科技学院 | 一种面向复杂环境的自主排爆机器人通信链路重构方法 |
US20180085923A1 (en) * | 2016-09-29 | 2018-03-29 | Seiko Epson Corporation | Robot control device, robot, and robot system |
CN108171748A (zh) * | 2018-01-23 | 2018-06-15 | 哈工大机器人(合肥)国际创新研究院 | 一种面向机器人智能抓取应用的视觉识别与定位方法 |
CN109015640A (zh) * | 2018-08-15 | 2018-12-18 | 深圳清华大学研究院 | 抓取方法、***、计算机装置及可读存储介质 |
CN109102547A (zh) * | 2018-07-20 | 2018-12-28 | 上海节卡机器人科技有限公司 | 基于物体识别深度学习模型的机器人抓取位姿估计方法 |
CN110223348A (zh) * | 2019-02-25 | 2019-09-10 | 湖南大学 | 基于rgb-d相机的机器人场景自适应位姿估计方法 |
CN110271000A (zh) * | 2019-06-18 | 2019-09-24 | 清华大学深圳研究生院 | 一种基于椭圆形面接触的物体抓取方法 |
-
2019
- 2019-09-29 CN CN201910930621.2A patent/CN110653820B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050265583A1 (en) * | 1999-03-08 | 2005-12-01 | Vulcan Patents Llc | Three dimensional object pose estimation which employs dense depth information |
US20180085923A1 (en) * | 2016-09-29 | 2018-03-29 | Seiko Epson Corporation | Robot control device, robot, and robot system |
CN106553195A (zh) * | 2016-11-25 | 2017-04-05 | 中国科学技术大学 | 工业机器人抓取过程中的物体6自由度定位方法及*** |
CN107483096A (zh) * | 2017-09-18 | 2017-12-15 | 河南科技学院 | 一种面向复杂环境的自主排爆机器人通信链路重构方法 |
CN108171748A (zh) * | 2018-01-23 | 2018-06-15 | 哈工大机器人(合肥)国际创新研究院 | 一种面向机器人智能抓取应用的视觉识别与定位方法 |
CN109102547A (zh) * | 2018-07-20 | 2018-12-28 | 上海节卡机器人科技有限公司 | 基于物体识别深度学习模型的机器人抓取位姿估计方法 |
CN109015640A (zh) * | 2018-08-15 | 2018-12-18 | 深圳清华大学研究院 | 抓取方法、***、计算机装置及可读存储介质 |
CN110223348A (zh) * | 2019-02-25 | 2019-09-10 | 湖南大学 | 基于rgb-d相机的机器人场景自适应位姿估计方法 |
CN110271000A (zh) * | 2019-06-18 | 2019-09-24 | 清华大学深圳研究生院 | 一种基于椭圆形面接触的物体抓取方法 |
Non-Patent Citations (1)
Title |
---|
李树春等: "面向机器人抓取过程中目标位姿估计方法", 《传感器与微***》 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111604902A (zh) * | 2020-05-18 | 2020-09-01 | 哈尔滨工业大学 | 一种适用于机械手在手操作的目标滑动检测方法 |
CN111604902B (zh) * | 2020-05-18 | 2022-06-03 | 哈尔滨工业大学 | 一种适用于机械手在手操作的目标滑动检测方法 |
CN112465898A (zh) * | 2020-11-20 | 2021-03-09 | 上海交通大学 | 一种基于棋盘格标定板的物体3d位姿标签获取方法 |
CN112465898B (zh) * | 2020-11-20 | 2023-01-03 | 上海交通大学 | 一种基于棋盘格标定板的物体3d位姿标签获取方法 |
WO2022116677A1 (zh) * | 2020-12-02 | 2022-06-09 | 达闼机器人股份有限公司 | 目标物体抓取方法、装置、存储介质及电子设备 |
CN112720477A (zh) * | 2020-12-22 | 2021-04-30 | 泉州装备制造研究所 | 一种基于局部点云模型的物体最优抓取识别方法 |
CN112720477B (zh) * | 2020-12-22 | 2024-01-30 | 泉州装备制造研究所 | 一种基于局部点云模型的物体最优抓取识别方法 |
CN112720487A (zh) * | 2020-12-23 | 2021-04-30 | 东北大学 | 基于自适应动态力平衡的机械臂抓取方法和*** |
CN112720487B (zh) * | 2020-12-23 | 2022-03-22 | 东北大学 | 基于自适应动态力平衡的机械臂抓取方法和*** |
CN112818930A (zh) * | 2021-02-26 | 2021-05-18 | 梅卡曼德(北京)机器人科技有限公司 | 一种堆垛箱体的识别方法及抓取位姿的确定方法 |
CN112818930B (zh) * | 2021-02-26 | 2023-12-05 | 梅卡曼德(北京)机器人科技有限公司 | 一种堆垛箱体的识别方法及抓取位姿的确定方法 |
CN113240751A (zh) * | 2021-05-18 | 2021-08-10 | 广州慧炬智能科技有限公司 | 一种机器人末端相机的标定方法 |
CN114474056A (zh) * | 2022-01-26 | 2022-05-13 | 北京航空航天大学 | 一种面向抓取操作的单目视觉高精度目标定位方法 |
CN114474056B (zh) * | 2022-01-26 | 2023-07-21 | 北京航空航天大学 | 一种面向抓取操作的单目视觉高精度目标定位方法 |
CN116883516A (zh) * | 2023-09-07 | 2023-10-13 | 西南科技大学 | 相机参数标定方法及装置 |
CN116883516B (zh) * | 2023-09-07 | 2023-11-24 | 西南科技大学 | 相机参数标定方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110653820B (zh) | 2022-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110653820B (zh) | 一种结合几何约束的机器人抓取位姿估计方法 | |
Rao et al. | Grasping novel objects with depth segmentation | |
Song et al. | CAD-based pose estimation design for random bin picking using a RGB-D camera | |
Qian et al. | Grasp pose detection with affordance-based task constraint learning in single-view point clouds | |
CN111598172B (zh) | 基于异构深度网络融合的动态目标抓取姿态快速检测方法 | |
CN111882610A (zh) | 基于椭圆锥人工势场的服务机器人抓取目标物体的方法 | |
CN113538459B (zh) | 一种基于落点区域检测的多模式抓取避障检测优化方法 | |
Patil et al. | Extraction of weld seam in 3d point clouds for real time welding using 5 dof robotic arm | |
CN114140418A (zh) | 一种基于rgb图像和深度图像的七自由度抓取姿势检测方法 | |
Zwiener et al. | Armcl: Arm contact point localization via monte carlo localization | |
CN113538576A (zh) | 基于双臂机器人的抓取方法、装置及双臂机器人 | |
Lin et al. | Target recognition and optimal grasping based on deep learning | |
Kim et al. | Structured light camera base 3D visual perception and tracking application system with robot grasping task | |
Yu et al. | Object recognition and robot grasping technology based on RGB-D data | |
Arbeiter et al. | Efficient segmentation and surface classification of range images | |
Asif et al. | Model-free segmentation and grasp selection of unknown stacked objects | |
Kim et al. | Contact-based pose estimation of workpieces for robotic setups | |
Zhuang et al. | Lyrn (lyapunov reaching network): A real-time closed loop approach from monocular vision | |
Xin et al. | Real-time dynamic system to path tracking and collision avoidance for redundant robotic arms | |
Xiong et al. | Efficient and Robust Robotic Grasping in Cluttered Scenes: A Point Cloud-Based Approach with Heuristic Evaluation | |
Li et al. | 6D Grasp Pose Detection in Cluttered Environment from a Single-view | |
Wang et al. | Recognition and grasping of target position and pose of manipulator based on vision | |
Wong et al. | A real-time affordance-based object pose estimation approach for robotic grasp pose estimation | |
Yu et al. | 6-DOF grasping pose detection method incorporating instance segmentation | |
Vogt et al. | Automatic end tool alignment through plane detection with a RANSAC-algorithm for robotic grasping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |