CN110910451A - 一种基于变形卷积网络的物***姿估计方法及*** - Google Patents

一种基于变形卷积网络的物***姿估计方法及*** Download PDF

Info

Publication number
CN110910451A
CN110910451A CN201911014052.3A CN201911014052A CN110910451A CN 110910451 A CN110910451 A CN 110910451A CN 201911014052 A CN201911014052 A CN 201911014052A CN 110910451 A CN110910451 A CN 110910451A
Authority
CN
China
Prior art keywords
point cloud
deformed
target object
color image
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911014052.3A
Other languages
English (en)
Other versions
CN110910451B (zh
Inventor
陈启军
周光亮
王德明
汪晏
颜熠
刘成菊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN201911014052.3A priority Critical patent/CN110910451B/zh
Publication of CN110910451A publication Critical patent/CN110910451A/zh
Application granted granted Critical
Publication of CN110910451B publication Critical patent/CN110910451B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于变形卷积网络的物***姿估计方法,包括:S1、获取目标物体的彩色图像和深度图像,将目标物体的彩色图像输入训练好的实例分割网络,得到实例分割结果;S2、根据实例分割结果分别从彩色图像和深度图像中裁剪出包含目标物体的彩色图像块和深度图像块,并把深度图像块转换成三通道图像表示的点云;S3、将彩色图像块和点云的图像中不包含目标物体的区域的像素值置为0后输入训练好的变形卷积网络,得到目标物***姿估计结果;变形卷积网络提取特征的感受野集中在彩色图像块和点云图像上目标物体分布的区域。与现有技术相比,本发明具有高精度、高效率等优点。

Description

一种基于变形卷积网络的物***姿估计方法及***
技术领域
本发明涉及计算机视觉领域,尤其是涉及一种基于变形卷积网络的物***姿估计方法及***。
背景技术
基于计算机视觉的物体六自由度位姿(物体相对于相机坐标系的三维平移和旋转变换参数共计六个自由度)估计技术使机器人能够从三维层面感知周围的环境,是实现机器人抓取和灵巧操作的关键技术,对于推动服务机器人、工业机器人的应用有着重要意义,此外该技术在增强现实、虚拟现实技术等领域也有广阔的应用前景。
现有物***姿估计技术主要有以下几种:
一是基于模板匹配的方法:该方法将采集的图像和离线制作好的模板进行匹配,根据匹配的模板确定物***姿;
现有的此类存在以下问题:该方法在背景杂乱、物体混杂堆叠的情况下很难准确地把目标物体匹配到,鲁棒性不高;模板匹配的时间会随着模板数量的增加而急剧上升,很难满足实时性的要求。
二是基于深度学习的方法:该方法将采集的图像输入到训练好的网络中,直接回归出物体的六自由度位姿,或通过预测二维特征点进而利用PnP算法得到物体的六自由度位姿;
现有的此类方法存在以下问题:整个网络卷积核都是标准卷积核,当被估测位姿的物体所处的背景杂乱且有互相堆叠时,用于估计位姿的信息除了物体本身外,不可避免的会包含背景和其他堆叠物体的信息,这对特征提取带来了极大的影响,进而降低了物***姿估计的精度,因此该类方法最后对初步预估结果进行位姿精修以修正预测的位姿,但位姿精修过程耗时较长,降低了算法的效率。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于变形卷积网络的物***姿估计方法及***,消除了杂乱背景和物体相互堆叠对于物***姿估计的不利影响。
本发明的目的可以通过以下技术方案来实现:
一种基于变形卷积网络的物***姿估计方法,包括:
S1、获取目标物体的彩色图像和深度图像,将目标物体的彩色图像输入训练好的实例分割网络,得到实例分割结果;
S2、根据实例分割结果分别从彩色图像和深度图像中裁剪出包含目标物体的彩色图像块和深度图像块,并把深度图像块转换成三通道图像表示的点云;
S3、将彩色图像块和点云的图像中不包含目标物体的区域的像素值置为0后输入训练好的变形卷积网络,得到目标物***姿估计结果;
其中,利用彩色样本图像训练实例分割网络,利用标记好位姿的彩色分割图像和点云样本训练变形卷积网络;
所述的变形卷积网络提取特征的感受野集中在彩色图像块和点云图像上目标物体分布的区域。
进一步地,所述的实例分割网络和变形卷积网络分别训练的,训练实例分割网络的数据还包括彩色样本图像相应的分割结果;
所述的标记好位姿的彩色分割图像和点云样本包含单个目标物体的彩色图像块以及目标物***姿信息。
进一步地,所述的变形卷积网络包括标准卷积层、变形卷积层、标准池化层、变形RoI池化层和全连接层,所述的变形卷积网络通过变形卷积层和变形RoI池化层实现变形操作;
其中变形卷积层是通过一个标准卷积层预测出特征图各个位置偏移,将该位置偏移加到卷积操作中实现变形卷积操作;
变形ROI池化层通过一个全连接层预测出特征图各个位置偏移,将该位置偏移加到ROI池化操作中实现变形ROI池化操作。
所述的彩色图像块和点云图像一起作为六通道的图像输入到变形卷积网络。首先经过一个变形RoI池化层,将彩色图像块和点云图像的大小池化成统一尺寸,然后再经过若干变形卷积层和标准卷积层,控制感受野集中分布在目标物体所在区域。
进一步地,所述的变形卷积网络的输出包括多个目标物***姿值和对应的置信度,所述的目标物***姿估计结果为置信度最大的目标物***姿值。
进一步地,所述的深度图像块转换成三通道图像表示的点云的过程具体为:
所述的深度图像块先转换成点云并进行预处理,即消除点云噪点和空洞,然后将该点云的三个坐标值分别保存到三个通道,形成三通道图像表示的点云。
进一步地,目标物***姿估计结果为六自由度位姿,即目标物体相对于相机坐标系的三维平移和旋转变换共计六个自由度。
一种基于变形卷积网络的物***姿估计***,包括RGB-D相机、实例分割模块、目标裁剪模块、转换处理模块和变形卷积模块;
所述的RGB-D相机获取目标物体的彩色图像和深度图像;
所述的实例分割模块分割彩色图像,获得实例分割结果;
所述的目标裁剪模块根据实例分割结果分别从彩色图片和深度图片中裁剪出包含目标物体的彩色图像块和深度图像块;
所述的转换处理模块将深度图像块转换成三通道图像表示的点云,并将彩色图像块和点云图像中不包含目标物体的区域的像素值置为0;
所述的变形卷积模块包括变形卷积网络,该模块将经转换处理模块处理的彩色图像块和点云输入变形卷积网络,获得目标物***姿估计结果;
其中,所述的变形卷积网络提取特征的感受野集中在彩色图像块和点云图像上目标物体分布的区域。
进一步地,所述的变形卷积网络包括标准卷积层、变形卷积层、标准池化层、变形RoI池化层和全连接层,所述的变形卷积网络通过变形卷积层和变形RoI池化层实现变形操作;
其中变形卷积层是通过一个标准卷积层预测出特征图各个位置偏移,将该位置偏移加到卷积操作中实现变形卷积;
变形ROI池化层通过一个全连接层预测出特征图各个位置偏移,将该位置偏移加到ROI池化操作中实现变形ROI池化。
进一步地,所述的变形卷积网络的输出包括多个目标物***姿值和对应的置信度,所述的目标物***姿估计结果为置信度最大的目标物***姿值。
进一步地,所述的深度图像块转换成三通道图像表示的点云的过程具体为:
所述的深度图像块先转换成点云并进行预处理,即消除点云噪点和空洞,然后将该点云的三个坐标值分别保存到三个通道,形成三通道图像表示的点云。
与现有技术相比,本发明具有以如下有益效果:
(1)本发明利用实例分割网络在像素级别定位出待估测位姿的物体,然后利用变形卷积网络输出多个物***姿值及对应置信度,选择置信度最大的目标物***姿值,变形卷积网络能够将感受野控制在所需估计位姿的物体上,因此在不需要位姿精修模块的情况下,就可以得到精确的位姿,简化了估计方法步骤,提升了位姿估计的效率;
(2)本发明采用具有变形性质的变形卷积网络,不同于标准卷积核来提取特征的方式,该方式在存在遮挡的情况下提取的特征会被其他无关物体干扰,从而影响位姿估计的精度,变形卷积网络能在遮挡出现的情况下,使得卷积核尽量分布在待估计位姿的目标物体上,所提取的特征都是目标物体上的特征,而不会受其他物体的干扰,从而提升了精度和鲁棒性。
附图说明
图1为本发明的方法流程图;
图2为本发明的***工作框架图;
图3为变形卷积层示意图;
图4为变形ROI池化层示意图;
图5为变形卷积网络的效果示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例一
一种基于变形卷积网络的物***姿估计方法,如图1,包括:
S1、获取目标物体的彩色图像和深度图像,将目标物体的彩色图像输入训练好的实例分割网络,得到实例分割结果;
S2、根据实例分割结果分别从彩色图像和深度图像中裁剪出包含目标物体的彩色图像块和深度图像块,并把深度图像块转换成三通道表示的点云;
S3、将彩色图像块和点云中不包含目标物体的区域的像素值置为0后输入训练好的变形卷积网络,得到目标物***姿估计结果,变形卷积网络的输出包括多个目标物***姿值和对应的置信度,目标物***姿估计结果为置信度最大的目标物***姿值。
其中,利用彩色样本图像以及相应的分割结果训练实例分割网络,利用标记好位姿的包含单个目标物体的彩色图像块和点云样本训练变形卷积网络;
变形卷积网络包括标准卷积层、变形卷积层、标准池化层、变形RoI池化层和全连接层。
变形卷积网络的示意效果如图5所示,变形卷积网络通过变形卷积层和变形RoI池化层实现变形操作,该变形操作控制感受野集中分布在物体表面,具体为:
彩色图像块和点云一起作为六通道的图像输入到变形卷积网络。首先经过一个变形RoI池化层,将彩色图像块和点云的大小池化成统一尺寸,然后再经过若干变形卷积层和标准卷积层,控制感受野集中分布在物体表面。
变形操作具体为:
如图3所示,变形卷积层是通过一个标准卷积层预测出特征图各个位置偏移,再将这个位置偏移加到卷积操作中实现变形卷积;
如图4所示,变形ROI池化层是通过一个全连接层预测出特征图各个位置偏移,再将这个位置偏移加到ROI池化操作中实现变形ROI池化。
实例分割网络采用Mask RCNN,实例分割网络和变形卷积网络分别训练的。
深度图像块转换成三通道表示的点云的过程具体为:
深度图像块先转换成点云并进行预处理,即消除点云噪点和空洞,然后将该点云的三个坐标值分别保存到三个通道,形成三通道图像表示的点云。
目标物***姿估计结果为六自由度位姿,即目标物体相对于相机坐标系的三维平移和旋转变换共计六个自由度。
实施例二
与实施例一对应的一种基于变形卷积网络的物***姿估计***,如图2,包括RGB-D相机、实例分割模块、目标裁剪模块、转换处理模块和变形卷积模块;
RGB-D相机获取目标物体的彩色图像和深度图像;
实例分割模块分割彩色图像,获得实例分割结果;
目标裁剪模块根据实例分割结果分别从彩色图片和深度图片中裁剪出包含目标物体的彩色图像块和深度图像块;
转换处理模块将深度图像块转换成三通道图像表示的点云,并将彩色图像块和点云图像中不包含目标物体的区域的像素值置为0;
变形卷积模块包括变形卷积网络,该模块将经转换处理模块处理的彩色图像块和点云输入变形卷积网络,获得目标物***姿估计结果;
其中,变形卷积网络提取特征的感受野集中在彩色图像块和点云上目标物体分布的区域。
变形卷积网络包括标准卷积层、变形卷积层、标准池化层、变形RoI池化层和全连接层。
变形卷积网络通过变形卷积层和变形RoI池化层实现变形操作,具体为:
变形卷积层是通过一个标准卷积层预测出特征图各个位置偏移,再将该位置偏移加到正常的卷积操作中,从而实现变形卷积,
变形ROI池化层是通过一个全连接层预测出特征图各个位置偏移,再将该位置偏移加到正常的ROI池化操作中,从而实现变形ROI池化。
变形卷积网络的输出包括多个目标物***姿值和对应的置信度,目标物***姿估计结果为置信度最大的目标物***姿值。
深度图像块转换成三通道表示的点云的过程具体为:
深度图像块先转换成点云并进行预处理,即消除点云噪点和空洞,然后将该点云的三个坐标值分别保存到三个通道,形成三通道图像表示的点云。
实施例一与实施例二提供的一种基于变形卷积网络的物***姿估计方法及***采用了变形卷积网络,控制感受野集中分布在实例分割的目标物体上,从而只使用目标物体的颜色和深度信息估计出物体的六自由度位姿,消除了杂乱背景和物体堆叠的影响,在无需位姿精修模块的情况下即可实现精确的位姿估计。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。

Claims (10)

1.一种基于变形卷积网络的物***姿估计方法,其特征在于,包括:
S1、获取目标物体的彩色图像和深度图像,将目标物体的彩色图像输入训练好的实例分割网络,得到实例分割结果;
S2、根据实例分割结果分别从彩色图像和深度图像中裁剪出包含目标物体的彩色图像块和深度图像块,并把深度图像块转换成三通道图像表示的点云;
S3、将彩色图像块和点云的图像中不包含目标物体的区域的像素值置为0后输入训练好的变形卷积网络,得到目标物***姿估计结果;
其中,利用彩色样本图像训练实例分割网络,利用标记好位姿的彩色分割图像和点云样本训练变形卷积网络;
所述的变形卷积网络提取特征的感受野集中在彩色图像块和点云图像上目标物体分布的区域。
2.根据权利要求1所述的一种基于变形卷积网络的物***姿估计方法,其特征在于,所述的变形卷积网络包括标准卷积层、变形卷积层、标准池化层、变形RoI池化层和全连接层。
3.根据权利要求2所述的一种基于变形卷积网络的物***姿估计方法,其特征在于,所述的变形卷积层通过一个标准卷积层预测出特征图的各个位置偏移,并将该位置偏移加入卷积过程;
所述的变形ROI池化层通过一个全连接层预测出特征图的各个位置偏移,并将该位置偏移加入ROI池化过程。
4.根据权利要求1所述的一种基于变形卷积网络的物***姿估计方法,其特征在于,所述的变形卷积网络的输出包括多个目标物***姿值和对应的置信度,所述的目标物***姿估计结果为置信度最大的目标物***姿值。
5.根据权利要求1所述的一种基于变形卷积网络的物***姿估计方法,其特征在于,所述的深度图像块转换成三通道图像表示的点云的过程具体为:
所述的深度图像块先转换成点云并消除点云的噪点和空洞,然后将该点云的三个坐标值分别保存到三个通道,形成三通道图像表示的点云。
6.一种基于变形卷积网络的物***姿估计***,其特征在于,包括RGB-D相机、实例分割模块、目标裁剪模块、转换处理模块和变形卷积模块、;
所述的RGB-D相机获取目标物体的彩色图像和深度图像;
所述的实例分割模块分割彩色图像,获得实例分割结果;
所述的目标裁剪模块根据实例分割结果分别从彩色图片和深度图片中裁剪出包含目标物体的彩色图像块和深度图像块;
所述的转换处理模块将深度图像块转换成三通道图像表示的点云,并将彩色图像块和点云的图像中不包含目标物体的区域的像素值置为0;
所述的变形卷积模块包括变形卷积网络,该模块将经转换处理模块处理的彩色图像块和点云输入变形卷积网络,获得目标物***姿估计结果;
其中,所述的变形卷积网络提取特征的感受野集中在彩色图像块和点云图像上目标物体分布的区域。
7.根据权利要求6所述的一种基于变形卷积网络的物***姿估计***,其特征在于,所述的变形卷积网络包括标准卷积层、变形卷积层、标准池化层、变形RoI池化层和全连接层。
8.根据权利要求7所述的一种基于变形卷积网络的物***姿估计***,其特征在于,所述的变形卷积层通过一个标准卷积层预测出特征图的各个位置偏移,并将该位置偏移加入卷积过程;
所述的变形ROI池化层通过一个全连接层预测出特征图的各个位置偏移,并将该位置偏移加入ROI池化过程。
9.根据权利要求6所述的一种基于变形卷积网络的物***姿估计***,其特征在于,所述的变形卷积网络的输出包括多个目标物***姿值和对应的置信度,所述的目标物***姿估计结果为置信度最大的目标物***姿值。
10.根据权利要求6所述的一种基于变形卷积网络的物***姿估计***,其特征在于,所述的深度图像块转换成三通道表示的点云的过程具体为:
所述的深度图像块先转换成点云并进行预处理,即消除点云噪点和空洞,然后将该点云的三个坐标值分别保存到三个通道,形成三通道表示的点云。
CN201911014052.3A 2019-10-23 2019-10-23 一种基于变形卷积网络的物***姿估计方法及*** Active CN110910451B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911014052.3A CN110910451B (zh) 2019-10-23 2019-10-23 一种基于变形卷积网络的物***姿估计方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911014052.3A CN110910451B (zh) 2019-10-23 2019-10-23 一种基于变形卷积网络的物***姿估计方法及***

Publications (2)

Publication Number Publication Date
CN110910451A true CN110910451A (zh) 2020-03-24
CN110910451B CN110910451B (zh) 2023-06-02

Family

ID=69815632

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911014052.3A Active CN110910451B (zh) 2019-10-23 2019-10-23 一种基于变形卷积网络的物***姿估计方法及***

Country Status (1)

Country Link
CN (1) CN110910451B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111553949A (zh) * 2020-04-30 2020-08-18 张辉 基于单帧rgb-d图像深度学习对不规则工件的定位抓取方法
CN112270249A (zh) * 2020-10-26 2021-01-26 湖南大学 一种融合rgb-d视觉特征的目标位姿估计方法
CN112465908A (zh) * 2020-11-30 2021-03-09 深圳市优必选科技股份有限公司 一种物体定位方法、装置、终端设备及存储介质
CN113129370A (zh) * 2021-03-04 2021-07-16 同济大学 结合生成数据和无标注数据的半监督物***姿估计方法
CN113436240A (zh) * 2021-06-22 2021-09-24 同济大学 一种基于域适应的复杂环境下的单目图像深度估计方法
CN115082559A (zh) * 2022-07-20 2022-09-20 广东工业大学 一种柔性件的多目标智能分拣方法、***及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190065817A1 (en) * 2017-08-29 2019-02-28 Konica Minolta Laboratory U.S.A., Inc. Method and system for detection and classification of cells using convolutional neural networks
CN110322512A (zh) * 2019-06-28 2019-10-11 中国科学院自动化研究所 结合小样本实例分割和三维匹配的物***姿估计方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190065817A1 (en) * 2017-08-29 2019-02-28 Konica Minolta Laboratory U.S.A., Inc. Method and system for detection and classification of cells using convolutional neural networks
CN110322512A (zh) * 2019-06-28 2019-10-11 中国科学院自动化研究所 结合小样本实例分割和三维匹配的物***姿估计方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王孙平;陈世峰;: "融合深度图像的卷积神经网络语义分割方法", 集成技术 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111553949A (zh) * 2020-04-30 2020-08-18 张辉 基于单帧rgb-d图像深度学习对不规则工件的定位抓取方法
CN112270249A (zh) * 2020-10-26 2021-01-26 湖南大学 一种融合rgb-d视觉特征的目标位姿估计方法
CN112270249B (zh) * 2020-10-26 2024-01-23 湖南大学 一种融合rgb-d视觉特征的目标位姿估计方法
CN112465908A (zh) * 2020-11-30 2021-03-09 深圳市优必选科技股份有限公司 一种物体定位方法、装置、终端设备及存储介质
CN112465908B (zh) * 2020-11-30 2023-09-22 深圳市优必选科技股份有限公司 一种物体定位方法、装置、终端设备及存储介质
CN113129370A (zh) * 2021-03-04 2021-07-16 同济大学 结合生成数据和无标注数据的半监督物***姿估计方法
CN113129370B (zh) * 2021-03-04 2022-08-19 同济大学 结合生成数据和无标注数据的半监督物***姿估计方法
CN113436240A (zh) * 2021-06-22 2021-09-24 同济大学 一种基于域适应的复杂环境下的单目图像深度估计方法
CN115082559A (zh) * 2022-07-20 2022-09-20 广东工业大学 一种柔性件的多目标智能分拣方法、***及存储介质

Also Published As

Publication number Publication date
CN110910451B (zh) 2023-06-02

Similar Documents

Publication Publication Date Title
CN110910451B (zh) 一种基于变形卷积网络的物***姿估计方法及***
CN111179324B (zh) 基于颜色和深度信息融合的物体六自由度位姿估计方法
CN109784333B (zh) 基于点云带权通道特征的三维目标检测方法及***
CN111178250B (zh) 物体识别定位方法、装置及终端设备
CN107330439B (zh) 一种图像中物体姿态的确定方法、客户端及服务器
CN113065546B (zh) 一种基于注意力机制和霍夫投票的目标位姿估计方法及***
KR101491461B1 (ko) 공분산 기술자를 이용하는 물체 인식 방법 및 장치
US8269722B2 (en) Gesture recognition system and method thereof
WO2021109575A1 (zh) 基于融入全局视觉和局部视觉的机器人视觉引导方法和装置
CN108932734B (zh) 单目图像的深度恢复方法及装置、计算机设备
CN113222940B (zh) 一种基于rgb-d图像和cad模型的机器人自动抓取工件方法
WO2022183638A1 (zh) 图像特征匹配方法和相关装置、设备及存储介质
CN113034593B (zh) 6d位姿标注方法、***及存储介质
CN112465903A (zh) 一种基于深度学习点云匹配的6dof物体姿态估计方法
CN113344112B (zh) 一种基于聚类算法的动态物体识别方法
WO2022206517A1 (zh) 一种目标检测方法及装置
KR20200054344A (ko) 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법
CN110207702B (zh) 目标定位的方法及装置
CN104050674B (zh) 一种显著性区域检测方法及装置
CN114638891A (zh) 基于图像和点云融合的目标检测定位方法与***
CN112184828B (zh) 激光雷达与摄像头的外参标定方法、装置及自动驾驶车辆
Han et al. Target positioning method in binocular vision manipulator control based on improved canny operator
CN113724329A (zh) 融合平面与立体信息的目标姿态估计方法、***和介质
US11348261B2 (en) Method for processing three-dimensional point cloud data
CN114882085B (zh) 一种基于单一立方体三维点云配准方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Chen Qijun

Inventor after: Zhou Guangliang

Inventor after: Wang Deming

Inventor after: Yan Yi

Inventor after: Liu Chengju

Inventor before: Chen Qijun

Inventor before: Zhou Guangliang

Inventor before: Wang Deming

Inventor before: Wang Yan

Inventor before: Yan Yi

Inventor before: Liu Chengju

CB03 Change of inventor or designer information
GR01 Patent grant
GR01 Patent grant