CN111179321A - 一种基于模板匹配的点云配准方法 - Google Patents

一种基于模板匹配的点云配准方法 Download PDF

Info

Publication number
CN111179321A
CN111179321A CN201911397487.0A CN201911397487A CN111179321A CN 111179321 A CN111179321 A CN 111179321A CN 201911397487 A CN201911397487 A CN 201911397487A CN 111179321 A CN111179321 A CN 111179321A
Authority
CN
China
Prior art keywords
point cloud
template
registration
scene
template matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911397487.0A
Other languages
English (en)
Other versions
CN111179321B (zh
Inventor
张腾飞
严律
王明松
王杰高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Estun Robotics Co Ltd
Original Assignee
Nanjing Estun Robotics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Estun Robotics Co Ltd filed Critical Nanjing Estun Robotics Co Ltd
Priority to CN201911397487.0A priority Critical patent/CN111179321B/zh
Publication of CN111179321A publication Critical patent/CN111179321A/zh
Application granted granted Critical
Publication of CN111179321B publication Critical patent/CN111179321B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于模板匹配的点云配准方法,通过二维模板匹配的方法,计算点云模板与目标点云的转换关系,根据转换关系变换模板点云数据,将其转换的结果作为粗配准的结果和精配准的初值,再进行ICP或者NDT精配准,最终实现源点云和目标点云的配准。本发明方法缩短了点云整体的处理时间,提高了生产的效率,实现了点云的快速和高精度的配准。使用模板匹配转换模板点云提供精配准初值的方法,解决了传统的粗配准通用性较差、处理耗时较久的问题。

Description

一种基于模板匹配的点云配准方法
技术领域
本发明涉及一种高精度的刚性点云配准方法,具体说是一种基于模板匹配的点云配准方法。
背景技术
随着计算机视觉技术和传感器技术的不断突破,通过激光扫描生成物体点云的方法迅速发展完善。目前,点云的获取可通过深度相机、双目相机和3D激光扫描相机等设备获取。基于物体点云处理技术已经广泛用于人机交互、虚拟现实、逆向工程和机器视觉等领域。
在机器视觉领域,点云配准处理技术是估计场景中物体的相对位姿的重要方法。点云配准估计物***姿即是确定场景中的源点云到目标点云的转换关系即(R、T矩阵),将模板点云作为源点云和场景中的物体点云作为目标点云进行配准,即可得出物体点云相对于模板点云的转换位姿关系,实现了工业场景下的物体的位姿估计的功能。点云配准常用的方法是先粗配准再精配准。粗配准常用的方法有基于霍夫算法和基于采样一致性初始配准算法等。粗配准首先提取点云数据的局部几何信息(例如曲率、法向量、邻近点密度等)作为描述特征,通过这些特征来寻找源点云集与目标点集之间的对应关系,利用迭代算法进行计算得出转换关系。精配准常用的方法有迭代最近点算法(ICP)和正态分布变换算法(NDT)等。精配准是一种基于轮廓特征的点集对点集的配准方法。待配准的源点云和目标点云先进行SAC-IA粗配准,使得匹配点之间的距离在一定的阀值内,作为匹配点对。然后再根据距离最近原则匹配的初始点对应关系,计算源点云到目标点云的每个点的距离。采用方向向量阈值剔除错误的对应点对,确定目标函数,计算变换矩阵直至满足收敛条件为止。粗配准为精配准提供了配准的初值,其配准的效果直接影响精配准算法的执行效率和精度。
现有的针对点云粗配准的方法,存在以下问题:一、点云数据量较大时,粗配准较耗时。二、针对部分物体点云,特征较难选取,单一的特征信息无法较好的描述整体点云信息。三、粗配准受现场采集点云效果的影响较大,配准结果不稳定,鲁棒性较差。
发明内容
本发明的目的在于,克服现有技术存在的缺陷,提出了一种基于模板匹配的点云配准方法,可以实现场景下的点云数据高精度高效率的配准。
本发明方法的基本技术思路:不使用传统的粗配准方法,通过模板匹配,计算点云模板与目标点云的转换关系,再根据转换关系变换点云数据的方法取代点云粗配准,将其转换的结果作为精配准的初值,再进行ICP或者NDT精配准,最终实现源点云和目标点云的配准。
本发明一种基于模板匹配的点云配准方法,其步骤如下:
步骤1.使用双目相机或者3D激光扫描相机,在相机视野下放置单个工件进行扫描,获取工件模板点云,在相机视野下放置多个工件获取场景物体点云数据。
步骤2.制作工件点云模板匹配图片,将步骤1采集的工件模板点云映射到二维空间深度图中,设置模板相关参数,保存二维模板点云深度映射图。
步骤3.先裁剪现场采集的点云,保留工件所在平面的点云,再进行栅格化处理,减少点云的数据量,再进行滤波操作,去除噪声点,再利用欧几里得分割法去除平面,最后通过区域生长法分割出最终的工件点云。最终的工件点云即为待配准的目标点云。
步骤4.对步骤3预处理完成的点云数据映射深度图。
步骤5.模板匹配,针对步骤2保存的模板的点云深度映射图进行边缘特征识别,再对步骤4映射的点云数深度图进行边缘特征识别,通过模板匹配的方法,计算相应的中心点和旋转角度信息。。
步骤6.根据步骤5模板匹配结果,将中心点和旋转角度变换成矩阵形式,平移和旋转模板点云。
步骤7.将步骤6的模板点云变换到步骤3最终的工件点云上,实现中心点重合和旋转角度相等。
步骤8.使用ICP或者NDT精配准的方法配准模板点云和场景点云,实现源点云和目标点云的配准。
所述使用ICP或者NDT精配准的方法:计算点云的配准的公式(1),将模板点云转换到世界坐标系下公式(2),根据二维模板匹配信息,将模板点云P旋转平移到与场景点云Q平行的面公式(3),将上两步处理完成的模板点云P,变换到实际的场景点云Q上,记为P’(x1’…n’,y1’…n’,z1’…n’),点云数据记为点云精配准的初值公式(4),将处理完成的点云粗配准点云P’,使用ICP或者NDT配准方法,进行精配准到场景点云Q公式(5),总结公式(1)(2)(3)(4)(5),得出点云配准算法计算公式:
Q(x1…n,y1…n,z1…n)=T(R,T)×P(x1…n,y1…n,z1…n) (1)
Pm-w(x1…n,y1…n,z1…n)=Tm-w(Rm-w,Tm-w)×P(x1…n,y1…n,z1…n) (2)
Pm-w-s(x1…n,y1…n,z1…n)=Tw:m-s(Rm-s,Tm-s)×Pm-w(x1…n,y1…n,z1…n) (3)
Pm-w-s-s1’…sn’(x1’…n’,y1’…n’,z1’…n’)=Tm-w-s-s1’…sn’(Rw-s,Tw-s)×Pm-w-s(x1…n,y1…n,z1…n) (4)
Pm-w-s-s1’-sn(x1’…n’,y1’…n’,z1’…n’)=Ts1’-sn(Rs-s’,Ts-s’)×Pm-w-s-s1’…sn’(x1’…n’,y1’…n’,z1’…n’) (5)
Q(x1…n,y1…n,z1…n)=T(R,T)×P(x1…n,y1…n,z1…n)
Q(x1…n,y1…n,z1…n)=Ts1’-sn(Rs-s’,Ts-s’)×Tm-w-s-s1’…sn’(Rw-s,Tw-s)×Tw:m-s(Rm-s,Tm-s)×Tm-w(Rm-w,Tm-w)×P(x1…n,y1…n,z1…n)
上述公式中,Ow Xw Yw Zw为场景的世界坐标系,Om Xm Ym Zm为模板点云坐标系,Os1’Xs1’Ys1’Zs1’为物体分割块1点云粗配准坐标系,Osn’Xsn’Ysn’Zsn’为物体分割块n点云粗配准坐标系,Os1 Xs1 Ys1 Zs1为物体分割块1点云坐标系,Osn Xsn Ysn Zsn为物体分割块n点云坐标系。Rm-w、Tm-w是模板点云转换到世界坐标系的转换关系矩阵,Rm-s、Tm-s是二维模板点云转换到场景点云的转换关系矩阵,Rw-s’、Tw-s’是世界坐标系下模板点云转换到场景点云的转换关系矩阵;Rs’-s、Ts’-s是点云粗配准到精配准的转换关系;模板点云记为P(x1…n,y1…n,z1…n),场景点云记为Q(x1…n,y1…n,z1…n)。
本发明方法实现了点云的快速和高精度的配准,缩短了点云整体的处理时间,提高了生产的效率。使用模板匹配转换模板点云提供精配准初值的方法,解决了传统的粗配准的引入的通用性较差、处理耗时较久的问题。本发明方法充分利用了二维模板匹配方法的优点,将二维模板匹配与三维的点云配准相结合,既在精度上满足了要求,也为点云的配准提供一种新的解决方案。
附图说明
图1本发明点云配准方法流程图。
图2本发明点云配准方法制作点云模板流程图。
图3本发明点云配准方法点云预处理流程图。
图4本发明点云配准方法点云模板匹配流程图。
图5本发明点云配准方法点云配准及转换关系示意图。
具体实施方式
下面结合实施例和附图,对本发明方法作进一步详细说明。
如图1所示,是一种基于模板匹配的点云配准方法总体方案流程图。先制作点云模板,制作方法:采集点云数据、进行预处理和保存点云模板数据,再运行主程序配准算法,步骤是:首先进行点云预处理,目的是生成一个噪声较小、特征明显的物体块点云,然后进行二维的模板匹配,模板是第一步制作好的数据,测试图片为每一个分割块的深度图,匹配出待识别的物体,记录相关参数,根据参数变换模板点云,最后将变换后的点云作为初值,使用ICP或者是NDT的方法进行点云的精配准。
如图2所示,是该配准方法的点云模板制作的流程图。模板要求是单个物体且较好地表述出物体特征的点云模板图,点云映射角度要求合理且尽量保持在相机的正下方处。制作模板点云,首先采集单个物体的点云,其次进行预处理,再分割背景,将操作完成的模板点云映射深度图,用正方形区域框选模板点云目的是选取模板的感兴趣区域,然后设置模板匹配的相关参数,主要是精度等级、匹配阈值、最大匹配个数和中心点坐标等参数,生成模板模型。从现场采集点云,映射深度图进行测试,若正确找出物体,则保存点云模板,若未找出物体,修改模板点云或者相关参数,直至匹配到物体。
如图3所示,是该配准方法的点云预处理的流程图。预处理是点云配准算法不可缺少的一步,不但有利于模板点云的制作,而且在配准时减小了点云的计算量,缩短了配准所需时间,提高了效率。首先采集物体现场点云,先进行点云正方形裁剪,使用的方法是利用X、Y、Z轴三个方向上的直通滤波,组成正方体方格进行裁剪。再进行点云栅格化,使用体素栅格化的方法,设置合理的栅格化半径。接着进行点云的滤波,点云滤波主要使用中值滤波和统计学滤波,目的是移除离群点,使点云边缘更加的平滑。最后实现点云的分割,点云分割主要基于随机采样一致性的背景分割和聚类单个物体的分割,背景分割目的是除去物体点云之外的多余点云,聚类分割是分割现场采集到的较完整的物体点云数据。预处理流程结束,将分割出的点云数据映射深度图,继续后续的模板匹配的工作。
如图4所示,是该配准方法的点云模板匹配的流程图。模板匹配是点云配准算法的关键一步,为下一步的点云精配准提供了初值。首先载入模板图片,模板图片是经过测试成功的点云映射的深度图。再载入现场处理图片,现场图片是现场点云经过预处理后生成的一个个物体分割块的深度图。接着读取模板设置的相关参数的配置文件,设置模板匹配的参数,进行模板匹配。最后计算偏移量和转角,主要是计算现场点云和模板点云之间的特征点的转角和偏移的数值。
如图5所示,是该配准方法的点云配准及转换关系示意图。该方法利用二维模板匹配的方法取代点云的粗配准,提供了一个更可靠的点云精配准初值,提高了点云的配准精度。图中,Ow Xw Yw Zw为场景的世界坐标系,Om Xm Ym Zm为模板点云坐标系,Os1’Xs1’Ys1’Zs1’为物体分割块1点云粗配准坐标系,Osn’Xsn’Ysn’Zsn’为物体分割块n点云粗配准坐标系,Os1 Xs1Ys1 Zs1为物体分割块1点云坐标系,Osn Xsn Ysn Zsn为物体分割块n点云坐标系。Rm-w、Tm-w是模板点云转换到世界坐标系的转换关系矩阵,Rm-s、Tm-s是二维模板点云转换到场景点云的转换关系矩阵,Rw-s’、Tw-s’是世界坐标系下模板点云转换到场景点云的转换关系矩阵。Rs’-s、Ts’-s是点云粗配准到精配准的转换关系。模板点云记为P(x1…n,y1…n,z1…n),场景点云记为Q(x1…n,y1…n,z1…n),配准的过程即是求出模板点云P到场景点云Q之间的转换关系,表达式为:
Q(x1…n,y1…n,z1…n)=T(R,T)×P(x1…n,y1…n,z1…n) (1)
转换关系,第一步:将模板点云转换到世界坐标系下,
Pm-w(x1…n,y1…n,z1…n)=Tm-w(Rm-w,Tm-w)×P(x1…n,y1…n,z1…n) (2)
第二步:根据二维模板匹配信息,将模板点云P旋转平移到场景点云Q平行面,
Pm-w-s(x1…n,y1…n,z1…n)=Tw:m-s(Rm-s,Tm-s)×Pm-w(x1…n,y1…n,z1…n) (3)
第三步:将上两步处理完成的模板点云P,变换到实际的场景点云Q上,记为P’(x1’…n’,y1’…n’,z1’…n’),这个点云数据记为点云精配准的初值。
Pm-w-s-s1’…sn’(x1’…n’,y1’…n’,z1’…n’)=Tm-w-s-s1’…sn’(Rw-s,Tw-s)×Pm-w-s(x1…n,y1…n,z1…n) (4)
第四步:将处理完成的点云粗配准点云P’,使用ICP或者NDT配准方法,进行精配准到场景点云Q,
Pm-w-s-s1’-sn(x1’…n’,y1’…n’,z1’…n’)=Ts1’-sn(Rs-s’,Ts-s’)×Pm-w-s-s1’…sn’(x1’…n’,y1’…n’,z1’…n’) (5)
总结公式(1)(2)(3)(4)(5),得出点云配准算法计算公式:
Q(x1…n,y1…n,z1…n)=T(R,T)×P(x1…n,y1…n,z1…n)
Q(x1…n,y1…n,z1…n)=Ts1’-sn(Rs-s’,Ts-s’)×Tm-w-s-s1’…sn’(Rw-s,Tw-s)×Tw:m-s(Rm-s,Tm-s)×Tm-w(Rm-w,Tm-w)×P(x1…n,y1…n,z1…n)。

Claims (2)

1.一种基于模板匹配的点云配准方法,其步骤如下:
步骤1.采集点云数据,在相机视野下采集工件模板点云数据和场景物体点云数据;
步骤2.制作点云模板匹配图片,是将待配准的工件模板点云通过映射深度图的方法生成模板匹配算法的图片;
步骤3.对现场采集的物体点云进行裁剪、栅格化、滤波、分割背景和分割单个目标物体操作;
步骤4.将分割完成的每一个物体点云块映射点云深度图;
步骤5.进行模板匹配,模板为步骤2生成的模板图片,现场物体测试图片为步骤4映射的每一个点云块的深度图,通过特征识别实现模板匹配,并保留相应匹配信息;
步骤6.根据模板匹配的结果,计算出中心点和旋转角度对应的旋转和平移矩阵,并将模板点云数据转换成与场景点云共面的模板点云;
步骤7.通过步骤1-6,完成了基于二维模板匹配的点云变换,将变换结果平移和旋转到场景点云上,实现点云的粗配准,即中心点和旋转角度对齐;
步骤8.将步骤7得出的点云变换结果作为点云精配准的初值,进行ICP或者NDT精配准,最终实现模板点云和场景点云的配准。
2.根据权利要求1所述的基于模板匹配的点云配准方法,其特征是:步骤8所述ICP或者NDT精配准的方法是:
步骤8.1计算点云的配准
Q(x1…n,y1…n,z1…n)=T(R,T)×P(x1…n,y1…n,z1…n);
步骤8.2根据下式将模板点云转换到世界坐标系下
Pm-w(x1…n,y1…n,z1…n)=Tm-w(Rm-w,Tm-w)×P(x1…n,y1…n,z1…n);
步骤8.3根据二维模板匹配信息,将模板点云P旋转平移到与场景点云Q平行的面
Pm-w-s(x1…n,y1…n,z1…n)=Tw:m-s(Rm-s,Tm-s)×Pm-w(x1…n,y1…n,z1…n);
步骤8.4将步骤8.2和步骤8.3处理完成的模板点云P,变换到实际的场景点云Q上,记为P’(x1’…n’,y1’…n’,z1’…n’),点云数据记为点云精配准的初值
Pm-w-s-s1’…sn’(x1’…n’,y1’…n’,z1’…n’)=Tm-w-s-s1’…sn’(Rw-s,Tw-s)×Pm-w-s(x1…n,y1…n,z1…n);
步骤8.5将处理完成的点云粗配准点云P’,使用ICP或者NDT配准方法,进行精配准到场景点云Q
Pm-w-s-s1’-sn(x1’…n’,y1’…n’,z1’…n’)=Ts1’-sn(Rs-s’,Ts-s’)×Pm-w-s-s1’…sn’(x1’…n’,y1’…n’,z1’…n’);
步骤8.6点云配准:
Q(x1…n,y1…n,z1…n)=Ts1’-sn(Rs-s’,Ts-s’)×Tm-w-s-s1’…sn’(Rw-s,Tw-s)×Tw:m-s(Rm-s,Tm-s)×Tm-w(Rm-w,Tm-w)×P(x1…n,y1…n,z1…n)
上述公式中,OwXwYwZw为场景的世界坐标系,OmXmYmZm为模板点云坐标系,Os1’Xs1’Ys1’Zs1’为物体分割块1点云粗配准坐标系,Osn’Xsn’Ysn’Zsn’为物体分割块n点云粗配准坐标系,Os1Xs1Ys1Zs1为物体分割块1点云坐标系,OsnXsnYsnZsn为物体分割块n点云坐标系;Rm-w、Tm-w是模板点云转换到世界坐标系的转换关系矩阵,Rm-s、Tm-s是二维模板点云转换到场景点云的转换关系矩阵,Rw-s’、Tw-s’是世界坐标系下模板点云转换到场景点云的转换关系矩阵;Rs’-s、Ts’-s是点云粗配准到精配准的转换关系;模板点云记为P(x1…n,y1…n,z1…n),场景点云记为Q(x1…n,y1…n,z1…n)。
CN201911397487.0A 2019-12-30 2019-12-30 一种基于模板匹配的点云配准方法 Active CN111179321B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911397487.0A CN111179321B (zh) 2019-12-30 2019-12-30 一种基于模板匹配的点云配准方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911397487.0A CN111179321B (zh) 2019-12-30 2019-12-30 一种基于模板匹配的点云配准方法

Publications (2)

Publication Number Publication Date
CN111179321A true CN111179321A (zh) 2020-05-19
CN111179321B CN111179321B (zh) 2023-11-14

Family

ID=70650513

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911397487.0A Active CN111179321B (zh) 2019-12-30 2019-12-30 一种基于模板匹配的点云配准方法

Country Status (1)

Country Link
CN (1) CN111179321B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111791239A (zh) * 2020-08-19 2020-10-20 苏州国岭技研智能科技有限公司 一种结合三维视觉识别可实现精确抓取的方法
CN112446907A (zh) * 2020-11-19 2021-03-05 武汉中海庭数据技术有限公司 一种单线点云与多线点云配准的方法及装置
CN112465908A (zh) * 2020-11-30 2021-03-09 深圳市优必选科技股份有限公司 一种物体定位方法、装置、终端设备及存储介质
CN114049355A (zh) * 2022-01-14 2022-02-15 杭州灵西机器人智能科技有限公司 一种散乱工件的识别标注方法、***和装置
CN114897974A (zh) * 2022-07-15 2022-08-12 江西省智能产业技术创新研究院 一种目标物空间定位方法、***、存储介质及计算机设备
CN115588051A (zh) * 2022-09-29 2023-01-10 中国矿业大学(北京) 矿石加工环节的激光雷达和相机空间位置自动标定方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012203894A (ja) * 2011-03-28 2012-10-22 Kumamoto Univ 3dパターンマッチング方法
CN108830902A (zh) * 2018-04-19 2018-11-16 江南大学 一种基于点云处理的散乱工件识别与定位方法
CN110246127A (zh) * 2019-06-17 2019-09-17 南京工程学院 基于深度相机的工件识别与定位方法和***、分拣***

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012203894A (ja) * 2011-03-28 2012-10-22 Kumamoto Univ 3dパターンマッチング方法
CN108830902A (zh) * 2018-04-19 2018-11-16 江南大学 一种基于点云处理的散乱工件识别与定位方法
CN110246127A (zh) * 2019-06-17 2019-09-17 南京工程学院 基于深度相机的工件识别与定位方法和***、分拣***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张桂杨;苑壮;陶刚;: "基于NDT和ICP融合的点云配准方法" *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111791239A (zh) * 2020-08-19 2020-10-20 苏州国岭技研智能科技有限公司 一种结合三维视觉识别可实现精确抓取的方法
CN112446907A (zh) * 2020-11-19 2021-03-05 武汉中海庭数据技术有限公司 一种单线点云与多线点云配准的方法及装置
CN112465908A (zh) * 2020-11-30 2021-03-09 深圳市优必选科技股份有限公司 一种物体定位方法、装置、终端设备及存储介质
CN112465908B (zh) * 2020-11-30 2023-09-22 深圳市优必选科技股份有限公司 一种物体定位方法、装置、终端设备及存储介质
CN114049355A (zh) * 2022-01-14 2022-02-15 杭州灵西机器人智能科技有限公司 一种散乱工件的识别标注方法、***和装置
CN114049355B (zh) * 2022-01-14 2022-04-19 杭州灵西机器人智能科技有限公司 一种散乱工件的识别标注方法、***和装置
CN114897974A (zh) * 2022-07-15 2022-08-12 江西省智能产业技术创新研究院 一种目标物空间定位方法、***、存储介质及计算机设备
CN114897974B (zh) * 2022-07-15 2022-09-27 江西省智能产业技术创新研究院 一种目标物空间定位方法、***、存储介质及计算机设备
CN115588051A (zh) * 2022-09-29 2023-01-10 中国矿业大学(北京) 矿石加工环节的激光雷达和相机空间位置自动标定方法

Also Published As

Publication number Publication date
CN111179321B (zh) 2023-11-14

Similar Documents

Publication Publication Date Title
CN111179321B (zh) 一种基于模板匹配的点云配准方法
CN109272523B (zh) 基于改进cvfh和crh特征的随机堆放活塞位姿估计方法
CN106709947B (zh) 一种基于rgbd相机的三维人体快速建模***
CN107123164B (zh) 保持锐利特征的三维重建方法及***
CN111222516B (zh) 印制电路板点云关键轮廓特征提取方法
CN112348864B (zh) 一种融合线激光轮廓特征的三维点云自动配准方法
CN110335234B (zh) 一种基于古文物LiDAR点云的三维变化检测方法
CN113178009B (zh) 一种利用点云分割和网格修补的室内三维重建方法
CN109493372B (zh) 大数据量、少特征的产品点云数据快速全局优化配准方法
CN108830888B (zh) 基于改进的多尺度协方差矩阵特征描述子的粗匹配方法
CN107862735B (zh) 一种基于结构信息的rgbd三维场景重建方法
JP2014081347A (ja) 3dシーンにおける3d物体の認識および姿勢決定のための方法
CN102411779B (zh) 基于图像的物体模型匹配姿态测量方法
CN112164145B (zh) 基于点云数据快速提取室内三维线段结构的方法
CN115290097B (zh) 基于bim的实时精确地图构建方法、终端及存储介质
CN113628263A (zh) 一种基于局部曲率及其近邻特征的点云配准方法
CN114202566A (zh) 基于形状粗配准和icp点云精配准的胶路引导定位方法
CN114463396B (zh) 一种利用平面形状和拓扑图投票的点云配准方法
CN113728360A (zh) 用于3d场景中对象的姿态、尺寸和形状测量的方法和装置
Tong et al. 3D point cloud initial registration using surface curvature and SURF matching
CN107784656B (zh) 一种基于几何要素的零件点云分割方法
CN117237428A (zh) 一种面向三维点云的数据配准方法、装置及介质
Shen et al. A 3D modeling method of indoor objects using Kinect sensor
CN109670557B (zh) 一种基于杆状构筑物的公路点云自动配准方法
Labatut et al. Hierarchical shape-based surface reconstruction for dense multi-view stereo

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant