CN111402256B - 一种基于模板的三维点云目标检测和姿态估计方法 - Google Patents

一种基于模板的三维点云目标检测和姿态估计方法 Download PDF

Info

Publication number
CN111402256B
CN111402256B CN202010287173.1A CN202010287173A CN111402256B CN 111402256 B CN111402256 B CN 111402256B CN 202010287173 A CN202010287173 A CN 202010287173A CN 111402256 B CN111402256 B CN 111402256B
Authority
CN
China
Prior art keywords
point cloud
dimensional point
template
target detection
rotation angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010287173.1A
Other languages
English (en)
Other versions
CN111402256A (zh
Inventor
王磊
吴伟龙
周建品
李争
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shiyan Intelligent Technology Guangzhou Co ltd
Original Assignee
Shiyan Intelligent Technology Guangzhou Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shiyan Intelligent Technology Guangzhou Co ltd filed Critical Shiyan Intelligent Technology Guangzhou Co ltd
Priority to CN202010287173.1A priority Critical patent/CN111402256B/zh
Publication of CN111402256A publication Critical patent/CN111402256A/zh
Application granted granted Critical
Publication of CN111402256B publication Critical patent/CN111402256B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于模板的三维点云目标检测和姿态估计方法,所述方法包括以下步骤:S1:构建并训练神经网络模型;S2:将待进行目标检测和姿态估计的三维点云输入经S1训练好的神经网络模型中进行目标检测和姿态估计;S3:输出三维点云目标检测和姿态估计结果。本发明解决了同步目标检测和姿态估计的难题,解决了深度神经网络迁移性较差的问题。训练完成的模型具备极高稳定性和迁移性,可应用于训练样本之外的各种基于模板的目标检测和姿态估计任务。

Description

一种基于模板的三维点云目标检测和姿态估计方法
技术领域
本发明涉及工业零件检测领域,更具体地,涉及一种基于模板的三维点云目标检测和姿态估计方法。
背景技术
在工业零件的无序抓取应用中,基于模板的目标检测和姿态估计技术是其核心技术之一。常见的模板匹配算法包括LINEMOD,PPF(Point-Pair Feature)等均可以分成2D或者3D的特征提取和特征匹配两个步骤。常用的点云特征包括PPF,图像的梯度特征等。由于所用的特征均为初级视觉特征,提取的特征容易受到光照条件,阴影,点云缺失和遮挡等各种因素的干扰,从而导致大量的特征匹配粗差。所以现有的主流算法通过建立启发式规则剔除大量的匹配粗差,获得最终的匹配结果。启发式规则的使用也导致现有的算法对各种不同数据分布和场景的普适性较差,算法参数多,调试复杂。
针对以上问题,一种常见的解决思路为将目标检测和姿态估计分为两个步,即采用深度神经网络在图像或者点云上直接预测目标的外接矩形框或者包围盒,然后再采用ICP等方式在目标的矩形框或包围盒之内进行模板匹配。直接预测目标的外接矩形或者包围盒是一种常见的目标检测方法,但是所得的神经网络模型经过学习目标的形状或者图像特征,仅可用于训练过的目标的检测。其模型的迁移性较差,即对每种零件需要重新训练模型,从而导致难以大规模部署。另外,基于ICP的点云配准算法需要较好的初值才能得到较好的效果。传统基于神经网络的目标检测算法无法生成较好的姿态初值,使得ICP匹配的难度增加,降低整体***精度。
发明内容
本发明为克服上述现有技术所述的三维点云目标检测和姿态估计不同步的缺陷,提供一种基于模板的三维点云目标检测和姿态估计方法。
所述方法包括以下步骤:
S1:构建并训练神经网络模型;
S2:将待进行目标检测和姿态估计的三维点云输入经S1训练好的神经网络模型中进行目标检测和姿态估计;
S3:输出三维点云目标检测和姿态估计结果。
优选地,S1中神经网络模型的训练包括以下步骤:
S1.1:在三维点云数据上标注目标物体的三维坐标和姿态作为训练样本;
S1.2:对三维点云进行深度图计算;
S1.3:计算三维点云深度图的图像特征;
S1.4:根据图像特征获取输入深度图对应旋转区间的概率,以及结束符。
S1.5:对三维点云模板进行采样,得到1个可能的子区间,然后将此可能的子区间沿x,y,z三个方向的旋转角重新等分为N3个旋转角子区间;
其中x,y,z为空间直角坐标系中的三个轴;
S1.6:对S1.5中的N3个旋转角子区间进行深度图计算,分别获得N3个旋转角子区间对应的三维点云深度图;并输入到GRU(Gated Recurrent Unit)中,得到三维点云深度图属于其对应旋转区间的概率;
S1.7:重复S1.5-S1.6直至达到重复次数,或者输出结束符采样为1;并使用集束搜索获得最优的三个方向的旋转角区间。
S1.8:训练时,分为两步,第一步使用真值旋转角区间作为每一步GRU网络的输入,收敛以后使用上一步GRU的输出作为下一步GRU的输入,再训练直至收敛。
优选地,S1中构建的神经网络模型为一个两层GRU组成的RNN(Recurrent NeuralNetwork)网络。
优选地,S1.2具体为:
以与点云的高度方向垂直的面作为投影面,将扫描目标得到的点云垂直向此投影面投影,并格网化,得到深度图。
以与点云的高度方向垂直的面作为投影面,将三维点云模板旋转到不同的姿态并像此投影面投影,得到一组不同姿态下的点云模板的深度图。
优选地,S1.3点云深度图的图像特征使用ResNet50进行计算。
优选地,S1.4具体为:
将S1.3得到的图像特征作为隐特征输入一个两层GRU组成的RNN网络;将沿x,y,z三个方向的旋转角分别等分为N份,则整个旋转空间被分N3个旋转角子区间,取每个旋转角子区间三个旋转方向的中点计算模板深度图,得到N3个模板在对应旋转角子区间姿态下的深度图;
将模板在对应旋转角子区间姿态下的所有深度图输入到GRU中,输出N3+1个值表示输入深度图属于对应旋转区间的概率,以及结束的概率(结束符)。
优选地,S1.6中对N3个旋转角子区间进行深度图计算,计算过程为:
以与旋转角子区间点云的高度方向垂直的面作为投影面,将子区间三维点云模板旋转到不同的姿态并像此投影面投影,得到一组不同姿态下的子区间三维点云模板的深度图。
本发明可同时完成目标检测和模板匹配。与传统的预测外接矩形和包围盒的目标检测算法不同,本发明将目标检测和姿态估计合并转换为初始姿态分类问题,可降低模型的训练难度。同时,由于所述模型训练的目标为对比两种输入点云,是一种不需要学习目标相关特征的训练目标,从而相比传统的目标检测算法具备更强的迁移性。
一般的模板学习算法往往无法更换模板,或者无法处理大量模板所带来的计算量剧增的问题。本发明通过迭代生成模板姿态字典的方式,在保证模板量较少的同时,由粗到精不断缩小姿态的旋转角区间,同时使得更换模板成为可能。从而此基于模板的匹配技术具备了很好的实用性。
与现有技术相比,本发明技术方案的有益效果是:
本发明解决了同步目标检测和姿态估计的难题,解决了深度神经网络迁移性较差的问题。训练完成的模型具备极高稳定性和迁移性,可应用于训练样本之外的各种基于模板的目标检测和姿态估计任务。
附图说明
图1为实施例1所述基于模板的三维点云目标检测和姿态估计方法流程图。
图2为实施例1所述模型训练流程图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
本实施例提供一种基于模板的三维点云目标检测和姿态估计方法,如图1所示,所述方法包括以下步骤:
S1:构建并训练神经网络模型;如图2所示,所述神经网络模型的训练包括以下步骤:
S1.1:在三维点云数据上标注目标物体的三维坐标和姿态作为训练样本。
S1.2:以与点云的高度方向垂直的面作为投影面,将扫描目标得到的点云垂直向此投影面投影,并格网化,得到深度图。
S1.3:以与点云的高度方向垂直的面作为投影面,将三维点云模板旋转到不同的姿态并向此投影面投影,得到一组不同姿态下的点云模板的深度图。
S1.4:使用ResNet50计算扫描点云深度图的图像特征。
S1.5:将S1.4得到的图像特征作为隐特征输入一个两层GRU组成的RNN网络。
将沿x,y,z三个方向的旋转角分别等分为N份,则整个旋转空间被分N3个旋转角子区间,取每个旋转角子区间三个旋转方向的中点计算模板深度图,得到N3个模板在对应旋转角子区间姿态下的深度图。
将模板在对应旋转角子区间姿态下的所有深度图输入到GRU中,输出N3+1个值表示输入深度图属于对应旋转区间的概率,以及结束的概率(结束符)。
S1.6:根据S1.5中得到的旋转区间的概率进行采样,得到1个可能的子区间,然后将此三旋转角的子区间重新等分为N3个旋转角子区间。按照S1.3获得此N3个旋转角子区间对应的三维点云深度图,并输入到GRU中,得到三维点云深度图属于其对应旋转区间的概率。
S1.7:重复S1.6直至达到重复次数,或者输出结束符采样为1。使用集束搜索获得最优的三个方向的旋转角区间。
S1.8:训练时,先使用真值对应的旋转角区间替代GRU网络的输出作为下一步的输入,待稳定后使用GRU网络的输出作为其下一步的输入再训练直至收敛。
S2:将待进行目标检测和姿态估计的三维点云输入经S1训练好的神经网络模型中进行目标检测和姿态估计;
S3:输出三维点云目标检测和姿态估计结果。
附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (6)

1.一种基于模板的三维点云目标检测和姿态估计方法,其特征在于,所述方法包括以下步骤:
S1:构建并训练神经网络模型;
S2:将待进行目标检测和姿态估计的三维点云输入经S1训练好的神经网络模型中进行目标检测和姿态估计;
S3:输出三维点云目标检测和姿态估计结果;
S1中神经网络模型的训练包括以下步骤:
S1.1:在三维点云数据上标注目标物体的三维坐标和姿态作为训练样本;
S1.2:对三维点云进行深度图计算;
S1.3:计算三维点云深度图的图像特征;
S1.4:根据图像特征获取输入深度图对应旋转区间的概率,以及结束符;
S1.5:对三维点云模板进行采样,得到1个可能的子区间,然后将此可能的子区间沿x,y,z三个方向的旋转角重新等分为N3个旋转角子区间;
S1.6:对S1.5中的N3个旋转角子区间进行深度图计算,分别获得N3个旋转角子区间对应的三维点云深度图;并输入到GRU中,得到三维点云深度图属于其对应旋转区间的概率;
S1.7:重复S1.5-S1.6直至达到重复次数,或者输出结束符采样为1;并使用集束搜索获得最优的三个方向的旋转角区间;
S1.8:训练时,先使用真值对应的旋转角区间替代GRU网络的输出作为下一步的输入,待稳定后使用GRU网络的输出作为其下一步的输入再训练直至收敛。
2.根据权利要求1所述的基于模板的三维点云目标检测和姿态估计方法,其特征在于,S1中构建的神经网络模型为一个两层GRU组成的RNN网络。
3.根据权利要求2所述的基于模板的三维点云目标检测和姿态估计方法,其特征在于,S1.2具体为:
以与点云的高度方向垂直的面作为投影面,将扫描目标得到的点云垂直向此投影面投影,并格网化,得到深度图;
以与点云的高度方向垂直的面作为投影面,将三维点云模板旋转到不同的姿态并像此投影面投影,得到一组不同姿态下的点云模板的深度图。
4.根据权利要求3所述的基于模板的三维点云目标检测和姿态估计方法,其特征在于,S1.3点云深度图的图像特征使用ResNet50进行计算。
5.根据权利要求4所述的基于模板的三维点云目标检测和姿态估计方法,其特征在于,S1.4具体为:
将S1.3得到的图像特征作为隐特征输入一个两层GRU组成的RNN网络;将沿x,y,z三个方向的旋转角分别等分为N份,则整个旋转空间被分N3个旋转角子区间,取每个旋转角子区间三个旋转方向的中点计算模板深度图,得到N3个模板在对应旋转角子区间姿态下的深度图;
将模板在对应旋转角子区间姿态下的所有深度图输入到GRU中,输出N3+1个值表示输入深度图属于对应旋转区间的概率,以及结束符。
6.根据权利要求4或5所述的基于模板的三维点云目标检测和姿态估计方法,其特征在于,S1.6中对N3个旋转角子区间进行深度图计算,计算过程为:
以与旋转角子区间点云的高度方向垂直的面作为投影面,将子区间三维点云模板旋转到不同的姿态并像此投影面投影,得到一组不同姿态下的子区间三维点云模板的深度图。
CN202010287173.1A 2020-04-13 2020-04-13 一种基于模板的三维点云目标检测和姿态估计方法 Active CN111402256B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010287173.1A CN111402256B (zh) 2020-04-13 2020-04-13 一种基于模板的三维点云目标检测和姿态估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010287173.1A CN111402256B (zh) 2020-04-13 2020-04-13 一种基于模板的三维点云目标检测和姿态估计方法

Publications (2)

Publication Number Publication Date
CN111402256A CN111402256A (zh) 2020-07-10
CN111402256B true CN111402256B (zh) 2020-10-16

Family

ID=71431530

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010287173.1A Active CN111402256B (zh) 2020-04-13 2020-04-13 一种基于模板的三维点云目标检测和姿态估计方法

Country Status (1)

Country Link
CN (1) CN111402256B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112116638A (zh) * 2020-09-04 2020-12-22 季华实验室 一种三维点云匹配方法、装置、电子设备和存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018190805A1 (en) * 2017-04-11 2018-10-18 Siemens Aktiengesellschaft Depth image pose search with a bootstrapped-created database
CN109145864A (zh) * 2018-09-07 2019-01-04 百度在线网络技术(北京)有限公司 确定视线区域的方法、装置、存储介质和终端设备
CN109255813A (zh) * 2018-09-06 2019-01-22 大连理工大学 一种面向人机协作的手持物***姿实时检测方法
CN109753885A (zh) * 2018-12-14 2019-05-14 中国科学院深圳先进技术研究院 一种目标检测方法、装置以及行人检测方法、***
CN110428464A (zh) * 2019-06-24 2019-11-08 浙江大学 基于深度学习的多类别乱序工件机器人抓取位姿估计方法
CN110930452A (zh) * 2019-10-23 2020-03-27 同济大学 一种基于自监督学习与模板匹配的物***姿估计方法
CN110942512A (zh) * 2019-11-27 2020-03-31 大连理工大学 基于元学习的室内场景重建方法
CN110969660A (zh) * 2019-12-17 2020-04-07 浙江大学 一种基于三维立体视觉和点云深度学习的机器人上料***

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11017550B2 (en) * 2017-11-15 2021-05-25 Uatc, Llc End-to-end tracking of objects
CN110942515A (zh) * 2019-11-26 2020-03-31 北京迈格威科技有限公司 基于点云的目标物体三维计算机建模方法和目标识别方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018190805A1 (en) * 2017-04-11 2018-10-18 Siemens Aktiengesellschaft Depth image pose search with a bootstrapped-created database
CN109255813A (zh) * 2018-09-06 2019-01-22 大连理工大学 一种面向人机协作的手持物***姿实时检测方法
CN109145864A (zh) * 2018-09-07 2019-01-04 百度在线网络技术(北京)有限公司 确定视线区域的方法、装置、存储介质和终端设备
CN109753885A (zh) * 2018-12-14 2019-05-14 中国科学院深圳先进技术研究院 一种目标检测方法、装置以及行人检测方法、***
CN110428464A (zh) * 2019-06-24 2019-11-08 浙江大学 基于深度学习的多类别乱序工件机器人抓取位姿估计方法
CN110930452A (zh) * 2019-10-23 2020-03-27 同济大学 一种基于自监督学习与模板匹配的物***姿估计方法
CN110942512A (zh) * 2019-11-27 2020-03-31 大连理工大学 基于元学习的室内场景重建方法
CN110969660A (zh) * 2019-12-17 2020-04-07 浙江大学 一种基于三维立体视觉和点云深度学习的机器人上料***

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
"Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation";Kyunghyun Cho,at el.;《arXiv》;20140903;第1-15页 *
"LiDAR-based Online 3D Video Object Detection with Graph-based Message Passing and Spatiotemporal Transformer Attention";Junbo Yin,at el.;《arXiv》;20200403;第1-10页 *
"Point Cloud Generation From Multiple Angles of Voxel Grids";Shumin Kong,at el.;《IEEE》;20191104;第436-488页 *
"基于机器学习的智能机器人环境视觉感知方法研究";陈旭展;《中国博士学位论文全文数据库 信息科技辑》;20200315(第3期);I140-25 *
"面向物流分拣任务的自主抓取机器人***";马灼明等;《机械设计与研究》;20191231;第35卷(第6期);第10-16页 *

Also Published As

Publication number Publication date
CN111402256A (zh) 2020-07-10

Similar Documents

Publication Publication Date Title
CN108399649B (zh) 一种基于级联回归网络的单张图片三维人脸重建方法
CN106023298B (zh) 基于局部泊松曲面重建的点云刚性配准方法
Xu et al. Reconstruction of scaffolds from a photogrammetric point cloud of construction sites using a novel 3D local feature descriptor
Becker Generation and application of rules for quality dependent façade reconstruction
JP5061350B2 (ja) モーションキャプチャシステム、及びモーションキャプチャシステムにおける特徴点の三次元再構成法
CN113379898B (zh) 一种基于语义分割的三维室内场景重建方法
CN113012122B (zh) 一种类别级6d位姿与尺寸估计方法及装置
CN105427293A (zh) 室内场景扫描重建的方法及装置
CN113139453A (zh) 一种基于深度学习的正射影像高层建筑基底矢量提取方法
CN108154104A (zh) 一种基于深度图像超像素联合特征的人体姿态估计方法
Galvanin et al. Extraction of building roof contours from LiDAR data using a Markov-random-field-based approach
CN111681300B (zh) 轮廓素描线组成的目标区域获取方法
Poullis Large-scale urban reconstruction with tensor clustering and global boundary refinement
CN108961385A (zh) 一种slam构图方法及装置
CN107123138B (zh) 基于vanilla-R点对剔除策略的点云配准方法
CN111402256B (zh) 一种基于模板的三维点云目标检测和姿态估计方法
CN104978583B (zh) 人物动作的识别方法及装置
CN112084984A (zh) 一种基于改进的Mask RCNN的扶梯动作检测方法
CN113920254B (zh) 一种基于单目rgb的室内三维重建方法及其***
Schnabel et al. Shape detection in point clouds
CN110895684B (zh) 一种基于Kinect的手势动作识别方法
CN114266879A (zh) 三维数据增强、模型训练检测方法、设备及自动驾驶车辆
Denker et al. On-line reconstruction of CAD geometry
Ripperda et al. Evaluation of structure recognition using labelled facade images
Hongyan et al. Volume calculation for power equipment point cloud based on concave hull slice method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant