CN111402256B - 一种基于模板的三维点云目标检测和姿态估计方法 - Google Patents
一种基于模板的三维点云目标检测和姿态估计方法 Download PDFInfo
- Publication number
- CN111402256B CN111402256B CN202010287173.1A CN202010287173A CN111402256B CN 111402256 B CN111402256 B CN 111402256B CN 202010287173 A CN202010287173 A CN 202010287173A CN 111402256 B CN111402256 B CN 111402256B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- dimensional point
- template
- target detection
- rotation angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于模板的三维点云目标检测和姿态估计方法,所述方法包括以下步骤:S1:构建并训练神经网络模型;S2:将待进行目标检测和姿态估计的三维点云输入经S1训练好的神经网络模型中进行目标检测和姿态估计;S3:输出三维点云目标检测和姿态估计结果。本发明解决了同步目标检测和姿态估计的难题,解决了深度神经网络迁移性较差的问题。训练完成的模型具备极高稳定性和迁移性,可应用于训练样本之外的各种基于模板的目标检测和姿态估计任务。
Description
技术领域
本发明涉及工业零件检测领域,更具体地,涉及一种基于模板的三维点云目标检测和姿态估计方法。
背景技术
在工业零件的无序抓取应用中,基于模板的目标检测和姿态估计技术是其核心技术之一。常见的模板匹配算法包括LINEMOD,PPF(Point-Pair Feature)等均可以分成2D或者3D的特征提取和特征匹配两个步骤。常用的点云特征包括PPF,图像的梯度特征等。由于所用的特征均为初级视觉特征,提取的特征容易受到光照条件,阴影,点云缺失和遮挡等各种因素的干扰,从而导致大量的特征匹配粗差。所以现有的主流算法通过建立启发式规则剔除大量的匹配粗差,获得最终的匹配结果。启发式规则的使用也导致现有的算法对各种不同数据分布和场景的普适性较差,算法参数多,调试复杂。
针对以上问题,一种常见的解决思路为将目标检测和姿态估计分为两个步,即采用深度神经网络在图像或者点云上直接预测目标的外接矩形框或者包围盒,然后再采用ICP等方式在目标的矩形框或包围盒之内进行模板匹配。直接预测目标的外接矩形或者包围盒是一种常见的目标检测方法,但是所得的神经网络模型经过学习目标的形状或者图像特征,仅可用于训练过的目标的检测。其模型的迁移性较差,即对每种零件需要重新训练模型,从而导致难以大规模部署。另外,基于ICP的点云配准算法需要较好的初值才能得到较好的效果。传统基于神经网络的目标检测算法无法生成较好的姿态初值,使得ICP匹配的难度增加,降低整体***精度。
发明内容
本发明为克服上述现有技术所述的三维点云目标检测和姿态估计不同步的缺陷,提供一种基于模板的三维点云目标检测和姿态估计方法。
所述方法包括以下步骤:
S1:构建并训练神经网络模型;
S2:将待进行目标检测和姿态估计的三维点云输入经S1训练好的神经网络模型中进行目标检测和姿态估计;
S3:输出三维点云目标检测和姿态估计结果。
优选地,S1中神经网络模型的训练包括以下步骤:
S1.1:在三维点云数据上标注目标物体的三维坐标和姿态作为训练样本;
S1.2:对三维点云进行深度图计算;
S1.3:计算三维点云深度图的图像特征;
S1.4:根据图像特征获取输入深度图对应旋转区间的概率,以及结束符。
S1.5:对三维点云模板进行采样,得到1个可能的子区间,然后将此可能的子区间沿x,y,z三个方向的旋转角重新等分为N3个旋转角子区间;
其中x,y,z为空间直角坐标系中的三个轴;
S1.6:对S1.5中的N3个旋转角子区间进行深度图计算,分别获得N3个旋转角子区间对应的三维点云深度图;并输入到GRU(Gated Recurrent Unit)中,得到三维点云深度图属于其对应旋转区间的概率;
S1.7:重复S1.5-S1.6直至达到重复次数,或者输出结束符采样为1;并使用集束搜索获得最优的三个方向的旋转角区间。
S1.8:训练时,分为两步,第一步使用真值旋转角区间作为每一步GRU网络的输入,收敛以后使用上一步GRU的输出作为下一步GRU的输入,再训练直至收敛。
优选地,S1中构建的神经网络模型为一个两层GRU组成的RNN(Recurrent NeuralNetwork)网络。
优选地,S1.2具体为:
以与点云的高度方向垂直的面作为投影面,将扫描目标得到的点云垂直向此投影面投影,并格网化,得到深度图。
以与点云的高度方向垂直的面作为投影面,将三维点云模板旋转到不同的姿态并像此投影面投影,得到一组不同姿态下的点云模板的深度图。
优选地,S1.3点云深度图的图像特征使用ResNet50进行计算。
优选地,S1.4具体为:
将S1.3得到的图像特征作为隐特征输入一个两层GRU组成的RNN网络;将沿x,y,z三个方向的旋转角分别等分为N份,则整个旋转空间被分N3个旋转角子区间,取每个旋转角子区间三个旋转方向的中点计算模板深度图,得到N3个模板在对应旋转角子区间姿态下的深度图;
将模板在对应旋转角子区间姿态下的所有深度图输入到GRU中,输出N3+1个值表示输入深度图属于对应旋转区间的概率,以及结束的概率(结束符)。
优选地,S1.6中对N3个旋转角子区间进行深度图计算,计算过程为:
以与旋转角子区间点云的高度方向垂直的面作为投影面,将子区间三维点云模板旋转到不同的姿态并像此投影面投影,得到一组不同姿态下的子区间三维点云模板的深度图。
本发明可同时完成目标检测和模板匹配。与传统的预测外接矩形和包围盒的目标检测算法不同,本发明将目标检测和姿态估计合并转换为初始姿态分类问题,可降低模型的训练难度。同时,由于所述模型训练的目标为对比两种输入点云,是一种不需要学习目标相关特征的训练目标,从而相比传统的目标检测算法具备更强的迁移性。
一般的模板学习算法往往无法更换模板,或者无法处理大量模板所带来的计算量剧增的问题。本发明通过迭代生成模板姿态字典的方式,在保证模板量较少的同时,由粗到精不断缩小姿态的旋转角区间,同时使得更换模板成为可能。从而此基于模板的匹配技术具备了很好的实用性。
与现有技术相比,本发明技术方案的有益效果是:
本发明解决了同步目标检测和姿态估计的难题,解决了深度神经网络迁移性较差的问题。训练完成的模型具备极高稳定性和迁移性,可应用于训练样本之外的各种基于模板的目标检测和姿态估计任务。
附图说明
图1为实施例1所述基于模板的三维点云目标检测和姿态估计方法流程图。
图2为实施例1所述模型训练流程图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
本实施例提供一种基于模板的三维点云目标检测和姿态估计方法,如图1所示,所述方法包括以下步骤:
S1:构建并训练神经网络模型;如图2所示,所述神经网络模型的训练包括以下步骤:
S1.1:在三维点云数据上标注目标物体的三维坐标和姿态作为训练样本。
S1.2:以与点云的高度方向垂直的面作为投影面,将扫描目标得到的点云垂直向此投影面投影,并格网化,得到深度图。
S1.3:以与点云的高度方向垂直的面作为投影面,将三维点云模板旋转到不同的姿态并向此投影面投影,得到一组不同姿态下的点云模板的深度图。
S1.4:使用ResNet50计算扫描点云深度图的图像特征。
S1.5:将S1.4得到的图像特征作为隐特征输入一个两层GRU组成的RNN网络。
将沿x,y,z三个方向的旋转角分别等分为N份,则整个旋转空间被分N3个旋转角子区间,取每个旋转角子区间三个旋转方向的中点计算模板深度图,得到N3个模板在对应旋转角子区间姿态下的深度图。
将模板在对应旋转角子区间姿态下的所有深度图输入到GRU中,输出N3+1个值表示输入深度图属于对应旋转区间的概率,以及结束的概率(结束符)。
S1.6:根据S1.5中得到的旋转区间的概率进行采样,得到1个可能的子区间,然后将此三旋转角的子区间重新等分为N3个旋转角子区间。按照S1.3获得此N3个旋转角子区间对应的三维点云深度图,并输入到GRU中,得到三维点云深度图属于其对应旋转区间的概率。
S1.7:重复S1.6直至达到重复次数,或者输出结束符采样为1。使用集束搜索获得最优的三个方向的旋转角区间。
S1.8:训练时,先使用真值对应的旋转角区间替代GRU网络的输出作为下一步的输入,待稳定后使用GRU网络的输出作为其下一步的输入再训练直至收敛。
S2:将待进行目标检测和姿态估计的三维点云输入经S1训练好的神经网络模型中进行目标检测和姿态估计;
S3:输出三维点云目标检测和姿态估计结果。
附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (6)
1.一种基于模板的三维点云目标检测和姿态估计方法,其特征在于,所述方法包括以下步骤:
S1:构建并训练神经网络模型;
S2:将待进行目标检测和姿态估计的三维点云输入经S1训练好的神经网络模型中进行目标检测和姿态估计;
S3:输出三维点云目标检测和姿态估计结果;
S1中神经网络模型的训练包括以下步骤:
S1.1:在三维点云数据上标注目标物体的三维坐标和姿态作为训练样本;
S1.2:对三维点云进行深度图计算;
S1.3:计算三维点云深度图的图像特征;
S1.4:根据图像特征获取输入深度图对应旋转区间的概率,以及结束符;
S1.5:对三维点云模板进行采样,得到1个可能的子区间,然后将此可能的子区间沿x,y,z三个方向的旋转角重新等分为N3个旋转角子区间;
S1.6:对S1.5中的N3个旋转角子区间进行深度图计算,分别获得N3个旋转角子区间对应的三维点云深度图;并输入到GRU中,得到三维点云深度图属于其对应旋转区间的概率;
S1.7:重复S1.5-S1.6直至达到重复次数,或者输出结束符采样为1;并使用集束搜索获得最优的三个方向的旋转角区间;
S1.8:训练时,先使用真值对应的旋转角区间替代GRU网络的输出作为下一步的输入,待稳定后使用GRU网络的输出作为其下一步的输入再训练直至收敛。
2.根据权利要求1所述的基于模板的三维点云目标检测和姿态估计方法,其特征在于,S1中构建的神经网络模型为一个两层GRU组成的RNN网络。
3.根据权利要求2所述的基于模板的三维点云目标检测和姿态估计方法,其特征在于,S1.2具体为:
以与点云的高度方向垂直的面作为投影面,将扫描目标得到的点云垂直向此投影面投影,并格网化,得到深度图;
以与点云的高度方向垂直的面作为投影面,将三维点云模板旋转到不同的姿态并像此投影面投影,得到一组不同姿态下的点云模板的深度图。
4.根据权利要求3所述的基于模板的三维点云目标检测和姿态估计方法,其特征在于,S1.3点云深度图的图像特征使用ResNet50进行计算。
5.根据权利要求4所述的基于模板的三维点云目标检测和姿态估计方法,其特征在于,S1.4具体为:
将S1.3得到的图像特征作为隐特征输入一个两层GRU组成的RNN网络;将沿x,y,z三个方向的旋转角分别等分为N份,则整个旋转空间被分N3个旋转角子区间,取每个旋转角子区间三个旋转方向的中点计算模板深度图,得到N3个模板在对应旋转角子区间姿态下的深度图;
将模板在对应旋转角子区间姿态下的所有深度图输入到GRU中,输出N3+1个值表示输入深度图属于对应旋转区间的概率,以及结束符。
6.根据权利要求4或5所述的基于模板的三维点云目标检测和姿态估计方法,其特征在于,S1.6中对N3个旋转角子区间进行深度图计算,计算过程为:
以与旋转角子区间点云的高度方向垂直的面作为投影面,将子区间三维点云模板旋转到不同的姿态并像此投影面投影,得到一组不同姿态下的子区间三维点云模板的深度图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010287173.1A CN111402256B (zh) | 2020-04-13 | 2020-04-13 | 一种基于模板的三维点云目标检测和姿态估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010287173.1A CN111402256B (zh) | 2020-04-13 | 2020-04-13 | 一种基于模板的三维点云目标检测和姿态估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111402256A CN111402256A (zh) | 2020-07-10 |
CN111402256B true CN111402256B (zh) | 2020-10-16 |
Family
ID=71431530
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010287173.1A Active CN111402256B (zh) | 2020-04-13 | 2020-04-13 | 一种基于模板的三维点云目标检测和姿态估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111402256B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112116638A (zh) * | 2020-09-04 | 2020-12-22 | 季华实验室 | 一种三维点云匹配方法、装置、电子设备和存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018190805A1 (en) * | 2017-04-11 | 2018-10-18 | Siemens Aktiengesellschaft | Depth image pose search with a bootstrapped-created database |
CN109145864A (zh) * | 2018-09-07 | 2019-01-04 | 百度在线网络技术(北京)有限公司 | 确定视线区域的方法、装置、存储介质和终端设备 |
CN109255813A (zh) * | 2018-09-06 | 2019-01-22 | 大连理工大学 | 一种面向人机协作的手持物***姿实时检测方法 |
CN109753885A (zh) * | 2018-12-14 | 2019-05-14 | 中国科学院深圳先进技术研究院 | 一种目标检测方法、装置以及行人检测方法、*** |
CN110428464A (zh) * | 2019-06-24 | 2019-11-08 | 浙江大学 | 基于深度学习的多类别乱序工件机器人抓取位姿估计方法 |
CN110930452A (zh) * | 2019-10-23 | 2020-03-27 | 同济大学 | 一种基于自监督学习与模板匹配的物***姿估计方法 |
CN110942512A (zh) * | 2019-11-27 | 2020-03-31 | 大连理工大学 | 基于元学习的室内场景重建方法 |
CN110969660A (zh) * | 2019-12-17 | 2020-04-07 | 浙江大学 | 一种基于三维立体视觉和点云深度学习的机器人上料*** |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11017550B2 (en) * | 2017-11-15 | 2021-05-25 | Uatc, Llc | End-to-end tracking of objects |
CN110942515A (zh) * | 2019-11-26 | 2020-03-31 | 北京迈格威科技有限公司 | 基于点云的目标物体三维计算机建模方法和目标识别方法 |
-
2020
- 2020-04-13 CN CN202010287173.1A patent/CN111402256B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018190805A1 (en) * | 2017-04-11 | 2018-10-18 | Siemens Aktiengesellschaft | Depth image pose search with a bootstrapped-created database |
CN109255813A (zh) * | 2018-09-06 | 2019-01-22 | 大连理工大学 | 一种面向人机协作的手持物***姿实时检测方法 |
CN109145864A (zh) * | 2018-09-07 | 2019-01-04 | 百度在线网络技术(北京)有限公司 | 确定视线区域的方法、装置、存储介质和终端设备 |
CN109753885A (zh) * | 2018-12-14 | 2019-05-14 | 中国科学院深圳先进技术研究院 | 一种目标检测方法、装置以及行人检测方法、*** |
CN110428464A (zh) * | 2019-06-24 | 2019-11-08 | 浙江大学 | 基于深度学习的多类别乱序工件机器人抓取位姿估计方法 |
CN110930452A (zh) * | 2019-10-23 | 2020-03-27 | 同济大学 | 一种基于自监督学习与模板匹配的物***姿估计方法 |
CN110942512A (zh) * | 2019-11-27 | 2020-03-31 | 大连理工大学 | 基于元学习的室内场景重建方法 |
CN110969660A (zh) * | 2019-12-17 | 2020-04-07 | 浙江大学 | 一种基于三维立体视觉和点云深度学习的机器人上料*** |
Non-Patent Citations (5)
Title |
---|
"Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation";Kyunghyun Cho,at el.;《arXiv》;20140903;第1-15页 * |
"LiDAR-based Online 3D Video Object Detection with Graph-based Message Passing and Spatiotemporal Transformer Attention";Junbo Yin,at el.;《arXiv》;20200403;第1-10页 * |
"Point Cloud Generation From Multiple Angles of Voxel Grids";Shumin Kong,at el.;《IEEE》;20191104;第436-488页 * |
"基于机器学习的智能机器人环境视觉感知方法研究";陈旭展;《中国博士学位论文全文数据库 信息科技辑》;20200315(第3期);I140-25 * |
"面向物流分拣任务的自主抓取机器人***";马灼明等;《机械设计与研究》;20191231;第35卷(第6期);第10-16页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111402256A (zh) | 2020-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108399649B (zh) | 一种基于级联回归网络的单张图片三维人脸重建方法 | |
CN106023298B (zh) | 基于局部泊松曲面重建的点云刚性配准方法 | |
Xu et al. | Reconstruction of scaffolds from a photogrammetric point cloud of construction sites using a novel 3D local feature descriptor | |
Becker | Generation and application of rules for quality dependent façade reconstruction | |
JP5061350B2 (ja) | モーションキャプチャシステム、及びモーションキャプチャシステムにおける特徴点の三次元再構成法 | |
CN113379898B (zh) | 一种基于语义分割的三维室内场景重建方法 | |
CN113012122B (zh) | 一种类别级6d位姿与尺寸估计方法及装置 | |
CN105427293A (zh) | 室内场景扫描重建的方法及装置 | |
CN113139453A (zh) | 一种基于深度学习的正射影像高层建筑基底矢量提取方法 | |
CN108154104A (zh) | 一种基于深度图像超像素联合特征的人体姿态估计方法 | |
Galvanin et al. | Extraction of building roof contours from LiDAR data using a Markov-random-field-based approach | |
CN111681300B (zh) | 轮廓素描线组成的目标区域获取方法 | |
Poullis | Large-scale urban reconstruction with tensor clustering and global boundary refinement | |
CN108961385A (zh) | 一种slam构图方法及装置 | |
CN107123138B (zh) | 基于vanilla-R点对剔除策略的点云配准方法 | |
CN111402256B (zh) | 一种基于模板的三维点云目标检测和姿态估计方法 | |
CN104978583B (zh) | 人物动作的识别方法及装置 | |
CN112084984A (zh) | 一种基于改进的Mask RCNN的扶梯动作检测方法 | |
CN113920254B (zh) | 一种基于单目rgb的室内三维重建方法及其*** | |
Schnabel et al. | Shape detection in point clouds | |
CN110895684B (zh) | 一种基于Kinect的手势动作识别方法 | |
CN114266879A (zh) | 三维数据增强、模型训练检测方法、设备及自动驾驶车辆 | |
Denker et al. | On-line reconstruction of CAD geometry | |
Ripperda et al. | Evaluation of structure recognition using labelled facade images | |
Hongyan et al. | Volume calculation for power equipment point cloud based on concave hull slice method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |