CN111915632B - 一种基于机器学习的贫纹理目标物体真值数据库构建方法 - Google Patents

一种基于机器学习的贫纹理目标物体真值数据库构建方法 Download PDF

Info

Publication number
CN111915632B
CN111915632B CN202010726969.2A CN202010726969A CN111915632B CN 111915632 B CN111915632 B CN 111915632B CN 202010726969 A CN202010726969 A CN 202010726969A CN 111915632 B CN111915632 B CN 111915632B
Authority
CN
China
Prior art keywords
target object
image
pose
constructing
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010726969.2A
Other languages
English (en)
Other versions
CN111915632A (zh
Inventor
董延超
冀玲玲
宁少淳
王浩天
岳继光
何斌
沈润杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN202010726969.2A priority Critical patent/CN111915632B/zh
Publication of CN111915632A publication Critical patent/CN111915632A/zh
Application granted granted Critical
Publication of CN111915632B publication Critical patent/CN111915632B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于机器学习的贫纹理目标物体真值数据库构建方法,包括步骤1:获取贫纹理目标物体的图像数据集以及目标物体的三维模型;步骤2:提取图像数据集中各图像的图像边缘以及三维模型中的边缘光栅点;步骤3:计算图像数据集中各图像的DCM张量,并构建方向倒角距离误差函数;步骤4:获得粗分类初始位姿;步骤5:使用目标追踪子方法获得优化后的初始位姿;步骤6:使用优化后的初始位姿以及相机投影模型,使用目标追踪子方法获得图像数据集中各图像的优化位姿;步骤7:获取目标物体的真值;步骤8:使用目标物体的真值构建真值数据库。与现有技术相比,本发明具有精度高、速度快、目标物体数据更加全面以及目标数据库制作灵活等优点。

Description

一种基于机器学习的贫纹理目标物体真值数据库构建方法
技术领域
本发明涉及计算机视觉技术领域,尤其是涉及一种基于机器学习的贫纹理目标物体真值数据库构建方法。
背景技术
随着计算机视觉技术在深度学习理论的促进下取得了巨大进步,尤其是在分类、检测以及分割等方向取得了较大的进展。近年来基于视觉的位姿估计也日益兴起,尤其是基于深度学习的位姿估计方法,这类技术往往需要基于大量的数据进行,目前通过图像估计目标物体的位姿并跟踪。目前目标物***姿数据库的获取方式有两大类:一类是通过人工测量的方法计算得到物体的真实位姿,该方法往往配合传感器使用,需要较大的人力和物力,且得到的位姿与真实位姿存在一定的差异,尤其是工业场景下贫纹理目标物体,该类物体往往是金属质地,难以通过提取特征点进行追踪,而张贴图纸协助定位的方式极大地限制了工作空间,且计算得到的精度较低难以满足需求,例如中国专利CN109558902A中公开了一种快速目标检测方法,该方法即使用提取目标物体特征来进行识别,但是用上述方法对贫纹理目标物体识别时,精度和准确度都较低;另一类是利用计算机图形学的方式通过3D软件渲染目标物体来得到其对应的位姿等真值,该方法得到的位姿较为精确,但虚拟场景下的物体与真实场景的物体存在差异,难以模仿真实的应用场景,所以该方法的实现比较困难。因此,对真实场景下贫纹理目标物体进行精确且快速的真值数据库制作十分必要。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种精度高、速度快、目标物体数据更加全面、目标数据库制作更加灵活的基于机器学习的贫纹理目标物体真值数据库构建方法。
本发明的目的可以通过以下技术方案来实现:
一种基于机器学习的贫纹理目标物体真值数据库构建方法,包括:
步骤1:获取贫纹理目标物体的图像数据集以及目标物体的三维模型;
步骤2:提取图像数据集中各图像的图像边缘以及三维模型中的边缘光栅点;
步骤3:计算图像数据集中各图像的DCM张量,并构建方向倒角距离误差函数;
步骤4:获得粗分类初始位姿;
步骤5:使用目标追踪子方法获得优化后的初始位姿;
步骤6:使用优化后的初始位姿以及相机投影模型,使用目标追踪子方法获得图像数据集中各图像的优化位姿;
步骤7:获取目标物体的真值;
步骤8:使用目标物体的真值构建真值数据库。
优选地,所述步骤1中目标物体的图像数据集具体为:
在由工业相机采集的目标物体视频中和获取每一帧包含目标物体的灰度图像,构成图像数据集,该数据集包括目标物体所有姿态下的灰度图像。
优选地,所述的步骤3中方向倒角距离误差函数具体为:
其中,M={mi},i=1,2,3,…,|M|为目标物体三维模型中的边缘点经过离散采样光栅化后映射于图像坐标系中的点;N={nj},j=1,2,3,…,|N|为图像中的边缘点;λ为方向误差权重;ω为目标物体三维模型中的边缘点数量,即ω=|M|;φ(·)为图像中的方向运算符,即φ(mi)为三维模型中边缘点mi在相机成像平面中对应的模型边缘方向,φ(nj)为图像边缘点nj对应的边缘方向;
然后使用双向动态规划算法,首先将所有角度的方向倒角距离初始化为图像二维距离,根据前向递推以及后向递推计算各点对应的距离最小值:
其中,||·||π为边缘方向差的绝对值。
更加优选地,所述的离散采样具体为:按照一定角度间隔ε对边缘方向进行离散化处理。
更加优选地,所述的步骤4具体为:
使用随机森林分类检测器检测目标物体在图像中的位置信息,首先将DCM张量图作为特征图输入,使用归一化像素差特征进行特征提取,训练随机森林分类器,最后通过滑动窗口检测获取目标物体在图像中的位置;
对匹配最近图进行特征提取,采用归一化特征描述图像中所有像素点间的差异性;
完成目标检测之后,使用回归的方法得到物体坐标系相对于相机坐标系的平移向量,通过目标在图像中的二维坐标以及模型信息确定其相对于相机坐标系的平移向量,用目标物体的初始位姿信息作为回归树的特征进行训练,平移向量T作为回归树的输出;
最后获取目标物体相对于相机坐标系的旋转关系R=[rx,ry.rz],其中rx、ry和rz分别为绕相机坐标系x轴、y轴和z轴旋转的欧拉角。
更加优选地,所述的像素点间差异性的差异函数具体为:
其中,x和y为图像中任意两个像素的像素值。
更加优选地,所述的目标物体在图像中的初始位姿信息包括目标物图在图像中的边界框左顶点像素坐标、边界框中心点像素坐标以及随机森林分类检测器的粗分类结果。
优选地,所述的目标追踪子方法具体为:
使用DCM张量构造目标函数,目标函数具体为:
其中,oi为目标物体三维模型的边缘光栅点;π(·)为相机投影模型;表示目标物体相对于相机的三维空间位姿变换关系;
在对目标函数进行优化后,通过优化目标函数获得当前帧图像中目标物体相对于相机的精确位姿变换关系,并将该帧的位姿关系作为下一帧图像的初始位姿,实现姿态跟踪。
更加优选地,所述的优化目标函数的具体方法为:
采用自适应权重优化算法对目标函数进行优化,优化权重为:
将优化权重加入目标函数,得到新的优化目标函数,具体为:
将图像坐标点xi转换为三维空间点oi,得到:
优选地,所述的目标物体的真值包括:目标物体的位置、目标物体的姿态、目标物体的Mask、目标物体的二维边界框和目标物体的三维边界框。
与现有技术相比,本发明具有以下优点:
一、精度高,速度快:本发明中的真值获取方法使用DCM张量构造目标函数求解目标物体各帧图像的位姿,求解出的位姿精度较高,角度误差在2°内,平移向量误差在1mm内;使用双向动态规划算法来求解各像素点之间对应的最小距离,加快了真值获取的速度,速度可到10帧/秒;同时,由于使用了自适应权重优化,使得目标追踪的鲁棒性更强。
二、目标物体数据更加全面,目标数据库制作更加灵活:本发明中的真实获取方法最终可以获得的目标物体真值包括:目标物体的位置、目标物体的姿态、目标物体的Mask、目标物体的二维边界框和目标物体的三维边界框等信息,有关目标物体的数据更为全面,制作目标数据库更加灵活。
附图说明
图1为本发明中目标物体真值获取方法的流程示意图;
图2为本发明实施例中三维模型的示意图;
图3为本发明实施例中目标物体的第一Mask示意图;
图4为本发明实施例中目标物体的第二Mask示意图;
图5为本发明实施例中生成的数据库的第一效果示意图;
图6为本发明实施例中生成的数据库的第二效果示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
一种基于机器学习的贫纹理目标物体真值数据库构建方法,其流程如图1所示,包括:
步骤1:获取贫纹理目标物体的图像数据集以及目标物体的三维模型;
图像数据集的获取方法为:
在由工业相机采集的目标物体视频中和获取每一帧包含目标物体的灰度图像,构成图像数据集,该数据集包括目标物体所有姿态下的灰度图像;
目标物体的三维模型是由3Dmax软件事先制作好的三维模型。
步骤2:提取图像数据集中各图像的图像边缘以及三维模型中的边缘光栅点;
步骤3:计算图像数据集中各图像的DCM张量,并构建方向倒角距离误差函数,获得DCM张量图;
方向倒角距离误差函数具体为:
其中,M={mi},i=1,2,3,…,|M|为目标物体三维模型中的边缘点经过离散采样光栅化后映射于图像坐标系中的点;N={nj},j=1,2,3,…,|N|为图像中的边缘点;λ为方向误差权重;ω为目标物体三维模型中的边缘点数量,即ω=|M|;φ(·)为图像中的方向运算符,即φ(mi)为三维模型中边缘点mi在相机成像平面中对应的模型边缘方向,φ(nj)为图像边缘点nj对应的边缘方向。实验证明基于DCM的匹配方法正确率更高并且在有遮挡以及其他复杂背景情况下鲁棒性更强。
为加速DCM张量的方向误差计算,本实施例在场景边缘图像中,按一定角度间隔ε对边缘方向进行离散化处理,使得个角度范围内的边缘单独成图。
然后使用双向动态规划算法,首先将所有角度的方向倒角距离初始化为图像二维距离,根据前向递推以及后向递推计算各点对应的距离最小值:
其中,||·||π为边缘方向差的绝对值。
该方法计算速度快,能够在最多1.5次前向与后向循环之后得到各角度边缘图像中所有像素点对应的时间福再度控制在O(q)内,其中q表示图像的像素个数。
步骤4:获得粗分类初始位姿,具体方法为:
使用随机森林分类检测器检测目标物体在图像中的位置信息,首先将DCM张量图作为特征图输入,使用归一化像素差特征进行特征提取,训练随机森林分类器,最后通过滑动窗口检测获取目标物体在图像中的位置;
对匹配最近图进行特征提取,采用归一化特征描述图像中所有像素点间的差异性;
完成目标检测之后,使用回归的方法得到物体坐标系相对于相机坐标系的平移向量,通过目标在图像中的二维坐标以及模型信息确定其相对于相机坐标系的平移向量,用目标物体的初始位姿信息作为回归树的特征进行训练,平移向量T作为回归树的输出;
最后获取目标物体相对于相机坐标系的旋转关系R=[rx,ry.rz],其中rx、ry和rz分别为绕相机坐标系x轴、y轴和z轴旋转的欧拉角。
目标物体在图像中的初始位姿信息包括目标物图在图像中的边界框左顶点像素坐标、边界框中心点像素坐标以及随机森林分类检测器的粗分类结果。
对匹配最近图进行特征提取,采用归一化特征描述图像中所有像素点间的差异性,像素点间差异性的差异函数具体为:
其中,x和y为图像中任意两个像素的像素值。
步骤5:使用目标追踪子方法获得优化后的初始位姿;
步骤6:使用优化后的初始位姿以及相机投影模型,使用目标追踪子方法获得图像数据集中各图像的优化位姿;
步骤7:获取目标物体的真值;
本实施例中的目标物体的真值包括:目标物体的位置、目标物体的姿态、目标物体的Mask、目标物体的二维边界框和目标物体的三维边界框等信息。使用目标追踪子方法获取每一帧图像中目标物体的位姿,通过该位姿信息以及目标物体三维模型,能够将模型光栅点映射于图像平面。遍历所有光栅点图像坐标(xi,yi),通过光栅点坐标的最值点xmin、ymin、xmax和ymax来确定目标物体的二维边界框,同时由目标物体的三维模型信息可以将物体三维空间点的坐标利用位姿投影到二维图像,进而得到物体的三维边界框;利用位姿信息可以得到目标物体在图像上对应的Mask。此外,还可以获得负样本数据,在获得每帧图像中目标物体的图像范围后,使用随机的方法在当前图像的其他区域,截取相同大小的图像作为负样本保存。
目标追踪子方法具体为:
使用DCM张量构造目标函数,目标函数具体为:
其中,oi为目标物体三维模型的边缘光栅点;π(·)为相机投影模型;表示目标物体相对于相机的三维空间位姿变换关系;
通过优化目标函数获得当前帧图像中目标物体相对于相机的精确位姿变换关系,并将该帧的位姿关系作为下一帧图像的初始位姿,实现姿态跟踪。
目标函数的优化方法为:
为了提高追踪的鲁棒性,采用自适应权重优化算法对目标函数进行优化。当梯度大小大于设定阈值后,证明该匹配点已匹配到场景图像的边缘,但模型边缘点与场景边缘的匹配正确与否以及匹配的精度需要使用模型边缘的方向以及场景梯度方向进一步确定。通过计算边缘方向与梯度方向之差的正弦值作为该光栅点的优化权值,使得两者方向垂直情况下的权重更高,由此可得:
将优化权重加入目标函数,得到新的优化目标函数,具体为:
将图像坐标点xi转换为三维空间点oi,得到:
使用上述方法不仅能够降低图像噪音以及边缘提取误差对***带来的扰动,而且在复杂背景中也能够及时降低干扰点对于整体寻优的影响,保证***的鲁棒性。
步骤8:使用目标物体的真值构建贫纹理目标物体真值数据库,本实施例中构建的数据库的效果图如图5和图6所示。
本实施例中的目标物体三维模型的示意图如图2所示,最终生成的目标物体的Mask如图3和图4所示,最终获得的目标物体的位姿以及目标物体在图像中的位置分别如表1和表2所示。
表1目标物体的位姿
表2目标物体在图像中的位置
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (5)

1.一种基于机器学习的贫纹理目标物体真值数据库构建方法,其特征在于,包括:
步骤1:获取贫纹理目标物体的图像数据集以及目标物体的三维模型;
步骤2:提取图像数据集中各图像的图像边缘以及三维模型中的边缘光栅点;
步骤3:计算图像数据集中各图像的DCM张量,并构建方向倒角距离误差函数;
步骤4:获得粗分类初始位姿;
步骤5:使用目标追踪子方法获得优化后的初始位姿;
步骤6:使用优化后的初始位姿以及相机投影模型,使用目标追踪子方法获得图像数据集中各图像的优化位姿;
步骤7:获取目标物体的真值;
步骤8:使用目标物体的真值构建真值数据库;
所述的步骤3中方向倒角距离误差函数具体为:
其中,M={mi},i=1,2,3,…,|M|为目标物体三维模型中的边缘点经过离散采样光栅化后映射于图像坐标系中的点;N={nj},j=1,2,3,…,|N|为图像中的边缘点;λ为方向误差权重;ω为目标物体三维模型中的边缘点数量,即ω=|M|;φ(·)为图像中的方向运算符,即φ(mi)为三维模型中边缘点mi在相机成像平面中对应的模型边缘方向,φ(nj)为图像边缘点nj对应的边缘方向;
然后使用双向动态规划算法,首先将所有角度的方向倒角距离初始化为图像二维距离,根据前向递推以及后向递推计算各点对应的距离最小值:
其中,||·||π为边缘方向差的绝对值;
所述的步骤4具体为:
使用随机森林分类检测器检测目标物体在图像中的位置信息,首先将DCM张量图作为特征图输入,使用归一化像素差特征进行特征提取,训练随机森林分类器,最后通过滑动窗口检测获取目标物体在图像中的位置;
对匹配最近图进行特征提取,采用归一化特征描述图像中所有像素点间的差异性;
完成目标检测之后,使用回归的方法得到物体坐标系相对于相机坐标系的平移向量,通过目标在图像中的二维坐标以及模型信息确定其相对于相机坐标系的平移向量,用目标物体的初始位姿信息作为回归树的特征进行训练,平移向量T作为回归树的输出;
最后获取目标物体相对于相机坐标系的旋转关系R=[rx,ry.rz],其中rx、ry和rz分别为绕相机坐标系x轴、y轴和z轴旋转的欧拉角;
所述的目标追踪子方法具体为:
使用DCM张量构造目标函数,目标函数具体为:
其中,oi为目标物体三维模型的边缘光栅点;π(·)为相机投影模型;表示目标物体相对于相机的三维空间位姿变换关系;
在对目标函数进行优化后,通过优化目标函数获得当前帧图像中目标物体相对于相机的精确位姿变换关系,并将该帧的位姿关系作为下一帧图像的初始位姿,实现姿态跟踪;
所述的优化目标函数的具体方法为:
采用自适应权重优化算法对目标函数进行优化,优化权重为:
将优化权重加入目标函数,得到新的优化目标函数,具体为:
将图像坐标点xi转换为三维空间点oi,得到:
所述的目标物体的真值包括:目标物体的位置、目标物体的姿态、目标物体的Mask、目标物体的二维边界框和目标物体的三维边界框。
2.根据权利要求1所述的一种基于机器学习的贫纹理目标物体真值数据库构建方法,其特征在于,所述步骤1中目标物体的图像数据集具体为:
在由工业相机采集的目标物体视频中和获取每一帧包含目标物体的灰度图像,构成图像数据集,该数据集包括目标物体所有姿态下的灰度图像。
3.根据权利要求1所述的一种基于机器学习的贫纹理目标物体真值数据库构建方法,其特征在于,所述的离散采样具体为:按照一定角度间隔ε对边缘方向进行离散化处理。
4.根据权利要求1所述的一种基于机器学习的贫纹理目标物体真值数据库构建方法,其特征在于,所述的像素点间差异性的差异函数具体为:
其中,x和y为图像中任意两个像素的像素值。
5.根据权利要求1所述的一种基于机器学习的贫纹理目标物体真值数据库构建方法,其特征在于,所述的目标物体在图像中的初始位姿信息包括目标物图在图像中的边界框左顶点像素坐标、边界框中心点像素坐标以及随机森林分类检测器的粗分类结果。
CN202010726969.2A 2020-07-26 2020-07-26 一种基于机器学习的贫纹理目标物体真值数据库构建方法 Active CN111915632B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010726969.2A CN111915632B (zh) 2020-07-26 2020-07-26 一种基于机器学习的贫纹理目标物体真值数据库构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010726969.2A CN111915632B (zh) 2020-07-26 2020-07-26 一种基于机器学习的贫纹理目标物体真值数据库构建方法

Publications (2)

Publication Number Publication Date
CN111915632A CN111915632A (zh) 2020-11-10
CN111915632B true CN111915632B (zh) 2024-04-26

Family

ID=73280809

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010726969.2A Active CN111915632B (zh) 2020-07-26 2020-07-26 一种基于机器学习的贫纹理目标物体真值数据库构建方法

Country Status (1)

Country Link
CN (1) CN111915632B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112699095B (zh) * 2020-12-24 2024-02-02 武汉大学 基于ann的光学特性建模数据库生成方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101408931A (zh) * 2007-10-11 2009-04-15 Mv科技软件有限责任公司 用于三维目标识别的***和方法
CN109712172A (zh) * 2018-12-28 2019-05-03 哈尔滨工业大学 一种初始位姿测量结合目标追踪的位姿测量方法
WO2019157924A1 (zh) * 2018-02-13 2019-08-22 视辰信息科技(上海)有限公司 三维物体的实时检测方法及***
CN110910350A (zh) * 2019-10-30 2020-03-24 同济大学 一种用于风电塔筒的螺母松动检测方法
CN110930452A (zh) * 2019-10-23 2020-03-27 同济大学 一种基于自监督学习与模板匹配的物***姿估计方法
WO2020134254A1 (zh) * 2018-12-27 2020-07-02 南京芊玥机器人科技有限公司 一种基于强化学习的喷涂机器人轨迹优化方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002042169A (ja) * 2000-07-06 2002-02-08 Infiniteface.Com Inc 三次元画像提供システム及び方法並びにモーフィング画像提供システム及び方法
CN109697688B (zh) * 2017-10-20 2023-08-04 虹软科技股份有限公司 一种用于图像处理的方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101408931A (zh) * 2007-10-11 2009-04-15 Mv科技软件有限责任公司 用于三维目标识别的***和方法
WO2019157924A1 (zh) * 2018-02-13 2019-08-22 视辰信息科技(上海)有限公司 三维物体的实时检测方法及***
WO2020134254A1 (zh) * 2018-12-27 2020-07-02 南京芊玥机器人科技有限公司 一种基于强化学习的喷涂机器人轨迹优化方法
CN109712172A (zh) * 2018-12-28 2019-05-03 哈尔滨工业大学 一种初始位姿测量结合目标追踪的位姿测量方法
CN110930452A (zh) * 2019-10-23 2020-03-27 同济大学 一种基于自监督学习与模板匹配的物***姿估计方法
CN110910350A (zh) * 2019-10-30 2020-03-24 同济大学 一种用于风电塔筒的螺母松动检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
单目序列的刚体目标位姿测量;赵丽科;郑顺义;王晓南;黄霞;;浙江大学学报(工学版)(12);全文 *
基于双目视觉的管路位姿测量;王治;刘检华;刘少丽;任杰轩;吴天一;;计算机集成制造***(05);全文 *

Also Published As

Publication number Publication date
CN111915632A (zh) 2020-11-10

Similar Documents

Publication Publication Date Title
CN112258618B (zh) 基于先验激光点云与深度图融合的语义建图与定位方法
CN111563442B (zh) 基于激光雷达的点云和相机图像数据融合的slam方法及***
CN108564616B (zh) 快速鲁棒的rgb-d室内三维场景重建方法
Park et al. Pix2pose: Pixel-wise coordinate regression of objects for 6d pose estimation
CN109544677B (zh) 基于深度图像关键帧的室内场景主结构重建方法及***
CN109242873B (zh) 一种基于消费级彩色深度相机对物体进行360度实时三维重建的方法
CN111862201B (zh) 一种基于深度学习的空间非合作目标相对位姿估计方法
EP2671384B1 (en) Mobile camera localization using depth maps
US9420265B2 (en) Tracking poses of 3D camera using points and planes
US9053571B2 (en) Generating computer models of 3D objects
CN110458161B (zh) 一种结合深度学习的移动机器人门牌定位方法
CN110688947B (zh) 一种同步实现人脸三维点云特征点定位和人脸分割的方法
CN111462207A (zh) 一种融合直接法与特征法的rgb-d同时定位与地图创建方法
KR101257207B1 (ko) 헤드 트래킹 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
CN109472820B (zh) 单目rgb-d相机实时人脸重建方法及装置
CN114549549B (zh) 一种动态环境下基于实例分割的动态目标建模跟踪方法
CN111998862A (zh) 一种基于bnn的稠密双目slam方法
CN113614735A (zh) 稠密6-DoF姿态对象检测器
CN113487631A (zh) 基于lego-loam的可调式大角度探测感知及控制方法
CN116879870A (zh) 一种适用于低线束3d激光雷达的动态障碍物去除方法
CN113689365B (zh) 一种基于Azure Kinect的目标跟踪定位方法
CN111915632B (zh) 一种基于机器学习的贫纹理目标物体真值数据库构建方法
CN112731503A (zh) 一种基于前端紧耦合的位姿估计方法及***
CN117036484A (zh) 一种基于几何和语义的视觉定位与建图方法、***、设备及介质
CN108694348B (zh) 一种基于自然特征的跟踪注册方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant