CN107292925A - 基于Kinect深度相机测量方法 - Google Patents

基于Kinect深度相机测量方法 Download PDF

Info

Publication number
CN107292925A
CN107292925A CN201710418540.5A CN201710418540A CN107292925A CN 107292925 A CN107292925 A CN 107292925A CN 201710418540 A CN201710418540 A CN 201710418540A CN 107292925 A CN107292925 A CN 107292925A
Authority
CN
China
Prior art keywords
point
data
cloud
kinect
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710418540.5A
Other languages
English (en)
Inventor
王宏
刘路平
张东来
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Harbin Institute of Technology
Original Assignee
Shenzhen Graduate School Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Harbin Institute of Technology filed Critical Shenzhen Graduate School Harbin Institute of Technology
Priority to CN201710418540.5A priority Critical patent/CN107292925A/zh
Publication of CN107292925A publication Critical patent/CN107292925A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/514Depth or shape recovery from specularities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于Kinect深度相机测量方法,包括以下步骤:S1、深度影像数据的转换;S2、计算全局的摄像头的姿势信息;S3、将从已知姿势信息的摄像头产生的深度影像数据融合为代表摄像头视野范围内的景物的立方体;S4、从传感器视点位置对重建立方体进行光线投射,重建的点阵云产生渲染了的三维重建立方体;S5、计算测量点之间的距离。本发明的有益效果是:具备良好的动态性能,不需要高性能配置的计算机设备,可以实现对物体的在线实时重建,操作简易,成本低廉,测量精度高,时效性高,灵活性强,可以满足普通用户日常生活中的目标场景的数字化再现。

Description

基于Kinect深度相机测量方法
技术领域
本发明涉及测量方法,尤其涉及一种基于Kinect深度相机测量方法。
背景技术
目前,工程测量具备时间性较强,作业环境复杂,涉及的其它专业知识较多,对测量人员的专业知识和技术能力要求较高的特点,比如基坑测力量通常是配合降水和开挖过程,具有鲜明的时间性,测量结果往往是动态变化的,几小时前的测量结果都有可能失去意义。因此,如何在规定时间最大化还原物体模型、测量物体尺度信息已成为该技术的研究热点。
发明内容
为了解决现有技术中的问题,本发明提供了一种基于Kinect深度相机测量方法。
本发明提供了一种基于Kinect深度相机测量方法,包括以下步骤:
S1、深度影像数据的转换;
S2、计算全局的摄像头的姿势信息;
S3、将从已知姿势信息的摄像头产生的深度影像数据融合为代表摄像头视野范围内的景物的立方体;
S4、从传感器视点位置对重建立方体进行光线投射,重建的点阵云产生渲染了的三维重建立方体;
S5、计算测量点之间的距离。
作为本发明的进一步改进,步骤S1中深度影像数据的转换包括以下子步骤:
S11、获取原始深度及彩色数据,将Kinect中获取的原始深度帧数据转换为以米为单位的浮点数据;
S12、对浮点数据进行优化,通过获取摄像头的坐标信息,将浮点数据转换为和Kinect摄像头朝向一致的点云数据;
S13、对点云数据进行阈值化及降噪处理,表面情况通过使用AlignPointClouds函数获取。
作为本发明的进一步改进,步骤S2包括以下子步骤:
S21、采用NuiFusionAlignPointClouds方法将从重建对象计算得来的点云数据与从Kinect深度影像数据中获取的点云数据进行配准;
S22、采用AlignDepthToReconstruction方法对重建立方体进行处理,获得追踪结果,如果场景中的追踪被中断,那么将摄像头的位置和上一次的摄像头位置对齐,继续进行追踪。
作为本发明的进一步改进,步骤S3包括以下子步骤:
S31、三维点云配准,找出两组点云数据集的空间变换关系,即旋转和平移向量,然后将这两组点云数据变换到同一的坐标系下,使得两者之间的交集区域重叠;
S32、逐帧对深度数据融合,同时并行运行平滑算法进行去噪。
作为本发明的进一步改进,步骤S31包括以下子步骤:
S311、计算最近点,即对于集合U中的每一个点,在集合P中都找出距该点最近的对应点,设集合P中由这些对应点组成的新点集为Q={qi,i=0,1,2,…,n};
S312、计算两个点集Q和U的重心位置坐标,并进行点集中心化生成新的点集;由新的点集计算正定矩阵N,并计算正定矩阵N的最大特征值及其最大特征向量;
S313、由于最大特征向量等价于残差平方和最小时的旋转四元数,将四元数转换为旋转矩阵R;在旋转矩阵R被确定后,由于平移向量T是两个点集的重心差异,通过两个坐标系中的重心点和旋转矩阵确定;其中R是3×3的旋转矩阵,T是3×1的平移矩阵;
S314、计算坐标变换,即对于集合U,用配准变换矩阵R,T进行坐标变换,得到新的点集U1,即U1=RU+T;
S315、计算U1与Q之间的均方根误差,如小于预设的极限值ε,则结束,否则,以点集U1替换U,重复上述步骤。
作为本发明的进一步改进,步骤S4包括以下子步骤:
S41、从直接光照的微多边形生成点云;
S42、计算点云的n-1次反弹光照;
S43、根据点云计算并渲染间接光照。
作为本发明的进一步改进,步骤S5包括以下子步骤;
S51、从生成的点云中读取测量点的点云信息;
S52、根据测量要求,根据点云所包含信息进行长度和曲率计算。
本发明的有益效果是:具备良好的动态性能,不需要高性能配置的计算机设备,可以实现对物体的在线实时重建,操作简易,成本低廉,测量精度高,时效性高,灵活性强,可以满足普通用户日常生活中的目标场景的数字化再现。
附图说明
图1是本发明一种基于Kinect深度相机测量方法的测量框图。
图2是本发明一种基于Kinect深度相机测量方法的非线性摄像机透视投影模型图。
图3是本发明一种基于Kinect深度相机测量方法的Kinect V2从SDK获取彩色数据流程图。
图4是本发明一种基于Kinect深度相机测量方法的Kinect V2从SDK获取深度数据流程图。
图5是本发明一种基于Kinect深度相机测量方法的ICP算法基本流程图。
具体实施方式
下面结合附图说明及具体实施方式对本发明作进一步说明。
如图1至图5所示,一种基于Kinect深度相机测量方法,包括以下步骤:
(1)、原始数据获取及尺度转换:利用KINECT V2设备获取原始深度及彩色数据,SDK将Kinect中获取的原始深度帧数据转换为以米为单位的浮点数据;
(2)、空间视角转换:对深度数据进行优化,通过获取摄像头的坐标信息,将这些浮点数据转换为和Kinect摄像头朝向一致的点云数据;
(3)、点云预处理:点云数据阈值化及降噪处理,表面情况通过使用AlignPointClouds函数获取;
(4)、点云配准:采用NuiFusionAlignPointClouds方法将从重建对象计算得来的点云与从Kinect深度影像数据中获取的点云进行配准;
(5)、点云追踪:采用AlignDepthToReconstruction方法对重建立方体进行处理时能够获得更高精度的追踪结果,如果场景中的追踪被中断,那么需要将摄像头的位置和上一次的摄像头位置对齐才能继续进行追踪;
(6)、点云融合:将这两组点云数据变换到同一的坐标系下,使得两者之间的交集区域重叠,逐帧对深度数据融合,同时并行运行平滑算法进行了去噪,具体为:三维点云配准,找出两组点云数据集的空间变换关系,即旋转和平移向量,然后将这两组点云数据变换到同一的坐标系下,使得两者之间的交集区域重叠;逐帧对深度数据融合,同时并行运行平滑算法进行了去噪,其中,三维点云配准过程如下:
A1)、计算最近点,即对于集合U中的每一个点,在集合P中都找出距该点最近的对应点,设集合P中由这些对应点组成的新点集为Q={qi,i=0,1,2,…,n};
A2)、计算两个点集Q和U的重心位置坐标,并进行点集中心化生成新的点集;由新的点集计算正定矩阵N,并计算N的最大特征值及其最大特征向量;
A3)、由于最大特征向量等价于残差平方和最小时的旋转四元数,将四元数转换为旋转矩阵R;在旋转矩阵R被确定后,由平移向量t仅仅是两个点集的重心差异,可以通过两个坐标系中的重心点和旋转矩阵确定;其中R是3×3的旋转矩阵,T是3×1的平移矩阵;
A4)、计算坐标变换,即对于集合U,用配准变换矩阵R,T进行坐标变换,得到新的点集U1,即U1=RU+T;
A5)、计算U1与Q之间的均方根误差,如小于预设的极限值ε,则结束,否则,以点集U1替换U,重复上述步骤;
(7)、点云渲染:从直接光照的微多边形生成点云,计算点云的n-1次反弹光照;(如果只需一次反弹,则该步可以省略),根据点云计算并渲染间接光照;
(8)、点云测量:根据测量位置读取点云信息,测量长度、曲率、角度信息。
本发明提供的一种基于Kinect深度相机测量方法,主要是基于ICP的
改进包括以下步骤:
(1)、点选择:根据深度传感器产生的点云数据,需要选择部分点云数据作为样本用于计算两组点云数据之间的最优转换,然后在整个数据集中测试这个转换。根据源点云数据集,已被证明其中一部分点更适合于作样本点,因为这些店更容易识别进行匹配。针对RGB-D数据,提出了利用SIFT(尺度不变特征变换)特征进行样本点选择并被证明很有效。对于具有凹槽的平面目标物体,进行样本点采样应确保采样点法向量的角度是广泛分布的。对于应使用哪种采样方法应根据每个具体的问题进行选择;
(2)、点匹配:ICP算法中最关键的一步即是对应点的匹配问题。主要的方法就是要在另一个点云集中找出最邻近的点或找出源数据点与目标表面(网格点云匹配)的交集。对于基于SIFT特征点的采样,同样可以通过SIFT特征进行排序,利用蛮力搜索或k-d树的方式加速查找最接近的匹配点,并且要求两者之间的法向量内积大于一个设定的阈值;
(3)、点对加权:由于一些点对匹配程度优于其他点,用一些更明智的方式给匹配程度好的点对赋予权值,从而改善转换矩阵的结果质量。一种方法是对应点之间距离越小分配的权值越大。另外一种方法是针对RGB-D的数据考虑该点的彩色值,或考虑其SIFT特征点的距离,低距离比高距离具有的权值更大。其他加权方法还包括:常数权值、法向量越一致权值越大、根据深度传感器的可靠性分配权值等方法。最后预计可用于噪声的权重配对;
(4)、点对去除:主要是排除影响误差最小化的离群点,这些离群点包括来自于传感器噪声或来自于两个连续帧的深度图像不重叠的区域。这个步骤对于配准的精度影响很大,但不能改善配准的收敛速度。处理这种问题的主要方法就是去除去除点云边缘上的数据点,因为这些点最可能处于非重叠的区域。还有其他方法如去除点对距离超过设定阈值的点对;
(5)、误差度量和最小化。当数据点已被选择并匹配,点对加权和误点对去除后,两个点云集合需要用合适的误差度量来表达,需要被最小化。最直接的方式就是考虑每个点对平方距离和。假定两个输入点云集:目标就是找出一个向量T∈Rn,使得误差函数φ(P+T,Q)最小化。在六维自由度(旋转和平移)。表示均方距离的误差函数如下所示:
上式中是Pdst平移厚到Psrc的最邻近点的函数。现在关键的问题就是t的真实值会影响输出的配对结果。解决这个问题有两种方法,一是“点到点”方法,即计算两点的空间距离,可利用线性算子SVD(奇异值分解)或正交矩阵方法进行求解。另一种是“点到平面”方法,即计算点对之间的法向量距离,可利用非线性算子Levenberg-Marquardt(莱文贝格-马夸特)求解。
案例分析
基于MFC应用软件平台,使用本发明测量一个工业机器人完成如下实验。
通过导出STL图形,通过SOLIDWORKS测量工具测量物体尺寸如下:长方形物体为0.31864m*0.50751m*0.15262m,实际物体长度为0.321m*0.501m*0.163m,误差在0.02m之内。
从实验结果看,本发明具备测量精度高,时效性高,灵活性强,成本低廉特性。
本发明提供的一种基于Kinect深度相机测量方法,主要分为两个阶段,前期进行粗略配准估计,后期再进行精细配准估计。首先是通过提取特征点和计算点特征直方图,借助k-d树进行对应点估计,利用随机抽样一致方法去除无匹配点,得到一个粗配准对齐,然后是利用迭代最邻近点算法进行精细配准,利用非线性算子求解空间转换矩阵。在融合阶段,借助面元表达方法将配准后的点云进行融合并去除杂点和外点,采取多边形网格表示和纹理映射技术,获得可视化的真实物体三维模型结果,最后,根据测量位置读取点云信息,测量长度、曲率、角度信息。因此,本发明对kinect重建模型进行改进,改进后的方法可以实现对物体的在线实时重建,操作简易,成本低廉,测量精度高,时效性高,灵活性强。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (8)

1.一种基于Kinect深度相机测量方法,其特征在于,包括以下步骤:
S1、深度影像数据的转换;
S2、计算全局的摄像头的姿势信息;
S3、将从已知姿势信息的摄像头产生的深度影像数据融合为代表摄像头视野范围内的景物的立方体;
S4、从传感器视点位置对重建立方体进行光线投射,重建的点阵云产生渲染了的三维重建立方体;
S5、计算测量点之间的距离。
2.根据权利要求1所述的基于Kinect深度相机测量方法,其特征在于:步骤S1中深度影像数据的转换包括以下子步骤:
S11、原始数据获取及尺度转换:获取原始深度及彩色数据,将Kinect中获取的原始深度帧数据转换为以米为单位的浮点数据;
S12、空间视角转换:对浮点数据进行优化,通过获取摄像头的坐标信息,将浮点数据转换为和Kinect摄像头朝向一致的点云数据;
S13、点云预处理:对点云数据进行阈值化及降噪处理,表面情况通过使用AlignPointClouds函数获取。
3.根据权利要求2所述的基于Kinect深度相机测量方法,其特征在于:步骤S11为利用KINECT V2设备获取原始深度及彩色数据,利用SDK将Kinect中获取的原始深度帧数据转换为以米为单位的浮点数据。
4.根据权利要求1所述的基于Kinect深度相机测量方法,其特征在于:
步骤S2包括以下子步骤:
S21、点云配准:采用NuiFusionAlignPointClouds方法将从重建对象计算得来的点云数据与从Kinect深度影像数据中获取的点云数据进行配准;
S22、点云追踪:采用AlignDepthToReconstruction方法对重建立方体进行处理,获得追踪结果,如果场景中的追踪被中断,那么将摄像头的位置和上一次的摄像头位置对齐,继续进行追踪。
5.根据权利要求1所述的基于Kinect深度相机测量方法,其特征在于:步骤S3包括以下子步骤:
S31、三维点云配准,找出两组点云数据集的空间变换关系,即旋转和平移向量,然后将这两组点云数据变换到同一的坐标系下,使得两者之间的交集区域重叠;
S32、逐帧对深度数据融合,同时并行运行平滑算法进行去噪。
6.根据权利要求5所述的基于Kinect深度相机测量方法,其特征在于:步骤S31包括以下子步骤:
S311、计算最近点,即对于集合U中的每一个点,在集合P中都找出距该点最近的对应点,设集合P中由这些对应点组成的新点集为Q={qi,i=0,1,2,…,n};
S312、计算两个点集Q和U的重心位置坐标,并进行点集中心化生成新的点集;由新的点集计算正定矩阵N,并计算正定矩阵N的最大特征值及其最大特征向量;
S313、由于最大特征向量等价于残差平方和最小时的旋转四元数,将四元数转换为旋转矩阵R;在旋转矩阵R被确定后,由于平移向量T是两个点集的重心差异,通过两个坐标系中的重心点和旋转矩阵确定;其中R是3×3的旋转矩阵,T是3×1的平移矩阵;
S314、计算坐标变换,即对于集合U,用配准变换矩阵R,T进行坐标变换,得到新的点集U1,即U1=RU+T;
S315、计算U1与Q之间的均方根误差,如小于预设的极限值ε,则结束,否则,以点集U1替换U,重复上述步骤。
7.根据权利要求1所述的基于Kinect深度相机测量方法,其特征在于:步骤S4包括以下子步骤:
S41、从直接光照的微多边形生成点云;
S42、计算点云的n-1次反弹光照;
S43、根据点云计算并渲染间接光照。
8.根据权利要求1所述的基于Kinect深度相机测量方法,其特征在于:步骤S5包括以下子步骤;
S51、从生成的点云中读取测量点的点云信息;
S52、根据测量要求,根据点云所包含信息进行长度和曲率计算。
CN201710418540.5A 2017-06-06 2017-06-06 基于Kinect深度相机测量方法 Pending CN107292925A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710418540.5A CN107292925A (zh) 2017-06-06 2017-06-06 基于Kinect深度相机测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710418540.5A CN107292925A (zh) 2017-06-06 2017-06-06 基于Kinect深度相机测量方法

Publications (1)

Publication Number Publication Date
CN107292925A true CN107292925A (zh) 2017-10-24

Family

ID=60094993

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710418540.5A Pending CN107292925A (zh) 2017-06-06 2017-06-06 基于Kinect深度相机测量方法

Country Status (1)

Country Link
CN (1) CN107292925A (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108335325A (zh) * 2018-01-30 2018-07-27 上海数迹智能科技有限公司 一种基于深度相机数据的立方体快速测量方法
CN108734772A (zh) * 2018-05-18 2018-11-02 宁波古德软件技术有限公司 基于Kinect fusion的高精度深度图像获取方法
CN108876862A (zh) * 2018-07-13 2018-11-23 北京控制工程研究所 一种非合作目标点云位置姿态计算方法
CN109357637A (zh) * 2018-12-11 2019-02-19 长治学院 一种基于深度相机的卷板机卷板曲率半径和厚度测量方法
CN109657403A (zh) * 2019-01-07 2019-04-19 南京工业职业技术学院 一种基于无人机倾斜摄影的三维实景桥梁建模优化方法
CN109974687A (zh) * 2017-12-28 2019-07-05 周秦娜 一种基于深度摄像头的多传感器室内协同定位方法、装置及***
CN110047144A (zh) * 2019-04-01 2019-07-23 西安电子科技大学 一种基于Kinectv2的完整物体实时三维重建方法
CN111292326A (zh) * 2019-11-29 2020-06-16 北京华捷艾米科技有限公司 一种基于3d深度相机的体积测量方法及***
CN111414798A (zh) * 2019-02-03 2020-07-14 沈阳工业大学 基于rgb-d图像的头部姿态检测方法及***
CN112197773A (zh) * 2020-09-30 2021-01-08 江苏集萃未来城市应用技术研究所有限公司 基于平面信息的视觉和激光定位建图方法
CN112382359A (zh) * 2020-12-09 2021-02-19 北京柏惠维康科技有限公司 患者注册方法、装置、电子设备及计算机可读介质
CN112665528A (zh) * 2020-12-31 2021-04-16 河南卫华重型机械股份有限公司 一种激光扫描三维成像的矫正方法
CN112682270A (zh) * 2020-12-21 2021-04-20 华能安阳能源有限责任公司 一种风电机组高度测量方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106780619A (zh) * 2016-11-25 2017-05-31 青岛大学 一种基于Kinect深度相机的人体尺寸测量方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106780619A (zh) * 2016-11-25 2017-05-31 青岛大学 一种基于Kinect深度相机的人体尺寸测量方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
万松: "煤矿井下三维点云边缘检测及配准研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
程彦荣: "基于Kinect的三维区域测量技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
魏萍: "点云全局光照渲染方法的优化与扩展", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109974687A (zh) * 2017-12-28 2019-07-05 周秦娜 一种基于深度摄像头的多传感器室内协同定位方法、装置及***
CN108335325A (zh) * 2018-01-30 2018-07-27 上海数迹智能科技有限公司 一种基于深度相机数据的立方体快速测量方法
CN108734772A (zh) * 2018-05-18 2018-11-02 宁波古德软件技术有限公司 基于Kinect fusion的高精度深度图像获取方法
CN108876862A (zh) * 2018-07-13 2018-11-23 北京控制工程研究所 一种非合作目标点云位置姿态计算方法
CN108876862B (zh) * 2018-07-13 2021-12-07 北京控制工程研究所 一种非合作目标点云位置姿态计算方法
CN109357637A (zh) * 2018-12-11 2019-02-19 长治学院 一种基于深度相机的卷板机卷板曲率半径和厚度测量方法
CN109357637B (zh) * 2018-12-11 2021-12-10 长治学院 一种基于深度相机的卷板机卷板曲率半径和厚度测量方法
CN109657403A (zh) * 2019-01-07 2019-04-19 南京工业职业技术学院 一种基于无人机倾斜摄影的三维实景桥梁建模优化方法
CN111414798A (zh) * 2019-02-03 2020-07-14 沈阳工业大学 基于rgb-d图像的头部姿态检测方法及***
CN111414798B (zh) * 2019-02-03 2022-12-06 沈阳工业大学 基于rgb-d图像的头部姿态检测方法及***
CN110047144A (zh) * 2019-04-01 2019-07-23 西安电子科技大学 一种基于Kinectv2的完整物体实时三维重建方法
CN111292326A (zh) * 2019-11-29 2020-06-16 北京华捷艾米科技有限公司 一种基于3d深度相机的体积测量方法及***
CN112197773A (zh) * 2020-09-30 2021-01-08 江苏集萃未来城市应用技术研究所有限公司 基于平面信息的视觉和激光定位建图方法
CN112382359A (zh) * 2020-12-09 2021-02-19 北京柏惠维康科技有限公司 患者注册方法、装置、电子设备及计算机可读介质
CN112682270A (zh) * 2020-12-21 2021-04-20 华能安阳能源有限责任公司 一种风电机组高度测量方法
CN112682270B (zh) * 2020-12-21 2023-01-31 华能安阳能源有限责任公司 一种风电机组高度测量方法
CN112665528A (zh) * 2020-12-31 2021-04-16 河南卫华重型机械股份有限公司 一种激光扫描三维成像的矫正方法
CN112665528B (zh) * 2020-12-31 2023-10-20 河南卫华重型机械股份有限公司 一种激光扫描三维成像的矫正方法

Similar Documents

Publication Publication Date Title
CN107292925A (zh) 基于Kinect深度相机测量方法
CN111795704B (zh) 一种视觉点云地图的构建方法、装置
CN105913489B (zh) 一种利用平面特征的室内三维场景重构方法
CN107038717B (zh) 一种基于立体栅格自动分析3d点云配准误差的方法
CN106716450B (zh) 利用边缘向量的基于图像的特征检测
CN107833181B (zh) 一种基于变焦立体视觉的三维全景图像生成方法
JP4825253B2 (ja) 可変形オブジェクト認識のためのシステムおよび方法
JP4785880B2 (ja) 三次元オブジェクト認識のためのシステムおよび方法
CN108052942B (zh) 一种飞机飞行姿态的视觉图像识别方法
CN113177977B (zh) 一种非接触式三维人体尺寸的测量方法
CN105069743B (zh) 探测器拼接实时图像配准的方法
Dall'Asta et al. A comparison of semiglobal and local dense matching algorithms for surface reconstruction
WO2015139574A1 (zh) 一种静态物体重建方法和***
CN111768447B (zh) 一种基于模板匹配的单目相机物***姿估计方法及***
CN101777129B (zh) 一种基于特征检测的图像匹配方法
CN107516322B (zh) 一种基于对数极空间的图像物体大小和旋转估计计算方法
CN104021547A (zh) 肺部 ct 的三维配准方法
JP2019091493A (ja) ビジョンシステムで画像内のプローブを効率的に採点するためのシステム及び方法
Pound et al. A patch-based approach to 3D plant shoot phenotyping
CN115375842A (zh) 一种植株三维重建方法、终端及存储介质
CN108320310B (zh) 基于图像序列的空间目标三维姿态估计方法
Li et al. Sparse-to-local-dense matching for geometry-guided correspondence estimation
Koo et al. Recovering the 3D shape and poses of face images based on the similarity transform
CN104123724B (zh) 一种3d点云物体的快速检测方法
CN116894876A (zh) 基于实时图像的6-dof的定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20171024

RJ01 Rejection of invention patent application after publication