CN107292921B - 一种基于kinect相机的快速三维重建方法 - Google Patents

一种基于kinect相机的快速三维重建方法 Download PDF

Info

Publication number
CN107292921B
CN107292921B CN201710465788.7A CN201710465788A CN107292921B CN 107292921 B CN107292921 B CN 107292921B CN 201710465788 A CN201710465788 A CN 201710465788A CN 107292921 B CN107292921 B CN 107292921B
Authority
CN
China
Prior art keywords
point
kinect
data
point cloud
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201710465788.7A
Other languages
English (en)
Other versions
CN107292921A (zh
Inventor
李纯明
陈英博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201710465788.7A priority Critical patent/CN107292921B/zh
Publication of CN107292921A publication Critical patent/CN107292921A/zh
Application granted granted Critical
Publication of CN107292921B publication Critical patent/CN107292921B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明属于三维重建技术领域,涉及一种基于kinect相机的快速三维重建方法。相对于传统技术,本发明的方法使用主光轴约束的方法删除掉了单视角点云中成像错误点,一定程度上改善了点云质量,使得三维重建的精度更高;其次针对点云精度较差,重合度较小等情况,对已有的基于RGB‑D数据的点云配准算法进行改进,虽然增大了一些计算时间开销,但极大的提升了算法的配准精度,极大的减少了算法收敛至局部最小值的可能性。

Description

一种基于kinect相机的快速三维重建方法
技术领域
本发明属于三维重建技术领域,涉及一种基于kinect相机的快速三维重建方法。
背景技术
三维重建是指通过一定的手段在电脑中建立真实物体或场景的虚拟三维模型,并可以在电脑环境下对虚拟三维模型进行分析,加工及操作。随着科技的进步,三维重建已经在各个领域发挥着巨大的作用。在虚拟现实领域,虚拟场景中的物体模型可通过对真实物体的三维重建获得,比起虚拟建模软件如3DS Max,由三维重建获得的物体更加真实。在3D打印技术中,三维重建也是至关重要的步骤,三维重建的精度直接影响到3D打印生成模型的效果。在军事领域,三维重建算法可以直接将卫星或无人机拍摄的地形照片转换为三维地形模型,大大有利于正确决策的做出。此外,在文物保护,增强现实等方面三维重建也发挥着重要的作用。
多视角点云配准是三维重建技术的重要步骤。点云配准是指通过扫描采样获得的两组有重复区域的点云数据,通过确定一个合适的坐标变换使两组数据点云对齐合并在一个统一的坐标系下,以得到被测物体完整的数据模型。统一的坐标系又叫做世界坐标系。若将一系列点云数据进行配准,一般以第一片点云作为基准,以第一片点云数据所在的坐标系作为世界坐标系,将后续点云与第一片点云进行配准。点云配准算法以两片点云作为输入,以一个坐标变换矩阵作为输出,这个坐标变换矩阵用来将其中一片点云转到另一片点云的坐标系下,由此实现两片点云的配准。根据已有数据的信息类型,点云配准又分为传统点云配准和RGB-D点云配准。传统点云配准,简称点云配准,指对仅含空间信息的点云数据进行配准。RGB-D配准,顾名思义,就是对带有色彩信息的点云数据进行配准。而色彩信息,又以色彩图的形式出现。随着RGB-D设备的发展,基于RGB-D数据的配准算法被越来越多的学者研究。
而对Kinect设备来说,Kinect设备产生的点云数据精度相对较差,用传统的点云配准方法较难实现成功配准,而现有的基于RGB-D数据的配准方法,虽然成功率较高,但配准精度较低。现有技术多数利用DeReEs算法与Henry的基于RGB-D数据的点云配准方案。DeReEs算法与Henry的基于RGB-D数据的点云配准方案都较好的解决了基于RGB-D数据的点云粗配准问题。就是说,通过二者的算法,可以得到较好的初始位姿矩阵。但是,在初始位姿矩阵的基础上,无法对配准算法进行精配准优化。虽然Henry的RGB-D数据配准方案在精配准方面做过尝试,但是算法仅针对相邻数据帧位姿差异极小的情况下较为适用。
发明内容
本发明所要解决的是,就是针对上述传统方法存在问题,提出一种不基于kinect相机的人脸三维点云优化处理方法。
本发明的技术方案是:如图1所示,一种基于kinect相机的快速三维重建方法,其特征在于,包括以下步骤:
S1、标定所有的kinect相机;
S2、采用如步骤S1所述的kinect相机对扫描目标进行数据采集,每一个kinect相机获取的数据帧包含一张RGB图像与相应的深度数据;
S3、根据步骤S2获得的数据,将所有视角的扫描目标分别生成单视角点云;
S4、对步骤S3中获得的所有单视角点云进行优化;
S5、选择一台kinect相机坐标系作为世界坐标系,利用相对位姿矩阵对所有单视角点云进行坐标系转换,将所有的视角点云转到全局坐标系,获得拼接后的多视角点云模型。
上述方案中,首先使用张氏标定法对相机进行标定,得到高精度的参数。这个标定过程对每一个Kinect设备只需执行一次即可。因为相机硬件设备的稳定性,这个参数在相当长的时间内不会变化。对于每一组深度数据,将进行两个层面的优化步骤,即深度图层面的优化和点云层面的优化。即首先对原始Kinect数据进行深度图层面的优化,然后依靠相机参数生成点云,最后进行点云层面的优化。
进一步的,所述步骤S3的具体方法为:
通过如下公式1将kinect深度数据映射到三维空间中,转换为点云数据:
公式1中,矩阵C为由张氏标定法计算出的相机内参,(u,v)是深度图上每个点的图像像素坐标值,X,Y,Z是此点的空间坐标分量;当已知u,v,Z,C,可获得X,Y分量;
由于已经通过相机标定计算出了深度与色彩坐标系位姿关系,就打通了深度和彩色信息之间的桥梁。通过公式1已经求出了点云中每个点的三维空间坐标,通过如下公式2获取公式1中点在RGB图像中的对应点:
Figure GDA0002310663050000031
公式2中,(u,v)是彩色图上对应点坐标值,C是彩色相机内参,T是两个坐标系之间的矩阵;
则给定深度系上一个点,可以找到在彩色图像上的对应坐标点,从而获取此点的色彩信息。
进一步的,所述步骤S4的具体方法为:采用主光轴约束的方法来删除掉成像错误点,具体为:
定义点(u,v)坐标值处横向主光轴夹角θx与纵向主光轴夹角θy为如下公式3和公式4所示:
Figure GDA0002310663050000033
Figure GDA0002310663050000034
其中,(xu,v,yu,v,zu,v)代表像素点(u,v)处的三维坐标值,d代表两点之间的空间距离;
预设主光轴夹角阈值θ,若θx>θ或θy>θ成立,则将此点从深度数据中删除。
上述方案中,为经过大量的实验观察发现,由于Kinect成像机理,横向与纵向主光轴夹角过大的点的深度值极不准确,这些点的错误深度值严重影响点云配准的效果与三维重建的效果。经过大量的实验,针对Kinect数据,阈值θ设置为60-70为宜。
进一步的,相对位姿矩阵的获取方法为:
S51、采用如步骤S1所述的kinect相机采集场景数据,每个kinect相机仅需拍摄一帧场景数据;
S52、通过SIFT特征点计算相邻两个Kinect相机获取的RGB图像的对应点对,并将特征点对转换为三维坐标,具体为:
假设P1为参考帧,P2为目标帧,每帧都包含一张彩色图片与三维点云数据,则包括:
S521、从P1的彩色图像中提取SIFT特征点,特征点集记为F;
S522、从P2的彩色图像中提取SIFT特征点,特征点集记为Ft
S523、从两个特征点集中提取匹配特征点对,并将所有配对的特征点转换为点云,分别记为Pf1与Pf2,Pf1与Pf2中下标相同的点为一对SIFT匹配点;
S53、用RANSAC配准方法对点云Pf1与Pf2中的点进行特征匹配;
S54、获得若干对应点后,用SVD分解的方法计算两kinect之间的初始位姿矩阵H0
S55、通过初始位姿矩阵H0找到两个Kinect场景数据之间的重叠区域,利用ICP算法计算出相对位姿矩阵H,具体为:
S551、将待配准点云P2用初始化矩阵进行更新:
P2=P2*H0
S552、对P1中的每个点,判断是否为内点;如果不是,就跳过,如果是,用Kd-tree在P2中寻找最近的点,组成点集SP2
S553、对两个点集P1及SP2进行奇异值分解,计算出相对位姿矩阵H;
S554、对初始位姿矩阵进行更新:H0=H;
S555、重复步骤S551-S555直至满足收敛,获得位姿矩阵;
S56、重复步骤S52至S55直至获取所有相邻的kinect相机之间的相对位姿矩阵H1,H2,...Hn。
本发明的有益效果为:相对于传统技术,本发明的方法使用主光轴约束的方法删除掉了单视角点云中成像错误点,一定程度上改善了点云质量,使得三维重建的精度更高;其次针对点云精度较差,重合度较小等情况,对已有的基于RGB-D数据的点云配准算法进行改进,虽然增大了一些计算时间开销,但极大的提升了算法的配准精度,极大的减少了算法收敛至局部最小值的可能性。
附图说明
图1为本发明总的流程示意图。
具体实施方式
下面结合附图对本发明的技术方案进行详细说明。
如图1所示,一种基于kinect相机的快速三维重建方法,包括以下步骤:
S1、标定所有的kinect相机;
S2、采用如步骤S1所述的kinect相机对扫描目标进行数据采集,每一个kinect相机获取的数据帧包含一张RGB图像与相应的深度数据;
S3、根据步骤S2获得的数据,将所有视角的扫描目标分别生成单视角点云;
S4、对步骤S3中获得的所有单视角点云进行优化;
S5、选择一台kinect相机坐标系作为世界坐标系,利用相对位姿矩阵对所有单视角点云进行坐标系转换,将所有的视角点云转到全局坐标系,获得拼接后的多视角点云模型。
上述方案中,首先使用张氏标定法对相机进行标定,得到高精度的参数。这个标定过程对每一个Kinect设备只需执行一次即可。因为相机硬件设备的稳定性,这个参数在相当长的时间内不会变化。对于每一组深度数据,将进行两个层面的优化步骤,即深度图层面的优化和点云层面的优化。即首先对原始Kinect数据进行深度图层面的优化,然后依靠相机参数生成点云,最后进行点云层面的优化。
所述步骤S3的具体方法为:
通过如下公式1将kinect深度数据映射到三维空间中,转换为点云数据:
Figure GDA0002310663050000061
公式1中,矩阵C为由张氏标定法计算出的相机内参,(u,v)是深度图上每个点的图像像素坐标值,X,Y,Z是此点的空间坐标分量;当已知u,v,Z,C,可获得X,Y分量;
由于已经通过相机标定计算出了深度与色彩坐标系位姿关系,就打通了深度和彩色信息之间的桥梁。通过公式1已经求出了点云中每个点的三维空间坐标,通过如下公式2获取公式1中点在RGB图像中的对应点:
Figure GDA0002310663050000062
公式2中,(u,v)是彩色图上对应点坐标值,C是彩色相机内参,T是两个坐标系之间的
Figure GDA0002310663050000063
矩阵;
则给定深度系上一个点,可以找到在彩色图像上的对应坐标点,从而获取此点的色彩信息。
进一步的,所述步骤S4的具体方法为:采用主光轴约束的方法来删除掉成像错误点,具体为:
定义点(u,v)坐标值处横向主光轴夹角θx与纵向主光轴夹角θy为如下公式3和公式4所示:
Figure GDA0002310663050000064
其中,(xu,v,yu,v,zu,v)代表像素点(u,v)处的三维坐标值,d代表两点之间的空间距离;
预设主光轴夹角阈值θ,若θx>θ或θy>θ成立,则将此点从深度数据中删除。
上述方案中,为经过大量的实验观察发现,由于Kinect成像机理,横向与纵向主光轴夹角过大的点的深度值极不准确,这些点的错误深度值严重影响点云配准的效果与三维重建的效果。经过大量的实验,针对Kinect数据,阈值θ设置为60-70为宜。
相对位姿矩阵的获取方法为:
S51、采用如步骤S1所述的kinect相机采集场景数据,每个kinect相机仅需拍摄一帧场景数据;
S52、通过SIFT特征点计算相邻两个Kinect相机获取的RGB图像的对应点对,并将特征点对转换为三维坐标,具体为:
假设P1为参考帧,P2为目标帧,每帧都包含一张彩色图片与三维点云数据,则包括:
S521、从P1的彩色图像中提取SIFT特征点,特征点集记为F;
S522、从P2的彩色图像中提取SIFT特征点,特征点集记为Ft
S523、从两个特征点集中提取匹配特征点对,并将所有配对的特征点转换为点云,分别记为Pf1与Pf2,Pf1与Pf2中下标相同的点为一对SIFT匹配点;
S53、用RANSAC配准方法对点云Pf1与Pf2中的点进行特征匹配;
S54、获得若干对应点后,用SVD分解的方法计算两kinect之间的初始位姿矩阵H0
S55、通过初始位姿矩阵H0找到两个Kinect场景数据之间的重叠区域,利用ICP算法计算出相对位姿矩阵H,具体为:
S551、将待配准点云P2用初始化矩阵进行更新:
P2=P2*H0
S552、对P1中的每个点,判断是否为内点;如果不是,就跳过,如果是,用Kd-tree在P2中寻找最近的点,组成点集SP2
S553、对两个点集P1及SP2进行奇异值分解,计算出相对位姿矩阵H;
S554、对初始位姿矩阵进行更新:H0=H;
S555、重复步骤S551-S555直至满足收敛,获得位姿矩阵;
S56、重复步骤S52至S55直至获取所有相邻的kinect相机之间的相对位姿矩阵H1,H2,...Hn。
本发明在实际中的应用方式:
在实际应用中,首先固定Kinect设备,布置环境场景使其具有丰富的纹理信息,然后通过本发明所述的基于RGB-D数据的点云配准算法计算出所有Kinect设备间相对位姿矩阵,即外参矩阵。获得外参矩阵后,再依次对被扫描物进行数据采集,并用外参矩阵直接对多视角的Kinect数据进行拼接。
相较于传统的配准方案,本发明所提出的三维重建方法在外参矩阵计算中可以完全避免任何手动操作,实现自动化。并且外参计算步骤只需执行一次即可,后续重建中,只要使用计算好的外参矩阵对数据进行拼接,节省了大量的时间。

Claims (3)

1.一种基于kinect相机的快速三维重建方法,其特征在于,包括以下步骤:
S1、标定所有的kinect相机;
S2、采用如步骤S1所述的kinect相机对扫描目标进行数据采集,每一个kinect相机获取的数据帧包含一张RGB图像与相应的深度数据;
S3、根据步骤S2获得的数据,将所有视角的扫描目标分别生成单视角点云;具体方法为:
通过如下公式1将kinect深度数据映射到三维空间中,转换为点云数据:
Figure FDA0002224750930000011
公式1中,矩阵C为由张氏标定法计算出的相机内参,(u,v)是深度图上每个点的图像像素坐标值,X,Y,Z是此点的空间坐标分量;当已知u,v,Z,C,可获得X,Y分量;
通过如下公式2获取公式1中点在RGB图像中的对应点:
公式2中,(u,v)是彩色图上对应点坐标值,C是彩色相机内参,T是两个坐标系之间的
Figure FDA0002224750930000013
矩阵;
则对于三维空间中的任意一个点,可以计算出此点在彩色图像上的图像坐标值,从而获取此点的色彩信息;
S4、对步骤S3中获得的所有单视角点云进行优化;
S5、选择一台kinect相机坐标系作为世界坐标系,利用相对位姿矩阵对所有单视角点云进行坐标系转换,将所有的视角点云转到全局坐标系,获得拼接后的多视角点云模型。
2.根据权利要求1所述的一种基于kinect相机的快速三维重建方法,其特征在于,所述步骤S4的具体方法为:
采用主光轴约束的方法来删除掉成像错误点,具体为:
定义点(u,v)坐标值处横向主光轴夹角θx与纵向主光轴夹角θy为如下公式3和公式4所示:
Figure FDA0002224750930000021
Figure FDA0002224750930000022
其中,(xu,v,yu,v,zu,v)代表像素点(u,v)处的三维坐标值,d代表两点之间的空间距离;
预设主光轴夹角阈值θ,若θx>θ或θy>θ成立,则将此点从深度数据中删除。
3.根据权利要求2述的一种基于kinect相机的快速三维重建方法,其特征在于,所述步骤S5中,相对位姿矩阵的获取方法为:
S51、采用如步骤S1所述的kinect相机采集场景数据,每个kinect相机仅需拍摄一帧场景数据;
S52、通过SIFT特征点计算相邻两个Kinect相机获取的RGB图像的对应点对,并将特征点对转换为三维坐标,具体为:
假设P1为参考帧,P2为目标帧,每帧都包含一张彩色图片与三维点云数据,则包括:
S521、从P1的彩色图像中提取SIFT特征点,特征点集记为F;
S522、从P2的彩色图像中提取SIFT特征点,特征点集记为Ft
S523、从两个特征点集中提取匹配特征点对,并将所有配对的特征点转换为点云,分别记为Pf1与Pf2,Pf1与Pf2中下标相同的点为一对SIFT匹配点;
S53、用RANSAC配准方法对点云Pf1与Pf2中的点进行特征匹配;
S54、获得若干对应点后,用SVD分解的方法计算两kinect之间的初始位姿矩阵H0
S55、通过初始位姿矩阵H0找到两个Kinect场景数据之间的重叠区域,利用ICP算法计算出相对位姿矩阵H,具体为:
S551、将待配准点云P2用初始化矩阵进行更新:
P2=P2*H0
S552、对P1中的每个点,判断是否为内点;如果不是,就跳过,如果是,用Kd-tree在P2中寻找最近的点,组成点集SP2
S553、对两个点集P1及SP2进行奇异值分解,计算出相对位姿矩阵H;
S554、对初始位姿矩阵进行更新:H0=H;
S555、重复步骤S551-S555直至满足收敛,获得位姿矩阵;
S56、重复步骤S52至S55直至获取所有相邻的kinect相机之间的相对位姿矩阵H1,H2,...Hn。
CN201710465788.7A 2017-06-19 2017-06-19 一种基于kinect相机的快速三维重建方法 Expired - Fee Related CN107292921B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710465788.7A CN107292921B (zh) 2017-06-19 2017-06-19 一种基于kinect相机的快速三维重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710465788.7A CN107292921B (zh) 2017-06-19 2017-06-19 一种基于kinect相机的快速三维重建方法

Publications (2)

Publication Number Publication Date
CN107292921A CN107292921A (zh) 2017-10-24
CN107292921B true CN107292921B (zh) 2020-02-04

Family

ID=60098020

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710465788.7A Expired - Fee Related CN107292921B (zh) 2017-06-19 2017-06-19 一种基于kinect相机的快速三维重建方法

Country Status (1)

Country Link
CN (1) CN107292921B (zh)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109816703B (zh) * 2017-11-21 2021-10-01 西安交通大学 一种基于相机标定和icp算法的点云配准方法
CN109931923B (zh) * 2017-12-15 2023-07-07 阿里巴巴集团控股有限公司 一种导航引导图的生成方法和装置
CN108335325A (zh) * 2018-01-30 2018-07-27 上海数迹智能科技有限公司 一种基于深度相机数据的立方体快速测量方法
CN108492330B (zh) * 2018-02-14 2019-04-05 天目爱视(北京)科技有限公司 一种多目视觉深度计算方法及装置
CN108470151A (zh) * 2018-02-14 2018-08-31 天目爱视(北京)科技有限公司 一种生物特征模型合成方法及装置
CN108446597B (zh) * 2018-02-14 2019-06-25 天目爱视(北京)科技有限公司 一种基于可见光相机的生物特征3d数据采集方法及装置
CN108470150A (zh) * 2018-02-14 2018-08-31 天目爱视(北京)科技有限公司 一种基于可见光相机的生物特征四维数据采集方法及装置
CN108573526A (zh) * 2018-03-30 2018-09-25 盎锐(上海)信息科技有限公司 人脸抓拍装置及影像生成方法
CN108520230A (zh) * 2018-04-04 2018-09-11 北京天目智联科技有限公司 一种3d四维手部图像数据识别方法及设备
CN108564041B (zh) * 2018-04-17 2020-07-24 云从科技集团股份有限公司 一种基于rgbd相机的人脸检测和修复方法
CN109003325B (zh) * 2018-06-01 2023-08-04 杭州易现先进科技有限公司 一种三维重建的方法、介质、装置和计算设备
CN109064536B (zh) * 2018-07-27 2022-12-06 电子科技大学 一种基于双目结构光的书页三维重建方法
CN109255819B (zh) * 2018-08-14 2020-10-13 清华大学 基于平面镜的Kinect标定方法及装置
CN109300188A (zh) * 2018-10-23 2019-02-01 北京旷视科技有限公司 三维模型处理方法及装置
CN109509226B (zh) * 2018-11-27 2023-03-28 广东工业大学 三维点云数据配准方法、装置、设备及可读存储介质
CN109697753B (zh) * 2018-12-10 2023-10-03 智灵飞(北京)科技有限公司 一种基于rgb-d slam的无人机三维重建方法、无人机
CN109920000B (zh) * 2019-03-04 2020-11-03 杭州师范大学 一种基于多相机协同的无死角的增强现实方法
CN110956066B (zh) * 2019-05-11 2022-06-14 魔门塔(苏州)科技有限公司 一种人脸部位测距方法、装置及车载终端
CN110175954A (zh) * 2019-05-29 2019-08-27 西安邮电大学 改进的icp点云快速拼接方法、装置、电子设备及存储介质
CN110458939B (zh) * 2019-07-24 2022-11-18 大连理工大学 基于视角生成的室内场景建模方法
CN110505463A (zh) * 2019-08-23 2019-11-26 上海亦我信息技术有限公司 基于拍照的实时自动3d建模方法
WO2021092771A1 (zh) * 2019-11-12 2021-05-20 Oppo广东移动通信有限公司 一种目标检测方法及装置、设备、存储介质
CN111161404B (zh) * 2019-12-23 2023-05-09 华中科技大学鄂州工业技术研究院 一种环形扫描形貌三维重建方法、装置及***
CN111105460B (zh) * 2019-12-26 2023-04-25 电子科技大学 一种室内场景三维重建的rgb-d相机位姿估计方法
CN112562082A (zh) * 2020-08-06 2021-03-26 长春理工大学 一种三维人脸重建方法及***
US11557046B2 (en) * 2020-09-30 2023-01-17 Argyle Inc. Single-moment alignment of imprecise overlapping digital spatial datasets, maximizing local precision
CN113112532B (zh) * 2021-04-13 2023-04-21 中山大学 一种多ToF相机***实时配准方法
CN116824067B (zh) * 2023-08-24 2023-11-24 成都量芯集成科技有限公司 一种室内三维重建方法及其装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102364299A (zh) * 2011-08-30 2012-02-29 刘桂华 一种多个结构光投影三维型面测量头的标定技术
CN102982557A (zh) * 2012-11-06 2013-03-20 桂林电子科技大学 基于深度相机的空间手势姿态指令处理方法
CN104156972A (zh) * 2014-08-25 2014-11-19 西北工业大学 基于激光扫描测距仪与多相机融合的透视成像方法
CN105976353A (zh) * 2016-04-14 2016-09-28 南京理工大学 基于模型和点云全局匹配的空间非合作目标位姿估计方法
CN106780576A (zh) * 2016-11-23 2017-05-31 北京航空航天大学 一种面向rgbd数据流的相机位姿估计方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102364299A (zh) * 2011-08-30 2012-02-29 刘桂华 一种多个结构光投影三维型面测量头的标定技术
CN102982557A (zh) * 2012-11-06 2013-03-20 桂林电子科技大学 基于深度相机的空间手势姿态指令处理方法
CN104156972A (zh) * 2014-08-25 2014-11-19 西北工业大学 基于激光扫描测距仪与多相机融合的透视成像方法
CN105976353A (zh) * 2016-04-14 2016-09-28 南京理工大学 基于模型和点云全局匹配的空间非合作目标位姿估计方法
CN106780576A (zh) * 2016-11-23 2017-05-31 北京航空航天大学 一种面向rgbd数据流的相机位姿估计方法

Also Published As

Publication number Publication date
CN107292921A (zh) 2017-10-24

Similar Documents

Publication Publication Date Title
CN107292921B (zh) 一种基于kinect相机的快速三维重建方法
CN113052835B (zh) 一种基于三维点云与图像数据融合的药盒检测方法及其检测***
CN104376552B (zh) 一种3d模型与二维图像的虚实配准方法
CN109308719B (zh) 一种基于三维卷积的双目视差估计方法
CN105956539B (zh) 一种应用背景建模和双目视觉原理的人体身高测量方法
CN109344813B (zh) 一种基于rgbd的目标识别和场景建模方法
CN112801074B (zh) 一种基于交通摄像头的深度图估计方法
CN107560592B (zh) 一种用于光电跟踪仪联动目标的精确测距方法
CN105989604A (zh) 一种基于kinect的目标物体三维彩色点云生成方法
CN111027415B (zh) 一种基于偏振图像的车辆检测方法
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
CN104539928A (zh) 一种光栅立体印刷图像合成方法
CN112929626B (zh) 一种基于智能手机影像的三维信息提取方法
CN115471534A (zh) 基于双目视觉和imu的水下场景三维重建方法及设备
CN104182968A (zh) 宽基线多阵列光学探测***模糊动目标分割方法
CN113050074A (zh) 无人驾驶环境感知中相机与激光雷达标定***及标定方法
CN115880344A (zh) 一种双目立体匹配数据集视差真值获取方法
CN110580715B (zh) 一种基于照度约束和格网变形的图像对齐方法
CN105739106A (zh) 一种体感多视点大尺寸光场真三维显示装置及方法
CN117197333A (zh) 基于多目视觉的空间目标重构与位姿估计方法及***
CN106971385B (zh) 一种飞行器态势感知用多源图像实时融合方法及其装置
CN114419259B (zh) 一种基于物理模型成像仿真的视觉定位方法及***
CN116740488A (zh) 一种用于视觉定位的特征提取模型的训练方法及装置
CN113902847B (zh) 基于三维特征约束的单目深度图像位姿优化方法
Man et al. MFNN: Position and attitude measurement neural network based on multi-feature fusion

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200204

Termination date: 20200619

CF01 Termination of patent right due to non-payment of annual fee