CN103198523B - 一种基于多深度图的非刚体三维重建方法及*** - Google Patents

一种基于多深度图的非刚体三维重建方法及*** Download PDF

Info

Publication number
CN103198523B
CN103198523B CN201310150796.4A CN201310150796A CN103198523B CN 103198523 B CN103198523 B CN 103198523B CN 201310150796 A CN201310150796 A CN 201310150796A CN 103198523 B CN103198523 B CN 103198523B
Authority
CN
China
Prior art keywords
point
depth map
dimensional
rigid
cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310150796.4A
Other languages
English (en)
Other versions
CN103198523A (zh
Inventor
戴琼海
叶亘之
刘烨斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201310150796.4A priority Critical patent/CN103198523B/zh
Publication of CN103198523A publication Critical patent/CN103198523A/zh
Priority to US14/261,807 priority patent/US9472021B2/en
Application granted granted Critical
Publication of CN103198523B publication Critical patent/CN103198523B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提出一种基于多深度图的非刚体三维重建方法,包括以下步骤:对非刚体以不同角度和不同姿态进行深度图拍摄以得到多个深度图;将每个深度图变换为一组三维点云,并获取多组三维点云之间的多个匹配点对;对每个匹配点进行位置变换,并求取位置变换后的每个匹配点对应的变换参数;对所有变换参数进行拼接,并根据拼接结果建立能量函数;对能量函数进行求解,以根据求解结果重建非刚体的三维模型。根据本发明的方法,所需输入信息简单易采集,并可得到高精度的完整三维模型。该方法求解准确鲁棒,消除了累加误差所会带来的影响,且运行速度快,拥有广阔的应用前景。本发明还提出了一种基于多深度图的非刚体三维重建***。

Description

一种基于多深度图的非刚体三维重建方法及***
技术领域
本发明涉及计算机视觉技术领域,特别涉及一种基于多深度图的非刚体三维重建方法及***。
背景技术
三维重建是计算机视觉领域的重点问题。高质量的三维模型在影视娱乐、文物保护、机械加工等各个领域都有着重要的应用价值。但是高质量三维模型的获取通常依靠价格昂贵的激光扫描仪实现,虽然精度得以保证,但是也存在着两个缺点:第一、激光扫描仪在扫描过程中要求被扫物体绝对静止,微小的移动就会导致扫描结果存在明显的误差;第二,激光扫描仪价格不菲,很难普及从而扩大民用价值。
发明内容
本发明旨在至少解决上述技术问题之一。
为此,本发明的一个目的在于提出一种基于多深度图的非刚体三维重建方法。该方法求解准确鲁棒,消除了累加误差所会带来的影响,且运行速度快,拥有广阔的应用前景。
本发明的另一目的在于提出一种基于多深度图的非刚体三维重建***。
为了实现上述目的,本发明第一方面的实施例提出了一种基于多深度图的非刚体三维重建方法,包括以下步骤:对非刚体以不同角度和不同姿态进行深度图拍摄以得到多个深度图;将每个深度图变换为一组三维点云,并获取多组三维点云之间的多个匹配点对;对每个匹配点进行位置变换,并求取所述位置变换后的每个匹配点对应的变换参数;对所有变换参数进行拼接,并根据拼接结果建立能量函数;以及对所述能量函数进行求解,以根据求解结果重建所述非刚体的三维模型。
根据本发明实施例的基于多深度图的非刚体三维重建方法,利用深度相机对同一非刚性物体不同角度、不同姿态拍摄采集到的深度图,并基于上述深度图完成对非刚体的三维几何建模的功能。该方法需求的输入信息简单易采集,并可得到高精度的完整三维模型。该方法求解准确鲁棒,消除了累加误差所会带来的影响。另外,该方法简单易行,且运行速度快,拥有广阔的应用前景,可以在普通PC机或工作站等硬件***上实现。
另外,根据本发明上述实施例的基于多深度图的非刚体三维重建方法还可以具有如下附加的技术特征:
在一些示例中,通过深度相机对所述非刚体进行拍摄以得到所述多个深度图。
在一些示例中,所述将每个深度图变换为一组三维点云,进一步包括:获取所述深度相机的内参矩阵;根据所述内参矩阵将所述每个深度图变换为一组三维点云。
在一些示例中,所述变换的变换公式为:其中,u,v为像素坐标,dc(u,v)为第c张深度图上像素(u,v)位置上的深度值,所述K为内参矩阵。
在一些示例中,所述对每个匹配点进行位置变换,并求取所述位置变换后的每个匹配点对应的变换参数,进一步包括:计算所述每个匹配点的旋转矩阵和偏移向量;根据所述旋转矩阵和偏移向量得到所述每个匹配点的位置变换方程;根据所述的位置变换方程得到所述每个匹配点对应的变换参数。
在一些示例中,所述位置变换方程为:p′=Rp+t,其中,p为匹配点,R为旋转矩阵,t为偏移向量。
在一些示例中,所述能量函数为:X=argminxαeEefEfnEn,其中,Ee为拓扑约束,Ef为特征约束,En为最近点约束,αe、αf、αn分别为Ee、Ef和En的权重系数。
本发明第二方面的实施例提供了一种基于多深度图的非刚体三维重建***,包括:深度相机,所述深度相机用于对非刚体以不同角度和不同姿态进行深度图拍摄以得到多个深度图;匹配模块,用于将每个深度图变换为一组三维点云,并获取多组三维点云之间的多个匹配点对;变换模块,用于对每个匹配点进行位置变换,并求取所述位置变换后的每个匹配点对应的变换参数;拼接模块,用于对所有变换参数进行拼接,并根据拼接结果建立能量函数;以及三维重建模块,用于对所述能量函数进行求解,以根据求解结果重建所述非刚体的三维模型。
根据本发明实施例的基于多深度图的非刚体三维重建***,利用深度相机对同一非刚性物体不同角度、不同姿态拍摄采集到的深度图,并基于上述深度图完成对非刚体的三维几何建模的功能。该***需求的输入信息简单易采集,并可得到高精度的完整三维模型。该***求解准确鲁棒,消除了累加误差所会带来的影响。另外,该***成本低,且运行速度快,拥有广阔的应用前景,可以在普通PC机或工作站等硬件***上实现。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是根据本发明一个实施例的基于多深度图的非刚体三维重建方法的流程图;以及
图2是根据本发明一个实施例的基于多深度图的非刚体三维重建***的结构图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
以下结合附图描述根据本发明实施例的基于多深度图的非刚体三维重建方法及***。
图1是根据本发明一个实施例的基于多深度图的非刚体三维重建方法的流程图。如图1所示,该方法包括如下步骤:
步骤S101:对非刚体以不同角度和不同姿态进行深度图拍摄以得到多个深度图。
具体地,可通过深度相机对非刚体进行拍摄以得到多个深度图。即利用深度相机对同一非刚性物体(非刚体)以不同角度、不同姿态进行拍摄多个深度图,并采集上述多个深度图。
步骤S102:将每个深度图变换为一组三维点云,并获取多组三维点云之间的多个匹配点对。
在本发明的一个示例中,将每个深度图变换为一组三维点云包括:
1)获取深度相机的内参矩阵。
2)根据内参矩阵将每个深度图变换为一组三维点云。其中,变换的变换公式为:其中,u,v为像素坐标,dc(u,v)为第c张深度图上像素(u,v)位置上的深度值,所述K为内参矩阵。
具体地说,例如:存在Nf张深度图,则输入Nf张深度图dc(u,v),c=1,2,…,Nf,给定深度相机内参矩阵K,每张深度图即可变换为一组三维点云,通过上述变换公式进行变换。
开始需要用户手工指定点云间特征点的对应关系(匹配点对)。这是由于点云特征较少,相同几何分布的区域很多,如果利用全自动的匹配算法几乎很难实现。因此,本发明实施例的方法只需要用户手工指定少量特征对应点,即可实现后续准确高质量的三维重建效果。对应点对集合表示为: 其表示第c帧的第m个点与第c′帧的第m′个点相对应。
步骤S103:对每个匹配点进行位置变换,并求取位置变换后的每个匹配点对应的变换参数。
作为一个具体的例子,对每个匹配点进行位置变换,并求取位置变换后的每个匹配点对应的变换参数,进一步包括:
1)计算每个匹配点的旋转矩阵和偏移向量。
2)根据旋转矩阵和偏移向量得到每个匹配点的位置变换方程。其中,位置变换方程为:p′=Rp+t,其中,p为匹配点,R为旋转矩阵,t为偏移向量。
3)根据的位置变换方程得到每个匹配点对应的变换参数。
即在上述对应点(匹配点对)指定完成后,即开始全自动的将各帧点云开始对齐拼接。本发明实施例的方法通过一种全局联合变形拼接方法,可以实现所有帧点云变换参数联合求解,从而避免了逐帧顺序对齐会带来的积累误差问题。
具体而言,对点云中的每个点p,首先求解其旋转矩阵R和偏移向量t,从而点p变换后的位置为:p′=Rp+t。进一步地,为了实现快速线性求解的要求,本发明实施例的方法对利用指数映射方法对变形方程做如下近似:
p ′ = Rp + t ≈ ( I + ξ ^ ) p ^ ,
其中,I为四维单位阵,为p的其次形式。
其中, ξ ^ = 0 - w z w y v 1 w z 0 - w x v 2 - w y w x 0 v 3 0 0 0 1 ,
接着对做变换,如下:
( I + ξ ^ ) p ^ = 1 - w z w y v 1 w z 1 - w x v 2 - w y w x 1 v 3 0 0 0 1 p x p y p z = 1 0 0 0 p z - p y 0 1 0 - p z 0 p x 0 0 1 p y - p x 0 v 1 v 2 v 3 w x w y w z
对于每个点,要求解的未知参数即为六维变换参数x=(vl,v2,v3,wx,wy,wz)T
步骤S104:对所有变换参数进行拼接,并根据拼接结果建立能量函数,其中,能量函数为:X=argminXαeEefEfnEn,其中,Ee为拓扑约束,Ef为特征约束,En为最近点约束,αe、αf、αn分别为Ee、Ef和En的权重系数。
具体地,将所有点的变换参数x拼接起来,组成X。X即为能使如下能量函数达到最小值的解:X=argminXαeEefEfnEn
其中,Ee为拓扑约束,Ef为特征约束,En为最近点约束,αe、αf、αn分别为他们各自的权重系数。
其中, E e = Σ c = 1 N f Σ i = 1 N c Σ j ∈ N ( i ) | | x i - x j | | 2 ,
拓扑约束Ee保证每帧的点云中的每一点与其相邻的点的变换参数xi与xj之间尽可能接近,从而保持点云的原有拓扑。
其中, E f = Σ i , j ∈ F | | x i ( p i ) - x j ( p j ) | | 2 ,
特征约束Ef保证对应点pi与pi经过运动后的位置尽可能接近。xi(pi)表示点pi在经过xi的变换运动到的目标位置。
其中, E n = Σ c = 1 N f Σ i = 1 N c | | x i ( p i ) - x nn ( i ) ( p nn ( i ) ) | | 2 ,
最近点约束En保证点云的精细对齐。具体操作是,对点云中的每个点pi,在其他帧点云中寻找一个与之位置最近的点pnn(i),并要求pi与pnn(i)经过运动后的目标位置尽可能接近。
步骤S105:对能量函数进行求解,以根据求解结果重建非刚体的三维模型。在本发明的实施例中,通过使用线性最小二乘方法可以快速高效的求解上述能量函数。利用求解的X对每个点的位置进行更新。由于本发明实施例的方法的最近点约束中使用了最近点即为对应点的假设,因此,需要迭代多次求解才能达到最终正确位置。
根据本发明实施例的基于多深度图的非刚体三维重建方法,利用深度相机对同一非刚性物体不同角度、不同姿态拍摄采集到的深度图,并基于上述深度图完成对非刚体的三维几何建模的功能。该方法需求的输入信息简单易采集,并可得到高精度的完整三维模型。该方法求解准确鲁棒,消除了累加误差所会带来的影响。另外,该方法简单易行,且运行速度快,拥有广阔的应用前景,可以在普通PC机或工作站等硬件***上实现。
另外,本发明的方法,利用深度相机扫描该物体若干视角不同姿态的深度图像,算法可以全自动的实现扫描点云的变形、拼接、与对齐。针对传统深度相机三维重建方法,本方法的最大优势在于可以适用于动态人体扫描或一般非刚性物体。
本发明的进一步实施例还提供了一种基于多深度图的非刚体三维重建***。如图2所示,该基于多深度图的非刚体三维重建***200,包括:深度相机210、匹配模块220、变换模块230、拼接模块240和三维重建模块250。
其中,深度相机210用于对非刚体以不同角度和不同姿态进行深度图拍摄以得到多个深度图。匹配模块220用于将每个深度图变换为一组三维点云,并获取多组三维点云之间的多个匹配点对。变换模块230用于对每个匹配点进行位置变换,并求取位置变换后的每个匹配点对应的变换参数。拼接模块240用于对所有变换参数进行拼接,并根据拼接结果建立能量函数。三维重建模块250用于对能量函数进行求解,以根据求解结果重建非刚体的三维模型。
根据本发明实施例的基于多深度图的非刚体三维重建***,利用深度相机对同一非刚性物体不同角度、不同姿态拍摄采集到的深度图,并基于上述深度图完成对非刚体的三维几何建模的功能。该***需求的输入信息简单易采集,并可得到高精度的完整三维模型。该***求解准确鲁棒,消除了累加误差所会带来的影响。另外,该***成本低,且运行速度快,拥有广阔的应用前景,可以在普通PC机或工作站等硬件***上实现。
另外,本发明的***,利用深度相机扫描该物体若干视角不同姿态的深度图像,算法可以全自动的实现扫描点云的变形、拼接、与对齐。针对传统深度相机三维重建方法,本***的最大优势在于可以适用于动态人体扫描或一般非刚性物体。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同限定。

Claims (7)

1.一种基于多深度图的非刚体三维重建方法,其特征在于,包括以下步骤:
对非刚体以不同角度和不同姿态进行深度图拍摄以得到多个深度图;
将每个深度图变换为一组三维点云,并获取多组三维点云之间的多个匹配点对;
对每个匹配点进行位置变换,并求取所述位置变换后的每个匹配点对应的变换参数;
对所有变换参数进行拼接,并根据拼接结果建立能量函数,所述能量函数为:
X=argminXαeEefEfnEn
其中,Ee为拓扑约束,Ef为特征约束,En为最近点约束,αe、αf、αn分别为Ee、Ef和En的权重系数,其中,
E e = Σ c = 1 N f Σ i = 1 N c Σ j ∈ N ( i ) | | x i - x j | | 2 ,
Ef=∑(i,j)∈F||xi(pi)-xj(pj)||2
E n = Σ c = 1 N f Σ i = 1 N c | | x i ( p i ) - x n n ( i ) ( p n n ( i ) ) | | 2 ,
其中,xi(pi)表示点pi在经过xi的变换运动到的目标位置,拓扑约束Ee保证每帧的点云中的每一点与其相邻的点的变换参数xi与xj之间尽可能接近,特征约束Ef保证对应点pi与pj经过运动后的位置尽可能接近,最近点约束En保证点云的精细对齐,所述最近点约束En保证点云的精细对齐具体包括:对点云中的每个点pi,在其他帧点云中寻找一个与之位置最近的点pnn(i),并使得pi与pnn(i)经过运动后的目标位置尽可能接近,Nf为深度图的张数,F为匹配点对集合,c表示第c张深度图,(i,j)表示匹配点对;以及
对所述能量函数进行求解,以根据求解结果重建所述非刚体的三维模型。
2.根据权利要求1所述的方法,其特征在于,通过深度相机对所述非刚体进行拍摄以得到所述多个深度图。
3.根据权利要求2所述的方法,其特征在于,所述将每个深度图变换为一组三维点云,进一步包括:
获取所述深度相机的内参矩阵;
根据所述内参矩阵将所述每个深度图变换为一组三维点云。
4.根据权利要求3所述的方法,其特征在于,所述变换的变换公式为:
P c i = K - 1 ( u , v , d c ( u , v ) ) T ,
其中,u,v为像素坐标,dc(u,v)为第c张深度图上像素(u,v)位置上的深度值,所述K为内参矩阵。
5.根据权利要求1所述的方法,其特征在于,所述对每个匹配点进行位置变换,并求取所述位置变换后的每个匹配点对应的变换参数,进一步包括:
计算所述每个匹配点的旋转矩阵和偏移向量;
根据所述旋转矩阵和偏移向量得到所述每个匹配点的位置变换方程;
根据所述的位置变换方程得到所述每个匹配点对应的变换参数。
6.根据权利要求5所述的方法,其特征在于,所述位置变换方程为:
p′=Rp+t,
其中,p为匹配点,R为旋转矩阵,t为偏移向量,p′为匹配点p变换后的位置点。
7.一种基于多深度图的非刚体三维重建***,其特征在于,包括:
深度相机,用于对非刚体以不同角度和不同姿态进行深度图拍摄以得到多个深度图;
匹配模块,用于将每个深度图变换为一组三维点云,并获取多组三维点云之间的多个匹配点对;
变换模块,用于对每个匹配点进行位置变换,并求取所述位置变换后的每个匹配点对应的变换参数;
拼接模块,用于对所有变换参数进行拼接,并根据拼接结果建立能量函数,所述能量函数为:
X=argminXαeEefEfnEn
其中,Ee为拓扑约束,Ef为特征约束,En为最近点约束,αe、αf、αn分别为Ee、Ef和En的权重系数,其中,
E e = Σ c = 1 N f Σ i = 1 N c Σ j ∈ N ( i ) | | x i - x j | | 2 ,
Ef=∑(i,j)∈F||xi(pi)-xj(pj)||2
E n = Σ c = 1 N f Σ i = 1 N c | | x i ( p i ) - x n n ( i ) ( p n n ( i ) ) | | 2 ,
其中,xi(pi)表示点pi在经过xi的变换运动到的目标位置,拓扑约束Ee保证每帧的点云中的每一点与其相邻的点的变换参数xi与xj之间尽可能接近,特征约束Ef保证对应点pi与pj经过运动后的位置尽可能接近,最近点约束En保证点云的精细对齐,所述最近点约束En保证点云的精细对齐具体包括:对点云中的每个点pi,在其他帧点云中寻找一个与之位置最近的点pnn(i),并使得pi与pnn(i)经过运动后的目标位置尽可能接近,Nf为深度图的张数,F为匹配点对集合,c表示第c张深度图,(i,j)表示匹配点对;以及
三维重建模块,用于对所述能量函数进行求解,以根据求解结果重建所述非刚体的三维模型。
CN201310150796.4A 2013-04-26 2013-04-26 一种基于多深度图的非刚体三维重建方法及*** Active CN103198523B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201310150796.4A CN103198523B (zh) 2013-04-26 2013-04-26 一种基于多深度图的非刚体三维重建方法及***
US14/261,807 US9472021B2 (en) 2013-04-26 2014-04-25 Method and system for three-dimensionally reconstructing non-rigid body based on multi-depth-map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310150796.4A CN103198523B (zh) 2013-04-26 2013-04-26 一种基于多深度图的非刚体三维重建方法及***

Publications (2)

Publication Number Publication Date
CN103198523A CN103198523A (zh) 2013-07-10
CN103198523B true CN103198523B (zh) 2016-09-21

Family

ID=48721017

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310150796.4A Active CN103198523B (zh) 2013-04-26 2013-04-26 一种基于多深度图的非刚体三维重建方法及***

Country Status (2)

Country Link
US (1) US9472021B2 (zh)
CN (1) CN103198523B (zh)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103606189B (zh) * 2013-11-19 2016-09-07 浙江理工大学 一种面向非刚体三维重建的轨迹基选择方法
CN104574432B (zh) * 2015-02-15 2017-05-24 四川川大智胜软件股份有限公司 一种自动多视角人脸自拍图像的三维人脸重建方法及***
CN104599284B (zh) * 2015-02-15 2017-06-13 四川川大智胜软件股份有限公司 基于多视角手机自拍图像的三维人脸重建方法
US9928645B2 (en) * 2015-04-17 2018-03-27 Microsoft Technology Licensing, Llc Raster-based mesh decimation
CN105184861B (zh) * 2015-10-20 2019-02-12 南京大学 一种自动人体三维重建***
US10066925B2 (en) * 2016-02-02 2018-09-04 The Boeing Company Point cloud processing apparatus and method
CN106204727A (zh) * 2016-07-11 2016-12-07 北京大学深圳研究生院 一种足部三维扫描重建的方法及装置
CN107958482B (zh) 2016-10-17 2021-06-18 杭州海康威视数字技术股份有限公司 一种三维场景模型构建方法及装置
CN110476186B (zh) * 2017-06-07 2020-12-29 谷歌有限责任公司 高速高保真面部跟踪
CN107358645B (zh) * 2017-06-08 2020-08-11 上海交通大学 产品三维模型重建方法及其***
CN107506696A (zh) * 2017-07-29 2017-12-22 广东欧珀移动通信有限公司 防伪处理方法及相关产品
CN108053437B (zh) * 2017-11-29 2021-08-03 奥比中光科技集团股份有限公司 基于体态的三维模型获取方法及装置
CN108122275A (zh) * 2017-12-22 2018-06-05 清华大学 基于骨架跟踪的动态实时三维人体重建方法及***
CN108805979B (zh) * 2018-02-05 2021-06-29 清华-伯克利深圳学院筹备办公室 一种动态模型三维重建方法、装置、设备和存储介质
CN207780847U (zh) * 2018-02-23 2018-08-28 京东方科技集团股份有限公司 图像识别单元及触摸面板
CN108776990A (zh) * 2018-04-10 2018-11-09 清华大学 基于三阶球面谐波的动态场景高精度实时三维重建方法及***
CN108629831B (zh) * 2018-04-10 2021-03-12 清华大学 基于参数化人体模板和惯性测量的三维人体重建方法及***
CN108898658A (zh) * 2018-05-15 2018-11-27 清华大学 基于光影优化的三维几何与本征成份重建方法及装置
CN108711185B (zh) * 2018-05-15 2021-05-28 清华大学 联合刚性运动和非刚性形变的三维重建方法及装置
CN108665537B (zh) * 2018-05-15 2020-09-25 清华大学 联合优化人体体态与外观模型的三维重建方法及***
CN109147028A (zh) * 2018-06-04 2019-01-04 成都通甲优博科技有限责任公司 一种包含尺度信息的人脸三维重建方法及***
CN109410316B (zh) * 2018-09-21 2023-07-07 达闼机器人股份有限公司 物体的三维重建的方法、跟踪方法、相关装置及存储介质
CN109360267B (zh) * 2018-09-29 2023-06-06 杭州蓝芯科技有限公司 一种薄物体快速三维重建方法
CN109472741B (zh) * 2018-09-30 2023-05-30 先临三维科技股份有限公司 三维拼接方法及装置
CN110060330B (zh) * 2019-03-08 2023-05-23 武汉库柏特科技有限公司 一种基于点云图像的三维建模方法、装置和机器人
CN109993828A (zh) * 2019-04-02 2019-07-09 深圳市掌网科技股份有限公司 三维重建***以及方法
CN110070607A (zh) * 2019-04-02 2019-07-30 深圳市掌网科技股份有限公司 三维重建***以及方法
CN110120076A (zh) * 2019-05-22 2019-08-13 广东工业大学 一种位姿确定方法、***、电子设备及计算机存储介质
CN110689625B (zh) * 2019-09-06 2021-07-16 清华大学 定制人脸混合表情模型自动生成方法及装置
CN110992463B (zh) * 2019-11-11 2023-11-14 国网电力空间技术有限公司 一种基于三目视觉的输电导线弧垂的三维重建方法及***
CN112381721A (zh) * 2020-07-15 2021-02-19 南京工业大学 一种基于双目视觉的人脸三维重建方法
CN112422848B (zh) * 2020-11-17 2024-03-29 深圳市歌华智能科技有限公司 一种基于深度图和彩色图的视频拼接方法
CN114519765A (zh) * 2020-11-20 2022-05-20 杭州智乎物联科技有限公司 一种三维重建方法、装置、计算机设备和存储介质
CN112712466B (zh) * 2021-01-06 2024-05-07 武汉海达数云技术有限公司 三维点云拼接方法、装置及电子设备
CN113192111B (zh) * 2021-03-24 2024-02-02 西北大学 一种三维点云相似配准方法
CN112862730B (zh) * 2021-04-26 2021-07-27 深圳大学 点云特征增强方法、装置、计算机设备和存储介质
CN113436350A (zh) * 2021-07-07 2021-09-24 武汉湾流科技股份有限公司 一种三维模型生成方法及***
CN113554614B (zh) * 2021-07-21 2022-12-20 中国人民解放军陆军工程大学 一种用于点云拼接的管道测量***位姿标定方法
CN116310104B (zh) * 2023-03-08 2023-08-18 武汉纺织大学 一种复杂场景下的人体三维重建方法、***及存储介质
CN117934747B (zh) * 2024-03-22 2024-06-07 山东省地震工程研究院 一种基于激光点云数据的活动构造地貌三维模型构建方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102842148A (zh) * 2012-07-10 2012-12-26 清华大学 一种无标记运动捕捉及场景重建方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7006709B2 (en) * 2002-06-15 2006-02-28 Microsoft Corporation System and method deghosting mosaics using multiperspective plane sweep
RU2689191C2 (ru) * 2009-01-26 2019-05-24 Томсон Лайсенсинг Упаковка кадров для кодирования видео

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102842148A (zh) * 2012-07-10 2012-12-26 清华大学 一种无标记运动捕捉及场景重建方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Continuous depth estimation for multi-view stereo;Yebin Liu等;《Computer Vision and Pattern Recognition, 2009. CVPR 2009. IEEE Conference on》;20090625;2121-2128 *
改进的ICP算法在点云配准中的应用;徐万鑫等;《2012年第14届中国***仿真技术及其应用学术年会论文集》;20121116;第14卷;205-208 *

Also Published As

Publication number Publication date
US9472021B2 (en) 2016-10-18
CN103198523A (zh) 2013-07-10
US20140320491A1 (en) 2014-10-30

Similar Documents

Publication Publication Date Title
CN103198523B (zh) 一种基于多深度图的非刚体三维重建方法及***
CN105225269B (zh) 基于运动机构的三维物体建模***
EP3951719A1 (en) Blended urban design scene simulation method and system
WO2019219013A1 (zh) 联合优化人体体态与外观模型的三维重建方法及***
CN108629831A (zh) 基于参数化人体模板和惯性测量的三维人体重建方法及***
CN100543775C (zh) 基于多目相机的三维人体运动跟踪的方法
CN102855663B (zh) 一种根据激光雷达栅格点云构建csg模型的方法
CN101789126B (zh) 基于体素的三维人体运动跟踪方法
WO2019029099A1 (zh) 基于图像梯度联合优化的双目视觉里程计算方法
CN103646424B (zh) 一种空中无缝虚拟漫游***构建方法
CN102842148B (zh) 一种无标记运动捕捉及场景重建方法及装置
EP2026279B1 (en) Method and system for aligning three-dimensional surfaces
CN103258345B (zh) 一种基于地面激光雷达三维扫描的树木枝干参数提取方法
CN104318554B (zh) 基于三角剖分优化匹配的医学影像刚性配准方法
CN105787933A (zh) 基于多视角点云配准的岸线三维重建装置及方法
CN108648274A (zh) 一种视觉slam的认知点云地图创建***
CN105184861A (zh) 一种自动人体三维重建***
CN102521586B (zh) 一种用于拍照手机的高分辨率三维人脸扫描方法
CN108053437A (zh) 基于体态的三维模型获取方法及装置
CN111914618B (zh) 基于对抗式相对深度约束网络的三维人体姿态估计方法
CN104036541A (zh) 一种视觉测量中的快速三维重建方法
CN107862733A (zh) 基于视线更新算法的大规模场景实时三维重建方法和***
CN106683178A (zh) 基于图论的低秩矩阵恢复三维骨架方法
CN105678833A (zh) 一种基于多视点图像三维建模的点云几何数据的自动拼接算法
Du et al. Autonomous measurement and semantic segmentation of non-cooperative targets with deep convolutional neural networks

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant