CN110599535A - 基于哈希表的高分辨率人体实时动态重建方法及装置 - Google Patents

基于哈希表的高分辨率人体实时动态重建方法及装置 Download PDF

Info

Publication number
CN110599535A
CN110599535A CN201910717605.5A CN201910717605A CN110599535A CN 110599535 A CN110599535 A CN 110599535A CN 201910717605 A CN201910717605 A CN 201910717605A CN 110599535 A CN110599535 A CN 110599535A
Authority
CN
China
Prior art keywords
model
human body
vertex
reconstruction
hash table
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910717605.5A
Other languages
English (en)
Inventor
刘烨斌
李哲
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Xinchangyuan Technology Co ltd
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201910717605.5A priority Critical patent/CN110599535A/zh
Publication of CN110599535A publication Critical patent/CN110599535A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于哈希表的高分辨率人体实时动态重建方法及装置,其中,该方法包括:通过深度相机采集单个人体的多张深度图像;通过相机内参将每张深度图像投影到三维空间得到三维点云,求解三维点云与重建模型顶点及内嵌的人体参数化模型之间的对应点;根据对应点建立能量函数,进行最优化求解得到人体参数化模型的姿势,进而得到重建模型的每个顶点的非刚性变换参数;对重建模型进行非刚性变换,使重建模型变换到实时帧下,以使重建模型为新增体素在哈希表内分配显存空间,根据非刚性变换参数对哈希表中的所有体素进行体素融合,得到人体重建模型以对人体动态重建。该方法求解准确,可以实现实时人体动态重建,并适应高分辨率的情况。

Description

基于哈希表的高分辨率人体实时动态重建方法及装置
技术领域
本发明涉及计算机视觉与计算机图形学技术领域,特别涉及一种基于哈希表的高分辨率人体实时动态重建方法及装置。
背景技术
人体动态三维重建是计算机图形学和计算机视觉领域的重点问题。高质量的人体三维模型在影视娱乐、人口数据统计分析等领域有着广泛的应用前景和重要的应用价值。但是高质量人体三维模型的获取通常依靠价格昂贵的激光扫描仪或者多相机阵列***来实现,虽然精度较高,但是也显著存在着一些缺点:第一,显存占用大,由于传统方法一般是基于均匀划分的体素网格,很难适应高分辨率的情况。第二,速度慢,往往重建一个三维人体模型需要至少10分钟到数小时的时间。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的一个目的在于提出一种基于哈希表的高分辨率人体实时动态重建方法,该方法求解准确,可以实现实时人体动态重建,同时可以适应高分辨率的情况,可以为用户提供良好的交互式三维重建体验,拥有广阔的应用前景。
本发明的另一个目的在于提出一种基于哈希表的高分辨率人体实时动态重建装置。
为达到上述目的,本发明一方面实施例提出了一种基于哈希表的高分辨率人体实时动态重建方法,包括:
通过单个深度相机采集单个人体的多张深度图像;
通过相机内参将每张深度图像投影到三维空间得到三维点云,求解所述三维点云与重建模型顶点及内嵌的人体参数化模型之间的对应点;
根据所述对应点建立能量函数,对所述能量函数进行最优化求解得到所述人体参数化模型的姿势,并基于所述人体参数化模型的姿势得到所述重建模型的每个顶点的非刚性变换参数;
对所述重建模型进行非刚性变换,使所述重建模型变换到实时帧下,以使所述重建模型为新增体素在哈希表内分配显存空间,根据所述非刚性变换参数对所述哈希表中的所有体素进行体素融合,得到人体重建模型以对人体动态重建。
本发明实施例的基于哈希表的高分辨率人体实时动态重建方法,通过利用深度相机对人体进行拍摄以采集深度图像,并基于该深度图像完成对人体的实时动态三维重建功能。该方法所需的输入信息非常容易采集,并且可以实时地获得人体动态三维模型。该方法求解准确鲁棒,简单易行,具有实时性,适应于高分辨率需求,拥有广阔的应用前景,可以在PC机或工作站等硬件***上快速实现。
另外,根据本发明上述实施例的基于哈希表的高分辨率人体实时动态重建方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述能量函数为:
E=EdatabindEbindregEreg
其中,为数据项,vc分别表示经过非刚性运动后的重建模型顶点坐标及其法向,,u为与之对应的对应点坐标,P为对应点对集合;
和T(xi)xi分别代表受人体参数化模型变形驱动后的模型顶点坐标以及非刚性运动驱动后的重建模型顶点坐标;
为正则项,其中是结点i的相邻结点,λbindreg分别为各项权重系数。
进一步地,在本发明的一个实施例中,所述根据所述非刚性变换参数对所述哈希表中的所有体素进行体素融合,包括:
将已分配空间的体素压缩到线性存储空间中并投入到图形处理器中进行体素融合。
进一步地,在本发明的一个实施例中,体素融合公式为:
wk+1=maX(maxWeight,wk+1)
其中,TSDF为截断符号距离函数,TSDFk,TSDFk+1分别是融合前后的TSDF值,PSDF是实时帧下的符号截断距离函数值,PSDF根据所述非刚性变换参数求得,wk,wk+1分别是融合前后的权重,maxWeight是权重的最大上限。
进一步地,在本发明的一个实施例中,所述人体参数化模型的顶点位置由人体骨架驱动,计算公式为:
其中,为对所述人体参数化模型的顶点vi有驱动作用的骨骼的集合;αi,j为第j个骨骼对第i个模型顶点的驱动作用的权重,表示该骨骼对该顶点驱动作用的强弱;Tbj为第j个骨骼自身的运动变形矩阵,rot(Tbj)为运动变形矩阵的旋转部分。
为达到上述目的,本发明另一方面实施例提出了一种基于哈希表的高分辨率人体实时动态重建装置,包括:
采集模块,用于通过单个深度相机采集单个人体的多张深度图像;
第一处理模块,用于通过相机内参将每张深度图像投影到三维空间得到三维点云,求解所述三维点云与重建模型顶点及内嵌的人体参数化模型之间的对应点;
第二处理模块,用于根据所述对应点建立能量函数,对所述能量函数进行最优化求解得到所述人体参数化模型的姿势,并基于所述人体参数化模型的姿势得到所述重建模型的每个顶点的非刚性变换参数;
重建模块,用于对所述重建模型进行非刚性变换,使所述重建模型变换到实时帧下,以使所述重建模型为新增体素在哈希表内分配显存空间,根据所述非刚性变换参数对所述哈希表中的所有体素进行体素融合,得到人体重建模型以对人体动态重建。
本发明实施例的基于哈希表的高分辨率人体实时动态重建装置,通过利用深度相机对人体进行拍摄以采集深度图像,并基于该深度图像完成对人体的实时动态三维重建功能。该方法所需的输入信息非常容易采集,并且可以实时地获得人体动态三维模型。该方法求解准确鲁棒,简单易行,具有实时性,适应于高分辨率需求,拥有广阔的应用前景,可以在PC机或工作站等硬件***上快速实现。
另外,根据本发明上述实施例的基于哈希表的高分辨率人体实时动态重建装置还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述能量函数为:
E=EdatabindEbindregEreg
其中,为数据项,vc分别表示经过非刚性运动后的重建模型顶点坐标及其法向,,u为与之对应的对应点坐标,P为对应点对集合;
和T(xi)xi分别代表受人体参数化模型变形驱动后的模型顶点坐标以及非刚性运动驱动后的重建模型顶点坐标;
为正则项,其中是结点i的相邻结点,λbindreg分别为各项权重系数。
进一步地,在本发明的一个实施例中,所述根据所述非刚性变换参数对所述哈希表中的所有体素进行体素融合,包括:
将已分配空间的体素压缩到线性存储空间中并投入到图形处理器中进行体素融合。
进一步地,在本发明的一个实施例中,体素融合公式为:
wk+1=maX(maxWeight,wk+1)
其中,TSDF为截断符号距离函数,TSDFk,TSDFk+1分别是融合前后的TSDF值,PSDF是实时帧下的符号截断距离函数值,PSDF根据所述非刚性变换参数求得,wk,wk+1分别是融合前后的权重,maxWeight是权重的最大上限。
进一步地,在本发明的一个实施例中,所述人体参数化模型的顶点位置由人体骨架驱动,计算公式为:
其中,为对所述人体参数化模型的顶点vi有驱动作用的骨骼的集合;αi,j为第j个骨骼对第i个模型顶点的驱动作用的权重,表示该骨骼对该顶点驱动作用的强弱;Tbj为第j个骨骼自身的运动变形矩阵,rot(Tbj)为运动会变形矩阵的旋转部分。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明一个实施例的基于哈希表的高分辨率人体实时动态重建方法流程图;
图2为根据本发明一个实施例的基于哈希表的高分辨率人体实时动态重建装置结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参照附图描述根据本发明实施例提出的基于哈希表的高分辨率人体实时动态重建方法及装置。
首先将参照附图描述根据本发明实施例提出的基于哈希表的高分辨率人体实时动态重建方法。
图1为根据本发明一个实施例的基于哈希表的高分辨率人体实时动态重建方法流程图。
如图1所示,该基于哈希表的高分辨率人体实时动态重建方法包括以下步骤:
在步骤S101中,通过单个深度相机采集单个人体的多张深度图像。
具体地,使用深度相机对单个动态人体进行拍摄,获得连续的深度图像序列。
在步骤S102中,通过相机内参将每张深度图像投影到三维空间得到三维点云,求解三维点云与重建模型顶点及内嵌的人体参数化模型之间的对应点。
具体地,通过上一步骤获得多张深度图像,通过相机内参将没张投影回三维空间生成一组三维点云,找三维点云与重建模型顶点及内嵌的人体参数化模型之间的对应点。
在步骤S103中,根据对应点建立能量函数,对能量函数进行最优化求解得到人体参数化模型的姿势,并基于人体参数化模型的姿势得到重建模型的每个顶点的非刚性变换参数。
进一步地,人体参数化模型的驱动方式,即模型顶点位置由人体骨架驱动,计算公式为:
其中,为对顶点vi有驱动作用的骨骼的集合;αi,j为第j个骨骼对第i个模型顶点的驱动作用的权重,表示该骨骼对该顶点驱动作用的强弱;Tbj为第j个骨骼自身的运动变形矩阵,rot(Tbj)为该变形矩阵的旋转部分
具体地,根据对应点建立能量函数,通过对能量函数进行最优化求解得到人体参数化模型的姿势,再根据人体参数化模型的姿势确定出重建模型每个顶点的非刚性变换参数。
进一步地,能量函数为:
E=EdatabindEbindregEreg
其中,为数据项,保证了经过非刚性运动后重建模型能够与从深度图获得的三维点云尽可能对齐,vc分别表示经过非刚性运动后的重建模型顶点坐标及其法向,,u为与之对应的对应点坐标,P为对应点对集合。
其中,保证了人体参数化模型姿势与求解出的非刚性运动的一致性,和T(xi)xi分别代表受人体参数化模型变形驱动后的模型顶点坐标以及非刚性运动驱动后的重建模型顶点坐标。
为正则项,其中是结点i的相邻结点,保证了相邻结点之间的非刚性形变的一致性,保证了非刚性变形在空间上尽可能光滑连续。λbindreg分别为各项权重系数。
在步骤S104中,对重建模型进行非刚性变换,使重建模型变换到实时帧下,以使重建模型为新增体素在哈希表内分配显存空间,根据非刚性变换参数对哈希表中的所有体素进行体素融合,得到人体重建模型以对人体动态重建。
具体地,在对重建模型进行非刚性变换后,将承诺构建模型变换到实时帧下,使重建模型可以为新增加的体素在哈希表内分配空间。
进一步地,首先为新加入的体素分配显存空间,随后,将已分配空间的体素压缩到一个线性存储空间中;将这些有效的体素投入到GPU(图形处理器)中,快速平行地进行体素融合。
其中,体素融合公式为:
wk+1=maX(maxWeight,wk+1)
其中,TSDF为截断符号距离函数,TSDFk,TSDFk+1分别是融合前后的TSDF值,PSDF是实时帧下的符号截断距离函数值,PSDF根据非刚性变换参数求得,wk,wk+1分别是融合前后的权重,maxWeight是权重的最大上限。
在其他体素融合方法中,每个体素包含截断符号距离函数(TSDF)及权重(weight),并且需要对空间均匀划分,开辟出一个立方体样式的体素集合。而在基于哈希表的高分辨率人体实时动态重建方法中,使用哈希表来存储体素集合,从而只需为邻近人体表面的体素开辟空间。
首先,将相邻的8×8×8的体素定义为一个体素块,每个体素块的坐标为:
X=[x/81
Y=[y/8]
Z=[z/81
其中,(X,Y,Z)是体素块的坐标,(x,y,z)是该体素块中任意体素的三维离散坐标,[·]表示向下取整。
然后,通过哈希映射函数计算每个体素块的散列值,通过该散列值即可得到体素块的索引。散列函数为
其中,p1,p2,p3为三个大质数,表示位异或,n为哈希表长度。
为了解决哈希冲突,可以对每个散列值保留多个存储空间,若发生哈希冲突,则在这些存储空间中进行线性查找。由于哈希映射函数的有效性,哈希冲突的频率很小,因此,基于哈希表的访问机制是非常快速的。
根据本发明实施例提出的基于哈希表的高分辨率人体实时动态重建方法,通过利用深度相机对人体进行拍摄以采集深度图像,并基于该深度图像完成对人体的实时动态三维重建功能。该方法所需的输入信息非常容易采集,并且可以实时地获得人体动态三维模型。该方法求解准确鲁棒,简单易行,具有实时性,适应于高分辨率需求,拥有广阔的应用前景,可以在PC机或工作站等硬件***上快速实现。
其次参照附图描述根据本发明实施例提出的基于哈希表的高分辨率人体实时动态重建装置。
图2为根据本发明一个实施例的基于哈希表的高分辨率人体实时动态重建装置结构示意图。
如图2所示,该基于哈希表的高分辨率人体实时动态重建装置包括:采集模块100、第一处理模块200、第二处理模块300和重建模块400。
采集模块100通过单个深度相机采集单个人体的多张深度图像。
第一处理模块200通过相机内参将每张深度图像投影到三维空间得到三维点云,求解三维点云与重建模型顶点及内嵌的人体参数化模型之间的对应点。
第二处理模块300根据对应点建立能量函数,对能量函数进行最优化求解得到人体参数化模型的姿势,并基于人体参数化模型的姿势得到重建模型的每个顶点的非刚性变换参数。
重建模块400对重建模型进行非刚性变换,使重建模型变换到实时帧下,以使重建模型为新增体素在哈希表内分配显存空间,根据非刚性变换参数对哈希表中的所有体素进行体素融合,得到人体重建模型以对人体动态重建。
进一步地,在本发明的一个实施例中,能量函数为:
E=EdatabindEbindregEreg
其中,为数据项,vc分别表示经过非刚性运动后的重建模型顶点坐标及其法向,,u为与之对应的对应点坐标,P为对应点对集合;
和T(xi)xi分别代表受人体参数化模型变形驱动后的模型顶点坐标以及非刚性运动驱动后的重建模型顶点坐标;
为正则项,其中是结点i的相邻结点,λbindreg分别为各项权重系数。
进一步地,在本发明的一个实施例中,根据非刚性变换参数对哈希表中的所有体素进行体素融合,包括:
将已分配空间的体素压缩到线性存储空间中并投入到图形处理器中进行体素融合。
进一步地,在本发明的一个实施例中,体素融合公式为:
wk+1=maX(maxWeight,wk+1)
其中,TSDF为截断符号距离函数,TSDFk,TSDFk+1分别是融合前后的TSDF值,PSDF是实时帧下的符号截断距离函数值,PSDF根据非刚性变换参数求得,wk,wk+1分别是融合前后的权重,maxWeight是权重的最大上限。
进一步地,在本发明的一个实施例中,人体参数化模型的顶点位置由人体骨架驱动,计算公式为:
其中,为对人体参数化模型的顶点vi有驱动作用的骨骼的集合;αi,j为第j个骨骼对第i个模型顶点的驱动作用的权重,表示该骨骼对该顶点驱动作用的强弱;Tbj为第j个骨骼自身的运动变形矩阵,rot(Tbj)为运动变形矩阵的旋转部分。
需要说明的是,前述对基于哈希表的高分辨率人体实时动态重建方法实施例的解释说明也适用于该实施例的装置,此处不再赘述。
根据本发明实施例提出的基于哈希表的高分辨率人体实时动态重建装置过,通过利用深度相机对人体进行拍摄以采集深度图像,并基于该深度图像完成对人体的实时动态三维重建功能。该方法所需的输入信息非常容易采集,并且可以实时地获得人体动态三维模型。该方法求解准确鲁棒,简单易行,具有实时性,适应于高分辨率需求,拥有广阔的应用前景,可以在PC机或工作站等硬件***上快速实现。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种基于哈希表的高分辨率人体实时动态重建方法,其特征在于,包括以下步骤:
通过单个深度相机采集单个人体的多张深度图像;
通过相机内参将每张深度图像投影到三维空间得到三维点云,求解所述三维点云与重建模型顶点及内嵌的人体参数化模型之间的对应点;
根据所述对应点建立能量函数,对所述能量函数进行最优化求解得到所述人体参数化模型的姿势,并基于所述人体参数化模型的姿势得到所述重建模型的每个顶点的非刚性变换参数;
对所述重建模型进行非刚性变换,使所述重建模型变换到实时帧下,以使所述重建模型为新增体素在哈希表内分配显存空间,根据所述非刚性变换参数对所述哈希表中的所有体素进行体素融合,得到人体重建模型以对人体动态重建。
2.根据权利要求1所述的方法,其特征在于,所述能量函数为:
E=EdatabindEbindregEreg
其中,为数据项,vc分别表示经过非刚性运动后的重建模型顶点坐标及其法向,,u为与之对应的对应点坐标,P为对应点对集合;
和T(xi)xi分别代表受人体参数化模型变形驱动后的模型顶点坐标以及非刚性运动驱动后的重建模型顶点坐标;
为正则项,其中是结点i的相邻结点,λbind,λreg分别为各项权重系数。
3.根据权利要求1所述的方法,其特征在于,所述根据所述非刚性变换参数对所述哈希表中的所有体素进行体素融合,包括:
将已分配空间的体素压缩到线性存储空间中并投入到图形处理器中进行体素融合。
4.根据权利要求3所述的方法,其特征在于,体素融合公式为:
wk+1=max(maxWeight,wk+1)
其中,TSDF为截断符号距离函数,TSDFk,TSDFk+1分别是融合前后的TSDF值,PSDF是实时帧下的符号截断距离函数值,PSDF根据所述非刚性变换参数求得,wk,wk+1分别是融合前后的权重,maxWeight是权重的最大上限。
5.根据权利要求1所述的方法,其特征在于,所述人体参数化模型的顶点位置由人体骨架驱动,计算公式为:
其中,为对所述人体参数化模型的顶点vi有驱动作用的骨骼的集合;αi,j为第j个骨骼对第i个模型顶点的驱动作用的权重,表示该骨骼对该顶点驱动作用的强弱;Tbj为第j个骨骼自身的运动变形矩阵,rot(Tbj)为运动变形矩阵的旋转部分。
6.一种基于哈希表的高分辨率人体实时动态重建装置,其特征在于,包括:
采集模块,用于通过单个深度相机采集单个人体的多张深度图像;
第一处理模块,用于通过相机内参将每张深度图像投影到三维空间得到三维点云,求解所述三维点云与重建模型顶点及内嵌的人体参数化模型之间的对应点;
第二处理模块,用于根据所述对应点建立能量函数,对所述能量函数进行最优化求解得到所述人体参数化模型的姿势,并基于所述人体参数化模型的姿势得到所述重建模型的每个顶点的非刚性变换参数;
重建模块,用于对所述重建模型进行非刚性变换,使所述重建模型变换到实时帧下,以使所述重建模型为新增体素在哈希表内分配显存空间,根据所述非刚性变换参数对所述哈希表中的所有体素进行体素融合,得到人体重建模型以对人体动态重建。
7.根据权利要求6所述的装置,其特征在于,所述能量函数为:
E=EdatabindEbindregEreg
其中,为数据项,vc分别表示经过非刚性运动后的重建模型顶点坐标及其法向,,u为与之对应的对应点坐标,P为对应点对集合;
和T(xi)xi分别代表受人体参数化模型变形驱动后的模型顶点坐标以及非刚性运动驱动后的重建模型顶点坐标;
为正则项,其中是结点i的相邻结点,λbind,λreg分别为各项权重系数。
8.根据权利要求6所述的装置,其特征在于,所述根据所述非刚性变换参数对所述哈希表中的所有体素进行体素融合,包括:
将已分配空间的体素压缩到线性存储空间中并投入到图形处理器中进行体素融合。
9.根据权利要求8所述的装置,其特征在于,体素融合公式为:
wk+1=max(maxWeight,wk+1)
其中,TSDF为截断符号距离函数,TSDFk,TSDFk+1分别是融合前后的TSDF值,PSDF是实时帧下的符号截断距离函数值,PSDF根据所述非刚性变换参数求得,wk,wk+1分别是融合前后的权重,maxWeight是权重的最大上限。
10.根据权利要求6所述的装置,其特征在于,所述人体参数化模型的顶点位置由人体骨架驱动,计算公式为:
其中,为对所述人体参数化模型的顶点vi有驱动作用的骨骼的集合;αi,j为第j个骨骼对第i个模型顶点的驱动作用的权重,表示该骨骼对该顶点驱动作用的强弱;Tbj为第j个骨骼自身的运动变形矩阵,rot(Tbj)为运动变形矩阵的旋转部分。
CN201910717605.5A 2019-08-05 2019-08-05 基于哈希表的高分辨率人体实时动态重建方法及装置 Pending CN110599535A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910717605.5A CN110599535A (zh) 2019-08-05 2019-08-05 基于哈希表的高分辨率人体实时动态重建方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910717605.5A CN110599535A (zh) 2019-08-05 2019-08-05 基于哈希表的高分辨率人体实时动态重建方法及装置

Publications (1)

Publication Number Publication Date
CN110599535A true CN110599535A (zh) 2019-12-20

Family

ID=68853490

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910717605.5A Pending CN110599535A (zh) 2019-08-05 2019-08-05 基于哈希表的高分辨率人体实时动态重建方法及装置

Country Status (1)

Country Link
CN (1) CN110599535A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111968165A (zh) * 2020-08-19 2020-11-20 北京拙河科技有限公司 动态人体三维模型补全方法、装置、设备和介质
CN111968169A (zh) * 2020-08-19 2020-11-20 北京拙河科技有限公司 动态人体三维重建方法、装置、设备和介质
CN112802186A (zh) * 2021-01-27 2021-05-14 清华大学 基于二值化特征编码匹配的动态场景实时三维重建方法
CN113256789A (zh) * 2021-05-13 2021-08-13 中国民航大学 一种三维实时人体姿态重建方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018011370A1 (en) * 2016-07-13 2018-01-18 Naked Labs Austria Gmbh Efficient volumetric reconstruction with depth sensors
CN108053437A (zh) * 2017-11-29 2018-05-18 深圳奥比中光科技有限公司 基于体态的三维模型获取方法及装置
CN108122275A (zh) * 2017-12-22 2018-06-05 清华大学 基于骨架跟踪的动态实时三维人体重建方法及***
CN108564652A (zh) * 2018-03-12 2018-09-21 中国科学院自动化研究所 高效利用内存的高精度三维重建方法与***及设备
CN108665537A (zh) * 2018-05-15 2018-10-16 清华大学 联合优化人体体态与外观模型的三维重建方法及***
CN109285215A (zh) * 2018-08-28 2019-01-29 腾讯科技(深圳)有限公司 一种人体三维模型重建方法、装置和存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018011370A1 (en) * 2016-07-13 2018-01-18 Naked Labs Austria Gmbh Efficient volumetric reconstruction with depth sensors
CN108053437A (zh) * 2017-11-29 2018-05-18 深圳奥比中光科技有限公司 基于体态的三维模型获取方法及装置
CN108122275A (zh) * 2017-12-22 2018-06-05 清华大学 基于骨架跟踪的动态实时三维人体重建方法及***
CN108564652A (zh) * 2018-03-12 2018-09-21 中国科学院自动化研究所 高效利用内存的高精度三维重建方法与***及设备
CN108665537A (zh) * 2018-05-15 2018-10-16 清华大学 联合优化人体体态与外观模型的三维重建方法及***
CN109285215A (zh) * 2018-08-28 2019-01-29 腾讯科技(深圳)有限公司 一种人体三维模型重建方法、装置和存储介质

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111968165A (zh) * 2020-08-19 2020-11-20 北京拙河科技有限公司 动态人体三维模型补全方法、装置、设备和介质
CN111968169A (zh) * 2020-08-19 2020-11-20 北京拙河科技有限公司 动态人体三维重建方法、装置、设备和介质
CN111968169B (zh) * 2020-08-19 2024-01-19 北京拙河科技有限公司 动态人体三维重建方法、装置、设备和介质
CN111968165B (zh) * 2020-08-19 2024-01-23 北京拙河科技有限公司 动态人体三维模型补全方法、装置、设备和介质
CN112802186A (zh) * 2021-01-27 2021-05-14 清华大学 基于二值化特征编码匹配的动态场景实时三维重建方法
CN112802186B (zh) * 2021-01-27 2022-06-24 清华大学 基于二值化特征编码匹配的动态场景实时三维重建方法
CN113256789A (zh) * 2021-05-13 2021-08-13 中国民航大学 一种三维实时人体姿态重建方法

Similar Documents

Publication Publication Date Title
CN110599535A (zh) 基于哈希表的高分辨率人体实时动态重建方法及装置
CN107730503B (zh) 三维特征嵌入的图像对象部件级语义分割方法与装置
CN113099208B (zh) 基于神经辐射场的动态人体自由视点视频生成方法和装置
US6069634A (en) System for rapidly deforming a graphical object
CN104616345B (zh) 一种基于八叉树森林压缩的三维体素存取方法
CN110675489B (zh) 一种图像处理方法、装置、电子设备和存储介质
CN101149842B (zh) 利用图像着色***的多维图像数据的细节级别设置
CN111340944B (zh) 基于隐式函数和人体模板的单图像人体三维重建方法
EP3358529A2 (en) Lightfield rendering based on depths from physically-based volume rendering
CN108805979A (zh) 一种动态模型三维重建方法、装置、设备和存储介质
CN103559737A (zh) 一种对象全景建模方法
Rushmeier et al. Perceptual issues in substituting texture for geometry
CN114863038A (zh) 基于显式几何形变的实时动态自由视角合成方法及装置
CN111476884A (zh) 基于单帧rgbd图像的实时三维人体重建方法及***
CN114972634A (zh) 基于特征体素融合的多视角三维可变形人脸重建方法
JP4229398B2 (ja) 3次元モデリング・プログラム、3次元モデリング制御プログラム、3次元モデリング・データ伝送プログラム、記録媒体および3次元モデリング方法
WO2020208976A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
CN116309990A (zh) 人脸视频生成方法、装置、设备及存储介质
Beneš et al. GI-COLLIDE: collision detection with geometry images
CN112233018B (zh) 基于三维形变模型的参考图引导的人脸超分辨率方法
CN108921908B (zh) 表面光场的采集方法、装置及电子设备
JP6443574B1 (ja) レイキャスティングプログラム、探索制御データ、探索制御データ生成方法、レイキャスティング装置
JP7131080B2 (ja) ボリュームレンダリング装置
US20030234783A1 (en) Compression of surface light fields
CN111178501A (zh) 双循环对抗网络架构的优化方法、***、电子设备及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20221221

Address after: Room 3346, Floor 3, International Innovation Expo Center, No. 267, Kejiyuan Road, Baiyang Street, Qiantang District, Hangzhou, Zhejiang 310020

Applicant after: Hangzhou Xinchangyuan Technology Co.,Ltd.

Address before: 100084 Tsinghua Yuan, Beijing, Haidian District

Applicant before: TSINGHUA University

TA01 Transfer of patent application right
RJ01 Rejection of invention patent application after publication

Application publication date: 20191220

RJ01 Rejection of invention patent application after publication