CN113506335B - 基于多rgbd相机的实时人体全息重建方法以及装置 - Google Patents
基于多rgbd相机的实时人体全息重建方法以及装置 Download PDFInfo
- Publication number
- CN113506335B CN113506335B CN202110610788.8A CN202110610788A CN113506335B CN 113506335 B CN113506335 B CN 113506335B CN 202110610788 A CN202110610788 A CN 202110610788A CN 113506335 B CN113506335 B CN 113506335B
- Authority
- CN
- China
- Prior art keywords
- truncated
- psdf
- distance function
- image
- view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000005070 sampling Methods 0.000 claims abstract description 84
- 238000013528 artificial neural network Methods 0.000 claims abstract description 49
- 238000012549 training Methods 0.000 claims abstract description 28
- 238000012216 screening Methods 0.000 claims abstract description 24
- 230000006870 function Effects 0.000 claims description 94
- 230000004927 fusion Effects 0.000 claims description 38
- 238000000605 extraction Methods 0.000 claims description 22
- 238000009877 rendering Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 239000004094 surface-active agent Substances 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims 3
- 238000010586 diagram Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 241000206607 Porphyra umbilicalis Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000010410 layer Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229940050561 matrix product Drugs 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000010899 nucleation Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000008521 reorganization Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本申请提出一种基于多RGBD相机的实时人体全息重建方法、装置和计算机设备。具体实现方案为:预训练基于像素对齐特征的三维重建神经网络,采集多视点场景彩色深度图像,提取多视点彩色深度图像前景,提取多视点彩色深度图像的特征图像,对重建空间进行均匀采样并计算投影符号距离函数值并进行有效采样点筛选,计算采样点的多视点图像特征,并进行多视点特征融合,使用符号距离回归网络推理符号距离函数,从采样点中提取三维模型表面,使用颜色回归网络推理模型顶点颜色,完成全息重建。本申请可以提高全息重建速度,提升网络泛化性能,还可以进一步提升全息重建的质量和精确。
Description
技术领域
本申请涉及计算机视觉中的三维视觉和人工智能领域,尤其涉及一种基于多RGBD相机的实时人体全息重建方法、装置和计算机设备。
背景技术
全息通讯和全息直播是面向未来的革命性通讯和直播形式,其核心技术包括全息人体重建、全息数据压缩、全息数据传输、全息内容显示。全息人体重建是全息通讯和全息直播的基石。传统全息重建(三维)大多基于稠密视点采集,需要搭建复杂的多相机同步采集***,造价昂贵,维护困难。深度相机的出现使三维信息的获取变得更加便捷,然而稀疏视点的深度采集***仍然存在观测局限,无法生成完整的全息三维模型。
近年来,随着深度学习技术和计算机视觉技术的融合与发展,出现了基于深度神经网络的三维重建方法,如PIFu(Pixel-aligned Implicit Function for High-Resolution Clothed Human Digitization,基于像素对齐隐式函数的高分辨率人体数字化方法)等,它们仅使用单张彩色照片即可推理出人体的完整三维模型,极大地降低了全息人体重建技术的采集复杂度。然而,由于高质量三维人体扫描数据的短缺和深度神经网络模型表达能力的局限性,该类方法尚不能处理复杂的人体动作、人与物体的交互、以及实现实时全息重建效率。
发明内容
本申请旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本申请的第一个目的在于提出一种基于多RGBD相机的实时人体全息重建方法,将深度神经网络三维重建方法引入到色彩-深度相机***中,可以提高全息重建速度,实现实时全息重建效率,并可以提升网络泛化性能,从而可以处理复杂的人体动作、人与物体的交互场景,还可以进一步提升全息重建的质量和精确。
本申请的第二个目的在于提出一种基于多RGBD相机的实时人体全息重建装置。
本申请的第三个目的在于提出一种计算机设备。
为达上述目的,本申请第一方面实施例提出了一种基于多RGBD相机的实时人体全息重建方法,包括:
根据人体扫描数据集渲染多视点训练数据,根据所述多视点训练数据预训练基于像素对齐特征的三维重建神经网络,其中,所述三维重建神经网络包括RGBD图像特征提取神经网络、符号距离函数回归神经网络和颜色回归网络;
获取采集到的多视点场景彩色深度图像,并提取所述多视点场景彩色深度图像之中的多视点彩色深度图像前景;
根据所述RGBD图像特征提取神经网络对所述多视点彩色深度图像进行特征提取,获得所述多视点彩色深度图像的特征图像;
对重建空间进行均匀采样并计算投影符号距离函数值,并根据所述投影符号距离函数值进行有效采样点筛选;
计算采样点的多视点图像特征,并进行多视点特征融合;
将融合后得到的多视点特征图像输入至所述符号距离函数回归神经网络,获得所有有效采样点的符号距离函数值;
从所述采样点中提取出完整三维模型表面,并根据所述颜色回归网络对所述完整三维模型表面进行模型顶点颜色推理,完成全息重建。
在本申请一些实施例中,所述进行多视点特征融合包括:
通过Transformer网络作为特征融合模块对所述采样点的多视点图像特征进行多视点特征融合。
本申请一些实施例中,通过以下公式计算所述投影符号距离函数值:
truncatedpsdf=clip(vz-d,-τ,τ)
其中,truncatedpsdf为所述投影符号距离函数值,vz为采样点在Z轴上的深度值,d为深度相机的深度观测值,clip()为截断函数,用于将输入值vz-d截断至[-τ,τ]的范围内。
本申请一些实施例中,所述根据所述投影符号距离函数值进行有效采样点筛选,包括:
根据采样点在不同视点的投影符号距离函数值计算所述采样点的可见性指标;
根据所述采样点的可见性指标进行筛选,获得所有有效采样点。
本申请一些实施例中,通过以下公式计算所述采样点的可见性指标:
V(p)=∑i∈{0,...,N}ψ(truncatedpsdf,δ)
其中,V(p)为所述采样点可见性指标,i为视点索引值,M为视点总数,ψ(truncatedpsdf,δ)为单视点可见性判断函数,δ为可见性判断阈值,truncatedpsdf为所述投影符号距离函数值;其中,
ψ(truncatedpsdf,δ)=1if truncatedpsdf>-δ,
ψ(truncatedpsdf,δ)=0if truncatedpsdf≤-δ。
为达上述目的,本申请第二方面实施例提出了一种基于多RGBD相机的实时人体全息重建装置,包括:
预训练模块,用于根据人体扫描数据集渲染多视点训练数据,根据所述多视点训练数据预训练基于像素对齐特征的三维重建神经网络,其中,所述三维重建神经网络包括RGBD图像特征提取神经网络、符号距离函数回归神经网络和颜色回归网络;
图像处理模块,用于获取采集到的多视点场景彩色深度图像,并提取所述多视点场景彩色深度图像之中的多视点彩色深度图像前景;
特征提取模块,用于根据所述RGBD图像特征提取神经网络对所述多视点彩色深度图像进行特征提取,获得所述多视点彩色深度图像的特征图像;
筛选模块,用于对重建空间进行均匀采样并计算投影符号距离函数值,并根据所述投影符号距离函数值进行有效采样点筛选;
特征融合模块,用于计算采样点的多视点图像特征,并进行多视点特征融合;
符号距离函数值获取模块,用于将融合后得到的多视点特征图像输入至所述符号距离函数回归神经网络,获得所有有效采样点的符号距离函数值;
重建模块,用于从所述采样点中提取出完整三维模型表面,并根据所述颜色回归网络对所述完整三维模型表面进行模型顶点颜色推理,完成全息重建。
本申请一些实施例中,所述筛选模块通过以下公式计算所述投影符号距离函数值:
truncatedpsdf=clip(vz-d,-τ,τ)
其中,truncatedpsdf为所述投影符号距离函数值,vz为采样点在Z轴上的深度值,d为深度相机的深度观测值,clip()为截断函数,用于将输入值vz-d截断至[-τ,τ]的范围内。
本申请一些实施例中,所述筛选模块具体用于:
根据采样点在不同视点的投影符号距离函数值计算所述采样点的可见性指标;
根据所述采样点的可见性指标进行筛选,获得所有有效采样点。
本申请一些实施例中,所述筛选模块通过以下公式计算所述采样点的可见性指标:
V(p)=∑i∈{0,...,N}ψ(truncatedpsdf,δ)
其中,V(p)为所述采样点可见性指标,i为视点索引值,M为视点总数,ψ(truncatedpsdf,δ)为单视点可见性判断函数,δ为可见性判断阈值,truncatedpsdf为所述投影符号距离函数值;其中,
ψ(truncatedpsdf,δ)=1if truncatedpsdf>-δ,
ψ(truncatedpsdf,δ)=0if truncatedpsdf≤-δ。
为达上述目的,本申请第三方面实施例提出了一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现本申请第一方面实施例所述的基于多RGBD相机的实时人体全息重建方法。
本申请实施例的技术方案,利用了深度隐编码表达人体的全息信息,并融合了多视点彩色-深度图像特征和投影符号距离函数值,预测空间中采样点的符号距离函数值和顶点颜色值,由于深度隐编码模型是空间连续模型,因此本申请理论上可以在任意分辨率上进行人体全息模型的重建。本申请的多视点彩色-深度图像特征的提取使用标准卷积神经网路进行实现,与现有方法不同的是,在进行多视点特征融合时,本申请使用Transfomer网络建立不同视点特征之间的相关性,从而实现更加精确的自适应特征融合结果。由此可见,本申请通过将深度神经网络三维重建方法引入到彩色-深度相机***中,一方面利用深度信息提高重建速度,实现实时全息重建效率,并提升网络泛化性能,从而可以处理复杂的人体动作、人与物体的交互场景;另一方面结合多视点信息进一步提升全息重建的质量和精度,使其达到商业可用级别。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本申请实施例所提供的一种基于多RGBD相机的实时人体全息重建方法的流程图;
图2为本申请实施例所提供的三维重建神经网络的结构示意图;
图3为本申请实施例所提供的一种基于多RGBD相机的实时人体全息重建装置的结构示意图;
图4为本申请实施例所提供的一种投影符号距离函数psdf的计算示意图;
图5为本申请实施例所提供的一种基于Transformer网络的特征融合结构图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
下面参考附图描述本申请实施例的基于多RGBD相机的实时人体全息重建方法、装置和计算机设备。
图1为本申请实施例所提供的一种基于多RGBD相机的实时人体全息重建方法的流程示意图。
如图1所示,该基于多RGBD相机的实时人体全息重建方法可以包括如下步骤。
在步骤101中,根据人体扫描数据集渲染多视点训练数据,根据多视点训练数据预训练基于像素对齐特征的三维重建神经网络。
在本申请实施例中,人体扫描数据集可以是预先收集的高精度人体扫描数据。例如,该数据集包括500个高精度人体扫描模型,每个模型随机渲染60个视点的彩色深度图像,图像分辨率根据实际采集***所用传感器分辨率设计,比如,本申请使用576*576作为图像渲染分辨率,在渲染彩色图像时,为了提升渲染的真实性,本申请使用PRT(PrecomputedRadiance Transfer,预计算的辐射传播场)渲染方法进行渲染。为了模拟真实深度传感器的噪声,本申请在渲染过程中加入了深度相机成像噪声模型。
在本步骤中,可采用高精度人体扫描模型渲染多视点训练数据,之后,利用多视点训练数据训练基于像素对齐特征的三维重建神经网络。其中,在本申请实施例中,如图2所示,三维重建神经网络10可包括RGBD图像特征提取神经网络11、符号距离函数回归神经网络12和颜色回归网络13。
在步骤102中,获取采集到的多视点场景彩色深度图像,并提取多视点场景彩色深度图像之中的多视点彩色深度图像前景。
在步骤103中,根据RGBD图像特征提取神经网络对多视点彩色深度图像进行特征提取,获得多视点彩色深度图像的特征图像。
举例而言,RGBD图像特征提取神经网络可为HRNet(高分辨率网络),其中,该HRNet的最终输出特征图像的尺寸可为64*64*256,其中64为特征图像的长宽,256为特征通道数。
在步骤104中,对重建空间进行均匀采样并计算投影符号距离函数值,并根据投影符号距离函数值进行有效采样点筛选。
在本申请实施例中,在获得多视点彩色深度图像的特征图像时,可对该特征图像在重建空间上进行均匀采样,获得各采样点。
可选地,在对重建空间进行均匀采样时,还可通过以下公式计算各采样点的投影符号距离函数值:
truncatedpsdf=clip(vz-d,-τ,τ)
其中,truncatedpsdf为投影符号距离函数值,vz为采样点在Z轴上的深度值,d为深度相机的深度观测值,clip()为截断函数,用于将输入值vz-d截断至[-τ,τ]的范围内。
作为一种示例,图4是投影符号距离函数psdf的计算示意图。图中颜色由浅到深代表psdf值的由低到高,左侧为采样点深度值,中间为投影符号距离函数值,右侧为截断投影符号距离函数值,假设vz是采样点在的Z轴深度值,d是深度相机的深度观测值,则:
psdf=vz-d
为了更好的在神经网络中提取模型表面深度信息特征,并且避免深度特征错误的传播到当前视点不可见的区域,本申请提出使用改进后的截断投影符号距离函数值作为深度特征信息,截断投影符号距离函数值的计算方式如下:
truncatedpsdf=clip(vz-d,-τ,τ),
其中,clip()为截断函数,用于将输入值vz-d截断至[-τ,τ]的范围内。在本申请中,τ=0.02m。
在本申请实施例中,可根据采样点在不同视点的投影符号距离函数值计算采样点的可见性指标,通过该可见性指标对有效采样点进行筛选。其中,通过以下公式计算所述采样点的可见性指标:
V(p)=∑i∈{0,...,N}ψ(truncatedpsdf,δ)
其中,V(p)为所述采样点可见性指标,i为视点索引值,M为视点总数,ψ(truncatedpsdf,δ)为单视点可见性判断函数,δ为可见性判断阈值,truncatedpsdf为所述投影符号距离函数值;其中,
ψ(truncatedpsdf,δ)=1if truncatedpsdf>-δ,
ψ(truncatedpsdf,δ)=0if truncatedpsdf≤-δ。
由此,根据采样点的可见性指标进行筛选,获得所有有效采样点。
需要说明的是,在使用神经网络进行重建时,本申请选取那些V(p)≥N-1的采样点进行计算,从而极大减小了所需要遍历的采样点个数,提高了***的重建效率,达到了实时重建的性能。
在步骤105中,计算采样点的多视点图像特征,并进行多视点特征融合。
可选地,在筛选出有效采样点时,可计算采样点的多视点图像特征,并通过Transformer网络作为特征融合模块对所述采样点的多视点图像特征进行多视点特征融合。可见,本申请引入了多视点特征的相关性,提升了多视点特征的融合精度和鲁棒性,使重建结果更加完整精确。
作为一种示例,图5显示了基于Transformer网络的特征融合结构。本申请将多视点特征拼接成一个张量,输入到标准Transfomer网络的编码器结构中,从而引入多视点特征的相关性度量进行编码,保证了最终输出的特征融合结果的稳定性和正确性。图5中n_head代表Transformer网络在单层内的QKV矩阵个数,在本申请中nhead=8,n_layers代表Transformer网络的层数,在本申请中nlaver=4。n为训练时的批处理尺寸,C为特征通道数,N为视点总数。图中的张量基本操作包括reshape(形状重组),transpose(转置),softmax(软最大值取值),matrixproduct(矩阵乘),elementwiseadd(逐元素相加),elementwiseaddinfeaturemaplevel(特征图像的逐元素相加)均为神经网络的基本标准操作。
在本步骤中,可通过将采样点的多视点图像特征与采样点的坐标值与投影符号距离函数值结合,得到该采样点的融合特征值,例如,该点的融合特征值可表示为:F=(f,x,y,z,truncatedpsdf),其中(x,y,z)为采样点的三维坐标,f为Transformer网络的融合特征输出。
在步骤106中,将融合后得到的多视点特征图像输入至符号距离函数回归神经网络,获得所有有效采样点的符号距离函数值。
也就是说,将融合后得到的多视点特征图像作为符号距离函数回归神经网络的输入,直接回归出所有有效采样点的符号距离函数值。
在步骤107中,使用面绘制算法MarchingCubes方法从采样点中提取出完整三维模型表面,并根据颜色回归网络对完整三维模型表面进行模型顶点颜色推理,完成全息重建。
根据本申请实施例的基于多RGBD相机的实时人体全息重建方法,利用了深度隐编码表达人体的全息信息,并融合了多视点彩色-深度图像特征和投影符号距离函数值,预测空间中采样点的符号距离函数值和顶点颜色值,由于深度隐编码模型是空间连续模型,因此本申请理论上可以在任意分辨率上进行人体全息模型的重建。本申请的多视点彩色-深度图像特征的提取使用标准卷积神经网路进行实现,与现有方法不同的是,在进行多视点特征融合时,本申请使用Transfomer网络建立不同视点特征之间的相关性,从而实现更加精确的自适应特征融合结果。由此可见,本申请通过将深度神经网络三维重建方法引入到彩色-深度相机***中,一方面利用深度信息提高重建速度,实现实时全息重建效率,并提升网络泛化性能,从而可以处理复杂的人体动作、人与物体的交互场景;另一方面结合多视点信息进一步提升全息重建的质量和精度,使其达到商业可用级别。
图3为本申请实施例所提供的一种基于多RGBD相机的实时人体全息重建装置的结构示意图。
如图3所示,该基于多RGBD相机的实时人体全息重建装置200可以包括:预训练模块201、图像处理模块202、特征提取模块203、筛选模块204、特征融合模块205、符号距离函数值获取模块206和重建模块207。
具体地,预训练模块201用于根据人体扫描数据集渲染多视点训练数据,根据所述多视点训练数据预训练基于像素对齐特征的三维重建神经网络,其中,所述三维重建神经网络包括RGBD图像特征提取神经网络、符号距离函数回归神经网络和颜色回归网络。
图像处理模块202,用于获取采集到的多视点场景彩色深度图像,并提取所述多视点场景彩色深度图像之中的多视点彩色深度图像前景。
特征提取模块203,用于根据所述RGBD图像特征提取神经网络对所述多视点彩色深度图像进行特征提取,获得所述多视点彩色深度图像的特征图像。
筛选模块204,用于对重建空间进行均匀采样并计算投影符号距离函数值,并根据所述投影符号距离函数值进行有效采样点筛选。
在本申请实施例中,筛选模块204通过以下公式计算所述投影符号距离函数值:
truncatedpsdf=clip(vz-d,-τ,τ)
其中,truncatedpsdf为所述投影符号距离函数值,vz为采样点在Z轴上的深度值,d为深度相机的深度观测值,clip()为截断函数,用于将输入值vz-d截断至[-τ,τ]的范围内。
该筛选模块204根据所述投影符号距离函数值进行有效采样点筛选的具体实现过程可如下:根据采样点在不同视点的投影符号距离函数值计算所述采样点的可见性指标,并根据所述采样点的可见性指标进行筛选,获得所有有效采样点。
其中,该筛选模块204通过以下公式计算所述采样点的可见性指标:
V(p)=∑i∈{0,...,N}ψ(truncatedpsdf,δ)
其中,V(p)为所述采样点可见性指标,i为视点索引值,M为视点总数,ψ(truncatedpsdf,δ)为单视点可见性判断函数,δ为可见性判断阈值,truncatedpsdf为所述投影符号距离函数值;其中,
ψ(truncatedpsdf,δ)=1if truncatedpsdf>-δ,
ψ(truncatedpsdf,δ)=0if truncatedpsdf≤-δ。
特征融合模块205,用于计算采样点的多视点图像特征,并进行多视点特征融合。
符号距离函数值获取模块206,用于将融合后得到的多视点特征图像输入至所述符号距离函数回归神经网络,获得所有有效采样点的符号距离函数值。
重建模块207,用于从所述采样点中提取出完整三维模型表面,并根据所述颜色回归网络对所述完整三维模型表面进行模型顶点颜色推理,完成全息重建。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
根据本申请实施例的基于多RGBD相机的实时人体全息重建装置,利用了深度隐编码表达人体的全息信息,并融合了多视点彩色-深度图像特征和投影符号距离函数值,预测空间中采样点的符号距离函数值和顶点颜色值,由于深度隐编码模型是空间连续模型,因此本申请理论上可以在任意分辨率上进行人体全息模型的重建。本申请的多视点彩色-深度图像特征的提取使用标准卷积神经网路进行实现,与现有方法不同的是,在进行多视点特征融合时,本申请使用Transfomer网络建立不同视点特征之间的相关性,从而实现更加精确的自适应特征融合结果。由此可见,本申请通过将深度神经网络三维重建方法引入到彩色-深度相机***中,一方面利用深度信息提高重建速度,实现实时全息重建效率,并提升网络泛化性能,从而可以处理复杂的人体动作、人与物体的交互场景;另一方面结合多视点信息进一步提升全息重建的质量和精度,使其达到商业可用级别。
为了实现上述实施例,本申请还提出一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,当处理器执行计算机程序时,执行本申请上述任一实施例所述的基于多RGBD相机的实时人体全息重建方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行***、装置或设备(如基于计算机的***、包括处理器的***或其他可以从指令执行***、装置或设备取指令并执行指令的***)使用,或结合这些指令执行***、装置或设备而使用。
尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种基于多RGBD相机的实时人体全息重建方法,其特征在于,包括:
根据人体扫描数据集渲染多视点训练数据,根据所述多视点训练数据预训练基于像素对齐特征的三维重建神经网络,其中,所述三维重建神经网络包括RGBD图像特征提取神经网络、符号距离函数回归神经网络和颜色回归网络;
获取采集到的多视点场景彩色深度图像,并提取所述多视点场景彩色深度图像之中的多视点彩色深度图像前景;
根据所述RGBD图像特征提取神经网络对所述多视点彩色深度图像进行特征提取,获得所述多视点彩色深度图像的特征图像;
对重建空间进行均匀采样并计算投影符号距离函数值,并根据所述投影符号距离函数值进行有效采样点筛选;
计算采样点的多视点图像特征,并进行多视点特征融合;
将融合后得到的多视点特征图像输入至所述符号距离函数回归神经网络,获得所有有效采样点的符号距离函数值;
从所述采样点中提取出完整三维模型表面,并根据所述颜色回归网络对所述完整三维模型表面进行模型顶点颜色推理,完成全息重建。
2.根据权利要求1所述的方法,其特征在于,所述进行多视点特征融合包括:
通过Transformer网络作为特征融合模块对所述采样点的多视点图像特征进行多视点特征融合。
3.根据权利要求1所述的方法,其特征在于,通过以下公式计算所述投影符号距离函数值:
truncatedpsdf=clip(vz-d,-τ,τ)
其中,truncatedpsdf为所述投影符号距离函数值,vz为采样点在Z轴上的深度值,d为深度相机的深度观测值,clip()为截断函数,用于将输入值vz-d截断至[-τ,τ]的范围内。
4.根据权利要求1所述的方法,其特征在于,所述根据所述投影符号距离函数值进行有效采样点筛选,包括:
根据采样点在不同视点的投影符号距离函数值计算所述采样点的可见性指标;
根据所述采样点的可见性指标进行筛选,获得所有有效采样点。
5.根据权利要求4所述的方法,其特征在于,通过以下公式计算所述采样点的可见性指标:
V(p)=∑i∈{0,...,N}ψ(truncatedpsdf,δ)
其中,V(p)为所述采样点可见性指标,i为视点索引值,M为视点总数,ψ(truncatedpsdf,δ)为单视点可见性判断函数,δ为可见性判断阈值,truncatedpsdf为所述投影符号距离函数值;其中,
ψ(truncatedpsdf,δ)=1 if truncatedpsdf>-δ,
ψ(truncatedpsdf,δ)=0 if truncatedpsdf≤-δ。
6.一种基于多RGBD相机的实时人体全息重建装置,其特征在于,包括:
预训练模块,用于根据人体扫描数据集渲染多视点训练数据,根据所述多视点训练数据预训练基于像素对齐特征的三维重建神经网络,其中,所述三维重建神经网络包括RGBD图像特征提取神经网络、符号距离函数回归神经网络和颜色回归网络;
图像处理模块,用于获取采集到的多视点场景彩色深度图像,并提取所述多视点场景彩色深度图像之中的多视点彩色深度图像前景;
特征提取模块,用于根据所述RGBD图像特征提取神经网络对所述多视点彩色深度图像进行特征提取,获得所述多视点彩色深度图像的特征图像;
筛选模块,用于对重建空间进行均匀采样并计算投影符号距离函数值,并根据所述投影符号距离函数值进行有效采样点筛选;
特征融合模块,用于计算采样点的多视点图像特征,并进行多视点特征融合;
符号距离函数值获取模块,用于将融合后得到的多视点特征图像输入至所述符号距离函数回归神经网络,获得所有有效采样点的符号距离函数值;
重建模块,用于从所述采样点中提取出完整三维模型表面,并根据所述颜色回归网络对所述完整三维模型表面进行模型顶点颜色推理,完成全息重建。
7.根据权利要求6所述的装置,其特征在于,所述筛选模块通过以下公式计算所述投影符号距离函数值:
truncatedpsdf=clip(vz-d,τ,τ)
其中,truncatedpsdf为所述投影符号距离函数值,vz为采样点在Z轴上的深度值,d为深度相机的深度观测值,clip()为截断函数,用于将输入值vz-d截断至[-τ,τ]的范围内。
8.根据权利要求6所述的装置,其特征在于,所述筛选模块具体用于:
根据采样点在不同视点的投影符号距离函数值计算所述采样点的可见性指标;
根据所述采样点的可见性指标进行筛选,获得所有有效采样点。
9.根据权利要求8所述的装置,其特征在于,所述筛选模块通过以下公式计算所述采样点的可见性指标:
V(p)=∑i∈{0,...,N}ψ(truncatedpsdf,δ)
其中,V(p)为所述采样点可见性指标,i为视点索引值,M为视点总数,ψ(truncatedpsdf,δ)为单视点可见性判断函数,δ为可见性判断阈值,truncatedpsdf为所述投影符号距离函数值;其中,
ψ(truncatedpsdf,δ)=1 if truncatedpsdf>-δ,
ψ(truncatedpsdf,δ)=0 if truncatedpsdf≤-δ。
10.一种计算机设备,其特征在于,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现如权利要求1至5中任一所述的基于多RGBD相机的实时人体全息重建方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110610788.8A CN113506335B (zh) | 2021-06-01 | 2021-06-01 | 基于多rgbd相机的实时人体全息重建方法以及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110610788.8A CN113506335B (zh) | 2021-06-01 | 2021-06-01 | 基于多rgbd相机的实时人体全息重建方法以及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113506335A CN113506335A (zh) | 2021-10-15 |
CN113506335B true CN113506335B (zh) | 2022-12-13 |
Family
ID=78008829
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110610788.8A Active CN113506335B (zh) | 2021-06-01 | 2021-06-01 | 基于多rgbd相机的实时人体全息重建方法以及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113506335B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115082636B (zh) * | 2022-07-05 | 2024-05-17 | 聚好看科技股份有限公司 | 基于混合高斯网络的单图像三维重建方法及设备 |
KR20240079660A (ko) * | 2022-11-29 | 2024-06-05 | 한국전자기술연구원 | 단안 컬러 이미지 기반의 실시간 3d 휴먼 객체 복원 장치 및 방법 |
CN117376541B (zh) * | 2023-12-06 | 2024-03-26 | 深圳优立全息科技有限公司 | 一种全息立体画面同步方法、装置、设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111462302A (zh) * | 2020-03-05 | 2020-07-28 | 清华大学 | 基于深度编码网络的多视点人体动态三维重建方法及*** |
CN112330795A (zh) * | 2020-10-10 | 2021-02-05 | 清华大学 | 基于单张rgbd图像的人体三维重建方法及*** |
-
2021
- 2021-06-01 CN CN202110610788.8A patent/CN113506335B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111462302A (zh) * | 2020-03-05 | 2020-07-28 | 清华大学 | 基于深度编码网络的多视点人体动态三维重建方法及*** |
CN112330795A (zh) * | 2020-10-10 | 2021-02-05 | 清华大学 | 基于单张rgbd图像的人体三维重建方法及*** |
Non-Patent Citations (1)
Title |
---|
基于多RGBD摄像机的动态场景实时三维重建***;段勇等;《北京理工大学学报》;20141115(第11期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113506335A (zh) | 2021-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113506335B (zh) | 基于多rgbd相机的实时人体全息重建方法以及装置 | |
CN111462329B (zh) | 一种基于深度学习的无人机航拍影像的三维重建方法 | |
CN113936139B (zh) | 一种视觉深度信息与语义分割相结合的场景鸟瞰图重构方法及*** | |
JP2021531582A (ja) | 画像視差推定 | |
CN111325693B (zh) | 一种基于单视点rgb-d图像的大尺度全景视点合成方法 | |
CN110335222B (zh) | 基于神经网络的自修正弱监督双目视差提取方法及装置 | |
CN114359509B (zh) | 一种基于深度学习的多视图自然场景重建方法 | |
CN110197505B (zh) | 基于深度网络及语义信息的遥感图像双目立体匹配方法 | |
CN113763231B (zh) | 模型生成方法、图像透视图确定方法、装置、设备及介质 | |
CN115731336B (zh) | 图像渲染方法、图像渲染模型生成方法及相关装置 | |
CN117523100A (zh) | 基于神经网络与多视图一致性的三维场景重建方法和装置 | |
CN116721210A (zh) | 基于神经有符号距离场的实时高效三维重建方法及装置 | |
CN116778063A (zh) | 一种基于特征纹理网格和哈希编码的快速虚拟视点合成方法及装置 | |
CN112927348B (zh) | 一种基于多视点rgbd相机高分辨率人体三维重建方法 | |
CN117094895B (zh) | 图像全景拼接方法及其*** | |
CN112489103B (zh) | 一种高分辨率深度图获取方法及*** | |
CN116258756B (zh) | 一种自监督单目深度估计方法及*** | |
CN116993926A (zh) | 单视图人体三维重建方法 | |
CN112270701A (zh) | 基于分组距离网络的视差预测方法、***及存储介质 | |
CN114935316B (zh) | 基于光学跟踪与单目视觉的标准深度图像生成方法 | |
CN113920270B (zh) | 一种基于多视角全景的布局重建方法及其*** | |
Zhou et al. | From NeRFLiX to NeRFLiX++: A General NeRF-Agnostic Restorer Paradigm | |
CN117501313A (zh) | 基于深度神经网络的毛发渲染*** | |
Kuo et al. | 2D-to-3D conversion for single-view image based on camera projection model and dark channel model | |
CN117523024B (zh) | 一种基于潜在扩散模型的双目图像生成方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
EE01 | Entry into force of recordation of patent licensing contract | ||
EE01 | Entry into force of recordation of patent licensing contract |
Application publication date: 20211015 Assignee: Beijing Yuanke Fangzhou Technology Co.,Ltd. Assignor: TSINGHUA University Contract record no.: X2023980052719 Denomination of invention: Real time human holographic reconstruction method and device based on multiple RGBD cameras Granted publication date: 20221213 License type: Common License Record date: 20231215 |