CN116134491A - 用于面部表情、身体姿态形态和衣服表演捕捉的使用隐式可微分渲染器的多视图神经人体预测 - Google Patents

用于面部表情、身体姿态形态和衣服表演捕捉的使用隐式可微分渲染器的多视图神经人体预测 Download PDF

Info

Publication number
CN116134491A
CN116134491A CN202280006134.7A CN202280006134A CN116134491A CN 116134491 A CN116134491 A CN 116134491A CN 202280006134 A CN202280006134 A CN 202280006134A CN 116134491 A CN116134491 A CN 116134491A
Authority
CN
China
Prior art keywords
image
neural network
human
bare
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202280006134.7A
Other languages
English (en)
Inventor
张庆
肖汉源
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Sony Optical Archive Inc
Original Assignee
Sony Group Corp
Optical Archive Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/701,991 external-priority patent/US11961266B2/en
Application filed by Sony Group Corp, Optical Archive Inc filed Critical Sony Group Corp
Publication of CN116134491A publication Critical patent/CN116134491A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/16Cloth

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Geometry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

神经人体表演捕捉框架(MVS‑PERF)从标定的多视图图像集中捕捉人的骨架、身体形态以及衣服位移和外观。它解决了单目人体网格恢复中预测绝对位置的模糊性,并将来自NeRF的体表示与动画友好的表演捕捉联系起来。MVS‑PERF包括三个模块以从多视图图像中提取特征映射并将其融合为特征体,将特征体回归为赤裸的人体参数矢量,生成具有骨架姿态、身体形态和表情的SMPL‑X贴身身体网格,并使用可微分渲染利用神经辐射场和变形场来将衣服推断为赤裸的身体上的位移。通过向SMPL‑X贴身身体网格顶点添加插值的位移矢量来获得穿衣服的身体网格。所获得的辐射场被用于输入拍摄对象的自由视图体渲染。

Description

用于面部表情、身体姿态形态和衣服表演捕捉的使用隐式可微分渲染器的多视图神经人体预测
相关申请的交叉引用
根据35U.S.C.§119(e),本申请要求2021年11月16日提交的题为“MULTIVIEWNEURAL HUMAN PREDICTION USING IMPLICIT DIFFERENTIABLE RENDERER FOR FACIALEXPRESSION,BODY POSE SHAPE AND CLOTHES PERFORMANCE CAPTURE”的美国临时专利申请序列号No.63/279,916和2021年3月31日提交的题为“MULTIVIEW NEURAL HUMANPREDICTION USING IMPLICIT DIFFERENTIABLE RENDERER FOR FACIAL EXPRESSION,BODYPOSE SHAPE AND CLOTHES DISPLACEMENT”的美国临时专利申请序列号No.63/168,467的优先权,这两个专利申请对于所有目的通过引用整体并入本文中。
技术领域
本发明涉及用于娱乐产业的三维计算机视觉和图形。更具体地,本发明涉及获取和处理用于电影、TV、音乐和游戏内容创作的三维计算机视觉和图形。
背景技术
先前的***,例如Facebook FrankMocap,仅从单个图像中预测赤裸的身体形态和姿态。此类***不能预测衣服表面。此类***是2D图像翻译方法,并且不能处理多视图输入。
隐式部分网络(Implicit Part Network)从扫描或重建的点云中预测身体和衣服两者,但需要3D扫描,并且不能处理RGB图像作为输入,也不能处理面部表情和外观。此外,隐式部分网络仅预测标签以将体素识别为身体或衣服,然后显式地拟合人体先验模型,这很慢。神经身体(Neural Body)和可动画NeRF(Animatable NeRF)使用神经辐射场(NeRF)预测没有面部表情的衣服人体。但它们需要创建稠密的隐代码体,这仅限于低分辨率并导致粗糙的人体几何。并且它们仅能够恢复没有网格顶点对应的体人体模型。
发明内容
多视图神经人体预测包括从给定相机标定的多视图图像集中预测包括骨架、身体形态以及衣服位移和外观的3D人体模型。
在一个方面,神经网络接受来自不同视图的输入图像集(其可以是单个图像或多个图像),并预测分层的3D人体模型。所述图像集包括大小为N×w×h×c的4D张量,其中N是视图的数量,w是图像的宽度,h是所述图像的高度,并且c是所述图像的通道。所述图像集的相机信息是已知的。输出模型包含从内到外的三个层:处于预测的姿态的骨架;具有面部表情的预测的形态的赤裸的3D身体(例如,由混合形状(blendshape)和关节旋转所参数化的SMPL-X模型);以及从所述输入图像中推断的衣服位移的3D场和外观RGB颜色。通过根据所述衣服位移场使所述赤裸的3D身体网格变形来获得穿衣服的身体网格。
在另一个方面,所述神经网络包括三个子网络:多视图立体3D卷积神经网络(MVS-3DCNN),所述MVS-3DCNN将所述输入图像集编码为特征;人体网格恢复多层感知器(HMRMLP),所述HMR MLP将所述特征回归为人体参数;和神经辐射场多层感知器(NeRF MLP),所述NeRF MLP微调所述MVS-3DCNN并将查询3D射线(3D位置和方向)解码为RGB颜色和衣服到身***移。
在另一个方面,在测试/推断模式中,在训练数据中的相机的视野范围内,所述分层的3D人体模型的预测对于小型输入集是设备无关的、全自动的和实时的,而没有任何显式的数值优化。当用训练的神经网络预测时,MVS-3DCNN接受所述多视图图像集作为输入,选择正面视图作为参考视图,并提取特征体。HMR MLP将所有所述特征体回归为人体姿态、形态、面部特征参数。SMPL-X模型根据所述参数生成人体赤裸的身体网格。然后所述赤裸的身体网格被转换为其包围框中的占用场。对于在所述身体网格附近、与来自每个视图的中心的射线方向相关联的任何3D点,训练的NeRF MLP生成RGB颜色和指向所述赤裸的身体的表面的3D位移矢量。通过查询从相机视图(与输入视图相同,或者是任何新视图)的所有像素发射的所有射线,能够将穿衣服的人体的外观渲染为RGB图像。通过使用来自采样的点的所述3D位移矢量使所述赤裸的身体变形,能够获得与SMPL-X模型相同顶点对应的穿衣服的身体网格(例如SMPL-X+D)。
在另一个方面,训练所述神经网络包括两种情况:监督和自监督。在监督情况下,给定具有已知人体参数的标记的数据集,例如H36M数据集。将地面真值(GT)参数和形态与CNN回归的参数和形态进行比较。计算差异作为形态损失。与此同时,从所述输入图像集中的采样的像素投射射线,并且NeRF MLP渲染所述射线并将参数回归为颜色和密度,其为所述赤裸的身体和3D衣服位移的密度的函数。通过采样的像素颜色和渲染的颜色的差的和来计算颜色损失。另一方面,在GT人体参数未知的大多数现有数据集(例如运动捕捉数据集)中,利用自监督/自改进(self-improving)训练。在每个训练迭代中,在从MVS 3DCNN回归参数后,所述参数被发送到诸如SMPLifyX之类的基于优化的人体预测算法,并通过显式的数值优化方法被优化。优化的参数与CNN回归的参数进行比较并变成所述形态损失。剩余步骤与监督训练相同,但自改进训练比监督情况花费更多的轮次(epoch)和更长的时间。通过诸如Adam之类的并行优化算法来执行整个神经网络的训练,所述并行优化算法最小化形态损失和颜色损失两者,并输出优化的网络权重。
附图说明
图1图示了根据一些实施例的神经人体预测的流程图。
图2图示了根据一些实施例的由张量标记法所表示的前向预测的工作流程,其中所有网络MVS 3DCNN、HMR MLP和NeRF MLP的权重是已知的。
图3图示了根据一些实施例的使用监督来训练网络的工作流程。
图4图示了根据一些实施例的用自改进策略来训练网络的工作流程。
图5图示了根据一些实施例的每个视图的MVS 3DCNN与NeRF MLP的对准。
具体实施方式
神经人体预测包括从图像集(单个图像或多视图图像)中预测包括骨架的姿态、身体形态以及衣服位移和外观的3D人体模型。神经人体预测的实施例说明了使用神经网络的方法。多视图神经人体预测在质量和鲁棒性上优于基于单个图像的运动捕捉(mocap)和人体提升;简化了诸如隐式部分网络之类的身体衣服预测网络的架构,所述隐式部分网络接受稀疏的点云作为输入、具有较高的存储开销并且执行速度慢;并且避免了诸如神经身体(Neural Body)之类的基于隐代码的网络的分辨率限制,所述神经身体编码整个3D体。
图1图示了根据一些实施例的神经人体预测的流程图。在步骤100中,作为输入获取图像的输入集I(单个图像或多视图图像,例如围绕拍摄对象拍摄的图片集)。输入I被表示为大小为N×w×h×c的4D张量,N是视图的数量,w、h、c分别是图像宽度、高度和通道。相机已经被标定,因此所有相机信息(例如相机参数)是已知的。图像预处理使用诸如Detectron2和图像Grab-Cut之类的现有方法来提取拍摄对象的包围框和前景掩膜。图像被包围框裁剪,并以相同的宽高比缩放到w×h的大小。用黑色来填充图像边界。
神经网络(MVS-PERF)102包括三个组件:多视图立体3D卷积神经网络(MVS-3DCNN)104,MVS-3DCNN 104将输入图像集编码为特征;人体网格恢复多层感知器(HMR MLP)106,HMR MLP 106将所述特征回归为人体参数;和神经辐射场多层感知器(NeRF MLP)108,NeRFMLP 108微调MVS-3DCNN并将查询3D射线(3D位置和方向)解码为RGB颜色和衣服到身***移。
在步骤104中,深度2D CNN从每个视图中提取图像特征。除最后一层以外,每个卷积层后接批归一化(BN)层和修正线性单元(ReLU)。还放置了两个下采样层。2D CNN的输出是大小为w/4×h/4×32的特征映射。
然后,首先选择视图作为参考视图,并根据透视投影和近远平面来设定其视锥体以覆盖拍摄对象的整个工作空间。从近到远,通过d个深度平面来采样所述锥体,所述d个深度平面与***面和远平面两者平行。所有特征映射被变换并混合到每个深度平面。对于任何视图i,i=1,2,…,N,通过以下公式给出针对参考视图(下标为1)的3×3单应性图像变换矩阵:
Figure BDA0004113555270000051
其中K、[R,t]代表相机固有和非固有参数,z是从深度平面到参考视图的相机中心的距离,并且n是该深度平面的法线方向。
在所有图像被换(warp)到深度平面后,坐标(u,v,z)处的代价由所有特征的方差
Figure BDA0004113555270000052
来确定。
Figure BDA0004113555270000053
是所有视图中的平均特征值。代价体的大小为d×w/4×h/4。
在步骤106中,人体网格恢复多层感知器(HMR MLP)包括由压平(flatten)和随机失活(dropout)层所分隔的三层线性回归。它将来自MVS 3DCNN的特征体回归为人体参数θreg114。
人体参数θreg能够将人体参数化模型(例如SMPL-X)操纵为3D赤裸的身体网格202。通常,SMPL-X表示θreg包含骨架姿态(每个关节的3D旋转角)、控制身体形态(例如高度、重量等)的身体混合形状参数以及控制面部的表情的面部混合形状参数。它使用混合形状参数来建立T型姿态网格,并通过线性蒙皮模型的骨架姿态来使T型姿态网格变形为摆姿态的网格。
另一方面,在步骤108中,所述代价体被发送到可微分渲染MLP,诸如神经辐射场(NeRF)。NeRF MLP被公式化为函数M,函数M将由3D位置x和方向
Figure BDA0004113555270000061
所表示的查询射线映射到4通道颜色RGBσ,
Figure BDA0004113555270000062
f是从锥体MVS 3DCNN 104的代价体到NeRF体的特征映射,并且1是NeRF MLP网络的权重。σ表示3D点是否在网格内部的概率的占用密度。可以通过转换锥体104中的网格202(图2)来直接获得赤裸的身体的占用密度场σb。然后,穿衣服的身体的密度场σ可以被表示为3D位移矢量场D和特征映射f的函数:σ(D,f)。3D位移矢量场D 116表示穿衣服的身体表面204上的点如何与赤裸的身体表面上的点有关。在训练NeRFMLP时,也优化位移矢量场D。
图2图示了根据一些实施例的由张量标记法所表示的前向预测的工作流程,其中训练并固定所有网络MVS 3DCNN、HMR MLP和NeRF MLP的权重。通过查询来自透视投影的图像的像素的所有射线200,来渲染外观图像112。在一些实施例中,实现3D人体预测110。通过查询人体附近的采样的点,来获得位移场D 116。对于穿衣服的输出网格具有与模板相同的拓扑的人体表演捕捉任务,可以通过向每个顶点添加插值的位移矢量来使赤裸的身体网格Vb 202变形为穿衣服的身体网格Vc 204。
图3图示了根据一些实施例的使用监督来训练网络的工作流程。监督训练数据集(例如Human3.6M)不仅包含图像输入I 100,而且包含地面真值人体参数θgt300和赤裸的身体网格Vb,gt302,通常通过传感器或现有方法来获取地面真值人体参数θgt300和赤裸的身体网格Vb,gt302。在这种情况下,通过对预测的赤裸的身体与地面真值的差求和来直接获得形态损失304。
Figure BDA0004113555270000063
其中J是赤裸的身体的关节,Π表示对于每个相机视图的3D点的透视投影。为了有效地训练网络,在每个训练步骤中,所有视图轮流被选择为MVS 3DCNN的参考视图。
与此同时,通常使用与图像显著性成比例的非均匀采样策略来从输入图像集100中采样射线306。在高显著性区域中采样更多的射线,而从普通或背景区域中采样较少的射线。这些射线与来自MVS 3DCNN 104的特征映射一起被发送到NeRF MLP 106中,NeRFMLP106渲染样本外观RGBσ颜色308。通过对输入图像中的采样的颜色与渲染的颜色308的所有差求和来计算颜色损失310。
通过最小化形态损失和颜色损失两者,并行化随机优化算法(例如Adam)被应用于训练所有网络MVS 3DCNN、HMR MLP、NeRF MLP的权重。
图4图示了根据一些实施例的用自改进策略来训练网络的工作流程。在这种情况下,训练数据集仅提供人体图像,而没有任何标注或人体地面真值参数。对于输入集100中的每个图像,通过采用回归的参数θreg114作为初始猜测来应用基于优化的预测400,例如SMPLifyX算法。基于优化的预测首先检测每个图像上的人体2D关键点,并应用非线性优化以拟合3D人体。
将Vb,opt404(由θopt402所参数化)网格化为这些2D关键点。
Figure BDA0004113555270000071
其中K表示检测的关键点的2D位置,并且求和对于所有对应的关键点和所有视图进行。
虽然非线性最小二乘优化在数值上较缓慢,并且拟合精度依赖于初始猜测θreg,但它是可靠的。在拟合的充分迭代后,θopt将接近于地面真值。因此,自改进训练工作流程可以高效地朝着地面真值改进θopt,如以下流程中总结的那样。
自改进训练工作流程:
执行
根据输入I从MVS-3DCNN和HMR MLP中计算θreg采用θreg作为初始猜想并接受I作为输入从SMPLifyX中计算θopt
从I中采样射线并从NeRF MLP中计算采样的颜色c
计算形态损失和颜色损失
通过最小化形态损失和颜色损失来更新MVS 3DCNN、HMR MLP和NeRF MLP的网络权重
对于所有训练数据重复并且直到权重收敛。
图5图示了根据一些实施例的每个视图的MVS 3DCNN与NeRF MLP的对准。
在操作中,神经人体预测能够直接应用于商业和/或个人无标记表演捕捉应用两者,例如人体3D表面重建RGB相机设置或游戏工作室中的无标记运动捕捉。多视图神经人体预测的实施例的其他应用可以作为能够与任何扩展组合的实时支柱技术,例如组合3D建模、深度感应的输入,或者使用输出以创建新动画。多视图神经人体预测还能够应用于游戏、VR/AR以及任何实时人机交互应用。取决于所使用的硬件(例如GPU处理器的速度和GPU存储器的大小),当处理稀疏的视图以预测时,多视图神经人体预测是实时的,而对于更多的视图(例如20),能够实现近实时处理和预测。
可以在任何计算设备上实现本文中所述的方法。合适的计算设备的示例包括个人计算机、膝上型计算机、计算机工作站、服务器、大型计算机、手持式计算机、个人数字助理、蜂窝/移动电话、智能家电、游戏机、数码相机、数码摄录机、拍照电话、智能电话、便携式音乐播放器、平板计算机、移动设备、视频播放器、视频光盘写入器/播放器(例如DVD写入器/播放器、高清晰度光盘写入器/播放器、超高清晰度光盘写入器/播放器)、电视、家庭娱乐***、增强现实设备、虚拟现实设备、智能首饰(例如智能手表)、车辆(例如自动驾驶车辆)或者任何其他合适的计算设备。
用于面部表情、身体姿态形态和衣服表演捕捉的使用隐式可微分渲染器的多视图神经人体预测的一些实施例
1、一种在设备的非暂时性存储器中编程的方法,所述方法包括:
获取图像集作为输入;和
用神经网络处理所述图像集,其中所述处理包括:
将所述图像集编码为一个或多个特征;
将所述特征回归为人体参数;
微调所述神经网络;和
将查询3D射线解码为RGB颜色和衣服到身***移,其中所述RGB颜色基于所述图像集。
2、根据条款1所述的方法,其中所述图像集包括大小为N×w×h×c的4D张量,其中N是视图的数量,w是图像的宽度,h是图像的高度,并且c是图像的通道。
3、根据条款1所述的方法,其中所述神经网络从所述图像集中选择正面视图作为参考视图,并提取特征体。
4、根据条款3所述的方法,其中所述神经网络将所有所述特征体回归为人体姿态、形态、面部表情参数。
5、根据条款4所述的方法,其中所述神经网络根据所述参数生成人体赤裸的身体网格。
6、根据条款5所述的方法,其中所述赤裸的身体网格被转换为包围框中的占用场。
7、根据条款6所述的方法,其中对于在所述身体网格附近、与来自每个视图的中心的射线方向相关联的任何3D点,所述神经网络生成所述RGB颜色和指向所述赤裸的身体的表面的3D位移矢量。
8、根据条款7所述的方法,其中通过查询从相机视图的所有像素发射的所有射线来将穿衣服的人体的外观渲染为RGB图像,并且通过使用来自采样的点的所述3D位移矢量使所述赤裸的身体变形来获得穿衣服的身体网格。
9、根据条款1所述的方法,其中以监督模式或自监督模式来实现所述神经网络。
10、一种装置,所述装置包括:
非暂时性存储器,所述非暂时性存储器被配置为存储应用,所述应用被配置为:
获取图像集作为输入;和
用神经网络处理所述图像集,其中所述处理包括:
将所述图像集编码为一个或多个特征;
将所述特征回归为人体参数;
微调所述神经网络;和
将查询3D射线解码为RGB颜色和衣服到身***移,其中所述RGB颜色基于所述图像集;和
处理器,所述处理器被配置为处理所述应用。
11、根据条款10所述的装置,其中所述图像集包括大小为N×w×h×c的4D张量,其中N是视图的数量,w是图像的宽度,h是图像的高度,并且c是图像的通道。
12、根据条款10所述的装置,其中所述神经网络从所述图像集中选择正面视图作为参考视图,并提取特征体。
13、根据条款12所述的装置,其中所述神经网络将所有所述特征体回归为人体姿态、形态、面部表情参数。
14、根据条款13所述的装置,其中所述神经网络根据所述参数生成人体赤裸的身体网格。
15、根据条款14所述的装置,其中所述赤裸的身体网格被转换为包围框中的占用场。
16、根据条款15所述的装置,其中对于在所述身体网格附近、与来自每个视图的中心的射线方向相关联的任何3D点,所述神经网络生成所述RGB颜色和指向所述赤裸的身体的表面的3D位移矢量。
17、根据条款16所述的装置,其中通过查询从相机视图的所有像素发射的所有射线来将穿衣服的人体的外观渲染为RGB图像,并且通过使用来自采样的点的所述3D位移矢量使所述赤裸的身体变形来获得穿衣服的身体网格。
18、根据条款10所述的装置,其中以监督模式或自监督模式来实现所述神经网络。
19、一种装置,所述装置包括:
非暂时性存储器,所述非暂时性存储器被配置为存储应用,所述应用包括:
多视图立体3D卷积神经网络(MVS-3DCNN),所述多视图立体3D卷积神经网络被配置为将输入图像集编码为特征;
人体网格恢复多层感知器(HMR MLP),所述人体网格恢复多层感知器被配置为将所述特征回归为人体参数;和
神经辐射场多层感知器(NeRF MLP),所述神经辐射场多层感知器被配置为微调所述MVS-3DCNN并将查询3D射线(3D位置和方向)解码为RGB颜色和衣服到身***移;和
处理器,所述处理器被配置为处理所述应用。
20、根据条款19所述的装置,其中所述图像集包括大小为N×w×h×c的4D张量,其中N是视图的数量,w是图像的宽度,h是图像的高度,并且c是图像的通道。
21、根据条款20所述的装置,其中所述MVS-3DCNN从所述图像集中选择正面视图作为参考视图,并提取特征体。
22、根据条款21所述的装置,其中所述HMR MLP将所有所述特征体回归为人体姿态、形态、面部表情参数。
23、根据条款22所述的装置,还包括被配置为根据所述参数生成人体赤裸的身体网格的模型。
24、根据条款23所述的装置,其中所述赤裸的身体网格被转换为包围框中的占用场。
25、根据条款24所述的装置,其中对于在所述身体网格附近、与来自每个视图的中心的射线方向相关联的任何3D点,所述NeRF MLP生成所述RGB颜色和指向所述赤裸的身体的表面的3D位移矢量。
26、根据条款25所述的装置,其中通过查询从相机视图的所有像素发射的所有射线来将穿衣服的人体的外观渲染为RGB图像,并且通过使用来自采样的点的所述3D位移矢量使所述赤裸的身体变形来获得穿衣服的身体网格。
已经根据具体实施例说明了本发明,所述具体实施例包含细节以促进理解本发明的结构和操作的原理。本文中对具体实施例及其细节的此类提及不旨在限制所附权利要求书的范围。对本领域技术人员将很明显的是,可以在不脱离如由权利要求书所限定的本发明的精神和范围的情况下在为示例选择的实施例中进行其他各种修改。

Claims (26)

1.一种在设备的非暂时性存储器中编程的方法,所述方法包括:
获取图像集作为输入;和
用神经网络处理所述图像集,其中所述处理包括:
将所述图像集编码为一个或多个特征;
将所述特征回归为人体参数;
微调所述神经网络;和
将查询3D射线解码为RGB颜色和衣服到身***移,其中所述RGB颜色基于所述图像集。
2.根据权利要求1所述的方法,其中所述图像集包括大小为N×w×h×c的4D张量,其中N是视图的数量,w是图像的宽度,h是图像的高度,并且c是图像的通道。
3.根据权利要求1所述的方法,其中所述神经网络从所述图像集中选择正面视图作为参考视图,并提取特征体。
4.根据权利要求3所述的方法,其中所述神经网络将所有所述特征体回归为人体姿态、形态、面部表情参数。
5.根据权利要求4所述的方法,其中所述神经网络根据所述参数生成人体赤裸的身体网格。
6.根据权利要求5所述的方法,其中所述赤裸的身体网格被转换为包围框中的占用场。
7.根据权利要求6所述的方法,其中对于在所述身体网格附近、与来自每个视图的中心的射线方向相关联的任何3D点,所述神经网络生成所述RGB颜色和指向所述赤裸的身体的表面的3D位移矢量。
8.根据权利要求7所述的方法,其中通过查询从相机视图的所有像素发射的所有射线来将穿衣服的人体的外观渲染为RGB图像,并且通过使用来自采样的点的所述3D位移矢量使所述赤裸的身体变形来获得穿衣服的身体网格。
9.根据权利要求1所述的方法,其中以监督模式或自监督模式来实现所述神经网络。
10.一种装置,所述装置包括:
非暂时性存储器,所述非暂时性存储器被配置为存储应用,所述应用被配置为:
获取图像集作为输入;和
用神经网络处理所述图像集,其中所述处理包括:
将所述图像集编码为一个或多个特征;
将所述特征回归为人体参数;
微调所述神经网络;和
将查询3D射线解码为RGB颜色和衣服到身***移,其中所述RGB颜色基于所述图像集;和
处理器,所述处理器被配置为处理所述应用。
11.根据权利要求10所述的装置,其中所述图像集包括大小为N×w×h×c的4D张量,其中N是视图的数量,w是图像的宽度,h是图像的高度,并且c是图像的通道。
12.根据权利要求10所述的装置,其中所述神经网络从所述图像集中选择正面视图作为参考视图,并提取特征体。
13.根据权利要求12所述的装置,其中所述神经网络将所有所述特征体回归为人体姿态、形态、面部表情参数。
14.根据权利要求13所述的装置,其中所述神经网络根据所述参数生成人体赤裸的身体网格。
15.根据权利要求14所述的装置,其中所述赤裸的身体网格被转换为包围框中的占用场。
16.根据权利要求15所述的装置,其中对于在所述身体网格附近、与来自每个视图的中心的射线方向相关联的任何3D点,所述神经网络生成所述RGB颜色和指向所述赤裸的身体的表面的3D位移矢量。
17.根据权利要求16所述的装置,其中通过查询从相机视图的所有像素发射的所有射线来将穿衣服的人体的外观渲染为RGB图像,并且通过使用来自采样的点的所述3D位移矢量使所述赤裸的身体变形来获得穿衣服的身体网格。
18.根据权利要求10所述的装置,其中以监督模式或自监督模式来实现所述神经网络。
19.一种装置,所述装置包括:
非暂时性存储器,所述非暂时性存储器被配置为存储应用,所述应用包括:
多视图立体3D卷积神经网络(MVS-3DCNN),所述多视图立体3D卷积神经网络被配置为将输入图像集编码为特征;
人体网格恢复多层感知器(HMR MLP),所述人体网格恢复多层感知器被配置为将所述特征回归为人体参数;和
神经辐射场多层感知器(NeRF MLP),所述神经辐射场多层感知器被配置为微调所述MVS-3DCNN并将查询3D射线(3D位置和方向)解码为RGB颜色和衣服到身***移;和
处理器,所述处理器被配置为处理所述应用。
20.根据权利要求19所述的装置,其中所述图像集包括大小为N×w×h×c的4D张量,其中N是视图的数量,w是图像的宽度,h是图像的高度,并且c是图像的通道。
21.根据权利要求20所述的装置,其中所述MVS-3DCNN从所述图像集中选择正面视图作为参考视图,并提取特征体。
22.根据权利要求21所述的装置,其中所述HMR MLP将所有所述特征体回归为人体姿态、形态、面部表情参数。
23.根据权利要求22所述的装置,还包括被配置为根据所述参数生成人体赤裸的身体网格的模型。
24.根据权利要求23所述的装置,其中所述赤裸的身体网格被转换为包围框中的占用场。
25.根据权利要求24所述的装置,其中对于在所述身体网格附近、与来自每个视图的中心的射线方向相关联的任何3D点,所述NeRF MLP生成所述RGB颜色和指向所述赤裸的身体的表面的3D位移矢量。
26.根据权利要求25所述的装置,其中通过查询从相机视图的所有像素发射的所有射线来将穿衣服的人体的外观渲染为RGB图像,并且通过使用来自采样的点的所述3D位移矢量使所述赤裸的身体变形来获得穿衣服的身体网格。
CN202280006134.7A 2021-03-31 2022-03-31 用于面部表情、身体姿态形态和衣服表演捕捉的使用隐式可微分渲染器的多视图神经人体预测 Pending CN116134491A (zh)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US202163168467P 2021-03-31 2021-03-31
US63/168,467 2021-03-31
US202163279916P 2021-11-16 2021-11-16
US63/279,916 2021-11-16
US17/701,991 US11961266B2 (en) 2021-03-31 2022-03-23 Multiview neural human prediction using implicit differentiable renderer for facial expression, body pose shape and clothes performance capture
US17/701,991 2022-03-23
PCT/IB2022/053034 WO2022208440A1 (en) 2021-03-31 2022-03-31 Multiview neural human prediction using implicit differentiable renderer for facial expression, body pose shape and clothes performance capture

Publications (1)

Publication Number Publication Date
CN116134491A true CN116134491A (zh) 2023-05-16

Family

ID=81328451

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202280006134.7A Pending CN116134491A (zh) 2021-03-31 2022-03-31 用于面部表情、身体姿态形态和衣服表演捕捉的使用隐式可微分渲染器的多视图神经人体预测

Country Status (5)

Country Link
EP (1) EP4292059A1 (zh)
JP (1) JP2024510230A (zh)
KR (1) KR20230150867A (zh)
CN (1) CN116134491A (zh)
WO (1) WO2022208440A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116824092B (zh) * 2023-08-28 2023-12-19 深圳星坊科技有限公司 三维模型生成方法、装置、计算机设备和存储介质
CN117238420A (zh) * 2023-11-14 2023-12-15 太原理工大学 一种极薄带力学性能预测方法及装置

Also Published As

Publication number Publication date
EP4292059A1 (en) 2023-12-20
KR20230150867A (ko) 2023-10-31
JP2024510230A (ja) 2024-03-06
WO2022208440A1 (en) 2022-10-06

Similar Documents

Publication Publication Date Title
Tewari et al. Advances in neural rendering
Li et al. Monocular real-time volumetric performance capture
US9747668B2 (en) Reconstruction of articulated objects from a moving camera
CN108876814B (zh) 一种生成姿态流图像的方法
CN113822993B (zh) 一种基于3d模型匹配的数字孪生方法和***
US11961266B2 (en) Multiview neural human prediction using implicit differentiable renderer for facial expression, body pose shape and clothes performance capture
CN116134491A (zh) 用于面部表情、身体姿态形态和衣服表演捕捉的使用隐式可微分渲染器的多视图神经人体预测
US11989846B2 (en) Mixture of volumetric primitives for efficient neural rendering
CN115951784B (zh) 一种基于双神经辐射场的穿衣人体运动捕捉和生成方法
Siarohin et al. Unsupervised volumetric animation
CN112819951A (zh) 一种基于深度图修复的带遮挡三维人体重建方法
CN115222917A (zh) 三维重建模型的训练方法、装置、设备及存储介质
Zhu et al. Deep review and analysis of recent nerfs
CN117218246A (zh) 图像生成模型的训练方法、装置、电子设备及存储介质
CN117422829A (zh) 一种基于神经辐射场的人脸图像合成优化方法
JP2023079022A (ja) 情報処理装置及び情報生成方法
Hara et al. Enhancement of novel view synthesis using omnidirectional image completion
Yunus et al. Recent Trends in 3D Reconstruction of General Non‐Rigid Scenes
CN112541972A (zh) 一种视点图像处理方法及相关设备
CN115965765A (zh) 一种基于神经变形的可变形场景中人体运动捕捉方法
Li et al. Point-Based Neural Scene Rendering for Street Views
Dalal et al. Gaussian Splatting: 3D Reconstruction and Novel View Synthesis, a Review
CN116883524A (zh) 图像生成模型训练、图像生成方法、装置和计算机设备
CN115439610A (zh) 模型的训练方法、训练装置、电子设备和可读存储介质
Yao et al. Neural Radiance Field-based Visual Rendering: A Comprehensive Review

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination