WO2022222011A1 - 一种可驱动的隐式三维人体表示方法 - Google Patents

一种可驱动的隐式三维人体表示方法 Download PDF

Info

Publication number
WO2022222011A1
WO2022222011A1 PCT/CN2021/088226 CN2021088226W WO2022222011A1 WO 2022222011 A1 WO2022222011 A1 WO 2022222011A1 CN 2021088226 W CN2021088226 W CN 2021088226W WO 2022222011 A1 WO2022222011 A1 WO 2022222011A1
Authority
WO
WIPO (PCT)
Prior art keywords
dimensional
coordinate system
human body
neural network
drivable
Prior art date
Application number
PCT/CN2021/088226
Other languages
English (en)
French (fr)
Inventor
周晓巍
鲍虎军
彭思达
董峻廷
Original Assignee
浙江大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 浙江大学 filed Critical 浙江大学
Priority to PCT/CN2021/088226 priority Critical patent/WO2022222011A1/zh
Publication of WO2022222011A1 publication Critical patent/WO2022222011A1/zh
Priority to US18/488,962 priority patent/US20240046570A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Definitions

  • rendering the neural network implicit function into a two-dimensional picture through a differentiable volume renderer includes: sampling a group of three-dimensional points along the light projected by the camera to the pixels, and transforming the three-dimensional points back to standard coordinates through a linear hybrid skinning algorithm.
  • the system uses the neural network implicit function to calculate the voxel density and color of the three-dimensional point, and accumulates the volume density and color on the light to obtain the pixel color.
  • the present invention proposes a drivable implicit three-dimensional human body representation method. As shown in FIG. 1 , the present invention optimizes and reconstructs a drivable implicit function from an input multi-view video. The reconstructed implicit function can be used for 3D model generation and view synthesis of the human body.
  • the specific process is as follows:

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

一种可驱动的隐式三维人体表示方法,通过从输入的多视角视频中优化可驱动模型的三维表示进行动态重建。该方法包括:构造用于表示动态人体的隐函数;提出用神经网络表示的神经蒙皮混合权重场,实现了在从视频中学习得到可驱动隐函数,从视频中优化得到可驱动三维模型的方法;在每一视频帧学习一个神经蒙皮混合权重场,将每一视频帧的三维点变换回标准坐标系,以此整合了视频的时序信息,增加了对目标的观测,用于优化标准坐标系下的三维模型;同时在标准坐标系下学习一个神经蒙皮混合权重场,使得三维模型可被驱动生成新姿势下的三维模型。

Description

一种可驱动的隐式三维人体表示方法 技术领域
本发明属于三维重建领域,尤其涉及到一种可驱动的隐式三维人体表示方法。
背景技术
本发明提出一个可驱动隐函数来表示动态人体,可以从多视角视频中重建可驱动三维模型,用于三维模型的生成和自由视角合成。在相关技术中,传统方法重建可驱动三维模型往往需要很高的成本和大量的时间。这些方法需要复杂硬件设备进行模型重建,后期需要设计师给三维模型绑定骨架进行操控并且设计蒙皮混合权重,需要大量的时间。近期一些工作将动态人体表示为基于神经网络的隐函数。但这些方法很难只从视频中优化得到最优的隐函数,需要额外的约束条件。而且这些方法无法得到可驱动的三维模型。本发明致力于提出新的动态人体表示方法,使得从视频中学习隐函数表示可解,并且可以输出可驱动三维模型。
发明内容
本发明目的在于针对现有技术的不足,提出了一种可驱动的隐式三维人体表示方法,基于可驱动隐函数来表示人体几何和外观,并通过可微分渲染重建这一动态人体表示。
本发明的目的是通过以下技术方案来实现的:一种可驱动的隐式三维人体表示方法,所述方法包括:
(1)在标准坐标系构造一个神经网络隐函数来表示人体几何和外观,在每一个视频帧坐标系用神经网络隐函数生成任意三维点的蒙皮混合权重,构造神经蒙皮混合权重场,将视频帧的三维点变换回标准坐标系,用于表示动态人体。
(2)在标准坐标系下学习神经蒙皮混合权重场,优化神经网络隐函数,使得标准坐标系下的神经网络隐函数可被驱动生成新状态下的三维人体;具体学习过程如下:
(2.1)基于可微分体积渲染器,将神经网络隐函数渲染为二维图像。通过最小化渲染后的二维图像和多视角视频中对应图像之间的误差,优化神经网络隐函数表示。
(2.2)最小化标准坐标系和视频帧坐标系对应三维点的蒙皮混合权重的差别,优化蒙皮混合权重的神经网络隐函数表示。
(3)基于步骤(2)优化后的神经网络隐函数,进行人体的三维模型生成和视角合成。
进一步地,将构造的神经蒙皮混合权重场与一组人体的三维关键点相结合,通过线性混合蒙皮算法将视频帧坐标系下的三维点变换回标准坐标系。
进一步地,在标准坐标系下学习完成神经蒙皮混合权重场之后,在给定一组新的人体的 三维关键点时,标准坐标系的神经蒙皮混合权重场可以和关键点相结合,通过线性混合蒙皮算法变换标准坐标系的三维点,从而生成新状态下的三维人体。
进一步地,所述通过可微分体积渲染器将神经网络隐函数渲染为二维图片,包括:沿相机投射至像素的光线采样一组三维点,将三维点通过线性混合蒙皮算法变换回标准坐标系,使用神经网络隐函数计算三维点的体素密度和颜色,累积光线上的体积密度和颜色得到像素颜色。
进一步地,采样标准坐标系和视频帧坐标系的对应的三维点,计算相应的蒙皮混合权重,最小化两个三维点的蒙皮混合权重的差别,从而优化蒙皮混合权重的神经网络隐函数。
进一步地,所述三维模型生成使用Marching cubes算法从优化后的神经网络隐函数中提取三维网格模型,并根据线性混合蒙皮算法驱动三维网格模型。
进一步地,所述视角合成使用可微分体积渲染器得到二维图像实现。
本发明的有益效果:本发明提出用神经网络表示的神经蒙皮混合权重场,实现了在从视频中学习得到可驱动隐函数,是第一个从视频中优化得到可驱动三维模型的方法。本发明在每一视频帧学习一个神经蒙皮混合权重场,将每一视频帧的三维点变换回标准坐标系,以此整合了视频的时序信息,增加了对目标的观测,用于优化标准坐标系下的三维模型。本发明同时在标准坐标系下学习一个神经蒙皮混合权重场,使得三维模型可被驱动生成新姿势下的三维模型。本发明可以从多视角视频中得到高质量的三维重建和视角合成效果。
附图说明
图1是本发明的一种输入和输出示意图。
图2是本发明基于可驱动隐函数生成不同视频帧的连续体素密度和颜色示意图。
具体实施方式
以下结合附图对本发明的技术细节和原理作进一步的描述:
本发明提出一种可驱动的隐式三维人体表示方法,如图1所示,本发明从一段输入的多视角视频中优化重建一个可驱动隐函数。重建后的隐函数可以用于人体的三维模型生成和视角合成。具体过程如下:
(1)在标准坐标系构造一个神经网络隐函数来表示人体几何和外观,在每一个视频帧坐标系用神经网络隐函数生成任意三维点的蒙皮混合权重,构造神经蒙皮混合权重场,将构造的神经蒙皮混合权重场与一组人体的三维关键点相结合,通过线性混合蒙皮算法将视频帧坐标系下的三维点变换回标准坐标系,用于表示动态人体。
(2)在标准坐标系下学习神经蒙皮混合权重场,优化神经网络隐函数,使得标准坐标系下的神经网络隐函数可被驱动生成新状态下的三维人体,具体为:在给定一组新的人体的三 维关键点时,标准坐标系的神经蒙皮混合权重场可以和关键点相结合,通过线性混合蒙皮算法变换标准坐标系的三维点,从而生成新状态下的三维人体。
具体学习过程如下:
(2.1)基于可微分体积渲染器,将神经网络隐函数渲染为二维图像。包括:沿相机投射至像素的光线采样一组三维点,将三维点通过线性混合蒙皮算法变换回标准坐标系,使用神经网络隐函数计算三维点的体素密度和颜色,累积光线上的体积密度和颜色得到像素颜色。
通过最小化渲染后的二维图像和多视角视频中对应图像之间的误差,优化神经网络隐函数表示。
(2.2)采样标准坐标系和视频帧坐标系的对应的三维点,计算相应的蒙皮混合权重,最小化两个三维点的蒙皮混合权重的差别,从而优化蒙皮混合权重的神经网络隐函数。
(3)基于步骤(2)优化后的神经网络隐函数,进行人体的三维模型生成和视角合成。具体为,三维模型生成使用Marching cubes算法从优化后的神经网络隐函数中提取三维网格模型,并根据线性混合蒙皮算法驱动三维网格模型。视角合成使用可微分体积渲染器得到二维图像实现。
如图2所示,本发明提出的可驱动的隐式三维人体表示方法中,构造用于表示动态人体的可驱动隐函数具体步骤为:
1.本发明基于标准坐标系下的模型和视频帧坐标系的蒙皮混合权重场来表示动态人体。标准坐标系中的模型具体使用连续的体素密度和颜色来表示,其中体素密度场和颜色场由多层感知机网络实现。对于多视角视频中的特定帧i,视频帧坐标系到标准坐标系的变形场为T i,具体构造方式在下文介绍。本发明将视频帧坐标系下空间三维点x的体素密度预测表示为如下函数:
σ i(x),z i(x)=F σx(T i(x)))
其中F σ是带有4层全连接的多层感知机网络,γ x是作用于三维点x位置编码函数,σ i(x)和z i(x)分别为特定帧i的三维点x的体素密度和形状特征。
关于颜色函数,本发明将形状特征z i(x)和视角方向d作为函数的输入。此外,本发明为每一帧定义了一个全局隐变量l i作为输入,用于编码该帧人体外观的状态。颜色函数定义如下:
c i(x)=F c(z i(x),γ d(d),l i)
其中F c是带有2层全连接层的多层感知机网络,γ d是作用于视角方向d的位置编码函数,c i(x)为特定帧i的三维点x的颜色。
如图2所示,本发明提出的动态隐变量中,构造变形场的具体步骤为:
1.人体由人体骨架驱动运动,有K个身体部位,可以生成k个变换矩阵。在线性混合蒙皮算法中,标准坐标系下的三维点v可以由下面的公式变换为某一视频帧的坐标系的三维点v′:
Figure PCTCN2021088226-appb-000001
其中w(v) k是第k个身体部位的蒙皮混合权重,G k是第k个身体部位的变换矩阵。类似的,如果对于某一视频帧的坐标系下的三维点x,如果本发明知道该三维点对应的蒙皮混合权重,本发明可以用下面的公式变换为标准坐标系下的三维点x′:
Figure PCTCN2021088226-appb-000002
其中w o(x) k是定义在视频帧坐标系下的蒙皮混合权重,G k是第k个身体部位的变换矩阵。
2.本发明用神经网络生成视频帧坐标系下任意三维点的蒙皮混合权重。一种直接的方式是使用全连接网络将任意三维点映射为蒙皮混合权重。另一种方式是首先根据统计驱动模型计算每个三维点的初始蒙皮混合权重,然后用全连接网络生成一个残差权重,两者得到最终的蒙皮混合权重。这种方式生成的蒙皮混合权重定义为:
w i(x)=norm(F Δw(x,ψ i)+w s(x,S i))
其中S i是统计驱动模型,w s是基于统计驱动模型S i计算的初始蒙皮混合权重,F Δw(x,ψ i)是计算残差权重的全连接网络,ψ i是图2所示中的权重隐变量,norm是归一化函数。一个实现例子是可以根据SMPL模型生成任意三维点的初始蒙皮混合权重w s
3.本发明在标准坐标系下也生成了一个蒙皮混合权重场w can。对于任意三维点,初始蒙皮混合权重基于标准状态下的统计驱动模型计算得到。本发明同时定义了标准坐标系下的权重隐变量ψ can,作为计算残差权重的全连接网络F Δw(x,ψ i)的输入。
本发明提出的可驱动的隐式三维人体表示方法中,通过可微分渲染优化可驱动的神经网络隐函数表示。具体的步骤为:
1.可微分体积渲染:给定一个视角,采用可微分体积渲染器将神经网络隐函数表示转换为二维RGB图像。对于图像的每一个像素,可微分体积渲染器通过积分方程累积相机射线上的体积密度和颜色,得到像素颜色。实际实现中,本发明使用数值积分进行近似。本发明首先使用相机参数计算对应的相机射线r,然后在最近点和最远点之间采样N k个三维点
Figure PCTCN2021088226-appb-000003
这里的最近点和最远点可以根据SMPL模型计算。然后,本发明在每个三维点使用神经网络隐函数计算三维点的体素密度和颜色。对于多视角视频中的特定帧i,像素的渲染颜色
Figure PCTCN2021088226-appb-000004
定义为:
Figure PCTCN2021088226-appb-000005
Figure PCTCN2021088226-appb-000006
其中δ k=||x k+1-x k|| 2是相邻采样点的距离,σ i(x k)和c i(x k)是特定帧i的三维点x k的颜色,N k是相机射线r上采样的三维点的数量。采用可微分体积渲染,本发明通过最小化各帧渲染图像和多视角视频中对应帧和对应视角图像之间的误差来优化基于结构化的隐变量的神经网络隐函数表示。
2.优化基于可驱动的神经网络隐函数表示,具体为:对于输入的多视角视频,所有相机预先标定,已知相机参数。对于每张图片,本发明使用分割方法分割前景人,将背景像素值设为0。本发明联合优化参数F σ,F c,F Δw,{l i},{ψ i},来最小化如下目标函数:
Figure PCTCN2021088226-appb-000007
其中
Figure PCTCN2021088226-appb-000008
是穿过图片像素的相机射线的集合,C i(r)是真实像素值。
此外,为了学习标准坐标系下的蒙皮混合权重场w can,本发明引入了蒙皮混合权重场的一致性损失函数,即标准坐标系和视频帧坐标系中的对应点,应该具有相同的蒙皮混合权重。对于第i帧坐标系中的三维点x,可以使用上述公式映射到标准坐标系中的点T i(x),则一致性损失函数如下:
Figure PCTCN2021088226-appb-000009
其中X i是第i帧坐标系下载三维人体边界框内采样的三维点集合。另外,L rgb和L nsf的系数都设为1。
本发明提出的动态三维重建和视角合成,具体步骤为:
1.视角合成:为了根据给定关键点生成不同的人体并合成图片,本发明在根据输入的关键点构造了一个变形场,将该关键点下的三维点变换到标准坐标系下。给定人体新的一组关键点,本发明首先更新统计驱动模型得到S new,并相应计算每个三维点的初始蒙皮混合权重w s。然后根据下面的公式计算最终的蒙皮混合权重:
w new(x,ψ new)=norm(F Δw(x,ψ new)+w s(x,S new))
其中ψ new是新状态下的权重隐变量。ψ new的参数根据下面的公式进行优化:
Figure PCTCN2021088226-appb-000010
其中T new是新状态下的坐标系到标准坐标系的变形场,x new是在人体三维框中采样的一组三维点。需要注意,w can的参数在训练中是固定住的。
2.三维模型生成:基于优化后的神经网络隐函数,本发明首先需要将连续空间离散为均匀的体素。本发明首先确定人体的空间范围,将空间划分为一组大小为5mm×5mm×5mm的体素。本发明通过为每个体素计算体素密度,最后用Marching cubes算法提取人体网格模型。然后在每个人体网格节点上计算蒙皮混合权重。最后,给定关键点,本发明驱动网格节点,得到新的三维模型。
上述实施例用来解释说明本发明,而不是对本发明进行限制,在本发明的精神和权利要求的保护范围内,对本发明作出的任何修改和改变,都落入本发明的保护范围。

Claims (7)

  1. 一种可驱动的隐式三维人体表示方法,其特征在于,所述方法包括:
    (1)在标准坐标系构造一个神经网络隐函数来表示人体几何和外观,在每一个视频帧坐标系用神经网络隐函数生成任意三维点的蒙皮混合权重,构造神经蒙皮混合权重场,将视频帧的三维点变换回标准坐标系,用于表示动态人体。
    (2)在标准坐标系下学习神经蒙皮混合权重场,优化神经网络隐函数,使得标准坐标系下的神经网络隐函数可被驱动生成新状态下的三维人体;具体学习过程如下:
    (2.1)基于可微分体积渲染器,将神经网络隐函数渲染为二维图像。通过最小化渲染后的二维图像和多视角视频中对应图像之间的误差,优化神经网络隐函数表示。
    (2.2)最小化标准坐标系和视频帧坐标系对应三维点的蒙皮混合权重的差别,优化蒙皮混合权重的神经网络隐函数表示。
    (3)基于步骤(2)优化后的神经网络隐函数,进行人体的三维模型生成和视角合成。
  2. 根据权利要求1所述的一种可驱动的隐式三维人体表示方法,其特征在于,步骤(1)中,将构造的神经蒙皮混合权重场与一组人体的三维关键点相结合,通过线性混合蒙皮算法将视频帧坐标系下的三维点变换回标准坐标系。
  3. 根据权利要求1所述的一种可驱动的隐式三维人体表示方法,其特征在于,步骤(2)中,在标准坐标系下学习完成神经蒙皮混合权重场之后,在给定一组新的人体的三维关键点时,标准坐标系的神经蒙皮混合权重场可以和关键点相结合,通过线性混合蒙皮算法变换标准坐标系的三维点,从而生成新状态下的三维人体。
  4. 根据权利要求1所述的一种可驱动的隐式三维人体表示方法,其特征在于,步骤(2.1)中,所述通过可微分体积渲染器将神经网络隐函数渲染为二维图片,包括:沿相机投射至像素的光线采样一组三维点,将三维点通过线性混合蒙皮算法变换回标准坐标系,使用神经网络隐函数计算三维点的体素密度和颜色,累积光线上的体积密度和颜色得到像素颜色。
  5. 根据权利要求1所述的一种可驱动的隐式三维人体表示方法,其特征在于,步骤(2.2)中,采样标准坐标系和视频帧坐标系的对应的三维点,计算相应的蒙皮混合权重,最小化两个三维点的蒙皮混合权重的差别,从而优化蒙皮混合权重的神经网络隐函数。
  6. 根据权利要求1所述的一种可驱动的隐式三维人体表示方法,其特征在于,步骤(3)中,所述三维模型生成使用Marching cubes算法从优化后的神经网络隐函数中提取三维网格模型,并根据线性混合蒙皮算法驱动三维网格模型。
  7. 根据权利要求1所述的一种可驱动的隐式三维人体表示方法,其特征在于,步骤(3) 中,所述视角合成使用可微分体积渲染器得到二维图像实现。
PCT/CN2021/088226 2021-04-19 2021-04-19 一种可驱动的隐式三维人体表示方法 WO2022222011A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/CN2021/088226 WO2022222011A1 (zh) 2021-04-19 2021-04-19 一种可驱动的隐式三维人体表示方法
US18/488,962 US20240046570A1 (en) 2021-04-19 2023-10-17 Drivable implicit three-dimensional human body representation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2021/088226 WO2022222011A1 (zh) 2021-04-19 2021-04-19 一种可驱动的隐式三维人体表示方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/488,962 Continuation US20240046570A1 (en) 2021-04-19 2023-10-17 Drivable implicit three-dimensional human body representation method

Publications (1)

Publication Number Publication Date
WO2022222011A1 true WO2022222011A1 (zh) 2022-10-27

Family

ID=83723670

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2021/088226 WO2022222011A1 (zh) 2021-04-19 2021-04-19 一种可驱动的隐式三维人体表示方法

Country Status (2)

Country Link
US (1) US20240046570A1 (zh)
WO (1) WO2022222011A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115953513A (zh) * 2022-12-30 2023-04-11 北京元起点信息科技有限公司 一种可驱动三维人头模型重建方法、装置、设备及介质
CN116612244A (zh) * 2023-07-21 2023-08-18 之江实验室 一种图像生成方法、装置、存储介质及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107945269A (zh) * 2017-12-26 2018-04-20 清华大学 基于多视点视频的复杂动态人体对象三维重建方法及***
US20180315230A1 (en) * 2015-06-24 2018-11-01 Max-Planck-Gesellschaft Zur Förderung Dur Wissenschaften E.V. Skinned multi-person linear model
CN111476883A (zh) * 2020-03-30 2020-07-31 清华大学 多视角无标记动物的三维姿态轨迹重建方法及装置
CN112465955A (zh) * 2020-12-10 2021-03-09 浙江大学 一种动态人体三维重建和视角合成方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180315230A1 (en) * 2015-06-24 2018-11-01 Max-Planck-Gesellschaft Zur Förderung Dur Wissenschaften E.V. Skinned multi-person linear model
CN107945269A (zh) * 2017-12-26 2018-04-20 清华大学 基于多视点视频的复杂动态人体对象三维重建方法及***
CN111476883A (zh) * 2020-03-30 2020-07-31 清华大学 多视角无标记动物的三维姿态轨迹重建方法及装置
CN112465955A (zh) * 2020-12-10 2021-03-09 浙江大学 一种动态人体三维重建和视角合成方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115953513A (zh) * 2022-12-30 2023-04-11 北京元起点信息科技有限公司 一种可驱动三维人头模型重建方法、装置、设备及介质
CN115953513B (zh) * 2022-12-30 2023-11-07 北京元起点信息科技有限公司 一种可驱动三维人头模型重建方法、装置、设备及介质
CN116612244A (zh) * 2023-07-21 2023-08-18 之江实验室 一种图像生成方法、装置、存储介质及电子设备
CN116612244B (zh) * 2023-07-21 2023-09-29 之江实验室 一种图像生成方法、装置、存储介质及电子设备

Also Published As

Publication number Publication date
US20240046570A1 (en) 2024-02-08

Similar Documents

Publication Publication Date Title
CN113112592B (zh) 一种可驱动的隐式三维人体表示方法
CN111739078B (zh) 一种基于上下文注意力机制的单目无监督深度估计方法
CN112465955B (zh) 一种动态人体三维重建和视角合成方法
US20240046570A1 (en) Drivable implicit three-dimensional human body representation method
CN112613609A (zh) 基于联合位姿优化的神经辐射场增强方法
CN115409937A (zh) 基于集成神经辐射场的人脸视频表情迁移模型构建方法及表情迁移方法和***
CN112614070B (zh) 一种基于DefogNet的单幅图像去雾方法
CN116664782B (zh) 一种基于融合体素的神经辐射场三维重建方法
CN117496072B (zh) 一种三维数字人生成和交互方法及***
CN116977536A (zh) 一种基于混合神经辐射场的无边界场景新视角合成方法
CN112819951A (zh) 一种基于深度图修复的带遮挡三维人体重建方法
CN117413300A (zh) 用于训练量化神经辐射场的方法和***
CN116681838A (zh) 基于姿态优化的单目视频动态人体三维重建方法
CN114782596A (zh) 语音驱动的人脸动画生成方法、装置、设备及存储介质
CN115565039A (zh) 基于自注意力机制的单目输入动态场景新视图合成方法
CN117274501A (zh) 一种可驱动数字人建模方法、装置、设备及介质
CN117173315A (zh) 基于神经辐射场的无界场景实时渲染方法、***及设备
CN115937374B (zh) 一种数字人体建模方法、装置、设备及介质
CN117237501A (zh) 一种隐式的风格化新视角合成方法
CN116310228A (zh) 一种针对遥感场景的表面重建与新视图合成方法
CN115761801A (zh) 一种基于视频时序信息的三维人体姿态迁移方法
CN115482368A (zh) 一种利用语义图进行三维场景编辑的方法
CN114881858A (zh) 基于多注意力机制融合的轻量级双目图像超分辨率方法
CN111932670A (zh) 基于单个rgbd相机的三维人体自画像重建方法及***
CN116824086B (zh) 一种三维运动目标重建方法及***

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21937262

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21937262

Country of ref document: EP

Kind code of ref document: A1