CN114549722A - 3d素材的渲染方法、装置、设备及存储介质 - Google Patents
3d素材的渲染方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN114549722A CN114549722A CN202210178211.9A CN202210178211A CN114549722A CN 114549722 A CN114549722 A CN 114549722A CN 202210178211 A CN202210178211 A CN 202210178211A CN 114549722 A CN114549722 A CN 114549722A
- Authority
- CN
- China
- Prior art keywords
- rendering
- map
- information
- generator
- original
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Abstract
本公开实施例公开了一种3D素材的渲染方法、装置、设备及存储介质。获取待渲染3D素材的第一原始3D信息;根据所述第一原始3D信息生成中间渲染图;将所述中间渲染图输入设定生成对抗神经网络的生成器中,获得3D渲染图。本公开实施例提供的3D素材的渲染方法,将由第一原始3D信息生成的中间渲染图输入设定生成对抗神经网络,获得3D渲染图,不仅可以提高渲染效果的精度,又可以降低渲染的计算量,从而提高3D素材的渲染效率。
Description
技术领域
本公开实施例涉及图像渲染技术领域,尤其涉及一种3D素材的渲染方法、装置、设备及存储介质。
背景技术
传统渲染方法主要分为实时渲染和离线渲染。实时渲染一般用于游戏、视频道具等强调互动的方向,离线渲染一般用于影视、CG等需要高质量画面的领域。
实时渲染受限于性能,难以渲染复杂的模型和材质,且渲染效果精度差。相对的,离线渲染通过光线追踪的方式能够渲染出十分逼真的复杂效果,但是会消耗大量的时间。
发明内容
本公开实施例提供一种3D素材的渲染方法、装置、设备及存储介质,既可以提高渲染效果的精度,又可以降低渲染的计算量,从而提高3D素材的渲染效率。
第一方面,本公开实施例提供了一种3D素材的渲染方法,包括:
获取待渲染3D素材的第一原始3D信息;
根据所述第一原始3D信息生成中间渲染图;
将所述中间渲染图输入设定生成对抗神经网络的生成器中,获得3D渲染图。
第二方面,本公开实施例还提供了一种3D素材的渲染装置,包括:
第一原始3D信息获取信息,用于获取待渲染3D素材的第一原始3D信息;
中间渲染图生成模块,用于根据所述第一原始3D信息生成中间渲染图;
3D渲染图获取模块,用于将所述中间渲染图输入设定生成对抗神经网络的生成器中,获得3D渲染图。
第三方面,本公开实施例还提供了一种电子设备,所述电子设备包括:
一个或多个处理装置;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理装置执行,使得所述一个或多个处理装置实现如本公开实施例所述的3D素材的渲染方法。
第四方面,本公开实施例还提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理装置执行时实现如本公开实施例所述的3D素材的渲染方法。
本公开实施例公开了一种3D素材的渲染方法、装置、设备及存储介质。获取待渲染3D素材的第一原始3D信息;根据第一原始3D信息生成中间渲染图;将中间渲染图输入设定生成对抗神经网络的生成器中,获得3D渲染图。本公开实施例提供的3D素材的渲染方法,将由第一原始3D信息生成的中间渲染图输入设定生成对抗神经网络,获得最终的渲染图,不仅可以提高渲染效果的精度,又可以降低渲染的计算量,从而提高3D素材的渲染效率。
附图说明
图1是本公开实施例中的一种3D素材的渲染方法的流程图;
图2是本公开实施例中的生成器的网格结构示意图;
图3是本公开实施例中的训练设定生成对抗神经网络的示例图;
图4是本公开实施例中的一种3D素材的渲染装置的结构示意图;
图5是本公开实施例中的一种电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
图1为本公开实施例提供的一种3D素材的渲染方法的流程图,本实施例可适用于基于3D素材生成3D渲染图的情况,该方法可以由3D素材的渲染装置来执行,该装置可由硬件和/或软件组成,并一般可集成在具有3D素材的渲染功能的设备中,该设备可以是服务器、移动终端或服务器集群等电子设备。
如图1所示,该方法具体包括如下步骤:
S110,获取待渲染3D素材的第一原始3D信息。
其中,3D素材可以是待渲染的任意的3D物体素材,例如:3D电影或者3D游戏中的3D人物、3D动物及3D植物等。本实施例中,在制作3D影像时,技术人员需要构建3D物体素材模型,从而获取到待渲染3D素材的第一原始3D信息。
其中,第一原始3D信息可以包括:顶点坐标、法线信息、相机参数、表面平铺贴图和/或光照参数。
其中,顶点坐标可以是构成3D素材表面点的三维坐标。法线信息可以是各个顶点对应的法线向量。相机参数包含相机内参和相机外参,相机内参包括焦距等信息,相机外参包括相机位置信息及相机姿态信息。表面平铺贴图可以理解为UV贴图。光照参数可以是光源参数,包括:光源位置、光照强度即光照颜色等信息;或者光照参数由设定维度的向量表征。
S120,根据第一原始3D信息生成中间渲染图。
其中,中间渲染图可以理解为精度低于最终的3D渲染图的3D图,可以是光栅化的图,作用是供设定生成对抗神经网络学习以生成精度更高的3D渲染图,可以包括如下至少一种:白膜图、法线图、深度图或者粗毛发图。
具体的,根据第一原始3D信息生成中间渲染图的方式可以是:根据第一原始3D信息中的至少一项生成中间渲染图。本实施例中,中间渲染图的生成可以采用现有的开源算法实现,此处不做限定。本实施例中,根据第一原始3D信息中的至少一项生成中间渲染图,可以提高中间渲染图的生成效率。
S130,将中间渲染图输入设定生成对抗神经网络的生成器中,获得3D渲染图。
其中,设定生成对抗神经网络可以是经过风格化训练后的网络,例如:风格化可以是对泡沫的渲染、毛发的渲染、亮片的渲染、动物的渲染等。设定生成对抗神经网络为像素到像素pix2pix的生成对抗神经网络,包括生成器和判别器。
本实施例中,生成器中的网络层采用U型跳跃结构连接。示例性的,图2是本实施例中生成器的网格结构示意图,如图2所示,网络的第一层和最后一层跳跃连接,网格的第二层与倒数第二层跳跃连接,以此类推形成U型跳跃结构。采用U型跳跃结构连接可以保留必要的信息不被变更,可以提高网络识别的准确性。
本实施例中,设定对抗神经网络的训练方式为:获取待渲染3D素材样本的第二原始3D信息;基于第二原始3D信息生成中间渲染图样本和对应的渲染图样本;基于中间渲染图样本和对应的渲染图样本对生成器和判别器进行交替迭代训练。
其中,第二原始3D信息可以包括顶点坐标、法线信息、相机参数、表面平铺贴图及光照参数等。中间渲染图样本可以包括白膜图、法线图、深度图或者粗毛发图,中间渲染图样本是通过现有的渲染方式对第二原始3D信息进行粗渲染获得的。渲染图样本是根据第二原始3D信息通过现有的离线高精度渲染算法获得的。生成的渲染图样本和中间渲染图样本相匹配。
其中,生成器和判别器进行交替迭代训练可以理解为:首先训练一次判别器,在判别器训练后的基础上训练一次生成器,再在生成器训练后的基础上训练一次判别器,以此类推,直到满足训练完成条件。本实施例中,基于中间渲染图样本和对应的渲染图样本对生成器和判别器进行交替迭代训练,可以提高生成器生成渲染图的精度。
本实施例中,基于中间渲染图样本和对应的渲染图样本对生成器和判别器进行交替迭代训练的方式可以是:将中间渲染图样本输入生成器,输出生成图;将生成图和中间渲染图样本组成负样本对,将渲染图样本和中间渲染图样本组成正样本对;将正样本对输入判别器,获得第一判别结果;将负样本对输入判别器,获得第二判别结果;基于第一判别结果和第二判别结果确定第一损失函数;基于第一损失函数对生成器和判别器进行交替迭代训练。
其中,第一判别结果和第二判别结果可以是0-1之间的值,用于表征样本对之间的匹配度。对于正样本对,其真实判别结果为0,对于负样本对,其真实判别结果为1。
具体的,基于第一判别结果和第二判别结果确定第一损失函数的方式可以是:计算第一判别结果和正样本对对应的真实判别结果的第一差值,计算第二判别结果和负样本对对应的真实判别结果的第二差值,将第一差值和第二差值分别求对数后进行累加,获得第一损失函数。则第一损失函数的计算公式可以表示为:L1=∑[logD(x,y)]+∑[log(1-D(x,G(x)))],其中,x表示中间渲染图样本,y表示渲染图样本,D(x,y)表示将中间渲染图样本x和渲染图样本y输入判别器D获得的第一判别结果,G(x)表示将中间渲染图样本x输入生成器G获得的生成图,D(x,G(x))表示将中间渲染图样本x和生成图G(x)输入判别器D获得的第二判别结果。示例性的,图3是本实施例中训练设定生成对抗神经网络的示例图,如图3所示,将中间渲染图样本输入生成器G中,获得生成图,然后将生成图和中间渲染图样本配对输入判别器D中,获得第二判别结果,将中间渲染图样本和渲染图样本配对输入判别器D中,获得第一判别结果,最后基于第一判别结果和第二判别结果确定的第一损失函数生成器和判别器进行交替迭代训练。
具体的,将所有中间渲染图样本输入生成对抗网络中,获得第一损失函数,由第一损失函数反向传输以调节判别器的参数;基于调参后的判别器,将所有中间渲染图样本输入生成对抗网络中,获得更新后的第一损失函数,由更新后的第一损失函数反向传输以调节生成器的参数;再基于调参后生成器,将所有中间渲染图样本输入生成对抗网络中,获得再次更新后的第一损失函数,由再次更新后的第一损失函数反向传输以调节生成器的参数。以此交替迭代训练生成器和判别器,直到满足训练终止条件。本实施例中,基于第一损失函数对生成器和判别器进行交替迭代训练,可以提高生成器生成渲染图的精度。
可选的,在基于第一判别结果和第二判别结果获取第一损失函数之后,还包括:根据生成图和渲染图样本确定第二损失函数;对第一损失函数和第二损失函数进行线性叠加,获得目标损失函数;基于第一损失函数对生成器和判别器进行交替迭代训练,包括:基于目标损失函数对生成器和判别器进行交替迭代训练。
其中,第二损失函数可以由生成图和渲染图样本之间的差值确定,则第二损失函数的计算公式可以表示为:L2=∑||y-G(x)||1,其中,y表示渲染图样本,G(x)表示将中间渲染图样本x输入生成器G获得的生成图。目标损失函数的计算公式可以表示为:L=L1+λL2,其中,λ为权重系数。
具体的,将所有中间渲染图样本输入生成对抗网络中,获得目标损失函数,由目标损失函数反向传输以调节判别器的参数;基于调参后的判别器,将所有中间渲染图样本输入生成对抗网络中,获得更新后的目标损失函数,由更新后的目标损失函数反向传输以调节生成器的参数;再基于调参后生成器,将所有中间渲染图样本输入生成对抗网络中,获得再次更新后的目标损失函数,由再次更新后的目标损失函数反向传输以调节生成器的参数。以此交替迭代训练生成器和判别器,直到满足训练终止条件。本实施例中,基于目标损失函数对生成器和判别器进行交替迭代训练,用于约束生成图和渲染图之间的偏差,从而提高生成器的精度。
可选的,本实施例中的判别器采用分块判别器PatchGAN,PatchGAN对输入的样本对进行分块判别,输出各个分块的子判断结果,最后将各子判别结果求取平均值,获得样本对最终的判别结果。采用分块判别器,可以提高判别器的准确度。
具体的,将中间渲染图输入训练好的设定生成对抗神经网络的生成器中,就可以输出对应风格的3D渲染图。
本公开实施例的技术方案,获取待渲染3D素材的第一原始3D信息;根据第一原始3D信息生成中间渲染图;将中间渲染图输入设定生成对抗神经网络的生成器中,获得3D渲染图。本公开实施例提供的3D素材的渲染方法,将由第一原始3D信息生成的中间渲染图输入设定生成对抗神经网络,获得渲染图,不仅可以提高渲染效果的精度,又可以降低渲染的计算量,从而提高3D素材的渲染效率。
图4是本公开实施例提供的一种3D素材的渲染装置的结构示意图,如图4所示,该装置包括:
第一原始3D信息获取信息210,用于获取待渲染3D素材的第一原始3D信息;
中间渲染图生成模块220,用于根据第一原始3D信息生成中间渲染图;
3D渲染图获取模块230,用于将中间渲染图输入设定生成对抗神经网络的生成器中,获得3D渲染图。
可选的,第一原始3D信息包括:顶点坐标、法线信息、相机参数、表面平铺贴图和/或光照参数。
可选的,中间渲染图生成模块220,还用于:
根据第一原始3D信息中的至少一项生成中间渲染图;其中,中间渲染图包括如下至少一种:白膜图、法线图、深度图、粗毛发图。
可选的,设定生成对抗神经网络为像素到像素pix2pix的生成对抗神经网络,包括生成器和判别器;还包括:设定对抗神经网络训练模块,用于:
获取待渲染3D素材样本的第二原始3D信息;
基于第二原始3D信息生成中间渲染图样本和对应的渲染图样本;
基于中间渲染图样本和对应的渲染图样本对生成器和判别器进行交替迭代训练。
设定对抗神经网络训练模块,还用于:
将中间渲染图样本输入生成器,输出生成图;
将生成图和中间渲染图样本组成负样本对,将渲染图样本和中间渲染图样本组成正样本对;
将正样本对输入判别器,获得第一判别结果;将负样本对输入判别器,获得第二判别结果;
基于第一判别结果和第二判别结果确定第一损失函数;
基于第一损失函数对生成器和判别器进行交替迭代训练。
设定对抗神经网络训练模块,用于:
根据生成图和渲染图样本确定第二损失函数;
对第一损失函数和第二损失函数进行线性叠加,获得目标损失函数;
基于第一损失函数对生成器和判别器进行交替迭代训练,包括:
基于目标损失函数对生成器和判别器进行交替迭代训练。
可选的,生成器中的网络层采用U型跳跃结构连接;判别器采用分块判别器PatchGAN。
上述装置可执行本公开前述所有实施例所提供的方法,具备执行上述方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本公开前述所有实施例所提供的方法。
下面参考图5,其示出了适于用来实现本公开实施例的电子设备300的结构示意图。本公开实施例中的电子设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端,或者各种形式的服务器,如独立服务器或者服务器集群。图5示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图5所示,电子设备300可以包括处理装置(例如中央处理器、图形处理器等)301,其可以根据存储在只读存储装置(ROM)302中的程序或者从存储装置305加载到随机访问存储装置(RAM)303中的程序而执行各种适当的动作和处理。在RAM 303中,还存储有电子设备300操作所需的各种程序和数据。处理装置301、ROM 302以及RAM 303通过总线304彼此相连。输入/输出(I/O)接口305也连接至总线304。
通常,以下装置可以连接至I/O接口305:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置306;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置307;包括例如磁带、硬盘等的存储装置308;以及通信装置309。通信装置309可以允许电子设备300与其他设备进行无线或有线通信以交换数据。虽然图5示出了具有各种装置的电子设备300,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行词语的推荐方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置309从网络上被下载和安装,或者从存储装置305被安装,或者从ROM 302被安装。在该计算机程序被处理装置301执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取待渲染3D素材的第一原始3D信息;根据所述第一原始3D信息生成中间渲染图;将所述中间渲染图输入设定生成对抗神经网络的生成器中,获得3D渲染图。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上***(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开实施例的一个或多个实施例,本公开实施例公开了一种3D素材的渲染方法,包括:
获取待渲染3D素材的第一原始3D信息;
根据所述第一原始3D信息生成中间渲染图;
将所述中间渲染图输入设定生成对抗神经网络的生成器中,获得3D渲染图。
进一步地,所述第一原始3D信息包括:顶点坐标、法线信息、相机参数、表面平铺贴图和/或光照参数。
进一步地,根据所述第一原始3D信息生成中间渲染图,包括:
根据所述第一原始3D信息中的至少一项生成中间渲染图;其中,所述中间渲染图包括如下至少一种:白膜图、法线图、深度图、粗毛发图。
进一步地,所述设定生成对抗神经网络为像素到像素pix2pix的生成对抗神经网络,包括生成器和判别器;所述设定对抗神经网络的训练方式为:
获取待渲染3D素材样本的第二原始3D信息;
基于所述第二原始3D信息生成中间渲染图样本和对应的渲染图样本;
基于所述中间渲染图样本和对应的渲染图样本对所述生成器和所述判别器进行交替迭代训练。
进一步地,基于所述中间渲染图样本和对应的渲染图样本对所述生成器和所述判别器进行交替迭代训练,包括:
将所述中间渲染图样本输入所述生成器,输出生成图;
将所述生成图和所述中间渲染图样本组成负样本对,将所述渲染图样本和所述中间渲染图样本组成正样本对;
将所述正样本对输入所述判别器,获得第一判别结果;将所述负样本对输入所述判别器,获得第二判别结果;
基于所述第一判别结果和所述第二判别结果确定第一损失函数;
基于所述第一损失函数对所述生成器和所述判别器进行交替迭代训练。
进一步地,在基于所述第一判别结果和所述第二判别结果获取第一损失函数之后,还包括:
根据所述生成图和所述渲染图样本确定第二损失函数;
对所述第一损失函数和所述第二损失函数进行线性叠加,获得目标损失函数;
基于所述第一损失函数对所述生成器和所述判别器进行交替迭代训练,包括:
基于所述目标损失函数对所述生成器和所述判别器进行交替迭代训练。
进一步地,所述生成器中的网络层采用U型跳跃结构连接;所述判别器采用分块判别器PatchGAN。
注意,上述仅为本公开的较佳实施例及所运用技术原理。本领域技术人员会理解,本公开不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本公开的保护范围。因此,虽然通过以上实施例对本公开进行了较为详细的说明,但是本公开不仅仅限于以上实施例,在不脱离本公开构思的情况下,还可以包括更多其他等效实施例,而本公开的范围由所附的权利要求范围决定。
Claims (10)
1.一种3D素材的渲染方法,其特征在于,包括:
获取待渲染3D素材的第一原始3D信息;
根据所述第一原始3D信息生成中间渲染图;
将所述中间渲染图输入设定生成对抗神经网络的生成器中,获得3D渲染图。
2.根据权利要求1所述的方法,其特征在于,所述第一原始3D信息包括:顶点坐标、法线信息、相机参数、表面平铺贴图和/或光照参数。
3.根据权利要求2所述的方法,其特征在于,根据所述第一原始3D信息生成中间渲染图,包括:
根据所述第一原始3D信息中的至少一项生成中间渲染图;其中,所述中间渲染图包括如下至少一种:白膜图、法线图、深度图、粗毛发图。
4.根据权利要求1所述的方法,其特征在于,所述设定生成对抗神经网络为像素到像素pix2pix的生成对抗神经网络,包括生成器和判别器;所述设定对抗神经网络的训练方式为:
获取待渲染3D素材样本的第二原始3D信息;
基于所述第二原始3D信息生成中间渲染图样本和对应的渲染图样本;
基于所述中间渲染图样本和对应的渲染图样本对所述生成器和所述判别器进行交替迭代训练。
5.根据权利要求4所述的方法,其特征在于,基于所述中间渲染图样本和对应的渲染图样本对所述生成器和所述判别器进行交替迭代训练,包括:
将所述中间渲染图样本输入所述生成器,输出生成图;
将所述生成图和所述中间渲染图样本组成负样本对,将所述渲染图样本和所述中间渲染图样本组成正样本对;
将所述正样本对输入所述判别器,获得第一判别结果;将所述负样本对输入所述判别器,获得第二判别结果;
基于所述第一判别结果和所述第二判别结果确定第一损失函数;
基于所述第一损失函数对所述生成器和所述判别器进行交替迭代训练。
6.根据权利要求5所述的方法,其特征在于,在基于所述第一判别结果和所述第二判别结果获取第一损失函数之后,还包括:
根据所述生成图和所述渲染图样本确定第二损失函数;
对所述第一损失函数和所述第二损失函数进行线性叠加,获得目标损失函数;
基于所述第一损失函数对所述生成器和所述判别器进行交替迭代训练,包括:
基于所述目标损失函数对所述生成器和所述判别器进行交替迭代训练。
7.根据权利要求4所述的方法,其特征在于,所述生成器中的网络层采用U型跳跃结构连接;所述判别器采用分块判别器PatchGAN。
8.一种3D素材的渲染装置,其特征在于,包括:
第一原始3D信息获取信息,用于获取待渲染3D素材的第一原始3D信息;
中间渲染图生成模块,用于根据所述第一原始3D信息生成中间渲染图;
3D渲染图获取模块,用于将所述中间渲染图输入设定生成对抗神经网络的生成器中,获得3D渲染图。
9.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理装置;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理装置执行,使得所述一个或多个处理装置实现如权利要求1-7中任一所述的3D素材的渲染方法。
10.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理装置执行时实现如权利要求1-7中任一所述的3D素材的渲染方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210178211.9A CN114549722A (zh) | 2022-02-25 | 2022-02-25 | 3d素材的渲染方法、装置、设备及存储介质 |
PCT/CN2023/077297 WO2023160513A1 (zh) | 2022-02-25 | 2023-02-21 | 3d素材的渲染方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210178211.9A CN114549722A (zh) | 2022-02-25 | 2022-02-25 | 3d素材的渲染方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114549722A true CN114549722A (zh) | 2022-05-27 |
Family
ID=81680078
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210178211.9A Pending CN114549722A (zh) | 2022-02-25 | 2022-02-25 | 3d素材的渲染方法、装置、设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114549722A (zh) |
WO (1) | WO2023160513A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116206046A (zh) * | 2022-12-13 | 2023-06-02 | 北京百度网讯科技有限公司 | 渲染处理方法、装置、电子设备及存储介质 |
WO2023160513A1 (zh) * | 2022-02-25 | 2023-08-31 | 北京字跳网络技术有限公司 | 3d素材的渲染方法、装置、设备及存储介质 |
CN116991298A (zh) * | 2023-09-27 | 2023-11-03 | 子亥科技(成都)有限公司 | 一种基于对抗神经网络的虚拟镜头控制方法 |
WO2024088100A1 (zh) * | 2022-10-25 | 2024-05-02 | 北京字跳网络技术有限公司 | 特效处理方法、装置、电子设备和存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117392301B (zh) * | 2023-11-24 | 2024-03-01 | 淘宝(中国)软件有限公司 | 图形渲染方法、***、装置、电子设备及计算机存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102559202B1 (ko) * | 2018-03-27 | 2023-07-25 | 삼성전자주식회사 | 3d 렌더링 방법 및 장치 |
KR20210030147A (ko) * | 2019-09-09 | 2021-03-17 | 삼성전자주식회사 | 3d 렌더링 방법 및 장치 |
CN114049420B (zh) * | 2021-10-29 | 2022-10-21 | 马上消费金融股份有限公司 | 一种模型训练方法、图像渲染方法、装置和电子设备 |
CN114549722A (zh) * | 2022-02-25 | 2022-05-27 | 北京字跳网络技术有限公司 | 3d素材的渲染方法、装置、设备及存储介质 |
-
2022
- 2022-02-25 CN CN202210178211.9A patent/CN114549722A/zh active Pending
-
2023
- 2023-02-21 WO PCT/CN2023/077297 patent/WO2023160513A1/zh unknown
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023160513A1 (zh) * | 2022-02-25 | 2023-08-31 | 北京字跳网络技术有限公司 | 3d素材的渲染方法、装置、设备及存储介质 |
WO2024088100A1 (zh) * | 2022-10-25 | 2024-05-02 | 北京字跳网络技术有限公司 | 特效处理方法、装置、电子设备和存储介质 |
CN116206046A (zh) * | 2022-12-13 | 2023-06-02 | 北京百度网讯科技有限公司 | 渲染处理方法、装置、电子设备及存储介质 |
CN116206046B (zh) * | 2022-12-13 | 2024-01-23 | 北京百度网讯科技有限公司 | 渲染处理方法、装置、电子设备及存储介质 |
CN116991298A (zh) * | 2023-09-27 | 2023-11-03 | 子亥科技(成都)有限公司 | 一种基于对抗神经网络的虚拟镜头控制方法 |
CN116991298B (zh) * | 2023-09-27 | 2023-11-28 | 子亥科技(成都)有限公司 | 一种基于对抗神经网络的虚拟镜头控制方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2023160513A1 (zh) | 2023-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114549722A (zh) | 3d素材的渲染方法、装置、设备及存储介质 | |
CN109754464B (zh) | 用于生成信息的方法和装置 | |
CN114004905B (zh) | 人物风格形象图的生成方法、装置、设备及存储介质 | |
CN113327318B (zh) | 图像显示方法、装置、电子设备和计算机可读介质 | |
CN114782613A (zh) | 图像渲染方法、装置、设备及存储介质 | |
CN114842120A (zh) | 一种图像渲染处理方法、装置、设备及介质 | |
CN110717467A (zh) | 头部姿势的估计方法、装置、设备及存储介质 | |
CN113850890A (zh) | 动物形象的生成方法、装置、设备及存储介质 | |
CN112714263A (zh) | 视频生成方法、装置、设备及存储介质 | |
CN116309137A (zh) | 一种多视点图像去模糊方法、装置、***和电子介质 | |
CN115049730B (zh) | 零件装配方法、装置、电子设备及存储介质 | |
CN115880526A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN116596748A (zh) | 图像风格化处理方法、装置、设备、存储介质和程序产品 | |
CN110619602A (zh) | 一种图像生成方法、装置、电子设备及存储介质 | |
CN111784726A (zh) | 人像抠图方法和装置 | |
CN114419298A (zh) | 虚拟物体的生成方法、装置、设备及存储介质 | |
CN115358959A (zh) | 特效图的生成方法、装置、设备及存储介质 | |
CN115035223A (zh) | 一种图像处理方法、装置、设备及介质 | |
CN112070888B (zh) | 图像生成方法、装置、设备和计算机可读介质 | |
CN116527993A (zh) | 视频的处理方法、装置、电子设备、存储介质和程序产品 | |
CN114422698A (zh) | 视频生成方法、装置、设备及存储介质 | |
CN111311712B (zh) | 视频帧处理方法和装置 | |
CN112241999A (zh) | 图像生成方法、装置、设备和计算机可读介质 | |
CN110599437A (zh) | 用于处理视频的方法和装置 | |
CN111489428B (zh) | 图像生成方法、装置、电子设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |