CN114549726A - 基于深度学习的高质量材质贴图获取方法 - Google Patents

基于深度学习的高质量材质贴图获取方法 Download PDF

Info

Publication number
CN114549726A
CN114549726A CN202210060499.XA CN202210060499A CN114549726A CN 114549726 A CN114549726 A CN 114549726A CN 202210060499 A CN202210060499 A CN 202210060499A CN 114549726 A CN114549726 A CN 114549726A
Authority
CN
China
Prior art keywords
network model
network
obtaining
map
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210060499.XA
Other languages
English (en)
Inventor
林子森
冼楚华
黎嘉欣
吴昊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Shidi Intelligent Technology Co Ltd
Original Assignee
Guangdong Shidi Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Shidi Intelligent Technology Co Ltd filed Critical Guangdong Shidi Intelligent Technology Co Ltd
Priority to CN202210060499.XA priority Critical patent/CN114549726A/zh
Publication of CN114549726A publication Critical patent/CN114549726A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学***台,记录参数搭建虚拟场景,并得到n个材料图像;材料获取平台的控制光照仪器包括相机、材料台和n个光源,n个光源均匀分布在半球壳上;根据参数搭建虚拟场景和n个材料图像,得到训练数据;利用训练数据训练网络模型,得到训练好的网络模型;网络模型中的编码器和解码器中间设置全局跳接结构,通过全局平均池化和全连接计算,将编码器的信息压缩,并通过广播的方式传播到解码器的每一个区域;将在材料获取平台拍摄的照片输入训练好的网络模型,得到该材料的材质贴图。本发明可以为艺术家设计师和工业应用生成高质量的SVBRDF贴图。

Description

基于深度学习的高质量材质贴图获取方法
技术领域
本发明属于图像处理技术领域,具体涉及一种基于深度学习的高质量材质贴图获取方法。
背景技术
空间变化的双向反射分布函数(SVBRDF),建模为6维空间(光视图方向(4D)和空间位置(2D))的函数,描述了入射光被特定表面反射后的不同出射方向上的分布。在具有GGX正态分布函数的Cook-Torrance BRDF模型(主要用于基于物理的渲染)的假设下,SVBRDF可以使用四个参数贴图进行参数化:漫反射、镜面反射、法线和光泽度。
上述SVBRDF参数的传统获取倾向于在6D空间上进行密集采样以获得合理的结果,但它们的程序效率低下并且经常受到昂贵硬件的限制。最近的研究证明了可以应用深度学习以方便的方式获取SVBRDF参数,这些研究旨在从手机相机拍摄的一张或多张照片中恢复材料的反射特性。但是基于网络接收到的先验知识进行估计,会导致在不同光照下拍摄的相同材料的照片得到不同的结果。这种情况很容易发生,作为采集任务中的一个关键因素,光照总是在变化:室内或室外,晴天或阴天,中午或晚上等。然而,却很少有人提出通过控制照明的方法避免这些情形的发生。因此,在受到杂光干扰的情况下,这些研究的结果只满足了普通用户的娱乐需求,却无法满足专业设计师对重建材料准确性的严格要求。在网络模型方面,U-net中的跳接结构只能够将局部信息从编码器传递到解码器,缺乏对全局信息的传输。
发明内容
为了解决上述现有的技术问题,本发明提供了一种基于深度学习的高质量材质贴图获取方法,该方法在控制照明方面,通过设计一个穹顶式的仪器,对外部干扰光线具有很好的遮蔽效果,同时内部的光源的功率与网络训练数据一致,以此达到实物照明与虚拟物体照明相一致的条件;在模型结构改进方面,设计了一个全局跳接结构,通过均值和全连接计算,将编码器的信息压缩,并通过广播的方式传播到解码器的每一个区域中,弥补了u-net跳接忽略全局信息的问题。从而实现了为艺术家设计师和工业应用生成高质量的SVBRDF贴图。
本发明的目的可以通过采取如下技术方案达到:
一种基于深度学习的高质量材质贴图获取方法,所述方法包括:
搭建材料获取平台,记录参数搭建虚拟场景,并得到n个材料图像;所述材料获取平台的控制光照仪器包括相机、材料台和n个光源,n个光源均匀分布在半球壳上;
根据所述参数搭建虚拟场景和n个材料图像,得到训练数据;
利用所述训练数据训练网络模型,得到训练好的网络模型;所述网络模型中的编码器和解码器中间设置全局跳接结构,通过全局平均池化和全连接计算,将编码器的信息压缩,并通过广播的方式传播到解码器的每一个区域;
将在所述材料获取平台拍摄的照片输入训练好的网络模型,得到该材料的材质贴图。
进一步的,所述搭建材料获取平台,记录参数搭建虚拟场景,并得到n个材料图像,具体包括:
搭建平台时,记录参数搭建虚拟场景,包括相机参数和相机位置、材料台的大小和位置、光源的大小、功率和位置;
n个光源分布在半球形外壳的三个不同层级;
当***开始工作时,n个光源将依次点亮,同时,当光源亮起时,摄像机拍摄材料台上的材料;
在捕获过程结束时,得到n个材料图像,其中,每个材料图像仅由一个光源点亮。
进一步的,所述n个光源分布在半球形外壳的三个不同层级,具体为:
在以半球中心为起点的极坐标系中,每层安装n/3个等距的光源,每层之间的夹角为22.5度。
进一步的,在摄像机拍摄材料台上的材料之前,使用X-Rite ColorCheckerPassport校准相机,以确保在捕获过程中具有高色彩准确度,光强也在硬件和虚拟渲染环境之间用18%灰卡进行调整。
进一步的,在全局跳接中,编码器特征首先被压缩为一个具有单位大小的值,然后全局跳接将其广播到整个解码器中的每个字段。
进一步的,所述训练数据包括贴图dp、sp、gp、np和n张虚拟照片R1,...,Rn
所述网络模型包括漫反射网络、镜面反射网络、法线网络和光泽度网络;
所述利用所述训练数据训练网络模型,得到训练好的网络模型,具体包括:
将所述虚拟照片R1,...,Rn输入网络模型,利用所述网络模型中的四个网络得到网络预测的贴图dp、sp、gp和np
利用所述网络预测的贴图dp、sp、gp、np和所述训练数据中的贴图dp、sp、gp、np计算损失函数;
训练所述网络模型时,使用L1损失函数和渲染损失函数,同时,在法线网络和漫反射网络中分别添加余弦损失函数和SSIM损失函数;
以降低损失函数为目标,优化网络参数,从而得到训练好的网络模型。
进一步的,所述余弦损失函数如下:
Figure BDA0003477994090000031
其中,nt和np表示虚拟渲染使用的法线和网络预测的法线。
进一步的,所述根据所述参数搭建虚拟场景和n个材料图像,得到训练数据,具体包括:
获取已知材料的贴图dt、st、gt和nt
根据所述参数搭建虚拟场景对n个材料图像进行渲染,得到虚拟照片R1,...,Rn;所述贴图dt、st、gt、nt和所述虚拟照片R1,...,Rn构成训练数据;
为扩充材料类型,将所述贴图打乱使用。
进一步的,所述半球壳的材料具备良好的遮光性,所述材料台使用具有良好漫反射性质的材料。
进一步的,所述光源为LED灯,n为24。
本发明相对于现有技术具有如下的有益效果:
1、本发明在控制照明方面,设计了一个穹顶式的仪器,对外部干扰光线具有很好的遮蔽效果,同时内部的光源的功率与网络训练数据一致,以此达到实物照明与虚拟物体照明相一致的条件。并且本发明构建的材料获取平台相较于传统反射特性获取设备更加简单易搭建,成本低廉;相较于其他方法,在这个设备下拍摄的图片光照可以保持稳定,保证最终实现良好的重建效果。
2、本发明设计的全局跳接结构可以在编码器和解码器之间传递全局信息,而传统u-net中的跳接只能传递局部信息;本发明的全局跳接结构通过均值和全连接计算,将编码器的信息压缩,并通过广播的方式传播到解码器的每一个区域中,弥补了u-net跳接忽略全局信息的问题。
3、本发明与其他贴图生成的网络对比,本方法将不同的贴图使用不同的网络进行训练,达到了解耦合的效果。最终的生成结果相较这些方法也取得了更好的重建效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明实施例的基于深度学习的高质量材质贴图获取方法的流程图。
图2为本发明实施例的拍摄使用的控制光照仪器示意图。
图3为本发明实施例的网络模型的原理图。
图4为本发明实施例的网络模型训练过程的示意图。
图5为本发明实施例的贴图获取的示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例:
如图1所示,本实施例提供了一种基于深度学***面物体,不局限于布料),包括以下步骤:
S101、搭建材料获取平台,记录参数搭建虚拟场景,并得到n个材料图像。
本实施中n的取值为24。
如图2所示,拍摄使用的控制光照仪器由相机、材料台和n个LED灯组合而成,这些LED灯均匀分布在半球壳上。进行采集时,需要对仪器进行遮光处理,防止外部光照干扰。搭建平台时,记录下相机参数和相机位置、材料台的大小和位置、LED灯的大小、功率和位置。需要使用这些数据在渲染软件上对虚拟数据进行渲染,采用平面光近似有体积的LED光源。
n个LED分布在半球形外壳的三个不同层级。在以半球中心为起点的极坐标系中,每层安装n/3(本实施例中为8)个等距的LED,每层之间的夹角为22.5度。当***开始工作时,n个LED将依次点亮。同时,当LED灯亮起时,摄像机会拍摄材料台上的材料。在捕获过程结束时,可以得到n个材料图像,每个图像仅由一个LED点亮。
在获取之前,需要使用X-Rite ColorChecker Passport校准相机,以确保在捕获过程中具有高色彩准确度。光强也在硬件和虚拟渲染环境之间用18%灰卡进行调整。颜色和光强校准可以进一步缩小训练和测试数据集之间的光照差距。
本实施中遮光半球的材料只需具备良好的遮光性即可,相机的像素决定了最终生成贴图的像素,材料台使用具有良好漫反射性质的材料,需要将底部灯光均匀地散布在材料台保证透明度的计算。LED灯源可更换为其他光源。光源位置不局限于设计方案中标示的位置,可更换为其他位置,只需根据情况更改虚拟渲染场景即可。
S102、根据参数搭建虚拟场景和n个材料图像,得到训练数据。
请专业人员对已有布料进行贴图制作(也可自行从网络下载相关贴图),可以得到贴图dt、st、gt和nt。根据步骤S101中记录的参数搭建虚拟场景,对n个材料图像进行渲染得到虚拟照片R1,...,Rn。这两部分数据组成了训练使用的虚拟数据,作为训练数据。
为扩充布料类型,可以将不同贴图打乱使用。
S103、利用训练数据训练网络模型,得到训练好的网络模型。
如图3所示,网络模型中的编码器和解码器中间设置了一个全局跳接结构,通过全局平均池化和全连接计算,将编码器的信息压缩,并通过广播的方式传播到解码器的每一个区域中,弥补了u-net跳接忽略全局信息的问题。
在全局跳接中,编码器特征首先被压缩为一个具有单位大小的值,然后全局跳接将其广播到整个解码器中。在一般跳接中,解码器中的每个字段只能获取对应编码器字段中的信息,它只传递局部信息,而全局跳接将全局信息通过广播传递到解码器中的每个字段。
将步骤S102中得到的训练数据中的虚拟照片R1,...,Rn输入网络模型,得到网络预测的贴图dp、sp、gp和np,利用预测贴图和训练数据中的贴图dt、st、gt和nt计算损失函数(loss)。以降低loss为目标,优化网络参数,使预测贴图接近真实贴图。训练时需要根据训练情况调节训练参数(如学习率),可以使训练结果更好。
每张预测的贴图都使用一个单独的网络进行生成。训练时使用L1损失函数和渲染损失函数,同时,在法线网络和漫反射网络中分别添加余弦损失和SSIM损失。其中余弦损失函数如下:
Figure BDA0003477994090000051
其中,nt和np表示虚拟渲染使用的法线和网络预测的法线。
如图4所示,在训练阶段,监督网络的成对训练样本R1,...,Rn是通过使用已知的虚拟SVBRDF参数(表示为dt、st、gt和nt)在和采集设备相同的光照设置下,使用Cook-Torrance BRDF模型进行渲染。
S104、将在材料获取平台拍摄的照片输入训练好的网络模型,得到该材料的材质贴图。
如图5所示,使用步骤101搭建的设备对布料进行拍照,将拍摄的照片(I1,...,In)输入训练好的网络模型,即可得到该布料的材质贴图(dp,sp,gp和np)。
本领域技术人员可以理解,实现上述实施例的方法中的全部或部分步骤可以通过程序来指令相关的硬件来完成,相应的程序可以存储于计算机可读存储介质中。
应当注意,尽管在附图中以特定顺序描述了上述实施例的方法操作,但是这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。相反,描绘的步骤可以改变执行顺序。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
以上所述,仅为本发明专利较佳的实施例,但本发明专利的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明专利所公开的范围内,根据本发明专利的技术方案及其发明构思加以等同替换或改变,都属于本发明专利的保护范围。

Claims (10)

1.一种基于深度学习的高质量材质贴图获取方法,其特征在于,所述方法包括:
搭建材料获取平台,记录参数搭建虚拟场景,并得到n个材料图像;所述材料获取平台的控制光照仪器包括相机、材料台和n个光源,n个光源均匀分布在半球壳上;
根据所述参数搭建虚拟场景和n个材料图像,得到训练数据;
利用所述训练数据训练网络模型,得到训练好的网络模型;所述网络模型中的编码器和解码器中间设置全局跳接结构,通过全局平均池化和全连接计算,将编码器的信息压缩,并通过广播的方式传播到解码器的每一个区域;
将在所述材料获取平台拍摄的照片输入训练好的网络模型,得到该材料的材质贴图。
2.根据权利要求1所述的高质量材质贴图获取方法,其特征在于,所述搭建材料获取平台,记录参数搭建虚拟场景,并得到n个材料图像,具体包括:
搭建平台时,记录参数搭建虚拟场景,包括相机参数和相机位置、材料台的大小和位置、光源的大小、功率和位置;
n个光源分布在半球形外壳的三个不同层级;
当***开始工作时,n个光源将依次点亮,同时,当光源亮起时,摄像机拍摄材料台上的材料;
在捕获过程结束时,得到n个材料图像,其中,每个材料图像仅由一个光源点亮。
3.根据权利要求2所述的高质量材质贴图获取方法,其特征在于,所述n个光源分布在半球形外壳的三个不同层级,具体为:
在以半球中心为起点的极坐标系中,每层安装n/3个等距的光源,每层之间的夹角为22.5度。
4.根据权利要求2所述的高质量材质贴图获取方法,其特征在于,在摄像机拍摄材料台上的材料之前,使用X-Rite ColorChecker Passport校准相机,以确保在捕获过程中具有高色彩准确度,光强也在硬件和虚拟渲染环境之间用18%灰卡进行调整。
5.根据权利要求1所述的高质量材质贴图获取方法,其特征在于,在全局跳接中,编码器特征首先被压缩为一个具有单位大小的值,然后全局跳接将其广播到整个解码器中的每个字段。
6.根据权利要求5所述的高质量材质贴图获取方法,其特征在于,所述训练数据包括贴图dp、sp、gp、np和n张虚拟照片R1,...,Rn
所述网络模型包括漫反射网络、镜面反射网络、法线网络和光泽度网络;
所述利用所述训练数据训练网络模型,得到训练好的网络模型,具体包括:
将所述虚拟照片R1,...,Rn输入网络模型,利用所述网络模型中的四个网络得到网络预测的贴图dp、sp、gp和np
利用所述网络预测的贴图dp、sp、gp、np和所述训练数据中的贴图dp、sp、gp、np计算损失函数;
训练所述网络模型时,使用L1损失函数和渲染损失函数,同时,在法线网络和漫反射网络中分别添加余弦损失函数和SSIM损失函数;
以降低损失函数为目标,优化网络参数,从而得到训练好的网络模型。
7.根据权利要求6所述的高质量材质贴图获取方法,其特征在于,所述余弦损失函数如下:
Figure FDA0003477994080000021
其中,nt和np表示虚拟渲染使用的法线和网络预测的法线。
8.根据权利要求1所述的高质量材质贴图获取方法,其特征在于,所述根据所述参数搭建虚拟场景和n个材料图像,得到训练数据,具体包括:
获取已知材料的贴图dt、st、gt和nt
根据所述参数搭建虚拟场景对n个材料图像进行渲染,得到虚拟照片R1,...,Rn;所述贴图dt、st、gt、nt和所述虚拟照片R1,...,Rn构成训练数据;
为扩充材料类型,将所述贴图打乱使用。
9.根据权利要求1~8任一项所述的高质量材质贴图获取方法,其特征在于,所述半球壳的材料具备良好的遮光性,所述材料台使用具有良好漫反射性质的材料。
10.根据权利要求1~8任一项所述的高质量材质贴图获取方法,其特征在于,所述光源为LED灯,n为24。
CN202210060499.XA 2022-01-19 2022-01-19 基于深度学习的高质量材质贴图获取方法 Pending CN114549726A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210060499.XA CN114549726A (zh) 2022-01-19 2022-01-19 基于深度学习的高质量材质贴图获取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210060499.XA CN114549726A (zh) 2022-01-19 2022-01-19 基于深度学习的高质量材质贴图获取方法

Publications (1)

Publication Number Publication Date
CN114549726A true CN114549726A (zh) 2022-05-27

Family

ID=81672337

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210060499.XA Pending CN114549726A (zh) 2022-01-19 2022-01-19 基于深度学习的高质量材质贴图获取方法

Country Status (1)

Country Link
CN (1) CN114549726A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114926593A (zh) * 2022-06-13 2022-08-19 山东大学 基于单张高光图像的svbrdf材质建模方法及***
CN117934692A (zh) * 2023-12-29 2024-04-26 山东舜网传媒股份有限公司 基于sc-fegan深度模型3d场景自适应贴图方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110648334A (zh) * 2019-09-18 2020-01-03 中国人民解放***箭军工程大学 一种基于注意力机制的多特征循环卷积显著性目标检测方法
US20200294309A1 (en) * 2019-03-11 2020-09-17 Beijing University Of Technology 3D Reconstruction Method Based on Deep Learning
CN113496495A (zh) * 2021-06-25 2021-10-12 华中科技大学 可缺失输入的医学图像分割模型建立方法及分割方法
CN113538604A (zh) * 2020-04-21 2021-10-22 中移(成都)信息通信科技有限公司 图像生成方法、装置、设备及介质
CN113596278A (zh) * 2021-08-03 2021-11-02 广东时谛智能科技有限公司 一种面料数字化快速扫描***、方法、介质及设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200294309A1 (en) * 2019-03-11 2020-09-17 Beijing University Of Technology 3D Reconstruction Method Based on Deep Learning
CN110648334A (zh) * 2019-09-18 2020-01-03 中国人民解放***箭军工程大学 一种基于注意力机制的多特征循环卷积显著性目标检测方法
CN113538604A (zh) * 2020-04-21 2021-10-22 中移(成都)信息通信科技有限公司 图像生成方法、装置、设备及介质
CN113496495A (zh) * 2021-06-25 2021-10-12 华中科技大学 可缺失输入的医学图像分割模型建立方法及分割方法
CN113596278A (zh) * 2021-08-03 2021-11-02 广东时谛智能科技有限公司 一种面料数字化快速扫描***、方法、介质及设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114926593A (zh) * 2022-06-13 2022-08-19 山东大学 基于单张高光图像的svbrdf材质建模方法及***
CN117934692A (zh) * 2023-12-29 2024-04-26 山东舜网传媒股份有限公司 基于sc-fegan深度模型3d场景自适应贴图方法

Similar Documents

Publication Publication Date Title
CN102761702B (zh) 用于移动通信设备中的图像重叠的方法以及成像***
CN103891294B (zh) 用于hdr图像编码和解码的装置与方法
CN109644224A (zh) 用于捕获数字图像的***和方法
CN114549726A (zh) 基于深度学习的高质量材质贴图获取方法
CN101422035A (zh) 光源推定装置、光源推定***与光源推定方法以及图像高分辨率化装置与图像高分辨率化方法
LU501944B1 (en) Method for Making Three-dimensional Reconstruction and PBR Maps Based on Close-range Photogrammetry
CN114125310B (zh) 拍照方法、终端设备及云端服务器
CN116506993A (zh) 灯光控制方法及存储介质
CN106327505A (zh) 机器视觉处理***
CN113110731B (zh) 媒体内容生成的方法和装置
CN106357979A (zh) 一种摄影方法、装置和终端
CN107743637A (zh) 用于处理***图像的方法和设备
CN115866160A (zh) 一种低成本的电影虚拟化制作***及方法
CN116630518A (zh) 一种渲染方法、电子设备及介质
CN107295261A (zh) 图像去雾处理方法、装置、存储介质和移动终端
US20230171507A1 (en) Increasing dynamic range of a virtual production display
CN112866507B (zh) 智能化的全景视频合成方法、***、电子设备及介质
US10564518B2 (en) Environmental lighting system and method
WO2023094870A1 (en) Increasing dynamic range of a virtual production display
WO2023160219A1 (zh) 补光模型的训练方法、图像处理方法及其相关设备
CN116245741B (zh) 图像处理方法及其相关设备
WO2023026543A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2023094872A1 (en) Increasing dynamic range of a virtual production display
GB2334591A (en) Remote controlled and synchronized camera and flashlamp
CN115713595A (zh) 一种将普通照片生成为实体模型的方法、装置与***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination