CN105825545B - 基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法 - Google Patents

基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法 Download PDF

Info

Publication number
CN105825545B
CN105825545B CN201610188547.8A CN201610188547A CN105825545B CN 105825545 B CN105825545 B CN 105825545B CN 201610188547 A CN201610188547 A CN 201610188547A CN 105825545 B CN105825545 B CN 105825545B
Authority
CN
China
Prior art keywords
light source
sampling
virtual
row
drafting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610188547.8A
Other languages
English (en)
Other versions
CN105825545A (zh
Inventor
鲍虎军
王锐
霍宇驰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201610188547.8A priority Critical patent/CN105825545B/zh
Publication of CN105825545A publication Critical patent/CN105825545A/zh
Priority to PCT/CN2017/077634 priority patent/WO2017167084A1/zh
Application granted granted Critical
Publication of CN105825545B publication Critical patent/CN105825545B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Image Generation (AREA)

Abstract

本发明公开了一种基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法,包括:确定待绘制场景的视觉采样器、虚拟光源以及各个虚拟光源的光源信息;所述的视觉采样器包括摄像机在待绘制场景的几何网格表面的渲染点以及在待绘制场景的介质中的视线段,所述的虚拟光源包括虚拟点光源和虚拟线光源;构建待绘制场景的光传递矩阵,根据虚拟光源的光源信息建立相应的光树,依据光树中对光传递矩阵按列进行稀疏矩阵还原:将各个像素点对应的视觉采样器的光照值进行加权求和,以加权求和结果作为该像素点的亮度值。本发明能够实现带介质的场景的绘制,且对于每个光传递矩阵利用部分元素进行稀疏矩阵还原,大大提高了绘制效率。

Description

基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法
技术领域
本发明涉及图像技术领域,尤其涉及一种基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法。
背景技术
全局光照是计算机图形学中非常重要的研究领域,通过对大自然中光照情况的模拟,捕捉真实环境中的光的多次传播、折射、反射所产生的软影、间接折射等光照效果,这些效果能大大加强渲染效果的真实感。这一技术常用于电影、动画、三维模型的渲染中。全局光照有多种实现方法,例如辐射度、光线追踪、环境光遮蔽、光子贴图。
大量光源(Many-light)的方法是其中一类重要的全局光照技术,它在场景中生成大量虚拟光源,包括虚拟点光源(Virtual Point Light,VPL)和虚拟线光源(Virtual RayLight,VRL),通过分别计算各视角采样器被这些虚拟光源照亮的程度来获得全局光照效果,其中视角采样器包括渲染点(Shading Points)和视线段(Eye Ray)。通过把复杂的多次传播问题简化为采样器被虚拟光源直接照亮问题,为全局光照问题提供了一个统一的数学框架,并且拥有很高的灵活性,可以根据实际需要调节算法的复杂度。
为进一步提高绘制速度,提高实时性,Wald等人发明了基于大量点光源框架的光割(light cuts)方法,将虚拟点光源建立层次结构并使用层次结构树的一个割集代表所有虚拟点光源,减少运算量并加快了运算速度。
Novák等人发明了虚拟线光源(VirtualRayLight,VRL)方法,使用虚拟线光源模拟介质(比如雾)的光能贡献,扩大了多光技术的应用范围。
近年来,随着不同研究者对光割方法的不断完善,大量光源框架已经成为了实现全局光照方法中效率很高的一种。但是,光割方法仍然需要进行大量计算,平均每个视角采样点需要计算几百到上千个虚拟光源对它的贡献,严重制约了绘制速度,实时性差。因此可以看出,效率仍然是限制其应用发 展的主要瓶颈。
针对该问题,公开号为CN103971397A和CN105335995A的中国专利申请中公开了一种基于光割技术的多光渲染方法,其使用全局的稀疏矩阵还原法加快了多光渲染速度,提高光渲染效率,但是,由于受到光割技术的限制,该渲染方法只能适用于不带介质的场景中。
发明内容
针对现有技术的不足,本发明提供了一种基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法,才使用自适应矩阵还原技术,可以结合虚拟线光源(Virtual RayLight,VRL)方法渲染带有介质的场景,具有更高的普适性,且渲染速率快。
一种基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法,包括如下步骤:
(1)确定待绘制场景的视觉采样器、虚拟光源以及各个虚拟光源的光源信息;所述的视觉采样器包括摄像机在待绘制场景的几何网格表面的渲染点以及在待绘制场景的介质中的视线段,所述的虚拟光源包括虚拟点光源和虚拟线光源;
(2)构建待绘制场景的光传递矩阵,所述光传递矩阵的行与视觉采样器一一对应,列与虚拟光源一一对应;
(3)根据虚拟光源的光源信息建立相应的光树,以光树的根节点作为当前节点,通过如下步骤对光传递矩阵进行按列的稀疏矩阵还原:
(3-1)以光传递矩阵中与光树中当前节点包含的叶节点所对应的列为列采样集,对该列采样集进行列稀疏采样得到采样列;
(3-2)针对每个采样列,选取若干元素作为参考元素并计算各个参考元素的值,然后利用参考元素的值对该列进行稀疏还原求解该采样列;
(3-3)根据所有求解的采样列的计算当前节点的误差,若误差小于预设的误差阈值,则计算当前节点对应的虚拟光源对各个视觉采样器的光照值;
否则,则针对光树中当前节点的左、右子节点分别执行返回步骤(3-1)~(3-3);
(4)根据各个视觉采样器的对应像素点标记,确定各个像素点对应的视觉采样器,将各个像素点对应的视觉采样器的光照值进行加权求和,以加权求和结果作为该像素点的亮度值。
循环步骤(3-1)~(3-3)时会存在执行到叶子节点,此时不考虑误差大小一旦达叶子节点即结束循环。
本发明的全局光照绘制方法中首先需要以下输入以下信息:
目标绘制场景(即待绘制场景)的几何网格(即一些三角面片),以及各个几何网格的法向量;绘制场景中的介质信息(即包含介质信息的空间网格),一系列虚拟光源,包括各个虚拟光源的材质信息、位置信息(实际上包括在目标绘制场景中的中位置,以及方向)和能量信息,以及摄像机的空间信息(包括摄像机的位置和方向)。
本发明中采用SBVH方法(空间分割包围盒,Spatial splits in bounding volumehierarchies,SBVH)构建几何网格的空间加速结构,并利用所述的空间加速结构和摄像机的位置信息,采用光线追踪法确定摄像机在几何网格中的视觉采样器,并确定各个视觉采样器的采样信息。所述步骤(2)中构建的光传递矩阵中所有元素均未知,可以理解为构建的光传递矩阵中每个元素均为空。每一对应一个的虚拟光源,虚拟光源可以是打到几何表面上的虚拟点光源或者一段通过介质(比如烟雾)的虚拟线光源。且光传递矩阵的元素可分为四类,分别如下:
(a)用于表示虚拟点光源到渲染点的贡献值:
V(x,y)G(x,y)f(x,y)L (1)
其中x表示渲染点,y表示虚拟点光源,V(x,y)表示两点间的广义可见项,G(x,y)表示两点间的几何项,L表示虚拟点光源y的强度,f(x,y)表示渲染点x到虚拟点光源y(即向着虚拟点光源y方向)的材质项。
(b)用于表示虚拟点光源到视线段的贡献值:
其中x=a+td表示视线段上的一个点,u为视线段的长度,d为视线段的方向,a为视线段的起始位置,y表示虚拟点光源,V(x,y)表示两点间的广义可见项,G(x,y)表示两点间的几何项,L表示光源y的强度,f(x,y)表示x到y 的材质项;
(c)用于表示虚拟线光源到渲染点的贡献值:
其中y=b+si表示虚拟线光源上的一个点,v为虚拟线光源的长度,i为虚拟线光源的方向,b为虚拟线光源的起始点,x表示渲染点,V(x,y)表示两点间的广义可见项,G(x,y)表示两点间的几何项,L表示光源y的强度,f(x,y)表示x到y的材质项。
(d)用于表示虚拟线光源到视线段的贡献值:
其中x=a+td表示视线段上的一个点,u为视线段的长度,d为视线段的方向,a为视线段的起始点,y=b+si表示虚拟线光源上的一个点,v为虚拟线光源的长度,i为虚拟线光源的方向,b为虚拟线光源的起始点,x表示渲染点,V(x,y)表示两点间的广义可见项,G(x,y)表示两点间的几何项,L(y)表示光源y的强度,f(x,y)表示x到y的材质项。
作为优选所述步骤(1)中还包括确定各个视觉采样器的采样信息;
对于渲染点,所述的采样信息包括该渲染点的位置、材质和对应像素点标记;对于视线段,所述的采样信息包括该视线段的位置、介质和对应像素点标记,其中,渲染点的位置包括位置和法向量;视线段的位置包括起始位置,方向和长度。
所述步骤(1)还包括根据各个视觉采样器的位置分别对渲染点和视线段单独进行聚类,相应的,所述步骤(2)中针对每一类视觉采样器分别构建相应的光传递矩阵,所述步骤(3)针对每个光传递矩阵按列进行稀疏矩阵还原。
本发明的全局光照绘制方法中,采用使用大量点虚拟光源模型构建待绘制几何场景的光树,并对视觉采样器进行聚类,分类处理各类视觉采样器,根据聚类结果针对每一类视觉采样器构建光传递矩阵,且对于每一类视觉采样器处理时,构建该类视觉采样器的光传递矩阵。这样分类处理,有效减小了光传递矩阵的秩,降低了计算量(降低了稀疏采样的采样率)。
通过对视觉采样器进行聚类,根据聚类结果针对每一类视觉采样器构建光传递矩阵,大大降低了光传递矩阵的秩,有利于降低计算量,提高渲染效率。作为优选,针对每一类视觉采样器对应的光传递矩阵可并行稀疏矩阵还原。
所述步骤(3-1)中对列采样集进行列稀疏采样时采样的列数为10~100。
所述步骤(3-2)中针对每个采样列选取总元素的10%~20%作为参考元素。
所述步骤(3-3)中根据所有求解的采样列的计算当前节点的误差ε:
其中,lk为采样列,pdf(lk)为对光传递矩阵进行列稀疏采样时以lk作为采样列的概率,K为采样列的总列数,E为当前节点的贡献值,根据如下公式计算:
所述步骤(3-3)中预设的误差阈值为0.0001~0.01。
本发明中的视觉采样器包括摄像机在待绘制场景的几何网格表面的渲染点以及在待绘制场景的介质中的视线段,所述的虚拟光源包括虚拟点光源和虚拟线光源,这样使该渲染方法能够实现带介质的场景的绘制。且对于每个光传递矩阵,通过自适应选择一些列,并随机采样被选择的列的部分元素并计算选择元素的取值,然后利用部分元素进行稀疏矩阵还原,进一步计算得到各个视点采样器亮度值(即贡献值)。
具体实施方式
下面将结合具体实施例对本发明进行详细说明。
利用本实施例的基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法进行场景绘制时首先需要以下输入以下信息:
目标绘制场景(即待绘制场景)的几何网格(即一些三角面片),以及各个几何网格的法向量;绘制场景中的介质信息(即包含介质信息的空间网 格),一系列虚拟光源,包括各个虚拟光源的材质信息、位置信息(实际上包括在目标绘制场景中的中位置,以及方向)和能量信息,以及摄像机的空间信息(包括摄像机的位置和方向)。
进行绘制时依次进行如下步骤:
(1)确定待绘制场景的视觉采样器、虚拟光源以及各个虚拟光源的光源信息;视觉采样器包括摄像机在待绘制场景的几何网格表面的渲染点以及在待绘制场景的介质中的视线段,所述的虚拟光源包括虚拟点光源和虚拟线光源;
采用SBVH方法(空间分割包围盒,Spatial splits in bounding volumehierarchies,SBVH)构建几何网格的空间加速结构,并利用空间加速结构和摄像机的位置信息,采用光线追踪法确定摄像机在几何网格中的视觉采样器,并确定各个视觉采样器的采样信息。采样信息包括对应视点采样器的位置(视觉采样点的几何位置和视觉采样线的中点)、方向(视觉采样点的法向量和视觉采样线的平均介质粒子方向)、材质和对应像素点标记。对于渲染点,采样信息包括该渲染点的位置、材质和对应像素点标记;对于视线段,采样信息包括该视线段的位置、介质和对应像素点标记,其中,渲染点的位置包括位置和法向量;视线段的位置包括起始位置,方向和长度。
根据待绘制场景的光照信息确定相应点光源和线光源,每个虚拟点光源的光源信息包括位置信息、材质信息和能量信息,虚拟线光源的光源信息包括位置信息、方向信息,介质信息和能量信息。
根据各个虚拟点光源的位置信息、材质信息和能量信息,建立光树;根据各个虚拟线光源的位置信息、方向信息,介质信息和能量信息,建立光树;
(2)构建待绘制场景的光传递矩阵,光传递矩阵的行与视觉采样器一一对应,列与虚拟光源一一对应;
为提高渲染速率,本实施例中首先将所有视觉采样点分类,然后根据分类结果,针对每一类视觉采样点构建相应的光传递矩阵。
本实施例通过聚类对视觉采样点进行分类,具体如下:
根据视觉采样器的位置分别针对渲染点和视线段进行聚类,本实施例中采用K-均值(K-means)进行聚类。聚类时每次迭代的距离函数为:
其中,α为常数,
xk为第k类视角采样器的位置均值,为第k类视角采样器的方向均值,k=1,2,……,K,K为每一次迭代得到的类的总数,
xi为当前被聚类的视觉采样点的位置,为当前被聚类的视觉采样器的法向量,i=1,2……,I,I为第k类视角采样器中视觉采样器的总数;
每一簇的大小为512~1024。
常数α的取值为0.5~1,用于在聚类过程中各次迭代时,控制距离与角度相对重要度。
每一次迭代得到类的总数根据聚类方向确定,若为自顶向下聚类,则第一次迭代得到的类的总数K=2,第二次迭代得到的类的总数K=4,此后依次递推,第l次迭代得到的类的总数K=2l,l=1,2,……,L,L为聚类时的迭代总次数,根据实际情况确定。
视觉采样器的聚类对最终的绘制效果影响较大,帮采用更保守但是质量较高的传统聚类方法,聚类中使用的距离函数同时考虑位置和法向,较大的簇可以增加矩阵还原时的稳定性和准确性。
(3)根据虚拟光源的光源信息建立相应的光树,以光树的根节点作为当前节点,通过如下步骤对光传递矩阵按列进行稀疏矩阵还原:
(3-1)以光传递矩阵中与光树中当前节点的叶节点所对应的列为列采样集,对该列采样集进行列稀疏采样得到采样列;
(3-2)针对每个采样列,选取若干元素作为参考元素并计算各个参考元素的值,然后利用参考元素的值对该列进行稀疏还原求解该采样列;
(3-3)根据所有求解的采样列的计算当前节点的误差,若误差小于预设的误差阈值,则计算当前节点对应的虚拟光源对各个视觉采样器的光照值;
否则,则针对光树中当前节点的左、右子节点分别执行返回步骤(3-1)~(3-3);
根据各个虚拟光源的位置信息(虚拟点光源的几何位置和虚拟线光源的中点)、材质信息和能量信息,利用文献“A Matrix Sampling-and-Recovery Approach for Many-Lights Rendering,Huo,Wang,Jin,Liu,&Bao,2015”中公 开的方法建立相应的光树。本实施例中光树的高度为32~64。
本实施例中针对虚拟点光源和线光源单独建立光树,即根据所有虚拟点光源的位置信息、材质信息和能量信息,建立VPL光树;根据所有虚拟线光源的位置信息、方向信息,介质信息和能量信息,建立VRL光树。相应的,步骤(2)中可以分别针对VPL光树和VRL光树构建光传递矩阵。本实施例中不考虑,即针对虚拟点光源和虚拟线光源构建为一个光传递矩阵。
由于采用稀疏还原的方法,需要实际计算的矩阵元素大量减少,因此可以建造更深、更精确的光树结构来支持百万级的虚拟光源,进行高质量的场景绘制。
针对构建的多个光传递矩阵分别执行步骤(3),完成相应的列稀疏矩阵还原。
为了加速计算光传递矩阵的贡献,稀疏地随机采样一部分矩阵的列,并使用蒙托卡洛方法来计算整个子光传递矩阵的贡献。然后选择这棵树上的一个割集来近似整棵树的贡献。
对于光树上的任意一个节点,其贡献的计算公式如下:
其中lk表示子光传递矩阵的一列,pdf(lk)表示采这一列的概率,K是一共采的列的数目,E是一个树节点的列加和得到的向量,它的行就是对应视觉采样器接受到这个树节点的贡献,这些亮度累加到视觉采样器对应的像素点就可以产生最终的图片。
计算某一列lk的值时,稀疏地随机采样这一列上一定比例的行(本实施例中的比例为10%),然后使用文献“On the Power of Adaptivity in Matrix Completion andApproximation,Krishnamurthy&Singh,2014”的方法使用这些稀疏的元素将整列还原出来,从而达到减少采样的目的。
因为使用一部分列来逼近树节点的贡献会产生误差,计算每个节点的误差并动态地为每个子光传递矩阵寻找合适的割集。算法的整体流程为,对于每个光传递矩阵,首先输入光树的根节点,将该根节点推入一个优先队列中。然后程序循环地取出该优先队列中误差最大的节点,并把这个节点分为它的两个子节点(即左右子节点),如果新生成的子节点的误差小于一个用户给 定的误差上限参数(即误差阈值),则将此子节点的贡献累加到图片的像素中,否则就把该子节点推入优先队列中以进行进一步细分。
本实施例中步骤(3-3)中根据所有求解的采样列的计算当前节点的误差ε:
其中,lk为采样列,pdf(lk)为对光传递矩阵进行列稀疏采样时以lk作为采样列的概率,K为采样列的总列数,E为当前节点的贡献值,根据如下公式计算:
(4)根据各个视觉采样点的对应像素点标记,确定几何网格中各个像素点对应的视觉采样器,将各个像素点对应的视觉采样器的光照值进行加权求和,以加权求和结果作为该像素点的亮度值。
以上所述的具体实施方式对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的最优选实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法,其特征在于,包括如下步骤:
(1)确定待绘制场景的视觉采样器、虚拟光源以及各个虚拟光源的光源信息;所述的视觉采样器包括摄像机在待绘制场景的几何网格表面的渲染点以及在待绘制场景的介质中的视线段,所述的虚拟光源包括虚拟点光源和虚拟线光源;
(2)构建待绘制场景的光传递矩阵,所述光传递矩阵的行与视觉采样器一一对应,列与虚拟光源一一对应;
(3)根据虚拟光源的光源信息建立相应的光树,以光树的根节点作为当前节点,通过如下步骤对光传递矩阵按列进行稀疏矩阵还原:
(3-1)以光传递矩阵中与光树中当前节点包含的叶节点所对应的列为列采样集,对该列采样集进行列稀疏采样得到采样列;
(3-2)针对每个采样列,选取若干元素作为参考元素并计算各个参考元素的值,然后利用参考元素的值对该采样列进行稀疏还原求解该采样列;
(3-3)根据所有求解的采样列计算当前节点的误差,若误差小于预设的误差阈值,则计算当前节点对应的虚拟光源对各个视觉采样器的光照值;
否则,则针对光树中当前节点的左、右子节点分别执行返回步骤(3-1)~(3-3);
(4)根据各个视觉采样器的对应像素点标记,确定各个像素点对应的视觉采样器,将像素点对应的视觉采样器的光照值进行加权求和,以加权求和结果作为像素点的亮度值。
2.如权利要求1所述的基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法,其特征在于,所述步骤(1)中还包括确定各个视觉采样器的采样信息;
对于渲染点,所述的采样信息包括该渲染点的位置、材质和对应像素点标记;对于视线段,所述的采样信息包括该视线段的位置、介质和对应像素点标记,其中,渲染点的位置包括位置和法向量;视线段的位置包括起始位置,方向和长度。
3.如权利要求2所述的基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法,其特征在于,所述步骤(1)还包括根据各个视觉采样器的位置分别对渲染点和视线段单独进行聚类,相应的,所述步骤(2)中针对每一类视觉采样器分别构建相应的光传递矩阵,所述步骤(3)针对每个光传递矩阵按列进行稀疏矩阵还原。
4.如权利要求3所述的基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法,其特征在于,所述步骤(3-1)中对列采样集进行列稀疏采样时采样的列数取值范围为10~100。
5.如权利要求4所述的基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法,其特征在于,所述步骤(3-2)中针对每个采样列选取总元素的10%~20%作为参考元素。
6.如权利要求1~5中任意一项所述的基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法,其特征在于,所述步骤(3-3)中根据所有求解的采样列计算当前节点的误差ε:
其中,lk为采样列,pdf(lk)为对光传递矩阵进行列稀疏采样时以lk作为采样列的概率,K为采样列的总列数,E为当前节点的贡献值,根据如下公式计算:
7.如权利要求6所述的基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法,其特征在于,所述步骤(3-3)中预设的误差阈值为0.0001~0.01。
CN201610188547.8A 2016-03-29 2016-03-29 基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法 Active CN105825545B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201610188547.8A CN105825545B (zh) 2016-03-29 2016-03-29 基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法
PCT/CN2017/077634 WO2017167084A1 (zh) 2016-03-29 2017-03-22 基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610188547.8A CN105825545B (zh) 2016-03-29 2016-03-29 基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法

Publications (2)

Publication Number Publication Date
CN105825545A CN105825545A (zh) 2016-08-03
CN105825545B true CN105825545B (zh) 2018-06-19

Family

ID=56525350

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610188547.8A Active CN105825545B (zh) 2016-03-29 2016-03-29 基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法

Country Status (2)

Country Link
CN (1) CN105825545B (zh)
WO (1) WO2017167084A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105825545B (zh) * 2016-03-29 2018-06-19 浙江大学 基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法
US10395624B2 (en) * 2017-11-21 2019-08-27 Nvidia Corporation Adjusting an angular sampling rate during rendering utilizing gaze information
CN109509246B (zh) * 2018-03-25 2022-08-02 哈尔滨工程大学 一种基于自适应视线划分的光子图聚类方法
CN109448098B (zh) * 2018-09-29 2023-01-24 北京航空航天大学 一种基于建筑物单张夜景图像重建虚拟场景光源的方法
CN109493413B (zh) * 2018-11-05 2022-10-21 长春理工大学 基于自适应虚拟点光源采样的三维场景全局光照效果绘制方法
CN111145341B (zh) * 2019-12-27 2023-04-28 陕西职业技术学院 一种基于单光源的虚实融合光照一致性绘制方法
CN111583371B (zh) * 2020-04-30 2023-11-24 山东大学 基于神经网络的参与性介质多重散射绘制方法及***
CN115082611B (zh) * 2022-08-18 2022-11-11 腾讯科技(深圳)有限公司 光照渲染方法、装置、设备和介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101458823A (zh) * 2008-12-19 2009-06-17 北京航空航天大学 一种虚拟舞台环境下实时光照绘制的方法
CN103971397A (zh) * 2014-04-16 2014-08-06 浙江大学 基于虚拟点光源和稀疏矩阵还原的全局光照绘制方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101475779B1 (ko) * 2008-06-02 2014-12-23 삼성전자주식회사 3d 영상 처리 방법
CN105825545B (zh) * 2016-03-29 2018-06-19 浙江大学 基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101458823A (zh) * 2008-12-19 2009-06-17 北京航空航天大学 一种虚拟舞台环境下实时光照绘制的方法
CN103971397A (zh) * 2014-04-16 2014-08-06 浙江大学 基于虚拟点光源和稀疏矩阵还原的全局光照绘制方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A matrix sampling-and-recovery approach for many-lights rendering;Yuchi Huo et al;《ACM Transactions on Graphics》;20151130;第34卷(第6期);第1-12页 *
基于Gabor特征的全局加权稀疏表示;林克正 等;《哈尔滨理工大学学报》;20160229;第21卷(第1期);第40-44页 *

Also Published As

Publication number Publication date
CN105825545A (zh) 2016-08-03
WO2017167084A1 (zh) 2017-10-05

Similar Documents

Publication Publication Date Title
CN105825545B (zh) 基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法
CN108510583B (zh) 人脸图像的生成方法和人脸图像的生成装置
CN105512289B (zh) 基于深度学习和哈希的图像检索方法
CN109829399A (zh) 一种基于深度学习的车载道路场景点云自动分类方法
CN110176054A (zh) 用于训练神经网络模型的合成图像的生成
CN101982838B (zh) 一种加速被面光源照射的3d虚拟场景的光线跟踪的方法
CN109635882A (zh) 一种基于多尺度卷积特征提取和融合的显著物体检测方法
CN110414349A (zh) 引入感知模型的孪生卷积神经网络人脸识别算法
CN104658033B (zh) 多光源下的全局光照绘制方法及装置
CN110349247A (zh) 一种基于语义理解的室内场景cad三维重建方法
CN101650836B (zh) 三维植物器官几何曲面自适应网格化方法及***
US7990380B2 (en) Diffuse photon map decomposition for parallelization of global illumination algorithm
CN113705460B (zh) 图像中人脸睁眼闭眼检测方法、装置、设备及存储介质
CN106558092A (zh) 一种基于场景多方向体素化的多光源场景加速绘制方法
CN103971397B (zh) 基于虚拟点光源和稀疏矩阵还原的全局光照绘制方法
CN109448098A (zh) 一种基于建筑物单张夜景图像重建虚拟场景光源的方法
Du Application of CAD aided intelligent technology in landscape design
CN104616356A (zh) 一种小班边界三维可视化编辑方法
CN112634456B (zh) 基于深度学习的复杂三维模型的实时高真实感绘制方法
CN106529601A (zh) 基于稀疏子空间多任务学习的图像分类预测方法
Wang et al. Street view image classification based on convolutional neural network
CN114549714A (zh) 基于WebGL三维风向图可视化的渲染方法
CN103886636B (zh) 基于光线投射步进补偿的实时烟雾渲染算法
Favorskaya et al. Tree modelling in virtual reality environment
Fan et al. Real-time simulation of rain and snow in virtual environment

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant