CN108765540A - 一种基于图像与集成学习的重光照方法 - Google Patents
一种基于图像与集成学习的重光照方法 Download PDFInfo
- Publication number
- CN108765540A CN108765540A CN201810390285.2A CN201810390285A CN108765540A CN 108765540 A CN108765540 A CN 108765540A CN 201810390285 A CN201810390285 A CN 201810390285A CN 108765540 A CN108765540 A CN 108765540A
- Authority
- CN
- China
- Prior art keywords
- pixel
- image
- easy
- hard
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于图像与集成学习的重光照方法,该方法在图像空间把像素点分成“容易训练”和“困难训练”两类,即PixelEasy和PixelHard,然后分而治之。对于像素点PixelHard,利用集成学习的AdaBoost方法和神经网络进行学习,对于像素点PixelEasy,又进一步分成两类,PixelEasyI和PixelEasyII。对PixelEasyI类像素点,利用集成学习的Bagging方法和神经网络进行学习;对于PixelEasyII,利用人眼特性进行赋值。该方法基于图像的重光照是指在新的光照条件下,利用采样图像恢复或重构场景的光照信息,其中基图像的采集和光照重构的方法是本发明的关键。基于上述方法,对虚拟和真实的四个场景进行测试,在相同的相对重构误差精度控制下,重光照所需的图像样本数更少,效果更优。
Description
技术领域
本发明属于计算机图形学领域,尤其涉及一种基于图像与集成学习的重光照方法。
背景技术
基于图像的重光照(Image-based Relighting,IBR)技术是把连续的光传输空间看成离散的光传输空间,通过捕获的图像近似计算光传输矩阵,然后利用得到的光传输矩阵重构在新光源条件下的场景。其最大优点是无需场景模型的几何信息,不受模型复杂度的影响,并且能重构高光、散射、焦散、硬阴影等特殊光照效果。因此,自IBR提出以来,一直是计算机图形学领域研究的热点。
在IBR技术中,基图像的采集和光照重构的方法是关键。一般来说,采集到的基图像越多,重构的场景光照信息越准确,但往往需要密集采样,采集量非常大,普适性不强。因此,有必要提出新的方法,在尽可能少的采样图像基础上,更真实地重光照场景,这是目前急需解决的问题。
发明内容
发明目的:本发明所要解决的技术问题是提供一种基于图像与集成学习的重光照方法。首先把图像空间的像素点划分成3类:PixelHard、PixelEasy I、PixelEasy II;然后分而治之,分别利用AdaBoost算法、Bagging算法和人眼特性对3类像素点进行拟合计算,从而实现小样本、高精度的重光照效果。
技术方案:为了实现上述发明目的,本发明采用如下的技术方案:一种基于图像与集成学习的重光照方法,包括以下具体步骤:
(1)采集三维场景数据,包括获得的图像集ImageSet以及对应的光源坐标集,并对像素点的RGB值进行归一化处理;
(2)设计用于处理图像的神经网络模型;
(3)在图像的像素空间把像素点集合Pixel划分成3类:PixelHard、PixelEasy I、PixelEasy II;
(4)随机采集样本图像,样本数为ImageNum;
(5)根据3种不同类型的像素点集合PixelHard、PixelEasy I、PixelEasy II,采取不同方法计算不同光源条件下像素点的像素值;其中,PixelHard集合用AdaBoost算法和神经网络进行训练,PixelEasy I集合用Bagging算法和神经网络进行训练,PixelEasy II进行随机化处理;
(6)使用步骤(5)训练好的神经网络集成和随机化处理方法对图像集ImageSet拟合生成新的图像集,并与原图像集ImageSet进行比较,若相对重构均方误差小于阈值ε,执行步骤(7);否则增加图像样本数ImageNum,返回步骤(4);
(7)用训练好的神经网络集成,以及随机化处理方法重构任意光源位置下PixelHard、PixelEasy I、PixelEasy II类像素点的像素值,生成新的重光照后的场景图像。
其中,在步骤(2)中,所述的神经网络结构模型包括1个输入层、2个隐藏层、1个输出层。
其中,在步骤(3)中,通过如下方法把像素点集合Pixel划分成3类:
(3.1)在图像集ImageSet中随机采样d张图像,构成图像子集ImageSubset;
(3.2)在像素点空间以采样率R随机采样像素点,然后从图像子集ImageSubset获取该像素点的数据用神经网络模型进行训练,其中神经网络输入层有7个结点,包括光源坐标[Lx,Ly]、像素点坐标[Ph,Pw]、以及像素点RGB三个通道的颜色均值,输出层有3个结点,对应像素点的RGB三个通道的颜色值;
(3.3)利用(3.2)训练好的人工神经网络对图像子集ImageSubset的像素点进行测试,相对重构平方误差大于设定阈值ε2的像素点为PixelHard;
(3.4)重复(3.1)~(3.3)步骤N次,合并N次得到的PixelHard;
(3.5)计算PixelEasy I=Pixel-PixelHard;
(3.6)将PixelHard中RGB三个通道的颜色值小于阈值C的像素点归为PixelEasy II类;
(3.7)计算PixelHard=PixelHard-PixelEasy II。
其中,在步骤(5)中,从图像集ImageSet中随机选择ImageNum张初始样本图像,对3种不同类型的像素点集合PixelHard、PixelEasy I、PixelEasy II,采取如下方法计算在不同光源位置下,图像中像素点的RGB值:
(5.1)在PixelHard中随机选择1个像素点,选择该像素点周围多个像素点直到满足神经网络训练的最小样本数要求,最小样本数为Np=ρNω/ImageNum,其中,ρ是常量,优选的,ρ>10,Nω是神经网络中参数的数量,Nω=(n1+1)×nh1+(nh1+1)×nh2+(nh2+1)×no,n1、nh1、nh2、no分别表示输入层、第1隐藏层、第2隐藏层和输出层的结点数,ImageNum是选择的样本数。由所选的上述像素点以及选择的样本图像构成训练数据,利用AdaBoost算法和神经网络进行训练,集成规模为MH,然后将训练数据集中的像素点从PixelHard中剔除,并记录这些像素点对应的网络集成编号;
(5.2)重复(5.1),直至PixelHard集合为空集得到EH个神经网络集成;
(5.3)在PixelEasy I中用Bootstrap策略随机选择像素点,利用Bagging算法和神经网络模型进行训练,集成规模为ME,得到1个神经网络集成;
(5.4)PixelEasy II的RGB值由随机函数随机赋值,取值范围在[0,C]之间。
其中,在步骤(3.3)中像素点的相对重构平方误差计算公式如下:
其中,Ii(p)表示第j张图像的第i个像素点的实际RGB值,Ii(p)*表示人工神经网络预测输出的第j张图像的第i个像素点的RGB值,d是图像子集ImageSubset中的样本数。
其中,步骤(6)中像素点的相对重构均方误差计算公式如下:
其中,Ii(p)表示第j张图像的第i个像素点的实际RGB值,Ii(p)*表示人工神经网络预测输出的第j张图像的第i个像素点的RGB值,m是图像集ImageSet中的样本数。相对重构平方误差和均方误差能够衡量像素点的真值和计算值之间的差异,其值越小,表示计算值越接近真值。
有益效果:本发明采用以上技术方案与现有技术相比,具有以下技术效果:
在相同的相对重构误差精度控制下,重光照所需的图像样本数更少,即用相对较少的样本图像获得较高精度的重光照效果。
附图说明
图1是本发明一种基于图像与集成学习的重光照方法流程图。
具体实施方式
下面结合附图对本发明的技术方案做进一步的详细说明:
本发明一种基于图像与集成学习的重光照方法,如图1所示,包括如下步骤:
(1)采集三维场景数据,包括获得的图像集ImageSet以及对应的光源位置,一个光源位置对应一张采样图像。为简单起见,采用2D平面的光源,即光源位置可用坐标[Lx,Ly]表示,对所有图像集的像素点的RGB值都归一化到[0,1]范围;
表1场景数据
场景 | 图像尺寸 | 光域尺寸 | Type |
Mitsuba | 800×600 | 21×21 | 虚拟 |
Dragon | 800×600 | 31×31 | 虚拟 |
Waldorf | 696×464 | 32×32 | 真实 |
Bull | 696×464 | 32×32 | 真实 |
(2)一张图像由H×W个像素点组成,可以把该像素点空间的像素点集合Pixel划分成3类:PixelHard、PixelEasy I、PixelEasy II,具体像素划分如下:
(2.1)在图像集ImageSet中随机采样d张图像,构成图像子集ImageSubset,本实验d=20;
(2.2)在分辨率H×W的像素点空间,以采样率R=40%随机采样像素点,图像子集ImageSubet对应像素点的数据用人工神经网络进行训练。神经网络由1个输入层、两个隐藏层和1个输出层构成。输入层有7个结点,分别对应光源坐标[Lx,Ly]、像素点坐标[Ph,Pw]、以及采样点在不同图像的像素点RGB三个通道的颜色均值;两个隐藏层都是15个结点;输出层有3个结点,对应像素点的RGB三个通道的颜色值。隐藏层激活函数采用Tanh函数,输出层激活函数采用线性函数。训练迭代终止条件是最大训练次数100次,最小均方误差0.0001。以下使用的神经网络结构均与此相同,不再重复说明。
(2.3)利用(2.2)训练好的人工神经网络对图像子集ImageSubset所有像素点进行测试,相对重构平方误差大于设定阈值ε2=0.02的像素点为第k次的PixelHard。相对重构平方误差计算公式是:
其中,Ii(p)表示第j张图像的第i个像素点的实际RGB值,Ii(p)*表示人工神经网络预测输出的第j张图像的第i个像素点的RGB值,d是图像子集ImageSubset中的样本数。
(2.4)重复(2.1)~(2.3)步骤N=100次,合并N次得到的PixelHard,即为初始的PixelHard。
(2.5)计算PixelEasyI=Pixel-PixelHard。
(2.6)根据人眼特性,在灰度等级为255的图像中,0灰度附近人眼不能分辨出灰度级差异小于8的图像,则认为0级灰度和8级灰度是同一个灰度颜色,即表示像素点的RGB值很小时,人眼对其变化不敏感,或者说不能辨别它的变化,基于此,根据场景的均值图像,即图像平均值,将PixelHard中RGB三个通道的颜色值小于阈值C=8/255≈0.03的像素点归为PixelEasy II类,这里图像的RGB值都归一化到[0,1]范围,实际计算中C取0.03。
(2.7)从(2.4)的PixelHard类中剔除PixelEasy II类像素点,则为最终的PixelHard,即PixelHard=PixelHard-PixelEasy II。
(3)从图像集ImageSet中随机选择部分样本图像,初始样本数为ImageNum=20,根据3种不同类型的像素点集合PixelHard、PixelEasy I、PixelEasy II,采取不同的方法计算在不同光源位置下,图像中像素点的RGB值,具体为:
(3.1)在PixelHard中随机选择1个像素点,利用八邻域扩展原理选择周围多个像素点直到满足神经网络训练的最小样本数要求,最小样本数为:
Np=ρNω/ImageNum
其中,ρ是常量,一般ρ>10,本实验取ρ=25,Nω是神经网络中参数的数量,由网络结构确定,ImageNum是选择的样本数。由所有样本所选择的上述像素点以及样本图像构成训练数据,利用Adaboost算法和神经网络进行训练,每个神经网络集成中的基网络个数为MH=5,然后将训练数据集中的像素点从PixelHard中剔除;训练迭代终止条件是最大训练次数100次,最小误差0.0001。并且,Nω=(n1+1)×nh1+(nh1+1)×nh2+(nh2+1)×no,其中,n1、nh1、nh2、no分别表示输入层、第1隐藏层、第2隐藏层和输出层的结点数;ImageNum是选择的样本数。
(3.2)重复(3.1),从PixelHard集合中剔除每次训练过的像素点,保存这些像素点对应的网络集成编号,直到PixelHard集合为空集得到EH个神经网络集成。
(3.3)在PixelEasy I中,使用Bootstrap策略随机选择像素点,利用Bagging算法和人工神经网络进行训练,网络集成中的基网络个数为ME=10,得到1个神经网络集成;训练迭代终止条件是最大训练次数100次,最小均方误差0.0001。
(3.4)根据人眼特性,在灰度等级为255的图像中,0灰度附近人眼不能分辨出灰度级差异小于8的图像,则认为0级灰度和8级灰度是同一个灰度颜色,因此PixelEasy II的RGB值由随机函数随机赋值,取值范围在[0,C]之间,这里C=8/255≈0.03,实际计算中C取0.03。
(4)用步骤(3)训练好的神经网络集成,以及根据人眼特性进行随机化处理等计算方法计算得到图像集ImageSet对应光源位置的新图像集,将其与图像集ImageSet进行比较,相对重构均方差比较公式如下:
其中,Ii(p)表示第j张图像的第i个像素点的实际RGB值,Ii(p)*表示根据步骤(3)输出的第j张图像的第i个像素点的RGB值,m是图像集ImageSet中的样本数。
若相对重构均方误差小于阈值要求ε,表1中场景设定的阈值ε依次为0.02、0.05、0.08、0.09,保存各神经网络集成,执行步骤5;否则增加图像样本数ImageNum=ImageNum+20,返回步骤(3)。
(5)用训练好的神经网络集成和随机化处理方法重构光源在任意位置下的场景,即当在新的光照条件下,用AdaBoost训练的集成网络拟合计算PixelHard集合中像素点的RGB值,用Bagging训练的集成网络拟合计算PixelEasy I集合中像素点的RGB值,用随机化方法计算PixelEasy II集合中像素点的RGB值,从而得到该新光源条件的场景图像。具体方法如下:
(5.1)PixelHard集合的像素点由对应编号的网络集成拟合计算,最终结果是该网络集成中5个网络输出的平均值;其中,每个集成网络输入层的七个节点分别对应新光源坐标[Lnx,Lny]、PixelHard集合的像素点坐标[Ph,Pw]、以及像素点RGB三个通道的颜色均值,该颜色均值取采集图像集ImageSet中对应像素点的均值。
(5.2)PixelEasy I集合中的像素点由集成网络拟合计算,最终结果是该网络集成中10个网络输出的平均值;其中,每个集成网络输入层的七个节点分别对应新光源坐标[Lnx,Lny]、PixelEasy I集合中的像素点坐标[Ph,Pw]、以及像素点RGB三个通道的颜色均值,该颜色均值取采集图像集ImageSet中对应像素点的均值。
(5.3)PixelEasy II集合中的像素点可由随机函数randi随机赋值,取值范围在[0,C]之间,这里C=8/255≈0.03,实际计算中C取0.03。
本发明所用的两个现有技术对比重光照技术分别如下:
Ren等人在“Image Based Relighting Using Neural Networks.ACMTransactions on Graphics,2015.34(4)”中提出的基于图像的重光照技术,简称方法1。
O’Toole等人在“Optical Computing for Fast Light Transport Analysis.ACMTransactions on Graphics,2010.29(6)”中提出的基于图像的重光照技术,简称方法2。
表2是三种方法在四个场景数据库上的性能比较。数据显示在相同数目的图像采样下,本发明方法对场景光照进行重构,获得的相对误差最小,重光照效果优于其他方法。
表2重构相对误差比转
Claims (7)
1.一种基于图像与集成学习的重光照方法,其特征在于,包括以下步骤:
(1)采集三维场景数据,包括获得的图像集ImageSet以及对应的光源坐标集,并对像素点的RGB值进行归一化处理;
(2)设计用于处理图像的神经网络模型;
(3)在图像的像素空间把像素点集合Pixel划分成3类:PixelHard、PixelEasy I、PixelEasyII;
(4)随机选取样本图像,样本数为ImageNum;
(5)根据3种不同类型的像素点集合PixelHard、PixelEasy I、PixelEasy II,采取不同方法计算不同光源条件下像素点的像素值;其中,PixelHard集合用AdaBoost算法和神经网络进行训练,PixelEasy I集合用Bagging算法和神经网络进行训练,PixelEasy II集合的像素点使用随机化方法进行处理;
(6)使用步骤(5)训练好的神经网络集成和随机化处理方法对图像集ImageSet拟合生成新的图像集,并与原图像集ImageSet进行比较,若相对重构均方误差小于设定阈值ε,执行步骤(7);否则增加图像样本数ImageNum,返回步骤(4);
(7)用训练好的神经网络集成,以及随机化处理方法重构任意光源位置下PixelHard、PixelEasy I、PixelEasy II类像素点的像素值,生成新的重光照后的场景图像。
2.根据权利要求1所述的一种基于图像与集成学习的重光照方法,其特征在于,在步骤(2)中,所述的神经网络模型包括1个输入层、2个隐藏层、1个输出层。
3.根据权利要求1所述的一种基于图像与集成学习的重光照方法,其特征在于,在步骤(3)中,通过如下方法把像素点集合Pixel划分成3类:
(3.1)在图像集ImageSet中随机采样d张图像,构成图像子集ImageSubset;
(3.2)在像素点空间以采样率R随机采样像素点,然后从图像子集ImageSubset获取该像素点的数据用神经网络模型进行训练,其中神经网络输入层有7个结点,输入包括光源坐标[Lx,Ly]、像素点坐标[Ph,Pw]、以及像素点在不同图像中的RGB三个通道的颜色均值,输出层有3个结点,对应像素点的RGB三个通道的颜色值;
(3.3)利用(3.2)训练好的人工神经网络对图像子集ImageSubset的像素点进行测试,相对重构平方误差大于设定阈值ε2的像素点为PixelHard;
(3.4)重复(3.1)~(3.3)步骤N次,合并N次得到的PixelHard;
(3.5)计算PixelEasy I=Pixel-PixelHard;
(3.6)将PixelHard中RGB三个通道的颜色值小于阈值C的像素点归为PixelEasy II类;
(3.7)计算PixelHard=PixelHard-PixelEasy II。
4.根据权利要求3所述的一种基于图像与集成学***方误差计算公式为:
其中,Ii(p)表示第j张图像的第i个像素点的实际RGB值,Ii(p)*表示人工神经网络预测输出的第j张图像的第i个像素点的RGB值,d是图像子集ImageSubset中的样本数。
5.根据权利要求1所述的一种基于图像与集成学习的重光照方法,其特征在于,在步骤(5)中,从图像集ImageSet中随机选择ImageNum张初始样本图像,对3种不同类型的像素点集合PixelHard、PixelEasy I、PixelEasy II,采取如下方法计算在不同光源位置下图像中像素点的RGB值:
(5.1)在PixelHard中随机选择1个像素点,选择该像素点周围多个像素点直到满足神经网络训练的最小样本数要求,由所选的上述像素点以及选择的样本图像构成训练数据,利用AdaBoost算法和神经网络进行训练,网络集成中的基网络个数为MH,然后将训练数据集中的像素点从PixelHard中剔除,并记录训练过程中PixelHard像素点对应的网络集成编号;
(5.2)重复(5.1),直至PixelHard集合为空集得到EH个神经网络集成;
(5.3)在PixelEasy I中用Bootstrap策略随机选择像素点,利用Bagging算法和神经网络模型进行训练,网络集成中的基网络个数为ME,得到1个神经网络集成;
(5.4)PixelEasy II的RGB值由随机函数随机赋值,取值范围在[0,C]之间。
6.根据权利要求5所述的一种基于图像与集成学习的重光照方法,其特征在于,在步骤(5.1)中,所述最小样本数为:
Np=ρNω/ImageNum
其中,ρ是常量,Nω是神经网络中参数的数量,Nω=(n1+1)×nh1+(nh1+1)×nh2+(nh2+1)×no,n1、nh1、nh2、no分别表示输入层、第1隐藏层、第2隐藏层和输出层的结点数,ImageNum是选择的样本数。
7.根据权利要求1所述的一种基于图像与集成学习的重光照方法,其特征在于,步骤(6)中像素点的相对重构均方误差计算公式为:
其中,Ii(p)表示第j张图像的第i个像素点的实际RGB值,Ii(p)*表示人工神经网络预测输出的第j张图像的第i个像素点的RGB值,m是图像集ImageSet中的样本数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810390285.2A CN108765540B (zh) | 2018-04-26 | 2018-04-26 | 一种基于图像与集成学习的重光照方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810390285.2A CN108765540B (zh) | 2018-04-26 | 2018-04-26 | 一种基于图像与集成学习的重光照方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108765540A true CN108765540A (zh) | 2018-11-06 |
CN108765540B CN108765540B (zh) | 2022-04-12 |
Family
ID=64012423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810390285.2A Active CN108765540B (zh) | 2018-04-26 | 2018-04-26 | 一种基于图像与集成学习的重光照方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108765540B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113724154A (zh) * | 2021-08-03 | 2021-11-30 | 哈尔滨工程大学 | 一种基于神经网络补偿模板的图像传感器串扰补偿方法 |
US20230143816A1 (en) * | 2021-11-10 | 2023-05-11 | Ford Global Technologies, Llc | Image relighting |
US11756261B2 (en) | 2021-11-10 | 2023-09-12 | Ford Global Technologies, Llc | Single-perspective image relighting |
CN117336453A (zh) * | 2023-11-27 | 2024-01-02 | 湖南苏科智能科技有限公司 | 一种安检图像转换方法、***、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1498850A2 (en) * | 2003-07-14 | 2005-01-19 | Samsung Electronics Co., Ltd. | Image-based rendering and editing method and apparatus |
CN106570928A (zh) * | 2016-11-14 | 2017-04-19 | 河海大学 | 一种基于图像的重光照方法 |
CN106952239A (zh) * | 2017-03-28 | 2017-07-14 | 厦门幻世网络科技有限公司 | 图像生成方法和装置 |
US20170357720A1 (en) * | 2016-06-10 | 2017-12-14 | Disney Enterprises, Inc. | Joint heterogeneous language-vision embeddings for video tagging and search |
-
2018
- 2018-04-26 CN CN201810390285.2A patent/CN108765540B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1498850A2 (en) * | 2003-07-14 | 2005-01-19 | Samsung Electronics Co., Ltd. | Image-based rendering and editing method and apparatus |
US20170357720A1 (en) * | 2016-06-10 | 2017-12-14 | Disney Enterprises, Inc. | Joint heterogeneous language-vision embeddings for video tagging and search |
CN106570928A (zh) * | 2016-11-14 | 2017-04-19 | 河海大学 | 一种基于图像的重光照方法 |
CN106952239A (zh) * | 2017-03-28 | 2017-07-14 | 厦门幻世网络科技有限公司 | 图像生成方法和装置 |
Non-Patent Citations (2)
Title |
---|
HARA 等: "Determining reflectance and light position from a single image without distant illumination assumption", 《 PROCEEDINGS NINTH IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 * |
王晨昊: "光学遥感图像重光照方法研究", 《测绘通报》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113724154A (zh) * | 2021-08-03 | 2021-11-30 | 哈尔滨工程大学 | 一种基于神经网络补偿模板的图像传感器串扰补偿方法 |
CN113724154B (zh) * | 2021-08-03 | 2023-10-17 | 哈尔滨工程大学 | 一种基于神经网络补偿模板的图像传感器串扰补偿方法 |
US20230143816A1 (en) * | 2021-11-10 | 2023-05-11 | Ford Global Technologies, Llc | Image relighting |
US11756261B2 (en) | 2021-11-10 | 2023-09-12 | Ford Global Technologies, Llc | Single-perspective image relighting |
US11776200B2 (en) * | 2021-11-10 | 2023-10-03 | Ford Global Technologies, Llc | Image relighting |
CN117336453A (zh) * | 2023-11-27 | 2024-01-02 | 湖南苏科智能科技有限公司 | 一种安检图像转换方法、***、设备及存储介质 |
CN117336453B (zh) * | 2023-11-27 | 2024-01-30 | 湖南苏科智能科技有限公司 | 一种安检图像转换方法、***、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108765540B (zh) | 2022-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sowmya et al. | Colour image segmentation using fuzzy clustering techniques and competitive neural network | |
CN108765540A (zh) | 一种基于图像与集成学习的重光照方法 | |
CN109815893B (zh) | 基于循环生成对抗网络的彩色人脸图像光照域归一化的方法 | |
CN107563428B (zh) | 基于生成对抗网络的极化sar图像分类方法 | |
CN110827213A (zh) | 一种基于生成式对抗网络的超分辨率图像修复方法 | |
Al Bashish et al. | A framework for detection and classification of plant leaf and stem diseases | |
CN108416307A (zh) | 一种航拍图像路面裂缝检测方法、装置及设备 | |
CN109584251A (zh) | 一种基于单目标区域分割的舌体图像分割方法 | |
CN106780546B (zh) | 基于卷积神经网络的运动模糊编码点的身份识别方法 | |
Bielecka | A dasymetric population density map of Poland | |
CN110309780A (zh) | 基于bfd-iga-svm模型的高分辨率影像房屋信息快速监督识别 | |
CN105469098A (zh) | 一种自适应特征权重合成的lidar数据地物精确分类方法 | |
CN101276420A (zh) | 一种融合光谱信息和多点模拟空间信息的分类方法 | |
CN108764250A (zh) | 一种运用卷积神经网络提取本质图像的方法 | |
CN111080513A (zh) | 一种基于注意力机制的人脸图像超分辨率方法 | |
Myint et al. | Urban textural analysis from remote sensor data: Lacunarity measurements based on the differential box counting method | |
CN105138966B (zh) | 基于快速密度峰值聚类的极化sar图像分类方法 | |
CN104616294A (zh) | 一种基于视觉显著性的色调映射图像质量评价方法 | |
CN109949200A (zh) | 基于滤波器子集选择和cnn的隐写分析框架构建方法 | |
Makido et al. | Assessing alternatives for modeling the spatial distribution of multiple land-cover classes at sub-pixel scales | |
CN106097290A (zh) | 基于nmf图像融合的sar图像变化检测方法 | |
CN113902613A (zh) | 一种基于三支聚类语义分割的图像风格迁移***及其方法 | |
CN112925870A (zh) | 一种人口空间化方法及*** | |
CN106530383B (zh) | 基于Hermite插值神经网络回归模型的人脸面部渲染方法 | |
CN117115669B (zh) | 双条件质量约束的对象级地物样本自适应生成方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |