CN104200445B - 一种最优对比度和最小信息损失的图像去雾方法 - Google Patents
一种最优对比度和最小信息损失的图像去雾方法 Download PDFInfo
- Publication number
- CN104200445B CN104200445B CN201410504518.9A CN201410504518A CN104200445B CN 104200445 B CN104200445 B CN 104200445B CN 201410504518 A CN201410504518 A CN 201410504518A CN 104200445 B CN104200445 B CN 104200445B
- Authority
- CN
- China
- Prior art keywords
- image
- spreading rate
- sky
- sky areas
- formula
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种最优对比度和最小信息损失的图像去雾方法,其特征在于该方法利用利用高斯混合模型,四分树,最大化对比度和最小信息损失等函数实现了图像去雾方法。首先,基于高斯混合模型和期望值最大算法把图像分割成天空区域和非天空区域两类;其次,从图像的天空区域采用四分树迭代方法估计大气散射模型的大气光照强度;再次,对图像的非天空区域采用网格划分的方法分块,利用最大化对比度和最小信息损失的函数计算每个网格单元的大气光照模型的传播率;基于常系数和非天空区域的最优传播率估计天空区域的传播率;最后,合并输出天空区域和非天空区域的恢复图像。
Description
技术领域
本发明涉及计算机图像处理,特别涉及一种最优对比度和最小化信息损失的图像去雾方法。
背景技术
自2012年以来,全国74个重点监测城市近半数受到了严重雾霾污染,雾霾笼罩在我们的上空,遮蔽了视线,相机和视频监控等成像***所捕获的图像色彩暗淡、对比度变低,图像质量的严重退化,直接影响了图像的视觉效果,严重影响它们的应用范围,在很多应用场合需要对受到雾霾污染的图像进行去雾处理。
大气介质主要由空气分子、水汽和气溶胶组成,空气中所含气溶胶粒子是雾霾形成的主要因素,也是图像质量产生退化的根本原因。雾霾天气下,物体表面反射的光在到达成像设备的过程中会受到空气悬浮颗粒的影响,从而使得设备无法获得清晰图片。气溶胶粒子对光线有散射作用,散射损失使“透射光”强度衰减,造成了图像的对比度下降。
图像去雾研究最早可追溯到1992年L.Bissonnette等人针对雾和雨天气的图像去雾。图像去雾技术经历了二十多年的发展,取得了较大的进展,不断有新思想和新方法产生并用于实际工程中,主要有基于模型和基于非模型两个方向。
基于非模型的方法考虑图像呈现的低亮度和低对比度的特征,以常规的图像增强方法作为基本的处理手段。基于非模型的方法不需要分析图像退化的原因,只按特定的需要突出图像中感兴趣的部分信息,同时将不需要的信息进行衰减或去除。主要包括空间域和频率域两类方法,典型的方法包括直方图均衡化算法、曲波变换、同态滤波算法、基于大气调制传递函数、小波方法及Retinex算法等。基于非模型的去雾方法只是增强图像的对比度,没有考虑雾天图像模糊机理和退化原因,没有考虑雾霾浓度与目标景深成正比,实际上只是在一定程度上改善了图像的视觉效果,实质上并不是真正的图像去雾。
基于模型的去雾方法通过分析图像退化原因,对大气散射建模,实现图像的恢复。基于模型的方法分为三类:(1)基于偏微分方程的复原;(2)基于深度关系的复原;(3)基于先验信息的复原。
基于偏微分方程的图像去雾方法比较适合图像的色彩清晰度和对比度有较高要求的场合。借助大气散射模型,建立户外图像全局去雾和局部去雾的能量最优化模型,推导相应的包含图像梯度和场景景深的偏微分方程。但此方法有一个不足之处在于图像深度信息的获取所要求的渐进修改大气散射系数都需要通过用户的交互操作。
基于深度关系的方法利用深度关系图对图像进行去雾处理。通过采集不同天气条件下对应的场景图像计算出背景图像的深度图,再结合相关的启发式信息得到前景目标对象的深度。尽管这些方法的去雾效果较为令人满意,但其需要借助参考图像的要求过于苛刻,在实际应用中难以实现。
基于先验信息的复原方法,需要多幅图像或更多辅助信息。根据场景深度信息是否已知可分为两类。一类是假设场景深度信息已知的方法,通过复原场景对比度,使用一个简单的高斯函数对场景中的光路进行预测,但此方法需要雷达装置获取场景深度。另一类是用辅助信息提取场景深度。利用二值散射模型,不同散射光的偏振特性和交互式景深估计等不同角度提取场景深度信息。但偏振光的方法只能应用于大气散射程度较弱的薄雾,而不适于大雾天气。有些方法则需要用到不同天气状态下相同景物的图像或用户的交互,很难满足对变换场景的实际应用需求。
依据深度信息的去雾算法,已经发展到实现单幅图像去雾的程度。Tan提出了一种扩大带雾图像的局部对比度的单幅图像去雾方法,但存在颜色过饱和,导致光晕伪影现象。Fattal提出了一种基于独立成份分析的方法,通过假定透过率和表面投影在局部区域是不相关的,估算景物的反射率,推断景物光在空气中传播时的透过率,最后实现场景的恢复,但此方法只适合薄雾图像。He提出了基于暗原色先验理论的经典单幅图像去雾,但此方法不适合目标亮度和大气光相似的图像。
现有的这些方法比较适合特殊的图像,都有各自的优点。但是,部分去雾方法表现为对比度过度拉伸,或不能正确估计景深导致不能去除雾霾较重的图像,或只考虑对比度最大化而没有丢失了原图的重要信息,或图像的天空部分颜色被扭曲。
发明内容
为解决上述技术问题,本发明提出一种最优对比度和最小化信息损失的图像去雾方法。
为实现上述发明目的,本发明提出一种基于最优对比度和最小化信息损失的图像去雾方法,其特征在于该方法利用利用高斯混合模型,四分树,最大化对比度和最小信息损失等函数实现了图像去雾方法。该方法的具体步骤包括:
步骤1,建立基于McCartney大气散射模型的雾霾图像模型;
步骤2,利用高斯混合模型和期望值最大算法把图像分割成天空区域和非天空区域两类;
步骤3,基于四分树迭代的方法估计图像天空区域的大气光照强度;
步骤4,基于网格划分的方法分块,基于最优对比度和最小信息损失准则估计的图像非天空区域的每个网格单元的传播率;
步骤5,采用与图像非天空区域的平均传播率的常比例系数方法估计天空区域的传播率;
步骤6,根据大气散射模型,利用估计的模型参数,合并输出天空和非天空区域的恢复图像。
所述步骤2中,利用高斯混合模型和期望值最大算法把图像分割成天空区域和非天空区域两类的具体步骤包括:
步骤21):采用模糊C均值算法(FCM)对雾霾图像I初始划分为2个聚类,并初始化权重,均值和方差等参数;
步骤22):计算每个像素点分别属于2个模型的后验概率,并根据后验概率更新每一个模型的权重,均值和协方差;
步骤23):用更新后的权重,均值和协方差更新后验概率,重新把每个像素划分到后验概率最大的类中,并计算图像的对数似然函数。
(2-4)如果对数似然函数收敛,则停止迭代,否则转入步骤22)。
(2-5利用贝叶斯准则把像素点划分到后验概率最大的模型。在分割后的2类结果中,选择两个模型中均值较大的一类为天空图像,另一部分为非天空图像。
本发明的优点在于提出了一种基于最优对比度和最小化信息损失的图像去雾方法,通过高斯混合模型和期望值最大算法把图像分割成天空区域和非天空区域,而不同区域采用不同的大气散射光照模型参数估计方法,具有更好准确性和更快的速度。基于四分树迭代的方法估计图像天空区域的大气光照强度,具有更好的局部性和更快的速度等优点。对于非天空区域的传播率估计,采用网格划分的方法分块,模型参数具有更好的局部性。基于最优对比度和最小信息损失准则估计的图像非天空区域传播率,在考虑对比度最大化的同时,信息损失也要最小,尽量保持原图的边缘和纹理细节。对于天空区域的传播率估计,采用与非天空区域的平均传播率的常系数比例法,避免天空部分的颜色被扭曲或过饱和,也可以实现与非天空区域的自然过渡。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述和/或其他方面的优点将会变得更加清楚。
图1为本发明流程图。
具体实施方式
本方法分为天空和非天空区域的分割,基于对比度最大化和信息损失最小化的非天空区域去雾,基于常比例系数方法估计天空区域去雾三个部分,具体的工作流程如图1所示。
步骤1,建立基于McCartney大气散射模型的雾霾图像模型
假设在雾霾条件下的图像光照模型为,雾霾图像等于原始目标图像经过雾霾透射后的成像加上无穷远处的大气光照强度被雾霾遮档后的成像叠加
Ic(p)=t(p)Jc(p)+(1-t(p))Ac (1)
其中,Jc(p)和Ic(p)分别表示原始图像和观测图像的像素点p,c∈{r,g,b)表示红、绿、蓝三种颜色通道。Ac表示在沿着观测者视线方向无穷远处的光照强度,通常假设为全局常量,与局部位置p无关。t(p)∈[0,1]表示沿光线的传播率,是由摄像头与场景点的距离决定,反映了光线穿透雾的能力。值越大,表明从场景表面反射的光线,穿透雾到达观察者视场的数量越多,t(p)与场景深度成反比,可以由下式计算:
t(p)=e-ρd(p) (2)
其中ρ为全散射系数,表征了单位体积的颗粒对入射光线的散射能力,其值越大,表明入射光线发生散射的程度越严重,通常假设为1。d(p)表示摄像头到像素点p的景深。
步骤2,利用高斯混合模型和期望值最大算法把图像分割成天空区域和非天空区域两类
大气光照强度A通常用图像中最大亮点的天空颜色表示,因为雾霾等天气会导致图像的天空环境部分比较亮,而背景相对于天空的亮度都比较暗。因此,我们用高斯混合模型拟合雾霾图像的内容,混合成分为较亮的天空部分和其他目标和背景两部分。然后,利用期望值最大算法求解高斯混合模型的参数,并用贝叶斯准则分割出天空图像。
设雾霾图像I的N个像素点{p1,p2,...,pN}是独立同分布,其中像素点pi(1≤i≤N)对应的红、绿和蓝颜色值分别为Ir(pi)、Ig(pi)和Ib(pi),即(pi=(Ir(pi),Ig(pi),Ib(pi))T),雾霾图像灰度信息由较暗和较亮的两个高斯密度函数混合组成,则像素点pi的混合概率密度函数P表示为:
其中αr代表第r个密度分量在混合密度中的权重,满足αr≥0且第r个密度分量的参数θr={μr,σr},μr,σr分别表示均值和方差,fr(pi,θr)为第r个高斯密度函数分量。
基于最大期望值(Expectation Maximum)估计混合模型的参数步骤如下:
(2-1)采用模糊C均值算法(FCM)对雾霾图像I初始划分为2个聚类,并初始化权重,均值和方差等参数。
(2-2)计算像素点pi分别属于模型r(r=1,2)的后验概率并根据后验概率更新每一个模型r的权重,均值和协方差:
(2-3)用这些权重,均值和协方差更新后验概率,重新把pi划分到后验概率最大的类中,并计算图像的对数似然函数。
(2-4)如果对数似然函数收敛,则停止迭代,否则转入(2-2)。
(2-5)利用贝叶斯准则把像素点pi划分到后验概率最大的模型。在分割后的2类结果中,选择两个模型中均值μr较大的一类为天空图像。
步骤3,基于四分树迭代的图像天空区域大气光照强度估计:
对分割后的天空图像进行迭代四分树定位和估计大气光照强度。对天空图像按照高度和宽度的二分之一处的位置对天空图像均匀划分为四块,然后计算每个分块的平局亮度值最大区域作为下一次划分的分块,迭代划分,直到分块小于指定的阈值(一般取值5x5或7x7)结束。以最后分块颜色的平均值作为大气光照强度。
步骤4,基于网格划分的方法分块,基于最优对比度和最小信息损失准则估计的图像非天空区域的每个网格单元的传播率
假设天空区域的传播率为t1,非天空区域的传播率为t2。且假设景深具有局部相似性,把图像按照16×16大小进行网格划分,假设每一个网格的传输率相同。根据雾霾图像模型的公式(1),当传播率固定时,原始图像Jc(p)的非天空区域用下式估计:
恢复原始图像只依赖于传播率t2(p)。因为雾霾图像的对比度比较低,我们将依据最大化每一个网格的对比度和最小化信息损失的准则估计传播率。
原始图像每个颜色通道Jc(p)满足大于等于0且小于等于255的条件,根据公式(7),可得
求解公式(8),传播率t2应该满足下式:
(4-1)基于最大化对比度的天空区域传播率估计
计算网格区域中每一个点与该点所在网格的均值之差的平方和为对比度
其中为Ic(p)所在网格B的均值,NB为网格B的像素点个数。根据公式(10)可知,传播率t2与对比度成反比。因此,传播率t2满足公式(9)的约束下,为了最大化对比度,非天空区域的传播率取最小值:
(4-2)基于信息损失最小的天空区域传播率优化
最优对比度会导致图像的最小部分的灰度值(0,αc)和最大部分的灰度值(βc,255)(c∈{r,g,b))对应的信息丢失,αc和βc表示观测图像Ic截断的区域的下溢和上溢参数值。下溢参数αc对应原始图像Jc的灰度值0,上溢参数βc对应原始图像Jc的灰度值255,分别代入公式(7),可得:
αc=(1-t2)Ac (12)
βc=255t2+(1-t2)Ac (13)
计算原始图像J(p)在最大对比度变化之后的下溢和上溢区域面积作为信息损失函数。计算基于直方图的信息损失函数,可得:
其中hc(i)是像素i在颜色通道c的直方图,Ac为颜色通道c的大气光照强度。为了同时满足最大化对比度和最小化损失函数的要求,根据拉格朗日乘数函数,转化为下面函数的极小值问题。
E(t2,λ)=-CMSE+λEloss (15)
λ为控制对比度和信息损失的相对重要性权重。分别对公式(15)的t2和λ求变导,建立方程组
求解公式(16)的t2为非天空区域的最优传播率。
步骤5,基于常系数与图像非天空区域的平均传播率估计天空区域的传播率
因为图像中的天空区域相对于非天空区域的景深明显要大,其对应的传播率应该较小。很多去雾方法用非天空区域传播率估计方法去估计天空区域的传播率,导致天空区域的噪声和颜色扭曲。根据公式(2),可以天空区域的点p1传播率t1和非天空区域的点p2传播率t2的比例系数:
点p1的景深d(p1),点p2的景深d(p2),两者的距离之差为d(p2)-d(p1)。当天空区域与非天空区域像素点景深距离之差为1,2,5,10,15,20时,对应的传播率比例系数b如表1所示。依据表1可知道,当距离之差越大,系数越小。在雾霾天气情况下,一般能见度比较小,天空区域与非天空区域像素点景深相对比较小,系数相对较大。
表1天空和非天空像素的距离差与传播率比例
d(p2)-d(p1) | b |
-1 | 0.36787944117144 |
-2 | 0.13533528323661 |
-5 | 0.00673794699909 |
-10 | 0.00004539992976 |
-15 | 0.00000030590232 |
-20 | 0.00000000206115 |
假设图像中天空区域的传播率都相同,用非天空区域所有网格的传播率均值乘以较小的相对系数计算天空区域的传播率:
步骤6,根据大气散射模型,利用估计的模型参数,合并输出天空和非天空区域的恢复图像。
根据公式(16)求解的非天空区域的最优传播率t2和第三步估计的大气光照强度Ac带入公式(1),恢复图像的非天空区域。根据公式(18)的天空区域的最优传播率t1和第三步估计的大气光照强度Ac,带入公式(1),恢复图像的天空区域。再把两部分内容合并到一幅图像输出。
本发明的创新点包括:
(1)天空区域包含了图像采集时的雾霾程度和天气条件等先验知识,且二者的景深相差比较大,本发明通过高斯混合模型和期望最大值的方法把雾霾图像分割为天空区域和非天空区域,对分割后的区域采用不同的策略恢复图像具有更好的针对性和适应性。
(2)雾霾图像最大的问题在于图像对比度比较低,改变对比度会导致信息损失,因此本发明采用平衡对比度和信息损失的方法,既可以改善图像的对比度的图像整体质量,还能保留图像的纹理和边缘等局部细节。
天空区域与非天空区域既有区别也有联系,区别在于天空区域的不同网格具有相近的景深,联系在于都在相同的外界条件下获取的。本发明利用非天空区域的平均传播率,乘上不同雾霾天下的比例参数,即不需要对天空区域的不同网格分别估计,又根据非天空区域的平均传播率实现了不同图像的自适应。
本发明提供了一种最优对比度和最小信息损失的图像去雾方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。
Claims (1)
1.一种最优对比度和最小信息损失的图像去雾方法,其特征在于,包括如下步骤:
步骤1,建立基于McCartney大气散射模型的雾霾图像模型;
步骤2,利用高斯混合模型和期望值最大算法把图像分割成天空区域和非天空区域两类;
步骤3,基于四分树迭代的方法估计图像天空区域的大气光照强度;
步骤4,基于网格划分的方法分块,基于最优对比度和最小信息损失准则估计的图像非天空区域的每个网格单元的传播率;
步骤5,采用与图像非天空区域的平均传播率的常比例系数方法估计天空区域的传播率;
步骤6,根据大气散射模型,利用估计的模型参数,合并输出天空和非天空区域的恢复图像;
在雾霾条件下的图像光照模型为:
Ic(p)=t(p)Jc(p)+(1-t(p))Ac,公式(1)
其中,Jc(p)和Ic(p)分别表示原始图像和观测图像的像素点p,c∈{r,g,b}表示红、绿、蓝三种颜色通道;Ac表示在沿着观测者视线方向无穷远处的大气光照强度,
t(p)∈[0,1]表示沿光线的传播率,t(p)与场景深度成反比,计算公式为:
t(p)=e-ρd(p),
其中ρ为全散射系数,d(p)表示摄像头到像素点p的景深;
所述步骤2中,
设雾霾图像I的N个像素点{p1,p2,...,pN}是独立同分布,其中像素点pi对应的红、绿和蓝颜色值分别为Ir(pi)、Ig(pi)和Ib(pi),1≤i≤N,即(pi=(Ir(pi),Ig(pi),Ib(pi))T);雾霾图像灰度信息由较暗和较亮的两个高斯密度函数混合组成,则像素点pi的混合概率密度函数P表示为:
其中αr代表第r个密度分量在混合密度中的权重,满足αr≥0且θr={μr,σr}是第r个密度分量参数,其中μr,σr分别表示均值和方差,fr(pi,θr)为第r个高斯密度函数分量;
包括如下步骤:
步骤21:采用模糊C均值算法对雾霾图像I初始划分为两个聚类,并初始化权重,均值和方差;
步骤22:计算每个像素点分别属于两个模型的后验概率,并根据后验概率更新每一个模型的权重,均值和协方差;
步骤23:用更新后的权重,均值和协方差更新后验概率,重新把每个像素划分到后验概率最大的类中,并计算图像的对数似然函数;
步骤24:如果对数似然函数收敛,则停止迭代进行步骤25,否则返回步骤22;
步骤25:利用贝叶斯准则把像素点划分到后验概率最大的模型,在分割后的两类结果中,选择两个模型中均值较大的一类为天空图像,另一部分为非天空图像;
步骤3中,对分割后的天空图像进行迭代四分树定位和估计大气光照强度;对天空图像按照高度和宽度的二分之一处的位置对天空图像均匀划分为四块,然后计算每个分块的平局亮度值最大区域作为下一次划分的分块,迭代划分,直到分块小于指定的阈值结束;以最后分块颜色的平均值作为大气光照强度;
步骤4包括:
假设天空区域的传播率为t1,非天空区域的传播率为t2,且假设景深具有局部相似性,把图像按照16×16大小进行网格划分,假设每一个网格的传输率相同,根据雾霾图像模型的公式(1),当传播率固定时,原始图像Jc(p)的非天空区域用下式计算:
恢复原始图像依赖于传播率t2,依据最大化每一个网格的对比度和最小化信息损失的准则估计传播率;
在原始图像Jc(p)的每个颜色通道满足大于等于0且小于等于255的条件下,根据公式(7),得到:
求解公式(8),传播率t2满足下式:
步骤4-1,基于最大化对比度的天空区域传播率计算:
计算网格区域中每一个点与该点所在网格的均值之差的平方和为对比度CMSE:
其中为Ic(p)所在网格B的均值,NB为网格B的像素点个数,根据公式(10)传播率t2与对比度成反比;在传播率t2满足公式(9)的约束下,非天空区域的传播率取最小值:
步骤4-2,基于信息损失最小的天空区域传播率优化:
最优对比度会导致图像的最小部分的灰度值(0,αc)和最大部分的灰度值(βc,255)对应的信息丢失,c∈{r,g,b},αc和βc表示观测图像Ic截断的区域的下溢参数和上溢参数值,下溢参数αc对应原始图像Jc的灰度值0,上溢参数βc对应原始图像Jc的灰度值255,分别代入公式(7),得到:
αc=(1-t2)Ac 公式(12),
βc=255t2+(1-t2)Ac 公式(13),
计算原始图像J(p)在最大对比度变化之后的下溢区域面积和上溢区域面积作为信息损失函数,计算基于直方图的信息损失函数Eloss,得到:
其中hc(i)是像素i在颜色通道c的直方图,Ac为颜色通道c的大气光照强度,为了同时满足最大化对比度和最小化损失函数的要求,根据拉格朗日乘数函数,转化为下面函数E(t2,λ)的极小值问题:
E(t2,λ)=-CMSE+λEloss (15)
λ为控制对比度和信息损失的相对重要性权重,分别对公式(15)的t2和λ求变导,建立方程组
求解公式(16)的t2为非天空区域的最优传播率;
根据公式(2),得到天空区域的点p1传播率t1和非天空区域的点p2传播率t2的比例系数:
点p1的景深d(p1),点p2的景深d(p2),两者的距离之差为d(p2)-d(p1),当天空区域与非天空区域像素点景深距离之差为1,2,5,10,15,20时,对应的传播率比例系数b为:
d(p2)-d(p1)为-1,b为0.36787944117144,
d(p2)-d(p1)为-2,b为0.13533528323661,
d(p2)-d(p1)为-5,b为0.00673794699909,
d(p2)-d(p1)为-10,b为0.00004539992976,
d(p2)-d(p1)为-15,b为0.00000030590232,
d(p2)-d(p1)为-20,b为0.00000000206115,
假设图像中天空区域的传播率都相同,用非天空区域所有网格的传播率均值乘以对应的传播率比例系数b计算天空区域的传播率:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410504518.9A CN104200445B (zh) | 2014-09-26 | 2014-09-26 | 一种最优对比度和最小信息损失的图像去雾方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410504518.9A CN104200445B (zh) | 2014-09-26 | 2014-09-26 | 一种最优对比度和最小信息损失的图像去雾方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104200445A CN104200445A (zh) | 2014-12-10 |
CN104200445B true CN104200445B (zh) | 2017-04-26 |
Family
ID=52085731
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410504518.9A Active CN104200445B (zh) | 2014-09-26 | 2014-09-26 | 一种最优对比度和最小信息损失的图像去雾方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104200445B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108596857A (zh) * | 2018-05-09 | 2018-09-28 | 西安邮电大学 | 用于智能驾驶的单幅图像去雾方法 |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104978719A (zh) * | 2015-06-16 | 2015-10-14 | 浙江工业大学 | 基于时空相关性的自适应交通视频实时去雾方法 |
US9792522B2 (en) * | 2015-12-01 | 2017-10-17 | Bloomsky, Inc. | Weather information extraction using sequential images |
CN105389784A (zh) * | 2015-12-07 | 2016-03-09 | 魅族科技(中国)有限公司 | 一种图像处理的方法及终端 |
CN105513024A (zh) * | 2015-12-07 | 2016-04-20 | 魅族科技(中国)有限公司 | 一种图像处理的方法及终端 |
CN105469372A (zh) * | 2015-12-30 | 2016-04-06 | 广西师范大学 | 一种基于均值滤波的雾天图像清晰化处理方法 |
CN106204494B (zh) * | 2016-07-15 | 2019-11-22 | 潍坊学院 | 一种包含大面积天空区域的图像去雾方法及*** |
CN106954022B (zh) * | 2017-03-08 | 2019-10-25 | Oppo广东移动通信有限公司 | 图像处理方法、装置及终端 |
CN107845078B (zh) * | 2017-11-07 | 2020-04-14 | 北京航空航天大学 | 一种元数据辅助的无人机图像多线程清晰化方法 |
CN109685735B (zh) * | 2018-12-21 | 2020-08-11 | 温州大学 | 基于雾层平滑先验的单张图片去雾方法 |
CN109726686B (zh) * | 2018-12-29 | 2021-03-30 | 西安天和防务技术股份有限公司 | 场景识别方法、装置、计算机设备和存储介质 |
CN110717556B (zh) * | 2019-09-25 | 2023-04-07 | 南京旷云科技有限公司 | 一种用于目标识别的后验概率调整方法及装置 |
CN111047540B (zh) * | 2019-12-27 | 2023-07-28 | 嘉应学院 | 一种基于天空分割的图像去雾方法及其应用*** |
CN111553405B (zh) * | 2020-04-24 | 2023-08-18 | 青岛杰瑞工控技术有限公司 | 一种基于像素密度k均值聚类团雾识别算法 |
CN112634171B (zh) * | 2020-12-31 | 2023-09-29 | 上海海事大学 | 基于贝叶斯卷积神经网络的图像去雾方法及存储介质 |
WO2024073033A1 (en) * | 2022-09-30 | 2024-04-04 | Tesla, Inc. | Labeling training data using high-volume navigation data |
CN116337088B (zh) * | 2023-05-30 | 2023-08-11 | 中国人民解放军国防科技大学 | 基于仿生偏振视觉的雾天场景相对运动估计方法和装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102768760A (zh) * | 2012-07-04 | 2012-11-07 | 电子科技大学 | 一种基于图像纹理的图像快速去雾方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007083307A2 (en) * | 2006-01-18 | 2007-07-26 | Technion - Research & Development Foundation Ltd. | System and method for correcting outdoor images for atmospheric haze distortion |
US8290294B2 (en) * | 2008-09-16 | 2012-10-16 | Microsoft Corporation | Dehazing an image using a three-dimensional reference model |
-
2014
- 2014-09-26 CN CN201410504518.9A patent/CN104200445B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102768760A (zh) * | 2012-07-04 | 2012-11-07 | 电子科技大学 | 一种基于图像纹理的图像快速去雾方法 |
Non-Patent Citations (5)
Title |
---|
Single image dehazing;Fatal R;《ACM Transactions on Graphics》;20081231;第3卷(第27期);第1-9页 * |
Using dark channel prior to quickly remove haze from a signal image;YANG Jing-yu等;《Geomatics and Information Science of Wuhan University》;20101231;第11卷(第35期);第1292-1295页 * |
基于自适应EM算法的光学图像海域分割;***等;《信号与信息处理》;20111231;第41卷(第4期);第20-21页第1节 * |
暗原色先验图像去雾算法研究;嵇晓强等;《光电子 激光》;20110630;第22卷(第6期);第927-928页第2节,第3节,第927-928页第3.4节 * |
结合精确大气散射图计算的图像快速去雾;甘佳佳等;《中国图象图形学报》;20130531;第18卷(第5期);第584页第1节,第585页第2节 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108596857A (zh) * | 2018-05-09 | 2018-09-28 | 西安邮电大学 | 用于智能驾驶的单幅图像去雾方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104200445A (zh) | 2014-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104200445B (zh) | 一种最优对比度和最小信息损失的图像去雾方法 | |
US10607089B2 (en) | Re-identifying an object in a test image | |
CN103198459B (zh) | 雾霾图像快速去雾方法 | |
CN102750674B (zh) | 基于自适应容差的视频图像去雾方法 | |
CN110378849B (zh) | 基于深度残差网络的图像去雾去雨方法 | |
CN108596853A (zh) | 基于背景光统计模型和传输地图优化的水下图像增强方法 | |
CN106548461B (zh) | 图像去雾方法 | |
CN103268470B (zh) | 基于任意场景的视频对象实时统计方法 | |
CN106709901B (zh) | 基于深度先验的模拟雾图生成方法 | |
CN110288539B (zh) | 一种结合颜色空间移动与暗通道先验的水下图像清晰方法 | |
CN104867121B (zh) | 基于暗原色先验和Retinex理论的图像快速去雾法 | |
CN103985091A (zh) | 基于亮度暗先验与双边滤波的单幅图像去雾方法 | |
KR101582779B1 (ko) | 영상의 파장 적응적 안개 제거 장치 및 방법 | |
CN103578083A (zh) | 基于联合均值漂移的单幅图像去雾方法 | |
CN104123734A (zh) | 基于可见光和红外检测结果融合的运动目标检测方法 | |
CN106296618A (zh) | 一种基于高斯函数加权直方图规定化的彩色图像去雾方法 | |
CN105447833A (zh) | 基于偏振的雾天图像重构方法 | |
CN102646267B (zh) | 退化图像复原方法及*** | |
CN108257101A (zh) | 一种基于最优复原参数的水下图像增强方法 | |
CN104346783A (zh) | 一种图像去雾的处理方法及装置 | |
CN106780390A (zh) | 基于边缘分类加权融合的单幅图像去雾方法 | |
CN112070691A (zh) | 一种基于U-Net的图像去雾方法 | |
CN104915933A (zh) | 一种基于apso-bp耦合算法的雾天图像增强方法 | |
CN105913391B (zh) | 一种基于形状可变形态学重构的去雾方法 | |
CN107085830B (zh) | 基于传播滤波的单幅图像去雾方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220317 Address after: 215500 5th floor, building 4, 68 Lianfeng Road, Changfu street, Changshu City, Suzhou City, Jiangsu Province Patentee after: Changshu intellectual property operation center Co.,Ltd. Address before: 215500 Changshou City South Three Ring Road No. 99, Suzhou, Jiangsu Patentee before: CHANGSHU INSTITUTE OF TECHNOLOGY |
|
TR01 | Transfer of patent right |