CN107169942A - 一种基于鱼类视网膜机制的水下图像增强方法 - Google Patents

一种基于鱼类视网膜机制的水下图像增强方法 Download PDF

Info

Publication number
CN107169942A
CN107169942A CN201710573257.XA CN201710573257A CN107169942A CN 107169942 A CN107169942 A CN 107169942A CN 201710573257 A CN201710573257 A CN 201710573257A CN 107169942 A CN107169942 A CN 107169942A
Authority
CN
China
Prior art keywords
mrow
msub
msubsup
mfrac
channel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710573257.XA
Other languages
English (en)
Other versions
CN107169942B (zh
Inventor
李永杰
张明
赵乾
高绍兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201710573257.XA priority Critical patent/CN107169942B/zh
Publication of CN107169942A publication Critical patent/CN107169942A/zh
Application granted granted Critical
Publication of CN107169942B publication Critical patent/CN107169942B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Of Color Television Signals (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于鱼类视网膜机制的水下图像增强方法,本发明的方法模拟了鱼类视网膜水平细胞与视锥细胞之间的反馈关系来去除水下图像的色偏,模拟了鱼类视网膜双极细胞中心外周拮抗作用来去除水下图像的模糊。在整个模拟过程中,模拟了鱼类视网膜水平细胞侧抑制双极细胞的结构来设计双极细胞感受野的双高斯差滤波器;同时利用sigmoid曲线模拟了网间细胞在黑暗中持续释放多巴胺调节水平细胞的活动,使得处理后的图像更加符合鱼类的视觉机制;最后采用gamma变换模拟了无长突细胞对亮度信息的非线性处理,并构成颜色双极细胞的中心输入。

Description

一种基于鱼类视网膜机制的水下图像增强方法
技术领域
本发明属于图像处理技术领域,涉及彩色图像增强技术,具体涉及一种基于鱼类视网膜机制的水下图像增强方法。
背景技术
随着人类探索能力的不断增强,越来越多的水下图像被广泛传播与应用。但是由于水体中悬浮颗粒的后向散射以及前向散射会导致图像模糊,由于光射入水中后不同波长的光波衰减速度不同而导致水下图像颜色具有蓝绿色偏。图像模糊及色偏都会使得我们最终获得的水下图像不够清晰。因此,如何去除模糊和色偏的影响,获得具有高对比度的水下图像成了一个比较重要的问题。
现有的图像去模糊方法主要为基于暗通道先验假设的方法,该类方法总体上都是基于大气散射物理模型,代表方法有Chiang J Y等于2012年提出的方法,参考文献:ChiangJ Y,Chen Y C.Underwater image enhancement by wavelength compensation anddehazing[J].IEEE Transactions on Image Processing,2012,21(4):1756-1769。它们都需要满足暗通道先验才能实现很好的去模糊效果。
颜色恒常的方法有基于学习的或静态的颜色恒常方法,主要通过估计场景光源颜色还原物体的真实颜色。然而它们主要是针对陆地场景,忽略了水下图像的一些特性。其中,基于学习的方法由于目前没有一个拥有标准光源的水下图像数据库,所以应用于水下图像处理仍有一定难度;而静态方法大都基于一定的灰度假设,但一般水下图像红色波段明显弱于其他波段,不满足灰度假设,所以静态方法校正出来的图像颜色大都偏红,即使有些改进后的静态方法,也要满足暗通道先验模型才能有一定效果。鱼类视网膜可以同时解决色偏和模糊问题,然而目前还没有一种模拟鱼类视网膜同时处理色偏和模糊的方法。
发明内容
针对现有技术存在上述问题,本发明提出了一种基于鱼类视网膜机制的水下图像增强方法。
本发明的技术方案为:一种基于鱼类视网膜机制的水下图像增强方法,包括以下步骤:
S1、提取颜色分量以及亮度分量:对水下图像每一个像素点分别提取红色分量IR、绿色分量IG、蓝色分量IB,并计算出平均亮度分量I:
I=(IR+IG+IB)/3
S2、计算RGB三通道的调整后均值:计算红色通道中像素值大于第一阈值的最亮的部分的像素点的均值Mr,作为红色通道调整后的均值,并计算绿色通道和蓝色通道各自的均值Mg、Mb
S3、校正图像的色偏:将R、G、B三通道每一像素点与其对应的均值相除,处理完成得到各通道更新后的值I′R、I′G、I′B,具体计算公式为;
然后,将更新后的值拉伸至原始图像亮度,具体计算公式为:
其中,I′表示由I′R、I′G、I′B组成的图像;mean表示求图像的均值。
S4、计算颜色通道与亮度通道感受野外周输入:对步骤S1得到的亮度分量I以及步骤S3得到R、G、B三通道更新后的值(I″R、I″G、I″B)分别进行滤波,得到四个通道的感受野外周输入fsI、fsR、fsG、fsB
S5、计算亮度通道感受野中心输入:
计算步骤S1得到的亮度通道I的均值M,若M小于第二阈值,则亮度通道感受野的中心输入fcI为采用sigmoid函数调节,同时,将步骤S3得到的(I″R、I″G、I″B)也采用sigmoid进行再次更新;否则令fcI=I,且(I″R、I″G、I″B)不作更新处理;
S6、计算颜色通道与亮度通道感受野外周所占权重:使用k表示RGB通道与亮度通道感受野外周权重,其计算公式为:
其中,λ表示R、G、B三个通道,A为每个通道对应的最大值。I″λ(x,y)为经步骤S5处理后I″R、I″G、I″B对应(x,y)位置的像素值,kMAX为k值上限。
S7、计算亮度通道感受野响应:将步骤S4与S5计算得到的感受野中心和外周输入fcI与fsI代入双高斯差函数,计算得到亮度通道的感受野响应值,具体计算公式为:
其中,表示卷积,fcI(x,y)、fsI(x,y)表示图像中点(x,y)的感受野中心和外周输入,g(m,n;σc)、g(m,n;σs)表示大小为m*n的二维高斯函数,rodBp即为亮度通道的感受野输出结果。
S8、计算RGB三通道感受野的中心输入:对步骤S7得到的亮度通道感受野输出rodBp进行gamma变换得到rodBp γ,并与经步骤S5处理得到的I″R、I″G、I″B相乘共同构成R、G、B三通道的感受野中心输入fc,具体计算公式为:
fcR=I″R*rodBp γ
fcG=I″G*rodBp γ
fcB=I″B*rodBp γ
其中,*表示乘号;
S9、计算RGB三通道感受野响应并输出:同步骤S7,将步骤S5与S8计算得到R、G、B三通道的感受野中心输入fcR、fcG、fcB以及外周输入fsR、fsG、fsB代入双高斯差函数来计算R、G、B三通道的感受野响应,具体计算公式为:
R、G、B三个通道的感受野响应BpR、BpG、BpB即为三个通道增强后的去雾图像,将三个通道重新组合成一幅RGB图像,作为最终的输出。
进一步的,步骤S2所述的第一阈值为0.1,步骤S5所述的第二阈值为0.5。
进一步的,步骤S2所述的最亮的部分像素点具体为最亮的50%的像素点。
进一步的,步骤S4所述的滤波具体为均值滤波。
进一步的,所述步骤S2中,为避免调整后红色通道均值过高,当调整后红色通道均值Mr大于绿色通道的均值Mg时,用绿色通道的均值Mg作为红色通道最终调整后的均值,即:
Mr=min(Mr,Mg)。
进一步的,步骤S5对亮度通道感受野的中心输入fcI采用sigmoid函数调节具体如下:
更进一步的,步骤S4所述的均值滤波器的窗宽大小为大于3*3,小于15*15的任意大小,例如7*7,9*9等。
进一步的,步骤S7与步骤S9中所述的感受野中心和外周的高斯函数具体为:
其中,δc的取值范围具体为0.2~0.8,δs取值为δc的3倍,m,n的取值范围具体为5~15的整数。
进一步的,步骤S8中所述γ的取值范围具体为0.4~0.6。
本发明的有益效果是:本发明的方法模拟了鱼类视网膜水平细胞与视锥细胞之间的反馈关系来去除水下图像的色偏,模拟了鱼类视网膜双极细胞中心外周拮抗作用来去除水下图像的模糊。在整个模拟过程中,模拟了鱼类视网膜水平细胞侧抑制双极细胞的结构来设计双极细胞感受野的双高斯差滤波器;同时利用sigmoid曲线模拟了网间细胞在黑暗中持续释放多巴胺调节水平细胞的活动,使得处理后的图像更加符合鱼类的视觉机制;最后采用gamma变换模拟了无长突细胞对亮度信息的非线性处理,并构成颜色双极细胞的中心输入。基于本发明的算法可内嵌于相机内部,作为一种水下模式来处理水下图像的色偏以及模糊问题。
附图说明
图1为本发明实施例的水下图像处理流程图。
图2为水下拍摄的具有色偏及模糊问题的原始图像。
图3为原始图像去除色偏之后对应的结果。
图4为原始图像经过两次更新后对应的图像。
图5为亮度通道感受野的响应图像。
图6为最终输出去除色偏以及模糊的图像。
具体实施方式
下面结合附图对本发明的实施例作进一步的说明。
鱼类对于水下图像中的色偏以及模糊具有很强的适应能力,学习鱼类视觉***图像处理过程有助于解决相机拍摄到的水下图像中的色偏以及模糊等问题。基于此,本发明提出了一种基于鱼类视网膜机制的水下图像增强方法,如图1所示,包括以下步骤:
对于一幅图像大小为768*1024,具有色偏以及模糊问题的水下图像(如图2所示),本发明的详细步骤流程如下所示:
S1、提取颜色分量以及亮度分量:对水下图像每一个像素点分别提取红色分量IR、绿色分量IG、蓝色分量IB,并计算出平均亮度分量I。
以原始输入图像(图2)中像素值为(0.659,0.718,0.463)的示例点1和像素值为(0.275,0.373,0.212)的示例点2为例。它们对应的平均亮度分量I分别为(0.659+0.718+0.463)/3=0.613和(0.275+0.373+0.212)/3=0.286。
S2、计算RGB三通道的调整后均值:分别计算三个通道的均值,其中R通道计算大于0.1的最亮的50%的像素。原始图像(图2)中R通道像素值大于0.1的前50%像素点的均值为0.4231,所以Mr=0.4231,G通道均值为0.5407,所以Mg=0.5407,B通道均值为0.3367,所以Mb=0.3367。由于R通道的均值比G通道的均值要小,所以R通道的均值Mr不作改变,仍为0.4231。
需要说明的是,不同于计算R通道的均值,这里采用通用方法计算G、B通道的均值。
S3、校正图像的色偏:将R、G、B三通道每一像素点与其对应的均值相除,处理完成得到各通道更新后的值I′R、I′G、I′B,通过更新,图像色偏被去除。
将两个示例像素点对应通道的像素除以均值后,得到更新之后的像素值I′R、I′G、I′B分别为(0.659/0.4231,0.718/0.5407,0.463/0.3367)=(1.5576,1.3279,1.3751)和(0.275/0.4231,0.373/0.5407,0.212/0.3367)=(0.6500,0.6898,0.6296)。
此时,由I′R、I′G、I′B组成的图像I′的均值mean(I′)计算得到的值为0.9985,原始图像亮度的均值mean(I)为0.4170,所以,示例点1拉伸到原始图像亮度的I′R、I′G、I′B分别变为:
同理,示例点2拉伸到原始图像亮度对应的I″R、I″G、I″B分别为(0.2714,0.2881,0.2630)。通过这一更新,原始图像色偏被去除,图3展示了去除色偏之后对应的图像,可以看出图像的绿色色偏被有效去除。
S4、计算颜色通道与亮度通道感受野外周输入:对S1得到的亮度通道I以及S3得到R、G、B三通道更新后的值I″R、I″G、I″B分别进行均值滤波,得到四个通道的感受野外周输入fsI、fsR、fsG、fsB
本实施例中,以窗宽为9*9的均值滤波器为例,对S1得到的亮度图I进行均值滤波,得到滤波后两个示例像素点对应位置的值为fsI分别为0.7839和0.1327。对S3得到的更新后的RGB三个通道的图像I″R、I″G、I″B进行均值滤波,两个示例点对应位置经均值滤波之后fsR、fsG、fsB分别为(0.6597,0.7313,0.7448)和(0.2930,0.1926,0.1304)。
S5、计算亮度通道感受野中心输入:计算亮度通道的均值,原始输入图像(图2)对应的亮度通道I的均值M为0.4170,由于它小于0.5,所以使用sigmoid函数:
计算亮度通道感受野的中心输入fcI。将S1计算得到的两个示例点的亮度I 0.613与0.286分别代入上公式,计算得到亮度通道的感受野中心输入fcI分别为0.7559和0.1053。
同时,对S3计算得到的I″R、I″G、I″B的值(0.6505,0.5546,0.5743)采用相同的函数进行处理,代入得到两个示例像素点I″R、I″G、I″B更新后的值分别为(0.8183,0.6332,0.6777)和(0.0924,0.1073,0.0855)。
图4展示了I″R、I″G、I″B经过再次更新后对应的图像。
S6、计算颜色通道与亮度通道感受野外周所占权重:使用k表示RGB通道与亮度通道感受野外周权重,其计算公式为:
这里,为避免出现图像被过度增强的现象,k值应设置合理上限,在本实施例中将这一上限设置为0.4,即kMAX=0.4,λ表示R、G、B三个通道,A为每个通道对应的最大值。I′λ(x,y)为经步骤S5处理后I″R、I″G、I″B对应(x,y)位置的像素值。此时,RGB三通道的最大值Aλ分别为:0.9465,0.8778,0.9333,RGB三个通道的计算结果分别为:0.2103,0.2066,0.1432,所以因为0.2151<0.4,所以,k的值为0.2151。
S7、计算亮度通道感受野响应:将步骤S4与S5计算得到亮度通道感受野中心和外周输入fcI与fsI代入双高斯差函数,计算得到亮度通道的感受野响应值,计算公式为:
本实施例中,以σc=0.5,σs=1.5,m=n=9为例,在此处计算得两个示例点的亮度通道的感受野响应值rodBp分别为0.4745和0.2608。
图5展示了亮度通道感受野的响应图。
S8、计算RGB三通道感受野的中心输入:对S7得到的亮度通道感受野输出rodBp进行gamma变换,与经步骤S5处理得到的I″R、I″G、I″B共同构成R、G、B三通道的感受野中心输入fc
本实施例所述的gamma变换中采用γ=0.5为例,计算得RGB三通道感受野的中心输入fcR,fcG,fcB。则示例点1对应的计算过程与结果为:
fcB=I″R*rodBp γ=0.8183*0.47450.5=0.5637
fcG=I″G*rodBp γ=0.6332*0.47450.5=0.4363
fcB=I″B*rodBp γ=0.6777*0.47450.5=0.4669
同样,示例点2对应的感受野的中心输入fcR,fcG,fcB计算结果为(0.0637,0.0739,0.0589)。
S9、计算RGB三通道感受野响应并输出:同步骤S7,在本实施例中使用双高斯差函数来计算R、G、B三通道的感受野响应:
将S8计算得到的fcR,fcG,fcB与S6计算得到的k代入上公式,σc与σs采用与步骤S7相同的取值σc=0.5,σs=1.5,m=n=9,得到三通道的感受野响应BpR、BpG、BpB。两个示例点对应位置的BpR、BpG、BpB计算结果分别为(1,0.778,0.865)和(0.022,0.0184,0.0376)。最后,将计算得到的结果输出。
图6展示了最终输出的图像,相比与原始图像(图2),图像的色偏以及模糊被有效去除。
以上的简单实例主要以图像的单个像素值作为例子来阐述,实际计算时是在整幅图像的所有像素上进行的。通过这样一个简单实例,阐述了本发明模拟鱼类视网膜去除色偏以及模糊的全过程。
这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其他各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。

Claims (9)

1.一种基于鱼类视网膜机制的水下图像增强方法,包括以下步骤:
S1、提取颜色分量以及亮度分量:对水下图像每一个像素点分别提取红色分量IR、绿色分量IG、蓝色分量IB,并计算出平均亮度分量I:
I=(IR+IG+IB)/3
S2、计算RGB三通道的调整后均值:计算红色通道中像素值大于第一阈值的最亮的部分的像素点的均值Mr,作为红色通道调整后的均值,并计算绿色通道和蓝色通道各自的均值Mg、Mb
S3、校正图像的色偏:将R、G、B三通道每一像素点与其对应的均值相除,处理完成得到各通道更新后的值I′R、I′G、I′B,具体计算公式为;
<mrow> <msubsup> <mi>I</mi> <mi>R</mi> <mo>&amp;prime;</mo> </msubsup> <mo>=</mo> <mfrac> <msub> <mi>I</mi> <mi>R</mi> </msub> <msub> <mi>M</mi> <mi>r</mi> </msub> </mfrac> </mrow>
<mrow> <msubsup> <mi>I</mi> <mi>G</mi> <mo>&amp;prime;</mo> </msubsup> <mo>=</mo> <mfrac> <msub> <mi>I</mi> <mi>G</mi> </msub> <msub> <mi>M</mi> <mi>g</mi> </msub> </mfrac> </mrow>
<mrow> <msubsup> <mi>I</mi> <mi>B</mi> <mo>&amp;prime;</mo> </msubsup> <mo>=</mo> <mfrac> <msub> <mi>I</mi> <mi>B</mi> </msub> <msub> <mi>M</mi> <mi>b</mi> </msub> </mfrac> </mrow>
然后,将更新后的值拉伸至原始图像亮度,具体计算公式为:
<mrow> <msubsup> <mi>I</mi> <mi>R</mi> <mrow> <mo>&amp;prime;</mo> <mo>&amp;prime;</mo> </mrow> </msubsup> <mo>=</mo> <mfrac> <mrow> <mi>m</mi> <mi>e</mi> <mi>a</mi> <mi>n</mi> <mrow> <mo>(</mo> <mi>I</mi> <mo>)</mo> </mrow> <mo>*</mo> <msubsup> <mi>I</mi> <mi>R</mi> <mo>&amp;prime;</mo> </msubsup> </mrow> <mrow> <mi>m</mi> <mi>e</mi> <mi>a</mi> <mi>n</mi> <mrow> <mo>(</mo> <msup> <mi>I</mi> <mo>&amp;prime;</mo> </msup> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>
<mrow> <msubsup> <mi>I</mi> <mi>G</mi> <mrow> <mo>&amp;prime;</mo> <mo>&amp;prime;</mo> </mrow> </msubsup> <mo>=</mo> <mfrac> <mrow> <mi>m</mi> <mi>e</mi> <mi>a</mi> <mi>n</mi> <mrow> <mo>(</mo> <mi>I</mi> <mo>)</mo> </mrow> <mo>*</mo> <msubsup> <mi>I</mi> <mi>G</mi> <mo>&amp;prime;</mo> </msubsup> </mrow> <mrow> <mi>m</mi> <mi>e</mi> <mi>a</mi> <mi>n</mi> <mrow> <mo>(</mo> <msup> <mi>I</mi> <mo>&amp;prime;</mo> </msup> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>
<mrow> <msubsup> <mi>I</mi> <mi>B</mi> <mrow> <mo>&amp;prime;</mo> <mo>&amp;prime;</mo> </mrow> </msubsup> <mo>=</mo> <mfrac> <mrow> <mi>m</mi> <mi>e</mi> <mi>a</mi> <mi>n</mi> <mrow> <mo>(</mo> <mi>I</mi> <mo>)</mo> </mrow> <mo>*</mo> <msubsup> <mi>I</mi> <mi>B</mi> <mo>&amp;prime;</mo> </msubsup> </mrow> <mrow> <mi>m</mi> <mi>e</mi> <mi>a</mi> <mi>n</mi> <mrow> <mo>(</mo> <msup> <mi>I</mi> <mo>&amp;prime;</mo> </msup> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>
其中,I′表示由I′R、I′G、I′B组成的图像,mean表示求图像的均值;
S4、计算颜色通道与亮度通道感受野外周输入:对步骤S1得到的亮度分量I以及步骤S3得到R、G、B三通道更新后的值(I″R、I″G、I″B)分别进行滤波,得到四个通道的感受野外周输入fsI、fsR、fsG、fsB
S5、计算亮度通道感受野中心输入:
计算步骤S1得到的亮度通道I的均值M,若M小于第二阈值,则亮度通道感受野的中心输入fcI采用sigmoid函数调节,同时,将步骤S3得到的(I″R、I″G、I″B)也采用sigmoid进行再次更新;否则令fcI=I,且(I″R、I″G、I″B)不作更新处理;
S6、计算颜色通道与亮度通道感受野外周所占权重:使用k表示RGB通道与亮度通道感受野外周权重,其计算公式为:
<mrow> <mi>k</mi> <mo>=</mo> <mi>m</mi> <mi>i</mi> <mi>n</mi> <mrow> <mo>(</mo> <msub> <mi>k</mi> <mrow> <mi>M</mi> <mi>A</mi> <mi>X</mi> </mrow> </msub> <mo>,</mo> <mi>m</mi> <mi>e</mi> <mi>a</mi> <mi>n</mi> <mo>(</mo> <mrow> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mi>&amp;lambda;</mi> </munder> <mfrac> <mrow> <msubsup> <mi>I</mi> <mi>&amp;lambda;</mi> <mrow> <mo>&amp;prime;</mo> <mo>&amp;prime;</mo> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> </mrow> <msub> <mi>A</mi> <mi>&amp;lambda;</mi> </msub> </mfrac> </mrow> <mo>)</mo> <mo>)</mo> </mrow> </mrow>
其中,λ表示R、G、B三个通道,A为每个通道对应的最大值。I″λ(x,y)为经步骤S5处理后I″R、I″G、I″B对应(x,y)位置的像素值,kMAX为k值上限。
S7、计算亮度通道感受野响应:将步骤S4与S5计算得到的感受野中心和外周输入fcI与fsI代入双高斯差函数,计算得到亮度通道的感受野响应值,具体计算公式为:
<mrow> <msub> <mi>rodB</mi> <mi>p</mi> </msub> <mo>=</mo> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mo>&amp;lsqb;</mo> <mn>0</mn> <mo>,</mo> <msub> <mi>f</mi> <mrow> <mi>c</mi> <mi>I</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&amp;CircleTimes;</mo> <mi>g</mi> <mrow> <mo>(</mo> <mi>m</mi> <mo>,</mo> <mi>n</mi> <mo>;</mo> <msub> <mi>&amp;sigma;</mi> <mi>c</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>k</mi> <mo>&amp;CenterDot;</mo> <msub> <mi>f</mi> <mrow> <mi>s</mi> <mi>I</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>,</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>&amp;CircleTimes;</mo> <mi>g</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>;</mo> <msub> <mi>&amp;sigma;</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow>
其中,表示卷积,fcI(x,y)、fsI(x,y)表示图像中点(x,y)的感受野中心和外周输入,g(m,n;σc)、g(m,n;σs)表示大小为m*n的二维高斯函数,rodBp即为亮度通道的感受野输出结果。
S8、计算RGB三通道感受野的中心输入:对步骤S7得到的亮度通道感受野输出rodBp进行gamma变换得到rodBp γ,并与经步骤S5处理得到的I″R、I″G、I″B相乘共同构成R、G、B三通道的感受野中心输入fc,具体计算公式为:
fcR=I″R*rodBp γ
fcG=I″G*rodBp γ
fcB=I″B*rodBp γ
其中,*表示乘号;
S9、计算RGB三通道感受野响应并输出:同步骤S7,将步骤S5与S8计算得到R、G、B三通道的感受野中心输入fcR、fcG、fcB以及外周输入fsR、fsG、fsB代入双高斯差函数来计算R、G、B三通道的感受野响应,具体计算公式为:
<mrow> <msub> <mi>B</mi> <mrow> <mi>p</mi> <mi>R</mi> </mrow> </msub> <mo>=</mo> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mo>&amp;lsqb;</mo> <mn>0</mn> <mo>,</mo> <msub> <mi>f</mi> <mrow> <mi>c</mi> <mi>R</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&amp;CircleTimes;</mo> <mi>g</mi> <mrow> <mo>(</mo> <mi>m</mi> <mo>,</mo> <mi>n</mi> <mo>;</mo> <msub> <mi>&amp;sigma;</mi> <mi>c</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>k</mi> <mo>&amp;CenterDot;</mo> <msub> <mi>f</mi> <mrow> <mi>s</mi> <mi>R</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&amp;CircleTimes;</mo> <mi>g</mi> <mrow> <mo>(</mo> <mi>m</mi> <mo>,</mo> <mi>n</mi> <mo>;</mo> <msub> <mi>&amp;sigma;</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow>
<mrow> <msub> <mi>B</mi> <mrow> <mi>p</mi> <mi>G</mi> </mrow> </msub> <mo>=</mo> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mo>&amp;lsqb;</mo> <mn>0</mn> <mo>,</mo> <msub> <mi>f</mi> <mrow> <mi>c</mi> <mi>G</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&amp;CircleTimes;</mo> <mi>g</mi> <mrow> <mo>(</mo> <mi>m</mi> <mo>,</mo> <mi>n</mi> <mo>;</mo> <msub> <mi>&amp;sigma;</mi> <mi>c</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>k</mi> <mo>&amp;CenterDot;</mo> <msub> <mi>f</mi> <mrow> <mi>s</mi> <mi>G</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&amp;CircleTimes;</mo> <mi>g</mi> <mrow> <mo>(</mo> <mi>m</mi> <mo>,</mo> <mi>n</mi> <mo>;</mo> <msub> <mi>&amp;sigma;</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow>
<mrow> <msub> <mi>B</mi> <mrow> <mi>p</mi> <mi>B</mi> </mrow> </msub> <mo>=</mo> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mo>&amp;lsqb;</mo> <mn>0</mn> <mo>,</mo> <msub> <mi>f</mi> <mrow> <mi>c</mi> <mi>B</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&amp;CircleTimes;</mo> <mi>g</mi> <mrow> <mo>(</mo> <mi>m</mi> <mo>,</mo> <mi>n</mi> <mo>;</mo> <msub> <mi>&amp;sigma;</mi> <mi>c</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>k</mi> <mo>&amp;CenterDot;</mo> <msub> <mi>f</mi> <mrow> <mi>s</mi> <mi>B</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&amp;CircleTimes;</mo> <mi>g</mi> <mrow> <mo>(</mo> <mi>m</mi> <mo>,</mo> <mi>n</mi> <mo>;</mo> <msub> <mi>&amp;sigma;</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow>
R、G、B三个通道的感受野响应BpR、BpG、BpB即为三个通道增强后的去雾图像,将三个通道重新组合成一幅RGB图像,作为最终的输出。
2.根据权利要求1所述的一种基于鱼类视网膜机制的水下图像增强方法,其特征在于步骤S2所述的第一阈值为0.1,步骤S5所述的第二阈值为0.5。
3.根据权利要求1所述的一种基于鱼类视网膜机制的水下图像增强方法,其特征在于步骤S2所述的最亮的部分像素点具体为最亮的50%的像素点。
4.根据权利要求1所述的一种基于鱼类视网膜机制的水下图像增强方法,其特征在于,步骤S4所述的滤波具体为均值滤波。
5.根据权利要求1所述的一种基于鱼类视网膜机制的水下图像增强方法,其特征在于,所述步骤S2中,为避免调整后红色通道均值过高,当调整后红色通道均值Mr大于绿色通道的均值Mg时,用绿色通道的均值Mg作为红色通道最终调整后的均值,即:
Mr=min(Mr,Mg)。
6.根据权利要求1所述的一种基于鱼类视网膜机制的水下图像增强方法,其特征在于,步骤S5对亮度通道感受野的中心输入fcI采用sigmoid函数调节具体如下:
<mrow> <msub> <mi>f</mi> <mrow> <mi>c</mi> <mi>I</mi> </mrow> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mo>(</mo> <mn>1</mn> <mo>+</mo> <msup> <mi>e</mi> <mrow> <mo>-</mo> <mn>10</mn> <mrow> <mo>(</mo> <mi>I</mi> <mo>-</mo> <mn>0.5</mn> <mo>)</mo> </mrow> </mrow> </msup> <mo>)</mo> </mrow> </mfrac> <mo>.</mo> </mrow>
7.根据权利要求4所述的一种基于鱼类视网膜机制的水下图像增强方法,其特征在于,步骤S4所述的均值滤波器的窗宽大小为大于3*3,小于15*15的任意大小。
8.根据权利要求1所述的一种基于鱼类视网膜机制的水下图像增强方法,其特征在于,步骤S7与步骤S9中所述的感受野中心和外周的高斯函数具体为:
<mrow> <msub> <mi>g</mi> <mrow> <mo>(</mo> <mi>m</mi> <mo>,</mo> <mi>n</mi> <mo>;</mo> <msub> <mi>&amp;sigma;</mi> <mi>c</mi> </msub> <mo>)</mo> </mrow> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mn>2</mn> <msub> <mi>&amp;pi;&amp;sigma;</mi> <mi>c</mi> </msub> </mrow> </mfrac> <msup> <mi>e</mi> <mrow> <mo>-</mo> <mfrac> <mrow> <msup> <mi>m</mi> <mn>2</mn> </msup> <mo>+</mo> <msup> <mi>n</mi> <mn>2</mn> </msup> </mrow> <mrow> <mn>2</mn> <msubsup> <mi>&amp;sigma;</mi> <mi>c</mi> <mn>2</mn> </msubsup> </mrow> </mfrac> </mrow> </msup> </mrow> 2
<mrow> <msub> <mi>g</mi> <mrow> <mo>(</mo> <mi>m</mi> <mo>,</mo> <mi>n</mi> <mo>;</mo> <msub> <mi>&amp;sigma;</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mn>2</mn> <msub> <mi>&amp;pi;&amp;sigma;</mi> <mi>s</mi> </msub> </mrow> </mfrac> <msup> <mi>e</mi> <mrow> <mo>-</mo> <mfrac> <mrow> <msup> <mi>m</mi> <mn>2</mn> </msup> <mo>+</mo> <msup> <mi>n</mi> <mn>2</mn> </msup> </mrow> <mrow> <mn>2</mn> <msubsup> <mi>&amp;sigma;</mi> <mi>s</mi> <mn>2</mn> </msubsup> </mrow> </mfrac> </mrow> </msup> </mrow>
其中,δc的取值范围具体为0.2~0.8,δs取值为δc的3倍,m,n的取值范围具体为5~15的整数。
9.根据权利要求1所述的一种基于鱼类视网膜机制的水下图像增强方法,其特征在于,步骤S8中所述γ的取值范围具体为0.4~0.6。
CN201710573257.XA 2017-07-10 2017-07-10 一种基于鱼类视网膜机制的水下图像增强方法 Active CN107169942B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710573257.XA CN107169942B (zh) 2017-07-10 2017-07-10 一种基于鱼类视网膜机制的水下图像增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710573257.XA CN107169942B (zh) 2017-07-10 2017-07-10 一种基于鱼类视网膜机制的水下图像增强方法

Publications (2)

Publication Number Publication Date
CN107169942A true CN107169942A (zh) 2017-09-15
CN107169942B CN107169942B (zh) 2020-07-07

Family

ID=59818650

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710573257.XA Active CN107169942B (zh) 2017-07-10 2017-07-10 一种基于鱼类视网膜机制的水下图像增强方法

Country Status (1)

Country Link
CN (1) CN107169942B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107909617A (zh) * 2017-11-13 2018-04-13 四川大学 一种基于非线性对比度加权的光源颜色估计方法
CN108537852A (zh) * 2018-04-17 2018-09-14 四川大学 一种基于图像局部对比度的自适应颜色恒常性方法
CN109919873A (zh) * 2019-03-07 2019-06-21 电子科技大学 一种基于图像分解的眼底图像增强方法
CN111639588A (zh) * 2020-05-28 2020-09-08 深圳壹账通智能科技有限公司 图像效果调整方法、装置、计算机***及可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103955900A (zh) * 2014-05-07 2014-07-30 电子科技大学 基于生物视觉机理的图像去雾方法
US20150063718A1 (en) * 2013-08-30 2015-03-05 Qualcomm Incorported Techniques for enhancing low-light images
CN105825483A (zh) * 2016-03-21 2016-08-03 电子科技大学 一种图像去雾霾及沙尘的方法
CN106127823A (zh) * 2016-06-24 2016-11-16 电子科技大学 一种彩色图像动态范围压缩方法
CN106600547A (zh) * 2016-11-17 2017-04-26 天津大学 水下图像复原方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150063718A1 (en) * 2013-08-30 2015-03-05 Qualcomm Incorported Techniques for enhancing low-light images
CN103955900A (zh) * 2014-05-07 2014-07-30 电子科技大学 基于生物视觉机理的图像去雾方法
CN105825483A (zh) * 2016-03-21 2016-08-03 电子科技大学 一种图像去雾霾及沙尘的方法
CN106127823A (zh) * 2016-06-24 2016-11-16 电子科技大学 一种彩色图像动态范围压缩方法
CN106600547A (zh) * 2016-11-17 2017-04-26 天津大学 水下图像复原方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHEN-JUI CHUNG ; WEI-YAO CHOU ; CHIA-WEN LIN: "《Under-exposed image enhancement using exposure compensation》", 《2013 13TH INTERNATIONAL CONFERENCE ON ITS TELECOMMUNICATIONS (ITST)》 *
石丹; 李庆武; 范新南; 霍冠英: "《基于Contourlet变换和多尺度Rentinex的水下图像增强算法》", 《激光与光电子学进展》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107909617A (zh) * 2017-11-13 2018-04-13 四川大学 一种基于非线性对比度加权的光源颜色估计方法
CN107909617B (zh) * 2017-11-13 2020-03-17 四川大学 一种基于非线性对比度加权的光源颜色估计方法
CN108537852A (zh) * 2018-04-17 2018-09-14 四川大学 一种基于图像局部对比度的自适应颜色恒常性方法
CN108537852B (zh) * 2018-04-17 2020-07-07 四川大学 一种基于图像局部对比度的自适应颜色恒常性方法
CN109919873A (zh) * 2019-03-07 2019-06-21 电子科技大学 一种基于图像分解的眼底图像增强方法
CN111639588A (zh) * 2020-05-28 2020-09-08 深圳壹账通智能科技有限公司 图像效果调整方法、装置、计算机***及可读存储介质

Also Published As

Publication number Publication date
CN107169942B (zh) 2020-07-07

Similar Documents

Publication Publication Date Title
CN107169942A (zh) 一种基于鱼类视网膜机制的水下图像增强方法
CN105184754B (zh) 图像对比度增强方法
CN105578165B (zh) 一种图像白平衡处理方法、装置及摄像机
CN103248793B (zh) 色域转换***的肤色最佳化方法与装置
CN104182947B (zh) 一种低照度图像增强方法和***
CN110197463A (zh) 基于深度学习的高动态范围图像色调映射方法及其***
CN109658341A (zh) 增强图像对比度的方法及其装置
CN106097279B (zh) 一种高动态图像增强方法
CN104618700B (zh) 一种彩色高动态范围图像增强显示的方法
CN103854261B (zh) 色偏图像的校正方法
CN109191460B (zh) 一种对于色调映射图像的质量评价方法
CN102722868A (zh) 一种高动态范围图像色调映射方法
CN106886985A (zh) 一种减小色偏的自适应低照度图像增强方法
CN104809700B (zh) 一种基于亮通道的低照度视频实时增强方法
CN110009574B (zh) 一种低动态范围图像逆向生成高动态范围图像的方法
CN106204662A (zh) 一种多光源环境下的图像颜色恒常方法
CN108022223A (zh) 一种基于对数映射函数分块处理融合的色调映射方法
CN104867121A (zh) 基于暗原色先验和Retinex理论的图像快速去雾法
CN105023244A (zh) 美化图像中人体肤色和调整人体肤色亮度的方法及其装置
CN104166967A (zh) 提升视频图像清晰度的方法
CN103258334B (zh) 彩色图像的场景光源颜色估计方法
CN103955900B (zh) 基于生物视觉机理的图像去雾方法
CN103268596A (zh) 一种降低图像噪声和使颜色接近标准的方法
CN105118029A (zh) 一种基于人眼视觉特性的医学图像增强方法
CN104715454B (zh) 一种抗锯齿图形叠加方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant