CN114387187B - 一种雨雪雾天实时可视增强嵌入式***及可视增强方法 - Google Patents

一种雨雪雾天实时可视增强嵌入式***及可视增强方法 Download PDF

Info

Publication number
CN114387187B
CN114387187B CN202210036243.5A CN202210036243A CN114387187B CN 114387187 B CN114387187 B CN 114387187B CN 202210036243 A CN202210036243 A CN 202210036243A CN 114387187 B CN114387187 B CN 114387187B
Authority
CN
China
Prior art keywords
image
neural network
network model
real
visual enhancement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210036243.5A
Other languages
English (en)
Other versions
CN114387187A (zh
Inventor
范新南
史朋飞
赵忠鑫
周仲凯
周璇
黄伟盛
王啸天
姜雯琪
陈泽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hohai University HHU
Original Assignee
Hohai University HHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hohai University HHU filed Critical Hohai University HHU
Priority to CN202210036243.5A priority Critical patent/CN114387187B/zh
Publication of CN114387187A publication Critical patent/CN114387187A/zh
Application granted granted Critical
Publication of CN114387187B publication Critical patent/CN114387187B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/28Indexing scheme for image data processing or generation, in general involving image processing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种雨雪雾天实时可视增强嵌入式***及可视增强方法,该***包括图像获取模块、图像处理模块和图像输出模块;本发明进行可视增强时,通过OpenCV中的VideoCapture方法调用摄像头采集视频,并将视频读取为单帧图像;然后将读取到的单帧图像输入到构建的轻量化神经网络模型中,神经网络模型对输入的图像进行处理,得到包含大气透射率t(x)和大气光值A的中间参数K(x);根据大气散射模型,利用神经网络模型的输出值中间参K(x)计算出增强后的单帧图像,并使用OpenCV的图片可视化方法将增强后的单帧图像输出。本发明基于大气散射模型,并通过轻量化神经网络模型实现了在嵌入式设备上进行视频实时增强,复杂程度低,处理速度快。

Description

一种雨雪雾天实时可视增强嵌入式***及可视增强方法
技术领域
本发明涉及图像处理与嵌入式***,尤其涉及一种雨雪雾天实时可视增强嵌入式***,本发明还涉及一种雨雪雾天实时可视增强方法。
背景技术
在雨、雪、雾天气拍摄到的图像,图像质量会显著地下降。同时,因雨、雪、雾天气而产生的图像退化会对自动驾驶、航拍等活动产生负面的影响,雨、雪、雾天气也会给交通、监控、车辆辅助***等带来不利的影响,因此需要对采集到的图像或视频进行处理。
根据大气光照模型,人能看见物体是由于物体本身反射的光线进入到了人眼。雨、雪、雾天气情况下,大气中存在的颗粒物在吸收光的同时也会影响物体的反射光线反射,导致反射光线传播方向改变,朝多个方向散射。目前的图像增强方法虽然在精度方面取得了显著的进展,但这些方法很少考虑可落地性,其图像增强模型往往具有庞大的参数量,需要消耗大量的计算资源。
而在资源有限的硬件条件下,这些图像增强方法无法使用。为了增强神经网络的实用性,研究人员做了许多压缩神经网络模型的工作,如知识蒸馏、参数量化、轻量化网络设计。但是现有技术中的方法只考虑处理效果,极少考虑处理速度,很难运用在嵌入式设备上。
而如何在嵌入式设备上对雨雪雾天进行实时增强,目前还是一个亟需解决的技术问题。
发明内容
发明目的:针对现有技术中存在的不足之处,本发明提出了一种雨雪雾天实时可视增强嵌入式***,本发明还提出了一种在嵌入式设备上进行实时视觉增强的雨雪雾天实时可视增强方法,基于大气散射模型的理论基础,利用了轻量化神经网络模型强大的特征提取能力,进而预测大气散射模型中关键的参数,并在嵌入式设备上实时处理视频数据,完成视频实时增强。
技术方案:本发明雨雪雾天实时可视增强嵌入式***包括图像获取模块、图像处理模块和图像输出模块;该图像获取模块获取视频数据并转为图像数据;图像处理模块对获取到的图像数据进行计算、增强;图像输出模块将增强后的图像数据进行展示。
图像获取模块将获取到的视频数据转为单帧的图像数据。
图像处理模块通过轻量化神经网络模型对图像的数据进行增强。
图像输出模块将增强后的图像数据输出为视频数据。
本发明的雨雪雾天实时可视增强方法包括以下步骤:
(1)通过OpenCV中的VideoCapture方法调用摄像头采集视频,并将视频读取为一幅一幅的单帧图像;
(2)将步骤(1)中读取到的单帧图像输入到构建的轻量化神经网络模型中,轻量化神经网络模型对输入的单帧图像进行处理,得到包含大气透射率t(x)和大气光值A的中间参数K(x);
(3)根据大气散射模型,利用轻量化神经网络模型的输出值中间参数K(x)计算出增强后的单帧图像,并使用OpenCV的图片可视化方法将增强后的单帧图像进行输出。
其中,步骤(2)包括以下过程:
(2.1)对输入轻量化神经网络模型的图像进行预处理:
利用开放计算机视觉软件库OpenCV中的VideoCapture方法,将捕捉到的视频读取为单帧图片后,将BGR格式的图片转为RGB图片,进一步将RGB图片做归一化处理;随后对图像数据进行维度扩充,将原本的三维数据扩充为四维;再将读取到的ndarray形式的图片数据转为Tensor类型,并使用CUDA加速计算。
(2.2)采用轻量化神经网络模型对图像进行特征提取:
所使用的轻量化神经网络模型由包含不同大小卷积核的卷积层组成,图像经过不同的卷积层时,神经网络模型提取图像中不同尺度的特征;并将提取到的不同尺度的特征图利用输出卷积层进行特征融合。
(2.3)采用跳跃连接的方式将不同尺度的特征图进行拼接
对于步骤(2.2)中的不同尺度大小的特征图,采用跳跃连接的方式将各个尺度的特征图进行拼接,将包含了多个尺度的特征图像输入随后的特征融合卷积层,以此保留多个尺度的图像特征。
(2.4)修正轻量化神经网络模型中的线性单元
对于步骤(2.2)中的结果,使用修正线性单元作为神经元的激活函数,修正线性单元将使一部分神经元的输出为0,使得网络具有稀疏性,减少了参数之间的相互依存关系,缓解过拟合问题的发生。修正线性单元如式(1)所示:
步骤(2.1)中,对图像数据进行维度扩充时,将三维数据扩充为四维数据。
步骤(2.2)中,该卷积层包括1×1、3×3、5×5、7×7四种大小的二维卷积核。
步骤(2.1)中,将读取到的ndarray形式的图片数据转为Tensor类型,并使用CUDA加速计算。
步骤(3)中,增强图像的计算过程是:
大气散射模型是描述模糊图像生成过程的模型,如下式所示:
I(x)=J(x)t(x)+A(1-t(x)) (2)
其中,I(x)为观测到的模糊图像,J(x)为待恢复的清晰图像,式中的两个关键参数为大气光值A和大透射率t(x);可以看出,公式中只有观测到的模糊图像I(x)是已知的,求出A与t(x)便可求得J(x)。
大气透射率t(x)定义为:
t(x)=e-βd(x) (3)
其中β为大气散射系数,d(x)为物体与成像设备的距离。
常见的方法将A和t(x)分开进行预测,这种间接优化将导致次最优解,本方法中将A和t(x)统一到一个公式,直接最小化图像的像素域的重构误差,如下式所示:
其中,t(x)和A被集中到新变量中间值K(x)中,b为常数偏差,默认值为1。
步骤(3)中,轻量化神经网络模型的卷积核提取到单帧图像中不同尺度的特征,然后使用跳跃连接在神经网络模型的输出端将不同尺度的特征拼接并输出生成增强的图像J(x):
J(x)=K(x)I(x)-K(x)+b (5)
工作原理:然而普通的神经网络模型因为含有大规模的参数量以及计算量达不到实时处理的效果,本发明结合卷积神经网络强大的特征提取能力以及轻量化神经网络的设计思路,实现输入雨雪雾天的模糊图像,输出大气散射模型中关键的透射率,再利用大气散射模型对图像进行增强。
有益效果:与现有技术相比,本发明具有以下优点:
(1)本发明直接调取摄像头的数据,无需增加额外的硬件成本。
(2)本发明使用OpenCV的图片可视化方法将单帧图像输出,采用轻量化神经网络模型在嵌入式设备上对单帧图像进行处理,处理速度为秒级,处理速度达到了40ms,实现了实时处理视频数据,并在嵌入式设备上进行视频实时增强处理。
(3)该雨雪雾天实时可视增强嵌入式***所采用的图像增强方法复杂度低,处理速度快,可应用在交通检测、智能驾驶方面。
附图说明
图1为雨雪雾天实时可视增强嵌入式***的视频增强流程图;
图2为雨雪雾天实时可视增强嵌入式***的示意图;
图3-1是未经本发明处理的某雾天的道路图像;
图3-2是对图3-1经本发明处理后的道路图像;
图4-1是未经本发明处理的某雨天的道路图像;
图4-2是对图4-1经本发明处理后的道路图像;
图5-1是未经本发明处理的某雪天的户外图像;
图5-2是对图5-1经本发明处理后的户外图像。
具体实施方式
本发明获取雨雪雾天中模糊图像的硬件设备为,采用Nvidia公司开发的JetsonXavier Nx测试作为去雾平台,该嵌入式设备支持GPU加速处理,且支持轻量化神经网络模型的推理。该去雾平台有六块Carmel ARM CPU和两个NVIDIA深度学习加速器,使用的操作***为Ubuntu18.04,搭载有摄像头。
如图1所示,本发明雨雪雾天实时可视增强方法的过程如下:
(1)通过OpenCV中的VideoCapture方法调用摄像头采集视频,并将视频分解读取为单帧图像;
(2)将步骤(1)中读取的单帧图像输入到构建的轻量化神经网络模型中,轻量化神经网络模型对输入的图像进行处理后,得到包含大气透射率t(x)和大气光值A的中间参数K(x);对图像进行增强,具体过程为:
(2.1)对输入轻量化神经网络模型的图像进行预处理:
将步骤(1)中由VideoCapture捕捉到的BGR图片转为RGB图片,进一步将RGB图片做归一化处理;随后对图像数据进行维度扩充,将原本的三维数据扩充为四维;再将读取到的ndarray形式的图片数据转为Tensor类型,并使用CUDA加速计算。
(2.2)采用轻量化神经网络模型对图像进行特征提取:
该步骤中采用的轻量化神经网络模型由包含不同大小卷积核的卷积层组成,包括1×1、3×3、5×5、7×7四种大小的卷积核,图像经过不同的卷积层时,神经网络模型提取图像中不同尺寸的特征;最后将提取到的不同尺度的特征图利用输出卷积层进行特征融合。
(2.3)采用跳跃连接的方式将不同尺度的特征图进行拼接
对于步骤(2.2)中提取到的不同尺度大小的特征图,采用跳跃连接的方式将各个尺度的特征图进行拼接,作为之后卷积层的输入,以此保留多个尺度的图像特征。
(2.4)修正轻量化神经网络模型中的线性单元
对于步骤(2.2)中的结果,使用修正的线性单元作为神经元的激活函数。修正线性单元将使一部分神经元的输出为0,使得网络具有稀疏性,减少了参数之间的相互依存关系,缓解过拟合问题的发生。修正线性单元如公式(1)所示:
(3)将增强的图像可视化:即根据大气散射模型,利用神经网络的输出值中间参数K(x)计算出增强后的单帧图像,使用OpenCV的图片可视化方法将增强后的单帧图像拼接为视频输出,具体过程为:
大气散射现象解释了模糊图像的成因,而大气散射模型是描述模糊图像生成过程的模型。根据式1所示的大气散射模型,找到使图像变模糊的因素,具体为:
I(x)=J(x)t(x)+A(1-t(x)) (2)
该大气散射模型中的I(x)表示观测到的模糊图像,J(x)表示待恢复的清晰图像,t(x)为大气透射率,即表示受大气中悬浮颗粒影响后的物体x处表面的反射光线的透射率;A表示大气光值,即大气光照强度,通常在一个场景中的大气光照变化不会很大,因此认为A不随x变化。该公式(2)中模糊图像I(x)是已知的,求出A与t(x)便求得J(x)。
其中,大气透射率t(x)定义为:
t(x)=e-βd(x) (3)
公式(3)中的β为大气散射系数,d(x)为物体与相机的距离。t(x)的值介于0和1之间,若某一像素处的t(x)为0,表示该像素点的反射光无法传输到成像设备;若某一像素点处的t(x)为1,则表示该像素点的反射光线可以不受任何干扰直接传输到成像设备。
考虑到若将A与t(x)分开进行预测,得到的是两个局部最优解,最后导致次最优解,因此将A与t(x)集中到一个公式,构造出一个中间值K(x),最小化图像的像素域的重构误差,根据K(x)计算增强的图像,如式(4)所示,其中K(x)表示为:
t(x)和A被集中到新变量K(x)中,b为常数偏差,默认值为1。
通过轻量化神经网络模型对K(x)进行预测,本发明使用的神经网络模型由卷积层构成,各卷积层所使用的卷积核大小也各不相同,不同大小的卷积核提取到单帧图像中不同尺度的特征,然后使用跳跃连接在神经网络模型的输出端将各种不同尺度的特征进行拼接融合。
在神经网络的输出端,将神经网络所提取到的多个尺度的特征进行融合并输出到最终的图像恢复模块,图像恢复模块根据下式生成清晰的图像J(x):
J(x)=K(x)I(x)-K(x)+b (5)
式中的J(x)为清晰的图像,K(x)为中间值,b为常数偏差,b的默认值为1。该图像恢复模块为轻量化神经网络模型的一个模块。
其中,步骤(3)中将增强后的图像利用OpenCV中的图像可视化方法进行显示时,在本发明所选择的嵌入式设备上对大小为640×360的图片进行图像增强的平均处理时间为40ms,因此作为实时处理。

Claims (8)

1.一种雨雪雾天实时可视增强方法,其特征在于:包括以下步骤:
(1)通过OpenCV中的VideoCapture方法调用摄像头采集视频,并将视频读取为单帧图像;
(2)将步骤(1)的单帧图像输入到构建的轻量化神经网络模型中,轻量化神经网络模型对输入的单帧图像处理后,得到包含大气透射率t(x)和大气光值A的中间参数K(x);
步骤(2)包括以下过程:
(2.1)对输入轻量化神经网络模型的图像进行预处理:
由VideoCapture捕捉到的视频读取为单帧图片后,将BGR格式的图片转为RGB图片,并将RGB图片做归一化处理;随后对图像数据进行维度扩充;再将读取到的ndarray形式的图片数据转为Tensor类型,并进行加速计算;
(2.2)采用轻量化神经网络模型对图像进行特征提取:
所述轻量化神经网络模型由包含不同大小卷积核的卷积层组成,图像经过不同的卷积层时,神经网络模型提取图像中不同尺度的特征;并将提取到的不同尺度的特征图利用输出卷积层进行特征融合;
(2.3)采用跳跃连接的方式将不同尺度的特征图进行拼接
对于步骤(2.2)中的不同尺度的特征图,采用跳跃连接的方式将各个尺度的特征图进行拼接,将包含了多个尺度的特征图像输入随后的特征融合卷积层;
(2.4)修正轻量化神经网络模型中的线性单元
对于步骤(2.2)中的结果,使用修正线性单元作为神经元的激活函数,如式(1)所示:
(3)根据大气散射模型,利用轻量化神经网络模型的输出值中间参数K(x)计算出增强的单帧图像,使用OpenCV的图片可视化方法将增强后的单帧图像输出;计算出增强的单帧图像的过程为:
大气散射模型如(2)式所示:
I(x)=J(x)t(x)+A(1-t(x)) (2)
其中,I(x)为观测到的模糊图像,J(x)为待恢复的清晰图像,A表示大气光值,t(x)为大气透射率;公式中观测到的模糊图像I(x)是已知的,求出A与t(x)进而求得J(x);
大气透射率t(x)定义为:
t(x)=e-βd(x) (3)
其中,β为大气散射系数,d(x)为物体与成像设备的距离;
将A和t(x)集中,构造出一个中间值K(x),根据K(x)计算增强的图像,K(x)为:
其中,t(x)和A被集中到新变量K(x)中,b为常数偏差,默认值为1。
2.根据权利要求1所述的雨雪雾天实时可视增强方法,其特征在于:步骤(2.1)中,对图像数据进行维度扩充时,将三维数据扩充为四维数据。
3.根据权利要求1所述的雨雪雾天实时可视增强方法,其特征在于:步骤(2.1)中,将读取到的ndarray形式的图片数据转为Tensor类型,并使用CUDA加速计算。
4.根据权利要求1所述的雨雪雾天实时可视增强方法,其特征在于:步骤(2.2)中,所述卷积层包括1x1、3x3、5x5、7x7四种大小的二维卷积核。
5.根据权利要求1所述的雨雪雾天实时可视增强方法,其特征在于:步骤(3)中,所述轻量化神经网络模型的卷积核提取到单帧图像中不同尺度的特征,然后使用跳跃连接在神经网络模型的输出端将不同尺度的特征拼接并输出生成增强的图像J(x):
J(x)=K(x)I(x)-K(x)+b (5)。
6.一种实施如权利要求1所述的雨雪雾天实时可视增强方法的嵌入式***,其特征在于:包括图像获取模块、图像处理模块和图像输出模块;所述图像获取模块获取视频数据并转为图像数据;所述图像处理模块对获取到的图像数据进行计算、增强;所述图像输出模块将增强后的图像数据进行展示。
7.根据权利要求6所述的实施雨雪雾天实时可视增强方法的嵌入式***,其特征在于:所述图像获取模块将获取到的视频数据转为单帧的图像数据。
8.根据权利要求6所述的实施雨雪雾天实时可视增强方法的嵌入式***,其特征在于:所述图像处理模块通过轻量化神经网络模型对图像的数据进行增强。
CN202210036243.5A 2022-01-13 2022-01-13 一种雨雪雾天实时可视增强嵌入式***及可视增强方法 Active CN114387187B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210036243.5A CN114387187B (zh) 2022-01-13 2022-01-13 一种雨雪雾天实时可视增强嵌入式***及可视增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210036243.5A CN114387187B (zh) 2022-01-13 2022-01-13 一种雨雪雾天实时可视增强嵌入式***及可视增强方法

Publications (2)

Publication Number Publication Date
CN114387187A CN114387187A (zh) 2022-04-22
CN114387187B true CN114387187B (zh) 2024-04-26

Family

ID=81201294

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210036243.5A Active CN114387187B (zh) 2022-01-13 2022-01-13 一种雨雪雾天实时可视增强嵌入式***及可视增强方法

Country Status (1)

Country Link
CN (1) CN114387187B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109389569A (zh) * 2018-10-26 2019-02-26 大象智能科技(南京)有限公司 基于改进DehazeNet的监控视频实时去雾方法
CN109978799A (zh) * 2019-04-15 2019-07-05 武汉理工大学 一种基于深度学习的海事无人机视频图像去雾方法
CN112164010A (zh) * 2020-09-30 2021-01-01 南京信息工程大学 一种多尺度融合卷积神经网络图像去雾方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109389569A (zh) * 2018-10-26 2019-02-26 大象智能科技(南京)有限公司 基于改进DehazeNet的监控视频实时去雾方法
CN109978799A (zh) * 2019-04-15 2019-07-05 武汉理工大学 一种基于深度学习的海事无人机视频图像去雾方法
CN112164010A (zh) * 2020-09-30 2021-01-01 南京信息工程大学 一种多尺度融合卷积神经网络图像去雾方法

Also Published As

Publication number Publication date
CN114387187A (zh) 2022-04-22

Similar Documents

Publication Publication Date Title
Li et al. Single image dehazing via conditional generative adversarial network
AU2020100274A4 (en) A Multi-Scale Feature Fusion Network based on GANs for Haze Removal
CN111915530B (zh) 一种基于端到端的雾霾浓度自适应神经网络图像去雾方法
CN113052210B (zh) 一种基于卷积神经网络的快速低光照目标检测方法
CN111079764B (zh) 一种基于深度学习的低照度车牌图像识别方法及装置
CN115861380B (zh) 雾天低照度场景下端到端无人机视觉目标跟踪方法及装置
Ehsan et al. A single image dehazing technique using the dual transmission maps strategy and gradient-domain guided image filtering
CN112950589A (zh) 一种多尺度卷积神经网络的暗通道先验去雾算法
CN114627269A (zh) 一种基于深度学***台
CN114004766A (zh) 一种水下图像增强方法、***和设备
CN113034404A (zh) 一种基于多尺度对抗学习的交通图像去模糊方法及装置
CN115984672A (zh) 基于深度学习的高清图像内小目标的检测方法和装置
CN117079117A (zh) 水下图像处理及目标识别的方法及装置、存储介质及电子设备
CN116596792A (zh) 一种面向智能船舶的内河雾天场景恢复方法、***及设备
CN115587987A (zh) 一种蓄电池缺陷检测方法、装置、存储介质及电子设备
CN117593702B (zh) 远程监控方法、装置、设备及存储介质
Li et al. BPFD-Net: enhanced dehazing model based on Pix2pix framework for single image
CN117952883A (zh) 一种基于双边网格和显著性引导的逆光图像增强方法
CN117152182B (zh) 一种超低照度网络相机图像处理方法、装置及电子设备
CN110738624B (zh) 一种区域自适应的图像去雾***及方法
CN116433822B (zh) 一种神经辐射场训练方法、装置、设备及介质
CN114387187B (zh) 一种雨雪雾天实时可视增强嵌入式***及可视增强方法
Liu et al. Dual UNet low-light image enhancement network based on attention mechanism
CN116342675A (zh) 一种实时单目深度估计方法、***、电子设备及存储介质
CN114898096A (zh) 一种人物图像的分割和标注方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant