CN114066751A - 基于普通摄像头采集条件下的车卡监控视频去模糊方法 - Google Patents

基于普通摄像头采集条件下的车卡监控视频去模糊方法 Download PDF

Info

Publication number
CN114066751A
CN114066751A CN202111280132.0A CN202111280132A CN114066751A CN 114066751 A CN114066751 A CN 114066751A CN 202111280132 A CN202111280132 A CN 202111280132A CN 114066751 A CN114066751 A CN 114066751A
Authority
CN
China
Prior art keywords
image
frame
video
layer
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111280132.0A
Other languages
English (en)
Other versions
CN114066751B (zh
Inventor
王�琦
马欣
李学龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202111280132.0A priority Critical patent/CN114066751B/zh
Publication of CN114066751A publication Critical patent/CN114066751A/zh
Application granted granted Critical
Publication of CN114066751B publication Critical patent/CN114066751B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/043Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Computational Mathematics (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于普通摄像头采集条件下的车卡监控视频去模糊方法。首先,对车卡摄像头所获取的连续帧进行像素级特征匹配;然后,利用PWC‑Net网络获取帧之间的运动光流信息,为网络学习过程增加辅助特征;接着,设计用于多帧去模糊的端到端神经网络,并以对齐后的连续帧与光流数据作为输入,进行端到端网络训练;最后,利用训练好的网络进行处理,得到去模糊结果图像。本发明通过对输入数据进行有效预处理,并利用光流辅助信息优化网络训练过程,能够克服已有模型训练不稳定的问题,显著提升图像质量。同时,由于利用了由两台视频成像设备拍摄得到的真实模糊视频数据集,方法实用性和针对性更强。

Description

基于普通摄像头采集条件下的车卡监控视频去模糊方法
技术领域
本发明属计算机视觉领域,具体涉及一种基于普通摄像头采集条件下的车卡监控视频去模糊方法。
背景技术
视频去模糊是近年来计算机视觉领域备受关注的一个研究课题。视频去模糊的过程可以建模为基于某一时刻连续的若干视频帧的信息经过设计网络的处理得到潜在的清晰帧。其中,关键在于网络的结构和处理方式与能力。
视频去模糊算法主要分为三种,一种是基于先验的传统算法,在模糊图像与清晰图像之间进行某种先验假设,再进行光流以及对应的潜在清晰图像估计,在处理过程中,往往采用手动设计先验信息。这类方法能够适用于大多数实验场景,且具有较高的运算效率,但是由于其先验假设是建立在某一固定的方程假设之中,如果所面对的场景不符合假设的情况,就会失去其有效性,比如对于多种场景混合数据集或者同一数据混合场景的情况,基于先验的算法就无法得到较好的处理结果。第二种是基于深度学习的算法,以大数量级的数据经验学习为目标,尤其是很多的端到端的网络模型,可以实现从单一的模糊图像或者视频序列生成清晰图像,且在大量计算资源条件下能够充分发挥深度网络的强大拟合能力,简单而快速。这类算法的效果主要依赖于网络模型和数据集质量,且需要较大的计算资源支持,对硬件要求极高。第三种是深度学习与先验假设相结合的方法,利用深度网络模型进行建模,并通过一定的先验算法来约束模型输出,这一类方法具有较好的算法性能,尤其对于视频序列去模糊问题,能够较好地利用帧与帧之间的相关信息,取得更好的去模糊效果。其问题在于,忽略数据的已有分布特征,其网络的训练和收敛速度不稳定。
发明内容
为了克服现有技术的不足,本发明提供一种基于普通摄像头采集条件下的车卡监控视频去模糊方法。首先,对车卡摄像头所获取的连续帧进行像素级的特征匹配,保证真实清晰帧与模糊帧空间位置的对应;然后,通过PWC-Net网络获取视频帧之间的运动光流信息,为网络的学习过程增加辅助特征;最后,将对齐的连续帧与光流数据输入到端到端的网络中进行训练,学习得到能够有效去除模糊的网络参数,再对待处理视频图像进行处理,得到最终的去模糊结果图像。本方法通过有效的对输入数据进行预处理,并利用光流的辅助信息优化网络训练过程,能够克服已有模型训练不稳定的问题,显著提升图像质量。
一种基于普通摄像头采集条件下的车卡监控视频去模糊方法,其特征在于步骤如下:
步骤1:利用两个摄像机对同一路段同一视角车卡场景在相同时刻进行拍摄,得到由若干帧模糊与清晰图像对构成的视频数据;以清晰图像为标准图像,采用SIFT特征提取方法对得到的视频帧图像对进行空间对齐,再对视频帧图像进行裁剪或插值处理,使所有视频帧图像的大小相同;
步骤2:以每一帧和其前后帧模糊图像作为一个训练数据单元,输入到基于金字塔模式的PWC-Net光流估计网络中,得到对应帧图像的双向光流双通道数据,将处理的原三帧图像与光流数据按照通道纬度组合为一个张量作为后续网络的输入数据;
步骤3:构建基于端到端的去模糊神经网络模型,包括编码器、高层特征模块和解码器三个模块;
所述的编码器包括卷积层模块和下采样残差模块,卷积层模块对输入数据进行卷积特征提取,得到低层特征;下采样残差模块首先对卷积层提取得到低层特征进行下采样和卷积操作,提取得到初步中层特征,然后将下采样之后的特征与初步中层特征进行加权平均,输出中层特征;
所述的高层特征模块对编码器输出的中层特征进行卷积操作,输出高层特征;
所述的解码器包括上采样残差模块和卷积层模块,上采样残差模块首先对提取得到的高层特征进行上采样和卷积操作,提取得到初步中层特征,然后将上采样之后的特征与初步中层特征进行加权平均,输出中层特征;卷积层模块对得到的中层特征进行卷积操作,得到与目标图像形状一致的图像;
所述的端到端的去模糊神经网络模型的损失函数按下式计算:
Figure BDA0003327241890000021
其中,L表示损失函数,θ表示网络参数,N为训练视频段数量,视频段指在不同时间节点所拍摄的连续视频,M为训练数据单元数量,
Figure BDA0003327241890000022
表示第n个视频数据段中第i-1帧模糊图像,
Figure BDA0003327241890000031
表示第n个视频数据段中第i帧对应第i-1帧的光流信息,
Figure BDA0003327241890000032
表示第n个视频数据段中第i帧模糊图像,
Figure BDA0003327241890000033
表示第n个视频数据段中第i帧对应第i+1帧的光流信息,
Figure BDA0003327241890000034
表示第n个视频数据段中第i+1帧模糊图像,
Figure BDA0003327241890000035
表示第n个视频数据段中第i+1帧清晰图像;EDCθ(·)表示网络输出;
步骤4:将经过步骤2处理的张量输入到步骤3构建的基于端到端的去模糊神经网络模型,采用后向传播算法进行网络训练,直到达到设定的训练次数,完成网络训练,得到训练好的去模糊神经网络模型;
步骤5:将待处理的车卡场景采集视频图像输入到步骤4训练好的去模糊神经网络模型,得到去模糊处理后的车卡场景图像。
本发明的有益效果是:由于对图像进行了SIFT预处理,同时增加光流的辅助信息,能够明显改善网络训练过程的稳定性,网络的收敛速度也能得到大幅改善;由于采用基于自拍摄的车卡监控场景数据集,且包含模糊图像,使训练得到的网络模型能够更好适用于车卡监控去模糊问题,方法针对性强,特别对因车辆快速移动所导致的模糊图像有更好的质量提升。
附图说明
图1是本发明基于普通摄像头采集条件下的车卡监控视频去模糊方法流程图;
图2是本发明基于端到端的去模糊神经网络模型结构示意图;
图3是采用方法进行去模糊处理的结果图像。
具体实施方式
下面结合附图和实施例对本发明进一步说明,本发明包括但不仅限于下述实施例。
如图1所示,本发明提供了一种基于普通摄像头采集条件下的车卡监控视频去模糊方法,其具体实现过程如下:
1、视频数据采集和预处理
(1)数据采集
利用两个摄像机对同一路段同一视角车卡场景在相同时刻进行拍摄,得到由若干帧模糊与清晰图像对构成的视频数据。
在数据采集之前可以对两个摄像机进行一些调整,包括:利用三脚架和快装板将两个不同规格的摄像机架设在并排的同一位置,摄像机之间的距离尽可能保持最近,分别拍摄长曝光时间和短曝光时间的数据;将两个摄像机的焦距调到最大距离,减少透视带来的形变误差;在不同的曝光时间和25FPS设置前提下,调整光圈大小保持两个摄像机视野亮度的一致。
(2)预处理
对采集到的视频数据进行像素级特征匹配预处理,包括:以清晰图像为标准图像,采用SIFT特征提取方法对得到的视频帧图像对进行空间对齐,再对视频帧图像进行裁剪或插值处理,使所有视频帧图像的大小相同。此时,得到预处理后的视频帧数据。
2、提取光流信息
首先,每一帧与其前后帧模糊图像作为一个独立的训练数据单元。在每一个训练数据单元中,将中间帧与其前后帧模糊图像作为一组数据输入基于金字塔模式的PWC-Net光流估计网络中,得到模糊图像前一帧与后一帧与中间帧对应的双向光流通道数据,将处理的原三帧图像与光流数据按照通道纬度组合为一个张量作为后续网络的输入数据。
其中,基于金字塔模式的PWC-Net光流估计网络模型记载在文献“Sun D,Yang X,Liu M Y,et al.Pwc-net:Cnns for optical flow using pyramid,warping,and costvolume[C]//Proceedings of the IEEE conference on computer vision and patternrecognition.2018:8934-8943.”中。
3、构建基于端到端的去模糊神经网络模型
为了去除真实车卡场景中车辆在运动过程中所导致的模糊,本发明构建了基于端到端的去模糊神经网络模型(EDC模型),如图2所示,主要包括编码器、高层特征模块和解码器三个模块。
(1)编码器模块
编码器包括卷积层模块和下采样残差模块,卷积层模块对输入数据进行卷积特征提取,得到低层特征;下采样残差模块首先对卷积层提取得到低层特征进行下采样和卷积操作,提取得到初步中层特征,然后将下采样之后的特征与初步中层特征进行加权平均,输出中层特征。
(2)高层特征模块
高层特征模块对编码器输出的中层特征进行卷积操作,输出高层特征。
(3)解码器模块
编码器包括上采样残差模块和卷积层模块,上采样残差模块首先对提取得到的高层特征进行上采样和卷积操作,提取得到初步中层特征,然后将上采样之后的特征与初步中层特征进行加权平均,输出中层特征;卷积层模块对得到的中层特征进行卷积操作,得到与目标图像形状一致的图像;
(4)损失函数
EDC模型的损失函数按下式计算:
Figure BDA0003327241890000051
其中,L表示损失函数,θ表示网络参数,N为训练视频段数量,视频段指在不同时间节点所拍摄的连续视频,M为训练数据单元数量,
Figure BDA0003327241890000052
表示第n个视频数据段中第i-1帧模糊图像,
Figure BDA0003327241890000053
表示第n个视频数据段中第i帧对应第i-1帧的光流信息,
Figure BDA0003327241890000054
表示第n个视频数据段中第i帧模糊图像,
Figure BDA0003327241890000055
表示第n个视频数据段中第i帧对应第i+1帧的光流信息,
Figure BDA0003327241890000056
表示第n个视频数据段中第i+1帧模糊图像,
Figure BDA0003327241890000057
表示第n个视频数据段中第i+1帧清晰图像;EDCθ(·)表示网络输出。
表1给出了EDC网络模型各模块的一种具体实现方式。
表1
Figure BDA0003327241890000058
Figure BDA0003327241890000061
Figure BDA0003327241890000071
4、网络训练
将经过步骤2初步处理的组合张量输入到步骤3构建的基于端到端的去模糊神经网络模型,采用后向传播算法进行网络训练,直到达到设定的训练次数(一般可设置为600次),完成网络训练,得到训练好的去模糊神经网络模型。
5、去模糊处理
将待处理的车卡场景采集视频图像输入到步骤4训练好的去模糊神经网络模型,得到去模糊处理后的车卡场景图像。
图3给出了采用本发明方法在拍摄的车卡场景视频数据中进行去模糊处理前后的图像,其中,(a)为真实清晰图像,(b)为真实模糊图像,(c)为去模糊之后图像。可以看出,去模糊之后的图像中,车辆及环境的信息得到了有效的恢复,尤其是对于原本不可识别的车辆车牌信息恢复到了人眼易识别的程度。

Claims (1)

1.一种基于普通摄像头采集条件下的车卡监控视频去模糊方法,其特征在于步骤如下:
步骤1:利用两个摄像机对同一路段同一视角车卡场景在相同时刻进行拍摄,得到由若干帧模糊与清晰图像对构成的视频数据;以清晰图像为标准图像,采用SIFT特征提取方法对得到的视频帧图像对进行空间对齐,再对视频帧图像进行裁剪或插值处理,使所有视频帧图像的大小相同;
步骤2:以每一帧和其前后帧模糊图像作为一个训练数据单元,输入到基于金字塔模式的PWC-Net光流估计网络中,得到对应帧图像的双向光流双通道数据,将处理的原三帧图像与光流数据按照通道纬度组合为一个张量作为后续网络的输入数据;
步骤3:构建基于端到端的去模糊神经网络模型,包括编码器、高层特征模块和解码器三个模块;
所述的编码器包括卷积层模块和下采样残差模块,卷积层模块对输入数据进行卷积特征提取,得到低层特征;下采样残差模块首先对卷积层提取得到低层特征进行下采样和卷积操作,提取得到初步中层特征,然后将下采样之后的特征与初步中层特征进行加权平均,输出中层特征;
所述的高层特征模块对编码器输出的中层特征进行卷积操作,输出高层特征;
所述的解码器包括上采样残差模块和卷积层模块,上采样残差模块首先对提取得到的高层特征进行上采样和卷积操作,提取得到初步中层特征,然后将上采样之后的特征与初步中层特征进行加权平均,输出中层特征;卷积层模块对得到的中层特征进行卷积操作,得到与目标图像形状一致的图像;
所述的端到端的去模糊神经网络模型的损失函数按下式计算:
Figure FDA0003327241880000011
其中,L表示损失函数,θ表示网络参数,N为训练视频段数量,视频段指在不同时间节点所拍摄的连续视频,M为训练数据单元数量,
Figure FDA0003327241880000012
表示第n个视频数据段中第i-1帧模糊图像,
Figure FDA0003327241880000013
表示第n个视频数据段中第i帧对应第i-1帧的光流信息,
Figure FDA0003327241880000014
表示第n个视频数据段中第i帧模糊图像,
Figure FDA0003327241880000015
表示第n个视频数据段中第i帧对应第i+1帧的光流信息,
Figure FDA0003327241880000016
表示第n个视频数据段中第i+1帧模糊图像,
Figure FDA0003327241880000017
表示第n个视频数据段中第i+1帧清晰图像;EDCθ(·)表示网络输出;
步骤4:将经过步骤2处理的张量输入到步骤3构建的基于端到端的去模糊神经网络模型,采用后向传播算法进行网络训练,直到达到设定的训练次数,完成网络训练,得到训练好的去模糊神经网络模型;
步骤5:将待处理的车卡场景采集视频图像输入到步骤4训练好的去模糊神经网络模型,得到去模糊处理后的车卡场景图像。
CN202111280132.0A 2021-10-29 2021-10-29 基于普通摄像头采集条件下的车卡监控视频去模糊方法 Active CN114066751B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111280132.0A CN114066751B (zh) 2021-10-29 2021-10-29 基于普通摄像头采集条件下的车卡监控视频去模糊方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111280132.0A CN114066751B (zh) 2021-10-29 2021-10-29 基于普通摄像头采集条件下的车卡监控视频去模糊方法

Publications (2)

Publication Number Publication Date
CN114066751A true CN114066751A (zh) 2022-02-18
CN114066751B CN114066751B (zh) 2024-02-27

Family

ID=80236196

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111280132.0A Active CN114066751B (zh) 2021-10-29 2021-10-29 基于普通摄像头采集条件下的车卡监控视频去模糊方法

Country Status (1)

Country Link
CN (1) CN114066751B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109360171A (zh) * 2018-10-26 2019-02-19 北京理工大学 一种基于神经网络的视频图像实时去模糊方法
CN111199521A (zh) * 2019-12-10 2020-05-26 南京理工大学 嵌入傅立叶聚合的视频去模糊三维卷积深度网络方法
KR102197089B1 (ko) * 2020-09-22 2020-12-30 엘아이지넥스원 주식회사 단일 영상 비균일 블러 제거를 위한 딥러닝 기반 다중 학습 구조
CN112200732A (zh) * 2020-04-30 2021-01-08 南京理工大学 一种清晰特征融合的视频去模糊方法
CN112837245A (zh) * 2021-03-16 2021-05-25 西北工业大学 一种基于多模态融合的动态场景去模糊方法
WO2021184894A1 (zh) * 2020-03-20 2021-09-23 深圳市优必选科技股份有限公司 一种去模糊的人脸识别方法、***和一种巡检机器人

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109360171A (zh) * 2018-10-26 2019-02-19 北京理工大学 一种基于神经网络的视频图像实时去模糊方法
CN111199521A (zh) * 2019-12-10 2020-05-26 南京理工大学 嵌入傅立叶聚合的视频去模糊三维卷积深度网络方法
WO2021184894A1 (zh) * 2020-03-20 2021-09-23 深圳市优必选科技股份有限公司 一种去模糊的人脸识别方法、***和一种巡检机器人
CN112200732A (zh) * 2020-04-30 2021-01-08 南京理工大学 一种清晰特征融合的视频去模糊方法
KR102197089B1 (ko) * 2020-09-22 2020-12-30 엘아이지넥스원 주식회사 단일 영상 비균일 블러 제거를 위한 딥러닝 기반 다중 학습 구조
CN112837245A (zh) * 2021-03-16 2021-05-25 西北工业大学 一种基于多模态融合的动态场景去模糊方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
林传健;邓炜;童同;高钦泉;: "基于深度体素流的模糊视频插帧方法", 计算机应用, no. 03, 31 December 2020 (2020-12-31) *
申海杰;边倩;陈晓范;王振铎;田新志;: "生成对抗网络用于视频去模糊", 西安电子科技大学学报, no. 06, 31 December 2019 (2019-12-31) *
聂可卉;刘文哲;童同;杜民;高钦泉;: "基于自适应可分离卷积核的视频压缩伪影去除算法", 计算机应用, no. 05, 10 May 2019 (2019-05-10) *

Also Published As

Publication number Publication date
CN114066751B (zh) 2024-02-27

Similar Documents

Publication Publication Date Title
US11928792B2 (en) Fusion network-based method for image super-resolution and non-uniform motion deblurring
CN111028177B (zh) 一种基于边缘的深度学习图像去运动模糊方法
CN111709895A (zh) 基于注意力机制的图像盲去模糊方法及***
CN113592736B (zh) 一种基于融合注意力机制的半监督图像去模糊方法
CN110544213B (zh) 一种基于全局和局部特征融合的图像去雾方法
CN111861894B (zh) 基于生成式对抗网络的图像去运动模糊方法
CN116071243B (zh) 一种基于边缘增强的红外图像超分辨率重建方法
CN112419191B (zh) 基于卷积神经网络的图像运动模糊去除方法
CN112200732B (zh) 一种清晰特征融合的视频去模糊方法
CN109949234B (zh) 基于深度网络的视频复原模型训练方法及视频复原方法
CN116579945B (zh) 一种基于扩散模型的夜间图像复原方法
Zhang et al. Deep motion blur removal using noisy/blurry image pairs
CN101241592A (zh) 高帧频红外图像序列中运动目标的实时复原方法
CN114494050A (zh) 一种基于事件相机的自监督视频去模糊和图像插帧方法
CN114066751B (zh) 基于普通摄像头采集条件下的车卡监控视频去模糊方法
CN115984124A (zh) 一种神经形态脉冲信号去噪和超分辨方法及装置
CN116208812A (zh) 一种基于立体事件和强度相机的视频插帧方法及***
CN114913095A (zh) 基于域适应的深度去模糊方法
CN112364200B (zh) 一种类脑成像的方法、装置、设备及存储介质
CN113935910A (zh) 一种基于深度学习的图像模糊长度测量方法
CN113538505A (zh) 一种基于深度学习的单张图片的运动估计***及方法
CN114596219B (zh) 一种基于条件生成对抗网络的图像去运动模糊方法
CN114170111A (zh) 一种基于渐进变化率空洞卷积的图像去模糊方法
CN114022376A (zh) 一种去除视频噪声的方法及其装置
CN117670719A (zh) 一种去模糊多曝光图像融合方法、***及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant