CN116310375A - 基于视觉注意力机制的盲图像质量评估方法 - Google Patents

基于视觉注意力机制的盲图像质量评估方法 Download PDF

Info

Publication number
CN116310375A
CN116310375A CN202310003353.6A CN202310003353A CN116310375A CN 116310375 A CN116310375 A CN 116310375A CN 202310003353 A CN202310003353 A CN 202310003353A CN 116310375 A CN116310375 A CN 116310375A
Authority
CN
China
Prior art keywords
image
attention
feature
level features
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310003353.6A
Other languages
English (en)
Inventor
于天河
孙岩
程士成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin University of Science and Technology
Original Assignee
Harbin University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin University of Science and Technology filed Critical Harbin University of Science and Technology
Priority to CN202310003353.6A priority Critical patent/CN116310375A/zh
Publication of CN116310375A publication Critical patent/CN116310375A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于视觉注意力机制的盲图像质量评估方法。所述方法包括:将原始图像进行尺寸限定后输入特征提取网络A提取高层特征和低层特征;将原图进行预处理生成恰可察觉失真图和显著图,将恰可察觉失真图像和显著图输入特征提取网络B提取高层特征;将在原图中提取的低层特征通过各自的降维池化模块得到特征向量;将在原图和恰可察觉失真图中提取的高层特征和经过降维池化得到的特征进行融合;根据融合后的特征向量在质量回归网络得到质量分数。本方法结合了视觉注意力机制,在不同特征提取网络中使用了不同的注意力机制,提取的特征更符合人眼注意力特性,兼顾了图像中提取的低层特征对图像质量的影响,使图像质量评价更加准确。

Description

基于视觉注意力机制的盲图像质量评估方法
技术领域
本发明涉及一种基于视觉注意力机制的盲图像质量评估方法,属于图像处理领域。
背景技术
随着信息技术的不断发展,数字信息资源爆发式增长,通过电子设备人们可以获取复杂多样的信息。图像信息可以直观的记录客观事物,相比于文字信息、语音信息等更加高效。图像信息常见于日常生活中的各个领域,是应用最广泛、最高效的信息媒介之一。然而在图像的采集传输等过程中不可避免的会引入噪声等干扰导致图像质量下降。低质量的图像严重影响人们的视觉体验和计算机视觉在各个领域的发展,因此,如何准确评估图像的质量是一个基本且重要的问题。
在客观图像质量评估中,盲图像质量评估方法由于不需要参考图像的参与受到了研究者的重点关注。Kang等人首先将卷积神经网络(Convolutional Neural Network,CNN)应用于图像质量评估,其模型是一个浅层CNN网络,将图像进行切块处理后输入网络得到质量分数。Ma等人同样基于CNN网络,设计了一种多任务学习模型,该网络包括由两个子网络构成,分别为质量预测子网和失真类别识别子网,两个子网络特征提取部分参数共享,预先训练失真类别识别子网络,然后进行整体网络训练。
目前,大多数使用深度学习进行图像质量评价的方法直接在失真图像上提取特征,而人眼视觉***并不会对图像的每个区域都一视同仁,而是筛选出部分相关的感兴趣区域并加以侧重处理。这些方法都忽略了人眼视觉注意机制对图像质量评估的影响,导致预测结果不够准确。并且对于图像质量评估,只使用深层网络提取的特征在一定程度忽略低层特征,如纹理、梯度特征对质量的影响。
发明内容
本发明的目的在于公开一种基于视觉注意力机制的盲图像质量评估方法,使用注意力机制使网络更注重图像中对图像质量影响更大的部分,兼顾图像中提取的低层特征,从而提高对失真图像的质量分数的预测精度。
基于视觉注意力机制的盲图像质量评估方法,包括:
步骤1、将原始图像进行尺寸限定后输入特征提取网络A提取高层特征和低层特征;
步骤2、将原图进行预处理生成恰可察觉失真图和显著图,将恰可察觉失真图和显著图输入特征提取网络B提取高层特征;
步骤3、将步骤1提取的低层特征通过各自的降维池化模块得到特征向量;
步骤4、将步骤1、步骤2提取的高层特征和步骤3得到的特征进行特征融合;
步骤5、根据融合后的特征向量在质量回归网络得到质量分数。
本发明特点还在于:
步骤1中的尺寸限定为输入图片尺寸限制在n×n范围内,当图像宽或高大于n时,将图像大于n的宽或高缩放至n,n取512像素。
步骤1中将尺寸限定后的原始失真图像作为输入,特征提取网络A以MobilenetV2网络为基础,在每个瓶颈结构的最后一个倒残差中添加混合注意力模块,所述的低层特征为第二个和第四个瓶颈结构输出的特征图,高层特征为网络最后一个瓶颈结构输出的特征图。
添加的混合注意力模块的构成采用先通道模块后空间模块的方式。通道注意力具体操作如下:
C=Mul(σ(a(K1(GAP(m)),K2(GMP(m)))),m)
其中,m为要经过通道注意力模块的特征图,GAP和GMP分别为对m做全局最大池化和全局平均池化操作,K1和K2为对GAP操作和GMP操作后的特征进行1×1自适应卷积操作,a为将K1和K2操作后的特征进行对应元素相加,σ为sigmod操作,Mul为将m和σ操作后的通道权重进行对应相乘,将经过通道注意模块的C输入进空间注意力。空间注意力为CBAM注意力模块的空间注意力部分,是一种自上而下的由数据驱动的注意力。
步骤2中以恰可察觉失真图和显著图作为输入,将显著图和恰可察觉失真图拼接为两通道图像,显著图作为恰可察觉失真图的空间注意力部分。具体过程为:使用显著性提取模型和恰可察觉失真模型提取图像的显著图和恰可察觉失真图。将显著图和恰可察觉失真图进行拼接得到一个两通道的图像;将拼接后的图像输入设计的特征提取网络B,此网络为步骤2中的特征提取网络A去掉空间注意力模块;
步骤3具体过程为:将步骤1中提取的低层特征,分别经过一个降维池化模块,降维池化模块包括平均池化、1×1卷积和SPP池化,通过步长为2的2×2平均池化将特征图宽高减小一半大小,再经过1×1卷积减小通道数到10,最后经过SPP池化将特征图转为一维特征向量。
步骤4具体为:包含两次特征融合,首先将步骤1、步骤2提取的高层特征进行通道拼接,拼接好的特征送入自适应平均池化得到一个特征向量,随后将得到的特征向量与步骤3得到的特征向量进行拼接,得到最终要输入质量回归网络的特征。
本发明的有益效果为:
本发明提出了一种基于视觉注意力机制的盲图像质量评估方法,构建了两个特征提取网络,两路网络使用了相同的通道注意力,针对不同输入图像使用了不同的空间注意力,提取的特征更符合人眼注意力特性,提高图像质量评价的精度。图像质量评价需要图像的梯度、纹理等低层信息和高层语义信息,由原图中提取的低层特征弥补了目前多数深度学习的图像质量评估方法只使用高层特征的缺点,提升图像质量评估的准确性。
附图说明
图1为本发明涉及的基于视觉注意力机制的盲图像质量评估方法的流程图。
图2为本发明涉及的降维池化模块结构图
具体实施方式
本发明提出了一种基于视觉注意力机制的盲图像质量评估方法。为了使本技术领域的人员更好地理解本发明实施例中的技术方案,并使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明中技术方案作进一步详细的说明:
本发明首先提供了一种基于视觉注意力机制的盲图像质量评估方法,如图1所示,具体方法如下:
步骤1、将原始图像进行尺寸限定后输入特征提取网络A提取高层特征和低层特征;
步骤1具体为:
将输入图片尺寸限制在n×n范围内,当图像宽或高大于n时,将图像大于n的宽或高缩放至n,n取512像素。将尺寸限定后的图像输入特征提取网络,特征提取网络A以MobilenetV2网络为基础,MobilenetV2网络是一种轻量化卷积神经网络,具有参数量少、计算量小、准确率高等优点,在能提取丰富图像特征的同时保持较小的计算开销。去掉MobilenetV2的最后一个输出层和池化层,在MobilenetV2的每个瓶颈结构的最后一个倒残差中添加混合注意力模块,将第二个和第四个瓶颈结构输出的特征作为低层特征,最后一个瓶颈结构输出的特征图为高层特征。
添加的混合注意力模块的构成采用先通道模块后空间模块的方式。通道注意力具体操作如下:
C=Mul(σ(a(K1(GAP(m)),K2(GMP(m)))),m)
其中,m为要经过通道注意力模块的特征图,GAP和GMP分别为对m做全局最大池化和全局平均池化操作,K1和K2为对GAP操作和GMP操作后的特征进行1×1自适应卷积操作,a为将K1和K2操作后的特征进行对应元素相加,σ为sigmod操作,Mul为将m和σ操作后的通道权重进行对应相乘,将经过通道注意模块的C输入进空间注意力。空间注意力为CBAM注意力模块的空间注意力部分。所述的混合注意力模块本质上是由任务驱动来分配权重,是一种自上而下的注意力。
步骤2、将原图进行预处理生成恰可察觉失真图和显著图,将恰可察觉失真图和显著图输入特征提取网络B提取高层特征;
步骤2具体为:
以恰可察觉失真图和显著图作为输入,恰可察觉失真图由恰可察觉失真模型获得,为现有模型,恰可察觉失真图反映了人眼对不同失真的敏感度和可察觉的失真阈值。显著图作为恰可察觉失真图像的空间注意力部分,显著图表达了显著性的注意力,此注意力是一种典型的自下而上的、由外界刺激驱动的注意力,显著图由显著性提取模型获得,为现有模型。
使用显著性提取模型和恰可察觉失真模型提取图像的显著图和恰可察觉失真图;将显著图和恰可察觉失真图进行拼接得到一个两通道的图像;将拼接后的图像输入设计的特征提取网络B,此网络为步骤2中的特征提取网络A去掉空间注意力模块;
步骤3、将步骤1提取的低层特征通过各自的降维池化模块得到特征向量;
步骤3具体为:
取网络中第二个和第四个瓶颈结构后的特征图作为低层特征,分别经过一个如图2所示的降维池化模块,通过步长为2的2×2平均池化将特征图宽高减小一半大小,再经过1×1卷积减小通道数到10,最后经过SPP池化将特征图转为一维特征向量。
步骤4、将步骤1、步骤2提取的高层特征和步骤3得到的特征进行特征融合。
步骤4具体为:
包含两次特征融合,首先将步骤1、步骤2提取的高层特征进行通道拼接,拼接好的特征送入自适应平均池化得到一个特征向量,随后将得到的特征向量与步骤3得到的特征向量进行拼接,得到最终要输入质量回归网络的特征。
步骤5、根据融合后的特征向量在质量回归网络得到质量分数;
步骤5具体为:
质量回归网络不再提取图像特征而是将之前提取的特征与图像质量形成映射关系。质量回归网络由4个全连接层构成,使用sigmod激活函数,损失函数使用Smooth L1损失函数结合排序损失为最终的损失函数。使用反向传播机制更新网络参数。Smooth L1损失函数对比L1、L2损失函数而言,具有收敛更快、对异常值不敏感和易训练的特点。排序损失是指网络预测的图像质量分数与实际的质量分数的顺序相同,使用Smooth L1损失函数结合排序损失的损失函数会更利于的提升模型的性能。
Smooth L1损失函数公式如下:
Figure BDA0004034932130000051
排序损失如下:
Figure BDA0004034932130000052
Figure BDA0004034932130000053
总损失函数公式如下:
L=α×SmoothL1+β×Lrank
其中,xi表示在第i张图片的真实值,yi是第i张图片的预测值,
Figure BDA0004034932130000054
为图片i和图片j之间的排序损失,α和β分别为Smooth L1损失和排序损失的权重。
本发明是一种基于视觉注意力机制的盲图像质量评估方法,分别在原图和恰可察觉失真图上提取特征,恰可察觉失真图反映了人眼视觉***的失真的感知特征,在对原图做特征提取时采用了自上而下由特征驱动的注意力,恰可察觉失真图在反应失真感知特性的同时也丢失了部分特征,使用自下而上的由外界刺激驱动的注意力,即显著图来表达其显著区域,提取特征的两路网络使用了相同的通道注意力,提取的特征更符合人眼注意力特性,提高图像质量评价的精度。本方法还结合了图像中提取的高低层特征,提升图像质量评估的准确性。

Claims (6)

1.基于视觉注意力机制的盲图像质量评估方法,其特征在于:通过以下步骤实现:
步骤1、将原始图像进行尺寸限定后输入特征提取网络A提取高层特征和低层特征;
步骤2、将原图进行预处理生成恰可察觉失真图和显著图,将恰可察觉失真图和显著图输入特征提取网络B提取高层特征;
步骤3、将步骤1提取的低层特征通过各自的降维池化模块得到特征向量;
步骤4、将步骤1、步骤2提取的高层特征和步骤3得到的特征进行特征融合;
步骤5、根据融合后的特征向量在质量回归网络得到质量分数。
2.根据权利要求1所述的基于视觉注意力机制的盲图像质量评估方法,其特征在于:所述的步骤1中的尺寸限定为输入图片尺寸限制在n×n范围内,当图像宽或高大于n时,将图像大于n的宽或高缩放至n,n取512像素。
3.根据权利要求1所述的基于视觉注意力机制的盲图像质量评估方法,其特征在于:所述的步骤1中特征提取网络A以MobilenetV2网络为基础,在每个瓶颈结构的最后一个倒残差中添加混合注意力模块,所述的低层特征为第二个和第四个瓶颈结构输出的特征图,高层特征为网络最后一个瓶颈结构输出的特征图,添加的混合注意力模块中通道注意力具体操作如下:
C=Mul(σ(a(K1(GAP(m)),K2(GMP(m)))),m)
其中,m为要经过通道注意力模块的特征图,GAP和GMP分别为对m做全局最大池化和全局平均池化操作,K1和K2为对GAP操作和GMP操作后的特征进行1×1自适应卷积操作,a为将K1和K2操作后的特征进行对应元素相加,σ为sigmod操作,Mul为将m和σ操作后的通道权重进行对应相乘,将经过通道注意模块的C输入进空间注意力,空间注意力为CBAM注意力模块的空间注意力部分。
4.根据权利要求1所述的基于视觉注意力机制的盲图像质量评估方法,其特征在于:所述步骤2中将显著图和恰可察觉失真图拼接为两通道图像,显著图作为恰可察觉失真图的空间注意力部分,特征提取网络B为步骤1中网络去掉空间注意力模块。
5.根据权利要求1所述的基于视觉注意力机制的盲图像质量评估方法,其特征在于:所述的步骤3的降维池化模块包括平均池化、1×1卷积和SPP池化,将步骤1提取的低层特征,经过平均池化将特征图降采样,再经过1×1卷积减小通道数,最后经过SPP池化将特征图转为一维特征向量。
6.根据权利要求1所述的基于视觉注意力机制的盲图像质量评估方法,其特征在于:所述的步骤4包含两次特征融合,首先将步骤1、步骤2提取的高层特征进行通道拼接,拼接好的特征送入自适应平均池化得到一个特征向量,随后将得到的特征向量与步骤3得到的特征向量进行拼接,得到最终要输入质量回归网络的特征。
CN202310003353.6A 2023-01-03 2023-01-03 基于视觉注意力机制的盲图像质量评估方法 Pending CN116310375A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310003353.6A CN116310375A (zh) 2023-01-03 2023-01-03 基于视觉注意力机制的盲图像质量评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310003353.6A CN116310375A (zh) 2023-01-03 2023-01-03 基于视觉注意力机制的盲图像质量评估方法

Publications (1)

Publication Number Publication Date
CN116310375A true CN116310375A (zh) 2023-06-23

Family

ID=86815744

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310003353.6A Pending CN116310375A (zh) 2023-01-03 2023-01-03 基于视觉注意力机制的盲图像质量评估方法

Country Status (1)

Country Link
CN (1) CN116310375A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117611516A (zh) * 2023-09-04 2024-02-27 北京智芯微电子科技有限公司 图像质量评估、人脸识别、标签生成及确定方法和装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117611516A (zh) * 2023-09-04 2024-02-27 北京智芯微电子科技有限公司 图像质量评估、人脸识别、标签生成及确定方法和装置

Similar Documents

Publication Publication Date Title
CN113688723B (zh) 一种基于改进YOLOv5的红外图像行人目标检测方法
CN110363716B (zh) 一种基于条件生成对抗网络复合降质图像高质量重建方法
US20230186056A1 (en) Grabbing detection method based on rp-resnet
CN112634276A (zh) 一种基于多尺度视觉特征提取的轻量级语义分割方法
CN108960261B (zh) 一种基于注意力机制的显著物体检测方法
CN111476133B (zh) 面向无人驾驶的前背景编解码器网络目标提取方法
CN113554032B (zh) 基于高度感知的多路并行网络的遥感图像分割方法
CN111832453B (zh) 基于双路深度神经网络的无人驾驶场景实时语义分割方法
CN110569851A (zh) 门控多层融合的实时语义分割方法
CN112487949A (zh) 一种基于多模态数据融合的学习者行为识别方法
CN114898284B (zh) 一种基于特征金字塔局部差异注意力机制的人群计数方法
CN114120272A (zh) 一种融合边缘检测的多监督智能车道线语义分割方法
CN111079864A (zh) 一种基于优化视频关键帧提取的短视频分类方法及***
CN114913493A (zh) 一种基于深度学习的车道线检测方法
CN114781499B (zh) 一种构建基于ViT模型的密集预测任务适配器的方法
CN116310375A (zh) 基于视觉注意力机制的盲图像质量评估方法
CN115035171A (zh) 基于自注意力导向特征融合的自监督单目深度估计方法
CN115565043A (zh) 结合多表征特征以及目标预测法进行目标检测的方法
CN112418032A (zh) 一种人体行为识别方法、装置、电子设备及存储介质
CN116310305A (zh) 一种基于张量和二阶协方差注意力机制的编解码结构语义分割模型
CN117314787A (zh) 基于自适应多尺度融合和注意力机制的水下图像增强方法
CN112149496A (zh) 一种基于卷积神经网络的实时道路场景分割方法
CN116977200A (zh) 视频去噪模型的处理方法、装置、计算机设备和存储介质
Fu et al. Low-light image enhancement base on brightness attention mechanism generative adversarial networks
CN115565107A (zh) 一种基于双流架构的视频显著性预测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination