CN113947680A - 一种基于级联多尺度视觉Transformer的图像语义分割方法 - Google Patents

一种基于级联多尺度视觉Transformer的图像语义分割方法 Download PDF

Info

Publication number
CN113947680A
CN113947680A CN202111186956.1A CN202111186956A CN113947680A CN 113947680 A CN113947680 A CN 113947680A CN 202111186956 A CN202111186956 A CN 202111186956A CN 113947680 A CN113947680 A CN 113947680A
Authority
CN
China
Prior art keywords
image
transformer
module
size
semantic segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111186956.1A
Other languages
English (en)
Inventor
林帆
王小玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin University of Science and Technology
Original Assignee
Harbin University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin University of Science and Technology filed Critical Harbin University of Science and Technology
Priority to CN202111186956.1A priority Critical patent/CN113947680A/zh
Publication of CN113947680A publication Critical patent/CN113947680A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种基于级联多尺度视觉Transformer架构的语义分割方法,包括:将图像切分为多个Patch,将Patch拉伸为一维向量N*C;步骤二、利用重叠Padding块编码对Patch进行位置编码;步骤三、将token输入Transformer模块,依次经过层归一化、多头注意力层以及前馈神经网络,重复步骤三至网络收敛;步骤四、利用块编码将token还原至二维,利用池化层将图像下采样至1/2;步骤五将编码阶段和当前阶段的特征图采用像素点信息聚合;步骤六将特征图上采样至1/4时采用卷积层输出为类别数,最后采用双线性插值算法将图像上采样至原图大小。本发明可以解决计算量大,分割边界不均匀问题。

Description

一种基于级联多尺度视觉Transformer的图像语义分割方法
技术领域
本发明涉及一种基于级联多尺度视觉Transformer的图像语义分割方法,属于图像处理领域。
背景技术
最近几年,以卷积神经网络为代表的深度学习在图像领域大量展开了应用,但是由于卷积操作带来的感受野受限问题一直没有得到很好的解决,每个像素点无法捕获更远处像素点的上下文信息,视觉Transformer的出现让长距离依赖成为了可能。目前图像分割领域应用空洞卷积来实现感受野扩大,首先将骨干网络形成的特征图进行通道压缩,然后利用含有不同膨胀率的空洞卷积对特征图进行处理,最后在通道维度上合并来自不同膨胀率的特征图。但是,目前大多研究的图像语义分割模型直接影响分割效果,计算量大,实时性和分割边缘处理还不甚理想。
发明内容
本发明的目的是提出一种基于级联多尺度视觉Transformer的图像语义分割方法,其为了解决计算量大,图像分割边缘表现差和分割精度问题。
一种基于级联多尺度视觉Transformer的图像语义分割方法,所述识别方法包含以下步骤。
步骤一、将维度为H*W*3的原始图像切分为一系列的Patch块,起始的Patch尺寸为原图H和W的1/4,并将每个Patch块拉伸为一维向量N*C,其中N=H*W。
步骤二、利用带Padding的位置编码操作对每个向量进行位置编码,利用卷积核为K,步长S和填充P的卷积操作将特征图进行编码。
步骤三、将每个维度为N*C的一维向量作为token输入到Transformer模块中,该模块包含了层归一化、多头自注意力模块以及前馈神经网络,在进行层归一化后会划分为三个子tocken,分别为query、key和value。三个向量在矩阵操作之后会重新得到N*C的一维向量并输入到前馈神经网络中,前馈神经网络包含两个多层感知机,多次重复步骤三直到网络收敛,可以学习到更多的上下文语义信息。
步骤四、利用带有重叠padding的编码模块将N*C的向量变换至图像的三维尺寸Hi*Wi*C,基于池化的特征提取,将图像下采样至1/2大小作为下一阶段的输入,图像尺寸变换为Hi/2*Wi/2*C。
步骤五、采用Transformer的上采样模块作为解码部分,将编码阶段的输出特征图上采样后和前一阶段的特征图利用像素点位置相加实现信息聚合,将新的特征图输入到Transformer模块中。
步骤六、当特征图上采样至原图的1/4大小时,采用卷积操作将通道数变换为类别数,最后采用双线性插值算法将图像上采样至原图大小。
进一步的,所述步骤二中,K=7,S=4,P=3。
进一步的,所述步骤三中包含以下步骤。
步骤三一、首先将待提取特征的特征图进行层归一化,对于前向传播的序列化网络而言,深度不是固定的,不同的时间片需要保存不同的静态特征,可能存在一个特殊序列比其他序列长很多,利用层归一化可以实现很好的训练效果,层归一化的计算方法为:
Figure 144924DEST_PATH_IMAGE002
Figure 836937DEST_PATH_IMAGE004
其中H为待统计的节点信息,即隐含层的节点个数,l表示前馈神经网络的层数,i表示待处理的阶段。
步骤三二、在多头自注意力模块中,三个输入的初始一维向量分别为key、query、value,三个向量的计算方法为:
Figure 10167DEST_PATH_IMAGE006
Figure 408918DEST_PATH_IMAGE008
其中Wj为权重参数,用于控制学习自注意力的上下文信息能力,dhead是压缩乡里向量前的通道维度。
步骤三三、用于前馈神经网络的特征计算,该计算方法为:
Figure 776446DEST_PATH_IMAGE010
其中k为输入特征图,t为衰减的权重参数,h为带有全连接层的多层感知机;
Figure 188710DEST_PATH_IMAGE012
其中x为输入特征图,Gelu和tanh分别为激活函数。
进一步的,所述步骤三中,四个阶段的重复次数分别为3,8,27,3次。
进一步的,所述步骤四中,计算图像下采样尺寸,该计算方法为:
Figure 667096DEST_PATH_IMAGE014
Figure 248250DEST_PATH_IMAGE016
其中Q、R为在x轴待插值像素点的坐标,x为横向像素点的坐标值;
Figure 521100DEST_PATH_IMAGE018
其中P、R为在y轴待插值像素点的坐标,y为纵向像素点的坐标值。
本发明的主要优点是:本发明首先将原始图像切分为一系列的Patch块,尺寸为原图的1/4,并将每个Patch块拉伸为一维向量N*C,然后利用带Padding的位置编码操作对每个向量进行位置编码,将每个维度为N*C的一维向量作为token输入到Transformer模块中,该模块包含了层归一化、多头注意力模块以及前馈神经网络,在进行层归一化后会划分为三个子tocken,分别为query、key和value。三个向量在矩阵操作之后会重新得到N*C的一维向量并输入到前馈神经网络中;多次重复步骤三直到网络收敛,可以学习到更多的上下文语义信息,然后利用带有重叠padding的编码模块将N*C的向量拉伸至图像的三维尺寸,基于池化的特征提取,将图像下采样至1/2大小作为下一阶段的输入。在解码部分采用Transformer的上采样模块,将编码阶段的输出特征图上采样后和前一阶段的特征图利用像素点位置相加实现信息聚合,将新的特征图输入到Transformer模块中,然后将特征图上采样至原图的1/4大小时,采用卷积操作将通道数变换为类别数,最后采用双线性插值算法将图像上采样至原图大小。本发明可以有效解决计算量大,图像分割边缘表现差和分割精度问题。
附图说明
图1为本发明所述的一种基于级联多尺度视觉Transformer的图像语义分割方法的流程图。
图2为室内场景处理效果图,其中,图2(a)为原始室内场景图,图2(b)为经过步骤六处理后的图片。
图3为室外场景处理效果图,其中,图3(a)为原始室外场景图,图3(b)为经过步骤六处理后的图片。
图4为人像处理效果图,其中,图4(a)为原始人像图,图4(b)为经过步骤六处理后的图片。
具体实施方式
下面将结合本发明实施例中的附图对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1-图4所示,本实施方式所述的一种基于级联多尺度视觉Transformer的图像语义分割方法的一实施例,包括以下步骤。
步骤一、读取原始图像,维度为H*W*C。将图像切分为一系列h*w*C维度的Patch块(本发明中h和w设置为原图的1/4),该阶段采用的切分方法为带有重叠填充的块编码对每个Patch进行编码,然后将每一个Patch块拉伸为一维向量N*C,其中N=h*w。经过此方法之后原图就被压缩为原图比例的1/16。对后续阶段提取特征在计算量上非常友好,大大缩短了图像处理的时间。
步骤二、利用带Padding的位置编码操作对每个向量进行编码,利用卷积核为K,步长S和填充P的卷积操作将特征图进行编码,为平衡分割效果和分割速度,K的优选值为7、S的优选值为4、P的优选值为3。
步骤三、将每个维度为N*C的一维向量作为token输入到Transformer模块中,该模块包含了层归一化、多头自注意力模块以及前馈神经网络,在进行层归一化后会划分为三个子tocken,分别为query、key和value。三个向量在矩阵操作之后会重新得到N*C的一维向量并输入到前馈神经网络中,前馈神经网络是包含两个全连接层实现特征映射,然后采用跳跃连接将输入前的特征图和输入后的特征图进行像素点度对应位置相加,具体包括。
步骤三一、首先将待提取特征的特征图进行层归一化,对于前向传播的序列化网络而言,深度不是固定的,不同的时间片需要保存不同的静态特征,可能存在一个特殊序列比其他序列长很多,利用层归一化可以实现很好的训练效果,层归一化的计算方法为:
Figure 250021DEST_PATH_IMAGE020
Figure 765054DEST_PATH_IMAGE022
其中H为待统计的节点信息,即隐含层的节点个数,l表示前馈神经网络的层数,i表示待处理的阶段。
步骤三二、在多头自注意力模块中,三个输入的初始一维向量分别为key、query、value,三个向量的计算方法为:
Figure 872818DEST_PATH_IMAGE024
Figure 316569DEST_PATH_IMAGE026
其中Wj为权重参数,用于控制学习自注意力的上下文信息能力,dhead是压缩乡里向量前的通道维度。
步骤三三、用于前馈神经网络的特征计算,前馈神经网络包含两个全连接层用于特征映射,该计算方法为:
Figure 969005DEST_PATH_IMAGE028
其中xin为输入特征图,GULU为激活函数,MLP为带有全连接层的多层感知机。
进一步的,所述步骤三中,四个阶段的重复次数分别为3,8,27,3次。
进一步的,所述步骤四中,计算图像下采样尺寸,该计算方法为:
Figure 789194DEST_PATH_IMAGE030
Figure 141678DEST_PATH_IMAGE032
Figure 21909DEST_PATH_IMAGE034
其中K0为输入的特征图,Linear操作为线性的全连接层映射,Reshape操作是将二维向量拉伸为三维特征图尺寸,K3是得到最终变换尺寸后的特征图。
步骤四、利用带有重叠padding的编码模块将N*C的向量变换至图像的三维尺寸Hi*Wi*C,基于池化的特征提取,将图像下采样至1/2大小作为下一阶段的输入,图像尺寸变换为Hi/2*Wi/2*C。
步骤五、在解码部分,采用Transformer的上采样模块,将编码阶段的输出特征图上采样后和前一阶段的特征图利用像素点位置相加实现信息聚合,将新的特征图输入到Transformer模块中,该模块和编码部分的模块结构相似,采用级联的Transformer模块获取不同解码阶段的语义信息,然后与上一阶段的特征图进行信息聚合,最后采用前馈神经网络的两层全连接层进行特征映射得到新的特征图,期间采用跳跃连接,再变换回一维token,重复此操作可以更新每个节点的权值大小,直到训练过程收敛。
步骤六、当特征图上采样至原图的1/4大小时,采用卷积操作将通道数变换为类别数,最后采用双线性插值算法将图像上采样至原图大小。主要思路:将图片首先切分为patch进行序列化处理,分别产生三个子token后利用Transformer模块捕获长距离的上下文语义信息,进一步再利用解码器的上采样操作逐步还原至原图大小,实现像素点级别的分类,产生分割特征图。

Claims (5)

1.一种基于级联多尺度视觉Transformer的图像语义分割方法,其特征在于所述图像分割方法包括以下步骤:
步骤一、将维度为H*W*3的原始图像切分为一系列的Patch块,起始的Patch尺寸为原图H和W的1/4,并将每个Patch块拉伸为一维向量N*C,其中N=H*W;
步骤二、利用带Padding的位置编码操作对每个向量进行位置编码,利用卷积核为K,步长S和填充P的卷积操作将特征图进行编码;
步骤三、将每个维度为N*C的一维向量作为token输入到Transformer模块中,该模块包含了层归一化、多头自注意力模块以及前馈神经网络,在进行层归一化后会划分为三个子tocken,分别为query、key和value;三个向量在矩阵操作之后会重新得到N*C的一维向量并输入到前馈神经网络中,前馈神经网络包含两个多层感知机,多次重复步骤三直到网络收敛,可以学习到更多的上下文语义信息;
步骤四、利用带有重叠padding的编码模块将N*C的向量变换至图像的三维尺寸Hi*Wi*C,基于池化的特征提取,将图像下采样至1/2大小作为下一阶段的输入,图像尺寸变换为Hi/2*Wi/2*C;
步骤五、采用Transformer的上采样模块作为解码部分,将编码阶段的输出特征图上采样后和前一阶段的特征图利用像素点位置相加实现信息聚合,将新的特征图输入到Transformer模块中;
步骤六、当特征图上采样至原图的1/4大小时,采用卷积操作将通道数变换为类别数,最后采用双线性插值算法将图像上采样至原图大小。
2.根据权利要求1所述的一种基于级联多尺度视觉Transformer的图像语义分割方法,其特征在于,在步骤二中,K=7,S=4,P=3。
3.根据权利要求1所述的一种基于级联多尺度视觉Transformer的图像语义分割方法,其特征在于,所述步骤三中包含以下步骤:
步骤三一、在多头自注意力模块中,三个输入的初始一维向量分别为key、query、value,三个向量的计算方法为:
Figure 48761DEST_PATH_IMAGE002
Figure 880188DEST_PATH_IMAGE004
其中Wj为权重参数,用于控制学习自注意力的上下文信息能力,dhead是压缩乡里向量前的通道维度;
步骤三二、用于前馈神经网络的特征计算,该计算方法为:
Figure 101085DEST_PATH_IMAGE006
其中k为输入特征图,t为衰减的权重参数,h为带有全连接层的多层感知机;
Figure 392389DEST_PATH_IMAGE008
其中x为输入特征图,Gelu和tanh分别为激活函数。
4.根据权利要求1所述的一种基于级联多尺度视觉Transformer的图像语义分割方法,其特征在于,在步骤三中,四个阶段的重复次数分别为3,8,27,3次。
5.根据权利要求1所述的一种基于级联多尺度视觉Transformer的图像语义分割方法,其特征在于,在步骤四中,计算图像下采样尺寸,该计算方法为:
Figure 597106DEST_PATH_IMAGE010
Figure 232224DEST_PATH_IMAGE012
其中Q、R为在x轴待插值像素点的坐标,x为横向像素点的坐标值;
Figure 635523DEST_PATH_IMAGE014
其中P、R为在y轴待插值像素点的坐标,y为纵向像素点的坐标值。
CN202111186956.1A 2021-10-12 2021-10-12 一种基于级联多尺度视觉Transformer的图像语义分割方法 Pending CN113947680A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111186956.1A CN113947680A (zh) 2021-10-12 2021-10-12 一种基于级联多尺度视觉Transformer的图像语义分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111186956.1A CN113947680A (zh) 2021-10-12 2021-10-12 一种基于级联多尺度视觉Transformer的图像语义分割方法

Publications (1)

Publication Number Publication Date
CN113947680A true CN113947680A (zh) 2022-01-18

Family

ID=79330085

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111186956.1A Pending CN113947680A (zh) 2021-10-12 2021-10-12 一种基于级联多尺度视觉Transformer的图像语义分割方法

Country Status (1)

Country Link
CN (1) CN113947680A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114359283A (zh) * 2022-03-18 2022-04-15 华东交通大学 基于Transformer的缺陷检测方法和电子设备
CN114708295A (zh) * 2022-04-02 2022-07-05 华南理工大学 一种基于Transformer的物流包裹分离方法
CN114723951A (zh) * 2022-06-08 2022-07-08 成都信息工程大学 一种用于rgb-d图像分割的方法
CN114993677A (zh) * 2022-05-11 2022-09-02 山东大学 不平衡小样本数据的滚动轴承故障诊断方法及***
CN115562490A (zh) * 2022-10-12 2023-01-03 西北工业大学太仓长三角研究院 一种基于深度学习的飞机驾驶舱跨屏眼动交互方法及***
CN116030259A (zh) * 2023-03-24 2023-04-28 长春理工大学 一种腹部ct图像多器官分割方法、装置及终端设备
CN116385725A (zh) * 2023-06-02 2023-07-04 杭州聚秀科技有限公司 眼底图像视盘视杯分割方法及装置、电子设备
CN117036714A (zh) * 2023-10-09 2023-11-10 安徽大学 融合混合注意力机制的肠息肉分割方法、***及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112287940A (zh) * 2020-10-30 2021-01-29 西安工程大学 一种基于深度学习的注意力机制的语义分割的方法
CN112634276A (zh) * 2020-12-08 2021-04-09 西安理工大学 一种基于多尺度视觉特征提取的轻量级语义分割方法
CN113065578A (zh) * 2021-03-10 2021-07-02 合肥市正茂科技有限公司 一种基于双路区域注意力编解码的图像视觉语义分割方法
CN113421269A (zh) * 2021-06-09 2021-09-21 南京瑞易智能科技有限公司 一种基于双分支深度卷积神经网络的实时语义分割方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112287940A (zh) * 2020-10-30 2021-01-29 西安工程大学 一种基于深度学习的注意力机制的语义分割的方法
CN112634276A (zh) * 2020-12-08 2021-04-09 西安理工大学 一种基于多尺度视觉特征提取的轻量级语义分割方法
CN113065578A (zh) * 2021-03-10 2021-07-02 合肥市正茂科技有限公司 一种基于双路区域注意力编解码的图像视觉语义分割方法
CN113421269A (zh) * 2021-06-09 2021-09-21 南京瑞易智能科技有限公司 一种基于双分支深度卷积神经网络的实时语义分割方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114359283A (zh) * 2022-03-18 2022-04-15 华东交通大学 基于Transformer的缺陷检测方法和电子设备
CN114708295A (zh) * 2022-04-02 2022-07-05 华南理工大学 一种基于Transformer的物流包裹分离方法
CN114708295B (zh) * 2022-04-02 2024-04-16 华南理工大学 一种基于Transformer的物流包裹分离方法
CN114993677A (zh) * 2022-05-11 2022-09-02 山东大学 不平衡小样本数据的滚动轴承故障诊断方法及***
CN114723951A (zh) * 2022-06-08 2022-07-08 成都信息工程大学 一种用于rgb-d图像分割的方法
CN114723951B (zh) * 2022-06-08 2022-11-04 成都信息工程大学 一种用于rgb-d图像分割的方法
CN115562490B (zh) * 2022-10-12 2024-01-09 西北工业大学太仓长三角研究院 一种基于深度学习的飞机驾驶舱跨屏眼动交互方法及***
CN115562490A (zh) * 2022-10-12 2023-01-03 西北工业大学太仓长三角研究院 一种基于深度学习的飞机驾驶舱跨屏眼动交互方法及***
CN116030259A (zh) * 2023-03-24 2023-04-28 长春理工大学 一种腹部ct图像多器官分割方法、装置及终端设备
CN116030259B (zh) * 2023-03-24 2024-01-12 长春理工大学 一种腹部ct图像多器官分割方法、装置及终端设备
CN116385725B (zh) * 2023-06-02 2023-09-08 杭州聚秀科技有限公司 眼底图像视盘视杯分割方法及装置、电子设备
CN116385725A (zh) * 2023-06-02 2023-07-04 杭州聚秀科技有限公司 眼底图像视盘视杯分割方法及装置、电子设备
CN117036714A (zh) * 2023-10-09 2023-11-10 安徽大学 融合混合注意力机制的肠息肉分割方法、***及介质
CN117036714B (zh) * 2023-10-09 2024-02-09 安徽大学 融合混合注意力机制的肠息肉分割方法、***及介质

Similar Documents

Publication Publication Date Title
CN113947680A (zh) 一种基于级联多尺度视觉Transformer的图像语义分割方法
CN111798400B (zh) 基于生成对抗网络的无参考低光照图像增强方法及***
CN113139907B (zh) 视觉分辨率增强的生成方法、***、装置及存储介质
CN110599409B (zh) 基于多尺度卷积组与并行的卷积神经网络图像去噪方法
CN108765296B (zh) 一种基于递归残差注意力网络的图像超分辨率重建方法
CN111259983B (zh) 基于深度学习的图像语义分割方法及存储介质
CN110136062B (zh) 一种联合语义分割的超分辨率重建方法
CN111862294B (zh) 基于ArcGAN网络的手绘3D建筑自动上色网络装置及方法
CN111340814A (zh) 一种基于多模态自适应卷积的rgb-d图像语义分割方法
CN111476249B (zh) 多尺度大感受野卷积神经网络的构建方法
CN111292265A (zh) 一种基于生成式对抗神经网络的图像修复方法
CN115115523B (zh) 一种融合CNN和Transformer的医学图像深度信息提取方法
CN111861886B (zh) 一种基于多尺度反馈网络的图像超分辨率重建方法
CN114331831A (zh) 一种轻量化的单张图像超分辨率重建方法
Hui et al. Two-stage convolutional network for image super-resolution
CN116469100A (zh) 一种基于Transformer的双波段图像语义分割方法
CN117576402B (zh) 一种基于深度学习的多尺度聚合Transformer遥感图像语义分割方法
CN116863194A (zh) 一种足溃疡图像分类方法、***、设备及介质
CN113362239A (zh) 一种基于特征交互的深度学习图像修复方法
CN114022356A (zh) 基于小波域的河道流量水位遥感图像超分辨率方法与***
CN116434039B (zh) 一种基于多尺度拆分注意力机制的目标检测方法
CN116977822A (zh) 一种融合CNN与Transformer模型的图像识别网络
CN111311698A (zh) 一种用于多尺度目标的图像压缩方法及***
CN114155560B (zh) 基于空间降维的高分辨率人体姿态估计模型的轻量化方法
CN116188882A (zh) 融合自注意力和多路路径图卷积的点云上采样方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination