CN113469119B - 基于视觉转换器和图卷积网络的宫颈细胞图像分类方法 - Google Patents

基于视觉转换器和图卷积网络的宫颈细胞图像分类方法 Download PDF

Info

Publication number
CN113469119B
CN113469119B CN202110820463.2A CN202110820463A CN113469119B CN 113469119 B CN113469119 B CN 113469119B CN 202110820463 A CN202110820463 A CN 202110820463A CN 113469119 B CN113469119 B CN 113469119B
Authority
CN
China
Prior art keywords
image
formula
cell image
layer
cervical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110820463.2A
Other languages
English (en)
Other versions
CN113469119A (zh
Inventor
史骏
唐昆铭
祝新宇
孙宇
李俊
郑钰山
姜志国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei University of Technology
Original Assignee
Hefei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei University of Technology filed Critical Hefei University of Technology
Priority to CN202110820463.2A priority Critical patent/CN113469119B/zh
Publication of CN113469119A publication Critical patent/CN113469119A/zh
Application granted granted Critical
Publication of CN113469119B publication Critical patent/CN113469119B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/245Classification techniques relating to the decision surface
    • G06F18/2451Classification techniques relating to the decision surface linear, e.g. hyperplane
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于视觉转换器和图卷积网络的宫颈细胞图像分类方法,其步骤包括:1、获取宫颈液基细胞图像数据集并进行预处理;2、对于视觉转换器分支,输入图像进行分块,再利用位置编码和视觉转换器进行特征编码,挖掘图像内部的长距离依赖关系;3、对于图卷积网络分支,输入图像进行超像素分割,将每个超像素对应的卷积神经网络特征进行池化处理并作为图结构中的结点,利用图卷积网络对细胞内部图结构进行建模,感知细胞内部的空间拓扑关系;4、融合两个分支产生的特征形成宫颈细胞的最终特征表示并用于分类。本发明通过对宫颈液基细胞结构内部长距离依赖关系以及空间拓扑结构信息进行提取,完成对宫颈细胞的表征提取及分类。

Description

基于视觉转换器和图卷积网络的宫颈细胞图像分类方法
技术领域
本发明涉及计算机视觉技术领域,特别涉及一种基于视觉转换器和图卷积神经网络的宫颈细胞图像分类方法。
背景技术
宫颈细胞分类作为妇产科宫颈病变的初筛手段已被广泛地应用于临床工作中。在实际诊疗过程中,病理医生需要在显微镜下用肉眼检查数以万计的细胞。而每位病理医生每天需要处理大量病患的标本,常常会产生阅片疲劳,误诊现象时有发生。因此,需要一种高效且定量的宫颈细胞诊断方法,减轻病理医生的阅片负担,同时提高宫颈细胞识别准确率。目前,针对宫颈细胞图像分类的算法主要以基于传统特征分类算法以及基于深度学习的监督学习分类算法两类为主。
传统的分类方法一般利用手工设计的特征对图像特征进行建模,通过训练分类器将不同类别的特征进行区分。常用的手工视觉特征包括颜色、纹理、边缘等低层特征,难以描述图像潜在的高层语义信息。然而,病理图像结构复杂,类型多变的特点导致手工提取特征无法对图像特征进行较好的建模,使得分类效果不尽人意。
近年来,深度学习模型在计算机视觉各个领域中取得了显著的效果,一些研究人员已经将卷积神经网络应用于宫颈细胞分类任务中,如残差网络(ResNet)、密集卷积网络(Densenet),但它们仅仅利用神经网络提取单张图片的全局特征,忽略了宫颈细胞的局部特征,从而难以较好地解决细胞类内差异大和类间相似性高的问题。
发明内容
本发明为克服现有技术的不足之处,提出一种基于视觉转换器和图卷积网络的宫颈细胞图像分类方法,旨在解决由于病理图像结构复杂、类型多变,特征信息丰富,导致宫颈细胞图像分类困难的问题,通过构建基于视觉转换器以及基于图卷积网络的双分支网络,获取宫颈细胞图像内部远距离依赖关系以及空间拓扑结构信息,从而得到不同类别宫颈细胞相对应的表征,完成宫颈液基细胞图像的准确高效分类。
本发明为达到上述发明目的,采用如下技术方案:
本发明一种基于视觉转换器和图卷积网络的宫颈细胞图像分类方法的特点包括如下步骤:
步骤1、对宫颈数字切片图像中的细胞核位置以及细胞核类别进行标注,并按照所标注的细胞核位置进行裁剪,从而得到每个细胞图像及其相应类别,记为
Figure BDA0003171814880000011
其中,
Figure BDA0003171814880000021
表示第i个细胞图像,C、H和W分别表示图像的通道数、高度和宽度,yi表示第i个细胞图像Xi对应的类别;i=1,2,…,N;N表示细胞图像的数量;
步骤2、构建由L个编码器构成的视觉转换器ViT作为第一个分支,每个编码器包括:两个归一化层、多头注意力机制层以及多层感知器;
步骤2.1、对第i个细胞图像Xi进行分块处理,得到包含m个图像块的序列
Figure BDA0003171814880000022
其中,
Figure BDA0003171814880000023
表示第i个细胞图像Xi的第j个图像块;
Figure BDA0003171814880000024
p×p表示每个图像块的维度,且m=H×W/p2
步骤2.2、设置一个可学习的分类标记xclass,并利用式(1)得到m个图像块和分类标记xclass的D维嵌入表示z0,并作为第1个编码器的输入;
Figure BDA0003171814880000025
式(1)中,Epos表示m个图像块和分类标记xclass在第i个细胞图像Xi中的空间位置;E表示所设置的嵌入矩阵;
步骤2.3、利用式(2)得到m个图像块和分类标记xclass在第l个编码器的多头注意力机制层的输出zl′:
zl′=MSA(LN(zl-1))+zl-1,l=1,…,L (2)
式(2)中,LN()表示归一化层的处理;zl-1表示第l-1个编码器的输出;
步骤2.4、利用式(3)得到第l个编码器的多层感知器的输出zl,从而得到最后一个编码器的输出zL
zl=MLP(LN(z′l))+z′l,l=1,…,L (3)
步骤2.5、对包含m+1个D维特征的输出zL求均值,从而得到第i个细胞图像Xi的ViT特征表示
Figure BDA0003171814880000026
步骤3、构建图卷积网络作为第二个分支;
步骤3.1、利用SLIC算法对第i个细胞图像Xi进行过分割,得到第i个细胞图像Xi的超像素集合;
步骤3.2、使用预训练的残差网络ResNet提取第i个细胞图像Xi的CNN特征图;
步骤3.3、根据超像素集合在CNN特征图上的位置,利用最大池化方式对每个超像素所在的CNN特征图中的CNN特征进行处理,从而得到每个超像素所对应的CNN特征向量表示;
步骤3.4、将每个超像素所对应的CNN特征向量表示分别作为图结构的结点,从而构成结点集合
Figure BDA0003171814880000031
其中,S表示超像素的数目,t为每个超像素对应的CNN特征的维数;
步骤3.5、利用式(4)构造邻接矩阵
Figure BDA0003171814880000032
Figure BDA0003171814880000033
式(4)中,Bα表示第α个超像素,Bβ表示第β个超像素,Aαβ表示邻接矩阵A中第α个超像素Bα和第β个超像素Bβ之间的空间近邻关系;
步骤3.6、根据图卷积网络的分层传播规则,利用式(5)更新结点的关系感知表示:
Figure BDA0003171814880000034
式(5)中,
Figure BDA0003171814880000035
是第q层可训练的权重,σ(·)是激活函数;
Figure BDA0003171814880000036
是第q层结点的特征,dq是第q层结点特征的维数;
Figure BDA0003171814880000037
表示第q+1层结点的特征,且
Figure BDA0003171814880000038
Figure BDA0003171814880000039
表示第q+1层中第s个结点输出的特征,当q=0时,令H(0)=B;并有:
Figure BDA00031718148800000310
式(6)中,D表示对角度矩阵,且
Figure BDA00031718148800000311
Dss表示对角度矩阵D中第s行第s列的元素,Aus表示邻接矩阵A中第u行第s列的元素;I表示单位矩阵;
步骤3.7、利用式(7)得到图卷积网络中最后第Q层的结点输出特征所聚合得到的第i个细胞图像Xi的图卷积特征表示zg
Figure BDA00031718148800000312
式(7)中,concat(·)代表特征向量拼接操作,S代表结点总数,
Figure BDA00031718148800000313
代表第Q层中第s个结点的特征;
步骤4、利用式(8)得到第i个细胞图像Xi的最终表征z:
Figure BDA0003171814880000041
步骤5、利用式(9)对最终表征z进行线性变换,得到线性分类器的输出结果ppred
ppred=Linear(z) (9)
式(9)中,Linear(·)代表线性分类函数;
Figure BDA0003171814880000042
c代表细胞的类别数;
步骤6、利用式(10)构建交叉熵损失函数L,并利用梯度下降算法训练有由两个分支和线性分类器所构成的网络,使得交叉熵损失函数L达到收敛,从而得到训练好的宫颈细胞图像分类模型:
Figure BDA0003171814880000043
式(10)中,ylabel为细胞图像样本对应的真实类别,N为细胞图像样本总数。
与已有技术相比,本发明具有如下优点:
1.本发明利用视觉转换器对宫颈细胞图像进行特征学习,视觉转换器能够学习图像内部的远距离依赖关系,从而建立了宫颈细胞结构内各部分之间的依赖关系,进而提高了分类准确率;
2.本发明利用图卷积网络对细胞结构的空间拓扑关系进行了建模,图卷积神经网络能够很好的学习拟合出图像内部的空间拓扑结构,从而对整个细胞图像进行建模得到表征,提高了细胞图像的特征表示能力;
3.本发明将具有细胞内部远距离依赖关系以及空间拓扑结构信息的两组特征进行整合,得到一组更加健壮的细胞图像表征,要远优于传统CNN网络提取得到的全局特征,从而增强了特征的鉴别能力;
4.本发明采用监督训练方式进行训练,将语义信息嵌入了图像的特征中,提高了分类的准确度。
附图说明
图1为本发明中网络的结构图;
图2为本发明的总体流程框图;
图3为本发明的宫颈细胞图像训练样本图。
具体实施方式
本实施例中,一种基于视觉转换器和图卷积网络的宫颈细胞图像分类方法,综合考虑了细胞结构内部长距离依赖关系以及空间拓扑结构,是将输入图像分别输入视觉转换器分支以及图卷积网络分支,得到ViT特征以及GCN特征,将两组特征进行融合得到最终的宫颈细胞图像特征表示,再将该特征表示送入分类器进行分类,从而完成对于宫颈细胞图像的分类,如图2所示,具体步骤如下:
步骤1、对宫颈数字切片图像中的细胞核位置以及细胞核类别进行标注,并按照所标注的细胞核位置进行裁剪,从而得到每个细胞图像及其相应类别,记为
Figure BDA0003171814880000051
其中,
Figure BDA0003171814880000052
表示第i个细胞图像,C、H和W分别表示图像的通道数、高度和宽度,yi表示第i个细胞图像Xi对应的类别;i=1,2,…,N;N表示细胞图像的数量;本实施例中使用的数据包含正常表层细胞、正常中底层细胞、粒细胞、腺细胞、非典型鳞状细胞、挖空细胞和高核浆比细胞7个类别,如图3所示,每类图像500张,每个细胞图像尺寸为224×224,因此C=3、H=224和W=224。将数据集中每类的80%用于训练,其余20%用于测试;
步骤2、建立如图1所示的基于视觉转换器和图卷积网络的深度学习网络模型,深度学习网络包括视觉转换器ViT和图卷积网络两个分支。首先构建由L个编码器构成的视觉转换器ViT作为第一个分支,每个编码器包括:两个归一化层、多头注意力机制层以及多层感知器;
步骤2.1、对第i个细胞图像Xi进行分块处理,得到包含m个图像块的序列
Figure BDA0003171814880000053
其中,
Figure BDA0003171814880000054
表示第i个细胞图像Xi的第j个图像块;
Figure BDA0003171814880000055
p×p表示每个图像块的维度,且m=H×W/p2;本实施例中,每个图像块尺寸为16×16,因此p=16,且m=196。
步骤2.2、设置一个可学习的分类标记xclass,并利用式(1)得到m个图像块和分类标记xclass的D维嵌入表示z0,并作为第1个编码器的输入;
Figure BDA0003171814880000056
式(1)中,Epos表示m个图像块和分类标记xclass在第i个细胞图像Xi中的空间位置;E表示所设置的嵌入矩阵;本实施例中,D=768,xclass是一个768个随机数构成的768维向量,E是一个768×768个随机数构成的矩阵,矩阵行数为768,列数为768,Epos是一个197×768个随机数构成的矩阵,矩阵行数为197,列数为768。
步骤2.3、利用式(2)得到m个图像块和分类标记xclass在第l个编码器的多头注意力机制层的输出z′l
z′l=MSA(LN(zl-1))+zl-1,l=1,…,L (2)
式(2)中,LN()表示归一化层的处理;zl-1表示第l-1个编码器的输出,本实施例中,L=12。
步骤2.4、利用式(3)得到第l个编码器的多层感知器的输出zl,从而得到最后一个编码器的输出zL
zl=MLP(LN(z′l))+z′l,l=1,…,L (3)
本实施例中,多层感知器包含两层网络和一个GELU非线性激活层。
步骤2.5、对包含m+1个D维特征的输出zL求均值,从而得到第i个细胞图像Xi的ViT特征表示
Figure BDA0003171814880000063
步骤3、构建图卷积网络作为第二个分支;
步骤3.1、利用SLIC算法对第i个细胞图像Xi进行过分割,得到第i个细胞图像Xi的超像素集合;
步骤3.2、使用预训练的残差网络ResNet提取第i个细胞图像Xi的CNN特征图,本实施例中,使用ResNet18提取细胞图像的特征图;
步骤3.3、根据超像素集合在CNN特征图上的位置,利用最大池化方式对每个超像素所在的CNN特征图中的CNN特征进行处理,从而得到每个超像素所对应的CNN特征向量表示;
步骤3.4、将每个超像素所对应的CNN特征向量表示分别作为图结构的结点,从而构成结点集合
Figure BDA0003171814880000061
其中,S表示超像素的数目,t为每个超像素对应的CNN特征的维数,本实施例中,超像素的数目S取16,每个超像素对应的CNN特征的维数t取512;
步骤3.5、利用式(4)构造邻接矩阵
Figure BDA0003171814880000062
Figure BDA0003171814880000071
式(4)中,Bα表示第α个超像素,Bβ表示第β个超像素,Aαβ表示邻接矩阵A中第α个超像素Bα和第β个超像素Bβ之间的空间近邻关系,本实施例中,空间4邻域表示上下左右4个空间关系;
步骤3.6、根据图卷积网络的分层传播规则,利用式(5)更新结点的关系感知表示:
Figure BDA0003171814880000072
式(5)中,
Figure BDA0003171814880000073
是第q层可训练的权重,σ(·)是激活函数;
Figure BDA0003171814880000074
是第q层结点的特征,dq是第q层结点特征的维数;
Figure BDA0003171814880000075
表示第q+1层结点的特征,且
Figure BDA0003171814880000076
Figure BDA0003171814880000077
表示第q+1层中第s个结点输出的特征,当q=0时,令H(0)=B;并有:
Figure BDA0003171814880000078
式(6)中,D表示对角度矩阵,且
Figure BDA0003171814880000079
Dss表示对角度矩阵D中第s行第s列的元素,Aus表示邻接矩阵A中第u行第s列的元素,I表示单位矩阵;本实施例中,激活函数σ(·)使用sigmoid函数;
步骤3.7、利用式(7)得到图卷积网络中最后第Q层的结点输出特征所聚合得到的第i个细胞图像Xi的图卷积特征表示zg
Figure BDA00031718148800000710
式(7)中,concat(·)代表特征向量拼接操作,S代表结点总数,
Figure BDA00031718148800000711
代表第Q层中第s个结点的特征,本实施例中,图卷积网络的层数Q取2;
步骤4、利用式(8)得到第i个细胞图像Xi的最终表征z:
Figure BDA00031718148800000712
步骤5、利用式(9)对最终表征z进行线性变换,得到线性分类器的输出结果ppred
ppred=Linear(z) (9)
式(9)中,Linear(·)代表线性分类函数;
Figure BDA0003171814880000081
c代表细胞的类别数;
步骤6、利用式(10)构建交叉熵损失函数L,并利用梯度下降算法训练有由两个分支和线性分类器所构成的网络,使得交叉熵损失函数L达到收敛,从而得到训练好的宫颈细胞图像分类模型:
Figure BDA0003171814880000082
式(10)中,ylabel为细胞图像样本对应的真实类别,N为细胞图像样本总数。

Claims (1)

1.一种基于视觉转换器和图卷积网络的宫颈细胞图像分类方法,其特征包括如下步骤:
步骤1、对宫颈数字切片图像中的细胞核位置以及细胞核类别进行标注,并按照所标注的细胞核位置进行裁剪,从而得到每个细胞图像及其相应类别,记为
Figure FDA0003171814870000011
其中,
Figure FDA0003171814870000012
表示第i个细胞图像,C、H和W分别表示图像的通道数、高度和宽度,yi表示第i个细胞图像Xi对应的类别;i=1,2,…,N;N表示细胞图像的数量;
步骤2、构建由L个编码器构成的视觉转换器ViT作为第一个分支,每个编码器包括:两个归一化层、多头注意力机制层以及多层感知器;
步骤2.1、对第i个细胞图像Xi进行分块处理,得到包含m个图像块的序列
Figure FDA0003171814870000013
其中,
Figure FDA0003171814870000014
表示第i个细胞图像Xi的第j个图像块;
Figure FDA0003171814870000015
p×p表示每个图像块的维度,且m=H×W/p2
步骤2.2、设置一个可学习的分类标记xclass,并利用式(1)得到m个图像块和分类标记xclass的D维嵌入表示z0,并作为第1个编码器的输入;
Figure FDA0003171814870000016
式(1)中,Epos表示m个图像块和分类标记xclass在第i个细胞图像Xi中的空间位置;E表示所设置的嵌入矩阵;
步骤2.3、利用式(2)得到m个图像块和分类标记xclass在第l个编码器的多头注意力机制层的输出z′l
z′l=MSA(LN(zl-1))+zl-1,l=1,…,L (2)
式(2)中,LN()表示归一化层的处理;zl-1表示第l-1个编码器的输出;
步骤2.4、利用式(3)得到第l个编码器的多层感知器的输出zl,从而得到最后一个编码器的输出zL
zl=MLP(LN(z′l))+z′l,l=1,…,L (3)
步骤2.5、对包含m+1个D维特征的输出zL求均值,从而得到第i个细胞图像Xi的ViT特征表示
Figure FDA0003171814870000017
步骤3、构建图卷积网络作为第二个分支;
步骤3.1、利用SLIC算法对第i个细胞图像Xi进行过分割,得到第i个细胞图像Xi的超像素集合;
步骤3.2、使用预训练的残差网络ResNet提取第i个细胞图像Xi的CNN特征图;
步骤3.3、根据超像素集合在CNN特征图上的位置,利用最大池化方式对每个超像素所在的CNN特征图中的CNN特征进行处理,从而得到每个超像素所对应的CNN特征向量表示;
步骤3.4、将每个超像素所对应的CNN特征向量表示分别作为图结构的结点,从而构成结点集合
Figure FDA0003171814870000021
其中,S表示超像素的数目,t为每个超像素对应的CNN特征的维数;
步骤3.5、利用式(4)构造邻接矩阵
Figure FDA0003171814870000022
Figure FDA0003171814870000023
式(4)中,Bα表示第α个超像素,Bβ表示第β个超像素,Aαβ表示邻接矩阵A中第α个超像素Bα和第β个超像素Bβ之间的空间近邻关系;
步骤3.6、根据图卷积网络的分层传播规则,利用式(5)更新结点的关系感知表示:
Figure FDA0003171814870000024
式(5)中,
Figure FDA0003171814870000025
是第q层可训练的权重,σ(·)是激活函数;
Figure FDA0003171814870000026
是第q层结点的特征,dq是第q层结点特征的维数;
Figure FDA0003171814870000027
表示第q+1层结点的特征,且
Figure FDA0003171814870000028
Figure FDA0003171814870000029
表示第q+1层中第s个结点输出的特征,当q=0时,令H(0)=B;并有:
Figure FDA00031718148700000210
式(6)中,D表示对角度矩阵,且
Figure FDA00031718148700000211
Dss表示对角度矩阵D中第s行第s列的元素,Aus表示邻接矩阵A中第u行第s列的元素;I表示单位矩阵;
步骤3.7、利用式(7)得到图卷积网络中最后第Q层的结点输出特征所聚合得到的第i个细胞图像Xi的图卷积特征表示zg
Figure FDA0003171814870000031
式(7)中,concat(·)代表特征向量拼接操作,S代表结点总数,
Figure FDA0003171814870000032
代表第Q层中第s个结点的特征;
步骤4、利用式(8)得到第i个细胞图像Xi的最终表征z:
Figure FDA0003171814870000033
步骤5、利用式(9)对最终表征z进行线性变换,得到线性分类器的输出结果ppred
ppred=Linear(z) (9)
式(9)中,Linear(·)代表线性分类函数;
Figure FDA0003171814870000034
c代表细胞的类别数;
步骤6、利用式(10)构建交叉熵损失函数L,并利用梯度下降算法训练有由两个分支和线性分类器所构成的网络,使得交叉熵损失函数L达到收敛,从而得到训练好的宫颈细胞图像分类模型:
Figure FDA0003171814870000035
式(10)中,ylabel为细胞图像样本对应的真实类别,N为细胞图像样本总数。
CN202110820463.2A 2021-07-20 2021-07-20 基于视觉转换器和图卷积网络的宫颈细胞图像分类方法 Active CN113469119B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110820463.2A CN113469119B (zh) 2021-07-20 2021-07-20 基于视觉转换器和图卷积网络的宫颈细胞图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110820463.2A CN113469119B (zh) 2021-07-20 2021-07-20 基于视觉转换器和图卷积网络的宫颈细胞图像分类方法

Publications (2)

Publication Number Publication Date
CN113469119A CN113469119A (zh) 2021-10-01
CN113469119B true CN113469119B (zh) 2022-10-04

Family

ID=77881307

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110820463.2A Active CN113469119B (zh) 2021-07-20 2021-07-20 基于视觉转换器和图卷积网络的宫颈细胞图像分类方法

Country Status (1)

Country Link
CN (1) CN113469119B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114119977B (zh) * 2021-12-01 2022-12-30 昆明理工大学 一种基于图卷积的Transformer胃癌癌变区域图像分割方法
CN114820481A (zh) * 2022-04-13 2022-07-29 合肥工业大学 基于转换器的肺癌组织病理全切片egfr状态预测方法
CN114782753B (zh) * 2022-05-18 2024-07-12 合肥工业大学 基于弱监督学习和转换器的肺癌组织病理全切片分类方法
CN115035074B (zh) * 2022-06-17 2024-05-28 重庆大学 基于全局空间感知网络的宫颈上皮组织病理图像识别方法
CN115661688B (zh) * 2022-10-09 2024-04-26 武汉大学 具有旋转不变性的无人机目标重识别方法、***及设备
CN117036811A (zh) * 2023-08-14 2023-11-10 桂林电子科技大学 基于双分支融合网络的病理图像智能分类***及方法
CN118229981B (zh) * 2024-05-23 2024-07-23 山东未来网络研究院(紫金山实验室工业互联网创新应用基地) 一种结合卷积网络和Transformer的CT图像肿瘤分割方法、装置和介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017215284A1 (zh) * 2016-06-14 2017-12-21 山东大学 基于卷积神经网络的胃肠道肿瘤显微高光谱图像处理方法
CN110363188A (zh) * 2019-04-18 2019-10-22 麦克奥迪(厦门)医疗诊断***有限公司 基于卷积神经网络的宫颈细胞图像分类方法
CN111274903A (zh) * 2020-01-15 2020-06-12 合肥工业大学 一种基于图卷积神经网络的宫颈细胞图像分类方法
CN111461258A (zh) * 2020-04-26 2020-07-28 武汉大学 耦合卷积神经网络和图卷积网络的遥感影像场景分类方法
CN112750115A (zh) * 2021-01-15 2021-05-04 杭州电子科技大学 一种基于图神经网络的多模态***前病变图像识别方法
CN113052257A (zh) * 2021-04-13 2021-06-29 中国电子科技集团公司信息科学研究院 一种基于视觉转换器的深度强化学习方法及装置
JPWO2021132633A1 (zh) * 2019-12-26 2021-07-01

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017215284A1 (zh) * 2016-06-14 2017-12-21 山东大学 基于卷积神经网络的胃肠道肿瘤显微高光谱图像处理方法
CN110363188A (zh) * 2019-04-18 2019-10-22 麦克奥迪(厦门)医疗诊断***有限公司 基于卷积神经网络的宫颈细胞图像分类方法
JPWO2021132633A1 (zh) * 2019-12-26 2021-07-01
CN111274903A (zh) * 2020-01-15 2020-06-12 合肥工业大学 一种基于图卷积神经网络的宫颈细胞图像分类方法
CN111461258A (zh) * 2020-04-26 2020-07-28 武汉大学 耦合卷积神经网络和图卷积网络的遥感影像场景分类方法
CN112750115A (zh) * 2021-01-15 2021-05-04 杭州电子科技大学 一种基于图神经网络的多模态***前病变图像识别方法
CN113052257A (zh) * 2021-04-13 2021-06-29 中国电子科技集团公司信息科学研究院 一种基于视觉转换器的深度强化学习方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Cervical cell classification with graph convolutional network;Jun Shi et al;《Computer Methods and Programs in Biomedicine》;20210131;全文 *
基于深度图卷积胶囊网络的图分类模型;刘海潮等;《计算机科学》;20200930;全文 *

Also Published As

Publication number Publication date
CN113469119A (zh) 2021-10-01

Similar Documents

Publication Publication Date Title
CN113469119B (zh) 基于视觉转换器和图卷积网络的宫颈细胞图像分类方法
CN110555446B (zh) 基于多尺度深度特征融合和迁移学习的遥感影像场景分类方法
CN111368896B (zh) 基于密集残差三维卷积神经网络的高光谱遥感图像分类方法
CN108985238B (zh) 联合深度学习和语义概率的不透水面提取方法及***
CN107092870B (zh) 一种高分辨率影像语义信息提取方法
CN107506761B (zh) 基于显著性学习卷积神经网络的脑部图像分割方法及***
CN107563422B (zh) 一种基于半监督卷积神经网络的极化sar分类方法
Panchal et al. Biogeography based satellite image classification
CN110135459B (zh) 一种基于双三元组深度度量学习网络的零样本分类方法
CN108090472B (zh) 基于多通道一致性特征的行人重识别方法及其***
CN112347970B (zh) 一种基于图卷积神经网络的遥感影像地物识别方法
CN113378792B (zh) 融合全局和局部信息的弱监督宫颈细胞图像分析方法
CN111090764B (zh) 基于多任务学习和图卷积神经网络的影像分类方法及装置
CN111222519B (zh) 一种层次化彩绘文物线稿提取模型构建、方法及装置
CN113988147B (zh) 基于图网络的遥感图像场景多标签分类方法及装置、多标签检索方法及装置
CN114782753B (zh) 基于弱监督学习和转换器的肺癌组织病理全切片分类方法
CN111161244B (zh) 基于FCN+FC-WXGBoost的工业产品表面缺陷检测方法
CN113780292A (zh) 一种基于证据推理的语义分割网络模型不确定性量化方法
CN110619059A (zh) 一种基于迁移学习的建筑物标定方法
CN113298129B (zh) 基于超像素和图卷积网络的极化sar图像分类方法
CN111652273A (zh) 一种基于深度学习的rgb-d图像分类方法
CN115761240B (zh) 一种混沌反向传播图神经网络的图像语义分割方法及装置
CN114863348A (zh) 基于自监督的视频目标分割方法
CN114299324A (zh) 一种基于多尺度域对抗网络的病理图像分类方法及***
Bhimavarapu et al. Analysis and characterization of plant diseases using transfer learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant