CN114882301B - 基于感兴趣区域的自监督学习医学图像识别方法及装置 - Google Patents

基于感兴趣区域的自监督学习医学图像识别方法及装置 Download PDF

Info

Publication number
CN114882301B
CN114882301B CN202210815270.2A CN202210815270A CN114882301B CN 114882301 B CN114882301 B CN 114882301B CN 202210815270 A CN202210815270 A CN 202210815270A CN 114882301 B CN114882301 B CN 114882301B
Authority
CN
China
Prior art keywords
medical image
neural network
network model
deep neural
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210815270.2A
Other languages
English (en)
Other versions
CN114882301A (zh
Inventor
余晓瑞
王书崎
杜奇艳
胡俊杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN202210815270.2A priority Critical patent/CN114882301B/zh
Publication of CN114882301A publication Critical patent/CN114882301A/zh
Application granted granted Critical
Publication of CN114882301B publication Critical patent/CN114882301B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7753Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于感兴趣区域的自监督学习医学图像识别方法及装置,涉及医学图像中病灶的识别,其目的在于解决现有技术中存在的现有网络模型可解释性较差存在漏诊、以及基于一个网络模型无法同时实现分类与定位的问题。根据推理结果定位感兴趣区域,并生成小外接矩形,再生成大小随机的掩码,并作用至输入图像中,后再重复输入深度神经网络模型,通过重复定位、重复掩码以及重复深度神经网络模型识别,可减轻模型训练对有标签数据集的依赖,识别定位出医学图像中两个、三个甚至是更多的感兴趣区域,有效避免漏诊的情形出现,通过引导模型识别病灶的位置以及类别,减轻模型在真实应用场景中可能出现的漏诊情况。

Description

基于感兴趣区域的自监督学习医学图像识别方法及装置
技术领域
本发明人工智能医学技术领域,涉及基于感兴趣区域的自监督学习医学图像识别方法及装置,更具体的是涉及一种基于感兴趣区域的自监督学习的黄斑水肿病变、视网膜病变等医学图像中病灶的分类与定位。
背景技术
基于深度神经网络的人工智能方法已在医学图像识别领域发挥着重要作用,其通过端对端的学习输入(医学图像)与输出(诊断结果)之间的关系,在众多疾病识别任务中取得了良好的分类效果,如黄斑水肿病变、视网膜病变等。
图1展示了一种典型的基于深度神经网络的黄斑水肿病变分类模型,其用于识别医学图像中是否存在黄斑水肿病变,从而完成对医学图像的分类。任务的输入数据为光学相干断层扫描(Optical Coherence Tomography, OCT)图像,任务输出共包括四个类别:1.正常、2. 脉络膜新生血管(Choroidal Neovascularization, CNV)、3. 糖尿病性黄斑水肿(Diabetic Macular Edema, DME)、4. 玻璃体疣(Drusen),其中DME的模型预测概率最高(0.6)。图中的疾病分类模型通常由深度神经网络实现,其中灰色的方块代表模型从输入的OCT图像中提取得到的抽象特征,全局池化沿着特征通道的维度求平均,实现了将特征由三维矩阵变为一维向量,并根据该一维向量得到模型的预测结果。
申请号为2021112638282的发明专利申请就公开了一种胃镜图像智能目标检测***及方法,其图像获取模块用于获取待检测胃镜图像;目标检测模块用于将待检测胃镜图像输出到目标检测模型中以获取病灶区域以及所述病灶区域对应的病灶类别;所述目标检测模型的训练过程为:确定多张第一胃镜图像;确定每张第一胃镜图像对应的标签;所述标签包括病灶类别和病灶区域;将第一胃镜图像以及所述第一胃镜图像对应的标签输入到卷积神经网络中以训练所述卷积神经网络,进而得到目标检测模型。本发明通过将目标检测方法与胃镜图像结合得到目标检测模型,以实现对胃镜图像中病灶区域以及病灶区域对应的病灶类型的智能检测,降低人为主观造成的诊断误差。
申请号为2017108886512的发明专利公开了一种用于标注医学图像的方法和装置,其通过获取至少一个待标注医学图像;为待标注医学图像标注分类信息,其中,分类信息包括医学图像对应的诊断结果的类别和诊断结果的等级;利用预先训练的病灶区域检测模型处理待标注医学图像,在待标注医学图像中框选出病灶区域、且标注出病灶区域的病灶类型,以使待标注医学图像标注出病灶区域和病灶区域的病灶类型;从已框选出病灶区域的待标注医学图像中分割出被框选出的病灶区域,形成待标注医学图像分割图像,以使待标注医学图像标注出分割图像。该实施方式实现了降低了标注医学图像的人力和时间成本。
申请号为2020108177607的发明专利还公开了一种基于深度学习的眼科超声自动筛查方法及***,其包括:模型训练阶段:收集历史眼科超声图片和视频,对其进行训练得到分割模型和分类模型;检测阶段:S1、获取待检测的眼科超声图像;S2、利用训练好分割模型对待检测眼科超声图像进行人工智能网络分割,并利用分类模型对分割后的眼科超声图像进行识别,识别得到病灶类别,同时提示病灶位置;S3、根据所识别病灶评估相应风险评级;S4、根据风险等级,进行下一步诊疗提示。本发明可以减少医生工作量,提高疾病的及时诊断率,同时因为可以显示出具体的病灶位置,可用于对新手医生进行辅助培训。
以上这种端对端(输入图像至输出类别)的学习方式在医学图像识别任务中虽然得到了广泛应用,然而模型训练过程中存在两大痛点:1、模型训练依赖大量有标签数据集,然而在医学图像分析任务中获取患者的医学图像通常比较困难,此外人工标注依赖医生的领域经验知识,标注过程耗时耗力;2、模型可解释性较差,模型只要识别到感兴趣区域后,很难再进一步识别其他区域是否还有其他感兴趣区域或者其他不太容易识别到的感兴趣区域,从而难以有效应对模型在真实应用场景中出现的漏诊情况,具体如图2所示。在图2中,可根据模型的预测结果反向定位至模型对于输入的感兴趣区域(Region of interest,ROI),并以热图的形式展现出来,其中类别激活图(Class Activation Mapping, CAM)是一种有代表性的感兴趣区域识别算法,图2(a)展示了输入给模型的原始图像,该图包含复杂的病灶特征,分布在图像中央;图2(b)展示了模型所识别出的感兴趣区域,其中白色区域里面的深色代表模型认为病灶疑似程度最高的区域,外层的白色代表疑似次之的区域;图2(c)在白色区域左侧的深色方框展示了模型所遗漏掉的病灶区域,从图2(c)中可以看出,模型仅识别出了病灶特征最明显的区域,而忽略了同样具备诊断价值的次临床特征,从而造成漏诊。此外,上述这些应用中,一方面是部分方法中的网络模型仅能实现图像的分类,无法对图像的分类区域进行定位,无法输出位置信息;另一方面部分方法虽然能够同时实现分类、定位,但是其是分别通过两个网络模型实现的,一个网络模型用于分类,另一个网络模型用于定位,无法基于同一个网络模型通过不同的训练方法使其同时具备分类与定位的功能。
发明内容
本发明的目的在于:为了解决现有技术中存在的现有网络模型可解释性较差存在漏诊、以及基于一个网络模型无法同时实现分类与定位的问题,本申请提出了一种基于感兴趣区域的自监督学习医学图像识别方法及装置。
本发明为了实现上述目的具体采用以下技术方案:
一种基于感兴趣区域的自监督学习医学图像识别方法,包括深度神经网络模型,深度神经网络模型的训练方法为:
步骤S1,将获取的医学图像作为样本输入深度神经网络模型,并基于前向推理得到病灶的类别信息;
步骤S2,根据步骤S1得到的类别信息,找出感兴趣区域并生成相应的最小外接矩形,在最小外接矩形的引导下生成随机掩码,并将掩码作用于对应的医学图像,得到赋有掩码的医学图像;
步骤S3,将步骤S2得到的赋有掩码的医学图像作为样本输入深度神经网络模型,得到预测的类别信息、位置信息,并结合步骤S2生成的最小外接矩形作为伪标签、以及医学图像的真实分类标签,预测出病灶的位置误差、类别误差;
步骤S4,根据步骤S3得到的位置误差、类别误差,更新深度神经网络模型的参数;重复训练深度神经网络模型,直至深度神经网络模型收敛。
作为优选地,步骤S1中,深度神经网络模型的卷积层在进行前向推理时,前向计算采用的公式具体为:
Figure 418648DEST_PATH_IMAGE001
其中,
Figure 755083DEST_PATH_IMAGE002
代表第
Figure 919348DEST_PATH_IMAGE003
层与第
Figure 160974DEST_PATH_IMAGE004
层之间的卷积核,
Figure 701676DEST_PATH_IMAGE005
Figure 79568DEST_PATH_IMAGE006
代表卷积核中第
Figure 742631DEST_PATH_IMAGE005
行第
Figure 205973DEST_PATH_IMAGE006
列位置的元素;卷积核是一个可学习参数矩阵,矩阵的宽和高分别为
Figure 550367DEST_PATH_IMAGE008
Figure 48344DEST_PATH_IMAGE009
Figure 554412DEST_PATH_IMAGE010
代表第
Figure 82214DEST_PATH_IMAGE011
层的输出,
Figure 964719DEST_PATH_IMAGE012
代表非线性激活函数,n、m代表卷积输出的第n行m列位置的激活值。
作为优选地,步骤S1中,深度神经网络模型的最后一层为全连接层,全连接层在进行前向推理时,前向计算采用的公式具体为:
Figure 317203DEST_PATH_IMAGE013
其中,
Figure 994172DEST_PATH_IMAGE014
代表第
Figure 432107DEST_PATH_IMAGE004
层的
Figure 180620DEST_PATH_IMAGE015
神经元与第
Figure 387610DEST_PATH_IMAGE003
层的
Figure 501060DEST_PATH_IMAGE005
神经元之间的连接权,
Figure 426291DEST_PATH_IMAGE016
代表第
Figure 650599DEST_PATH_IMAGE003
层的
Figure 790724DEST_PATH_IMAGE005
神经元的输出,
Figure 75075DEST_PATH_IMAGE017
代表第
Figure 222022DEST_PATH_IMAGE003
层所包含的神经元的数目,
Figure 250021DEST_PATH_IMAGE018
代表非线性激活函数。
作为优选地,步骤S2中,在找出感兴趣区域时,其计算步骤为:
步骤S2中,在找出感兴趣区域时,其计算步骤为:
步骤S2-1,获得深度神经网络模型对于输出的预测类别
Figure 493921DEST_PATH_IMAGE020
,预测类别c代表输出层中的第c个神经元,其激活值在输出层中最大:
Figure 949173DEST_PATH_IMAGE021
其中,
Figure 848996DEST_PATH_IMAGE022
为步骤S1最后的输出;
步骤S2-2,将第
Figure 415106DEST_PATH_IMAGE023
个神经元连接的连接权矩阵
Figure 451195DEST_PATH_IMAGE024
与最后一个卷积层的特征
Figure 388933DEST_PATH_IMAGE025
加权求和,并对求和后的特征进行上采样:
Figure 510473DEST_PATH_IMAGE026
其中,
Figure 880275DEST_PATH_IMAGE027
即代表对于输入的医学图像的感兴趣区域,它的维度与输入图像的维度一致,
Figure 36449DEST_PATH_IMAGE028
表示最后一个卷积层的通道数目,
Figure 833504DEST_PATH_IMAGE029
表示K的游标,用于遍历从1到K,
Figure 504657DEST_PATH_IMAGE023
表示最后一层的第
Figure 412570DEST_PATH_IMAGE023
个神经元,
Figure 423251DEST_PATH_IMAGE030
表示第
Figure 391207DEST_PATH_IMAGE023
个神经元与最后一个卷积层的连接权矩阵,
Figure 487339DEST_PATH_IMAGE031
表示最后一个卷积层的输出,
Figure 11993DEST_PATH_IMAGE032
表示上采样函数。
作为优选地,步骤S2中,生成赋有掩码的医学图像的方法为:
根据识别出的感兴趣区域生成热图,根据热图识别出最小外接矩形,在最小外接矩形内生成大小不固定的随机掩码,并将输入图像对应位置的元素设置为0,生成并作用感兴趣区域引导的赋有掩码的医学图像。
作为优选地,在步骤S3得到预测的类别信息后,重复步骤S2、S3两次或三次,获取医学图像中更多的感兴趣区域。
一种基于感兴趣区域的自监督学习医学图像识别装置,包括模型训练模块,模型训练模块包括:
前向推理预测模块,用于将获取的医学图像作为样本输入深度神经网络模型,并基于前向推理得到病灶的类别信息;
掩码生成模块,用于根据前向推理预测模块得到的类别信息,找出感兴趣区域并生成相应的最小外接矩形,在最小外接矩形的引导下生成随机掩码,并将掩码作用于对应的医学图像,得到赋有掩码的医学图像;
误差生成模块,用于将掩码生成模块得到的赋有掩码的医学图像作为样本输入深度神经网络模型,得到预测的类别信息、位置信息,并结合掩码生成模块生成的最小外接矩形作为伪标签、以及医学图像的真实分类标签,预测出病灶的位置误差、类别误差;
参数更新模块,用于根据误差生成模块得到的位置误差、类别误差更新深度神经网络模型的参数;重复训练深度神经网络模型,直至深度神经网络模型收敛。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行上述方法的步骤。
一种计算机可读存储介质,其特征在于:存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行上述方法的步骤。
本发明的有益效果如下:
1.本发明中,针对一张待分析的医学图像,根据推理结果定位感兴趣区域,并生成该区域的最小外接矩形,再根据以该最小外接矩形为参考,生成大小随机的掩码,并作用至输入图像中,以达到增强数据多样性的目的,减轻模型训练对有标签数据集的依赖。
2.本发明中,根据推理结果定位感兴趣区域进行掩码后再重复输入深度神经网络模型,通过重复定位、重复掩码以及重复深度神经网络模型识别,可以识别定位出医学图像中两个、三个甚至是更多的感兴趣区域,有效避免漏诊的情形出现。
3.本发明中,通过将生成的最小外接矩形作为伪标签,结合医学图像本身具备的真实标签,二者共同作为标签训练深度神经网络,最小外接矩形提供了位置信息,用于训练模型准确定位至病灶区域;真实标签提供了病灶的类别信息,通过引导模型识别病灶的位置以及类别,能够获取医学图像中病灶的具***置以及类别,减轻模型在真实应用场景中可能出现的漏诊情况。
附图说明
图1是现有技术中黄斑水肿病变分类模型的结构示意图;
图2是现有技术中入原始图像与模型对于输入的感兴趣区域热图;
其中,图2(a)展示了输入给模型的原始图像,该图包含复杂的病灶特征,分布在图像中央;图2(b)展示了模型所识别出的感兴趣区域,其中白色区域里面的深色代表模型认为病灶疑似程度最高的区域,外层的白色代表疑似次之的区域;图2(c)在白色区域左侧的深色方框展示了模型所遗漏掉的病灶区域;
图3是本发明的流程示意图。
具体实施方式
实施例1
本实施例提供一种基于感兴趣区域的自监督学习医学图像识别方法,用于对医学图像中病灶的识别,尤其是医学图像中黄斑水肿病变、视网膜病变等病灶的分类与位置。其具体包括以下步骤:
步骤一,获取样本数据
获取用于模型训练的样本数据,该样本数据取自于医院的OCT医学图像,且每组OCT医学图像均由医学专家进行了黄斑水肿病变的病灶的标注,形成对应的真实分类标签。
步骤二,搭建模型
搭建深度神经网络模型,深度神经网络模型可采用现有的网络模型即可,且该深度神经网络模型可对医学图像进行分类、识别,得到病灶的类别信息与位置信息。根据实际需要,可自行选择Faster RCNN网络模型。
步骤三,训练模型
对步骤二搭建的深度神经网络模型进行训练。深度神经网络模型的具体训练方法,是本申请的核心创新之一,其具体训练方法如图3所示:
该深度神经网络模型的训练,具体包括以下四个阶段,分别是:
步骤S1,将步骤一获取的医学图像作为样本输入深度神经网络模型,并基于前向推理得到病灶的类别信息。具体为:
针对医学图像分类任务,本申请的第一阶段即是将医学图像输入至深度神经网络模型,获得模型对于医学图像的分类结果,即模型的推理,以供第二阶段生成并作用感兴趣区域。本实施例中,以卷积神经网络为例,深度神经网络模型由卷积层、池化层以及全连接层构成,其中卷积层与全连接层包含可学习参数,池化层不包含可学习参数。前向计算采用的公式具体为:
Figure 142760DEST_PATH_IMAGE001
其中,
Figure 281617DEST_PATH_IMAGE002
代表第
Figure 599466DEST_PATH_IMAGE003
层与第
Figure 114761DEST_PATH_IMAGE004
层之间的卷积核,
Figure 162351DEST_PATH_IMAGE005
Figure 472110DEST_PATH_IMAGE006
代表卷积核中第
Figure 277255DEST_PATH_IMAGE005
行第
Figure 330662DEST_PATH_IMAGE006
列位置的元素;卷积核是一个可学习参数矩阵,矩阵的宽和高分别为
Figure 170442DEST_PATH_IMAGE008
Figure 962686DEST_PATH_IMAGE009
Figure 520706DEST_PATH_IMAGE010
代表第
Figure 112225DEST_PATH_IMAGE011
层的输出,
Figure 72090DEST_PATH_IMAGE012
代表非线性激活函数,n、m代表卷积输出的第n行m列位置的激活值。以上公式的含义是卷积核
Figure 723652DEST_PATH_IMAGE033
与第
Figure 503389DEST_PATH_IMAGE003
层的输出
Figure 960915DEST_PATH_IMAGE010
对应位置元素相乘并求和,经过激活函数作用后,得到第
Figure 775287DEST_PATH_IMAGE004
层的输出
Figure 597750DEST_PATH_IMAGE034
步骤S1中,深度神经网络模型的最后一层为全连接层,全连接层在进行前向推理时,前向计算采用的公式具体为:
Figure 864783DEST_PATH_IMAGE013
其中,
Figure 63683DEST_PATH_IMAGE014
代表第
Figure 545611DEST_PATH_IMAGE004
层的
Figure 538975DEST_PATH_IMAGE015
神经元与第
Figure 293304DEST_PATH_IMAGE003
层的
Figure 295895DEST_PATH_IMAGE005
神经元之间的连接权,
Figure 881597DEST_PATH_IMAGE016
代表第
Figure 45863DEST_PATH_IMAGE003
层的
Figure 287488DEST_PATH_IMAGE005
神经元的输出,
Figure 828191DEST_PATH_IMAGE017
代表第
Figure 206083DEST_PATH_IMAGE003
层所包含的神经元的数目,
Figure 118413DEST_PATH_IMAGE018
代表非线性激活函数。可以看出,卷积操作产生的二维输出(如
Figure 581755DEST_PATH_IMAGE035
),全连接得到的是一维的输出,它的输出即代表模型对于输入的最终预测结果。
步骤S2,根据步骤S1得到的类别信息,找出感兴趣区域并生成相应的最小外接矩形,在最小外接矩形的引导下生成随机掩码,并将掩码作用于对应的医学图像,得到赋有掩码的医学图像。具体为:
在得到步骤S1的预测结果后,第二阶段即是模型对于输入的感兴趣区域以及相应的最小外接矩形。深度神经网络模型最后的全连接层中的连接权矩阵
Figure 926149DEST_PATH_IMAGE036
对最后一个卷积层的输出
Figure 158547DEST_PATH_IMAGE037
加权求和,并上采样至输入图像的大小,即可得到模型对于输入的感兴趣区域。
首先,步骤S2中,在找出感兴趣区域时,其计算步骤为:
步骤S2-1,获得深度神经网络模型对于输出的预测类别c,预测类别c代表输出层中的第c个神经元,其激活值在输出层中最大:
Figure 930194DEST_PATH_IMAGE021
其中,
Figure 943149DEST_PATH_IMAGE022
为步骤S1最后的输出;
步骤S2-2,将第
Figure 825655DEST_PATH_IMAGE023
个神经元连接的连接权矩阵
Figure 178138DEST_PATH_IMAGE024
与最后一个卷积层的特征
Figure 120687DEST_PATH_IMAGE025
加权求和,并对求和后的特征进行上采样:
Figure 558621DEST_PATH_IMAGE026
其中,
Figure 57867DEST_PATH_IMAGE027
即代表对于输入的医学图像的感兴趣区域,它的维度与输入图像的维度一致,
Figure 264857DEST_PATH_IMAGE028
表示最后一个卷积层的通道数目,
Figure 378307DEST_PATH_IMAGE029
表示K的游标,用于遍历从1到K,
Figure 303537DEST_PATH_IMAGE023
表示最后一层的第
Figure 527845DEST_PATH_IMAGE023
个神经元,
Figure 917238DEST_PATH_IMAGE030
表示第
Figure 936010DEST_PATH_IMAGE023
个神经元与最后一个卷积层的连接权矩阵,
Figure 348537DEST_PATH_IMAGE031
表示最后一个卷积层的输出,
Figure 376536DEST_PATH_IMAGE032
表示上采样函数。图3中的第二阶段右下方的热图即代表识别出的感兴趣区域。
此处需要说明的是,根据习惯,网络中间层通常用小写的
Figure 558118DEST_PATH_IMAGE038
代指(即layer),网络最后一层通常用大写的L代指;所以,步骤S1、S2中分别在不同网络层中使用
Figure 324955DEST_PATH_IMAGE038
、L来表示。
根据识别出的感兴趣区域生成热图,根据热图识别出最小外接矩形,在最小外接矩形内生成大小不固定的随机掩码,并将输入图像对应位置的元素设置为0,生成并作用感兴趣区域引导的赋有掩码的医学图像。
步骤S3,将步骤S2得到的赋有掩码的医学图像作为样本输入深度神经网络模型,得到预测的类别信息、位置信息,并结合步骤S2生成的最小外接矩形作为伪标签、以及医学图像的真实分类标签,预测出病灶的位置误差、类别误差。具体为:
该阶段采用自监督学习同时预测病灶的类别与位置。自监督学习的目的旨在生成伪标签并预训练模型,通过预训练的方式,提升模型在下游任务中的性能表现。本步骤以上一步赋有了随机掩码的医学图像作为输入,并利用上一步生成的最小外接矩形作为病灶位置的伪标签,结合医学图像本身已具备的病灶类别真实标签,二者同时训练模型。通过引入病灶位置预测,为模型提供更强的监督学习信号,以减轻模型在真实场景中的漏诊情况。
步骤S4,根据步骤S3得到的位置误差、类别误差,更新深度神经网络模型的参数;重复训练深度神经网络模型,直至深度神经网络模型收敛。具体为:
深度神经网络模型将同时输出病灶的位置以及类别,与病灶位置的伪标签以及病灶类别的真实标签进行比较,产生类别误差与位置误差,根据该类别误差与位置误差即可利用梯度下降算法更新模型参数;重复训练深度神经网络模型,直至深度神经网络模型收敛,完成模型训练。
此外,在步骤S3得到预测的类别信息后,重复步骤S2、S3两次或三次,获取医学图像中更多的感兴趣区域。
步骤四,实时检测、识别
将实时获取的OCT医学图像输入训练成熟的深度神经网络中,输出医学图像的结果,其中包括病灶的位置信息以及分类信息。即:给定一张待识别的医学图像,深度神经网络不仅将输出病灶的类别,而且可定位至病灶的位置,具备非常强的实用性。
实施例2
本实施例提供一种基于感兴趣区域的自监督学习医学图像识别装置,用于对医学图像中病灶的识别,尤其是医学图像中黄斑水肿病变、视网膜病变等病灶的分类与位置。其具体包括:
样本数据获取模块,用于获取用于模型训练的样本数据,该样本数据取自于医院的OCT医学图像,且每组OCT医学图像均由医学专家进行了黄斑水肿病变的病灶的标注,形成对应的真实分类标签。
模型搭建模块,用于搭建深度神经网络模型,深度神经网络模型可采用现有的网络模型即可,且该深度神经网络模型可对医学图像进行分类、识别,得到病灶的类别信息与位置信息。根据实际需要,可自行选择Faster RCNN网络模型。
模型训练模块,用于对模型搭建模块搭建的深度神经网络模型进行训练。深度神经网络模型的具体训练方法,是本申请的核心创新之一,其具体训练方法如图3所示:
该模型训练模块包括:
前向推理预测模块,用于将获取的医学图像作为样本输入深度神经网络模型,并基于前向推理得到病灶的类别信息。具体为:
针对医学图像分类任务,本申请的第一阶段即是将医学图像输入至深度神经网络模型,获得模型对于医学图像的分类结果,即模型的推理,以供第二阶段生成并作用感兴趣区域。本实施例中,以卷积神经网络为例,深度神经网络模型由卷积层、池化层以及全连接层构成,其中卷积层与全连接层包含可学习参数,池化层不包含可学习参数。卷积层的前向计算采用的公式具体为:
Figure 959199DEST_PATH_IMAGE001
其中,
Figure 525309DEST_PATH_IMAGE002
代表第
Figure 826977DEST_PATH_IMAGE003
层与第
Figure 453131DEST_PATH_IMAGE004
层之间的卷积核,
Figure 636988DEST_PATH_IMAGE005
Figure 6789DEST_PATH_IMAGE006
代表卷积核中第
Figure 162964DEST_PATH_IMAGE005
行第
Figure 960019DEST_PATH_IMAGE006
列位置的元素;卷积核是一个可学习参数矩阵,矩阵的宽和高分别为
Figure 568854DEST_PATH_IMAGE008
Figure 289817DEST_PATH_IMAGE009
Figure 300498DEST_PATH_IMAGE010
代表第
Figure 268454DEST_PATH_IMAGE011
层的输出,
Figure 364586DEST_PATH_IMAGE012
代表非线性激活函数,n、m代表卷积输出的第n行m列位置的激活值。以上公式的含义是卷积核
Figure 76190DEST_PATH_IMAGE033
与第
Figure 3695DEST_PATH_IMAGE003
层的输出
Figure 142552DEST_PATH_IMAGE010
对应位置元素相乘并求和,经过激活函数作用后,得到第
Figure 725980DEST_PATH_IMAGE004
层的输出
Figure 241275DEST_PATH_IMAGE034
该深度神经网络模型的最后一层为全连接层,全连接层在进行前向推理时,前向计算采用的公式具体为:
Figure 960970DEST_PATH_IMAGE013
其中,
Figure 582313DEST_PATH_IMAGE014
代表第
Figure 653037DEST_PATH_IMAGE004
层的
Figure 706444DEST_PATH_IMAGE015
神经元与第
Figure 546224DEST_PATH_IMAGE003
层的
Figure 26883DEST_PATH_IMAGE005
神经元之间的连接权,
Figure 647221DEST_PATH_IMAGE016
代表第
Figure 238739DEST_PATH_IMAGE003
层的
Figure 933026DEST_PATH_IMAGE005
神经元的输出,
Figure 850166DEST_PATH_IMAGE017
代表第
Figure 442952DEST_PATH_IMAGE003
层所包含的神经元的数目,
Figure 838162DEST_PATH_IMAGE018
代表非线性激活函数。可以看出,卷积操作产生的二维输出(如
Figure 652534DEST_PATH_IMAGE035
),全连接得到的是一维的输出,它的输出即代表模型对于输入的最终预测结果。
掩码生成模块,用于根据前向推理预测模块得到的类别信息,找出感兴趣区域并生成相应的最小外接矩形,在最小外接矩形的引导下生成随机掩码,并将掩码作用于对应的医学图像,得到赋有掩码的医学图像。具体为:
在得到步骤S1的预测结果后,第二阶段即是模型对于输入的感兴趣区域以及相应的最小外接矩形。深度神经网络模型最后的全连接层中的连接权矩阵
Figure 474996DEST_PATH_IMAGE036
对最后一个卷积层的输出
Figure 742030DEST_PATH_IMAGE037
加权求和,并上采样至输入图像的大小,即可得到模型对于输入的感兴趣区域。
首先,步骤S2中,在找出感兴趣区域时,其计算步骤为:
步骤S2-1,获得深度神经网络模型对于输出的预测类别c,预测类别c代表输出层中的第c个神经元,其激活值在输出层中最大:
Figure 3247DEST_PATH_IMAGE021
其中,
Figure 672126DEST_PATH_IMAGE022
为步骤S1最后的输出;
步骤S2-2,将第
Figure 665489DEST_PATH_IMAGE023
个神经元连接的连接权矩阵
Figure 419819DEST_PATH_IMAGE024
与最后一个卷积层的特征
Figure 468415DEST_PATH_IMAGE025
加权求和,并对求和后的特征进行上采样:
Figure 991800DEST_PATH_IMAGE026
其中,
Figure 421645DEST_PATH_IMAGE027
即代表对于输入的医学图像的感兴趣区域,它的维度与输入图像的维度一致,
Figure 663270DEST_PATH_IMAGE028
表示最后一个卷积层的通道数目,
Figure 938394DEST_PATH_IMAGE029
表示K的游标,用于遍历从1到K,
Figure 644181DEST_PATH_IMAGE023
表示最后一层的第
Figure 979348DEST_PATH_IMAGE023
个神经元,
Figure 708269DEST_PATH_IMAGE030
表示第
Figure 787084DEST_PATH_IMAGE023
个神经元与最后一个卷积层的连接权矩阵,
Figure 285061DEST_PATH_IMAGE031
表示最后一个卷积层的输出,
Figure 869758DEST_PATH_IMAGE032
表示上采样函数。图3中的第二阶段右下方的热图即代表识别出的感兴趣区域。
根据识别出的感兴趣区域生成热图,根据热图识别出最小外接矩形,在最小外接矩形内生成大小不固定的随机掩码,并将输入图像对应位置的元素设置为0,生成并作用感兴趣区域引导的赋有掩码的医学图像。
误差生成模块,用于将掩码生成模块得到的赋有掩码的医学图像作为样本输入深度神经网络模型,得到预测的类别信息、位置信息,并结合掩码生成模块生成的最小外接矩形作为伪标签、以及医学图像的真实分类标签,预测出病灶的位置误差、类别误差。具体为:
该阶段采用自监督学习同时预测病灶的类别与位置。自监督学习的目的旨在生成伪标签并预训练模型,通过预训练的方式,提升模型在下游任务中的性能表现。本步骤以上一步赋有了随机掩码的医学图像作为输入,并利用上一步生成的最小外接矩形作为病灶位置的伪标签,结合医学图像本身已具备的病灶类别真实标签,二者同时训练模型。通过引入病灶位置预测,为模型提供更强的监督学习信号,以减轻模型在真实场景中的漏诊情况。
参数更新模块,用于根据误差生成模块得到的位置误差、类别误差更新深度神经网络模型的参数;重复训练深度神经网络模型,直至深度神经网络模型收敛。具体为:
深度神经网络模型将同时输出病灶的位置以及类别,与病灶位置的伪标签以及病灶类别的真实标签进行比较,产生类别误差与位置误差,根据该类别误差与位置误差即可利用梯度下降算法更新模型参数;重复训练深度神经网络模型,直至深度神经网络模型收敛,完成模型训练。
此外,在步骤S3得到预测的类别信息后,重复步骤S2、S3两次或三次,获取医学图像中更多的感兴趣区域。
实时检测模块,用于将实时获取的OCT医学图像输入训练成熟的深度神经网络中,输出医学图像的结果,其中包括病灶的位置信息以及分类信息。即:给定一张待识别的医学图像,深度神经网络不仅将输出病灶的类别,而且可定位至病灶的位置,具备非常强的实用性。
实施例3
本实施例还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述基于感兴趣区域的自监督学习医学图像识别方法的步骤。
其中,所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或D界面显示存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器可以是所述计算机设备的内部存储单元,例如该计算机设备的硬盘或内存。在另一些实施例中,所述存储器也可以是所述计算机设备的外部存储设备,例如该计算机设备上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,所述存储器还可以既包括所述计算机设备的内部存储单元也包括其外部存储设备。本实施例中,所述存储器常用于存储安装于所述计算机设备的操作***和各类应用软件,例如运行所述基于感兴趣区域的自监督学习医学图像识别方法的的程序代码等。此外,所述存储器还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器通常用于控制所述计算机设备的总体操作。本实施例中,所述处理器用于运行所述存储器中存储的程序代码或者处理数据,例如运行所述基于感兴趣区域的自监督学习医学图像识别方法的程序代码。
实施例4
本实施例还提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述基于感兴趣区域的自监督学习医学图像识别方法的步骤。
其中,所述计算机可读存储介质存储有界面显示程序,所述界面显示程序可被至少一个处理器执行,以使所述至少一个处理器执行基于感兴趣区域的自监督学习医学图像识别方法的步骤。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器或者网络设备等)执行本申请各个实施例所述的方法。

Claims (7)

1.一种基于感兴趣区域的自监督学习医学图像识别方法,包括深度神经网络模型,其特征在于,深度神经网络模型的训练方法为:
步骤S1,将获取的医学图像作为样本输入深度神经网络模型,并基于前向推理得到病灶的类别信息;
步骤S2,根据步骤S1得到的类别信息,找出感兴趣区域并生成相应的最小外接矩形,在最小外接矩形的引导下生成随机掩码,并将掩码作用于对应的医学图像,得到赋有掩码的医学图像;
步骤S3,将步骤S2得到的赋有掩码的医学图像作为样本输入深度神经网络模型,得到预测的类别信息、位置信息,并结合步骤S2生成的最小外接矩形作为伪标签、以及医学图像的真实分类标签,预测出病灶的位置误差、类别误差;
步骤S4,根据步骤S3得到位置误差、类别误差更新深度神经网络模型的参数,重复训练深度神经网络模型,直至深度神经网络模型收敛。
2.如权利要求1所述的一种基于感兴趣区域的自监督学习医学图像识别方法,其特征在于:步骤S1中,深度神经网络模型的卷积层在进行前向推理时,前向计算采用的公式具体为:
Figure 791027DEST_PATH_IMAGE001
其中,
Figure 177009DEST_PATH_IMAGE002
代表第
Figure 550222DEST_PATH_IMAGE003
层与第
Figure 414273DEST_PATH_IMAGE004
层之间的卷积核,
Figure 320655DEST_PATH_IMAGE005
Figure 611959DEST_PATH_IMAGE006
代表卷积核中第
Figure 472468DEST_PATH_IMAGE005
行第
Figure 140210DEST_PATH_IMAGE006
列位置的元素;卷积核是一个可学习参数矩阵,矩阵的宽和高分别为
Figure 402564DEST_PATH_IMAGE007
Figure 130348DEST_PATH_IMAGE008
Figure 776356DEST_PATH_IMAGE009
代表第
Figure 982209DEST_PATH_IMAGE010
层的输出,
Figure 99070DEST_PATH_IMAGE011
代表非线性激活函数,n、m代表卷积输出的第n行m列位置的激活值。
3.如权利要求1所述的一种基于感兴趣区域的自监督学习医学图像识别方法,其特征在于:步骤S1中,深度神经网络模型的最后一层为全连接层,全连接层在进行前向推理时,前向计算采用的公式具体为:
Figure 997755DEST_PATH_IMAGE012
其中,
Figure 832856DEST_PATH_IMAGE013
代表第
Figure 842401DEST_PATH_IMAGE004
层的
Figure 79347DEST_PATH_IMAGE006
神经元与第
Figure 617776DEST_PATH_IMAGE003
层的
Figure 704287DEST_PATH_IMAGE005
神经元之间的连接权,
Figure 251943DEST_PATH_IMAGE014
代表第
Figure 343396DEST_PATH_IMAGE003
层的
Figure 583884DEST_PATH_IMAGE005
神经元的输出,
Figure 127998DEST_PATH_IMAGE015
代表第
Figure 807241DEST_PATH_IMAGE003
层所包含的神经元的数目,
Figure 628566DEST_PATH_IMAGE016
代表非线性激活函数。
4.如权利要求1所述的一种基于感兴趣区域的自监督学习医学图像识别方法,其特征在于:步骤S2中,在找出感兴趣区域时,其计算步骤为:
步骤S2-1,获得深度神经网络模型对于输出的预测类别c,预测类别c代表输出层中的第c个神经元,其激活值在输出层中最大:
Figure 666055DEST_PATH_IMAGE017
其中,
Figure 572831DEST_PATH_IMAGE018
为步骤S1最后的输出;
步骤S2-2,将第
Figure 649240DEST_PATH_IMAGE019
个神经元连接的连接权矩阵
Figure 590651DEST_PATH_IMAGE020
与最后一个卷积层的特征
Figure 297576DEST_PATH_IMAGE021
加权求和,并对求和后的特征进行上采样:
Figure 691649DEST_PATH_IMAGE022
其中,
Figure 555437DEST_PATH_IMAGE023
即代表对于输入的医学图像的感兴趣区域,它的维度与输入图像的维度一致,
Figure 302420DEST_PATH_IMAGE024
表示最后一个卷积层的通道数目,
Figure 649088DEST_PATH_IMAGE025
表示K的游标,用于遍历从1到K,
Figure 77926DEST_PATH_IMAGE019
表示最后一层的第
Figure 637083DEST_PATH_IMAGE019
个神经元,
Figure 412141DEST_PATH_IMAGE026
表示第
Figure 70656DEST_PATH_IMAGE019
个神经元与最后一个卷积层的连接权矩阵,
Figure 328068DEST_PATH_IMAGE027
表示最后一个卷积层的输出,
Figure 956496DEST_PATH_IMAGE028
表示上采样函数。
5.如权利要求1所述的一种基于感兴趣区域的自监督学习医学图像识别方法,其特征在于:步骤S2中,生成赋有掩码的医学图像的方法为:
根据识别出的感兴趣区域生成热图,根据热图识别出最小外接矩形,在最小外接矩形内生成大小不固定的随机掩码,并将输入图像对应位置的元素设置为0,生成并作用感兴趣区域引导的赋有掩码的医学图像。
6.如权利要求1所述的一种基于感兴趣区域的自监督学习医学图像识别方法,其特征在于:在步骤S3得到预测的类别信息后,重复步骤S2、S3两次或三次,获取医学图像中更多的感兴趣区域。
7.一种基于感兴趣区域的自监督学习医学图像识别装置,包括模型训练模块,其特征在于;模型训练模块包括:
前向推理预测模块,用于将获取的医学图像作为样本输入深度神经网络模型,并基于前向推理得到病灶的类别信息;
掩码生成模块,用于根据前向推理预测模块得到的类别信息,找出感兴趣区域并生成相应的最小外接矩形,在最小外接矩形的引导下生成随机掩码,并将掩码作用于对应的医学图像,得到赋有掩码的医学图像;
误差生成模块,用于将掩码生成模块得到的赋有掩码的医学图像作为样本输入深度神经网络模型,得到预测的类别信息、位置信息,并结合掩码生成模块生成的最小外接矩形作为伪标签、以及医学图像的真实分类标签,预测出病灶的位置误差、类别误差;
参数更新模块,用于根据误差生成模块得到的位置误差、类别误差更新深度神经网络模型的参数;重复训练深度神经网络模型,直至深度神经网络模型收敛。
CN202210815270.2A 2022-07-11 2022-07-11 基于感兴趣区域的自监督学习医学图像识别方法及装置 Active CN114882301B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210815270.2A CN114882301B (zh) 2022-07-11 2022-07-11 基于感兴趣区域的自监督学习医学图像识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210815270.2A CN114882301B (zh) 2022-07-11 2022-07-11 基于感兴趣区域的自监督学习医学图像识别方法及装置

Publications (2)

Publication Number Publication Date
CN114882301A CN114882301A (zh) 2022-08-09
CN114882301B true CN114882301B (zh) 2022-09-13

Family

ID=82682994

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210815270.2A Active CN114882301B (zh) 2022-07-11 2022-07-11 基于感兴趣区域的自监督学习医学图像识别方法及装置

Country Status (1)

Country Link
CN (1) CN114882301B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115798725B (zh) * 2022-10-27 2024-03-26 佛山读图科技有限公司 用于核医学的带病灶人体仿真影像数据制作方法
CN118097189A (zh) * 2024-04-07 2024-05-28 腾讯科技(深圳)有限公司 图像匹配方法、模型训练方法、装置、设备及存储介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109242032A (zh) * 2018-09-21 2019-01-18 桂林电子科技大学 一种基于深度学习的目标检测方法
CN110276362A (zh) * 2018-03-13 2019-09-24 富士通株式会社 训练图像模型的方法和装置以及分类预测方法和装置
CN111062381A (zh) * 2019-10-17 2020-04-24 安徽清新互联信息科技有限公司 一种基于深度学习的车牌位置检测方法
CN111161275A (zh) * 2018-11-08 2020-05-15 腾讯科技(深圳)有限公司 医学图像中目标对象的分割方法、装置和电子设备
CN111783986A (zh) * 2020-07-02 2020-10-16 清华大学 网络训练方法及装置、姿态预测方法及装置
CN112102266A (zh) * 2020-08-31 2020-12-18 清华大学 基于注意力机制的脑梗死医学影像分类模型的训练方法
CN112270660A (zh) * 2020-09-30 2021-01-26 四川大学 基于深度神经网络的鼻咽癌放疗靶区自动分割方法
CN113159223A (zh) * 2021-05-17 2021-07-23 湖北工业大学 一种基于自监督学习的颈动脉超声图像识别方法
CN114022872A (zh) * 2021-09-24 2022-02-08 中国海洋大学 基于动态神经网络的多种类农作物叶病识别方法
CN114240770A (zh) * 2021-11-22 2022-03-25 苏州涟漪信息科技有限公司 一种图像处理方法、装置、服务器及存储介质
CN114266739A (zh) * 2021-12-14 2022-04-01 南京邮电大学 基于对比学习的半监督卷积神经网络的医学图像分割方法
CN114332547A (zh) * 2022-03-17 2022-04-12 浙江太美医疗科技股份有限公司 医学目标分类方法和装置、电子设备和存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3074064A1 (en) * 2019-03-01 2020-09-01 The Regents Of The University Of California Systems, methods, and media for automatically segmenting and diagnosing prostate lesions using multi-parametric magnetic resonance imaging data

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110276362A (zh) * 2018-03-13 2019-09-24 富士通株式会社 训练图像模型的方法和装置以及分类预测方法和装置
CN109242032A (zh) * 2018-09-21 2019-01-18 桂林电子科技大学 一种基于深度学习的目标检测方法
CN111161275A (zh) * 2018-11-08 2020-05-15 腾讯科技(深圳)有限公司 医学图像中目标对象的分割方法、装置和电子设备
CN111062381A (zh) * 2019-10-17 2020-04-24 安徽清新互联信息科技有限公司 一种基于深度学习的车牌位置检测方法
CN111783986A (zh) * 2020-07-02 2020-10-16 清华大学 网络训练方法及装置、姿态预测方法及装置
CN112102266A (zh) * 2020-08-31 2020-12-18 清华大学 基于注意力机制的脑梗死医学影像分类模型的训练方法
CN112270660A (zh) * 2020-09-30 2021-01-26 四川大学 基于深度神经网络的鼻咽癌放疗靶区自动分割方法
CN113159223A (zh) * 2021-05-17 2021-07-23 湖北工业大学 一种基于自监督学习的颈动脉超声图像识别方法
CN114022872A (zh) * 2021-09-24 2022-02-08 中国海洋大学 基于动态神经网络的多种类农作物叶病识别方法
CN114240770A (zh) * 2021-11-22 2022-03-25 苏州涟漪信息科技有限公司 一种图像处理方法、装置、服务器及存储介质
CN114266739A (zh) * 2021-12-14 2022-04-01 南京邮电大学 基于对比学习的半监督卷积神经网络的医学图像分割方法
CN114332547A (zh) * 2022-03-17 2022-04-12 浙江太美医疗科技股份有限公司 医学目标分类方法和装置、电子设备和存储介质

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
MaskCOV: A random mask covariance network for ultra-fine-grained visual categorization;XiaohanYu等;《Pattern Recognition》;20210617;第119卷;1-12 *
Superpixel Masking and Inpainting for Self-Supervised Anomaly Detection;Zhenyu Li等;《The 31st British Machine Vision Virtual - BMVC2020》;20200910;1-12 *
基于Mask R-CNN改进的图像实例分割算法研究;张云帅;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20220415(第(2022)04期);I138-967 *
基于多任务有限监督学习的视网膜OCT图像病症诊断方法研究;钟盼;《中国优秀博硕士学位论文全文数据库(硕士)医药卫生科技辑》;20220315(第(2022)03期);E076-18 *

Also Published As

Publication number Publication date
CN114882301A (zh) 2022-08-09

Similar Documents

Publication Publication Date Title
Le et al. Deep reinforcement learning in computer vision: a comprehensive survey
Yuan et al. Advanced agricultural disease image recognition technologies: A review
Cui et al. Efficient human motion prediction using temporal convolutional generative adversarial network
CN110532900B (zh) 基于U-Net和LS-CNN的人脸表情识别方法
CN114882301B (zh) 基于感兴趣区域的自监督学习医学图像识别方法及装置
Shiri et al. A comprehensive overview and comparative analysis on deep learning models: CNN, RNN, LSTM, GRU
CN110717903A (zh) 一种利用计算机视觉技术进行农作物病害检测的方法
CN114241548A (zh) 一种基于改进YOLOv5的小目标检测算法
Xia et al. A multi-scale segmentation-to-classification network for tiny microaneurysm detection in fundus images
Rusia et al. An efficient CNN approach for facial expression recognition with some measures of overfitting
Li et al. Natural tongue physique identification using hybrid deep learning methods
Rezk et al. An efficient plant disease recognition system using hybrid convolutional neural networks (cnns) and conditional random fields (crfs) for smart iot applications in agriculture
CN111738074B (zh) 基于弱监督学习的行人属性识别方法、***及装置
Devisurya et al. Early detection of major diseases in turmeric plant using improved deep learning algorithm
Orchi et al. Real-time detection of crop leaf diseases using enhanced YOLOv8 algorithm
Parez et al. Towards Sustainable Agricultural Systems: A Lightweight Deep Learning Model for Plant Disease Detection.
Defriani et al. Recognition of regional traditional house in Indonesia using Convolutional Neural Network (CNN) method
Omer et al. Plant disease diagnosing based on deep learning techniques
Selvakumar et al. Automated mango leaf infection classification using weighted and deep features with optimized recurrent neural network concept
Zhang et al. A precise apple leaf diseases detection using BCTNet under unconstrained environments
Brar et al. A smart approach to coconut leaf spot disease classification using computer vision and deep learning technique
CN110363240B (zh) 一种医学影像分类方法与***
Feng et al. Real-time fabric defect detection using accelerated small-scale over-completed dictionary of sparse coding
CN116612386A (zh) 基于分级检测双任务模型的辣椒病虫害识别方法及***
Escudero et al. Black sigatoka classification using convolutional neural networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant