CN114549470A - 基于卷积神经网络和多粒度注意力的手骨关键性区域获取方法 - Google Patents

基于卷积神经网络和多粒度注意力的手骨关键性区域获取方法 Download PDF

Info

Publication number
CN114549470A
CN114549470A CN202210167207.2A CN202210167207A CN114549470A CN 114549470 A CN114549470 A CN 114549470A CN 202210167207 A CN202210167207 A CN 202210167207A CN 114549470 A CN114549470 A CN 114549470A
Authority
CN
China
Prior art keywords
attention
feature
layer
input image
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210167207.2A
Other languages
English (en)
Other versions
CN114549470B (zh
Inventor
王晓华
范伟
程峰
胡敏
盛海
王宇航
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Yugao Medical Management Co ltd
Hefei University of Technology
Original Assignee
Anhui Yugao Medical Management Co ltd
Hefei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Yugao Medical Management Co ltd, Hefei University of Technology filed Critical Anhui Yugao Medical Management Co ltd
Priority to CN202210167207.2A priority Critical patent/CN114549470B/zh
Publication of CN114549470A publication Critical patent/CN114549470A/zh
Application granted granted Critical
Publication of CN114549470B publication Critical patent/CN114549470B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于卷积神经网络和多粒度注意力的手骨关键性区域获取方法,其步骤包括:1获取包含手骨骨龄信息的数据集;2构建包含多粒度注意力的骨龄评估网络;3离线训练建立的骨龄评估网络;4利用训练好的网络中的注意力获取到手骨关键性区域。本发明能仅通过手骨骨龄标签获取到手骨关键性区域,且获取到的关键性区域和TW3方法使用的关键性区域相一致,克服了现有的关键性区域获取方法依赖人工标签的困难。

Description

基于卷积神经网络和多粒度注意力的手骨关键性区域获取 方法
技术领域
本发明涉及医学图像分析领域,具体涉及一种基于卷积神经网络和多粒度注意力的手骨关键区域获取方法。
背景技术
手部放射影像的骨龄评估通常用于调查儿童生长情况。在临床实践中,通过探索非惯用手的骨化中心的延迟或加速出现,可以辅助和监测生长障碍的诊断和治疗。
TW方法评估手和手腕的特定骨骼的成熟度水平。不同骨骼的成熟度水平对应着不同的成熟度分数,将骨骼成熟度转化为分数并将所有关键区域的分数相加,计算出总的成熟度分数,通过总的成熟度分数最后计算出骨龄。TW3法相对更复杂,需要更多的时间。由于每个骨骼的成熟度是独立评估的,因此TW3方法对某些骨骼中的错误预测具有鲁棒性,所以此方法评估更准确并且可再现。
近年来,基于人工神经网络的深度学习技术发展迅速,其应用领域也不断扩大。特别是,深度学习技术已经渗透到医学图像分析的整个领域,并在一些医学成像应用中取得了最先进的成果,例如脑损伤的分割等。骨龄评估任务是一个典型的目标检测和分类问题,可以从深度学习中受益。在这种方法中,对于给定的输入,预测相应的类别。因此,卷积神经网络及其变体越来越多地用于骨龄评估自动化,并取得了优秀的评估结果。
骨龄评估需要结合来自手部多块骨骼的外观信息的外观信息,为了定位鉴别性区域,现有的模型要么依赖于手工注释要么依赖于注意力,尤其对于模拟TW3方法的自动评估算法只能依赖于手工注释。然而,手工注释不仅需要专家知识,而且还是昂贵的和主观的。且现有的基于注意力的方法所定位的区域也不够精细和多样。
发明内容
本发明为了克服现有技术存在不足之处,提供一种基于卷积神经网络和多粒度注意力的手骨关键区域获取方法,以期能通过卷积神经网络自动提取手骨图片关键区域,从而能提高自动评估精度以及评估效率。
本发明为达到上述发明目的,采用如下技术方案:
本发明一种基于卷积神经网络和多粒度注意力的手骨关键性区域获取方法的特点是按如下步骤进行:
步骤1:对所有手骨X光图像尺寸进行归一化,并应用随机仿射变换和随机水平翻转进行数据增强,得到输入图像集,所述输入图像集中的任意图像记为I;
步骤2:构建包含多粒度注意力的骨龄评估网络,包括:主干网络、注意力监督模块、两个特征融合模块、三个全连接层;
所述主干网络为L层的卷积神经网络;
所述注意力监督模块由上采样层、复制层、激活层组成;
所述特征融合模块是由点乘操作、平均池化层、LSTM网络组成;
步骤2.1:依次向主干网络输入所述输入图像集中的图像,其中,任意输入图像I经过所述主干网络的卷积处理后,得到中级图像特征FF,精细注意力AF,高级图像特征FC和粗略注意力AC;其中,所述中级图像特征FF是由所述主干网络的第L-1层中倒数第二个卷积块输出的结果,所述精细注意力AF是由所述主干网络的第L-1层中最后一个卷积块输出的特征图并切分前MF个通道后的结果,所述高级图像特征FC是由所述主干网络的第L层中倒数第二个卷积块输出的结果,所述粗略注意力AC是由所述主干网络的第L层中最后一个卷积块输出的特征图并切分前MC个通道后的结果;
步骤2.2:所述精细注意力AF和粗略注意力AC输入所述注意力监督模块中进行处理,得到由粗略注意力引导后的精细注意力
Figure BDA0003516816940000021
步骤2.3:所述中级图像特征FF和精细注意力AF输入第一特征融合模块中进行处理,得到中级局部特征VF和中级全局特征GF
所述高级图像特征FC和粗略注意力AC输入第二特征融合模块中进行处理,得到高级局部特征VC和高级全局特征GC
步骤2.4:将输入图像I所对应的性别信息输入到第一个全连接层中,输出性别特征向量s;
将中级全局特征GF和性别特征向量s拼接后输入第二个全连接层中,输出中层预测结果
Figure BDA0003516816940000022
将全局高级特征GC和性别特征向量s拼接后输入第三个全连接层中,输出高层预测结果
Figure BDA0003516816940000023
步骤2.5:从粗略注意力图AC中随机选择第k个通道,得到单个粗略注意力
Figure BDA0003516816940000024
并对
Figure BDA0003516816940000025
按照输入图像I的尺寸进行上采样处理,得到归一化注意力
Figure BDA0003516816940000026
Figure BDA0003516816940000027
中第i行第j列的像素点
Figure BDA0003516816940000028
大于阈值θ,则将
Figure BDA0003516816940000029
设置为“0”,否则,设置为“1”,从而生成掩膜mask;
所述输入图像I被掩膜mask擦除后生成注意力擦除图像E;
步骤2.6:将注意力擦除图像E重新输入骨龄评估网络中进行处理,得到注意力擦除图像E的高层预测结果
Figure BDA0003516816940000031
步骤2.7:利用式(1)、式(2)和式(3)构建中层区域一致性损失
Figure BDA0003516816940000032
Figure BDA0003516816940000033
Figure BDA0003516816940000034
Figure BDA0003516816940000035
式(1)、式(2)和式(3)中,Vα表示局部特征,Cα是输入图像集中所有图像共享的特征中心,
Figure BDA0003516816940000036
是输入图像集中所有图像共享的临时特征中心,β是特征中心Cα的更新权重;当α=F时,由中级局部特征VF构建中级一致性损失
Figure BDA0003516816940000037
当α=C时,由高级局部特征VC构建高级一致性损失
Figure BDA0003516816940000038
步骤2.8:利用式(4)构建总损失L:
Figure BDA0003516816940000039
式(4)中,
Figure BDA00035168169400000310
Figure BDA00035168169400000311
分别表示
Figure BDA00035168169400000312
Figure BDA00035168169400000313
所对应的L1损失函数;
步骤3:基于输入图像集对骨龄评估网络进行训练,同时使用Adam更新网络的权重,并在总损失L趋于稳定后完成训练,得到最优模型;
步骤4:对最优模型中由粗略注意力引导后的精细注意力进行平均以及上采样操作后得到输入图像I的关键区域注意力图AI
步骤5:若AI中第i行第j列的像素点AI(i,j)大于阈值σ,则令AI(i,j)为“1”,否则,令AI(i,j)为“0”,从而生成掩膜mask*;利用掩膜mask*擦除输入图像I后得到关键区域图像D即为手骨关键性区域。
与已有技术相比,本发明的有益效果体现在:
1、本发明设计了一个新的骨龄评估网络,首次仅通过骨龄标签即可使网络中的注意力自动学习到手骨图片中最具判别性的区域,不需要额外的注释即可获取到和TW3方法所用关键区域相一致的手骨关键区域,从而克服了昂贵且主观手工标注的弊端,在一定程度上可以辅助人工TW3方法的诊断。
2、本发明首次联合中层特征和高层特征用于评估骨龄,并在中层获得了关注到多个手部精细骨骼的空间注意力,从而提高了获取到的关键区域的精度。
3、本发明首次引入LSTM以及提出一个新的区域一致性损失来对不同局部区域响应的特征进行建模,在区域一致性损失的辅助下,LSTM有效地建模了不同局部区域中的长期依赖性,从而提高了以注意力的方法获取到关键区域的精度。
附图说明
图1为本发明方法流程示意图;
图2为本发明方法中的骨龄评估网络结构图;
图3为本发明方法中的骨龄评估网络中的注意力监督模块;
图4为本发明方法中的骨龄评估网络中的特征融合模块;
图5为本发明方法获取关键区域样例。
具体实施方式
本实施例中,一种基于卷积神经网络和多粒度注意力的手骨关键区域获取方法,仅利用手骨图片的骨龄标注信息即可定位到最具区分度的骨化区域,且定位到的区域与TW3方法使用的关键区域相一致。具体地说,如图1所示,是按如下步骤进行:
步骤1:对所有手骨X光图像尺寸进行归一化,并应用随机仿射变换和随机水平翻转进行数据增强,得到输入图像集,输入图像集中的任意图像记为I;
在本实施例中,所使用数据集为2017年北美放射学会提供的公开骨龄数据集。所有手部图像都包含骨龄和性别信息。该数据集中手骨图像的原始空间分辨率不相同,由于卷积神经网络需要固定尺寸的图像作为输入,故需要对所有原始图片的尺寸进行归一化。数据集中所有图像被归一化到448×448像素。随机仿射变换和随机水平翻转被应用来进行数据增强,以克服数据量少以及网络鲁棒性不高的难题;
步骤2:构建包含多粒度注意力的骨龄评估网络,如图2所示,包括:主干网络、注意力监督模块、两个特征融合模块、三个全连接层;
主干网络为L层的卷积神经网络;
注意力监督模块由上采样层、复制层、激活层组成,如图3所示;
特征融合模块是由点乘操作、平均池化层、LSTM网络组成,如图4所示;
步骤2.1:依次向主干网络输入输入图像集中的图像,其中,任意输入图像I经过主干网络的卷积处理后,得到中级图像特征FF,精细注意力AF,高级图像特征FC和粗略注意力AC;其中,中级图像特征FF是由主干网络的第L-1层中倒数第二个卷积块输出的结果,精细注意力AF是由主干网络的第L-1层中最后一个卷积块输出的特征图并切分前MF个通道后的结果,高级图像特征FC是由主干网络的第L层中倒数第二个卷积块输出的结果,粗略注意力AC是由主干网络的第L层中最后一个卷积块输出的特征图并切分前MC个通道后的结果;
本实施例中,以ResNet-50作为主干网络,在layer3和layer4分别获得不同尺寸的图像特征FF和FC;空间注意力被用来表示不同区域的空间分布。高级特征由于其丰富的语义信息,更适合于分类任务。高级特征获得的注意力集中在一个粗略的区域。而中间层次的特征包含丰富的纹理和形状信息,中级特征获得的注意力集中在更精细的区域。即AF关注精细的关键区域,AC关注粗略的关键区域。
步骤2.2:精细注意力AF和粗略注意力AC输入注意力监督模块中进行处理,得到由粗略注意力引导后的精细注意力
Figure BDA0003516816940000051
中层特征中学习到的纹理和形状信息能够辅助高层特征进行预测。高层特征中更适合分类的语义信息又可以加强中层特征的学习。本实施例中,注意力监督模块被用来连接不同层次的空间注意力图。注意力监督模块由一个上采样层、一个复制层和一个非线性激活函数sigmoid层组成。具体来说,将粗略注意力AC上采样并在通道维度进行复制,以和精细注意力AF的尺寸相匹配,然后通过一个非线性激活函数sigmoid层激活后和中层空间注意力AF进行元素乘法,得到纠正后的精细注意力
Figure BDA0003516816940000052
粗略注意力AC被用来指导精细注意力AF的生成。一方面,中层特征集中在更精细的判别性区域。另一方面,中层特征倾向于学习更精细的判别性区域的特征,这进一步加强了高层对判别性特征的学习。注意力监督模块使得粗略注意力和精细注意力相互影响,相互加强。
步骤2.3:中级图像特征FF和精细注意力AF输入第一特征融合模块中进行处理,得到中级局部特征VF和中级全局特征GF
高级图像特征FC和粗略注意力AC输入第二特征融合模块中进行处理,得到高级局部特征VC和高级全局特征GC
本实施例中,特征融合模块首先将注意力图和特征图使用元素乘法相乘,得到局部特征图Fk∈RC×W×H,k=1,2,...,M,全局平均池化被进一步用来提取区别性的特征fk∈R1 ×C。连接fk,k=1,2,3,...,M生成局部特征V;依次输入fk,k=1,2,3,...,M到LSTM,LSTM最后一个输出单元hm作为最终的全局特征,记为G。
由于部分注意力关注于背景部分,其生成的区域加强特征对于分类是次重要的,局部特征fk,k=1,2,3,...,M对于最终分类的重要性是不同的。而LSTM中的门控机制则可以很好的对不同区域加强的特征进行全局化的处理。LSTM是一个时间依赖的模型,它的输入通常是时序数据。在本实施例中,每一个注意力关注于一个特定的区域,注意力之间存在长期依赖性。那么LSTM可以将不同的空间注意力视为一个时间序列。LSTM的引入可以很好地捕获并处理了空间注意力之间的长期依赖性。LSTM的使用有效地对高维局部特征进行了降维,巨大地缓解了分类器的压力。
步骤2.4:将输入图像I所对应的性别信息输入到一个包含32个神经元的全连接层中,输出性别特征向量s;
将中级全局特征GF和性别特征向量s拼接后输入第二个全连接层中,输出中层预测结果
Figure BDA0003516816940000061
将全局高级特征GC和性别特征向量s拼接后输入第三个全连接层中,输出高层预测结果
Figure BDA0003516816940000062
步骤2.5:从粗略注意力图AC中随机选择第k个通道,得到单个粗略注意力
Figure BDA0003516816940000063
并对
Figure BDA0003516816940000064
按照输入图像I的尺寸进行上采样处理,得到归一化注意力
Figure BDA0003516816940000065
Figure BDA0003516816940000066
中第i行第j列的像素点
Figure BDA0003516816940000067
大于阈值θ,则将
Figure BDA0003516816940000068
设置为“0”,否则,设置为“1”,从而生成掩膜mask;
输入图像I被掩膜mask擦除后生成注意力擦除图像E;
步骤2.6:将注意力擦除图像E重新输入骨龄评估网络中进行处理,得到注意力擦除图像E的高层预测结果
Figure BDA0003516816940000069
来自不同通道的注意力往往会集中在同一个最具判别行的区域。注意力擦除策略擦除最显著区域后生成新的图片重新送入网络训练,有效地迫使网络学习不同的注意力。
步骤2.7:利用式(1)、式(2)和式(3)构建中层区域一致性损失
Figure BDA00035168169400000610
Figure BDA00035168169400000611
Figure BDA0003516816940000071
Figure BDA0003516816940000072
式(1)、式(2)和式(3)中,Vα表示局部特征,Cα是输入图像集中所有图像共享的特征中心,
Figure BDA0003516816940000073
是输入图像集中所有图像共享的临时特征中心,β是特征中心Cα的更新权重;α=F或α=C时,分别由中级局部特征VF和高级局部特征VC构建中级一致性损失
Figure BDA0003516816940000074
和高级一致性损失
Figure BDA0003516816940000075
在区域一致性损失的辅助下,LSTM更加有效地建模了不同局部区域中的长期依赖性,使得同一个通道的空间注意力对于不同的图片始终关注的是相同的区域,这提高了以注意力的方法获取到关键区域的精度。
步骤2.8:利用式(3)构建总损失L:
Figure BDA0003516816940000076
式(4)中,
Figure BDA0003516816940000077
Figure BDA0003516816940000078
分别表示
Figure BDA0003516816940000079
Figure BDA00035168169400000710
所对应的L1损失函数;
步骤3:基于输入图像集对骨龄评估网络进行训练,同时使用Adam更新网络的权重,并在总损失L趋于稳定后完成训练,得到最优模型;
本实施例中,初始的学习率被设定为3e-5,使用PyTorch中的ReduceLROnPlateau对学习率进行调整,其中如果连续4次迭代验证集准确率没有上升,则使得学习率下降为原来的0.1倍。
步骤4:对最优模型中由粗略注意力引导后的精细注意力进行平均以及上采样操作后得到输入图像I的关键区域注意力图AI
步骤5:若AI中第i行第j列的像素点AI(i,j)大于阈值σ,则令AI(i,j)为“1”,否则,令AI(i,j)为“0”,从而生成掩膜mask*;利用掩膜mask*擦除输入图像I后得到关键区域图像D即为手骨关键性区域,如图5所示。

Claims (1)

1.一种基于卷积神经网络和多粒度注意力的手骨关键性区域获取方法,其特征是按如下步骤进行:
步骤1:对所有手骨X光图像尺寸进行归一化,并应用随机仿射变换和随机水平翻转进行数据增强,得到输入图像集,所述输入图像集中的任意图像记为I;
步骤2:构建包含多粒度注意力的骨龄评估网络,包括:主干网络、注意力监督模块、两个特征融合模块、三个全连接层;
所述主干网络为L层的卷积神经网络;
所述注意力监督模块由上采样层、复制层、激活层组成;
所述特征融合模块是由点乘操作、平均池化层、LSTM网络组成;
步骤2.1:依次向主干网络输入所述输入图像集中的图像,其中,任意输入图像I经过所述主干网络的卷积处理后,得到中级图像特征FF,精细注意力AF,高级图像特征FC和粗略注意力AC;其中,所述中级图像特征FF是由所述主干网络的第L-1层中倒数第二个卷积块输出的结果,所述精细注意力AF是由所述主干网络的第L-1层中最后一个卷积块输出的特征图并切分前MF个通道后的结果,所述高级图像特征FC是由所述主干网络的第L层中倒数第二个卷积块输出的结果,所述粗略注意力AC是由所述主干网络的第L层中最后一个卷积块输出的特征图并切分前MC个通道后的结果;
步骤2.2:所述精细注意力AF和粗略注意力AC输入所述注意力监督模块中进行处理,得到由粗略注意力引导后的精细注意力
Figure FDA0003516816930000011
步骤2.3:所述中级图像特征FF和精细注意力AF输入第一特征融合模块中进行处理,得到中级局部特征VF和中级全局特征GF
所述高级图像特征FC和粗略注意力AC输入第二特征融合模块中进行处理,得到高级局部特征VC和高级全局特征GC
步骤2.4:将输入图像I所对应的性别信息输入到第一个全连接层中,输出性别特征向量s;
将中级全局特征GF和性别特征向量s拼接后输入第二个全连接层中,输出中层预测结果
Figure FDA0003516816930000012
将全局高级特征GC和性别特征向量s拼接后输入第三个全连接层中,输出高层预测结果
Figure FDA0003516816930000013
步骤2.5:从粗略注意力图AC中随机选择第k个通道,得到单个粗略注意力
Figure FDA0003516816930000021
并对
Figure FDA0003516816930000022
按照输入图像I的尺寸进行上采样处理,得到归一化注意力
Figure FDA0003516816930000023
Figure FDA0003516816930000024
中第i行第j列的像素点
Figure FDA0003516816930000025
大于阈值θ,则将
Figure FDA0003516816930000026
设置为“0”,否则,设置为“1”,从而生成掩膜mask;
所述输入图像I被掩膜mask擦除后生成注意力擦除图像E;
步骤2.6:将注意力擦除图像E重新输入骨龄评估网络中进行处理,得到注意力擦除图像E的高层预测结果
Figure FDA0003516816930000027
步骤2.7:利用式(1)、式(2)和式(3)构建中层区域一致性损失
Figure FDA0003516816930000028
Figure FDA0003516816930000029
Figure FDA00035168169300000210
Figure FDA00035168169300000211
式(1)、式(2)和式(3)中,Vα表示局部特征,Cα是输入图像集中所有图像共享的特征中心,
Figure FDA00035168169300000212
是输入图像集中所有图像共享的临时特征中心,β是特征中心Cα的更新权重;当α=F时,由中级局部特征VF构建中级一致性损失
Figure FDA00035168169300000213
当α=C时,由高级局部特征VC构建高级一致性损失
Figure FDA00035168169300000214
步骤2.8:利用式(4)构建总损失L:
Figure FDA00035168169300000215
式(4)中,
Figure FDA00035168169300000216
Figure FDA00035168169300000217
分别表示
Figure FDA00035168169300000218
Figure FDA00035168169300000219
所对应的L1损失函数;
步骤3:基于输入图像集对骨龄评估网络进行训练,同时使用Adam更新网络的权重,并在总损失L趋于稳定后完成训练,得到最优模型;
步骤4:对最优模型中由粗略注意力引导后的精细注意力进行平均以及上采样操作后得到输入图像I的关键区域注意力图AI
步骤5:若AI中第i行第j列的像素点AI(i,j)大于阈值σ,则令AI(i,j)为“1”,否则,令AI(i,j)为“0”,从而生成掩膜mask*;利用掩膜mask*擦除输入图像I后得到关键区域图像D即为手骨关键性区域。
CN202210167207.2A 2022-02-23 2022-02-23 基于卷积神经网络和多粒度注意力的手骨关键性区域获取方法 Active CN114549470B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210167207.2A CN114549470B (zh) 2022-02-23 2022-02-23 基于卷积神经网络和多粒度注意力的手骨关键性区域获取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210167207.2A CN114549470B (zh) 2022-02-23 2022-02-23 基于卷积神经网络和多粒度注意力的手骨关键性区域获取方法

Publications (2)

Publication Number Publication Date
CN114549470A true CN114549470A (zh) 2022-05-27
CN114549470B CN114549470B (zh) 2024-03-05

Family

ID=81676688

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210167207.2A Active CN114549470B (zh) 2022-02-23 2022-02-23 基于卷积神经网络和多粒度注意力的手骨关键性区域获取方法

Country Status (1)

Country Link
CN (1) CN114549470B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114723754A (zh) * 2022-06-08 2022-07-08 中国科学技术大学 超声髋关节骨龄评估方法、***、设备及存储介质
CN116342516A (zh) * 2023-03-17 2023-06-27 四川文理学院 基于模型集成的儿童手骨x光图像骨龄评估方法及***
CN116433607A (zh) * 2023-03-17 2023-07-14 四川文理学院 基于关键区域特征双重加权融合的儿童手骨x光图像骨龄评估方法及***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018057714A1 (en) * 2016-09-21 2018-03-29 The General Hospital Corporation Systems, methods and media for automatically generating a bone age assessment from a radiograph
CN110503635A (zh) * 2019-07-30 2019-11-26 浙江工业大学 一种基于异构数据融合网络的手骨x光片骨龄评估方法
CN111161254A (zh) * 2019-12-31 2020-05-15 上海体育科学研究所 一种骨龄预测方法
CN112006654A (zh) * 2020-07-16 2020-12-01 中国科学技术大学 基于卷积神经网络和多重注意力机制的骨骼年龄评估方法
US20210407081A1 (en) * 2020-06-29 2021-12-30 Vuno Inc. Method and apparatus for bone age assessment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018057714A1 (en) * 2016-09-21 2018-03-29 The General Hospital Corporation Systems, methods and media for automatically generating a bone age assessment from a radiograph
CN110503635A (zh) * 2019-07-30 2019-11-26 浙江工业大学 一种基于异构数据融合网络的手骨x光片骨龄评估方法
CN111161254A (zh) * 2019-12-31 2020-05-15 上海体育科学研究所 一种骨龄预测方法
US20210407081A1 (en) * 2020-06-29 2021-12-30 Vuno Inc. Method and apparatus for bone age assessment
CN112006654A (zh) * 2020-07-16 2020-12-01 中国科学技术大学 基于卷积神经网络和多重注意力机制的骨骼年龄评估方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
丁维龙;丁潇;池凯凯;陈琦;毛科技;: "基于神经网络的手骨特征区域自适应提取方法", 浙江工业大学学报, no. 05, 9 October 2020 (2020-10-09) *
刘鸣谦;兰钧;陈旭;于广军;杨秀军;: "基于多维度特征融合的深度学习骨龄评估模型", 第二军医大学学报, no. 08, 20 August 2018 (2018-08-20) *
张世杰;李睿;占梦军;徐铸;: "基于深度学习区域融合的骨龄评价研究", 现代计算机, no. 09, 25 March 2020 (2020-03-25) *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114723754A (zh) * 2022-06-08 2022-07-08 中国科学技术大学 超声髋关节骨龄评估方法、***、设备及存储介质
CN116342516A (zh) * 2023-03-17 2023-06-27 四川文理学院 基于模型集成的儿童手骨x光图像骨龄评估方法及***
CN116433607A (zh) * 2023-03-17 2023-07-14 四川文理学院 基于关键区域特征双重加权融合的儿童手骨x光图像骨龄评估方法及***
CN116433607B (zh) * 2023-03-17 2024-03-15 四川文理学院 基于关键区域特征双重加权融合的儿童手骨x光图像骨龄评估方法及***
CN116342516B (zh) * 2023-03-17 2024-04-16 四川文理学院 基于模型集成的儿童手骨x光图像骨龄评估方法及***

Also Published As

Publication number Publication date
CN114549470B (zh) 2024-03-05

Similar Documents

Publication Publication Date Title
CN107766894B (zh) 基于注意力机制和深度学习的遥感图像自然语言生成方法
CN108062753B (zh) 基于深度对抗学习的无监督域自适应脑肿瘤语义分割方法
CN114549470B (zh) 基于卷积神经网络和多粒度注意力的手骨关键性区域获取方法
CN109345508B (zh) 一种基于两阶段神经网络的骨龄评价方法
CN111882560B (zh) 一种基于加权全卷积神经网络的肺实质ct图像分割方法
CN107423756A (zh) 基于深度卷积神经网络结合长短期记忆模型的核磁共振图像序列分类方法
CN108109140A (zh) 基于深度学习的低级别脑胶质瘤柠檬酸脱氢酶无损预测方法及***
CN113298815A (zh) 一种半监督遥感图像语义分割方法、装置和计算机设备
CN114998220A (zh) 一种基于改进的Tiny-YOLO v4自然环境下舌像检测定位方法
CN111080579A (zh) 基于深度学习实现图像分割和分类的骨龄评估方法
CN116884623B (zh) 基于激光扫描成像的医疗康复预测***
CN113065551A (zh) 利用深度神经网络模型执行图像分割的方法
CN114842238A (zh) 一种嵌入式乳腺超声影像的识别方法
CN110674726A (zh) 基于目标检测与迁移学习的皮肤病辅助诊断方法及***
CN113111716A (zh) 一种基于深度学习的遥感影像半自动标注方法和装置
CN114445356A (zh) 基于多分辨率的全视野病理切片图像肿瘤快速定位方法
Elguebaly et al. Bayesian learning of generalized gaussian mixture models on biomedical images
CN116452688A (zh) 一种基于共同注意力机制的图像描述生成方法
Liang et al. Weakly supervised deep nuclei segmentation with sparsely annotated bounding boxes for dna image cytometry
CN115762721A (zh) 一种基于计算机视觉技术的医疗影像质控方法和***
CN116486156A (zh) 融合多尺度特征上下文的全视野数字切片图像分类方法
CN115880277A (zh) 基于Swin Transformer和弱监督的胃癌病理全切片T分期类别预测方法
CN116385717A (zh) 叶面病害识别方法、装置、电子设备、存储介质及产品
CN116188396A (zh) 一种图像分割方法、装置、设备及介质
CN112418205A (zh) 基于专注误分割区域的交互式图像分割方法和***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant