CN116630679B - 一种基于ct图像和域不变特征的骨质疏松识别方法 - Google Patents

一种基于ct图像和域不变特征的骨质疏松识别方法 Download PDF

Info

Publication number
CN116630679B
CN116630679B CN202310321204.4A CN202310321204A CN116630679B CN 116630679 B CN116630679 B CN 116630679B CN 202310321204 A CN202310321204 A CN 202310321204A CN 116630679 B CN116630679 B CN 116630679B
Authority
CN
China
Prior art keywords
convolution
domain
stage
module
cone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310321204.4A
Other languages
English (en)
Other versions
CN116630679A (zh
Inventor
张堃
林鹏程
邵瑞
王林
潘晶
曹蕊
徐沛霞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nantong University
Original Assignee
Nantong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nantong University filed Critical Nantong University
Priority to CN202310321204.4A priority Critical patent/CN116630679B/zh
Publication of CN116630679A publication Critical patent/CN116630679A/zh
Application granted granted Critical
Publication of CN116630679B publication Critical patent/CN116630679B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及医学图像分类技术领域,尤其涉及一种基于CT图像和域不变特征的骨质疏松识别方法,包括:S1、建立生成对抗网络的MACE‑CycleGAN模型对正常剂量图像和低剂量图像进行领域迁移,生成一些伪图像数据;S2、建立三个任务模块之间的相关性和强调椎骨之间的关系的多任务关系学习模型;S3、建立基于域对抗迁移学习的模块,将域适应嵌入到学习表示过程中,以便最终的分类决策基于对域的变化具有区分性和不变性的特征;S4、基于定位模块、分割模块、分类模型和域对抗迁移学习模块建立正常剂量和低剂量图像的深度学习模型,构建分步训练损失函数来防止模型过拟合。本发明既能对正常剂量CT图像的骨质疏松进行识别,也能对低剂量CT图像骨质疏松进行识别。

Description

一种基于CT图像和域不变特征的骨质疏松识别方法
技术领域
本发明涉及医学图像分类技术领域,尤其涉及一种基于CT图像和域不变特征的骨质疏松识别方法。
背景技术
计算机断层扫描(CT)研究的数量正在迅速增加,由于CT扫描涉及的辐射剂量比普通的胶片高得多,普通人群的辐射明显增加,流行病学研究表明,即使是两到三次CT扫描得辐射剂量也会导致可检测到的癌症风险增加。低剂量胸部计算机断层扫描(LDCT)广泛用于早期的肺癌筛查,电离辐射较少,已被证明可显著地降低肺癌死亡率。目前,骨矿物质密度(BMD)与骨强度直接相关,在临床实践被广泛用于诊断和监测骨质疏松症。定量计算机断层扫描(QCT)越来越多地用于从临床计算机断层扫描(CT)扫描中测量椎骨BMD。尽管CT必须用于这项和其他重要任务,但尽可能降低辐射剂量已成为过去几十年CT相关研究的趋势。LDCT和QCT可能是一种吸引力的组合,可以通过单次的LDCT扫描筛查肺癌和骨质疏松,以限制辐射剂量和费用。LDCT通常覆盖上腰椎,并且异步QCT已经被引入临床工作流程中,以方便准确地测量脊柱BMD。
目前,QCT图像的分析仍然需要频繁地手动操作,包括椎体(VB)的定位和感兴趣体积(VOI)的放置,并且还需要计算腰1椎体和腰2椎体的平均骨密度作为最后判断的依据,显然这繁重和重复的任务并不适合大规模骨质疏松的筛查。最近,深度学习,尤其是卷积神经网络的兴起,在椎骨识别、分割和分类各个任务中性能取得了显著的提高,有利于骨质疏松的筛查。但是这些模型都是从两个方面建立骨质疏松检测模型,一些学者基于正常剂量的图像建立模型,一些学者基于低剂量图像建立模型。这就意味着,如果将它们运用于与创建它们的不同的数据集,由于图像域之间的差异,比如剂量不同,扫描设备不同等,它们的表现可能不佳。所以建立一种能够适应不同图像域的模型,寻求各个图像域的共同特征是解决上述问题的一种方法。
椎体的自动定位和识别、分割、分类和CT值加上临床指标拟合出QCT值对于建立骨质疏松计算机辅助***(CAS)至关重要,骨质疏松CAS主要包括四个步骤:建立椎骨定位与识别模型;椎骨分割;椎骨分类;CT值拟合QCT,但是单个任务非常耗时,并且很容易忽略多个任务间的关联性,所以建立多任务之间的关联模型至关重要。
另外,建立深度学习模型的前提是大量的医学图像数据,但是在临床上由于辐射剂量的减少会增加噪声,所以目前主要还是以正常剂量图像居多,为了能够获得模型训练所使用的大量的低剂量图像,可以进行图像风格迁移,迁移后的图像用于图像的训练。
发明内容
本发明的目的是为了解决现有技术中存在的缺点,而提出的一种基于CT图像和域不变特征的骨质疏松识别方法,解决了在正常剂量和低剂量CT图像中,由于设备辐射剂量不同,造成的图像质量不同,对骨质疏松识别诊断结果的影响,提高了骨质疏松初筛分类的准确性,在降低设备对病人的辐射的同时,保证了诊断性能。
为了实现上述目的,本发明采用了如下技术方案:
一种基于CT图像和域不变特征的骨质疏松识别方法,具体步骤如下:
S1:建立生成对抗网络的MACE-CycleGAN模型,对正常剂量图像和低剂量图像进行领域迁移,生成伪图像数据;
S2:建立关键点定位模块、椎体分割任务模块和椎体分类任务模块之间的相关性和强调椎骨之间的关系的多任务关系学习模型;
S3:建立基于域对抗迁移学习模块,将域适应嵌入到学习表示过程中,以便最终的分类决策基于对域的变化具有区分性和不变性的特征;
S4:基于关键点定位模块、椎体分割任务模块、椎体分类任务模块和域对抗迁移学习模块,建立正常剂量和低剂量图像的深度学习模型,构建分步训练损失函数来防止模型过拟合。
优选地,在步骤S1中,MACE-CycleGAN模型具体包括一个生成器和鉴别器;
所述生成器呈“U”型架构,包括5层编码层和5层解码层,在相应的编码层和解码层之间拥有跳跃连接层,将原图大小为512×512像素的CT图像作为网络的输入,由五个卷积层进行下采样,每个卷积层后均有BatchNormal和ReLU激活函数,经过五个下采样层后得到了一个16×16×1024的特征图;随后通过六个残差层组成残差模块,以此来加深网络的深度,提高模型的非线性,其中残差层的特征图大小和通道数均不变;最后,通过五个转置卷积层对特征图进行上采样,将每一层的特征图大小加倍;生成器最终产生了大小为512×512的RGB图像;
所述鉴别器由九个卷积层组成,因为在第五层和第六层都具有较小的特征层,所以在第五层卷积层和第六层卷积层后均添加有自注意力层。
优选地,在步骤S2中:
所述关键点定位模块,计算L1椎体和L2椎体的中间位置,以中间位置来对512×512像素的图像进行裁剪,裁剪后的图像大小256×256,去除大面积冗余特征,增加特征的可用性;
所述椎体分割任务模块,提取来自编码层的低级特征,并且聚合来自关键点定位模块的高级特征,抑制背景中的噪音对分割的干扰;
所述椎体分类任务模块,将关键点定位模块和椎体分割任务模块得到的感兴趣区域结果作为输入,并且聚合来自用于关键点定位模块的特征,提高分类的准确性。
优选地,所述关键点定位模块具体为:
关键点定位模块首先通过两个卷积核大小为3×3步距为2的卷积层进行下采样,然后一共通过四个阶段:第一个阶段包括四个残差块,四个残差块调整通道个数,并不改变特征层大小;第二个阶段在第一个阶段的基础上通过两个并行卷积核大小为3×3的卷积层得到两个不同尺度的分支,并且通过两个同样的并行卷积来增加模型非线性,然后对两个并行卷积产生的多尺度信息进行融合;第三个阶段,在第二个阶段的基础上再增加一个用于下采样的卷积,卷积核大小为3×3步距为2,同样的在增加的卷积后面再增加一个卷积,然后对三个尺度的特征进行融合;第四个阶段,在第三个阶段的基础上再增加一个用于下采样的卷积,也在增加的下采样的卷积后面再增加一个卷积,然后对来自四个尺度的信息进行特征融合;通过并行多个分辨率的分支,加上不断进行不同分支之间的信息交互,同时达到加强语义信息和精准位置信息的目的。
优选地,所述椎体分割任务模块具体为:
椎体分割任务模块在所述关键点定位模块的基础上构建的一个“U”型结构,“U”型结构由编码层和解码层构成;
其中,编码层由关键点定位模块的前三个阶段构成;
解码层的第一个上采样阶段是在关键点定位模块的第三个阶段第三个并行卷积后面增加一个上采样的空洞卷积,然后聚合来自空洞卷积的低层特征和来自关键点定位模块的第三个阶段的第二个并行卷积的高层特征,再通过一个卷积来增加非线性;第二个上采样阶段是在第一个阶段的基础上进行上采样,并且聚合来自第一个阶段上采样后的低层特征和来自关键点定位模块的第三个阶段第一个并行卷积的高层特征,再通过一个卷积来增加非线性;第三个上采样阶段是第二个阶段的基础上进行上采样,并且聚合来自第二个阶段上采样后的低层特征和来自关键点定位模块的第二个卷积的高层特征,再通过一个卷积来增加非线性,然后通过两个卷积来得到分割图像;椎体分割任务模块通过共享关键点定位模块的部分特征提取卷积来增加关键点定位模块和椎体分割任务模块的任务关联性。
优选地,所述椎体分类任务模块具体为:
首先将关键点定位模块和椎体分割任务模块结果整合,获得一个图像大小为256×256,通道数为6的图像作为椎体分类任务模块的输入,椎体分类任务模块首先是一个卷积核大小为8×8步距为2的卷积,其次是一个最大池化层来降低图像的分辨率,然后一共有四个阶段:第一个阶段是由三个残差块堆积而成,然后聚合来自关键点定位模块第四阶段第2个并行卷积的特征和残差块的特征;第二个阶段由四个残差块堆积而成,然后聚合来自关键点定位模块第四阶段第3个并行卷积的特征和残差块的特征;第三个阶段是由6个残差块堆积而成,然后聚合来自关键点定位模块第四阶段第4个并行卷积的特征和残差块的特征;第四个阶段,由3个残差块堆积而成;最后获得一个一维的特征向量,通过全连接层对其进行类别分类,全连接层最后的输出有三个神经元,每个神经元的结果为每个类别的概率。
优选地,在步骤S3中:
所述的域对抗迁移学习模块,由一个全连接层构成,全连接层的输入为椎体分类任务模块获得的一维的特征向量,全连接层最后的输出有两个神经元,每个神经元的结果为每个的领域概率。
优选地,在步骤S4中,构建分步训练损失函数来防止模型过拟合,包括两个步骤:
第一,对域对抗迁移学习模块进行梯度翻转;
第二,构建分步层次性损失函数。
优选地,所述的对域对抗迁移学习模块进行梯度翻转具体包括:
假设域分类层为Gd,通过Gd将来自椎体分类任务模块Gf的m×1的特征向量映射为相应的领域标签,表示为:
Gd(x)=ReLU(ux+z)
其中(u,z)是矩阵向量对,分别表示权重和偏置。
假定给定示例(xi,di),使用二元交叉熵来计算领域损失:
Ld(Gd(Gf(xi)),di)=-dilog(Gd(Gf(xi)))-(1-di)log(1-Gd(Gf(xi)))
其中xi为输入图像,di为领域类别,并且di∈[0,1],0表示正常剂量图像域,1表示低剂量图像域,Ld表示类别损失函数。
其中,在神经网络中反向传播的过程中,来自类和域预测器的梯度应该是被减去而不是相加,所以这里采用梯度反转层来规避这个错误,在反向传播的过程中,从后续层中获取梯度并改变符号,就是在传递到前一层前将其乘-1。
优选地,所述的构建分步层次性损失函数具体包括:
由于对每一个病人的预测都是基于两张CT图像(腰1椎体和腰2椎体),所以将两张CT图像在输入的时候在通道维度上进行了拼接,因此在分割和定位任务中针对腰1和腰2都具有两个损失函数,而在类别分类和领域分类任务中,对获得的感兴趣图像在通道维度上又进行了一次拼接,所以只有一个损失函数。
其中,在多任务中,为了平衡全局关系和多任务关系,采用新的多任务损失函数,具体如下:
其中,epo表示表示网络训练的总轮次,n表示能够平衡分割任务和定位任务的合适轮次,λ1、λ2、λ3、λ4为可学***衡多任务之间的权重,Lseg1表示腰1椎体分割损失函数,Lseg2表示腰2椎体损失函数,Lloc1表示腰1椎体定位损失函数,Lloc2表示腰2椎体定位损失函数,Lclass表示类别损失函数,Ldomain1表示正常剂量图像域损失函数,Ldomain2表示低剂量图像域损失函数。
与现有技术相比,本发明具有以下有益效果:
1、本发明解决了在正常剂量和低剂量CT图像中,由于设备辐射剂量不同,造成的图像质量不同,对骨质疏松识别诊断结果的影响,提高了骨质疏松初筛分类的准确性,在降低设备对病人的辐射的同时,保证了诊断性能。
2、本发明既能对正常剂量CT图像的骨质疏松进行识别,也能对低剂量CT图像骨质疏松进行识别。
附图说明
图1为本发明的整体结构图;
图2为本发明中MACE-CycleGAN模型网络结构图;
图3为本发明中多任务联合学习网络结构图。
具体实施方式
下面结合附图将对本发明实施例中的技术方案进行清楚、完整地描述,以使本领域的技术人员能够更好的理解本发明的优点和特征,从而对本发明的保护范围做出更为清楚的界定。本发明所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1-3,一种基于CT图像和域不变特征的骨质疏松识别方法,具体步骤如下:
S1、建立生成对抗网络的MACE-CycleGAN模型对正常剂量图像和低剂量图像进行领域迁移,生成一些伪图像数据;
为解决低剂量图像不足的问题,这里使用MACE-CycleGAN模型,生成一些伪图像,达到增强网络泛化的目的。如图2所示MACE-CycleGAN模型具体包括一个生成器和鉴别器。
其中,生成器使用的是一种“U”型架构,包括5层编码层和5层解码层,在相应的编码层和解码层之间也拥有跳跃连接层。假设是一张大小为w×h的正常剂量图像,并且/>是对应的低剂量图像,其关系可以表示为:
其中GAB表示正常剂量的CT图像到低剂量CT图像的风格迁移过程,GBA表示低剂量的CT图像到正常剂量CT图像的风格迁移过程。具体描述如下,将原图大小为512×512像素的CT图像作为网络的输入,由五个卷积层进行下采样,每个卷积层后都有BatchNormal和ReLU激活函数,经过五个下采样层后得到了一个16×16×1024的特征图,随后通过六个残差层,加深网络的深度,提高模型的非线性,其中残差层的特征图大小和通道数都不变。最后,通过五个转置卷积层对特征图进行上采样,将每一层的特征图大小加倍。生成器最终产生了大小为512×512的RGB图像。
其中,鉴别器由九个卷积层组成,因为在第五层和第六层都具有较小的特征层,所以在第五层和第六层后都添加了自注意力层。
S2、建立一种三个任务模块之间的相关性和强调椎骨之间的关系的多任务关系学习模型;其中,三个任务模块包括关键点定位模块、椎体分割任务模块和椎体分类任务模块;
如图3所示,关键点定位模块首先通过两个卷积核大小为3×3步距为2的卷积层进行下采样,然后一共通过四个阶段,第一个阶段包括四个残差块,这里的四个残差块只会调整通道个数,并不会改变特征层大小;第二个阶段在第一个阶段的基础上通过两个并行卷积核大小为3×3的卷积层得到两个不同尺度的分支,并且通过两个同样的并行卷积来增加模型非线性,然后对两个并行卷积产生的多尺度信息进行融合;第三个阶段,在第二个阶段的基础上再增加一个用于下采样的卷积,卷积核大小为3×3步距为2,同样的在增加的卷积后面再增加一个卷积,然后对三个尺度的特征进行融合;第四个阶段,在第三个阶段的基础上再增加一个用于下采样的卷积,也在增加的下采样的卷积后面再增加一个卷积,然后对来自四个尺度的信息进行特征融合,然后再经过四个并行卷积增加模型的非线性,然后再在高分辨率上进行特征融合,并在最后一层中输出高分辨率图FL表示为回归热图HP来预测椎体中心。特别要指出的是,真实的热图是Ht以每个关键点的真实位置的中心的标准偏差为1像素的2D高斯分布生成的,其计算公式如下:
其中,(m,n)是每一个像素的位置,(mk,nk)表示真实标签的坐标,σ表示径向范围。通过并行多个分辨率的分支,加上不断进行不同分支之间的信息交互,同时达到强语义信息和精准位置信息的目的。
如图3所示的椎体分割任务模块,假设关键点定位模块第三阶段的三个并行卷积的输出特征分别为F1、F2、F3,那么首先对来自最底层的并行卷积特征F1通过空洞卷积进行上采样得到Fup1,再将Fup1与上层并行卷积后的特征F2进行级联,在获得级联特征后,会再次利用卷积层对级联后的特征进行非线性建模:
同样的得到Fc2后,会再次利用空洞卷积进行上采样得到Fup2,再将Fup2与最上层的并行卷积后的特征F3进行级联,级联特征后,会再次利用卷积层对级联后的特征进行非线性建模;
同样的得到Fc3后,会再次利用空洞卷积进行上采样得到Fup3,再将Fup3与第二个卷积层后的高层特征F4进行级联,级联特征后,会再次利用卷积层对级联后的特征进行非线性建模,然后利用空洞卷积进行上采样将特征空间大小映射到和输入图像大小一致,并且再次通过卷积层将通道数变为和原来的一致,以至于获得原图像感兴趣区域的掩膜M:
在获得每一张图像的掩膜后,可以获得每一张图像X中我们的感兴趣区域图R:
R=Extract(X,M)
如图3所示的椎体分类任务模块,在获得椎体关键点坐标(mcenter,ncenter)后,结合感兴趣区域图R,可以获得去除冗余特征只包含椎体的256×256的小图像XCrop,具体可表示为:
Xcrop=Crop(R,(mcenter,ncenter))
然后将XCrop作为椎体分类模块的输入,椎体分类模块首先是一个卷积核大小为8×8步距为2的卷积,其次是一个最大池化层来降低图像的分辨率,然后一共有四个阶段,第一个阶段是由三个残差块堆积而成,然后聚合来自关键点定位模块第四阶段第2个并行卷积的特征和残差块的特征;第二个阶段由四个残差块堆积而成,然后聚合来自关键点定位模块第四阶段第3个并行卷积的特征和残差块的特征;第三个阶段是由6个残差块堆积而成,然后聚合来自关键点定位模块第四阶段第4个并行卷积的特征和残差块的特征。具体可以描述为:
其中,stagen表示椎体分类模块的第n个阶段,paralleln+1表示关键点定位模块的第四阶段的第n+1个并行卷积。第四个阶段,由3个残差块堆积而成。获得了1×1×2048的特征图flast,重新塑造特征图就获得了用于类别分类和领域分类特征向量fvector
fvector=reshape(flast)
S3、建立基于域对抗迁移学习的模块,将域适应嵌入到学习表示过程中,以便最终的分类决策基于对域的变化具有区分性和不变性的特征;
如图3所示的域对抗迁移学习模块,假设,输入为Y={0,1,...L-1}作为L可能的标签集合,那么就可以将X×Y分为两个不同的数据域,正常剂量图像为源域DS,低剂量图像为目标域DT,从源域DS取出样本S并对样本进行标记,从目标域DT中取出未标记的样本T:
其中,N=n+n′是用于训练的样本总数,xi为输入的第i张图片,yi为对应的标签。这里的S和T作为一个高维的输入向量,再假定一个隐式的卷积特征提取网络为Gf,通过Gf将输入X映射为一个m×1的特征向量,可以表示为:
Gf(x)=ReLU(wx+b)
这里的其中(w,b)是矩阵向量对,分别表示权重和偏置。
同样的是,由几个全连接层组成的预测层为Gy,通过Gy将m×1的特征向量映射为相应的类别标签,可以表示为:
Gy(Gf(x))=softmax(vGf(x)+c)
这里的其中(v,c)是矩阵向量对,分别表示权重和偏置。
这里Gy(Gf(x))表示神经网络将输入分配给Y的类别的条件概率。假定给定源示例为(xi,yi),使用多元交叉熵损失来计算预测值与真实值之间的损失。
Ly(Gy(Gf(xi)),yi)=-Gy(Gf(xi))log(yi)
下面为了达到领域泛化的目的,先假定对于以正常剂量图像作为源域和以低剂量图像作为目标域的输出分别为:
那么在源域样本S(Gf(x))和目标域样本T(Gf(x))之间的特征向量散度可以表示:
其中x表示正常剂量图像样本,x表示低剂量图像样本,I[a]表示判别函数,如果a符合条件则为1,否则为0,η为分类器。为了能够准确的估计min部分,构建一个域分类层通过逻辑回归的方式来达到此效果,假设域分类层为Gd,通过Gd将m×1的特征向量映射为相应的领域标签,可以表示为:
Gd(x)=ReLU(ux+z)
其中(u,z)是矩阵向量对,分别表示权重和偏置。
假定给定示例(xi,di),使用二元交叉熵来计算领域损失:
Ld(Gd(Gf(xi)),di)=-dilog(Gd(Gf(xi)))-(1-di)log(1-Gd(Gf(xi)))
这里的di表示领域标签,并且di∈[0,1],0表示源域,1表示目标域。
在对网络的训练过程中,来自源域的正常剂量图像的类别标签都是知道的,但是来自目标域的类别标签都是不知道的,但是需要在预测时候能够准确的预测出来自目标域的类别概率。所以可以增加一个领域适应优化目标,具体表达式如下:
那么构建出新的优化目标为:
这里的λ是一个可调节的因子,来平衡两个目标的权重。如果通过神经网络寻找E(w,b,v,c,u,z)的最佳参数,这就可以将E(w,b,v,c,u,z)分为部分参数最小化和部分参数最大化问题,但是在神经网络中反向传播的过程中,来自类和域预测器的梯度应该是被减去而不是相加,所以这里采用梯度反转层来规避这个错误,在反向传播的过程中,从后续层中获取梯度并改变符号,就是在传递到前一层前将其乘-1。
S4、基于关键点定位模块、椎体分割任务模块、椎体分类任务模块和域对抗迁移学习模块,建立正常剂量和低剂量图像的深度学习模型,构建分步训练损失函数来防止模型过拟合。
由于对每一个病人的预测都是基于两张CT图像(腰1椎体和腰2椎体),所以将两张CT图像在输入的时候在通道维度上进行了拼接,那么这就不可避免的在分割和定位任务中针对腰1和腰2都具有两个损失函数,而在类别分类和领域分类任务中,对获得的感兴趣图像在通道维度上又进行了一次拼接,所以不需要考虑此问题。
在关键点定位模块中使用的是均方误差,均方误差是反应估计量与被估计量之间差异程度的一种度量。其值越小说明预测值与目标值越接近。
其中,Li表示真实的椎体中心坐标,表示预测的中心点坐标,n表示元素个数。
在椎体分割模块中使用的是Dice Loss,Dice Loss依靠Dice系数得名,而Dice系数是一种用于评估两个样本相似性的度量函数,其值越大越意味着这两个样本越相似。
其中,表示真实分割图像S和预测分割图像/>之间的点乘并相加,|S|和/>表示它们各自对应图像中的像素相加。
在类别分类和领域分类中用到的损失函数分别为二元交叉熵和多元交叉熵函数。在多任务中,为了平衡全局关系和多任务关系,设计了一种新的多任务损失函数:
这里的epo表示表示网络训练的总轮次,n表示能够平衡分割任务和定位任务的合适轮次,λ1、λ2、λ3、λ4为可学***衡多任务之间的权重,Lseg1表示腰1椎体分割损失函数,Lseg2表示腰2椎体损失函数,Lloc1表示腰1椎体定位损失函数,Lloc2表示腰2椎体定位损失函数,Lclass表示类别损失函数,Ldomain1表示正常剂量图像域损失函数,Ldomain2表示低剂量图像域损失函数。
综上所述,本发明解决了在正常剂量和低剂量CT图像中,由于设备辐射剂量不同,造成的图像质量不同,对骨质疏松识别诊断结果的影响,提高了骨质疏松初筛分类的准确性,在降低设备对病人的辐射的同时,保证了诊断性能。
本发明中披露的说明和实践,对于本技术领域的普通技术人员来说,都是易于思考和理解的,且在不脱离本发明原理的前提下,还可以做出若干改进和润饰。因此,在不偏离本发明精神的基础上所做的修改或改进,也应视为本发明的保护范围。

Claims (4)

1.一种基于CT图像和域不变特征的骨质疏松识别方法,其特征在于,具体步骤如下:
S1:建立生成对抗网络的MACE-CycleGAN模型,对正常剂量图像和低剂量图像进行领域迁移,生成伪图像数据;
S2:建立关键点定位模块、椎体分割任务模块和椎体分类任务模块之间的相关性和强调椎骨之间的关系的多任务关系学习模型;
S3:建立基于域对抗迁移学习模块,将域适应嵌入到学习表示过程中,以便最终的分类决策基于对域的变化具有区分性和不变性的特征;
S4:基于关键点定位模块、椎体分割任务模块、椎体分类任务模块和域对抗迁移学习模块,建立正常剂量和低剂量图像的深度学习模型,构建分步训练损失函数来防止模型过拟合;
在步骤S1中,MACE-CycleGAN模型具体包括一个生成器和鉴别器;
所述生成器呈“U”型架构,包括5层编码层和5层解码层,在相应的编码层和解码层之间拥有跳跃连接层,将原图大小为512×512像素的CT图像作为网络的输入,由五个卷积层进行下采样,每个卷积层后均有BatchNormal和ReLU激活函数,经过五个下采样层后得到了一个16×16×1024的特征图;随后通过六个残差层组成残差模块,以此来加深网络的深度,提高模型的非线性,其中残差层的特征图大小和通道数均不变;最后,通过五个转置卷积层对特征图进行上采样,将每一层的特征图大小加倍;生成器最终产生了大小为512×512的RGB图像;
所述鉴别器由九个卷积层组成,在第五层卷积层和第六层卷积层后均添加有自注意力层;
在步骤S2中:
所述关键点定位模块,计算L1椎体和L2椎体的中间位置,以中间位置来对512×512像素的图像进行裁剪,裁剪后的图像大小256×256,去除大面积冗余特征,增加特征的可用性;
所述椎体分割任务模块,提取来自编码层的低级特征,并且聚合来自关键点定位模块的高级特征,抑制背景中的噪音对分割的干扰;
所述椎体分类任务模块,将关键点定位模块和椎体分割任务模块得到的感兴趣区域结果作为输入,并且聚合来自用于关键点定位模块的特征,提高分类的准确性;
所述关键点定位模块具体为:
关键点定位模块首先通过两个卷积核大小为3×3步距为2的卷积层进行下采样,然后一共通过四个阶段:第一个阶段包括四个残差块,四个残差块调整通道个数,并不改变特征层大小;第二个阶段在第一个阶段的基础上通过两个并行卷积核大小为3×3的卷积层得到两个不同尺度的分支,并且通过两个同样的并行卷积来增加模型非线性,然后对两个并行卷积产生的多尺度信息进行融合;第三个阶段,在第二个阶段的基础上再增加一个用于下采样的卷积,卷积核大小为3×3步距为2,同样的在增加的卷积后面再增加一个卷积,然后对三个尺度的特征进行融合;第四个阶段,在第三个阶段的基础上再增加一个用于下采样的卷积,也在增加的下采样的卷积后面再增加一个卷积,然后对来自四个尺度的信息进行特征融合;通过并行多个分辨率的分支,加上不断进行不同分支之间的信息交互,同时达到加强语义信息和精准位置信息的目的;
所述椎体分割任务模块具体为:
椎体分割任务模块在所述关键点定位模块的基础上构建的一个“U”型结构,“U”型结构由编码层和解码层构成;
其中,编码层由关键点定位模块的前三个阶段构成;
解码层的第一个上采样阶段是在关键点定位模块的第三个阶段第三个并行卷积后面增加一个上采样的空洞卷积,然后聚合来自空洞卷积的低层特征和来自关键点定位模块的第三个阶段的第二个并行卷积的高层特征,再通过一个卷积来增加非线性;第二个上采样阶段是在第一个阶段的基础上进行上采样,并且聚合来自第一个阶段上采样后的低层特征和来自关键点定位模块的第三个阶段第一个并行卷积的高层特征,再通过一个卷积来增加非线性;第三个上采样阶段是第二个阶段的基础上进行上采样,并且聚合来自第二个阶段上采样后的低层特征和来自关键点定位模块的第二个卷积的高层特征,再通过一个卷积来增加非线性,然后通过两个卷积来得到分割图像;椎体分割任务模块通过共享关键点定位模块的部分特征提取卷积来增加关键点定位模块和椎体分割任务模块的任务关联性;
所述椎体分类任务模块具体为:
首先将关键点定位模块和椎体分割任务模块结果整合,获得一个图像大小为256×256,通道数为6的图像作为椎体分类任务模块的输入,椎体分类任务模块首先是一个卷积核大小为8×8步距为2的卷积,其次是一个最大池化层来降低图像的分辨率,然后一共有四个阶段:第一个阶段是由三个残差块堆积而成,然后聚合来自关键点定位模块第四阶段第2个并行卷积的特征和残差块的特征;第二个阶段由四个残差块堆积而成,然后聚合来自关键点定位模块第四阶段第3个并行卷积的特征和残差块的特征;第三个阶段是由6个残差块堆积而成,然后聚合来自关键点定位模块第四阶段第4个并行卷积的特征和残差块的特征;第四个阶段,由3个残差块堆积而成;最后获得一个一维的特征向量,通过全连接层对其进行类别分类,全连接层最后的输出有三个神经元,每个神经元的结果为每个类别的概率;
在步骤S3中:
所述的域对抗迁移学习模块,由一个全连接层构成,全连接层的输入为椎体分类任务模块获得的一维的特征向量,全连接层最后的输出有两个神经元,每个神经元的结果为每个的领域概率。
2.根据权利要求1所述的一种基于CT图像和域不变特征的骨质疏松识别方法,其特征在于,在步骤S4中,构建分步训练损失函数来防止模型过拟合,包括两个步骤:
第一,对域对抗迁移学习模块进行梯度翻转;
第二,构建分步层次性损失函数。
3.根据权利要求2所述的一种基于CT图像和域不变特征的骨质疏松识别方法,其特征在于,所述的对域对抗迁移学习模块进行梯度翻转具体包括:
假设域分类层为Gd,通过Gd将来自椎体分类任务模块Gf的m×1的特征向量x映射为相应的领域标签,表示为:
Gd(x)=ReLU(ux+z)
其中(u,z)是矩阵向量对,分别表示权重和偏置;
假定给定示例(xi,di),使用二元交叉熵来计算领域损失:
Ld(Gd(Gf(xi)),di)=-dilog(Gd(Gf(xi)))
-(1-di)log(1-Gd(Gf(xi)))
其中xi为输入图像,di为领域类别,并且di∈[0,1],0表示正常剂量图像域,1表示低剂量图像域,Ld表示类别损失函数。
4.根据权利要求2所述的一种基于CT图像和域不变特征的骨质疏松识别方法,其特征在于,所述的构建分步层次性损失函数具体包括:
采用新的多任务损失函数,具体如下:
其中,epo表示表示网络训练的总轮次,n表示能够平衡分割任务和定位任务的合适轮次,λ1、λ2、λ3、λ4为可学***衡多任务之间的权重,Lseg1表示腰1椎体分割损失函数,Lseg2表示腰2椎体损失函数,Lloc1表示腰1椎体定位损失函数,Lloc2表示腰2椎体定位损失函数,Lclass表示类别损失函数,Ldomain1表示正常剂量图像域损失函数,Ldomain2表示低剂量图像域损失函数。
CN202310321204.4A 2023-03-29 2023-03-29 一种基于ct图像和域不变特征的骨质疏松识别方法 Active CN116630679B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310321204.4A CN116630679B (zh) 2023-03-29 2023-03-29 一种基于ct图像和域不变特征的骨质疏松识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310321204.4A CN116630679B (zh) 2023-03-29 2023-03-29 一种基于ct图像和域不变特征的骨质疏松识别方法

Publications (2)

Publication Number Publication Date
CN116630679A CN116630679A (zh) 2023-08-22
CN116630679B true CN116630679B (zh) 2024-06-04

Family

ID=87612284

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310321204.4A Active CN116630679B (zh) 2023-03-29 2023-03-29 一种基于ct图像和域不变特征的骨质疏松识别方法

Country Status (1)

Country Link
CN (1) CN116630679B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110751207A (zh) * 2019-10-18 2020-02-04 四川大学 基于深度卷积域对抗迁移学习的故障诊断方法
CN111881910A (zh) * 2020-07-31 2020-11-03 杭州依图医疗技术有限公司 基于椎骨影像的信息处理方法及计算机可读存储介质
CN112446423A (zh) * 2020-11-12 2021-03-05 昆明理工大学 一种基于迁移学习的快速混合高阶注意力域对抗网络的方法
CN113658142A (zh) * 2021-08-19 2021-11-16 江苏金马扬名信息技术股份有限公司 一种基于改进U-Net神经网络的髋关节股骨近端分割方法
CN114066873A (zh) * 2021-11-24 2022-02-18 袁兰 一种利用ct图像检测骨质疏松的方法及装置
CN114821097A (zh) * 2022-04-07 2022-07-29 西南交通大学 一种基于迁移学习的多尺度特征图像分类方法
CN114863165A (zh) * 2022-04-12 2022-08-05 南通大学 一种基于影像组学与深度学习特征融合的椎体骨密度分类方法
CN114937502A (zh) * 2022-07-07 2022-08-23 西安交通大学 基于深度学习的骨质疏松性椎体压缩性骨折评估方法及***
CN115374943A (zh) * 2022-09-01 2022-11-22 武汉东湖大数据交易中心股份有限公司 一种基于域对抗迁移网络的数据认知计算方法及其***
CN115719329A (zh) * 2022-08-23 2023-02-28 中国医学科学院北京协和医院 基于深度学习对ra超声模态滑膜评分融合的方法及***

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110751207A (zh) * 2019-10-18 2020-02-04 四川大学 基于深度卷积域对抗迁移学习的故障诊断方法
CN111881910A (zh) * 2020-07-31 2020-11-03 杭州依图医疗技术有限公司 基于椎骨影像的信息处理方法及计算机可读存储介质
CN112446423A (zh) * 2020-11-12 2021-03-05 昆明理工大学 一种基于迁移学习的快速混合高阶注意力域对抗网络的方法
CN113658142A (zh) * 2021-08-19 2021-11-16 江苏金马扬名信息技术股份有限公司 一种基于改进U-Net神经网络的髋关节股骨近端分割方法
CN114066873A (zh) * 2021-11-24 2022-02-18 袁兰 一种利用ct图像检测骨质疏松的方法及装置
CN114821097A (zh) * 2022-04-07 2022-07-29 西南交通大学 一种基于迁移学习的多尺度特征图像分类方法
CN114863165A (zh) * 2022-04-12 2022-08-05 南通大学 一种基于影像组学与深度学习特征融合的椎体骨密度分类方法
CN114937502A (zh) * 2022-07-07 2022-08-23 西安交通大学 基于深度学习的骨质疏松性椎体压缩性骨折评估方法及***
CN115719329A (zh) * 2022-08-23 2023-02-28 中国医学科学院北京协和医院 基于深度学习对ra超声模态滑膜评分融合的方法及***
CN115374943A (zh) * 2022-09-01 2022-11-22 武汉东湖大数据交易中心股份有限公司 一种基于域对抗迁移网络的数据认知计算方法及其***

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Automatic segmentation of hip osteophytes in DXA scans using U-Nets, in: International Conference on Medical Image Computing and Computer-Assisted Intervention;R. Ebsim.et al;《Springer Nature Switzerland》》;20221231;全文 *
End to End Multitask Joint Learning Model for Osteoporosis Classification in CT Images;Kun Zhang.et al;《Computational Intelligence and Neuroscience》;20230316;全文 *
基于深度学习的新冠肺炎CT图像辅助诊断研究;冉智强;《中国优秀硕士学位论文全文数据库 信息科技辑》;20230115(第01期);全文 *

Also Published As

Publication number Publication date
CN116630679A (zh) 2023-08-22

Similar Documents

Publication Publication Date Title
Liang et al. MCFNet: Multi-layer concatenation fusion network for medical images fusion
CN109754007A (zh) ***手术中外包膜智能检测和预警方法及***
CN111325750B (zh) 一种基于多尺度融合u型链神经网络的医学图像分割方法
Droste et al. Ultrasound image representation learning by modeling sonographer visual attention
Štern et al. Multi-factorial age estimation from skeletal and dental MRI volumes
CN116664931A (zh) 基于量子向经典迁移学习的膝骨关节炎分级方法
CN114359642A (zh) 基于一对一目标查询Transformer的多模态医学图像多器官定位方法
Li et al. S 3 egANet: 3D spinal structures segmentation via adversarial nets
Wegmayr et al. Generative aging of brain MR-images and prediction of Alzheimer progression
Hou et al. Cross attention densely connected networks for multiple sclerosis lesion segmentation
Tang et al. MMMNA-net for overall survival time prediction of brain tumor patients
Amit et al. Annotator consensus prediction for medical image segmentation with diffusion models
CN116630679B (zh) 一种基于ct图像和域不变特征的骨质疏松识别方法
Thirunavukkarasu et al. Intracranial hemorrhage detection using deep convolutional neural network
Sarić et al. Evaluation of skeletal gender and maturity for hand radiographs using deep convolutional neural networks
Gong et al. Axial-SpineGAN: simultaneous segmentation and diagnosis of multiple spinal structures on axial magnetic resonance imaging images
Meenakshi et al. An efficient model for predicting brain tumor using deep learning techniques
Bhattacharjya et al. A genetic algorithm for intelligent imaging from quantum-limited data
Jia et al. Fine-grained precise-bone age assessment by integrating prior knowledge and recursive feature pyramid network
CN115018856A (zh) 基于对比学习和空间编码的弱监督医学图像分割配准协同方法
Alla et al. Brain tumor detection using transfer learning in Deep learning
Liu et al. Ensemble Learning with multiclassifiers on pediatric hand radiograph segmentation for bone age assessment
CN113298807A (zh) 一种计算机断层扫描图像处理方法及装置
US11995830B2 (en) Deep learning architecture for analyzing medical images for body region recognition and delineation
Xie et al. MDR‐Net: Multiscale dense residual networks for liver image segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant