CN111739076B - 面向多种ct肺部纹理识别的非监督保内容域适应方法 - Google Patents
面向多种ct肺部纹理识别的非监督保内容域适应方法 Download PDFInfo
- Publication number
- CN111739076B CN111739076B CN202010541959.1A CN202010541959A CN111739076B CN 111739076 B CN111739076 B CN 111739076B CN 202010541959 A CN202010541959 A CN 202010541959A CN 111739076 B CN111739076 B CN 111739076B
- Authority
- CN
- China
- Prior art keywords
- domain
- target domain
- loss function
- representing
- encoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 210000004072 lung Anatomy 0.000 title claims abstract description 51
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000006978 adaptation Effects 0.000 title claims abstract description 24
- 238000012545 processing Methods 0.000 claims abstract description 6
- 230000003042 antagnostic effect Effects 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 66
- 238000012549 training Methods 0.000 claims description 33
- 239000011159 matrix material Substances 0.000 claims description 21
- 238000012360 testing method Methods 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 238000002360 preparation method Methods 0.000 claims description 3
- 238000011161 development Methods 0.000 abstract description 2
- 238000004422 calculation algorithm Methods 0.000 description 9
- 208000019693 Lung disease Diseases 0.000 description 5
- 238000003909 pattern recognition Methods 0.000 description 4
- 238000004195 computer-aided diagnosis Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- HJVCHYDYCYBBQX-HLTLHRPFSA-N (2s,3s,4e,6e,8s,9s)-3-amino-9-methoxy-2,6,8-trimethyl-10-phenyldeca-4,6-dienoic acid Chemical compound OC(=O)[C@@H](C)[C@@H](N)/C=C/C(/C)=C/[C@H](C)[C@@H](OC)CC1=CC=CC=C1 HJVCHYDYCYBBQX-HLTLHRPFSA-N 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- PBLZLIFKVPJDCO-UHFFFAOYSA-N omega-Aminododecanoic acid Natural products NCCCCCCCCCCCC(O)=O PBLZLIFKVPJDCO-UHFFFAOYSA-N 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000011056 performance test Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 206010014561 Emphysema Diseases 0.000 description 1
- 206010061218 Inflammation Diseases 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000005337 ground glass Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000004054 inflammatory process Effects 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000002685 pulmonary effect Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/41—Analysis of texture based on statistical description of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30061—Lung
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Quality & Reliability (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明公开了一种面向多种CT肺部纹理识别的非监督保内容域适应方法,属于图像处理和计算机视觉领域。该方法能使在一种CT数据上(源域上)事先训练的肺部纹理识别的深层网络模型,在应用到另一种CT图像上(目标域上)时,在仅获得目标域的CT图像并无需人工标注典型肺部阴影的前提下,运用对抗学习机制和特殊设计的内容一致性网络模块,就可以对深层网络模型进行微调,使目标域上的肺部纹理识别保持较高性能。此方法不仅能节省开发的人力和时间成本,而且易于实现并具有较高的实用性。
Description
技术领域
本发明属于医学图像处理和计算机视觉领域,具体涉及到一种面向多种CT肺部纹理识别的非监督保内容域适应方法。
背景技术
弥漫性肺疾患是指肺部区域内由于炎症或损伤等因素造成的肺间质异常纹理的总称。弥漫性肺疾患计算机辅助诊断(Computer-Aided Diagnosis,CAD)***可辅助放射科医生对弥漫性肺疾患进行诊断,其中CT图像弥漫性肺疾患纹理的准确识别是构建该CAD***的关键步骤。目前已有基于深层卷积神经网络的方法被发明,应用于弥漫性肺疾患纹理识别,并得到较好结果。
然而,由于医疗数据的难以获取,在基于深层网络的算法研发时,通常只收集一种CT图像数据,并在此数据上进行算法的设计和验证。在算法研发阶段,研制的深层网络模型,仅能在相同种类CT图像数据上得到较好的识别结果;在实际应用阶段,直接将此模型应用于不同种类CT图像数据上时,肺部阴影的识别精度会大大降低。这是因为不同种类CT图像在噪声、成像等方面存在不同,这导致仅针对一种CT数据设计和的网络模型,在其他种类CT数据上直接应用时,存在网络模型的泛化性不足的问题。
针对这一问题,虽然可通过采集不同种类CT图像数据,并将其混合共同对网络模型进行训练的方式,提高网络模型对不同种类CT图像数据的泛化性(Yongjun Chang,Jonghyuck Lim and et al.,“A support vector machine classifier reducesinterscanner variation in the hrct classification of regional disease patternin diffuse lung diseases:comparison to a Bayesian classifier,”MedicalPhysics,vol.40,no.5,pp.051912,2013.)。但是,这种方式不仅需要收集其他不同种类CT图像数据,还需要对这些新的CT图像中的典型肺部阴影区域进行繁琐和费事人工标注。因此,需要一种更加方便、有效的技术,解决不同种类CT数据的深层网络模型泛化性问题。
发明内容
本发明旨在克服现有技术的不足,提供了一种面向多种CT肺部纹理识别的非监督保内容域适应方法。该方法能使在一种CT数据上(源域上)事先训练的深层网络模型,包含CT图像和典型肺部阴影区域的人工标注,在应用到另一种CT图像上(目标域上)时,在仅获得目标域的CT图像并无需人工标注典型肺部阴影的前提下,运用对抗学习机制和特殊设计的内容一致性网络模块,就可以对深层网络模型进行微调,使目标域上的肺部纹理识别保持较高性能。
本发明的具体技术方案为,一种面向多种CT肺部纹理识别的非监督保内容域适应方法,包括下列步骤:
1)训练和测试数据准备:采集了两组不同种类的CT图像,并利用人工方式在这两组CT图像上标注典型肺部纹理区域。此后,随机指定一组图像为源域数据,另一组图像为目标域数据。源域上的CT图像和人工标注的肺部纹理区域,将处理成带标签(纹理类别)的CT小块,用于在源域上监督训练深层网络模型。目标域的数据,将处理成带标签和不带标签的CT小块,其中不带标签的CT小块,用于非监督方式对预先训练深层网络模型进行微调,带标签的CT小块用于测试本发明所提技术方案的最终结果;
2)源域上识别网络的构建和监督训练:使用残差网络(Kaiming He,XiangyuZhang,and et.al.,“Deep residual learning for image recognition,”in ComputerVision and Pattern Recognition,2016,pp.770–778.)构建深层网络模型,其结构包括编码器和分类器两部分。编码器提取输入CT肺部纹理图像特征表示,分类器使用特征表示生成识别结果。使用源域中的带标签CT小块,采用监督方式训练该深层网络,使网络模型在源域的数据中达到良好的识别性能;
3)目标域上的深层模型微调:针对步骤(2)中获得的源域深层网络模型,使用目标域的不带标签的CT小块,利用基于对抗学习机制的损失函数进行非监督域适应,同时利用内容一致性模块和内容一致性损失函数对目标域编码器进行保持内容的约束,再结合源域中的监督分类训练,需再次利用源域中带标签的CT小块,共同对目标域的深层模型进行微调,最终使深层网络模型能在目标域保持良好的肺部纹理识别性能;
4)深层网络模型的性能测试:使用目标域上的带标签CT小块,通过计算衡量识别性能的常用指标,如正确识别准确率和F值,对最终得到的深层网络模型的性能进行测试。
源域上识别网络的构建和监督训练,具体包括以下步骤:
2-1)使用残差网络构建识别网络,包括编码器和分类器两部分。编码器由若干卷积模块组成,提取输入CT肺部纹理图像特征表示。分类器包括若干卷积模块、全局平均池化层以及全连接层,使用特征表示生成识别结果;
2-2)每个卷积模块由卷积层、批标准化层和整流线性单元层组成,这些都是深层卷积神经网络的通用结构;
2-3)除首个卷积模块外,识别网络中剩余卷积模块通过跳跃连接构成残差模块。残差模块也是通用的网络结构,可参照已有文献(Kaiming He,Xiangyu Zhang,andet.al.,“Deep residual learning for image recognition,”in Computer Vision andPattern Recognition,2016,pp.770–778.);
2-4)使用源域的带标签CT小块,对深层网络进行监督式的网络训练。具体是以小批量方式计算分类交叉熵损失函数,并通过随机梯度下降算法,优化分类交叉熵损失函数,得到源域的深层网络模型。分类交叉熵损失函数的计算公式如下:
式中,Ltask(·)表示交叉熵损失函数值,f表示编码器,h表示分类器,表示数学期望,xs表示单次批量中参与训练的源域CT图像数据矩阵,ys表示xs对应类别标签矩阵,Xs表示源域CT图像矩阵集合,Ys表示Xs对应类别标签矩阵集合,∑表示求和运算符,K表示分类类别数,本发明中K为6,log(·)表示对数运算。
目标域上的深层模型微调,具体包括以下步骤:
3-1)为目标域数据构建一个与源域网络模型结构相同的深层网络,并使这两个网络的编码器和分类器共享同样的网络参数权重,以在(2-4)中在源域数据中训练得到的网络模型的参数权重为初始值,进行目标域上的网络模型微调;
3-2)使用对抗学习机制,构建判别器,通过优化对抗损失函数进行域适应,缩小源域和目标域编码器特征表示域偏差。判别器由卷积模块和全连接层组成,以源域和目标域编码器特征表示为输入,将源域编码器特征表示判定为源域结果(标签为1),将目标域编码器特征表示判定为目标域结果(标签为0)。对抗损失函数公式如下:
式中,Ladv(·)表示对抗损失函数值,D表示判别器,f表示编码器,表示数学期望,xs表示单次批量中参与训练的源域CT图像数据矩阵,xt表示单次批量中参与训练的目标域CT图像数据矩阵,Xs表示源域CT图像矩阵集合,Xt表示目标域CT图像矩阵集合,log(·)表示对数运算;
3-3)使用内容一致性模块通过内容一致性损失函数约束目标域编码器特征表示及输入的目标域CT肺部纹理图像,保持目标域内容一致性。内容一致性模块包括卷积模块和残差模块,将目标域编码器特征表示重建为单通道图像,与输入目标域CT肺部纹理图像通过L1范数约束。内容一致性损失函数公式如下:
式中,Lcp(·)表示内容一致性损失函数值,f表示编码器,g表示内容一致性模块,表示数学期望,xt表示单次批量中参与训练的目标域CT图像数据矩阵,Xt表示目标域CT图像矩阵集合,‖·‖1表示L1范数;
3-4)使用目标域中不带标签的CT小块,并再次使用源域中带标签的CT小块,计算对抗损失函数、内容一致性损失函数和源域中的分类交叉熵损失函数的和,作为网络微调的整体损失函数,具体公式如下:
Ltotal(f,h,g,D)=Ladv(D,f)+λcpLcp(f,g)+λtaskLtask(f,h)
式中,Ltotal(·)表示非监督保内容域适应的整体损失函数值,f表示编码器,h表示分类器,g表示内容一致性模块,D表示判别器,Ladv表示对抗损失函数值,λcp表示内容一致性损失函数系数,本发明中λcp为1.0,Lcp为内容一致性损失函数值,λtask表示分类交叉熵损失函数系数,本发明中λtask为100.0,Ltask表示分类交叉熵损失函数值(其定义参见步骤(2-4)中的公式)。
3-5)通过随机梯度下降算法对(3-4)中的整体优化损失函数进行优化,得到最终针对目标域微调的深层网络模型。
本发明的有益效果是:
本发明是一种面向多种CT肺部纹理识别的非监督保内容域适应方法。该方法能使在一种CT数据(源域)上事先训练的深层网络模型,在应用到另一种CT图像(目标域)上时,在仅获得新种类CT图像并无需人工标注典型肺部阴影的前提下,运用对抗学习机制和特殊设计的内容一致性网络模块,就可以对深层网络模型进行微调,使目标域上的肺部纹理识别保持较高性能。该***具有以下特点:
1、对目标域的网络微调,不需要在目标域数据上进行繁琐和费时的人工标注,节省人力和时间成本,提升方法的实用性;
2、方法简单,易于实现;
3、使用基于对抗学习机制的非监督域适应方式,缩小源域和目标域编码器特征表示域偏差;
4、设计内容一致性模块,通过内容一致性损失函数对目标域编码器进行保持内容的约束,保证域网络微调中目标域内容的一致性。
附图说明
图1为具体实施流程图。
图2为非监督保内容域适应网络结构图。
图3为基于对抗学习机制的判别器结构图。
图4为内容一致性模块结构图。
具体实施方式
本发明结合附图及实施例详细说明如下:
本发明提供了一种面向多种CT肺部纹理识别的非监督保内容域适应方法。该方法能使在一种CT数据上(源域上)事先训练的深层网络模型,在应用到另一种CT图像上(目标域上)时,在仅获得目标域的CT图像并无需人工标注典型肺部阴影的前提下,运用对抗学习机制和特殊设计的内容一致性网络模块,就可以对深层网络模型进行微调,使目标域上的肺部纹理识别保持较高性能。具体实施流程如图1所示,所述方法包括下列步骤:
1)训练和测试数据准备:采集了两组不同种类的CT图像,并利用人工方式在这两组CT图像上标注典型肺部纹理区域。此后,随机指定一组图像为源域数据,另一组图像为目标域数据。源域上的CT图像和人工标注的肺部纹理区域,将处理成带标签(纹理类别)的CT小块,用于在源域上监督训练深层网络模型。目标域的数据,将处理成带标签和不带标签的CT小块,其中不带标签的CT小块,用于非监督方式对预先训练深层网络模型进行微调,带标签的CT小块用于测试本发明所提技术方案的最终结果。具体步骤是:
1-1)收集两组不同种类的CT图像,这两组CT图像中包含6种常用的肺部典型纹理,即整合型、毛玻璃状、蜂窝状、肺气肿、结节状和正常肺部纹理;
1-2)在这两组CT图像上,让有经验的放射线医生每个CT图像上选择3个冠状面断层,并在这些断层上手动勾勒包含上述典型纹理的肺部区域;
1-3)在算法设计和测试时,任意选择一组图像数据为源域上的数据,另一组图像数据为目标域数据;
1-4)对源域上的CT图像和标注的典型肺部纹理区域进行处理,生成若干带标签(纹理类别)CT图像小块,大小为32×32。具体是在标注的CT冠状面断层上,左上角开始在水平和垂直方向以定步为16像素移动32×32的扫描框,搜索框的中心点位于标注的典型纹理区域内时,截取此时扫描框中的CT图像并记录纹理的类别。源域中的这些带标签的CT小块,将用于在源域上监督训练深层网络模型;
1-5)目标域的CT图像分为两部分,分别用于生成带标签和不带标签的若干32×32的CT小块。其中带标签的CT小块生成方式,与步骤(1-4)中一样。不带标签CT小块生成方式是,利用肺部区域自动分割算法(Rui,Xu,Jiao Pan and et al.,“A pilot study toutilize a deep convolutional network to segment lungs with complexopacities,”in 2017Chinese Automation Congress(CAC).IEEE,2017,pp.3291-3295.)对CT图像进行肺部区域自动分割,确定肺部区域,然后随机选择若干冠状轴上的断层,并在每个断层上用32×32的扫描框从左上角开始在水平和垂直方向以定步为16像素进行扫描,扫描框的中心落在肺内部时,就将扫描框覆盖的32×32的CT小块截取出来,作为不带标签的CT小块。
1-6)目标域上不带标签的CT小块,将用于基于非监督训练方式的深层网络模型微调,带标签的CT小块将用于最终模型的性能测试。
2)源域上识别网络的构建和监督训练:使用残差网络构建深层网络模型,其结构包括编码器和分类器两部分,具体结构如图2上半部分虚框内所示。编码器提取输入CT肺部纹理图像特征表示,分类器使用特征表示生成识别结果。使用源域中的带标签CT小块,采用监督方式训练该深层网络,使网络模型在源域的数据中达到良好的识别性能,具体步骤是:
2-1)使用残差网络构建识别网络,包括编码器和分类器两部分。编码器包括7个卷积模块,提取输入CT肺部纹理图像特征表示。分类器包括12个卷积模块,1个全局平均池化层和一个全连接层,使用特征表示生成识别结果;
2-2)每个卷积模块由卷积层、批标准化层和整流线性单元层组成,这些都是深层卷积神经网络的通用和常用结构;
2-3)除第1个卷积模块外,识别网络中剩余卷积模块每两个模块为一组,通过跳跃连接构成9个残差模块,其中编码器有3个残差模块,分类器有6个残差模块。残差模块也是通用的网络结构,可参照已有文献(Kaiming He,Xiangyu Zhang,and et.al.,“Deepresidual learning for image recognition,”in Computer Vision and PatternRecognition,2016,pp.770–778.);
2-4)使用源域的带标签CT小块,对深层网络进行监督式的网络训练。具体是以小批量方式计算分类交叉熵损失函数,并通过随机梯度下降算法,优化分类交叉熵损失函数,得到源域的深层网络模型。分类交叉熵损失函数的计算公式如下:
式中,Ltask(·)表示交叉熵损失函数值,f表示编码器,h表示分类器,表示数学期望,xs表示单次批量中参与训练的源域CT图像数据矩阵,ys表示xs对应类别标签矩阵,Xs表示源域CT图像矩阵集合,Ys表示Xs对应类别标签矩阵集合,∑表示求和运算符,K表示分类类别数,本发明中K为6,log(·)表示对数运算。
3)目标域上的深层模型微调:针对步骤(2)中获得的源域深层网络模型,使用目标域的不带标签的CT小块,利用基于对抗学习机制的损失函数进行非监督域适应,同时利用内容一致性模块和内容一致性损失函数对目标域编码器进行保持内容的约束,再结合源域中的监督分类训练(需再次利用源域中带标签的CT小块),共同对目标域的深层模型进行微调,最终使深层网络模型能在目标域保持良好的肺部纹理识别性能,具体步骤是:
3-1)如图2下半部分虚框所示,为目标域数据构建一个与源域网络模型结构相同的深层网络,并使这两个网络的编码器和分类器共享同样的网络参数权重,并以在(2-4)中在源域数据中训练得到的网络模型的参数权重为初始值,进行目标域上的网络模型微调;
3-2)使用对抗学习机制,构建如图3所示的判别器,通过优化对抗损失函数进行域适应,缩小源域和目标域编码器特征表示域偏差。判别器由4个卷积模块和3个全连接层组成,以源域和目标域编码器特征表示为输入,将源域编码器特征表示判定为源域结果(标签为1),将目标域编码器特征表示判定为目标域结果(标签为0)。对抗损失函数公式如下:
式中,Ladv(·)表示对抗损失函数值,D表示判别器,f表示编码器,表示数学期望,xs表示单次批量中参与训练的源域CT图像数据矩阵,xt表示单次批量中参与训练的目标域CT图像数据矩阵,Xs表示源域CT图像矩阵集合,Xt表示目标域CT图像矩阵集合,log(·)表示对数运算;
3-3)使用内容一致性模块通过内容一致性损失函数约束目标域编码器特征表示及输入的目标域CT肺部纹理图像,保持目标域内容一致性。内容一致性模块如图4所示,包括2个卷积模块和3个残差模块,将目标域编码器特征表示重建为单通道图像,与输入目标域CT肺部纹理图像通过L1范数约束。内容一致性损失函数公式如下:
式中,Lcp(·)表示内容一致性损失函数值,f表示编码器,g表示内容一致性模块,表示数学期望,xt表示单次批量中参与训练的目标域CT图像数据矩阵,Xt表示目标域CT图像矩阵集合,‖·‖1表示L1范数;
3-4)使用目标域中不带标签的CT小块,并再次使用源域中带标签的CT小块,计算对抗损失函数、内容一致性损失函数和源域中的分类交叉熵损失函数的和,作为网络微调的整体损失函数,具体公式如下:
Ltotal(f,h,g,D)=Ladv(D,f)+λcpLcp(f,g)+λtaskLtask(f,h)
式中,Ltotal(·)表示非监督保内容域适应的整体损失函数值,f表示编码器,h表示分类器,g表示内容一致性模块,D表示判别器,Ladv表示对抗损失函数值,λcp表示内容一致性损失函数系数,本发明中λcp为1.0,Lcp为内容一致性损失函数值,λtask表示分类交叉熵损失函数系数,本发明中λtask为100.0,Ltask表示分类交叉熵损失函数值(其定义参见步骤(2-4)中的公式)。
3-5)通过随机梯度下降算法对(3-4)中的整体优化损失函数进行优化,得到最终针对目标域微调的深层网络模型。
4)深层网络模型的性能测试:使用目标域上的带标签CT小块,通过计算衡量识别性能的常用指标,如正确识别准确率和F值,对最终得到的深层网络模型的性能进行测试。本发明方法的测试结果及与其他两种公认的非监督域适应方法的比较结果如表1所示,其中(a)基于ADDA(Eric Tzeng,Judy Hoffman and et al.,“Adversarial discriminativedomain adaptation,”in Proceedings of the IEEE Conference on Computer Visionand Pattern Recognition,2017,pp.7167-7176.)方法的正确识别准确率及F值;(b)基于Cycle-GAN(Jun-Yan Zhu,Taesung Park and et al.,“Unpaired image-to-imagetranslation using cycle-consistent adversarial networks,”in Proceedings ofthe IEEE International Conference on Computer Vision,2017,pp.2223-2232.)的正确识别准确率及F值;(c)本发明(CPDA-Net)正确识别准确率及F值。组1→组2的意思是以第一组CT数据作为源域,以第二组CT数据作为目标域,来训练和微调深层网络模型。组2→组1的意思是以第二组CT数据作为源域,以第一组CT数据作为目标域,来训练和微调深层网络模型。
表1本发明方法的性能评估以及与其他方法的比较
这两种方法分别基于ADDA和CycleGAN虽然并不是针对不同种类CT图像的肺部纹理识别所提出的方法,但他们是公认的深层网络领域自适应的有效方法。本发明提出的技术方案,较这两种方法更为有效。
Claims (2)
1.面向多种CT肺部纹理识别的非监督保内容域适应方法,其特征在于,包括下列步骤:
1)训练和测试数据准备:采集了两组不同种类的CT图像,并利用人工方式在这两组CT图像上标注典型肺部纹理区域;此后,随机指定一组图像为源域数据,另一组图像为目标域数据;源域上的CT图像和人工标注的肺部纹理区域,处理成带标签的CT小块,用于在源域上监督训练深层网络模型;目标域的数据,处理成带标签和不带标签的CT小块,其中不带标签的CT小块,用于非监督方式对预先训练深层网络模型进行微调,带标签的CT小块用于测试本发明所提技术方案的最终结果;
2)源域上识别网络的构建和监督训练:使用残差网络构建深层网络模型,其结构包括编码器和分类器两部分;编码器提取输入CT肺部纹理图像特征表示,分类器使用特征表示生成识别结果;使用源域中的带标签CT小块,采用监督方式训练该深层网络,使网络模型在源域的数据中达到良好的识别性能;
3)目标域上的深层模型微调:针对步骤2)中获得的源域深层网络模型,使用目标域的不带标签的CT小块,利用基于对抗学习机制的损失函数进行非监督域适应,同时利用内容一致性模块和内容一致性损失函数对目标域编码器进行保持内容的约束,再结合源域中的监督分类训练,再次利用源域中带标签的CT小块,共同对目标域的深层模型进行微调,最终使深层网络模型能在目标域保持良好的肺部纹理识别性能。
2.根据权利要求1所述的面向多种CT肺部纹理识别的非监督保内容域适应方法,其特征在于,步骤3)中的目标域上的深层模型微调,具体包括以下步骤:
3-1)为目标域数据构建一个与源域网络模型结构相同的深层网络,并使这两个网络的编码器和分类器共享同样的网络参数权重,以步骤(2)中在源域数据中训练得到的网络模型的参数权重为初始值,进行目标域上的网络模型微调;
3-2)使用对抗学习机制,构建判别器,通过优化对抗损失函数进行域适应,缩小源域和目标域编码器特征表示域偏差;判别器由卷积模块和全连接层组成,以源域和目标域编码器特征表示为输入,将源域编码器特征表示判定为源域结果,标签为1,将目标域编码器特征表示判定为目标域结果,标签为0;对抗损失函数公式如下:
式中,Ladv(·)表示对抗损失函数值,D表示判别器,f表示编码器,表示数学期望,xs表示单次批量中参与训练的源域CT图像数据矩阵,xt表示单次批量中参与训练的目标域CT图像数据矩阵,Xs表示源域CT图像矩阵集合,Xt表示目标域CT图像矩阵集合,log(·)表示对数运算;
3-3)使用内容一致性模块通过内容一致性损失函数约束目标域编码器特征表示及输入的目标域CT肺部纹理图像,保持目标域内容一致性;内容一致性模块包括卷积模块和残差模块,将目标域编码器特征表示重建为单通道图像,与输入目标域CT肺部纹理图像通过L1范数约束;内容一致性损失函数公式如下:
式中,Lcp(·)表示内容一致性损失函数值,f表示编码器,g表示内容一致性模块,表示数学期望,xt表示单次批量中参与训练的目标域CT图像数据矩阵,Xt表示目标域CT图像矩阵集合,‖·‖1表示L1范数;
3-4)使用目标域中不带标签的CT小块,并再次使用源域中带标签的CT小块,计算对抗损失函数、内容一致性损失函数和源域中的分类交叉熵损失函数的和,作为网络微调的整体损失函数,具体公式如下:
Ltotal(f,h,g,D)=Ladv(D,f)+λcpLcp(f,g)+λtaskLtask(f,h)
式中,Ltotal(·)表示非监督保内容域适应的整体损失函数值,f表示编码器,h表示分类器,g表示内容一致性模块,D表示判别器,Ladv表示对抗损失函数值,λcp表示内容一致性损失函数系数,Lcp为内容一致性损失函数值,λtask表示分类交叉熵损失函数系数,Ltask表示分类交叉熵损失函数值;分类交叉熵损失函数的计算公式如下:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010541959.1A CN111739076B (zh) | 2020-06-15 | 2020-06-15 | 面向多种ct肺部纹理识别的非监督保内容域适应方法 |
US17/112,623 US11501435B2 (en) | 2020-06-15 | 2020-12-04 | Unsupervised content-preserved domain adaptation method for multiple CT lung texture recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010541959.1A CN111739076B (zh) | 2020-06-15 | 2020-06-15 | 面向多种ct肺部纹理识别的非监督保内容域适应方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111739076A CN111739076A (zh) | 2020-10-02 |
CN111739076B true CN111739076B (zh) | 2022-09-30 |
Family
ID=72649178
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010541959.1A Expired - Fee Related CN111739076B (zh) | 2020-06-15 | 2020-06-15 | 面向多种ct肺部纹理识别的非监督保内容域适应方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11501435B2 (zh) |
CN (1) | CN111739076B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114332787A (zh) * | 2021-12-30 | 2022-04-12 | 福州大学 | 无源域无监督域自适应车辆再识别方法 |
CN114549322B (zh) * | 2022-02-24 | 2024-04-16 | 中山大学 | 基于无监督领域自适应的图像超分辨方法及装置 |
CN114820481A (zh) * | 2022-04-13 | 2022-07-29 | 合肥工业大学 | 基于转换器的肺癌组织病理全切片egfr状态预测方法 |
CN114565613B (zh) * | 2022-04-29 | 2022-08-23 | 之江实验室 | 基于有监督深度子空间学习的胰腺术后糖尿病预测*** |
CN115050032A (zh) * | 2022-05-02 | 2022-09-13 | 清华大学 | 一种基于特征对齐和熵正则化的域适应文本图像识别方法 |
CN115049627B (zh) * | 2022-06-21 | 2023-06-20 | 江南大学 | 基于域自适应深度迁移网络的钢表面缺陷检测方法及*** |
CN115292532B (zh) * | 2022-06-24 | 2024-03-15 | 中南大学 | 基于伪标签一致性学习的遥感图像域适应检索方法 |
CN115410088B (zh) * | 2022-10-10 | 2023-10-31 | 中国矿业大学 | 一种基于虚拟分类器的高光谱图像领域自适应方法 |
CN116206108A (zh) * | 2023-02-16 | 2023-06-02 | 苏州大学 | 一种基于域自适应的oct图像脉络膜分割网络模型及方法 |
CN116523840B (zh) * | 2023-03-30 | 2024-01-16 | 苏州大学 | 一种基于深度学习的肺部ct图像检测***以及方法 |
CN116935447B (zh) * | 2023-09-19 | 2023-12-26 | 华中科技大学 | 基于自适应师生结构的无监督域行人重识别方法及*** |
CN117058266B (zh) * | 2023-10-11 | 2023-12-26 | 江西师范大学 | 一种基于骨架和轮廓的书法字生成方法 |
CN117132841B (zh) * | 2023-10-26 | 2024-03-29 | 之江实验室 | 一种保守渐进的领域自适应图像分类方法和装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10127659B2 (en) * | 2016-11-23 | 2018-11-13 | General Electric Company | Deep learning medical systems and methods for image acquisition |
CN108428229B (zh) * | 2018-03-14 | 2020-06-16 | 大连理工大学 | 一种基于深度神经网络提取表观和几何特征的肺部纹理识别方法 |
US11730387B2 (en) * | 2018-11-02 | 2023-08-22 | University Of Central Florida Research Foundation, Inc. | Method for detection and diagnosis of lung and pancreatic cancers from imaging scans |
CN109753992B (zh) * | 2018-12-10 | 2020-09-01 | 南京师范大学 | 基于条件生成对抗网络的无监督域适应图像分类方法 |
US11360180B2 (en) * | 2019-12-19 | 2022-06-14 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer readable media for using a trained adversarial network for performing retrospective magnetic resonance imaging (MRI) artifact correction |
US11282192B2 (en) * | 2019-12-19 | 2022-03-22 | Varian Medical Systems International Ag | Training deep learning engines for radiotherapy treatment planning |
-
2020
- 2020-06-15 CN CN202010541959.1A patent/CN111739076B/zh not_active Expired - Fee Related
- 2020-12-04 US US17/112,623 patent/US11501435B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11501435B2 (en) | 2022-11-15 |
CN111739076A (zh) | 2020-10-02 |
US20210390686A1 (en) | 2021-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111739076B (zh) | 面向多种ct肺部纹理识别的非监督保内容域适应方法 | |
CN111476292B (zh) | 医学图像分类处理人工智能的小样本元学习训练方法 | |
CN108428229B (zh) | 一种基于深度神经网络提取表观和几何特征的肺部纹理识别方法 | |
US20210020360A1 (en) | Internal thermal fault diagnosis method of oil-immersed transformer based on deep convolutional neural network and image segmentation | |
CN110889852B (zh) | 基于残差-注意力深度神经网络的肝脏分割方法 | |
CN110889853B (zh) | 基于残差-注意力深度神经网络的肿瘤分割方法 | |
CN112488234B (zh) | 一种基于注意力池化的端到端组织病理图像分类方法 | |
CN109584209B (zh) | 血管壁斑块识别设备、***、方法及存储介质 | |
CN111539947B (zh) | 图像检测方法及相关模型的训练方法和相关装置、设备 | |
CN110739070A (zh) | 一种基于3d卷积神经网络的脑疾病诊断方法 | |
CN110503630A (zh) | 一种基于三维深度学习模型的脑出血分类、定位与预测方法 | |
CN109598220B (zh) | 一种基于多元输入多尺度卷积的人数统计方法 | |
CN111539247B (zh) | 一种超光谱人脸识别方法、装置、电子设备及其存储介质 | |
CN110879982A (zh) | 一种人群计数***及方法 | |
CN113408423A (zh) | 适用于tx2嵌入式平台的水产品目标实时检测方法 | |
CN112396587A (zh) | 一种基于协同训练和密度图的公交车厢内拥挤度检测方法 | |
CN112420170B (zh) | 一种提高计算机辅助诊断***图片分类准确度的方法 | |
CN114782298B (zh) | 一种具有区域注意力的红外与可见光图像融合方法 | |
CN115049629A (zh) | 基于线图扩展的多模态脑超图注意力网络的分类方法 | |
WO2024021461A1 (zh) | 缺陷检测方法及装置、设备、存储介质 | |
CN114219719A (zh) | 基于双重注意力和多尺度特征的cnn医学ct图像去噪方法 | |
CN106067165B (zh) | 基于聚类化稀疏随机场的高光谱图像去噪方法 | |
CN114463525B (zh) | 一种面向三维重建的大规模图像色彩一致性校正方法 | |
CN116310466A (zh) | 基于局部无关区域筛选图神经网络的小样本图像分类方法 | |
CN110033448B (zh) | 一种aga临床图像的ai辅助雄秃汉密尔顿分级预测分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220930 |