CN112508175A - 用于低剂量pet重建的多任务学习型生成式对抗网络生成方法及*** - Google Patents

用于低剂量pet重建的多任务学习型生成式对抗网络生成方法及*** Download PDF

Info

Publication number
CN112508175A
CN112508175A CN202011455292.XA CN202011455292A CN112508175A CN 112508175 A CN112508175 A CN 112508175A CN 202011455292 A CN202011455292 A CN 202011455292A CN 112508175 A CN112508175 A CN 112508175A
Authority
CN
China
Prior art keywords
type
loss function
picture
network
generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011455292.XA
Other languages
English (en)
Inventor
胡战利
郑海荣
张娜
刘新
梁栋
杨永峰
孙涵宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Advanced Technology of CAS
Original Assignee
Shenzhen Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Advanced Technology of CAS filed Critical Shenzhen Institute of Advanced Technology of CAS
Priority to CN202011455292.XA priority Critical patent/CN112508175A/zh
Publication of CN112508175A publication Critical patent/CN112508175A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Nuclear Medicine (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及一种用于低剂量PET重建的多任务学习型生成式对抗网络生成方法及***,属于深度学习的技术领域,生成方法包括对编码器和解码器各层之间采用跳跃连接,得到U‑Net型的图片生成器;生成式对抗网络组生成,多个图片生成器和多个判别器一一对应得到一组生成式对抗网络生成组,得到一个生成式对抗网络组;得到第一多任务学习型生成式对抗网络;设计用于提高成像质量的联合损失函数l;根据联合损失函数l,结合优化器,对第一多任务学习型生成式对抗网络进行训练,得到第二多任务学习型生成式对抗网络。与相关技术相比,本申请具有改善重建的低剂量PET图像信噪比低以及丢失细节的问题的效果。

Description

用于低剂量PET重建的多任务学习型生成式对抗网络生成方 法及***
技术领域
本申请涉及深度学习技术的领域,尤其是涉及一种应用于医学PET成像领域的多任务学习型生成式对抗网络生成方法及***。
背景技术
正电子发射断层扫描(PET)是一种功能成像技术,使用称为放射性示踪剂的放射性物质来可视化和测量代谢过程以及其它生理活动(包括血流量,区域化学成分和吸收)中的变化。PET作为唯一一种可在活体上显示生物分子代谢、受体及神经介质活动的新型影像技术,具有灵敏度高和特异性高等特点,适用于肿瘤病患者、神经***疾病患者和心血管疾病患者的检查与辅助治疗。
PET扫描虽然是非侵入性的,但会使生物体暴露于电离辐射中。大量的电离辐射显然会对人体产生危害,特别是对于需要多次检查的患者(例如肿瘤监测)或生命周期罹患癌症风险更高的人(例如儿科患者)。几乎所有临床和研究应用都需要提高图像质量,但同时也需要使辐射暴露最小化以降低与电离辐射相关的风险。但在PET成像时,降低电离辐射将导致重建图像信噪比低以及丢失细节。
发明内容
为了改善重建的低剂量PET图像信噪比低以及丢失细节的问题,本申请提供一种用于低剂量PET重建的多任务学习型生成式对抗网络生成方法及***。
第一方面,本申请提供一种用于低剂量PET重建的多任务学习型生成式对抗网络生成方法,采用如下的技术方案:
一种用于低剂量PET重建的多任务学习型生成式对抗网络生成方法,所述生成方法包括,
基于编码器和解码器,对编码器和解码器各层之间采用跳跃连接,得到U-Net型的图片生成器;
生成式对抗网络组生成,多个图片生成器和多个判别器一一对应得到一组生成式对抗网络生成组,所述多个图片生成器均以输入模态作为条件输入,以生成需求PET图像作为学习目标,所述多个判别器均以对应图片生成器的输入模态、输入模态对应的标签图片以及输出结果作为输入,得到一个生成式对抗网络组;其中,每组生成式对抗网络组中,输入模态至少包括同一图片对象的低剂量PET图像和MR图像两类图像;
所述生成式对抗网络组中的多个生成式对抗网络并行学习,且各个生成式对抗网络的图片生成器共享浅层信息,得到第一多任务学习型生成式对抗网络;
以标准剂量PET图片作为输入模态对应的标签图片,采用L1型损失函数和交叉熵损失函数对第一多任务学习型生成式对抗网络进行参数估计,根据各个图片生成器的输出结果、标签图片和判别器输出结果,设计用于提高成像质量的联合损失函数l;以及,
根据所述联合损失函数l,结合优化器,对所述第一多任务学习型生成式对抗网络进行训练,得到第二多任务学习型生成式对抗网络。
通过采用上述技术方案,生成式对抗网络的图片生成器的编码器进行图片特征的提取,解码器根据编码器提取的图片特征进行图像重建,得到重建的图片,判别器对生成器输出的重建图片进行判别,判断图片的真假,从而在图片重建过程中,能够大幅度提高低维和高维信息的重复利用以及局部和非局部信息的融合,从而增强传统卷积操作的性能,能够在较大程度上消除重建图片的噪声,而生成式对抗网络组的多个图像生成器并行学习且共享浅层信息,得到第一多任务学习型生成式对抗网络,第一多任务学习型生成式对抗网络的多个生成式对抗网络对同一图片对象的不同类型图像进行特征识别和重建,且通过共享浅层信息,在重建图片过程中不断为目标重建图片提供额外的细节信息,重现细节并在一定程度上降低了细节畸变,最后,标准剂量PET图片作为输入模态对应的标签图片,结合第一多任务学习型对抗生成网络,设计联合损失函数,并结合优化器对第一多任务学习型对抗生成网络进行训练,得到用于重建低剂量PET图片的第二多任务学习型生成式对抗网络,从而有助于改善重建的低剂量PET图像信噪比低以及丢失细节的问题。
可选的,所述设计用于提高成像质量的联合损失函数的具体方法包括,以标准剂量PET图片作为输入模态对应的标签图片;
采用L1型损失函数对第一多任务学习型生成式对抗网络的图片生成器进行参数估计,采用交叉熵损失函数对第一多任务学习型生成式对抗网络的判别器进行参数估计,得到图片生成器输出结果与标签图片之间的损失函数lL1以及判别器的损失函数lGAN;以及,
结合各个生成式对抗网络的损失函数lL1和损失函数lGAN,得到联合损失函数l。
通过采用上述技术方案,以标准剂量PET图片作为输入模态对应的标签图片,得到L1型损失函数度量出的图片生成器输出结果与标签图片的差距即损失函数lL1和交叉熵损失函数度量出的输出结果与标签图片的差距即损失函数lGAN,对同一个输出结果多次度量差距,再结合损失函数lL1和损失函数lGAN两个损失函数,得到第一多任务学习型的联合损失函数l,有助于提高重建图片(输出图像)的质量。
可选的,所述得到联合损失函数l的具体方法包括,
将单个生成式对抗网络的损失函数lL1和损失函数lGAN相加,得到损失函数输出;以及,
将第一多任务学习型生成式对抗网络的各个生成式对抗网络的损失函数输出相加,得到第一多任务学习型生成式对抗网络的联合损失函数l。。
通过采用上述技术方案,将损失函数lL1和损失函数lGAN相加,能够更充分地估计输出结果(重建图片)与标签图片之间的差距,从而有助于进一步改善重建的低剂量PET图像信噪比低以及丢失细节的问题。
可选的,所述得到联合损失函数l的具体方法包括,
根据所述联合损失函数l,结合优化器,对所述第一多任务学习型生成式对抗网络进行训练;以及,
当第一多任务学习型生成式对抗网络达到收敛状态时,收敛状态的第一多任务学习型生成式对抗网络的多个并行学习的图片生成器为第二多任务学习型生成式对抗网络。
通过采用上述技术方案,根据联合损失函数l,结合优化器进行训练,直到第一多任务学习生成式对抗网络收敛,此时,收敛状态的第一多任务学习型生成式对抗网络的多个并行学习的图片生成器即为第二多任务学习型生成式对抗网络,使得第二多任务学习型生成式对抗网络能够稳定地进行图片重建,以得到需求的PET图像。
可选的,所述判别器包括多组卷积和LearkyReLU激活函数,其中,卷积核的大小为3×3。
可选的,所述编码器和解码器均包括多个基本块,所述基本块包括卷积、批归一化、丢包和LearkyReLU激活函数。
第二方面,本申请提供一种用于低剂量PET重建的多任务学习型生成式对抗网络生成***,采用如下的技术方案:
一种用于低剂量PET重建的多任务学习型生成式对抗网络生成***,所述生成***包括,
图像生成器获取模块,用于基于编码器和解码器,对编码器和解码器各层之间采用跳跃连接,得到U-Net型的图片生成器;
生成式对抗网络组生成模块,用于将多个图片生成器和多个判别器一一对应得到一组生成式对抗网络生成组,所述多个图片生成器均以输入模态作为条件输入,以生成需求PET图像作为学习目标,所述多个判别器均以对应图片生成器的输入模态、输入模态对应的标签图片以及输出结果作为输入,得到一个生成式对抗网络组;其中,每组生成式对抗网络中,输入模态至少包括同一图片对象的低剂量PET图像和MR图像两类图像;
第一多任务学习型生成式对抗网络获取模块,用于将所述生成式对抗网络组中的多个生成式对抗网络并行学习,且各个生成式对抗网络的图片生成器共享浅层信息,得到第一多任务学习型生成式对抗网络;
联合损失函数获取模块,用于以标准剂量PET图片作为输入模态对应的标签图片,采用L1型损失函数和交叉熵损失函数对第一多任务学习型生成式对抗网络进行参数估计,根据各个图片生成器的输出结果、标签图片和判别器输出结果,设计用于提高成像质量的联合损失函数l;以及,
第二多任务学习型生成式对抗网络获取模块,用于根据所述联合损失函数l,结合优化器,对所述第一多任务学习型生成式对抗网络进行训练,得到第二多任务学习型生成式对抗网络。
通过采用上述技术方案,图片生成器获取模块得到能够进行特征提取和图像重建的图片生成器,生成式对抗网络组生成模块得到包括多个生成式对抗网络的生成式对抗网络组,使得判别器能够对图片生成器的输出结果进行判断,从而在图片重建过程中,能够大幅度提高低维和高维信息的重复利用以及局部和非局部信息的融合,从而增强传统卷积操作的性能,能够在较大程度上消除重建图片的噪声,第一多任务学习型生成式对抗网络获取模块将生成式对抗网络组的多个图像生成器并行学习且共享浅层信息,得到第一多任务学习型生成式对抗网络,在重建图片过程中不断为目标重建图片提供额外的细节信息,重现细节并在一定程度上降低了细节畸变,联合损失函数获取模块以标准剂量PET图片作为输入模态对应的标签图片,并对第一多任务学习型生成式对抗网络采用L1型损失函数,来设计联合损失函数l,第二多任务学习型生成式对抗网络获取模块根据联合损失函数l,并结合优化器训练第一多任务学习生成式对抗网络,得到用于重建低剂量PET图片的第二多任务学习型生成式对抗网络,从而能够改善重建的低剂量PET图像信噪比低以及丢失细节的问题。
可选的,所述联合损失函数获取模块具体包括,
参数设计子模块,用于以标准剂量PET图片作为输入模态对应的标签图片;
损失函数获取子模块,用于采用L1型损失函数对第一多任务学习型生成式对抗网络的图片生成器进行参数估计,采用交叉熵损失函数对第一多任务学习型生成式对抗网络的判别器进行参数估计,得到图片生成器输出结果与标签图片之间的损失函数lL1以及判别器的损失函数lGAN;以及
联合损失函数获取子模块,用于结合各个生成式对抗网络的损失函数lL1和损失函数lGAN,得到联合损失函数l。
通过采用上述技术方案,参数设计子模块将标准剂量PET图片作为输入模态对应的标签图片,损失函数获取子模块得到L1型损失函数量出的图片生成器输出结果与标签图片的差距即损失函数lL1和交叉熵损失函数度量出的输出结果与标签图片的差距即损失函数lGAN,对同一个输出结果多次度量差距,联合损失函数获取子模块再结合损失函数lL1和损失函数lGAN两个损失函数,得到第一多任务学习型的联合损失函数l,从而便于得到联合损失函数l,进而有助于改善重建的低剂量PET图像信噪比低以及丢失细节的问题。
第三方面,本申请提供一种计算设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面中的任一种方法。
第四方面,本申请提供一种计算机可读存储介质,存储有能够被处理器加载并执行如第一方面中任一种方法的计算机程序。
附图说明
图1是本申请实施例的用于低剂量PET重建的多任务学习型生成式对抗网络生成方法的第一流程图。
图2是本申请实施例的生成式对抗网络的结构示意图。
图3是本申请实施例的第一多任务学习型生成式对抗网络的第一结构示意图。
图4是本申请实施例的用于低剂量PET重建的多任务学习型生成式对抗网络生成方法的第二流程图。
图5是本申请实施例的第一多任务学习型生成式对抗网络的第二结构示意图。
图6是用本申请实施例的第二多任务学习型生成式对抗网络生成的PET图片与其它方法生成的PET图片的对比图。
具体实施方式
以下结合附图1-6对本申请作进一步详细说明。
Kevin T.Chen等人于2019年在Radiology期刊上发表文章“Ultra–Low-Dose 18F-Florbetaben Amyloid PET Imaging Using Deep Learning with Multi-Contrast MRIInputs”,成功将多个模态的MR图像(T1,T2,T2FLAIR)以运用于低剂量PET去噪,其使用了U-net结构的编码-解码器,三个模态的MR图像加上低剂量的PET图像作为不同的输入通道加入到同一个编码器中。每层编码器部分在输入横截面上执行二维卷积(使用3×3的卷积核),并完成批归一化和整流线性单元激活操作,一个2×2的最大池用于减少数据的维数。解码器部分将编码器层中的数据与解码器层中的数据堆积起来(即U-Net结构),并执行线性插值可将数据恢复到到原始尺寸输出,网络以对应的标准剂量PET图片作为标签进行训练,得到最终去噪后的PET图像。
Ryohei Kuga等人于2017年在IEEE国际计算机视觉会议上发表的“Multi-taskLearning using Multi-modal Encoder-Decoder Networks with Shared SkipConnections”,成功将多任务学习运用于场景理解领域。他们提出的多模式编码器-解码器网络利用多任务的多模式性质来进行场景识别。他们的编码-解码器是采用的U-Net结构,输入来自于具有相互关联的不同模态图片,除了编码器/解码器对之间共享的潜在表示外,多模式编码器-解码器网络模型共享来自不同编码器的跳跃连接。通过结合这两种表示共享机制,整个网络经过多任务损失联合训练,有效地学习了训练数据中所有模态之间的共享特征表示。
最近,集成式PET/MRI扫描仪的发展为基于算法的图像质量改进方法提供了更多机会,尤其是对于卷积神经网络(CNN)等深度学习方法。因为PET/MRI扫描仪可在单个扫描会话中同时获取结构和功能信息,更多信息可用于推动基于学习的方法,从而提高图像质量。MR图像在软组织之间显示出很高的对比度,因此,MR图像可以提供软组织结构信息以指导PET降噪。其中,MRI指磁共振成像。
生成式对抗网络(GAN,Generative Adversarial Networks),又称生成式对抗网络,是一种深度学习模型。模型通过框架中(至少)两个模块,生成模型和判别模型的互相博弈学习产生相当好的输出。
本申请中,标准剂量PET图像(图片),是指可以满足临床诊断需要的PET图像(图片),反之,不满足临床诊断需要的PET图像(图片)就是低剂量图片。标准剂量与低剂量,会因为个体差异以及药物差异,而存在不同,且不同地区对满足临床诊断需求的标准可能也会有所差异。但需要说明的是,不同使用者会有不同的需求及标准,因此根据使用者的需求及标准来设定即可。
本申请实施例公开一种用于低剂量PET重建的多任务学习型生成式对抗网络生成方法。参照图1和图2,生成方法包括如下步骤:
101、基于编码器和解码器,对编码器和解码器各层之间采用跳跃连接,得到U-Net型的图片生成器。
其中,图片生成器用于特征提取和图像重建。编码器和解码器均包括基本块,基本块包括卷积(4×4的滤波器)、批归一化、丢包和激活层(LearkyReLU)。对于编码器和解码器,每个都有7个组件,它们的结构均以上述基本块的形式出现。编码器(特征提取网络)对输入的图像进行特征提取,解码器(图像重建网络)对提取到的特征进行重建。在这样的网络中,通过设置步长为2的卷积来实现下采样层,输入的图像将通过一系列逐层递减采样的层,直到成为瓶颈层为止,到了瓶颈层,先前的过程将被逆转。即,编码器和解码器要求所有信息都经过包括瓶颈在内的所有层,为了在一定程度上使图片生成器避免此类信息的瓶颈,因此按照“U-Net”的一般形状添加了跳越连接。
基本块,是指程序-顺序执行的语句序列。
102、多个图片生成器和多个判别器一一对应得到一组生成式对抗网络生成组,多个图片生成器均以输入模态作为条件输入,以生成需求PET图像作为学习目标,多个判别器均以对应图片生成器的输入模态、输入模态对应的标签图片以及输出结果作为输入,得到一个生成式对抗网络组。
其中,每组生成式对抗网络组中,图片生成器的输入模态至少包括同一图片对象的低剂量PET图像和MR图像两类图像。当输入模态为低剂量PET图像和MR图像时,低剂量PET图像为一个图片生成器的输入,同时MR图像是另一个图片生成器的输入。
学习目标即为输出结果。作为判别器的一种实施方式,判别器包括六组卷积和LearkyReLU激活函数,其中,卷积核的大小为3×3,判别器的最后是两个卷积层,且卷积的步长设置为2,来实现下采样层。判别器用于判断图片生成器的输出结果(生成图像)的真假,判别器和图片生成器共同训练共同进步,逐步使得图片生成器生成的图像能够越来越精确。图片生成器和判别器都以输入模态为条件输入,能够使重建图片取得更好的效果。
需要说明的是,需求PET图像由使用者根据自己实际需求而进行设定,且设定需求PET图片时,可通过设定需求PET图片的信噪比、与标签图片之间的误差、与标签图片的相似度等指标来进行设定,且指标包括但不限于需求PET图片的信噪比、与标签图片之间的误差、与标签图片的相似度。
103、生成式对抗网络组中的多个生成式对抗网络并行学习,且各个生成式对抗网络的图片生成器共享浅层信息,得到第一多任务学习型生成式对抗网络。
其中,并行学习指的是采用多任务学习,即可以理解为对图片生成器的参数进行优化的过程。通过共享相关任务之间的表征,可以使模型更好地概括原始任务,这种方法就称为多任务学习。多任务学习是通过使用包含在相关任务的监督信号中的领域知识来改善泛化性能。因此,第一多任务学习型生成式对抗网络工作的过程中,通过并行学习对图片生成器的参数进行优化。
参照图3,需要说明的是,本实施方式中,第一多任务学习型生成式对抗网络包括三个独立的生成式对抗网络(独立任务),即生成式对抗网络组中包括三个生成式对抗网络,图片生成器的编码器和解码器均与信息共享层进行通信。一组编码器-信息共享层-解码器组成一个单独通道,每个单独通道主要使用图片生成器来进行图片的重建。所有的图片生成器通过信息共享层共享浅层信息。
所有编码器/解码器对都通过信息共享层连接在一起,将X∈{xi,xs,xd}作为每个编码器的输入模态,将E∈{Ei,Es,Ed}表示编码器的结构,因此可以得到每个编码器的输出r,也即为信息共享层的表示,r∈{Ei(xi),Es(xs),Ed(xd)}。来自所有编码器的r具有相同的形状C×H×W(其中C,H,W分别代表通道的数目,高度,宽度),定义解码器结构为D∈{Di,Ds,Dd},则输出y∈{Di(r),Ds(r),Dd(r)}。编码器和解码器之间的信息共享层在不同模态之间没有区别,例如,编码器输出会被馈送到所有解码器中,并且同时每个解码器必须能够解码任意一个信息共享层中的编码器输出。换句话说,所有编码器/解码器对共享信息共享层。
104、以标准剂量PET图片作为输入模态对应的标签图片,采用L1型损失函数和交叉熵损失函数对第一多任务学习型生成式对抗网络进行参数估计,根据各个图片生成器的输出结果、标签图片和判别器输出结果,设计用于提高成像质量的联合损失函数l。
不同模态的成组图片(本实施方式中,模态1、模态2和模态3对应于同一图片对象成组的低剂量PET图像、MR图像和其它图像)将作为各个独立任务(生成式对抗网络)的条件输入,其中,其它图像可以是PET和MR的融合图像。成组图片相互关联,即为通过不同获取图像方式获取的同一物体的图片。
需要说明的是,从本质上来说,生成式对抗网络(GAN)是一种特殊的损失函数,通过判别模型和生成判别模型的博弈学习不断逼近神经网络。L1型损失函数,L1范数损失函数,也被称为最小绝对值偏差(LAD),最小对绝对值误差(LAE),是将目标值与估计量的绝对差值总和最小化。交叉熵(Cross Entropy)是Shannon信息论中一个重要概念,主要用于度量两个概率分布间的差异性信息,交叉熵可在神经网络(机器学习)中作为损失函数。
105、根据所述联合损失函数l,结合优化器,对第一多任务学习型生成式对抗网络进行训练,得到第二多任务学习型生成式对抗网络。
需要说明的是,用相同图片对象的成组图片或不同图片对象的成对图片作为输入模态,结合优化器和联合损失函数l不断对第一多任务学***稳,几乎不再波动,此时,收敛状态的第一多任务学习型生成式对抗网络的多个并行学习的图片生成器即为第二多任务学习型生成式对抗网络,且多个并行学习的图片生成器共享浅层信息。
在其他实施方式中,当第一多任务学习型生成式对抗网络达到指定训练轮次时,也能得到第二多任务学习型生成式对抗网络。
优化器可以是Adam优化器、动量优化器等优化器。
上述用于低剂量PET重建的多任务学习型生成式对抗网络生成方法的实施方式中,生成式对抗网络的图片生成器的编码器进行图片特征的提取,解码器根据编码器提取的图片特征进行图像重建,得到重建的图片,判别器对生成器输出的重建图片进行判别,判断图片的真假,从而在图片重建过程中,能够大幅度提高低维和高维信息的重复利用以及局部和非局部信息的融合,从而增强传统卷积操作的性能,能够在较大程度上消除重建图片的噪声,而生成式对抗网络组的多个图像生成器并行学习且共享浅层信息,得到第一多任务学习型生成式对抗网络,第一多任务学习型生成式对抗网络的多个生成式对抗网络对同一图片对象的不同类型图像进行特征识别和重建,且通过共享浅层信息,在重建图片过程中不断为目标重建图片提供额外的细节信息,重现细节并在一定程度上降低了细节畸变,最后,标准剂量PET图片作为输入模态对应的标签图片,结合第一多任务学习型对抗生成网络,设计联合损失函数,并结合优化器对第一多任务学习型对抗生成网络进行训练,得到用于重建低剂量PET图片的第二多任务学习型生成式对抗网络,从而有助于改善重建的低剂量PET图像信噪比低以及丢失细节的问题。
参照图4和图5,作为设计联合损失函数l的一种实施方式,包括如下步骤:
1041、以标准剂量PET图片作为输入模态对应的标签图片。
需要说明的是,同一图片对象的包括但不少于低剂量PET图片和MR图两类图片作为不同图片生成器的输入模态。
1042、采用L1型损失函数对第一多任务学习型生成式对抗网络的图片生成器进行参数估计,采用交叉熵损失函数对第一多任务学习型生成式对抗网络的判别器进行参数估计,得到图片生成器输出结果与标签图片之间的损失函数lL1以及判别器的损失函数lGAN
需要说明的是,第一多任务学习型生成式对抗网络中的每个生成式对抗网络都得到损失函数lL1和损失函数lGAN
在本实施方式中,第一多任务学习型生成式对抗网络是一个三模态输入(X1,X2,X3),单目标(Y)的多任务学习网络,同时单目标(Y)也是标签图片。所以需要训练3×1个网络,并且这3×1个网络将共享损失函数的形式同时训练。因为每个单独的生成式对抗网络都包括一个一个带L1型损失函数的生成式对抗型学习网络(G,D)(L1型损失函数可以用来学习图像低维特征,而GAN损失函数可以用来更好的学习图像高维特征)。
因此,单个的对抗生成网络可以得到两个单独的损失函数lL1和lGAN。其中,
lGAN(G,D)=Ex,y[logD(x,y)]+Ex[log(1-D(x,D(x,G(x)))] (1),
lL1(G)=Ex,y[‖y-G(x)‖1] (2),
其中,E(·)表示期望,‖g‖1表示L1的范数。x表示输入,即x∈(X1,X2,X3),y表示输出,即y为
Figure BDA0002828535050000151
1043、将单个生成式对抗网络的损失函数lL1和损失函数lGAN相加,得到单个生成式对抗网络的损失函数输出。
1044、将第一多任务学习型生成式对抗网络的各个生成式对抗网络的损失函数输出相加,得到第一多任务学习型生成式对抗网络的联合损失函数l。
其中,
l=λ111lGAN(G,D)+λ12lL1(G))+λ221lGAN(G,D)+λ22lL2(G))+λ331lGAN(G,D)+λ32lL3(G)) (3),
其中,λ1,λ2,λ3为第一多任务学习型生成式对抗网络中各生成式对抗网络的权重系数,λ11,λ12,λ21,λ22,λ31,λ32为各生成式对抗网络中对应损失函数的权重系数,并且在训练过程,可以根据不同任务的重要程度设置各网络损失函数的参与权重,如设置主次任务。λ111lGAN(G,D)+λ12lL1(G))是第一个生成式对抗网络的损失函数输出,λ221lGAN(G,D)+λ22lL2(G))是第二个生成式对抗网络的损失函数输出,λ331lGAN(G,D)+λ32lL3(G))是第三个生成式对抗网络的损失函数输出。
在测试阶段可以使用任意一个任务通道训练得到的生成器网络(G1,G2,G3)或选用其中效果最佳的网络来实现图像重建功能。
上述设计联合损失函数l的实施方式中,将损失函数lL1和损失函数lGAN相加,能够更充分地估计输出结果(重建图片)与标签图片之间的差距,从而有助于进一步改善重建的低剂量PET图像信噪比低以及丢失细节的问题。
需要说明的是,第一多任务学习型生成式对抗网络中的多任务学习网络的框架不局限于三个生成式对抗网络(大于等于两个),且多任务学习框架下的对抗生成网络可以用其他类型网络(如循环神经网络、深度信念网络、深度强化学习、卷积神经网络等)来替代,或者可以将其他类型网络混合使用。生成的第一多任务学习型生成式对抗网络经过适当的训练变化后,可以应用于其他类型医学图像(MR图像、CT图像等)降噪。除应用于降噪外,该方法经过适当更改后,也可应用于图像分割,图像分类和场景识别。
参照图6,在实际测试过程中,对于同一张原始的低剂量PET图片,将使用U-Net网络模型的方法得到的PET重建图片、使用pix2pix的方法得到的PET重建图片和本申请中第二多任务学习型生成式对抗网络得到的PET重建图片进行对比。其中,(a)是原始的低剂量PET图片,峰值信噪比(PSNR)为20.2dB,NCC为97.8%,结构相似性(SSIM)为65.8%。(b)是使用U-Net网络模型的方法得到的PET重建图片,峰值信噪比(PSNR)为26.8dB,NCC为98.7%,SSIM为95.7%。(c)是使用pix2pix的方法得到的PET重建图片,峰值信噪比(PSNR)为27.5dB,NCC为98.4%,SSIM为96.4%。(d)是使用本申请中第二多任务学习型生成式对抗网络得到的PET重建图片,峰值信噪比(PSNR)为29.3dB,NCC为98.7%,SSIM为98.7%。(e)是标准剂量PET图片。可以得出,使用本申请得到的第二多任务学习型生成式对抗网络重建低剂量PET图片的方法可以有效提高图像的峰值信噪比和结构相似度,同时,可以在一定程度上更好地恢复图像细节信息。
在本申请中,通过带有条件输入的生成式对抗网络,能够帮助恢复低剂量PET成像的细节,从而提升其图像质量。
本申请实施例还公开了一种用于低剂量PET重建的多任务学习型生成式对抗网络生成***,生成***包括,
图像生成器获取模块,用于基于编码器和解码器,对编码器和解码器各层之间采用跳跃连接,得到U-Net型的图片生成器。
生成式对抗网络组生成模块,用于将多个图片生成器和多个判别器一一对应得到一组生成式对抗网络生成组,多个图片生成器均以输入模态作为条件输入,以生成需求PET图像作为学习目标,多个判别器均以对应图片生成器的输入模态、输入模态对应的标签图片以及输出结果作为输入,得到一个生成式对抗网络组。其中,每组生成式对抗网络组中,输入模态至少包括同一图片对象的低剂量PET图像和MR图像两类图像。
第一多任务学习型生成式对抗网络获取模块,用于将生成式对抗网络组中的多个生成式对抗网络并行学习,且各个生成式对抗网络的图片生成器共享浅层信息,得到第一多任务学习型生成式对抗网络。
联合损失函数获取模块,用于以标准剂量PET图片作为输入模态对应的标签图片,采用L1型损失函数和交叉熵损失函数对第一多任务学习型生成式对抗网络进行参数估计,根据各个图片生成器的输出结果、标签图片和判别器输出结果,设计用于提高成像质量的联合损失函数l。
第二多任务学习型生成式对抗网络获取模块,用于根据所述联合损失函数l,结合优化器,对第一多任务学习型生成式对抗网络进行训练,得到第二多任务学习型生成式对抗网络。
上述的实施方式中,图片生成器获取模块得到能够进行特征提取和图像重建的图片生成器,生成式对抗网络组生成模块得到包括多个生成式对抗网络的生成式对抗网络组,使得判别器能够对图片生成器的输出结果进行判断,从而在图片重建过程中,能够大幅度提高低维和高维信息的重复利用以及局部和非局部信息的融合,从而增强传统卷积操作的性能,能够在较大程度上消除重建图片的噪声,第一多任务学习型生成式对抗网络获取模块将生成式对抗网络组的多个图像生成器并行学习且共享浅层信息,得到第一多任务学习型生成式对抗网络,在重建图片过程中不断为目标重建图片提供额外的细节信息,重现细节并在一定程度上降低了细节畸变,联合损失函数获取模块以标准剂量PET图片作为输入模态对应的标签图片,并对第一多任务学习型生成式对抗网络采用L1型损失函数和交叉熵损失函数,来设计联合损失函数l,第二多任务学习型生成式对抗网络获取模块根据联合损失函数l,并结合优化器训练第一多任务学习生成式对抗网络,得到用于重建低剂量PET图片的第二多任务学习型生成式对抗网络,从而能够改善重建的低剂量PET图像信噪比低以及丢失细节的问题。
作为联合损失函数获取模块的一种实施方式,联合损失函数获取模块包括,
参数设计子模块,用于以标准剂量PET图片作为输入模态对应的标签图片。
损失函数获取子模块,用于采用L1型损失函数对第一多任务学习型生成式对抗网络的图片生成器进行参数估计,采用交叉熵损失函数对第一多任务学习型生成式对抗网络的判别器进行参数估计,得到图片生成器输出结果与标签图片之间的损失函数lL1以及判别器的损失函数lGAN
联合损失函数获取子模块,用于结合各个生成式对抗网络的损失函数lL1和损失函数lGAN,得到联合损失函数l。
上述联合损失函数获取模块的实施方式中,参数设计子模块将标准剂量PET图片作为输入模态对应的标签图片,损失函数获取子模块得到L1型损失函数度量出的图片生成器输出结果与标签图片的差距即损失函数lL1和交叉熵损失函数度量出的输出结果与标签图片的差距即损失函数lGAN,对同一个输出结果多次度量差距,联合损失函数获取子模块再结合损失函数lL1和损失函数lGAN两个损失函数,得到第一多任务学习型的联合损失函数l,从而便于得到联合损失函数l,进而有助于改善重建的低剂量PET图像信噪比低以及丢失细节的问题。
本申请实施例还公开一种计算设备,包括存储器、处理器以及存储在存储器中并可在所述处理器上运行的计算机程序,处理器执行计算机程序时实现如用于低剂量PET重建的多任务学习型生成式对抗网络生成方法中的任一种方法。
本申请实施例还公开一种计算机可读存储介质,存储有能够被处理器加载并执行如用于低剂量PET重建的多任务学习型生成式对抗网络生成方法中任一种方法的计算机程序。计算设备可以为个人计算机、服务器等。
计算机可读存储介质例如包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。

Claims (10)

1.一种用于低剂量PET重建的多任务学习型生成式对抗网络生成方法,其特征在于:所述生成方法包括,
基于编码器和解码器,对编码器和解码器各层之间采用跳跃连接,得到U-Net型的图片生成器;
生成式对抗网络组生成,多个图片生成器和多个判别器一一对应得到一组生成式对抗网络生成组,所述多个图片生成器均以输入模态作为条件输入,以生成需求PET图像作为学习目标,所述多个判别器均以对应图片生成器的输入模态、输入模态对应的标签图片以及输出结果作为输入,得到一个生成式对抗网络组;其中,每组生成式对抗网络组中,输入模态至少包括同一图片对象的低剂量PET图像和MR图像两类图像;
所述生成式对抗网络组中的多个生成式对抗网络并行学习,且各个生成式对抗网络的图片生成器共享浅层信息,得到第一多任务学习型生成式对抗网络;
以标准剂量PET图片作为输入模态对应的标签图片,采用L1型损失函数和交叉熵损失函数对第一多任务学习型生成式对抗网络进行参数估计,根据各个图片生成器的输出结果、标签图片和判别器输出结果,设计用于提高成像质量的联合损失函数l;以及,
根据所述联合损失函数l,结合优化器,对所述第一多任务学习型生成式对抗网络进行训练,得到第二多任务学习型生成式对抗网络。
2.根据权利要求1所述的用于低剂量PET重建的多任务学习型生成式对抗网络生成方法,其特征在于:所述设计用于提高成像质量的联合损失函数的具体方法包括,
以标准剂量PET图片作为输入模态对应的标签图片;
采用L1型损失函数对第一多任务学习型生成式对抗网络的图片生成器进行参数估计,采用交叉熵损失函数对第一多任务学习型生成式对抗网络的判别器进行参数估计,得到图片生成器输出结果与标签图片之间的损失函数lL1以及判别器的损失函数lGAN;以及,
结合各个生成式对抗网络的损失函数lL1和损失函数lGAN,得到联合损失函数l。
3.根据权利要求2所述的用于低剂量PET重建的多任务学习型生成式对抗网络生成方法,其特征在于:所述得到联合损失函数l的具体方法包括,
将单个生成式对抗网络的损失函数lL1和损失函数lGAN相加,得到损失函数输出;以及,
将第一多任务学习型生成式对抗网络的各个生成式对抗网络的损失函数输出相加,得到第一多任务学习型生成式对抗网络的联合损失函数l。
4.根据权利要求1至3中任一项所述的用于低剂量PET重建的多任务学习型生成式对抗网络生成方法,其特征在于:所述得到第二多任务学习型生成式对抗网络的具体方法包括,
根据所述联合损失函数l,结合优化器,对所述第一多任务学习型生成式对抗网络进行训练;以及,
当第一多任务学习型生成式对抗网络达到收敛状态时,收敛状态的第一多任务学习型生成式对抗网络的多个并行学习的图片生成器为第二多任务学习型生成式对抗网络。
5.根据权利要求1所述的用于低剂量PET重建的多任务学习型生成式对抗网络生成方法,其特征在于:所述判别器包括多组卷积和LearkyReLU激活函数,其中,卷积核的大小为3×3。
6.根据权利要求1所述的用于低剂量PET重建的多任务学习型生成式对抗网络生成方法,其特征在于:所述编码器和解码器均包括多个基本块,所述基本块包括卷积、批归一化、丢包和LearkyReLU激活函数。
7.一种用于低剂量PET重建的多任务学习型生成式对抗网络生成***,其特征在于:所述生成***包括,
图像生成器获取模块,用于基于编码器和解码器,对编码器和解码器各层之间采用跳跃连接,得到U-Net型的图片生成器;
生成式对抗网络组生成模块,用于将多个图片生成器和多个判别器一一对应得到一组生成式对抗网络生成组,所述多个图片生成器均以输入模态作为条件输入,以生成需求PET图像作为学习目标,所述多个判别器均以对应图片生成器的输入模态、输入模态对应的标签图片以及输出结果作为输入,得到一个生成式对抗网络组;其中,每组生成式对抗网络组中,输入模态至少包括同一图片对象的低剂量PET图像和MR图像两类图像;
第一多任务学习型生成式对抗网络获取模块,用于将所述生成式对抗网络组中的多个生成式对抗网络并行学习,且各个生成式对抗网络的图片生成器共享浅层信息,得到第一多任务学习型生成式对抗网络;
联合损失函数获取模块,用于以标准剂量PET图片作为输入模态对应的标签图片,采用L1型损失函数和交叉熵损失函数对第一多任务学习型生成式对抗网络进行参数估计,根据各个图片生成器的输出结果、标签图片和判别器输出结果,设计用于提高成像质量的联合损失函数l;以及,
第二多任务学习型生成式对抗网络获取模块,用于根据所述联合损失函数l,结合优化器,对所述第一多任务学习型生成式对抗网络进行训练,得到第二多任务学习型生成式对抗网络。
8.根据权利要求7所述的用于低剂量PET重建的多任务学习型生成式对抗网络生成***,其特征在于:所述联合损失函数获取模块具体包括,
参数设计子模块,用于以标准剂量PET图片作为输入模态对应的标签图片;
损失函数获取子模块,用于采用L1型损失函数对第一多任务学习型生成式对抗网络的图片生成器进行参数估计,采用交叉熵损失函数对第一多任务学习型生成式对抗网络的判别器进行参数估计,得到图片生成器输出结果与标签图片之间的损失函数lL1以及判别器的损失函数lGAN;以及
联合损失函数获取子模块,用于结合各个生成式对抗网络的损失函数lL1和损失函数lGAN,得到联合损失函数l。
9.一种计算设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于:所述处理器执行所述计算机程序时实现如权利要求1至6中的任一种方法。
10.一种计算机可读存储介质,其特征在于:存储有能够被处理器加载并执行如权利要求1至6中任一种方法的计算机程序。
CN202011455292.XA 2020-12-10 2020-12-10 用于低剂量pet重建的多任务学习型生成式对抗网络生成方法及*** Pending CN112508175A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011455292.XA CN112508175A (zh) 2020-12-10 2020-12-10 用于低剂量pet重建的多任务学习型生成式对抗网络生成方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011455292.XA CN112508175A (zh) 2020-12-10 2020-12-10 用于低剂量pet重建的多任务学习型生成式对抗网络生成方法及***

Publications (1)

Publication Number Publication Date
CN112508175A true CN112508175A (zh) 2021-03-16

Family

ID=74973424

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011455292.XA Pending CN112508175A (zh) 2020-12-10 2020-12-10 用于低剂量pet重建的多任务学习型生成式对抗网络生成方法及***

Country Status (1)

Country Link
CN (1) CN112508175A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113052840A (zh) * 2021-04-30 2021-06-29 江苏赛诺格兰医疗科技有限公司 一种基于低信噪比pet图像的处理方法
CN113298807A (zh) * 2021-06-22 2021-08-24 北京航空航天大学 一种计算机断层扫描图像处理方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109063724A (zh) * 2018-06-12 2018-12-21 中国科学院深圳先进技术研究院 一种增强型生成式对抗网络以及目标样本识别方法
US20190333219A1 (en) * 2018-04-26 2019-10-31 Elekta, Inc. Cone-beam ct image enhancement using generative adversarial networks
CN110428476A (zh) * 2019-07-05 2019-11-08 广东省人民医院(广东省医学科学院) 一种基于多循环生成式对抗网络的图像转换方法及装置
CN110580695A (zh) * 2019-08-07 2019-12-17 深圳先进技术研究院 一种多模态三维医学影像融合方法、***及电子设备
CN110598843A (zh) * 2019-07-23 2019-12-20 中国人民解放军63880部队 一种基于判别器共享的生成对抗网络组织结构及其训练方法
CN111311702A (zh) * 2020-01-15 2020-06-19 浙江传媒学院 一种基于BlockGAN的图像生成和识别模块及方法
CN111950725A (zh) * 2019-05-14 2020-11-17 罗伯特·博世有限公司 用于训练生成器神经网络的训练***

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190333219A1 (en) * 2018-04-26 2019-10-31 Elekta, Inc. Cone-beam ct image enhancement using generative adversarial networks
CN109063724A (zh) * 2018-06-12 2018-12-21 中国科学院深圳先进技术研究院 一种增强型生成式对抗网络以及目标样本识别方法
CN111950725A (zh) * 2019-05-14 2020-11-17 罗伯特·博世有限公司 用于训练生成器神经网络的训练***
CN110428476A (zh) * 2019-07-05 2019-11-08 广东省人民医院(广东省医学科学院) 一种基于多循环生成式对抗网络的图像转换方法及装置
CN110598843A (zh) * 2019-07-23 2019-12-20 中国人民解放军63880部队 一种基于判别器共享的生成对抗网络组织结构及其训练方法
CN110580695A (zh) * 2019-08-07 2019-12-17 深圳先进技术研究院 一种多模态三维医学影像融合方法、***及电子设备
CN111311702A (zh) * 2020-01-15 2020-06-19 浙江传媒学院 一种基于BlockGAN的图像生成和识别模块及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HUANG ETC.: "CaGAN: A Cycle-Consistent Generative Adversarial Network With Attention for Low-Dose CT Imaging", IEEE TRANSACTIONS ON COMPUTATIONAL IMAGING, 10 August 2020 (2020-08-10), pages 2 - 3 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113052840A (zh) * 2021-04-30 2021-06-29 江苏赛诺格兰医疗科技有限公司 一种基于低信噪比pet图像的处理方法
CN113052840B (zh) * 2021-04-30 2024-02-02 江苏赛诺格兰医疗科技有限公司 一种基于低信噪比pet图像的处理方法
CN113298807A (zh) * 2021-06-22 2021-08-24 北京航空航天大学 一种计算机断层扫描图像处理方法及装置

Similar Documents

Publication Publication Date Title
Özbey et al. Unsupervised medical image translation with adversarial diffusion models
Ouyang et al. Ultra‐low‐dose PET reconstruction using generative adversarial network with feature matching and task‐specific perceptual loss
US11756161B2 (en) Method and system for generating multi-task learning-type generative adversarial network for low-dose PET reconstruction
Cai et al. Deep adversarial learning for multi-modality missing data completion
CN110559009B (zh) 基于gan的多模态低剂量ct转换高剂量ct的方法
CN112819914B (zh) 一种pet图像处理方法
CN112508175A (zh) 用于低剂量pet重建的多任务学习型生成式对抗网络生成方法及***
Ramezani et al. Joint sparse representation of brain activity patterns in multi-task fMRI data
Sanaat et al. Fast dynamic brain PET imaging using stochastic variational prediction for recurrent frame generation
Ramon et al. Initial investigation of low-dose SPECT-MPI via deep learning
Xiao et al. STIR-net: deep spatial-temporal image restoration net for radiation reduction in CT perfusion
Singh et al. Medical image generation using generative adversarial networks
CN113808106A (zh) 一种基于深度学习的超低剂量pet图像重建***及方法
Tiago et al. A domain translation framework with an adversarial denoising diffusion model to generate synthetic datasets of echocardiography images
Zuo et al. HACA3: A unified approach for multi-site MR image harmonization
Poonkodi et al. 3D-MedTranCSGAN: 3D medical image transformation using CSGAN
Xie et al. Inpainting the metal artifact region in MRI images by using generative adversarial networks with gated convolution
US20220292641A1 (en) Dynamic imaging and motion artifact reduction through deep learning
Liu et al. A Lightweight Low-dose PET Image Super-resolution Reconstruction Method based on Convolutional Neural Network
CN112927318B (zh) 低剂量pet图像的降噪重建方法及计算机可读存储介质
Ichikawa et al. Acquisition time reduction in pediatric 99mTc‐DMSA planar imaging using deep learning
Ferrante et al. Through their eyes: multi-subject Brain Decoding with simple alignment techniques
Yousefi et al. ASL to PET translation by a semi-supervised residual-based attention-guided convolutional neural network
Xue et al. PET Synthesis via Self-supervised Adaptive Residual Estimation Generative Adversarial Network
Yin et al. Analysis of coronary angiography video interpolation methods to reduce x-ray exposure frequency based on deep learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination