CN109272443A - 一种基于全卷积神经网络的pet与ct图像配准方法 - Google Patents

一种基于全卷积神经网络的pet与ct图像配准方法 Download PDF

Info

Publication number
CN109272443A
CN109272443A CN201811160982.5A CN201811160982A CN109272443A CN 109272443 A CN109272443 A CN 109272443A CN 201811160982 A CN201811160982 A CN 201811160982A CN 109272443 A CN109272443 A CN 109272443A
Authority
CN
China
Prior art keywords
formula
pet
image
image block
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811160982.5A
Other languages
English (en)
Other versions
CN109272443B (zh
Inventor
姜慧研
康鸿健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northeastern University China
Original Assignee
Northeastern University China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeastern University China filed Critical Northeastern University China
Priority to CN201811160982.5A priority Critical patent/CN109272443B/zh
Publication of CN109272443A publication Critical patent/CN109272443A/zh
Application granted granted Critical
Publication of CN109272443B publication Critical patent/CN109272443B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明涉及一种基于全卷积神经网络的PET与CT图像配准方法;包括:获取待配准的PET与CT二维图像,通过尺寸预处理后获取待配准的PET与CT图像块并输入到预先训练的全卷积神经网络中,获取配准图像;其中,训练全卷积神经网络包括以下步骤:101、获取用于训练的PET和CT样本图像块;102、构建全卷积神经网络,获取形变场;103、通过形变场和PET图像块获取训练配准图像;104、获取总损失函数L,并通过L更新网络权重参数;105、遍历用于训练的PET和CT样本图像块,更新网络权重参数,获全卷积神经网络;本发明计算成本小,结合相似性度量和限制形变场平滑度,从而限制图像的过度形变,配准效率高。

Description

一种基于全卷积神经网络的PET与CT图像配准方法
技术领域
本发明属于医学图像配准领域,具体涉及一种基于全卷积神经网络的PET与CT图像配准方法。
背景技术
正电子断结构扫描(Positron Emission Computer Tomography,以下简称 PET)利用回旋加速器产生放射性同位素18F、13N,静脉注射后参与人体的新陈代谢。代谢率高的组织或病变,在PET上呈现明确的高代谢亮信号;代谢率低的组织或病变在PET上呈低代谢暗信号。计算机断结构扫描(Computed Tomography,以下简称CT)是用X线束对人体的某一部分按一定厚度的结构面进行扫描,当X线射向人体组织时,部分射线被组织吸收,部分射线穿过人体被检测器官接收,产生信号,能准确对图像进行定位。
PET/CT可以进行功能与解剖结构的同机图像融合,是影像医学的一个重要进展。多模态图像配准利用各种成像方式的特点,为不同的影像提供互补信息,增加图像信息量,有助于更全面地了解病变的性质及与周围解剖结构的关系,为临床诊断和治疗的定位提供有效的方法。
医学图像配准在许多医学图像处理任务中起着重要的作用。通常将图像配准制定为优化问题以寻求空间变换,该空间变换通过最大化图像之间的空间对应的替代度量(例如配准图像之间的图像强度相关性)来建立一对固定和移动图像之间的像素/体素对应。由于图像配准优化问题通常使用迭代优化算法来解决,所以传统的图像配准算法通常在计算上成本很高。与传统的图像配准算法不同,基于深度学习的图像配准算法将图像配准定义为多输出回归问题,预测来自一对图像的像素/体素之间的空间关系。训练后的预测模型可以应用于像素/体素级别的图像以实现整体图像配准。
目前,基于全卷积网络(Fully Convolutional Networks以下简称FCN)的体素到体素的学习是Hongming Li等人提出的图像配准方法。通过最大化图像对的相似性度量训练FCN来估计用于配准图像的体素到体素空间变换。为了解决图像之间潜在的较大形变,采用多分辨率策略来联合优化和学习不同分辨率下的空间变换;而以往方法对PET/CT的图像配准存在失真情况,即没有对形变场加以限制导致图像扭曲幅度过大。
发明内容
(一)要解决的技术问题
为了解决现有技术的上述问题,本发明提供一种基于全卷积神经网络的PET与CT图像配准方法。
(二)技术方案
为了达到上述目的,本发明采用的主要技术方案包括:
获取待配准的PET与CT二维图像,通过尺寸预处理后获取待配准的PET与CT图像块并输入到预先训练的全卷积神经网络中,获取配准图像;
其中,训练全卷积神经网络包括以下步骤:
101、预先获取多幅PET和CT二维样本图像,进行尺寸预处理,获取用于训练的PET和CT样本图像块;
102、构建全卷积神经网络,初始化网络权重参数,设置迭代次数,将用于训练的PET和CT样本图像块作为全卷积神经网络的输入,通过多次卷积、池化和反卷积生成形变场;
103、通过对形变场和PET图像块进行空间变换获取训练的配准图像;
104、根据训练配准图像和PET图像块获取相似度Lsim,根据形变场获取限制形变场平滑度Lsmooth,根据公式一和公式二获取总损失函数L,通过总损失函数L更新网络权重参数;
公式一:L=m1*L1+m2*L2......+mn*Ln
式中,m1+m2.....+mn=1,m1、m2……mn均为常数;
公式二:L(F,M,Dv)=Lsim(F,MDv)+λLsmooth(Dv);
式中,Lsim为相似性度量,F为CT图像块,MDv为,Lsmooth为形变场的平滑度,Dv为位移矢量矩阵,λ为常数;
105、遍历用于训练的PET和CT样本图像块,重复执行步骤 103-105,多次迭代训练并更新网络权重参数,直至迭代次数达到预设值,获取预先训练的全卷积神经网络。
可选地,尺寸预处理包括:
B1、针对预处理的图像,根据公式三和公式四,分别计算SUV值和 Hu值,设置Hu值窗宽窗位和SUV限制范围;
公式三:SUV=Pixels×LBM×1000/injected dose;
式中,Pixels为PET图像的像素值,LBM为瘦体重,injected dose为注射示踪剂计量;
公式四:Hu=Pixels×slopes+intercepts;
式中,Pixels为CT图像的像素值,slopes为Hu值计算公式中的斜率;intercepts为Hu值计算公式中的截距;
B2、调整分辨率至图像尺寸等于预设值生成三维数组;
B3、将三维数组据变换成五维数组,通过剪裁和采样获取预设尺寸的图像块。
可选地,步骤103中构建全卷积神经网络包括:
第一卷积结构、第二卷积结构、第三卷积结构、第四卷积结构、第一反卷积结构、第二反卷积结构、第一池化结构和第二池化结构;
全卷积神经网络的输入作为第一卷积结构的输入;
第一卷积结构、第二卷积结构、第三卷积结构和第四卷积结构依次排列;
第一池化结构设置在第一卷积结构和第二卷积结构之间,第二池化结构设置在第二卷积结构和第三卷积结构之间;
第一反卷积结构设置在第三卷积结构和第四卷积结构之间,第二反卷积结构设置在第四卷积结构之后。
可选地,
第一卷积结构、第二卷积结构、第三卷积结构、第四卷积结构、第一反卷积结构、第二反卷积结构均包括卷积层、批量化归一层和激活层;
第一池化结构和第二池化结构包括卷积层;
其中,卷积层的卷积核为3×3×3,步长为2。
可选地,形变场包括:
第一形变场、第二形变场和三形变场;
将第二反卷积结构的输出进行卷积操作,获取第一形变场;
将第四卷积结构的输出进行卷积操作,获得第二形变场;
将第三卷积结构的输出进行卷积操作,获得第三形变场;
其中,卷积操作的卷核为3×3×3,步长为1。
可选地,
在训练过程中通过上采样调整第一形变场尺寸使得其与PET图像块尺寸相同;
将具有相同尺寸的第一形变场和PET图像块通过空间变换作为训练的配准图像。
可选地,
将PET和CT样本图像块以及待配准的PET与CT图像块输入至全卷积神经网络之前,根据公式四对每个图像块进行归一化;
公式五:
式中,μ为均值,σ为标准差。
可选地,
通过公式六获取Lsim,通过公式七获取Lsmooth
公式六:Lsim=NCC+EMD;
其中,NCC表示归一化互相关,EMD为Wasserstein距离;
T表示模板,S表示子图,S(r,z)表示模子图的像素值,T(r,z)表示模板图像素值,E(S)表示子图的平均灰度,E(T)表示模板的平均灰度,R和 Z均为常数,r和z均为坐标索引;
P表示一幅图像的特征,Q表示另一幅图像的特征,dij表示两个图之间的距离,fij表示P和Q特征权重总和的最小值,M和N均为常数;
wpi表示P的权重,wqj表示Q的权重;
公式七:
其中,Ω为,p为,Dv为位移矢量矩阵,为一阶梯度。
可选地,其特征在于,
Hu值窗宽窗位为[-90,300],SUV限制范围为[0,5]。
可选地,
尺寸预处理获取的图像块的大小为64×64×64。
(三)有益效果
本发明的有益效果是:
本发明利用全卷积神经网络实现端到端的的多分辨率的弹性配准,本发明通过多目标优化来进行不同分辨率下的空间变换,即同时结合CT 图像和配准图像对之间的相似性度量以及限制形变场平滑度,从而限制图像的过度形变;本发明计算量小,配准效率高。
附图说明
图1为本发明一实施例提供的一种基于全卷积神经网络的PET与CT 图像配准方法示意图;
图2为本发明一实施例提供的全卷积神经网络内部结构示意图;
图3为本发明一实施例提供的配准方法模块流程示意图;
图4为本发明一实施例提供的配准发明的具体流程图。
具体实施方式
为了更好的解释本发明,以便于理解,下面结合附图,通过具体实施方式,对本发明作详细描述。
实施例一
本发明提出了一种基于全卷积神经网络的PET与CT图像配准方法,具体的包括:
如图1所示,获取待配准的PET与CT二维图像,通过尺寸预处理后获取待配准的PET与CT图像块并输入到预先训练的全卷积神经网络中,获取配准图像;
其中,训练全卷积神经网络包括以下步骤:
101、预先获取多幅PET和CT二维样本图像,进行尺寸预处理,获取用于训练的PET和CT样本图像块;
特别的,将PET和CT样本图像块以及待配准的PET与CT图像块输入至全卷积神经网络之前,根据公式四对每个图像块进行归一化;
公式五:
式中,μ为均值,σ为标准差。
举例来说,在具体实施过程中,尺寸预处理包括:
B1、针对预处理的图像,根据公式三和公式四,分别计算SUV值和 Hu值,设置Hu值窗宽窗位和SUV限制范围;
举例来说,Hu值窗宽窗位可设置为[-90,300],SUV限制范围为可设置为[0,5];
公式三:SUV=Pixels×LBM×1000/injected dose;
式中,Pixels为PET图像的像素值,LBM为瘦体重,injected dose为注射示踪剂计量;
公式四:Hu=Pixels×slopes+intercepts;
式中,Pixels为CT图像的像素值,slopes为Hu值计算公式中的斜率;intercepts为Hu值计算公式中的截距;
B2、调整分辨率至图像尺寸等于预设值生成三维数组;
B3、将三维数组据变换成五维数组,通过剪裁和采样获取预设尺寸的图像块;
举例来说,在具体实施过程中尺寸预处理获取的图像块的大小为64 ×64×64。
102、构建全卷积神经网络,初始化网络权重参数,设置迭代次数,将用于训练的PET和CT样本图像块作为全卷积神经网络的输入,通过多次卷积、池化和反卷积生成形变场;
举例来说,如图2所示,在本实施例中构建全卷积神经网络包括:
第一卷积结构、第二卷积结构、第三卷积结构、第四卷积结构、第一反卷积结构、第二反卷积结构、第一池化结构和第二池化结构;
全卷积神经网络的输入作为第一卷积结构的输入;
第一卷积结构、第二卷积结构、第三卷积结构和第四卷积结构依次排列;
第一池化结构设置在第一卷积结构和第二卷积结构之间,第二池化结构设置在第二卷积结构和第三卷积结构之间;
第一反卷积结构设置在第三卷积结构和第四卷积结构之间,第二反卷积结构设置在第四卷积结构之后。
可选地,
第一卷积结构、第二卷积结构、第三卷积结构、第四卷积结构、第一反卷积结构、第二反卷积结构均包括卷积层、批量化归一层和激活层;
第一池化结构和第二池化结构包括卷积层;
其中,卷积层的卷积核为3×3×3,步长为2。
进一步的,第一形变场、第二形变场和三形变场;
将第二反卷积结构的输出进行卷积操作,获取第一形变场;
将第四卷积结构的输出进行卷积操作,获得第二形变场;
将第三卷积结构的输出进行卷积操作,获得第三形变场;
其中,卷积操作的卷核为3×3×3,步长为1。
103、通过对形变场和PET图像块进行空间变换获取训练配准图像;
具体地,举例来说,在具体实施过程中,通过上采样调整第一形变场尺寸使得其与PET图像块尺寸相同;
同理对第二形变场和第三形变场进行相同的操作获取参考的获取参考的两个配准图像,特殊说明,本实施例仅用获取三个形变场举例说明,本发明还可包括多个形变场;
在本实施例中,训练网络时,每一次训练过程中多个形变场都能与 PET图像块进行空间变换获得多个参考的配准图,其中只有与第四反卷积连接生成的第一形变场与PET图像块生成的匹配图像作为一次训练的输出,并作为此次训练的配准结果即,其他参考配准图用于计算损失函数数值,进一步的可以获取总损失函数的数值。
104、根据训练配准图像和PET图像块获取相似度Lsim,根据形变场获取限制形变场平滑度Lsmooth,根据公式一和公式二获取总损失函数L,通过总损失函数L更新网络权重参数;
公式一:L=m1*L1+m2*L2......+mn*L2
式中,m1+m2.....+mn=1,m1、m2……mn均为常数;
公式二:L(F,M,Dv)=Lsim(F,MDv)+λLsmooth(Dv);
式中,Lsim为相似性度量,F为CT图像块,MDv为,Lsmooth为形变场的平滑度,Dv为位移矢量矩阵,λ为常数;
通过公式五获取Lsim,通过公式六获取Lsmooth
公式六:Lsim=NCC+EMD;
其中,NCC表示归一化互相关,EMD为Wasserstein距离;
T表示模板,S表示子图,S(r,z)表示模子图的像素值,T(r,z)表示模板图像素值,E(S)表示子图的平均灰度,E(T)表示模板的平均灰度,R和 Z均为常数,r和z均为坐标索引;
P表示一幅图像的特征,Q表示另一幅图像的特征,dij表示两个图之间的距离,fij表示P和Q特征权重总和的最小值,M和N均为常数;
wpi表示P的权重,wqj表示Q的权重;
公式七:
其中,Ω为位移矢量矩阵空间,p为当前位移矢量矩阵,Dv为位移矢量矩阵,为一阶梯度;
举例来说,在本实施例中,n=3,m1=0.7,m2=0.2,m3=0.1即分别获取第一形变场、第二形变场和第三形变场与当前输入的PET图像块的相似度Lsim1、Lsim2和Lsim3,获取第一形变场、第二形变场和第三形变场的限制形变场平滑度Lsmooth1、Lsmooth2和Lsmooth3
相应的可知,L1=Lsim1+λLsmooth1,L2=Lsim2+λLsmooth2,L3=Lsim3+λLsmooth3
举例来说,总损失函数L=0.7*L1+0.2*L2......+0.1*L3,利用总损失函数对当前网络的权重比进行修正,并在下一次训练时使用更新后的网络的权重比。
105、遍历用于训练的PET和CT样本图像块,重复执行步骤103-105,多次迭代训练并更新网络权重参数,直至迭代次数达到预设值,获取预先训练的全卷积神经网络。
实施例二
S1、读取每个患者的每一幅二维PET、CT图像,分别计算出SUV值和 Hu值,调整SUV值和Hu值显示范围,并且调整图像分辨率,以上操作能够增强对比度。
具体地,如图3所示,举例来说,在本实施例中S1还包括:
S11、遍历读取全部91个患者的PET、CT二维图像,根据公式分别计算出SUV值和Hu值;
S12、增强图像对比度,调整Hu值窗宽窗位,SUV值限制在[0,5]范围内;
S13、调整512×512大CT图像分辨率至PET图像相同大小,即128× 128。
S2、对于PE和CT经过尺寸预处理后的图像分别生成三维体数据,重新调整形状为五维数组,基于规则在三个方向上裁剪生成若干1×64×64× 64×1大小的图像块用于训练和验证;
举例来说,S2具体包括:
S21、将PET、CT经过处理后的SUV、Hu值图像分别生成三维体数据存在ndarray中,以下称为3D图像块,体数据大小为128×128×n,其中n 为对应患者PET、CT图像切片数量;
S22、根据维度[N,H,W,D,C]将三维数组重新变换为五维数组,形状为[1,128,128,28,1];
S23、对体数据进行裁剪,采样间隔为32个像素,在图像高度/宽度/深度三个方向上裁剪生成1×64×64×64×1大小的图像块;
S24、根据全部91个患者的PET、CT图像裁剪3D图像块共6084个,随机采样5237个3D图像块作为训练集,随机采样847个3D图像块作为验证集。
S3、定义同时优化图像相似性度量和正则化项形变场平滑度,其中正则化项形变场平滑度为位移矢量场矩阵中元素的一阶偏导,构建多分辨率全卷积神经网络,并调整网络结构;
举例来说,S3具体包括:
S31、定义同时优化图像相似性度量和正则化项形变场平滑度的损失函数,其中相似性度量为归一化互相关NCC和Wasserstein距离,正则化项形变场平滑度为位移矢量场矩阵中元素的一阶偏导;
S32、构建多全卷积神经网络,调整网络结构。
S4、设置全卷积神经网络参数,具有的包括以下参数:输入图像大小、训练batch_size、正则化项权重λ、迭代次数、网络学习率,设置优化器并初始化权重参数,图像块归一化后输入网络中,训练网络,保存模型权重;
举例来说,S4具体包括:
S41、设置神经网络参数,其中输入图像的大小为64×64×64,训练时 batch_size设置为16,正则化项权重为设置为0.5,迭代次数为设置为500,网络学习速率设置为0.001;
S42、设置神经网络优化器,并初始化权重参数;
S43、网络读入数据时将每个图像块进行归一化,变为均值为0标准差为1的正态分布;
S44、开始训练网络,迭代500次后,保存模型权重。
S5、输入待配准PET、CT图像对,通过网络进行预测,生成配准PET 图像;
举例来说,S5具体包括:
S51、加载网络模型和网络权重,输入待配准图像对;
S52、得到配准后输出图像块,进行可视化。
实施例三
运行在Intel内核的Windows10***环境中,基于Python和Tensorflow 框架进行医学图像配准。如图4所示,本实施的操作步骤如下:
301、读取每个患者的每一幅二维PET、CT图像,分别计算出SUV值和Hu 值,调整SUV值和Hu值显示范围,并且调整图像分辨率。
301a、遍历读取全部91个患者的PET、CT二维图像,根据GE公司给出的公式1和公式2分别计算出SUV值和Hu值。
公式1:SUV=Pixels×LBM×1000/injected dose
其中,Pixels为PET图像的像素值,LBM为瘦体重,injected dose为注射示踪剂计量;
公式2:Hu=Pixels×slopes+intercepts
其中,Pixels为CT图像的像素值,slopes为Hu值计算公式中的斜率;intercepts为Hu值计算公式中的截距;
301b、增强图像对比度,通过np.clip函数调整Hu值窗宽窗位[-90,300] SUV值限制在[0,5]范围内。
301c、通过cv2.resize函数调整512×512大小CT图像分辨率至PET图像相同大小,即128×128。
302、对于PET、CT经过处理后的图像分别生成三维体数据,重新调整形状为五维数组,基于规则在三个方向上裁剪生成若干1×64×64×64×1 大小的图像块用于训练和验证,具体步骤如下:
302a、将PET、CT经过处理后的SUV、Hu值图像分别生成三维体数据存在ndarray中,体数据大小为128×128×n,其中n为对应患者PET、CT 图像切片数量。
302b、根据维度[N,H,W,D,C]将三维数组通过np.reshape函数调整为五维数组,形状为[1,128,128,n,1],其中n为对应患者PET和CT图像切片数量。
302c、通过gen_3d_volume函数对体数据进行裁剪,采样间隔为32个像素,在图像高度/宽度/深度三个方向上裁剪生成1×64×64×64×1大小的图像块。
302d、根据全部91个患者的PET、CT图像裁剪3D图像块共6084个,随机采样5237个3D图像块作为训练集,随机采样847个3D图像块作为验证集。
303、定义同时优化图像相似性度量和正则化项形变场平滑度,即位移矢量场矩阵中元素的一阶偏导,获取损失函数,构建多分辨率全卷积神经网络,调整网络结构,具体步骤如下:、
303a、定义同时优化图像相似性度量和正则化项形变场平滑度的损失函数如公式3所示:
公式3:L(F,M,Dv)=Lsim(F,MDv)+λLsmooth(Dv);
式中,Lsim为相似性度量,F为CT图像块,MDv为,Lsmooth为形变场的平滑度,Dv为位移矢量矩阵,λ为常数;
通过公式4可知,相似性度量Lsim包括归一化互相关NCC部分和Wasser stein距离EMD部分;
公式4:Lsim=NCC+EMD;
其中,NCC表示归一化互相关,EMD为Wasserstein距离;
公式5:
T表示模板,S表示子图,S(r,z)表示模子图的像素值,T(r,z)表示模板图像素值,E(S)表示子图的平均灰度,E(T)表示模板的平均灰度,R和 Z均为常数,r和z均为坐标索引;
公式6:
P表示一幅图像的特征,Q表示另一幅图像的特征,dij表示两个图之间的距离,fij表示P和Q特征权重总和的最小值,M和N均为常数;
wpi表示P的权重,wqj表示Q的权重;
用于进行失真校正的正则化项形变场平滑度Lsmooth为位移矢量场矩阵中元素的一阶偏导如公式7所示:
公式7:
其中,Ω为位移矢量矩阵空间,p为当前位移矢量矩阵,Dv为位移矢量矩阵,为一阶梯度;
303b、构建多分辨率全卷积神经网络,调整网络结构。
304:设置神经网络参数,包括:输入图像大小、训练batch_size、正则化项权重λ、迭代次数、网络学习率,设置优化器并初始化权重参数,将3D 图像块归一化后输入网络中,训练网络,保存模型权重,具体步骤如下:
304a、设置神经网络参数,其中输入图像的大小image_size为64×64 ×64,训练时batch_size为16,正则化项权重λ为0.5,迭代次数epoch_num 为500,网络学习速率learning_rate为0.001。
304b、通过设置神经网络优化器,并初始化权重参数。
304c、网络读入数据时将每个图像块进行归一化,根据公式8变为均值为0标准差为1的正态分布。
公式8:
式中,μ为均值,σ为标准差。
304d、开始训练网络,迭代500次后,保存模型权重。
305、输入待配准PET、CT图像对,通过网络进行预测,生成配准后 PET图像,具体步骤如下:
305a、加载网络模型和网络权重,输入待配准图像对;
305b:得到配准后输出图像块,进行可视化。
本发明利用全卷积神经网络实现端到端的的多分辨率的弹性配准,本发明通过多目标优化来进行不同分辨率下的空间变换,即同时结合CT图像和配准图像对之间的相似性度量以及限制形变场平滑度,从而限制图像的过度形变;本发明计算量小,配准效率高。
最后应说明的是:以上所述的各实施例仅用于说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或全部技术特征进行等同替换;而这些修改或替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (10)

1.一种基于全卷积神经网络的PET与CT图像配准方法,其特征在于,包括:
获取待配准的PET与CT二维图像,通过尺寸预处理后获取待配准的PET与CT图像块并输入到预先训练的全卷积神经网络中,获取配准图像;
其中,训练全卷积神经网络包括以下步骤:
101、预先获取多幅PET和CT二维样本图像,进行尺寸预处理,获取用于训练的PET和CT样本图像块;
102、构建全卷积神经网络,初始化网络权重参数,设置迭代次数,将用于训练的PET和CT样本图像块作为全卷积神经网络的输入,通过多次卷积、池化和反卷积生成形变场;
103、通过对形变场和PET图像块进行空间变换获取训练的配准图像;
104、根据训练配准图像和PET图像块获取相似度量Lsim,根据形变场获取限制形变场平滑度Lsmooth,根据公式一和公式二获取总损失函数L,通过总损失函数L更新网络权重参数;
公式一:L=m1*L1+m2*L2......+mn*Ln
式中,m1+m2.....+mn=1,m1、m2……mn均为常数;
公式二:L(F,M,Dv)=Lsim(F,MDv)+λLsmooth(Dv);
式中,Lsim为相似性度量,F为CT图像块,MDv为,Lsmooth为形变场的平滑度,Dv为位移矢量矩阵,λ为常数;
105、遍历用于训练的PET和CT样本图像块,重复执行步骤103-105,多次迭代训练并更新网络权重参数,直至迭代次数达到预设值,获取预先训练的全卷积神经网络。
2.如权利要求1所述的方法,其特征在于,尺寸预处理包括:
B1、针对预处理的图像,根据公式三和公式四,分别计算SUV值和Hu值,设置Hu值窗宽窗位和SUV限制范围;
公式三:SUV=Pixels×LBM×1000/injected dose;
式中,Pixels为PET图像的像素值,LBM为瘦体重,injected dose为注射示踪剂计量;
公式四:Hu=Pixels×slopes+intercepts;
式中,Pixels为CT图像的像素值,slopes为Hu值计算公式中的斜率;intercepts为Hu值计算公式中的截距;
B2、调整分辨率至图像尺寸等于预设值生成三维数组;
B3、将三维数组据变换成五维数组,通过剪裁和采样获取预设尺寸的图像块。
3.如权利要求2所述的方法,其特征在于,步骤103中构建全卷积神经网络包括:
第一卷积结构、第二卷积结构、第三卷积结构、第四卷积结构、第一反卷积结构、第二反卷积结构、第一池化结构和第二池化结构;
全卷积神经网络的输入作为第一卷积结构的输入;
第一卷积结构、第二卷积结构、第三卷积结构和第四卷积结构依次排列;
第一池化结构设置在第一卷积结构和第二卷积结构之间,第二池化结构设置在第二卷积结构和第三卷积结构之间;
第一反卷积结构设置在第三卷积结构和第四卷积结构之间,第二反卷积结构设置在第四卷积结构之后。
4.如权利要求3所述的方法,其特征在于,
第一卷积结构、第二卷积结构、第三卷积结构、第四卷积结构、第一反卷积结构、第二反卷积结构均包括卷积层、批量化归一层和激活层;
第一池化结构和第二池化结构包括卷积层;
其中,卷积层的卷积核为3×3×3,步长为2。
5.如权利要求4所述的方法,其特征在于,形变场包括:
第一形变场、第二形变场和三形变场;
将第二反卷积结构的输出进行卷积操作,获取第一形变场;
将第四卷积结构的输出进行卷积操作,获得第二形变场;
将第三卷积结构的输出进行卷积操作,获得第三形变场;
其中,卷积操作的卷核为3×3×3,步长为1。
6.如权利要求5所述的方法,其特征在于,
在训练过程中通过上采样调整第一形变场尺寸使得其与PET图像块尺寸相同;
将具有相同尺寸的第一形变场和PET图像块通过空间变换作为训练的配准图像。
7.如权利要求6所述的方法,其特征在于,
将PET和CT样本图像块以及待配准的PET与CT图像块输入至全卷积神经网络之前,根据公式四对每个图像块进行归一化;
公式五:
式中,μ为均值,σ为标准差。
8.如权利要求7所述的方法,其特征在于,在步骤104中,包括:
通过公式六获取Lsim,通过公式七获取Lsmooth
公式六:Lsim=NCC+EMD;
其中,NCC表示归一化互相关,EMD为Wasserstein距离;
T表示模板,S表示子图,S(r,z)表示模子图的像素值,T(r,z)表示模板图像素值,E(S)表示子图的平均灰度,E(T)表示模板的平均灰度,R和Z均为常数,r和z均为坐标索引;
P表示一幅图像的特征,Q表示另一幅图像的特征,dij表示两个图之间的距离,fij表示P和Q特征权重总和的最小值,M和N均为常数;
wpi表示P的权重,wqj表示Q的权重;
公式七:
其中,Ω为,p为,Dv为位移矢量矩阵,为一阶梯度。
9.如权利要求8所述的方法,其特征在于,
Hu值窗宽窗位为[-90,300],SUV限制范围为[0,5]。
10.如权利要求9所述的方法,其特征在于,
尺寸预处理获取的图像块的大小为64×64×64。
CN201811160982.5A 2018-09-30 2018-09-30 一种基于全卷积神经网络的pet与ct图像配准方法 Active CN109272443B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811160982.5A CN109272443B (zh) 2018-09-30 2018-09-30 一种基于全卷积神经网络的pet与ct图像配准方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811160982.5A CN109272443B (zh) 2018-09-30 2018-09-30 一种基于全卷积神经网络的pet与ct图像配准方法

Publications (2)

Publication Number Publication Date
CN109272443A true CN109272443A (zh) 2019-01-25
CN109272443B CN109272443B (zh) 2020-07-28

Family

ID=65195055

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811160982.5A Active CN109272443B (zh) 2018-09-30 2018-09-30 一种基于全卷积神经网络的pet与ct图像配准方法

Country Status (1)

Country Link
CN (1) CN109272443B (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109872332A (zh) * 2019-01-31 2019-06-11 广州瑞多思医疗科技有限公司 一种基于u-net神经网络的三维医学图像配准方法
CN109993709A (zh) * 2019-03-18 2019-07-09 绍兴文理学院 一种基于深度学习的图像配准误差校正方法
CN110189369A (zh) * 2019-06-05 2019-08-30 深圳大学 一种超声与磁共振图像融合配准方法及终端设备
CN110223247A (zh) * 2019-05-20 2019-09-10 上海联影医疗科技有限公司 图像衰减校正方法、装置、计算机设备和存储介质
CN110363797A (zh) * 2019-07-15 2019-10-22 东北大学 一种基于过度形变抑制的pet与ct图像配准方法
CN110503110A (zh) * 2019-08-12 2019-11-26 北京影谱科技股份有限公司 特征匹配方法和装置
CN110544523A (zh) * 2019-08-28 2019-12-06 桂林电子科技大学 一种用于卷积神经网络训练的假彩色医学图像合成方法
CN110544274A (zh) * 2019-07-18 2019-12-06 山东师范大学 一种基于多光谱的眼底图像配准方法及***
CN110610486A (zh) * 2019-08-28 2019-12-24 清华大学 单目图像深度估计方法及装置
CN110827335A (zh) * 2019-11-01 2020-02-21 北京推想科技有限公司 乳腺影像配准方法和装置
CN110838139A (zh) * 2019-11-04 2020-02-25 上海联影智能医疗科技有限公司 图像配准模型的训练方法、图像配准方法和计算机设备
CN111436958A (zh) * 2020-02-27 2020-07-24 之江实验室 一种用于pet图像衰减校正的ct图像生成方法
CN112183325A (zh) * 2020-09-27 2021-01-05 哈尔滨市科佳通用机电股份有限公司 基于图像对比的公路车辆检测方法
EP3800612A1 (en) * 2019-10-03 2021-04-07 Koninklijke Philips N.V. Method, apparatus and system for normalizing pixel intensity of images
CN112634250A (zh) * 2020-12-29 2021-04-09 上海联影医疗科技股份有限公司 多能ct***图像配准方法、装置、计算机设备和存储介质
CN113436708A (zh) * 2021-07-22 2021-09-24 杭州电子科技大学 一种基于深度学习算法的延迟ct图像生成方法
CN114359360A (zh) * 2022-03-17 2022-04-15 成都信息工程大学 一种基于对抗的双向一致性约束医学图像配准算法
CN116740218A (zh) * 2023-08-11 2023-09-12 南京安科医疗科技有限公司 一种心脏ct成像图像质量优化方法、设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050264813A1 (en) * 2003-06-25 2005-12-01 George Giakos Multi-wavelength imaging system
CN104036452A (zh) * 2013-03-06 2014-09-10 株式会社东芝 图像处理装置和方法以及医学图像设备
US20170200067A1 (en) * 2016-01-08 2017-07-13 Siemens Healthcare Gmbh Deep Image-to-Image Network Learning for Medical Image Analysis
CN107480702A (zh) * 2017-07-20 2017-12-15 东北大学 面向hcc病理图像识别的特征选择与特征融合方法
CN107610194A (zh) * 2017-08-14 2018-01-19 成都大学 基于多尺度融合cnn的磁共振图像超分辨率重建方法
CN108596247A (zh) * 2018-04-23 2018-09-28 南方医科大学 一种融合放射组学和深度卷积特征进行图像分类的方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050264813A1 (en) * 2003-06-25 2005-12-01 George Giakos Multi-wavelength imaging system
CN104036452A (zh) * 2013-03-06 2014-09-10 株式会社东芝 图像处理装置和方法以及医学图像设备
US20170200067A1 (en) * 2016-01-08 2017-07-13 Siemens Healthcare Gmbh Deep Image-to-Image Network Learning for Medical Image Analysis
CN107480702A (zh) * 2017-07-20 2017-12-15 东北大学 面向hcc病理图像识别的特征选择与特征融合方法
CN107610194A (zh) * 2017-08-14 2018-01-19 成都大学 基于多尺度融合cnn的磁共振图像超分辨率重建方法
CN108596247A (zh) * 2018-04-23 2018-09-28 南方医科大学 一种融合放射组学和深度卷积特征进行图像分类的方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DONG NIE等: "Medical Image Synthesis with Deep Convolutional Adversarial Networks", 《IEEE TRANSACTIONS ON BIOMEDICAL ENGINEERING》 *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109872332A (zh) * 2019-01-31 2019-06-11 广州瑞多思医疗科技有限公司 一种基于u-net神经网络的三维医学图像配准方法
CN109872332B (zh) * 2019-01-31 2022-11-11 广州瑞多思医疗科技有限公司 一种基于u-net神经网络的三维医学图像配准方法
CN109993709B (zh) * 2019-03-18 2021-01-12 绍兴文理学院 一种基于深度学习的图像配准误差校正方法
CN109993709A (zh) * 2019-03-18 2019-07-09 绍兴文理学院 一种基于深度学习的图像配准误差校正方法
CN110223247A (zh) * 2019-05-20 2019-09-10 上海联影医疗科技有限公司 图像衰减校正方法、装置、计算机设备和存储介质
CN110189369A (zh) * 2019-06-05 2019-08-30 深圳大学 一种超声与磁共振图像融合配准方法及终端设备
CN110189369B (zh) * 2019-06-05 2023-06-13 深圳大学 一种超声与磁共振图像融合配准方法及终端设备
CN110363797A (zh) * 2019-07-15 2019-10-22 东北大学 一种基于过度形变抑制的pet与ct图像配准方法
CN110363797B (zh) * 2019-07-15 2023-02-14 东北大学 一种基于过度形变抑制的pet与ct图像配准方法
CN110544274A (zh) * 2019-07-18 2019-12-06 山东师范大学 一种基于多光谱的眼底图像配准方法及***
CN110544274B (zh) * 2019-07-18 2022-03-29 山东师范大学 一种基于多光谱的眼底图像配准方法及***
CN110503110A (zh) * 2019-08-12 2019-11-26 北京影谱科技股份有限公司 特征匹配方法和装置
CN110544523A (zh) * 2019-08-28 2019-12-06 桂林电子科技大学 一种用于卷积神经网络训练的假彩色医学图像合成方法
CN110610486A (zh) * 2019-08-28 2019-12-24 清华大学 单目图像深度估计方法及装置
CN110610486B (zh) * 2019-08-28 2022-07-19 清华大学 单目图像深度估计方法及装置
WO2021063903A1 (en) * 2019-10-03 2021-04-08 Koninklijke Philips N.V. Method, apparatus and system for normalizing pixel intensity of images
EP3800612A1 (en) * 2019-10-03 2021-04-07 Koninklijke Philips N.V. Method, apparatus and system for normalizing pixel intensity of images
CN110827335A (zh) * 2019-11-01 2020-02-21 北京推想科技有限公司 乳腺影像配准方法和装置
CN110827335B (zh) * 2019-11-01 2020-10-16 北京推想科技有限公司 乳腺影像配准方法和装置
CN110838139A (zh) * 2019-11-04 2020-02-25 上海联影智能医疗科技有限公司 图像配准模型的训练方法、图像配准方法和计算机设备
US11823384B2 (en) 2020-02-27 2023-11-21 Zhejiang Lab CT image generation method for attenuation correction of pet images
CN111436958A (zh) * 2020-02-27 2020-07-24 之江实验室 一种用于pet图像衰减校正的ct图像生成方法
CN112183325A (zh) * 2020-09-27 2021-01-05 哈尔滨市科佳通用机电股份有限公司 基于图像对比的公路车辆检测方法
CN112634250A (zh) * 2020-12-29 2021-04-09 上海联影医疗科技股份有限公司 多能ct***图像配准方法、装置、计算机设备和存储介质
CN113436708A (zh) * 2021-07-22 2021-09-24 杭州电子科技大学 一种基于深度学习算法的延迟ct图像生成方法
CN113436708B (zh) * 2021-07-22 2022-10-25 杭州电子科技大学 一种基于深度学习算法的延迟ct图像生成方法
CN114359360A (zh) * 2022-03-17 2022-04-15 成都信息工程大学 一种基于对抗的双向一致性约束医学图像配准算法
CN116740218A (zh) * 2023-08-11 2023-09-12 南京安科医疗科技有限公司 一种心脏ct成像图像质量优化方法、设备及介质
CN116740218B (zh) * 2023-08-11 2023-10-27 南京安科医疗科技有限公司 一种心脏ct成像图像质量优化方法、设备及介质

Also Published As

Publication number Publication date
CN109272443B (zh) 2020-07-28

Similar Documents

Publication Publication Date Title
CN109272443A (zh) 一种基于全卷积神经网络的pet与ct图像配准方法
US11756160B2 (en) ML-based methods for pseudo-CT and HR MR image estimation
Zhang et al. Improving CBCT quality to CT level using deep learning with generative adversarial network
AU2016339009B2 (en) Pseudo-CT generation from MR data using tissue parameter estimation
AU2016338923B2 (en) Pseudo-CT generation from MR data using a feature regression model
US20120302880A1 (en) System and method for specificity-based multimodality three- dimensional optical tomography imaging
CN111462020B (zh) 心脏图像的运动伪影校正方法、***、存储介质和设备
CN107133549B (zh) Ect运动门控信号获取方法及ect图像重建方法
CN105678821B (zh) 一种基于自编码器图像融合的动态pet图像重建方法
US12023192B2 (en) Single or a few views computed tomography imaging with deep neural network
CN110363797A (zh) 一种基于过度形变抑制的pet与ct图像配准方法
CN109215014A (zh) Ct图像预测模型的训练方法、装置、设备及存储介质
Sun et al. Double U-Net CycleGAN for 3D MR to CT image synthesis
CN112819911A (zh) 基于N-net和CycN-net网络结构的四维锥束CT重建图像增强算法
CN112001979A (zh) 运动伪影处理方法、***、可读存储介质和设备
Zhang et al. A deep generative model-integrated framework for 3-D time-difference electrical impedance tomography
Shang et al. Short‐Axis PET Image Quality Improvement by Attention CycleGAN Using Total‐Body PET
Lei et al. Generative adversarial networks for medical image synthesis
CN113052840B (zh) 一种基于低信噪比pet图像的处理方法
Sharma et al. Cross-modality breast image translation with improved resolution using generative adversarial networks
Zhang et al. DR-only Carbon-ion radiotherapy treatment planning via deep learning
Vizitiu et al. Data-driven adversarial learning for sinogram-based iterative low-dose CT image reconstruction
Tsai On-board Image Driven View Synthesis and Volume Reconstruction by Integrating Neural Representation with Iterative Reconstruction
US20230368438A1 (en) Prior-incorporated deep learning framework for sparse image reconstruction by using geometry and physics priors from imaging system
Chen et al. Application of deformable registration method of medical images based on unsupervised learning in radiotherapy

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant