CN107610195B - 图像转换的***和方法 - Google Patents

图像转换的***和方法 Download PDF

Info

Publication number
CN107610195B
CN107610195B CN201710771940.4A CN201710771940A CN107610195B CN 107610195 B CN107610195 B CN 107610195B CN 201710771940 A CN201710771940 A CN 201710771940A CN 107610195 B CN107610195 B CN 107610195B
Authority
CN
China
Prior art keywords
image
projection data
neural network
network model
dose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710771940.4A
Other languages
English (en)
Other versions
CN107610195A (zh
Inventor
赵倩隆
全国涛
李翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai United Imaging Healthcare Co Ltd
Original Assignee
Shanghai United Imaging Healthcare Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai United Imaging Healthcare Co Ltd filed Critical Shanghai United Imaging Healthcare Co Ltd
Publication of CN107610195A publication Critical patent/CN107610195A/zh
Application granted granted Critical
Publication of CN107610195B publication Critical patent/CN107610195B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4076Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/006Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/441AI-based methods, deep learning or artificial neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

一种图像转换的***和方法,所述方法实施于计算装置上,所述计算装置具有至少一个处理器、至少一个计算机可读存储介质以及连接到成像装置的通信端口,所述方法包括:获取与第一剂量水平相关的第一组投影数据;基于所述第一组投影数据重建第一图像;基于所述第一组投影数据确定第二组投影数据,所述第二组投影数据与第二剂量水平相关,所述第二剂量水平低于所述第一剂量水平;基于所述第二组投影数据重建第二图像;和基于所述第一图像和所述第二图像训练第一神经网络模型,经训练的第一神经网络模型被配置为将第三图像转换为第四图像,所述第四图像比所述第三图像呈现更低的噪声水平。

Description

图像转换的***和方法
技术领域
本公开一般涉及一种成像***,更具体地涉及将低剂量图像转换为高剂量图像的方法和***。
背景技术
计算机断层摄影(CT)技术是利用计算机处理的从不同角度拍摄的X射线数据组合来产生2D或3D 图像的技术。CT技术已广泛应用于医学诊断。在基于低剂量投影数据的CT图像的重建过程中,重建的 CT图像中可能会出现噪声和/或伪影(例如阶梯伪影)。伪影可能会降低图像质量,影响基于此类图像的诊 断结果。高剂量的CT扫描可至少部分地消除这类问题,但是代价是使扫描对象暴露在太多的辐射中。期 望提供一些***和方法,基于低剂量的CT扫描产生改善质量的高剂量CT图像。
发明内容
根据本公开的一个方面,提供一种将低剂量图像转换为高剂量图像的方法。该方法可实施在至少一个 机器上,每个机器具有至少一个处理器和存储(storage)。该方法可包括:获取与第一剂量水平相关的第一 组投影数据;基于第一组投影数据重建第一图像;基于第一组投影数据确定第二组投影数据,第一组投影 数据与第二剂量水平相关,第二剂量水平低于第一剂量水平;基于第二组投影数据重建第二图像;基于第 一图像和第二图像训练第一神经网络模型,经训练的第一神经网络模型配置为将第三图像转换为第四图 像,第四图像比第三图像呈现更低的噪声水平并且对应于更高的剂量水平。
在一些实施例中,可基于卷积神经网络(CNN),递归神经网络(RNN),长短期记忆(LSTM),或者 生成式对抗网络(GAN)中的至少一个来构建第一神经网络模型。
在一些实施例中,可基于迭代重建算法使用第一重建参数来重建第一图像。
在一些实施例中,可基于分析重建算法或迭代重建算法使用第二重建参数来重建第二图像。在一些实 施例中,第二重建参数可至少部分地与第一参数不同。
在一些实施例中,相对于重建第二图像,可通过应用更大的切片厚度,更大的重建矩阵,或者更小的 视场中的至少一个来重建第一图像。
在一些实施例中,基于以下的至少一个来确定第二组投影数据:获取第一组投影数据的扫描器的扫描 参数、与对象相关的衰减系数、对应于扫描器的噪声、管的响应、扫描器的探测器的响应、扫描器的焦点 (focus)的尺寸、扫描器的飞焦点、扫描器的检测器的积分时间、或者对象的散射系数。
在一些实施例中,确定第二组投影数据可包括:在辐射穿过对象之前确定关于第二剂量水平的辐射的 第一分布;在辐射穿过对象之后,基于辐射的第一分布和第一组投影数据确定辐射的第二分布;确定扫描 器的噪声估计;基于辐射的第二分布和噪声估计确定第二组投影数据。在一些实施例中,确定噪声估计可 包括在扫描器不发射辐射时检测扫描器中的检测器的响应。
在一些实施例中,基于第一图像和第二图像训练第一神经网络模型可包括:从第一图像提取第一区域; 从第二图像提取对应于第一图像中第一区域的第二子区域,第一图像的第一区域与第二区域具有相同的尺 寸;基于第一图像的第一区域和第二图像的第二区域训练第一神经网络模型。
在一些实施例中,基于第一图像的第一区域和第二图像的第二区域训练第一神经网络模型可包括:初 始化第一神经网络模型的参数值;至少部分地基于第一图像的第一区域和第二图像的第二区域迭代地确定 每次迭代中与第一神经网络模型的参数值相关的成本函数的值,包括每次迭代之后基于最近一次迭代过程 中成本函数的更新值来更新第一神经网络模型的至少一些参数值;以及确定经训练的第一神经网络模型直 到条件满足。
在一些实施例中,条件可包括多个迭代间成本函数值的变化低于阈值,或者已经执行了阈值数目的迭 代。
在一些实施例中,方法可进一步包括基于第六图像和第七图像训练第二神经网络模型。在一些实施例 中,可基于第三组投影数据来重建第六图像和第七图像。在一些实施例中,第七图像的图像质量可好于第 六图像。图像质量可与对比度和空间分辨率的至少一个相关。
在一些实施例中,第三组投影数据可包括第一组投影数据。
在一些实施例中,第一图像或第一神经网络模型至少是二维的。
根据本公开的另一个方面,提供一种将低剂量图像转换为高剂量图像的方法。该方法可实施在至少一 个机器上,每个机器具有至少一个处理器和存储。该方法可包括:获取关于第一剂量水平的第一组投影数 据;基于第一神经网络模型和第一组投影数据确定第二组投影数据,第二组投影数据与第二剂量水平相关, 第二剂量水平高于第一剂量水平;基于第二组投影数据产生第一图像;基于第二神经网络模型和第一图像 产生第二图像。
在一些实施例中,可通过如下方式来产生第一神经网络模型:获取关于第三剂量水平的第三组投影数 据;基于第三组投影数据模拟第四组投影数据,第四组投影数据与低于第三剂量水平的第四剂量水平相关; 以及基于第三组投影数据和第四组投影数据训练第一神经网络模型。
在一些实施例中,模拟第四组投影数据可包括:在辐射穿过对象之前确定关于第四剂量水平的辐射的 第一分布;在辐射穿过对象之后,基于辐射的第一分布和第三组投影数据确定辐射的第二分布;确定扫描 器的噪声估计;基于辐射的第二分布和噪声估计确定第四组投影数据。
在一些实施例中,可通过如下方式产生第二神经网络:获取第三图像,第三图像基于第五组投影数据 重建,获取第四图像,第四图像基于第五组投影数据重建;基于第三图像和第四图像训练第二神经网络模 型。在一些实施例中,第四图像的图像质量可优于第三图像,图像质量与对比度和空间分辨率中的至少一 个相关。
在一些实施例中,第五组投影数据可包括第一组投影数据。
在一些实施例中,第一图像或第一神经网络模型可至少是二维的。
在一些实施例中,第一剂量水平可以是5毫希弗(mSv)或以上。
在一些实施例中,第一剂量水平可以是15毫希弗(mSv)或以上。
在一些实施例中,第二剂量水平可以是第一剂量水平的10%或更低。
在一些实施例中,第二剂量水平可以是第一剂量水平的40%或更低。
根据本公开的一个方面,提供一种将低剂量图像转换为高剂量图像的***。该***可包括至少一个处 理器和可执行指令。当该至少一个处理器执行这些可执行指令时,这些指令可使得该至少一个处理器实现 一种方法。该方法可包括:获取关于第一剂量水平的第一组投影数据;基于第一组投影数据重建第一图像; 基于第一组投影数据确定第二组投影数据,第二组投影数据与第二剂量水平相关,第二剂量水平低于第一 剂量水平;基于第二组投影数据重建第二图像;基于第一图像和第二图像训练第一神经网络模型,经训练 的第一神经网络模型配置为将第三图像转换为第四图像,第四图像比第三图像呈现更低的噪声水平并且对 应于更高的剂量水平。
根据本公开的另一个方面,提供一种非暂态计算机可读介质。该非暂态计算机可读介质可包括可执 行指令。当至少一个处理器执行这些指令时,这些指令可使得该至少一个处理器实现一种方法。该方法可 包括:获取关于第一剂量水平的第一组投影数据;基于第一组投影数据重建第一图像;基于第一组投影数 据确定第二组投影数据,第二组投影数据与第二剂量水平相关,第二剂量水平低于第一剂量水平;基于第 二组投影数据重建第二图像;基于第一图像和第二图像训练第一神经网络模型,经训练的第一神经网络模 型配置为将第三图像转换为第四图像,第四图像比第三图像呈现更低的噪声水平并且对应于更高的剂量水 平。
根据本公开的一个方面,提供一种将低剂量图像转换为高剂量图像的***。该***可包括图像数据模 拟单元。图像数据模拟单元可被配置为基于第一组投影数据确定第二组投影数据,其中所述第一组投影数 据与第一剂量水平相关,第二组投影数据与第二剂量水平相关,第二剂量水平低于第一剂量水平。该*** 可进一步包括图像重建单元,图像重建单元被配置为基于第一组投影数据重建第一图像以及基于第二组投 影数据重建第二图像。该***可进一步包括神经网络训练单元,神经网络训练单元被配置为基于第一图像和第二图像训练第一神经网络模型,经训练的第一神经网络模型配置为将第三图像转换为第四图像,第四 图像比第三图像呈现更低的噪声水平以及对应更高的剂量水平。
根据本公开的一个方面,提供一种将低剂量图像转换为高剂量图像的***。该***可包括至少一个处 理器和可执行指令。当该至少一个处理器执行这些可执行指令时,这些指令可使得该至少一个处理器实现 一种方法。该方法可包括:获取关于第一剂量水平的第一组投影数据;基于第一神经网络模型和第一组投 影数据确定关于第二剂量水平的第二组投影数据,第二剂量水平高于第一剂量水平;基于第二组投影数据 产生第一图像;基于第二神经网络模型和第一图像产生第二图像。
根据本公开的另一个方面,提供一种非暂态计算机可读介质。该非暂态计算机可读介质可包括可执 行指令。当至少一个处理器执行这些指令时,这些指令可使得该至少一个处理器实现一种方法。该方法可 包括:获取关于第一剂量水平的第一组投影数据;基于第一神经网络模型和第一组投影数据确定第二组投 影数据,第二组投影数据与第二剂量水平相关,第二剂量水平高于第一剂量水平;基于第二组投影数据产 生第一图像;基于第二神经网络模型和第一图像产生第二图像。
根据本公开的一个方面,提供一种将低剂量图像转换为高剂量图像的***。该***可包括采集模块。 采集模块可被配置为获取关于第一剂量水平的第一组投影数据。该***可进一步包括图像数据处理模块。 图像数据处理模块可被配置为基于第一神经网络模型和第一组投影数据确定第二组投影数据,第二组投影 数据与第二剂量水平相关,第二剂量水平高于第一剂量水平;基于第二组投影数据产生第一图像,基于第 二神经网络和第一图像产生第二图像。
根据本公开的另一个方面,提供一种用于训练神经网络的方法。该方法可实施在至少一个机器上,每 个机器具有至少一个处理器和存储。该方法可包括:获取关于第一剂量水平的第一组投影数据;基于第一 组投影数据确定第二组投影数据,第二组投影数据与第二剂量水平相关,第二剂量水平低于第一剂量水平; 基于第一组投影数据和第二组投影数据训练神经网络模型,经训练的神经网络模型配置为将第三组投影数 据转换为第四组投影数据,第四组投影数据比第三组投影数据具有更低的噪声水平。
根据本公开的另一个方面,提供一种用于训练神经网络的方法。该方法可实施在至少一个机器上,每 个机器具有至少一个处理器和存储。该方法可包括:获取关于剂量水平的投影数据;基于投影数据通过第 一重建参数重建第一图像;基于投影数据通过第二重建参数重建第二图像,第二重建参数不同于第一重建 参数;基于第一图像和第二图像训练神经网络模型,神经网络模型配置为将第三图像转换为第四图像,与 第三图像相比第四图像呈现更好的图像质量,图像质量与对比度和空间分辨率中的至少一个相关。
附加的特征将在以下说明书的部分中陈述,且在本领域技术人员查阅了以下描述和所附附图后这些附 加的特征将部分地变得显而易见,或可通过示例的生产或操作来获知这些附加的特征。可通过以下讨论的 详细示例中所阐述的方法、手段、和组合的各个方面的实践或使用,来实现和达到本公开的特征。
附图说明
本公开进一步以示例性的实施例描述。这些示例性的实施例将参考附图详述。这些实施例是非限制性 的示例性实施例,其中在附图的多个视图中相似的附图标记代表相似的结构,并且其中:
图1是根据本公开的一些实施例描述的示例性的CT成像***的示意图。
图2是根据本公开的一些实施例描述的示例性的计算装置的示例性的硬件和/或软件部件的示意图。
图3是根据本公开的一些实施例描述的示例性的移动装置的示例性的硬件和/或软件部件的示意图。
图4是根据本公开的一些实施例描述的示例性的处理引擎的方框图;
图5是根据本公开的一些实施例描述的示例性的神经网络确定模块的方框图;
图6是根据本公开的一些实施例描述的处理图像数据的示例性过程的流程图;
图7是根据本公开的一些实施例描述的确定第一神经网络模型的示例性过程的流程图;
图8是根据本公开的一些实施例描述的模拟低剂量投影数据的示例性过程的流程图;
图9是根据本公开的一些实施例描述的确定第二神经网络模型的示例性过程的流程图;
图10是根据本公开的一些实施例描述的训练神经网络模型的示例性过程1000的流程图;
图11是根据本公开的一些实施例描述的示例性的神经网络模型的示意图。
具体实施方式
在以下详细描述中,通过示例的方式阐述了许多具体细节以提供对相关公开的透彻理解。然而,对本 领域技术人员而言应当显而易见的是,没有这些细节也可实践本公开。在其它实例中,已以相对高的层级 描述了公知的方法、过程、***、部件和/或电路,而没有细节,以避免不必要地模糊本公开的各方面。对 于所公开实施例的各种修改对本领域技术人员将是显而易见的,并且在不背离本发明的精神和范围的情况 下,可将本文中所定义的一般原理应用于其它实施例和应用。由此,本发明不限于所示实施例,而是符合 与权利要求一致的最广范围。
此处使用的术语仅为了描述具体的示例性实施例,并不是限制性的。如本文所使用的,单数形式“一 个”、“一个”和“该”也旨在包括复数形式,除非上下文另有明确指示。进一步应当理解的是,本说明书 中的术语“包括”、“包括”、“包括”、“包含”、“包含”、“包含”指明存在所声称的特征、整数、步骤、操 作、元素(element)和/或部件,但不排除存在或附加一个或多个其它的特征、整数、步骤、操作、元素,和 /或部件和/或它们的任意组合。
应当理解的是,本文使用的术语“***”、“引擎”、“单元”、“模块”、和/或“块”是一种以升序区别 不同级别的部件(component),元件(element)、部分(part)、局部(section)或组件(assembly)的方法。然而,如 果其他表达能够达到相同的目的,则这些术语也可以由其他表达代替。
通常,使用的术语“模块”、“单元”、或“块”指的是体现在硬件、固件或者软件指令集合中的逻辑。 本文描述的模块,单元或块可实施为硬件和/或软件,可存储于任何形式的非暂态计算机可读介质或其它存 储设备。在一些实施例中,软件模块/单元/块可被编译且链接到可执行程序中。应当理解的是,软件模块 能从其它模块/单元/块被调用或者被软件模块自身调用,和/或可响应于检测事件或中断被调用。被配置为 在计算装置(例如图2所示的处理器210)上执行的软件模块/单元/块可被提供在计算机可读介质,例如压 缩光盘,数字视频盘,闪驱,磁盘,或者任何其它有形介质上,或者作为数字下载提供(并且可以原始地 以压缩的或可安装的格式存储,它们在执行之前需要安装、解压或解密)。这样的软件代码可以部分或全 部存储于执行中的计算装置的存储设备中,以被计算装置执行。软件指令可嵌入诸如可擦除可编程只读存 储器(EPROM)的固件中。应当进一步理解的是,硬件模块/单元/块可被包括在连接的诸如门和触发器的 逻辑部件中,和/或包括在诸如可编程门阵列或处理器的可编程单元中。本文描述的模块/单元/块或计算装 置功能可以实现为软件模块/单元/块,但是也可以呈现为硬件或固件。一般地,本文描述的模块/单元/块指 的是可结合其它模块/单元/块或者分割为子模块/子单元/子块的逻辑模块/单元/块,无论它们的物理结构或 存储如何。该描述可应用于***,引擎或其部分。
应当理解的是,当单元、引擎、模块或块被称为“位于”、“连接到”、“耦接到”其它单元、引擎,模 块、或块,其可以指的是直接位于、连接到、或耦接到、或者与其它单元,引擎、模块或块通信,或者可 以存在中间的单元,引擎、模块或块,除非上下文明确指明其它方式。如本文使用的,术语“和/或”包括 一个或多个相关罗列项目的任何与所有组合。
本公开的这些或其它特征、特性、以及操作方法、结构相关元件的功能,产品的部件和经济组合,参 考下文描述和相应的附图将会更加易懂,所有附图构成本公开的一部分。然而,应当明确理解的是,附图 仅用于说明和描述目的,不用于限制本公开的范围。应当理解的是,附图不是按比例的。
本文提供用于图像处理的***和部件。在一些实施例中,成像***可包括单模成像***,例如计算机 断层摄影(CT)***、发射计算机断层摄影(ECT)、超声成像***、X射线光学成像***、正电子发射 断层摄影(PET)***、或类似物,或者它们的任意组合。在一些实施例中,成像***可包括多模成像系 统,例如计算机断层摄影-磁共振成像(CT-MRI)***、正电子发射断层摄影-磁共振成像(PET-MRI)系 统、单光子发射断层摄影-计算机断层摄影(SPECT-CT)***、数字减影血管造影-计算机断层摄影(DSA-CT) ***等。需要注意的,下文描述的CT成像***100仅用于说明目的,不旨在限定本公开的范围。
为了说明的目的,本公开描述用于CT成像处理的***和方法。该***可基于神经网络模型生成CT 图像。例如,基于神经网络模型可处理低剂量的CT图像数据以生成高剂量的CT图像数据。高剂量的CT 图像数据相对于低剂量的CT图像数据可呈现更好的质量。可通过训练获得神经网络模型,训练是基于多 个低剂量图像或图像数据以及高剂量图像,高剂量图像是分别基于不同重建技术重建。
下文的描述被提供以帮助更好地理解CT成像重建方法和/或***。这并不旨在限制本公开的范围。对 于本领域普通技术人员而言,可在本公开的教导下进行一定数量的变形、改变和/或修改。那些变形,改变 和/或修改并不脱离本公开的范围。
图1是根据本公开的一些实施例描述的示例性的CT成像***100的示意图。如图所示,CT成像*** 100可包括扫描器110、处理引擎120、存储(storage)130、一个或多个终端140、以及网络150。在一些实 施例中,扫描器110、处理引擎120、存储130,和/或终端140可相互连接和/或通过无线连接(例如网络 150),有线连接或者它们的组合相互通信。CT成像***100各部件之间的连接可变。仅仅作为示例,扫 描器110可通过网络150连接到处理引擎120,如图1所示。作为另一个示例,扫描器110可直接连接到 处理引擎120。作为进一步示例,存储130可通过网络150连接到处理引擎120,如图1所示,或者直接 连接到处理引擎120。作为更进一步示例,终端140可通过网络150连接到处理引擎120,如图1所示, 或者直接连接到处理引擎120。
扫描器110可通过扫描对象或者对象的一部分来生成或提供图像数据。在一些实施例中,扫描器110 可包括单模扫描器和/或多模扫描器。单模可包括,例如计算机断层摄影(CT)扫描器、正电子发射断层 摄影(PET)扫描器等。多模扫描器包括单光子发射计算机断层摄影-计算机断层摄影(SPECT-CT)扫描 器、正电子发射断层摄影-计算机断层摄影(CT-PET)扫描器、计算机断层摄影-超声(CT-US)扫描器、 数字减影血管造影-计算机断层摄影(DSA-CT)扫描器、或类似物,或者它们的组合。在一些实施例中, 图像数据可包括投影数据,关于对象的图像等。投影数据可以是扫描器110扫描对象产生的原始数据,或 者是通过对对象相关图像的前向投影生成的数据。在一些实施例中,对象可包括身体、物质、物体、或类 似物,或者它们的组合。在一些实施例中,对象可包括身体的特定部分,例如头部、胸部、腹部、或类似 物,或者它们的组合。在一些实施例中,对象可包括特定器官或者感兴趣的区域,例如食管、气管、支气 管、胃、胆囊、小肠、结肠、膀胱、输尿管、子宫、输卵管等。
在一些实施例中,扫描器110可以包括管、检测器等。管可根据一个或多个扫描参数生成和/或发射朝 向对象传送的一个或多个辐射束。本文使用的辐射可包括粒子射线、光子射线、或类似物,或者它们的任 意组合。在一些实施例中,辐射可包括多个辐射粒子(例如中子、原子、电子、μ-介子、重离子等),多 个辐射光子(例如X射线、γ射线、紫外线、激光等)、或类似物,或者它们的组合。示例性的扫描参数 可包括管电流/电压,检测器的积分时间,管的焦点的尺寸,检测器的响应,管的响应,准直的宽度,切片 厚度,切片间隙,视场(FOV)等。在一些实施例中,扫描参数可与从管发射的辐射的剂量水平相关。使 用于本文时,辐射的剂量水平可被CT剂量指数(CTDI),有效剂量,剂量-长度乘积(product)等定义。CT 剂量指数(CTDI)可以指的是与沿着扫描器110长轴(例如轴方向)的单个切片相关的辐射的辐射能量。 剂量-长度乘积可以指的是积分扫描过程中对象接收到的辐射的总辐射能量。有效剂量可以指积分扫描过程 中对象特定区域接收到的辐射能量。
扫描器110的检测器可以检测从管发射的一个或多个辐射束。在一些实施例中,扫描器110的检测器 可以包括一个或多个检测器单元,其可以检测从管发射的辐射束的分布。在一些实施例中,扫描器110的 检测器可以连接到数据转换电路,该电路被配置为将检测到的辐射束的分布转换为图像数据(例如投影数 据)。图像数据可对应于检测到的辐射束的剂量水平。在一些实施例中,检测到的辐射束的剂量水平可包 括图像数据中呈现的噪声。例如,辐射的剂量水平越高,在图像数据中呈现的噪声水平相对于真实信号(反 映实际解剖结构)可能越低。辐射的剂量水平越低,图像数据中呈现的噪声水平可能就越高。
处理引擎120可处理扫描器110,存储130和/或终端140获取的数据和/或信息。例如,处理引擎120 可基于扫描器110生成的投影数据来重建图像。作为另一个示例,处理引擎120可确定一个或多个神经网 络模型,神经网络模型被配置为处理和/或转换图像。在一些实施例中,处理引擎120可以是单个服务器或 服务器群。服务器群可以是集中式的或者分布式的。在一些实施例中,处理引擎120可以是本地的或远程 的。例如,处理引擎120可以通过网络150访问来自扫描器110,存储130和/或终端140的信息和/或数据。 作为另一个示例,处理引擎120可以直接连接到扫描器110,终端140,和/或存储130以访问信息和/或数据。在一些实施例中,处理引擎120可实施于云平台上。例如,云平台可包括私有云、公共云、混合云、 社区云、分布云、互联云、多重云、或类似物,或者它们的组合。在一些实施例中,处理引擎120可通过 计算装置200执行,计算装置200具有一个或多个结合图2描述的部件。
存储130可存储数据、指令和/或任何其它信息。在一些实施例中,存储130可存储来自处理引擎120、 终端140、和/或交互装置150的数据。在一些实施例中,存储130可存储数据和/或指令,处理引擎120 可执行或使用该数据和/或指令执行本公开描述的示例性方法。在一些实施例中,存储可包括大容量存储、 可擦除存储、易失性读写存储器、只读存储器(ROM)、或类似物,或者它们的任意组合。示例性的大容 量存储可包括磁盘,光盘,固态驱动器等。示例性的可擦除存储可包括闪驱、软盘、光盘、存储卡、压缩 盘、磁带等。示例性的易失性读取存储器可包括随机存取存储器(RAM)。示例性的RAM可以包括动态 RAM(DRAM)、双倍速率同步动态RAM(DDR SDRAM),静态RAM(SRAM)、晶闸管RAM(T-RAM) 和零电容RAM(Z-RAM)等。示例性的ROM可包括掩模ROM(MROM)、可编程ROM(PROM)、可 擦除可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)、压缩光盘ROM(CD-ROM)、以及数 字通用盘ROM等。在一些实施例中,存储130可以在云平台上实现,如本公开其它部分所述。
在一些实施例中,存储130可连接到网络150以与CT成像***100(例如处理引擎120,终端140 等)的一个或多个其它部件通信。CT成像***100的一个或多个部件可通过网络150访问存储于存储130 中的数据或指令。在一些实施例中,存储器130可以是处理引擎120的一部分。
终端140可以与扫描器110,处理引擎120,和/或存储器130连接和/或通信。例如,终端140可以从 处理引擎120获得处理过的图像。作为另一个示例,终端140可以获得经由扫描器110获取的图像数据, 且将图像数据传送到处理引擎120进行处理。在一些实施例中,终端140可包括移动装置140-1、平板计 算机140-2、膝上型计算机140-3、或类似物,或者它们的组合。例如,移动装置140-1可包括移动电话、 个人数据助理(PDA)、游戏设备、导航设备、销售点(POS)设备、膝上型计算机、平板计算机、桌面、 或类似物,或者它们的任意组合。在一些示例中,终端140可包括输入设备、输出设备等。输入设备可以 包括可以经由键盘,触摸屏(例如,触觉或触觉反馈),语音输入,眼睛跟踪输入,大脑监测***或任何 其他可比较的输入机制输入的字母数字和其他键。通过输入设备接收到的输入信息可经由例如总线被传送 给处理引擎120以供进一步处理。其它类型的输入设备可包括光标控制装置,例如鼠标、轨迹球或光标方 向键等。输出装置可包括显示器、扬声器、打印机、或类似物,或其组合。在一些实施例中,终端140可 以是处理引擎120的一部分。
网络150可包括便于CT图像***100交换信息和/或数据的任意合适网络。在一些实施例中,CT成 像***100的一个或多个部件(例如扫描器110、处理引擎120、存储130、终端140等)可通过网络150 与CT成像***100的其它一个或多个部件交换信息和/或数据。例如,处理引擎120可通过网络150从扫 描器110获取图像数据。作为另一个示例,处理引擎120可通过网络150从终端140获取用户指令。网络 150可以是或包括公网(例如因特网)、私网(例如局域网(LAN)、广域网(WAN)等)、有线网(例如 以太网)、无线网(例如802.11网,Wi-Fi网等),蜂窝网(例如长期演进技术LTE网)、框架中继网、虚 拟内网(VPN)、卫星网、电话网、路由器、集线器、交换机、服务器计算机,和/或其任意组合。例如, 网络150可包括电缆网、有线网、光纤网、远程通信网、内联网、无线局域网(WLAN)、城域网(MAN)、 公用电话交换网(PSTN)、蓝牙网、紫蜂(ZigBee)网、近场通信(NFC)网、或类似物,或它们的任意 组合。在一些实施例中,网络150可包括一个或多个网络接入点。例如,网络150可包括诸如基站和/或互 联网交换点的有线和/或无线网络接入点,通过这些网络访问点,CT成像***100的一个或多个部件可连 接到网络150以交换数据和/或信息。
这些描述仅用于说明,并不限制本公开的范围。许多替代,修改和变形对本领域技术人员而言是显而 易见的。本文描述的示例性实施例的特征,结构,方法和其它特点可以不同方式结合以获得另外的和/或替 代的示例性的实施例。例如,存储130可以是包括诸如公共云、私有云、社区、混合云等的云计算平台的 数据存储。然而,这些变形和修改并不背离本公开的范围。
图2是根据本公开的一些实施例描述的示例性的实施处理引擎120的示例性计算装置200的示例性硬 件和/或软件的部件。如图2所示,计算装置200可包括处理器210、存储220、输入/输出设备(I/O)230、 通信端口240。
处理器210可按照本文描述的技术执行计算机指令(例如程序代码)并实现处理引擎120的功能。计 算机指令可包括例如执行本文描述的特殊功能的例程、程序、对象、组件、数据结构、过程、模块以及功 能。例如,处理器210可处理从CT扫描器110、终端140、存储130和/或CT成像***100的任意其它部 件获得的图像数据。在一些实施例中,处理器210可包括一个或多个硬件处理器,例如微控制器、微处理 器、精简指令集计算机(RISC)、应用专用集成电路(ASIC)、应用专用指令集处理器(ASIP)、中央处理 单元(CPU)、图形处理单元(GPU)、物理处理单元(PPU)、微控制器单元、数字信号处理器(DSP)、 现场可编程门阵列(FPGA)、高级RISC机(ARM)、可编程逻辑器件(PLD)、能够执行一个或多个功能 的任何电路或处理器、或类似物,或其任何组合。
仅用于说明,计算装置200仅描述了一个处理器。然而,应当注意的是,本公开中的计算装置200也 可以包括多个处理器,因此由本公开中所描述的一个处理器执行的操作和/或方法操作也可以由多个处理器 共同或分开执行。例如,如果本公开中计算装置200的处理器执行操作A和操作B,则应当理解,操作A 和操作B也可以由计算装置200中的两个或更多个不同的处理器共同地或分开地执行(例如第一处理器执 行操作A,第二处理器执行操作B,或者第一和第二处理处理器共同执行操作A和B)。
存储220可存储来自CT扫描器110、终端140、存储130、和/或CT成像***100的任意其它部件的 数据/信息。在一些实施例中,存储220可包括大容量存储、可擦除存储、易失性读写存储器、只读存储器 (ROM)、或类似物,或者它们的任意组合。例如,大容量存储可包括磁盘、光盘、固态驱动器等。可擦 除存储可包括闪驱,软盘、光盘、存储卡、压缩光盘、磁带等。易失性读取存储器可包括随机存取存储器 (RAM)。RAM可包括动态RAM(DRAM)、双倍速率同步动态RAM(DDR SDRAM)、静态RAM(SRAM)、 晶闸管RAM(T-RAM)和零电容RAM(Z-RAM)等。ROM可包括掩模ROM(MROM)、可编程ROM (PROM)、可擦除可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)、光盘ROM(CD-ROM)、 以及数字通用盘ROM等。在一些实施例中,存储220可存储一个或多个程序和/或指令以执行本公开描述 的示例性方法。例如,存储220可为处理引擎120存储用于确定正则化项(regularization item)的程序。
输入/输出设备230可输入和/或输出信号,数据,信息等。在一些实施例中,输入/输出设备230可使 用户与处理引擎120交互。在一些实施例中,输入/输出设备230可包括一个输入装置和一个输出装置。输 入装置的示例可包括键盘、鼠标、触摸屏、麦克风、或类似物,或者它们的组合。输出装置的示例可包括 显示器、扬声器、打印机、投影仪、或类似物,或者它们的组合。显示器的示例可包括液晶显示器(LCD)、 基于发光二极管(LED)的显示器、平板显示器、曲面屏幕、电视装置、阴极射线管(CRT)、触摸屏、或 类似物,或其组合。
通信端口240可以连接到网络(例如网络150)以方便数据通信。通信端口240可在处理引擎120、 CT扫描器110、终端140、和/或存储130之间建立连接。连接可以是有线连接、无线连接、实现数据发送 和/或数据接收的其它任意通信连接,和/或这些连接的任意组合。有线连接可包括例如电缆、光缆、电话 线、或类似物,或者其任意组合。无线连接可包括例如蓝牙链路、Wi-Fi链路、全球微波互联接入(WiMax) 链路、无线局域网(WLAN)链路、紫蜂(ZigBee)链路、移动网络链路(例如,3G、4G、5G等)、或类 似物,或其组合。在一些实施例中,通信端口240可以是和/或包括标准通信端口,例如RS232、RS485等。 在一些实施例中,通信端口240可以是特殊设计的通信端口。例如,通信端口240可根据医学数字成像和 通信(DICOM)协议设计。
图3是根据本公开的一些实施例描述的实施终端140的示例性的移动装置300的示例性的硬件和/或软 件的示意图。如图3所示,移动装置300可包括通信平台310、显示器320、图形处理单元(GPU)330、 中央处理器(CPU)340、输入/输出设备350、存储器360以及存储390。在一些实施例中,移动装置300 也可包括任意其它合适的部件,包括但不限于***总线或控制器(未示出)。在一些实施例中,移动操作 ***370(例如iOS,Android,WindowsPhone等)以及一个或多个应用380可从存储390加载到存储器360, 以被CPU 340执行。应用380可包括浏览器或用于接收和呈现关于图像处理的信息或来自处理引擎120的 其它信息的任意其它合适的移动应用。用户与信息流的交互可通过输入/输入设备350实现,且通过网络 150提供给处理引擎120和/或CT成像***100的其它部件。
为了实施本公开的各种模块、单元,和它们的功能,可使用计算机硬件平台作为硬件平台用于本文描 述的一个或多个元件。具有用户界面元件的计算机可用于实施个人计算机(PC)或任意其它类型的工作站 或终端设备。如果被适当编程的话,计算机也可充当服务器。
图4是根据本公开的一些实施例描述的示例性的处理引擎120的方框图。处理引擎120可包括获取模 块410,控制模块420,神经网络确定模块430,图像数据处理模块440,存储模块450。处理引擎120可 被实施于各种部件上(例如图2所示的计算装置200的处理器210)。例如,处理引擎120的至少一部分可 被实施于图2所示的计算装置或图3所示的移动装置。
获取模块410可获取图像数据。获取模块410可从扫描器110或存储装置(例如存储130、存储220、 存储390、存储器360、存储模块450、或类似物,或其组合)获取图像数据。图像数据可包括投影数据、 图像等。在一些实施例中,获取模块410可将获取的图像数据发送到处理引擎120的其它模块或单元以用 于进一步处理。例如,获取的图像数据可发送到存储模块450存储。作为另一个示例,获取模块410可发 送图像数据(例如投影数据)到图像数据处理模块440以重建图像。
控制模块420可控制获取模块410、神经网络确定模块430、图像处理模块440和/或存储模块450(例 如通过产生一个或多个控制参数)的操作。例如,控制模块420可控制获取模块410获取图像数据。作为 另一个示例,控制模块420可控制图像数据处理模块440处理由获取模块410获取的图像数据。作为又一 个示例,控制模块420可控制神经网络确定模块430来训练神经网络模型。在一些实施例中,控制模块420 可接收实时命令或取回由例如用户(例如医生)或***100提供的预定命令,以控制获取模块410、神经 网络确定模块430和/或图像数据处理模块440的一个或多个操作。例如,控制模块420能根据实时指令和 /或预定指令调节图像数据处理模块440以生成对象图像。在一些实施例中,控制模块420可与处理引擎 120的一个或多个其它模块通信以交换信息和/或数据。
神经网络确定模块430可确定一个或多个神经网络模型。例如,神经网络确定模块430可确定第一神 经网络模型,第一神经网络模型被配置为例如降低图像的噪声水平。作为另一个示例,神经网络确定模块 430可确定第二神经网络模型,第二神经网络模型被配置为例如,通过例如在图像上执行图像增强操作来 增加图像的对比度。在一些实施例中,神经网络确定模块430可将确定的神经网络模型发送到一个或多个 其他模块用于进一步的处理或应用。例如,神经网络确定模块430可向存储模块450发送神经网络模型用 于存储。作为另一个示例,神经网络确定模块430可将神经网络模型发送到图像数据处理模块440用于图 像处理。
图像数据处理模块440可处理由处理引擎120的各个模块提供的信息。处理模块440可处理由获取模 块410获取的图像数据,从存储模块450取回的图像数据等。在一些实施例中,图像数据处理模块440可 根据重建技术基于图像数据来重建图像,生成包括一个或多个图像和/或其他相关信息的报告,和/或执行 根据本公开的各种实施例的任何其它用于图像重建的功能。
存储模块450可存储图像数据、模型、控制参数、经处理的图像数据、或类似物,或其组合。在一些 实施例中,存储模块450可存储可由处理引擎120的处理器执行的一个或多个程序和/或指令,以执行在本 公开中描述的示例性方法。例如,存储模块450可存储由处理引擎120的处理器执行的程序和/或指令以获 取图像数据、基于图像数据重建图像、训练神经网络模型和/或显示任何中间结果或结果图像。
在一些实施例中,图4所示的一个或多个模块可在图1中所示的示例性CT成像***100的至少一部 分中实现。例如,获取模块410、控制模块420、存储模块450、神经网络确定模块430和/或图像数据处 理模块440可以集成到控制台(未示出)中。通过控制台,用户可设置用于扫描对象的参数,控制成像过 程,控制用于图像重建的参数,观察重建图像等。在一些实施例中,控制台可经由处理引擎120和/或终端 140实现。在一些实施例中,神经网络确定模块430可集成到终端140。
在一些实施例中,处理引擎120不包括神经网络确定模块430。由另一设备确定的一个或多个神经网 络模型可存储在***100中(例如,存储130、存储220、存储390、存储器360、存储模块450等)或 者在外部设备上,该外部设备可通过处理引擎120经由例如网络150存取。在一些实施例中,这种设备可 包括与神经网络确定模块430相同或相似的部分。在一些实施例中,神经网络确定模块430可存储一个或 多个神经网络模型,该神经网络模型由另外的设备确定,并且可被***100的一个或多个部件(例如图像 重建单元520,图像数据模拟单元540等)访问。在一些实施例中,本公开中可应用的神经网络模型可由 ***100(或包括例如处理引擎120的一部分)或可由***100访问的外部设备(或包括例如处理引擎120 的一部分)确定。例如,参见图7、图9和图10及其描述。
图5是根据本公开的一些实施例描述的示例性的神经网络确定模块430的方框图。如图所示,神经网 络确定模块430可包括图像重建单元520,图像数据模拟单元540,神经网络训练单元560和存储单元580。 神经网络确定模块430可在各种组件(例如,如图2所示的计算装置200的处理器210)上实施。例如, 神经网络确定模块430的至少一部分可实施于图2所示的计算装置或图3所示的移动装置。
图像重建单元520可基于一个或多个重建技术来重建一个或多个图像。在一些实施例中,图像重建单 元520可基于第一重建技术重建第一图像(例如,高剂量图像)。图像重建单元520可基于第二重建技术 重建第二图像(例如,低剂量图像)。第一重建技术和第二重建技术可相同或不同。在一些实施例中,图 像重建单元520可将重建的图像发送到神经网络确定模块430的其他单元或块,用于进一步处理。例如, 图像重建单元520可以将重建的图像发送到神经网络训练单元560,以训练神经网络模型。作为另一示例, 图像重建单元520可以将重建的图像发送到存储单元580以进行存储。
图像数据模拟单元540可模拟图像数据。在一些实施例中,图像数据模拟单元540可基于由CT扫描 方式获取的高剂量图像数据来模拟虚拟低剂量图像数据。如本文所使用的,虚拟低剂量图像数据可以对应 于比真实高剂量图像数据更低的剂量水平。在一些实施例中,图像数据模拟单元540可将模拟图像数据发 送到神经网络确定模块430的其他单元和/或块用于进一步处理。例如,可将模拟图像数据发送到图像重建 单元520以生成图像。作为另一个示例,可将模拟传送数据发送到神经网络训练单元560用于训练神经网 络模型。
神经网络训练单元560可训练神经网络模型。在一些实施例中,神经网络训练单元560可训练第一神 经网络模型,第一神经网络模型被配置为例如降低图像中的噪声水平。可以使用多个高剂量图像和对应的 低剂量图像来获得这样的神经网络模型。在一些实施例中,神经网络训练单元560可训练第二神经网络模 型,第二神经网络模型配置为例如提高图像的对比度。可以使用具有较高对比度的多个图像和具有较低对 比度的对应图像来获得这样的神经网络模型。如本文所使用的,当两个图像涉及受检体的相同区域时,可 以将两个图像视为彼此对应。仅作为示例,两个对应的图像可能在一个或多个方面不同,包括例如高剂量 图像与低剂量图像,具有高对比度的图像与具有低对比度的图像、或类似物,或其组合。
在一些实施例中,神经网络训练单元560还可包括初始化块562、提取块564、计算块566和判断块 568。初始化块562可初始化神经网络模型。例如,初始化块562可构建初始神经网络模型。作为另一示 例,初始化块562可初始化初始神经网络模型的一个或多个参数值。提取块564可以从一个或多个训练图 像(例如,高剂量图像和低剂量图像)中提取信息。例如,提取块564可以从这些训练图像中提取关于一 个或多个区域的特征。计算块566可以在例如训练神经网络模型的过程中执行计算功能。例如,计算块566 可以计算在迭代训练过程中更新的神经网络模型的一个或多个参数值。判断块568可以在例如训练神经网络模型的过程中执行判断功能。例如,判断框568可以确定在神经网络模型的训练过程中条件是否满足。
存储单元580可以存储关于例如训练神经网络模型的信息。在一些实施例中,与训练神经网络模型有 关的信息可以包括用于训练神经网络模型的图像,用于训练神经网络模型的算法,神经网络模型的参数等。 例如,存储单元580可以根据一定的标准来存储训练图像(例如高剂量图像和低剂量图像)。可以基于训 练图像的维度将训练图像存储或上传到存储单元580中。为了说明的目的,二维(2D)图像或三维(3D) 图像可以被存储为包括多个元素(例如,像素或体素)的2D或3D矩阵。2D矩阵的元素以每行元素被 顺序地存储在存储单元580中的方式被布置在存储单元580中,每行元素与2D图像的长度相对应,因此 相同行中的元素在存储单元580中彼此相邻。3D矩阵的元素以构成3D矩阵的多个2D矩阵顺序地存储在 存储单元580中的方式布置在存储单元580中,然后每个2D矩阵的行和/或列顺序地存储在存储单元580 中。存储单元580可以是存储要由诸如CPU、GPU等处理设备处理的数据的存储器。在一些实施例中, 存储单元580可以是由一个或多个GPU访问的存储器,或者是只由特定GPU访问的存储器。
应当注意的是,对处理模块430的以上描述仅仅是为了说明的目的而提供的,而并非旨在限定本公开 的范围。对于本领域普通技术人员而言,可在本公开的教导下做出多种变形或修改。然而,那些变形和修 改并不背离本公开的范围。例如,图像重建单元520和图像数据模拟单元540可被集成到单个单元。
图6是根据本公开的一些实施例描述的处理图像数据的示例性过程600的流程图。在一些实施例中, 图6所示的用于处理图像数据的过程600的一个或多个处理操作可在图1所示的CT成像***100上实施。 例如,图6所示的过程600可以以指令的形式存储在存储130中,并由处理引擎120(例如,如图2所示 的计算装置200的处理器210,如图3所示的移动装置300的GPU 330或CPU 340)调用和/或执行。
在602中,可以获取低剂量图像数据。操作602可由获取模块410执行。如本文所使用的,低剂量图 像数据可以指的是对应于第一剂量水平的图像数据(例如投影数据、图像等)。在一些实施例中,低剂量 图像数据可以包括低剂量投影数据。在一些实施方案中,低剂量图像数据可以包括低剂量图像。在一些实 施例中,低剂量图像数据可以包括二维(2D)图像数据,三维(3D)图像数据,四维(4D)图像数据或 其他维度的图像数据。在一些实施例中,低剂量图像数据可以是从对象扫描器(例如扫描器110)获得、 通过以低剂量水平(例如第一剂量水平)扫描对象而产生的真实图像数据。在一些实施例中,低剂量图像 数据可以是通过模拟例如高剂量图像数据的其他图像数据而获得的虚拟图像数据。在一些实施例中,低剂 量图像数据可以从存储130、终端140、存储模块450和/或任何其它外部存储设备获取。
在604中,可获取第一神经网络模型。操作604可由神经网络确定模块430执行。在一些实施例中, 第一神经网络模型可以是预定义的(例如由CT扫描器的制造商、专门从事图像处理的实体、访问训练数 据的实体等提供)。在一些实施例中,第一神经网络模型可以被配置为处理图像数据(例如在602中获得 的低剂量图像数据)。示例性的图像数据处理可以包括变换,修改和/或转换等。例如,第一神经网络模型 可以被配置为将低剂量图像数据转换成对应于低剂量图像数据的高剂量图像数据。作为另一示例,第一 神经网络模型可以被配置为降低图像数据(例如在602中获得的低剂量图像数据)中的噪声水平。在一些 实施例中,第一神经网络模型可以基于卷积神经网络(CNN)、循环神经网络(RNN)、长期短期记忆(LSTM)、 生成式对抗网络(GAN)、或类似物,或其组合构建。例如,参见图11及其描述。在一些实施例中,第一 神经网络模型可以被配置为二维(2D)模型,三维(3D)模型,四维(4D)模型或任何其他维度的模型。 在一些实施例中,可以根据图7所示的过程700来确定第一神经网络模型。
在606中,可以基于第一神经网络模型处理低剂量图像数据,以生成对应于低剂量图像数据的(虚拟) 高剂量图像数据。操作606可以由图像数据处理模块440执行。在一些实施例中,对应于低剂量图像数据 的(虚拟)高剂量图像数据可以表现出比低剂量图像数据更低的噪声水平。如本文所使用的,对应于低剂 量图像数据的(虚拟)高剂量图像数据指的是对应于第二剂量水平的图像数据(例如投影数据、图像等)。 (虚拟)高剂量图像数据的第二剂量水平可以大于低剂量图像数据的第一剂量水平。对应的(虚拟)高 剂量图像数据和低剂量图像数据指的是同一对象或者该被检查的对象的相同部分或区域(例如患者、组织等)的表示。在一些实施例中,(虚拟)高剂量图像数据可包括高剂量投影数据。在一些实施例中,(虚拟) 高剂量图像数据可以包括高剂量图像。在一些实施例中,高剂量图像数据可以包括二维(2D)图像数据, 三维(3D)图像数据,四维(4D)图像数据或其他维度的图像数据。
在操作608中,可以获取第二神经网络模型。操作608可以由神经网络模型确定模块430执行。在一 些实施例中,第二神经网络模型可以是预定义的(例如,由CT扫描器的制造商、专门从事图像处理的实 体、访问训练数据的实体等提供)。在一些实施例中,第二神经网络模型可以被配置为处理图像数据(例 如,在606中生成的(虚拟)高剂量图像数据)。示例性的图像数据处理可以包括变换,修改和/或转换等。 例如,第二神经网络模型可以被配置为对图像数据(例如,操作606中生成的(虚拟)高剂量图像数据) 执行图像数据增强操作606。在一些实施例中,第二神经网络模型可以基于卷积神经网络(CNN)、循环神 经网络(RNN)、长期短期记忆(LSTM)、生成对抗网络(GAN)、或类似物或其组合构建。例如,参见 图11及其描述。在一些实施例中,第二神经网络模型可以被配置为二维(2D)模型、三维(3D)模型、 四维(4D)模型或任何其他维度的模型。在一些实施例中,可以根据图9所示的过程900来确定第二神经 网络模型。
在610中,可以基于第二神经网络模型对(虚拟)高剂量图像数据进行后处理。操作610可以由图像 数据处理模块440执行。在一些实施例中,后处理的高剂量图像数据可以呈现出比在608获得的高剂量图 像数据更高的质量。例如,对应于高剂量图像数据的后处理的高剂量图像数据可以呈现出比在608获得的 高剂量图像数据更高的对比度。
在612中,可以输出后处理的高剂量图像数据。操作612可以由图像数据处理模块440执行。在一些 实施例中,后处理的高剂量图像数据可以被输出到终端140,以例如图像的形式显示。在一些实施例中, 后处理的高剂量图像数据可以被输出到存储130和/或存储模块508以进行存储。
应当注意,以上描述仅是为了说明的目的而提供的,并非旨在限定本公开的范围。对于本领域普通技 术人员而言,可在本公开的教导下作出多种变形或修改。然而,那些变形和修改并不背离本公开的范围。 例如,过程600可以包括在操作604之前对低剂量图像数据进行预处理操作,例如去噪。作为另一示例, 操作606和/或608可以是不必要的并被省略的。在一些实施例中,过程600还可以包括输出在606中生 成的高剂量图像数据。
图7是根据本公开的一些实施例描述的确定第一神经网络模型的示例性过程700的流程图。如图6所 示的操作604可以根据过程700执行。在一些实施例中,第一神经网络模型可以被配置为将低剂量图像数 据转换为高剂量图像数据。可以通过使用多个低剂量图像和多个对应的高剂量图像训练神经网络模型来确 定第一神经网络模型。可以分别基于不同的重建技术来重建低剂量图像和对应的高剂量图像。在一些实施 例中,用于确定第一神经网络模型的图7所示的过程700的一个或多个操作可以在图1所示的CT成像系 统100中实现。例如,图7所示的过程700可以以指令的形式存储在存储130中,并由处理引擎120(例如,如图2所示的计算装置200的处理器210,如图3所示的移动装置300的GPU 330或CPU340)调用 和/或执行。
在702中,可以获取高剂量投影数据。操作702可以由图像数据模拟单元540执行。在一些实施例中, 高剂量投影数据可以包括2D投影数据,3D投影数据等。在一些实施例中,高剂量投影数据可以从扫描器 (例如扫描器110)获得、通过扫描被检查的对象来生成。在一些实施例中,高剂量投影数据可以通过图 像的前向投影产生。在一些实施例中,可以从存储130,终端140,存储模块450和/或任何其它外部存储 设备获取高剂量投影数据。
在704中,可以获取与高剂量投影数据对应的低剂量投影数据。操作704可以由图像数据模拟单元540 执行。如本文所使用的,对应的低剂量投影数据和高剂量投影数据指的是相同对象或对象的相同部分(例 如患者、组织等)的表示。在一些实施方案中,高剂量投影数据可对应于第一剂量水平,并且低剂量投影 可对应于第二剂量水平。第一剂量水平可以大于第二剂量水平。在一些实施例中,第一剂量水平和第二剂 量水平可以根据临床需求(例如,组织的类型)而变化。例如,在肝脏扫描中,第一剂量水平可以等于或 超过5mSv,或10mSv或15mSv等。第二剂量水平可以低于15mSv,或10mSv或5mSv等。第二剂量水 平和第一剂量水平之比可以在5%至40%的范围内,例如10%、15%、20%、25%、30%等。作为另一个 示例,在胸部扫描中,第一剂量水平可以等于或超过2mSv或7mSv等。第二剂量水平可以低于7mSv或 2mSv等。在一些实施例中,第一剂量水平和估计有效剂量之比可以等于或超过1%、或5%、或10%、 或25%、或50%、或100%、或150%等。第二剂量水平和估计有效剂量之比可以等于或低于1%、或5%、 或10%、或25%等。估计有效剂量可以是在积分扫描进度表中CT成像的感兴趣区域接收的剂量水平。估 计有效剂量的剂量水平可以在例如0.1mSv至1.5mSv的范围内。
在一些实施例中,可以从扫描器(例如扫描器110)获得低剂量投影数据。在一些实施例中,可以从 存储130,终端140,存储模块450和/或任何其它外部存储设备获得低剂量投影数据。在一些实施例中, 可以基于高剂量投影数据来确定低剂量投影数据。例如,可以通过基于高剂量投影数据的模拟来确定低剂 量投影数据。
应当注意的是,投影数据可以涉及在辐射通过被检查的对象之后从扫描器(例如扫描器110)发射的 辐射的分布。投影数据可以包括与扫描器相关的噪声(例如扫描器110中的检测器的电子噪声)。从扫描 器发射的辐射束的分布可以相关于包括一个或多个扫描参数的扫描条件,扫描参数包括例如管电流/电压, 检测器的积分时间,管的焦点的尺寸,检测器的响应,管的响应,准直的宽度等。可以配置不同的扫描条 件以产生不同剂量水平的辐射束。例如,管电流/电压越大,产生的辐射束剂量水平可能越高。在一些实施 方式中,如结合图8所述的,可以基于与第一剂量水平对应的高剂量投影数据来获取对应于第二剂量水平 的低剂量投影数据。在一些实施例中,高剂量投影数据和对应的低剂量投影数据都可以获取自扫描器(例 如扫描器110)、通过扫描被检查的对象而生成。
在706中,基于高剂量投影数据,通过第一重建技术生成高剂量图像。操作706可由图像重建单元520 执行。在一些实施例中,第一重建技术可以包括迭代重建技术、分析重建技术、或类似物,或其组合。示 例性的迭代重建技术可包括代数重建技术(ART)、同时迭代重建技术(SIRT)、同时代数重建技术(SART)、 自适应统计迭代重建(ASIR)技术、基于模型的迭代重建(MAIR)技术、正弦图确认迭代重建(SAFIR) 技术、或类似物,或其组合。示例性的分析重建技术可包括应用FDK算法,Katsevich算法等,或其组合。 在一些实施例中,在高剂量图像的重建过程之前,可以确定一个或多个重建参数。示例性的重建参数可包 括视场(FOV)、切片厚度、重建矩阵、切片间隙、卷积核、或类似物,或其组合。例如,与低剂量图像的重建相比,可以通过应用更大的切片厚度、更大的重建矩阵、更小的FOV等来重建高剂量图像。
在一些实施方案中,高剂量图像可以呈现第一图像质量。如本文所使用的,第一图像质量可以由高剂 量或第一图像的第一噪声水平来定义。在一些实施例中,基于相同的图像数据但不同的重建技术重建的 高剂量图像的第一噪声水平可能不同。例如,使用迭代重建技术重建的高剂量图像的第一噪声水平可能低 于使用分析重构技术重建的高剂量图像的第一噪声水平。在一些实施例中,基于相同的图像数据和相同的 重建技术但是不同的重建参数而重建的高剂量图像的第一噪声水平可能是不同的。例如,使用更大切片厚 度,更大的重建矩阵,更平滑的重建核和/或更小的视场重建的高剂量图像的第一噪声水平,可能低于基于 相同重建技术而使用更小的切片厚度,更小的重建矩阵,更清晰的重建核和/或更大的视场重建的高剂量图 像的第一噪声水平。
在一些实施例中,在高剂量图像的重建过程中,可以使用用于执行图像平滑功能的去噪技术或滤波核 函数来降低高剂量图像的第一噪声水平。示例性的去噪技术可以包括自适应滤波算法、卡尔滤波算法、或 类似物,或其组合。示例性的自适应滤波算法可以包括最小均方(LMS)自适应滤波算法、递归最小二乘 法(RLS)自适应滤波算法、变换域自适应滤波算法、仿射投影算法、共轭梯度算法、基于子带分解的自 适应滤波算法、基于QR分解的自适应滤波算法等。在一些实施例中,去噪技术可以包括应用去噪模型。 示例性的去噪模型可以包括空间域滤波器模型、变换域滤波器模型、形态噪声滤波器模型、或类似物,或 其组合。示例性的空间域滤波器模型可以包括场平均滤波器模型、中值滤波器模型、高斯滤波器模型、或 类似物,或其组合。示例性的变换域滤波器模型可以包括傅里叶变换模型、沃尔什-哈达玛变换模型、余弦 变换模型、K-L变换模型、小波变换模型、或类似物,或其组合。在一些实施例中,去噪模型可以包括偏 微分模型或变分模型,例如Perona-Malik(P-M)模型、总体变化(TV)模型、或类似物,或其组合。用 于执行图像平滑功能的示例性滤波核技术可以包括应用例如线性平滑滤波器(例如,块滤波器、均值滤波 器、高斯滤波器等),非线性平滑滤波器(例如,中值滤波器器、顺序统计滤波器等)等。
在708中,基于低剂量投影数据,通过第二重建技术来生成低剂量图像。操作708可由图像重建单元 520执行。示例性的第二重建技术可以包括迭代重建技术、分析重建技术、或类似物,或其组合,如本公 开其他部分中所描述的。在一些实施例中,第二重建技术可以与第一重建技术不同或相同。例如,第二重 建技术可以包括分析重建技术,第一重建技术可以包括迭代重建技术。作为另一示例,第二重建技术和第 一重建技术可以包括相同的迭代重建技术。在一些实施例中,可以确定一个或多个用于重建低剂量图像的 重建参数。示例性的重建参数可包括视场(FOV)、切片厚度、重建矩阵、切片间隙、卷积核、或类似物, 或其组合。例如,与高剂量图像的重建相比,可以通过应用较小的切片厚度、较小的重建矩阵、较大的FOV、 更清晰的重建核等来重建低剂量图像。
在一些实施例中,低剂量图像可呈现第二图像质量。如本文所使用的,第二图像质量可以由低剂量或 第二图像的第二噪声水平来定义。低剂量图像的第二噪声水平可以高于对应的高剂量图像的第一噪声水 平。在一些实施例中,基于相同图像数据、不同重建技术重建的多个低剂量图像的第二噪声水平可以不同。 例如,使用分析重建技术重建的低剂量图像的第二噪声水平可能高于使用迭代重建技术重建的低剂量图像 的第二噪声水平。在一些实施例中,基于相同图像数据、相同重建技术、不同重建参数重建的多个低剂量 图像的第二噪声水平可以是不同的。例如,使用较小切片厚度,较小的重建矩阵,较大的视场等重建的低 剂量图像的第二噪声水平可能高于基于相同重建技术而使用较大切片厚度,较大重建矩阵,较小视场等的 低剂量图像的第二噪声水平。
在一些实施例中,可以通过使用用于执行图像锐化功能的滤波核技术来增加低剂量图像的第二噪声水 平。用于执行图像锐化功能的示例性的滤波核技术可以包括应用例如线性锐化滤波器(例如拉普拉斯算子、 高频提升滤波器等)、非线性锐化滤波器(例如基于梯度的锐化滤波器、最大-最小锐化变换等)等。在一 些实施例中,可以通过使用用于执行图像平滑功能的滤波核技术和/或使用去噪技术来降低低剂量图像的第 二噪声水平,如本公开的其他部分所述。
在710中,可以基于高剂量图像和低剂量图像来确定第一神经网络模型。在一些实施例中,操作710 可以由神经网络训练单元560执行。在一些实施例中,第一神经网络模型可以被配置为通过例如降低图像 的噪声水平、增加图像的对比度、或类似物、或其组合来提高图像的质量。在一些实施例中,用于改善图 像质量(例如,降低噪声水平的功能)的第一神经网络模型的有效性可能与高剂量图像和低剂量图像之间 的差异有关。如本文所用,高剂量图像和低剂量图像之间的差异可以指高剂量图像的第一噪声水平与低剂 量图像的第二噪声水平之间的差异。高剂量图像的第一噪声水平与低剂量图像的第二噪声水平之间的差异 越大,第一神经网络模型通过降低基于第一神经网络模型生成的图像的噪声水平来改善图像质量可能就越 有效。作为另一示例,高剂量图像的第一噪声水平越低,第一神经网络通过降低基于第一神经网络生成的 低剂量图像的噪声水平来改善图像质量可能就越有效。低剂量图像的第二噪声水平越高,第一神经网络通 过降低基于第一神经网络生成的低剂量图像的噪声水平来改善图像质量可能就越有效。在一些实施例中, 可以通过基于神经网络训练算法、高剂量图像和相应的低剂量图像训练一神经网络模型来确定第一神经网 络模型。示例性的神经网络训练算法可以包括梯度下降算法、牛顿算法、准牛顿算法、列文伯格-马夸尔特 法(Levenberg-Marquardt)算法、共轭梯度算法、或类似物,或其组合。
在一些实施例中,可以针对多笔训练数据重复过程700以改善或优化第一神经网络模型,多笔训练数 据包括不同组对应的高剂量和低剂量投影数据和图像。在基于不同对的高剂量和低剂量图像执行的不同轮 次的过程700中,可以基于相同或不同的重建技术获得高剂量图像。在基于不同对的高剂量和低剂量图像 执行的不同轮次的过程700中,可以基于相同或不同的重建技术获得低剂量图像。
应当注意的是,以上描述仅是为了说明的目的而提供的,并非旨在限定本公开的范围。对于本领域普 通技术人员而言,可在本公开的教导下作出多种变形或修改。然而,那些变形和修改并不背离本公开的范 围。例如,过程700可以包括用于预处理高剂量投影数据和/或低剂量投影数据的操作。作为另一示例,操 作702和704可以同时执行或以与图7所示相反的顺序执行,和/或操作706和708可以同时执行或以与图 7所示相反的顺序执行。在一些实施例中,过程700还可以包括将高剂量图像和低剂量图像存储在存储130、 终端140、存储模块450、存储单元580和/或其他外部存储设备中。在一些实施例中,可以省略操作706和708。可以直接基于高剂量投影数据和低剂量投影数据来确定第一神经网络模型。因此,第一神经网络 模型可以被配置为将原始投影数据集转换成不同的投影数据集。此不同的投影数据集可以呈现出比原始投 影数据集更低的噪声水平。
图8是根据本公开的一些实施例描述的生成模拟的低剂量投影数据的示例性过程800的流程图。如图 7所示的操作704可以根据过程800来执行。在一些实施例中,模拟投影数据的生成可以与多个因子有关, 包括例如扫描仪110的扫描参数、对象的衰减系数或吸收系数、对象的散射系数、对应于扫描器110的噪 声、或类似物,或其组合。扫描参数可以包括例如检测器的响应、管的响应、抗散射网格的滤波,管电 流的值、管电压的值、准直的宽度、曝光的时间(例如扫描时间)、焦点的大小、飞焦模式、检测器的积 分时间等。在一些实施例中,用于确定第一神经网络模型的图8所示的过程800的一个或多个操作可以在 图1所示的CT成像***100中实现。例如,图8所示的过程800可以以指令的形式存储在存储130中,并由处理引擎120(例如,如图2所示的计算装置200的处理器210,如图3所示的移动装置300的CPU 340) 调用和/或执行。
在802中,可以确定第一辐射的第一分布。第一辐射可以通过在第一扫描条件下使用扫描器(例如, 扫描器110)扫描产生。操作802可以由获取模块410执行。第一辐射(例如,包括X射线光子的辐射束) 的第一分布可以指通过被检查的对象之前的第一辐射的入射强度分布。在一些实施例中,可以使用扫描器 的检测器单元确定第一辐射的第一分布。例如,当扫描器110执行没有对象被放置在X射线发生器和检测 器单元之间的空气扫描时,可由扫描器110的检测器单元检测第一辐射的第一分布。
在一些实施例中,第一辐射的第一分布可以与第一辐射的第一剂量水平有关。可以根据第一扫描条件 来确定第一辐射的第一剂量水平。第一扫描条件可以由多个第一扫描参数的值来定义,第一扫描参数的值 包括例如管电流值、管电压值、准直宽度、曝光时间(例如扫描时间)、抗散射网格的滤波、检测器的响 应,管(或辐射源)的响应,管焦点的大小,飞焦模式,检测器的积分时间等。可以基于一个或多个第一 扫描参数的值来确定第一辐射的第一剂量水平。例如,管电流越大,第一剂量水平可能越高。
在804中,可以基于第一辐射的第一分布来确定来自扫描器的第二辐射的第二分布。第二辐射可以是 根据第二扫描条件模拟的虚拟辐射。操作802可以由图像数据模拟单元540执行。类似地,第二辐射(例 如X射线光子)的第二分布可以指通过被检查的对象之前第二辐射的入射强度分布。
在一些实施例中,第二辐射的第二分布可以与第二辐射的第二剂量水平有关。可以根据第二扫描条件 来确定第二辐射的第二剂量水平。第二扫描条件可以由多个第二扫描参数的值来定义,多个第二扫描参数 的值包括例如管电流值、管电压值、准直宽度、曝光时间(例如扫描时间)等。可以基于多个第二扫描参 数的值来确定第二辐射束的第二剂量水平。
在一些实施例中,可以基于对应于第一剂量水平(或在第一扫描条件下)的第一辐射的第一分布来确 定对应于第二剂量水平(或第二扫描条件下)的第二辐射的第二分布。例如,可以基于第一扫描条件和第 一辐射的第一分布来确定辐射分布(例如,辐射束中的粒子/光子的数量分布)和扫描条件(例如,如上文 所述的扫描参数的值)之间的关系,然后可以基于该关系来确定第二辐射束的第二分布。例如,基于第一 辐射的第一分布,可以基于该关系,根据第一扫描条件和第二扫描条件之间的差异来确定第二辐射的第二 分布。
在806中,可以基于第二辐射和高剂量投影数据来确定第二扫描条件下的第二辐射的第三分布。操作 802可以由图像数据模拟单元540执行。如本文所使用的,第二辐射束(例如X射线光子)的第三分布可 以指在第二扫描条件下第二辐射通过被检查的对象之后第二辐射的出射强度分布。在一些实施例中,可以 基于第二辐射的第二分布和对象的衰减分布来确定第二辐射束的第三分布。在一些实施例中,对象的衰减 分布可以与对象的不同部分的衰减系数或吸收系数的分布有关。可以通过基于高剂量投影数据重建对象的 衰减图来确定衰减系数或吸收系数的分布。然后可以基于第二辐射的第二分布和对应于对象的第二辐射的 衰减分布来确定第二辐射束的第三分布。
在808中,可以确定与扫描器有关的噪声估计。操作802可以由图像数据模拟单元540执行。在一些 实施例中,可以基于扫描器的检测器单元来确定与扫描器有关的噪声估计。例如,当没有辐射从扫描器发 射时,可以通过用扫描器中的检测器单元检测数据来执行噪声估计。噪声可能包括连接到检测器单元的电 路发生的电子噪声。
在810中,可以基于第三分布和噪声估计来确定低剂量投影数据。操作802可以由图像数据模拟单 元540执行。在一些实施例中,低剂量投影数据可以指对应于804和806中所述的第二剂量水平的投影数 据。在一些实施例中,可以基于第二辐射的第三分布来确定与第二辐射有关的泊松分布。泊松分布可以被 确定为近似(例如,通过曲线拟合)第三分布。然后可以基于泊松分布和噪声估计来确定低剂量投影数 据。
在一些实施例中,可以将泊松分布和噪声估计以特定比率混合获得低剂量投影数据。例如,噪声估计 可以由包括多个第一元素的第一矩阵表示。与第三分布相关的泊松分布可以由包括多个第二元素的第二矩 阵表示。多个第一元素和多个第二元素可以分别乘以第一权重值和第二权重值。低剂量投影数据可以由 加权的第一元素和加权的第二元素的加权和来确定。在一些实施方案中,第一权重值和第二权重值可以在 0至1的范围内。
应当注意的是,以上描述仅是为了说明的目的而提供的,而并非旨在限定本公开的范围。对于本领域 普通技术人员而言,可在本公开的教导下做出多种变形或修改。然而,那些变形和修改并不背离本公开的 范围。例如,操作802和808可以同时被执行。作为另一个示例,操作808可以在操作802之前执行。
图9是根据本公开的一些实施例描述的确定第二神经网络模型的示例性的过程900的流程图。如图6 所示的操作608可以根据过程900执行。在一些实施例中,第二神经网络模型可以被配置为提高图像的质 量(例如,通过改善对比度)。第二神经网络模型可以通过用具有相对较高质量的多个图像和具有相对低 质量的多个对应图像训练一神经网络模型来确定。可以基于相同的图像数据、不同的重建技术来分别重 建具有相对较高质量的多个图像和具有相对低质量的多个对应图像。在一些实施例中,用于确定第一神经 网络模型的图9所示的过程900的一个或多个操作可以在图1所示的CT成像***100中实现。例如,图9所示的过程900可以以指令的形式存储在存储130中,并由处理引擎120(例如,如图2所示的计算装 置200的处理器210,如图3所示的移动装置300的CPU 340)调用和/或执行。
在902中,可以获取投影数据。操作902可以由获取模块410执行。在一些实施例中,投影数据可以 包括高剂量投影数据,如结合操作702所描述的。
在904中,可以基于投影数据通过第三重建技术来生成第一图像。操作904可以由图像重建单元520 执行。第三重建技术包括迭代重建技术、分析重建技术、或类似物,或其组合,如本公开其它部分中所描 述的。在一些实施例中,在第一图像的重建过程之前,可以确定本公开其它部分所描述的一个或多个重建 参数。参见例如图7的操作706和/或708及其相关描述。
在906中,基于投影数据通过第四重建技术生成第二图像。操作906可由图像重建单元520执行。第 二图像可以比第一图像具有更高的对比度。
在一些实施例中,第四重建技术可以不同于第三重建技术。例如,第三重建技术可以包括分析重建技 术,第四重建技术可以包括迭代重建技术。在一些实施例中,在第三重建技术中使用的重建参数可以不同 于在第四重建技术中使用的重建参数。例如,与第四重建技术相比,第三重建技术可以使用更大的切片厚 度,更小的重建矩阵和/或更大的视场。在一些实施例中,第三重建技术和第四重建技术可以是相同类型的, 但是基于不同的重建参数。例如,第三重建技术和第四重建技术可以是迭代重建技术,但是可以基于不同 的重建参数。在一些实施例中,第三重建技术和第四重构技术可以是基于相同或不同的重建参数的不同类 型。
用于执行图像平滑功能的去噪处理或滤波核可降低图像的对比度。用于执行图像锐化功能的滤波核 可增加图像的对比度。在一些实施例中,如本公开其它部分所述的用于执行图像平滑功能的去噪处理或 滤波核可以用于第三重建技术中。参见例如图7的操作706和/或708及其相关描述。附加地或替代地,可 以在第四重建技术中使用如本公开其它部分所述的用于执行图像锐化功能的滤波核。参见例如图7的操作 706和/或708及其相关描述。因此,第二图像可以呈现出比第一图像更高的对比度。
在908中,可以基于第一图像和第二图像来确定第二神经网络模型。在一些实施例中,操作908可以 由神经网络模型训练单元560执行。在一些实施例中,第二神经网络模型可以被配置为通过例如增加图像 的对比度来提高图像质量。用于提高图像的对比度的第二神经网络的有效性可以与第一图像和第二图像 之间的差异有关。如本文所使用的,第一图像和第二图像之间的差异可以指第一图像的第一对比度与第二 图像的第二对比度之间的差异。第一图像的第一对比度与第二图像的第二对比度之间的差异越大,第二神 经网络通过增加基于第二神经网络模型生成的图像的对比度来提高图像质量可能越有效。作为另一示例, 第一图像的第一对比度越低,第二神经网络通过增加基于第二神经网络模型生成的图像的对比度来提高图 像质量可能越有效。第二图像的第二对比度越高,第二神经网络通过增加基于第二神经网络模型生成的图 像的对比度来提高图像质量可能越有效。在一些实施例中,可以通过基于神经网络训练算法、多个第一图 像和对应的第二图像训练一神经网络模型来确定第二神经网络模型。示例性的神经网络训练算法可以包括 梯度下降算法、牛顿算法、准牛顿算法、列文伯格-马夸尔特法算法、共轭梯度算法、或类似物,或其组合。
在一些实施例中,可以针对包括不同投影数据的多笔训练数据重复过程900,以改善或优化第二神经 网络模型。在基于不同对的高剂量和低剂量(或第一和第二)图像执行的不同轮次的过程900中,可以基 于相同或不同的重建技术获得高剂量(或第一)图像。在基于不同对的高剂量和低剂量(或第一和第二) 图像执行的不同轮次的处理900中,可以基于相同或不同的重建技术获得低剂量(或第二)图像。
应当注意,以上描述仅是为了说明的目的而提供的,而并非旨在限定本公开的范围。对于本领域普通 技术人员而言,可在本公开的教导下作出多种变形或修改。然而,那些变形和修改并不背离本公开的范围。 例如,过程900可以包括对投影数据进行预处理。作为另一个示例,操作904和906可以同时执行,或以 与图9所示相反的顺序执行。
图10是根据本公开的一些实施例描述的训练神经网络模型的示例性的过程1000的流程图。如图7所 示的操作710和/或如图9所示的操作908可以根据过程1000执行。在一些实施例中,用于训练神经网络 模型的如图10所示的过程1000的一个或多个操作可以在图1所示的CT成像***100中实现。例如,图 10所示的过程1000可以以指令的形式存储在存储130中,并由处理引擎120(例如,如图2所示的计算 装置200的处理器210,如图3所示的移动装置300的CPU340)调用和/或执行。
在1002中,可以获取包括第三图像和第四图像的一对图像。操作1002可以由获取模块410执行。如 本文所使用的,第三图像和第四图像可以指代表相同的对象或待检查的对象的相同区域(例如患者、组织 等)的两个图像。在一些实施例中,第三图像和第四图像可以分别对应于如图7所述的低剂量图像和高剂 量图像。在一些实施例中,第三图像和第四图像可以分别对应于如图9所示的第一图像和第二图像。
在1004中,可以初始化包括一个或多个参数的神经网络模型。操作1004可以由初始化模块562执行。 在一些实施例中,神经网络模型的初始化可以包括基于如下方式构建神经网络模型:卷积神经网络(CNN)、 循环神经网络(RNN)、长期短期记忆(LSTM)、生成对抗网络(GAN)、或类似物,或其组合,如图11 及其描述。在一些实施例中,神经网络模型可以包括多个层,例如输入层、多个隐藏层和输出层。多个 隐藏层可以包括一个或多个卷积层、一个或多个批量归一化层、一个或多个激活层、完全连接层、成本函 数层等。多个层中的每一个可以包括多个节点。
在一些实施例中,神经网络模型的参数可以包括卷积核的大小、层的数量、每层中的节点数、两个连 接节点之间的连接权重、与节点相关的偏置向量等。两个连接的节点之间的连接权重可以被配置为将节点 的输出值的一部分表示为另一个连接的节点的输入值。在一些实施例中,神经网络模型的连接权重可以被 初始化为从-1到1的范围内的随机值。在一些实施例中,神经网络模型的所有连接的权重可以具有在-1 到1的范围内的相同值,例如0。与节点相关的偏置向量可以被配置为控制偏离原点的节点的输出值。在 一些实施例中,神经网络模型中的节点的偏置向量可被初始化为从0到1的范围内的随机值。在一些实施 例中,神经网络模型的参数可以基于高斯随机算法、哈维(xavier)算法等来初始化。
在1006中,可以从第三图像中提取第一区域。操作1006可以由提取块564执行。在一些实施例中, 可以根据例如第一区域的大小、第一区域的位置等来提取第一区域。例如,第一位置可以在第一图像中确 定,然后可以在第一图像的第一位置处提取具有具体尺寸的第一区域。在一些实施例中,可以基于随机抽 样算法提取第一区域。示例性的随机抽样算法可以包括接受拒绝抽样算法,重要性抽样算法,梅特罗波 利斯-黑斯廷(Metropolis-Hasting)算法,吉布斯抽样算法等。在一些实施例中,可以基于用户经由终端140 提供的指令来提取第一区域。例如,用户可以确定第一图像中的第一位置的坐标和第一区域的具体尺寸, 然后提取块564可以基于第一位置和第一区域的具体尺寸来提取第一区域。
在1008中,可以从第四图像中提取对应于第一区域的第二区域。操作1008可以由提取块564执行。 如本文所使用的,对应于第一区域的第二区域可以指第一区域和第二区域可以具有相同的尺寸并且各自位 于第三图像和第四个图像中的相同位置。在一些实施例中,可以基于第一区域提取第二区域。例如,可以 根据诸如均匀分割的分割规则将第三图像划分为多个第一图像块。可以根据编号规则,例如多个第一图像 块中的每一个的位置对多个第一图像块进行编号。可以从多个第一图像块中提取具有特定编号的第一块, 并将其指定为第一区域。可以用与第一图像相同的划分规则将第四图像划分成多个第二图像块。多个第二 图像块中的每一个可以以与第一图像相同的编号规则进行编号。可以从多个第二图像块中提取其编号与所 提取的第一区域相同的第二块,并将其指定为第二区域。作为另一示例,第一/第二区域相对于第三/第四 图像的的位置可以与第一/第二区域存储在诸如存储单元580的存储例如存储单元580中的位置有关。相对 于第四图像的第二区域可以根据该存储中第一区域相对于第三图像的位置来确定。
在1010中,可以确定成本函数的值(也称为损失函数)。操作1010可以由计算块566执行。成本函 数可以被配置为评估神经网络的测试值(例如第三图像的第一区域)与期望值(例如第四图像的第二区域) 之间的差异。在一些实施例中,第三图像的第一区域可以经由输入层(例如图11所示的输入层1120)被 输入到神经网络模型。第三图像的第一区域可以从神经网络模型的第一隐藏层(例如,如图11所示的传 统层1140-1)传送到神经网络模型的最后隐藏层。可以在多个隐藏层的每一个中处理第三图像的第一区域。 例如,输入的第三图像的第一区域可以由一个或多个传统层(例如,如图11所示的传统层1140-1)来处理。一个或多个常规层可以被配置为:在第一图像的第一区域上基于与一个或多个传统层中的节点相关的 参数来执行图像变换操作、图像增强操作、图像去噪操作或任意其它操作。经成本函数层之前的多个隐藏 层处理的第三图像的第一区域,可以输入到成本函数层。可以基于第三图像的第一区域和第四图像的第二 区域来确定成本函数层的值,第三图像的第一区域是经成本函数层之前的数层处理。
在1012,确定是否满足第一条件。操作1012可以由判断块568执行。如果满足第一条件,则过程1012 可以进行到操作1016。如果第一条件不满足,则过程1000可以进行到1014。第一条件可以提供神经网络 模型是否充分训练的指示。在一些实施例中,第一条件可以与成本函数的值有关。例如,如果成本函数 的值最小或小于阈值(例如常数),则可以满足第一条件。作为另一示例,如果成本函数的值收敛,则可 以满足第一条件。在一些实施例中,如果两个或多个连续迭代中的成本函数的值的变化等于或小于阈值(例 如常数),则可以认为收敛已经发生。在一些实施例中,如果成本函数的值和目标值之间的差值等于或小 于阈值(例如常数),则可以认为收敛已经发生。在一些实施例中,当在训练过程中执行了指定数量的与 第三图像的第一区域和第四图像的第二区域相关的迭代时,则可以满足第一条件。
在1014中,可以更新神经网络模型的一个或多个参数。操作1014可以由初始化模块562执行。在一 些实施例中,可以调整至少一些节点的参数值,直到与第三图像的第一区域相关的成本函数的值满足第一 条件。在一些实施例中,可以基于反向传播(BP)算法来调整神经网络模型的参数。示例性的反向传播(BP) 算法可以包括随机梯度下降算法,Adam算法、Adagrad算法、Adadelta算法、RMSprop算法、或类似物, 或其组合。
在1016,确定是否满足第二条件。操作1016可以由判断块568执行。如果满足第二条件,则处理1000 可以进行到1018。如果第二条件不满足,则过程1000可以返回到1004,可以从第三图像中提取另一个第 一区域。在一些实施例中,如果与神经网络模型相关联地处理了指定数量的第一区域和第二区域,则可以 满足第二条件。
在1018中,确定更新的神经网络模型。操作1018可以由初始化块562执行。在一些实施例中,可以 基于经更新的参数确定更新的神经网络模型。
在一些实施例中,可以针对包括不同对第三和第四图像的多笔训练数据重复过程1000,以改善或优化 神经网络模型。在基于不同对的第三和第四图像执行的不同轮次的过程1000中,可以基于相同或不同的 重建技术获得第三图像。在基于不同对的第三和第四图像执行的不同轮次的过程1000中,可以基于相同 或不同的重建技术获得第四图像。除了第一轮过程1000之外,在后续轮的过程1000中,可以基于在前一 轮中获得的神经网络模型的更新参数来执行1004中的神经网络模型的初始化。
应当注意,以上描述仅是为了说明的目的而提供的,而并非旨在限定本公开的范围。对于本领域普通 技术人员而言,可在本公开的教导下作出多种变形或修改。然而,那些变形和修改并不背离本公开的范围。 例如,可以基于多个第三图像和第四图像重复地执行过程1000,以获得第一神经网络模型和/或第二神经 网络模型。可以执行训练过程直到满足终止条件。示例性的终止条件是已经分析了特定数目对的第三图像 和第四图像。
图11是根据本公开的一些实施例描述的示例性的卷积神经网络(CNN)模型的示意图。
CNN模型可以包括输入层1120、多个隐藏层1140和输出层1160。多个隐藏层1140可以包括一个或 多个卷积层、一个或多个修正线性单元层(ReLU层)、一个或多个池化层、一个或多个完全连接层、或类 似物,或其组合。
为了说明的目的,示出了CNN模型的多个示例性隐藏层1140,其包括卷积层1140-1、池化层1140-2 和完全连接层1140-N。如结合过程708所述,神经网络训练单元560可以获取低剂量图像作为CNN模型 的输入。低剂量图像可以表示为包括多个元素(例如像素或体素)的二维(2D)或三维(3D)矩阵。矩 阵中的多个元素中的每一个可以具有表示元素的特征的值(也称为像素/体素值)。
卷积层1140-1可以包括多个内核(例如A,B,C和D)。可以使用该多个内核来提取低剂量图像的特 征。在一些实施例中,多个内核中的每一个可以对低剂量图像的一部分(例如区域)进行滤波,以产生对 应于低剂量图像的该部分的特定特征。该特征可以包括基于内核计算的低级别特征(例如边缘特征、纹理 特征),高级别特征或复杂特征。
池化层1140-2可以将卷积层1140-1的输出作为输入。池化层1140-2可以包括多个池化节点(例如E, F,G和H)。可以使用该多个池化节点对卷积层1140-1的输出进行采样,并且因此可以减少CT成像*** 100的数据处理的计算负担并且增加数据处理速度。在一些实施例中,神经网络训练单元560可以减小对 应于池化层1140-2中的低剂量图像的矩阵的规模。
完全连接层1140-N可以包括多个神经元(例如O,P,M和N)。该多个神经元可以连接到来自诸如 池化层的先前层的多个节点。在完全连接的层1140-N中,神经网络训练单元560可以基于低剂量图像的 特征来确定与多个神经元相对应的多个向量,并且用多个加权系数进一步加权该多个向量。
在输出层1160中,神经网络训练单元560可以基于完全连接层708获得的多个向量和权重系数确定 输出,例如高剂量图像。
应注意的是,CNN模型可以在应用于不同条件时进行修改。例如,在训练过程中,可以添加损失函数 (在本公开中也称为成本函数)层以指定预测输出(例如预测的高剂量图像)和真实标签(例如,对应于 低剂量图像的参考高剂量图像)之间的偏差。
在一些实施例中,神经网络训练单元560可以访问CT成像***100中的多个处理单元,例如GPU。 多个处理单元可以执行CNN模型的某些层中的并行处理。可以以这样的方式执行并行处理,即可以将CNN 模型的层中的不同节点的计算分配给两个或更多个处理单元。例如,一个GPU可以运行与内核A和B相 对应的计算,另一个(或多个)GPU可以运行卷积层1140-1中与内核C和D相对应的计算。类似地,对 应于CNN模型中其他类型层中的不同节点的计算可以由多个GPU并行执行。
既已描述了基本概念,对本领域技术人员来说在阅读本详细公开之后十分显而易见的是,之前的详细 公开旨在仅作为示例来给出,而并不是限制性的。可以进行各种替代、改善和修改,并且是本领域技术人 员的意图,尽管未在本文中明确陈述。这些替代、改善和修改为本公开所意图建议,并且落在本公开的示 例性实施例的精神和范围之内。
此外,已经使用某些术语来描述本公开的实施例。例如,术语“一个实施例”,“一个实施例”和/或“一 些实施例”意味着结合该实施例描述的特定特征,结构或特性包括在本公开的至少一个实施例中。因此, 应当强调和理解的是,在本说明书的各个部分中对“一个实施例”或“一个实施例”或“替代实施例”的 两个或更多个引用不一定都指代相同的实施例。此外,特定特征、结构或特性可以在本公开的一个或多个 实施例中合适地组合。
此外,本领域技术人员应当理解,本公开的各方面可以在以下许多可专利类别或上下文中的任何一个 中进行说明和描述:任何新的和有用的过程、机器、产品或物质成分,或其任何新的和有用的改进。因此, 本公开的各方面可以完全由硬件实现,完全由软件(包括固件、常驻软件、微代码等)实现,或由软件和 硬件的组合实现,这些在本文中通常都可以被称为“单元”、“模块”或“***”。此外,本公开的各方面 可以采用计算机程序产品的形式,计算机程序产品体现在一个或多个其上具有计算机可读程序代码的计算 机可读介质上。
计算机可读信号介质可以包括其中包含计算机可读程序代码的传播数据信号,信号例如在基带或作为 载波的一部分。这种传播信号可以采用任何形式,包括电磁、光、或类似物,或其任何合适的组合。计算 机可读信号介质可以是除计算机可读存储介质之外的任何计算机可读介质,其可以通信、传播或传送程序 以供指令执行***、装置或设备使用,或者通信、传播或传送与指令执行***、装置或设备有关的程序。 可以使用包括无线、有线、光纤电缆、射频(RF)、或类似物的任何适当的介质或前述的任何合适的组合 来发送包含在计算机可读信号介质上的程序代码。
用于执行本公开各方面的操作的计算机程序代码可以以一种或多种编程语言的任何组合来编写,包 括:面向对象的编程语言,例如Java,Scala、Smalltalk、Eiffel、JADE、Emerald、C++、C#、VB.NET、 Python、或类似物;常规程序设计语言,例如“C”编程语言,Visual Basic、Fortran 2103、Perl、COBOL 2102、 PHP、ABAP;动态编程语言,例如Python、Ruby和Groovy等其它编程语言。程序代码可以完全在用户 计算机上执行,部分地在用户计算机上执行,作为独立的软件包,部分地在用户计算机上且部分地在远程 计算机上,或者完全在远程计算机或服务器上执行。在后一场景中,可通过任意类型的网络(包括局域网(LAN)或广域网(WAN))将远程计算机连接至用户的计算机,或该连接可以是到外部计算机(例如, 通过使用因特网服务提供商的因特网)或在云计算环境中或被作为例如软件即服务(SaaS)的服务提供。
此外,列举的处理元素或序列的顺序,或为此使用的数字、字母或其他称号,不旨在将所要求保护的 过程和方法限制为任何顺序,除非在权利要求书中有指定。虽然上述公开内容通过各种示例讨论了目前被 认为是本公开的各种有用的实施例,但是应当理解,这样的细节仅仅是为了该目的,并且所附权利要求不 限于所公开的实施例,相反,旨在覆盖在所公开的实施例的精神和范围内的修改和等效安排。例如,虽然 上述各种组件的实现可以体现在硬件设备中,但是它也可以仅以软件方案实施,例如现有服务器或移动装 置上的安装。
类似地,应当理解,在对本公开的实施例的以上描述中,出于使本公开变得流畅以帮助理解各创造性 实施例中的一个或多个的目的,各个特征有时被一起编组在一个实施例、附图、或其描述中。然而,这种 公开的方法不应被解释为反映这样的意图,即所要求保护的主题需要的特征比在每一权利要求中明确记载 的更多。相反,创造性实施例包含的特征比单个前述公开的实施例的所有特征更少。
在一些实施例中,用于描述和声称本申请的某些实施例的表达数量或性质的数字将被理解为在某些情 况下被术语“约”、“近似”或“基本上”修饰。例如,“约”、“近似”或“基本上”可以指示其描述的值 的±20%的变化,除非另有说明。因此,在一些实施例中,在书面描述和所附权利要求中阐述的数值参数 是近似值,其可以根据由特定实施例寻求获得的期望性质而变化。在一些实施例中,数值参数应根据报告 的有效数字的数量和通过应用普通四舍五入技术来解释。尽管阐述本申请的一些实施例的宽范围的数值范 围和参数是近似值,但是在具体实施例中阐述的数值尽可能精确地报告。
本文引用的每个专利、专利申请、专利申请公开以及其它材料(例如文章、书籍、说明书、出版物、 文献、物品、或类似物)在此出于所有目的引用整体并入本文,除了任何起诉文件历史记录之类的,任何 与本文件不一致或与本文件相冲突之类的,任何对本文件之类的现在或稍后的权利要求最大保护范围有限 定影响之类的。举例来说,如果任何所引用的材料,其描述、定义和/或术语的使用与本文件存在任何不一 致或冲突,则描述、定义和/或以本文件中的术语为准。
最后,应当理解,本申请公开的实施例是对本申请实施例原理的说明。其它可以使用的修改在本申请 的范围内。因此,作为示例而非限制,可以根据本文的教导来进行本申请的实施例的替代配置。因此,本 申请的实施例不限于确切地如所示和所描述的那样。

Claims (9)

1.一种方法,其实施于计算装置上,所述计算装置具有至少一个处理器、至少一个计算机可读存储介质以及连接到成像装置的通信端口,所述方法包括:
获取与第一剂量水平相关的第一组投影数据;
基于所述第一组投影数据重建第一图像;
基于所述第一组投影数据确定第二组投影数据,所述第二组投影数据与第二剂量水平相关,所述第二剂量水平低于所述第一剂量水平;
基于所述第二组投影数据重建第二图像;和
基于所述第一图像和所述第二图像训练第一神经网络模型,经训练的第一神经网络模型被配置为将第三图像转换为第四图像,所述第四图像比所述第三图像呈现更低的噪声水平;
确定第二组投影数据包括:在辐射穿过对象之前确定关于第二剂量水平的辐射的第一分布;在辐射穿过对象之后,基于辐射的第一分布和第一组投影数据确定辐射的第二分布;确定扫描器的噪声估计;基于辐射的第二分布和噪声估计确定第二组投影数据。
2.如权利要求1所述的方法,其中基于迭代重建算法使用第一重建参数重建所述第一图像;基于分析重建算法或迭代重建算法使用第二重建参数重建所述第二图像,所述第二重建参数至少部分不同于所述第一参数。
3.如权利要求1所述的方法,其中基于以下的至少一个来确定所述第二组投影数据:获取所述第一组投影数据的扫描器的扫描参数、与对象相关的衰减系数、对应于所述扫描器的噪声、管的响应、扫描器的检测器的响应、扫描器焦点的尺寸、扫描器的飞焦、扫描器的检测器的积分时间或对象的散射系数。
4.如权利要求1所述的方法,其中基于所述第一图像和所述第二图像训练所述第一神经网络模型包括:
从所述第一图像提取第一区域;
从所述第二图像提取与所述第一图像中的所述第一区域对应的第二子区域,所述第一图像中的所述第一区域具有与所述第二区域相同的大小; 和
基于所述第一图像中的所述第一区域和所述第二图像中的所述第二区域训练所述第一神经网络模型。
5.如权利要求4所述的方法,其中,基于所述第一图像中的所述第一区域和所述第二图像中的所述第二区域来训练所述第一神经网络模型包括:
初始化所述第一神经网络模型的参数值;
至少基于所述第一图像中的所述第一区域和所述第二图像中的所述第二区域,迭代地确定与每次迭代中的第一神经网络模型的参数值相关的成本函数的值,包括基于在最近一次迭代中获得的成本函数的更新值,在每次迭代之后更新第一神经网络模型的至少一些参数值;和
确定经训练的第一神经网络模型,直到满足条件。
6.如权利要求1所述的方法,进一步包括:
训练第二神经网络模型,其中所述第二神经网络模型基于第六图像和第七图像训练,所述第六图像基于第三组投影数据重建,所述第七图像基于所述第三组投影数据重建,其中所述第七图像的图像质量高于所述第六图像的图像质量,所述图像质量与对比度和空间分辨率的至少一个有关。
7.如权利要求6所述的方法,所述第三组投影数据包括所述第一组投影数据。
8.一种非暂态计算机可读介质,包括:
由至少一个处理器执行的指令,使所述至少一个处理器实现一种方法,包括:
获取与第一剂量水平相关的第一组投影数据;
基于所述第一组投影数据重建第一图像;
基于所述第一组投影数据确定第二组投影数据,所述第二组投影数据与第二剂量水平相关,所述第二剂量水平低于所述第一剂量水平;
基于所述第二组投影数据重建第二图像;和
基于所述第一图像和所述第二图像训练第一神经网络模型,经训练的第一神经网络模型被配置为将所述第三图像转换为所述第四图像,所述第四图像比所述第三图像呈现更低的噪声水平并且对应于更高的剂量水平;
确定第二组投影数据包括:在辐射穿过对象之前确定关于第二剂量水平的辐射的第一分布;在辐射穿过对象之后,基于辐射的第一分布和第一组投影数据确定辐射的第二分布;确定扫描器的噪声估计;基于辐射的第二分布和噪声估计确定第二组投影数据。
9.一种***,包括:
图像数据模拟单元,被配置为基于第一组投影数据确定第二组投影数据,所述第一组投影数据与第一剂量水平相关,所述第二组投影数据与第二剂量水平相关,所述第二剂量水平低于所述第一剂量水平;
图像重建单元,被配置为基于所述第一组投影数据重建第一图像,并且基于所述第二组投影数据重建第二图像;和
神经网络训练单元,被配置为基于所述第一图像和所述第二图像训练第一神经网络模型,经训练的第一神经网络模型被配置为将第三图像转换为第四图像,所述第四图像比所述第三图像呈现更低的噪声水平并且对应于更高的剂量水平;
确定第二组投影数据包括:在辐射穿过对象之前确定关于第二剂量水平的辐射的第一分布;在辐射穿过对象之后,基于辐射的第一分布和第一组投影数据确定辐射的第二分布;确定扫描器的噪声估计;基于辐射的第二分布和噪声估计确定第二组投影数据。
CN201710771940.4A 2017-07-28 2017-08-31 图像转换的***和方法 Active CN107610195B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
PCT/CN2017/095071 WO2019019199A1 (en) 2017-07-28 2017-07-28 SYSTEM AND METHOD FOR IMAGE CONVERSION
CNPCT/CN2017/095071 2017-07-28

Publications (2)

Publication Number Publication Date
CN107610195A CN107610195A (zh) 2018-01-19
CN107610195B true CN107610195B (zh) 2021-02-05

Family

ID=61057127

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201710771940.4A Active CN107610195B (zh) 2017-07-28 2017-08-31 图像转换的***和方法
CN201710770592.9A Pending CN107633540A (zh) 2017-07-28 2017-08-31 图像转换的***和方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201710770592.9A Pending CN107633540A (zh) 2017-07-28 2017-08-31 图像转换的***和方法

Country Status (3)

Country Link
US (2) US10726587B2 (zh)
CN (2) CN107610195B (zh)
WO (1) WO2019019199A1 (zh)

Families Citing this family (92)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6342437B2 (ja) * 2016-02-22 2018-06-13 ゼネラル・エレクトリック・カンパニイ 放射線断層撮影システム及びその制御プログラム
US11276208B2 (en) 2017-06-12 2022-03-15 The Research Foundation For The State University Of New York System, method and computer-accessible medium for ultralow dose computed tomography image reconstruction
US10977843B2 (en) * 2017-06-28 2021-04-13 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for determining parameters for medical image processing
KR101916347B1 (ko) * 2017-10-13 2018-11-08 주식회사 수아랩 딥러닝 기반 이미지 비교 장치, 방법 및 컴퓨터 판독가능매체에 저장된 컴퓨터 프로그램
EP3701431A1 (en) * 2017-10-27 2020-09-02 Google LLC Increasing security of neural networks by discretizing neural network inputs
WO2019090533A1 (en) 2017-11-08 2019-05-16 Shenzhen United Imaging Healthcare Co., Ltd. System and method for diagnositic and treatment
EP3698269A4 (en) * 2017-11-22 2020-12-09 Zhejiang Dahua Technology Co., Ltd. IMAGE PROCESSING METHOD AND SYSTEM
US10579908B2 (en) * 2017-12-15 2020-03-03 Google Llc Machine-learning based technique for fast image enhancement
US10878529B2 (en) * 2017-12-22 2020-12-29 Canon Medical Systems Corporation Registration method and apparatus
US11141079B2 (en) * 2018-01-29 2021-10-12 General Electric Company Systems and methods for profile-based scanning
CN108537794B (zh) * 2018-04-19 2021-09-21 上海联影医疗科技股份有限公司 医学图像数据处理方法、装置和计算机可读存储介质
US10956785B2 (en) 2018-04-27 2021-03-23 Arizona Board Of Regents On Behalf Of Arizona State University Methods, systems, and media for selecting candidates for annotation for use in training classifiers
US11557390B2 (en) * 2018-04-30 2023-01-17 Elekta, Inc. Radiotherapy treatment plan modeling using generative adversarial networks
US10855986B2 (en) * 2018-05-29 2020-12-01 Qualcomm Incorporated Bandwidth compression for neural network systems
EP3598344A1 (en) 2018-07-19 2020-01-22 Nokia Technologies Oy Processing sensor data
CN109300168A (zh) * 2018-07-30 2019-02-01 福建中医药大学附属人民医院(福建省人民医院) 单次蛛网膜下腔阻滞术中信息收集处理***及其处理方法
CN110782502B (zh) * 2018-07-31 2023-11-03 通用电气公司 基于深度学习的pet散射估计***和使用感知神经网络模型的方法
US11195310B2 (en) * 2018-08-06 2021-12-07 General Electric Company Iterative image reconstruction framework
US10949951B2 (en) * 2018-08-23 2021-03-16 General Electric Company Patient-specific deep learning image denoising methods and systems
WO2020075345A1 (ja) * 2018-10-10 2020-04-16 キヤノン株式会社 医用画像処理装置、医用画像処理方法及びプログラム
US11080895B2 (en) * 2018-10-30 2021-08-03 International Business Machines Corporation Generating simulated body parts for images
EP3667620A1 (en) * 2018-12-12 2020-06-17 Koninklijke Philips N.V. System for reconstructing an image of an object
CN109754447B (zh) * 2018-12-28 2021-06-22 上海联影智能医疗科技有限公司 图像生成方法、装置、设备和存储介质
CN110613480B (zh) * 2019-01-14 2022-04-26 广州爱孕记信息科技有限公司 基于深度学习的胎儿超声动态影像检测方法及***
US10380724B1 (en) * 2019-01-28 2019-08-13 StradVision, Inc. Learning method and learning device for reducing distortion occurred in warped image generated in process of stabilizing jittered image by using GAN to enhance fault tolerance and fluctuation robustness in extreme situations
US10373023B1 (en) * 2019-01-28 2019-08-06 StradVision, Inc. Learning method and learning device for runtime input transformation of real image on real world into virtual image on virtual world, to be used for object detection on real images, by using cycle GAN capable of being applied to domain adaptation
US10373026B1 (en) * 2019-01-28 2019-08-06 StradVision, Inc. Learning method and learning device for generation of virtual feature maps whose characteristics are same as or similar to those of real feature maps by using GAN capable of being applied to domain adaptation to be used in virtual driving environments
CN109829495B (zh) * 2019-01-29 2023-04-07 南京信息工程大学 基于lstm和dcgan的时序性图像预测方法
US10395392B1 (en) * 2019-01-31 2019-08-27 StradVision, Inc. Learning method and learning device for strategic transforming RGB training image sets into non-RGB training image sets, to be used for learning object detection on objects of images in non-RGB format, by using cycle GAN, resulting in significantly reducing computational load and reusing data
CN111612699B (zh) * 2019-02-22 2024-05-17 北京京东尚科信息技术有限公司 图像处理方法、装置和计算机可读存储介质
WO2020174284A1 (en) * 2019-02-27 2020-09-03 Body Vision Medical Ltd. Methods and systems for movement compensation during three-dimensional reconstruction of anatomical structures
CN110008338B (zh) * 2019-03-04 2021-01-19 华南理工大学 一种融合gan和迁移学习的电商评价情感分析方法
JP7516074B2 (ja) * 2019-03-05 2024-07-16 キヤノンメディカルシステムズ株式会社 医用処理装置
CN109862208B (zh) * 2019-03-19 2021-07-02 深圳市商汤科技有限公司 视频处理方法、装置、计算机存储介质以及终端设备
US11176428B2 (en) * 2019-04-01 2021-11-16 Canon Medical Systems Corporation Apparatus and method for sinogram restoration in computed tomography (CT) using adaptive filtering with deep learning (DL)
US11010938B2 (en) * 2019-04-03 2021-05-18 Uih America, Inc. Systems and methods for positron emission tomography image reconstruction
CN110101401B (zh) * 2019-04-18 2023-04-07 浙江大学山东工业技术研究院 一种肝脏对比剂数字减影造影方法
CN110111335B (zh) * 2019-05-08 2021-04-16 南昌航空大学 一种自适应对抗学习的城市交通场景语义分割方法及***
CN111935892B (zh) * 2019-05-13 2022-11-22 中科智云科技有限公司 用于测量等离子体状态的方法和设备
CN110135341B (zh) * 2019-05-15 2021-05-18 河北科技大学 杂草识别方法、装置及终端设备
DE102019207238A1 (de) * 2019-05-17 2020-11-19 Siemens Healthcare Gmbh Bereitstellen eines Ergebnisbilddatensatzes
CN110225260B (zh) * 2019-05-24 2021-02-19 宁波大学 一种基于生成对抗网络的立体高动态范围成像方法
CN110363215B (zh) * 2019-05-31 2020-07-28 中国矿业大学 基于生成式对抗网络的sar图像转化为光学图像的方法
CN110176047B (zh) * 2019-06-03 2022-12-06 上海联影医疗科技股份有限公司 一种提高ct图像质量的方法和***
CN110212528B (zh) * 2019-06-19 2021-05-07 华北电力大学 一种配电网量测数据缺失重构方法
CN110428476A (zh) * 2019-07-05 2019-11-08 广东省人民医院(广东省医学科学院) 一种基于多循环生成式对抗网络的图像转换方法及装置
US11100684B2 (en) * 2019-07-11 2021-08-24 Canon Medical Systems Corporation Apparatus and method for artifact detection and correction using deep learning
US11403791B2 (en) * 2019-07-11 2022-08-02 Canon Medical Systems Corporation Apparatus and method using deep learning (DL) to improve analytical tomographic image reconstruction
US11224399B2 (en) * 2019-07-12 2022-01-18 Canon Medical Systems Corporation Apparatus and method using deep learning (DL) to compensate for large focal spot size in x-ray projection imaging
US10925568B2 (en) 2019-07-12 2021-02-23 Canon Medical Systems Corporation Apparatus and method using physical model based deep learning (DL) to improve image quality in images that are reconstructed using computed tomography (CT)
CN110533588B (zh) * 2019-07-16 2021-09-21 中国农业大学 基于生成对抗网络的根系图像修复方法
CN110444277B (zh) * 2019-07-19 2023-03-28 重庆邮电大学 一种基于多生成多对抗的多模态脑部mri图像双向转换方法
CN110456355B (zh) * 2019-08-19 2021-12-24 河南大学 一种基于长短时记忆和生成对抗网络的雷达回波外推方法
WO2021035511A1 (en) * 2019-08-27 2021-03-04 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for four-dimensional ct scan
CN112446930B (zh) * 2019-08-30 2024-07-12 通用电气精准医疗有限责任公司 用于图像重建的方法、成像***以及存储有对应程序的介质
CN110559009B (zh) * 2019-09-04 2020-12-25 中山大学 基于gan的多模态低剂量ct转换高剂量ct的方法
CN110750640B (zh) * 2019-09-17 2022-11-04 平安科技(深圳)有限公司 基于神经网络模型的文本数据分类方法、装置及存储介质
CN110675357A (zh) * 2019-09-30 2020-01-10 东软医疗***股份有限公司 图像优化网络的训练和图像优化方法、装置及设备
DE102019217220A1 (de) * 2019-11-07 2021-05-12 Siemens Healthcare Gmbh Computerimplementiertes Verfahren zur Bereitstellung eines Ausgangsdatensatzes
US11200669B2 (en) * 2019-11-19 2021-12-14 Uih America, Inc. Systems and methods for determining plasma input function used in positron emission tomography imaging
CN111145279B (zh) * 2019-12-02 2023-04-07 东软医疗***股份有限公司 数据处理方法、装置及设备
CN111243052A (zh) * 2020-01-17 2020-06-05 上海联影智能医疗科技有限公司 图像重建方法、装置、计算机设备和存储介质
CN111292260A (zh) * 2020-01-17 2020-06-16 四川翼飞视科技有限公司 一种进化神经网络的构建方法及基于进化神经网络的高光谱图像去噪方法
US11980501B2 (en) * 2020-02-06 2024-05-14 GE Precision Healthcare LLC Method and system for providing enhanced ultrasound images simulating acquisition at high acoustic power by processing ultrasound images acquired at low acoustic power
CN115397332A (zh) * 2020-02-11 2022-11-25 深透医疗公司 用于实时视频增强的***和方法
CN111341420B (zh) * 2020-02-21 2022-08-30 四川大学 基于全心七维模型的心血管影像识别***及方法
CN111325695B (zh) * 2020-02-29 2023-04-07 深圳先进技术研究院 基于多剂量等级的低剂量图像增强方法、***及存储介质
CN111402151A (zh) * 2020-03-09 2020-07-10 北京字节跳动网络技术有限公司 图像处理方法、装置、电子设备及计算机可读介质
JP7451239B2 (ja) 2020-03-12 2024-03-18 富士フイルムヘルスケア株式会社 画像処理装置、x線撮像装置及び画像処理方法
JP2023527106A (ja) * 2020-03-24 2023-06-27 オーフス ユニバーシテット Pet画像解析及び再構成のための装置及び方法
CN111563899B (zh) * 2020-06-09 2020-10-02 南京汇百图科技有限公司 一种髋关节ct图像中骨的分割方法
US10839268B1 (en) * 2020-06-22 2020-11-17 Calypso Ai Corp Artificial intelligence adversarial vulnerability audit tool
CN111932467A (zh) * 2020-07-13 2020-11-13 东软医疗***股份有限公司 一种图像处理方法及装置
CN111915696B (zh) * 2020-08-07 2023-09-22 南京安科医疗科技有限公司 三维图像数据辅助的低剂量扫描数据重建方法及电子介质
CN111888665B (zh) * 2020-08-13 2022-09-02 四川大学华西医院 基于自适应对抗网络的三维剂量分布预测模型的构建方法
CN111968110B (zh) * 2020-09-02 2023-12-22 广州海兆印丰信息科技有限公司 Ct成像方法、装置、存储介质及计算机设备
CN111839574B (zh) * 2020-09-08 2023-10-31 南京安科医疗科技有限公司 Ct超低剂量自动三维定位扫描方法及***
CN112052852B (zh) * 2020-09-09 2023-12-29 国家气象信息中心 一种基于深度学习的手写气象档案资料的字符识别方法
US20220130079A1 (en) * 2020-10-23 2022-04-28 Siemens Medical Solutions Usa, Inc. Systems and methods for simultaneous attenuation correction, scatter correction, and de-noising of low-dose pet images with a neural network
CN112184851B (zh) * 2020-10-26 2023-09-26 北京百度网讯科技有限公司 图像编辑方法、网络训练方法、相关装置及电子设备
CN112365560B (zh) * 2020-11-27 2023-01-24 上海联影医疗科技股份有限公司 基于多级网络的图像重建方法、***、可读存储介质和设备
CN112215784B (zh) * 2020-12-03 2021-04-06 江西博微新技术有限公司 图像去污方法、装置、可读存储介质及计算机设备
CN112541871B (zh) * 2020-12-07 2024-07-23 深圳先进技术研究院 低剂量图像去噪网络的训练方法、低剂量图像的去噪方法
WO2022120737A1 (zh) * 2020-12-10 2022-06-16 深圳先进技术研究院 用于低剂量pet重建的多任务学习型生成式对抗网络生成方法及***
CN112690817A (zh) * 2020-12-28 2021-04-23 明峰医疗***股份有限公司 基于双能ct的数据采集方法、***及计算机可读存储介质
WO2022170607A1 (zh) * 2021-02-10 2022-08-18 北京大学 一种定位图像的转化***
CN113096210A (zh) * 2021-04-15 2021-07-09 西门子数字医疗科技(上海)有限公司 图像重建方法、装置、电子设备和存储介质
KR102588462B1 (ko) * 2021-05-28 2023-10-13 서울대학교병원 방사선량분포이미지 초해상 방법 및 방사선량분포이미지 초해상 시스템
CN113379906B (zh) * 2021-07-23 2023-04-11 中国科学院西安光学精密机械研究所 一种基于超像素滤波的单光子三维图像重建方法及***
CN113538395A (zh) * 2021-07-26 2021-10-22 四川大学华西医院 图像处理方法、装置、设备、可读存储介质
DE102021214741B3 (de) * 2021-12-20 2023-02-23 Siemens Healthcare Gmbh Verfahren zum Generieren von synthetischen Röntgenbildern, Steuereinheit und Computerprogramm
US20230290465A1 (en) * 2022-03-10 2023-09-14 Varian Medical Systems, Inc. Artificial intelligence boosting dose calculations

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7295691B2 (en) 2002-05-15 2007-11-13 Ge Medical Systems Global Technology Company, Llc Computer aided diagnosis of an image set
US7876874B2 (en) * 2005-05-18 2011-01-25 Hitachi Medical Corporation Radiographing apparatus and image processing program
US20100067772A1 (en) * 2007-01-12 2010-03-18 Fujifilm Corporation Radiation image processing method, apparatus and program
CN101308102B (zh) * 2008-07-16 2010-08-11 中北大学 一种计算机断层扫描成像装置和方法
US8952333B2 (en) * 2009-11-02 2015-02-10 Virginia Tech Intellectual Properties, Inc. Methods for improved single photon emission computed tomography using exact and stable region of interest reconstructions
EP2504811B1 (en) * 2009-11-25 2014-06-18 Koninklijke Philips N.V. Enhanced image data/dose reduction
WO2011161557A1 (en) * 2010-06-21 2011-12-29 Koninklijke Philips Electronics N.V. Method and system for noise reduction in low dose computed tomography
WO2012127761A1 (ja) * 2011-03-22 2012-09-27 株式会社日立メディコ X線ct装置、および方法
US9332953B2 (en) * 2012-08-31 2016-05-10 The University Of Chicago Supervised machine learning technique for reduction of radiation dose in computed tomography imaging
US9662081B2 (en) * 2013-05-15 2017-05-30 Kyoto University X-ray CT image processing method, X-ray CT image processing program, and X-ray CT image device
DE102013211547B3 (de) * 2013-06-19 2014-05-22 Siemens Aktiengesellschaft Verfahren zum Erzeugen eines tomosynthetischen Röntgenbildes von einer Brust eines Patienten sowie nach diesem Verfahren betriebenes Mammographiegerät
CN105580054B (zh) * 2013-09-26 2019-10-01 皇家飞利浦有限公司 电子密度图像的联合重建
DE102013221603A1 (de) * 2013-10-24 2015-04-30 Siemens Aktiengesellschaft CT-System mit Recheneinheit und Verfahren zur Rekonstruktion und Befundung von CT-Bilddarstellungen
US10335105B2 (en) * 2015-04-28 2019-07-02 Siemens Healthcare Gmbh Method and system for synthesizing virtual high dose or high kV computed tomography images from low dose or low kV computed tomography images
CN106530366B (zh) 2015-09-09 2019-04-16 清华大学 能谱ct图像重建方法及能谱ct成像***
CN105118078B (zh) * 2015-09-24 2018-03-06 中国科学院苏州生物医学工程技术研究所 欠采样的ct图像重建方法
US10970887B2 (en) * 2016-06-24 2021-04-06 Rensselaer Polytechnic Institute Tomographic image reconstruction via machine learning
US20180018757A1 (en) * 2016-07-13 2018-01-18 Kenji Suzuki Transforming projection data in tomography by means of machine learning
US10667778B2 (en) * 2016-09-14 2020-06-02 University Of Louisville Research Foundation, Inc. Accurate detection and assessment of radiation induced lung injury based on a computational model and computed tomography imaging
US20180197317A1 (en) * 2017-01-06 2018-07-12 General Electric Company Deep learning based acceleration for iterative tomographic reconstruction
US10621756B2 (en) * 2017-01-13 2020-04-14 Canon Medical Systems Corporation Apparatus and method for correcting bias in low-count computed tomography projection data
CN106600568B (zh) * 2017-01-19 2019-10-11 东软医疗***股份有限公司 一种低剂量ct图像去噪方法及装置
US10949951B2 (en) * 2018-08-23 2021-03-16 General Electric Company Patient-specific deep learning image denoising methods and systems

Also Published As

Publication number Publication date
CN107610195A (zh) 2018-01-19
CN107633540A (zh) 2018-01-26
US20190035118A1 (en) 2019-01-31
WO2019019199A1 (en) 2019-01-31
US10726587B2 (en) 2020-07-28
US11430162B2 (en) 2022-08-30
US20200357153A1 (en) 2020-11-12

Similar Documents

Publication Publication Date Title
CN107610195B (zh) 图像转换的***和方法
US11554272B2 (en) System and method for diagnostic and treatment
CN110809782B (zh) 衰减校正***和方法
US11847763B2 (en) Systems and methods for image reconstruction
US20210142476A1 (en) Systems and methods for image optimization
US20200211160A1 (en) Systems and methods for image reconstruction
US10702230B2 (en) Method and system for generating a phase contrast image
WO2021068975A1 (en) Systems and methods for image reconstruction
Hashemi et al. Adaptively tuned iterative low dose CT image denoising
US20220092755A1 (en) Systems and methods for image processing
Chan et al. An attention-based deep convolutional neural network for ultra-sparse-view CT reconstruction
US20230360312A1 (en) Systems and methods for image processing
Liang et al. A model-based deep learning reconstruction for X-Ray CT
WO2023123352A1 (en) Systems and methods for motion correction for medical images
US20230162331A1 (en) Systems and methods for image processing
Moilanen Denoising computed tomography images with 3D-convolution based neural networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 201807 Shanghai city Jiading District Industrial Zone Jiading Road No. 2258

Applicant after: Shanghai Lianying Medical Technology Co., Ltd

Address before: 201807 Shanghai city Jiading District Industrial Zone Jiading Road No. 2258

Applicant before: SHANGHAI UNITED IMAGING HEALTHCARE Co.,Ltd.

GR01 Patent grant
GR01 Patent grant