CN109937012B - 为成像***选择采集参数 - Google Patents

为成像***选择采集参数 Download PDF

Info

Publication number
CN109937012B
CN109937012B CN201780069840.5A CN201780069840A CN109937012B CN 109937012 B CN109937012 B CN 109937012B CN 201780069840 A CN201780069840 A CN 201780069840A CN 109937012 B CN109937012 B CN 109937012B
Authority
CN
China
Prior art keywords
patient
camera
data
imaging
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780069840.5A
Other languages
English (en)
Other versions
CN109937012A (zh
Inventor
A·扎尔巴赫
J·塞内加
A·格罗特
S·A·约克尔
M·贝格特尔特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of CN109937012A publication Critical patent/CN109937012A/zh
Application granted granted Critical
Publication of CN109937012B publication Critical patent/CN109937012B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/545Control of apparatus or devices for radiation diagnosis involving automatic set-up of acquisition parameters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0064Body surface scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/06Diaphragms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/40Arrangements for generating radiation specially adapted for radiation diagnosis
    • A61B6/4035Arrangements for generating radiation specially adapted for radiation diagnosis the source being combined with a filter or grating
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/542Control of apparatus or devices for radiation diagnosis involving control of exposure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/542Control of apparatus or devices for radiation diagnosis involving control of exposure
    • A61B6/544Control of apparatus or devices for radiation diagnosis involving control of exposure dependent on patient size
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5294Devices using data or image processing specially adapted for radiation diagnosis involving using additional data, e.g. patient information, image labeling, acquisition parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Pulmonology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

提供了用于为成像***选择采集参数的***和方法。所述采集参数至少部分地定义所述成像***在关于患者的成像流程期间的成像配置。访问深度相关映射图,所述深度相关映射图是基于来自相机***的传感器数据生成的,其中,所述相机***具有视场,所述视场包括所述成像***的视场的至少部分,其中,所述传感器数据是在关于所述患者的所述成像流程之前获得的,并且指示所述患者的外形的部分所具有的朝向所述相机***的距离。将机器学习算法应用于所述深度相关映射图以识别所述采集参数,所述采集参数可以被提供给所述成像***。

Description

为成像***选择采集参数
技术领域
本发明涉及用于为成像***选择采集参数的***和方法。本发明还涉及包括该***的工作站和成像***,并且涉及包括用于令处理器***执行该方法的指令的计算机可读介质。
背景技术
在医学成像中,技术人员或其他用户选择适当的采集参数是个常见问题。这样的采集参数可以至少部分地定义成像***的成像配置,并且通常是患者特异性的。例如,一方面,技术人员经常难以在X射线成像***中配置准直以确保足够覆盖目标解剖结构来确保采集图像的诊断价值(例如通过避免需要重新拍摄),另一方面,使过度准直最小化以确保患者的安全(例如通过避免不必要地暴露于电离辐射)。
选择操作具有患者特异性的X射线成像***的其他采集参数包括但不限于指定X射线管的管电压(通常以kV为单位进行测量)和管电流(以mA为单位)的参数。通常,通过医学指南来指导技术人员选择采集参数。然而,在实践中,成功选择采集参数可能至少部分地取决于操作者的专业知识和经验,并且可能涉及反复试验。不利的是,这种反复试验可能不仅会导致辐射暴露增加(例如在X射线成像中),而且还会导致检查时间延长、图像质量不足等。
应当注意,上述问题加以必要的变更也适用于其他成像模态,包括但不限于磁共振成像和超声。
WO2016001135描述了一种包括配置X射线成像***的方法。所述方法被称为包括从一个或多个深度相机获得一幅或多幅深度图像的步骤,其中,所述一个或多个深度相机至少覆盖由所述X射线成像***的X射线源的X射线束覆盖的区。在涉及拍摄膝盖的X射线图像的示例中,据介绍(例如使用市场上可获得的用于处理深度图像的图像识别软件)从所述深度图像中识别所述膝盖并在所述深度图像中定位所述膝盖。所述***还检索算是膝盖相对于所述深度图像的期望位置。据介绍实际位置与所述期望位置之间的差异然后确定对所述X射线成像***的配置的校正结果。利用所述深度相机与所述X射线源的位置之间的(例如基于校准或诸如自适应滤波的机器学习技术)已知几何形状关系,然后可以将所述校正结果转换成所述X射线***的实际位置配置。
这样,WO2016001135检测深度图像中的对象,同时分别获得深度相机与X射线源的部分的位置之间的几何形状关系。然后将这两者组合以配置X射线***的位置,从而在深度图像中获得对象的期望位置。
不利的是,在深度图像中并不能可靠地检测到所有相关界标。另外,通过仅使用检测到的界标来确定位置配置,并没有使用到深度图像中的其他潜在有用信息。
发明内容
获得用于为成像***选择采集参数的***和方法将是有利的,该***和方法解决了上述问题中的一个或多个问题,例如,不仅仅依赖于界标检测。
本发明的第一方面提供了一种用于为成像***选择采集参数的***,其中,所述采集参数至少部分地定义所述成像***在关于患者的成像流程期间的成像配置,所述***包括:
-相机数据接口,其被配置为访问基于来自相机***的传感器数据生成的深度相关映射图,其中,所述相机***具有视场,所述视场包括所述成像***的视场的至少部分,其中,所述传感器数据是在关于所述患者的所述成像流程之前获得的,并且指示所述患者的外形的部分所具有的朝向所述相机***的距离;
-存储器,其包括表示指令集的指令数据;
-处理器,其被配置为与所述相机数据接口和所述存储器通信并执行所述指令集,其中,所述指令集在由所述处理器运行时令所述处理器将机器学习算法应用于所述深度相关映射图以识别所述采集参数,其中:
-所述机器学习算法由算法数据表示,所述算法数据被存储在所述存储器中并且被所述处理器访问,并且
-所述机器学习算法是使用训练数据来训练的,所述训练数据包括以下项的集合:i)示例深度相关映射图,以及ii)作为预测值的示例采集参数,其中,所述示例采集参数表示人类操作者在关于先前患者的先前成像流程中的选择,其中,所述示例相关映射图是基于由相同或相似类型的相机***在所述先前成像流程期间获得的传感器数据来生成的;以及
-输出接口,其被配置为输出要由所述成像***使用的所述采集参数。
本发明的另外的方面提供了一种包括所述***的工作站或成像***。
本发明的另外的方面提供了一种用于为成像***选择采集参数的计算机实施的方法,其中,所述采集参数至少部分地定义所述成像***在关于患者的成像流程期间的成像配置,所述方法包括:
-访问深度相关映射图,所述深度相关映射图是基于来自相机***的传感器数据生成的,其中,所述相机***具有视场,所述视场包括所述成像***的视场的至少部分,其中,所述传感器数据是在关于所述患者的所述成像流程之前获得的,并且指示所述患者的外形的不同部分所具有的朝向所述相机***的距离;
-将机器学习算法应用于所述深度相关映射图以识别所述采集参数,其中:
-所述机器学习算法由算法数据表示,所述算法数据被存储在所述存储器中并且被所述处理器访问,并且
-所述机器学习算法是使用训练数据来训练的,所述训练数据包括以下项的集合:i)示例深度相关映射图,以及ii)作为预测值的示例采集参数,其中,所述示例采集参数表示人类操作者在关于先前患者的先前成像流程中所使用的选择,其中,所述示例相关映射图是基于由先前相机***在所述先前成像流程期间获得的传感器数据来生成的;以及
-输出要由所述成像***使用的所述采集参数。
本发明的另外的方面提供了一种计算机可读介质,包括瞬态或非瞬态数据,所述瞬态或非瞬态数据表示被布置为令处理器***执行所述方法的指令。
上述措施涉及在成像流程之前获得患者的外形的深度相关映射图,例如以深度图像或视差图像的形式的深度相关映射图。这样,深度相关映射图可以提供关于患者的外形的物理属性的信息。当针对成像流程对患者进行定位(例如通过使患者躺在或站在成像***的视场内)时,可以采集深度相关映射图。深度相关映射图并非一定要包括患者的整个外形;深度相关映射图可能只涉及外形的部分。测量的深度可以在在局部变化。一个简单的示例是,患者的颈部通常相对于面部凹进,因此会远离相机。类似地,在肥胖患者的情况下,腰部会突出,因此会更靠近相机。上述措施还提供通过指令集配置的处理器,以将机器学习算法应用于先前已经在先前患者的示例深度相关映射图和针对先前患者的人类选择参数上进行训练的深度相关映射图。应当注意,“先前”一词意指“过去”,因此不限于紧接在前。
发明人已经认识到,深度图像和其他深度相关映射图可以提供关于患者的外形的各种信息,这在确定采集参数方面是有价值的。当深度相关映射图仅用于检测界标时,并不使用这样的信息。例如,可以在深度图像中看见各种患者属性,或者至少可以获得关于各种患者属性的指示,包括但不限于患者的体重、体型、性别、健康水平。这些患者属性可能影响要在成像流程中使用的采集参数。然而,设计启发法是非常困难的,因为关系可能是复杂的,并且非线性关系尤为如此。
通过将机器学习用于已经在先前患者上训练的且经手动选择了参数的深度相关映射图,可以考虑深度相关映射图的所有可用信息或至少更多可用信息。通过训练机器学习算法,***能够对深度与采集参数之间的关系进行自动建模。因此,不需要仅依赖于界标检测(其并不总是可用,例如在界标不可见的情况下就是如此)。实际上,确定的界标可以被认为是人工中间表示,其涉及将坐标分配给检测对象并然后仅使用这些坐标。所提出的***被配置为将机器学习应用于所有深度相关映射图,这样会得到更“整体”的方法,这种方法不需要这种人工中间表示。
任选地,所述***包括被配置为访问所述患者的非图像患者数据的患者数据接口,并且对于所述训练数据的给定集合,所述训练数据还包括示例非图像患者数据,所述示例非图像患者数据与所述患者的所述非图像患者数据具有相同或相似的类型。并且其中,当由所述处理器运行时,所述指令集令所述处理器使用所述非图像患者数据作为针对所述机器学习算法的额外输入。非图像数据可以包括深度相关数据的补充信息。例如,已知肺的尺寸与患者的体重、年龄和性别相关并且可能受到某些疾病(如COPD)的影响。通过额外考虑这样的非图像数据,***能够对患者与要在成像流程中使用的采集参数之间的关系进行更好的建模。
任选地,所述患者数据接口被配置为从所述患者的电子健康记录访问所述非图像患者数据。
任选地,所述患者的所述非图像患者数据包括以下项中的至少一个:
-所述患者的体重;
-所述患者的年龄;
-所述患者的性别;
-所述患者的健康水平的量化结果;
-与所述患者相关联的疾病诊断;
-与所述患者相关联的用药记录,以及
-与所述患者相关联的生命参数记录。
任选地,对于所述训练数据的给定集合,所述训练数据还包括示例几何形状数据,所述几何形状数据指示在所述先前成像流程期间相机***与成像***之间的先前相对几何形状,并且当由所述处理器运行时,所述指令集令所述处理器在所述成像流程中使用所述相机***与所述成像***之间的当前相对几何形状作为针对所述机器学习算法的额外输入。因此,机器学习算法在训练以及随后使用期间区分相机***与成像***之间的不同相对几何形状。这里,术语“相对几何形状”可以指相机***的视场与成像***的视场之间的几何形状关系。由于例如相机***的安装差异(例如,相机***被安装到成像***或者相机***是独立安装的)或者相机***和/或成像***本身的视场差异,可能存在相对几何形状的差异。以这种方式,可以防止在相机***与成像***具有不同相对几何形状的情况下在成像流程期间使用在特定相对几何形状的背景中获得的训练数据。应当注意,备选地,可以确保相机***和成像***在机器学习算法的训练和随后使用期间具有相同或相似的相对几何形状。
任选地,所述训练数据的给定集合的所述示例深度相关映射图是基于相机***与成像***之间的先前相对几何形状来生成的,并且当由所述处理器运行时,所述指令集令所述处理器执行以下操作:
-在所述成像流程中确定所述相机***与所述成像***之间的所述先前相对几何形状与当前相对几何形状之间的偏差;
-如果所述偏差存在或者超过阈值,则在所述的应用所述机器学习算法之前处理所述深度相关映射图以补偿所述偏差。
通过以所描述的方式处理深度相关映射图,可以将标准化输入数据提供给机器学习算法。例如,偏差可能引起相机***的视场改变。来自透视图像校正领域的图像处理技术可以用于补偿视场中的这种差异。各种其他技术也是已知的并且可以有利地使用。在这方面,应当注意,深度相关映射图可以被认为是图像,因此可以通过这种图像处理技术来进行处理。
任选地,所述相机数据接口还被配置为访问由所述相机***采集的图像数据,其中,所述图像数据示出所述患者的外形,并且其中:
-对于所述训练数据的给定集合,所述训练数据还包括由先前的所述相机***采集的示例图像数据,所述示例图像数据示出在所述先前成像流程期间的先前患者外形;并且
-当由所述处理器运行时,所述指令集令所述处理器使用所述图像数据作为针对所述机器学习算法的额外输入。
除了深度相关映射图之外,还可以使用患者的外形的图像作为输入。该图像可以是“正常的”可见光图像,例如由具有针对可见光的RGB传感器的相机获得的图像。由该图像提供的视场可以与由深度相关映射图提供的视场相同或至少重叠。通过额外考虑这样的图像数据,***能够对患者与要在成像流程中使用的采集参数之间的关系进行更好的建模。
任选地,所述***包括所述相机***,并且其中,所述相机***包括以下项中的至少一个:飞行时间相机;光探测和测距(LiDAR)相机;激光探测和测距(LaDAR)相机;立体相机,或者被布置为立体相机的两个相机;以及投影仪和相机,所述投影仪被配置为将已知图案投影到所述患者的外形上,从而产生变形图案,所述相机被配置为记录所述变形图案。
任选地,所述成像***是磁共振成像***,并且其中,所述采集参数是以下项中的一个:
-指定所述患者相对于所述磁共振成像***的定位的参数,例如,针对要被移动到磁共振成像***的磁等中心点的区域的参考点;
-几何形状采集参数,例如,要采集的成像切片的中心、方向和/或尺寸;
-针对预设协议的选择参数;
-SENSE因子;以及
-SENSE方向。
这里,术语“SENSE”是指灵敏度编码,在Klaas P.Pruessmann等人的文章“SENSE:Sensitivity Encoding for Fast MRI”(Magnetic Resonance in Medicine,第42卷,第952-962页,1999年)中对该术语进行了描述。SENSE因子是欠采样因子。SENSE方向是灵敏度编码的方向。
任选地,所述成像***是X射线成像***,并且其中,所述采集参数是以下项中的一个:
-管电压;
-管电流;
-网格;
-准直窗口;
-准直器的几何参数,例如,探测器高度、管的倾斜,准直器的旋转。
任选地,所述成像***是计算机断层摄影成像***,并且其中,所述采集参数是以下项中的一个:
-电源水平;
-管电流,
-剂量调制;
-扫描规划参数,例如,针对***的表格的开始位置和结束位置;
-重建参数,例如,要使用的滤波器类型。
任选地,所述机器学习算法是卷积神经网络。备选地,所述机器学习算法可以包括支持向量机、决策树、最近邻技术或集成方法,例如,与特征检测领域中已知的特征检测器和/或特征描述符(例如但不限于SURF、SIFT、Brief、Brisk或像Eigenimages这样的技术)相结合。
本领域技术人员应当理解,本发明的上述实施例、实施方式和/或任选方面中的两个或更多个可以以任何被认为有用的方式进行组合。
本领域技术人员能够基于本说明书来执行与所描述的***的修改和变化相对应的工作站、成像***、计算机实施的方法和/或计算机程序产品的修改和变化。
本领域技术人员应当理解,所述***和计算机实施的方法可以应用于通过各种采集模态采集的多维图像(例如,二维(2D)、三维(3D)或四维(4D)图像)数据,这些采集模态例如为但不限于标准X射线成像、计算机断层摄影(CT)、磁共振成像(MRI)、超声(US)、正电子发射断层摄影(PET)、单光子发射计算机断层摄影(SPECT)以及核医学(NM)。
附图说明
参考附图并借助于以下描述中以示例方式描述的实施例,本发明的这些方面和其他方面将变得明显并且得到进一步阐明,在附图中:
图1示意性地示出了被配置用于为成像***选择一个或多个采集参数的***;
图2和图3图示了从不同患者获得的深度映射图;
图4示意性地示出了在根据本发明的实施例的机器学习算法中使用的卷积神经网络;
图5示出了被配置用于为成像***选择一个或多个采集参数的***的另一实施例;
图6示出了根据实施例的用于为成像***选择采集参数的方法的流程图;并且
图7示出了包括用于令处理器***执行该方法的指令的计算机可读介质。
应当注意,这些附图纯粹是图解性的且并未按比例绘制。在附图中,与已经描述的元件相对应的元件可以具有相同的附图标记。无论是否以非限制性方式表示,示例、实施例或任选的特征不得被理解为限制所要求保护的本发明。
附图标记列表
提供以下附图标记列表以便于解释附图,但该附图标记列表不得被解释为限制权利要求。
10 患者
11 支撑物
12 房间
15 成像***
16 成像***的视场
18 相机***
19 相机***的视场
58 第一相机
59 第二相机
60 患者信息接口
62 患者信息数据库
100 用于选择采集参数的***
102 第一患者的深度映射图
103 第二患者的深度映射图
120 相机数据接口
122 相机或深度数据
140 存储器
142 内部数据通信
160 处理器
162 表示采集参数的输出
170 输出接口
200 卷积神经网络
201 第一层
202 第二层
203 第三层
204 第四层
205 第五层
206 第六层
207 输出神经元
400 用于为成像***选择采集参数的方法
410 访问深度相关映射图
420 应用机器学习算法
430 输出采集参数
500 计算机可读介质
510 表示指令的非瞬态数据
具体实施方式
图1示意性地示出了被配置用于为成像***选择采集参数的***100,其中,采集参数至少部分地定义成像***在关于患者的成像流程期间的成像配置。图1示意性地示出了躺在房间12中的支撑物11上的患者10。X射线成像***15被布置在支撑物11上方,X射线成像***15具有视场16,视场16也被称为激活区16。相机***18被布置在支撑物11上方,以便能够拍摄患者10的图像。
应当注意,X射线成像***15并非一定要位于患者上方。例如,在近处控制的荧光检查***中,X射线管可以位于支撑物下方,并且成像器/接收器可以位于患者上方。在其他实施例中,X射线成像***15可以被布置在患者的前方或后方。
相机18具有视场19,视场19至少部分地与X射线成像***15的视场16重叠。在图1的示例中,相机***18远离X射线成像***15。备选地,相机***18可以被固定到X射线成像***15,例如被固定到X射线成像***的C形臂。
***100包括相机数据接口120,相机数据接口120被配置为基于从相机***18获得的传感器数据来访问深度相关映射图。传感器数据是在关于患者10的成像流程之前获得的,并且指示患者的外形的部分所具有的朝向相机***18的距离。相机***18可以直接向***100提供深度相关映射图。备选地,相机***18可以将传感器数据提供给***100,其中,传感器数据指示但不直接表示深度相关映射图。这样的传感器数据的非限制性示例是立体图像的图像数据。在这种情况和类似情况下,可以使用已知技术(例如,根据深度和/或视差估计领域的技术)根据传感器数据来估计深度相关映射图。深度相关映射图可以由***100本身估计,例如由深度估计处理器(图1中未示出)或者由相机数据接口120本身或外部实体来估计。如进一步解释的,深度相关映射图可以是深度映射图,但是也可以是视差映射图或其他类型的深度相关映射图。
在实施例中,相机***18可以与***100分开。然而,***100也可以包括相机***18。
通常,相机***18可以包括以下项中的至少一个:飞行时间相机;立体相机,被布置为立体相机的两个相机;以及投影仪和相机,所述投影仪被配置为将已知图案投影到所述患者的外形上,从而产生变形图案,所述相机被配置为记录所述变形图案。
相机数据接口120可以采用各种形式,例如,通往局域网的网络接口,还可以是视频接口,例如,HDMI等。
***100还包括处理器160和存储器140,处理器160被配置为经由数据通信122与相机数据接口120内部通信,处理器160能经由数据通信142访问存储器140。
存储器140可以包括表示指令集的指令数据,所述指令集将处理器160配置为在***100的操作期间与相机数据接口120和存储器140通信并将机器学习算法应用于深度相关映射图以识别采集参数。
机器学习算法可以由算法数据表示,所述算法数据被存储在存储器140中并且被处理器160访问。此外,机器学习算法可以在训练阶段期间使用训练数据来训练,所述训练数据包括以下项的集合:i)示例深度相关映射图;以及ii)作为预测值的示例采集参数,其中,示例采集参数表示人类操作者在关于先前患者的先前成像流程中的选择,其中,示例相关映射图是基于由相同或相似类型的相机***在先前成像流程期间获得的传感器数据来生成的。
图1还示出了包括输出接口170的***100。在图1的示例中,输出接口170被配置为向外部发送表示采集参数162的输出。例如,输出接口170可以被配置为将输出162提供给成像***以供在成像流程中使用,例如将输出162提供给作为成像***的部分并控制X射线成像***15的工作站。备选地,***100可以是成像***(例如,X射线成像***15)的部分;在这种情况下,输出接口170可以是内部输出接口。
***100可以被实施为设备或装置或者被实施在设备或装置中,所述设备或装置例如为服务器、工作站、成像***或移动设备。所述设备或装置可以包括运行适当软件的一个或多个微处理器或计算机处理器。***的处理器可以由这些处理器中的一个或多个来实施。软件可能已被下载和/或被存储在对应的存储器(例如,诸如RAM的易失性存储器或诸如闪存的非易失性存储器)中。该软件可以包括对一个或多个处理器进行配置以执行参考***的处理器所描述的功能的指令。备选地,***的功能单元(例如,相机数据接口,任选的患者数据接口和处理器)可以以可编程逻辑单元的形式在设备或装置中实施,例如被实施为现场可编程门阵列(FPGA)。相机数据接口和患者数据接口可以由设备或装置的相应接口来实施。通常,***的每个功能单元可以以电路的形式来实施。应当注意,***100也可以以分布式方式来实施,例如涉及不同的设备或装置。例如,分布可以根据客户端-服务器模型,例如使用服务器和瘦客户端PACS工作站来进行分布。
公布物WO 2014033614 A1(通过引用将其并入本文)描述了在装置中使用空间深度信息来自动或半自动地控制X射线成像器的准直器以准直成像器的X射线束并调整成像器相对于对象的对准。准直和对准操作基于要被成像的对象的3D图像数据。通过传感器采集3D图像数据。3D图像数据描述对象的3D形状,并且根据3D图像数据导出解剖界标以定义针对感兴趣区域的准直窗口。因此,在WO 2014033614 A1中,需要界标来找到作为准直窗口的适当的采集参数。能够不使用机器学习算法来如本申请中所描述的那样以经验方式确定(一个或多个)采集参数。然而,在表示采集深度相关映射图的可能实施例时,通过引用而并入3D图像数据的采集。
图2和图3图示了来自不同患者的深度图像(其在整个说明书中也可以被称为“深度映射图”)。图2示出了“正常”患者的深度图像102,而图3示出了肥胖患者的深度图像103。在图2和图3中,深度由灰度指示,黑色指示距离相机较远,而白色指示距离相机较近。从图3中能够看出,肥胖患者的腹部突出,如在深度图像103中能够看到腹部更亮。当仅在深度图像中寻找界标时,将不会考虑这样的患者属性,例如,患者的身体状态或健康状况,但是根据本发明的***会使用这样的患者属性,下文将更详细地解释。
图4示意性地示出了可以用于预测采集参数的卷积神经网络(CNN)200。与常规的神经网络(其包括一系列完全连接的人工神经元层)不同,CNN包括本地连接的不同层的集合和完全连接层的集合。在图4的实施例中,第一层集合包括卷积层201、池化层202,另外的卷积层203以及另外的池化层204。卷积层201、203包括可学习滤波器(其在空间上受到约束并在层内共享)的集合,而池化层202、204执行非线性下采样(并减少自由参数的量)。另外的池化层204连接到第一完全连接层205,第一完全连接层205连接到第二完全连接层206。输出神经元207完全连接到第二完全连接层206。输出神经元的值(其也被称为预测值)可以指示针对成像***的采集参数。
考虑图4的CNN架构,例如,使用卷积层和池化层以及完全连接层,第一部分(层201-204)可以被认为基本上执行图像特征提取步骤,而后者(层205、206、207)可以被认为基本上执行分类或回归任务。
为了包括另外的患者相关信息,可以将非图像数据直接***第一完全连接层,参见层205。应当注意,CNN 200中的层数和层类型可以根据学习算法而变化。应当注意,在图4中,CNN 200的最后层被示为是完全连接的。然而,应当注意,取决于所使用的特定机器学习算法,层205、206可以替代地是部分连接的。
应当注意,可能存在一个以上的输出神经元。例如,CNN 200可以被训练为一次预测一个以上的采集参数。而且,采集参数可以被编码在网络中,例如作为分类参数,在这种情况下,可能需要若干输出神经元来为残采集参数编码一个值。例如,采集参数的值可以是二进制编码的。
虽然常规的CNN主要用于图像分类或对象检测(例如通过评价图像中的不同位置处的CNN),但是CNN 200可以用作回归算法,类似于J.Redmon等人在2015年的文章“YouOnly Look Once:Unified,Real-Time Object Detection”中描述的YOLO。YOLO被设计为预测针对RGB图像中的感兴趣对象的边界框和类概率(例如,x、y、宽度、高度、概率)。
在实施例中,可以使用这样的回归算法来预测针对成像***的(一个或多个)采集参数。一个应用可以是例如预测针对当前患者的准直窗口设置。这可以得到例如准直窗口的x、y、宽度和高度设置。通常,可以扩展YOLO公布物中描述的基本技术以提供所要求保护的对“任意”采集参数的预测,并且可以与非图像数据的输入相结合。
在图4的示例中,训练样本被馈送到CNN 200,该样本包括深度相关映射图以及(任选的)非图像数据。非图像数据可以包括患者的身长、患者的年龄、患者的体重或可能用于训练CNN的任何其他非图像数据,这将在本说明书中参考图5进一步讨论。从图4中能够看出,非图像数据可以用作针对网络中的后面的层(例如,完全连接层)的输入。
在实施例中,深度相关映射图可以由RGB-D相机产生。通过使用图4的CNN 200或类似的机器学习算法,图1的***100可以被配置为导出RGB-D图像的超出界标的信息。例如,RGB-D图像可以提供关于患者腹部高度差异的信息,这可以指示患者的一般健康状况并因此与准直设置、暴露时间设置、管电压设置、焦点尺寸设置以及X射线敏感区的选择等相关。
在另外的实施例中,RGB-D图像(或更一般地,深度相关映射图)可以与对应的带注释的X射线图像一起用作针对学习算法的训练数据。通过使用带注释的X射线图像,***100可以被训练为预测感兴趣解剖结构(例如,患者的肺)的尺寸和位置。可能存在不同的情况。例如,可以预测肺在RGB-D图像中的位置(在给定了相机***与X射线设备之间的相对几何形状的情况下,然后能够将肺的位置映射到***设置中)。备选地,可以预测肺在探测器坐标系中的位置,例如,相对于相机***18或成像***15的位置。一旦预测了患者的肺的位置,就能够确定针对X射线成像***的适当准直设置,以便允许对肺(或更一般地,感兴趣解剖结构)的最佳成像。
应当注意,相机***18可以提供图像或视频,例如,视频图像流。视频可以是连续视频流或间隔视频流。机器学习算法可以使用视频的各个帧作为输入。备选地,多个帧可以一起用作针对算法的输入。
在另外的实施例中,相机***包括两个相机,例如,如图5所示,图1的房间12现在包括第一相机58和第二相机59。图5类似于图1,不同之处在于患者数据接口60和外部患者信息数据库62,这将在后面进一步讨论。
第一相机58和第二相机59可以是被布置为提供立体内容的立体相机。在这种情况下,可以通过立体内容的左图像信号与右图像信号之间的差异来提供深度信息。然后可以使用被称为“深度估计”的已知技术根据这样的立体内容来估计深度相关映射图。
备选地,第一相机58可以是飞行时间(ToF)相机,并且第二相机59可以是“普通的”可见光相机。在由处理器160接收的内容中可以明确地提供由ToF相机58产生的深度信息。例如,在以所谓的“图像+深度”格式编码的内容中,由深度信号来提供深度信息,所述深度信号包括指示2D图像信号内的对象所具有的朝向相机或观看者的距离的深度值。可以从ToF相机58获得深度,并且可以从普通相机59获得图像。
在另外的实施例中,相机***可以包括:投影仪58和相机59,投影仪58被配置为将已知图案投影到患者的外形,从而产生变形图案;相机59被配置为记录变形图案。处理器160或其他实体可以使用变形图案来创建深度相关映射图。
在又一示例中,相机***可以包括光探测和测距(LiDAR)相机和/或激光探测和测距(LaDAR)相机。
应当注意,深度相关映射图可以是深度相关值的图像式布置。这样,术语“深度相关映射图”可以被理解为对深度相关图像的参考,反之亦然。深度相关映射图可以包括深度值。备选地,深度相关映射图可以包括视差值或视差移位值。视差值和视差移位值与深度值具有近似的反比关系,但因此仍然表示“深度”,例如,对象所具有的朝向相机或观察者或显示器的距离,但不直接对应于所述距离。在所有上述类型的深度值之间进行转换的方法本身是已知的。
图5中示出的***100还包括任选的患者数据接口60,患者数据接口60被布置为从前述患者信息数据库62接收患者数据。患者信息数据库62可以包括若干其他患者的非图像患者数据,所述非图像患者数据可以由处理器160用于训练机器学习算法。这样的非图像患者数据的示例可以是患者的电子健康记录。数据库62还可以包括相关联的采集参数的值,这些值可以在训练阶段期间用作预测值。备选地,可以从不同的数据库(未示出)检索这样的采集参数。
应当理解,与基于界标的方法相比,所描述的***可以具有若干优点。所描述的***可以提供用于预测扫描参数的通用框架,该通用框架适用于不同的检查和模态。此外,所描述的***可以提供端到端方法,这种方法直接允许预测所需输出而不需要界标检测或用于预测“内部”解剖结构的单独统计模型。而且,所描述的***能够通过集成RGB-D与医学图像数据而轻松得到优化。所描述的***可以利用整个图像信息(其可能允许更高准确度)(而不仅仅是界标)(这样可以“看到”患者是小还是大,是肥胖型还是健壮型——这与预期的肺部尺寸有关)。该***可以容易地整合非图像信息(如患者年龄或性别),这可以促进预测过程。最后,该***可以允许在临床站点进行在线学习,例如在现场重新训练***。
图6示出了根据实施例的用于为成像***选择采集参数的方法400。方法400可以但不是必须对应于参考图1等描述的***100的操作。
方法400可以包括:在标题为“访问深度相关映射图”的操作中,访问410深度相关映射图,所述深度相关映射图是基于来自相机***的传感器数据生成的,其中,相机***具有视场,所述视场包括成像***的视场的至少部分,其中,传感器数据是在关于患者的成像流程之前获得的,并且指示患者的外形的不同部分所具有的朝向相机***的距离。方法400还可以包括:在标题为“应用机器学习算法”的操作中,将机器学习算法应用420于深度相关映射图以识别采集参数。机器学习算法由算法数据表示,所述算法数据被存储在存储器中并且被处理器访问,并且机器学习算法是使用训练数据来训练的,所述训练数据包括以下项的集合:i)示例深度相关映射图;以及ii)作为预测值的示例采集参数,其中,示例采集参数表示人类操作者在关于先前患者的先前成像流程中所使用的选择,其中,示例相关映射图是基于由先前的相机***在先前成像流程期间获得的传感器数据来生成的。方法400还可以包括:在标题为“输出采集参数”的操作中,输出430要由成像***使用的采集参数。
应当理解,上述操作可以以任何合适的顺序执行,例如,连续地,同时地或其组合方式来执行,在适用的情况下,例如通过输入/输出关系来经历需要的特定的顺序。
方法400可以在计算机上被实施为计算机实施的方法,可以被实施为专用硬件或者被实施为这两者的组合。而且,如图7所示,用于计算机的指令(例如,可执行代码)可以被存储在计算机可读介质500上,例如以一系列510机器可读物理标记的形式和/或作为具有不同的电学(例如,磁性)或光学性质或值的一系列元件来进行存储。可执行代码可以以瞬态或非瞬态的方式进行存储。计算机可读介质的示例包括存储器设备、光学存储设备、集成电路、服务器、在线软件等。图7示出了存储表示指令的非瞬态数据510的光盘500。
应当理解,本发明也适用于适于将本发明付诸实践的计算机程序,尤其是载波上或载波中的计算机程序。程序可以为源代码、目标代码、代码中间源以及为部分编译形式的目标代码的形式,或者为适合于在根据本发明的方法的实施方式中使用的任何其他形式。也应当理解,这样的程序可以具有许多不同的架构设计。例如,实施根据本发明的方法或***的功能的程序代码可以被细分成一个或多个子例程。将功能分布在这些子例程之中的许多不同方式对本领域技术人员来说将是明显的。子例程可以被一起存储在一个可执行文件中,以形成自含程序。这样的可执行文件可以包括计算机可执行指令,例如,处理器指令和/或解读器指令(例如,Java解读器指令)。备选地,子例程中的一个或多个或全部可以被存储在至少一个外部库文件中,并且例如在运行时间时被静态地或动态地与主程序链接。主程序包含对子例程中的至少一个的至少一次调用。子例程也可以包括彼此的功能调用。涉及计算机程序产品的实施例包括对应于在本文中阐述的方法中的至少一个的每个处理步骤的计算机可执行指令。这些指令可以被细分成子例程和/或被存储在可以被静态地或动态地链接的一个或多个文件中。涉及计算机程序产品的另一实施例包括对应于在本文中阐述的***和/或产品中的至少一个的每个单元的计算机可执行指令。这些指令可以被细分成子例程和/或被存储在可以被静态地或动态地链接的一个或多个文件中。
计算机程序的载体可以为能够承载程序的任何实体或设备。例如,载体可以包括存储介质,例如,ROM(例如,CD ROM或半导体ROM),或者磁性记录介质(例如,硬盘)。此外,载体可以为可传输载体,例如,电信号或光信号,它们可以经由电缆或光缆或通过无线电或其他手段来传送。当程序被实施在这样的信号中时,载体可以包括这样的线缆或其他设备或器件。备选地,载体可以为程序被嵌入其中的集成电路,所述集成电路适于执行相关的方法,或者适于在对相关的方法的执行中使用。
应当注意,以上提及的实施例图示而非限制本发明,并且本领域技术人员将能够设计许多备选实施例,而不偏离权利要求的范围。在权利要求中,置于括号内的任何附图标记均不应被解读为对权利要求的限制。动词“包括”及其词性变化的使用不排除权利要求中记载的那些以外的其他元件或步骤的存在。元件前的词语“一”或“一个”不排除多个这样的元件的存在。本发明可以借助于包括若干不同元件的硬件,以及借助于被适当编程的计算机来实施。在列举了若干单元的装置型权利要求中,这些单元中的若干可以由同一项硬件来实施。某些措施被记载在互不相同的从属权利要求中的事实并不指示不能有利地使用这些措施的组合。

Claims (15)

1.一种用于为成像***(15)选择采集参数的***(100),其中,所述采集参数至少部分地定义所述成像***在关于患者的成像流程期间的成像配置,所述***包括:
-相机数据接口(120),其被配置为访问基于来自相机***的传感器数据生成的深度相关映射图,其中,所述相机***具有视场,所述视场包括所述成像***的视场的至少部分,其中,所述传感器数据是在关于所述患者的所述成像流程之前获得的,并且指示所述患者的外形的部分所具有的朝向所述相机***的距离;
-存储器(140),其包括表示指令集的指令数据;
-处理器(160),其被配置为与所述相机数据接口(120)和所述存储器(140 )通信并执行所述指令集,其中,所述指令集在由所述处理器运行时令所述处理器将机器学习算法应用于所述深度相关映射图以识别所述采集参数,其中:
-所述机器学习算法由算法数据表示,所述算法数据被存储在所述存储器中并且被所述处理器访问,并且
-所述机器学习算法是使用训练数据来训练的,所述训练数据包括以下项的集合:i)示例深度相关映射图,以及ii)作为预测值的示例采集参数,其中,所述示例采集参数表示人类操作者在关于先前患者的先前成像流程中的选择,其中,所述示例相关映射图是基于由相同或相似类型的相机***在所述先前成像流程期间获得的传感器数据来生成的;以及
-输出接口(170),其被配置为输出要由所述成像***使用的所述采集参数。
2.根据权利要求1所述的***(100),还包括:
患者数据接口(60),其被配置为访问所述患者的非图像患者数据,并且其中:
-对于所述训练数据的给定集合,所述训练数据还包括示例非图像患者数据,所述示例非图像患者数据与所述患者的所述非图像患者数据具有相同或相似的类型;并且
-当由所述处理器(160)运行时,所述指令集令所述处理器(160)使用所述非图像患者数据作为针对所述机器学习算法的额外输入。
3.根据权利要求2所述的***(100),其中,所述患者数据接口(60)被配置为从所述患者的电子健康记录访问所述非图像患者数据。
4.根据权利要求2或3所述的***(100),其中,所述患者的所述非图像患者数据包括以下项中的至少一个:
-所述患者的体重;
-所述患者的年龄;
-所述患者的性别;
-所述患者的健康水平的量化结果;
-与所述患者相关联的疾病诊断;
-与所述患者相关联的用药记录;以及
-与所述患者相关联的生命参数记录。
5.根据前述权利要求中的任一项所述的***(100),其中:
-对于所述训练数据的给定集合,所述训练数据还包括示例几何形状数据,所述几何形状数据指示在所述先前成像流程期间所述相机***(18)与所述成像***(15)之间的先前相对几何形状;并且
-当由所述处理器(160)运行时,所述指令集令所述处理器(160)在所述成像流程中使用所述相机***(18)与所述成像***(15)之间的当前相对几何形状作为针对所述机器学习算法的额外输入。
6.根据权利要求1至4中的任一项所述的***(100),其中:
-所述训练数据的给定集合的所述示例深度相关映射图是基于相机***(18)与成像***(15)之间的先前相对几何形状来生成的;
-当由所述处理器(160)运行时,所述指令集令所述处理器(160)执行以下操作:
-在所述成像流程中确定所述相机***(18)与所述成像***(15)之间的所述先前相对几何形状与当前相对几何形状之间的偏差;
-如果所述偏差存在或者超过阈值,则在所述的应用所述机器学习算法之前处理所述深度相关映射图以补偿所述偏差。
7.根据前述权利要求中的任一项所述的***(100),其中:
-所述相机数据接口(120)还被配置为访问由所述相机***(18)采集的图像数据,其中,所述图像数据示出所述患者的外形;
-对于所述训练数据的给定集合,所述训练数据还包括由先前的所述相机***(18)采集的示例图像数据,所述示例图像数据示出在所述先前成像流程期间的先前患者外形;并且
-当由所述处理器(160)运行时,所述指令集令所述处理器(160)使用所述图像数据作为针对所述机器学习算法的额外输入。
8.根据前述权利要求中的任一项所述的***(100),其中,所述***(100)包括所述相机***(18),并且其中,所述相机***(18)包括以下项中的至少一个:
-飞行时间相机;
-光探测和测距(LiDAR)相机;
-激光探测和测距(LaDAR)相机;
-立体相机,或者被布置为立体相机的两个相机;以及
-投影仪和相机,所述投影仪被配置为将已知图案投影到所述患者的外形上,从而产生变形图案,所述相机被配置为记录所述变形图案。
9.根据前述权利要求中的任一项所述的***(100),其中,所述成像***(15)是磁共振成像***,并且其中,所述采集参数是以下项中的一个:
-指定所述患者相对于所述磁共振成像***的定位的参数;
-几何形状采集参数;
-针对预设协议的选择参数;
-SENSE因子;
-SENSE方向。
10.根据前述权利要求中的任一项所述的***(100),其中,所述成像***(15)是X射线成像***,并且其中,所述采集参数是以下项中的一个:
-管电压;
-管电流;
-网格;
-准直窗口;以及
-准直器的几何参数。
11.根据前述权利要求中的任一项所述的***(100),其中,所述成像***(15)是计算机断层摄影成像***,并且其中,所述采集参数是以下项中的一个:
-电源水平;
-管电流;
-剂量调制;
-扫描规划参数;以及
-重建参数。
12.根据前述权利要求中的任一项所述的***(100),其中,所述机器学习算法是卷积神经网络(200)。
13.一种工作站或成像***,其包括根据权利要求1至12中的任一项所述的***。
14.一种用于为成像***选择采集参数的计算机实施的方法(400),其中,所述采集参数至少部分地定义所述成像***在关于患者的成像流程期间的成像配置,所述方法包括:
-访问(410)深度相关映射图,所述深度相关映射图是基于来自相机***的传感器数据生成的,其中,所述相机***具有视场,所述视场包括所述成像***的视场的至少部分,其中,所述传感器数据是在关于所述患者的所述成像流程之前获得的,并且指示所述患者的外形的不同部分所具有的朝向所述相机***的距离;
-将机器学习算法应用(420)于所述深度相关映射图以识别所述采集参数,其中:
-所述机器学习算法由算法数据表示,所述算法数据被存储在存储器中并且被处理器访问,并且
-所述机器学习算法是使用训练数据来训练的,所述训练数据包括以下项的集合:i)示例深度相关映射图,以及ii)作为预测值的示例采集参数,其中,所述示例采集参数表示人类操作者在关于先前患者的先前成像流程中所使用的选择,其中,所述示例相关映射图是基于由先前相机***在所述先前成像流程期间获得的传感器数据来生成的;以及
-输出(430)要由所述成像***使用的所述采集参数。
15.一种计算机可读介质(500),包括瞬态或非瞬态数据(510),所述瞬态或非瞬态数据表示被布置为令处理器***执行根据权利要求14所述的方法的指令。
CN201780069840.5A 2016-11-10 2017-11-07 为成像***选择采集参数 Active CN109937012B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP16198086.7 2016-11-10
EP16198086 2016-11-10
PCT/EP2017/078461 WO2018087083A1 (en) 2016-11-10 2017-11-07 Selecting acquisition parameter for imaging system

Publications (2)

Publication Number Publication Date
CN109937012A CN109937012A (zh) 2019-06-25
CN109937012B true CN109937012B (zh) 2023-02-17

Family

ID=57321131

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780069840.5A Active CN109937012B (zh) 2016-11-10 2017-11-07 为成像***选择采集参数

Country Status (5)

Country Link
US (1) US20200058389A1 (zh)
EP (1) EP3537976B1 (zh)
JP (1) JP7138631B2 (zh)
CN (1) CN109937012B (zh)
WO (1) WO2018087083A1 (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11478212B2 (en) * 2017-02-16 2022-10-25 Siemens Healthcare Gmbh Method for controlling scanner by estimating patient internal anatomical structures from surface data using body-surface and organ-surface latent variables
WO2018227449A1 (en) 2017-06-15 2018-12-20 Shanghai United Imaging Healthcare Co., Ltd. Imaging systems and methods thereof
US11030525B2 (en) * 2018-02-09 2021-06-08 Baidu Usa Llc Systems and methods for deep localization and segmentation with a 3D semantic map
EP3545846B1 (en) * 2018-03-26 2021-03-10 Siemens Healthcare GmbH Adjusting a collimator of an x-ray source
US10888296B2 (en) * 2018-06-29 2021-01-12 Shanghai United Imaging Healthcare Co., Ltd. Methods and systems for modulating radiation dose
US11068668B2 (en) * 2018-10-25 2021-07-20 Facebook Technologies, Llc Natural language translation in augmented reality(AR)
US10751021B2 (en) * 2018-12-20 2020-08-25 General Electric Company System and method for acquiring an x-ray image
KR102056989B1 (ko) * 2018-12-24 2020-02-11 (주)제이엘케이인스펙션 머신러닝 기반의 gre 영상을 활용한 혈전 분류 방법 및 시스템
JP7104644B2 (ja) * 2019-02-14 2022-07-21 富士フイルム株式会社 放射線撮影システム及びプログラム
JP7224208B2 (ja) * 2019-03-05 2023-02-17 キヤノンメディカルシステムズ株式会社 医用処理装置、および医用診断システム
JP7293814B2 (ja) * 2019-04-01 2023-06-20 株式会社リコー 生体情報計測装置、生体情報計測方法およびプログラム
JP7350519B2 (ja) * 2019-05-29 2023-09-26 キヤノン株式会社 放射線撮影システム、放射線撮影制御装置及びその制御方法、並びに、プログラム
EP3757940A1 (de) 2019-06-26 2020-12-30 Siemens Healthcare GmbH Ermittlung einer patientenbewegung während einer medizinischen bildgebungsmessung
EP3760125A1 (en) * 2019-07-05 2021-01-06 Koninklijke Philips N.V. Self-learning distributed system with automated ground-truth generation
US11430564B2 (en) * 2019-11-27 2022-08-30 Shanghai United Imaging Intelligence Co., Ltd. Personalized patient positioning, verification and treatment
CN115666406A (zh) * 2020-02-06 2023-01-31 维卡瑞斯外科手术公司 在外科手术机器人***中确定体内深度感知的***和方法
US20230309939A1 (en) * 2022-04-04 2023-10-05 GE Precision Healthcare LLC System and Method for Training Sensor-Guided X-Ray Mammography System
CN117670758A (zh) * 2022-08-09 2024-03-08 上海西门子医疗器械有限公司 确定曝光参数的方法、装置、存储介质及程序产品

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102036606A (zh) * 2008-04-18 2011-04-27 麦德托尼克公司 测绘结构的方法和装置
WO2016073841A1 (en) * 2014-11-06 2016-05-12 Siemens Medical Solutions Usa, Inc. Scan data retrieval with depth sensor data
CN106062755A (zh) * 2014-01-10 2016-10-26 哈特弗罗公司 用于识别医学图像采集参数的***和方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08131428A (ja) * 1994-11-08 1996-05-28 Hitachi Ltd ディジタルx線撮影装置
JP4429709B2 (ja) * 2003-06-10 2010-03-10 株式会社日立メディコ X線断層撮影装置
JP2006204329A (ja) * 2005-01-25 2006-08-10 Hitachi Medical Corp X線断層撮影装置
DE102007021769B4 (de) * 2007-05-09 2015-06-25 Siemens Aktiengesellschaft Angiographiegerät und zugehöriges Aufnahmeverfahren mit einem Mechansimus zur Kollisionsvermeidung
DE102011002928A1 (de) * 2011-01-20 2012-07-26 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Konfiguration einer medizinischen Bildgebungsvorrichtung
US9693748B2 (en) * 2011-07-23 2017-07-04 Broncus Medical Inc. System and method for automatically determining calibration parameters of a fluoroscope
CN104602608B (zh) 2012-08-27 2019-01-01 皇家飞利浦有限公司 基于光学3d场景检测与解释的患者特异性且自动的x射线***调节
US9320444B2 (en) * 2013-03-15 2016-04-26 Stryker Corporation Patient support apparatus with patient information sensors
US20170112460A1 (en) 2014-06-30 2017-04-27 Agfa Healthcare Nv Method and system for configuring an x-ray imaging system
JP2018514748A (ja) * 2015-02-06 2018-06-07 ザ ユニバーシティ オブ アクロンThe University of Akron 光学撮像システムおよびその方法
WO2018086000A1 (en) * 2016-11-09 2018-05-17 Edan Instruments, Inc. Systems and methods for ultrasound imaging

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102036606A (zh) * 2008-04-18 2011-04-27 麦德托尼克公司 测绘结构的方法和装置
CN106062755A (zh) * 2014-01-10 2016-10-26 哈特弗罗公司 用于识别医学图像采集参数的***和方法
WO2016073841A1 (en) * 2014-11-06 2016-05-12 Siemens Medical Solutions Usa, Inc. Scan data retrieval with depth sensor data

Also Published As

Publication number Publication date
JP7138631B2 (ja) 2022-09-16
CN109937012A (zh) 2019-06-25
EP3537976A1 (en) 2019-09-18
RU2019118036A3 (zh) 2021-03-03
WO2018087083A1 (en) 2018-05-17
EP3537976B1 (en) 2020-05-20
JP2020500579A (ja) 2020-01-16
RU2019118036A (ru) 2020-12-10
US20200058389A1 (en) 2020-02-20

Similar Documents

Publication Publication Date Title
CN109937012B (zh) 为成像***选择采集参数
EP3444776B1 (en) Topogram prediction from surface data in medical imaging
CN111724904B (zh) 用于针对医学扫描的患者建模的多任务渐进式网络
JP7120584B2 (ja) 被検体の位置決め装置、被検体の位置決め方法、被検体の位置決めプログラムおよび放射線治療システム
US9684961B2 (en) Scan region determining apparatus
EP3360483B1 (en) Method and system for dose-optimized computed tomography scanning of a target organ
EP3804624B1 (en) Synthetic parameterized computed tomography from surface data in medical imaging
CN104346821B (zh) 用于医学成像的自动规划
US20220061781A1 (en) Systems and methods for positioning
JP6739422B2 (ja) 被験者の画像をセグメント化するためのデバイス、システム及び方法
US11327773B2 (en) Anatomy-aware adaptation of graphical user interface
CN109419521A (zh) 用于对受检者成像的***和方法
US11423554B2 (en) Registering a two-dimensional image with a three-dimensional image
US11734849B2 (en) Estimating patient biographic data parameters
US20220277835A1 (en) Self-learning distributed system with automated ground-truth generation
RU2780966C2 (ru) Выбор параметра получения изображений для системы формирования изображений
US20230342974A1 (en) Imaging systems and methods
US20230410308A1 (en) Detection of foreign objects in intraoperative images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant