CN111862001B - Ct影像的半自动标注方法及装置、电子设备、存储介质 - Google Patents

Ct影像的半自动标注方法及装置、电子设备、存储介质 Download PDF

Info

Publication number
CN111862001B
CN111862001B CN202010601868.2A CN202010601868A CN111862001B CN 111862001 B CN111862001 B CN 111862001B CN 202010601868 A CN202010601868 A CN 202010601868A CN 111862001 B CN111862001 B CN 111862001B
Authority
CN
China
Prior art keywords
image sequence
image
labeling
target
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010601868.2A
Other languages
English (en)
Other versions
CN111862001A (zh
Inventor
方成
吴边
孟海忠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Weiyiyun Hangzhou Holding Co ltd
Original Assignee
Weiyiyun Hangzhou Holding Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Weiyiyun Hangzhou Holding Co ltd filed Critical Weiyiyun Hangzhou Holding Co ltd
Priority to CN202010601868.2A priority Critical patent/CN111862001B/zh
Publication of CN111862001A publication Critical patent/CN111862001A/zh
Application granted granted Critical
Publication of CN111862001B publication Critical patent/CN111862001B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • G06T2207/30064Lung nodule
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本申请提供一种CT影像的半自动标注方法及装置、电子设备、计算机可读存储介质,方法包括:响应于针对CT影像序列的标注指令,为所述CT影像序列中的目标生成立体包裹框;将所述CT影像序列在所述立体包裹框内的局部影像序列作为已训练的医疗识别模型输入,获得所述医疗识别模型输出的所述目标的指定标注信息;其中,所述指定标注信息包括所述目标在所述CT影像序列中的实际边缘信息;为所述CT影像序列标注所述指定标注信息。在本申请实施例中,通过人工添加弱标注,由医疗识别模型计算出强标注的方式,可以极大地降低添加强标注的人力成本。

Description

CT影像的半自动标注方法及装置、电子设备、存储介质
技术领域
本申请涉及计算机辅助医学技术领域,特别涉及一种CT影像的半自动标注方法及装置、电子设备、计算机可读存储介质。
背景技术
螺旋CT(Computed Tomography,电子计算机断层扫描)和低剂量CT是发现早期肺癌有效的工具,然而,培养一名优秀的影像医生需投入大量人力物力,随着肺部CT初筛的广泛应用,放射影像科医生的需求缺口日益增长。
自人工智能浪潮兴起,基于人工智能的肺部初筛技术作为一种行之有效的初筛工具,其发展如火如荼。在理想情况下,基于人工智能的肺部初筛技术可降低影像科医生的工作量,从而满足肺部CT初筛的需求。而在技术的发展阶段,需要大量标注数据,标注数据可以用于指示目标(比如:肺结节)在CT影像中的位置。
考虑到肺结节大部分呈球形,通常的肺结节标注是弱标注,即仅标注肺结节的位置中心和半径,伴随以结构化的描述特征。此类标注的应用范围有限。对于精度更高的人工智能技术,更需要精确指示肺结节边缘的强标注。肺结节在CT影像上有多种形态,边缘可能呈针刺状,有的大结节纵跨几十张薄层CT。因此,人工对CT影像添加强标注费时费力,工作量太大。
发明内容
本申请实施例的目的在于提供一种CT影像的半自动标注方法及装置、电子设备、计算机可读存储介质,用于对CT影像中目标添加强标注。
一方面,本申请提供了一种CT影像的半自动标注方法,包括:
响应于针对CT影像序列的标注指令,为所述CT影像序列中的目标生成立体包裹框;
将所述CT影像序列在所述立体包裹框内的局部影像序列作为已训练的医疗识别模型输入,获得所述医疗识别模型输出的所述目标的指定标注信息;其中,所述指定标注信息包括所述目标在所述CT影像序列中的实际边缘信息;
为所述CT影像序列标注所述指定标注信息。
在一实施例中,所述标注指令包括顶点设置指令;
所述响应于针对CT影像序列的标注指令,为所述CT影像序列中的目标生成立体包裹框,包括:
响应于所述顶点设置指令,在第一CT影像中设置边框的左上角顶点,以及,在第二CT影像中设置边框的右下角顶点;其中,所述第一CT影像为所述CT影像序列的第一个出现所述目标的CT影像,所述CT影像为所述CT影像序列中最后一个出现所述目标的CT影像;
以所述左上角顶点和所述右下角顶点作为对角顶点,生成所述目标的立体包裹框。
在一实施例中,所述标注指令包括种子点设置指令;
所述响应于针对CT影像序列的标注指令,为所述CT影像序列中的目标生成立体包裹框,包括:
响应于所述种子点设置指令,在所述CT影像序列中设置至少一个种子点;
根据预设生长策略从所述种子点开始执行区域生长算法,获得初始连通域;
基于所述初始连通域确定所述目标的立体包裹框。
在一实施例中,所述根据预设生长策略从所述种子点开始执行区域生长算法,获得初始连通域,包括:
以所述种子点的几何中心作为中心点,生成指定第一尺度的初始包裹框;
依据所述CT影像序列在所述初始包裹框内的局部影像序列,生成立体像素块;
在所述立体像素块内,根据所述生长策略从所述种子点开始执行区域生长算法,获得所述初始连通域。
在一实施例中,所述基于所述初始连通域确定所述目标的立体包裹框,包括:
根据指定第二尺度的球形核,对所述初始连通域执行开运算,获得若干候选连通域;
从所述候选连通域中确定指定连通域;
根据所述指定连通域确定所述立体包裹框。
在一实施例中,所述从所述候选连通域中确定指定连通域,包括:
判断是否存在多个候选连通域;
如果存在至少两个候选连通域,过滤不存在所述种子点的候选连通域,得到所述指定连通域;
如果只存在一个候选连通域,将所述候选连通域作为所述指定连通域。
在一实施例中,所述方法还包括:
根据多平面重建的方式展示所述立体包裹框;
响应于针对所述立体包裹框的棱的第一调整指令,调整所述立体包裹框的棱的位置。
在一实施例中,所述医疗识别模型通过如下方式训练得到:
将样本CT影像序列作为神经网络模型的输入,获得神经网络模型输出的预测信息;其中,预测信息包括边缘预测信息,所述样本CT影像序列标注了样本标签,所述样本标签包括边缘信息标签;
基于所述样本标签和所述预测信息之间的差异,调整所述神经网络模型的网络参数;
重复上述过程,直至所述神经网络模型收敛,得到所述医疗识别模型。
在一实施例中,在将所述样本CT影像序列输入所述神经网络模型之前,所述方法还包括:
获取原始CT影像序列和对应于每一原始CT影像的平面边缘信息;其中,所述原始CT影像序列标注了目标的中心点;
基于已标注的中心点和所述平面边缘信息确定所述原始CT影像序列中目标的立体包裹框;
获取所述原始CT影像序列在所述立体包裹框内的局部影像序列和对应于每一局部影像的局部平面边缘信息;
对所述局部影像序列和所述局部平面边缘信息执行数据增广处理,并将处理得到的局部影像序列作为所述样本CT影像序列,将处理得到的所述局部平面边缘信息作为所述边缘信息标签。
在一实施例中,所述预测信息包括病症预测信息,所述样本标签包括病症信息标签,所述指定标注信息包括病症信息;
在将所述样本CT影像序列输入所述神经网络模型之前,所述方法还包括:
响应于针对所述样本CT影像序列的标签添加指令,为所述样本CT影像序列添加病症信息标签。
在一实施例中,所述方法还包括:
响应于针对所述指定标注信息的第二调整指令,对所述指定标注信息进行调整。
另一方面,本申请还提供了一种CT影像的半自动标注装置,包括:
生成模块,用于响应于针对CT影像序列的标注指令,为所述CT影像序列中的目标生成立体包裹框;
计算模块,用于将所述CT影像序列在所述立体包裹框内的局部影像序列作为已训练的医疗识别模型输入,获得所述医疗识别模型输出的所述目标的指定标注信息;其中,所述指定标注信息包括所述目标在所述CT影像序列中的实际边缘信息;
标注模块,用于为所述CT影像序列标注所述指定标注信息。
进一步的,本申请还提供了一种电子设备,所述电子设备包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行上述CT影像的半自动标注方法。
另外,本申请还提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序可由处理器执行以完成上述CT影像的半自动标注方法。
在本申请实施例中,首先可以响应于标注指令,为CT影像序列中的目标立体包裹框,进而将CT影像序列在立体包裹框内的局部影像序列输入已训练的医疗识别模型,获得医疗识别模型输出的指定标注信息,该指定标注信息包括目标在CT影像序列中的实际边缘信息;为CT影像序列标注指定标识信息后,可以完成标注过程。通过人工添加弱标注,由医疗识别模型计算出强标注的方式,可以极大地降低添加强标注的人力成本。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍。
图1为本申请一实施例提供的电子设备的结构示意图;
图2为本申请一实施例提供的CT影像的半自动标注方法的流程示意图;
图3为本申请一实施例提供的CT影像的标注示意图;
图4为本申请一实施例提供的医疗识别模型的训练方法的流程示意图;
图5为本申请一实施例提供的样本生成方法的流程示意图;
图6为本申请一实施例提供的CT影像的半自动标注装置的框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
如图1所示,本申请实施例提供的电子设备1,包括:至少一个处理器11和存储器12,图1中以一个处理器11为例。处理器11和存储器12通过总线10连接,存储器12存储有可被处理器11执行的指令,指令被处理器11执行,以使电子设备1可执行下述的实施例中方法的全部或部分流程。在一实施例中,电子设备1可以是执行CT影像的标注方法的主机。
存储器12可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(Static Random Access Memory,简称SRAM),电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,简称EEPROM),可擦除可编程只读存储器(Erasable Programmable Read Only Memory,简称EPROM),可编程只读存储器(Programmable Red-Only Memory,简称PROM),只读存储器(Read-Only Memory,简称ROM),磁存储器,快闪存储器,磁盘或光盘。
本申请还提供了一种计算机可读存储介质,存储介质存储有计算机程序,计算机程序可由处理器11执行以完成本申请提供的CT影像的半自动标注方法。
参见图2,为本申请一实施例提供的CT影像的半自动标注方法的流程示意图,如图2所示,该方法可以包括以下步骤210-步骤230。
步骤210:响应于针对CT影像序列的标注指令,为CT影像序列中的目标生成立体包裹框。
CT影像序列指的是在不同方位,对被拍摄的立体对象进行拍摄而获得的系列影像。CT影像序列可以是主机从PACS(Picture Archiving and Communication Systems,影像归档和通信***)***中获得,也可以预先写入到主机内存。在一实施例中,CT影像序列可以是肺部CT初筛所拍摄的一系列横断位影像。目标指的是CT影像中需要被关注的对象。在一实施例中,目标可以是CT影像中的肺结节。
标注指令可以是由用户操作外部设备(比如:鼠标、键盘)而产生的对目标进行标注的指令。
在一实施例中,标注指令可以包括顶点设置指令,该顶点设置指令用于指示主机设置立体包裹框的顶点。
主机可以响应于顶点设置指令,在第一CT影像中设置边框的左上角顶点,以及,在第二CT影像中设置边框的右下角顶点。其中,第一CT影像是CT影像序列中第一个出现目标的CT影像,第二CT影像是CT影像序列中最后一个出现目标的CT影像。
参见图3,为本申请一实施例提供的CT影像的标注示意图,如图3所示,在多个CT影像构成的影像序列中,存在白色椭圆状的目标。其中,CT1为第一CT影像,CT2为第二CT影像。CT1和CT2中的虚线框表示限定目标位置的边框。
立体包裹框是在CT影像序列中所形成包裹目标的立体框。主机以第一CT影像CT1上设置边框的左上角顶点和第二CT影像CT2上设置边框的右下角顶点作为对角顶点,生成目标的立体包裹框。主机可以将第一CT影像CT1上边框的左上角顶点投射到第二CT影像CT2中,将第二CT影像CT2上边框的右下角顶点投射到第一CT影像CT1中,从而可以依据左上角顶点和右下角顶点生成CT影像中的边框。连接第一CT影像CT1与第二CT影像CT2的两个边框的顶点,得到立体包裹框。
在一实施例中,主机可以通过建立空间直角坐标系来指示本申请中包裹框、中心点、种子点的位置。该空间直角坐标系可以存在x轴、y轴和z轴。可以将CT影像序列的第一个CT影像的任意一个顶点(比如:左下角顶点)设置在空间直角坐标系的原点,且将该CT影像的相邻两条边(比如:左侧边和下侧边)设置与正交的两条轴重合。在这种情况下,由于CT影像序列内各CT影像的位置关系可以在拍摄时确定(比如:在横断位每隔2毫米拍摄肺部的CT影像,则两个CT影像的间距就是2毫米),CT影像序列中每一像素的坐标都可以确定。
主机在第一CT影像设置左上角顶点(x1,y1,z1),在第二CT影像设置右下角顶点(x2,y2,z2)后,可以通过这两个顶点的坐标记录上述立体包裹框。
标注指令可以包括种子点设置指令,该种子点指令用于指示主机设置种子点。主机可以响应于种子点设置指令,在CT影像序列中设置至少一个种子点。其中,CT影像序列中可能包括多个目标,本申请实施例可以每次对一个目标进行标注,因此,主机每次设置的至少一个种子点都属于同一个目标。
在一实施例中,CT影像序列可以是肺部CT初筛所拍摄的一系列横断位影像,目标可以是单个的肺结节,或者,目标可以是簇状结节。若目标为单个肺结节,种子点设置指令可以指示主机在该肺结节所在多个CT影像中的一个CT影像上将一个像素设置种子点,该种子点大致位于肺结节的中心位置。若目标为簇状结节,种子点设置指令可以指示主机在该簇状结节所在多个CT影像将多个像素设置为种子点,这些种子点可以分别位于多个结节的中心位置。
主机可以根据预设生长策略从上述种子点开始执行区域生长算法,获得初始连通域。其中,初始连通域是主机执行区域生长算法后直接获得的连通域。
在一实施例中,主机可以将种子点作为起点,执行18领域区域生长。这里,主机在执行18领域区域生长时,可以认为是在立体空间的三个平面上分别执行8领域区域生长。由于三个平面的8个领域存在重叠,去除重复的6个领域后,恰好为18个领域。在空间直角坐标系中,上述三个平面经过种子点且平行于xOy平面、yOz平面和xOz平面的三个平面。
在执行区域生长算法时,对于种子点周边18个领域的任一像素,主机可以判断该像素是否满足第一终止条件和第二终止条件中任一终止条件。其中,第一终止条件为像素值小于第一指定像素值,CT影像中的像素值可以是CT值(单位为Hu,也被称作Hu值),第一指定像素值可以是-550。第二终止条件为像素对应的梯度值大于第一指定梯度值,第一指定梯度值可以是150。在一实施例中,主机在执行区域生长算法之前,可以根据通用的算法(比如:拉普拉斯方程)计算CT影像中像素的梯度值,从而获得梯度值矩阵。在执行区域生长算法时,主机通过检查像素的像素值和梯度值,确定像素是否满足任一终止条件。
若该像素不满足任一终止条件,则可将该像素合并入种子点所在区域,并将该像素作为下一个种子点,继续执行区域生长算法。若该像素满足任一终止条件,可认为该像素不属于种子点所在区域,并停止以该像素开始执行区域生长算法。
当种子点所在区域经过生长后,该区域周边的任一像素均满足一个终止条件,说明区域生长完毕,获得空间上的初始连通域。该初始连通域可以认为是初步计算出的目标所在的空间。主机可以基于初始连通域确定目标的立体包裹框。
在一实施例中,为减少计算量,主机在执行区域生长算法之前,可以以上述种子点的几何中心作为中心点,生成指定第一尺度的初始包裹框。其中,初始包裹框用于限制区域生长的范围,指定第一尺度可以是初始包裹框的棱长35毫米。
若当前标注一个种子点,主机可以直接以该种子点作为中心点,生成指定第一尺度的初始包裹框。若当前标注至少两个种子点,主机可以通过所有种子点在空间直角坐标系的坐标计算几何中心的坐标,并以计算出的几何中心作为中心点,生成指定第一尺度的初始包裹框。初始包裹框所有的棱分别平行于空间直角坐标系的x轴、y轴和z轴。
主机可以判断生成的初始包裹框是否包括所有种子点,若否,则输出提示信息,以提示用户重新设置种子点。
获得初始包裹框后,主机可以依据CT影像序列在初始包裹框内的局部影像序列,生成立体像素块。局部影像序列为CT影像序列中每一CT影像在初始包裹框内的局部影像构成的影像序列。主机获得局部影像序列后,可以通过双线性插值法使局部影像序列中x轴、y轴、z轴三个方向上像素的间距均为0.8毫米,从而得到立体像素块。主机可以在该立体像素块内,执行区域生成算法,获得初始连通域。
在一实施例中,主机基于初始连通域确定目标的立体包裹框时,可以根据指定第二尺度的球形核,对初始连通域执行开运算,获得若干候选连通域。其中,指定第二尺度可以为球形核半径为两个像素之间的间距;候选连通域为经过开运算分割得到的连通域。主机可以从候选连通域中确定指定连通域。其中,指定连通域是包括初始设置的种子点的连通域。
主机可以判断是否存在多个连通域。如果存在至少两个候选连通域,主机可以过滤不存在种子点的候选连通域,得到指定连通域。如果只存一个候选连通域,主机可以直接将该候选连通域作为指定连通域。由于种子点是针对一个目标而设置,因此主机可以得到对应于目标的唯一指定连通域。
主机可以根据指定连通域确定立体包裹框。主机可以确定指定连通域中相距最远的两个像素的距离,并对该距离进行缩放(比如:将该距离乘以1.5),得到立体包裹框的棱长。主机可以将上述初始包裹框的中心点作为立体包裹框的中心点,生成立体包裹框。立体包裹框所有的棱分别平行于空间直角坐标系的x轴、y轴和z轴。
在一实施例中,在获得指定连通域后,主机可以通过双线性插值法对指定连通域内的像素进行处理,使得处理后的像素在x轴、y轴、z轴三个方向上与CT影像序列中像素在这三个方向的间距相同。主机可以根据处理后的指定连通域确定立体包裹框。
步骤220:将CT影像序列在立体包裹框内的局部影像序列作为已训练的医疗识别模型输入,获得医疗识别模型输出的目标的指定标注信息;其中,指定标注信息包括目标在CT影像序列中的实际边缘信息。
步骤230:为CT影像序列标注指定标注信息。
指定标注信息是医疗识别模型对CT影像序列的计算结果。实际边缘信息可以指示目标在CT影像序列中的精细边缘。在一实施例中,实际边缘信息可以是对应于CT影像序列的掩模序列,掩模序列中每一掩模指示对应的CT影像中目标所处区域。掩模可为二值图,掩模内像素值为1的像素对应的CT影像中的像素属于目标;像素值为0的像素对应的CT影像中的像素不属于目标。
医疗识别模型是用于识别目标在CT影像序列中实际边缘的神经网络模型,在一实施例中,医疗识别模型可以是已训练的3d ResUNet模型和一个预设参数的Dense CRF(Dense Conditional Random Field,密集条件随机场)层的组合。
主机可以将CT影像序列在上述立体包裹框内的局部影像序列输入医疗识别模型,通过医疗识别模型对CT影像序列进行计算,从而获得指定标注信息。指定标注信息包括表征目标在CT影像序列中实际边缘的掩模序列。
在一实施例中,主机在将局部影像序列输入医疗识别模型之前,可以通过双线性插值法调整局部影像序列中的像素密度,比如,使局部影像序列中x轴、y轴、z轴三个方向上像素的间距均为0.8毫米,进而将调整后的局部影像序列作为医疗识别模型的输入。
主机可以建立上述指定标注信息与CT影像序列之前的关联关系,从而完成对CT影像序列的标注。将立体包裹框内的局部影像序列输入医疗识别模型之前,可以根据MPR(Multiplanar Reformation,多重平面重建)的方式展示上述立体包裹框,使得用户可以从横断位、冠状位、矢状位三个角度判断立体包裹框是否恰当地包裹目标。
主机可以响应于针对立体包裹框的棱的第一调整指令,调整立体包裹框的棱的位置。其中,第一调整指令可以是由用户操作外部设备而产生的调整立体包裹框的棱位置的指令。
在一实施例中,若第一调整指令由用户在横断位拖动立体包裹框的水平边缘而产生,主机可以相应地调整横向的棱的位置。若第一调整指令由用户在横断位拖动立体包裹框的垂直边缘而产生,主机可以相应地调整垂直方向的棱的位置。若第一调整指令由用户在冠状位或矢状位拖动立体包裹框的水平边缘而产生,主机可以相应地调整纵向的棱的位置。
在调整立体包裹框之后,主机可以将立体包裹框内的局部影像序列输入医疗识别模型。
在一实施例中,主机在执行步骤220之前,首先可以训练得到上述医疗识别模型。参见图4,为本申请一实施例提供的医疗识别模型的训练方法的流程示意图,如图4所示,该方法可以包括以下步骤206-步骤208。
步骤206:将样本CT影像序列作为神经网络模型的输入,获得神经网络模型输出的预测信息;其中,预测信息包括边缘预测信息,样本CT影像序列标注了样本标签,样本标签包括边缘信息标签。
预测信息是神经网络模型在训练过程对样本CT影像序列的计算结果。边缘预测信息是神经网络模型在训练过程输出的指示目标在样本CT影像序列中位置的信息。在一实施例中,该边缘预测信息可以是掩模序列,掩模序列中每一掩模指示对应的样本CT影像中目标所处区域。
边缘信息标签是预先标注的标签,用于指示目标在样本CT影像序列中的位置。在一实施例中,边缘信息标签可以是掩模序列,掩模序列中每一掩模指示对应的样本CT影像中目标所处区域。
神经网络模型可以是3d ResUNet模型,在初始情况下,神经网络模型的网络参数可以是随机数。
主机将上述样本CT影像序列输入神经网络模型后,可以通过神经网络模型对样本CT影像序列中的每一样本CT影像进行计算,从而获得作为边缘预测信息的掩模序列。
步骤207:基于样本标签和预测信息之间的差异,调整神经网络模型的网络参数。
步骤208:重复上述过程,直至神经网络模型收敛,获得医疗识别模型。
主机可以根据预测信息中边缘预测信息与样本标签中边缘信息标签之间的差异,调整神经网络模型的网络参数。
在一实施例中,边缘预测信息和边缘信息标签均为掩模序列,主机可以分别计算两个掩模序列中与每一样本CT影像对应的两个掩模的差异,并通过损失函数评估该差异,从而对网络参数进行调整。
主机在调整神经网络模型的网络参数后,可以重新将上述样本CT影像序列输入调整后的神经网络模型,使得神经网络模型可以重新计算出样本CT影像序列的预测信息。
主机可以根据新的预测信息与样本标签之间的差异,重新调整神经网络模型的网络参数。
这个过程可以重复多次,直至更新网络参数的次数达到预设次数阈值,或者,直至损失函数的函数值小于预设损失阈值。此时,可以认为该神经网络模型收敛。
主机可以在已训练的神经网络模型后添加一个预设参数的Dense CRF层,从而获得上述医疗识别模型。
在一实施例中,执行模型训练的方法之前,主机可以生成样本。参见图5,为本申请一实施例提供的样本生成方法的流程示意图,如图5所示,该方法包括以下步骤201-步骤204。
步骤201:获取原始CT影像序列和对应于每一原始CT影像的平面边缘信息;其中,原始CT影像序列标注了目标的中心点。
原始CT影像序列可以PACS***中未经处理的CT影像序列。平面边缘信息可以是指示CT影像上目标边缘轮廓的信息。平面边缘信息可以是对应于原始CT影像的掩模,该掩模可以由用户通过画笔工具在原始CT影像上描绘的目标边缘轮廓转换得到,该掩模通过指示目标在原始CT影像中所处区域来指示目标边缘。
目标的中心点可以根据该中心点在空间直角坐标系中的坐标来表示。为使后续神经网络模型可以正常处理样本,主机可以对原始CT影像序列和作为平面边缘信息的掩模进行双线性插值处理,使得原始CT影像序列和平面边缘信息的像素密度均符合要求。比如:在双线性插值处理后,原始CT影像和作为平面边缘信息的掩模中,像素在x轴、y轴、z轴三个方向上的间距均为0.8毫米。
在一实施例中,为避免后续处理时原始CT影像序列和作为平面边缘信息的掩模的尺度不足,主机可以分别在原始CT影像和平面边缘信息的边缘进行补零处理。示例性的,主机可以在每一原始CT影像的上、下、左、右四个方位分别扩增16像素,新增像素的像素值均为0,并对平面边缘信息执行相同的补零处理。比如,原始CT影像的尺度为512*512像素,经过补零处理,尺度扩大为544*544像素。
步骤202:基于已标注的中心点和平面边缘信息确定原始CT影像序列中目标的立体包裹框。
主机可以基于平面边缘信息确定属于目标的像素中,相距最远的两个像素的距离,并对该距离进行缩放(比如:将该距离乘以1.5),得到立体包裹框的棱长。
主机可以将上述中心点在x轴、y轴、z轴任意一个方向上随机平移,平移距离小于指定平移阈值。示例性的,指定平移阈值可以是3个像素间距。
主机可以将平移后的中心点作为立体包裹框的中心点,生成立体包裹框。立体包裹框的棱分别平行于空间直角坐标系的x轴、y轴和z轴。
步骤203:获取原始CT影像序列在立体包裹框内的局部影像序列和对应于每一局部影像的局部平面边缘信息。
局部影像序列是原始CT影像序列中,由每一原始CT影像在立体包裹框内的局部影像所构成的影像序列;局部平面边缘信息是对应于局部影像的平面边缘信息,可从与原始CT影像对应的平面边缘信息中裁切得到。主机可以获取每一原始CT影像在立体包裹框内的局部影像,从而获得局部影像序列。主机可以裁切与每一局部影像对应的平面边缘信息,从而获得局部平面边缘信息。
步骤204:对局部影像序列和局部平面边缘信息执行数据增广处理,并将处理得到的局部影像序列作为样本CT影像序列,将处理得到的局部平面边缘信息作为边缘信息标签。
数据增广处理可以包括放大、缩小、随机翻转、随机模糊、随机明暗变化等处理手段。主机对局部影像序列执行数据增广处理后,可将处理得到的新的局部影像序列作为样本CT影像序列。经过数据增广处理,可以获得更多样本数据,有助于后续的训练效果。
相应地,主机可以对与局部影像序列对应的局部平面边缘信息执行数据增广处理,使得处理后的局部平面边缘信息可以表征对应的局部影像序列中目标的边缘信息。主机可以将与局部影像序列对应的所有局部平面边缘信息作为边缘信息标签。
在一实施例中,主机在执行步骤220时,通过医疗识别模型输出的待标识信息还可以包括病症信息。示例性的,病症信息可以包括肺结节的纹理特性(实性、亚实性、磨玻璃)、胸膜黏连(有或无)、肺叶位置(右肺上中下三叶、左肺上下两页)、钙化等级(1至3级)、良恶性等级(1至5级)、是否存在毛刺、是否存在分页、是否存在空洞等一种或多种的组合。
在这种情况下,主机在执行步骤206至步骤208的训练过程时,样本标签包括病症信息标签,主机通过神经网络模型输出的预测信息包括病症预测信息。病症信息标签用于指示样本CT影像序列对应的病症信息。病症预测信息是神经网络模型在训练过程中基于样本CT影像序列计算出的病症信息。在一实施例中,神经网络模型可以是3d ResUNet模型加上用于分类的全连接层。
主机可以基于样本标签中边缘信息标签和预测信息中的边缘预测信息之间的差异,以及,样本标签中病症信息标签和预测信息中病症预测信息之间的差异,对神经网络模型的网络参数进行调整。主机在调整神经网络模型的网络参数后,可以重新将上述样本CT影像序列输入调整后的神经网络模型,使得神经网络模型可以重新计算出样本CT影像序列的预测信息。
主机可以根据新的预测信息与样本标签之间的差异,重新调整神经网络模型的网络参数。这个过程可以重复多次,直至更新网络参数的次数达到预设次数阈值,或者,直至损失函数的函数值小于预设损失阈值。此时,可以认为该神经网络模型收敛。
主机可以在已训练的神经网络模型后添加一个预设参数的Dense CRF层,从而获得上述医疗识别模型。执行模型训练的方法之前,主机可以生成包括病症信息标签的样本。主机可以通过执行步骤201至步骤204的样本生成方法,从而获得携带边缘信息标签的样本CT影像序列。
主机可以响应于针对样本CT影像序列的标签添加指令,为样本CT影像序列添加病症信息标签。其中,标签添加指令可以是由用户操作外部设备而产生的对样本CT影像序列添加病症信息标签的指令。
后续主机可以根据携带病症信息标签和边缘信息标签的样本CT影像序列,训练得到可以识别目标在CT影像序列中的边缘信息和病症信息的医疗识别模型。
在一实施例中,主机执行步骤210至步骤230的CT影像的半自动标注方法后,可以响应于针对指定标注信息的第二调整指令,对指定标注信息进行调整。其中,第二调整指令可以是由用户操作外部设备而产生的调整指定标注信息中实际边缘信息或病症信息的指令。主机调整指定标注信息后,可以获得标注了准确的标注信息的CT影像序列。
图6是本申请一实施例的一种提供的CT影像的半自动标注装置的框图,如图6所示,该框图可以包括:
生成模块610,用于响应于针对CT影像序列的标注指令,为CT影像序列中的目标生成立体包裹框。
计算模块620,用于将CT影像序列在立体包裹框内的局部影像序列作为已训练的医疗识别模型输入,获得医疗识别模型输出的目标的指定标注信息;其中,指定标注信息包括目标在CT影像序列中的实际边缘信息。
标注模块630,用于为CT影像序列标注指定标注信息。
上述装置中各个模块的功能和作用的实现过程具体详见上述CT影像的半自动标注方法中对应步骤的实现过程,在此不再赘述。
在本申请所提供的几个实施例中,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。

Claims (12)

1.一种CT影像的半自动标注方法,其特征在于,包括:
响应于针对CT影像序列的标注指令,为所述CT影像序列中的目标生成立体包裹框;其中,所述标注指令包括顶点设置指令;所述响应于针对CT影像序列的标注指令,为所述CT影像序列中的目标生成立体包裹框,包括:响应于所述顶点设置指令,在第一CT影像中设置边框的左上角顶点,以及,在第二CT影像中设置边框的右下角顶点;其中,所述第一CT影像为所述CT影像序列的第一个出现所述目标的CT影像,所述CT影像为所述CT影像序列中最后一个出现所述目标的CT影像;以所述左上角顶点和所述右下角顶点作为对角顶点,生成所述目标的立体包裹框;或者,所述标注指令包括种子点设置指令;所述响应于针对CT影像序列的标注指令,为所述CT影像序列中的目标生成立体包裹框,包括:响应于所述种子点设置指令,在所述CT影像序列中设置至少一个种子点;根据预设生长策略从所述种子点开始执行区域生长算法,获得初始连通域;基于所述初始连通域确定所述目标的立体包裹框;
将所述CT影像序列在所述立体包裹框内的局部影像序列作为已训练的医疗识别模型输入,获得所述医疗识别模型输出的所述目标的指定标注信息;其中,所述指定标注信息包括所述目标在所述CT影像序列中的实际边缘信息;
为所述CT影像序列标注所述指定标注信息。
2.根据权利要求1所述的方法,其特征在于,所述根据预设生长策略从所述种子点开始执行区域生长算法,获得初始连通域,包括:
以所述种子点的几何中心作为中心点,生成指定第一尺度的初始包裹框;
依据所述CT影像序列在所述初始包裹框内的局部影像序列,生成立体像素块;
在所述立体像素块内,根据所述生长策略从所述种子点开始执行区域生长算法,获得所述初始连通域。
3.根据权利要求1所述的方法,其特征在于,所述基于所述初始连通域确定所述目标的立体包裹框,包括:
根据指定第二尺度的球形核,对所述初始连通域执行开运算,获得若干候选连通域;
从所述候选连通域中确定指定连通域;
根据所述指定连通域确定所述立体包裹框。
4.根据权利要求3所述的方法,其特征在于,所述从所述候选连通域中确定指定连通域,包括:
判断是否存在多个候选连通域;
如果存在至少两个候选连通域,过滤不存在所述种子点的候选连通域,得到所述指定连通域;
如果只存在一个候选连通域,将所述候选连通域作为所述指定连通域。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据多平面重建的方式展示所述立体包裹框;
响应于针对所述立体包裹框的棱的第一调整指令,调整所述立体包裹框的棱的位置。
6.根据权利要求1所述的方法,其特征在于,所述医疗识别模型通过如下方式训练得到:
将样本CT影像序列作为神经网络模型的输入,获得神经网络模型输出的预测信息;其中,预测信息包括边缘预测信息,所述样本CT影像序列标注了样本标签,所述样本标签包括边缘信息标签;
基于所述样本标签和所述预测信息之间的差异,调整所述神经网络模型的网络参数;
重复上述过程,直至所述神经网络模型收敛,得到所述医疗识别模型。
7.根据权利要求6所述的方法,其特征在于,在将所述样本CT影像序列输入所述神经网络模型之前,所述方法还包括:
获取原始CT影像序列和对应于每一原始CT影像的平面边缘信息;其中,所述原始CT影像序列标注了目标的中心点;
基于已标注的中心点和所述平面边缘信息确定所述原始CT影像序列中目标的立体包裹框;
获取所述原始CT影像序列在所述立体包裹框内的局部影像序列和对应于每一局部影像的局部平面边缘信息;
对所述局部影像序列和所述局部平面边缘信息执行数据增广处理,并将处理得到的局部影像序列作为所述样本CT影像序列,将处理得到的所述局部平面边缘信息作为所述边缘信息标签。
8.根据权利要求7所述的方法,其特征在于,所述预测信息包括病症预测信息,所述样本标签包括病症信息标签,所述指定标注信息包括病症信息;
在将所述样本CT影像序列输入所述神经网络模型之前,所述方法还包括:
响应于针对所述样本CT影像序列的标签添加指令,为所述样本CT影像序列添加病症信息标签。
9.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于针对所述指定标注信息的第二调整指令,对所述指定标注信息进行调整。
10.一种CT影像的半自动标注装置,其特征在于,包括:
生成模块,用于响应于针对CT影像序列的标注指令,为所述CT影像序列中的目标生成立体包裹框;其中,所述标注指令包括顶点设置指令;所述响应于针对CT影像序列的标注指令,为所述CT影像序列中的目标生成立体包裹框,包括:响应于所述顶点设置指令,在第一CT影像中设置边框的左上角顶点,以及,在第二CT影像中设置边框的右下角顶点;其中,所述第一CT影像为所述CT影像序列的第一个出现所述目标的CT影像,所述CT影像为所述CT影像序列中最后一个出现所述目标的CT影像;以所述左上角顶点和所述右下角顶点作为对角顶点,生成所述目标的立体包裹框;或者,所述标注指令包括种子点设置指令;所述响应于针对CT影像序列的标注指令,为所述CT影像序列中的目标生成立体包裹框,包括:响应于所述种子点设置指令,在所述CT影像序列中设置至少一个种子点;根据预设生长策略从所述种子点开始执行区域生长算法,获得初始连通域;基于所述初始连通域确定所述目标的立体包裹框;
计算模块,用于将所述CT影像序列在所述立体包裹框内的局部影像序列作为已训练的医疗识别模型输入,获得所述医疗识别模型输出的所述目标的指定标注信息;其中,所述指定标注信息包括所述目标在所述CT影像序列中的实际边缘信息;
标注模块,用于为所述CT影像序列标注所述指定标注信息。
11.一种电子设备,其特征在于,所述电子设备包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行权利要求1-9任意一项所述的CT影像的半自动标注方法。
12.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序可由处理器执行以完成权利要求1-9任意一项所述的CT影像的半自动标注方法。
CN202010601868.2A 2020-06-28 2020-06-28 Ct影像的半自动标注方法及装置、电子设备、存储介质 Active CN111862001B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010601868.2A CN111862001B (zh) 2020-06-28 2020-06-28 Ct影像的半自动标注方法及装置、电子设备、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010601868.2A CN111862001B (zh) 2020-06-28 2020-06-28 Ct影像的半自动标注方法及装置、电子设备、存储介质

Publications (2)

Publication Number Publication Date
CN111862001A CN111862001A (zh) 2020-10-30
CN111862001B true CN111862001B (zh) 2023-11-28

Family

ID=72988736

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010601868.2A Active CN111862001B (zh) 2020-06-28 2020-06-28 Ct影像的半自动标注方法及装置、电子设备、存储介质

Country Status (1)

Country Link
CN (1) CN111862001B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113870169B (zh) * 2020-06-12 2023-12-01 杭州普健医疗科技有限公司 一种医学影像标注方法、介质及电子设备
CN113962951B (zh) * 2021-10-15 2022-05-17 杭州研极微电子有限公司 检测分割模型的训练方法及装置、目标检测方法及装置

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101692231A (zh) * 2009-01-14 2010-04-07 中国科学院地理科学与资源研究所 一种适合空间查询的遥感影像分块排序存储方法
CN103400365A (zh) * 2013-06-26 2013-11-20 成都金盘电子科大多媒体技术有限公司 肺区ct序列自动分割方法
CN107230206A (zh) * 2017-06-02 2017-10-03 太原理工大学 一种基于多模态数据的超体素序列肺部图像的3d肺结节分割方法
CN107563383A (zh) * 2017-08-24 2018-01-09 杭州健培科技有限公司 一种医学影像辅助诊断及半监督样本生成***
CN107845091A (zh) * 2017-10-31 2018-03-27 北京青燕祥云科技有限公司 基于预筛查的快速标注方法和***
CN108986085A (zh) * 2018-06-28 2018-12-11 深圳视见医疗科技有限公司 Ct图像肺结节检测方法、装置、设备及可读存储介质
CN109003269A (zh) * 2018-07-19 2018-12-14 哈尔滨工业大学 一种能提高医生效率的医学影像病灶的标注提取方法
CN109636810A (zh) * 2018-11-28 2019-04-16 心医国际数字医疗***(大连)有限公司 Ct影像的肺结节分割方法、***及区域生长方法、分割结束判断方法、切割粘连区域方法
CN109886307A (zh) * 2019-01-24 2019-06-14 西安交通大学 一种基于卷积神经网络的图像检测方法及***
CN109993733A (zh) * 2019-03-27 2019-07-09 上海宽带技术及应用工程研究中心 肺部病灶的检测方法、***、存储介质、终端及显示***
EP3540692A1 (en) * 2018-03-16 2019-09-18 Infervision A computed tomography pulmonary nodule detection method based on deep learning
CN110335250A (zh) * 2019-05-31 2019-10-15 上海联影智能医疗科技有限公司 网络训练方法、装置、检测方法、计算机设备和存储介质
WO2019201205A1 (zh) * 2018-04-17 2019-10-24 杭州依图医疗技术有限公司 一种确定肺结节密度的方法及装置
CN110969623A (zh) * 2020-02-28 2020-04-07 北京深睿博联科技有限责任公司 一种肺部ct多征象自动检测方法、***、终端及存储介质
CN111241947A (zh) * 2019-12-31 2020-06-05 深圳奇迹智慧网络有限公司 目标检测模型的训练方法、装置、存储介质和计算机设备
CN111340827A (zh) * 2020-05-18 2020-06-26 天津精诊医疗科技有限公司 一种肺部ct影像数据处理分析方法及***

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100503424B1 (ko) * 2003-09-18 2005-07-22 한국전자통신연구원 다중단면 전산화단층촬영 영상을 이용한 폐결절 자동 검출방법 및 이를 기록한 기록매체
US8184888B2 (en) * 2007-09-19 2012-05-22 Siemens Medical Solutions Usa, Inc. Method and system for polyp segmentation for 3D computed tomography colonography
US9886546B2 (en) * 2012-11-20 2018-02-06 General Electric Company Methods and apparatus to label radiology images
US10606982B2 (en) * 2017-09-06 2020-03-31 International Business Machines Corporation Iterative semi-automatic annotation for workload reduction in medical image labeling
CN109003260B (zh) * 2018-06-28 2021-02-09 深圳视见医疗科技有限公司 Ct图像肺结节检测方法、装置、设备及可读存储介质

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101692231A (zh) * 2009-01-14 2010-04-07 中国科学院地理科学与资源研究所 一种适合空间查询的遥感影像分块排序存储方法
CN103400365A (zh) * 2013-06-26 2013-11-20 成都金盘电子科大多媒体技术有限公司 肺区ct序列自动分割方法
CN107230206A (zh) * 2017-06-02 2017-10-03 太原理工大学 一种基于多模态数据的超体素序列肺部图像的3d肺结节分割方法
CN107563383A (zh) * 2017-08-24 2018-01-09 杭州健培科技有限公司 一种医学影像辅助诊断及半监督样本生成***
CN107845091A (zh) * 2017-10-31 2018-03-27 北京青燕祥云科技有限公司 基于预筛查的快速标注方法和***
EP3540692A1 (en) * 2018-03-16 2019-09-18 Infervision A computed tomography pulmonary nodule detection method based on deep learning
WO2019201205A1 (zh) * 2018-04-17 2019-10-24 杭州依图医疗技术有限公司 一种确定肺结节密度的方法及装置
CN108986085A (zh) * 2018-06-28 2018-12-11 深圳视见医疗科技有限公司 Ct图像肺结节检测方法、装置、设备及可读存储介质
CN109003269A (zh) * 2018-07-19 2018-12-14 哈尔滨工业大学 一种能提高医生效率的医学影像病灶的标注提取方法
CN109636810A (zh) * 2018-11-28 2019-04-16 心医国际数字医疗***(大连)有限公司 Ct影像的肺结节分割方法、***及区域生长方法、分割结束判断方法、切割粘连区域方法
CN109886307A (zh) * 2019-01-24 2019-06-14 西安交通大学 一种基于卷积神经网络的图像检测方法及***
CN109993733A (zh) * 2019-03-27 2019-07-09 上海宽带技术及应用工程研究中心 肺部病灶的检测方法、***、存储介质、终端及显示***
CN110335250A (zh) * 2019-05-31 2019-10-15 上海联影智能医疗科技有限公司 网络训练方法、装置、检测方法、计算机设备和存储介质
CN111241947A (zh) * 2019-12-31 2020-06-05 深圳奇迹智慧网络有限公司 目标检测模型的训练方法、装置、存储介质和计算机设备
CN110969623A (zh) * 2020-02-28 2020-04-07 北京深睿博联科技有限责任公司 一种肺部ct多征象自动检测方法、***、终端及存储介质
CN111340827A (zh) * 2020-05-18 2020-06-26 天津精诊医疗科技有限公司 一种肺部ct影像数据处理分析方法及***

Also Published As

Publication number Publication date
CN111862001A (zh) 2020-10-30

Similar Documents

Publication Publication Date Title
CN111192356B (zh) 感兴趣区域的显示方法、装置、设备和存储介质
US8929635B2 (en) Method and system for tooth segmentation in dental images
CN114092386A (zh) 缺陷检测方法和设备
US8384716B2 (en) Image processing method
WO2018189541A1 (en) Recist assessment of tumour progression
CN109872379A (zh) 数据处理装置和方法
CN111260055A (zh) 基于三维图像识别的模型训练方法、存储介质和设备
JP3712234B2 (ja) 関心領域抽出方法及び画像処理サーバ
CN111862001B (zh) Ct影像的半自动标注方法及装置、电子设备、存储介质
WO2008001207A2 (en) Image processing system, image processing program, and image processing method
US20210287454A1 (en) System and method for segmentation and visualization of medical image data
CN113706564A (zh) 基于多种监督方式的睑板腺分割网络的训练方法及装置
US11620747B2 (en) Method and system for image segmentation using a contour transformer network model
CN111918611B (zh) 胸部x线图像的异常显示控制方法、记录介质及装置
CN111724389A (zh) 髋关节ct图像分割方法、装置、存储介质和计算机设备
CN110992310A (zh) 一种确定纵隔***所在分区的方法及装置
CN113962957A (zh) 医学图像处理方法、骨骼图像处理方法、装置、设备
CN115330753B (zh) 椎骨识别方法、装置、设备及存储介质
US20120313942A1 (en) System and method for digital volume processing with gpu accelerations
CN112017148A (zh) 一种单节骨骼轮廓的提取方法及装置
CN111627529A (zh) Vrds 4d医学影像处理方法及产品
CN113780421B (zh) 基于人工智能的脑部pet影像识别方法
CN115063485A (zh) 三维重建方法、装置及计算机可读存储介质
JP5954846B2 (ja) 形状データ生成プログラム、形状データ生成方法及び形状データ生成装置
CN113379899A (zh) 一种建筑工程工作面区域图像自动提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant