CN115187600A - 一种基于神经网络的脑部出血体积计算方法 - Google Patents

一种基于神经网络的脑部出血体积计算方法 Download PDF

Info

Publication number
CN115187600A
CN115187600A CN202211106689.7A CN202211106689A CN115187600A CN 115187600 A CN115187600 A CN 115187600A CN 202211106689 A CN202211106689 A CN 202211106689A CN 115187600 A CN115187600 A CN 115187600A
Authority
CN
China
Prior art keywords
neural network
area
bleeding
volume
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211106689.7A
Other languages
English (en)
Other versions
CN115187600B (zh
Inventor
李德轩
徐枫
郭雨晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Zhuoxi Brain And Intelligence Research Institute
Original Assignee
Hangzhou Zhuoxi Brain And Intelligence Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Zhuoxi Brain And Intelligence Research Institute filed Critical Hangzhou Zhuoxi Brain And Intelligence Research Institute
Priority to CN202211106689.7A priority Critical patent/CN115187600B/zh
Publication of CN115187600A publication Critical patent/CN115187600A/zh
Application granted granted Critical
Publication of CN115187600B publication Critical patent/CN115187600B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/501Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the head, e.g. neuroimaging or craniography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Multimedia (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Data Mining & Analysis (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Physiology (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

本发明涉及机器学习技术领域,具体涉及一种基于神经网络的脑部出血体积计算方法,包括以下步骤:获得若干个脑部医学影像序列;建立UNet神经网络模型,使用无标脑部医学影像序列进行预训练;人工标记脑部医学影像的出血区域,获得样本图像序列;使用样本图像序列训练UNet神经网络模型;将待评估出血体积的患者的脑部医学影像序列输入训练后的UNet神经网络模型,获得出血区域;建立出血区域的3D连通区域;根据3D连通区域获得出血体积。本发明的有益技术效果包括:提供了高效的预训练机制,实现患者脑部出血体积的计算,具有训练效率高,出血量计算准确度高的有益技术效果。

Description

一种基于神经网络的脑部出血体积计算方法
技术领域
本发明涉及机器学习技术领域,具体涉及一种基于神经网络的脑部出血体积计算方法。
背景技术
在临床中,医生对于治疗脑出血的病人,判断是否需要手术,主要判断依据是出血量。遇到脑出血患者,拿到CT的第一件事自然是查看出血部位、评估出血量。其中,出血部位的判断是神内、神外医生的基本功,基本不存在争议,不再赘述;但是,出血量的估算却常常不尽相同。即在脑部CT扫描影像中,找出出血部位,再根据影像计算。通常,医生判断出血量是根据多田公式,将出血区域拟合成椭球计算。计算出血体积V的具体办法是:V=axbxcxpi/6,其中a:最大血肿面积层面血肿的最长径,b:最大血肿面积层面上与最长径垂直的最长径,c:CT片中出现出血的层面数,默认层厚为1cm。这种算法有其优点比如便利,但缺点也明显,即不准确。特别是对于影像密度高低不等、形状不规则的病灶,简单用球形体积计算公式套用容易导致误差较大。因此有必要研究更为准确的判断出血量的技术。
如中国专利CN114299052A,公开日2022年4月8日,公开了一种基于脑部影像的出血区域确定方法、装置、设备及介质。其中方法包括:确定脑部CT图像序列中每个图像的脑组织区域;根据每个脑组织区域,确定与每个脑组织区域对应的脑室边缘;对每个脑室边缘进行霍夫变换直线检测,得到每个脑室边缘的目标线段;根据每个脑室边缘的目标线段确定目标区域,对目标区域像素点进行抛物线拟合得到拟合结果,并根据拟合结果确定目标区域是否存在出血区域。其技术方案实现了基于脑部CT图像自动化的确定出出血区域,从而无需人工参与,不仅识别速度快,且准确率高。但其仅能够识别出血区域,无法计算出患者的出血量。
发明内容
本发明所要解决的技术问题:目前判断患者脑部出血体积由人工判断,存在判断准确度低的技术问题。提出了一种基于神经网络的脑部出血体积计算方法,借助神经网络模型实现出血体积的自动计算,提高了出血体积计算的准确度。
解决上述技术问题,本发明采用如下技术方案:一种基于神经网络的脑部出血体积计算方法,包括以下步骤:
获得若干个脑部医学影像序列;
建立UNet神经网络模型,使用无标脑部医学影像序列对UNet神经网络模型进行预训练;
使用样本图像序列继续训练UNet神经网络模型;
将待评估出血体积的患者的脑部医学影像序列输入训练后的UNet神经网络模型,获得每张医学影像的出血区域;
建立出血区域的3D连通区域;
根据3D连通区域获得出血体积。
作为优选,使用无标脑部医学影像对UNet神经网络模型进行预训练的方法包括:
将无标脑部医学影像序列中的任意一层脑部医学影像的部分区域进行遮挡;
所述UNet神经网络模型尝试对遮挡区域进行复原,损失函数为区域的复原图像与原区域图像的差别。
作为优选,遮挡脑部医学影像的部分区域的方法包括:
设定遮挡区域的长宽为固定值,设置像素值阈值区间;
调整遮挡区域的位置,使遮挡区域遮挡的处于像素值阈值区间的像素数量最多或者满足预设的数量下限值。
作为优选,使用样本图像序列继续训练UNet神经网络模型的方法包括:
依次将样本图像序列中的每张医学影像划分区域,每个区域视为被遮挡区域;
使用UNet神经网络模型复原每个区域的图像,将区域的复原图像与样本图像中相应的原区域图像对比;
若差别超过预设阈值,则判定该区域内存在出血区域,并将差别超过预设阈值的区域作为出血区域;
将UNet神经网络模型损失函数设置为识别出的出血区域与人工标注的出血区域的差别;
当损失函数小于预设阈值或训练达到预设次数时,完成UNet神经网络模型的训练。
作为优选,复原图像与原区域图像的差别为原区域图像与原区域图像左上角像素对齐后,每个像素值差值的总和。
作为优选,使用样本图像序列继续训练UNet神经网络模型时,在初始的n次训练时,锁定UNet神经网络模型的左半边的权重参数,n次训练后,允许UNet神经网络模型的左半边权重参数的调整。
作为优选,使用3D生长算法建立出血区域的3D连通区域,3D生长算法包括:
以任一层脑部医学影像的出血区域的像素开始,向像素的周围8个像素以及上下相邻层脑部医学影像的相应像素位置的2个像素为搜索范围,搜索出血区域像素;
依次将搜索出的出血区域像素再以像素的周围8个像素以及上下相邻层脑部医学影像的相应像素位置的2个像素为搜索范围,继续搜索;
搜索到的全部出血区域像素构成出血区域的3D连通区域。
作为优选,根据3D连通区域获得出血体积的方法包括:
计算每个3D连通区域的出血体积V_i,i表示3D连通区域序号;
依次遍历3D连通区域的两两组合,两个3D连通区域分别记为V_1和V_2;
计算两个3D连通区域的外体积交并比V_iou;
若外体积交并比V_iou大于预设阈值,则判定两个3D连通区域同属一个聚类,将两个3D连通区域合并,视为一个3D连通区域;
遍历全部3D连通区域的两两组合后,完成全部3D连通区域的聚类;
计算经聚类后每个3D连通区域的出血体积V_j,全部V_j的和即为最终的出血体积。
作为优选,3D连通区域的出血体积Vi的计算方法为:V_i=sum(P_Vi)*SliceThickness*PixelSpacing^2,其中sum(P_V_i)表示连通区域的像素总数,SliceThickness为层间距,PixelSpacing为像素间距离。
作为优选,外体积交并比V_iou的计算方法为:
V_outter=(xmax-xmin)*(ymax-ymin)*(zmax-zmin),
V_iou=(V_1UV_2)/V_outter,
其中,xmax、xmin、ymax、ymin、zmax及zmin分别表示两个3D连通区域包含的像素,在x、y及z轴坐标的最大值和最小值,V_outter即表示包裹两个体积块的最小***体积块的体积,(V_1UV_2)表示两个3D连通区域取并集后的体积。
本发明的有益技术效果包括:提供了高效的预训练机制,利用大量的无标数据以及U型网络本身的结构特点,提前训练神经网络模型对于脑部影像特征的提取及重建能力,结合3D连通区域融合的处理办法,实现患者脑部出血体积的计算,具有训练效率高,出血量计算准确度高的有益技术效果。
本发明的其他特点和优点将会在下面的具体实施方式、附图中详细的揭露。
附图说明
下面结合附图对本发明做进一步的说明:
图1为本发明实施例脑部出血体积计算方法流程示意图。
图2为本发明实施例进行预训练方法流程示意图。
图3为本发明实施例遮挡脑部医学影像部分区域方法流程示意图。
图4为本发明实施例预训练过程示意图。
图5为本发明实施例训练UNet神经网络模型方法流程示意图。
图6为本发明实施例建立出血区域的3D连通区域方法流程示意图。
图7为本发明实施例根据3D连通区域获得出血体积流程示意图。
图8为本发明实施例根据3D连通区域示意图。
其中:1、脑部医学影像,2、遮挡区域,3、复原图像,4、3D连通区域。
具体实施方式
下面结合本发明实施例的附图对本发明实施例的技术方案进行解释和说明,但下述实施例仅为本发明的优选实施例,并非全部。基于实施方式中的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得其他实施例,都属于本发明的保护范围。
在下文描述中,出现诸如术语“内”、“外”、“上”、“下”、“左”、“右”等指示方位或者位置关系仅是为了方便描述实施例和简化描述,而不是指示或暗示所指的装置或者元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
一种基于神经网络的脑部出血体积计算方法,请参阅附图1,包括以下步骤:
步骤A01)获得若干个脑部医学影像1序列;
步骤A02)建立UNet神经网络模型,使用无标脑部医学影像1序列对UNet神经网络模型进行预训练;
步骤A03)使用样本图像序列继续训练UNet神经网络模型;
步骤A04)将待评估出血体积的患者的脑部医学影像1序列输入训练后的UNet神经网络模型,获得每张医学影像的出血区域;
步骤A05)建立出血区域的3D连通区域4;
步骤A06)根据3D连通区域4获得出血体积。
采集患者的脑部医学影像1序列,即采集患者脑部的多个脑部医学影像1,相邻医学影像之间通常间距1cm,通常采用CT扫描来获得。从而获得多个间距为预设值的患者脑部医学影像1。步骤A02)中使用的无标脑部医学影像1序列为未经人工标注的,且未出血的脑部医学影像,对UNet神经网络模型首先进行预训练,使UNet神经网络模型能够复原被遮挡的脑部医学图像。步骤A03)中使用的样本图像,为存在脑部出血的患者的脑部医学影像,经标注出血区域后,形成的样本数据。当患者的脑部医学图像被血液遮挡时,UNet神经网络模型能够识别出被遮挡的区域,该区域即为本张脑部医学影像1的出血区域。多张脑部医学影像1的出血区域结合,获得3D连通区域4,3D连通区域4的体积即为出血体积。
请参阅附图2,使用无标脑部医学影像1对UNet神经网络模型进行预训练的方法包括:
步骤B01)将无标脑部医学影像1序列中的任意一层脑部医学影像1的部分区域进行遮挡;
步骤B02)UNet神经网络模型尝试对遮挡区域2进行复原,损失函数为区域的复原图像3与原区域图像的差别。
请参阅附图3,遮挡脑部医学影像1的部分区域的方法包括:
步骤C01)设定遮挡区域2的长宽为固定值,设置像素值阈值区间;
步骤C02)调整遮挡区域2的位置,使遮挡区域2遮挡的处于像素值阈值区间的像素数量最多或者满足预设的数量下限值。
请参阅附图4,为本实施例进行预训练过程示意图。将完整的脑部医学图像使用遮盖区域遮盖后,训练UNet神经网络模型将被遮盖的区域进行复原,获得复原图像3。达到预设准确度后,完成UNet神经网络模型的预训练。预训练过程中使用的是无标样本,样本来源充足。
请参阅附图5,使用样本图像序列继续训练UNet神经网络模型的方法包括:
步骤D01)依次将样本图像序列中的每张医学影像划分区域,每个区域视为被遮挡区域2;
步骤D02)使用UNet神经网络模型复原每个区域的图像,将区域的复原图像3与样本图像中相应的原区域图像对比;
步骤D03)若差别超过预设阈值,则判定该区域内存在出血区域,并将差别超过预设阈值的区域作为出血区域;
步骤D04)将UNet神经网络模型损失函数设置为识别出的出血区域与人工标注的出血区域的差别;
步骤D05)当损失函数小于预设阈值或训练达到预设次数时,完成UNet神经网络模型的训练。
复原图像3与原区域图像的差别为原区域图像与原区域图像左上角像素对齐后,每个像素值差值的总和。
使用样本图像序列继续训练UNet神经网络模型时,在初始的n次训练时,锁定UNet神经网络模型的左半边的权重参数,n次训练后,允许UNet神经网络模型的左半边权重参数的调整。
请参阅附图6,使用3D生长算法建立出血区域的3D连通区域4,3D生长算法包括:
步骤E01)以任一层脑部医学影像1的出血区域的像素开始,向像素的周围8个像素以及上下相邻层脑部医学影像1的相应像素位置的2个像素为搜索范围,搜索出血区域像素;
步骤E02)依次将搜索出的出血区域像素再以像素的周围8个像素以及上下相邻层脑部医学影像1的相应像素位置的2个像素为搜索范围,继续搜索;
步骤E03)搜索到的全部出血区域像素构成出血区域的3D连通区域4。
请参阅附图7,根据3D连通区域4获得出血体积的方法包括:
步骤F01)计算每个3D连通区域4的出血体积V_i,i表示3D连通区域4序号;
步骤F02)依次遍历3D连通区域4的两两组合,两个3D连通区域4分别记为V_1和V_2;
步骤F03)计算两个3D连通区域4的外体积交并比V_iou;
步骤F04)若外体积交并比V_iou大于预设阈值,则判定两个3D连通区域4同属一个聚类,将两个3D连通区域4合并,视为一个3D连通区域4;
步骤F05)遍历全部3D连通区域4的两两组合后,完成全部3D连通区域4的聚类;
步骤F06)计算经聚类后每个3D连通区域4的出血体积V_j,全部V_j的和即为最终的出血体积。
请参阅附图8,为本实施例复原出的3D连通区域4。图8中示出两个3D连通区域4,两个3D连通区域4体积的和即为总的出血体积。
其中,3D连通区域4的出血体积Vi的计算方法为:V_i=sum(P_Vi)*SliceThickness*PixelSpacing^2,其中sum(P_V_i)表示连通区域的像素总数,SliceThickness为层间距,PixelSpacing为像素间距离。
外体积交并比V_iou的计算方法为:V_outter=(xmax-xmin)*(ymax-ymin)*(zmax-zmin),V_iou=(V_1UV_2)/V_outter,其中,xmax、xmin、ymax、ymin、zmax及zmin分别表示两个3D连通区域4包含的像素,在x、y及z轴坐标的最大值和最小值,V_outter即表示包裹两个体积块的最小***体积块的体积,(V_1UV_2)表示两个3D连通区域4取并集后的体积。
本实施例的有益技术效果包括:提供了高效的预训练机制,利用大量的无标数据以及U型网络本身的结构特点,提前训练神经网络模型对于脑部影像特征的提取及重建能力,结合3D连通区域4融合的处理办法,实现患者脑部出血体积的计算,具有训练效率高,出血量计算准确度高的有益技术效果。
以上,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,熟悉该本领域的技术人员应该明白本发明包括但不限于附图和上面具体实施方式中描述的内容。任何不偏离本发明的功能和结构原理的修改都将包括在权利要求书的范围中。

Claims (10)

1.一种基于神经网络的脑部出血体积计算方法,其特征在于,
包括以下步骤:
获得若干个脑部医学影像序列;
建立UNet神经网络模型,使用无标脑部医学影像序列对UNet神经网络模型进行预训练;
使用样本图像序列继续训练UNet神经网络模型;
将待评估出血体积的患者的脑部医学影像序列输入训练后的UNet神经网络模型,获得每张医学影像的出血区域;
建立出血区域的3D连通区域;
根据3D连通区域获得出血体积。
2.根据权利要求1所述的一种基于神经网络的脑部出血体积计算方法,其特征在于,
使用无标脑部医学影像对UNet神经网络模型进行预训练的方法包括:
将无标脑部医学影像序列中的任意一层脑部医学影像的部分区域进行遮挡;
所述UNet神经网络模型尝试对遮挡区域进行复原,损失函数为区域的复原图像与原区域图像的差别。
3.根据权利要求2所述的一种基于神经网络的脑部出血体积计算方法,其特征在于,
遮挡脑部医学影像的部分区域的方法包括:
设定遮挡区域的长宽为固定值,设置像素值阈值区间;
调整遮挡区域的位置,使遮挡区域遮挡的处于像素值阈值区间的像素数量最多或者满足预设的数量下限值。
4.根据权利要求2或3所述的一种基于神经网络的脑部出血体积计算方法,其特征在于,
使用样本图像序列继续训练UNet神经网络模型的方法包括:
依次将样本图像序列中的每张医学影像划分区域,每个区域视为被遮挡区域;
使用UNet神经网络模型复原每个区域的图像,将区域的复原图像与样本图像中相应的原区域图像对比;
若差别超过预设阈值,则判定该区域内存在出血区域,并将差别超过预设阈值的区域作为出血区域;
将UNet神经网络模型损失函数设置为识别出的出血区域与人工标注的出血区域的差别;
当损失函数小于预设阈值或训练达到预设次数时,完成UNet神经网络模型的训练。
5.根据权利要求2或3所述的一种基于神经网络的脑部出血体积计算方法,其特征在于,
复原图像与原区域图像的差别为原区域图像与原区域图像左上角像素对齐后,每个像素值差值的总和。
6.根据权利要求1至3任一项所述的一种基于神经网络的脑部出血体积计算方法,其特征在于,
使用样本图像序列继续训练UNet神经网络模型时,在初始的n次训练时,锁定UNet神经网络模型的左半边的权重参数,n次训练后,允许UNet神经网络模型的左半边权重参数的调整。
7.根据权利要求1至3任一项所述的一种基于神经网络的脑部出血体积计算方法,其特征在于,
使用3D生长算法建立出血区域的3D连通区域,3D生长算法包括:
以任一层脑部医学影像的出血区域的像素开始,向像素的周围8个像素以及上下相邻层脑部医学影像的相应像素位置的2个像素为搜索范围,搜索出血区域像素;
依次将搜索出的出血区域像素再以像素的周围8个像素以及上下相邻层脑部医学影像的相应像素位置的2个像素为搜索范围,继续搜索;
搜索到的全部出血区域像素构成出血区域的3D连通区域。
8.根据权利要求1至3任一项所述的一种基于神经网络的脑部出血体积计算方法,其特征在于,
根据3D连通区域获得出血体积的方法包括:
计算每个3D连通区域的出血体积V_i,i表示3D连通区域序号;
依次遍历3D连通区域的两两组合,两个3D连通区域分别记为V_1和V_2;
计算两个3D连通区域的外体积交并比V_iou;
若外体积交并比V_iou大于预设阈值,则判定两个3D连通区域同属一个聚类,将两个3D连通区域合并,视为一个3D连通区域;
遍历全部3D连通区域的两两组合后,完成全部3D连通区域的聚类;
计算经聚类后每个3D连通区域的出血体积V_j,全部V_j的和即为最终的出血体积。
9.根据权利要求8所述的一种基于神经网络的脑部出血体积计算方法,其特征在于,
3D连通区域的出血体积Vi的计算方法为:V_i=sum(P_Vi)*SliceThickness*PixelSpacing^2,其中sum(P_V_i)表示连通区域的像素总数,SliceThickness为层间距,PixelSpacing为像素间距离。
10.根据权利要求8所述的一种基于神经网络的脑部出血体积计算方法,其特征在于,
外体积交并比V_iou的计算方法为:
V_outter=(xmax-xmin)*(ymax-ymin)*(zmax-zmin),
V_iou=(V_1UV_2)/V_outter,
其中,xmax、xmin、ymax、ymin、zmax及zmin分别表示两个3D连通区域包含的像素,在x、y及z轴坐标的最大值和最小值,V_outter即表示包裹两个体积块的最小***体积块的体积,(V_1UV_2)表示两个3D连通区域取并集后的体积。
CN202211106689.7A 2022-09-13 2022-09-13 一种基于神经网络的脑部出血体积计算方法 Active CN115187600B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211106689.7A CN115187600B (zh) 2022-09-13 2022-09-13 一种基于神经网络的脑部出血体积计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211106689.7A CN115187600B (zh) 2022-09-13 2022-09-13 一种基于神经网络的脑部出血体积计算方法

Publications (2)

Publication Number Publication Date
CN115187600A true CN115187600A (zh) 2022-10-14
CN115187600B CN115187600B (zh) 2022-12-09

Family

ID=83524575

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211106689.7A Active CN115187600B (zh) 2022-09-13 2022-09-13 一种基于神经网络的脑部出血体积计算方法

Country Status (1)

Country Link
CN (1) CN115187600B (zh)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109003299A (zh) * 2018-07-05 2018-12-14 北京推想科技有限公司 一种基于深度学习的计算脑出血量的方法
CN110610497A (zh) * 2019-08-05 2019-12-24 汉世伟食品集团有限公司 一种基于ct图像处理的活体猪胴体组织含量测定方法
CN111402218A (zh) * 2020-03-11 2020-07-10 北京深睿博联科技有限责任公司 脑出血检测方法和装置
CN111539956A (zh) * 2020-07-07 2020-08-14 南京安科医疗科技有限公司 基于脑部辅助图像的脑出血自动检测方法及电子介质
CN111724397A (zh) * 2020-06-18 2020-09-29 上海应用技术大学 一种颅脑ct图像出血区域自动分割方法
CN112614145A (zh) * 2020-12-31 2021-04-06 湘潭大学 一种基于深度学习的颅内出血ct图像分割方法
CN113205490A (zh) * 2021-04-19 2021-08-03 华中科技大学 基于Mask R-CNN网络的辅助诊断***和辅助诊断信息生成方法
CN113724184A (zh) * 2021-03-01 2021-11-30 腾讯科技(深圳)有限公司 脑出血预后预测方法、装置、电子设备及存储介质
CN113768528A (zh) * 2021-09-26 2021-12-10 华中科技大学 一种ct影像脑出血辅助定位***
CN114005514A (zh) * 2021-11-26 2022-02-01 杭州涿溪脑与智能研究所 医学影像诊断方法、***及装置
CN114092446A (zh) * 2021-11-23 2022-02-25 中国人民解放军总医院 基于自监督学习与M-Net的颅内出血参数获取方法及装置
CN114266739A (zh) * 2021-12-14 2022-04-01 南京邮电大学 基于对比学习的半监督卷积神经网络的医学图像分割方法
CN114299052A (zh) * 2021-12-31 2022-04-08 沈阳东软智能医疗科技研究院有限公司 基于脑部影像的出血区域确定方法、装置、设备及介质
CN114663715A (zh) * 2022-05-26 2022-06-24 浙江太美医疗科技股份有限公司 医学图像质控、分类模型训练方法、装置及计算机设备

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109003299A (zh) * 2018-07-05 2018-12-14 北京推想科技有限公司 一种基于深度学习的计算脑出血量的方法
CN110610497A (zh) * 2019-08-05 2019-12-24 汉世伟食品集团有限公司 一种基于ct图像处理的活体猪胴体组织含量测定方法
CN111402218A (zh) * 2020-03-11 2020-07-10 北京深睿博联科技有限责任公司 脑出血检测方法和装置
CN111724397A (zh) * 2020-06-18 2020-09-29 上海应用技术大学 一种颅脑ct图像出血区域自动分割方法
CN111539956A (zh) * 2020-07-07 2020-08-14 南京安科医疗科技有限公司 基于脑部辅助图像的脑出血自动检测方法及电子介质
CN112614145A (zh) * 2020-12-31 2021-04-06 湘潭大学 一种基于深度学习的颅内出血ct图像分割方法
CN113724184A (zh) * 2021-03-01 2021-11-30 腾讯科技(深圳)有限公司 脑出血预后预测方法、装置、电子设备及存储介质
CN113205490A (zh) * 2021-04-19 2021-08-03 华中科技大学 基于Mask R-CNN网络的辅助诊断***和辅助诊断信息生成方法
CN113768528A (zh) * 2021-09-26 2021-12-10 华中科技大学 一种ct影像脑出血辅助定位***
CN114092446A (zh) * 2021-11-23 2022-02-25 中国人民解放军总医院 基于自监督学习与M-Net的颅内出血参数获取方法及装置
CN114005514A (zh) * 2021-11-26 2022-02-01 杭州涿溪脑与智能研究所 医学影像诊断方法、***及装置
CN114266739A (zh) * 2021-12-14 2022-04-01 南京邮电大学 基于对比学习的半监督卷积神经网络的医学图像分割方法
CN114299052A (zh) * 2021-12-31 2022-04-08 沈阳东软智能医疗科技研究院有限公司 基于脑部影像的出血区域确定方法、装置、设备及介质
CN114663715A (zh) * 2022-05-26 2022-06-24 浙江太美医疗科技股份有限公司 医学图像质控、分类模型训练方法、装置及计算机设备

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BIN ZHAO 等: "Combine unlabeled with labeled MR images to measure acute ischemic stroke lesion by stepwise learning", 《IET IMAGE PROCESSING》 *
RAN ZHOU 等: "U-Net based automatic carotid plaque segmentation from 3D ultrasound images", 《MEDICAL IMAGING 2019: COMPUTER-AIDED DIAGNOSIS》 *
贾永军 等: "基于深度学习的计算机辅助诊断***对脑出血血肿体积的测量研究", 《中国中西医结合影像学杂志》 *
赖建东 等: "基于深度学习计算机辅助诊断***测量脑出血量", 《中国医学影像技术》 *

Also Published As

Publication number Publication date
CN115187600B (zh) 2022-12-09

Similar Documents

Publication Publication Date Title
EP3397166B1 (en) Method and system for segmentation of vascular structure in a volumetric image dataset
CN108765363A (zh) 一种基于人工智能的冠脉cta自动后处理***
US9659390B2 (en) Tomosynthesis reconstruction with rib suppression
CN109452941B (zh) 基于图片正畸与边界提取的肢体周径测量方法及***
CN116580068B (zh) 一种基于点云配准的多模态医学配准方法
CN117522719B (zh) 基于机器学习的支气管镜图像辅助优化***
CN107240140A (zh) 一种图像重建的方法及装置
CN115187600B (zh) 一种基于神经网络的脑部出血体积计算方法
CN110648333B (zh) 基于中智学理论的乳腺超声视频图像实时分割***
CN109447948B (zh) 一种基于病灶彩色视网膜眼底图像的视盘分割方法
CN111967462A (zh) 一种获取感兴趣区域的方法及装置
CN115187640A (zh) 一种基于点云的ct与mri 3d/3d图像配准方法
CN115147769A (zh) 一种基于红外视频的生理参数鲁棒性检测方法
Smets et al. A knowledge-based system for the 3D reconstruction and representation of the cerebral blood vessels from a pair of stereoscopic angiograms
CN114298986A (zh) 一种基于多视点无序x光片的胸腔骨骼三维构建方法及***
CN112258533A (zh) 一种超声图像中小脑蚓部的分割方法
Voronin et al. Video inpainting of complex scenes based on local statistical model
CN117281540B (zh) 一种呼吸信号获取方法、装置、设备及存储介质
CN114463279B (zh) 一种基于计算机视觉的肺区区域分割***
CN113222886B (zh) 颈静脉球窝、乙状窦沟定位方法和智能颞骨影像处理***
CN117557587B (zh) 一种内窥镜冷光源亮度自动调节***
JP2002051987A (ja) 診断支援方法および装置
CN118037669A (zh) 一种脊柱检测和节段定位方法、***、终端及存储介质
CN117934316A (zh) 一种医疗内窥镜视频电子稳像方法
Iakovidis Versatile approximation of the lung field boundaries in chest radiographs in the presence of bacterial pulmonary infections

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant