CN110475505A - 利用全卷积网络的自动分割 - Google Patents
利用全卷积网络的自动分割 Download PDFInfo
- Publication number
- CN110475505A CN110475505A CN201880020558.2A CN201880020558A CN110475505A CN 110475505 A CN110475505 A CN 110475505A CN 201880020558 A CN201880020558 A CN 201880020558A CN 110475505 A CN110475505 A CN 110475505A
- Authority
- CN
- China
- Prior art keywords
- image
- heart
- training
- machine learning
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000011218 segmentation Effects 0.000 title description 77
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 193
- 210000002216 heart Anatomy 0.000 claims abstract description 179
- 238000012549 training Methods 0.000 claims abstract description 151
- 238000000034 method Methods 0.000 claims abstract description 136
- 210000004369 blood Anatomy 0.000 claims abstract description 85
- 239000008280 blood Substances 0.000 claims abstract description 85
- 210000003540 papillary muscle Anatomy 0.000 claims abstract description 81
- 210000004165 myocardium Anatomy 0.000 claims abstract description 71
- 210000003484 anatomy Anatomy 0.000 claims abstract description 59
- 239000012528 membrane Substances 0.000 claims abstract description 57
- 210000005240 left ventricle Anatomy 0.000 claims description 90
- 230000000747 cardiac effect Effects 0.000 claims description 74
- 238000003860 storage Methods 0.000 claims description 61
- 238000010801 machine learning Methods 0.000 claims description 59
- 210000005241 right ventricle Anatomy 0.000 claims description 54
- 238000005070 sampling Methods 0.000 claims description 54
- 238000013507 mapping Methods 0.000 claims description 51
- 238000003780 insertion Methods 0.000 claims description 35
- 230000037431 insertion Effects 0.000 claims description 35
- 238000003384 imaging method Methods 0.000 claims description 32
- 230000002107 myocardial effect Effects 0.000 claims description 29
- 230000002861 ventricular Effects 0.000 claims description 28
- 238000009826 distribution Methods 0.000 claims description 25
- 238000013184 cardiac magnetic resonance imaging Methods 0.000 claims description 19
- 230000010412 perfusion Effects 0.000 claims description 14
- 230000008878 coupling Effects 0.000 claims description 13
- 238000010168 coupling process Methods 0.000 claims description 13
- 238000005859 coupling reaction Methods 0.000 claims description 13
- 210000001174 endocardium Anatomy 0.000 claims description 13
- 238000012986 modification Methods 0.000 claims description 12
- 230000004048 modification Effects 0.000 claims description 12
- 230000017105 transposition Effects 0.000 claims description 12
- 238000012805 post-processing Methods 0.000 claims description 10
- 238000002059 diagnostic imaging Methods 0.000 claims description 8
- 230000002708 enhancing effect Effects 0.000 claims description 8
- 230000003111 delayed effect Effects 0.000 claims description 7
- 238000005315 distribution function Methods 0.000 claims description 6
- 230000000877 morphologic effect Effects 0.000 claims description 4
- 210000001519 tissue Anatomy 0.000 claims description 4
- 201000000057 Coronary Stenosis Diseases 0.000 claims description 3
- 206010011089 Coronary artery stenosis Diseases 0.000 claims description 3
- 238000013459 approach Methods 0.000 claims description 3
- 208000010125 myocardial infarction Diseases 0.000 claims description 3
- 239000006071 cream Substances 0.000 claims description 2
- 230000000977 initiatory effect Effects 0.000 claims 6
- 238000002595 magnetic resonance imaging Methods 0.000 description 48
- 238000004422 calculation algorithm Methods 0.000 description 46
- 230000008569 process Effects 0.000 description 39
- 230000006870 function Effects 0.000 description 28
- 238000013528 artificial neural network Methods 0.000 description 24
- 238000011160 research Methods 0.000 description 24
- 230000015654 memory Effects 0.000 description 20
- 230000033001 locomotion Effects 0.000 description 19
- 238000012545 processing Methods 0.000 description 18
- 238000001514 detection method Methods 0.000 description 17
- 238000011049 filling Methods 0.000 description 14
- 238000005259 measurement Methods 0.000 description 14
- 230000008859 change Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 210000004115 mitral valve Anatomy 0.000 description 12
- 238000009877 rendering Methods 0.000 description 11
- 210000000591 tricuspid valve Anatomy 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 210000002837 heart atrium Anatomy 0.000 description 10
- 238000012360 testing method Methods 0.000 description 10
- 239000000047 product Substances 0.000 description 9
- 238000006424 Flood reaction Methods 0.000 description 8
- 230000004913 activation Effects 0.000 description 8
- 210000000709 aorta Anatomy 0.000 description 8
- 210000003205 muscle Anatomy 0.000 description 8
- 230000007547 defect Effects 0.000 description 7
- 230000000670 limiting effect Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 6
- 238000013461 design Methods 0.000 description 6
- 230000004217 heart function Effects 0.000 description 6
- 238000013519 translation Methods 0.000 description 6
- 238000010276 construction Methods 0.000 description 5
- 238000002224 dissection Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 210000001308 heart ventricle Anatomy 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 238000005096 rolling process Methods 0.000 description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 4
- 241000208340 Araliaceae Species 0.000 description 4
- 229910052688 Gadolinium Inorganic materials 0.000 description 4
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 4
- 235000003140 Panax quinquefolius Nutrition 0.000 description 4
- 238000005520 cutting process Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- UIWYJDYFSGRHKR-UHFFFAOYSA-N gadolinium atom Chemical compound [Gd] UIWYJDYFSGRHKR-UHFFFAOYSA-N 0.000 description 4
- 235000008434 ginseng Nutrition 0.000 description 4
- 210000005246 left atrium Anatomy 0.000 description 4
- 230000000644 propagated effect Effects 0.000 description 4
- 241001269238 Data Species 0.000 description 3
- 241000270295 Serpentes Species 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 230000008602 contraction Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000011478 gradient descent method Methods 0.000 description 3
- 230000006855 networking Effects 0.000 description 3
- 210000002445 nipple Anatomy 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 206010019280 Heart failures Diseases 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000017531 blood circulation Effects 0.000 description 2
- 239000002872 contrast media Substances 0.000 description 2
- 230000003205 diastolic effect Effects 0.000 description 2
- 230000002526 effect on cardiovascular system Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 239000004615 ingredient Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 238000003475 lamination Methods 0.000 description 2
- 210000004072 lung Anatomy 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003387 muscular Effects 0.000 description 2
- 230000007170 pathology Effects 0.000 description 2
- 210000003102 pulmonary valve Anatomy 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000008439 repair process Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000010008 shearing Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000282465 Canis Species 0.000 description 1
- 208000024172 Cardiovascular disease Diseases 0.000 description 1
- 206010056720 Muscle mass Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 210000001367 artery Anatomy 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 239000000090 biomarker Substances 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 101150083127 brox gene Proteins 0.000 description 1
- 230000024245 cell differentiation Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000004087 circulation Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000002924 energy minimization method Methods 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 208000019622 heart disease Diseases 0.000 description 1
- 206010020871 hypertrophic cardiomyopathy Diseases 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000001802 infusion Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000007914 intraventricular administration Methods 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000004218 nerve net Anatomy 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000032696 parturition Effects 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 210000005245 right atrium Anatomy 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 231100000241 scar Toxicity 0.000 description 1
- 230000036573 scar formation Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/149—Segmentation; Edge detection involving deformable models, e.g. active contour models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30048—Heart; Cardiac
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Probability & Statistics with Applications (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
用于解剖结构(例如,心脏)的自动分割的***和方法。卷积神经网络(CNN)可用于自主分割由图像数据(例如3D MRI数据)表示的解剖结构的部分。CNN使用两条路径,即收缩路径和扩张路径。在至少一些实施方式中,扩张路径包括比收缩路径更少的卷积操作。该***和方法还自主计算图像强度阈值,该阈值将血液与心内膜轮廓内部的***肌和小梁肌区分开,并自主应用图像强度阈值来限定描述***肌和小梁肌的边界的轮廓或掩模。该***和方法还使用训练的CNN模型计算描绘心内膜和心外膜的轮廓或掩模,并使用计算出的轮廓或掩模在解剖学上定位心肌的病症或功能特征。
Description
技术领域
本公开总体涉及解剖结构的自动分割。
背景技术
磁共振成像(MRI)通常被用于心脏成像以评估患有已知或疑似心脏疾病的患者。具体地,心脏MRI可以通过其精确地捕捉高分辨率的心脏电影图像的能力来量化与心力衰竭和相似病症相关的指标。这些高分辨率图像能够手动或者借助于半自动或全自动软件来测量心脏的相关解剖区域(例如心室和肌肉)的体积。
心脏MRI电影序列由一个或更多个空间切片组成,其中每个空间切片包含贯穿整个心动周期的多个时间点(例如,20个时间点)。通常,以下视图的一些子集被捕获为单独的系列:短轴(SAX)视图,其由沿着左心室的长轴的一系列切片组成。每个切片位于左心室的短轴的平面内,其与心室的长轴正交;2室(2CH)视图,其是显示左心室和左心房或右心室和右心房的长轴(LAX)视图;3室(3CH)视图,其是显示左心室、左心房和主动脉,或右心室、右心房和主动脉的LAX视图;和4室(4CH)视图,其是显示左心室、左心房、右心室和右心房的LAX视图。
根据采集的类型,可以直接在扫描仪中捕获这些视图(例如,稳态自由进动(SSFP)MRI),或者可以通过以不同方向排列的体积的多平面重建(MPR)来构建这些视图(例如,轴面、矢状面或冠状面,例如4D Flow MRI)。SAX视图具有多个空间切片,通常覆盖心脏的整个体积,但2CH、3CH和4CH视图通常仅有单一空间切片。所有系列都是电影,并具有涵盖完整心动周期的多个时间点。
几个重要的心脏功能的测量依赖于心室体积的精确测量。例如,射血分数(EF)表示每次心跳中左心室(LV)所泵出的血液分数。异常低的EF读数通常与心力衰竭有关。EF的测量取决于LV最大收缩时的心脏收缩末期和LV最大舒张时的心脏舒张末期二者的心室血池体积。
为了测量LV的体积,在SAX视图中心室通常被分割。复查病例的放射科医师首先会通过手动循环单个切片的时间点并分别确定心室最大收缩或舒张的时间点来确定心脏收缩末期(ES)和心脏舒张末期(ED)时间点。确定这两个时间点后,放射科医师将在心室为可见的SAX系列的所有切片上画出围绕LV的轮廓。
一旦构建了轮廓,可以通过对轮廓内的像素进行求和,并乘以x和y方向上的面内像素间距(例如,以毫米每像素计)来计算每个切片中的心室面积。然后可以通过对每个空间切片中的面积进行求和,并乘以切片之间的距离(例如,以毫米(mm)计)来确定总心室体积。得到以立方毫米为单位的体积。还可以使用积分切片面积的其他方法以确定总体积,例如辛普森法则的变型,其不使用直线段逼近离散积分,而是使用二次分段。通常在ES和ED处计算体积,并且可以由体积确定射血分数和类似度量。
为了测量LV血池体积,放射科医师通常在两个时间点(ES和ED)的每个时间点处在约10个空间切片上沿LV心内膜(心肌的内壁)构建轮廓,总共约20个轮廓。虽然存在一些半自动的轮廓布置工具(例如,使用活动轮廓或“蛇形”算法),但这些仍然通常需要轮廓的一些手动调整,特别是对于具有噪声或伪影的图像。构建这些轮廓的整个过程可能需要10分钟或更长时间,主要涉及手动调整。示例性LV心内膜轮廓如图1中图像100a至100k所示,其示出了整个SAX堆上的单个时间点处的轮廓。从100a到100k,切片从左心室的心尖到左心室的基部。
尽管以上描述针对于LV血池的测量(通过LV心内膜的轮廓进行),但是通常需要对右心室(RV)血池进行相同的体积测量以评估右心室中的功能病理学。另外,有时需要测量心肌(心脏肌)的质量,这需要画出心外膜(心肌的外表面)的轮廓。即使使用半自动工具,经验丰富的放射科医生都会花费10分钟或更长时间的来构建和校正这四种轮廓中的每一个(LV心内膜,LV心外膜,RV心内膜,RV心外膜)。构建所有四个轮廓可能需要30分钟或更长时间。
该繁重过程最明显的后果是使得解读心脏MRI研究是昂贵的。另一个重要后果是:除非绝对必要,一般不会进行基于轮廓的测量,这限制了可以从每次进行的心脏MRI研究中提取的诊断信息。完全自动化的轮廓生成和体积测量不仅对于放射科医生的工作量,而且对于从每项研究中可以提取的诊断信息的量都显然具有显著益处。
基于活动轮廓的方法的局限性
创建心室轮廓的最基本的方法是使用某种多边形或样条绘制工具手动完成该过程,而不使用任何自动算法或工具。在这种情况下,用户可以例如构建心室轮廓的手绘图,或者绘出样条控制点,然后用平滑的样条轮廓连接样条控制点。在初始构建轮廓之后,取决于软件的用户界面,用户通常具有修改轮廓的能力,例如通过移动、增加或删除控制点或通过移动样条线段。
为了减少该过程的繁重程度,大多数支持心室分割的软件包都包括半自动分割工具。一种用于半自动心室分割的算法是“蛇形”算法(更正式地称为“活动轮廓”)。参见Kass,M.,Witkin,A.和Terzopoulos,D.(1988),“Snakes:Active contour models.”International Journal of Computer Vision,1(4),321–331。蛇形算法生成可变形的样条线,通过能量最小化方法将其限制为包围图像中的强度梯度。实际上,这种方法试图将轮廓限制为图像中的高梯度区域(边缘),并且还使轮廓中的“弯折”或高方向梯度(曲率)的区域最小化。最佳结果是紧紧包围在图像的边缘的平滑的轮廓。图2的图像200示出了在4DFlow心脏研究中,左心室心内膜的蛇形算法示例性成功结果,其示出了LV心内膜的轮廓202。
尽管蛇形算法是常用的,并且虽然修改其获得的轮廓比从头开始生成轮廓要快得多,但蛇形算法有几个明显的缺点。特别是,蛇形算法需要“种子”。由算法改进的“种子轮廓”必须由用户设定或通过启发式设定。而且,蛇形算法只能了解局部情况。当轮廓与图像的边缘重叠时,蛇形算法的代价函数通常会赋予功劳(credit);然而,没有办法通知算法所检测到的边缘是所需的;例如,在心内膜与其他解剖学实体(例如,另一个心室,肺,肝脏)的边界之间没有明确界限。因此,该算法高度依赖于可预测的解剖结构以及种子的正确设置。此外,蛇形算法是贪婪的。蛇形算法的能量函数通常使用贪婪算法如梯度下降法进行优化,梯度下降法沿代价函数的梯度方向迭代移动自由参数。然而,梯度下降法和许多类似的优化算法容易陷入代价函数的局部最小值。这表现为可能与图像中的错误边缘相关的轮廓,例如成像伪影或血池与***肌之间的边缘。另外,蛇形算法具有很小的表示空间。蛇形算法通常只有几十个可调参数,因此不具有表示需要分割的各种可能图像的能力。许多不同的因素可以影响所感知的心室捕获图像,包括解剖结构(例如,心室的大小、形状,病理学,手术史,***肌),成像方案(例如造影剂,脉冲序列,扫描仪类型,接收线圈的品质和类型,患者定位,图像分辨率)和其他因素(例如运动伪影)。由于所记录的图像的多样性和可调参数的数量很少,蛇形算法只能在少数“表现良好”的案例中表现良好。
尽管蛇形算法存在这些和其他缺点,但是蛇形算法的普及主要因为这样的事实:蛇形算法可以在没有任何明确的“训练”的情况下进行使用,这使得实施相对简单。然而,蛇形算法无法适应更复杂的案例。
从血池中排除***肌的挑战
***肌是左心室和右心室二者的心内膜内部的肌肉。当在心室收缩期间瓣膜上的压力增加时,***肌用于保持二尖瓣和三尖瓣闭合。图3示出了示例性的SSFP MRI图像300a(心脏舒张末期)和300b(心脏收缩末期),其示出了左心室的***肌和心肌。注意的是,在心脏舒张末期(图像300a),主要挑战是区分***肌和它们所在的血池,而在心脏收缩末期(图像300b),主要挑战是区分***肌与心肌。
当进行心室血池的分割(手动或自动)时,***肌可以包含在轮廓内或从轮廓中排除。注意的是,围绕血池的轮廓通常俗称为“心内膜轮廓”,无论***肌是包含在轮廓内还是从轮廓中排除。在后一种情况下,术语“心内膜”并非是严格准确的,因为轮廓没有平滑地映射至心内膜的真值表面;尽管如此,出于方便而使用术语“心内膜轮廓”。
通常在SAX堆中的每个图像上创建心内膜轮廓以测量心室内的血量。因此,如果从心内膜轮廓中排除***肌,就可以获得血容量的最精确的测量。但是,由于肌肉数量众多且很小,在构建轮廓时将它们排除在手动轮廓之外需要特别小心,这显著增加了过程的繁重程度。因此,当构建手动轮廓时,***肌通常包含在心内膜轮廓内,导致对心室血量的略微高估。从技术上讲,这测量了血池体积和***肌体积的总和。
自动化或半自动化的工具可以加速从心内膜轮廓中排除***肌的过程,但它们有重要的注意事项。蛇形算法(上面讨论过)不适合于在心脏舒张末期排除***肌,因为它的典型公式只能够在没有孔的情况下对单个连接区域绘制轮廓。虽然该算法可以调整以适用于处理轮廓内的孔,但由于***肌比血池小得多,因此该算法必须重新调整以同时处理小的和大的连接区域。简而言之,标准蛇形算法不可能用于分割血池并在心脏舒张末期排除***肌。
在心脏收缩末期,当大多数***肌肉块邻接心肌时,蛇形算法默认将从心内膜轮廓中排除大部分***肌,并且不能包含它们(因为在***肌和心肌之间几乎没有或没有强度边界)。因此,在标准公式中,蛇形算法只能包括心脏舒张末期的***肌,并且只在心脏收缩末期排除它们,这导致在心动周期过程中血池体积的测量结果不一致。这是蛇形算法的一个主要限制,在没有用户的大量修正的情况下,会阻止其输出的临床应用。
构建血池轮廓的另一种半自动方法是使用“泛洪填充”算法。在泛洪填充算法下,用户选择初始种子点,并且连接到种子点的、强度梯度和离种子点的距离不超过阈值的所有像素都包含在所选掩模内。尽管像蛇形算法一样,泛洪填充需要连接分割区域,但泛洪填充的优点是其允许连接区域具有孔。因此,由于***肌可以根据其强度与血池区分开,所以可以动态地通过用户输入或以硬编码的方式制定泛洪填充算法,以从分割中排除***肌。泛洪填充也可以用于在心脏舒张末期的心内膜分割中包括***肌;然而,在心脏收缩末期,因为大部分***肌与心肌连接(使两个区域几乎不可区分),所以泛洪填充并不能用于包括心内膜分割中的***肌。
除了在心脏收缩末期无法区分***肌与心肌之外,泛洪填充的主要缺点是,尽管与完全手动分割相比,它可以显著地减少分割过程所需的工作量,但仍需要大量的用户输入来动态地确定泛洪填充梯度和距离阈值。申请人已经发现,尽管使用泛洪填充工具可以构建准确的分割,但构建具有临床可接受的精度的分割仍然需要大量的手动调整。
在短轴视图上分割基础切片的挑战
通常在短轴或SAX堆图像上构建心脏分割。在SAX堆上进行分割的一个主要缺点是SAX平面几乎平行于二尖瓣和三尖瓣的平面。这有两个影响。首先,瓣膜很难与来自SAX堆的切片区分开。其次,假设SAX堆不完全平行于瓣膜平面,心脏基部附近将至少有一个切片,其部分位于心室并部分位于心房。
在图4的图像400a和400b中示出了左心室和左心房均可见于单个切片中的示例性示例。如果临床医师未能参考投影在相应LAX视图上的当前SAX切片,则SAX切片跨越心室和心房可能并不明显。此外,即使LAX视图可用,由于心室和心房具有相似的信号强度,因此可能难以在SAX切片上判断瓣膜位置,并因此难以判断心室分割应该结束的位置。因此,靠近心脏基部的分割是心室分割的主要误差来源之一。
位置标志
在心脏成像应用的4D Flow工作流中,可能需要用户来定义心脏中不同位置标志的区域以看到不同的心脏视图(例如,2CH、3CH、4CH、SAX)并分割心室。分割左心室并且看到2CH、3CH和4CH左心视图所需的位置标志包括LV心尖、二尖瓣和主动脉瓣。分割RV并且看到相应视图所需的位置标志包括RV心尖、三尖瓣和肺动脉瓣。
在Payer、Christian、Horst Bischof和Martin Urschler的“Regressing Heatmaps for Multiple Landmark Localization using CNNs”,ProcMedical Image Computing&Computer Assisted Intervention(MICCAI)2016,SpringerVerlag中描述了一种在3D T1加权MRI上定位位置标志的现有方法。在该文章中开发的方法在这里被称为“位置标志检测(LandMark Detect)”。位置标志检测是基于两个显著的部分。首先,使用U-Net神经网络的变型,如在Ronneberger、Olaf、Philipp Fischer和ThomasBrox的“U-net:Convolutional networks for biomedical image segmentation”,International Conference on Medical Image Computing and Computer-AssistedIntervention,第234-241页,Springer International Publishing,2015中所讨论的。其次,在训练期间使用任意选择标准差的高斯函数对位置标志进行编码。图5的位置标志检测神经网络500与使用平均池化层代替最大池化层的U-Net不同。
位置标志检测的一个局限性是缺乏处理缺失位置标志的方法。假定每个位置标志都精确地位于每个图像上。另一个限制是缺少除了内核和层大小之外的超参数搜索。还有一个局限性是固定上采样层没有要学习的参数。此外,位置标志检测依赖于有限的预处理策略,该策略在于消除3D图像的均值(即,使输入数据居中)。
因此,需要解决一些或所有以上讨论缺点的***和方法。
发明内容
机器学习***可以被概括为包括:至少一个非临时性处理器可读存储介质,其存储处理器可执行指令或数据中的至少一种;以及可通信地联接到所述至少一个非临时性处理器可读存储介质的至少一个处理器,所述至少一个处理器:接收包括多批带标签的图像集的学习数据,每个图像集包括表示解剖结构的图像数据并且包括至少一个标签,所述标签标识在图像集的每个图像中描绘的解剖结构的特定部分的区域;训练全卷积神经网络(CNN)模型以利用所接收的学习数据来分割解剖结构的至少一部分;并将训练的CNN模型存储在机器学习***的至少一个非临时性处理器可读存储介质中。CNN模型可以包括收缩路径和扩张路径,收缩路径可以包括多个卷积层和多个池化层,每个池化层在至少一个卷积层之后,扩张路径可以包括多个卷积层和多个上采样层,每个上采样层在至少一个卷积层之后并且包括转置卷积操作,该转置卷积操作用习得内核执行上采样和内插。在每个上采样层之后,CNN模型可以包括来自收缩路径中的相应层的通过跳过连接的特征映射(feature map)的级联。图像数据可以表示贯穿心动周期的一个或更多个时间点期间的心脏。图像数据可以包括超声数据或可见光照片数据。CNN模型可以包括收缩路径,该收缩路径可以包括具有1到2000个特征映射的第一卷积层。CNN模型可以包括多个卷积层,并且每个卷积层可以包括大小为3×3和步幅为1的卷积核。CNN模型可以包括多个池化层,并且每个池化层可以包括步幅为2的2×2最大池化层。CNN模型可以包括四个池化层和四个上采样层。CNN模型可以包括多个卷积层,并且CNN模型可以使用补零操作将输入填补至每个卷积层。CNN模型可以包括多个非线性激活函数层。
至少一个处理器可以通过修改多批带标签的图像集中的至少一些图像数据来扩充学习数据。
至少一个处理器可以根据水平翻转、垂直翻转、剪切量、移位量、变焦量、旋转量、亮度级或对比度的至少一个来修改所述多批带标签的图像集中的至少一些图像数据。
CNN模型可以包括存储在至少一个非临时性处理器可读存储介质中的多个超参数,并且至少一个处理器可以根据多种配置来配置CNN模型,每个配置包括超参数的数值的不同组合;对于多种配置中的每一个,验证CNN模型的精度;并且至少部分地基于通过验证确定的精度来选择至少一个配置。
至少一个处理器可以针对每个图像集识别图像集是否缺少解剖结构的多个部分中的任何一个部分的标签;并且对于被识别为缺少至少一个标签的图像集,修改训练损失函数以考虑到所识别的缺失标签。图像数据可以包括体积图像,并且每个标签可以包括体积标签掩模或轮廓。CNN模型的每个卷积层可以包括大小为N×N×K像素的卷积核,其中N和K是正整数。CNN模型的每个卷积层可以包括大小为N×M像素的卷积核,其中N和M是正整数。图像数据可以表示贯穿心动周期的一个或更多个时间点期间的心脏,其中多批带标签的图像集的子集包括排除***肌的标签。对于每个被处理的图像,CNN模型可以利用至少一个图像的数据,所述至少一个图像可以是空间上与所述被处理的图像相邻的图像或时间上与所述被处理的图像相邻的图像中的至少一个。对于每个被处理的图像,CNN模型可以利用空间上与所述被处理的图像相邻的至少一个图像的数据,并且可以利用时间上与所述被处理的图像相邻的至少一个图像的数据。对于每个被处理的图像,CNN模型可以利用至少一个时间信息或相位信息。图像数据可以包括稳态自由进动(SSFP)磁共振成像(MRI)数据或4D FlowMRI数据中的至少一个。
操作机器学习***的方法可以包括:至少一个非临时性处理器可读存储介质,其可以存储处理器可执行指令或数据中的至少一种;以及可通信地联接到所述至少一个非临时性处理器可读存储介质的至少一个处理器,并且该方法可以总结为包括:通过至少一个处理器,接收包括多批带标签图像集的学习数据,每个图像集包括表示解剖结构的图像数据,并且每个图像集包括至少一个标签,所述标签标识图像集的每个图像中描绘的解剖结构的特定部分的区域;通过至少一个处理器,训练全卷积神经网络(CNN)模型以利用所接收的学习数据来分割解剖结构的至少一部分;并通过至少一个处理器,将训练的CNN模型存储在机器学习***的至少一个非临时性处理器可读存储介质中。训练CNN模型可以包括训练包括收缩路径和扩张路径的CNN模型,所述收缩路径可以包括多个卷积层和多个池化层,每个池化层在至少一个卷积层之后,并且所述扩张路径可以包括多个卷积层和多个上采样层,每个上采样层在至少一个卷积层之后并且可包括转置卷积操作,该转置卷积操作用习得内核执行上采样和内插。训练CNN模型可以包括训练CNN模型以利用所接收的学习数据来分割所述解剖结构的至少一部分,并且在每个上采样层之后,所述CNN模型可以包括来自收缩路径中的相应层的通过跳过连接的特征映射的级联。接收学习数据可以包括接收可表示贯穿心动周期的一个或更多个时间点期间的心脏的图像数据。训练CNN模型可以包括训练CNN模型以利用所接收的学习数据来分割所述解剖结构的至少一部分,并且CNN模型可以包括收缩路径,所述收缩路径可以包括具有1至2000个特征映射的第一卷积层。训练CNN模型可以包括训练可以包括多个卷积层的CNN模型,以利用所接收的学习数据来分割解剖结构的至少一部分,并且每个卷积层可以包括大小为3×3、步幅为1的卷积核。训练CNN模型可以包括训练可以包括多个池化层的CNN模型,以利用所接收的学习数据来分割解剖结构的至少一部分,并且每个池化层可以包括步幅为2的2×2最大池化层。
训练CNN模型可以包括训练CNN模型,以利用所接收的学习数据来分割所述解剖结构的至少一部分,并且CNN模型可以包括四个池化层和四个上采样层。
训练CNN模型可以包括训练可包括多个卷积层的CNN模型,以利用所接收的学习数据来分割解剖结构的至少一部分,并且CNN模型可以使用补零操作将输入填充至每个卷积层。
训练CNN模型可以包括训练CNN模型以利用所接收的学习数据来分割所述解剖结构的至少一部分,并且CNN模型可以包括多个非线性激活函数层。
该方法还可以包括通过至少一个处理器,通过修改多批带标签的图像集中的至少一些图像数据来扩充学习数据。
该方法还可以包括通过至少一个处理器,根据水平翻转、垂直翻转、剪切量、移位量、变焦量、旋转量、亮度级、或对比度中的至少一个,修改多批带标签的图像集中的至少一些图像数据。
CNN模型可以包括存储在至少一个非临时性处理器可读存储介质中的多个超参数,并且还可以包括通过至少一个处理器,根据多种配置来配置CNN模型,每个配置包括超参数的数值的不同组合;对于多种配置中的每一个,通过至少一个处理器来验证CNN模型的精度;并且通过至少一个处理器,至少部分地基于通过验证确定的精度来选择至少一个配置。
该方法还可以包括通过至少一个处理器,针对每个图像集来识别图像集是否缺少解剖结构的多个部分中的任何一个部分的标签;并且对于被识别为缺少至少一个标签的图像集,通过至少一个处理器,修改训练损失函数以考虑到所识别的缺失标签。接收学习数据可以包括接收可以包括体积图像的图像数据,并且每个标签可以包括体积标签掩模或轮廓。
训练CNN模型可以包括训练可以包括多个卷积层的CNN模型,以利用所接收的学习数据来分割解剖结构的至少一部分,并且所述CNN模型的每个卷积层可以包括大小为N×N×K像素的卷积核,其中N和K是正整数。
训练CNN模型可以包括训练可以包括多个卷积层的CNN模型,以利用所接收的学习数据来分割解剖结构的至少一部分,并且所述CNN模型的每个卷积层可以包括尺寸为N×M像素的卷积核,其中N和M是正整数。接收学习数据可以包括接收表示贯穿心动周期的一个或更多个时间点期间的心脏的图像数据,并且其中多批带标签的图像集的子集包括排除***肌的标签。训练CNN模型可以包括训练CNN模型以利用所接收的学习数据来分割所述解剖结构的至少一部分,并且对于每个经处理的图像,CNN模型可以利用至少一个图像的数据,所述至少一个图像是空间上与所述经处理的图像相邻的图像或时间上与所述经处理的图像相邻的图像中的至少一个。训练CNN模型可以包括训练CNN模型以利用所接收的学习数据来分割所述解剖结构的至少一部分,并且对于每个经处理的图像,所述CNN模型利用空间上与所述经处理的图像相邻的至少一个图像的数据,并且利用时间上与所述经处理的图像相邻的至少一个图像的数据。训练CNN模型可以包括训练CNN模型以利用所接收的学习数据来分割所述解剖结构的至少一部分,并且对于每个经处理的图像,CNN模型可以利用至少一个时间信息或相位信息。接收学习数据可以包括接收可以包括稳态自由进动(SSFP)磁共振成像(MRI)数据或4D Flow MRI数据中的至少一个的图像数据。
机器学习***可以被概括为包括:至少一个非临时性处理器可读存储介质,其存储处理器可执行指令或数据中的至少一个;以及可通信地联接到所述至少一个非临时性处理器可读存储介质的至少一个处理器,所述至少一个处理器:接收表示解剖结构的图像数据;通过全卷积神经网络(CNN)模型处理所接收的图像数据,以生成图像数据的每个图像的每个像素的每个类别的概率,每个类别对应于由图像数据表示的解剖结构的多个部分中的一个;并且对于图像数据的每个图像,使用所生成的每个类别的概率为多个类别中的每个类别生成概率图;并将生成的概率图存储在至少一个非临时性处理器可读存储介质中。CNN模型可以包括收缩路径和扩张路径,收缩路径可以包括多个卷积层和多个池化层,每个池化层在至少一个卷积层之后,并且扩张路径可以包括多个卷积层和多个上采样层,每个上采样层在至少一个卷积层之后并且可以包括转置卷积操作,该转置卷积操作用习得内核执行上采样和内插。图像数据可以表示贯穿心动周期的一个或更多个时间点期间的心脏。
至少一个处理器可以至少部分地基于所生成的概率图,自动地使解剖结构的多个部分中的至少一个的指示显示在显示器上。至少一个处理器可以对经处理的图像数据后处理以确保满足至少一个物理限制条件。图像数据可以表示贯穿心动周期的一个或更多个时间点期间的心脏,并且所述至少一个物理限制条件可以包括以下中的至少一个:心肌体积在全部的时间点相同,或右心室和左心室不能相互重叠。对于图像数据的每个图像,至少一个处理器可以通过将每个像素的类别设置为具有最高概率的类别,将多个概率图转换为标签掩模。对于图像数据的每个图像,当像素的所有类别的概率低于确定的阈值时,至少一个处理器可以将每个像素的类别设置为背景类别。对于图像数据的每个图像,当像素不是该像素所关联的类别的最大连接区域的一部分时,至少一个处理器可以将每个像素的类别设置为背景类别。至少一个处理器可以将图像数据的每个标签掩模转换为相应的样条轮廓。至少一个处理器可以自动使所生成的轮廓与图像数据一起显示在显示器上。至少一个处理器可以接收对所显示的轮廓中的至少一个轮廓的用户修改;并将修改后的轮廓存储在至少一个非临时性处理器可读存储介质中。至少一个处理器可以利用所生成的轮廓来确定解剖结构的多个部分中的至少一个的体积。解剖结构可以包括心脏,至少一个处理器可以利用所生成的轮廓确定在心动周期的多个时间点心脏的多个部分中的至少一个的体积。至少一个处理器可以基于分别被确定为具有最小体积和最大体积的时间点,自动确定心动周期的多个时间点中的哪些时间点对应于心动周期的心脏收缩阶段末期和心脏舒张阶段末期。至少一个处理器可以使得解剖结构的多个部分中的至少一个的所确定的体积显示在显示器上。图像数据可以包括体积图像。CNN模型的每个卷积层可以包括大小为N×N×K像素的卷积核,其中N和K是正整数。
操作机器学习***的方法,该机器学习***可以包括:至少一个非临时性处理器可读存储介质,其存储处理器可执行指令或数据中的至少一个,以及可通信地联接到所述至少一个非临时性处理器可读存储介质的至少一个处理器,并且该方法可以概述为包括:通过至少一个处理器,接收表示解剖结构的图像数据;通过至少一个处理器,通过全卷积神经网络(CNN)模型处理所接收的图像数据,以生成图像数据的每个图像的每个像素的每个类别的概率,每个类别对应于由图像数据表示的解剖结构的多个部分中的一个;并且对于图像数据的每个图像,通过至少一个处理器,使用所生成的每个类别的概率为多个类别中的每个类别生成概率图;并且通过至少一个处理器,将生成的概率图存储在至少一个非临时性处理器可读存储介质中。通过CNN模型处理所接收的图像数据可以包括通过可以包括收缩路径和扩张路径的CNN模型处理所接收的图像数据,所述收缩路径可以包括多个卷积层和多个池化层,每个池化层在至少一个卷积层之后,并且所述扩张路径可以包括多个卷积层和多个上采样层,每个上采样层在至少一个卷积层之后并且包括转置卷积操作,该转置卷积操作用习得内核执行上采样和内插。接收图像数据可以包括接收表示贯穿心动周期的一个或更多个时间点期间的心脏的图像数据。
该方法还可以包括通过至少一个处理器,至少部分地基于所生成的概率图,自动地使解剖结构的多个部分中的至少一个的指示显示在显示器上。
该方法还可以包括通过至少一个处理器,对经处理的图像数据后处理以确保满足至少一个物理限制条件。接收图像数据可以包括接收表示贯穿心动周期的一个或更多个时间点期间的心脏的图像数据,并且所述至少一个物理限制条件可以包括以下中的至少一个:所述心肌的体积在所有的时间点处相同,或右心室和左心室不能相互重叠。
该方法还可以包括对于图像数据的每个图像,通过至少一个处理器,通过将每个像素的类别设置为具有最高概率的类别,将多个概率图转换为标签掩模。
该方法还可以包括对于图像数据的每个图像,当像素的所有类别的概率低于确定的阈值时,通过至少一个处理器,将每个像素的类别设置为背景类别。
该方法还可以包括对于图像数据的每个图像,当像素不是该像素所关联的类别的最大连接区域的一部分时,通过至少一个处理器,将每个像素的类别设置为背景类别。
该方法还可以包括通过至少一个处理器,将图像数据的每个标签掩模转换为相应的样条轮廓。
该方法还可以包括通过至少一个处理器,自动使所生成的轮廓与图像数据一起显示在显示器上。
该方法还可以包括通过至少一个处理器接收至少一个所显示的轮廓的用户修改;以及通过至少一个处理器将修改的轮廓存储在至少一个非临时性处理器可读存储介质中。
该方法还可以包括通过至少一个处理器,利用所生成的轮廓来确定解剖结构的多个部分中的至少一个的体积。
解剖结构可以包括心脏,并且该方法还可以包括通过至少一个处理器,利用所生成的轮廓确定在心动周期的多个时间点心脏的多个部分中的至少一个的体积。
该方法还可以包括通过至少一个处理器,基于分别被确定为具有最小体积和最大体积的时间点,自动确定心动周期的多个时间点中的哪些时间点对应于心动周期的心脏收缩阶段末期和心脏舒张阶段末期。
该方法还可以包括通过至少一个处理器,使得解剖结构的多个部分中的至少一个的所确定的体积显示在显示器上。接收图像数据可以包括接收体积图像数据。通过CNN模型处理所接收的图像数据可以包括通过其中每个卷积层可以包括大小为N×N×K像素的卷积核的CNN模型来处理所接收的图像数据,其中N和K是正整数。
机器学习***可以被概括为包括:至少一个非临时性处理器可读存储介质,其存储处理器可执行指令或数据中的至少一个;以及可通信地联接到所述至少一个非临时性处理器可读存储介质的至少一个处理器,所述至少一个处理器:接收多个3D MRI图像集,多个图像集中的每一个图像集代表患者的解剖结构;接收多个3D MRI图像集的多个注释,每个注释指示在对应图像中描绘的患者的解剖结构的位置标志;训练卷积神经网络(CNN)模型以利用3D MRI图像预测所述多个位置标志的位置;并将训练的CNN模型存储在机器学习***的至少一个非临时性处理器可读存储介质中。至少一个处理器可以训练全卷积神经网络(CNN)模型以利用所述3D MRI图像预测所述多个位置标志的位置。至少一个处理器可以训练CNN模型,所述CNN模型的输出为一组或多于一组空间坐标,所述一组或多于一组空间坐标的每一组标识所述多个位置标志中的一个的位置。CNN模型可以包括收缩路径,之后为一个或更多个全连接层。CNN模型可以包括收缩路径和扩张路径,收缩路径可以包括多个卷积层和多个池化层,每个池化层在一个或更多个卷积层之后,并且扩张路径可以包括多个卷积层和多个上采样层,每个上采样层在一个或更多个卷积层之后并且包括转置卷积操作,该转置卷积操作用习得内核执行上采样和内插。
对于解剖结构的一个或更多个位置标志中的每一个,至少一个处理器可以至少部分地基于所接收的3D MRI图像集和所接收的多个注释来定义3D标签映射,每个3D标签映射可以对位置标志在所述3D标签映射上的特定位置处的可能性进行编码,其中至少一个处理器可以训练CNN模型以利用3D MRI图像和所生成的3D标签映射来分割一个或更多个位置标志。多个集合中的每一个中的图像可以表示在心动周期的不同相应时间点处的患者的心脏,并且每个注释可以表示在相应的图像中描述的患者心脏的位置标志。
该至少一个处理器可以接收3D MRI图像集;通过CNN模型处理所接收的3D MRI图像以检测一个或更多个位置标志中的至少一个;并且使检测到的多个位置标志中的至少一个显示在显示器上。该至少一个处理器可以通过所述CNN模型处理所接收的3D MRI图像,并输出点或标签映射中的至少一个。该至少一个处理器可以通过所述CNN模型处理所接收的3D MRI图像以在多个时间点处检测多个位置标志中的至少一个;并且使得在多个时间点处检测到的多个位置标志中的至少一个显示在显示器上。CNN模型可以利用与所接收的3DMRI图像相关联的相位信息。
操作机器学习***的方法,该机器学习***可以包括:至少一个非临时性处理器可读存储介质,其可以存储处理器可执行指令或数据中的至少一个,以及可通信地联接到所述至少一个非临时性处理器可读存储介质的至少一个处理器,并且该方法可以概述为包括:通过至少一个处理器,接收多个3D MRI图像集,多个图像集中的每一个图像集代表患者的解剖结构;通过至少一个处理器,接收多个3D图像集的多个注释,每个注释指示在对应图像中描绘的患者的解剖结构的位置标志;通过至少一个处理器,训练卷积神经网络(CNN)模型以利用3D MRI图像预测所述多个位置标志的位置;并且通过至少一个处理器,将训练的CNN模型存储在机器学习***的至少一个非临时性处理器可读存储介质中。训练CNN模型可以包括训练全卷积神经网络(CNN)模型以利用所述3D MRI图像预测所述多个位置标志的位置。训练CNN模型可以包括训练输出为一组或多于一组空间坐标的CNN模型,所述一组或多于一组空间坐标的每一组标识所述多个位置标志中的一个的位置。训练CNN模型可以包括,训练可以包括收缩路径,之后为一个或更多个全连接层的CNN模型。训练CNN模型可以包括,训练可以包括收缩路径和扩张路径的CNN模型,收缩路径可以包括多个卷积层和多个池化层,每个池化层在至少一个卷积层之后,并且所述扩张路径可以包括多个卷积层和多个上采样层,每个上采样层在至少一个卷积层之后并且包括转置卷积操作,该转置卷积操作用习得内核执行上采样和内插。
该方法还可以包括:对于解剖结构的多个位置标志中的每个位置标志,通过至少一个处理器至少部分地基于所接收的3D MRI图像集和所接收的多个注释来定义3D标签映射,每个3D标签映射对位置标志在3D标签映射上的特定位置处的可能性进行编码;接收多个3D MRI图像集可以包括接收多个3D MRI图像集,并且多个集合中每一个的图像可以表示在心动周期的不同相应时间点处的患者心脏,并且每个注释可以表示在对应图像中描绘的患者心脏的位置标志。
该方法还可以包括:通过至少一个处理器接收3D MRI图像集;通过至少一个处理器通过CNN模型处理所接收的3D MRI图像以检测所述多个位置标志中的至少一个;以及通过至少一个处理器使检测到的多个位置标志中的至少一个显示在显示器上。
该方法还可以包括:通过至少一个处理器,通过CNN模型处理所接收的3D MRI图像以在多个时间点处检测多个位置标志中的至少一个;并且通过至少一个处理器,使得在多个时间点处检测到的多个位置标志中的至少一个显示在显示器上。
训练CNN模型可以包括,训练可以利用与所接收的3D MRI图像相关联的相位信息的CNN模型。
医学图像处理***可以被概括为包括:至少一个非临时性处理器可读存储介质,其存储处理器可执行指令或数据、心脏MRI图像数据和描绘心脏心内膜和心外膜的初始轮廓或掩模中的至少一个;和至少一个处理器,其可通信地联接到至少一个非临时性处理器可读存储介质,在操作中,所述至少一个处理器:访问心脏MRI图像数据和一系列的初始轮廓和掩模;自主计算图像强度阈值,该阈值将血液与心内膜轮廓内部的***肌和小梁肌区分开;并自主应用图像强度阈值来定义描述***肌和小梁肌的边界的轮廓或掩模。为了计算图像强度阈值,至少一个处理器可以将心内膜轮廓内的强度值的分布与心内膜轮廓和心外膜轮廓之间的区域的强度值的分布进行比较。至少一个处理器可以使用经验强度分布的核密度估计来计算强度值的每个分布。至少一个处理器可以将图像强度阈值确定为第一和第二概率分布函数的交点处的像素强度,第一概率分布函数用于心内膜轮廓内的像素组,第二概率分布函数用于心内膜轮廓和心外膜轮廓之间的区域中的像素组。描绘心脏心内膜的初始轮廓或掩模可包括心内膜轮廓内部的***肌和小梁肌。至少一个处理器可以计算血池区域的连接部分并将计算出的一个或更多个连接部分从血池区域中丢弃。至少一个处理器可以将从血池区域中丢弃的连接部分转换成***肌和小梁肌区域。至少一个处理器可以从血池区域中丢弃除血池区域中的最大连接部分之外的所有连接部分。至少一个处理器可以允许描述***肌和小梁肌的边界的所计算出的轮廓或掩模由用户编辑。
机器学习***可以被概括为包括:至少一个非临时性处理器可读存储介质,其存储处理器可执行指令或数据、心脏的医学成像数据和训练的卷积神经网络(CNN)模型中的至少一个;和至少一个处理器,其可通信地联接到至少一个非临时性处理器可读存储介质,在操作中,所述至少一个处理器:使用训练的CNN模型计算在医学成像数据中描绘心脏的心内膜和心外膜的轮廓或掩模;并且使用计算出的轮廓或掩模在解剖学上定位心肌的病症或功能特征。至少一个处理器可以计算心室***点,在该心室***点处,右心室壁附着到左心室。至少一个处理器可以基于描绘左心室心外膜的轮廓或掩模与描绘右心室心内膜或右心室心外膜中的一个或两个的轮廓或掩模的接近度来计算心室***点。
至少一个处理器可以基于心脏图像中的两个点计算一个或更多个二维心脏图像中的心室***点,在这两个点中,左心室心外膜边界与右心室心内膜边界或右心室心外膜边界中的一个或两个开始偏离。至少一个处理器可以基于所获取的左心室的长轴视图之间的相交与左心室心外膜的描绘来计算心室***点。至少一个处理器可以基于左心室心外膜轮廓和左心3室长轴平面之间的相交来计算至少一个心室***点。至少一个处理器可以基于左心室心外膜轮廓和左心4室长轴平面之间的相交来计算至少一个心室***点。至少一个处理器可以基于左心3室长轴平面与右心室心外膜轮廓或右心室心内膜轮廓中的一个或两个之间的相交来计算至少一个心室***点。至少一个处理器可以基于左心4室长轴平面与右心室心外膜轮廓或右心室心内膜轮廓中的一个或两个之间的相交来计算至少一个心室***点。
至少一个处理器可以允许用户手动描绘一个或更多个心室***点的位置。至少一个处理器可以使用轮廓和心室***点的组合以标准化格式呈现心肌的病症或功能特征的解剖学定位。标准化格式可以是心肌的16或17段模型中的一个或两个。心脏的医学成像数据可以是功能性心脏图像、心肌延迟增强图像或心肌灌注图像中的一个或多个。心脏的医学成像数据可以是心脏磁共振图像。
训练的CNN模型可以已经基于与将使用训练的CNN模型来推理的图像类型相同的注释心脏图像进行训练。训练的CNN模型可以已经基于功能性心脏图像、心肌延迟增强图像或心肌灌注图像中的一个或更多个进行训练。训练的CNN模型的训练所基于的数据可以是心脏磁共振图像。训练的CNN模型可以基于与将使用训练的CNN模型来推理的图像类型不同的注释心脏图像进行训练。训练的CNN模型可以已经基于功能性心脏图像、心肌延迟增强图像或心肌灌注图像中的一个或更多个进行训练。训练的CNN模型的训练所基于的数据可以是心脏磁共振图像。
至少一个处理器可以根据CNN模型用于推理的相同类型的数据微调训练的CNN模型。为了微调训练的CNN模型,至少一个处理器可以再次训练所述训练的CNN模型的一些或所有层。至少一个处理器可以对描绘心脏的心内膜和心外膜的轮廓或掩模应用后处理,以使存在于被识别为心肌的心脏区域中的非心肌组织的量最小化。为了对轮廓或掩模进行后处理,至少一个处理器可以将形态学操作应用于被识别为心肌的心脏区域以减小其面积。形态学操作可包括侵蚀或扩张中的一个或更多个。为了对轮廓或掩模进行后处理,至少一个处理器可以修改应用于由训练的CNN模型预测的概率图的阈值,以仅识别如下心肌像素,对于该像素,训练的CNN模型表示该像素是心肌的一部分的概率高于阈值。概率图值可以转换为类标签的阈值大于0.5。为了对轮廓或掩模进行后处理,至少一个处理器可以将描绘心肌的轮廓的顶点朝向或远离心脏的心室的中心移动,以减少所识别的心肌的面积。心肌的病症或功能特征可包括心肌瘢痕形成、心肌梗塞、冠状动脉狭窄或灌注特征中的一种或更多种。
附图说明
在附图中,相同的附图标记表示相似的元件或动作。图中元件的尺寸和相对位置不一定按比例绘制。例如,各种元件的形状和角度不一定按比例绘制,并且这些元件中的一些可以被任意放大和定位以改善附图易读性。此外,所绘制的元件的特定形状并非一定旨在表达关于特定元件的实际形状的任何信息,并且可能仅对于附图中的情况而选择。
图1是在整个SAX(短轴)堆的单个时间点处的多个LV心内膜分割的示例。从左到右,从上到下,切片从左心室的心尖到左心室的基部。
图2是使用蛇形算法生成的LV心内膜轮廓的示例。
图3是两张SSFP图像,其示出了左心室心内膜内部的心室、心肌和***肌。左侧的SSFP图像示出了心脏舒张末期,右侧的SSFP图像示出了心脏收缩末期。
图4是示出了在SAX平面基础切片上区分心室和心房的挑战的两幅图像。
图5是位置标志检测中使用的U-Net网络结构图。
图6是根据一个示出的实施方式的DeepVentricle网络结构的图,其具有对于每个池化层的两个卷积层和四个池化/上采样操作。
图7是根据一个示出的实施方式,构建用于使用SSFP数据进行训练的闪电内存映射数据库(LMDB)的流程图。
图8是根据一个示出的实施方式,用于训练卷积神经网络模型的流水线过程的流程图。
图9是示出了根据一个示出的实施方式,用于SSFP数据的推理流水线的过程的流程图。
图10是在一个时间点和切片索引处的LV心内膜的应用中的SSFP推理结果的屏幕截图。
图11是在一个时间点和切片索引处的LV心外膜的应用中的SSFP推理结果的屏幕截图。
图12是在一个时间点和切片索引处的RV心内膜的应用中的SSFP推理结果的屏幕截图。
图13是来自自动分割的心室的应用中的SSFP计算参数的屏幕截图。
图14是描绘了带有指示SAX堆平面的平行线的两腔、三腔和四腔视图的屏幕截图。
图15在左图描绘了两腔、三腔和四腔视图的屏幕截图,示出了与右心室不平行的一系列分割平面。右图描绘了沿两腔、三腔和四腔视图中所看到的高亮平面的重建图像。
图16是示出了分割RV的屏幕截图。轮廓中的点(右图)定义了样条曲线,并存储在数据库中。轮廓投影到LAX视图(左图)。
图17是屏幕截图,其示出了分割与图16相同的RV切片,但是两腔、三腔和四腔视图中的每一个都略微旋转以突出具有深度效果的分割平面。
图18示出了根据一个示出的实施方式,构建用于使用4D Flow数据进行训练的闪电内存映射数据库(LMDB)的示意图。
图19是示出了由SAX平面、可用标签和图像数据生成的多平面重建(左上)、RVEndo掩模(右上)、LV EPi掩模(左下)以及LV Endo掩模(右下)的图。这些掩模可以存储在一个阵列中,并且与图像一起可以存储在单个唯一密钥下的LMDB中。
图20是类似于图19的图,除了缺失LV EPi掩模。
图21是示出了根据一个所示的实施方式的用于4D Flow的推理流水线的流程图。
图22是描绘LV心内膜对于4D Flow研究的应用中的推理的屏幕截图。
图23是描绘LV心外膜对于4D Flow研究的应用中的推理的屏幕截图。
图24是描绘RV心内膜对于4D Flow研究的应用中的推理的屏幕截图。
图25是示出了根据一个示出的实施方式,使用网络应用来定位左心室心尖(LVA)的屏幕截图。
图26是示出了根据一个示出的实施方式,使用网络应用来定位右心室心尖(RVA)的屏幕截图。
图27是示出了根据一个示出的实施方式,使用网络应用来定位二尖瓣(MV)的屏幕截图。
图28是示出了根据一个示出的实施方式,用于构建训练数据库的过程的流程图。
图29是示出了编码对图像进行高斯评估的图像上的位置标志的位置的图。
图30是根据一个示出的实施方式的图像和位置标志的预处理流水线的流程图。
图31是描绘了对于一个患者的预处理输入图像和编码二尖瓣位置标志的示例的多个屏幕截图。从上到下,从左到右示出了矢状面、轴面和冠状面视图。
图32是描绘了对于一个患者的预处理输入图像和编码三尖瓣位置标志的示例的多个屏幕截图。从上到下,从左到右显示了矢状面、轴面和冠状面视图。
图33是示出了根据网络输出预测位置标志的位置的图。
图34是示出了叠加在解剖图像上的流量信息的示例图像。
图35是根据一个非限制性示出的实施方式,用于实施在此描述的一个或更多个功能的示例性的基于处理器的设备的框图。
图36是具有跳过连接的全卷积编码器-解码器架构的图,该跳过连接利用比收缩路径更小的扩张路径。
图37示出了比较在ED(左版块)和ES(右版块)中左心室(LV)Endo、LV Epi和右心室(RV)Endo中的每一个的FastVentricle和DeepVentricle之间的相对绝对体积误差(RAVE)的框图。
图38示出了一个随机输入(左),针对DeepVentricle和FastVentricle(中间)使用梯度下降对其进行优化,以拟合出标签映射(右,RV Endo为红色,LV Endo为青色,LV Epi为蓝色)。
图39示出了对于DeepVentricle和FastVentricle的低RAVE研究的不同切片和时间点的网络预测的示例。
图40是示出了在心脏MRI上看到的心脏解剖结构的相关部分的图像。
图41是示出了内部包括***肌的心内膜轮廓的图像。
图42是示出了从内部排除***肌的血池或心内膜轮廓的图像。
图43是描绘***肌和小梁肌的过程的一种实施方式的流程图。
图44是计算***肌和小梁肌强度阈值的一种实施方式的流程图。
图45示出了对血池和心肌之间的像素分布的重叠进行计算。
图46是识别和示出心肌缺陷的过程的一种实施方式的流程图。
图47是示出了心室***点的位置的图像。
具体实施方式
在以下的描述中,提供了某些具体的细节以得到对所公开的各个实施方式的透彻理解。然而,相关领域的技术人员会认识到,可以在没有这些具体细节中的一个或更多个的情况下,或者利用其他方法、部件、材料等来实现实施方式。在其他情况下,与计算机***、服务器计算机、和/或通信网络相关的已知结构未被详细示出或描述以避免对实施方式的不必要地模糊描述。
除非上下文另有要求,否则在整个说明书和权利要求书中,词语“包括”与“包含”是同义词,并且是包含性的或开放式的(即,不排除另外的未列举的元素或方法动作)。
贯穿本说明书提及“一个实施方式”或“实施方式”意味着结合该实施方式描述的特定的特征、结构或特性包含在至少一个实施方式中。因此,贯穿本说明书各处出现的短语“在一个实施方式中”或“在实施方式中”不一定都指的是相同的实施方式。此外,特定的特征、结构或特性可以在一个或更多个实施方式中以任何合适的方式组合。
如本说明书和附随的权利要求书中所使用的,除非上下文另有明确指示,要素前面不使用数量词可以包括“一个或更多个”、“至少一个”和“一个或更多个”的意思。也应该注意的是,术语“或”通常以包括“和/或”的意义来使用,除非上下文另有明确规定。
本文提供的标题和摘要仅仅是为了方便,并不解释实施方式的范围或含义。
SSFP自动心室分割
DeepVentricle结构
图6示出了用于心脏SSFP研究的心室分割的卷积神经网络(CNN)结构600,在此被称为DeepVentricle。网络600包括两条路径:左侧是收缩路径602,其包括卷积层606和池化层608,右侧是扩张路径604,其包括上采样层或转置卷积层610和卷积层606。
网络600中的自由参数的数量决定了模型的熵容量,其基本上是模型可以记住的信息量。这些自由参数中的很大一部分存在于网络600中每一层的卷积核中。网络600被配置为使得在每个池化层608之后,特征映射的数量加倍并且空间分辨率减半。在每个上采样层610之后,特征映射的数量减半,并且空间分辨率加倍。利用该方案,可以通过第一层中的数量(例如,1至2000的特征映射)来完全描述网络600上的每个层的特征映射的数量。在至少一些实施方式中,第一层中的特征映射的数量是128。发现使用额外的特征映射提高了模型的精度,并且具有增加的计算复杂度、内存使用和经训练的模型磁盘使用的适中成本。初始特征映射的数量的其他值也可能是足够的,这取决于经训练的数据量,和可用计算资源与模型性能之间的期望折衷。
在至少一些实施方式中,网络600包括在每个池化层608之前的两个卷积层606,卷积核的大小为3×3且步幅为1。也可以使用这些参数(层数,卷积核大小,卷积步幅)的不同组合。基于超参数搜索,发现四个池化和上采样操作对于正在检查的数据效果最好,尽管结果仅对该数量适度敏感。
在没有应用任何填充来输入图像的情况下(这种缺少填充称为“有效”填充(“valid”padding)),大于1×1的卷积自然会减小输出特征映射的大小,因为只有(image_size-conv_size+1)卷积可以适于穿过给定的图像。使用有效填充,对于572×572像素的输入图像,输出分割映射仅为388×388像素。因此分割完整图像需要平铺式方法,并且不可能分割原始图像的边界。在根据本公开的至少一些实施方式的网络600中,在每次卷积之前利用宽度补零(conv_size-2),使得分割映射总是与输入具有相同的分辨率(被称为“相同”填充(“same”padding))。也可以使用有效填充。
使用池化操作对特征映射进行下采样可能是借助于在原始图像的空间中具有较大视野的卷积来学习更高级抽象特征的重要步骤。在至少一些实施方式中,网络600利用步幅为2的2×2最大池化操作来在每组卷积之后进行下采样图像。也可以使用习得下采样,即对步幅为2的2×2卷积的输入体积卷积,但是这样会增加计算复杂度。通常,也可以使用池化大小和步幅的不同组合。
在全卷积网络中进行像素级分割时,需要对激活体积进行上采样使其恢复到原始分辨率。为了增加网络中激活体积的分辨率,一些***可以使用上采样操作,然后进行2×2卷积,然后通过跳过连接拼接来自相应收缩层的特征映射,最后进行两个3×3卷积。在至少一些实施方式中,网络600用单个转置卷积层610代替上采样和2×2卷积,该单个转置卷积层610利用习得内核执行上采样和内插,从而提高了模型分辨精细细节的能力。该操作之后是跳过连接拼接,如图6中从收缩路径602到扩张路径604的粗箭头所示。在拼接之后,应用两个3×3卷积层。
在至少一些实施方式中,修正线性单元(ReLU)用于卷积后的所有激活。也可以使用其他非线性激活函数,包括PReLU(参数ReLU)和ELU(指数线性单元)。
模型超参数
模型超参数可以存储于在训练期间读取的至少一个非临时性处理器可读存储介质(例如,配置文件)中。描述模型的参数可以包括:
·num_pooling_layers:池化(和上采样)层的总数;
·pooling_type:要使用的池化操作的类型(例如,最大池化操作);
·num_init_filters:第一层过滤的数量(卷积核);
·num_conv_layers:每个池化操作之间的卷积层的数量;
·conv_kernel_size:卷积核的边长,以像素为单位;
·dropout_prob:通过网络在批次的给定前向传播/反向传播算法上将特定节点的激活设置为零的概率;
·border_mode:在卷积之前补零输入特征映射的方法;
·activation:每次卷积之后使用的非线性激活函数;
·weight_init:用于初始化网络中权重的方法;
·batch_norm:是否在网络的下采样/收缩部分中的每个非线性之后使用批标准化;
·batch_norm_momentum:平均值和每个特征基(per-feature basis)上的标准差的批标准化计算中的动量;
·down_trainable:是否允许网络的下采样部分在看到新数据时学习;
·bridge_trainable:是否允许桥接卷积学习;
·up_trainable:是否允许网络的上采样部分学习;和
·out_trainable:是否允许产生像素级概率的最终卷积学习。
描述要使用的训练数据的参数可以包括:
·crop_frac:LMDB中的图像相对于原始图像的分数大小;
·height:图像的高度,以像素为单位;和
·width:图像的宽度,以像素为单位。
描述在训练期间补充使用的数据的参数可以包括:
·horizontal_flip:是否在水平方向上随机翻转输入/标签对;
·vertical_flip:是否在垂直方向上随机翻转输入/标签对;
·shear_amount:剪切图像/标签对的正/负极限值;
·shift_amount:移动图像/标签对的最大分数值;
·zoom_amount:放大图像/标签对的最大分数值;
·rotation_amount:旋转图像/标签对的正/负极限值;
·zoom_warping:是否一起使用缩放和扭曲;
·brightness:改变图像亮度的正/负极限值;
·contrast:改变图像对比度的正/负极限值;和
·alpha,beta:描述弹性变形强度的第一参数和第二参数。
描述训练的参数包括:
·batch_size:在每次前向传播/反向传播算法中显示网络的示例的数量;
·max_epoch:经由数据的最大迭代次数;
·optimizer_name:要使用的优化函数的名称;
·optimizer_lr:学习速率的值;
·objective:使用的目标函数;
·early_stopping_monitor:监控以确定模型训练何时停止训练的参数;和
·early_stopping_patience:early_stopping_monitor值没有增加之后,在停止模型训练之前,要等待的时期(epoch)数。
为了选择最优模型,可以对这些超参数执行随机搜索,并且可以选择具有最高验证精度的模型。
训练数据库
在至少一些实施方式中,可以使用存储用于训练的预处理图像/分割掩模对的闪电内存映射数据库(LMDB)。这种数据库结构与存储训练数据的其他方式相比具有许多优点。这些优点包括:密钥映射对于速度而言是字典式的;图像/分割掩模对以训练所需的格式存储,因此它们在训练时不需要进一步的预处理;并且读取图像/分割掩模对是计算成本很低的处理。
训练数据通常可以以多种其他格式存储,包括磁盘上的命名文件和基于每个图像的真值(ground truth)数据库的实时生成掩模。这些方法可以实现相同的结果,尽管它们可能会减慢训练过程。
可以为用于训练模型的输入/目标的每一个独特的组创建新的LMDB。这确保了图像预处理的训练期间不会减速。
训练期间缺失数据的处理
与以前仅涉及两个类别的细胞辨别任务(前景和背景)的模型不同,本文公开的SSFP模型试图区分四个类别,即背景,LV心内膜,LV心外膜和RV心内膜。为了实现这一点,网络输出可以包括三个概率图,每个非背景类一个。在训练期间,将三个类别中的每一类的真值二进制掩模与像素数据一起提供给网络。网络损失可以被确定为三个类别的损失的总和。如果图像中缺少三个真值掩模中的任何一个(意味着我们没有数据,而真值是一个空白掩模),那么在计算损失时可能会忽略该掩模。
在训练过程中明确说明缺少真值数据。例如,即使LV心外膜和RV心内膜的轮廓位置未知,也可以在定义了LV心内膜轮廓的图像上训练网络。不能考虑到缺失数据的更基本的结构只能在具有定义的所有三种类型轮廓的训练图像的子集(例如20%)上进行训练。以这种方式减少训练数据量会导致精度显著降低。因此,通过明确修正损失函数以考虑到缺失数据,使用完整的训练数据量,从而使网络学习更强大的功能。
训练数据库的创建
图7示出了用于创建SSFP LMDB的过程700。在702处,从SSFP真值数据库704提取轮廓信息。这些轮廓作为轮廓X位置和Y位置的字典存储在真值数据库704中,与特定的SSFP切片位置和时间点相关联。在706,来自相应的SSFP DICOM(医学数字成像和通信)图像708的像素数据与根据该信息创建的布尔(Boolean)掩模配对。在710处,***通过标准化图像、裁剪图像/掩模、以及调整图像/掩模的大小来预处理图像和掩模。在至少一些实施方式中,MRI被标准化,使得它们的平均值为零,并且使得一批图像的第1和第99百分位落在-0.5和0.5处,即它们的“可用范围”落在-0.5至0.5。图像可以被裁剪并调整大小,使得心室轮廓占据图像的较大比例。这导致更多的总前景类像素,使得更容易分辨心室的精细细节(特别是角落)并帮助模型收敛,所有这些都用较小的计算能力。
在712处,用于SSFP LMDB的唯一密钥被定义为级联示例UID和SOP示例UID的组合。在714处,将包括时间点、切片索引和LMDB密钥的图像和掩模元数据存储在数据帧中。在716处,对于每个密钥,将标准化的、经裁剪和调整大小的图像,以及经裁剪和调整大小的掩模存储在LMDB中。
DeepVentricle训练
图8示出了说明模型训练的过程800。至少在一些实施方式中,基于TensorFlow构建的开源代码封装器Keras可以用于训练模型。但是,使用原始TensorFlow、Theano、Caffe、Torch、MXNet、MATLAB或其他张量数学库可以实现相同的结果。
在至少一些实施方式中,数据集可以分为训练集、验证集和测试集。训练集用于模型梯度的更新,验证集用于评估在训练过程中“保持”数据的模型(例如,用于早停),在训练过程中完全不使用测试集。
在802处,训练被调用。在804处,一次一批地从LMDB训练集中读取图像和掩模数据。在806处,在至少一些实施方式中,如上所述,根据存储在模型超参数文件中的失真超参数来使图像和掩模失真。在808处,该批次通过网络进行处理。在810处,计算损失/梯度。在812处,权重根据指定的优化器和优化器学习速率而更新。在至少一些实施方式中,可以使用逐像素交叉熵损失函数和亚当(Adam)更新规则来计算损失。
在814处,***可以确定时期(epoch)是否完成。如果时期未完成,则该过程返回到动作804以读取另一批训练数据。在816处,如果时期完成,则在验证集上计算度量。例如,这种度量可以包括验证损失、验证精度,相对于仅预测大多数类别的初始模型的相对精度、f1评分、精度和召回率。
在818处,可以监测验证损失以确定模型是否改进。在820处,如果模型确实有所改进,则可以保存此时模型的权重。在822处,早停计数器可以被重置为零,并且可以在804处开始对另一个时期的训练。验证损失以外的度量(如验证精度)也可以用于指示评估模型性能。在824处,如果模型在时期之后没有得到改进,则早停计数器增加1。在826处,如果计数器没有达到其极限,则在804处开始对另一个时期的训练。在828处,如果计数器已达到其极限,则停止对模型的训练。这种“早停”方法用于防止过度拟合,但存在其他预防过度拟合的方法,例如使用较小的模型、增加退出水平、或L2正则化。
训练模型时不会使用测试集的数据。来自测试集的数据可以用来示出分割的示例,但是该信息并不用于训练或者相对于彼此排列模型。
推理
推理是利用训练好的模型预测新数据的过程。在至少一些实施方式中,可以使用网络应用(或“Web App”)进行推理。图9显示了一个示例性的流水线或过程900,通过它可以对新的SSFP研究进行预测。在902处,在用户已经在网络应用中加载了研究之后,用户可以调用推理服务(例如,通过点击“生成缺失的轮廓”图标),其自动生成任何缺失的(尚未构建的)轮廓。这种轮廓可以包括例如LV Endo、LV Epi、或RV Endo。在至少一些实施方式中,当由用户在应用中加载研究时或者当首次由用户将研究上传到服务器时,可以自动调用推理。如果在上传时间执行推理,那么预测可以在当时存储在非临时性处理器可读存储介质中,但是直到用户打开研究才显示。
推理服务负责加载模型、生成轮廓并将其显示给用户。在902处调用推理之后,在904处将图像发送到推理服务器。在906处,由推理服务使用的生产模型或网络被加载到推理服务器上。该网络可以预先从超参数搜索期间训练的模型的语料库中选择。可以基于精度、内存使用率和执行速度之间的折衷来选择网络。或者,用户可以通过用户偏好选项在“快速”或“准确”模型之间进行选择。
在908处,通过推理服务器一次处理一批图像。在910处,使用与以上讨论的训练期间所使用的相同的参数对图像进行预处理(例如,标准化、裁剪)。在至少一些实施方式中,应用推理时间失真,并且例如对每个输入图像的10个失真副本采用平均推理结果。此功能产生推理结果,这些结果对亮度、对比度、方向等的微小变化具有鲁棒性。
在所请求批次中的切片位置和时间点处执行推理。在912处,计算通过网络的前向传播。对于给定的图像,该模型在前向传播期间为每个像素生成每个类别的概率,这得到一组概率图,每个类别一个概率图,值为0至1。通过将每个像素的类别设置为具有最高标签映射概率的类别,将概率图转换为单个标签掩模。
在914处,***可以执行后处理。例如,在至少一些实施方式中,如果像素的所有概率都低于0.5,则该像素的像素类别被设置为背景。此外,为了移除虚假的预测像素,标签映射中不属于该类的最大连接区域的任何像素可以被转换为背景。在至少一些实施方式中,可以通过比较时间和空间中的相邻分割图并去除异常值来去除虚假像素。或者,因为给定的心室可能偶尔会作为两个不同的连接区域出现在单个切片中,例如,因为RV在心脏基部附近是非凸的,所以可以允许多个连接区域,但是较小的区域或远离跨越切片位置和时间的所有检测区域的形心的区域可以被移除。
在至少一些实施方式中,可以在914处执行后处理以满足一个或多个物理限制条件。例如,后处理可以确保在所有时间点的心肌体积是相同的。为了实现这一点,***可以动态地调整用于在将心内膜和心外膜概率图转换为轮廓之前对其进行二值化的阈值。例如,可以调整阈值以使得使用非线性最小二乘法报告的心肌体积的差异最小化。作为物理限制条件的另一个例子,后处理行为可以确保RV和LV不重叠。为了实现这一点,***可以只允许任何给定的像素属于一个类别,这是具有最高推理概率的类别。用户可以有配置选项来启用或禁用所选定的限制条件。
在916处,如果不是所有的批次都已被处理,则在908处将新的批次添加到处理流水线,直到已经在所有切片位置和所有时间点进行了推理。
在至少一些实施方式中,一旦构建了标签掩模,为了便于查看、用户交互、和数据库存储,掩模可以被转换为样条轮廓。第一步是通过标签掩模边界上的所有像素来将掩模转换为多边形。然后,使用基于以下中的角点检测算法将该多边形转换为用于样条的一组控制点:A.Rosenfeld和J.S.Weszka的“An improved method of angle detection ondigital curves”,Computers,IEEE Transactions on,C-24(9):940-941,1975年9月。来自这些掩模之一的典型多边形将具有数百个顶点。角点检测试图将其减少到一组大约十六个样条控制点。这减少了存储需求,并得到外观更平滑的分割。
在918处,这些样条被存储在数据库中,并在网络应用中显示给用户。如果用户修改样条,则可以使用经修改的样条更新数据库。
在至少一些实施方式中,通过在给定时间点根据所有顶点构建体积网格来计算体积。顶点在3D体积的每个切片上排序。对轮廓中的每个顶点,生成连接每个轮廓中的第一顶点的开放的三次样条,连接第二顶点的第二样条等,直到获得用于定义网格的圆柱形顶点网格。然后计算多边形网格的内部体积。基于计算出的体积,哪些时间点表示收缩末期和舒张末期是分别基于最小和最大体积的时间自主确定的,并且这些时间点被标记给用户。
图10、11和12分别示出了在单个时间点和切片位置处的LV Endo轮廓1002,LV Epi轮廓1102、以及RV Endo轮廓1202的应用中推理结果的示例性图像1000、1100和1200。
在轮廓(例如,轮廓1002、1102和1202)显示给用户的同时,***计算并向用户显示了ED和ES时的心室体积以及多个计算出的测量值。图13中示出了示例性界面1300,其显示了多个计算出的测量值。在至少一些实施方式中,这些测量值包括:每搏输出量(SV)1302,其是在一个心动周期中从心室射出的血量;射血分数(EF)1304,其是在一个心动周期中从心室射出的血池的分数;心输出量(CO)1306,其是血液离开心室的平均速率;ED质量1308,其是舒张末期心室的心肌质量(即心外膜-心内膜);和ES质量1310,其是收缩末期心室的心肌质量。
对于4D Flow数据,可以使用与上述SSFP数据相同的DeepVentricle结构、超参数搜索方法和训练数据库。训练4D Flow模型可以与上面讨论的SSFP操作相同,但是创建LMDB和推理会不同于4D Flow的实施方式。
4D Flow数据训练数据库构建
鉴于SSFP DICOM文件以SAX方向采集并存储,4D Flow DICOM被收集并存储为轴向切片。为了构建数据的SAX多平面重建(MPR),用户可需要为左心脏和/或右心脏放置相关的位置标志。然后这些位置标志被用于为由心室心尖和瓣膜限定的每个心室定义独特的SAX平面。图14示出了对于LV的SAX平面组1400(也称为SAX堆),其中每个SAX平面对于两腔视图1402、三腔视图1404和四腔视图1406而言是平行的。
如果需要,该应用还可以允许用户拥有不平行的SAX平面。图15示出了SAX堆的一组视图1500,其中,对于两腔视图1502、三腔视图1504、四腔视图1506和重建图像1508,对于RV的分割平面是不平行的。这是因为分割平面不与瓣膜平面相交而是平行于瓣膜平面的情况下,稍微更易于分割心室。但是,这不是必须的,并且可以在不使用该特征的情况下获得准确的结果。
如分别在图16和图17的图像1600和1700中所示,在每个SAX平面上的图像数据的多平面重建上进行分割。图像1606中的轮廓1604上的点1602定义了样条并且是存储在数据库中的内容。轮廓1604被投影到两腔LAX视图1608、三腔LAX视图1610和四腔LAX视图1612中。图17示出了图像1702、1704、1706和1708,其中图16的同一切片被分割,但是两腔视图1704、三腔视图1706和四腔视图1708中的每一个稍微旋转以突出具有深度效果的分割平面。
图18示出了根据临床医师注释来构建训练LMDB的过程1800。4D Flow注释可以存储在MongoDB 1802中。在1804和1806处,***分别提取轮廓和位置标志。轮廓存储为一系列定义轮廓样条的(x,y,z)点。位置标志存储为对于每个位置标志的单个四维坐标(x,y,z,t)。
在1808处,为了将轮廓转换为布尔掩模,***计算旋转矩阵以将轮廓点旋转到x-y平面上。该***还可以在轮廓的原始平面上定义采样网格,即一组(x,y,z)点。***通过相同的旋转矩阵旋转轮廓和采样网格,使得它们在x-y平面中。现在确定采样网格的哪些点位于定义轮廓的2D顶点内是一项简单的任务。这是2D多边形的简单计算几何问题。
4D Flow DICOM存储在数据库1810中。在1812处,***使用来自动作1806的位置标志注释和来自数据库1810的4D Flow DICOM,以沿着SAX堆定义和生成图像。一般来说,该SAX堆不同于其中定义了真值轮廓的原始SAX堆。***定义堆与连接左心室心尖(LVA)和二尖瓣(MV)的线正交。其他适当的位置标志的组合(如右心室心尖(RVA)和三尖瓣(TV))也可以类似地起作用。
在至少一些实施方式中,***定义LVA和MV之间的切片的数量(例如14),因为这与大多数SSFP SAX堆中的切片的数量类似。也可以使用不同数量的切片。更多的切片会增加训练集的多样性,尽管实际的磁盘大小会比多样性的增加更快。预计结果对切片的精确数目不敏感。
可以将四个切片附加到通过LVA的SAX堆,并且另外四个切片通过MV。这确保了整个心室在SAX堆内。结果可能对额外使用的切片的精确数量不敏感。通过确保主动脉瓣(AV)定位于连接LVA和MV的线的右侧,SAX堆可以被定向为使得RV总是在图像的左侧(如在心脏MR中常规的那样)。虽然定向的一致性可能对获得好的结果很重要,但确切的选择方向是任意的。
在1814处,在至少一些实施方式中,为了简化和加快训练和推理速度,给定研究的所有可用轮廓被内插到单个非曲线SAX堆上。一旦定义了SAX堆的平面,就为由原始采样网格描述的每个心室和时间点,即一系列(x,y,z)点以及它们相应的掩模设置线性内插器。然后***将来自原始SAX堆中的真值掩模内插到研究的通用SAX堆中。在图19的视图1900中示出了这样的示例,其示出了多平面重建1902、RV Endo掩模1904、LV Epi掩模1906和LV Endo掩模1908。在内插的真值掩模内使用标记(sentinel)来指示标签何时缺失。在图20中示出了这样的示例可视化视图2000,其示出了多平面重建2002、RV Endo掩模2004、缺失的LVEpi掩模2006和LV Endo掩模2008。
在至少一些实施方式中,可以将掩模投影到轴平面上并在轴平面中执行训练和推理,而不是将真值掩模投影到公共SAX堆。这可以实现类似的精度,但可能会导致轻微的分辨率损失,因为需要将推理的轮廓重新投影回SAX堆以显示在应用的用户界面中。
在1816处,***执行预处理操作。例如,预处理动作可以包括标准化图像、裁剪图像/掩模,以及调整图像/掩模的大小。
在1818处,***为4D Flow LMDB定义的唯一密钥是时间索引、切片索引、侧(“右”或“左”)、层(“Endo”或“Epi“)、上传ID、工作空间ID(一个人的注释的唯一标识符)和workflow_key(用于其中给定用户完成工作的工作流的唯一标识符)的字符串组合的32字符散列。或者,可以使用每个图像/掩模对的许多其他唯一密钥中的任意一个。在1820处,***将包括时间点、切片索引和LMDB密钥的图像和掩模元数据存储在数据帧中。经标准化、裁剪和调整大小的图像以及经裁剪和调整大小的掩模对于每个密钥存储在LMDB中1822。
4D Flow数据的DeepVentricle推理
与上面讨论的SSFP DeepVentricle推理一样,网络应用可以用于4D Flow数据的推理。图21示出了过程2100的流水线,***通过该流水线对新的4D Flow研究进行预测。在2102处,在用户已经在网络应用中加载了研究之后,用户可以通过与上述推理流水线类似且如图9所示的流水线来调用推理服务。已经手动或自动定义了位置标志(例如,通过下面讨论的自动位置标志查找算法)。
位置标志的位置用于构建执行推理的标准LV SAX堆。如上所述,SAX堆的构建方式与训练期间构建SAX堆的方式相同。在2104处,根据位置标志的位置计算描述SAX堆中的每个MPR所需的元数据。每个MPR的平面完全由平面上的点和平面的法线来限定,但该***在该实施方式中也通过连接二尖瓣和主动脉瓣的矢量,以确保图像定向正确。也就是说,右心室位于图像的左侧。另一组位置标志,如二尖瓣和三尖瓣,也可以足以确保右心室位于图像左侧。
在2106处,MPR元数据然后被发送到计算服务器,其保存数据的分布式版本(每个计算节点具有几个数据的时间点)。在2108处,每个节点在其可用的时间点呈现所请求的MPR。在2110处,然后,生成的MPR图像连同它们的元数据(其包括时间点、定向、位置和切片索引)按时间点均匀地分布在多个推理服务器上。在2112处,网络被加载到每个推理节点上。
在2114处,由每个推理节点一次处理一批图像。在2116处,图像被预处理。在2118处,计算前向传播。在2120处,对预测进行后处理,并且以与上述SSFP实施方式相同的方式来构建样条轮廓。
在2122处,在所有批次已经被处理之后,所生成的样条被转发回网络服务器,其中样条与来自其他推理节点的推理结果相连接。如果轮廓缺失,网络服务器通过在相邻切片之间进行内插来确保体积是连续的(即,体积中间没有缺失的轮廓)。在2124处,网络服务器将轮廓保存在数据库中,然后通过网络应用向用户呈现轮廓。如果用户编辑样条,样条的更新版本会保存在数据库中原始的自动生成的版本的旁边。在至少一些实施方式中,将手动编辑的轮廓与其原始的自动生成的版本进行比较可以用于仅对需要手动修正的推理结果再次训练或微调模型。
图22、23和24分别示出了分别在单个时间点和切片位置处的LV Endo(轮廓2202),LV Epi(轮廓2302)和RV Endo(轮廓2402)的应用推理的图像2200、2300和2400。与SSFP一样,ED和ES处的计算体积以及多个计算出的测量值可以呈现给用户(参见图13)。
三维端对端卷积结构
心室的端对端分割的另一种方法是在整个过程中使用体积图像、体积掩模和3D卷积核。这个实施方式的描述和操作都严格遵循上面讨论的SSFP实施方式,但是有一些关键的区别。因此,为了简洁起见,以下讨论主要集中在这些差异上。
除了卷积核是(N×M×K)像素而不是仅(N×M)像素之外,用于该实施方式的DeepVentricle结构与上述讨论的几乎相同,其中N、M和K是正整数,其可以彼此相等或不同。模型参数也看起来相似,但为了充分描述体积输入图像的形状,可能需要在描述训练数据时增加深度分量。
与其他实施方式一样,训练LMDB被用于该实施方式。用于该实施方式的LMDB可以以与上面讨论的4D Flow实施方式类似的方式来构建。然而,对于该实施方式,使用更多的切片来定义SAX,使得相邻切片之间的切片间隔与x和y方向上的像素间隔的切片间隔相似(即,像素间隔几乎是三维各向同性的)。只要所有研究中像素间距之间的比例保持不变,则各向异性的像素间距可能会实现类似的结果。然后SAX MPR和掩模按空间切片进行排序,并将这些切片连接成一个连贯的体积图像。根据上述参照图8所描述的相同的流水线来进行模型训练。
推理流水线也非常类似于4D Flow的实施方式。但是,在该实施方式中,在推理之前,需要将相邻的MPR连接成一个体积图像。
排除***肌
DeepVentricle自动分割模型的另一个实施方式是其中只有心室的血池被分割并且***肌被排除在外。在实践中,因为***肌很小且形状不规则,所以为了方便起见,它们通常包括在分割区域中。该从血池中排除***肌的实施方式的结构、超参数和训练数据库均与上述SSFP实施方式相似。然而,在该实施方式中,真值分割数据库包含排除***肌而不是包含它们的左心室和右心室心内膜注释。
因为从心内膜轮廓中排除***肌的分割对于构建而言是繁重的,所以训练数据的量可能显著小于不排除***肌的分割所能获得的量。为了对此进行补偿,首先可以使用经数据训练的卷积神经网络,其中***肌包括在心内膜分割中并且排除在心外膜分割之外。这使网络能够学习分割每个类别的一般大小和形状。然后,该网络在从分割中排除***肌的较小的一组数据上进行微调。结果是得到与前述分割相同类别但将***肌从心内膜分割排除的分割模型。这导致了比之前***肌包含在心内膜轮廓中时可得到的测量更精确的心室血池体积测量。
自动体积的其他视图的合成
传统的图像分类或分割神经网络结构一次对单个图像、可能的多通道(例如,RGB)图像、可能的体积图像进行操作。标准的2D方法包括网络一次对来自3D体积的单个切片进行操作。在这种情况下,仅来自该单个切片的信息用于对该切片中的数据进行分类或分段。这种方法的问题在于,没有将围绕该时间点或切片的背景结合到对关注的切片的推理中。标准3D方法利用3D内核并结合体积信息来进行体积预测。然而,这种方法很慢,需要大量的计算资源用于训练和推理。
下面讨论的一些混合方法可以用于优化内存/计算和模型的时空背景的可用性之间的折衷。空间背景对于靠近心脏基部的心室分割特别有用,其中二尖瓣和三尖瓣在单个2D切片上难以区分。时间背景和强化分割的一致性可以对分割的所有部分都有用。
在第一方法中,该问题被解释为2D问题,一次对单个切片进行预测,而相邻切片(空间上、时间上、或两者)被解释为图像的附加“通道”。例如,在时间t=5和切片=10时,可以构建9-通道的图像,其中将以下时间/切片组合的数据打包到以下9个通道中:t=4,切片=9;t=4,切片=10;t=4,切片=11;t=5,切片=9;t=5,切片=10;t=5,切片=11;t=6,切片=9;t=6,切片=10;和t=6,切片=11。在这种配置下,网络采用2D卷积来运行,但结合了来自附近空间和时间位置的数据,并通过标准神经网络技术来合成信息,该技术通过与学习内核卷积的输入通道的线性组合来构建特征映射。
第二方法针对心脏MRI的一些复杂性,尽管其可以用于采集数据的正交(或倾斜)平面的任何情况。在标准SSFP心脏MRI中,短轴(SAX)堆与一个或多个长轴(LAX)平面一起获取。LAX平面与SAX堆正交,并且LAX平面在沿着左心室长轴的方向上通常具有显著更高的空间分辨率。也就是说,由SAX堆的MPR构建的LAX图像比原始LAX图像具有更差的分辨率,因为SAX片间间距明显比LAX平面内像素间距粗大。由于长轴方向的空间分辨率较高,因此与SAX图像相比,LAX图像中的瓣膜更容易看到。
因此,可以使用两阶段心室分割模型。在第一阶段,心室被分割成一个或多个LAX平面。由于这些图像的高空间分辨率,分割可以非常精确。缺点是LAX平面仅由单个平面而不由体积组成。如果将此LAX分割投影到SAX堆,则LAX分割在每个SAX图像上显示为线。如果线跨越多个LAX视图(例如,2CH、3CH、4CH;参见下面的标题“用于定义手动LV/RV体积的瓣膜平面的界面”)分割而聚集,则可准确构建此线。该线可以用于限定SAX分割,SAX分割是通过对SAX图像进行操作的不同模型生成的。SAX分割模型使用原始SAX DICOM数据以及由LAX模型预测的投影线作为输入,以进行预测。预测的LAX线用于引导和限制SAX预测,特别是有助于心脏和瓣膜平面基部附近的模型,其中,当单独观察到SAX堆时,分割通常是模糊的。
该技术可以用于任何心脏成像,包括其中一次获取整个体积的4D Flow(并且不分开采集SAX和LAX图像),并且优点是尽管是在两个链式模型中,但仅需要采用2D内核。
自动体积的时间或流量信息的使用
SSFP电影研究包含4个维度的数据(3个空间,1个时间),4D Flow研究包含5个维度的数据(3个空间,1个时间,4个信息通道)。这4个信息通道是解剖结构(即信号强度),x轴相位,y轴相位和z轴相位。构建模型的最简单的方法是仅使用每个3D空间点处的信号强度,并且不包含时间信息,或者对于4D Flow而言,不包含流量信息。这个简单的模型需要将形状为(x,y,z)的3D数据立方体作为输入。
为了利用所有可用的数据,在至少一些实施方式中,还并入时间和相位数据。出于至少一些原因,这是特别有用的。首先,因为心脏的运动通常在心动周期中遵循可预测的模式,所以像素的相对运动可以特别地有助于识别解剖区域。其次,对于心动周期,通常记录约20个时间点,这意味着心脏在帧之间仅稍微运动。已知预测应该在帧之间仅仅稍微变化可以作为调整模型输出的方式。第三,可以使用流量信息来定位结构,例如瓣膜,其具有在低流量和高流量之间变化的非常规则的流动模式。
为了并入时间数据,时间可以作为额外的“通道”添加到强度数据中。在该实施方式中,模型然后将形状为(X,Y,NTIMES)的3D数据二进制大对象(blob)或形状为(X,Y,Z,NTIMES)的4D数据二进制大对象作为输入,其中NTIMES是要包括的时间点的数量。这可以是所有的时间点,或者是关注的时间点附近的几个时间点。如果包括所有时间点,则可能需要或必须用一些“包裹式”时间点来填充数据,因为时间表示心动周期并且本质上是周期性的。然后该模型可以涉及2D/3D卷积,其中时间点作为数据的附加“通道”,或包含3D/4D卷积。在前一种情况下,输出可以是关注的单个时间处的2D/3D。在后一种情况下,输出可以是3D/4D,并且可以包括与输入中所包括的相同时间点处的数据。
在4D Flow中获取的相位数据也可以以类似的方式结合,使用相位(x,y,z)的每个方向作为输入数据的附加通道,或者仅使用相位幅度作为单一附加通道。在没有时间但有流动的所有三个分量的情况下,输入具有形状(X,Y,Z,4),其中4表示像素强度和三个相位分量。在有时间的情况下,该形状是(X,Y,Z,NTIMES,4)。在这样的实施方式中,模型因此进行4维或5维卷积。
自动化4D Flow位置标志
本文讨论的***和方法还能够自动检测3D MRI中的多个心脏位置标志的区域。该***处理具有不同位置、定向和成像心脏外观的不同组的MRI。而且,该***有效地处理了基于具有不完整注释的数据库来学习的问题。更具体地说,该***解决了当仅为训练集上的每个输入体积图像定位了一些位置标志时,检测图像中的每个位置标志的问题。
一般来说,流水线是一种端对端的机器学习算法,其从原始3D图像自动输出所需的位置标志的位置。有利地,该***不需要来自用户的预处理或先验知识。此外,体积图像中检测到的位置标志可以用于沿着2CH、3CH、4CH和SAX视图投影图像。这样可以自动构建这些视图,而无需用户干预。
首先,讨论解决方案的第一实施方式。在这个实施方式中,心脏位置标志使用具有许多层的神经网络来定位。该结构是三维(3D)的并使用3D卷积。本说明重点在于检测三个左心室位置标志(LV心尖、二尖瓣和主动脉瓣)和三个右心室位置标志(RV心尖、三尖瓣和肺动脉瓣)。然而,值得注意的是,如果这些注释可作为真值的一部分获得,则该方法可以用于利用可比较的结果来检测更多不同的心脏位置标志。
类似于先前描述的DeepVentricle结构,本公开的位置标志检测方法是基于卷积神经网络的。从临床图像的数据库标志中提取位置标志检测所需的信息以及它们的注释(即位置标志的位置)。图25、26和27分别示出了三个患者的图像2500、2600、2700,其中左心室心尖、二尖瓣和右心室心尖分别已经使用网络应用(例如以上讨论的网络应用)定位。请注意本示例中缺少主动脉瓣、肺动脉瓣和三尖瓣的注释。
首先描述数据处理流水线。本节详细介绍了构建带注释的图像的数据库的方法以及用于对位置标志的位置进行编码的具体方法。其次,提出了机器学习方法的结构。提出了网络如何将输入的3D图像转换为位置标志的位置的预测。第三,描述了模型如何训练为可用数据。最后,详细介绍了推理流水线。它示出了如何将神经网络应用于之前从未用过的图像,以预测所有六个位置标志的区域。
数据处理流水线
对于所提出的机器学习方法,使用4D Flow数据的数据库,其包括心脏的三维(3D)磁共振图像(MRI),其被存储为一系列二维(2D)DICOM图像。通常,贯穿单个心动周期获取约20个3D体积图像,每个对应于心跳的一个快照。因此初始数据库对应于不同患者在不同时间阶段的3D图像。每个3D MRI都会呈现一系列位置标志注释,从零个位置标志到六个位置标志,由网络应用的用户放置。如果存在位置标志注释,则存储为坐标为(x,y,z,t)的矢量,其指示了对应于时间点t的3D MRI中的位置标志的位置(x,y,z)。
图28示出了过程2800,其之后可以处理4D Flow图像的2D DICOM切片2802以及存储在MongoDB数据库中的注释2804。
在2806处,从MongoDB数据库中提取位置标志坐标。然后,在2808处,通过根据2DDICOM图像沿着z轴的位置(即沿着深度维度堆叠2D图像以构建3D体积)堆叠来自单个时间点的2D DICOM图像,从该一系列2D DICOM图像中提取3D MRI。这得到了表示心脏的完整视图的体积3D图像。LMDB是用被至少一个位置标志的位置注释过的3D图像构建的。这意味着没有真值位置标志的图像不包含在LMDB中。
在2810处,定义标签映射,其通过将在稍后阶段中使用的神经网络,以可理解的方式对注释信息进行编码。位置标志的位置通过在3D体积的每个位置处指示该位置在位置标志的位置处的可能性进行编码。为此,构建了3D高斯概率分布,以真值位置标志的位置为中心,标准差对应于所有训练数据中该类位置标志的观察到的评判间信度。
为了理解评判间信度,考虑一个具体的位置标志,比如LV心尖。对于LV心尖由多个用户或“评估者”注释的每项研究,计算所有用户的LV心尖坐标的标准差。通过对每个位置标志重复该过程,定义了用于编码每个位置标志的高斯的标准差。该过程允许以条理化方式设置该参数。在使用该方法的不同优点中,值得注意的是每个位置标志的标准差是不同的,并且取决于定位位置标志的复杂性。具体而言,比较难的位置标志在目标概率图中具有较大的高斯标准差。此外,标准差沿着x、y和z轴是不同的,这反映了由于心脏的解剖结构和/或图像的分辨率,沿着一个方向而不是另一个方向的不确定性可能更大。
请注意,替代策略也可用于定义标准差(任意值,参数搜索)并可以得到可比较的结果。图29示出了从利用视图2904中的交点2902标识的位置标志的位置到2D情况下的图像上评估的视图2908中的高斯2906的这种转变。
在2812处,一旦为MRI和标签映射两者定义了三维体积,图像就被处理。一般来说,目标是对未来训练的图像大小和外观进行标准化。
图30示出了用于预处理流水线的过程3000。在3006和3008处,3D MRI3002和标签映射3004分别被调整为预定义的大小$n_x\times n_y\times n_z$,以使得所有MRI可以被提供给相同的神经网络。在3010处,MRI像素的强度在第1百分位和第99百分位之间被剪切。这意味着像素强度将在对应于第1百分位和第99百分位的强度值处饱和。这消除了可能由人为因素引起的异常像素强度。在3012处,强度然后被缩放至0至1。在3014处,然后,使用对比度受限的自适应直方图均衡化将强度直方图标准化,以最大化图像中的对比度并且使图像内强度差异最小化(强度差异可能由例如磁场不均匀性引起)。最后,在3016处,图像被居中以具有零均值。其他策略可以用于图像强度的标准化,例如将输入的方差标准化为1,并且可以产生类似的结果。该流水线产生可以提供到网络的预处理图像3018和标签3020。
图31和32示出了预处理3D MRI和编码标签的两名患者的示例性图像3100和3200。具体地,图31示出了一名患者的预处理的输入图像和编码二尖瓣位置标志的矢状面图3102、轴面图3104和冠状图3106,并且图32示出了另一患者的预处理的输入图像和编码二尖瓣位置标志的矢状面图3202、轴面图3204和冠状图3206。如图31和图32所示,三尖瓣的定位的不确定性大于二尖瓣定位的不确定性。而且,不确定性在轴之间是不同的。
返回到图28,在2814处,上传ID被定义为识别在2816处存储在训练LMDB数据库中的对(MRI,标签映射)的密钥。最后,在2818处,该对(MRI,标签映射)被写入LMDB。
网络结构
如上所述,深度神经网络用于检测位置标志。该网络将预处理的3D MRI作为输入,并输出六个3D标签映射,每个位置标志一个。此实施方式中使用的结构与上述结构类似或相同。网络由两条对称路径组成:收缩路径和扩张路径(见图6)。
由于在可用的训练数据中并非所有标志都可用,因此本公开的***和方法有利地处理标签中的缺失信息,同时仍能够同时预测所有位置标志。
用于位置标志检测的网络与上面讨论的DeepVentricle实施方式在三个主要方面上不同。首先,结构是三维的:网络一次处理3D MRI,为每个位置标志生成3D标签映射。其次,网络预测6个类别,每个位置标志一个。第三,在超参数搜索之后选择的参数可以与DeepVentricle参数不同,并且专门选择用于解决手头的问题。另外,上面讨论的用于定义标签映射的标准差可以被认为是超参数。网络的输出是3D映射,其对位置标志所在的位置进行编码。映射的高值可以对应于可能的位置标志的位置,低值可以对应于不太可能的位置标志的位置。
训练
以下讨论描述了如何使用3D MRI和标签映射对的LMDB数据库来训练深度神经网络。总体目标是调整网络的参数,使得网络能够预测先前看不见的图像上的心脏位置标志的位置。训练过程的流程图如图8所示并如上述。
训练数据库可以划分成用于训练模型的训练集、用于量化模型品质的验证集、和测试集。该划分使所有来自单个患者的图像位于同一组中。这保证了该模型不被用于训练的患者验证。训练模型时不会使用来自测试集的数据。来自测试集的数据可以用来示出位置标志定位的示例,但是该信息并不用于训练或者相对于彼此排列模型。
在训练期间,使用损失的梯度来更新神经网络的参数。在至少一些实施方式中,可以利用加权位置标志所在的区域中的损失来提供网络的更快收敛。更确切地说,在计算损失时,与图像的其余部分相比,可以将更大的权重应用于靠近位置标志的图像区域。结果是,网络更迅速地收敛。但是,使用非加权损失也可以获得良好的结果,尽管训练时间较长。
推理
在给定新图像的情况下,通过与以上参照图28所描述的方式相似的方式预处理图像来推理得到位置标志的位置。更准确地说,图像可以被调整大小、剪切、缩放,图像的直方图被均衡化且图像可以居中。网络为每个位置标志输出一个映射,在六个位置标志的情况下输出总共六个3D映射。这些映射描述了每个位置标志在特定位置被发现的概率。或者,可以将映射视为根据位置标志的真值位置对反距离函数进行编码(即,高值获得小距离,低值获得大距离)。
如此,如图33的图表3300所示,可以通过查找神经网络为每个位置标志输出的最大值来确定位置标志的位置3302。然后将该位置投影到原始未预处理的3D输入MRI的空间中以用于最终的位置标志定位(例如,消除在推理期间施加到该体积的任何空间失真)。注意,可以使用其他几种策略将标签映射转换为位置标志的位置坐标。例如,可以使用标签映射将预期位置作为3D概率密度。请注意,取最大值对应于考虑密度的模式。或者在选择最大值或预期值作为位置之前,可以首先对概率估计进行平滑化。
数据收集
在至少一些实施方式中,数据集由先前用户在网络应用上上传的临床研究组成。注释可以由用户放置在不同的图像上。如前所述,该数据集被划分为训练集、验证集和测试集。
神经网络可以使用前述的并在图8中示出的流水线来训练。从训练集中提取的批次数据被顺序地提供到神经网络。计算网络预测和真值位置标志的位置之间的损失梯度并将其反向传播以更新网络的固有参数。如上所述,使用超参数搜索来选择其他模型超参数(例如网络大小,形状)。
模型可访问性
经训练的模型可以作为云服务的一部分存储在服务器上。该模型可以在推理时加载在多个服务器上,以并行地在几个时间点检测位置标志。该过程与上述的并在图9中示出的用于DeepVentricle的方法类似。
用户交互
当心脏MRI被上传到网络应用时,用户可以选择“心脏”部分下的“视图”按钮。这会打开带有“定位位置标志”按钮的图像右侧的新面板。选择此按钮则在每个时间点自动定位每个3D图像上的六个位置标志。所定位的位置标志的列表在右侧面板上可见。选择位置标志名称会将图像的焦点带到预测的位置标志的位置,并允许用户进行任何被视为必要的修改。一旦用户满意,用户可以选择“标准视图”按钮来构建心脏的标准2腔、3腔、4腔和SAX视图。
在至少一些实施方式中,获取的3D图像是4D Flow序列。这意味着信号的相位也被获取,并且可以用于量化心脏和动脉中的血流速度,如图34的图像3400所示,其示出了四个不同的视图。该信息可以用来定位心脏的不同位置标志。在这种情况下,先前描述的模型可以被扩充以包括流量信息。
图像预处理
在4D Flow中,对于每个患者,在采集的每个时间点都可以获得流速信息。为了充分利用该信息,可以在3D图像的每个体素处计算沿着时间轴的标准差。标准差的幅度与一次心跳过程中该像素的血流变化量相关联。然后,根据之前描述的标准化流水线对标准差图像进行标准化:调整大小、剪切、缩放、直方图均衡化、居中。请注意,可以考虑其他几种方法来编码流数据的时间信息。例如,可以沿着最后维度来计算4D信号的傅里叶变换,并且可以使用各种频率窗口(frequency bin)对信号进行编码。更一般地说,整个时间序列可以输入到网络,代价是需要额外的计算和存储功率。
网络扩展
神经网络的输入也可以通过额外的通道进行扩展。更确切地说,可以定义四维(4D)张量,其中最后维度将解剖像素强度和流量大小或速度分量编码为单独的通道。上述的网络可以扩展为接受这种张量作为输入。这需要扩展第一层以接受4D张量。网络训练、推理和用户交互的后续步骤仍与先前描述的类似。
在至少一些实施方式中,可以通过直接预测不同位置标志的坐标(x,y,z)来实现心脏位置标志的自动定位。为此,可以使用不同的网络结构。这个替代网络可以由收缩路径,之后是几个全连接层组成,具有(x,y,z)坐标的长度为3的矢量作为每个位置标志的输出。这是回归网络,而不是分割网络。注意与分割网络不同,在回归网络中,网络中没有扩张路径。其他结构也可以使用相同的输出格式。在至少一些实施方式中,如果给出4D数据(x,y,z,time)作为输入,则时间也可以作为第四维包括在输出中。
假设时间没有被并入,网络的输出是十八个标量,对应于输入图像中六个标志中每一个的三个坐标。这样的结构可以以与先前描述的位置标志检测器类似的方式进行训练。唯一需要的更新是损失的重新形成,以考虑网络输出格式(不同于第一实施方式中使用的概率图,在该实施方式中是空间点)的变化。一个合理的损失函数可以是网络输出与真值位置标志坐标之间的L2(平方)距离,但是也可以使用其他损失函数,只要损失函数与所关注的量相关,即距离误差。
上面讨论的第一个位置标志检测实施方式也可以使用充当鉴别器网络的第二神经网络来扩展。可以对鉴别器网络进行训练,以区分好的、真值的位置标志的位置和坏的、不为真值的位置标志的位置。在这个情况下,该实施方式的初始网络可以用于为每种类型的位置标志生成几个位置标志建议,例如通过使用预测的位置标志概率分布的所有局部最大值。鉴别器网络然后可以评估每个建议,例如,通过使用围绕该标志建议的高分辨率补丁上的分类结构。然后将具有为真值位置标志的最高概率的建议作为输出。这种实施方式可能有助于在不明确的情况下选择正确的位置标志的位置,例如存在噪声或伪影的情况下。
另一种检测心脏位置标志的方法是使用强化学习。在这个不同的框架中,考虑了沿着3D图像行走的智能体。智能体首先被放置在图像的中间。然后智能体遵循规则直到智能体达到位置标志的位置。该规则表示每个步骤中智能体的决策过程:向左、向右、向上、向下、向前或向后移动。可以使用深度神经网络来学习该规则,深度神经网络接近使用Q-学习算法的状态动作函数Q的Bellman方程。然后,可以为每个要检测的位置标志学习一个Q函数。
在至少一些实施方式中,可以使用神经网络来直接预测定义了标准视图的平面的位置和方向的参数。例如,可以训练网络来计算将起始像素网格移动到长轴视图所需的3D旋转角度、平移和尺寸变换。可以训练单独的模型来预测不同的转换,或者可以使用单个模型来输出多个视图。
定义手动LV/RV体积的瓣膜平面的界面
为了更准确地分割左心室和右心室,识别心脏瓣膜的位置和方向会是有利的。在至少一些实施方式中,在前述的心室分割界面内,用户能够使用可用的长轴视图来标记位于瓣膜平面上的点。通过执行回归以找到最佳拟合的平面而由这些输入点确定瓣膜平面。该平面的法线设置为远离心室的心尖。一旦定义了平面,位于正侧的体积的任何部分都从心室的总体积中减去。这确保了在确定心室体积时不包括瓣膜外的任何部分。
示例性的基于处理器的设备
图35示出了一种环境3500,其包括适合于实施本文所述的各种功能的基于处理器的设备3504。尽管不是必需的,但是将在处理器可执行指令或逻辑的一般情况下描述实施方式的一些部分,例如由一个或更多个处理器执行的程序应用模块、对象或宏。相关领域的技术人员会认识到,所描述的实施方式以及其他实施方式可以利用各种基于处理器的***配置来实践,所述各种基于处理器的***配置包括手持设备,例如智能电话和平板电脑、可穿戴设备、多处理器***、基于微处理器或可编程的消费性电子产品、个人计算机(“PC”)、网络PC、小型计算机、大型计算机等。
基于处理器的设备3504可以包括一个或更多个处理器3506、***存储器3508和***总线3510,***总线3510将包括***存储器3508的各种***部件连接到处理器3506。基于处理器的设备3504有时在本文中将以单数被提及,但是这不旨在将实施方式限制为单个***,因为在某些实施方式中,将涉及更多个的***或其他网络化的计算设备。市售***的非限制性示例包括但不限于来自各制造商的ARM处理器、来自美国Intel公司的Core微处理器、来自IBM的PowerPC微处理器、来自Sun Microsystems公司的Sparc微处理器、来自Hewlett-Packard公司的PA-RISC系列微处理器、来自Motorola公司的68xxx系列微处理器。
处理器3506可以是任何逻辑处理单元,诸如一个或更多个中央处理单元(CPU)、微处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)等。除非另有说明,图35中所示的各方框的构造和操作是常规设计。因此,这些方框不需要在此进一步详细描述,因为相关领域的技术人员会理解它们。
***总线3510可以使用任何已知的总线结构或架构,包括具有存储器控制器的存储器总线、***总线和局域总线。***存储器3508包括只读存储器(“ROM”)1012和随机存取存储器(“RAM”)3515。可以形成ROM 3512的一部分的基本输入/输出***(“BIOS”)3516包含在基于处理器的设备3504内的元件之间帮助传送信息的基本例程,诸如在启动期间。一些实施方式可以使用数据、指令和电力的单独的总线。
基于处理器的设备3504还可以包括一个或更多个固态存储器,例如闪存或固态驱动器,其为基于处理器的设备3504提供计算机可读指令、数据结构、程序模块和其他数据的非易失性存储。虽然未示出,但基于处理器的设备3504可以采用其他非临时性计算机或处理器可读介质,例如硬盘驱动器、光盘驱动器或存储卡介质驱动器。
程序模块可以存储在***存储器3508中,例如操作***3530、一个或更多个应用程序3532、其他程序或模块3534、驱动程序3536和程序数据3538。
例如,应用程序3532可以包括平移/滚动3532a。这样的平移/滚动逻辑可以包括但不限于确定指示物(例如,手指、指示笔、光标)在何时和/或何处进入用户界面元件的逻辑,该用户界面元件包括具有中心部分和至少一个边界的区域。这种平移/滚动逻辑可以包括但不限于确定用户界面元件的至少一个元件显示出移动所应处于的方向和速率的逻辑,并且使得显示更新,以使得至少一个元件以所确定的速率在所确定的方向上显示移动。例如,平移/滚动逻辑3532a可以被存储为一个或更多个可执行指令。平移/滚动逻辑3532a可以包括处理器和/或机器可执行逻辑或指令,以使用表征指示物移动的数据来生成用户界面对象,例如来自触摸感应显示器或来自计算机鼠标或轨迹球或其他用户界面设备的数据。
***存储器3508还可以包括通信程序3540,例如,用于允许基于处理器的设备3504访问并与其他***交换数据的服务器和/或网络客户端或浏览器,其他***例如用户计算***、互联网上的网站、公司内部网、或如下所述的其他网络。所示实施方式中的通信程序3540是基于标记语言的,例如超文本标记语言(HTML)、可扩展标记语言(XML)或无线标记语言(WML),并且使用标记语言进行操作,所述标记语言使用添加到文件数据的语法分隔字符来表示文件结构。许多服务器和/或网络客户端或浏览器可以在市场上买到,例如来自加利福尼亚的Mozilla公司和华盛顿的微软公司的那些。
虽然在图35中示出的为存储在***存储器3508中,但操作***3530、应用程序3532、其他程序/模块3534、驱动程序3536、程序数据3538和服务器和/或通信程序3540(例如浏览器)可以存储在任何其他的各种非临时性处理器可读介质中(例如,硬盘驱动器、光盘驱动器、SSD和/或闪存)。
用户可以通过指示物输入命令和信息,例如通过输入设备,如通过手指3544a、触控笔3544b输入的触摸屏3548,或通过控制光标的计算机鼠标或轨迹球3544c来输入命令和信息。其他输入设备可以包括麦克风、操纵杆、游戏手柄、平板电脑、扫描仪、生物扫描设备等。这些和其他输入设备(即“I/O设备”)通过接口3546连接到处理器3506,所述接口3546例如触摸屏控制器和/或将用户输入连接到***总线3510的通用串行总线(“USB”)接口,但是可以使用其他接口如并行端口、游戏端口、或无线接口、或串行端口。触摸屏3548可以经由视频接口3550(诸如视频适配器)连接到***总线3510,以接收经由触摸屏3548显示的图像数据或图像信息。尽管未示出,但基于处理器的设备3504可以包括其他输出设备,如扬声器、振动器、触觉致动器等。
基于处理器的设备3504可以在使用一个或更多个逻辑连接的网络环境中操作,以经由一个或更多个通信信道(例如一个或更多个网络3514a、3514b)与一个或更多个远程计算机、服务器和/或设备通信。这些逻辑连接可以有助于允许计算机进行通信的任何已知的方法,例如通过一个或更多个LAN和/或WAN,如因特网和/或蜂窝通信网络。这种网络环境在有线和无线企业范围的计算机网络、内联网、外联网、因特网和包括电信网络、蜂窝网络、寻呼网络和其他移动网络的其他类型的通信网络中是众所周知的。
当在网络环境中使用时,基于处理器的设备3504可以包括用于在网络上建立通信的一个或更多个有线或无线通信接口3552a、3552b(例如,蜂窝无线电、WI-FI无线电、蓝牙无线电),例如互联网3514a或蜂窝网络3514b。
在网络环境中,程序模块、应用程序、或数据、或其部分可以存储在服务器计算***(未示出)中。相关领域的技术人员会认识到,图35中所示的网络连接只是在计算机之间建立通信的方式的一些实施例,并且可以使用其他连接,包括无线连接。
为了方便起见,处理器3506、***存储器3508、网络和通信接口3552a、3552b被图示为经由***总线3510彼此可通信地连接,由此提供上述部件之间的连接。在基于处理器的设备3504的替代实施方式中,上述部件可以以与图35中所示的方式不同的方式可通信地连接。例如,一个或更多个上述部件可以直接连接到其他部件,或者可以经由中间部件(未示出)彼此连接。在一些实施方式中,省略了***总线3510,并且使用合适的连接将这些部件直接彼此连接。
FastVentricle
心脏磁共振(CMR)成像通常用于评估心脏结构和功能。CMR的一个缺点是检查的后处理很繁琐。如果没有自动化,通过CMR对心脏功能的精确评估通常需要注释器对每个病例花费数十分钟来手动构建心室结构的轮廓。通过生成能够由注释器轻微修改的轮廓建议,自动构建轮廓能够减少每个患者所需的时间。全卷积网络(FCN)是卷积神经网络的一种变型,已被用于快速推进自动分割的现有技术,这使得FCN成为心室分割的自然选择。然而,FCN受其计算成本的限制,这增加了经济成本并降低了生产***的用户体验。为了克服这个缺点,我们开发了FastVentricle架构,这是一种基于最近开发的ENet架构的心室分割FCN架构。FastVentricle比先前最先进的心室分割结构快4倍,并且FastVentricle运行的内存比先前最先进的心室分割架构少6倍,同时仍能保持出色的临床精度。
FastVentricle介绍
已知或疑似心血管疾病的患者通常接受心脏MRI以评估心脏功能。这些扫描用心室轮廓注释,以计算收缩末期(ES)和舒张末期(ED)的心脏体积。根据心脏体积,能够计算相关的诊断量,例如射血分数和心肌质量。对于每个病例手动构建轮廓可能需要超过30分钟,因此放射科医师经常使用自动化工具来帮助加快这一过程。
图36示出了具有跳过连接的全卷积编码器-解码器架构的示意图,该跳过连接利用比收缩路径更小的扩张路径。
活动轮廓模型是基于启发式的分割方法,其先前已用于心室的分割。参见Kass,M.,Witkin,A.,Terzopoulos,D.:Snakes:Active contour models.InternationalJournal of Computer Vision(1988)321-331;Zhu,W.等:A geodesic-active-contour-based variational model for short-axis cardiac MRI segmentation.Int.Journalof Computer Math.90(1)(2013)。然而,基于活动轮廓的方法不仅在低对比度的图像上表现不佳,而且对初始化和超参数值也敏感。用于分割的深度学习方法最近通过使用全卷积网络(FCN)而被定义为最新技术。参见Long,J.,Shelhamer,E.,Darrell,T.:Fullyconvolutional networks for semantic segmentation.In:Proceedings of the IEEECVPR.(2015)3431-3440。FCN背后的一般构思是使用下采样路径来学习各种空间尺度的相关特征,然后使用上采样路径来组合逐像素预测的特征(参见图36)。DeconvNet率先使用对称的契约扩张架构进行更详细的分割,代价是更长的训练和推理时间以及对更大的计算资源需求。参见Noh,H.,Hong,S.,Han,B.:Learning deconvolution network for semanticsegmentation.In:Proceedings of the IEEE ICCV.(2015)1520-1528。U-Net最初开发用于通常具有较少的训练图像并且需要更高分辨率的生物医学社区,在收缩和扩张路径之间增加了跳过连接的使用以保留细节。参见Ronneberger,O.,Fischer,P.,Brox,T.:U-net:Convolutional networks for biomedical image segmentation.In:InternationalConference on Medical Image Computing and Computer-Assisted Intervention,Springer(2015)234-241。
下采样和上采样层之间存在一一对应关系的完全对称体系架构的一个缺点是,它们可能很慢,特别是对于大输入图像。ENet(替代的FCN设计)是一种针对速度进行优化的非对称架构。Paszke,A.,Chaurasia,A.,等:ENet:A deep neural network architecturefor real-time semantic segmentation.arXiv preprint arXiv:1606.02147(2016)。ENet利用早期下采样仅使用少量特征映射来减小输入大小。这提高了速度,因为当图像处于全分辨率时,网络的大部分计算负荷发生,并且对精度的影响最小,因为此阶段的大部分视觉信息都是多余的。此外,ENet作者表明,FCN中扩张路径的主要目的是对收缩路径习得的细节进行上采样和微调,而不是学习复杂的上采样特征;因此,ENet利用比其收缩路径小的扩张路径。ENet还利用了瓶颈模块,这些模块是具有小感知区域的卷积,用于将特征映射投影到可以应用更大内核的低维空间。参见He,K.,Zhang,X.,Ren,S.,Sun,J.:Deepresidual learning for image recognition.In:Proceedings of the IEEE CVPR.(2016)770-778。瓶颈还包含上面刚刚引用的He,K.的论文中的残差连接。ENet还使用与瓶颈路径并联的路径,该路径仅包括零个或更多个池化层,以直接将信息从较高分辨率层传递到较低分辨率层。最后,在整个网络中,ENet利用各种低成本卷积操作。除了更昂贵的n×n卷积之外,ENet还使用更便宜的不对称(1×n和n×1)卷积和扩张卷积。参考Yu,F.,Koltun,V.:Multi-scale context aggregation by dilated convolutions.arXivpreprint arXiv:1511.07122(2015)。
深度学习已成功应用于心室分割。参考Avendi,M.等:A combined deep-learningand deformable-model approach to fully automatic segmentation of the leftventricle in cardiac MRI.MedIA 30(2016);Tran,P.V.:A fully convolutionalneural network for cardiac segmentation in short-axis MRI.arXiv preprintarXiv:1604.00494(2016)。在这里,我们提出FastVentricle,其是一种具有UNet式跳过连接的ENet变型,用于分割LV Endo、LV Epi和RV Endo。更具体地说,我们在图像大小相似时增加了使用从收缩路径到扩张路径的跳过连接的可能性。详细地说,我们在初始块的输出和第5节的输入之间,以及第1节的输出和第4节的输入之间添加了跳过连接(有关各节的名称,请参阅上文中的paszke)。在本公开中,我们将FastVentricle与先前的UNet变型(DeepVentricle)进行比较。Lau,H.K.等:DeepVentricle:Automated cardiac MRIventricle segmentation using deep learning.Conference on Machine Intelligencein Medical Imaging(2016)。我们发现,与使用DeepVentricle进行推理相比,使用FastVentricle进行推理所需的时间和内存要少得多,并且FastVentricle实现了与DeepVentricle相当的分割精度。
FastVentricle方法
训练数据。我们使用1143短轴电影稳态自由进动(SSFP)扫描数据库,该数据库被注释为合作机构标准临床护理的一部分,以训练和验证我们的模型。我们按时间顺序将数据分为80%用于训练,10%用于验证,10%用作保留集。在本公开的该节部分中讨论的所有实验使用验证集。注释的轮廓类型包括LV Endo、LV Epi和RV Endo。在ED和ES处对扫描结果进行注释。用不同的频率注释轮廓;96%(1097)的扫描结果具有LV Endo轮廓,22%(247)的扫描结果具有LV Epi轮廓,85%(966)的扫描结果具有RV Endo轮廓。
训练。在至少一些实施方式中,我们使用带有TensorFlow的Keras深度学习包作为后端来实现和训练我们的所有模型,尽管其他深度学习包也是足够的。参见Chollet,F.:Keras.https://github.com/fchollet/keras(2015);Abadi,M.,Agarwal,A.,Barham,P.,Brevdo,E.,Chen,Z.,Citro,C,Corrado,G.S.,Davis,A.,Dean,J.,Devin,M.等:Tensorflow:Large-scale machine learning on heterogeneous distributedsystems.arXiv preprint arXiv:1603.04467(2016)。我们修改标准的逐像素交叉熵损失,以解释我们的数据集中缺少的真值注释。我们丢弃了对缺少真值的图像进行计算出的损失成分;我们只反向传播真值已知的损失的成分。这使我们能够对完整的训练数据集进行训练,包括具有缺失轮廓的序列。在至少一些实施方式中,根据Adam规则更新权重。参考Kingma,D.,Ba,J.:Adam:A method for stochastic optimization.arXiv preprintarXiv:1412.6980(2014)。在至少一些实施方式中,我们监视逐像素精度以确定模型何时收敛。为了比较不同的模型,我们使用相对绝对体积误差(RAVE),因为体积精度对于精确的派生诊断量是至关重要的。RAVE定义为|Vpred-Vtruth|/Vtruth,其中Vtruth是真值体积,Vpred是根据收集的2D预测分割掩模计算的体积。使用相对度量可以确保给予儿童心脏和成人心脏相等的重量。可以使用截头锥体近似根据分割掩模计算体积。
数据预处理。在至少一些实施方式中,我们对所有MRI进行标准化,使得一批图像的第1和第99百分位落在-0.5和0.5,即它们的“可用范围”落在-0.5至0.5。其他标准化方案,例如自适应直方图均衡,也是可行的。我们裁剪并调整图像大小,使得心室轮廓占据较大比例的图像;实际裁剪和调整大小因素是超参数。裁剪图像会增加前景(心室)类占据的图像比例,从而更容易分辨精细细节并帮助模型收敛。
图37示出了比较在ED(左版块)和ES(右版块)处LV Endo、LV Epi和RV Endo中的每一个的FastVentricle和DeepVentricle之间的相对绝对体积误差(RAVE)的框图。方框中心的线表示RAVE的中位数,方框的两端显示分布的25%(Q1)和75%(Q3)。根据Matplotlib默认值定义晶须。
超参数搜索。我们使用随机超参数搜索来微调ENet和UNet网络架构。参见Bergstra,J.,Bengio,Y.:Random search for hyper-parameter optimization.Journalof Machine Learning Research 13(Feb)(2012)281-305。在实践中,对于每个UNet和ENet架构,i)运行具有固定数量的时期的随机超参数集的模型,ii)从得到的模型语料库中选择具有最高验证集精度的N个模型(其中N是事先确定的小整数),iii)基于最低平均RAVE从N个候选者中选择最终模型。在至少一些实施方式中,UNet架构的超参数包括批标准化的使用、丢失概率、卷积层数、初始过滤器的数量以及池化层的数量。在至少一些实施方式中,ENet架构的超参数包括非对称卷积的内核大小、网络的第2节的重复次数、初始瓶颈模块的数量、初始过滤器的数量、投影比率、丢失概率以及是否使用跳过连接(有关这些参数的细节,请参阅上面引用的Paszke)。对于两种架构,在至少一些实施方式中,超参数还包括批大小、学习速率、裁剪比例和图像大小。
FastVentricle结果
注意,这些结果描述了FastVentricle的单个实施例,并且可以利用不同的设计参数实现不同的结果。
体积误差分析。图37示出了对于心室结构(LV Endo、LV Epi、RV Endo)和阶段(ES、ED)的每种组合比较DeepVentricle和FastVentricle的RAVE框图,其中样本大小在下表2中指出。我们发现模型的性能对于不同结构和阶段非常相似。实际上,RAVE的中位数是:i)对于LV Endo,DeepVentricle为4.5%,FastVentricle为5.5%,i)对于LV Epi,DeepVentricle为5.6%,FastVentricle为4.2%,i)对于RV Endo,DeepVentricle为7.6%,FastVentricle为9.0%。对于两个模型而言,ES是更困难的阶段,因为待分割的区域更小并且RV Endo由于其针对两个模型的形状更复杂而在结构上最难。虽然仅针对ES和ED注释进行了训练,但我们能够在所有时间点上进行视觉上令人愉悦的推理。图39示出了对于DeepVentricle和FastVentricle的低RAVE研究的不同切片和时间点的网络预测的示例。特别地,图39示出了对于RAVE低的健康患者(上图)和患有肥厚性心肌病的患者(下图)的DeepVentricle和FastVentricle预测。RV Endo用红色标出,LV Endo用绿色标出,LV Epi用蓝色标出。网格的X轴对应于在整个心动周期中采样的时间索引,并且Y轴对应于从心尖(低切片索引)到基部(高切片索引)采样的切片索引。心室的心尖和中心的模型性能优于基部的模型性能,因为仅从(将心室与心房分离的)瓣膜平面所在的基础切片来看,模型性能往往模糊不清。另外,ED处的分割往往比ES处的更好,因为ES处的室较小,并且当心脏收缩时,深色***肌倾向于与心肌混合。
我们最后注意到,使用ENet,超参数搜索中在验证集精度方面最好的5个模型使用跳过连接,演示了对于该问题的跳过连接的值。
DeepVentricle | FastVentricle | |
RAVE的平均值 | 0.089 | 0.093 |
推理得到每个样本的GPU时间(毫秒) | 31 | 7 |
初始化GPU时间(秒) | 1.3 | 13.3 |
参数的数量 | 19,249,059 | 755,529 |
推理所需的GPU内存(MB) | 1,800 | 270 |
权重文件的大小(MB) | 220 | 10 |
表1:DeepVentricle和FastVentricle的精度、模型速度和计算复杂性。每个样本的推理时间和以16为批大小计算的推理所需的GPU内存。
统计分析。我们测量了DeepVentricle和FastVentricle的RAVE分布之间的差异的统计显著性,我们对这些阶段和解剖结构的组合进行了真值注释。我们使用Wilcoxon-Mann-Whitney检验,使用带有默认参数的SciPy0.17.0实施方式来评估DeepVentricle和FastVentricle的RAVE分布相等的零假设。表2显示了结果。我们发现没有统计证据表明一个模型是最好的,因为最低的测量p值是0.1。
计算复杂性和推理速度。为了在临床和商业上可行,任何自动算法都应该比手动注释更快,并且足够轻量以便轻松使用。如上表1所示,我们发现FastVentricle的该实施例在速度上是DeepVentricle的大约4倍,并且使用六分之一的内存来推理。由于模型包含更多层,因此在准备好执行推理之前,FastVentricle需要更长的时间进行初始化。然而,在生产设置中,只需在配置服务器时对模型进行一次初始化,因此这种额外的成本是不重要的。
内部表示。神经网络因黑盒而不方便,即,很难“向内看”并理解为什么要进行某种预测。这在医疗环境中尤其麻烦,因为医生更喜欢使用他们能够理解的工具。我们遵循以下的结果来可视化DeepVentricle在执行推理时“寻找”的功能:Mordvintsev,A.等:DeepDream,https://research.***blog.com/2015/06/inceptionism-going-deeper-into-neuric.html(2015)访问日期:2017-01-17。从随机噪声作为模型“输入”和真实分割掩模作为目标开始,我们执行反向传播以更新输入图像中的像素值,使得损失最小化。图38示出了DeepVentricle和FastVentricle的这种优化结果。我们发现,作为一名医生,当心内膜很轻并且与心外膜的对比度很高时,对该模型的预测有信心。该模型似乎已经学会忽略心脏周围的解剖结构。我们还注意到DeepVentricle的优化输入比FastVentricle的优化输入噪声更小,可能是因为DeepVentricle的模型更大并且在输入图像的全分辨率下使用跳过连接。DeepVentricle似乎也“想象”了看起来像心室内***肌的结构。
表2:来自Wilcoxon-Mann-Whitney检验的U统计值和p值,以及相应的样本大小,用于在验证集上针对阶段和心室解剖结构的每种组合比较DeepVentricle和FastVentricle。根据可用数据,我们看不到DeepVentricle和FastVentricle之间存在统计学上的显著差异。
图38示出了一个随机输入(左),针对DeepVentricle和FastVentricle(中间)使用梯度下降对其进行优化,以拟合出标签映射(右,RV Endo为红色、LV Endo为青色、LV Epi为蓝色)。生成的图像具有网络在进行预测时“寻找”的许多品质,例如心内膜和心外膜之间的高对比度以及***肌的存在。
FastVentricle讨论
性能。虽然精度可能是模型在做出临床决策时最重要的属性,但算法执行速度对于维持积极的用户体验和最小化基础架构成本也至关重要。在我们的实验范围内,我们发现DeepVentricle与4倍速FastVentricle的精度之间没有统计学上的显著差异。这表明FastVentricle可以在临床环境中取代DeepVentricle而不会产生不利影响。
FastVentricle结论
我们示出了具有跳过连接的新的基于ENet的FCN(FastVentricle)可用于快速有效地分割心脏解剖结构。我们的算法在稀疏注释的数据库上进行训练,为临床医生提供LVEndo、LV Epi和RV Endo轮廓,以计算重要的诊断量、如射血分数和心肌质量。FastVentricle在速度上是先前最先进的技术的4倍,并且运行时的内存是先前最先进的技术的六分之一。
***肌和小梁肌划分
当通过心脏磁共振评估左心室时,两个主要结构最为重要:心肌和心室的血池(即心脏心室内的血液)。在这两种结构之间是***肌和小梁肌,它们是心脏心室内的邻接心肌和血池两者的小肌肉。在评估心室血池的体积时,不同的机构对于***肌和小梁肌是否应该包括在血池的体积中有不同的策略。从技术上讲,为了评估血液体积,应将***肌和小梁肌排除在限定血池的轮廓之外。然而,由于心肌内边界的相对规则的形状和***肌和小梁肌的相对不规则的形状,为方便起见,限定血池的轮廓通常被认为是心肌的内边界。在那种情况下,***肌和小梁肌的体积包括在血池体积中,导致血池体积被略微高估。
图40是示出心脏解剖结构的相关部分的图像4000,其包括围绕左心室的心肌4002。还示出了左心室的血池4004。心外膜的轮廓4006(即,心脏的外表面),在本文中称为心外膜轮廓4006,限定了左心室的心肌的外边界。心内膜的轮廓4008(即,将左心室的血池与心肌分开的表面),在本文中称为心内膜轮廓,限定了左心室心肌的内边界。注意,在图40中,心内膜轮廓4008包括内部的***肌和小梁肌4010。从心内膜轮廓4008的内部排除***肌和小梁肌4010也应该是有效的。
图41是图像4100,其示出了***肌和小梁肌4110包括在心内膜轮廓4108的内部的情况。还示出了围绕左心室的心肌4102。在假设心内膜轮廓4108构成血池4104的边界的情况下,血池的测量体积将被略微高估,因为该体积还包括***肌和小梁肌4110。
图42是图像4200,其示出了从心内膜轮廓4208排除***肌和小梁肌4210的替代情况。还示出了围绕左心室的心肌4202和左心室的血池4204。在这种情况下,血池体积的估计将更准确,但轮廓4208明显更曲折,并且如果手动绘制,则描绘更麻烦。
描绘在从轮廓内部排除***肌和小梁肌时的心内膜边界的自动***是非常有用的,因为这样的***允许以最小的注释器工作来测量血池的体积。然而,这种***需要依赖复杂的图像处理技术以确保轮廓的划分对人体解剖结构和磁共振(MR)采集参数的变化不敏感。
心肌特性的识别和定位
有许多类型的研究能够用心脏磁共振执行,每项研究均可以评估心脏解剖结构或功能的不同方面。使用没有对比度的稳态自由进动(SSFP)成像来可视化用于量化心脏功能的解剖结构。基于钆的对比度的灌注成像用于识别冠状动脉狭窄的生物标志物。也利用基于钆的对比度的晚期钆增强成像被用于评估心肌梗塞。在所有这些成像方案中以及在其他方案中,解剖学定向和对轮廓的需求趋于相似。通常在短轴方向(其中成像平面平行于左心室的短轴)和长轴方向(其中成像平面平行于左心室的长轴)两者上获取图像。在所有三种成像方案中使用描绘心肌和血池的轮廓来评估心脏功能和解剖结构的不同部件。
虽然这些类型的成像中的每一种的成像方案都存在差异,但血池和心肌之间的相对对比度大多是一致的(心肌比血池暗);因此,单个卷积神经网络(CNN)模型可用于描绘所有三种成像方案中的心肌和血池。使用一个CNN对所有这些成像方案中的数据进行同等操作,而不是对每个成像方案使用单独的CNN,从而简化了CNN模型在实践中的管理、部署和执行。然而,需要以真值轮廓注释的图像数据来对期望CNN起作用的所有成像方案进行验证。
***肌和小梁肌划分
图43示出了用于从心室血池自动描绘***肌和小梁肌的过程4300的一种实施方式。最初,心脏MRI图像数据4302和描绘心肌的内边界和外边界的初始轮廓4304都是可用的。***肌和小梁肌位于初始左心室心内膜轮廓的内部;即,它们被包括在血池中并被排除在心肌之外。根据轮廓,在4306处计算限定心肌和血池(包括***肌和小梁肌)的掩模。在至少一些实施方式中,在过程4300的开始处可获得限定心肌和血池的掩模,并且不需要从初始轮廓4304计算。
然后在4308处计算将用于相对于***肌和小梁肌描绘血池的强度阈值。下面参考图44中所示的方法4400描述强度阈值计算的至少一个实施方式。
然后在4310处将强度阈值应用于血池掩模内的像素。那些像素包括血池和***肌和小梁肌。在阈值处理之后,将高信号强度的像素分配给血池类,将低信号强度的像素分配给***肌和小梁肌类。
在4312处,在至少一些实施方式中,使用连接部分分析来确定血池类的像素的最大连接部分。由于其高信号强度而作为血池类的一部分(但不是血池像素的最大连接部分的一部分)的像素被认为是***肌和小梁肌中的孔,并且被转换成***肌和小梁肌类。
在至少一些实施方式中,然后在4314处计算将***肌和小梁肌与血池和心肌分开的所得边界,并将其存储或显示给用户。在至少一些实施方式中,将被确定为血池的一部分的像素相加以确定心室血池的净体积。然后该体积可以被存储,显示给用户,或者用于随后的计算,例如心脏射血分数。
图44示出了用于计算图像强度阈值的过程4400的一个示例实施方式。应当理解,可以使用其他方法来计算图像强度阈值。最初,心脏MRI图像数据4402和表示心肌和血池的掩模4404都是可用的。血池掩模包括血池和***肌和小梁肌。掩模可以由描绘心肌的轮廓推断出,或者可以通过其他方法得出。***肌和小梁肌包含在血池掩模内(参见图41)。
在4406处计算心肌和血池的像素强度分布。对于这两个分布中的每一个,可以在4408处计算像素强度的核密度估计。如果数据近似正态分布,则可以使用Silverman的经验法来确定密度估计中的内核带宽。例如:参见Silverman,Bernard W,Density estimationfor statistics and data analysis,第26卷,CRC出版社,1986。替代地,可以基于数据的分布使用其他带宽。
然后,在4410处计算密度估计重叠(即,从心肌像素强度分布中提取给定像素强度的概率等于从血池分布中提取像素的概率)处的像素强度。可以选择该像素强度作为将血池像素与***肌和小梁肌像素分开的强度阈值。
图45是曲线图4500,其示出了血池和心肌之间的像素强度分布的分布重叠4410。示出了心肌4502中的像素强度和血池4504中的像素强度的示例分布。y轴表示概率分布函数,x轴表示任意单位的像素强度。在所示的实施方式中,用于将血池与***肌和小梁肌分开的阈值是两个分布4502和4504之间的重叠位置4506。
心肌特性的识别和定位
图46示出了过程4600的一个实施方式,该过程使用预训练的CNN模型来识别和定位心肌特性。最初,心脏图像数据4602和预训练的CNN模型4604是可用的。在过程4600的至少一个实施方式中,心脏图像数据是短轴磁共振(MR)采集,但是其他成像平面(例如,长轴)和其他成像模态(例如,计算机断层摄影或超声)将类似地起作用。在至少一些实施方式中,训练的CNN模型4604已经基于与心脏图像数据4602具有相同类型的数据(例如,相同的成像模态、相同的造影剂注射方案、以及(如果适用的话)相同的MR脉冲序列)进行训练。在其他实施方式中,训练的CNN模型4604已经基于与心脏图像数据4602不同类型的数据进行训练。在一些实施方式中,CNN模型4604的训练所基于的数据是来自功能性心脏磁共振成像的数据(例如,通过无对比度的SSFP成像序列),并且心脏图像数据是来自心脏灌注或心肌延迟增强研究的数据。
在至少一些实施方式中,CNN模型4604基于与心脏图像数据4602不同类型的数据来训练,然后基于与心脏图像数据4602相同类型的数据来微调(即,通过再次训练一些或所有层,同时可能保持一些权重固定)。
训练的CNN模型4604用于在4606处推理得到内部和外部心肌轮廓。在至少一些实施方式中,CNN模型4604首先生成一个或更多个概率图,然后将其转换为轮廓。在至少一些实施方式中,在4608处对轮廓进行后处理,以使不是心肌一部分的组织被包括在描绘为心肌的区域内的概率最小化。这种后处理可以采用多种形式。例如,后处理可以包括将形态学操作(例如形态学侵蚀)应用于被识别为心肌的心脏区域以减小其面积。后处理可以另外地或替代地包括修改阈值,该阈值应用于训练的CNN模型的概率图输出,使得被识别为心肌的区域限于如下CNN输出,对于这些CNN输出,概率图指示该区域非常可能是心肌。后处理可以附加地或替代地包括使描绘心肌的轮廓的顶点朝向或远离心脏的心室的中心移动,以减少所识别心肌的面积,或上述过程的任何组合。
在至少一些实施方式中,后处理应用于描绘心脏区域而不是轮廓的掩模。
在至少一些实施方式中,在4610处确定心室***点,在该心室***点处,右心室壁附着到左心室。在至少一些实施方式中,***点由软件的用户手动指定。在其他实施方式中,自动计算***点。
图47是示出心室***点的图像4700。示出了左心室心外膜轮廓4702和右心室轮廓4704。右心室轮廓可以是右心室心内膜轮廓或右心室心外膜轮廓。指示下***点4706和上***点4708。在至少一个实施方式中,用于识别***点的自动***(例如,图46的动作4610)分析右心室轮廓4704与左心室心外膜轮廓4702的距离。***点位置4706和4708被定义为两个轮廓之间的距离发散的位置。
在至少一个其他实施方式中,***点的位置4706和4708被限定为左心室心外膜轮廓4702或右心室轮廓4704之一与限定左心2室(左心室和左心房)视图和左心3室(左心室、左心房和主动脉)视图的平面之间的交点。
在4612处,一旦描绘了心肌,就将心肌区域定位并量化。可以量化心肌的任何潜在病症(例如梗塞)或特征(例如灌注特征)。注意,图46的动作4612可以在该过程的任何阶段执行,并且在至少一些实施方式中可以在确定一个或更多个轮廓(例如,动作4606)和***点(例如,动作4610)之前。在***的至少一个实施方式中,用户手动检测并描绘关注区域(诸如相对增强的区域)。在该***的其他实施方式中,关注区域由自动***(如CNN)或其他图像处理技术检测、描绘或既描绘又检测,但不限于以下中所讨论的任何图像处理技术:Karim,Rashed等,"Evaluation of current algorithms for segmentation of scartissue from late gadolinium enhancement cardiovascular magnetic resonance ofthe left atrium:an open-access grand challenge."Journal of CardiovascularMagnetic Resonance 15.1(2013):105。然后进行缺陷的量化,例如较高强度或低强度,或生物学推理的量,例如绝对心肌灌注。例如,参见[Christian 2004]Christian,Timothy F.等,"Absolute myocardial perfusion in canines measured by using dual-bolusfirst-pass MR imaging."Radiology 232.3(2004):677-684。在至少一些实施方式中,不是检测特定缺陷,而是评估整个心肌区域的特性(例如,灌注)。
在4614处,一旦确定了心肌的缺陷或其他特征,在至少一些实施方式中,就利用心肌轮廓和***点来将心肌分割成标准格式,例如17段模型。例如:参见Cerqueira,ManuelD.等,"Standardized myocardial segmentation and nomenclature for tomographicimaging of the heart",Circulation 105.4(2002):539-542。在那些实施方式中,然后使用标准格式定位缺陷或心肌特性。在至少一些实施方式中,所得到的特征在显示器4616上显示给用户。
前面的详细描述已经通过使用框图、示意图和实施例阐述了设备和/或方法的多种实施方式。由于这些框图、示意图和实施例包含一个或更多个功能和/或操作,本领域技术人员会理解,可以通过各种硬件、软件、固件、或者其几乎任何组合来单独地和/或共同地实施这些框图、流程图和实施例中的每一个功能和/或操作。在一个实施方式中,本主题可以通过专用集成电路(ASIC)来实现。然而,本领域的技术人员会认识到,本文公开的实施方式可以整体或部分地在标准集成电路中作为在一个或更多个计算机上运行的一个或更多个计算机程序(例如,作为在一个或更多个计算机***上运行的一个或更多个程序)来等效地实施,作为在一个或更多个控制器(例如微控制器)上运行的一个或更多个程序来等效地实施,作为在一个或更多个处理器(例如,微处理器)上运行的一个或更多个程序来等效地实施,作为固件来等效地实施,或者作为其几乎任何组合来等效地实施,并且根据本公开内容,设计电路和/或编写用于软件和/或固件的代码将完全在本领域普通技术人员的技能范围内。
本领域技术人员会认识到,本文阐述的许多方法或算法可以采用附加的动作,可以省略一些动作,和/或可以以与所指定的顺序不同的顺序执行动作。
另外,本领域的技术人员会理解,本文教导的机制能够以各种形式作为程序产品来分配,并且无论实际用于执行分配的信号承载介质的具体类型如何,说明性的实施方式同样适用。信号承载介质的示例包括但不限于以下:可记录型介质如软盘,硬盘驱动器,CDROM,数字磁带和计算机存储器。
上面描述的各种实施方式可以被组合以提供其他实施方式。在不违背本文具体教导和定义的范围内,本说明书中提到的和/或列在申请数据页中的所有美国专利、美国专利申请公开、美国专利申请、外国专利、外国专利申请和非专利出版物通过引用整体并入本文,其包括但不限于:2011年7月7日提交的美国临时专利申请第61/571908号;2013年11月20日提交的美国专利申请第14/118964号;2012年7月5日提交的PCT专利申请第PCT/US2012/045575号;2014年1月17日提交的美国临时专利申请第61/928702号;2016年7月15日提交的美国专利申请第15/112130号;2015年1月16日提交的PCT专利申请第PCT/US2015/011851号;2015年11月29日提交的美国临时专利申请第62/260565号;2016年10月31日提交的美国临时专利申请第62/415203号;2016年11月1日提交的美国临时专利申请第62/415666号;2016年11月29日提交的PCT专利申请第PCT/US2016/064028号;和2017年1月27日提交的美国临时专利申请第62/451482号。如果需要的话,可以修改实施方式的各方面以采用各专利、申请和出版物的***、电路和构思来提供其他实施方式。
根据以上详细描述,可以对这些实施方式进行这些和其他改变。通常,在所附权利要求中,所使用的术语不应被解释为将权利要求限制为说明书和权利要求中公开的具体实施方式,而是应该被解释为包括所有可能的实施方式以及权利要求的等同方案的全部范围。因此,权利要求不受本公开的限制。
Claims (58)
1.一种机器学习***,其包括:
至少一个非临时性处理器可读存储介质,其存储处理器可执行指令或数据中的至少一个;和
至少一个处理器,其可通信地联接到所述至少一个非临时性处理器可读存储介质,所述至少一个处理器:
接收包括多批带标签的图像集的学习数据,每个图像集包括表示解剖结构的图像数据并且包括至少一个标签,所述至少一个标签标识图像集的每个图像中描绘的解剖结构的特定部分的区域;
训练全卷积神经网络(CNN)模型以利用所接收的学习数据来分割解剖结构的至少一部分;并且
将训练的CNN模型存储在机器学习***的至少一个非临时性处理器可读存储介质中。
2.根据权利要求1所述的机器学习***,其中,所述CNN模型包括收缩路径和扩张路径,所述收缩路径包括多个卷积层和多个池化层,每个池化层在至少一个卷积层之后,并且所述扩张路径包括多个卷积层和多个上采样层,每个上采样层在至少一个卷积层之后,并且包括利用习得内核执行上采样和内插的转置卷积操作。
3.根据权利要求2所述的机器学习***,其中,所述收缩路径包括并联的第一和第二路径,所述并联的第一和第二路径中的一个包括多个卷积层和多个池化层,每个池化层在至少一个卷积层之后,并且所述并联的第一和第二路径中的另一个仅包括零个或更多个池化层。
4.根据权利要求2所述的机器学习***,其中,所述收缩路径的初始层对学习数据进行下采样,并且初始层之后的层包含比初始层更高的卷积与下采样操作之比。
5.根据权利要求2所述的机器学习***,其中,所述扩张路径包括比收缩路径更少的卷积操作。
6.根据权利要求2所述的机器学习***,其中,在以相同空间尺度操作的每对层之间存在残差连接。
7.根据权利要求2所述的机器学习***,其中,卷积包括密集的MxM卷积、级联的Nx1和1xN卷积以及扩张卷积,其中1≤M≤11,3≤N≤11。
8.根据权利要求2所述的机器学习***,其中,所述CNN模型包括收缩路径和扩张路径中的层之间的跳过连接,其中所述层的图像大小是兼容的。
9.根据权利要求8所述的机器学习***,其中,所述跳过连接包括CNN模型的级联特征映射。
10.根据权利要求8所述的机器学习***,其中,所述跳过连接是残差连接,该残差连接加上或减去CNN模型的特征映射的值。
11.一种操作机器学习***的方法,所述机器学习***包括:至少一个非临时性处理器可读存储介质,其存储处理器可执行指令或数据中的至少一个;和至少一个处理器,其可通信地联接到所述至少一个非临时性处理器可读存储介质,所述方法包括:
通过所述至少一个处理器接收包括多批带标签的图像集的学习数据,每个图像集包括表示解剖结构的图像数据并且包括至少一个标签,所述至少一个标签标识图像集的每个图像中描绘的解剖结构的特定部分的区域;
通过所述至少一个处理器训练全卷积神经网络(CNN)模型,以利用所接收的学习数据来分割解剖结构的至少一部分;和
通过所述至少一个处理器将训练的CNN模型存储在机器学习***的至少一个非临时性处理器可读存储介质中。
12.根据权利要求11所述的方法,其中,训练CNN模型包括,训练包括收缩路径和扩张路径的CNN模型,所述收缩路径包括多个卷积层和多个池化层,每个池化层在至少一个卷积层之后,并且所述扩张路径包括多个卷积层和多个上采样层,每个上采样层在至少一个卷积层之后,并且包括利用习得内核执行上采样和内插的转置卷积操作。
13.根据权利要求12所述的方法,其中,训练CNN模型包括,训练包括收缩路径的CNN模型,所述收缩路径包括并联的第一和第二路径,所述并联的第一和第二路径中的一个包括多个卷积层和多个池化层,每个池化层在至少一个卷积层之后,并且所述并联的第一和第二路径中的另一个仅包括零个或更多个池化层。
14.根据权利要求12所述的方法,其中,训练CNN模型包括,训练包括收缩路径的CNN模型,所述收缩路径的初始层对学习数据进行下采样,并且初始层之后的层包含比初始层更高的卷积与下采样操作之比。
15.根据权利要求12所述的方法,其中,训练CNN模型包括,训练包括扩张路径的CNN模型,所述扩张路径包括比收缩路径更少的卷积操作。
16.根据权利要求12所述的方法,其中,训练CNN模型包括,训练在以相同空间尺度操作的每对层之间包括残差连接的CNN模型。
17.根据权利要求12所述的方法,其中,训练CNN模型包括,训练其中卷积包括密集的MxM卷积、级联的Nx1和1xN卷积以及扩张卷积的CNN模型,其中1≤M≤11,3≤N≤11。
18.根据权利要求12所述的方法,其中,训练CNN模型包括,训练包括跳过连接的CNN模型,所述跳过连接在收缩路径和扩张路径中的层之间,其中所述层的图像大小是兼容的。
19.根据权利要求18所述的方法,其中,训练CNN模型包括,训练包括跳过连接的CNN模型,所述跳过连接包括CNN模型的级联特征映射。
20.根据权利要求18所述的方法,其中,训练CNN模型包括,训练包括跳过连接的CNN模型,所述跳过连接是残差连接,该残差连接加上或减去CNN模型的特征映射的值。
21.一种医学图像处理***,其包括:
至少一个非临时性处理器可读存储介质,其存储以下中的至少一个:处理器可执行指令或数据、心脏MRI图像数据和描绘心脏的心内膜和心外膜的初始轮廓或掩模;和
至少一个处理器,其可通信地联接到所述至少一个非临时性处理器可读存储介质,在操作中,所述至少一个处理器:
访问心脏MRI图像数据和一系列的初始轮廓或掩模;
自主计算图像强度阈值,该图像强度阈值将血液与心内膜轮廓内部的***肌和小梁肌区分开;和
自主应用图像强度阈值来限定描述***肌和小梁肌的边界的轮廓或掩模。
22.根据权利要求21所述的医学图像处理***,其中,为了计算图像强度阈值,所述至少一个处理器将心内膜轮廓内的强度值的分布与心内膜轮廓和心外膜轮廓之间的区域的强度值的分布进行比较。
23.根据权利要求22所述的医学图像处理***,其中,所述至少一个处理器使用经验强度分布的核密度估计来计算强度值的分布中的每个。
24.根据权利要求22所述的医学图像处理***,其中,所述至少一个处理器将图像强度阈值确定为第一和第二概率分布函数的交点处的像素强度,第一概率分布函数用于心内膜轮廓内的像素组,并且第二概率分布函数用于心内膜轮廓和心外膜轮廓之间的区域中的像素组。
25.根据权利要求21所述的医学图像处理***,其中,描绘心脏心内膜的初始轮廓或掩模包括心内膜轮廓内部的***肌和小梁肌。
26.根据权利要求21所述的医学图像处理***,其中,所述至少一个处理器计算血池区域的连接部分并将计算出的连接部分中的一个或更多个从血池区域中丢弃。
27.根据权利要求26所述的医学图像处理***,其中,所述至少一个处理器将从血池区域中丢弃的连接部分转换成***肌和小梁肌区域。
28.根据权利要求26所述的医学图像处理***,其中,所述至少一个处理器从血池区域中丢弃除血池区域中最大的连接部分之外的所有连接部分。
29.根据权利要求21所述的医学图像处理***,其中,所述至少一个处理器允许描述***肌和小梁肌的边界的所计算出的轮廓或掩模由用户编辑。
30.一种机器学习***,其包括:
至少一个非临时性处理器可读存储介质,其存储以下中的至少一个:处理器可执行指令或数据、心脏的医学成像数据和训练的卷积神经网络(CNN)模型;和
至少一个处理器,其可通信地联接到所述至少一个非临时性处理器可读存储介质,在操作中,所述至少一个处理器:
使用训练的CNN模型计算医学成像数据中描绘心脏的心内膜和心外膜的轮廓或掩模;并且
使用计算出的轮廓或掩模在解剖学上定位心肌的病症或功能特征。
31.根据权利要求30所述的机器学习***,其中所述至少一个处理器计算心室***点,在该心室***点处,右心室壁附着到左心室。
32.根据权利要求31所述的机器学习***,其中,所述至少一个处理器基于描绘左心室心外膜的轮廓或掩模与描绘右心室心内膜或右心室心外膜中的一个或两个的轮廓或掩模的接近度来计算心室***点。
33.根据权利要求32所述的机器学习***,其中,所述至少一个处理器基于心脏图像中的两个点计算一个或更多个二维心脏图像中的心室***点,在所述两个点中,左心室心外膜边界与右心室心内膜边界或右心室心外膜边界中的一个或两个开始偏离。
34.根据权利要求31所述的机器学习***,其中,所述至少一个处理器基于所获取的左心室的长轴视图之间的相交与左心室心外膜的描绘来计算心室***点。
35.根据权利要求34所述的机器学***面之间的相交来计算至少一个心室***点。
36.根据权利要求34所述的机器学***面之间的相交来计算至少一个心室***点。
37.根据权利要求34所述的机器学***面与右心室心外膜轮廓或右心室心内膜轮廓中的一个或两个之间的相交来计算至少一个心室***点。
38.根据权利要求34所述的机器学***面与右心室心外膜轮廓或右心室心内膜轮廓中的一个或两个之间的相交来计算至少一个心室***点。
39.根据权利要求30所述的机器学习***,其中,所述至少一个处理器允许用户手动描绘心室***点中的一个或更多个的位置。
40.根据权利要求30所述的机器学习***,其中,所述至少一个处理器使用轮廓和心室***点的组合以标准化格式呈现心肌的病症或功能特征的解剖学定位。
41.根据权利要求40所述的机器学习***,其中,所述标准化格式是心肌的16或17段模型中的一个或两个。
42.根据权利要求30所述的机器学习***,其中,所述心脏的医学成像数据是功能性心脏图像、心肌延迟增强图像或心肌灌注图像中的一个或更多个。
43.根据权利要求42所述的机器学习***,其中,所述心脏的医学成像数据是心脏磁共振图像。
44.根据权利要求30所述的机器学习***,其中,所述训练的CNN模型已经基于与将使用训练的CNN模型来推理的图像类型相同的注释心脏图像进行训练。
45.根据权利要求44所述的机器学习***,其中,所述训练的CNN模型已经基于功能性心脏图像、心肌延迟增强图像或心肌灌注图像中的一个或更多个进行训练。
46.根据权利要求45所述的机器学习***,其中,所述训练的CNN模型的训练所基于的数据是心脏磁共振图像。
47.根据权利要求30所述的机器学习***,其中,所述训练的CNN模型已经基于与将使用训练的CNN模型来推理的图像类型不同的注释心脏图像进行训练。
48.根据权利要求47所述的机器学习***,其中,所述训练的CNN模型已经基于功能性心脏图像、心肌延迟增强图像或心肌灌注图像中的一个或更多个进行训练。
49.根据权利要求48所述的机器学习***,所述训练的CNN模型的训练所基于的数据可以是心脏磁共振图像。
50.根据权利要求30所述的机器学习***,其中,所述至少一个处理器基于与将使用CNN模型来推理的数据类型相同的数据微调所述训练的CNN模型。
51.根据权利要求50所述的机器学习***,其中,为了微调训练的CNN模型,所述至少一个处理器再次训练所述训练的CNN模型的一些或所有层。
52.根据权利要求30所述的机器学习***,其中,所述至少一个处理器对描绘心脏的心内膜和心外膜的轮廓或掩模应用后处理,以使存在于被识别为心肌的心脏区域中的非心肌组织的量最小化。
53.根据权利要求52所述的机器学习***,其中,为了对轮廓或掩模进行后处理,所述至少一个处理器将形态学操作应用于被识别为心肌的心脏区域以减小其面积。
54.根据权利要求53所述的机器学习***,其中,所述形态学操作包括侵蚀或扩张中的一个或更多个。
55.根据权利要求52所述的机器学习***,其中,为了对轮廓或掩模进行后处理,所述至少一个处理器修改应用于由训练的CNN模型预测的概率图的阈值,以仅识别如下心肌像素,对于所述像素,训练的CNN模型表示所述像素是心肌的一部分的概率高于阈值。
56.根据权利要求55所述的机器学习***,其中,所述概率图值转换为类标签的阈值大于0.5。
57.根据权利要求52所述的机器学习***,其中,为了对轮廓或掩模进行后处理,所述至少一个处理器将描绘心肌的轮廓的顶点朝向或远离心脏的心室的中心移动,以减少所识别的心肌的面积。
58.根据权利要求30所述的机器学习***,其中,所述心肌的病症或功能特征包括心肌瘢痕形成、心肌梗塞、冠状动脉狭窄或灌注特征中的一种或更多种。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762451482P | 2017-01-27 | 2017-01-27 | |
US62/451,482 | 2017-01-27 | ||
PCT/US2018/015222 WO2018140596A2 (en) | 2017-01-27 | 2018-01-25 | Automated segmentation utilizing fully convolutional networks |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110475505A true CN110475505A (zh) | 2019-11-19 |
CN110475505B CN110475505B (zh) | 2022-04-05 |
Family
ID=62977998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880020558.2A Expired - Fee Related CN110475505B (zh) | 2017-01-27 | 2018-01-25 | 利用全卷积网络的自动分割 |
Country Status (5)
Country | Link |
---|---|
US (3) | US10600184B2 (zh) |
EP (1) | EP3573520A4 (zh) |
JP (1) | JP2020510463A (zh) |
CN (1) | CN110475505B (zh) |
WO (1) | WO2018140596A2 (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110739050A (zh) * | 2019-12-20 | 2020-01-31 | 深圳大学 | 一种左心室全参数及置信度的量化方法 |
CN110991408A (zh) * | 2019-12-19 | 2020-04-10 | 北京航空航天大学 | 基于深度学习方法分割脑白质高信号的方法和装置 |
CN111401373A (zh) * | 2020-03-04 | 2020-07-10 | 武汉大学 | 基于分组非对称卷积的高效语义分割方法 |
CN111466894A (zh) * | 2020-04-07 | 2020-07-31 | 上海尽星生物科技有限责任公司 | 一种基于深度学习的射血分数计算方法及*** |
CN111666972A (zh) * | 2020-04-28 | 2020-09-15 | 清华大学 | 基于深度神经网络的肝部病例图像分类方法及*** |
CN111739000A (zh) * | 2020-06-16 | 2020-10-02 | 山东大学 | 一种提高多个心脏视图左心室分割精确度的***及装置 |
CN111898211A (zh) * | 2020-08-07 | 2020-11-06 | 吉林大学 | 基于深度强化学习的智能车速度决策方法及其仿真方法 |
CN111928794A (zh) * | 2020-08-04 | 2020-11-13 | 北京理工大学 | 基于深度学习的闭合条纹兼容单幅干涉图解相方法及装置 |
CN111968112A (zh) * | 2020-09-02 | 2020-11-20 | 广州海兆印丰信息科技有限公司 | Ct三维定位图像的获取方法、装置和计算机设备 |
CN112085162A (zh) * | 2020-08-12 | 2020-12-15 | 北京师范大学 | 基于神经网络的磁共振脑组织分割方法、装置、计算设备及存储介质 |
CN112734770A (zh) * | 2021-01-06 | 2021-04-30 | 中国人民解放军陆军军医大学第二附属医院 | 一种基于多层级联的心脏核磁影像多序列融合分割方法 |
CN112785592A (zh) * | 2021-03-10 | 2021-05-11 | 河北工业大学 | 基于多重扩张路径的医学影像深度分割网络 |
CN112932535A (zh) * | 2021-02-01 | 2021-06-11 | 杜国庆 | 一种医学图像分割及检测方法 |
CN113327224A (zh) * | 2020-02-28 | 2021-08-31 | 通用电气精准医疗有限责任公司 | 自动视场(fov)界定的***和方法 |
WO2021183473A1 (en) * | 2020-03-09 | 2021-09-16 | Nanotronics Imaging, Inc. | Defect detection system |
WO2021191692A1 (en) * | 2020-03-27 | 2021-09-30 | International Business Machines Corporation | Annotation of digital images for machine learning |
CN113674235A (zh) * | 2021-08-15 | 2021-11-19 | 上海立芯软件科技有限公司 | 一种基于主动熵采样和模型校准的低代价光刻热点检测方法 |
CN113838001A (zh) * | 2021-08-24 | 2021-12-24 | 内蒙古电力科学研究院 | 基于核密度估计的超声波全聚焦图像缺陷处理方法及装置 |
CN113838068A (zh) * | 2021-09-27 | 2021-12-24 | 深圳科亚医疗科技有限公司 | 心肌节段的自动分割方法、装置和存储介质 |
TWI792055B (zh) * | 2020-09-25 | 2023-02-11 | 國立勤益科技大學 | 利用三維深度學習之心臟超音波判斷模型之建立方法、利用三維深度學習之心臟超音波判斷系統及其方法 |
WO2023226793A1 (zh) * | 2022-05-23 | 2023-11-30 | 深圳微创心算子医疗科技有限公司 | 二尖瓣开口间距检测方法、电子设备和存储介质 |
Families Citing this family (196)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3767630A1 (en) | 2014-01-17 | 2021-01-20 | Arterys Inc. | Methods for four dimensional (4d) flow magnetic resonance imaging |
US10331852B2 (en) | 2014-01-17 | 2019-06-25 | Arterys Inc. | Medical imaging and efficient sharing of medical imaging information |
CN108603922A (zh) | 2015-11-29 | 2018-09-28 | 阿特瑞斯公司 | 自动心脏体积分割 |
AU2017348111B2 (en) | 2016-10-27 | 2023-04-06 | Progenics Pharmaceuticals, Inc. | Network for medical image analysis, decision support system, and related graphical user interface (GUI) applications |
US10663711B2 (en) | 2017-01-04 | 2020-05-26 | Corista, LLC | Virtual slide stage (VSS) method for viewing whole slide images |
EP3573520A4 (en) | 2017-01-27 | 2020-11-04 | Arterys Inc. | AUTOMATED SEGMENTATION USING FULLY CONVOLUTIVE NETWORKS |
US10580131B2 (en) * | 2017-02-23 | 2020-03-03 | Zebra Medical Vision Ltd. | Convolutional neural network for segmentation of medical anatomical images |
CN106887225B (zh) * | 2017-03-21 | 2020-04-07 | 百度在线网络技术(北京)有限公司 | 基于卷积神经网络的声学特征提取方法、装置和终端设备 |
US10699412B2 (en) * | 2017-03-23 | 2020-06-30 | Petuum Inc. | Structure correcting adversarial network for chest X-rays organ segmentation |
GB201705876D0 (en) | 2017-04-11 | 2017-05-24 | Kheiron Medical Tech Ltd | Recist |
GB201705911D0 (en) | 2017-04-12 | 2017-05-24 | Kheiron Medical Tech Ltd | Abstracts |
US10261903B2 (en) | 2017-04-17 | 2019-04-16 | Intel Corporation | Extend GPU/CPU coherency to multi-GPU cores |
GB201706149D0 (en) * | 2017-04-18 | 2017-05-31 | King's College London | System and method for medical imaging |
US11468286B2 (en) * | 2017-05-30 | 2022-10-11 | Leica Microsystems Cms Gmbh | Prediction guided sequential data learning method |
US10699410B2 (en) * | 2017-08-17 | 2020-06-30 | Siemes Healthcare GmbH | Automatic change detection in medical images |
CN110809784B (zh) * | 2017-09-27 | 2021-04-20 | 谷歌有限责任公司 | 高分辨率图像分割的端到端网络模型 |
US10891723B1 (en) | 2017-09-29 | 2021-01-12 | Snap Inc. | Realistic neural network based image style transfer |
EP3471054B1 (en) * | 2017-10-16 | 2022-02-09 | Siemens Healthcare GmbH | Method for determining at least one object feature of an object |
US10783640B2 (en) * | 2017-10-30 | 2020-09-22 | Beijing Keya Medical Technology Co., Ltd. | Systems and methods for image segmentation using a scalable and compact convolutional neural network |
EP3714467A4 (en) | 2017-11-22 | 2021-09-15 | Arterys Inc. | CONTENT-BASED IMAGE RECOVERY FOR LESION ANALYSIS |
JP6545887B2 (ja) * | 2017-11-24 | 2019-07-17 | キヤノンメディカルシステムズ株式会社 | 医用データ処理装置、磁気共鳴イメージング装置及び学習済みモデル生成方法 |
US10973486B2 (en) | 2018-01-08 | 2021-04-13 | Progenics Pharmaceuticals, Inc. | Systems and methods for rapid neural network-based image segmentation and radiopharmaceutical uptake determination |
WO2019147767A1 (en) * | 2018-01-24 | 2019-08-01 | Rensselaer Polytechnic Institute | 3-d convolutional autoencoder for low-dose ct via transfer learning from a 2-d trained network |
US10595727B2 (en) * | 2018-01-25 | 2020-03-24 | Siemens Healthcare Gmbh | Machine learning-based segmentation for cardiac medical imaging |
US10885630B2 (en) * | 2018-03-01 | 2021-01-05 | Intuitive Surgical Operations, Inc | Systems and methods for segmentation of anatomical structures for image-guided surgery |
US11024025B2 (en) * | 2018-03-07 | 2021-06-01 | University Of Virginia Patent Foundation | Automatic quantification of cardiac MRI for hypertrophic cardiomyopathy |
US11195211B2 (en) | 2018-05-17 | 2021-12-07 | Spotify Ab | Systems, methods and computer program products for generating script elements and call to action components therefor |
US11537428B2 (en) | 2018-05-17 | 2022-12-27 | Spotify Ab | Asynchronous execution of creative generator and trafficking workflows and components therefor |
US11403663B2 (en) * | 2018-05-17 | 2022-08-02 | Spotify Ab | Ad preference embedding model and lookalike generation engine |
US10943346B2 (en) * | 2018-05-21 | 2021-03-09 | Corista, LLC | Multi-sample whole slide image processing in digital pathology via multi-resolution registration and machine learning |
GB2574372B (en) * | 2018-05-21 | 2021-08-11 | Imagination Tech Ltd | Implementing Traditional Computer Vision Algorithms As Neural Networks |
WO2019232099A1 (en) * | 2018-05-29 | 2019-12-05 | Google Llc | Neural architecture search for dense image prediction tasks |
US11854703B2 (en) | 2018-06-11 | 2023-12-26 | Arterys Inc. | Simulating abnormalities in medical images with generative adversarial networks |
US20210251490A1 (en) * | 2018-06-11 | 2021-08-19 | Farida Cheriet | System and method for determining coronal artery tissue type based on an oct image and using trained engines |
US11455723B2 (en) | 2018-06-14 | 2022-09-27 | Kheiron Medical Technologies Ltd | Second reader suggestion |
EP3598344A1 (en) * | 2018-07-19 | 2020-01-22 | Nokia Technologies Oy | Processing sensor data |
CN109087298B (zh) * | 2018-08-17 | 2020-07-28 | 电子科技大学 | 一种阿尔兹海默病mri图像分类方法 |
KR102174379B1 (ko) * | 2018-08-27 | 2020-11-04 | 주식회사 딥바이오 | 세그멘테이션을 수행하는 뉴럴 네트워크를 이용한 질병 진단 시스템 및 방법 |
US11164067B2 (en) * | 2018-08-29 | 2021-11-02 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems, methods, and apparatuses for implementing a multi-resolution neural network for use with imaging intensive applications including medical imaging |
CN109345538B (zh) * | 2018-08-30 | 2021-08-10 | 华南理工大学 | 一种基于卷积神经网络的视网膜血管分割方法 |
US10303980B1 (en) * | 2018-09-05 | 2019-05-28 | StradVision, Inc. | Learning method, learning device for detecting obstacles and testing method, testing device using the same |
JP7213412B2 (ja) * | 2018-09-12 | 2023-01-27 | 学校法人立命館 | 医用画像抽出装置、医用画像抽出方法、及び、コンピュータプログラム |
CN109308695A (zh) * | 2018-09-13 | 2019-02-05 | 镇江纳兰随思信息科技有限公司 | 基于改进U-net卷积神经网络模型的癌细胞识别方法 |
EP3624056B1 (en) * | 2018-09-13 | 2021-12-01 | Siemens Healthcare GmbH | Processing image frames of a sequence of cardiac images |
CN109242863B (zh) * | 2018-09-14 | 2021-10-26 | 北京市商汤科技开发有限公司 | 一种缺血性脑卒中图像区域分割方法及装置 |
EP3837641A1 (en) * | 2018-09-14 | 2021-06-23 | Google LLC | Deep reinforcement learning-based techniques for end to end robot navigation |
CN109272512B (zh) * | 2018-09-25 | 2022-02-15 | 南昌航空大学 | 一种自动分割左心室内外膜的方法 |
US20200104678A1 (en) * | 2018-09-27 | 2020-04-02 | Google Llc | Training optimizer neural networks |
CN109559315B (zh) * | 2018-09-28 | 2023-06-02 | 天津大学 | 一种基于多路径深度神经网络的水面分割方法 |
CN109410318B (zh) * | 2018-09-30 | 2020-09-08 | 先临三维科技股份有限公司 | 三维模型生成方法、装置、设备和存储介质 |
WO2020077202A1 (en) * | 2018-10-12 | 2020-04-16 | The Medical College Of Wisconsin, Inc. | Medical image segmentation using deep learning models trained with random dropout and/or standardized inputs |
US11651584B2 (en) * | 2018-10-16 | 2023-05-16 | General Electric Company | System and method for memory augmented domain adaptation |
CN109446951B (zh) | 2018-10-16 | 2019-12-10 | 腾讯科技(深圳)有限公司 | 三维图像的语义分割方法、装置、设备及存储介质 |
CN109509203B (zh) * | 2018-10-17 | 2019-11-05 | 哈尔滨理工大学 | 一种半自动脑部图像分割方法 |
US11616988B2 (en) | 2018-10-19 | 2023-03-28 | Samsung Electronics Co., Ltd. | Method and device for evaluating subjective quality of video |
KR102312337B1 (ko) * | 2018-10-19 | 2021-10-14 | 삼성전자주식회사 | Ai 부호화 장치 및 그 동작방법, 및 ai 복호화 장치 및 그 동작방법 |
US11720997B2 (en) | 2018-10-19 | 2023-08-08 | Samsung Electronics Co.. Ltd. | Artificial intelligence (AI) encoding device and operating method thereof and AI decoding device and operating method thereof |
WO2020080873A1 (en) | 2018-10-19 | 2020-04-23 | Samsung Electronics Co., Ltd. | Method and apparatus for streaming data |
WO2020080765A1 (en) | 2018-10-19 | 2020-04-23 | Samsung Electronics Co., Ltd. | Apparatuses and methods for performing artificial intelligence encoding and artificial intelligence decoding on image |
WO2020080665A1 (en) | 2018-10-19 | 2020-04-23 | Samsung Electronics Co., Ltd. | Methods and apparatuses for performing artificial intelligence encoding and artificial intelligence decoding on image |
KR102525578B1 (ko) | 2018-10-19 | 2023-04-26 | 삼성전자주식회사 | 부호화 방법 및 그 장치, 복호화 방법 및 그 장치 |
US11256916B2 (en) * | 2018-10-19 | 2022-02-22 | The Climate Corporation | Machine learning techniques for identifying clouds and cloud shadows in satellite imagery |
KR102285738B1 (ko) * | 2018-10-19 | 2021-08-05 | 삼성전자주식회사 | 영상의 주관적 품질을 평가하는 방법 및 장치 |
CN109508647A (zh) * | 2018-10-22 | 2019-03-22 | 北京理工大学 | 一种基于生成对抗网络的光谱数据库扩展方法 |
WO2020092590A1 (en) * | 2018-10-30 | 2020-05-07 | Allen Institute | Segmenting 3d intracellular structures in microscopy images using an iterative deep learning workflow that incorporates human contributions |
CN109448006B (zh) * | 2018-11-01 | 2022-01-28 | 江西理工大学 | 一种注意力机制u型密集连接视网膜血管分割方法 |
WO2020093042A1 (en) * | 2018-11-02 | 2020-05-07 | Deep Lens, Inc. | Neural networks for biomedical image analysis |
CN109523077B (zh) * | 2018-11-15 | 2022-10-11 | 云南电网有限责任公司 | 一种风电功率预测方法 |
CN113569798B (zh) * | 2018-11-16 | 2024-05-24 | 北京市商汤科技开发有限公司 | 关键点检测方法及装置、电子设备和存储介质 |
CN110009640B (zh) * | 2018-11-20 | 2023-09-26 | 腾讯科技(深圳)有限公司 | 处理心脏视频的方法、设备和可读介质 |
CN113168684B (zh) * | 2018-11-26 | 2024-04-05 | Oppo广东移动通信有限公司 | 提升低亮度图像的质量的方法、***和计算机可读介质 |
TW202022713A (zh) * | 2018-12-05 | 2020-06-16 | 宏碁股份有限公司 | 心臟狀態評估方法與系統、電子裝置及超音波掃描裝置 |
CN109711411B (zh) * | 2018-12-10 | 2020-10-30 | 浙江大学 | 一种基于胶囊神经元的图像分割识别方法 |
CN111309800A (zh) * | 2018-12-11 | 2020-06-19 | 北京京东尚科信息技术有限公司 | 数据存储、读取的方法和装置 |
US10740901B2 (en) * | 2018-12-17 | 2020-08-11 | Nvidia Corporation | Encoder regularization of a segmentation model |
US10943352B2 (en) * | 2018-12-17 | 2021-03-09 | Palo Alto Research Center Incorporated | Object shape regression using wasserstein distance |
EP3671660A1 (en) * | 2018-12-20 | 2020-06-24 | Dassault Systèmes | Designing a 3d modeled object via user-interaction |
EP3678088B1 (en) | 2019-01-03 | 2023-08-09 | Samsung Electronics Co., Ltd. | Method and system of convolution in neural network with variable dilation rate |
CA3122540A1 (en) | 2019-01-07 | 2020-07-16 | Exini Diagnostics Ab | Systems and methods for platform agnostic whole body image segmentation |
CN109584254B (zh) * | 2019-01-07 | 2022-12-20 | 浙江大学 | 一种基于深层全卷积神经网络的心脏左心室分割方法 |
CN109872325B (zh) * | 2019-01-17 | 2022-11-15 | 东北大学 | 基于双路三维卷积神经网络的全自动肝脏肿瘤分割方法 |
CN109903292A (zh) * | 2019-01-24 | 2019-06-18 | 西安交通大学 | 一种基于全卷积神经网络的三维图像分割方法及*** |
US11922630B2 (en) | 2019-01-25 | 2024-03-05 | The Johns Hopkins University | Predicting atrial fibrillation recurrence after pulmonary vein isolation using simulations of patient-specific magnetic resonance imaging models and machine learning |
CN109949334B (zh) * | 2019-01-25 | 2022-10-04 | 广西科技大学 | 基于深度强化网络残差连接的轮廓检测方法 |
CN109886159B (zh) * | 2019-01-30 | 2021-03-26 | 浙江工商大学 | 一种非限定条件下的人脸检测方法 |
US10373027B1 (en) * | 2019-01-30 | 2019-08-06 | StradVision, Inc. | Method for acquiring sample images for inspecting label among auto-labeled images to be used for learning of neural network and sample image acquiring device using the same |
US11544572B2 (en) * | 2019-02-15 | 2023-01-03 | Capital One Services, Llc | Embedding constrained and unconstrained optimization programs as neural network layers |
DE102019203024A1 (de) * | 2019-03-06 | 2020-09-10 | Robert Bosch Gmbh | Paddingverfahren für ein Convolutional Neural Network |
CN109949318B (zh) * | 2019-03-07 | 2023-11-14 | 西安电子科技大学 | 基于多模态影像的全卷积神经网络癫痫病灶分割方法 |
EP3716201A1 (en) * | 2019-03-25 | 2020-09-30 | Siemens Healthcare GmbH | Medical image enhancement |
CN110009619A (zh) * | 2019-04-02 | 2019-07-12 | 清华大学深圳研究生院 | 一种基于荧光编码的液相生物芯片的图像分析方法 |
CN110101401B (zh) * | 2019-04-18 | 2023-04-07 | 浙江大学山东工业技术研究院 | 一种肝脏对比剂数字减影造影方法 |
CN110111313B (zh) * | 2019-04-22 | 2022-12-30 | 腾讯科技(深圳)有限公司 | 基于深度学习的医学图像检测方法及相关设备 |
WO2020219619A1 (en) | 2019-04-24 | 2020-10-29 | Progenics Pharmaceuticals, Inc. | Systems and methods for interactive adjustment of intensity windowing in nuclear medicine images |
WO2020219620A1 (en) | 2019-04-24 | 2020-10-29 | Progenics Pharmaceuticals, Inc. | Systems and methods for automated and interactive analysis of bone scan images for detection of metastases |
CN110047073B (zh) * | 2019-05-05 | 2021-07-06 | 北京大学 | 一种x射线焊缝图像缺陷定级方法及*** |
CN112396169B (zh) * | 2019-08-13 | 2024-04-02 | 上海寒武纪信息科技有限公司 | 运算方法、装置、计算机设备和存储介质 |
CN110969182A (zh) * | 2019-05-17 | 2020-04-07 | 丰疆智能科技股份有限公司 | 基于农田图像的卷积神经网络构建方法及其*** |
US11328430B2 (en) * | 2019-05-28 | 2022-05-10 | Arizona Board Of Regents On Behalf Of Arizona State University | Methods, systems, and media for segmenting images |
CN112102221A (zh) * | 2019-05-31 | 2020-12-18 | 深圳市前海安测信息技术有限公司 | 用于检测肿瘤的3D UNet网络模型构建方法、装置及存储介质 |
CN110298366B (zh) * | 2019-07-05 | 2021-05-04 | 北华航天工业学院 | 农作物分布提取方法及装置 |
US20210015438A1 (en) * | 2019-07-16 | 2021-01-21 | Siemens Healthcare Gmbh | Deep learning for perfusion in medical imaging |
CN110599499B (zh) * | 2019-08-22 | 2022-04-19 | 四川大学 | 基于多路卷积神经网络的mri图像心脏结构分割方法 |
CN110517241A (zh) * | 2019-08-23 | 2019-11-29 | 吉林大学第一医院 | 基于核磁成像ideal-iq序列全自动腹部脂肪定量分析的方法 |
CN110619641A (zh) * | 2019-09-02 | 2019-12-27 | 南京信息工程大学 | 一种基于深度学习的三维乳腺癌核磁共振图像肿瘤区域的自动分割方法 |
US10957031B1 (en) * | 2019-09-06 | 2021-03-23 | Accenture Global Solutions Limited | Intelligent defect detection from image data |
CN110598784B (zh) * | 2019-09-11 | 2020-06-02 | 北京建筑大学 | 基于机器学习的建筑垃圾分类方法及装置 |
JP7408325B2 (ja) * | 2019-09-13 | 2024-01-05 | キヤノン株式会社 | 情報処理装置、学習方法およびプログラム |
ES2813777B2 (es) * | 2019-09-23 | 2023-10-27 | Quibim S L | Metodo y sistema para la segmentacion automatica de hiperintensidades de sustancia blanca en imagenes de resonancia magnetica cerebral |
KR20220064408A (ko) * | 2019-09-24 | 2022-05-18 | 카네기 멜론 유니버시티 | 시공간 데이터에 기초하여 의료 이미지를 분석하기 위한 시스템 및 방법 |
CN110675411B (zh) * | 2019-09-26 | 2023-05-16 | 重庆大学 | 基于深度学习的***内病变识别算法 |
US11564621B2 (en) | 2019-09-27 | 2023-01-31 | Progenies Pharmacenticals, Inc. | Systems and methods for artificial intelligence-based image analysis for cancer assessment |
US11544407B1 (en) | 2019-09-27 | 2023-01-03 | Progenics Pharmaceuticals, Inc. | Systems and methods for secure cloud-based medical image upload and processing |
US11900597B2 (en) | 2019-09-27 | 2024-02-13 | Progenics Pharmaceuticals, Inc. | Systems and methods for artificial intelligence-based image analysis for cancer assessment |
US11331056B2 (en) * | 2019-09-30 | 2022-05-17 | GE Precision Healthcare LLC | Computed tomography medical imaging stroke model |
US11545266B2 (en) | 2019-09-30 | 2023-01-03 | GE Precision Healthcare LLC | Medical imaging stroke model |
AU2020358062A1 (en) * | 2019-10-01 | 2022-04-21 | Chevron U.S.A. Inc. | Artificial learning fracture system and method for predicting permeability of hydrocarbon reservoirs |
US11640552B2 (en) * | 2019-10-01 | 2023-05-02 | International Business Machines Corporation | Two stage training to obtain a best deep learning model with efficient use of computing resources |
CN114787857A (zh) * | 2019-10-02 | 2022-07-22 | 纪念斯隆凯特琳癌症中心 | 用于多类图像分割的深度多放大率网络 |
CN112365504A (zh) * | 2019-10-29 | 2021-02-12 | 杭州脉流科技有限公司 | Ct左心室分割方法、装置、设备和存储介质 |
US11232859B2 (en) * | 2019-11-07 | 2022-01-25 | Siemens Healthcare Gmbh | Artificial intelligence for basal and apical slice identification in cardiac MRI short axis acquisitions |
KR20210056179A (ko) | 2019-11-08 | 2021-05-18 | 삼성전자주식회사 | Ai 부호화 장치 및 그 동작방법, 및 ai 복호화 장치 및 그 동작방법 |
US10762629B1 (en) | 2019-11-14 | 2020-09-01 | SegAI LLC | Segmenting medical images |
US11423544B1 (en) | 2019-11-14 | 2022-08-23 | Seg AI LLC | Segmenting medical images |
CN110930383A (zh) * | 2019-11-20 | 2020-03-27 | 佛山市南海区广工大数控装备协同创新研究院 | 基于深度学习语义分割和图像分类的注射器缺陷检测方法 |
CN110910368B (zh) * | 2019-11-20 | 2022-05-13 | 佛山市南海区广工大数控装备协同创新研究院 | 基于语义分割的注射器缺陷检测方法 |
CN111161292B (zh) * | 2019-11-21 | 2023-09-05 | 合肥合工安驰智能科技有限公司 | 一种矿石尺度测量方法及应用*** |
EP3828828A1 (en) | 2019-11-28 | 2021-06-02 | Robovision | Improved physical object handling based on deep learning |
CN111179149B (zh) * | 2019-12-17 | 2022-03-08 | Tcl华星光电技术有限公司 | 图像处理方法、装置、电子设备和计算机可读存储介质 |
CN111144486B (zh) * | 2019-12-27 | 2022-06-10 | 电子科技大学 | 基于卷积神经网络的心脏核磁共振图像关键点检测方法 |
CN111260705B (zh) * | 2020-01-13 | 2022-03-15 | 武汉大学 | 一种基于深度卷积神经网络的***mr图像多任务配准方法 |
CN111402203B (zh) * | 2020-02-24 | 2024-03-01 | 杭州电子科技大学 | 一种基于卷积神经网络的织物表面缺陷检测方法 |
CN111311737B (zh) * | 2020-03-04 | 2023-03-10 | 中南民族大学 | 心脏图像的三维建模方法、装置、设备及存储介质 |
CN111281387B (zh) * | 2020-03-09 | 2024-03-26 | 中山大学 | 基于人工神经网络的左心房与心房瘢痕的分割方法及装置 |
US11810303B2 (en) * | 2020-03-11 | 2023-11-07 | Purdue Research Foundation | System architecture and method of processing images |
US11763456B2 (en) | 2020-03-11 | 2023-09-19 | Purdue Research Foundation | Systems and methods for processing echocardiogram images |
CN111340816A (zh) * | 2020-03-23 | 2020-06-26 | 沈阳航空航天大学 | 一种基于双u型网络框架的图像分割方法 |
CN111462060A (zh) * | 2020-03-24 | 2020-07-28 | 湖南大学 | 胎儿超声图像中标准切面图像的检测方法和装置 |
US11704803B2 (en) * | 2020-03-30 | 2023-07-18 | The Board Of Trustees Of The Leland Stanford Junior University | Methods and systems using video-based machine learning for beat-to-beat assessment of cardiac function |
US20210319539A1 (en) * | 2020-04-13 | 2021-10-14 | GE Precision Healthcare LLC | Systems and methods for background aware reconstruction using deep learning |
US11386988B2 (en) | 2020-04-23 | 2022-07-12 | Exini Diagnostics Ab | Systems and methods for deep-learning-based segmentation of composite images |
US11321844B2 (en) | 2020-04-23 | 2022-05-03 | Exini Diagnostics Ab | Systems and methods for deep-learning-based segmentation of composite images |
US20210330285A1 (en) * | 2020-04-28 | 2021-10-28 | EchoNous, Inc. | Systems and methods for automated physiological parameter estimation from ultrasound image sequences |
CN111652886B (zh) * | 2020-05-06 | 2022-07-22 | 哈尔滨工业大学 | 一种基于改进U-net网络的肝肿瘤分割方法 |
CN112330674B (zh) * | 2020-05-07 | 2023-06-30 | 南京信息工程大学 | 一种基于脑部mri三维图像置信度的自适应变尺度卷积核方法 |
US11523801B2 (en) * | 2020-05-11 | 2022-12-13 | EchoNous, Inc. | Automatically identifying anatomical structures in medical images in a manner that is sensitive to the particular view in which each image is captured |
US11532084B2 (en) | 2020-05-11 | 2022-12-20 | EchoNous, Inc. | Gating machine learning predictions on medical ultrasound images via risk and uncertainty quantification |
CN111739028A (zh) * | 2020-05-26 | 2020-10-02 | 华南理工大学 | 指甲区域图像获取方法、***、计算设备及存储介质 |
WO2021247603A1 (en) * | 2020-06-02 | 2021-12-09 | Cape Analytics, Inc. | Method for property feature segmentation |
WO2021255514A1 (en) * | 2020-06-15 | 2021-12-23 | Universidade Do Porto | Padding method for convolutional neural network layers adapted to perform multivariate time series analysis |
US11693919B2 (en) * | 2020-06-22 | 2023-07-04 | Shanghai United Imaging Intelligence Co., Ltd. | Anatomy-aware motion estimation |
CN111798462B (zh) * | 2020-06-30 | 2022-10-14 | 电子科技大学 | 一种基于ct图像的鼻咽癌放疗靶区自动勾画方法 |
US11216960B1 (en) * | 2020-07-01 | 2022-01-04 | Alipay Labs (singapore) Pte. Ltd. | Image processing method and system |
CN111754534B (zh) * | 2020-07-01 | 2024-05-31 | 杭州脉流科技有限公司 | 基于深度神经网络的ct左心室短轴图像分割方法、装置、计算机设备和存储介质 |
US11721428B2 (en) | 2020-07-06 | 2023-08-08 | Exini Diagnostics Ab | Systems and methods for artificial intelligence-based image analysis for detection and characterization of lesions |
EP3940629A1 (en) * | 2020-07-13 | 2022-01-19 | Koninklijke Philips N.V. | Image intensity correction in magnetic resonance imaging |
CN112001887B (zh) * | 2020-07-20 | 2021-11-09 | 南通大学 | 用于婴幼儿脑病历图像分割的全卷积遗传神经网络方法 |
CN111738268B (zh) * | 2020-07-22 | 2023-11-14 | 浙江大学 | 一种基于随机块的高分遥感图像的语义分割方法及*** |
WO2022061840A1 (en) * | 2020-09-27 | 2022-03-31 | Shanghai United Imaging Healthcare Co., Ltd. | Systems and methods for generating radiation therapy plan |
US20220114699A1 (en) * | 2020-10-09 | 2022-04-14 | The Regents Of The University Of California | Spatiotemporal resolution enhancement of biomedical images |
US11601661B2 (en) * | 2020-10-09 | 2023-03-07 | Tencent America LLC | Deep loop filter by temporal deformable convolution |
US11688063B2 (en) | 2020-10-30 | 2023-06-27 | Guerbet | Ensemble machine learning model architecture for lesion detection |
US11749401B2 (en) | 2020-10-30 | 2023-09-05 | Guerbet | Seed relabeling for seed-based segmentation of a medical image |
US11694329B2 (en) | 2020-10-30 | 2023-07-04 | International Business Machines Corporation | Logistic model to determine 3D z-wise lesion connectivity |
US11688517B2 (en) | 2020-10-30 | 2023-06-27 | Guerbet | Multiple operating point false positive removal for lesion identification |
US11436724B2 (en) | 2020-10-30 | 2022-09-06 | International Business Machines Corporation | Lesion detection artificial intelligence pipeline computing system |
US11587236B2 (en) | 2020-10-30 | 2023-02-21 | International Business Machines Corporation | Refining lesion contours with combined active contour and inpainting |
US11636593B2 (en) | 2020-11-06 | 2023-04-25 | EchoNous, Inc. | Robust segmentation through high-level image understanding |
CN112634243B (zh) * | 2020-12-28 | 2022-08-05 | 吉林大学 | 一种强干扰因素下基于深度学习的图像分类识别*** |
CN112651987B (zh) * | 2020-12-30 | 2024-06-18 | 内蒙古自治区农牧业科学院 | 一种样方草地覆盖度计算方法及*** |
CN112712527A (zh) * | 2020-12-31 | 2021-04-27 | 山西三友和智慧信息技术股份有限公司 | 一种基于DR-Unet104的医疗图像分割方法 |
CN112750106B (zh) * | 2020-12-31 | 2022-11-04 | 山东大学 | 一种基于非完备标记的深度学习的核染色细胞计数方法、计算机设备、存储介质 |
CN112767413B (zh) * | 2021-01-06 | 2022-03-15 | 武汉大学 | 综合区域连通和共生知识约束的遥感影像深度语义分割方法 |
EP4060608A1 (en) | 2021-03-17 | 2022-09-21 | Robovision | Improved vision-based measuring |
EP4060612A1 (en) | 2021-03-17 | 2022-09-21 | Robovision | Improved orientation detection based on deep learning |
US20220335615A1 (en) * | 2021-04-19 | 2022-10-20 | Fujifilm Sonosite, Inc. | Calculating heart parameters |
CN115331041A (zh) * | 2021-04-23 | 2022-11-11 | 伊姆西Ip控股有限责任公司 | 用于数据蒸馏的方法、电子设备和计算机程序产品 |
CN112989107B (zh) * | 2021-05-18 | 2021-07-30 | 北京世纪好未来教育科技有限公司 | 音频分类和分离方法、装置、电子设备以及存储介质 |
CN113469948B (zh) * | 2021-06-08 | 2022-02-25 | 北京安德医智科技有限公司 | 左心室节段识别方法及装置、电子设备和存储介质 |
WO2023283765A1 (zh) * | 2021-07-12 | 2023-01-19 | 上海联影医疗科技股份有限公司 | 机器学习模型的训练方法、装置、计算机设备和存储介质 |
CN113284074B (zh) * | 2021-07-12 | 2021-12-07 | 中德(珠海)人工智能研究院有限公司 | 全景图像的目标对象去除方法、装置、服务器及存储介质 |
US11875559B2 (en) * | 2021-07-12 | 2024-01-16 | Obvio Health Usa, Inc. | Systems and methodologies for automated classification of images of stool in diapers |
CN113808143B (zh) * | 2021-09-06 | 2024-05-17 | 沈阳东软智能医疗科技研究院有限公司 | 图像分割方法、装置、可读存储介质及电子设备 |
CN113838027A (zh) * | 2021-09-23 | 2021-12-24 | 杭州柳叶刀机器人有限公司 | 基于图像处理获取目标图像元素的方法及*** |
US20230126963A1 (en) * | 2021-10-25 | 2023-04-27 | Analogic Corporation | Prediction of extrema of respiratory motion and related systems, methods, and devices |
WO2023075480A1 (ko) * | 2021-10-28 | 2023-05-04 | 주식회사 온택트헬스 | 의료 영상의 예측된 목적 부위에 대한 임상 파라미터를 제공하기 위한 방법, 장치, 레이블링을 위한 의료 영상을 선별하기 위한 방법 및 장치 |
US20230162493A1 (en) * | 2021-11-24 | 2023-05-25 | Riverain Technologies Llc | Method for the automatic detection of aortic disease and automatic generation of an aortic volume |
CN114240951B (zh) * | 2021-12-13 | 2023-04-07 | 电子科技大学 | 一种基于查询的医学图像分割神经网络的黑盒攻击方法 |
CN114549448B (zh) * | 2022-02-17 | 2023-08-11 | 中国空气动力研究与发展中心超高速空气动力研究所 | 一种基于红外热成像数据分析的复杂多类型缺陷检测评估方法 |
WO2023183486A1 (en) * | 2022-03-23 | 2023-09-28 | University Of Southern California | Deep-learning-driven accelerated mr vessel wall imaging |
WO2023235653A1 (en) * | 2022-05-30 | 2023-12-07 | Northwestern University | Panatomic imaging derived 4d hemodynamics using deep learning |
CN115100123A (zh) * | 2022-06-10 | 2022-09-23 | 北京理工大学 | 一种结合UNet和主动轮廓模型的大脑提取方法 |
CN115471659B (zh) * | 2022-09-22 | 2023-04-25 | 北京航星永志科技有限公司 | 语义分割模型的训练方法、分割方法和电子设备 |
KR20240057761A (ko) * | 2022-10-25 | 2024-05-03 | 주식회사 온택트헬스 | 심장 초음파 영상에 대한 정보 제공 방법 및 이를 이용한 심장 초음파 영상에 대한 정보 제공용 디바이스 |
CN116912489B (zh) * | 2023-06-26 | 2024-06-21 | 天津师范大学 | 一种基于傅里叶先验知识的医学图像分割方法和*** |
CN117036376B (zh) * | 2023-10-10 | 2024-01-30 | 四川大学 | 基于人工智能的病变图像分割方法、装置及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130345580A1 (en) * | 2009-04-06 | 2013-12-26 | Sorin Crm S.A.S. | Reconstruction of a surface electrocardiogram from an endocardial electrogram using non-linear filtering |
CN105474219A (zh) * | 2013-08-28 | 2016-04-06 | 西门子公司 | 用于根据医学图像和临床数据来估计生理学心脏测量的***和方法 |
CN105828870A (zh) * | 2013-12-19 | 2016-08-03 | 心脏起搏器股份公司 | 用于测量组织的电气特性以识别用于治疗的神经目标的*** |
WO2017091833A1 (en) * | 2015-11-29 | 2017-06-01 | Arterys Inc. | Automated cardiac volume segmentation |
Family Cites Families (107)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2776844B2 (ja) | 1988-11-30 | 1998-07-16 | 株式会社日立製作所 | 磁気共鳴動体イメージング装置 |
US5115812A (en) | 1988-11-30 | 1992-05-26 | Hitachi, Ltd. | Magnetic resonance imaging method for moving object |
JP3137378B2 (ja) | 1991-09-25 | 2001-02-19 | 株式会社東芝 | 磁気共鳴イメージング装置 |
JP3452400B2 (ja) | 1994-08-02 | 2003-09-29 | 株式会社日立メディコ | 磁気共鳴イメージング装置 |
JP3501182B2 (ja) | 1994-11-22 | 2004-03-02 | 株式会社日立メディコ | 流速画像を算出できる磁気共鳴イメージング装置 |
KR19990082557A (ko) | 1996-02-09 | 1999-11-25 | 윌리암 제이. 버크 | 불확실한 트레이닝 데이터를 사용하여 대상을검출 및 분류하기위한 뉴럴 네트워크의 트레이닝 방법 및 장치 |
US6324532B1 (en) | 1997-02-07 | 2001-11-27 | Sarnoff Corporation | Method and apparatus for training a neural network to detect objects in an image |
WO2000067185A1 (en) | 1999-05-05 | 2000-11-09 | Healthgram, Inc. | Portable health record |
US6711433B1 (en) | 1999-09-30 | 2004-03-23 | Siemens Corporate Research, Inc. | Method for providing a virtual contrast agent for augmented angioscopy |
US8166381B2 (en) | 2000-12-20 | 2012-04-24 | Heart Imaging Technologies, Llc | Medical image management system |
US6934698B2 (en) | 2000-12-20 | 2005-08-23 | Heart Imaging Technologies Llc | Medical image management system |
DE10117685C2 (de) | 2001-04-09 | 2003-02-27 | Siemens Ag | Verfahren zur Bearbeitung von Objekten eines standardisierten Kommunikationsprotokolls |
US7139417B2 (en) | 2001-08-14 | 2006-11-21 | Ge Medical Systems Global Technology Company Llc | Combination compression and registration techniques to implement temporal subtraction as an application service provider to detect changes over time to medical imaging |
US7158692B2 (en) | 2001-10-15 | 2007-01-02 | Insightful Corporation | System and method for mining quantitive information from medical images |
US7355597B2 (en) | 2002-05-06 | 2008-04-08 | Brown University Research Foundation | Method, apparatus and computer program product for the interactive rendering of multivalued volume data with layered complementary values |
GB0219408D0 (en) | 2002-08-20 | 2002-09-25 | Mirada Solutions Ltd | Computation o contour |
ATE470199T1 (de) | 2003-04-24 | 2010-06-15 | Koninkl Philips Electronics Nv | Eingriffsfreie links-herzkammervolumenbestimmung |
US7254436B2 (en) | 2003-05-30 | 2007-08-07 | Heart Imaging Technologies, Llc | Dynamic magnetic resonance angiography |
JP2008510499A (ja) | 2004-06-23 | 2008-04-10 | エムツーエス・インコーポレーテッド | 解剖学的可視化/測定システム |
US7292032B1 (en) | 2004-09-28 | 2007-11-06 | General Electric Company | Method and system of enhanced phase suppression for phase-contrast MR imaging |
US7127095B2 (en) | 2004-10-15 | 2006-10-24 | The Brigham And Women's Hospital, Inc. | Factor analysis in medical imaging |
EP1659511A1 (en) | 2004-11-18 | 2006-05-24 | Cedara Software Corp. | Image archiving system and method for handling new and legacy archives |
US7736313B2 (en) | 2004-11-22 | 2010-06-15 | Carestream Health, Inc. | Detecting and classifying lesions in ultrasound images |
US8000768B2 (en) | 2005-01-10 | 2011-08-16 | Vassol Inc. | Method and system for displaying blood flow |
US20070061460A1 (en) | 2005-03-24 | 2007-03-15 | Jumpnode Systems,Llc | Remote access |
US7567707B2 (en) | 2005-12-20 | 2009-07-28 | Xerox Corporation | Red eye detection and correction |
JP5091644B2 (ja) | 2006-12-04 | 2012-12-05 | 株式会社東芝 | X線コンピュータ断層撮像装置及び医用画像処理装置 |
US7764846B2 (en) | 2006-12-12 | 2010-07-27 | Xerox Corporation | Adaptive red eye correction |
WO2008144751A1 (en) * | 2007-05-21 | 2008-11-27 | Cornell University | Method for segmenting objects in images |
US8098918B2 (en) | 2007-09-21 | 2012-01-17 | Siemens Corporation | Method and system for measuring left ventricle volume |
US7806843B2 (en) | 2007-09-25 | 2010-10-05 | Marin Luis E | External fixator assembly |
JP5191787B2 (ja) | 2008-04-23 | 2013-05-08 | 株式会社日立メディコ | X線ct装置 |
US8483466B2 (en) | 2008-05-22 | 2013-07-09 | Hitachi Medical Corporation | Magnetic resonance imaging apparatus and blood vessel image acquiring method |
FR2932599A1 (fr) | 2008-06-12 | 2009-12-18 | Eugene Franck Maizeroi | Procede et dispositif de traitement d'image, notamment pour le traitement d'images medicales pour la determination de vo lumes 3d |
WO2010003041A2 (en) | 2008-07-03 | 2010-01-07 | Nec Laboratories America, Inc. | Mitotic figure detector and counter system and method for detecting and counting mitotic figures |
WO2010038138A1 (en) | 2008-09-30 | 2010-04-08 | University Of Cape Town | Fluid flow assessment |
JP5422171B2 (ja) | 2008-10-01 | 2014-02-19 | 株式会社東芝 | X線画像診断装置 |
US8148984B2 (en) | 2008-10-03 | 2012-04-03 | Wisconsin Alumni Research Foundation | Method for magnitude constrained phase contrast magnetic resonance imaging |
US8301224B2 (en) | 2008-10-09 | 2012-10-30 | Siemens Aktiengesellschaft | System and method for automatic, non-invasive diagnosis of pulmonary hypertension and measurement of mean pulmonary arterial pressure |
US20100145194A1 (en) | 2008-11-13 | 2010-06-10 | Avid Radiopharmaceuticals, Inc. | Histogram-based analysis method for the detection and diagnosis of neurodegenerative diseases |
US20100158332A1 (en) | 2008-12-22 | 2010-06-24 | Dan Rico | Method and system of automated detection of lesions in medical images |
US8457373B2 (en) | 2009-03-16 | 2013-06-04 | Siemens Aktiengesellschaft | System and method for robust 2D-3D image registration |
WO2010117573A2 (en) | 2009-04-07 | 2010-10-14 | Virginia Commonwealth University | Automated measurement of brain injury indices using brain ct images, injury data, and machine learning |
US8527251B2 (en) | 2009-05-01 | 2013-09-03 | Siemens Aktiengesellschaft | Method and system for multi-component heart and aorta modeling for decision support in cardiac disease |
JP4639347B1 (ja) | 2009-11-20 | 2011-02-23 | 株式会社墨運堂 | 筆記具 |
US20110182493A1 (en) | 2010-01-25 | 2011-07-28 | Martin Huber | Method and a system for image annotation |
US8805048B2 (en) | 2010-04-01 | 2014-08-12 | Mark Batesole | Method and system for orthodontic diagnosis |
WO2012018560A2 (en) | 2010-07-26 | 2012-02-09 | Kjaya, Llc | Adaptive visualization for direct physician use |
RU2013110371A (ru) | 2010-08-13 | 2014-09-20 | Смит Энд Нефью, Инк. | Обнаружение анатомических ориентиров |
US8897519B2 (en) | 2010-09-28 | 2014-11-25 | Siemens Aktiengesellschaft | System and method for background phase correction for phase contrast flow images |
US8374414B2 (en) | 2010-11-05 | 2013-02-12 | The Hong Kong Polytechnic University | Method and system for detecting ischemic stroke |
WO2012077019A2 (en) | 2010-12-09 | 2012-06-14 | Koninklijke Philips Electronics N.V. | Volumetric rendering of image data |
US8600476B2 (en) | 2011-04-21 | 2013-12-03 | Siemens Aktiengesellschaft | Patient support table control system for use in MR imaging |
RU2014102345A (ru) | 2011-06-27 | 2015-08-10 | Конинклейке Филипс Н.В. | Анатомическая пометка обнаруженных изменений в данных изображений, полученных в ходе длительных наблюдений |
JP6006307B2 (ja) | 2011-07-07 | 2016-10-12 | ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー | ボリューム測定位相コントラストmriによる総合的心血管解析 |
US9585568B2 (en) | 2011-09-11 | 2017-03-07 | Steven D. Wolff | Noninvasive methods for determining the pressure gradient across a heart valve without using velocity data at the valve orifice |
US8837800B1 (en) | 2011-10-28 | 2014-09-16 | The Board Of Trustees Of The Leland Stanford Junior University | Automated detection of arterial input function and/or venous output function voxels in medical imaging |
US8682049B2 (en) | 2012-02-14 | 2014-03-25 | Terarecon, Inc. | Cloud-based medical image processing system with access control |
US9014781B2 (en) | 2012-04-19 | 2015-04-21 | General Electric Company | Systems and methods for magnetic resonance angiography |
US9165360B1 (en) | 2012-09-27 | 2015-10-20 | Zepmed, Llc | Methods, systems, and devices for automated analysis of medical scans |
US9495752B2 (en) | 2012-09-27 | 2016-11-15 | Siemens Product Lifecycle Management Software Inc. | Multi-bone segmentation for 3D computed tomography |
WO2014120953A1 (en) | 2013-01-31 | 2014-08-07 | The Regents Of The University Of California | Method for accurate and robust cardiac motion self-gating in magnetic resonance imaging |
WO2014186838A1 (en) | 2013-05-19 | 2014-11-27 | Commonwealth Scientific And Industrial Research Organisation | A system and method for remote medical diagnosis |
US9741116B2 (en) | 2013-08-29 | 2017-08-22 | Mayo Foundation For Medical Education And Research | System and method for boundary classification and automatic polyp detection |
US9406142B2 (en) | 2013-10-08 | 2016-08-02 | The Trustees Of The University Of Pennsylvania | Fully automatic image segmentation of heart valves using multi-atlas label fusion and deformable medial modeling |
US9668699B2 (en) | 2013-10-17 | 2017-06-06 | Siemens Healthcare Gmbh | Method and system for anatomical object detection using marginal space deep neural networks |
US9700219B2 (en) | 2013-10-17 | 2017-07-11 | Siemens Healthcare Gmbh | Method and system for machine learning based assessment of fractional flow reserve |
US20150139517A1 (en) | 2013-11-15 | 2015-05-21 | University Of Iowa Research Foundation | Methods And Systems For Calibration |
JP6301133B2 (ja) | 2014-01-14 | 2018-03-28 | キヤノンメディカルシステムズ株式会社 | 磁気共鳴イメージング装置 |
EP3767630A1 (en) | 2014-01-17 | 2021-01-20 | Arterys Inc. | Methods for four dimensional (4d) flow magnetic resonance imaging |
US9430829B2 (en) | 2014-01-30 | 2016-08-30 | Case Western Reserve University | Automatic detection of mitosis using handcrafted and convolutional neural network features |
KR20150098119A (ko) | 2014-02-19 | 2015-08-27 | 삼성전자주식회사 | 의료 영상 내 거짓양성 병변후보 제거 시스템 및 방법 |
US20150324690A1 (en) | 2014-05-08 | 2015-11-12 | Microsoft Corporation | Deep Learning Training System |
EP3143599A1 (en) | 2014-05-15 | 2017-03-22 | Brainlab AG | Indication-dependent display of a medical image |
KR20160010157A (ko) | 2014-07-18 | 2016-01-27 | 삼성전자주식회사 | 차원 축소 기반 3차원 컴퓨터 보조 진단 장치 및 방법 |
US9707400B2 (en) | 2014-08-15 | 2017-07-18 | Medtronic, Inc. | Systems, methods, and interfaces for configuring cardiac therapy |
US20160203263A1 (en) | 2015-01-08 | 2016-07-14 | Imbio | Systems and methods for analyzing medical images and creating a report |
CA2978708A1 (en) | 2015-03-03 | 2016-09-09 | Nantomics, Llc | Ensemble-based research recommendation systems and methods |
US10115194B2 (en) | 2015-04-06 | 2018-10-30 | IDx, LLC | Systems and methods for feature detection in retinal images |
US9633306B2 (en) * | 2015-05-07 | 2017-04-25 | Siemens Healthcare Gmbh | Method and system for approximating deep neural networks for anatomical object detection |
US10176408B2 (en) | 2015-08-14 | 2019-01-08 | Elucid Bioimaging Inc. | Systems and methods for analyzing pathologies utilizing quantitative imaging |
US10282663B2 (en) | 2015-08-15 | 2019-05-07 | Salesforce.Com, Inc. | Three-dimensional (3D) convolution with 3D batch normalization |
US9792531B2 (en) | 2015-09-16 | 2017-10-17 | Siemens Healthcare Gmbh | Intelligent multi-scale medical image landmark detection |
US9569736B1 (en) | 2015-09-16 | 2017-02-14 | Siemens Healthcare Gmbh | Intelligent medical image landmark detection |
US10192129B2 (en) | 2015-11-18 | 2019-01-29 | Adobe Systems Incorporated | Utilizing interactive deep learning to select objects in digital visual media |
US11200664B2 (en) | 2015-12-18 | 2021-12-14 | The Regents Of The University Of California | Interpretation and quantification of emergency features on head computed tomography |
US10163028B2 (en) | 2016-01-25 | 2018-12-25 | Koninklijke Philips N.V. | Image data pre-processing |
DE102016204225B3 (de) | 2016-03-15 | 2017-07-20 | Friedrich-Alexander-Universität Erlangen-Nürnberg | Verfahren zur automatischen Erkennung von anatomischen Landmarken und Vorrichtung |
CN105825509A (zh) | 2016-03-17 | 2016-08-03 | 电子科技大学 | 基于3d卷积神经网络的脑血管分割方法 |
US9886758B2 (en) | 2016-03-31 | 2018-02-06 | International Business Machines Corporation | Annotation of skin image using learned feature representation |
CN205665697U (zh) | 2016-04-05 | 2016-10-26 | 陈进民 | 基于细胞神经网络或卷积神经网络的医学影像识别诊断*** |
CN106127725B (zh) | 2016-05-16 | 2019-01-22 | 北京工业大学 | 一种基于多分辨率cnn的毫米波雷达云图分割方法 |
CN106096632A (zh) | 2016-06-02 | 2016-11-09 | 哈尔滨工业大学 | 基于深度学习和mri图像的心室功能指标预测方法 |
CN106096616A (zh) | 2016-06-08 | 2016-11-09 | 四川大学华西医院 | 一种基于深度学习的磁共振影像特征提取及分类方法 |
US9589374B1 (en) | 2016-08-01 | 2017-03-07 | 12 Sigma Technologies | Computer-aided diagnosis system for medical images using deep convolutional neural networks |
US10582907B2 (en) * | 2016-10-31 | 2020-03-10 | Siemens Healthcare Gmbh | Deep learning based bone removal in computed tomography angiography |
EP3573520A4 (en) | 2017-01-27 | 2020-11-04 | Arterys Inc. | AUTOMATED SEGMENTATION USING FULLY CONVOLUTIVE NETWORKS |
US10373313B2 (en) | 2017-03-02 | 2019-08-06 | Siemens Healthcare Gmbh | Spatially consistent multi-scale anatomical landmark detection in incomplete 3D-CT data |
EP3616120A1 (en) | 2017-04-27 | 2020-03-04 | Retinascan Limited | System and method for automated funduscopic image analysis |
US20200085382A1 (en) | 2017-05-30 | 2020-03-19 | Arterys Inc. | Automated lesion detection, segmentation, and longitudinal identification |
CN107341265B (zh) | 2017-07-20 | 2020-08-14 | 东北大学 | 一种融合深度特征的乳腺图像检索***与方法 |
EP3714467A4 (en) | 2017-11-22 | 2021-09-15 | Arterys Inc. | CONTENT-BASED IMAGE RECOVERY FOR LESION ANALYSIS |
US10902591B2 (en) | 2018-02-09 | 2021-01-26 | Case Western Reserve University | Predicting pathological complete response to neoadjuvant chemotherapy from baseline breast dynamic contrast enhanced magnetic resonance imaging (DCE-MRI) |
KR101952887B1 (ko) | 2018-07-27 | 2019-06-11 | 김예현 | 해부학적 랜드마크의 예측 방법 및 이를 이용한 디바이스 |
KR102575569B1 (ko) | 2018-08-13 | 2023-09-07 | 쑤저우 레킨 세미컨덕터 컴퍼니 리미티드 | 반도체 소자 |
JP7125312B2 (ja) | 2018-09-07 | 2022-08-24 | 富士フイルムヘルスケア株式会社 | 磁気共鳴撮像装置、画像処理装置、及び、画像処理方法 |
US10646156B1 (en) | 2019-06-14 | 2020-05-12 | Cycle Clarity, LLC | Adaptive image processing in assisted reproductive imaging modalities |
-
2018
- 2018-01-25 EP EP18745114.1A patent/EP3573520A4/en not_active Withdrawn
- 2018-01-25 US US15/879,732 patent/US10600184B2/en active Active
- 2018-01-25 WO PCT/US2018/015222 patent/WO2018140596A2/en unknown
- 2018-01-25 JP JP2019540646A patent/JP2020510463A/ja active Pending
- 2018-01-25 US US15/879,742 patent/US10902598B2/en active Active
- 2018-01-25 CN CN201880020558.2A patent/CN110475505B/zh not_active Expired - Fee Related
-
2020
- 2020-02-25 US US16/800,922 patent/US20200193603A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130345580A1 (en) * | 2009-04-06 | 2013-12-26 | Sorin Crm S.A.S. | Reconstruction of a surface electrocardiogram from an endocardial electrogram using non-linear filtering |
CN105474219A (zh) * | 2013-08-28 | 2016-04-06 | 西门子公司 | 用于根据医学图像和临床数据来估计生理学心脏测量的***和方法 |
CN105828870A (zh) * | 2013-12-19 | 2016-08-03 | 心脏起搏器股份公司 | 用于测量组织的电气特性以识别用于治疗的神经目标的*** |
WO2017091833A1 (en) * | 2015-11-29 | 2017-06-01 | Arterys Inc. | Automated cardiac volume segmentation |
Non-Patent Citations (2)
Title |
---|
ARXIV.ORG: "A Deep Neural Network Architecture for", 《CORNELL UNIVERSITY LIBRARY》 * |
STIAAN WIEHMAN等: "Semantic Segmentation of Bioimages Using Convolutional Neural Networks", 《IEEE》 * |
Cited By (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110991408A (zh) * | 2019-12-19 | 2020-04-10 | 北京航空航天大学 | 基于深度学习方法分割脑白质高信号的方法和装置 |
CN110991408B (zh) * | 2019-12-19 | 2022-09-06 | 北京航空航天大学 | 基于深度学习方法分割脑白质高信号的方法和装置 |
CN110739050B (zh) * | 2019-12-20 | 2020-07-28 | 深圳大学 | 一种左心室全参数及置信度的量化方法 |
CN110739050A (zh) * | 2019-12-20 | 2020-01-31 | 深圳大学 | 一种左心室全参数及置信度的量化方法 |
CN113327224A (zh) * | 2020-02-28 | 2021-08-31 | 通用电气精准医疗有限责任公司 | 自动视场(fov)界定的***和方法 |
CN111401373A (zh) * | 2020-03-04 | 2020-07-10 | 武汉大学 | 基于分组非对称卷积的高效语义分割方法 |
CN111401373B (zh) * | 2020-03-04 | 2022-02-15 | 武汉大学 | 基于分组非对称卷积的高效语义分割方法 |
TWI798655B (zh) * | 2020-03-09 | 2023-04-11 | 美商奈米創尼克影像公司 | 缺陷偵測系統 |
US11416711B2 (en) | 2020-03-09 | 2022-08-16 | Nanotronics Imaging, Inc. | Defect detection system |
WO2021183473A1 (en) * | 2020-03-09 | 2021-09-16 | Nanotronics Imaging, Inc. | Defect detection system |
WO2021191692A1 (en) * | 2020-03-27 | 2021-09-30 | International Business Machines Corporation | Annotation of digital images for machine learning |
US11205287B2 (en) | 2020-03-27 | 2021-12-21 | International Business Machines Corporation | Annotation of digital images for machine learning |
CN111466894A (zh) * | 2020-04-07 | 2020-07-31 | 上海尽星生物科技有限责任公司 | 一种基于深度学习的射血分数计算方法及*** |
CN111666972A (zh) * | 2020-04-28 | 2020-09-15 | 清华大学 | 基于深度神经网络的肝部病例图像分类方法及*** |
CN111739000A (zh) * | 2020-06-16 | 2020-10-02 | 山东大学 | 一种提高多个心脏视图左心室分割精确度的***及装置 |
CN111739000B (zh) * | 2020-06-16 | 2022-09-13 | 山东大学 | 一种提高多个心脏视图左心室分割精确度的***及装置 |
CN111928794A (zh) * | 2020-08-04 | 2020-11-13 | 北京理工大学 | 基于深度学习的闭合条纹兼容单幅干涉图解相方法及装置 |
CN111928794B (zh) * | 2020-08-04 | 2022-03-11 | 北京理工大学 | 基于深度学习的闭合条纹兼容单幅干涉图解相方法及装置 |
CN111898211A (zh) * | 2020-08-07 | 2020-11-06 | 吉林大学 | 基于深度强化学习的智能车速度决策方法及其仿真方法 |
CN112085162A (zh) * | 2020-08-12 | 2020-12-15 | 北京师范大学 | 基于神经网络的磁共振脑组织分割方法、装置、计算设备及存储介质 |
CN112085162B (zh) * | 2020-08-12 | 2024-02-09 | 北京师范大学 | 基于神经网络的磁共振脑组织分割方法、装置、计算设备及存储介质 |
CN111968112A (zh) * | 2020-09-02 | 2020-11-20 | 广州海兆印丰信息科技有限公司 | Ct三维定位图像的获取方法、装置和计算机设备 |
CN111968112B (zh) * | 2020-09-02 | 2023-12-26 | 广州海兆印丰信息科技有限公司 | Ct三维定位图像的获取方法、装置和计算机设备 |
TWI792055B (zh) * | 2020-09-25 | 2023-02-11 | 國立勤益科技大學 | 利用三維深度學習之心臟超音波判斷模型之建立方法、利用三維深度學習之心臟超音波判斷系統及其方法 |
CN112734770A (zh) * | 2021-01-06 | 2021-04-30 | 中国人民解放军陆军军医大学第二附属医院 | 一种基于多层级联的心脏核磁影像多序列融合分割方法 |
CN112734770B (zh) * | 2021-01-06 | 2022-11-25 | 中国人民解放军陆军军医大学第二附属医院 | 一种基于多层级联的心脏核磁影像多序列融合分割方法 |
CN112932535A (zh) * | 2021-02-01 | 2021-06-11 | 杜国庆 | 一种医学图像分割及检测方法 |
CN112932535B (zh) * | 2021-02-01 | 2022-10-18 | 杜国庆 | 一种医学图像分割及检测方法 |
CN112785592A (zh) * | 2021-03-10 | 2021-05-11 | 河北工业大学 | 基于多重扩张路径的医学影像深度分割网络 |
CN113674235B (zh) * | 2021-08-15 | 2023-10-10 | 上海立芯软件科技有限公司 | 一种基于主动熵采样和模型校准的低代价光刻热点检测方法 |
CN113674235A (zh) * | 2021-08-15 | 2021-11-19 | 上海立芯软件科技有限公司 | 一种基于主动熵采样和模型校准的低代价光刻热点检测方法 |
CN113838001A (zh) * | 2021-08-24 | 2021-12-24 | 内蒙古电力科学研究院 | 基于核密度估计的超声波全聚焦图像缺陷处理方法及装置 |
CN113838001B (zh) * | 2021-08-24 | 2024-02-13 | 内蒙古电力科学研究院 | 基于核密度估计的超声波全聚焦图像缺陷处理方法及装置 |
CN113838068A (zh) * | 2021-09-27 | 2021-12-24 | 深圳科亚医疗科技有限公司 | 心肌节段的自动分割方法、装置和存储介质 |
WO2023226793A1 (zh) * | 2022-05-23 | 2023-11-30 | 深圳微创心算子医疗科技有限公司 | 二尖瓣开口间距检测方法、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
EP3573520A4 (en) | 2020-11-04 |
WO2018140596A2 (en) | 2018-08-02 |
CN110475505B (zh) | 2022-04-05 |
US10902598B2 (en) | 2021-01-26 |
JP2020510463A (ja) | 2020-04-09 |
US10600184B2 (en) | 2020-03-24 |
US20180218497A1 (en) | 2018-08-02 |
US20200193603A1 (en) | 2020-06-18 |
EP3573520A2 (en) | 2019-12-04 |
WO2018140596A3 (en) | 2018-09-07 |
US20180218502A1 (en) | 2018-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110475505A (zh) | 利用全卷积网络的自动分割 | |
CN108603922A (zh) | 自动心脏体积分割 | |
Khan et al. | Deep neural architectures for medical image semantic segmentation | |
Zotti et al. | Convolutional neural network with shape prior applied to cardiac MRI segmentation | |
US9968257B1 (en) | Volumetric quantification of cardiovascular structures from medical imaging | |
Khened et al. | Densely connected fully convolutional network for short-axis cardiac cine MR image segmentation and heart diagnosis using random forest | |
US20220028085A1 (en) | Method and system for providing an at least 3-dimensional medical image segmentation of a structure of an internal organ | |
Biffi et al. | Explainable anatomical shape analysis through deep hierarchical generative models | |
Yang et al. | A deep learning segmentation approach in free‐breathing real‐time cardiac magnetic resonance imaging | |
Wang et al. | MMNet: A multi-scale deep learning network for the left ventricular segmentation of cardiac MRI images | |
Yan et al. | Cine MRI analysis by deep learning of optical flow: Adding the temporal dimension | |
Shoaib et al. | An overview of deep learning methods for left ventricle segmentation | |
Azarmehr et al. | Neural architecture search of echocardiography view classifiers | |
Laumer et al. | Weakly supervised inference of personalized heart meshes based on echocardiography videos | |
Baumgartner et al. | Fully convolutional networks in medical imaging: applications to image enhancement and recognition | |
Li et al. | Cardiac MRI segmentation with focal loss constrained deep residual networks | |
Li et al. | Medical image segmentation with generative adversarial semi-supervised network | |
CN117649422B (zh) | 多模态图像分割模型的训练方法和多模态图像分割方法 | |
Hao et al. | MUE-CoT: multi-scale uncertainty entropy-aware co-training framework for left atrial segmentation | |
Khan | A Novel Deep Learning-Based Framework for Context-Aware Semantic Segmentation in Medical Imaging | |
US20230196557A1 (en) | Late Gadolinium Enhancement Analysis for Magnetic Resonance Imaging | |
Lane | A computer vision pipeline for fully automated echocardiogram interpretation | |
Shi | Deep learning in sequential data analysis | |
Galati | Cardiac Image Segmentation: towards better reliability and generalization. | |
Jaffré | Deep learning-based segmentation of the aorta from dynamic 2D magnetic resonance images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220405 |
|
CF01 | Termination of patent right due to non-payment of annual fee |