CN111798455A - 一种基于全卷积密集空洞网络的甲状腺结节实时分割方法 - Google Patents
一种基于全卷积密集空洞网络的甲状腺结节实时分割方法 Download PDFInfo
- Publication number
- CN111798455A CN111798455A CN201910914157.8A CN201910914157A CN111798455A CN 111798455 A CN111798455 A CN 111798455A CN 201910914157 A CN201910914157 A CN 201910914157A CN 111798455 A CN111798455 A CN 111798455A
- Authority
- CN
- China
- Prior art keywords
- convolution
- full
- dense
- thyroid
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于全卷积密集空洞网络的甲状腺结节实时分割方法,包括以下步骤:步骤一,获取甲状腺数据并进行预处理;步骤二,将所得到的数据进行标注,作为训练全卷积密集空洞网络模型的数据集;步骤三,基于密集连接构造全卷积密集空洞网络模型,并进行参数训练;步骤四,将卷积层中的卷积核替换为空洞卷积并使用卷积核分解进行分解;步骤五,对卷积层的输入进行数据标准化和非线性激活处理;步骤六,对全卷积密集空洞网络模型的分割效果及效率进行分析及对比。
Description
技术领域
本发明属于深度学习和图像处理领域,涉及卷积神经网络和图像语义分割技术,尤其是一种基于全卷积密集空洞网络的甲状腺结节实时分割方法。
背景技术
甲状腺结节在内分泌***中是最常见的异常,其潜在的恶性让它们在临床上非常重要。超声检查是诊断甲状腺结节的首选成像方法。在临床实践中,放射科医生根据超声图像中结节横纵比、是否存在钙化、结构(弥散、单发或多发)、边界、回声特点(高回声、等回声和低回声)等肉眼可见的评估标准对甲状腺良恶性进行诊断,但由于认知能力、主观经验、疲劳程度等影响,医生对一张甲状腺超声图像可能会出现不同的诊断结果。此外,超声图像中的低对比度和散斑噪声也会对医生的诊断造成影响。
近年来,基于深度学习的计算机辅助诊断已逐渐受到研究人员重视,针对甲状腺超声图像辅助诊断的研究也取得了长足的发展。现有的深度学习方[1][2]达到了很高的精度,然而,由它们训练得到的模型有着大量的权值参数,需要大量的计算资源,而医疗设备的存储空间和处理器性能有限,这就一定程度上限制了深度学习方法的实际应用。另一方面,计算机辅助诊断的目的是为了缩短诊断时间,提高诊断效率以及准确率,这就要求深度模型不但要有高精度也要具备高实时性。
近年来,设计更深的神经网络在图像分类,语义分割和目标检测等任务上比许多传统计算机视觉算法取得了更高的精度,然而这也需要大量的计算资源和较长的推理时间,这使深度模型无法在一些资源受限的平台上运行。为了解决高精度和计算资源之间的平衡问题,现有的方法多数集中在网络剪枝[3],low-bit quantization[4]和设计高效的网络架构。然而无论是网络剪枝还是low-bit quantization,都是在已经训练好的模型上进行处理,模型的精度将不可避免的受到影响。相对而言,设计高效的网络架构能够在减少模型所需计算资源的同时,不损失精度。现有的深度网络拥有非常多的参数,然而有些参数在网络运行时作用非常小,甚至没有作用,文献[5]中设计的网络与之前的网络相比,性能提升了然而参数数量没变,所以减少网络的参数,提升剩余参数的作用对平衡网络的精度和运算资源是非常有用的。
发明内容
本发明的目的是为了解决现有语义分割模型参数过多,无法高效在计算资源有限的计算机辅助诊断设备上运行的问题,本发明通过设计新的网络模型,通过采用密集连接、空洞卷积及卷积核分解的方法,保持了高精度且极大地减少了模型的参数。
本发明的目的是通过以下技术方案实现的:
一种基于全卷积密集空洞网络的甲状腺结节实时分割方法,包括以下步骤:
步骤一:获取甲状腺数据并进行预处理;
步骤二:将所得到的数据进行标注,作为训练全卷积密集空洞网络模型的数据集;
步骤三:基于密集连接构造全卷积密集网络模型,并进行参数训练;
步骤四:将卷积层中的卷积核替换为空洞卷积并使用卷积核分解进行分解;
步骤五:对卷积层的输入进行数据标准化和非线性激活处理;
步骤六:对全卷积密集空洞网络模型的分割效果及效率进行精度指标与效率分析及对比。
进一步的,步骤二中对获取的甲状腺超声图像进行结节边缘的标记,并对甲状腺超声图像的大小做归一化处理;形成的数据集包括训练集和测试集。
进一步的,步骤三中使用步骤二得到的数据集对全卷积密集空洞网络模型参数进行训练;该全卷积密集空洞网络模型是进行甲状腺结节分割的端到端的模型,遵循自动编码器-解码器的架构,并且使用密集连接将卷积层提取的特征进行跨层传输。
进一步的,步骤四中,全卷积密集空洞网络模型由卷积层构成,不同卷积层中的卷积核使用不同空洞率的空洞卷积进行替代,并使用卷积核分解将二维卷积核分解成一维卷积核。
进一步的,步骤五在步骤四的基础上在卷积层使用批标准化(BN)、线性修正单元激活函数(ReLU)对卷积层的输入进行标准化和激活,并使用随机失活(dorpout)对全卷积密集空洞网络模型参数进行处理;具体包括对卷积层的输入使用批标准化(BN)进行数据标准化处理、使用线性修正单元激活函数(ReLU)增加数据的非线性。
与现有技术相比,本发明的技术方案所带来的有益效果是:
1.本发明构造的模型中使用密集连接、空洞卷积和卷积核分解的组合,使之在保持类似学习性能的同时更加高效。密集连接可以大幅提高特征重用,使得模型使用少量的卷积核就可以生成大量的特征,最终模型的大小也就比较小。卷积核分解将一个3×3大小的卷积核分解成3×1和1×3大小的两个卷积核,模型参数减少,但模型的非线性增加,因此精度不会大幅下降。空洞卷积在保持相同参数数量的同时可以获取更多的上下文信息,从而提高模型的精度。
2.本发明构造的模型在甲状腺数据集上达到了与高精度模型类似的分割精度,IOU比整体效果最好的FCDenseNet模型高了0.57%,为70.72%,且在单个NVIDATITAN XpGPU上运行时间不到高精度模型的1/6,仅为7.74ms,效率也与高效模型一样有竞争力,仅比最快的ENet多了2.24ms。
3.本发明方法训练的模型在分割精度和速度之间取得了很好的平衡,模型大小仅为3.9Mb,适用于既需要鲁棒性又需要效率的设备上。
附图说明
图1是本发明方法的流程示意图。
图2a是筛选的甲状腺超声图像,图2b表示图像的标签(ground truth)。
图4a表示输入到全卷积密集空洞网络模型的图像,图4b表示FCDDN模型的分割结果。图4c表示FC DenseNet模型的分割结果;图4d表示U-Net模型的分割结果。
具体实施方式
以下结合附图和具体实施例对本发明作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供了一种基于全卷积密集空洞网络的甲状腺结节分割方法,如图1所示,为本发明甲状腺结节分割方法的具体实施例的整体流程示意图,包括:
步骤一:获取甲状腺数据并进行预处理;
步骤101:从医院获取经过病理验证的甲状腺超声图像数据,将图像从带有病历的文件夹中取出,修改图像的名称并做好备份,然后将图像清晰,结节生理构造清除的数据筛选出来。
步骤二:将所得到的数据进行标注,作为训练全卷积密集空洞网络模型的数据集;
步骤201:在超声科及放射科医生的帮助下,对筛选的超声图像进行了结节边缘的标记,并根据标记得到groundtruth,形成了本发明的数据集,这些图像被随机分为训练集和测试集,然后对图像及ground truth的大小统一缩放为256×256(图像及ground truth如图2a和图2b所示)。
步骤三:基于密集连接构造全卷积密集网络模型,并进行参数训练;
步骤301:该全卷积密集空洞网络模型遵循自动编码器-解码器的架构进行搭建,可称为Fully Convolutional Dense DilatedNet模型;简称为FCDDN模型;其中第1至8层构成了编码器,第9至15层构成了解码器。第1层是一个卷积核大小为3×3,个数为48的卷积层;第2至第8层是依次为1个卷积层、池化层、1个卷积层、池化层、4个卷积层、池化层,1个卷积层,卷积层的卷积核大小为3×3,个数为16,池化层大小为2×2,步长为2;第9至第14层依次为反卷积层、1个卷积层、反卷积层、1个卷积层、反卷积层、1个卷积层,反卷积大小为3×3,步长为2,卷积层的卷积核大小为3×3,个数为16;第15层是一个卷积核大小为1×1,卷积核个数为2的卷积层,用来对特征进行分类。
步骤302:使用甲状腺数据集中的训练集对全卷积密集空洞网络模型的参数进行训练。初始学习率是0.0001,每训练一定轮数除以2,共训练240轮,最终学习率为0.00005,dropout为0.8,使用随机梯度下降优化器theAdam optimization进行训练。
步骤四:将卷积层中的卷积核替换为空洞卷积并使用卷积核分解进行分解;
步骤401:全卷积密集空洞网络模型中包含多个卷积层,不同卷积层中的卷积核使用不同空洞率的空洞卷积进行替代,根据全卷积密集空洞网络模型的层中包含的卷积层的个数设置空洞率,包含一个卷积层的层,空洞卷积的空洞率为2,包含4个卷积层的层,卷积层的空洞率依次为2、4、8、16。
步骤402:提出使用卷积核分解将第2至14层中的2维卷积核分解成一维卷积核,这些卷积核大小都是3×3,可以被分解为两个连续的大小为3×1和1×3的卷积核。对大小为3×3的卷积核,卷积核分解可以使模型参数减少至原来的2/3。
步骤五:对卷积层的输入进行数据批标准化和非线性激活处理;
步骤501:对输入卷积层的数据进行批标准化处理,具体如下,先计算数据均值,再计算数据方差,然后用标准差公式对数据标准化处理,最后引入γ和β两个参数,对数据进行平移和缩放处理。
步骤502:对批标准化处理后的数据使用Relu函数进行非线性激活处理。至此卷积层的结构搭建结束,其完整示意图如图3所示,输入卷积层的数据以此经过批标准化处理、非线性激活处理、大小为3×1和1×3的卷积核,最后将输入卷积层的数据与输出的数据连接在一起,Dropout仅仅在训练网络时随机使部分神经元失活,训练好的网络不再失活神经元。
步骤六:对全卷积密集空洞网络模型的分割效果及效率进行分析及对比。
将训练好的的全卷积密集空洞网络模型用于测试集的结节分割,准确率是衡量分割效果的重要的方面,评价准确率的主要指标是IOU、TPF及FPF,分割效率也是衡量模型优劣的重要方面,评价效率的只要指标是运行时间及存储大小。表(1)将FCDDN模型的分割效果及效率与其它模型定量地进行对比分析,从每个模型的IOU、TPF及FPF来看,本发明提出的FCDDN模型IOU、TPF及FPF分别为72.72%、96.10%、0.677%,与准确率中最好的U-Net、FCDenseNet模型相比整体差距不大,虽然U-Net的IOU比本发明的模型高了3.76%,而运行时间却多了接近一倍,参数多了两个数量级,并且从图4a至图4d中来看,U-Net的分割结果经常比groundtruth小,对医生诊断甲状腺良恶性的时候会造成一定影响。从运行时间及模型大小(Model size)来看,本发明提出的全卷积密集网络模型与高效模型(ENet、ERFNet)的效率一样高,模型大小甚至要小很多,而分割准确率却比高效模型要高。综合多个评价指标,本发明提出的全卷积密集网络模型在所有对比模型中是最优的。
表1模型分割结果及对比
具体的,上述实验验证采用intersection-over-union(IOU)、true positivefraction(TPF)以及false positive fraction(FPF)三种评价指标对实验结果进行评价。三种评价指标的计算方式如式(1)、(2)、(3)所示。
IOU=area(A∩B)/area(A∪B) (1)
TPF=area(A∩B)/area(A) (2)
FPF=(area(A)-area(A∩B))/(area(C)-area(A)) (3)
其中,A是ground truth中结节区域,B是模型分割结果中的结节区域,C是groundtruth。IOU与TPF越大,FPF越小,表示分割效果越好。此外,还对模型的运行时间进行测试对比,时间越短,模型分割效率越高。
实验结果表明,与高精度网络相比,本发明提出的全卷积密集网络模型在IOU上达到了相似的精度,但参数数量明显更少,运行时间明显更短。U-Net[6]比我们的方法在IOU上高了不足4%,然而在TPF上低了11%,从分割的效果图可以知道,这是由于本发明的方法分割的结果可以将ground truth整个包含,而U-Net不行。这些高精度网络的参数要比本发明提出的网络多很多,可以说明深度模型的参数有大量的冗余。从FCDDN与FC DenseNet[7]的对比可以看出,设计高效的网络架构可以在不损失精度的同时提高效率。与高效的网络相比,在运行时间上仅比最快的ENet[8]稍长,但精度比最高的ERFNet[9]还高2.49%。最终的实验结果表明,本发明中的模型在保持高精度的同时,效率也获得了极大的提升。
高精度网络需要大量计算资源无法在医疗设备上实时运行的问题,本发明提出了一种高精度和高效的语义分割网络结构,训练得到的模型称之为FCDDN模型。模型中使用密集连接、空洞卷积和卷积核的组合,使之在保持类似学***衡,使它适用于既需要鲁棒性又需要效率的设备上。
本发明并不限于上文描述的实施方式。以上对具体实施方式的描述旨在描述和说明本发明的技术方案,上述的具体实施方式仅仅是示意性的,并不是限制性的。在不脱离本发明宗旨和权利要求所保护的范围情况下,本领域的普通技术人员在本发明的启示下还可做出很多形式的具体变换,这些均属于本发明的保护范围之内。
参考文献:
[1]Liu Shu,Qi Lu,Haifang Qin,Jianping Shi,and Jiaya Jia.Pathaggregation network for instance segmentation.2018.
[2]Liang Chieh Chen,Yukun Zhu,George Papandreou,Florian Schroff,andHartwig Adam.Encoder-decoder with atrous separable convolution for semanticimage segmentation.2018
[3]Yihui He,Xiangyu Zhang,and Jian Sun.Channel pruning foraccelerating very deep neural networks.2017
[4]Bohan Zhuang,Chunhua Shen,Mingkui Tan,Lingqiao Liu,and IanReid.Towards effective low-bitwidth convolutional neural networks.2017.
[5]Francois Chollet.Xception:Deep learning with depthwise separableconvolutions.In IEEE Conference on Computer Vision&Pattern Recognition,2016.
[6]Olaf Ronneberger,Philipp Fischer,and Thomas Brox.U-net:Convolutional networks for biomedical image segmentation.In InternationalConference on Medical Image Computing&Computer-assisted Intervention,2015.
[7]Simon Jegou,Michal Drozdzal,David′Vazquez,Adriana Romero,andYoshua Bengio.The one hundred layers tiramisu:Fully convolutional densenetsfor semantic segmentation.2016.
[8]Adam Paszke,Abhishek Chaurasia,
Sangpil Kim,and Eugenio Culurciello.Enet:A deep neural networkarchitecture for real-time semantic segmentation.2016.
[9]Eduardo Romera,Jose M.Alvarez,Luis M.Bergasa,Roberto Arroyo,Eduardo Romera,Jose M.Alvarez,Luis M.Bergasa,Roberto Arroyo,Eduardo Romera,and Jose M.Alvarez.Erfnet:Efficient residual factorized convnet for real-timesemantic segmentation.IEEE Transactions on Intelligent TransportationSystems,PP(99):1–10,2017.
Claims (5)
1.一种基于全卷积密集空洞网络的甲状腺结节实时分割方法,其特征在于,包括以下步骤:
步骤一:获取甲状腺数据并进行预处理;
步骤二:将所得到的数据进行标注,作为训练全卷积密集空洞网络模型的数据集;
步骤三:基于密集连接构造全卷积密集空洞网络模型,并进行参数训练;
步骤四:将卷积层中的卷积核替换为空洞卷积并使用卷积核分解进行分解;
步骤五:对卷积层的输入进行数据标准化和非线性激活处理;
步骤六:对全卷积密集空洞网络模型的分割效果及效率进行精度指标与效率分析及对比。
2.根据权利要求1所述一种基于全卷积密集空洞网络的甲状腺结节实时分割方法,其特征在于,步骤二中对获取的甲状腺超声图像进行结节边缘的标记,并对甲状腺超声图像的大小做归一化处理;形成的数据集包括训练集和测试集。
3.根据权利要求1所述一种基于全卷积密集空洞网络的甲状腺结节实时分割方法,其特征在于,步骤三中使用步骤二得到的数据集对全卷积密集空洞网络模型参数进行训练;该全卷积密集空洞网络模型是进行甲状腺结节分割的端到端的模型,遵循自动编码器-解码器的架构,并且使用密集连接将卷积层提取的特征进行跨层传输。
4.根据权利要求1所述一种基于全卷积密集空洞网络的甲状腺结节实时分割方法,其特征在于,步骤四中,全卷积密集空洞网络模型由卷积层构成,不同卷积层中的卷积核使用不同空洞率的空洞卷积进行替代,并使用卷积核分解将二维卷积核分解成一维卷积核。
5.根据权利要求1所述一种基于全卷积密集空洞网络的甲状腺结节实时分割方法,其特征在于,步骤五在步骤四的基础上在卷积层使用批标准化(BN)、线性修正单元激活函数(ReLU)对卷积层的输入进行标准化和激活,并使用随机失活(dorpout)对全卷积密集空洞网络模型参数进行处理;具体包括对卷积层的输入使用批标准化(BN)进行数据标准化处理、使用线性修正单元激活函数(ReLU)增加数据的非线性。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910914157.8A CN111798455B (zh) | 2019-09-25 | 2019-09-25 | 一种基于全卷积密集空洞网络的甲状腺结节实时分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910914157.8A CN111798455B (zh) | 2019-09-25 | 2019-09-25 | 一种基于全卷积密集空洞网络的甲状腺结节实时分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111798455A true CN111798455A (zh) | 2020-10-20 |
CN111798455B CN111798455B (zh) | 2023-07-04 |
Family
ID=72805521
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910914157.8A Active CN111798455B (zh) | 2019-09-25 | 2019-09-25 | 一种基于全卷积密集空洞网络的甲状腺结节实时分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111798455B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112381846A (zh) * | 2020-12-11 | 2021-02-19 | 江南大学 | 一种基于非对称网络的超声甲状腺结节分割方法 |
CN113610859A (zh) * | 2021-06-07 | 2021-11-05 | 东北大学 | 一种基于超声图像的甲状腺结节自动分割方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106056595A (zh) * | 2015-11-30 | 2016-10-26 | 浙江德尚韵兴图像科技有限公司 | 基于深度卷积神经网络自动识别甲状腺结节良恶性的方法 |
CN108776969A (zh) * | 2018-05-24 | 2018-11-09 | 复旦大学 | 基于全卷积网络的乳腺超声图像肿瘤分割方法 |
CN109087327A (zh) * | 2018-07-13 | 2018-12-25 | 天津大学 | 一种级联全卷积神经网络的甲状腺结节超声图像分割方法 |
CN109344883A (zh) * | 2018-09-13 | 2019-02-15 | 西京学院 | 一种基于空洞卷积的复杂背景下果树病虫害识别方法 |
-
2019
- 2019-09-25 CN CN201910914157.8A patent/CN111798455B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106056595A (zh) * | 2015-11-30 | 2016-10-26 | 浙江德尚韵兴图像科技有限公司 | 基于深度卷积神经网络自动识别甲状腺结节良恶性的方法 |
CN108776969A (zh) * | 2018-05-24 | 2018-11-09 | 复旦大学 | 基于全卷积网络的乳腺超声图像肿瘤分割方法 |
CN109087327A (zh) * | 2018-07-13 | 2018-12-25 | 天津大学 | 一种级联全卷积神经网络的甲状腺结节超声图像分割方法 |
CN109344883A (zh) * | 2018-09-13 | 2019-02-15 | 西京学院 | 一种基于空洞卷积的复杂背景下果树病虫害识别方法 |
Non-Patent Citations (1)
Title |
---|
MARIOS ANTHIMOPOULOS 等: "Semantic Segmentation of Pathological Lung Tissue with Dilated Fully Convolutional Networks", ARXIV * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112381846A (zh) * | 2020-12-11 | 2021-02-19 | 江南大学 | 一种基于非对称网络的超声甲状腺结节分割方法 |
CN112381846B (zh) * | 2020-12-11 | 2024-03-08 | 江南大学 | 一种基于非对称网络的超声甲状腺结节分割方法 |
CN113610859A (zh) * | 2021-06-07 | 2021-11-05 | 东北大学 | 一种基于超声图像的甲状腺结节自动分割方法 |
CN113610859B (zh) * | 2021-06-07 | 2023-10-31 | 东北大学 | 一种基于超声图像的甲状腺结节自动分割方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111798455B (zh) | 2023-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wu et al. | Predict pneumonia with chest X-ray images based on convolutional deep neural learning networks | |
Ali et al. | Machine learning based automated segmentation and hybrid feature analysis for diabetic retinopathy classification using fundus image | |
US11200982B2 (en) | Method for analysing medical treatment data based on deep learning and intelligence analyser thereof | |
Liu et al. | Fine-tuning pre-trained convolutional neural networks for gastric precancerous disease classification on magnification narrow-band imaging images | |
El-Shafai et al. | Efficient Deep-Learning-Based Autoencoder Denoising Approach for Medical Image Diagnosis. | |
CN109447183A (zh) | 模型训练方法、装置、设备以及介质 | |
CN109389171B (zh) | 基于多粒度卷积降噪自动编码器技术的医疗图像分类方法 | |
WO2022127500A1 (zh) | 基于多个神经网络的mri图像分割方法、装置及设备 | |
Lindsey et al. | Automated pneumothorax diagnosis using deep neural networks | |
CN111798455B (zh) | 一种基于全卷积密集空洞网络的甲状腺结节实时分割方法 | |
Shamrat et al. | Analysing most efficient deep learning model to detect COVID-19 from computer tomography images | |
Nie et al. | Recent advances in diagnosis of skin lesions using dermoscopic images based on deep learning | |
CN111784713A (zh) | 一种引入注意力机制的u形心脏分割方法 | |
Kaya | Feature fusion-based ensemble CNN learning optimization for automated detection of pediatric pneumonia | |
Jin et al. | Machine learning techniques for pulmonary nodule computer-aided diagnosis using CT images: A systematic review | |
Farhangi et al. | Automatic lung nodule detection in thoracic CT scans using dilated slice‐wise convolutions | |
Zheng et al. | Pneumoconiosis identification in chest X-ray films with CNN-based transfer learning | |
Junyue et al. | Breast cancer diagnosis using hybrid AlexNet-ELM and chimp optimization algorithm evolved by Nelder-mead simplex approach | |
Jerbi et al. | Automatic classification of ultrasound thyroids images using vision transformers and generative adversarial networks | |
Chutia et al. | Classification of lung diseases using an attention-based modified DenseNet model | |
Nainwal et al. | Convolution neural network based covid-19 screening model | |
Thomas et al. | Diabetic retinopathy detection using EADBSC and improved dilated ensemble CNN-based classification | |
Pradeep et al. | A Certain Investigation on Intravascular Optical Coherence Tomography for Clustering Based Image Segmentation | |
Thomas et al. | Diabetic retinopathy detection using ensembled transfer learning based thrice CNN with SVM classifier | |
Gai | Highly Efficient and Accurate Deep Learning–Based Classification of MRI Contrast on a CPU and GPU |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |