CN110705615A - 一种基于TV模型与GoogLeNet模型的甲状腺结节检测和分类方法 - Google Patents
一种基于TV模型与GoogLeNet模型的甲状腺结节检测和分类方法 Download PDFInfo
- Publication number
- CN110705615A CN110705615A CN201910898694.8A CN201910898694A CN110705615A CN 110705615 A CN110705615 A CN 110705615A CN 201910898694 A CN201910898694 A CN 201910898694A CN 110705615 A CN110705615 A CN 110705615A
- Authority
- CN
- China
- Prior art keywords
- model
- image
- layer
- neural network
- thyroid nodule
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
一种基于TV模型与GoogLeNet模型的甲状腺结节检测和分类方法,采用基于TV模型的自适应图像修复方法对甲状腺超声图像进行预处理,消除边框标记,为提升网络的结节分类性能,本专利采用深度学习的方法,构建GoogLeNet Incepetion V1模型在甲状腺超声波图像数据集进行实验。本发明能修复超声图像中因标记破坏的部分纹理,并有效提取甲状腺结节的特征,大大提升医生的诊断效率。
Description
技术领域
本发明具体涉及图像识别和分类技术领域,具体涉及一种基于TV模型与GoogLeNet模型的甲状腺结节检测和分类方法。
背景技术
甲状腺结节是一种发病率较高的临床疾病,发病率呈逐年上升的趋势。现在诊断甲状腺结节最常见的手段是超声。而医生人为判别具有一定主观性,且会受到疲劳等因素影响,因此运用深度学习,搭建卷积神经网络来进行甲状腺结节良恶性诊断,帮助医生的诊断效率具有深远的现实意义。
图像识别和分类涉及多种技术,包括图像与处理、特征提取、训练模型的搭建等等。在近几十年国内外专家和学者的研究中,图像分类从起初的人工分类,再到机器学习分类,而深度学习作为一种新型机器学习算法,以其强大的学习效率和客观的建模速度,在科技、生物、机械等领域发挥重要作用。比较有名的深度学习模型有Lenet5模型、AlexNet模型、VGG16模型、GoogLeNet模型、ResNet模型等等。
发明内容
为了解决现有技术的缺陷,本发明提供了一种基于TV模型与GoogLeNet模型的甲状腺结节检测和分类方法,本发明采用基于TV模型,引入GoogLeNet模型,设计了一种基于TV模型与GoogLeNet模型的甲状腺结节检测和分类方法。该方法能修复超声图像中因标记破坏的部分纹理,并有效提取甲状腺结节的特征。
本发明采用的技术解决方案是:一种基于TV模型与GoogLeNet模型的甲状腺结节检测和分类方法,包括以下步骤
(1)获得甲状腺结节图像:甲状腺结节图像数据库临床采集;
(2)对甲状腺结节图像进行基于TV模型的预处理;
(3)训练卷积神经网络(CNN)模型,提取不同尺度图像特征;
(4)将不同尺度图像特征融合;
(5)进行双softmax辅助前向传播;
(6)采用softmax分类器完成特征分类,实现甲状腺结节的检测和分类。
所述的步骤(2)对甲状腺结节图像进行基于TV模型的预处理还包括数据集扩增和基于TV模型的图像修复。
所述的数据集扩增采用旋转和平移对数据集进行扩增,其中,图像旋转是指图像按照某个位置转动一定角度的过程,旋转中图像仍保持这原始像素,图像平移是将图像中的所有像素点按照给定的平移量进行水平x方向或垂直y方向移动。
所述的基于TV模型的图像修复具体为:对图像采用TV模型的自适应图像修复,估算像素点修复后的值;
式中,GO代表当前待修复点O的像素,Gp代表当前点O的四邻域点的像素,HOp(P∈A,A={N,S,W,E},HOO为权值系数,其主要由Wp确定,其定义如下:
所述的步骤(3)中训练卷积神经网络(CNN)模型提取不同尺度图像特征的具体如下:卷积神经网络(CNN)模型包括包含输入层、隐含层、输出层,其中隐含层包含卷积层、池化层、全连接层3类常见的构筑;
输入到卷积层中的图像主要用来提取特征,在每一个特征图当中提取一种特征,通过卷积层能够完成对特征的提取,在训练过程当中通过不断的反向传播来进行更新权值,卷积层的计算公式为:
其中f为激活函数,kij为卷积核,b为偏移量;
经过卷积层提取到特征后,输出的特征图会到达池化层进行特征选择和信息过滤,池化公式为:
Xj=f(βjL(xj)+b)
其中βj为权重系数,L为下采样函数;
经过池化作用后,将数据输入到全连接层,全连接层等价于传统前向传播神经网络的隐含层,全连接层搭建在卷积神经网络隐含层的最后部分,并只向其他的全连接层传递信号,
在卷积神经网络当中应用前向传播搭建网络结构,后向传播训练网络参数,采用损失函数、学***均进行网络优化,在CNN中应用正则化和交叉熵作为损失函数,交叉熵公式为:
H=-∑y*logy'
其中y标准答案,y'为预测值。学习率中应用指数衰减学习率,即每次参数更新的幅度,参数的更新如下公式:
wn+1=wn-r*f'
其中r为学习率,f'为损失函数的梯度。
所述的卷积神经网络(CNN)模型为GoogLeNet卷积神经网络。
所述的GoogLeNet卷积神经网络为Inception的结构,其中Inception结构中卷积核大小采用1、3和5,并采用1x1卷积核进行降维。
所述的GoogLeNet卷积神经网络中最好采用了average pooling来代替全连接层,同时为了避免梯度消失,额外增加了2个辅助的softmax用于向前传导梯度。
本发明的有益效果是:本发明提供一种基于TV模型与GoogLeNet模型的甲状腺结节检测和分类方法,采用基于TV模型的自适应图像修复方法对甲状腺超声图像进行预处理,消除边框标记,为提升网络的结节分类性能,本文采用深度学习的方法,构建GoogLeNetIncepetion V1模型在甲状腺超声波图像数据集进行实验。本发明能修复超声图像中因标记破坏的部分纹理,并有效提取甲状腺结节的特征,大大提升医生的诊断效率。
附图说明
图1为卷积神经网络结构。
图2为甲状腺结节检测和分类方法流程图。
图3为基于TV模型的图像修复,其中图3-1-1、图3-1-3、图3-1-5为原始图像,图3-1-2、图3-1-4、图3-1-6为修复后的图像。
图4为Inception结构图。
图5为改进后的Inception结构图。
图6为三种模型损失值在不断迭代中的变化趋势图。
具体实施方式
卷积神经网络
卷积神经网络(CNN)是一种监督学***移、比例缩放、倾斜或者其他形式的变形具有高度不变性[9]。CNN包含输入层、隐含层、输出层,其中隐含层包含卷积层、池化层、全连接层3类常见的构筑。
输入到卷积层中的图像主要用来提取特征,在每一个特征图当中提取一种特征,通过卷积层能够完成对特征的提取,在训练过程当中通过不断的反向传播来进行更新权值。卷积层的计算公式为
其中f为激活函数,kij为卷积核,b为偏移量。
经过卷积层提取到特征后,输出的特征图会到达池化层进行特征选择和信息过滤,池化公式为
Xj=f(βjL(xj)+b)
其中βj为权重系数,L为下采样函数。
经过池化作用后,将数据输入到全连接层,全连接层等价于传统前向传播神经网络的隐含层,全连接层搭建在卷积神经网络隐含层的最后部分,并只向其他的全连接层传递信号,卷积神经网络的结构如图1所示,
在卷积神经网络当中应用前向传播搭建网络结构,后向传播训练网络参数,采用损失函数、学***均进行网络优化。在CNN中应用正则化和交叉熵作为损失函数,交叉熵公式为:
H=-∑y*logy'
其中y标准答案,y'为预测值。学习率中应用指数衰减学习率,即每次参数更新的幅度,参数的更新如下公式:
wn+1=wn-r*f'
其中r为学习率,f'为损失函数的梯度。
一种基于TV模型与GoogLeNet模型的甲状腺结节检测和分类方法,包括以下步骤
(1)获得甲状腺结节图像:甲状腺结节图像数据库临床采集;
(2)对甲状腺结节图像进行基于TV模型的预处理;
(3)训练卷积神经网络(CNN)模型,提取不同尺度图像特征;
(4)将不同尺度图像特征融合;
(5)进行双softmax辅助前向传播;
(6)采用softmax分类器完成特征分类,实现甲状腺结节的检测和分类。
本发明通过构建GoogLeNet的CNN模型,实现了甲状腺超声图形的良恶性检测,流程如图2所示,实现甲状腺结节的图像的良恶性检测分析。
甲状腺超声图像进行预处理
数据集扩增
本次实验采集的数据集较少,需要对数据集进行扩增。本文仅采用旋转和平移对数据集进行扩增。
图像旋转是指图像按照某个位置转动一定角度的过程,旋转中图像仍保持这原始像素。假设旋转θ角度,(x,y)是原始点坐标,(x',y')是旋转后点坐标。
图像平移是将图像中的所有像素点按照给定的平移量进行水平(x方向)或垂直(y方向)移动。假设任意空间坐标(x,y)先沿X轴平移tx,再沿Y轴平移ty,则最后得到的坐标为(m,n)。
基于TV模型的图像修复
现有的数据中包含人工标记,如图3-1-1所示。人工标记主要指专业人员对超声图像中的病灶区域的标记,其破坏了部分纹理,影响待分析区域图像的精准性以及完整性。此对之后的训练产生一定影响,所以需要对图像进行修复。对图像采用TV模型的自适应图像修复,估算像素点修复后的值。
式中,GO代表当前待修复点O的像素,Gp代表当前点O的四邻域点的像素,HOp(P∈A,A={N,S,W,E},HOO为权值系数,其主要由Wp确定,其定义如下:
最后,如图3-1-2所示,图像被较好的修复,且其纹理也是与周围纹理较为相似。运用相同的方法对图3-1-3、图3-1-5进行像素修复,得到图3-1-4、图3-1-6。
GoogLeNet卷积神经网络
GoogLeNet采用《Going Deeper with Convolutions》中提出的Inception的结构,一般的CNN结构只是纯粹增大网络,有两个缺点——过拟合和计算量的增加。解决这两个问题的方法是增加网络深度和宽度的同时减少参数。为了减少参数,全连接就需要变成稀疏连接,但是在实现的过程中,全连接变成稀疏连接后实际计算量并不会有质的提升,因为大部分硬件是针对密集矩阵计算优化的,稀疏矩阵虽然数据量少,但是所耗的时间却很难减少。而Inception结构既能保持网络结构的稀疏性,又能利用密集矩阵的高计算性能。图4为Inception结构;采用不同大小的卷积核意味着不同大小的感受野,最后拼接意味着不同尺度特征的融合,之所以卷积核大小采用1、3和5,主要是为了方便对齐。设定卷积步长stride=1之后,分别设定pad=0、1、2,卷积之后便可以得到相同维度的特征,之后这些特征就可以直接拼接在一起了。网络经卷积次数越多,特征越抽象,而且每个特征所涉及的感受野也更大,因此随着层数的增加,3x3和5x5卷积的比例也要相应增加,但使用5x5的卷积核仍会带来巨大的计算量,因此采用1x1卷积核进行降维,具体改进后的Inception结构如图5所示;给定深度相对较大的网络,有效传播梯度反向通过所有层的能力是一个问题。在这个任务上,更浅网络的强大性能表明网络中部层产生的特征应该是非常有识别力的。通过将辅助分类器添加到这些中间层,可以期望较低阶段分类器的判别力。这被认为是在提供正则化的同时克服梯度消失问题。这些分类器采用较小卷积网络的形式,放置在Inception模块的输出之上。在训练期间,它们的损失以折扣权重(辅助分类器损失的权重是0.3)加到网络的整个损失上。在推断时,这些辅助网络被丢弃。后面的控制实验表明辅助网络的影响相对较小(约0.5),只需要其中一个就能取得同样的效果。
网络最后采用了average pooling来代替全连接层,同时为了避免梯度消失,网络额外增加了2个辅助的softmax用于向前传导梯度。
实验结果与分析
数据来源
使用的甲状腺结节超声图像数据来自于医院,包括2763幅恶性病例图像(TI-RADS分数为3,4a,4b或5),541幅良性病例图像(TI-RADS分数为1或2)共计3304幅。将所有图像裁剪成224*224大小。图像是从TOSHIBA Nemio 30和TOSHIBA Nemio MX超声仪器以12MHz的频率采集的甲状腺超声视频序列中抽取得到。TI-RADS分数由专业医师对图像进行诊断后给出。将2756幅病例图用来对基于改进的Lenet5模型、VGG16模型和GoogLeNet模型三种模型进行训练,再将548幅作为测试数据集随机分成5组,对上述3种模型进行测试。总体如下表1所示。
表1训练测试图像分配数/张
实验结果与分析
经过451张良性甲状腺结节图片,2305张恶性甲状腺结节图片的训练,以及5组,每组大约109张(18张良性,91张恶性甲状腺结节图片数据),共计548张(90张良性,458张恶性甲状腺结节图片数据)的测试,三种模型的判别准确率如表2所示。
表2不同CNN模型诊断甲状腺超声图像的准确率/%
三种模型的损失值如表3所示以及三种模型损失值在不断迭代中的变化趋势如图6。
表3不同CNN模型的损失值
三种模型判断相同测试图片数据的耗费时间如表4所示。
表4不同CNN模型诊断甲状腺超声图像测试耗费时间/s
由表2可知,GoogLeNet模型的判别甲状腺结节是否病变的准确率相对最高;
由表3可知,GoogLeNet模型的损失值相对最小;
由表4可知,LeNet5模型诊断甲状腺超声图像测试耗费的时间相对最短,GoogLeNet模型相对第二短。
结论
本发明通过基于TV模型的自适应图像修复方法对甲状腺超声图像进行了预处理,之后搭建了cnn模型,设置相应的损失函数、学***均值及优化算法进行优化,训练了基于改进的Lenet5模型、VGG16模型和GoogLeNet模型三种模型对甲状腺结节良恶性的诊断,再通过测试获得了每种模型判别甲状腺结节良恶性诊断的准确度。
经训练后的3种模型均能完成识别任务,为了验证判别此类超声图像最好的cnn模型,我们再收集大量图片数据进行训练和测试,通过对比GoogLeNet对甲状腺结节是否病变判断的准确率相对而言最高,实际运用水平也很高,GoogLeNet模型的平均准确率能达到96.04%以及0.3844的损失值,这很好的说明了GoogLeNet模型能诊断出患者的甲状腺是否患病。本文实验研究将深度学习的方法应用到医学的辅助诊断中,下一步我们的工作将逐步优化模型,做出对模型的改进研究,旨在将甲状腺结节分类诊断研究保证高的准确率。基于深度学习的图像分类诊断方法能给医生诊断该类病症提供参考,帮助医生提高诊断效率和诊断精确率,节省大量的人力,为未来甲状腺结节的超声诊断提供了新思路。
各位技术人员须知:虽然本发明已按照上述具体实施方式做了描述,但是本发明的发明思想并不仅限于此发明,任何运用本发明思想的改装,都将纳入本专利专利权保护范围内。
以上所述仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (8)
1.一种基于TV模型与GoogLeNet模型的甲状腺结节检测和分类方法,其特征在于,包括以下步骤
(1)获得甲状腺结节图像:甲状腺结节图像数据库临床采集;
(2)对甲状腺结节图像进行基于TV模型的预处理;
(3)训练卷积神经网络(CNN)模型,提取不同尺度图像特征;
(4)将不同尺度图像特征融合;
(5)进行双softmax辅助前向传播;
(6)采用softmax分类器完成特征分类,实现甲状腺结节的检测和分类。
2.根据权利要求1所述的一种基于TV模型与GoogLeNet模型的甲状腺结节检测和分类方法,其特征在于,所述的步骤(2)对甲状腺结节图像进行基于TV模型的预处理还包括数据集扩增和基于TV模型的图像修复。
3.根据权利要求2所述的一种基于TV模型与GoogLeNet模型的甲状腺结节检测和分类方法,其特征在于,所述的数据集扩增采用旋转和平移对数据集进行扩增,其中,图像旋转是指图像按照某个位置转动一定角度的过程,旋转中图像仍保持这原始像素,图像平移是将图像中的所有像素点按照给定的平移量进行水平x方向或垂直y方向移动。
5.根据权利要求1所述的一种基于TV模型与GoogLeNet模型的甲状腺结节检测和分类方法,其特征在于,所述的步骤(3)中训练卷积神经网络(CNN)模型提取不同尺度图像特征的具体如下:卷积神经网络(CNN)模型包括包含输入层、隐含层、输出层,其中隐含层包含卷积层、池化层、全连接层3类常见的构筑;
输入到卷积层中的图像主要用来提取特征,在每一个特征图当中提取一种特征,通过卷积层能够完成对特征的提取,在训练过程当中通过不断的反向传播来进行更新权值,卷积层的计算公式为:
其中f为激活函数,kij为卷积核,b为偏移量;
经过卷积层提取到特征后,输出的特征图会到达池化层进行特征选择和信息过滤,池化公式为:
Xj=f(βjL(xj)+b)
其中βj为权重系数,L为下采样函数;
经过池化作用后,将数据输入到全连接层,全连接层等价于传统前向传播神经网络的隐含层,全连接层搭建在卷积神经网络隐含层的最后部分,并只向其他的全连接层传递信号,
在卷积神经网络当中应用前向传播搭建网络结构,后向传播训练网络参数,采用损失函数、学***均进行网络优化,在CNN中应用正则化和交叉熵作为损失函数,交叉熵公式为:
H=-∑y*log y'
其中y标准答案,y’为预测值。学习率中应用指数衰减学习率,即每次参数更新的幅度,参数的更新如下公式:
wn+1=wn-r*f'
其中r为学习率,f'为损失函数的梯度。
6.根据权利要求1所述的一种基于TV模型与GoogLeNet模型的甲状腺结节检测和分类方法,其特征在于,所述的卷积神经网络(CNN)模型为GoogLeNet卷积神经网络。
7.根据权利要求1所述的一种基于TV模型与GoogLeNet模型的甲状腺结节检测和分类方法,其特征在于,所述的GoogLeNet卷积神经网络为Inception的结构,其中Inception结构中卷积核大小采用1、3和5,并采用1x1卷积核进行降维。
8.根据权利要求5所述的一种基于TV模型与GoogLeNet模型的甲状腺结节检测和分类方法,其特征在于,所述的GoogLeNet卷积神经网络中最好采用了average pooling来代替全连接层,同时为了避免梯度消失,额外增加了2个辅助的softmax用于向前传导梯度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910898694.8A CN110705615A (zh) | 2019-09-23 | 2019-09-23 | 一种基于TV模型与GoogLeNet模型的甲状腺结节检测和分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910898694.8A CN110705615A (zh) | 2019-09-23 | 2019-09-23 | 一种基于TV模型与GoogLeNet模型的甲状腺结节检测和分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110705615A true CN110705615A (zh) | 2020-01-17 |
Family
ID=69195948
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910898694.8A Pending CN110705615A (zh) | 2019-09-23 | 2019-09-23 | 一种基于TV模型与GoogLeNet模型的甲状腺结节检测和分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110705615A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112419396A (zh) * | 2020-12-03 | 2021-02-26 | 前线智能科技(南京)有限公司 | 一种甲状腺超声视频自动分析方法与*** |
CN112819755A (zh) * | 2021-01-14 | 2021-05-18 | 北京小白世纪网络科技有限公司 | 一种甲状腺的结节ti-rads分级***及方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108805209A (zh) * | 2018-06-14 | 2018-11-13 | 清华大学深圳研究生院 | 一种基于深度学习的肺结节筛查方法 |
CN109241967A (zh) * | 2018-09-04 | 2019-01-18 | 青岛大学附属医院 | 基于深度神经网络的甲状腺超声图像自动识别***、计算机设备、存储介质 |
-
2019
- 2019-09-23 CN CN201910898694.8A patent/CN110705615A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108805209A (zh) * | 2018-06-14 | 2018-11-13 | 清华大学深圳研究生院 | 一种基于深度学习的肺结节筛查方法 |
CN109241967A (zh) * | 2018-09-04 | 2019-01-18 | 青岛大学附属医院 | 基于深度神经网络的甲状腺超声图像自动识别***、计算机设备、存储介质 |
Non-Patent Citations (3)
Title |
---|
CHRISTIAN SZEGEDY 等: ""Going Deeper with Convolutions", 《2015 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
迟剑宁 等: ""融合深度网络和浅层纹理特征的甲状腺结节癌变超声图像诊断", 《中国图象图形学报》 * |
高志强 等: "《深度学习 从入门到实战》", 30 June 2018 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112419396A (zh) * | 2020-12-03 | 2021-02-26 | 前线智能科技(南京)有限公司 | 一种甲状腺超声视频自动分析方法与*** |
CN112419396B (zh) * | 2020-12-03 | 2024-04-26 | 前线智能科技(南京)有限公司 | 一种甲状腺超声视频自动分析方法与*** |
CN112819755A (zh) * | 2021-01-14 | 2021-05-18 | 北京小白世纪网络科技有限公司 | 一种甲状腺的结节ti-rads分级***及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yeh et al. | Multi-scale deep residual learning-based single image haze removal via image decomposition | |
CN109063712B (zh) | 一种基于超声图像的多模型肝脏弥漫性疾病智能诊断方法 | |
Zhang et al. | Automatic skin lesion segmentation by coupling deep fully convolutional networks and shallow network with textons | |
CN111161290B (zh) | 一种图像分割模型的构建方法、图像分割方法及*** | |
CN112150425A (zh) | 一种基于神经网络的无监督血管内超声图像配准方法 | |
CN110310285B (zh) | 一种精确的基于三维人体重建的烧伤面积计算方法 | |
CN114998210B (zh) | 一种基于深度学习目标检测的早产儿视网膜病变检测*** | |
CN109767459A (zh) | 新型眼底图配准方法 | |
CN112270667B (zh) | 一种基于ti-rads的集成深度学习多标签识别方法 | |
CN111242959A (zh) | 基于卷积神经网络的多模态医学图像的目标区域提取方法 | |
CN113223005B (zh) | 一种甲状腺结节自动分割及分级的智能*** | |
CN109003280B (zh) | 一种双通道血管内超声影像的血管中内膜分割方法 | |
Bourbakis | Detecting abnormal patterns in WCE images | |
CN117078692B (zh) | 一种基于自适应特征融合的医疗超声图像分割方法及*** | |
CN105654425A (zh) | 一种应用于医学x光图像的单幅图像超分辨率重建方法 | |
CN112348059A (zh) | 基于深度学习的多种染色病理图像分类方法及*** | |
CN117409002A (zh) | 一种用于创伤的视觉识别检测***及其检测方法 | |
CN110705615A (zh) | 一种基于TV模型与GoogLeNet模型的甲状腺结节检测和分类方法 | |
CN114943721A (zh) | 一种建立基于改进U-Net网络的颈部超声图像分割方法 | |
Francis et al. | Diagnostic of cystic fibrosis in lung computer tomographic images using image annotation and improved PSPNet modelling | |
CN113902738A (zh) | 一种心脏mri分割方法及*** | |
Wang et al. | MeDERT: A metal surface defect detection model | |
Ma et al. | Feature selection module for CNN based object detector | |
CN113610746A (zh) | 一种图像处理方法、装置、计算机设备及存储介质 | |
CN114627136B (zh) | 一种基于特征金字塔网络的舌象分割与对齐方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200117 |