CN111462082A - 一种病灶图片识别装置、方法、设备及可读存储介质 - Google Patents
一种病灶图片识别装置、方法、设备及可读存储介质 Download PDFInfo
- Publication number
- CN111462082A CN111462082A CN202010244922.2A CN202010244922A CN111462082A CN 111462082 A CN111462082 A CN 111462082A CN 202010244922 A CN202010244922 A CN 202010244922A CN 111462082 A CN111462082 A CN 111462082A
- Authority
- CN
- China
- Prior art keywords
- target
- image
- deep learning
- training
- learning model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 238000012549 training Methods 0.000 claims abstract description 116
- 238000013136 deep learning model Methods 0.000 claims abstract description 103
- 230000003902 lesion Effects 0.000 claims abstract description 76
- 230000006870 function Effects 0.000 claims description 36
- 210000000813 small intestine Anatomy 0.000 claims description 27
- 230000008569 process Effects 0.000 claims description 18
- 238000011176 pooling Methods 0.000 claims description 17
- 239000002775 capsule Substances 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 10
- 230000005484 gravity Effects 0.000 claims description 9
- 230000008014 freezing Effects 0.000 claims description 5
- 238000007710 freezing Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 11
- 210000002569 neuron Anatomy 0.000 description 9
- 230000008520 organization Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 230000000968 intestinal effect Effects 0.000 description 5
- 238000013526 transfer learning Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 210000002784 stomach Anatomy 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000013508 migration Methods 0.000 description 3
- 230000005012 migration Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 210000001035 gastrointestinal tract Anatomy 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 208000021795 small intestine disease Diseases 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 210000000436 anus Anatomy 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000001839 endoscopy Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008855 peristalsis Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种病灶图片识别装置、方法、设备及可读存储介质,该装置包括:目标图像获取模块,用于获取目标组织的目标图像;病灶识别模块,用于将目标图像输入至训练好的目标深度学习模型进行病灶识别,获得病灶识别结果;模型训练模块,用于利用指定组织的有病灶标签图像训练出图像特征提取器;利用图像特征提取器构建深度学习模型;利用目标组织的有标签图像,对深度学习模型进行训练,得到目标深度学习模型。在该装置中,无需大量目标组织对应的有标签图像,即可训练出目标深度学习模型,且在需要对目标组织的目标图像进行病灶识别时,仅需将获取到的目标图像输入至目标深度学习模型进行病灶识别,便可获得更为准确的病灶识别结果。
Description
技术领域
本发明涉及图像处理技术领域,特别是涉及一种病灶图片识别装置、方法、设备及可读存储介质。
背景技术
图像处理技术在诸多领域发挥着非常重要的作用。如,对采集的组织照片进行病灶识别,可相对于人体肉眼识别,具有速度快,长时间持续识别的特点。但是,在图像处理技术中,为实现自动识别往往需要训练出一个识别模型来进行分类识别,而训练一个良好的识别模型需要大量的有标签样本,而某些组织的并没有充足的有标签样本进行训练。从而导致识别效果不佳,难以满足实际需要的情况。
例如,使用机器学习算法从胶囊内镜产生的海量小肠图片中自动筛选出病灶图片的技术方案中,便存在该问题。具体的,由于小肠病灶的数据标注需要经验丰富的医生进行人工标注,过程费时且成本昂贵,因此这个条件往往无法满足,从而导致深度学习模型无法得到充分训练,识别性能较差及泛化性不强。
综上所述,如何有效地解决医学图像中的病灶识别等问题,是目前本领域技术人员急需解决的技术问题。
发明内容
本发明的目的是提供一种病灶图片识别装置、方法、设备及可读存储介质,基于迁移学习机制,有效提高医学图像病灶识别的准确率。
为解决上述技术问题,本发明提供如下技术方案:
一种病灶图片识别装置,包括:
目标图像获取模块,用于获取目标组织的目标图像;
病灶识别模块,用于将所述目标图像输入至训练好的目标深度学习模型进行病灶识别,获得病灶识别结果;
模型训练模块,用于利用指定组织的有病灶标签图像训练出图像特征提取器;利用所述图像特征提取器构建深度学习模型;利用所述目标组织的有标签图像,对所述深度学习模型进行训练,得到所述目标深度学习模型。
优选地,所述模型训练模块,具体用于利用所述有病灶标签图像基础深度网络模型进行训练;去除训练好的基础深度网络模型中的全连接层,得到所述图像特征提取器。
优选地,所述模型训练模块,具体用于在所述图像特征提取器上添加全局平均池化层,与所述目标组织的病灶种类匹配的全连接层。
优选地,所述模型训练模块,具体用于冻结所述深度学***均池化层和所述全连接层进行训练,得到所述目标深度学习模型。
优选地,具体用于利用联合了交叉熵损失和中心损失的损失函数,对所述目标深度学习模型进行调优训练。
优选地,所述模型训练模块,具体用于利用中心损失函数,对第一个全连接层的输入特征进行约束;
利用所述交叉熵损失,对第二个全连接层进行优化损失;
利用所述中心损失函数的比重,平衡所述交叉熵损失及所述中心损失。
优选地,所述目标图像获取模块,具体用于利用胶囊内窥镜获取小肠的目标图像。
一种图像识别方法,包括:
获取目标组织的目标图像;
将所述目标图像输入至训练好的目标深度学习模型进行病灶识别,获得病灶识别结果;
其中,训练所述目标深度学习模型的过程,包括:
利用指定组织的有病灶标签图像训练出图像特征提取器;
利用所述图像特征提取器构建深度学习模型;
利用所述目标组织的有标签图像,对所述深度学习模型进行训练,得到所述目标深度学习模型。
优选地,所述利用指定组织的有病灶标签图像训练出图像特征提取器,包括:
利用所述有病灶标签图像基础深度网络模型进行训练;
去除训练好的基础深度网络模型中的全连接层,得到所述图像特征提取器。
优选地,利用所述图像特征提取器构建深度学习模型,包括:
在所述图像特征提取器上添加全局平均池化层,与所述目标组织的病灶种类匹配的全连接层。
优选地,利用所述目标组织的有标签图像,对所述深度学习模型进行训练,得到所述目标深度学习模型,包括:
冻结所述深度学习模型中所述图像特征提取器中的参数;
利用所述目标组织的有标签图像,对所述全局平均池化层和所述全连接层进行训练,得到所述目标深度学习模型。
优选地,训练所述目标深度学习模型的过程,还包括:
利用联合了交叉熵损失和中心损失的损失函数,对所述目标深度学习模型进行调优训练。
优选地,利用联合了交叉熵损失和中心损失的损失函数,对所述目标深度学习模型进行调优训练,包括:
利用中心损失函数,对第一个全连接层的输入特征进行约束;
利用所述交叉熵损失,对第二个全连接层进行优化损失;
利用所述中心损失函数的比重,平衡所述交叉熵损失及所述中心损失。
优选地,所述获取目标组织的目标图像,包括:
利用胶囊内窥镜获取小肠的目标图像。
一种病灶图片识别设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现上述病灶图片识别方法的步骤。
一种可读存储介质,所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述病灶图片识别方法的步骤。
应用本发明实施例所提供的装置,目标图像获取模块,用于获取目标组织的目标图像;病灶识别模块,用于将目标图像输入至训练好的目标深度学习模型进行病灶识别,获得病灶识别结果;模型训练模块,用于利用指定组织的有病灶标签图像训练出图像特征提取器;利用图像特征提取器构建深度学习模型;利用目标组织的有标签图像,对深度学习模型进行训练,得到目标深度学习模型。
在图像识别领域,由于图像具有相同的底层特征如边缘、视觉形状、几何变化、光照变化等,这些特征可应用于分类、目标识别等不同的任务。因此,基于迁移学习的思想,可以将经过指定组织(即非目标组织的其他组织)的有病灶标签图像预训练出通用的图像特征提取器。然后在该图像特征提取器的基础上构建出深度学习模型,并利用目标组织的有标签图像对深度学习模型进行训练,即可得到目标深度学习模型。由于,深度学习模型中关于图像特征提取部分是基于指定组织的有病灶标签训练而得的,因此,无需大量的有标签图像也可训练出分类识别效果更佳的目标深度学习模型。即可解决目标组织对应的有标签图像缺少的问题。在需要对目标组织的目标图像进行病灶识别时,仅需将获取到的目标图像输入至目标深度学习模型进行病灶识别,便可获得更为准确的病灶识别结果。
相应地,本发明实施例还提供了与上述病灶图片识别装置相对应的病灶图片识别方法、设备和可读存储介质,具有上述技术效果,在此不再赘述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中一种病灶图片识别方法的实施流程图;
图2为本发明实施例中一种基础深度网络模型示意图;
图3为本发明实施例中一种深度学习模型示意图;
图4为一种迁移学习核心思想示意图;
图5(a)本发明实施例中为仅使用交叉熵损的训练效果示意图;
图5(b)本发明实施例中为使用联合损失的训练效果示意图;
图6为本发明实施例中应用于小肠病灶识别对应的模型训练过程示意图;
图7为本发明实施例中一种病灶图片识别装置的结构示意图;
图8为本发明实施例中一种病灶图片识别设备的结构示意图;
图9为本发明实施例中一种病灶图片识别设备的具体结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面结合附图和具体实施方式对本发明作进一步的详细说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一:
请参考图1,图1为本发明实施例中一种病灶图片识别方法的流程图,该方法包括以下步骤:
S101、获取目标组织的目标图像。
可通过图像采集设备实时采集目标组织的目标图像,也可直接从存储介质中读取目标组织的目标图像,还可接收外部设备传输的目标组织的目标图像。
其中,目标组织可具体为诸如小肠这种难以获得有标签图像的组织。相应地,可利用胶囊内窥镜获取小肠的目标图像。
S102、将目标图像输入至训练好的目标深度学习模型进行病灶识别,获得病灶识别结果。
在得到目标图像之后,便可将目标图像输入至已经训练好的目标深度学习模型中进行病灶识别,得到病灶识别结果。该病灶识别结果可具体为是否含有病灶的识别判断结果,以及具体病灶标签的识别信息。
其中,训练目标深度学习模型的过程,包括:
步骤一、利用指定组织的有病灶标签图像训练出图像特征提取器;
步骤二、利用图像特征提取器构建深度学习模型;
步骤三、利用目标组织的有标签图像,对深度学习模型进行训练,得到目标深度学习模型。
为便于描述,下面将上述三个步骤结合起来进行说明。
为了解决目标组织的有标签图像数量较少,难以训练出识别效果较好的深度学习模型。而且,在图像识别领域,由于图像具有相同的底层特征如边缘、视觉形状、几何变化、光照变化等,这些特征可应用于分类、目标识别等不同的任务。因此,请参考图4,图4为迁移学习核心思想示意图(其中,源领域即对应本文中的指定组织,目标领域即对应本文中的目标组织),可基于迁移学习的思想,可以将经过指定组织(即非目标组织的其他组织)的有病灶标签图像预训练出通用的图像特征提取器。其中,指定组织可具体为容易获得有病灶标签图像的组织,例如胃部。
图像特征提取器的训练过程可具体包括:
步骤1.1、利用有病灶标签图像基础深度网络模型进行训练;
步骤1.2、去除训练好的基础深度网络模型中的全连接层,得到图像特征提取器。
具体的,可利用基础深度网络模型如深度卷积神经网络,在指定组织对应的大型数据集(即大量有病灶标签图像)上进行训练,在模型准确率达到最优时,停止训练,得到一个适用于对指定组织进行病灶识别的基础深度网络模型如图2所示。然后,将训练好的基础深度网络模型中的全连接层去除,剩余部分即为该模型中用于提取图像特征的结构,在本实施例中可将其视为一个图像特征提取器。
训练得到图像特征提取器之后,便可在该图像特征提取器的基础上构建出深度学***均池化层,与目标组织的病灶种类匹配的全连接层。具体的,可参考图3,可直接在图像特征提取器后天就全局平均池化层,将图像特征提取器输出的高纬图像特征进行压缩;在全局平均池化层之后,添加两个全连接层,用于对图像特征进行识别处理。其中,第一个全连接层(图3中自左向右的第一个全连接层)的激活函数为relu,神经元个数设置的值越大,其训练任务难度也就越大,训练后的识别效果更佳,以目标组织为小肠为例,神经个数可设置为1024;以目标组织为胃部为例,第一个全连接层的神经元个数可选用512;第二个全连接层(图3中自左向右的第二个全连接层)的神经元个数为目标组织的病灶类别数,激活函数为softmax交叉熵函数。即,第二全连接层的神经元个数与目标组组的病灶滤波数对应,对应不同的组织,可根据实际需求,设置神经元数量。举例说明,以小肠为例,第二全连接层的神经元个数可为13个;以胃部为例,第二全连接层的神经元个数可为20个。
构建好深度学习模型之后,便可利用目标组织的有标签图像,对深度学习模型进行训练,得到目标深度学习模型。对深度学习模型进行训练的过程,包括:
步骤3.1、冻结深度学习模型中图像特征提取器中的参数;
步骤3.2、利用目标组织的有标签图像,对全局平均池化层和全连接层进行训练,得到目标深度学习模型。
即,通过冻结的方法,使模型除顶上三层所有层的参数保持不变,对微调后的顶上三层进行训练。具体的,可根据目标组织的具体识别需求,对训练参数进行设置和调整。举例说明,若目标组织为小肠,则在训练阶段,采用随机梯度下降法,将初始学习率设置为0.1,当错误率迭代变化低于阈值时,学习率除以10不断下降,惯性动量为9,权值衰减为0.0001,最大训练迭代次数为1000次,在训练达到最优时,停止训练。需要说明的是,所列举的参数数值仅仅只是一种具体实例,并非限定相关参照仅能采用该数值。
优选地,考虑到在目标组织的病灶类别较多时,仅基于单一损失函数进行训练,会使得不同病灶的分类效果不够准确。为了提高分类准确率,还可进一步对目标深度学习模型进行调优训练。具体的,可利用联合了交叉熵损失和中心损失的损失函数,对目标深度学习模型进行调优训练。具体的调优训练过程,可包括:
步骤一、利用中心损失函数,对第一个全连接层的输入特征进行约束;
步骤二、利用交叉熵损失,对第二个全连接层进行优化损失;
步骤三、利用中心损失函数的比重,平衡交叉熵损失及中心损失。
其中,交叉熵损失可具体为softmax交叉熵损失函数,该softmax交叉熵损失函数的定义如下:
其中:m、n分别表示样本的数量和类别数,xi为第i个特征,Wj为全连接层中权重的第j列,b为偏置。
这种softmax交叉熵损失函数训练出的模型虽然具有较好的可分性,但是并不能使网络有效地的学习得到使得类内较紧凑、类间较离散的特征,从式2中softmax交叉熵损失函数可以看出,在更新参数时,模型只顾及当前j类,并惩罚其他类,使特征具备可分性,但却对类内距离没有进行约束,最后的结果是学习到的特征虽然可分,但类内间距过大,模型特征判别能力差。
其中m为样本数量,x(i)为输入特征;y(i)为第i类别,p(y(i)=j|x(i);θ)为x(i)被分为第j类的概率,θ为需要训练的参数,即权重与偏置;
为了解决上述问题,本实施例中引入了中心损失函数,中心损失函数定义如公式3所示:
其中,cyi则表示该第i张样本所属分类的中心,xi表示第i张样本的特征值。
中心损失函数的基本思想与聚类相似,通过在一个批次中对每一类特征都选择一个类中心,并计算每个样本的特征离特征中心的距离的平方和,使这个距离越小越好,也就是类内距离要越小越好。
所以本发明提出softmax交叉熵损失和中心损失相结合的联合损失的方法作为深度模型训练的监督信号进行联合训练,在特征层对距离类中心远的特征进行惩罚,从而在增大类间距离的同时,减小类内距离,使其学习到的特征具有更好的紧凑性,弥补仅使用softmax交叉熵损失的不足,减小误识别率。softmax交叉熵损失和中心损失组成的联合损失如式4所示:
其中λ用来平衡两种损失的比重且λ∈(0,0.1)。
为了直观展示联合损失的效果,本实施例使用13种常见小肠病灶进行了特征可视化,如图5(a)、图5(b)所示,从图中可以看到仅使用softmax交叉熵损失时模型输出的特征类与类之间较为紧凑,而使用联合损失时模型输出的特征类内较为紧凑、类间较为离散。
以目标组织为小肠为例,目标深度网络的训练过程,可具体包括将联合损失加入到目标深度网络模型中继续进行训练,在第一个全连接层使用中心损失函数作为优化损失用来约束输出特征,加大类间差,第二个全连接层使用softmax交叉熵损失作为优化损失并输出小肠病灶识别结果。
训练时可将数据集分为3部分,包括训练集、验证集和测试集,比例约为8:1:1。其中,训练集用于网络模型的训练,验证集用于训练阶段测试网络当前的性能,以监督网络的训练过程并决定是否要终止训练,测试集用于对最后的训练结果进行可视化测试评估。
优选地,为了提高优化训练后的目标深度学习网络的泛化能力,还可对训练数据(即有标签图像)进行一系列的数据增强处理(如旋转、移动、缩放、翻转等方式)来对模型训练样本进行扩展以提高模型的泛化性能。
在本实施例中,可通过中心损失函数的比重λ平衡softmax交叉熵损失及中心损失两个损失,从而加强网络对特征的识别能力,一个合适的λ值和批大小有助于提高模型的准确率。以目标组织为小肠为例,经测试在模型在中心损失比重λ为0.005,批大小为64时,模型的性能达到最优;以目标组织为胃部为例,经测试在模型在中心损失比重λ为0.01,批大小为64时,模型的性能达到最优。
优选地,在网络训练过程中,采用自适应矩阵估计算法(Adaptive momentestimation,Adam)作为损失优化的算法,初始学习率设置为0.0001,训练批大小为6。此外,为了防止过拟合,可引入EarlyStopping机制,当验证集的损失值在连续迭代10轮不再减小时停止训练。同时为保存最优模型参数,引入ModelCheckpoint机制,每轮迭代完成之后,通过观察验证集的精度是否发生提升来决定是否保存当前模型,最终将保存的模型结构及参数用于目标组织的目标图像识别,得到病灶识别结果。
得到病灶识别结果之后,可对海量的目标图像进行筛选,留下含有病灶的图像,或基于病灶识别结果输出警示信息,以便用户关注当前的检测部位。
应用本发明实施例所提供的方法,获取目标组织的目标图像;将目标图像输入至训练好的目标深度学习模型进行病灶识别,获得病灶识别结果;其中,训练目标深度学习模型的过程,包括:利用指定组织的有病灶标签图像训练出图像特征提取器;利用图像特征提取器构建深度学习模型;利用目标组织的有标签图像,对深度学习模型进行训练,得到目标深度学习模型。
在图像识别领域,由于图像具有相同的底层特征如边缘、视觉形状、几何变化、光照变化等,这些特征可应用于分类、目标识别等不同的任务。因此,基于迁移学习的思想,可以将经过指定组织(即非目标组织的其他组织)的有病灶标签图像预训练出通用的图像特征提取器。然后在该图像特征提取器的基础上构建出深度学习模型,并利用目标组织的有标签图像对深度学习模型进行训练,即可得到目标深度学习模型。由于,深度学习模型中关于图像特征提取部分是基于指定组织的有病灶标签训练而得的,因此,无需大量的有标签图像也可训练出分类识别效果更佳的目标深度学习模型。即可解决目标组织对应的有标签图像缺少的问题。在需要对目标组织的目标图像进行病灶识别时,仅需将获取到的目标图像输入至目标深度学习模型进行病灶识别,便可获得更为准确的病灶识别结果。
相应于上面的方法实施例,本发明实施例还提供了一种病灶图片识别装置,下文描述的病灶图片识别装置与上文描述的病灶图片识别方法可相互对应参照。
参见图7所示,该装置包括以下模块:
目标图像获取模块101,用于获取目标组织的目标图像;
病灶识别模块102,用于将目标图像输入至训练好的目标深度学习模型进行病灶识别,获得病灶识别结果;
模型训练模块103,用于利用指定组织的有病灶标签图像训练出图像特征提取器;利用图像特征提取器构建深度学习模型;利用目标组织的有标签图像,对深度学习模型进行训练,得到目标深度学习模型。
应用本发明实施例所提供的装置,目标图像获取模块,用于获取目标组织的目标图像;病灶识别模块,用于将目标图像输入至训练好的目标深度学习模型进行病灶识别,获得病灶识别结果;模型训练模块,用于利用指定组织的有病灶标签图像训练出图像特征提取器;利用图像特征提取器构建深度学习模型;利用目标组织的有标签图像,对深度学习模型进行训练,得到目标深度学习模型。
在图像识别领域,由于图像具有相同的底层特征如边缘、视觉形状、几何变化、光照变化等,这些特征可应用于分类、目标识别等不同的任务。因此,基于迁移学习的思想,可以将经过指定组织(即非目标组织的其他组织)的有病灶标签图像预训练出通用的图像特征提取器。然后在该图像特征提取器的基础上构建出深度学习模型,并利用目标组织的有标签图像对深度学习模型进行训练,即可得到目标深度学习模型。由于,深度学习模型中关于图像特征提取部分是基于指定组织的有病灶标签训练而得的,因此,无需大量的有标签图像也可训练出分类识别效果更佳的目标深度学习模型。即可解决目标组织对应的有标签图像缺少的问题。在需要对目标组织的目标图像进行病灶识别时,仅需将获取到的目标图像输入至目标深度学习模型进行病灶识别,便可获得更为准确的病灶识别结果。
在本发明的一种具体实施方式中,模型训练模块103,具体用于利用有病灶标签图像基础深度网络模型进行训练;
去除训练好的基础深度网络模型中的全连接层,得到图像特征提取器。
在本发明的一种具体实施方式中,模型训练模块103,具体用于在图像特征提取器上添加全局平均池化层,与目标组织的病灶种类匹配的全连接层。
在本发明的一种具体实施方式中,模型训练模块103,具体用于冻结深度学习模型中图像特征提取器中的参数;
利用目标组织的有标签图像,对全局平均池化层和全连接层进行训练,得到目标深度学习模型。
在本发明的一种具体实施方式中,模型训练模块103,具体用于利用联合了交叉熵损失和中心损失的损失函数,对目标深度学习模型进行调优训练。
在本发明的一种具体实施方式中,模型训练模块103,具体用于利用中心损失函数,对第一个全连接层的输入特征进行约束;
利用交叉熵损失,对第二个全连接层进行优化损失;
利用中心损失函数的比重,平衡交叉熵损失及中心损失。
在本发明的一种具体实施方式中,目标图像获取模块101,具体用于利用胶囊内窥镜获取小肠的目标图像。
下面以小肠组织为例,结合现有小肠病灶识别技术,对病灶图片识别方法/装置中的目标深度学习模型的训练过程进行详细说明,其他难以获得有标签图像的组织的病灶识别可参照与此。在此不再一一赘述。
小肠是人体中最长的消化管道,远离口腔及***,相互重叠且蠕动,为小肠疾病的检查及诊断带来一定的困难。胶囊内镜作为一种无痛、无创、安全、便捷的新型检查手段,为消化道疾病的诊断带来突破性进展,尤其是对小肠的检查具有独到之处,借助小肠蠕动使之在小肠内运动、拍摄图像,从而了解受检者的小肠情况,对其病情做出诊断。但是胶囊内镜产生的小肠内部图片有上万张,仅靠医生人眼观察进行判断,不仅费时费力而且还有可能由于疲劳导致漏检,从而延误病情。随着计算机技术的快速发展,使用机器学习算法从胶囊内镜产生的海量小肠图片中自动筛选出病灶图片是目前最佳的解决方案。
传统的机器学习方法用于小肠病灶图像识别的实现过程为:获取小肠病灶图像、提取特征、构建分类器,将特征向量输入分类器以实现种类识别,但是这些方法严重依赖于人工选择病灶特征,而人工选择的特征往往只是一些表层特征,很难挖掘出有鉴别力的特征。和传统机器学习方法相比,近年来崛起的深度学习方法以数据为驱动,能够从大量图像数据中通过卷积等操作自动学习特征表示,很好的解决了人工选择特征的问题。
现有的深度学习方法应用于胶囊内镜的小肠病灶图像识别存在以下问题:
一、现有的深度学习方法必须要有足够可利用的标注数据样本才能学习得到一个好的模型。但是由于小肠病灶的数据标注需要经验丰富的医生进行人工标注,过程费时且成本昂贵,因此这个条件往往无法满足,从而导致深度学习模型无法得到充分训练,识别性能较差及泛化性不强。
二、小肠疾病种类繁多且临床特征非常相似、不易区分,而现有深度学习模型普遍只采用softmax交叉熵损失作为优化损失,导致模型输出的特征判别力不强,进而识别准确率不高。
上述实施例所提供的病灶图片识别方法,应用于小肠病灶图像识别,可解决上述问题。其具体实施主要包括以下三个阶段,流程如图6所示:
第一阶段,构建初始化参数模型:
利用基础深度网络模型如深度卷积神经网络,在大型数据集上进行预训练,在模型准确率达到最优时,停止训练,得到初始化参数的网络模型。
第二阶段,知识迁移:
针对小肠病灶图像识别做知识迁移,对上一步得到模型结构进行微调,移除原有模型顶部三个全连接层(即得到图像特征提取器),在此基础上添加一个全局平均池化层和两个全连接层,第一个全连接层的神经元个数设置为1024(任务难度大,则大),激活函数为relu,第二个全连接层的神经元个数为小肠病灶数据的类别数,激活函数为softmax交叉熵函数,此时相当于构建好了深度学习模块。
通过冻结的方法,使模型除顶上三层所有层的参数保持不变,对微调后的顶上三层进行训练,在训练阶段,采用随机梯度下降法,将初始学习率设置为0.1,当错误率迭代变化低于阈值时,学习率除以10不断下降,惯性动量为9,权值衰减为0.0001,最大训练迭代次数为1000次,在训练达到最优时,停止训练,得到目标深度学习模型。
第三阶段,使用联合损失进行训练调优。
具体过程可参加上述调优训练过程。
相应于上面的方法实施例,本发明实施例还提供了一种病灶图片识别设备,下文描述的一种病灶图片识别设备与上文描述的一种病灶图片识别方法可相互对应参照。
参见图8所示,该病灶图片识别设备包括:
存储器D1,用于存储计算机程序;
处理器D2,用于执行计算机程序时实现上述方法实施例的病灶图片识别方法的步骤。
具体的,请参考图9,为本实施例提供的一种病灶图片识别设备的具体结构示意图,该病灶图片识别设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(central processing units,CPU)322(例如,一个或一个以上处理器)和存储器332,一个或一个以上存储应用程序342或数据344的存储介质330(例如一个或一个以上海量存储设备)。其中,存储器332和存储介质330可以是短暂存储或持久存储。存储在存储介质330的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对数据处理设备中的一系列指令操作。更进一步地,中央处理器322可以设置为与存储介质330通信,在病灶图片识别设备301上执行存储介质330中的一系列指令操作。
病灶图片识别设备301还可以包括一个或一个以上电源326,一个或一个以上有线或无线网络接口350,一个或一个以上输入输出接口358,和/或,一个或一个以上操作***341。例如,Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等。
上文所描述的病灶图片识别方法中的步骤可以由病灶图片识别设备的结构实现。
相应于上面的方法实施例,本发明实施例还提供了一种可读存储介质,下文描述的一种可读存储介质与上文描述的一种病灶图片识别方法可相互对应参照。
一种可读存储介质,可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现上述方法实施例的病灶图片识别方法的步骤。
该可读存储介质具体可以为U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可存储程序代码的可读存储介质。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
Claims (16)
1.一种病灶图片识别装置,其特征在于,包括:
目标图像获取模块,用于获取目标组织的目标图像;
病灶识别模块,用于将所述目标图像输入至训练好的目标深度学习模型进行病灶识别,获得病灶识别结果;
模型训练模块,用于利用指定组织的有病灶标签图像训练出图像特征提取器;利用所述图像特征提取器构建深度学习模型;利用所述目标组织的有标签图像,对所述深度学习模型进行训练,得到所述目标深度学习模型。
2.根据权利要求1所述的病灶图片识别装置,其特征在于,所述模型训练模块,具体用于利用所述有病灶标签图像基础深度网络模型进行训练;去除训练好的基础深度网络模型中的全连接层,得到所述图像特征提取器。
3.根据权利要求1所述的病灶图片识别装置,其特征在于,所述模型训练模块,具体用于在所述图像特征提取器上添加全局平均池化层,与所述目标组织的病灶种类匹配的全连接层。
4.根据权利要求3所述的病灶图片识别装置,其特征在于,所述模型训练模块,具体用于冻结所述深度学***均池化层和所述全连接层进行训练,得到所述目标深度学习模型。
5.根据权利要求1至4任一项所述的病灶图片识别装置,所述模型训练模块,具体用于利用联合了交叉熵损失和中心损失的损失函数,对所述目标深度学习模型进行调优训练。
6.根据权利要求5所述的病灶图片识别装置,所述模型训练模块,具体用于利用中心损失函数,对第一个全连接层的输入特征进行约束;
利用所述交叉熵损失,对第二个全连接层进行优化损失;
利用所述中心损失函数的比重,平衡所述交叉熵损失及所述中心损失。
7.根据权利要求1所述的病灶图片识别装置,其特征在于,所述目标图像获取模块,具体用于利用胶囊内窥镜获取小肠的目标图像。
8.一种病灶图片识别方法,其特征在于,包括:
获取目标组织的目标图像;
将所述目标图像输入至训练好的目标深度学习模型进行病灶识别,获得病灶识别结果;
其中,训练所述目标深度学习模型的过程,包括:
利用指定组织的有病灶标签图像训练出图像特征提取器;
利用所述图像特征提取器构建深度学习模型;
利用所述目标组织的有标签图像,对所述深度学习模型进行训练,得到所述目标深度学习模型。
9.根据权利要求8所述的病灶图片识别方法,其特征在于,所述利用指定组织的有病灶标签图像训练出图像特征提取器,包括:
利用所述有病灶标签图像基础深度网络模型进行训练;
去除训练好的基础深度网络模型中的全连接层,得到所述图像特征提取器。
10.根据权利要求8所述的病灶图片识别方法,其特征在于,利用所述图像特征提取器构建深度学习模型,包括:
在所述图像特征提取器上添加全局平均池化层,与所述目标组织的病灶种类匹配的全连接层。
11.根据权利要求10所述的病灶图片识别方法,其特征在于,利用所述目标组织的有标签图像,对所述深度学习模型进行训练,得到所述目标深度学习模型,包括:
冻结所述深度学习模型中所述图像特征提取器中的参数;
利用所述目标组织的有标签图像,对所述全局平均池化层和所述全连接层进行训练,得到所述目标深度学习模型。
12.根据权利要求8至11任一项所述的病灶图片识别方法,其特征在于,训练所述目标深度学习模型的过程,还包括:
利用联合了交叉熵损失和中心损失的损失函数,对所述目标深度学习模型进行调优训练。
13.根据权利要求12所述的病灶图片识别方法,其特征在于,利用联合了交叉熵损失和中心损失的损失函数,对所述目标深度学习模型进行调优训练,包括:
利用中心损失函数,对第一个全连接层的输入特征进行约束;
利用所述交叉熵损失,对第二个全连接层进行优化损失;
利用所述中心损失函数的比重,平衡所述交叉熵损失及所述中心损失。
14.根据权利要求8所述的病灶图片识别方法,其特征在于,所述获取目标组织的目标图像,包括:
利用胶囊内窥镜获取小肠的目标图像。
15.一种病灶图片识别设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求8至14任一项所述病灶图片识别方法的步骤。
16.一种可读存储介质,其特征在于,所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求8至14任一项所述病灶图片识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010244922.2A CN111462082A (zh) | 2020-03-31 | 2020-03-31 | 一种病灶图片识别装置、方法、设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010244922.2A CN111462082A (zh) | 2020-03-31 | 2020-03-31 | 一种病灶图片识别装置、方法、设备及可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111462082A true CN111462082A (zh) | 2020-07-28 |
Family
ID=71679450
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010244922.2A Pending CN111462082A (zh) | 2020-03-31 | 2020-03-31 | 一种病灶图片识别装置、方法、设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111462082A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112884728A (zh) * | 2021-02-04 | 2021-06-01 | 复旦大学附属中山医院 | 基于深度学习卷积神经网络的内镜图像病变识别筛查方法 |
CN113962995A (zh) * | 2021-12-21 | 2022-01-21 | 北京鹰瞳科技发展股份有限公司 | 一种白内障模型的训练方法及白内障识别方法 |
WO2022148216A1 (zh) | 2021-01-06 | 2022-07-14 | 安翰科技(武汉)股份有限公司 | 基于深度学习的胶囊内窥镜影像识别方法、设备及介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102722735A (zh) * | 2012-05-24 | 2012-10-10 | 西南交通大学 | 一种融合全局和局部特征的内镜图像病变检测方法 |
CN104434004A (zh) * | 2014-12-30 | 2015-03-25 | 南方医科大学 | 一种胶囊内窥镜检测***及图像信息处理方法 |
CN107240091A (zh) * | 2017-04-21 | 2017-10-10 | 安翰光电技术(武汉)有限公司 | 胶囊内窥镜图像预处理***及方法 |
CN107292347A (zh) * | 2017-07-06 | 2017-10-24 | 中冶华天南京电气工程技术有限公司 | 一种胶囊内窥镜图像识别方法 |
CN107909095A (zh) * | 2017-11-07 | 2018-04-13 | 江苏大学 | 一种基于深度学习的图像识别方法 |
CN108852268A (zh) * | 2018-04-23 | 2018-11-23 | 浙江大学 | 一种消化内镜图像异常特征实时标记***及方法 |
CN110009052A (zh) * | 2019-04-11 | 2019-07-12 | 腾讯科技(深圳)有限公司 | 一种图像识别的方法、图像识别模型训练的方法及装置 |
CN110136809A (zh) * | 2019-05-22 | 2019-08-16 | 腾讯科技(深圳)有限公司 | 一种医疗图像处理方法、装置、电子医疗设备和存储介质 |
CN110276356A (zh) * | 2019-06-18 | 2019-09-24 | 南京邮电大学 | 基于r-cnn的眼底图像微动脉瘤识别方法 |
CN110599451A (zh) * | 2019-08-05 | 2019-12-20 | 平安科技(深圳)有限公司 | 医学图像病灶检测定位方法、装置、设备及存储介质 |
CN110852276A (zh) * | 2019-11-12 | 2020-02-28 | 智慧视通(杭州)科技发展有限公司 | 一种基于多任务深度学习的行人再识别方法 |
-
2020
- 2020-03-31 CN CN202010244922.2A patent/CN111462082A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102722735A (zh) * | 2012-05-24 | 2012-10-10 | 西南交通大学 | 一种融合全局和局部特征的内镜图像病变检测方法 |
CN104434004A (zh) * | 2014-12-30 | 2015-03-25 | 南方医科大学 | 一种胶囊内窥镜检测***及图像信息处理方法 |
CN107240091A (zh) * | 2017-04-21 | 2017-10-10 | 安翰光电技术(武汉)有限公司 | 胶囊内窥镜图像预处理***及方法 |
CN107292347A (zh) * | 2017-07-06 | 2017-10-24 | 中冶华天南京电气工程技术有限公司 | 一种胶囊内窥镜图像识别方法 |
CN107909095A (zh) * | 2017-11-07 | 2018-04-13 | 江苏大学 | 一种基于深度学习的图像识别方法 |
CN108852268A (zh) * | 2018-04-23 | 2018-11-23 | 浙江大学 | 一种消化内镜图像异常特征实时标记***及方法 |
CN110009052A (zh) * | 2019-04-11 | 2019-07-12 | 腾讯科技(深圳)有限公司 | 一种图像识别的方法、图像识别模型训练的方法及装置 |
CN110136809A (zh) * | 2019-05-22 | 2019-08-16 | 腾讯科技(深圳)有限公司 | 一种医疗图像处理方法、装置、电子医疗设备和存储介质 |
CN110491480A (zh) * | 2019-05-22 | 2019-11-22 | 腾讯科技(深圳)有限公司 | 一种医疗图像处理方法、装置、电子医疗设备和存储介质 |
CN110276356A (zh) * | 2019-06-18 | 2019-09-24 | 南京邮电大学 | 基于r-cnn的眼底图像微动脉瘤识别方法 |
CN110599451A (zh) * | 2019-08-05 | 2019-12-20 | 平安科技(深圳)有限公司 | 医学图像病灶检测定位方法、装置、设备及存储介质 |
CN110852276A (zh) * | 2019-11-12 | 2020-02-28 | 智慧视通(杭州)科技发展有限公司 | 一种基于多任务深度学习的行人再识别方法 |
Non-Patent Citations (2)
Title |
---|
刘杨圣彦等: ""面向三维模型视图特征提取的残差卷积网络优化"", 《计算机辅助设计与图形学学报》, vol. 31, no. 6, 30 June 2019 (2019-06-30), pages 936 - 942 * |
卢誉声: "《移动平台深度神经网络实战 原理、架构与优化》", 北京:机械工业出版社, pages: 332 - 335 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022148216A1 (zh) | 2021-01-06 | 2022-07-14 | 安翰科技(武汉)股份有限公司 | 基于深度学习的胶囊内窥镜影像识别方法、设备及介质 |
CN112884728A (zh) * | 2021-02-04 | 2021-06-01 | 复旦大学附属中山医院 | 基于深度学习卷积神经网络的内镜图像病变识别筛查方法 |
CN113962995A (zh) * | 2021-12-21 | 2022-01-21 | 北京鹰瞳科技发展股份有限公司 | 一种白内障模型的训练方法及白内障识别方法 |
CN113962995B (zh) * | 2021-12-21 | 2022-04-19 | 北京鹰瞳科技发展股份有限公司 | 一种白内障模型的训练方法及白内障识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109447940B (zh) | 卷积神经网络训练方法、超声图像识别定位方法及*** | |
CN111047594B (zh) | 肿瘤mri弱监督学习分析建模方法及其模型 | |
CN108806792B (zh) | 深度学习面诊*** | |
CN109544518B (zh) | 一种应用于骨骼成熟度评估的方法及其*** | |
CN108257135A (zh) | 基于深度学习方法解读医学图像特征的辅助诊断*** | |
CN109376636A (zh) | 基于胶囊网络的眼底视网膜图像分类方法 | |
CN111462082A (zh) | 一种病灶图片识别装置、方法、设备及可读存储介质 | |
CN111767952B (zh) | 一种可解释的肺结节良恶性分类方法 | |
CN111341437B (zh) | 基于舌图像的消化道疾病判断辅助*** | |
CN108511055A (zh) | 基于分类器融合及诊断规则的室性早搏识别***及方法 | |
CN110729045A (zh) | 一种基于上下文感知残差网络的舌图像分割方法 | |
CN114782307A (zh) | 基于深度学习的增强ct影像直肠癌分期辅助诊断*** | |
CN114398979A (zh) | 一种基于特征解耦的超声图像甲状腺结节分类方法 | |
Aurangzeb et al. | An efficient and light weight deep learning model for accurate retinal vessels segmentation | |
CN115035127A (zh) | 一种基于生成式对抗网络的视网膜血管分割方法 | |
CN114334162A (zh) | 疾病患者智能预后预测方法、装置、存储介质及设备 | |
CN117218127B (zh) | 超声内镜辅助监测***及方法 | |
CN116912253B (zh) | 基于多尺度混合神经网络的肺癌病理图像分类方法 | |
CN112861881A (zh) | 一种基于改进MobileNet模型的蜂窝肺识别方法 | |
CN116645346A (zh) | 肩袖扫描图像的处理方法、电子设备及存储介质 | |
CN116091446A (zh) | 食管内窥镜图像的异常检测方法、***、介质及设备 | |
CN113313714B (zh) | 一种基于改进U-Net网络的冠脉OCT图像病变斑块分割方法 | |
CN108986889A (zh) | 一种病变识别模型训练方法、装置及存储设备 | |
CN114004821A (zh) | 一种基于级联rcnn的肠神经节细胞辅助识别方法 | |
CN115273176A (zh) | 一种基于生命体征和表情的疼痛多算法客观评估方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20201130 Address after: 18 No. 401120 Chongqing Yubei District City, two Industrial Park Avenue nishang Applicant after: CHONGQING JINSHAN SCIENCE & TECHNOLOGY (GROUP) Co.,Ltd. Address before: 401120 5 blocks 1-1, 2-1 and 3-1, No. 18, Cuiping Second Lane, Huixing Street, Yubei District, Chongqing Applicant before: Chongqing Jinshan Medical Technology Research Institute Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200728 |
|
RJ01 | Rejection of invention patent application after publication |