CN113487614A - 胎儿超声标准切面图像识别网络模型的训练方法和装置 - Google Patents
胎儿超声标准切面图像识别网络模型的训练方法和装置 Download PDFInfo
- Publication number
- CN113487614A CN113487614A CN202111047127.5A CN202111047127A CN113487614A CN 113487614 A CN113487614 A CN 113487614A CN 202111047127 A CN202111047127 A CN 202111047127A CN 113487614 A CN113487614 A CN 113487614A
- Authority
- CN
- China
- Prior art keywords
- network model
- standard section
- student
- training
- teacher
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 84
- 238000000034 method Methods 0.000 title claims abstract description 75
- 210000003754 fetus Anatomy 0.000 title claims abstract description 58
- 230000001605 fetal effect Effects 0.000 claims abstract description 74
- 238000002604 ultrasonography Methods 0.000 claims abstract description 61
- 238000004821 distillation Methods 0.000 claims abstract description 22
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 19
- 239000011159 matrix material Substances 0.000 claims abstract description 18
- 230000006870 function Effects 0.000 claims description 21
- 238000003860 storage Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 10
- 238000002372 labelling Methods 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 4
- 210000001015 abdomen Anatomy 0.000 claims description 3
- 210000003679 cervix uteri Anatomy 0.000 claims description 3
- 210000000038 chest Anatomy 0.000 claims description 3
- 238000005520 cutting process Methods 0.000 claims description 3
- 230000008774 maternal effect Effects 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 210000000689 upper leg Anatomy 0.000 claims description 3
- 238000007689 inspection Methods 0.000 claims description 2
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000003062 neural network model Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 15
- 239000013598 vector Substances 0.000 description 13
- 238000013528 artificial neural network Methods 0.000 description 11
- 238000013140 knowledge distillation Methods 0.000 description 9
- 238000012795 verification Methods 0.000 description 6
- 238000011161 development Methods 0.000 description 5
- 238000009826 distribution Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 230000002159 abnormal effect Effects 0.000 description 4
- 230000002950 deficient Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000010223 real-time analysis Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 206010036595 Premature delivery Diseases 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000008014 freezing Effects 0.000 description 2
- 238000007710 freezing Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000035935 pregnancy Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 206010067484 Adverse reaction Diseases 0.000 description 1
- 208000032170 Congenital Abnormalities Diseases 0.000 description 1
- 208000002330 Congenital Heart Defects Diseases 0.000 description 1
- 206010060919 Foetal malformation Diseases 0.000 description 1
- 208000036830 Normal foetus Diseases 0.000 description 1
- 208000005107 Premature Birth Diseases 0.000 description 1
- 206010036590 Premature baby Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000006838 adverse reaction Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 208000028831 congenital heart disease Diseases 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000009021 linear effect Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000009022 nonlinear effect Effects 0.000 description 1
- 230000009984 peri-natal effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30044—Fetus; Embryo
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Public Health (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Databases & Information Systems (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及人工智能技术领域,公开了一种胎儿超声标准切面图像识别网络模型的训练方法和装置,所述方法包括:构建已完成预训练的教师网络模型和未训练的第一学生网络模型,教师网络模型和第一学生网络模型均是残差连接的卷积神经网络;基于教师网络模型的隐藏层知识训练第一学生网络模型的中间层获得第二学生网络模型;基于第二学生网络模型的自蒸馏知识和教师网络模型与第二学生网络模型输出样本间的相似度矩阵预测信息训练第二学生网络模型得到胎儿超声标准切面图像识别网络模型。本发明以此训练获得的胎儿超声标准切面图像识别网络模型其具有识别效率高、结构轻量便于部署的优点。
Description
技术领域
本发明涉及人工智能技术领域,具体是指一种胎儿超声标准切面图像识别网络模型的训练方法和装置。
背景技术
产前超声检查是产妇在中孕期接受检查的重要步骤,是检查胎儿在母体内发育情况,降低缺陷胎儿出生率,预测早产风险的重要依据,可以为早期的干预和治疗提供指导。中孕期是胎儿各个***发育成熟的最佳时机,此时超声检查图像清晰,且可以从各个角度观察胎儿的生长发育情况。其中,先天性心脏病在胎儿畸形发病率中占首位,是围产儿和新生儿死亡的重要原因,如不及时通过产前超声检查发现异常区域,并提早对产妇进行引产等措施,将在后期对产妇及其家庭造成更严重的身心伤害。在临床检查的过程中,具有丰富经验的专业临床医生利用超声设备获得胎儿各个部位的二维超声标准切面,然后根据每个切面制定的相应的评价指标,依据评价标准进行手动评价,在此基础上测量各种体征数据,以评估胎儿在母体内的发育情况,预测早产的风险。虽然传统的超声检查方法已经取得了一定进展,但产前超声检查用到的切面种类多、不同切面的主要结构和复杂程度都不一样,使用传统方式手动获取切面会面临很多问题,例如:
(1)标准切面的获取难度大,对超声医生的临床经验依赖度极高;
(2)因不同超声医生专业水平的差异,获取到的标准切面结果可能不同,切面图像的规范性得不到保障;
(3)临床工作效率低,易使孕妇受检时间过长,引起不良反应等。
由于具有丰富临床经验和熟练操作技巧的医生目前仍然较为缺乏,这一情况在欠发达地区更为严重。另一方面,胎儿超声标准切面的病变区域通常展现出不规则、形变、位置随机以及背景内容复杂等特点,仅凭临床医生主观诊断难以保证异常区域识别的准确率,影响早期缺陷胎儿识别的准确性。
现有的技术方案主要通过计算机辅诊断进行病变区域识别,采用动态纹理分析方法对图像的形状和感兴趣的纹理形状进行手工提取,再结合决策树、支持向量机、条件随机场等方法对胎儿超声标准切面图像的像素点进行分类,进行异常区域识别。另外一类是基于深度神经网络的辅诊方法,通过深度学习技术,利用大量标准化数据训练神经网络模型,对胎儿超声标准切面图像进行特征提取和高维特征与低维特征的特征融合,以图像到图像的方式产生稠密预测输出,从而提供当前图像中的异常区域的提示。
通过手动设计胎儿超声标准切面图像特征的方法非常依赖于超声设备和神经网络方面的先验知识,这些知识的获取和描述都较为困难,并且难以有效捕捉胎儿超声标准切面图像本质表达。因此,采用手工特征的计算机辅助胎儿标准切面识别方法的实际应用性较为局限。以卷积神经网络为代表的深度神经网络方法,通过其自动学习图像特征的能力,可以有效克服需要手工设计图像特征的问题。但已有的卷积神经网络模型的结构的设计主要面向自然图像处理的通用视觉任务场景,较难在医学图像识别的实际任务的应用场景中取得高性能的表现。
具体来说,胎儿超声标准切面图像和自然图像在图像复杂度和像素点的空间空间分布结构上存在较大的差别,采用目前主流的方法,即对基于自然图像预训练好的卷积神经网络模型上微调,往往难以达到良好的性能。同时,该方式也极易造成参数冗余的问题,增加不必要的时间开销,难以提高实时分析能力;基于此,采用残差神经网络模型结构,使用大量高质量的胎儿超声标准切面图像数据,直接训练此模型,经大量实验表明在胎儿超声标准切面图像识别中取得了优于其他现有方法的性能。
但由于残差网络模型深度较深、参数量较多,模型十分庞大,其在训练过程中的计算资源占用量是巨大的,不可避免地耗费大量时间开销对输入数据进行处理,极大限制了实际应用时的运行效率。同时,在实际部署时,深度神经网络模型占用大量内存,对终端设备的计算资源需求高,而在实际应用时的终端超声设备往往只具备有限的计算资源。
知识蒸馏算法是模型压缩领域的一大分支研究方向,是一种能将有效信息从预先训练好的具有庞大参数量的教师神经网络模型“蒸馏”作为先验知识,训练轻量级的学生神经网络模型,而不会显著降低原有模型的精度的高效模型优化方法。可根据具体的优化任务,从知识类型的选取、教师-学生神经网络结构、知识蒸馏算法三大方面综合考量,基于以上三者进行最优选择,以达到最佳蒸馏性能。由于神经网络最后一层神经元的输出是一个概率分布,还应通过交叉熵、相对熵、JS散度等衡量学生网络模型和教师网络模型的概率输出分布,不断迭代损失函数,最终使其收敛。因此,构建基于神经网络知识蒸馏的胎儿标准切面识别方法,可以提取性能优异的教师神经网络模型的先验知识信息,为网络训练提供更加丰富且有效的监督信息,融入一种有效的正则化机制,有效实现自动化的面向产前超声检查过程中的胎儿超声标准切面图像获取的神经网络建模,同时在保留良好的识别准确率的基础上构建更轻量级的学生神经网络模型,缓解了在终端设备部署的难题,提升超声检查时的实时分析能力。
总的来说:实时监测胎儿在母体内的生长发育情况是至关重要的,缺陷胎儿的出生将为产妇及其家庭带来不可挽回的身心伤害,利用产前超声检查进行早期筛查,通过提前干预治疗可以有效降低缺陷胎儿出生率、预测早产风险等。获取
胎儿超声标准切面图像并基于此进行临床分析的方法是产前超声检查最重要的环节,但胎儿超声标准切面图像的获取要求医生有丰富的经验,才能保证切面图像获取的准确性。深度神经网络方法已被广泛应用于计算机辅助识别胎儿超声标准切面,但性能良好的深度神经网络模型往往参数量庞大,需要占用庞大的计算资源,不利于在终端设备上进行部署。且庞大的神经网络模型需要耗费巨大的时间开销对输入图像进行处理,极大限制了实际应用时的实时分析性能。
发明内容
基于以上技术问题,本发明提供了一种胎儿超声标准切面图像识别网络模型的训练方法和装置,其通过训练可获得轻量级的胎儿超声标准切面图像识别网络模型,从而有利于将此识别网络模型在终端设备上进行部署,且由于此识别网络模型的轻量化特性,其不需要占用庞大的计算资源,具有更高的运行效率。
为解决以上技术问题,本发明采用的技术方案如下:
一种胎儿超声标准切面图像识别网络模型的训练方法,包括:
构建已完成预训练的教师网络模型和未训练的第一学生网络模型,教师网络模型和第一学生网络模型均是残差连接的卷积神经网络;
基于教师网络模型的隐藏层知识训练第一学生网络模型的中间层获得第二学生网络模型;
基于第二学生网络模型的自蒸馏知识和教师网络模型与第二学生网络模型输出样本间的相似度矩阵预测信息训练第二学生网络模型得到胎儿超声标准切面图像识别网络模型。
一种胎儿超声标准切面图像识别网络模型的训练装置,包括:
模型构建模块,模型构建模块用于构建已完成预训练的教师网络模型和未训练的第一学生网络模型,教师网络模型和第一学生网络模型均是残差连接的卷积神经网络;
第一训练模块,第一训练模块用于基于教师网络模型的隐藏层知识训练第一学生网络模型的中间层获得第二学生网络模型;
第二训练模块,第二训练模块用于基于第二学生网络模型的自蒸馏知识和教师网络模型与第二学生网络模型输出样本间的相似度矩阵预测信息训练第二学生网络模型得到胎儿超声标准切面图像识别网络模型。
一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述胎儿超声标准切面图像识别网络模型的训练方法的步骤。
一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述胎儿超声标准切面图像识别网络模型的训练方法的步骤。
与现有技术相比,本发明的有益效果是:
上述方法、装置、计算机设备和存储介质,将识别性能高但庞大的教师网络模型的有效信息“蒸馏”,用以训练轻量级的学生网络模型,可在保留庞大的教师神经网络模型高效的识别准确率的基础上,大幅压缩模型参数量,从而减少了对计算资源的大量需求和依赖、大量节省计算开销,缓解部署和实际应用时的难题,大幅提升实时分析能力。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。其中:
图1为胎儿超声标准切面图像识别网络模型的训练方法流程示意图图一。
图2为教师网络模型的隐藏层知识训练第一学生网络模型获得第二学生网络模型流程示意图图一。
图3为基于第二学生网络模型的自蒸馏知识和教师网络模型与第二学生网络模型输出样本间的相似度矩阵预测信息训练第二学生网络模型得到胎儿超声标准切面图像识别网络模型流程示意图。
图4为已标注的胎儿超声标准切面图像的获取方法流程示意图。
图5为胎儿超声标准切面图像识别网络模型的训练方法流程示意图图二。
图6为教师网络模型的隐藏层知识训练第一学生网络模型获得第二学生网络模型流程示意图图二。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例的附图,对本公开实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本公开的一部分实施例,而不是全部的实施例。基于所描述的本公开的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
本申请的目的在于提供一种胎儿超声标准切面图像识别网络模型的训练方法和装置,所述方法包括:构建已完成预训练的教师网络模型和未训练的第一学生网络模型,教师网络模型和第一学生网络模型均是残差连接的卷积神经网络;基于教师网络模型的隐藏层知识训练第一学生网络模型的中间层获得第二学生网络模型;基于第二学生网络模型的自蒸馏知识和教师网络模型与第二学生网络模型输出样本间的相似度矩阵预测信息训练第二学生网络模型得到胎儿超声标准切面图像识别网络模型。
本申请实施例可用于胎儿标准切面图像识别的应用场景,其目的在于通过训练获得的胎儿超声标准切面图像识别网络模型自动完成对胎儿超声标准切面图像的识别,通过在超声检查过程中自动高效识别胎儿标准切面图像,解决了产前超声检查过程中手动获取胎儿超声标准切面图像的对医生临床经验依赖度高,可能会由于超声医生专业水平的差异,导致获取到的胎儿超声标准切面图像识别结果不一,无法保障识别结果规范性的问题。
为了使本申请领域技术人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请的实施例进行描述。
参阅图1,在一些实施例中,一种胎儿超声标准切面图像识别网络模型的训练方法,包括:
S101,构建已完成预训练的教师网络模型和未训练的第一学生网络模型,教师网络模型和第一学生网络模型均是残差连接的卷积神经网络;
其中,教师网络模型和第一学生网络模型的结构类似都是残差连接的卷积神经网络,区别在于第一学生网络模型相比于教师网络模型其参数量更少,结构更轻量。
具体的,卷积神经网络其结构一般包括输入层、卷积层、激励层、池化层、全连接层和输出层。
具体的,残差连接的卷积神经网络结构,其将高维特征和低维特征融合,每一个卷积操作之后都进行批归一化(batch normalization, BN),并且使用ReLU激活函数。
具体的,对于教师网络模型的训练,使用构建的深度残差神经网络模型对输入数据进行训练,不断迭代直到损失函数收敛,达到全局最优解,并保存性能良好的模型作为后续步骤的教师神经网络模型。
S102,基于教师网络模型的隐藏层知识训练第一学生网络模型的中间层获得第二学生网络模型;
其中,通过此步骤对第一学生网络模型的训练提供了基于教师网络模型的先验知识,相当于融入了一种新的正则化机制来监督学生网络模型的训练,使其获得了更优秀的性能表现。
此外,此步骤还可用于对于第一学生网络模型的选取,根据教师网络模型的结构,选择具有相同残差结构的轻量级浅层网络模型作为选项之一,同时选择主流轻量级模型MobileNet作为选项之一,重复此步骤,分别得到不同的学生网络模型。综合考量得到的模型其FLOPs性能和识别准确率,评估效果,从而确定第一学生网络模型的选取。
结果表明,使用与教师网络具有相同残差结构的轻量级学生网络能够更好地转移二者中间层隐藏信息,因此,采用具有残差结构的轻量级浅层卷积神经网络模型作为本申请的学生网络模型。
S103,基于第二学生网络模型的自蒸馏知识和教师网络模型与第二学生网络模型输出样本间的相似度矩阵预测信息训练第二学生网络模型得到胎儿超声标准切面图像识别网络模型。
其中,第二学生网络模型使用基于自蒸馏的知识蒸馏方法,融入教师网络模型输出样本的相似度矩阵预测信息,构成双重软标签,进行多特征蒸馏,训练经历了第一阶段知识迁移的第二学生网络模型以获得性能更加优良的胎儿超声标准切面图像识别网络模型。
此外,参阅图5,图5提供了一种更加直观的胎儿超声标准切面图像识别网络模型的训练方法流程示意图。其中,图5中{f1、f2、f3}指除了锚样本外的其他输入数据经过编码器后的特征向量;fanchor 指锚样本数据经过编码器后的特征向量;{p1、p2、p3}指除了锚样本外的其他编码后的特征向量经过分类器后的特征向量,指的是经过知识蒸馏方法后的向量;Panchor指除了锚样本外的其他编码后的特征向量经过分类器后的特征向量,指的是不经过知识蒸馏方法后的向量,也就是学生网络自训练后的向量。将以上两部分向量结合起来,形成整个阶段的向量,进行训练。
其中,锚样本就是指代学生网络自训练输出的向量样本,其是作为衡量相似度的一个基准。
参阅图2,在一些实施例中,基于教师网络模型的隐藏层知识训练第一学生网络模型的中间层获得第二学生网络模型包括:
S201,固定教师网络模型后,将数据集输入冻结了最后一层残差卷积神经网络层和全连接层的教师网络模型中获取教师网络模型隐藏层的输出结果;
具体的,在将数据集输入之前,对教师网络进行固定。固定教师网络模型是指切断教师网络模型的方向传播机制,仅利用其预测值提供监督信息;
S202,将数据集输入冻结了最后一层残差连接层、池化层和全连接层的第一学生网络模型中获取第一学生网络模型中间层的输出结果;
S203,基于教师网络模型隐藏层的输出结果和第一学生网络模型中间层的输出结果构建第一损失函数;
S204,基于第一损失函数对第一学生网络模型进行迭代训练获得第二学生网络模型。
其中,固定训练好的教师网络模型,冻结其最后一层残差卷积神经网络层和全连接层,仅输出隐藏层的特征表达,将其作为此阶段训练的监督信息,以此来指导第一学生网络的中间层权重的初始化。冻结第一学生网络模型的最后一层残差连接层、池化层以及全连接层,仅训练第一学生网络的中间层的权重矩阵。
具体的,第一损失函数其表达式如下:
其中,表示教师网络模型的隐藏层函数,表示第一学生网络模型中间层函数,r表示卷积回归函数。为保证教师网络模型隐藏层输出特征和第一学生网络模型卷积回归层输出特征维度一致,函数和r函数应具有相同的非线性性质。
具体的,第一学生网络模型进行迭代训练至第一损失函数收敛。
此外,参阅图6,图6提供了一种更加直观的教师网络模型的隐藏层知识训练第一学生网络模型获得第二学生网络模型流程示意图。
参阅图3,在一些实施例中,基于第二学生网络模型的自蒸馏知识和教师网络模型与第二学生网络模型输出样本间的相似度矩阵预测信息训练第二学生网络模型得到胎儿超声标准切面图像识别网络模型包括:
S301,将数据集输入第二学生网络模型和教师网络模型中获得第二学生网络模型输出的第一输出样本数据和第一软标签数据、教师网络模型输出的第二输出样本数据和第二软标签数据;
其中,现有一般的知识蒸馏方法中,其是通过固定训练好的教师网络,使用教师网络最后一层神经元的输出信息经过带温度系数T的Softmax函数,将其预测的所有类别的概率分布“蒸馏”获得软标签数据,作为知识蒸馏的监督信息,指导学生网络进行训练,具体公式如下:
上式为获取软标签数据的基本原理公式,第一软标签数据和第二软标签数据亦可采用上述方法获得。
S302,基于第一输出样本数据和第二输出样本数据获得第二学生网络模型的自蒸馏监督信息;
具体的,基于第一输出样本数据和第二输出样本数据构造基于批次内多个样本的对输出锚样本的相似度矩阵A,具体公式如下:
并对相似度矩阵进行softmax归一化处理得到:
S303,基于第一软标签数据、第二软标签数据和自蒸馏监督信息构建第二损失函数;
其中,第二损失函数具体为:
计算锚样本知识与批样本内除锚样本外的输入数据经过图像编码器的特征{f}之间的相似度矩阵,计算二者间的距离与相似性。基于相似度矩阵A,对其他样本的所有预测进行加权传播,再结合经过第二学生网络模型、教师网络模型输出的软标签,二者加权形成多重软标签,指导第二学生网络模型训练,至此完成在同一批次样本之间的一次知识蒸馏训练。再不断迭代使用KL散度损失函数在多重软标签的指导下不断迭代优化以下损失函数,直到网络收敛。
S304,基于第二损失函数对第二学生网络模型进行迭代训练获得胎儿超声标准切面图像识别网络模型。
具体的,第二学生网络模型迭代训练至第二损失函数收敛。
此外,将微调后的模型进行测试,评估效果,并且进一步用于预测新输入的胎儿超声标准切面图像的类别。
在一些实施例中,数据集为已标注的胎儿超声标准切面图像和其他类别的胎儿超声标准切面图像;已标注的胎儿超声标准切面图像其图像中包含胎儿部位;其他类别的胎儿超声标准切面图像其图像中不包含胎儿部位。
其中,胎儿部位包括胎儿腹部、胎儿头部、胎儿股骨、胎儿胸腔和母体宫颈。
具体的,数据集包括训练集、验证集和测试集;其中,在神经网络模型训练过程中,训练集作用是用来拟合模型,通过设置分类器的参数,训练分类模型。后续结合验证集作用时,会选出同一参数的不同取值,拟合出多个分类器;验证集的作用是当通过训练集训练出多个模型后,为了能找出效果最佳的模型,使用各个模型对验证集数据进行预测,并记录模型准确率。选出效果最佳的模型所对应的参数,即用来调整模型参数;测试集作用通过训练集和验证集得出最优模型后,使用测试集进行模型预测。用来衡量该最优模型的性能和分类能力。即可以把测试集当作从来不存在的数据集,当已经确定模型参数后,使用测试集进行模型性能评价。
参阅图4,优选的,已标注的胎儿超声标准切面图像和其他类别的胎儿超声标准切面图像的获取方法包括:
S401,录制并收集产前超声检查视频流;
S402,对超声检查视频流进行筛选并裁剪获取视频片段;
S403,从视频片段中抽取视频帧图像;
S404,对包含胎儿部位的视频帧图像进行标注获得已标注的胎儿超声标准切面图像;
其中,对视频帧图像的标注具体是指对视频帧图像的各个不同区域进行标注,并且对不同类别的胎儿部位的切面图像分别进行图像级别的标注。具体的,图像级别的标注是指基于像素点级别的图像信息标注。
S405,将不包含胎儿部位的视频帧图像作为其他类别的胎儿超声标准切面图像。
其中,数据集还包括其他类别的胎儿超声标准切面图像,其他类别的胎儿超声标准切面图像其图像中不包含胎儿部位。
在胎儿超声标准切面图像的采集过程中,还可以随机抽取不属于以上胎儿部位的视频帧作为其他类别的胎儿超声标准切面图像。其目的在于可以作为网络模型训练过程中的干扰项,以提升正常胎儿标准切面图像识别的鲁棒性。
此外,由采集已标注的胎儿超声标准切面图像可知,后续采集用于胎儿超声标准切面图像识别网络模型识别的临床胎儿超声标准切面图像的方法与其类似,具体而言,临床胎儿超声标准切面图像与数据集中图像的区别在于,临床超声标准切面图像未进行标注。
在一些实施例中,教师网络模型还包括:对数据集中已标注的胎儿超声标准切面图像进行预处理,预处理包括:构建图像尺寸搜索空间,图像尺寸搜索空间用于将输入教师网络模型的图像归一化处理;构建上采样操作搜索空间,上采样操作搜索空间包括反卷积操作和双线性插值操作。
其中,输入图像的分辨率对于神经网络模型的识别结果的准确性有较大影响。在神经网络的训练中,针对不同的神经网络模型,有不同的分辨率的固定输入,才能使其输入对应的神经网络。若不进行分辨率调整,会使神经网络的全连接层无法正常正向传播。因此,根据收集到的图像尺寸,构建输入图像尺寸搜索空间,将其归一化。
具体的,图像尺寸搜索空间将图像归一化到224*224的分辨率,以满足本申请中残差卷积神经网络模型架构的输入固定分辨率要求;
其中,由于使用长采样方法能针对输入数据进行更深层的特征提取,不同的长采样方法对胎儿超声标准切面识别结果有一定的影响。因此,构建的上采样操作搜索空间,包括反卷积和双线性插值两种操作,其目的是将图像的特征信息放大,便于后期特征提取和特征融合。其中,反卷积将上一层特征向量的feature map放大,双线性插值是线性插值的扩展,利用原图像中的四个点计算像素值进行插值。
具体的,上采样操作搜索空间反卷积的步长为2,双线性插值的倍数为2,此处采取的是默认参数。
在一些实施例中,本申请还公开了一种胎儿超声标准切面图像识别网络模型的训练装置,包括:
模型构建模块,模型构建模块用于构建已完成预训练的教师网络模型和未训练的第一学生网络模型,教师网络模型和第一学生网络模型均是残差连接的卷积神经网络;
第一训练模块,第一训练模块用于基于教师网络模型的隐藏层知识训练第一学生网络模型的中间层获得第二学生网络模型;
第二训练模块,第二训练模块用于基于第二学生网络模型的自蒸馏知识和教师网络模型与第二学生网络模型输出样本间的相似度矩阵预测信息训练第二学生网络模型得到胎儿超声标准切面图像识别网络模型。
在一些实施例中,本申请还公开了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述胎儿超声标准切面图像识别网络模型的训练方法的步骤。
其中,所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或D界面显示存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器可以是所述计算机设备的内部存储单元,例如该计算机设备的硬盘或内存。在另一些实施例中,所述存储器也可以是所述计算机设备的外部存储设备,例如该计算机设备上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,所述存储器还可以既包括所述计算机设备的内部存储单元也包括其外部存储设备。本实施例中,所述存储器常用于存储安装于所述计算机设备的操作***和各类应用软件,例如胎儿超声标准切面图像识别网络模型的训练方法的程序代码等。此外,所述存储器还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器通常用于控制所述计算机设备的总体操作。本实施例中,所述处理器用于运行所述存储器中存储的程序代码或者处理数据,例如运行所述胎儿超声标准切面图像识别网络模型的训练方法的程序代码。
在一些实施例中,本申请还公开了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述胎儿超声标准切面图像识别网络模型的训练方法的步骤。
其中,所述计算机可读存储介质存储有界面显示程序,所述界面显示程序可被至少一个处理器执行,以使所述至少一个处理器执行如上述的胎儿超声标准切面图像识别网络模型的训练方法的程序代码的步骤。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器或者网络设备等)执行本申请各个实施例所述的方法。
如上即为本发明的实施例。上述实施例以及实施例中的具体参数仅是为了清楚表述发明的验证过程,并非用以限制本发明的专利保护范围,本发明的专利保护范围仍然以其权利要求书为准,凡是运用本发明的说明书及附图内容所作的等同结构变化,同理均应包含在本发明的保护范围内。
Claims (10)
1.胎儿超声标准切面图像识别网络模型的训练方法,其特征在于,包括:
构建已完成预训练的教师网络模型和未训练的第一学生网络模型,所述教师网络模型和所述第一学生网络模型均是残差连接的卷积神经网络;
基于所述教师网络模型的隐藏层知识训练所述第一学生网络模型的中间层获得第二学生网络模型;
基于所述第二学生网络模型的自蒸馏知识和所述教师网络模型与所述第二学生网络模型输出样本间的相似度矩阵预测信息训练所述第二学生网络模型得到胎儿超声标准切面图像识别网络模型。
2.根据权利要求1所述的胎儿超声标准切面图像识别网络模型的训练方法,其特征在于,基于所述教师网络模型的隐藏层知识训练所述第一学生网络模型的中间层获得第二学生网络模型包括:
固定所述教师网络模型后,将数据集输入冻结了最后一层残差卷积神经网络层和全连接层的所述教师网络模型中获取所述教师网络模型隐藏层的输出结果;
将数据集输入冻结了最后一层残差连接层、池化层和全连接层的所述第一学生网络模型中获取所述第一学生网络模型中间层的输出结果;
基于所述教师网络模型隐藏层的输出结果和所述第一学生网络模型中间层的输出结果构建第一损失函数;
基于所述第一损失函数对所述第一学生网络模型进行迭代训练获得第二学生网络模型。
3.根据权利要求1所述的胎儿超声标准切面图像识别网络模型的训练方法,其特征在于,基于所述第二学生网络模型的自蒸馏知识和所述教师网络模型与所述第二学生网络模型输出样本间的相似度矩阵预测信息训练所述第二学生网络模型得到所述胎儿超声标准切面图像识别网络模型包括:
将数据集输入所述第二学生网络模型和所述教师网络模型中获得所述第二学生网络模型输出的第一输出样本数据和第一软标签数据、所述教师网络模型输出的第二输出样本数据和第二软标签数据;
基于所述第一输出样本数据和所述第二输出样本数据获得所述第二学生网络模型的自蒸馏监督信息;
基于所述第一软标签数据、所述第二软标签数据和所述自蒸馏监督信息构建所述第二损失函数;
基于所述第二损失函数对所述第二学生网络模型进行迭代训练获得所述胎儿超声标准切面图像识别网络模型。
4.根据权利要求2或3所述的胎儿超声标准切面图像识别网络模型的训练方法,其特征在于:
所述数据集包括已标注的胎儿超声标准切面图像和其他类别的胎儿超声标准切面图像;
所述已标注的胎儿超声标准切面图像其图像中包含胎儿部位;
所述其他类别的胎儿超声标准切面图像其图像中不包含胎儿部位。
5.根据权利要求4所述的胎儿超声标准切面图像识别网络模型的训练方法,其特征在于,已标注的胎儿超声标准切面图像和其他类别的胎儿超声标准切面图像的获取方法包括:
录制并收集产前超声检查视频流;
对所述超声检查视频流进行筛选并裁剪获取视频片段;
从所述视频片段中抽取视频帧图像;
对包含胎儿部位的所述视频帧图像进行标注获得已标注的胎儿超声标准切面图像;
将不包含胎儿部位的所述视频帧图像作为其他类别的胎儿超声标准切面图像。
6.根据权利要求4所述的胎儿超声标准切面图像识别网络模型的训练方法,其特征在于:
所述胎儿部位包括胎儿腹部、胎儿头部、胎儿股骨、胎儿胸腔和母体宫颈。
7.根据权利要求1所述的胎儿超声标准切面图像识别网络模型的训练方法,其特征在于,所述教师网络模型还包括:
对所述数据集中已标注的胎儿超声标准切面图像进行预处理,所述预处理包括:
构建图像尺寸搜索空间,所述图像尺寸搜索空间用于将输入所述教师网络模型的图像归一化处理;
构建上采样操作搜索空间,所述上采样操作搜索空间包括反卷积操作和双线性插值操作。
8.一种胎儿超声标准切面图像识别网络模型的训练装置,其特征在于,包括:
模型构建模块,所述模型构建模块用于构建已完成预训练的教师网络模型和未训练的第一学生网络模型,所述教师网络模型和所述第一学生网络模型均是残差连接的卷积神经网络;
第一训练模块,所述第一训练模块用于基于所述教师网络模型的隐藏层知识训练所述第一学生网络模型的中间层获得第二学生网络模型;
第二训练模块,所述第二训练模块用于基于所述第二学生网络模型的自蒸馏知识和所述教师网络模型与所述第二学生网络模型输出样本间的相似度矩阵预测信息训练所述第二学生网络模型得到胎儿超声标准切面图像识别网络模型。
9.一种计算机设备,其特征在于:包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至3中任一项所述的胎儿超声标准切面图像识别网络模型的训练方法的步骤。
10.一种计算机可读存储介质,其特征在于:存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1至3中任一项所述的胎儿超声标准切面图像识别网络模型的训练方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111047127.5A CN113487614B (zh) | 2021-09-08 | 2021-09-08 | 胎儿超声标准切面图像识别网络模型的训练方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111047127.5A CN113487614B (zh) | 2021-09-08 | 2021-09-08 | 胎儿超声标准切面图像识别网络模型的训练方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113487614A true CN113487614A (zh) | 2021-10-08 |
CN113487614B CN113487614B (zh) | 2021-11-30 |
Family
ID=77947387
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111047127.5A Active CN113487614B (zh) | 2021-09-08 | 2021-09-08 | 胎儿超声标准切面图像识别网络模型的训练方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113487614B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114528937A (zh) * | 2022-02-18 | 2022-05-24 | 支付宝(杭州)信息技术有限公司 | 模型训练方法、装置、设备及*** |
CN114782407A (zh) * | 2022-05-23 | 2022-07-22 | 中山大学附属第一医院 | 基于卷积神经网络的胎儿超声关键切面识别方法及装置 |
CN115984640A (zh) * | 2022-11-28 | 2023-04-18 | 北京数美时代科技有限公司 | 一种基于组合蒸馏技术的目标检测方法、***和存储介质 |
EP4227856A1 (en) * | 2022-02-14 | 2023-08-16 | Samsung Display Co., Ltd. | System and method for defect detection |
CN117253611A (zh) * | 2023-09-25 | 2023-12-19 | 四川大学 | 基于多模态知识蒸馏的癌症智能早期筛查方法及*** |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109800821A (zh) * | 2019-01-31 | 2019-05-24 | 北京市商汤科技开发有限公司 | 训练神经网络的方法、图像处理方法、装置、设备和介质 |
CN110163344A (zh) * | 2019-04-26 | 2019-08-23 | 北京迈格威科技有限公司 | 神经网络训练方法、装置、设备和存储介质 |
CN110555836A (zh) * | 2019-09-05 | 2019-12-10 | 李肯立 | 一种超声图像中胎儿标准切面的自动识别方法和*** |
CN110674880A (zh) * | 2019-09-27 | 2020-01-10 | 北京迈格威科技有限公司 | 用于知识蒸馏的网络训练方法、装置、介质与电子设备 |
US20200302295A1 (en) * | 2019-03-22 | 2020-09-24 | Royal Bank Of Canada | System and method for knowledge distillation between neural networks |
CN112115783A (zh) * | 2020-08-12 | 2020-12-22 | 中国科学院大学 | 基于深度知识迁移的人脸特征点检测方法、装置及设备 |
CN112200722A (zh) * | 2020-10-16 | 2021-01-08 | 鹏城实验室 | 图像超分辨重构模型的生成方法、重构方法及电子设备 |
CN112365886A (zh) * | 2021-01-18 | 2021-02-12 | 深圳市友杰智新科技有限公司 | 语音识别模型的压缩方法、装置和计算机设备 |
CN112418343A (zh) * | 2020-12-08 | 2021-02-26 | 中山大学 | 多教师自适应联合知识蒸馏 |
CN112560631A (zh) * | 2020-12-09 | 2021-03-26 | 昆明理工大学 | 一种基于知识蒸馏的行人重识别方法 |
CN112633406A (zh) * | 2020-12-31 | 2021-04-09 | 天津大学 | 一种基于知识蒸馏的少样本目标检测方法 |
CN113222139A (zh) * | 2021-04-27 | 2021-08-06 | 商汤集团有限公司 | 神经网络训练方法和装置、设备,及计算机存储介质 |
CN113255763A (zh) * | 2021-05-21 | 2021-08-13 | 平安科技(深圳)有限公司 | 基于知识蒸馏的模型训练方法、装置、终端及存储介质 |
CN113313238A (zh) * | 2021-06-16 | 2021-08-27 | 中国科学技术大学 | 一种基于深度学习的视觉slam方法 |
CN113326941A (zh) * | 2021-06-25 | 2021-08-31 | 江苏大学 | 基于多层多注意力迁移的知识蒸馏方法、装置及设备 |
CN113361710A (zh) * | 2021-06-29 | 2021-09-07 | 北京百度网讯科技有限公司 | 学生模型训练方法、图片处理方法、装置及电子设备 |
CN113360701A (zh) * | 2021-08-09 | 2021-09-07 | 成都考拉悠然科技有限公司 | 一种基于知识蒸馏的素描图处理方法及其*** |
-
2021
- 2021-09-08 CN CN202111047127.5A patent/CN113487614B/zh active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109800821A (zh) * | 2019-01-31 | 2019-05-24 | 北京市商汤科技开发有限公司 | 训练神经网络的方法、图像处理方法、装置、设备和介质 |
US20200302295A1 (en) * | 2019-03-22 | 2020-09-24 | Royal Bank Of Canada | System and method for knowledge distillation between neural networks |
CN110163344A (zh) * | 2019-04-26 | 2019-08-23 | 北京迈格威科技有限公司 | 神经网络训练方法、装置、设备和存储介质 |
CN110555836A (zh) * | 2019-09-05 | 2019-12-10 | 李肯立 | 一种超声图像中胎儿标准切面的自动识别方法和*** |
CN110674880A (zh) * | 2019-09-27 | 2020-01-10 | 北京迈格威科技有限公司 | 用于知识蒸馏的网络训练方法、装置、介质与电子设备 |
CN112115783A (zh) * | 2020-08-12 | 2020-12-22 | 中国科学院大学 | 基于深度知识迁移的人脸特征点检测方法、装置及设备 |
CN112200722A (zh) * | 2020-10-16 | 2021-01-08 | 鹏城实验室 | 图像超分辨重构模型的生成方法、重构方法及电子设备 |
CN112418343A (zh) * | 2020-12-08 | 2021-02-26 | 中山大学 | 多教师自适应联合知识蒸馏 |
CN112560631A (zh) * | 2020-12-09 | 2021-03-26 | 昆明理工大学 | 一种基于知识蒸馏的行人重识别方法 |
CN112633406A (zh) * | 2020-12-31 | 2021-04-09 | 天津大学 | 一种基于知识蒸馏的少样本目标检测方法 |
CN112365886A (zh) * | 2021-01-18 | 2021-02-12 | 深圳市友杰智新科技有限公司 | 语音识别模型的压缩方法、装置和计算机设备 |
CN113222139A (zh) * | 2021-04-27 | 2021-08-06 | 商汤集团有限公司 | 神经网络训练方法和装置、设备,及计算机存储介质 |
CN113255763A (zh) * | 2021-05-21 | 2021-08-13 | 平安科技(深圳)有限公司 | 基于知识蒸馏的模型训练方法、装置、终端及存储介质 |
CN113313238A (zh) * | 2021-06-16 | 2021-08-27 | 中国科学技术大学 | 一种基于深度学习的视觉slam方法 |
CN113326941A (zh) * | 2021-06-25 | 2021-08-31 | 江苏大学 | 基于多层多注意力迁移的知识蒸馏方法、装置及设备 |
CN113361710A (zh) * | 2021-06-29 | 2021-09-07 | 北京百度网讯科技有限公司 | 学生模型训练方法、图片处理方法、装置及电子设备 |
CN113360701A (zh) * | 2021-08-09 | 2021-09-07 | 成都考拉悠然科技有限公司 | 一种基于知识蒸馏的素描图处理方法及其*** |
Non-Patent Citations (8)
Title |
---|
DUC-QUANG VU等: ""Teaching Yourself:A Self-Knowledge Distillation Approach to Action Recognition"", 《IEEE ACCESS》 * |
GREG MORI等: ""Similarity-Preserving Knowledge Distillation"", 《INTERNATIONAL CONFERENCE ON COMPUTER VISION》 * |
WEIJIE LIU等: ""FastBERT:a self-distilling BERT with Adaptive Inference Time"", 《ARXIV》 * |
YUHU SHAN: ""Distilling Pixel-Wise Feature Similarities for Semantic Segmentation"", 《ARXIV》 * |
ZHILU ZHANG等: ""Self-Distillation as Instance-Specific Label Smoothing"", 《ARXIV》 * |
刘瑄等: ""基于多粒度特征蒸馏的遥感图像场景分类研究"", 《计算机工程》 * |
张彤彤等: ""基于知识蒸馏的轻量型浮游植物检测网络"", 《应用科学学报》 * |
黄继爽等: ""基于动态特征蒸馏的水工隧洞缺陷识别方法"", 《计算机应用》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4227856A1 (en) * | 2022-02-14 | 2023-08-16 | Samsung Display Co., Ltd. | System and method for defect detection |
CN114528937A (zh) * | 2022-02-18 | 2022-05-24 | 支付宝(杭州)信息技术有限公司 | 模型训练方法、装置、设备及*** |
CN114782407A (zh) * | 2022-05-23 | 2022-07-22 | 中山大学附属第一医院 | 基于卷积神经网络的胎儿超声关键切面识别方法及装置 |
CN115984640A (zh) * | 2022-11-28 | 2023-04-18 | 北京数美时代科技有限公司 | 一种基于组合蒸馏技术的目标检测方法、***和存储介质 |
CN117253611A (zh) * | 2023-09-25 | 2023-12-19 | 四川大学 | 基于多模态知识蒸馏的癌症智能早期筛查方法及*** |
CN117253611B (zh) * | 2023-09-25 | 2024-04-30 | 四川大学 | 基于多模态知识蒸馏的癌症智能早期筛查方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN113487614B (zh) | 2021-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113487614B (zh) | 胎儿超声标准切面图像识别网络模型的训练方法和装置 | |
CN108831559B (zh) | 一种中文电子病历文本分析方法与*** | |
US10646156B1 (en) | Adaptive image processing in assisted reproductive imaging modalities | |
US20200395117A1 (en) | Adaptive image processing method and system in assisted reproductive technologies | |
US10426442B1 (en) | Adaptive image processing in assisted reproductive imaging modalities | |
CN109409416B (zh) | 特征向量降维方法和医学图像识别方法、装置及存储介质 | |
US20200311916A1 (en) | Systems and methods for estimating embryo viability | |
CN111882560B (zh) | 一种基于加权全卷积神经网络的肺实质ct图像分割方法 | |
CN110660484B (zh) | 骨龄预测方法、装置、介质及电子设备 | |
EP3751513A1 (en) | Adaptive image processing in assisted reproductive imaging modalities | |
CN114846507A (zh) | 用于使用人工智能(ai)模型进行非侵入性基因检测的方法和*** | |
CN110929802A (zh) | 基于信息熵的细分类识别模型训练、图像识别方法及装置 | |
US20220383497A1 (en) | Automated analysis and selection of human embryos | |
Shankar et al. | A novel discriminant feature selection–based mutual information extraction from MR brain images for Alzheimer's stages detection and prediction | |
CN115238888A (zh) | 图像分类模型的训练方法、使用方法、装置、设备及介质 | |
CN116309459A (zh) | 基于改进网络的肺结节检测方法、装置、设备和存储介质 | |
CN111047590A (zh) | 基于眼底图像的高血压分类方法及设备 | |
CN110827963A (zh) | 针对病理图像的语义分割方法和电子设备 | |
CN116682109B (zh) | 一种病理显微图像的分析方法、装置、设备及存储介质 | |
CN115641317B (zh) | 面向病理图像的动态知识回溯多示例学习及图像分类方法 | |
CN109543716B (zh) | 一种基于深度学习的k线形态图像识别方法 | |
CN111209946A (zh) | 三维图像处理方法、图像处理模型训练方法及介质 | |
CN115762721A (zh) | 一种基于计算机视觉技术的医疗影像质控方法和*** | |
CN114565617A (zh) | 基于剪枝U-Net++的乳腺肿块图像分割方法及*** | |
CN114664410A (zh) | 一种基于视频的病灶分类方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |