CN115271033B - 基于联邦知识蒸馏医学图像处理模型构建及其处理方法 - Google Patents
基于联邦知识蒸馏医学图像处理模型构建及其处理方法 Download PDFInfo
- Publication number
- CN115271033B CN115271033B CN202210783921.4A CN202210783921A CN115271033B CN 115271033 B CN115271033 B CN 115271033B CN 202210783921 A CN202210783921 A CN 202210783921A CN 115271033 B CN115271033 B CN 115271033B
- Authority
- CN
- China
- Prior art keywords
- pulse
- tensor
- training
- distillation
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims abstract description 30
- 238000010276 construction Methods 0.000 title claims abstract description 12
- 238000003672 processing method Methods 0.000 title claims abstract description 8
- 238000013140 knowledge distillation Methods 0.000 title claims description 29
- 238000012549 training Methods 0.000 claims abstract description 98
- 238000004821 distillation Methods 0.000 claims abstract description 54
- 238000013528 artificial neural network Methods 0.000 claims description 81
- 230000002776 aggregation Effects 0.000 claims description 30
- 238000004220 aggregation Methods 0.000 claims description 30
- 238000000034 method Methods 0.000 claims description 24
- 230000006835 compression Effects 0.000 claims description 20
- 238000007906 compression Methods 0.000 claims description 20
- 238000012360 testing method Methods 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 19
- 230000006837 decompression Effects 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 7
- 238000001208 nuclear magnetic resonance pulse sequence Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 4
- 230000009467 reduction Effects 0.000 claims description 4
- 125000004122 cyclic group Chemical group 0.000 claims description 3
- 230000014759 maintenance of location Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 33
- 238000004891 communication Methods 0.000 description 7
- 238000003062 neural network model Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000002591 computed tomography Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 238000012421 spiking Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000003759 clinical diagnosis Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000001351 cycling effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000006116 polymerization reaction Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
Abstract
本发明涉及属于医学图像处理领域,提供了基于联邦知识蒸馏医学图像处理模型构建方法,利用私有数据集对子节点网络进行训练,利用训练好的子节点网络在公共数据集上前向传播得到第一脉冲张量,并上传至中心节点;中心节点接收后,基于公共数据集进行蒸馏训练,得到蒸馏产物;聚合各子节点蒸馏产物得到全局参数,利用其对中心节点网络进行更新后,在公共数据集上前向传播,得到的第二脉冲张量并将其分发至所有子节点;子节点接收第二脉冲张量用以在公共数据集上进行蒸馏训练,同步更新子节点网络参数,并进入循环训练;直至达到预设轮数后或预设值后停止训练。本发明同时提供了利用构建完成的模型对待处理的医学图像进行图像处理的处理方法。
Description
技术领域
本发明属于医学图像处理领域,具体涉及基于联邦知识蒸馏的医学图像处理模型构建及其处理方法。
背景技术
随着医学成像技术及深度学习技术的逐渐发展和完善,基于深度神经网络的医学图像处理已经成为医学研究和临床诊断中一个重要的技术。近几年来,联邦学习(Federated Learning,FL)的提出被医学图像处理领域的研究者们所关注,它能在隐私安全的前提下实现对分散的医学图像数据的聚合学习,充分参考各类病患数据。在医学研究中,研究者在对某类内部组织器官进行定量分析、实时监控或治疗规划时,为了给出尽可能正确的治疗方案的决策,通常需要根据医学技术的成像了解这类组织器官的具体信息。因此,生物医学影像在治疗中充当着极其重要的角色,各类不同病患所生成的医学影像也在逐渐累积。然而,由于医院等机构的分散特性以及医学图像的特殊性,这些医学图像数据的分布极为分散,且有严格的隐私规定,将它们直接集中用于神经网络的训练是极为困难的。若分散训练,则又会面临数据量及标签不足等问题。所以,研究如何在隐私安全的保证下利用分散的数据对用于医学图像处理的神经网络进行训练,具有极高的价值和重要的意义。
联邦学习(Federated Learning,FL)是一种分布式训练模式,它允许设备在不与其它设备或中心节点交换本地隐私数据的前提下参与深度神经网络模型的共同训练。在传统分布式学习中,用于网络训练的数据通常需要参与传输,送至中心节点或云数据节点。但是,这样的流程将导致数据泄露,在如医学图像处理这类高隐私要求的领域中难以应用。联邦学习则基于无数据参与的通信以及加密传输,为此提供了一种隐私泄露问题的解决方案。
脉冲神经网络(Spiking Neural Network,SNN)是区别于传统人工神经网络的新一代神经网络模型。它通过模拟生物神经元的电位变化和神经脉冲,用离散的二进制序列取代传统人工神经网络中的实数输出,达到降低训练功耗的目的。泄露-放电模型(Leaky-Integrate-and-Fire,LIF)是一种经典的脉冲神经元模型,被广泛的引用于SNN的研究中。研究人员提出了LIF模型的一个在计算设备上可实现的显式、离散的数学公式,即:
近似梯度函数。在脉冲神经网络中,由于描述脉冲发生的单位阶跃函数在零点的导数趋于无穷大,决定了它无法如传统神经网络一样直接进行梯度下降,这就需要寻找一个近似函数以取代之。一些脉冲神经网络的训练方案中采用矩形函数(rectangularfunction)充当这一角色。矩形函数数学定义为:
其中a为矩形形状参数,sign为真值函数,Vth为放电阈值。
基于脉冲神经网络的联邦学习框架(Federated Learning on Spiking NeuralNetwork,FLSNN)是一种应用于脉冲神经网络的分布式训练模式,它允许设备在不与其它设备或中心节点交换本地隐私数据的前提下参与SNN模型的共同训练。如何利用分散的隐私数据对深度神经网络进行低功耗训练,是脉冲神经网络联邦学习所要解决的问题。
知识蒸馏(Knowledge Distillation,KD)是一种网络知识提取的方案,它能将一个训练完成的规模较大的神经网络的知识转移到规模较小的网络,使得小网络表现出与大网络十分接近的效果。在知识蒸馏中,获得知识的网络称为学生网络(student network),转移知识的网络称为教师网络(teacher network)。知识蒸馏反映了网络的知识不仅存在于参数中,也可以经由输出所体现。根据用于蒸馏的知识来源,知识蒸馏可以分为三类:
基于响应的蒸馏
基于特征的蒸馏
基于关系的蒸馏
传统人工神经网络的研究者提出了基于输出通信的联邦蒸馏(FederatedDistillation,FD)框架,对联邦学习的通信消耗进行了优化。
蒸馏损失函数。在知识蒸馏中,教师网络与学生网络通过特定形式的知识传递信息,协助训练。在训练过程中,知识的匹配由损失函数所体现,因此,选择和定义适当的损失函数对蒸馏的效果起着决定性作用。一般地,蒸馏损失函数被定义为以下形式:
L=Lhard+λLsoft
其中,L表示网络的最终损失,Lhard为硬标签损失,由学生网络输出值与训练数据集的原始标签所决定;Lsoft表示软标签损失,由学生网络的知识形式与教师网络的知识所决定,通常使用交叉熵(Cross-Entropy)损失函数。λ是权重参数,协调教师网络参与训练的比重。在知识蒸馏的方案设计中,定义软标签损失函数通常是一个核心问题。
电子计算机断层扫描(Computed Tomography,CT)是利用精确准直的X线束、γ射线、超声波等,与灵敏度极高的探测器一同围绕人体的某一部位作一个接一个的断面扫描技术,具有扫描时间快,图像清晰等特点,可用于多种疾病的检查。CT用X射线束等对人体某部一定厚度的层面进行扫描,由探测器接收透过该层面的X射线,转变为可见光后,由光电转换变为电信号,再经模拟/数字转换器转为数字,输入计算机处理。
发明内容
为解决现有中电子计算机断层扫描图像数据分散且高隐私要求的难题以及联邦蒸馏中因蒸馏的损耗导致模型可信度降低的问题,本发明提供一种基于联邦知识蒸馏的医学图像处理模型构建方法及其图像处理方法,旨在解决电子计算机断层扫描医学图像识别技术中成本及效果的匹配问题。
本发明解决上述技术问题,采用的技术方案是:基于联邦知识蒸馏的医学图像处理模型构建方法,包括以下步骤:
步骤1、采集训练数据,构建训练集,包括:基于对开放的医学影像数据进行预处理及整理,所得到的蒸馏所需的公共数据集;以及,基于对每一个参与训练医疗机构的隐私CT图像数据,根据公共数据集进行协调预处理,所得到该医疗机构的私有数据集;所述私有数据集与参与训练医疗机构一一对应,且私有数据集间相互独立;
步骤2、分别构建子节点及中心节点的脉冲神经网络,其中,所述子节点与私有数据集一一对应;
步骤3、利用各私有数据集对与其对应的子节点脉冲神经网络进行训练,利用训练后获得的各子节点脉冲神经网络,基于公共数据集的前向传播,得到与该子节点对应的第一脉冲张量,并上传至中心节点;
步骤4、中心节点根据接收到的各子节点的第一脉冲张量,基于公共数据集进行蒸馏训练,得到各子节点对应的蒸馏产物;
步骤5、对所有蒸馏产物进行聚合得到全局参数,利用全局参数对中心节点脉冲神经网络进行更新,并利用更新后的中心节点脉冲神经网络,基于公共数据集的前向传播,得到第二脉冲张量,并将其分发至所有子节点;
步骤6、各子节点接收第二脉冲张量,并基于公共数据集进行蒸馏训练,更新其脉冲神经网络参数;
步骤7、判定是否达到循环训练预设轮数或模型达到预设值,若是,则停止训练,此时训练好的中心节点的脉冲神经网络即为基于联邦知识蒸馏的医学图像处理模型;否则,返回步骤3。
进一步的,所述步骤3中,利用各私有数据集对与其对应的子节点脉冲神经网络进行训练,包括以下步骤:子节点脉冲神经网络,基于其对应私有数据集,前向计算硬标签损失函数Lhard以及梯度,并利用反向传播算法对脉冲神经网络训练预设轮数,更新参数;
其中,硬标签损失函数如下:
其中,Lhard为硬标签损失函数,v表示基于输出脉冲计算的频率向量,表示真实标签向量,其计算方式为:
其中,tar表示真实标签的类别,onehot表示独热编码,其编码方式为:
其中,i表示标签向量的元素下标。
进一步的,所述步骤3中,将第一脉冲张量经二进制压缩后上传至中心节点;所述步骤4中,中心节点接收子节点压缩张量后,经解压后获得第一脉冲张量。
具体的,所述将第一脉冲张量进行二进制压缩,包括以下步骤:
步骤31:将存储压缩结果的张量sc进行归零初始化;
步骤32:依照时间窗口顺序,对sc的每个元素值sc执行如下计算:
其中,st为待压缩脉冲张量中对应位置元素的t时间窗口脉冲值;sc为sc中的元素值,该变量以t迭代计算;为计算后的sc的元素值;
步骤33:所有计算执行完毕后,二进制压缩完成;
所述步骤4中,将压缩张量经解压后获得第一脉冲张量,包括以下步骤:
步骤41:将存储解压缩结果的解压缩张量归零初始化;
步骤42:对压缩张量中每个元素值执行还原操作,得到一个有序脉冲序列,所得结果倒序存储于解压缩张量对应位置中;
步骤43:所有计算执行完毕后,解压缩张量即为第一脉冲张量。
进一步的,所述步骤4中,中心节点根据接收到的各子节点的第一脉冲张量,基于公共数据集进行蒸馏训练,得到各子节点对应的蒸馏产物,包括以下步骤:
定义蒸馏损失函数,并利用反向传播算法对脉冲神经网络训练预设轮数时,停止训练;其中,蒸馏损失函数为:
Lsoft=LT+λLF
其中,Lsoft为蒸馏损失函数,LT为对脉冲的类均方差损失,LF为用于松弛的类交叉熵损失,λ表示松弛变量,为预设参数;
其中,对脉冲的类均方差损失:
用于松弛的类交叉熵损失:
其中,|C|是训练数据的类别数,T是脉冲神经网络时间窗口的大小;sct和分别是一批次预测脉冲矩阵和目标脉冲矩阵中元素的值;pc和/>分别表示预测频率向量和目标频率向量,并通过脉冲矩阵计算,计算方式为:
进一步的,所述步骤5中,对所有蒸馏产物进行聚合得到全局参数,包括:
所述中心节点预留聚合网络缓冲区,并按如下步骤进行聚合:
步骤51、将当前中心节点脉冲神经网络生成副本,并置于中心节点的聚合缓冲区中;选择任一待聚合的第一脉冲张量,基于公共数据集对副本进行蒸馏训练并更新,获得第一网络参数;
步骤52、判定所有子节点是否已经聚合完成,若是,则将第一网络参数作为全局参数;否则,进入步骤53;
步骤53、基于第一网络参数更新中心节点脉冲神经网络副本,并作为第一副本,在聚合缓冲区中复制第一副本生成其拷贝副本;
步骤54、选择任一待聚合的第一脉冲张量,基于公共数据集对拷贝副本进行蒸馏训练并更新,获得第二副本及第二网络参数;
步骤55、随机选择公共数据集中的一部分有标签数据,生成临时测试数据集;
步骤56、基于临时测试数据集,分别对第一副本与第二副本进行测试,得到二者的测试准确率,并基于二者的测试准确率生成聚合权值,然后利用聚合权值计算更新第一网络参数;
步骤57、返回步骤52。
进一步的,所述步骤56中,基于二者的测试准确率生成聚合权值,然后利用聚合权值计算更新第一网络参数,包括:
步骤561、基于测试准确率a和a′生成聚合权值:
其中,(α,α′)为聚合权值,δ为预设的保持因子,τ为预设的差异因子,softmax表示归一化指数函数;
步骤562、利用聚合权值计算更新第一网络参数:
其中,为新的第一网络参数;W为与第一副本对应的第一网络参数;
W′为与第二副本对应的第二网络参数。
本发明还提供一种基于联邦知识蒸馏的医学图像处理方法,依据上述任意一项所述的基于联邦知识蒸馏的医学图像处理模型构建方法构建基于联邦知识蒸馏的医学图像处理模型,利用上述模型对待处理的医学图像进行图像处理。
本发明的有益效果在于,本发明设计了新的联邦聚合方案,其中脉冲神经网络联邦蒸馏中的中心节点需要对子节点上传的信息加以整合,以对特征和输出进行恰当聚合,解决了因蒸馏的损耗导致模型可信度降低的问题。设立了蒸馏损失函数,中心节点及子节点均可利用对方的脉冲神经网络的输出对自身进行模型训练,这样可以针对性的提取输出中包含的信息。本发明在对脉冲神经网络进行训练时利用反向传播算法,能够在训练中更新神经网络参数,提升脉冲神经网络网络模型的分类准确率和训练速度。同时,在对双方输出进行利用时,本发明对脉冲神经网络脉冲输出张量进行无损压缩,降低联邦通信开销,调整了模型准确率及通信成本之间的需求比重。
附图说明
图1为本发明实施例1中的模型构建流程图。
图2为本发明实施例1中使用反向传播算法训练脉冲神经网络的流程图。
具体实施方式
本说明书中公开的所有特征,或公开的所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以以任何方式组合。为了本技术领域的人员更好的理解本发明,下面结合附图和以下实施例对本发明作进一步详细描述。
实施例1
本例提供一种基于联邦知识蒸馏的医学图像处理模型构建方法,如图1所示,包括以下步骤:
S101采集训练数据,构建训练集。
本例中,训练数据包括两种训练集。第一种是基于对开放的医学影像数据进行预处理及整理,包括对图像进行翻转、裁剪、平移、归一化等,并确定图像的规格,最终得到蒸馏所需的公共数据集。另外一种则是,对每一个参与训练医疗机构的隐私CT图像数据,根据公共数据集做协调预处理,得到该医疗机构的私有数据集。所述协调预处理,也即根据公共数据集的规格、通道数等格式,将医疗机构的图像数据进行相应调整。
针对每一个参与训练的医疗机构设置其对应的私有数据集,私有数据集间相互独立,私有数据集之间不进行相互传播,保证了隐私需要。
S102分别构建子节点及中心节点的脉冲神经网络,可以使用经典深度神经网络模型VGGNet;所述中心节点预留聚合网络缓冲区;每一个参与训练的医疗机构对应一个子节点并与私有数据集一一对应。
本例设计的联邦聚合方案,针对每一个参与训练的医疗机构设置子节点,让每一个医疗机构拥有独立的脉冲神经网络进行独立训练,其中脉冲神经网络联邦蒸馏中的中心节点只需要对子节点上传的信息加以整合,无需参与子节点持有的私有数据集的训练,均保证了高隐私的需求。
构建子节点及中心节点的脉冲神经网络包括对网络各层的参数进行初始化,并设置训练超参数,具体如下:
定义脉冲神经网络结构:包括总层数、卷积层以及全连接层;定义卷积层每一层的参数,使用的激活函数以及是否有池化层等;定义全连接层的参数,以及是否使用Dropout层等;
定义脉冲神经网络超参数:包括网络放电阈值Vth以及时间窗口长度T等;
定义联邦学习超参数,包括全局总轮数epochg以及局部训练轮数epochl;
定义训练超参数,包括学习率、batch size以及优化器等。
本发明的方案不依赖于具体的脉冲神经网络模型,此处网络结构可以嵌入常见的脉冲神经网络模型,例如:网络结构可以采用传统人工神经网络中的VGG网络设置,并加入LIF节点构成脉冲神经网络;放电阈值取Vth=0.1,窗口取T=8;全局总轮数及局部轮数分别设置为epochg=50以及epochl=8;选择交叉熵为训练损失函数,Adam为优化算法,并设置超参数:学习率为0.001,batch size为64。
S103利用各私有数据集对与其对应的子节点脉冲神经网络进行训练,利用训练后获得的各子节点脉冲神经网络,基于公共数据集的前向传播,得到与该子节点对应的第一脉冲张量,对第一脉冲张量进行二进制压缩上传至中心节点。所述第一脉冲张量,也即利用训练后获得的子节点脉冲神经网络,基于公共数据集的前向传播,得到的输出。
其中,利用各私有数据集对与其对应的子节点脉冲神经网络进行训练,包括以下步骤:子节点脉冲神经网络,基于其对应私有数据集,前向计算硬标签损失函数Lhard以及梯度,并利用反向传播算法对脉冲神经网络训练预设轮数epochl,更新参数。
其中,硬标签损失函数如下:
其中,Lhard为硬标签损失函数,v表示基于输出脉冲计算的频率向量,表示真实标签向量,其计算方式为:
其中,tar为真实标签的类别,onehot表示独热编码,也即:
其中,i为标签向量的元素下标。
对第一脉冲张量进行二进制压缩,其方法包括以下步骤:
步骤1:将存储压缩结果的张量sc归零初始化;
步骤2:依照时间窗口顺序,对sc执行操作:其中st为待压缩脉冲张量中对应位置元素的t时间窗口脉冲值,sc为sc中的元素变量,该变量以t迭代计算的每个元素值;/>为计算后的sc中的元素变量;
步骤3:所有计算执行完毕后,sc即为所需的二进制压缩张量。
本例对脉冲神经网络脉冲输出张量的无损压缩算法。该算法对脉冲无损的压缩,降低联邦通信开销。
而针对上述压缩算法的解压缩方法如下:
步骤1:将存储解压缩结果的解压缩张量归零初始化;
步骤2:对压缩张量中每个元素值执行还原操作,得到一个有序脉冲序列,所得结果倒序存储于解压缩张量对应位置中;
步骤3:所有计算执行完毕后,解压缩张量即为第一脉冲张量。
其中,元素还原操作,具体方法如下:
将元素值复制至缓冲变量sr中,并初始化脉冲序列数组[si],i=1,2,…,T;
初始化i=1,循环计算:si=sr mod 2,sr=sr div 2,i=i+1,其中mod表示取余运算,div表示整除运算;循环直至i=T+1;
计算完毕后,序列数组[si]即为所需的脉冲序列。
S104中心节点根据接收到的压缩张量,解压后获得各子节点的第一脉冲张量,根据第一脉冲张量并基于公共数据集进行蒸馏训练,得到各子节点对应的蒸馏产物。
也即,中心节点接收所有子节点输出的第一脉冲张量,在公共数据集上有序前向计算软标签损失函数Lsoft以及梯度,并利用反向传播算法对中心节点脉冲神经网络训练预设的训练轮数epochl,得到每个子节点对应的蒸馏产物。
具体的,包括以下步骤:
首先,定义蒸馏损失函数,也即软标签损失函数Lsoft为:
Lsoft=LT+λLF
其中,Lsoft为蒸馏损失函数,LT为对脉冲的类均方差损失,LF为用于松弛的类交叉熵损失;λ表示松弛变量,为预设参数,通常可取0.1~10,取值越低则输出脉冲张量与目标脉冲张量贴合的严格程度越高,但可能产生过拟合问题。
其中,对脉冲的类均方差损失:
用于松弛的类交叉熵损失:
其中,|C|是训练数据的类别数,T是脉冲神经网络时间窗口的大小;sct和分别是一批次预测脉冲矩阵和目标脉冲矩阵中元素的值。pc和/>分别是预测频率向量及目标频率向量,并通过脉冲矩阵计算,计算方式为:
基于上述定义的损失函数,利用反向传播算法对中心节点脉冲神经网络进行迭代训练,达到超参数中局部训练轮数epochl时,停止训练。
在上述步骤S103和S104中,针对子节点和中心节点脉冲神经网络的反向传播算法训练神经网络的方法流程,参考图2所示,其方法流程包含以下步骤:
S201将当前训练轮数变量置为0;
S202在数据集中选取一部分(Batch)训练数据作为本轮训练数据;
S203通过前向传播获取输出的预测值;
S204计算损失函数值;
S205通过反向传播算法执行优化,更新神经网络的各项参数;
S206训练轮数变量加1;
S207判断是否达到预设的局部训练轮次,若达到则跳转至S208,未达到则跳转至S202;
S208结束训练。
基于上述BP反向传播算法,能够在训练中更新神经网络参数,提升脉冲神经网络网络模型的分类准确率和训练速度。
然后,对所有子节点的蒸馏产物进行聚合得到全局参数,具体如下:
S301将中心节点预留的聚合网络缓冲区,分为第一聚合缓冲区以及第二聚合缓冲区;
S302将当前中心节点脉冲神经网络生成副本,置于第一聚合缓冲区中;
S303选择任一待聚合的第一脉冲张量,利用其代入Lsoft在公共数据集上对该副本进行蒸馏训练,更新该副本的网络参数,作为第一网络参数;
S303判定所有子节点是否已经聚合完成,若是,则将第一网络参数作为全局参数;否则,进入步骤S304;
S304基于第一网络参数更新置于第一聚合缓冲区中的中心节点脉冲神经网络副本,并作为第一副本;复制第一副本生成其拷贝副本,置于第二聚合缓冲区中;
S305选择任一待聚合的第一脉冲张量,基于公共数据集对拷贝副本进行蒸馏训练并更新,获得第二副本及第二网络参数;
S306随机选择公共数据集中的一部分有标签数据,生成临时测试数据集;
S307基于临时测试数据集,分别对第一副本与第二副本进行测试,得到二者的测试准确率a和a′,并基于二者的测试准确率生成聚合权值,然后利用聚合权值计算更新第一网络参数;
S308返回步骤S303。
基于测试准确率a和a′生成聚合权值的方法如下:
其中,(α,α′)为聚合权值,δ为预设的保持因子,通常取δ>0.5;τ为预设差异因子;softmax表示softmax函数,用于权值的归一化;
利用聚合权值计算新的网络参数,计算如下:
其中,为新的网络参数;W为与第一副本对应的第一网络参数;W′为与第二副本对应的第二网络参数。
最后,利用全局参数对中心节点脉冲神经网络进行更新后,在公共数据集上前向传播,得到的第二脉冲张量并将其分发至所有子节点;子节点接收第二脉冲张量用以在公共数据集上进行蒸馏训练,同步更新子节点脉冲神经网络参数,作为训练好的子节点脉冲神经网络进入步骤S103进行循环训练;直至循环训练全局总轮数epochg后或模型达到预设值后停止训练;此时中心节点的脉冲神经网络即为基于联邦知识蒸馏的医学图像处理模型。
实施例2
本例提出一种具体涉及基于联邦知识蒸馏的医学图像处理方法,包括构建实施例1中的基于联邦知识蒸馏的医学图像处理模型,将其应用于医学图像处理。
根据上面的流程,算法结束后,经对比对医学图像分类识别准确率较机构独立训练提高约5%,同时在联邦学习上的通信代价降低了90%,这是一个较大的优化。
Claims (6)
1.基于联邦知识蒸馏的医学图像处理模型构建方法,其特征在于,包括以下步骤:
步骤1、采集训练数据,构建训练集,包括:基于对开放的医学影像数据进行预处理及整理,所得到的蒸馏所需的公共数据集;以及,基于对每一个参与训练医疗机构的隐私CT图像数据,根据公共数据集进行协调预处理,所得到该医疗机构的私有数据集;
所述私有数据集与参与训练医疗机构一一对应,且私有数据集间相互独立;
步骤2、分别构建子节点及中心节点的脉冲神经网络,其中,所述子节点与私有数据集一一对应;
步骤3、利用各私有数据集对与其对应的子节点脉冲神经网络进行训练,利用训练后获得的各子节点脉冲神经网络,基于公共数据集的前向传播,得到与该子节点对应的第一脉冲张量,并上传至中心节点;
步骤4、中心节点根据接收到的各子节点的第一脉冲张量,基于公共数据集进行蒸馏训练,得到各子节点对应的蒸馏产物;
步骤5、对所有蒸馏产物进行聚合得到全局参数,利用全局参数对中心节点脉冲神经网络进行更新,并利用更新后的中心节点脉冲神经网络,基于公共数据集的前向传播,得到第二脉冲张量,并将其分发至所有子节点;
步骤6、各子节点接收第二脉冲张量,并基于公共数据集进行蒸馏训练,更新其脉冲神经网络参数;
步骤7、判定是否达到循环训练预设轮数或模型达到预设值,若是,则停止训练,此时训练好的中心节点的脉冲神经网络即为基于联邦知识蒸馏的医学图像处理模型;否则,返回步骤3;
步骤5中,对所有蒸馏产物进行聚合得到全局参数,包括:
所述中心节点预留聚合网络缓冲区,并按如下步骤进行聚合:
步骤51、将当前中心节点脉冲神经网络生成副本,并置于中心节点的聚合缓冲区中;选择任一待聚合的第一脉冲张量,基于公共数据集对副本进行蒸馏训练并更新,获得第一网络参数;
步骤52、判定所有子节点是否已经聚合完成,若是,则将第一网络参数作为全局参数;否则,进入步骤53;
步骤53、基于第一网络参数更新中心节点脉冲神经网络副本,并作为第一副本,在聚合缓冲区中复制第一副本生成其拷贝副本;
步骤54、选择任一待聚合的第一脉冲张量,基于公共数据集对拷贝副本进行蒸馏训练并更新,获得第二副本及第二网络参数;
步骤55、随机选择公共数据集中的一部分有标签数据,生成临时测试数据集;
步骤56、基于临时测试数据集,分别对第一副本与第二副本进行测试,得到二者的测试准确率,并基于二者的测试准确率生成聚合权值,然后利用聚合权值计算更新第一网络参数;
步骤57、返回步骤52;
步骤56中,基于二者的测试准确率生成聚合权值,然后利用聚合权值计算更新第一网络参数,包括:
步骤561、基于测试准确率a和a′生成聚合权值:
其中,(α,α′)为聚合权值,δ为预设的保持因子,τ为预设的差异因子,softmax表示归一化指数函数;
步骤562、利用聚合权值计算更新第一网络参数:
其中,为新的第一网络参数;W为与第一副本对应的第一网络参数;W′为与第二副本对应的第二网络参数。
2.根据权利要求1所述的基于联邦知识蒸馏的医学图像处理模型构建方法,其特征在于,所述步骤3中,利用各私有数据集对与其对应的子节点脉冲神经网络进行训练,包括以下步骤:子节点脉冲神经网络,基于其对应私有数据集,前向计算硬标签损失函数Lhard以及梯度,并利用反向传播算法对脉冲神经网络训练预设轮数,更新参数;
其中,硬标签损失函数如下:
其中,Lhard为硬标签损失函数,v表示基于输出脉冲计算的频率向量,表示真实标签向量,其计算方式为:
其中,tar表示真实标签的类别,onehot表示独热编码,其编码方式为:
其中,i表示标签向量的元素下标。
3.根据权利要求1所述的基于联邦知识蒸馏的医学图像处理模型构建方法,其特征在于,所述步骤3中,将第一脉冲张量经二进制压缩后上传至中心节点;所述步骤4中,中心节点接收子节点压缩张量后,经解压后获得第一脉冲张量。
4.根据权利要求3所述的基于联邦知识蒸馏的医学图像处理模型构建方法,其特征在于,
所述将第一脉冲张量进行二进制压缩,包括以下步骤:
步骤31:将存储压缩结果的张量sc进行归零初始化;
步骤32:依照时间窗口顺序,对sc的每个元素值sc执行如下计算:
其中,st为待压缩脉冲张量中对应位置元素的t时间窗口脉冲值;sc为sc中的元素值,该变量以t迭代计算;为计算后的sc的元素值;
步骤33:所有计算执行完毕后,二进制压缩完成;
所述步骤4中,将压缩张量经解压后获得第一脉冲张量,包括以下步骤:
步骤41:将存储解压缩结果的解压缩张量归零初始化;
步骤42:对压缩张量中每个元素值执行还原操作,得到一个有序脉冲序列,所得结果倒序存储于解压缩张量对应位置中;
步骤43:所有计算执行完毕后,解压缩张量即为第一脉冲张量。
5.根据权利要求1、3或4所述的任一项基于联邦知识蒸馏的医学图像处理模型构建方法,其特征在于,所述步骤4中,中心节点根据接收到的各子节点的第一脉冲张量,基于公共数据集进行蒸馏训练,得到各子节点对应的蒸馏产物,包括以下步骤:
定义蒸馏损失函数,并利用反向传播算法对脉冲神经网络训练预设轮数时,停止训练;其中,蒸馏损失函数为:
Lsoft=LT+λLF
其中,Lsoft为蒸馏损失函数,LT为对脉冲的类均方差损失,LF为用于松弛的类交叉熵损失,λ表示松弛变量,为预设参数;
其中,对脉冲的类均方差损失:
用于松弛的类交叉熵损失:
其中,|C|是训练数据的类别数,T是脉冲神经网络时间窗口的大小;sct和分别是一批次预测脉冲矩阵和目标脉冲矩阵中元素的值;pc和/>分别表示预测频率向量和目标频率向量,并通过脉冲矩阵计算,计算方式为:
6.一种基于联邦知识蒸馏的医学图像处理方法,其特征在于:依据权利要求1-5任意一项所述的基于联邦知识蒸馏的医学图像处理模型构建方法构建基于联邦知识蒸馏的医学图像处理模型,利用上述模型对待处理的医学图像进行图像处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210783921.4A CN115271033B (zh) | 2022-07-05 | 2022-07-05 | 基于联邦知识蒸馏医学图像处理模型构建及其处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210783921.4A CN115271033B (zh) | 2022-07-05 | 2022-07-05 | 基于联邦知识蒸馏医学图像处理模型构建及其处理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115271033A CN115271033A (zh) | 2022-11-01 |
CN115271033B true CN115271033B (zh) | 2023-11-21 |
Family
ID=83762766
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210783921.4A Active CN115271033B (zh) | 2022-07-05 | 2022-07-05 | 基于联邦知识蒸馏医学图像处理模型构建及其处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115271033B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116704296B (zh) * | 2023-08-04 | 2023-11-03 | 浪潮电子信息产业股份有限公司 | 一种图像处理方法、装置、***、设备及计算机存储介质 |
CN117875408B (zh) * | 2024-03-13 | 2024-06-25 | 中南大学 | 一种面向瑕疵检测的脉冲神经网络的联邦学习方法 |
Citations (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1342773A (zh) * | 1991-03-18 | 2002-04-03 | 佛罗里达大学研究基金会 | 通过重组宿主生产乙醇 |
CN105243649A (zh) * | 2015-11-09 | 2016-01-13 | 天津大学 | 基于二次噪点检测的图像降噪方法 |
CN111369576A (zh) * | 2020-05-28 | 2020-07-03 | 腾讯科技(深圳)有限公司 | 图像分割模型的训练方法、图像分割方法、装置及设备 |
CN112703457A (zh) * | 2018-05-07 | 2021-04-23 | 强力物联网投资组合2016有限公司 | 用于使用工业物联网进行数据收集、学习和机器信号流传输实现分析和维护的方法和*** |
CN112947500A (zh) * | 2021-02-10 | 2021-06-11 | 复旦大学 | 一种水下航行器水流监测*** |
CN113205863A (zh) * | 2021-06-04 | 2021-08-03 | 广西师范大学 | 基于蒸馏的半监督联邦学习的个性化模型的训练方法 |
CN113330292A (zh) * | 2018-07-31 | 2021-08-31 | 科罗拉多大学评议会法人团体 | 在高通量***中应用机器学习以分析显微图像的***和方法 |
CN113361606A (zh) * | 2021-06-07 | 2021-09-07 | 齐鲁工业大学 | 深层图注意力对抗变分自动编码器训练方法及*** |
CN113408743A (zh) * | 2021-06-29 | 2021-09-17 | 北京百度网讯科技有限公司 | 联邦模型的生成方法、装置、电子设备和存储介质 |
CN113518007A (zh) * | 2021-07-06 | 2021-10-19 | 华东师范大学 | 一种基于联邦学习的多物联网设备异构模型高效互学习方法 |
CN113553918A (zh) * | 2021-06-30 | 2021-10-26 | 电子科技大学 | 一种基于脉冲主动学习的机打***字符识别方法 |
WO2021223873A1 (en) * | 2020-05-08 | 2021-11-11 | Ecole Polytechnique Federale De Lausanne (Epfl) | System and method for privacy-preserving distributed training of machine learning models on distributed datasets |
CN113705823A (zh) * | 2020-05-22 | 2021-11-26 | 华为技术有限公司 | 基于联邦学习的模型训练方法和电子设备 |
WO2021257893A1 (en) * | 2020-06-19 | 2021-12-23 | Cleerly, Inc. | Systems, methods, and devices for medical image analysis, diagnosis, risk stratification, decision making and/or disease tracking |
CN113989561A (zh) * | 2021-10-29 | 2022-01-28 | 河海大学 | 基于异步联邦学习的参数聚合更新方法、设备及*** |
CN114154643A (zh) * | 2021-11-09 | 2022-03-08 | 浙江师范大学 | 基于联邦蒸馏的联邦学习模型的训练方法、***和介质 |
WO2022060264A1 (en) * | 2020-09-18 | 2022-03-24 | Telefonaktiebolaget Lm Ericsson (Publ) | Methods and systems for updating machine learning models |
CN114269344A (zh) * | 2019-06-25 | 2022-04-01 | 微生物公司 | 用费洛西洛韦治疗或预防眼部感染的组合物和方法 |
CN114429219A (zh) * | 2021-12-09 | 2022-05-03 | 之江实验室 | 一种面向长尾异构数据的联邦学习方法 |
CN114492745A (zh) * | 2022-01-18 | 2022-05-13 | 天津大学 | 基于知识蒸馏机制的类增量辐射源个体识别方法 |
CN114626550A (zh) * | 2022-03-18 | 2022-06-14 | 支付宝(杭州)信息技术有限公司 | 分布式模型协同训练方法和*** |
WO2022126706A1 (zh) * | 2020-12-19 | 2022-06-23 | 中国科学院深圳先进技术研究院 | 一种个性化联邦学习加速方法、装置 |
CN114692732A (zh) * | 2022-03-11 | 2022-07-01 | 华南理工大学 | 一种在线标签更新的方法、***、装置及存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4245310B2 (ja) * | 2001-08-30 | 2009-03-25 | 忠正 藤村 | 分散安定性に優れたダイヤモンド懸濁水性液、このダイヤモンドを含む金属膜及びその製造物 |
WO2019222401A2 (en) * | 2018-05-17 | 2019-11-21 | Magic Leap, Inc. | Gradient adversarial training of neural networks |
US11188799B2 (en) * | 2018-11-12 | 2021-11-30 | Sony Corporation | Semantic segmentation with soft cross-entropy loss |
US20210406782A1 (en) * | 2020-06-30 | 2021-12-30 | TieSet, Inc. | System and method for decentralized federated learning |
-
2022
- 2022-07-05 CN CN202210783921.4A patent/CN115271033B/zh active Active
Patent Citations (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1342773A (zh) * | 1991-03-18 | 2002-04-03 | 佛罗里达大学研究基金会 | 通过重组宿主生产乙醇 |
CN105243649A (zh) * | 2015-11-09 | 2016-01-13 | 天津大学 | 基于二次噪点检测的图像降噪方法 |
CN112703457A (zh) * | 2018-05-07 | 2021-04-23 | 强力物联网投资组合2016有限公司 | 用于使用工业物联网进行数据收集、学习和机器信号流传输实现分析和维护的方法和*** |
CN113330292A (zh) * | 2018-07-31 | 2021-08-31 | 科罗拉多大学评议会法人团体 | 在高通量***中应用机器学习以分析显微图像的***和方法 |
CN114269344A (zh) * | 2019-06-25 | 2022-04-01 | 微生物公司 | 用费洛西洛韦治疗或预防眼部感染的组合物和方法 |
WO2021223873A1 (en) * | 2020-05-08 | 2021-11-11 | Ecole Polytechnique Federale De Lausanne (Epfl) | System and method for privacy-preserving distributed training of machine learning models on distributed datasets |
CN113705823A (zh) * | 2020-05-22 | 2021-11-26 | 华为技术有限公司 | 基于联邦学习的模型训练方法和电子设备 |
CN111369576A (zh) * | 2020-05-28 | 2020-07-03 | 腾讯科技(深圳)有限公司 | 图像分割模型的训练方法、图像分割方法、装置及设备 |
WO2021257893A1 (en) * | 2020-06-19 | 2021-12-23 | Cleerly, Inc. | Systems, methods, and devices for medical image analysis, diagnosis, risk stratification, decision making and/or disease tracking |
WO2022060264A1 (en) * | 2020-09-18 | 2022-03-24 | Telefonaktiebolaget Lm Ericsson (Publ) | Methods and systems for updating machine learning models |
WO2022126706A1 (zh) * | 2020-12-19 | 2022-06-23 | 中国科学院深圳先进技术研究院 | 一种个性化联邦学习加速方法、装置 |
CN112947500A (zh) * | 2021-02-10 | 2021-06-11 | 复旦大学 | 一种水下航行器水流监测*** |
CN113205863A (zh) * | 2021-06-04 | 2021-08-03 | 广西师范大学 | 基于蒸馏的半监督联邦学习的个性化模型的训练方法 |
CN113361606A (zh) * | 2021-06-07 | 2021-09-07 | 齐鲁工业大学 | 深层图注意力对抗变分自动编码器训练方法及*** |
CN113408743A (zh) * | 2021-06-29 | 2021-09-17 | 北京百度网讯科技有限公司 | 联邦模型的生成方法、装置、电子设备和存储介质 |
CN113553918A (zh) * | 2021-06-30 | 2021-10-26 | 电子科技大学 | 一种基于脉冲主动学习的机打***字符识别方法 |
CN113518007A (zh) * | 2021-07-06 | 2021-10-19 | 华东师范大学 | 一种基于联邦学习的多物联网设备异构模型高效互学习方法 |
CN113989561A (zh) * | 2021-10-29 | 2022-01-28 | 河海大学 | 基于异步联邦学习的参数聚合更新方法、设备及*** |
CN114154643A (zh) * | 2021-11-09 | 2022-03-08 | 浙江师范大学 | 基于联邦蒸馏的联邦学习模型的训练方法、***和介质 |
CN114429219A (zh) * | 2021-12-09 | 2022-05-03 | 之江实验室 | 一种面向长尾异构数据的联邦学习方法 |
CN114492745A (zh) * | 2022-01-18 | 2022-05-13 | 天津大学 | 基于知识蒸馏机制的类增量辐射源个体识别方法 |
CN114692732A (zh) * | 2022-03-11 | 2022-07-01 | 华南理工大学 | 一种在线标签更新的方法、***、装置及存储介质 |
CN114626550A (zh) * | 2022-03-18 | 2022-06-14 | 支付宝(杭州)信息技术有限公司 | 分布式模型协同训练方法和*** |
Non-Patent Citations (3)
Title |
---|
"A Federated Learning Aggregation Algorithm for Pervasive Computing:Evaluation and ComParision";Sannara EK等;《IEEE International Conference on Pervasive Computing and Communications》;第1-10页 * |
"Decentralized Federated Learning:A Segmented Gossip Approach";Chenghao Hu等;《arxiv》;第1-7页 * |
"Federal SNN Distillation: A Low-Communication-Cost Federated Learning Framework for Spiking Neural Networks";Zhetong Liu等;《Journal of Physics: Conference Series》;第2216卷(第1期);第1-8页摘要和第1-3节 * |
Also Published As
Publication number | Publication date |
---|---|
CN115271033A (zh) | 2022-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115271033B (zh) | 基于联邦知识蒸馏医学图像处理模型构建及其处理方法 | |
CN109036553B (zh) | 一种基于自动抽取医疗专家知识的疾病预测方法 | |
WO2021120936A1 (zh) | 一种基于多任务学习模型的慢病预测*** | |
CN113421652B (zh) | 对医疗数据进行分析的方法、训练模型的方法及分析仪 | |
CN107016438B (zh) | 一种基于中医辨证人工神经网络算法模型的*** | |
CN106778014A (zh) | 一种基于循环神经网络的患病风险预测方法 | |
Cai et al. | Improved deep convolutional neural networks using chimp optimization algorithm for Covid19 diagnosis from the X-ray images | |
CN109106384B (zh) | 一种心理压力状况预测方法及*** | |
CN111477337B (zh) | 基于个体自适应传播网络的传染病预警方法、***及介质 | |
CN112819831B (zh) | 基于卷积Lstm及多模型融合的分割模型生成方法及装置 | |
CN116110597B (zh) | 一种基于数字孪生的患者病症类别智能分析方法及装置 | |
Purnama et al. | Disease classification based on dermoscopic skin images using convolutional neural network in teledermatology system | |
CN115471716A (zh) | 一种基于知识蒸馏的胸部放射影像疾病分类模型轻量化方法 | |
KR20220111215A (ko) | 자기주의 기반 심층 신경망 모델을 이용한 약물-표적 상호작용 예측 장치 및 그 방법 | |
CN114820450A (zh) | 适宜李氏人工肝治疗的ct血管造影图像分类方法 | |
CN110335160A (zh) | 一种基于分组和注意力改进Bi-GRU的就医迁移行为预测方法及*** | |
JP7365747B1 (ja) | 階層図ニューラルネットワークに基づく疾患診療過程異常識別システム | |
WO2024131025A1 (zh) | 数据处理方法、装置、电子设备及存储介质 | |
Chen et al. | Gingivitis identification via GLCM and artificial neural network | |
CN116011559A (zh) | 基于伪单词序列生成的病例分类的零样本蒸馏***及方法 | |
CN116309754A (zh) | 一种基于局部-全局信息协作的大脑医学图像配准方法及*** | |
CN115171896A (zh) | 一种重症患者长期死亡风险预测***及方法 | |
CN109119159B (zh) | 一种基于快速权重机制的深度学习医疗诊断*** | |
Ummah et al. | Covid-19 and Tuberculosis Detection in X-Ray of Lung Images with Deep Convolutional Neural Network. | |
CN117616467A (zh) | 训练并使用深度学习算法来基于降维表示比较医学图像的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |