CN113537365B - 一种基于信息熵动态赋权的多任务学***衡方法 - Google Patents

一种基于信息熵动态赋权的多任务学***衡方法 Download PDF

Info

Publication number
CN113537365B
CN113537365B CN202110820646.4A CN202110820646A CN113537365B CN 113537365 B CN113537365 B CN 113537365B CN 202110820646 A CN202110820646 A CN 202110820646A CN 113537365 B CN113537365 B CN 113537365B
Authority
CN
China
Prior art keywords
task
depth
learning model
task learning
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110820646.4A
Other languages
English (en)
Other versions
CN113537365A (zh
Inventor
王玉峰
丁文锐
肖京
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN202110820646.4A priority Critical patent/CN113537365B/zh
Publication of CN113537365A publication Critical patent/CN113537365A/zh
Application granted granted Critical
Publication of CN113537365B publication Critical patent/CN113537365B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于信息熵动态赋权的多任务学***衡各个任务相对重要性,算法适用性强,简洁高效。

Description

一种基于信息熵动态赋权的多任务学***衡方法
技术领域
本发明属于机器学***衡方法。
背景技术
机器学习通过经验知识改善计算机算法的性能以实现智能自主的学习工作,是人工智能的核心技术之一。但机器学习技术通常需要大量的学习样本,尤其是最近广为流行的深度学习模型通常需要海量标记样本来训练网络。然而,在很多应用中,训练样本的某些任务标签很难收集或者人工标注比较费时费力。在这种情况下,可以利用多任务学习来最大化地利用每个任务中有限的训练样本。
多任务学习旨在联合学习多个相关的任务来提升每个任务的泛化性能,在自然语言处理和计算机视觉等领域得到了广泛的应用。其中每个任务可以是一般的学习任务,例如有监督的任务(例如分类或回归问题)、非监督任务(例如聚类问题)、强化学习任务或者多视图学习任务等等。
近年来,深度学习极大地提升了各种计算机视觉任务的性能,而多任务学习在一个模型中联合学习多个任务从而获得较好的泛化性能和较低的内存占用,两者的结合即深度多任务学习研究取得了巨大的进展。但目前深度多任务学习仍然存在以下几个问题:(1)不同子任务之间信息交流不够充分而难以完全发挥多任务学习的优势;(2)现有大多数MTL研究的损失函数通常由子任务的损失线性加权得到,其依赖于人为经验而缺乏适应性。
当前的深度多任务学习研究主要集中在网络结构和优化策略方面的设计:
网络结构研究上,在深度神经网络中进行多任务学习机制主要有两种方式,即硬参数分享和软参数分享。其中,硬参数分享通常在所有任务之间共享隐藏层,同时保留多个特定于任务的输出层。由于同时学习的任务越多,模型越需要找到适用于所有任务的表达,所以硬参数分享大大降低了过拟合的风险。另一方面,软参数分享中,每一个任务都有自己的模型和对应参数,然后对模型参数距离进行正则化调整以增大参数的相度。
优化策略研究上,大多数多任务学***衡不同任务对网络的影响,包括不确定性权重、梯度归一化算法和动态权重平均策略等研究。
综上所述,由于多任务模型包含有多种学***衡不同任务间的重要性具有重要的研究意义。
发明内容
本发明为了提高多任务学***衡方法,即在模型训练过程中动态调整各个任务损失函数的相对权重,实现多任务学习模型的自适应训练与准确预测。
所述的基于信息熵动态赋权的多任务学***衡方法,具体步骤如下:
步骤一,搭建多任务学习模型M,通过当前多任务学习模型M对输入图像进行模型推断和归一化处理,得到不同类型的归一化概率图;
初始多任务学习模型M包含一个共享编码器和三个任务特定解码器。
多任务学习模型M对输入图像进行模型推断后生成三个像素级任务输出,分别为语义分割输出图Ps、深度估计输出图Pd和边缘检测输出图Pb,对每个任务输出图分别进行归一化处理,得到不同类型的归一化概率图,具体为:
1)语义分割输出图Ps,采用softmax函数进行处理,得到归一化后的语义分割概率图:
其中,M为语义分割总类别数,i表示预测图中第i层语义类别,Ps,i为模型输出图Ps的第i层语义分割数值图,而P’s,i则表示归一化后的第i层语义分割概率图P’s
2)边缘检测输出图Pb,采用sigmoid函数进行处理,得到归一化后的边缘检测概率图P’b
3)深度估计输出图Pd,利用对数空间离散化策略将深度回归任务转化为分类任务,采用softmax函数得到归一化后的深度分类概率图;
首先,采用对数空间离散化策略将连续空间的深度值离散划分为K个子间隔对应K个类别;
具体为:将深度值区间[D1,D2]映射到[D1+1,D2+1],记为[D′1,D′2],并按照离散化深度阈值dk进行划分,得到K个子间隔{[d0,d1],[d1,d2],...,[dK-1,dK]}。
离散化深度阈值dk定义为:
然后,将深度估计真值按照上述策略离散化为深度分类真值;
即当深度估计真值处于[dk-1,dk]时对其分配类别k,并以深度分类真值训练深度任务分支。
最后,在训练阶段得到深度分类预测图,并采用softmax函数进行处理,获得归一化后的深度分类概率图P’d,k
深度分类概率图为:
其中,K为深度分类总类别数,k表示第k个深度类别,Pd,k表示第k层深度分类预测图,P’d,k表示归一化后的第k层深度分类概率图。
步骤二,利用归一化后的概率图计算多任务损失函数,对当前多任务学习模型M进行初步训练;
具体为:
首先,采用交叉熵函数计算获得的归一化各类型概率图对应的损失;
交叉熵损失函数Lt为:
其中,yt为各任务对应的one-hot形式有监督类别标签;t为s、d或b,即P′t是语义分割、边缘检测或者深度估计任务的归一化概率图;C为各任务对应的总类别数,i表示预测图中第i层类别。
然后,按照每个任务的固定权重来构建等权加和多任务损失函数Lmtl为:
最后,利用多任务损失函数Lmtl进行网络模型的梯度反传和参数更新,迭代训练得到初步训练后的多任务学习模型。
步骤三,在初步训练的多任务学习模型M的基础上,利用信息熵动态赋权算法构建最终的自适应多任务损失函数L′mtl
具体为:
首先,利用各类别多层概率图计算每个任务的信息熵值Et
其中,w和h分别为概率图行和列坐标,W和H分别为概率图行和列长度的最大值;c为概率图的通道值数,C为各个任务对应的类别总数。
然后,利用信息熵值分配各个任务的相对权重wt
相对权重wt为:
当任务的预测结果越差时,输出概率图不确定性越高,对应信息熵值也就越大。因此对预测性能较差的任务分配较大权重,可以使模型侧重训练相应任务。
最后,根据各任务的相对权重以及交叉熵损失函数Lt,通过赋权求和方式构建最终的自适应多任务损失函数。
最终的自适应多任务损失函数L′mtl为:
步骤四,利用最终的自适应多任务损失函数L′mtl进行反向传播,获得当前多任务学习模型M的参数梯度,并利用梯度下降算法更新当前多任务学习模型M的参数,完成一次迭代训练;
步骤五,迭代训练完成后,获得新的多任务学习模型M1,返回步骤三进行下一次迭代,直至多任务学习模型M1达到收敛,终止训练。
本发明的优点在于:
(1)本发明一种基于信息熵动态赋权的多任务学***衡方法,采用离散化策略将回归任务转化为分类任务,可以有效应对不同类型任务,算法适用性强;
(2)本发明一种基于信息熵动态赋权的多任务学***衡方法,利用任务输出的预测图计算信息熵,不需要对模型结构设计或者参数更新过程进行更改,简洁高效、即插即用;
(3)本发明一种基于信息熵动态赋权的多任务学***衡方法,基于信息熵值动态调整任务损失函数的权重,能够自适应平衡各个任务的相对重要性,进而提升整体任务性能。
(4)本发明一种基于信息熵动态赋权的多任务学***衡方法,能有效提取模型的通用共享特征和任务特定特征,快速均衡地完成多任务学习模型的训练。
附图说明
图1是本发明基于信息熵动态赋权的多任务学***衡方法的整体流程图;
图2是本发明中多任务学习模型的示意图;
图3是本发明中回归任务离散化的示意图。
具体实施方式
下面结合附图并以计算机视觉中的联合实现语义分割、深度估计和边缘检测的多任务学习网络为例,对本发明的具体实施方法作进一步的详细说明。
本发明提出一种基于信息熵动态赋权的多任务学***衡方法,采用分阶段训练,首先利用固定权重的多任务损失函数进行预训练,然后利用动态赋权的自适应多任务损失函数进行动态训练。在模型训练过程中,信息熵算法能够有效对每个任务的预测结果进行评估,并通过动态赋权策略调整任务的相对权重,使多任务预测模型更加关注并提升性能相对较差的任务,从而实现不同任务性能自适应的平衡学习。
本发明是一种基于信息熵动态赋权的多任务学***衡方法,如图1所示,包括以下步骤:
步骤一,初始化网络参数,并进行训练获得初始多任务学习模型。
构建基于“单编码器-多解码器”的多任务学习网络模型,如图2所示,具体为:
编码器包含所有任务共享的网络参数,采用在ImageNet上预训练的骨架网络(例如ResNet)进行初始化。解码器包含任务特定的网络参数,每个任务对应一个解码器,采用随机参数初始化方式。本实施例中设定需要求解三个任务:语义分割、深度估计和边缘检测,则多任务学习模型包含一个共享编码器和三个任务特定解码器。
三个任务分别经解码器输出后,得到三个交叉熵损失L1、L2和L3,将各任务对应的相对权重w1、w2和w3与其交叉熵损失通过赋权求和,得到多任务损失函数Lmtl
Lmtl=w1L1+w2L2+w3L3
步骤二,通过多任务学习模型对输入图像进行模型推断和归一化处理,得到不同类型的归一化概率图;
多任务学习模型对输入图像进行模型推断后生成三个像素级任务输出,分别为语义分割输出图Ps、深度估计输出图Pd和边缘检测输出图Pb,对每个任务输出图进行归一化处理,得到不同类型的归一化概率图,具体为:
1)语义分割输出图Ps,采用softmax函数进行处理,得到归一化后的多分类语义分割概率图:
其中,S为语义分割总类别数,i表示预测图中第i个语义类别,Ps,i为模型输出图Ps的第i层语义分割数值图,而P’s,i则表示归一化后的第i层语义分割概率图。
2)边缘检测输出图Pb,采用sigmoid函数(等价于二分类softmax函数)进行处理,得到归一化后的边缘检测概率图P’b
3)深度估计输出图Pd,利用对数空间离散化策略将深度回归任务转化为分类任务,采用softmax函数得到归一化后的深度分类概率图;
首先,如图3所示,采用对数空间离散化策略将连续空间的深度值离散划分为K个子间隔对应K个类别,具体为:
将深度值区间[D1,D2]映射到[D1+1,D2+1],记为[D′1,D′2],并按照离散化深度阈值dk进行划分,得到K个子间隔{[d0,d1],[d1,d2],...,[dK-1,dK]}。
离散化深度阈值dk定义为:
然后,将深度估计真值按照上述策略离散化为深度分类真值,即当深度估计真值处于[dk-1,dk]时对其分配类别k,并以深度分类真值训练深度任务分支。
最后,在训练阶段得到深度分类预测图,并采用softmax函数进行处理,获得归一化后的深度分类概率图P’d,k
深度分类概率图为:
其中,K为深度分类总类别数,k表示第k个深度类别,Pd,k表示第k层深度分类预测图,P’d,k表示归一化后的第k层深度分类概率图。
在本发明的实施例中,取K=80进行深度估计的离散化。深度分支的监督真值为分类形式,因此深度估计任务在这里也是直接以深度分类的形式进行训练。
步骤三,对多任务学习模型进行初步训练;
由于初始化模型预测的各个任务结果误差较大且不稳定,因此需要初步训练多任务网络模型,具体为:
首先,采用交叉熵函数计算获得的各类型归一化概率图对应的损失:
其中,yt为各任务对应的one-hot形式有监督类别标签;t对应步骤一中的各个任务,可以表示为s、d或b,即P′t是语义分割、边缘检测或者深度估计任务的归一化概率图;C为各任务对应的总类别数,i表示预测图中第i层类别。
其次,构建等权加和多任务损失函数Lmtl为:
在初步训练过程中,为每个任务的损失函数赋予相等的固定权重。
然后,利用多任务损失函数Lmtl进行网络模型的梯度反传和参数更新,训练一定迭代次数后获得的多任务学习模型可以进行初步的任务预测。
步骤四,在初步训练得到的多任务学习模型基础上,利用信息熵动态赋权算法构建自适应多任务损失函数,进一步优化训练多任务学习模型。
具体为:
首先,利用各类型多层概率图计算每个任务的信息熵值Et
其中,w和h分别为概率图行和列坐标,W和H分别为概率图行和列长度的最大值;c为概率图的通道数,C为各任务对应类别总数;
然后,利用信息熵值分配各个任务的相对权重wt
信息熵可以反应预测概率图的不确定性,因此可以利用任务输出概率图的信息熵分配相对权重:
当任务的预测结果越差时,输出概率图不确定性越高,对应信息熵值也就越大。因此对预测性能较差的任务分配较大权重以使模型侧重训练相应任务。
最后,根据各任务的相对权重以及交叉熵损失函数Lt,通过赋权求和方式构建整体自适应多任务损失函数。
整体自适应多任务损失函数L′mtl为:
步骤五,利用整体自适应多任务损失函数L′mtl进行反向传播,获得模型参数梯度,然后利用梯度下降算法更新模型参数,完成一次迭代训练;
步骤六,模型参数更新后,获得新的多任务学习模型。返回步骤四进行下一次迭代,直至多任务学习模型达到收敛,终止训练。
由于每次网络参数更新后,各个任务的预测性能会发生变化,因此其对应的相对权重也会发生动态改变,从而实现网络模型训练中损失函数的自适应调整。
以上实施例仅针对语义分割、深度估计和边缘检测三个特定任务进行说明,但是本发明方法的应用不局限于上述三个特定任务,还可以应用于其他任务,也可以应用于三个以上的任务情况,根据实际情况对多任务学习模型进行调整。包含其他任务或者三个及以上任务的情形,都属于本发明所解决的技术问题范围内。

Claims (3)

1.一种基于信息熵动态赋权的多任务学***衡方法,其特征在于,具体为:
首先,搭建初始多任务学习模型M,并通过多任务学习模型M对输入图像进行推断,得到不同任务的不同类型输出,分别进行归一化处理,得到不同任务对应的归一化概率图;
多任务学习模型M对输入图像进行模型推断后生成三个像素级任务输出,分别为语义分割输出图Ps、深度估计输出图Pd和边缘检测输出图Pb,对应的归一化概率图为:
1)语义分割输出图Ps,采用softmax函数进行处理,得到归一化后的语义分割概率图:
其中,S为语义分割总类别数,i表示预测图中第i层语义类别,Ps,i为模型输出图Ps的第i层语义分割数值图,而P’s,i则表示归一化后的第i层语义分割概率图P’s
2)分类边缘检测输出图Pb,采用sigmoid函数进行处理,得到归一化后的边缘检测概率图P’b
3)深度估计输出图Pd,利用对数空间离散化策略将深度回归任务转化为分类任务,采用softmax函数得到归一化后的深度分类概率图;
首先,采用对数空间离散化策略将连续空间的深度值离散划分为K个子间隔对应K个类别,具体为:
将深度值区间[D1,D2]映射到[D1+1,D2+1],记为[D′1,D′2],并按照离散化深度阈值dk进行划分,得到K个子间隔{[d0,d1],[d1,d2],...,[dK-1,dK]};
离散化深度阈值dk定义为:
然后,将深度估计真值按照上述策略离散化为深度分类真值,即当深度估计真值处于[dk-1,dk]时对其分配类别为k,并以深度分类真值训练深度任务分支;
最后,在训练阶段得到深度分类预测图,并采用softmax函数进行处理,获得归一化后的深度分类概率图P’d,k
深度分类概率图为:
其中,K为深度分类总类别数,k表示第k个深度类别,Pd,k表示第k层深度分类预测图,P’d,k表示归一化后的第k层深度分类概率图;
然后,利用各归一化概率图计算多任务损失函数,通过多任务损失函数对多任务学习模型M进行初步训练;
最后,在初步训练后的多任务学习模型M基础上,通过信息熵动态赋权算法构建最终的自适应多任务损失函数,并利用反向传播算法获得当前多任务学习模型M的参数梯度,进行参数更新,完成一次迭代训练;
构建最终的自适应多任务损失函数具体过程为:
步骤501,利用各类别多层概率图计算每个任务的信息熵值Et
其中,w和h分别为概率图行和列坐标,W和H分别为概率图行和列长度的最大值;c为概率图的通道数,C为各任务对应类别总数;
步骤502,利用信息熵值分配各个任务的相对权重wt
相对权重wt为:
步骤503,根据各任务的相对权重以及交叉熵损失函数Lt,通过赋权求和方式构建最终的自适应多任务损失函数;
最终的自适应多任务损失函数L′mtl为:
迭代训练后,得到新的多任务学习模型M1,重新对输入图像进行推断和归一化,利用自适应多任务损失函数进行下一次迭代,直至多任务学习模型M1达到收敛,终止训练。
2.根据权利要求1所述的一种基于信息熵动态赋权的多任务学***衡方法,其特征在于,所述的多任务学习模型包含一个共享编码器和对应于各特定任务的解码器。
3.根据权利要求1所述的一种基于信息熵动态赋权的多任务学***衡方法,其特征在于,所述的多任务损失函数的计算以及多任务学习模型进行初步训练的具体过程为:
首先,采用交叉熵函数计算获得的各类型归一化概率图对应的损失;
交叉熵损失函数Lt为:
其中,yt为各任务对应的one-hot形式有监督类别标签;t为s、d或b,即Pt′是语义分割、边缘检测或者深度估计任务的归一化概率图;C为各任务对应的总类别数,i表示预测图中第i层类别;
然后,按照每个任务的固定权重来构建等权加和多任务损失函数Lmtl为:
最后,利用多任务损失函数Lmtl进行网络模型的梯度反传和参数更新,迭代训练得到初步训练后的多任务学习模型。
CN202110820646.4A 2021-07-20 2021-07-20 一种基于信息熵动态赋权的多任务学***衡方法 Active CN113537365B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110820646.4A CN113537365B (zh) 2021-07-20 2021-07-20 一种基于信息熵动态赋权的多任务学***衡方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110820646.4A CN113537365B (zh) 2021-07-20 2021-07-20 一种基于信息熵动态赋权的多任务学***衡方法

Publications (2)

Publication Number Publication Date
CN113537365A CN113537365A (zh) 2021-10-22
CN113537365B true CN113537365B (zh) 2024-02-06

Family

ID=78100520

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110820646.4A Active CN113537365B (zh) 2021-07-20 2021-07-20 一种基于信息熵动态赋权的多任务学***衡方法

Country Status (1)

Country Link
CN (1) CN113537365B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117597692A (zh) * 2021-12-02 2024-02-23 英特尔公司 用于多任务学***衡的装置、方法、设备及介质
CN114714146B (zh) * 2022-04-08 2023-04-07 北京理工大学 一种同时预测表面粗糙度和刀具磨损的方法
CN117273068B (zh) * 2023-09-28 2024-04-16 东南大学 一种基于可线性扩展学习基因的模型初始化方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107451620A (zh) * 2017-08-11 2017-12-08 深圳市唯特视科技有限公司 一种基于多任务学习的场景理解方法
CN110837836A (zh) * 2019-11-05 2020-02-25 中国科学技术大学 基于最大化置信度的半监督语义分割方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107451620A (zh) * 2017-08-11 2017-12-08 深圳市唯特视科技有限公司 一种基于多任务学习的场景理解方法
CN110837836A (zh) * 2019-11-05 2020-02-25 中国科学技术大学 基于最大化置信度的半监督语义分割方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Y Wang,et al..Boundary-aware multitask learning for remote sensing imagery.《IEEE》.2020,全文. *
基于组合赋权法的舰船动力***使用效能评估研究;张磊;曹跃云;李彬;崔佳林;;舰船科学技术(第03期);全文 *

Also Published As

Publication number Publication date
CN113537365A (zh) 2021-10-22

Similar Documents

Publication Publication Date Title
CN113537365B (zh) 一种基于信息熵动态赋权的多任务学***衡方法
WO2020019236A1 (en) Loss-error-aware quantization of a low-bit neural network
CN109614471B (zh) 一种基于生成式对抗网络的开放式问题自动生成方法
CN107506590A (zh) 一种基于改进深度信念网络的心血管疾病预测模型
CN112115998B (zh) 一种基于对抗增量聚类动态路由网络克服灾难性遗忘的方法
CN112465120A (zh) 一种基于进化方法的快速注意力神经网络架构搜索方法
CN110866113B (zh) 基于稀疏自注意力机制微调伯特模型的文本分类方法
WO2022252455A1 (en) Methods and systems for training graph neural network using supervised contrastive learning
CN114118369B (zh) 一种基于群智能优化的图像分类卷积神经网络设计方法
CN113554156B (zh) 基于注意力机制与可变形卷积的多任务图像处理方法
CN111104831B (zh) 一种视觉追踪方法、装置、计算机设备以及介质
CN109558898B (zh) 一种基于深度神经网络的高置信度的多选择学习方法
CN116306686B (zh) 一种多情绪指导的共情对话生成方法
CN114004383A (zh) 时间序列预测模型的训练方法、时间序列预测方法及装置
CN111353534B (zh) 一种基于自适应分数阶梯度的图数据类别预测方法
Dong et al. Lambo: Large language model empowered edge intelligence
CN114202021A (zh) 一种基于知识蒸馏的高效图像分类方法及***
CN111783688B (zh) 一种基于卷积神经网络的遥感图像场景分类方法
CN115599918B (zh) 一种基于图增强的互学习文本分类方法及***
CN116467941A (zh) 一种考虑不同风级条件下4自由度船舶运动在线预报方法
CN116826699A (zh) 光伏集群功率预测方法、装置、设备及介质
CN110717402A (zh) 一种基于层级优化度量学习的行人再识别方法
CN116258164A (zh) 基于客户端聚类的个性化联邦学习方法、装置及设备
CN113807005A (zh) 基于改进fpa-dbn的轴承剩余寿命预测方法
CN114220127B (zh) 一种基于梯度引导的进化算法的图像识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant