CN111931416B - 一种结合可解释性的图表示学习的超参数优化方法 - Google Patents
一种结合可解释性的图表示学习的超参数优化方法 Download PDFInfo
- Publication number
- CN111931416B CN111931416B CN202010689045.XA CN202010689045A CN111931416B CN 111931416 B CN111931416 B CN 111931416B CN 202010689045 A CN202010689045 A CN 202010689045A CN 111931416 B CN111931416 B CN 111931416B
- Authority
- CN
- China
- Prior art keywords
- graph
- hyper
- learning algorithm
- parameters
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computer Hardware Design (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Geometry (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及超参数优化技术领域,特别涉及一种结合可解释性的图表示学习的超参数优化方法。本方法包括以下步骤:采样若干小规模的子图;根据完全可解释的图特征,分配有限的算力以及用于后续样本权重;对不同的超参数和图特征做去相关化;根据去相关化后的子图和部分原图计算结果,优化原图的图表示学习超参数。该方法采用了完全可解释的图特征,对算力进行合理分配,在超参数优化过程中对不同的超参数和图特征做了去相关处理,使得整体方法在保证性能的同时,具备很高的可解释性。
Description
技术领域
本发明涉及超参数优化技术领域,特别涉及一种结合可解释性的图表示学习的超参数优化方法。
背景技术
图作为一种结构化的数据表现形式,对变量之间的相互联系具有非常强的建模能力。图表示学习通过学习图中节点的低维向量表示,来更好地理解图中各个节点之间的语义联系。自动机器学习包括了机器学习的各个阶段:数据处理、特征工程、模型选择、超参数优化和神经网络架构搜索,减轻了模型调优过程中对于人力的依赖和消耗。超参数优化通过选择最优的超参数配置来提高模型的性能。
但是当前超参数优化技术主要关注图像、文本等数据,且多采用黑盒的方式来进行优化,整体框架缺乏可解释性,不能有效地解释每次试验为什么采用特定的超参数取值,比如社交网络场景下的好友推荐,当需要进行超参数调优时,很难解释需要如何调节超参数,有待解决。相关技术中,(1)一种超参数随机搜索技术,其适用于各种形式数据的任务,但其性能一般,搜索到最优超参数需要很长的时间。(2)一种基于序列化模型的优化方法,但并没有针对图表示学习进行优化,且基于黑盒模型,不具备可解释性。(3)一种在图表示学习中利用采样子图信息的优化方法,但提取图特征的方式基于太强的物理假设,且没有解决不同超参数之间的互相影响问题,可解释性不强。
综上所述,目前,超参数优化在真实图表示学习场景下存在如下缺陷:
(1)技术多适用于文本、图像等类型的数据,对于结构化的图结构信息利用不足。现实场景中图的规模往往包含数十亿个节点和边,难以同时保证效率和性能。
(2)现有技术往往依赖于过强的数学或者物理假设,由于采用黑盒化的优化方式,严重缺乏可解释性,无法解释下一轮试验中超参数选择某个特定值的原因。
发明内容
本发明的目的是提出一种结合可解释性的图表示学习的超参数优化方法,以克服已有技术的缺点,在保证较高性能的同时,解耦不同超参数之间的相关性,使超参数优化方法具有更高的可解释性,可以解释每次试验超参数取特定值的原因。
本发明提出的考虑可解释性的图表示学习过程中确定最优超参数的方法,包括以下步骤:
(1)从待确定最优超参数的原图中采样多个子图;
(2)根据具有可解释性的特征,在子图上执行图表示学习算法,保留图表示学习算法的结果样本;
(3)从样本中消除图表示学习算法的超参数与子图特征之间的相关度;
设定循环次数K,初始化时设循环次数k为1;
设定有n个样本,其中每个样本包含p1个图表示学习算法的超参数和p2个子图特征,用一个n行(p1+p2)列的矩阵X表示超参数和图特征数据,X=[A,B],其中A为一个n行p1列的超参数矩阵,B为一个n行p2列的子图特征矩阵;
利用以下损失方程,求解样本权重γ,使得:
用相关度LDeco表示上述损失方程:
其中,λ1和λ2是人为设置的大常数,c={γ:|γi|≤c},c为常数;
(4)确定原图上的图表示学习算法的最优超参数,包括以下步骤:
(4-1)以步骤(2)的图表示学习算法的超参数和子图特征作为多层感知机的输入,多层感知机的输出为图表示学习算法的性能结果;
(4-2)利用步骤(3)的样本权重,对步骤(4-1)的多层感知机进行训练,设定多层感知机的优化目标如下:
其中,Yi表示第i个样本Xi中的超参数和图特征下的图表示学习算法性能,Φ是多层感知机的拟合函数,Θ是多层感知机自身的参数,训练过程中得到多层感知机全连接层的权重;
(4-3)根据步骤(4-2)所有超参数在多层感知机中全连接层的权重绝对值之和,利用下式计算该超参数对于图表示学习算法性能的重要度:
(4-4)对超参数进行重要度降序排序,依次对每个超参数进行优化,优化的过程中固定其他超参数的取值,优化的过程为对当前超参数在取值范围内进行均匀采样,将超参数的取值和原图的特征作为多层感知机的输入,多层感知机的输出为预测的图表示学习算法性能,取与图表示学习算法性能最高的值相对应的超参数作为待运行超参数取值;
(4-5)以步骤(4-4)的待运行超参数取值,在待确定最优超参数的原图上执行图表示学习算法,得到第k轮图表示学习算法性能,将原图的特征、使用的超参数以及第k轮图表示学习算法的结果作为一个新样本加入步骤(3)的n个样本中;
(4-6)对循环次数k进行判断,若k<K,则令k=k+1,返回步骤(3),若k≥K,则将K轮超参数中与图表示学习算法性能Yi的最大值相对应的超参数作为最优超参数,实现考虑可解释性的图表示学习过程中最优超参数的确定。
上述方法还可以根据多层感知机中全连接层的权重绝对值之和,计算每个超参数对于图表示学习算法性能的重要度,根据重要度指导人工的后续调优。
本发明的上述确定最优超参数的方法中,从待确定最优超参数的原图中采样多个子图的方法为:根据待确定最优超参数的原图中给定的多类型节点标签,从同一类型节点中确定子图的起点,每个时刻从当前节点随机跳动到一个临近节点,连续多个时刻的随机跳动,多个节点构成一条路径。选取多个不同类型节点作为起点得到多条路径,多条路径上的所有节点集合的并集即为采样的节点集合,原图上由该采样节点集合诱导出一个子图;重复本步骤多次,得到多个子图。或者,也可以根据区域检测方法,从多个区域的一个区域中确定子图的起点,每个时刻从当前节点随机跳到一个临近节点,连续多个时刻的随机跳动,多个节点构成一条路径。选取多个区域中的节点作为起点得到多条路径,多条路径上的所有节点集合的并集即为采样的节点集合,原图上由该采样节点集合诱导出一个子图;重复本步骤多次,得到多个子图。
上述方法中,所述的根据具有可解释性的特征,在子图上执行图表示学习算法,保留图表示学习算法的结果样本;包括以下步骤:
(1)根据图论理论,从原图和多个子图中提取特征,提取的特征分别包括原图和多个子图的点集大小、边集大小、互有链接的节点三元组数目和连通块的数目;
(2)根据原图和多个子图的特征,利用以下堪培拉距离公式,分别计算多个子图与原图之间的相似度;
(3)按相似度大小分配在子图上运行图表示学习算法的次数,按分配的计算次数,分别在多个子图上执行图表示学习算法,每次执行时随机选取一组图表示学习算法的超参数,每个超参数设定一个取值范围,将每次图表示学习算法的计算结果记为一条样本,每条样本中包括子图特征、图表示学习算法的超参数以及结果指标。
本发明提出的结合可解释性的图表示学习的超参数优化方法,其优点是:
本发明的结合可解释性的图表示学***衡了超参数优化方法的整体性能和效率。
附图说明
图1为本发明提出的结合可解释性的图表示学习超参数优化方法的流程图。
图2为根据本发明实施例的采样器的部分结构示意图。
图3为根据本发明实施例的去相关带权回归器的部分结构示意图。
具体实施方式
本发明提出的考虑可解释性的图表示学习过程中确定最优超参数的方法,包括以下步骤:
(1)从待确定最优超参数的原图中采样多个子图;
(2)根据具有可解释性的特征,在子图上执行图表示学习算法,保留图表示学习算法的结果样本;
(3)从样本中消除图表示学习算法的超参数与子图特征之间的相关度;
研究超参数与图特征的不同取值对图表示学习算法性能的影响,而超参数与图特征之间不可避免会存在某些相关性,使得超参数对图表示学习算法性能的影响不光取决于自身取值,同时还取决于其它图特征以及其它未知隐含因素的取值。这就极大影响了对最优超参数取值的估计与判断。为了排除其它因素对超参数与算法性能关系的干扰,赋予不同数据样本不同的权重,以此将非超参数因素的影响去掉,从而达到去相关性的目的,在满足一定条件下,权重赋予机制能够使得超参数对算法性能的影响最大化地取决于超参数本身的取值,从而更准确地学习出不同超参数对算法性能影响的重要性以更有可解释性地对超参数优化顺序进行选择。
设定循环次数K,初始化时设循环次数k为1;
设定有n个样本,其中每个样本包含p1个图表示学习算法的超参数和p2个子图特征,用一个n行(p1+p2)列的矩阵X表示超参数和图特征数据,X=[A,B],其中A为一个n行p1列的超参数矩阵,B为一个n行p2列的子图特征矩阵;
利用以下损失方程,求解样本权重γ,使得:
用相关度LDeco表示上述损失方程:
由上式得到,当p1和p2固定且样本数n足够大的时候,一定存在一个非负取值的γ,使得A中的超参数互相之间的影响趋近于无,即:
其中,λ1和λ2是人为设置的大常数,c={γ:|γi|≤c},c为常数,本发明的一个实施例中,c的取值为1000;
(4)确定原图上的图表示学习算法的最优超参数,包括以下步骤:
(4-1)以步骤(2)的图表示学习算法的超参数和子图特征作为多层感知机的输入,多层感知机的输出为图表示学习算法的性能结果;
(4-2)利用步骤(3)的样本权重,对步骤(4-1)的多层感知机进行训练,预测图表示学习算法的性能。设定多层感知机的优化目标如下:
其中,Yi表示第i个样本Xi中的超参数和图特征下的图表示学习算法性能,Φ是多层感知机的拟合函数,Θ是多层感知机自身的参数,训练过程中得到多层感知机全连接层的权重;
(4-3)根据步骤(4-2)所有超参数在多层感知机中全连接层的权重绝对值之和,利用下式计算该超参数对于图表示学习算法性能的重要度:
(4-4)对超参数进行重要性降序排序,依次对每个超参数进行优化,优化的过程中固定其他超参数的取值,优化的过程为对当前超参数在取值范围内进行均匀采样,将超参数的取值和原图的特征作为多层感知机的输入,多层感知机的输出为预测的图表示学习算法性能,取与图表示学习算法性能最高的值相对应的超参数作为待运行超参数取值;
(4-5)以步骤(4-4)的待运行超参数取值,在待确定最优超参数的原图上执行图表示学习算法,得到第k轮图表示学习算法性能,将原图的特征、使用的超参数以及第k轮图表示学习算法的结果作为一个新样本加入步骤(3)的n个样本中;
(4-6)对循环次数k进行判断,若k<K,则令k=k+1,返回步骤(3),若k≥K,则将K轮超参数中与图表示学习算法性能Yi的最大值相对应的超参数作为最优超参数,实现考虑可解释性的图表示学习过程中最优超参数的确定。
本发明方法还可以根据多层感知机中全连接层的权重绝对值之和,计算每个超参数对于图表示学习算法性能的重要度,根据影响度指导人工的后续调优。
本发明的上述确定最优超参数的方法中,从待确定最优超参数的原图中采样多个子图的方法为:根据待确定最优超参数的原图中给定的多类型节点标签(如社交网络的用户信息),从同一类型节点中确定子图的起点,每个时刻从当前节点随机跳动到一个临近节点,连续多个时刻的随机跳动,多个节点构成一条路径。选取多个不同类型节点作为起点得到多条路径,多条路径上的所有节点集合的并集即为采样的节点集合,原图上由该采样节点集合诱导出一个子图;重复本步骤多次,得到多个子图。也可以根据区域检测方法,从多个区域的一个区域中确定子图的起点,每个时刻从当前节点随机跳到一个临近节点,连续多个时刻的随机跳动,多个节点构成一条路径。选取多个区域中的节点作为起点得到多条路径,多条路径上的所有节点集合的并集即为采样的节点集合,原图上由该采样节点集合诱导出一个子图;重复本步骤多次,得到多个子图。
上述方法中,根据具有可解释性的特征,在子图上执行图表示学习算法,保留图表示学习算法的结果样本,包括以下步骤:
(1)根据图论理论,从原图和多个子图中提取特征,提取的特征分别包括原图和多个子图的点集大小、边集大小、互有链接的节点三元组数目和连通块的数目;
(2)根据原图和多个子图的特征,利用以下堪培拉距离公式,分别计算多个子图与原图之间的相似度;
(3)按相似度大小分配在子图上运行图表示学习算法的次数,相似度越高,分配的计算次数越多,按分配的计算次数,分别在多个子图上执行图表示学习算法,每次执行时随机选取一组图表示学习算法的超参数,每个超参数设定一个取值范围,将每次图表示学习算法的计算结果记为一条样本,每条样本中包括子图特征、图表示学习算法的超参数以及结果指标。
下面结合附图,进一步介绍本发明内容:
参照附图描述根据本发明实施例提出的结合可解释性的图表示学习超参数优化方法及装置,首先将参照附图描述根据本发明实施例提出的结合可解释性的图表示学习超参数优化方法。
图1是本发明一个实施例的结合可解释性的图表示学习超参数优化方法的流程图。
如图1所示,该结合可解释性的图表示学习超参数优化方法包括以下步骤:
在步骤S101中,采样若干小规模的子图。
可以理解的是,如图2所示,本发明实施例输入一个图的点和边信息,以及节点的标签等信息,对于原图执行若干次截断随机游走得到采样的点集,原图由此点集诱导出的子图即是采样得到的子图。随机游走的起点由不同标签的节点或者社区检测方法检测出的不同社区来决定。
在步骤S102中,根据完全可解释的图特征,分配有限的算力以及用于后续样本权重。
在本发明的一个实施例中,根据完全可解释的图特征,包括通过可解释的图论概念得到的,提取时间复杂度为线性的特征。
具体而言,为了得到完全可解释的图特征,本发明实施例采用了一些线性计算复杂度的图论概念,例如点集大小、边集大小、图中三角形的个数、全局聚类系数、最大总度数、连通块个数等,保证了计算的高效性。对于每个子图和原图分别计算图特征,利用堪培拉距离来计算图之间的相似度,根据相似度动态分配计算次数。
在步骤S103中,对不同的超参数和图特征做去相关化。
进一步地,在本发明的一个实施例中,对不同的超参数和图特征做去相关化,包括:采用采样重测的方式,考虑超参数的一阶距(均值),以某一超参数与所有其他超参数和图特征之间的相关性作为损失,最后得到一个去相关之后的样本权重。
在步骤S104中,根据去相关化后的子图和部分原图计算结果,优化原图的图表示学习超参数。
进一步地,在本发明的一个实施例中,根据去相关化后的子图和部分原图计算结果,优化原图的图表示学习超参数,包括:利用子图和原图之前的图表示算法运行结果,训练期望性能预测网络,对本轮试验采用的超参数进行调整,通过多轮试验来优化图表示学习的超参数。
可以理解的是,如图3所示,以超参数和图特征作为输入,利用多层感知机对于最终的性能来进行预测,从而调整下一轮的超参数。调整的策略是按照超参数在多层感知机的权重来进行降序排序,每次固定其他超参数,对当前超参数进行细调。
下面将以用图卷积神经网络学习社交网络好友推荐为例对结合可解释性的图表示学习超参数优化方法进行进一步阐述,具体包括:
(1)在社交网络中快速检测出若干社区,以不同社区作为起点采样若干个子图。
(2)图的可解释特征在社交网络的意义为,互有好友关系的三人组、最多好友个数等。
(3)去相关后的预测网络能对图卷积神经网络的调优起到很大的指导作用,根据其权重矩阵,可以看出最先调节了Dropout的值,接着是学习率,整体的可解释性大大提升。
综上,(1)本发明实施例基于子图采样,保证了算法性能与计算效率之间的平衡。(2)本发明实施例通过完全可解释的图特征,以及超参数之间的去相关化,增强了***的可解释性。
根据本发明实施例提出的结合可解释性的图表示学习超参数优化方法,通过利用子图和原图的可迁移知识,保持了很高的性能;通过采用完全可解释的图特征,在超参数优化过程中对不同的超参数和图特征做去相关处理,使得整体方法具备很高的可解释性。
其次参照附图描述根据本发明实施例提出的结合可解释性的图表示学习超参数优化装置。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (5)
1.一种考虑可解释性的图表示学习过程中确定最优超参数的方法,其特征在于该方法包括以下步骤:
(1)从待确定最优超参数的原图中采样多个子图;
(2)根据具有可解释性的特征,在子图上执行图表示学习算法,保留图表示学习算法的结果样本;
(3)从样本中消除图表示学习算法的超参数与子图特征之间的相关度;
设定循环次数K,初始化时设循环次数k为1;
设定有n个样本,其中每个样本包含p1个图表示学习算法的超参数和p2个子图特征,用一个n行(p1+p2)列的矩阵X表示超参数和图特征数据,X=[A,B],其中A为一个n行p1列的超参数矩阵,B为一个n行p2列的子图特征矩阵;
利用以下损失方程,求解样本权重γ,使得:
用相关度LDeco表示上述损失方程:
(4)确定原图上的图表示学习算法的最优超参数,包括以下步骤:
(4-1)以步骤(2)的图表示学习算法的超参数和子图特征作为多层感知机的输入,多层感知机的输出为图表示学习算法的性能结果;
(4-2)利用步骤(3)的样本权重,对步骤(4-1)的多层感知机进行训练,设定多层感知机的优化目标如下:
其中,Yi表示第i个样本Xi中的超参数和图特征下的图表示学习算法性能,Φ是多层感知机的拟合函数,Θ是多层感知机自身的参数,训练过程中得到多层感知机全连接层的权重;
(4-3)根据步骤(4-2)所有超参数在多层感知机中全连接层的权重绝对值之和,利用下式计算该超参数对于图表示学习算法性能的重要度:
(4-4)对超参数进行重要性降序排序,依次对每个超参数进行优化,优化的过程中固定其他超参数的取值,优化的过程为对当前超参数在取值范围内进行均匀采样,将超参数的取值和原图的特征作为多层感知机的输入,多层感知机的输出为预测的图表示学习算法性能,取与图表示学习算法性能最高的值相对应的超参数作为待运行超参数取值;
(4-5)以步骤(4-4)的待运行超参数取值,在待确定最优超参数的原图上执行图表示学习算法,得到第k轮图表示学习算法性能,将原图的特征、使用的超参数以及第k轮图表示学习算法的结果作为一个新样本加入步骤(3)的n个样本中;
(4-6)对循环次数k进行判断,若k<K,则令k=k+1,返回步骤(3),若k≥K,则将K轮超参数中与图表示学习算法性能Yi的最大值相对应的超参数作为最优超参数,实现考虑可解释性的图表示学习过程中最优超参数的确定。
2.如权利要求1所述的确定最优超参数的方法,其特征在于还包括根据多层感知机中全连接层的权重绝对值之和,计算每个超参数对于图表示学习算法性能的重要度,根据影响度指导人工的后续调优。
3.如权利要求1所述的确定最优超参数的方法,其特征在于从待确定最优超参数的原图中采样多个子图的方法为:根据待确定最优超参数的原图中给定的多类型节点标签,从同一类型节点中确定子图的起点,每个时刻从当前节点随机跳动到一个临近节点,连续多个时刻的随机跳动,多个节点构成一条路径, 选取多个不同类型节点作为起点得到多条路径,多条路径上的所有节点集合的并集即为采样的节点集合,原图上由该采样节点集合诱导出一个子图;重复本步骤多次,得到多个子图。
4.如权利要求1所述的确定最优超参数的方法,其特征在于所述的从待确定最优超参数的原图中采样多个子图的方法为:根据区域检测方法,从多个区域的一个区域中确定子图的起点,每个时刻从当前节点随机跳到一个临近节点,连续多个时刻的随机跳动,多个节点构成一条路径, 选取多个区域中的节点作为起点得到多条路径,多条路径上的所有节点集合的并集即为采样的节点集合,原图上由该采样节点集合诱导出一个子图;重复本步骤多次,得到多个子图。
5.如权利要求3或4所述的确定最优超参数的方法,其特征在于所述的根据具有可解释性的特征,在子图上执行图表示学习算法,保留图表示学习算法的结果样本;包括以下步骤:
(1)根据图论理论,从原图和多个子图中提取特征,提取的特征分别包括原图和多个子图的点集大小、边集大小、互有链接的节点三元组数目和连通块的数目;
(2)根据原图和多个子图的特征,利用以下堪培拉距离公式,分别计算多个子图与原图之间的相似度;
(3)按相似度大小分配在子图上运行图表示学习算法的次数,按分配的计算次数,分别在多个子图上执行图表示学习算法,每次执行时随机选取一组图表示学习算法的超参数,每个超参数设定一个取值范围,将每次图表示学习算法的计算结果记为一条样本,每条样本中包括子图特征、图表示学习算法的超参数以及结果指标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010689045.XA CN111931416B (zh) | 2020-07-16 | 2020-07-16 | 一种结合可解释性的图表示学习的超参数优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010689045.XA CN111931416B (zh) | 2020-07-16 | 2020-07-16 | 一种结合可解释性的图表示学习的超参数优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111931416A CN111931416A (zh) | 2020-11-13 |
CN111931416B true CN111931416B (zh) | 2022-09-16 |
Family
ID=73313219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010689045.XA Active CN111931416B (zh) | 2020-07-16 | 2020-07-16 | 一种结合可解释性的图表示学习的超参数优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111931416B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110502669A (zh) * | 2019-07-12 | 2019-11-26 | 中国人民解放军战略支援部队信息工程大学 | 基于n边dfs子图的轻量级无监督图表示学习方法及装置 |
CN110889001A (zh) * | 2019-11-25 | 2020-03-17 | 浙江财经大学 | 一种基于图表征学习的大图采样可视化方法 |
CN110991523A (zh) * | 2019-11-29 | 2020-04-10 | 西安交通大学 | 一种面向无人驾驶车辆检测算法性能的可解释性评估方法 |
-
2020
- 2020-07-16 CN CN202010689045.XA patent/CN111931416B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110502669A (zh) * | 2019-07-12 | 2019-11-26 | 中国人民解放军战略支援部队信息工程大学 | 基于n边dfs子图的轻量级无监督图表示学习方法及装置 |
CN110889001A (zh) * | 2019-11-25 | 2020-03-17 | 浙江财经大学 | 一种基于图表征学习的大图采样可视化方法 |
CN110991523A (zh) * | 2019-11-29 | 2020-04-10 | 西安交通大学 | 一种面向无人驾驶车辆检测算法性能的可解释性评估方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111931416A (zh) | 2020-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110675623B (zh) | 基于混合深度学习的短时交通流量预测方法、***、装置 | |
WO2022083624A1 (zh) | 一种模型的获取方法及设备 | |
CN111967594A (zh) | 一种神经网络压缩方法、装置、设备及存储介质 | |
CN108629373B (zh) | 一种图像分类方法、***、设备及计算机可读存储介质 | |
Zhong et al. | Where to Prune: Using LSTM to Guide End-to-end Pruning. | |
Jing et al. | AutoRSISC: Automatic design of neural architecture for remote sensing image scene classification | |
CN116452904B (zh) | 图像美学质量确定方法 | |
CN113988263A (zh) | 工业物联网边缘设备中基于知识蒸馏的空时预测方法 | |
CN111582091A (zh) | 基于多分支卷积神经网络的行人识别方法 | |
CN113807176A (zh) | 一种基于多知识融合的小样本视频行为识别方法 | |
CN112200391A (zh) | 基于k-近邻互信息特征简化的配电网边缘侧负荷预测方法 | |
CN110222824B (zh) | 智能算法模型自主生成及进化方法、***、装置 | |
CN112486467B (zh) | 一种双重交互关系和注意力机制的交互式服务推荐方法 | |
CN114708637A (zh) | 一种基于元学习的人脸动作单元检测方法 | |
Yan et al. | A novel clustering algorithm based on fitness proportionate sharing | |
CN113282747A (zh) | 一种基于自动机器学习算法选择的文本分类方法 | |
CN117421571A (zh) | 一种基于配电网的拓扑实时辨识方法及*** | |
CN111931416B (zh) | 一种结合可解释性的图表示学习的超参数优化方法 | |
CN116882584A (zh) | 一种航班延误预测方法及*** | |
CN116644798A (zh) | 基于多教师的知识蒸馏方法、装置、设备及存储介质 | |
Yamada et al. | Weight Features for Predicting Future Model Performance of Deep Neural Networks. | |
CN114067155B (zh) | 基于元学习的图像分类方法、装置、产品及存储介质 | |
CN113032612B (zh) | 一种多目标图像检索模型的构建方法及检索方法和装置 | |
CN115019342A (zh) | 一种基于类关系推理的濒危动物目标检测方法 | |
JP2022175851A (ja) | 情報処理装置、情報処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |