CN113537400A - 一种基于分支神经网络的边缘计算节点的分配与退出方法 - Google Patents

一种基于分支神经网络的边缘计算节点的分配与退出方法 Download PDF

Info

Publication number
CN113537400A
CN113537400A CN202110920295.4A CN202110920295A CN113537400A CN 113537400 A CN113537400 A CN 113537400A CN 202110920295 A CN202110920295 A CN 202110920295A CN 113537400 A CN113537400 A CN 113537400A
Authority
CN
China
Prior art keywords
model
data
neural network
edge
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110920295.4A
Other languages
English (en)
Other versions
CN113537400B (zh
Inventor
琚小明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Jierui Power Technology Co ltd
Original Assignee
Zhejiang Jierui Power Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Jierui Power Technology Co ltd filed Critical Zhejiang Jierui Power Technology Co ltd
Priority to CN202110920295.4A priority Critical patent/CN113537400B/zh
Publication of CN113537400A publication Critical patent/CN113537400A/zh
Application granted granted Critical
Publication of CN113537400B publication Critical patent/CN113537400B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioethics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于分支神经网络的边缘计算节点的分配与退出方法,为提高边缘计算下人工智能模型的安全性和加快模型的计算效率,该方法主要分为三个步骤,神经网络模型训练、分支神经网络模型在边缘计算节点的部署和模型退出点的选择,首先搭建神经网络模型结合模型精馏算法实现对模型的训练;其次,在为训练好的分类模型分配边缘计算节点过程中,利用最小延迟算法选择合适的边缘计算节点;最后在模型推断阶段选择合适的模型退出点减小边缘计算节点的计算量,提高分类网络预测的精度准确性,最终达到提高神经网络模型的安全性和加快模型的计算效率的效果,实现防御对抗样本并提高模型的计算效率的目的。

Description

一种基于分支神经网络的边缘计算节点的分配与退出方法
技术领域
本发明涉及基于特定计算模型的计算机***的技术领域,具体地说是一种基于分支神经网络的边缘计算节点的分配与退出方法,应用于边缘计算框架下对神经网络模型安全的加强、对对抗图像样本的防御以及提高模型的计算效率。
背景技术
边缘计算模型是一种新兴的技术,其脆弱性尚未得到充分的探索。少数针对边缘计算攻击的研究主要集中在对传感器网络可能的威胁上,还包括一些手机端和PC端。
边缘计算下出现的一种安全问题,对输入数据的验证不足可能导致恶意注入攻击。这种恶意注入数据是边缘计算比较常见的一种攻击方法,攻击者可以通过注入恶意输入,导致服务提供者代表攻击者执行攻击操作。例如攻击者可能会向下层(通信或边缘设备层)添加未经授权的组件,这些层随后会将恶意输入注入服务器,之后攻击者就可以窃取数据、破坏数据库完整性或绕过身份验证。
针对物联网***中使用的机器学习方法,可以发起两类攻击:因果攻击和探索性攻击,在因果攻击中,攻击者通过操纵训练数据集改变训练过程,而在探索性攻击中,攻击者利用漏洞获取数据的信息,但不改变训练过程。
边缘计算框架下,图像识别存在的安全性问题不容忽视,攻击者通过产生对抗样本对模型进行攻击,对抗样本的特点是寻找尽量小的扰动,而且这些扰动对于观察者来说是不可察觉的。对抗样本的这些特性,给卷积神经网络的使用带来巨大的安全隐患,边缘计算作为一种新型计算模式,其核心原则之一是将计算能力推向边缘,得到了研究人员广泛关注。在边缘计算场景下,将DNN模型部署在设备周围的边缘计算节点上。相对于到云服务的距离,边缘计算节点到数据源近得多,所以低时延特性能轻松实现。但由于目前的边缘计算设备处理能力有限,单个边缘计算节点可能无法很好完成复杂网络模型的推断任务,因此需要多个边缘计算节点共同部署DNN模型。因此在边缘计算场景下部署DNN的主要挑战是如何挑选出合适的计算节点来部署模型,要考虑到神经网络模型的切分、模型的计算需求及边缘计算节点的网络状况,以此来优化多个计算节点协同运行神经网络模型时的延迟。
本文提出一种基于分支神经网络的边缘计算节点的分配与退出方法,用于对抗样本图像的防御,提高神经网络模型的安全性并加快模型的计算效率,具体是一种基于分支神经网络的边缘计算节点的分配与退出方法。
发明内容
本发明的目的是根据现有技术的不足,提供提出一种基于分支神经网络的边缘计算节点的分配与退出方法,用于对对抗样本图像的防御,提高神经网络模型的安全性。
为实现上述目的,本发明采取的技术方案为:设计一种基于分支神经网络的边缘计算节点的分配与退出方法,其中包括三个大模块:神经网络模型训练、分支神经网络模型在边缘计算节点的部署和模型退出点的选择。
其中,所述的神经网络模型训练,用于基于已有的图片样本的数据,训练神经网络模型,具体包括以下步骤:
(1)数据预处理:对采集的图片数据进行清洗,去除冗余杂糅数据以及归一化操作,利用DCT算法对已经得到的数据进行特征聚集处理,得到比较完备的数据集;
(2)数据加密:利用全同态加密方法对数据预处理之后的数据集进行加密转化为密文;
(3)模型的搭建:搭建具有多个分支节点的神经网络模型;
(4)模型精馏:对每个输出的分支节点之后搭建精馏网络进一步分类;
(5)模型训练:对已经处理过的密文数据在搭建的精馏模型网络下进行训练得到分类网络。
其中,所述的分支神经网络模型在边缘计算节点的部署,具体包括以下步骤:
(1)确定分布式的神经网络延迟影响指标:数据源到边缘节点之间的距离、网络状况;
(2)确定选择分支网络模型的边缘计算节点的方法和计算延迟函数。
其中,所述的模型退出点的选择,具体包括以下步骤:
(1)数据预处理:对采集的图片数据进行清洗,去除冗余杂糅数据以及归一化操作,利用DCT算法对已经得到的数据进行降噪处理,得到比较完备的数据集;
(2)数据加密:利用全同态加密方法对数据预处理之后的数据集进行加密转化为密文;
(3)模型退出点选择与预测:将所得到的密文数据放进神经网络模型进行预测,设置延迟阈值和预测百分比阈值,当大于该阈值时模型预测提前中断。
其中,所述的神经网络模型训练中数据预处理方法,具体包括以下步骤:
(1)数据归一化:
Figure BDA0003207153110000041
(其中μ是图像的均值,X表示图像矩阵,
Figure BDA0003207153110000042
(σ表示标准方差、N表示图像X的像素数量);
(2)根据训练的数据信息,采样值序列是x,y的空间域进行DCT变换,频率域采样值序列分别是x',y',设p(x,y)为数字图像矩阵N×N,则:
Figure BDA0003207153110000043
其中,
Figure BDA0003207153110000044
其中,所述的神经网络模型训练中数据加密方法,具体包括以下步骤:
(1)对所得到的频域数据进行PCA变换对数据进行降维;
(2)对降维后的数据进行Gentry算法全同态加密得到对应数据的密文。
其中,所述的神经网络模型训练中模型精馏方法,具体包括以下步骤:
(1)根据原始训练样本的密文数据X和标签Y训练一个初始的深度神经网络,得到概率分布F(X);
(2)在第一步的输出结果F(X)作为新的标签训练一个架构相同、蒸馏温度T也相同的蒸馏网络;
(3)利用原始训练样本的密文数据X再次输入到蒸馏网路中,得到新的概率分布Fd(X),再利用整个网络来进行分类或预测。
其中,所述在分支神经网络模型在边缘计算节点的部署过程中,分布式的神经网络延迟影响指标选择,具体包括以下步骤:
(1)第一个节点选择边缘节点之间的距离di,网络传输状况wi,边缘节点的计算能力ci
(2)进一步将边缘节点距离传输状况综合考虑得到,距离传输ai=60%*wi+40%*di
其中,所述在分支神经网络模型在边缘计算节点的部署过程中,确定选择分支网络模型的边缘计算节点的方法和计算延迟函数,具体包括以下步骤:
(1)将距离传输指标ai作为边缘计算节点间的权重,构建图模型;
(2)分支神经网络节点个数n,神经网络模型的主干网络有1个,边缘计算节点m个,利用函数
Figure BDA0003207153110000061
对costi(i=1,2,3...m)进行升序排列,获得前n+1个节点,获得总的开销
Figure BDA0003207153110000062
其中,所述在模型退出点选择与预测的部署过程中,所得到的密文数据放进神经网络模型进行预测,设置延迟阈值和预测百分比阈值,当大于该阈值时模型预测提前中断,具体包括以下步骤:
(1)已部署的DNN模型网络拓扑,在模型预测阶段设置一下参数,latency:需推断任务的延迟要求;Bi:第i个边缘节点距数据源延迟;
Figure BDA0003207153110000063
推断任务从第一个到第i个边缘计算节点上推断所用延迟。假设已经计算到的边缘计算节点i,在计算过程中样本预测的分类为m,出现m的次数为fre;
(2)假设已经计算到第i(其中i>=10)个边缘计算节点,
Figure BDA0003207153110000064
并且
Figure BDA0003207153110000065
则停止模型的预测,并返回模型的预测结果m和对应的退出点N。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其它的附图。
图1是本发明机制中一种基于分支神经网络的边缘计算节点的分配与退出方法的总体框架图;
图2是本发明机制中数据预处理流程图;
图3是本发明机制中分支神经网络模型搭建的流程图;
图4是本发明机制中精馏网络模型流程图;
图5分支神经网络模型在边缘计算节点部署方法的流程图;
图6是本发明机制中模型退出点的选择的流程图;
图7是本发明机制中部署在边缘计算节点的模型退出点框架图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供了一种基于分支神经网络的边缘计算节点的分配与退出方法,三个主要的部分:神经网络模型训练、分支神经网络模型在边缘计算节点的部署和模型退出点的选择。
以下针对本发明的模块和实现策略进行阐述。
其中,参考说明书图1以及说明书附图3中所示,神经网络模型训练模块中,用于基于已有的图片样本的数据,训练神经网络模型,具体包括以下步骤:
(1)数据预处理:对采集的图片数据进行清洗,去除冗余杂糅数据以及归一化操作,利用DCT算法对已经得到的数据进行特征聚集处理,得到比较完备的数据集;
(2)数据加密:利用全同态加密方法对数据预处理之后的数据集进行加密转化为密文;
(3)模型的搭建:搭建具有多个分支节点的神经网络模型;
(4)模型精馏:对每个输出的分支节点之后搭建精馏网络进一步分类;
(5)模型训练:对已经处理过的密文数据在搭建的精馏模型网络下进行训练得到分类网络。
其中,所述的分支神经网络模型在边缘计算节点的部署模块,具体包括以下步骤:
(1)确定分布式的神经网络延迟影响指标:数据源到边缘节点之间的距离、网络状况等;
(2)确定选择分支网络模型的边缘计算节点的方法和计算延迟函数。
参考说明书附图6所示,模型退出点的选择模块,具体包括以下步骤:
(1)数据预处理:对采集的图片数据进行清洗,去除冗余杂糅数据以及归一化操作,利用DCT算法对已经得到的数据进行降噪处理,得到比较完备的数据集;
(2)数据加密:利用全同态加密方法对数据预处理之后的数据集进行加密转化为密文;
(3)模型退出点选择与预测:将所得到的密文数据放进神经网络模型进行预测,设置延迟阈值和预测百分比阈值,当大于该阈值时模型预测提前中断。
其中,如说明书附图2所示,神经网络模型训练中数据预处理方法,具体包括以下步骤:
(1)数据归一化:
Figure BDA0003207153110000091
(其中μ是图像的均值,X表示图像矩阵,
Figure BDA0003207153110000092
(σ表示标准方差、N表示图像X的像素数量);
(2)根据训练的数据信息,采样值序列是x,y的空间域进行DCT变换,频率域采样值序列分别是x',y',设p(x,y)为数字图像矩阵N×N,则:
Figure BDA0003207153110000093
其中,
Figure BDA0003207153110000094
其中,所述的神经网络模型训练中数据加密方法,具体包括以下步骤:
(1)对所得到的频域数据进行PCA变换对数据进行降维;
(2)对降维后的数据进行Gentry算法全同态加密得到对应数据的密文。
参考说明书附图4所示神经网络模型训练中模型精馏方法,具体包括以下步骤:
(1)根据原始训练样本的密文数据X和标签Y训练一个初始的深度神经网络,得到概率分布F(X);
(2)在第一步的输出结果F(X)作为新的标签训练一个架构相同、蒸馏温度T也相同的蒸馏网络;
(3)利用原始训练样本的密文数据X再次输入到蒸馏网路中,得到新的概率分布Fd(X),再利用整个网络来进行分类或预测。
其中所述在分支神经网络模型在边缘计算节点的部署过程中,分布式的神经网络延迟影响指标选择,具体包括以下步骤:
(1)第一个节点选择边缘节点之间的距离di,网络传输状况wi,边缘节点的计算能力ci
(2)进一步将边缘节点距离传输状况综合考虑得到,距离传输ai=60%*wi+40%*di
其中,参考说明书附图5以及说明书附图7所示,在分支神经网络模型在边缘计算节点的部署过程中,确定选择分支网络模型的边缘计算节点的方法和计算延迟函数,具体包括以下步骤:
(1)将距离传输指标ai作为边缘计算节点间的权重,构建图模型;
(2)分支神经网络节点个数N-1,神经网络模型的主干网络有1个,边缘计算节点m个,利用函数
Figure BDA0003207153110000101
对costi(i=1,2,3...m)进行升序排列,获得前N个节点,获得总的开销
Figure BDA0003207153110000102
参考说明书附图6所示,在模型退出点选择与预测的部署过程中,所得到的密文数据放进神经网络模型进行预测,设置延迟阈值和预测百分比阈值,当大于该阈值时模型预测提前中断,具体包括以下步骤:
(1)已部署的DNN模型网络拓扑,在模型预测阶段设置一下参数,latency:需推断任务的延迟要求;Bi:第i个边缘节点距数据源延迟;
Figure BDA0003207153110000111
推断任务从第一个到第i个边缘计算节点上推断所用延迟。假设已经计算到的边缘计算节点i,在计算过程中样本预测的分类为m,出现m的次数为fre;
(2)假设已经计算到第i(其中i>=10)个边缘计算节点,
Figure BDA0003207153110000112
并且
Figure BDA0003207153110000113
则停止模型的预测,并返回模型的预测结果m和对应的退出点N。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未违背本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包括在本发明的保护范围之内。

Claims (10)

1.一种基于分支神经网络的边缘计算节点的分配与退出方法,其特征在于,该方法包括以下具体步骤:
S1、搭建分支神经网络模型结合模型精馏算法对模型进行训练;
S2、为训练好的分类模型分配边缘计算节点过程中,利用最小延迟算法选择合适的边缘计算节点;
S3、模型推断阶段选择合适的模型退出点减小边缘计算节点的计算量。
2.根据权利要求1所述一种基于分支神经网络的边缘计算节点的分配与退出方法,其特征在于,所述S1中的搭建分支神经网络模型结合模型精馏算法对模型进行训练具体包括以下步骤:
S1、数据预处理:对采集的图片数据进行清洗,去除冗余杂糅数据以及归一化操作,利用DCT算法对已经得到的数据进行特征聚集处理,得到比较完备的数据集;
S2、数据加密:利用全同态加密方法对数据预处理之后的数据集进行加密转化为密文;
S3、模型的搭建:搭建具有多个分支节点的神经网络模型;
S4、模型精馏:对每个输出的分支节点之后搭建精馏网络进一步分类;
S5、模型训练:对已经处理过的密文数据在搭建的精馏模型网络下进行训练得到分类网络。
3.根据权利要求1所述的一种基于分支神经网络的边缘计算节点的分配与退出方法,其特征在于,所述S2中的为训练好的分类模型分配边缘计算节点具体包括以下步骤:
S1、确定分布式的神经网络延迟影响指标:数据源到边缘节点之间的距离、网络状况;
S2、确定选择分支网络模型的边缘计算节点的方法和计算延迟函数。
4.根据权利要求1所述的一种基于分支神经网络的边缘计算节点的分配与退出方法,其特征在于,所述S3中的模型推断阶段选择合适的模型退出点减小边缘计算节点的计算量,提高分类网络预测的精度准确性,具体包括以下步骤:
S1、数据预处理:对采集的图片数据进行清洗,去除冗余杂糅数据以及归一化操作,利用DCT算法对已经得到的数据进行降噪处理,得到比较完备的数据集;
S2、数据加密:利用全同态加密方法对数据预处理之后的数据集进行加密转化为密文;
S3、模型退出点选择与预测:将所得到的密文数据放进神经网络模型进行预测,设置延迟阈值和预测百分比阈值,当大于该阈值时模型预测提前中断。
5.根据权利要求2所述一种基于分支神经网络的边缘计算节点的分配与退出方法,其特征在于,所述S1数据预处理,具体包括以下步骤:
S1、数据归一化:
Figure RE-FDA0003261322010000021
其中μ是图像的均值,X表示图像矩阵,
Figure RE-FDA0003261322010000031
其中σ表示标准方差、N表示图像X的像素数量;
S2、根据训练的数据信息,采样值序列是x,y的空间域进行DCT变换,频率域采样值序列分别是x',y',设p(x,y)为数字图像矩阵N×N,
Figure RE-FDA0003261322010000032
则:其中,
Figure RE-FDA0003261322010000033
6.根据权利要求2所述一种基于分支神经网络的边缘计算节点的分配与退出方法,其特征在于,所述S2数据加密,具体包括以下步骤:
S1、对所得到的频域数据进行PCA变换对数据进行降维;
S2、对降维后的数据进行Gentry算法全同态加密得到对应数据的密文。
7.根据权利要求2所述一种基于分支神经网络的边缘计算节点的分配与退出方法,其特征在于,所述S4模型精馏,具体包括以下步骤:
S1、根据原始训练样本的密文数据X和标签Y训练一个初始的深度神经网络,得到概率分布F(X);
S2、在第一步的输出结果F(X)作为新的标签训练一个架构相同、蒸馏温度T也相同的蒸馏网络;
S3、利用原始训练样本的密文数据X再次输入到蒸馏网路中,得到新的概率分布Fd(X),再利用整个网络来进行分类或预测。
8.根据权利要求3所述一种基于分支神经网络的边缘计算节点的分配与退出方法,其特征在于,所述S1中确定分布式的神经网络延迟影响指标,具体包括以下步骤:
S1、第一个节点选择边缘节点之间的距离di,网络传输状况wi,边缘节点的计算能力ci
S2、将边缘节点距离传输状况综合考虑得到,距离传输ai=60%*wi+40%*di
9.根据权利要求3所述一种基于分支神经网络的边缘计算节点的分配与退出方法,其特征在于,所述S2中的确定选择分支网络模型的边缘计算节点的方法和计算延迟函数,具体包括以下步骤:
S1、将距离传输指标ai作为边缘计算节点间的权重,构建图模型;
S2、分支神经网络节点个数n,神经网络模型的主干网络有1个,边缘
Figure RE-FDA0003261322010000041
计算节点m个,利用函数,对costi(i=1,2,3...m)进行升序排列,获得前n+1个节点,获得总的开销
Figure RE-FDA0003261322010000042
10.根据权利要求4所述一种基于分支神经网络的边缘计算节点的分配与退出方法,其特征在于,所述S3中的将所得到的密文数据放进神经网络模型进行预测,设置延迟阈值和预测百分比阈值,当大于该阈值时模型预测提前中断,具体包括以下步骤:
S1、已部署的DNN模型网络拓扑,在模型预测阶段设置一下参数,
latency:需推断任务的延迟要求;
Bi:第i个边缘节点距数据源延迟;
Figure RE-FDA0003261322010000051
推断任务从第一个到第i个边缘计算节点上推断所用延迟,假设已经计算到的边缘计算节点i,在计算过程中样本预测的分类为m,出现m的次数为fre;
S2、假设已经计算到第i(其中i>=10)个边缘计算节点,
Figure RE-FDA0003261322010000052
并且
Figure RE-FDA0003261322010000053
则停止模型的预测,并返回模型的预测结果m和对应的退出点N。
CN202110920295.4A 2021-09-14 2021-09-14 一种基于分支神经网络的边缘计算节点的分配与退出方法 Active CN113537400B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110920295.4A CN113537400B (zh) 2021-09-14 2021-09-14 一种基于分支神经网络的边缘计算节点的分配与退出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110920295.4A CN113537400B (zh) 2021-09-14 2021-09-14 一种基于分支神经网络的边缘计算节点的分配与退出方法

Publications (2)

Publication Number Publication Date
CN113537400A true CN113537400A (zh) 2021-10-22
CN113537400B CN113537400B (zh) 2024-03-19

Family

ID=78090884

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110920295.4A Active CN113537400B (zh) 2021-09-14 2021-09-14 一种基于分支神经网络的边缘计算节点的分配与退出方法

Country Status (1)

Country Link
CN (1) CN113537400B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114282661A (zh) * 2021-12-23 2022-04-05 安谋科技(中国)有限公司 神经网络模型的运行方法、可读介质和电子设备
CN114970375A (zh) * 2022-07-29 2022-08-30 山东飞扬化工有限公司 一种基于实时采样数据的精馏过程监测方法
CN115906941A (zh) * 2022-11-16 2023-04-04 中国烟草总公司湖南省公司 神经网络自适应退出方法、装置、设备及可读存储介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100312736A1 (en) * 2009-06-05 2010-12-09 The Regents Of The University Of California Critical Branching Neural Computation Apparatus and Methods
CN109543829A (zh) * 2018-10-15 2019-03-29 华东计算技术研究所(中国电子科技集团公司第三十二研究所) 在终端和云端上混合部署深度学习神经网络的方法和***
US20190180168A1 (en) * 2019-02-04 2019-06-13 Intel Corporation Deep learning inference efficiency technology with early exit and speculative execution
CN110809260A (zh) * 2019-10-28 2020-02-18 国网上海市电力公司 一种用电信息采集***的本地数据处理方法
CN110941855A (zh) * 2019-11-26 2020-03-31 电子科技大学 一种AIoT场景下的神经网络模型窃取防御方法
CN111030861A (zh) * 2019-12-11 2020-04-17 中移物联网有限公司 一种边缘计算分布式模型训练方法、终端和网络侧设备
CN111310852A (zh) * 2020-03-08 2020-06-19 桂林电子科技大学 一种图像分类方法及***
CN111445026A (zh) * 2020-03-16 2020-07-24 东南大学 面向边缘智能应用的深度神经网络多路径推理加速方法
KR20200113744A (ko) * 2019-03-26 2020-10-07 한국전자통신연구원 심층 신경망 분할 방법 및 장치
CN111967594A (zh) * 2020-08-06 2020-11-20 苏州浪潮智能科技有限公司 一种神经网络压缩方法、装置、设备及存储介质
CN112329557A (zh) * 2020-10-21 2021-02-05 杭州趣链科技有限公司 模型的应用方法、装置、计算机设备及存储介质
CN113111889A (zh) * 2021-03-10 2021-07-13 国网浙江省电力有限公司宁波供电公司 用于边缘计算端的目标检测网络处理方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100312736A1 (en) * 2009-06-05 2010-12-09 The Regents Of The University Of California Critical Branching Neural Computation Apparatus and Methods
CN109543829A (zh) * 2018-10-15 2019-03-29 华东计算技术研究所(中国电子科技集团公司第三十二研究所) 在终端和云端上混合部署深度学习神经网络的方法和***
US20190180168A1 (en) * 2019-02-04 2019-06-13 Intel Corporation Deep learning inference efficiency technology with early exit and speculative execution
KR20200113744A (ko) * 2019-03-26 2020-10-07 한국전자통신연구원 심층 신경망 분할 방법 및 장치
CN110809260A (zh) * 2019-10-28 2020-02-18 国网上海市电力公司 一种用电信息采集***的本地数据处理方法
CN110941855A (zh) * 2019-11-26 2020-03-31 电子科技大学 一种AIoT场景下的神经网络模型窃取防御方法
CN111030861A (zh) * 2019-12-11 2020-04-17 中移物联网有限公司 一种边缘计算分布式模型训练方法、终端和网络侧设备
CN111310852A (zh) * 2020-03-08 2020-06-19 桂林电子科技大学 一种图像分类方法及***
CN111445026A (zh) * 2020-03-16 2020-07-24 东南大学 面向边缘智能应用的深度神经网络多路径推理加速方法
CN111967594A (zh) * 2020-08-06 2020-11-20 苏州浪潮智能科技有限公司 一种神经网络压缩方法、装置、设备及存储介质
CN112329557A (zh) * 2020-10-21 2021-02-05 杭州趣链科技有限公司 模型的应用方法、装置、计算机设备及存储介质
CN113111889A (zh) * 2021-03-10 2021-07-13 国网浙江省电力有限公司宁波供电公司 用于边缘计算端的目标检测网络处理方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
CHAO LI等: "DNN Inference Acceleration with Partitioning and Early Exiting in Edge Computing", WIRELESS ALGORITHMS, SYSTEMS, AND APPLICATIONS, pages 465 - 478 *
WEIJIN JIANG等: "Inference Acceleration Model of Branched Neural Network Based on Distributed Deployment in Fog Computing", WEB INFORMATION SYSTEMS AND APPLICATIONS, pages 503 - 512 *
卢冶等: "面向边缘计算的嵌入式FPGA卷积神经网络构建方法", 计算机研究与发展, no. 3, pages 107 - 118 *
樊琦等: "基于边缘计算的分支神经网络模型推断延迟优化", 计算机应用, vol. 40, no. 2, pages 342 - 346 *
班日华: "边缘计算环境下故障预测算法研究", 中国优秀硕士学位论文全文数据库 信息科技辑, no. 3, pages 138 - 271 *
陈洁等: "基于神经网络的边缘计算克隆节点识别方法", 通信技术, vol. 51, no. 10, pages 2449 - 2454 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114282661A (zh) * 2021-12-23 2022-04-05 安谋科技(中国)有限公司 神经网络模型的运行方法、可读介质和电子设备
CN114970375A (zh) * 2022-07-29 2022-08-30 山东飞扬化工有限公司 一种基于实时采样数据的精馏过程监测方法
CN114970375B (zh) * 2022-07-29 2022-11-04 山东飞扬化工有限公司 一种基于实时采样数据的精馏过程监测方法
CN115906941A (zh) * 2022-11-16 2023-04-04 中国烟草总公司湖南省公司 神经网络自适应退出方法、装置、设备及可读存储介质
CN115906941B (zh) * 2022-11-16 2023-10-03 中国烟草总公司湖南省公司 神经网络自适应退出方法、装置、设备及可读存储介质

Also Published As

Publication number Publication date
CN113537400B (zh) 2024-03-19

Similar Documents

Publication Publication Date Title
Qi et al. Privacy-preserving blockchain-based federated learning for traffic flow prediction
CN113537400A (zh) 一种基于分支神经网络的边缘计算节点的分配与退出方法
CN113408743B (zh) 联邦模型的生成方法、装置、电子设备和存储介质
WO2021244035A1 (en) Methods and apparatuses for defense against adversarial attacks on federated learning systems
Keserwani et al. Security enhancement by identifying attacks using machine learning for 5G network
CN112347495A (zh) 一种基于区块链的可信隐私智能服务计算***及方法
Krundyshev et al. Hybrid neural network framework for detection of cyber attacks at smart infrastructures
Tian et al. Adversarial attack and defense methods for neural network based state estimation in smart grid
CN112560059B (zh) 一种基于神经通路特征提取的垂直联邦下模型窃取防御方法
CN115208604B (zh) 一种ami网络入侵检测的方法、装置及介质
CN113225331A (zh) 基于图神经网络的主机入侵安全检测方法、***及装置
Li et al. Minipatch: Undermining DNN-based website fingerprinting with adversarial patches
Anitha Ruth et al. Secure data storage and intrusion detection in the cloud using MANN and dual encryption through various attacks
CN116595589A (zh) 基于秘密共享机制的分布式支持向量机训练方法及***
CN116737850A (zh) Apt实体关系预测的图神经网络模型训练方法
CN116233844A (zh) 一种基于信道预测的物理层设备身份认证方法及***
Liu et al. Defense against n-pixel attacks based on image reconstruction
CN116232656A (zh) 基于生成对抗网络的车联网入侵检测模型训练方法、检测方法及设备
Diamah et al. Network security evaluation method via attack graphs and fuzzy cognitive maps
CN114553489A (zh) 一种基于多目标优化算法的工业控制***安全防护方法及装置
Zhu et al. MHSDN: a hierarchical software defined network reliability framework design
Ishitaki et al. Performance evaluation of a neural network based intrusion detection system for tor networks considering different hidden units
Zhukabayeva et al. Network Attack Detection Using NeuroEvolution of Augmenting Topologies (NEAT) Algorithm
CN117077161B (zh) 基于动态规划求解的隐私保护深度模型构建方法与***
CN113836438B (zh) 用于帖子推荐的方法、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant