CN113435580A - 一种边缘环境下dnn应用计算卸载自适应中间件构建方法 - Google Patents

一种边缘环境下dnn应用计算卸载自适应中间件构建方法 Download PDF

Info

Publication number
CN113435580A
CN113435580A CN202110726143.0A CN202110726143A CN113435580A CN 113435580 A CN113435580 A CN 113435580A CN 202110726143 A CN202110726143 A CN 202110726143A CN 113435580 A CN113435580 A CN 113435580A
Authority
CN
China
Prior art keywords
layer
dnn
model
filter
execution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110726143.0A
Other languages
English (en)
Other versions
CN113435580B (zh
Inventor
陈星�
李鸣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202110726143.0A priority Critical patent/CN113435580B/zh
Publication of CN113435580A publication Critical patent/CN113435580A/zh
Application granted granted Critical
Publication of CN113435580B publication Critical patent/CN113435580B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/70Software maintenance or management
    • G06F8/72Code refactoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Neurology (AREA)
  • Stored Programmes (AREA)

Abstract

本发明涉及一种边缘环境下DNN应用计算卸载自适应中间件构建方法,包括以下步骤:步骤S1:构建卸载机制,所述卸载机制的输入为DNN源码,输出为可卸载的DNN目标代码;步骤S2:构建评估模型,所述评估模型的输入为环境配置和应用源码,输出为最优卸载方案。本发明通过实现支撑设计模式及评估模型的DNN应用自适应计算卸载中间件,它能够支持上述卸载设计模式,并利用代价评估模型决定应用程序的最优卸载方案以进行计算卸载。

Description

一种边缘环境下DNN应用计算卸载自适应中间件构建方法
技术领域
本发明涉及人工智能领域,特别是一种边缘环境下DNN应用计算卸载自适应中间件构建方法。
背景技术
人工智能领域的兴起促进移动设备的革新,智能个人助理(IntelligentPersonal Assistant,IPA)受可穿戴产品和智能家居的牵引而被广泛应用,例如,苹果的″Siri″助手等。这些智能移动应用程序的主要界面是使用语音或图像的方式通过设备与用户进行交互的。受该交互模式的影响,传统的基于文本的输入方式预计将被取代,因此IPA将发展为日后移动设备不可或缺的交互模式,改善IPA的性能从而提升用户体验感成为一种新兴的趋势。而为IPA应用程序处理语音和图像输入,需要高度复杂且计算精确的机器学习技术,其中最常见的类型为深度神经网络(″Deep Neural Network,DNN″)。由于深度神经网络能够实现语音辨识、图像归类、自动驾驶汽车和自然语言处理等高精度的任务,故它作为核心的机器学习技术备受智能应用的欢迎。当前许多主流公司,包括谷歌、微软和百度在内,都在其生产***的许多应用中使用DNN作为机器学习组件。
DNN模型在推理和训练时需部署在设备或机器上,在大多数上述场景中,经过训练的深度学习模型通常部署于移动设备上,也称为纯移动设备技术。然而,受限于移动设备上的计算和存储资源,基于DNN的应用程序进一步利用云服务器来提高计算和存储性能,从而全面部署高级深度模型,即纯云技术。因此,在这种被称为纯云的方法中,模型的输入应从本地设备发送到云中心,并将输出发送回设备,这样与DNN应用推理过程相关的计算可以利用云服务器进行扩展,从而被高效地执行。但是,在缓解计算压力的同时,纯云技术要求移动设备通过无线网络传输大量数据,如图像、音频和视频,这可能导致移动设备的延迟和能耗。不仅如此,在移动设备同时向云发送大量数据的情况下,在云中执行的所有计算均可能因为拥塞而影响响应时延,用户体验无法得到保证。
为解决上述问题,近期部分研究工作提出了一种在移动设备和云之间划分深度推理网络的思想,这是一种纯移动设备和纯云方法之间的折衷技术。他们的工作表明,推理网络的深层,即神经元间均存在连接的全连接层,往往有较大的计算量,这类计算密集型DNN层最好能在计算能力强的节点上执行以提升计算效率;而推理网络的浅层,即提取特征的卷积层则相反,往往有较大的数据传输量,因而更适合在移动设备上执行,避免传输至云服务器时带来的开销。为说明不同层类型的不同特点,图1展示了一个典型的深度神经网络模型AlexNet的结构,该模型作为图像识别应用的技术核心,已成为各类智能应用的基础并得到了广泛的应用。该图描述了模型在移动设备上运行时,各层的执行延时和传输数据量的情况,横轴表示层的命名,纵轴表示延时和数据大小,方块为各层延时,斜线为层间输出。由图可得,全连接层,即命名为fc开头的DNN层,层延时较大,说明计算量影响了层的执行,若该类DNN层在计算能力强的节点上执行,则可避免执行时延造成的总体响应瓶颈;同时,层间输出的数据大小也存在较大的差异。例如,在conv1-1和relu1-2之间传输的数据量非常大,而它们的层延时较小,因此最好在同一计算节点上执行这两个层。且通过经验可得,在这种模型中,深层DNN具有更小的数据传输量。因此,与直接将模型的输入发送到云端计算相比,这类方法可以减少不必要的传输延迟,且可根据计算延时决定是否通过云端扩展。综上所述,基于DNN的应用程序通过计算分区不但可以减少云上的拥塞,从而增加其吞吐量,而且可以权衡计算延时和传输延时,从而提升总体响应性能以改善用户体验。
然而,上述方法仍然要求执行程序,从而收集所有DNN层的执行数据,且现有方法仅将DNN模型分成两个部分,即一个分区点,分别部署在设备和云上。为进一步扩展有效地分区和部署能力,移动边缘计算(Moblie Edge Computing,MEC)为卸载DNN模型于本地设备、边缘节点和云中心提供了全新的机会,利用该环境优越的计算能力以及灵活的地理分布特性,从而更好地解决网络执行时时间和空间的权衡问题。此外,为避免程序不断地预先执行,可结合随机森林机器学习算法,利用轻量级的预测器以降低动态执行整个程序带来的开销。而现有的方法并没有考虑移动边缘计算环境以及以静态代码分析为基础的时延预测问题。
受移动设备的可移动性和边缘服务器地理分布随机性的影响,移动边缘计算下的运行环境是高度动态且复杂的。移动设备随着位置变动,可用边缘服务器等网络连接也在不断变化。因此,在MEC环境中高效地卸载DNN应用程序,比仅在云服务器环境中卸载更具挑战性。一方面,基于DNN的应用应考虑方案的适应性,以便卸载动态地发生在边缘环境之间的计算节点,且当设备移动时,卸载方案根据环境适应性改变使得应用保持可用状态。另一方面,卸载方案较多的情况下应考虑方案的有效性,不同的部署将导致不同的执行延迟和传输延迟,因此需要有效地评估卸载方案的开销,并确定有卸载价值的应用部分以及合适的计算节点。
基于上述问题与挑战,提出一个新颖的边缘环境下的计算卸载自适应中间件,该中间件能够满足DNN应用卸载时的可适应性以及有效性,在保证服务质量的同时提升应用的用户体验。
发明内容
有鉴于此,本发明的目的是提供种边缘环境下DNN应用计算卸载自适应中间件构建方法,通过实现支撑设计模式及评估模型的DNN应用自适应计算卸载中间件,它能够支持上述卸载设计模式,并利用代价评估模型决定应用程序的最优卸载方案以进行计算卸载。
本发明采用以下方案实现:一种边缘环境下DNN应用计算卸载自适应中间件构建方法,包括以下步骤:
步骤S1:构建卸载机制,所述卸载机制的输入为DNN源码,输出为可卸载的DNN目标代码;
步骤S2:构建评估模型,所述评估模型的输入为环境配置和应用源码,输出为最优卸载方案。
进一步地,所述步骤S1的具体包括以下步骤:
步骤S11:提出管道一过滤器模式的设计模式;
步骤S12:利用代码重构技术将DNN源码转变为DNN目标代码,使该代码符合步骤S11的设计模式;代码重构目的是使代码严格遵循设计模式以实现卸载;
步骤S13:运行时机制根据配置文件对给定的卸载方案进行自适应卸载。
进一步地,所述步骤S11的具体内容为:
管道-过滤器设计模式,即将一个整体的执行单元按需划分为多个可独立执行的小单元;其中,每个执行单元称为一个过滤器部件,该部件有一组独立的输入端口和输出端口,负责承接上下层的中间执行数据;执行单元间的数据连接通路称为一个管道部件,所述管道部件负责接受数据与转发数据;所述管道-过滤器模式扩展DNN层级分布式卸载能力,模型中的层相当于过滤器,管道作为层间的数据传输带,该数据传输模式不依赖于过滤器执行的位置,因此过滤器可被卸载在相同或不同的计算节点上;其中,DNN第一层的参数包括输入数据,DNN最后一层的输出结果即为网络推理的结果;在一个典型的DNN代码执行过程中,过滤器负责层的接受输入、计算以及保存输出,其中,接受的输入值将作为该层的入参,来源于外界输入或是上一层的中间运算向量;计算即DNN层的执行;保存的输出值将作为推理结果或是后继层的入参;管道负责层间数据的调度,包括接受本地或是远程的过滤器输出,并发送至本地过滤器或远程过滤器。
进一步地,所述步骤S12中所述代码重构具体包括以下步骤:
步骤a:入参准备:在传入初始化数据InitData至DNN层中时,新增参数InitL、EndL,分别表示当前节点处理的初始DNN层标号和结束层标号;给定一个应用程序,在代码重构过程中***InitL、EndL于参数列表,表示一次调用从初始DNN层InitL执行至结束DNN层EndL;新增参数CurrentL用以标记DNN应用执行的进度,即当前执行的过滤器标号;那么,当前节点中DNN层标号不在InitL至EndL范围内的DNN层将被跳过执行;由于不执行InitL的上一层,InitData被赋值作为上一层执行的中间结果输出;
步骤b:新增管道机制:新增方法Pipe(i)于执行每一层layer[i]之前,该方法决定layer[i]是否由当前节点的过滤器执行,对过滤器起激活作用,是运行时支撑机制的核心;
步骤c:新增过滤器:新增两个判断语句;第一个判断语句用以控制当前过滤器是否执行,第二个判断语句用以包装并存储本次调用中最后一个过滤器执行的结果,进而通过管道发送给远程节点的过滤器,即对管道起激活作用;新增全局变量Output用以保存待管道接收的中间输出结果,当前层的后继层若卸载于远程时,则需用到该变量。
进一步地,在DNN应用执行阶段,根据管道-过滤器设计模式进行代码重构的目标程序代码和配置文件将部署在MEC环境中的所有计算节点上,对于配置文件的定义如下:一个DNN应用的卸载方案可通过配置文件config.file(x)表示,其中,x∈L表示DNN模型中的一个层编号,也称为过滤器x,L,且配置文件将不断更新至最新生成的卸载方案;需要明确的是,按层粒度标记每一层的卸载位置时,当过滤器x需要在本地节点被激活,则config_file(x)==LOCAL;当过滤器x需要卸载至远程节点时,则config_file(x)==REMOTE_,其中,REMOTE_后接卸载节点的名称;运行时的计算卸载机制通过管道来控制,并通过管道机制算法即通过输入的待激活的过滤器x和当前需要执行的DNN层″CurrentL″进行比较,如果CurrentL大于x,则x不执行直接跳过,如果当前CurrentL与x相等,则需要执行,并进一步通过config文件进行判断,如果是本地执行则直接在本地激活过滤器x,如果是需要远程执行,则通过RPC来激活卸载的目标计算节点的过滤器,达到计算卸载的目的。
进一步地,所述步骤S2的具体包括以下步骤:
步骤S21:对基本信息进行建模,包括DNN结构模型、随机森林回归的代价预测模型组以及环境上下文模型;其中,DNN结构模型以DNN层代码作为输入,通过静态代码分析对模型中的层参数进行特征抽取;随机森林回归的代价预测模型组以DNN结构模型的信息作为输入,以随机森林回归模型作为训练器,输出为经过训练的模型组所预测的时延;
步骤S22:综合上述三种模型,对要计算的卸载方案进行影响因素分析以及目标函数的构建;
所述影响因素指在衡量计算卸载方案性能问题时,对该问题结果可能产生影响的所有因素,它们可能来源于上述三个信息模型;所述目标函数为执行DNN模型所需的总体响应时间;
步骤S23:评估模型的输出为最优的计算卸载方案,该方案能决策出DNN每一层的部署节点,从而得到最优的目标函数,即使卸载后的应用性能最佳,该方案的粒度为DNN层,通过配置文件实现对该方案的配置,并随目标代码部署于计算节点上。
进一步地,步骤S21所述DNN结构模型的具体构建如下:
一个DNN模型结构可抽象为一个有向图GD=(L,R),表示层特征和层间传输关系;其中,
L={l1,l2,…,ln}为DNN模型中层的集合,每个ln为模型中的一个层;R为DNN模型中数据流边的集合,每条边rij∈R表示从层li到lj的数据流向;
一个DNN层结构包括一个类型参数和一个至多个的特征参数,表示为li=<type,feature>的二元组,用以描述该层信息;其中,type表示DNN层的类型,feature表示DNN层的特征参数;
一个DNN层的类型参数表示为{type|conv,reul,pooling,fc},即代码分析提取的四种层类型,每个层仅有一个该参数;其中,conv表示为卷积层,reul表示为激励层,pooling表示为池化层,fc表示为全连接层;
一个DNN层的特征参数表示为{feature|name=value},即参数名和参数值的一个键值对,每个层有一至多个的该参数;其中,当type=conv时,{name|channel,ksize,knumber,stride,padding},channel表示卷积层的特征定义频道数,ksize表示卷积层的卷积核尺寸,knumber表示卷积层的卷积核数量,stride表示卷积层的移动步长,padding表示卷积层的填充值;当type=reul或type=fc时,{name|innumber,outnumber},innumber表示激励层或全连接层的输入神经元的数量,outnumber表示激励层或全连接层的输出神经元的数量;当type=pooling时,{name|channel,ksize,stride},channel表示池化层的输入通道维度,ksize表示池化层的区域大小,stride表示池化层的移动步长;
所述环境上下文模型的构建如下:
一个上下文边缘环境可抽象为一个无向图GC=(N,E),其中N表示一组计算节点,包括本地设备和远程服务器;E表示一组存在于节点ni∈N间的通讯链路。每条边edge(ni,nj)∈E具有以下属性:节点ni和nj间的数据传输速率
Figure BDA0003138717660000051
以及往返时间
Figure BDA0003138717660000052
进一步地,步骤S21中所述基于随机森林回归的代价预测建模具体构建如下:对于每一层,代价预测模型将DNN层的类型和特征作为输入,并预测该层的执行时间;个DNN层在某一计算节点上的执行代价包括执行时间和数据量大小,表示为
Figure BDA0003138717660000053
的二元组,其中,time表示从接收输入数据到生成输出数据过程的执行时间,这取决于计算节点的性能;datasize表示输出数据的数据量大小,为固定值;使用随机森林回归模型来预测
Figure BDA0003138717660000054
利用历史数据集来训练预测模型:首先在各个计算节点上执行DNN应用程序,并从包括Alexnet、VGG16、VGG19、ResNet-50和ResNet-152在内的DNN应用程序中收集数据;随机森林回归预测模型如公式(1)所示,其中输入值(X)取决于层的类型,当层类型为卷积层conv时,如公式(2)所示;当层类型为池化层pooling时,如公式(3)所示;当层类型为激励层relu时,如公式(4)所示;当层类型为全连接层fc时,如公式(5)所示。
Y=predict(X) (1)
Xconv=(channel,ksize,knumber,stride,padding) (2)
Xpooling=(channel,ksize,stride) (3)
Xrelu=(innumber,outnumber) (4)
Xfc=(innumber,outnumber) (5)
采用以上重要变量,以及参数Ntree和Mtry,便可训练获得一个可预测执行成本的回归模型;其中,Ntree表示基于收集的层执行成本样本生长的回归树的数量,Mtry表示在每个节点上用于预测的预测因子的数量。
进一步地,所述步骤S22的具体内容为:在决定每一DNN层应被卸载于哪一计算节点过程中,所需考虑的影响因子为:L表示DNN模型中一组DNN层集合,L={l1,l2,…,ln};N表示一组计算节点集合,包括DS,ME和RC,nk∈N;
Figure BDA0003138717660000063
表示DNN层li的一组父节点集合;DEP表示一组计算卸载决策,DEP=(dep(l1),dep(l2),…,dep(ln));
Figure BDA0003138717660000061
表示节点ni和nj间的数据传输速率
Figure BDA0003138717660000062
表示节点ni和nj间的往返时间;ti表示执行完DNN层li的时刻;Td(lk,lm)表示DNN层lk和lm间的数据传输时间;Te(li)表示执行DNN层li的执行时间;Tresponse表示一个DNN应用程序在某一卸载决策下的响应时间;
其中,在DEP=(dep(l1),dep(l2),…,dep(ln))中,DEP表示一种计算卸载方案,每一个li∈L均存在一个对应的卸载节点一个DNN应用程序的响应时间被表示为Tresponse,它等同于执行完最后一层DNN层lend的时刻tend,其中ti表示为执行完DNN层li的时刻;构造的目标函数即为评估一个卸载方案的完整响应时间Tresponse的过程;
构造目标函数如公式(6)所示,当一个卸载决策的目标函数值最小,则该卸载决策是最优的;
Tresponse=tn (6)。
与现有技术相比,本发明具有以下有益效果:
本发明通过实现支撑设计模式及评估模型的DNN应用自适应计算卸载中间件,它能够支持上述卸载设计模式,并利用代价评估模型决定应用程序的最优卸载方案以进行计算卸载。
附图说明
图1为本发明实施例的现有技术中AlexNet模型的各层层延时和层间输出情况图。
图2为本发明实施例的方法的概览图。
图3为本发明实施例的上下文环境结构卸载中间件图。
图4为本发明实施例的不同设计模式下的DNN模型图,其中,图4(a)为单一模式图,图4(b)为管道-过滤器模式图。
图5为本发明实施例的基于DNN应用程序的管道-过滤器模式图。
图6为本发明实施例的重构DNN应用程序图,其中,图6(a)为源程序图,图6(b)为目标程序图。
图7为本发明实施例的一个DNN模型的例子图。
图8为本发明实施例的上下文环境结构图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
本实施例提供一种边缘环境下DNN应用计算卸载自适应中间件构建方法,包括以下步骤:
步骤S1:构建卸载机制,所述卸载机制的输入为DNN源码,输出为可卸载的DNN目标代码;
步骤S2:构建评估模型,所述评估模型的输入为环境配置和应用源码,输出为最优卸载方案。
在本实施例中,所述步骤S1的具体包括以下步骤:
步骤S11:提出管道-过滤器模式的设计模式;
步骤S12:利用代码分析和代码重构技术将DNN源码转变为DNN目标代码,使该代码符合步骤S11的设计模式;所述代码分析目的是寻找卸载目标即以DNN层为卸载单元,代码重构目的是使代码严格遵循设计模式以实现卸载;
步骤S13:运行时机制根据配置文件对给定的卸载方案进行自适应卸载。
在本实施例中,所述步骤S11的具体内容为:
管道-过滤器设计模式,即将一个整体的执行单元按需划分为多个可独立执行的小单元;(这些单元可以是DNN层,或者函数等)其中,每个执行单元称为一个过滤器部件,该部件有一组独立的输入端口和输出端口,负责承接上下层的中间执行数据;执行单元间的数据连接通路称为一个管道部件,所述管道部件负责接受数据与转发数据;所述管道-过滤器模式扩展DNN层级分布式卸载能力,模型中的层相当于过滤器,管道作为层间的数据传输带,该数据传输模式不依赖于过滤器执行的位置,因此过滤器可被卸载在相同或不同的计算节点上;其中,DNN第一层的参数包括输入数据,DNN最后一层的输出结果即为网络推理的结果;在一个典型的DNN代码执行过程中,过滤器负责层的接受输入、计算以及保存输出,其中,接受的输入值将作为该层的入参,来源于外界输入或是上一层的中间运算向量;计算即DNN层的执行;保存的输出值将作为推理结果或是后继层的入参;管道负责层间数据的调度,包括接受本地或是远程的过滤器输出,并发送至本地过滤器或远程过滤器。
在本实施例中,所述步骤S12中所述代码重构具体包括以下步骤:
步骤a:入参准备:在传入初始化数据InitData DNN层中时,新增参数InitL、EndL,分别表示当前节点处理的初始DNN层标号和结束层标号;给定一个应用程序,在代码重构过程中***InitL、EndL于参数列表,表示一次调用从初始DNN层InitL执行至结束DNN层EndL;新增参数CurrentL用以标记DNN应用执行的进度,即当前执行的过滤器标号;那么,当前节点中DNN层标号不在InitL至EndL范围内的DNN层将被跳过执行;由于不执行InitL的上一层,InitData被赋值作为上一层执行的中间结果输出;
步骤b:新增管道机制:新增方法Pipe(i)于执行每一层layer[i]之前,该方法决定layer[i]是否由当前节点的过滤器执行,对过滤器起激活作用,是运行时支撑机制的核心;
步骤c:新增过滤器:新增两个判断语句;第一个判断语句用以控制当前过滤器是否执行,第二个判断语句用以包装并存储本次调用中最后一个过滤器执行的结果,进而通过管道发送给远程节点的过滤器,即对管道起激活作用;新增全局变量Output用以保存待管道接收的中间输出结果,当前层的后继层若卸载于远程时,则需用到该变量。
在本实施例中,在DNN应用执行阶段,根据管道-过滤器设计模式进行代码重构的目标程序代码和配置文件将部署在MEC环境中的所有计算节点上,对于配置文件的定义如下:一个DNN应用的卸载方案可通过配置文件config.file(x)表示,其中,x∈L表示DNN模型中的一个层编号,也称为过滤器x,L,且配置文件将不断更新至最新生成的卸载方案;需要明确的是,按层粒度标记每一层的卸载位置时,当过滤器x需要在本地节点被激活,则config_file(x)==LOCAL;当过滤器x需要卸载至远程节点时,则config_file(x)==REMOTE_,其中,REMOTE_后接卸载节点的名称;运行时的计算卸载机制通过管道来控制,并通过管道机制算法即通过输入的待激活的过滤器x和当前需要执行的DNN层″CurrentL″进行比较,如果CurrentL大于x,则x不执行直接跳过,如果当前CurrentL与x相等,则需要执行,并进一步通过config文件进行判断,如果是本地执行则直接在本地激活过滤器x,如果是需要远程执行,则通过RPC来激活卸载的目标计算节点的过滤器,达到计算卸载的目的。
在本实施例中,所述步骤S2的具体包括以下步骤:
步骤S21:对基本信息进行建模,包括DNN结构模型、随机森林回归的代价预测模型组以及环境上下文模型;其中,DNN结构模型以DNN层代码作为输入,通过静态代码分析对模型中的层参数进行特征抽取;随机森林回归的代价预测模型组以DNN结构模型的信息作为输入,以随机森林回归模型作为训练器,输出为经过训练的模型组所预测的时延;
步骤S22:综合上述三种模型,对要计算的卸载方案进行影响因素分析以及目标函数的构建;
所述影响因素指在衡量计算卸载方案性能问题时,对该问题结果可能产生影响的所有因素,它们可能来源于上述三个信息模型;所述目标函数为执行DNN模型所需的总体响应时间;
步骤S23:评估模型的输出为最优的计算卸载方案,该方案能决策出DNN每一层的部署节点,从而得到最优的目标函数,即使卸载后的应用性能最佳,该方案的粒度为DNN层,通过配置文件实现对该方案的配置,并随目标代码部署于计算节点上。
在本实施例中,步骤S21所述DNN结构模型的具体构建如下:
一个DNN模型结构可抽象为一个有向图GD=(L,R),表示层特征和层间传输关系;其中,L={l1,l2,…,ln}为DNN模型中层的集合,每个ln为模型中的一个层;R为DNN模型中数据流边的集合,每条边rij∈R表示从层li到lj的数据流向;
一个DNN层结构包括一个类型参数和一个至多个的特征参数,表示为li=<type,feature>的二元组,用以描述该层信息;其中,type表示DNN层的类型,feature表示DNN层的特征参数;
一个DNN层的类型参数表示为{type|conv,reul,pooling,fc},即代码分析提取的四种层类型,每个层仅有一个该参数;其中,conv表示为卷积层,reul表示为激励层,pooling表示为池化层,fc表示为全连接层;
一个DNN层的特征参数表示为{feature|name=value},即参数名和参数值的一个键值对,每个层有一至多个的该参数;其中,当type=conv时,{name|channel,ksize,knumber,stride,padding},channel表示卷积层的特征定义频道数,ksize表示卷积层的卷积核尺寸,knumber表示卷积层的卷积核数量,stride表示卷积层的移动步长,padding表示卷积层的填充值;当type=reul或type=fc时,{name|innumber,outnumber},innumber表示激励层或全连接层的输入神经元的数量,outnumber表示激励层或全连接层的输出神经元的数量;当type=pooling时,{name|channel,ksize,stride},channel表示池化层的输入通道维度,ksize表示池化层的区域大小,stride表示池化层的移动步长;
所述环境上下文模型的构建如下:
一个上下文边缘环境可抽象为一个无向图GC=(N,E),其中N表示一组计算节点,包括本地设备和远程服务器;E表示一组存在于节点ni∈N间的通讯链路。每条边edge(ni,nj)∈E具有以下属性:节点ni和nj间的数据传输速率
Figure BDA0003138717660000091
以及往返时间
Figure BDA0003138717660000092
在本实施例中,步骤S21中所述基于随机森林回归的代价预测建模具体构建如下:对于每一层,代价预测模型将DNN层的类型和特征作为输入,并预测该层的执行时间;个DNN层在某一计算节点上的执行代价包括执行时间和数据量大小,表示为
Figure BDA0003138717660000093
的二元组,其中,time表示从接收输入数据到生成输出数据过程的执行时间,这取决于计算节点的性能;datasize表示输出数据的数据量大小,为固定值;使用随机森林回归模型来预测
Figure BDA0003138717660000094
利用历史数据集来训练预测模型:首先在各个计算节点上执行DNN应用程序,并从包括Alexnet、VGG16、VGG19、ResNet-50和ResNet-152在内的DNN应用程序中收集数据;随机森林回归预测模型如公式(1)所示,其中输入值(X)取决于层的类型,当层类型为卷积层conv时,如公式(2)所示;当层类型为池化层pooling时,如公式(3)所示;当层类型为激励层relu时,如公式(4)所示;当层类型为全连接层fc时,如公式(5)所示。
Y=predict(X) (1)
Xconv=(channel,ksize,knumber,stride,padding) (2)
Xpooling=(channel,ksize,stride) (3)
Xrelu=(innumber,outnumber) (4)
Xfc=(innumber,outnumber) (5)
采用以上重要变量,以及参数Ntree和Mtry,便可训练获得一个可预测执行成本的回归模型;其中,Ntree表示基于收集的层执行成本样本生长的回归树的数量,Mtry表示在每个节点上用于预测的预测因子的数量。
在本实施例中,所述步骤S22的具体内容为:在决定每一DNN层应被卸载于哪一计算节点过程中,所需考虑的影响因子为:L表示DNN模型中一组DNN层集合,L={l1,l2,…,ln};N表示一组计算节点集合,包括DS,ME和RC,nk∈N;
Figure BDA0003138717660000103
表示DNN层li的一组父节点集合;DEP表示一组计算卸载决策,DEP=(dep(l1),dep(l2),…,dep(ln));
Figure BDA0003138717660000104
表示节点ni和nj间的数据传输速率
Figure BDA0003138717660000102
表示节点ni和nj间的往返时间;ti表示执行完DNN层li的时刻;Td(lk,lm)表示DNN层lk和lm间的数据传输时间;Te(li)表示执行DNN层li的执行时间;Tresponse表示一个DNN应用程序在某一卸载决策下的响应时间;
其中,在DEP=(dep(l1),dep(l2),…,dep(ln))中,DEP表示一种计算卸载方案,每一个li∈L均存在一个对应的卸载节点一个DNN应用程序的响应时间被表示为Tresponse,它等同于执行完最后一层DNN层lend的时刻tend,其中ti表示为执行完DNN层li的时刻;构造的目标函数即为评估一个卸载方案的完整响应时间Tresponse的过程;
构造目标函数如公式(6)所示,当一个卸载决策的目标函数值最小,则该卸载决策是最优的;
Tresponse=tn (6)。
较佳的,本实施例的方法概览如图2所示。图中分别有三个黑框模块,左侧为方法的具体实现,包括输入输出、数据流、重要部件和一些中间产物;中间为方法主体的名称,主要为两大模块:卸载机制和评估模型;右侧为该方法针对的场景以及应用,即给定的边缘环境配置和应用的DNN源码。图中实线为技术方式,虚线为数据流,球形表示方法产物,虚线框模块均为本文提出的方法,也是该中间件的核心,本实施例方法步骤的简单描述如下:
卸载机制(Offloading Mechanism)为支撑DNN代码进行计算卸载的关键。它的输入为DNN源码(DNN Source code),输出为可卸载的DNN目标代码(DNN Target Code)。首先,方法中将提出一种类似管道-过滤器模式(Pipe-filter Pattern)的设计模式;其次,利用代码重构技术(Refactor),将DNN源码转变为DNN目标代码,使该代码符合上述设计模式这里的代码重构目的是使代码严格遵循设计模式以实现卸载;最后,运行时机制将根据配置文件(Configuration Files),对给定的卸载方案进行自适应卸载。
卸载机制的设计模式
(1)设计模式
本实施例提出一种称为管道-过滤器的设计模式,并给出定义,如定义1所示。
定义1:管道-过滤器设计模式,即将一个整体的执行单元划分为多个可独立执行的小单元。其中,每个执行单元称为一个过滤器部件,该部件有一组独立的输入端口和输出端口,负责承接上下层的中间执行数据;执行单元间的数据连接通路称为一个管道部件,该部件类似于RPC,负责接受数据与转发数据。
管道-过滤器模式可保障数据流的传输与执行单元的有效执行,适用于有明显执行单元划分并且依赖数据流的应用。由于DNN应用程序具有明显的执行单元,且采用了数据流软件体系结构,故采用该设计模式,以扩展模型中数据传输的灵活性。传统的执行模式限制了DNN应用的分布式部署,如图4(a)所示,模型作为单体,接收输入数据,并在最后一层输出结果,而中间的数据传输流是连续的。本文方法提出的管道-过滤器模式扩展了DNN层级分布式卸载能力,如图4(b)所示,模型中的层相当于过滤器,管道作为层间的数据传输带,该数据传输模式不依赖于过滤器执行的位置,因此过滤器可被卸载在相同或不同的计算节点上。与单一模式相同的是,DNN第一层的参数包括输入数据,DNN最后一层的输出结果即为网络推理的结果。
基于DNN应用的管道-过滤器模式描述如下:DNN应用中的每一层,例如,卷积层、池化层、全连接层等,均代表一个过滤器部件;层间数据传输可通过管道封装。那么,在一个典型的DNN代码执行过程中,过滤器负责层的接受输入、计算以及保存输出,其中,接受的输入值将作为该层的入参,来源于外界输入或是上一层的中间运算向量,例如图像识别中的输入图片、卷积核的卷积矩阵、全连接层的加权和等;计算即DNN层的执行,例如卷积等;保存的输出值将作为推理结果或是后继层的入参。管道负责层间数据的调度,包括接受本地或是远程的过滤器输出,并发送至本地过滤器或远程过滤器。
较佳的,在本实施例中,如图5是自适应卸载一个五层DNN的例子,DNN模型被部署在本地设备、远程节点A和远程节点B,其中,方框代表过滤器,即DNN层;虚线代表所有可能的数据流向,实线代表其中一种基于管道-过滤器的卸载方案的数据流向;若数据流的接收和发送端在同一节点,则为本地调用,若在不同节点,则为远程调用;以Pipe开头的命名为管道的名称。初始状态为DNN应用在本地移动设备端接收一个输入数据,并由Pipe1接收,其可与本地以及远程节点A、B上的过滤器l1,l1′,l1″连通;Pipel可将数据直接传输至本地过滤器l1中,并在l1进行本地计算,或是通过RPC将数据传输到远程节点的l1′,l1″上,实现计算卸载,节点A、B为边缘或云服务器。第一层和第五层由本地过滤器执行,第二、三层由远程节点A的过滤器执行,第四层由远程节点B的过滤器。该例子在管道-过滤器设计模式的卸载过程描述如下:首先通过配置文件获得当前层的序号以及结束层的序号;其次每个管道可根据配置发送数据到指定过滤器中,例如Pipe1将发送初始数据并传输给l1;而在远程节点A中,它会根据配置文件判断并跳过前序节点已经执行的计算任务,并从指定过滤器开始执行,例如在Pipe2进行RPC接收远程节点A上过滤器的输出后,节点判断并跳过l1′,执行过滤器l2′,l3′;最后,若当前层序号为最后一层时可通过最后一个过滤器输出返回结果,并保存至管道中。
然而,DNN应用程序的源代码不符合管道-过滤器模式,因此需通过代码重构使其符合该模式,从而具有可卸载性。
(2)代码重构
为了支持基于DNN应用的自适应卸载,应用程序的代码结构应重构为符合图4(b)提出的设计模式。从宏观的角度看,需实现DNN应用卸载部分计算任务即连续的层(li到lj)至某一远程节点,同时,当li到lj执行于远程节点时,应用程序可进一步选择卸载其它层的计算任务到其他节点,例如将lp到lq卸载于另一远程节点上。从微观的角度看,每个计算节点都应部署DNN应用,节点可根据配置文件跳过已经执行的层(l1到li),并且执行指定计算任务而后返回结果,同时,某节点的执行起始层应能正确接收前序层的数据,且在接收前无法执行后续层。因此本实施例将介绍对给定DNN应用的Python源码进行代码重构的步骤,其源程序结构的形式化描述如图6(a)所示,重构后的目标程序形式化描述如图6(b)所示。
图6(a)所示是一个DNN应用的源程序,对各参数的解释如注释所示。它从第一层开始执行,并接收初始数据InitData(例如图片等),它每一层的输出,即中间结果,是不可见的并且直接作为下一层的入参,直到执行至最后一层返回结果。语句layer[i].type(InitData,layer[i-1].feature)表示layer[i]将layer[i-1]的输出作为输入,其中,type表示当前层的执行类型,例如卷积层;feature表示当前层的配置信息,例如特征通道数。图6(b)所示是一个DNN应用重构后的目标程序,它允许每个层作为初始层或结束层,并通过InitL和EndL参数进行控制;它新增一个全局变量CurrentL,用以定位当前执行的层位置;目标代码加入了Pipe(),该方法用以激活卸载机制。因此,代码重构主要包括三个步骤:
步骤a:入参准备:在传入初始化数据InitData至网络中时,新增参数InitL、EndL,分别表示当前节点处理的初始层标号和结束层标号;给定一个应用程序,在代码重构过程中***InitL、EndL于参数列表,表示一次调用从初始层InitL执行至结束层EndL;新增参数CurrentL用以标记DNN应用执行的进度,即当前执行的过滤器标号;那么,当前节点中层标号不在InitL至EndL范围内的DNN层将被跳过执行;由于不执行InitL的上一层,InitData被赋值作为上一层执行的中间结果输出;
步骤b:新增管道机制:新增方法Pipe(i)于执行每一层layer[i]之前,该方法决定layer[i]是否由当前节点的过滤器执行,对过滤器起激活作用,是运行时支撑机制的核心;
步骤c:新增过滤器:新增两个判断语句;第一个判断语句用以控制当前过滤器是否执行,第二个判断语句用以包装并存储本次调用中最后一个过滤器执行的结果,进而通过管道发送给远程节点的过滤器,即对管道起激活作用;新增全局变量Output用以保存待管道接收的中间输出结果,当前层的后继层若卸载于远程时,则需用到该变量。
(3)运行时机制
在DNN应用执行阶段,根据管道-过滤器设计模式进行代码重构的目标程序代码和配置文件将部署在MEC环境中的所有计算节点上,对于配置文件的定义如定义2所示。
定义2:一个DNN应用的卸载方案可通过配置文件config.file(x)表示,其中,x∈L表示DNN模型中的一个层编号,也称为过滤器x,L,且配置文件将不断更新至最新生成的卸载方案;需要明确的是,按层粒度标记每一层的卸载位置时,当过滤器x需要在本地节点被激活,则config.file(x)=LOCAL;
当过滤器x需要卸载至远程节点时,则config.file(x)=REMOTE_,其中,REMOTE_后接卸载节点的名称。
运行时的计算卸载机制通过管道来控制。本文提出了一个管道机制算法,用来激活过滤器达到计算卸载的目的,如算法1所描述。
Figure BDA0003138717660000131
Figure BDA0003138717660000141
首先,在已知卸载方案的情况下,配置文件和当前执行的层号,即模型执行的进度,作为全局参数和管道算法的入参。pipe()函数的入参也包括即将激活的过滤器序号x,则当前管道为连通过滤器x-1和过滤器x的数据传输,函数的返回值为下一个待激活的过滤器编号。接着,根据入参的值采用不同的过滤器激活方式:Line 1表示模型执行的进度已超过待激活的过滤器x,该计算节点不负责过滤器x的执行,因此直接返回从而卸载过滤器x(Line1-3)。该操作的目的是使DNN层不被多次执行,保障唯一的数据流;使计算节点仅完成配置中的相应卸载,减少重复计算造成的开销,也提高模型推理速率。Line4表示模型执行至当前管道的位置,下一个待激活的过滤器为x,且配置文件的关键字说明当前计算节点负责过滤器x的执行,因此直接返回需激活的过滤器标号从而激活过滤器x(Line 4-6),根据图6(b),pipe(x)激活过滤器x,通过第一个判断条件,执行DNN层计算语句,并执行第二个判断条件,决定是否将输出结果保存于Output,同时,CurrentL的值在激活当前过滤器后自增1。该操作的目的是推进当前DNN层的执行,激活本地过滤器;保存需管道进行RPC的中间数据结果,保障远程卸载的数据流连续性。Line 7同样表示模型执行至当前管道的位置,然而下一个待激活的过滤器为x不在当前计算节点上。因此先将上述参数Output通过该管道的RPC机制传输并激活远程节点的过滤器(Line7-8);在等待远程卸载的结果返回后,计算下一个在当前计算节点上执行的过滤器标号k,并将接收到的远程执行结果赋值给过滤器k的前序过滤器k-1(Line 9-10);最后,该函数返回下一个在本地待激活的过滤器(Line 11)。该操作的目的是激活远程过滤器,达到卸载DNN层到远程节点执行的目的;在远程执行结束后,继续激活本地过滤器,因此,对本地的后继过滤器而言,远程卸载计算的过程是透明的,但降低了本地执行的能耗开销。
评估模型(Estimation Model)为根据环境和应用评估并选择DNN卸载方案的有效手段。它的输入为环境配置和应用源码,输出为最优卸载方案(Optimal Scheme)。评估模型的基础是环境和应用的信息,为规范评估的输入,方法首先对基本信息进行建模,包括DNN结构模型、随机森林回归的代价预测模型组以及环境上下文模型。其中,DNN结构模型(DNNStructure Model)以DNN层代码作为输入,通过静态代码分析对模型中的层参数进行特征抽取。例如,图中各层类型用彩色区分,包括卷积层、池化层、全连接层和激励层,代码分析将抽取出层类型以及名称,如图中的全连接层,并抽取出它的特征参数,如全连接层中输入输出的神经元个数,这些信息将作为预测模型的输入。此外,由于代码重构是自动的,这就要求程序能在关键语句中自动拆分、***、组合成目标语句,因此该模块的产物也作为卸载机制重构时的重要依据。随机森林回归(RF Regression Model)的代价预测模型组以DNN结构模型的信息作为输入,以随机森林回归模型作为训练器,输出为经过训练的模型组所预测的时延,即图中的成本(Cost)。环境上下文模型(Context Model)是对边缘环境下所有计算节点的配置、网络连接状态进行建模的产物。综合上述三种模型,本文对该卸载方案的计算问题进行影响因素的分析以及目标函数的构建。其中,影响因素指在衡量计算卸载方案性能问题时,对该问题结果可能产生影响的所有因素,它们可能来源于上述三个信息模型;目标函数指评估卸载方案质量的关键,在本文方法中,目标函数为执行DNN模型所需的总体响应时间。最终,评估模型的输出为最优的计算卸载方案,该方案可决策出DNN每一层的部署节点,从而得到最优的目标函数,即使卸载后的应用性能最佳,该方案的粒度为DNN层,通过配置文件实现对该方案的配置,并随目标代码部署于计算节点上。
卸载方案的评估模型
(1)基本信息建模
为了实现代码重构以及对随机森林回归模型进行训练,首先对DNN结构进行建模;为了实现对各层延迟进行预测而避免直接执行程序造成的开销,其次对随机森林回归模型组进行描述;最后,根据移动设备上下文信息,对计算节点以及它们之间的连接关系进行建模。以上信息模型将直接影响计算卸载部署方案的评估。
图7展示了一个DNN模型的例子,一个DNN模型的基本构成单位为层,图中用不同颜色的正方形表示不同类型的DNN层,其中,黄色表示卷积层,它通过过滤器对特征进行推理计算;蓝色表示激励层,它是一个非线性函数,该函数接受一个卷积层的输出,并生成具有相同维度的输出;紫色表示池化层,可以定义为通用池、平均池或最大池;绿色表示全连接层,计算输入的加权和的权重。由于各层的作用不相同,它们的特征参数也互不相同。其中,每个正方形为一个层单元,顶部的引号中为层的名称,如conv1和relu1,冒号前为根据定义3对层进行建模标号;正方形的底部是层的特征参数,例如,名为conv1的卷积层中,channel:3为参数channel对应的值为3;黑色箭头为数据流,也是层执行的顺序。本文方法对DNN代码进行静态代码分析,通过代码关键字提取出一个DNN应用程序的结构,该结构包括各层的不同参数和各层之间的数据流向。其定义如下:
定义3:一个DNN模型结构可抽象为一个有向图GD=(L,R),表示层特征和层间传输关系;其中,L=(l1,l2,…,ln}为DNN模型中层的集合,每个ln为模型中的一个层;R为DNN模型中数据流边的集合,每条边rij∈R表示从层li到lj的数据流向;
定义4:一个DNN层结构包括一个类型参数和一个至多个的特征参数,表示为li=<type,feature>的二元组,用以描述该层信息;其中,type表示DNN层的类型,feature表示DNN层的特征参数;
定义5:一个DNN层的类型参数表示为{type|conv,reul,pooling,fc},即代码分析提取的四种层类型,每个层仅有一个该参数;其中,conv表示为卷积层,reul表示为激励层,pooling表示为池化层,fc表示为全连接层;
定义6:一个DNN层的特征参数表示为{feature|name=value},即参数名和参数值的一个键值对,每个层有一至多个的该参数;其中,当type=conv时,{name|channel,ksize,knumber,stride,padding},channel表示卷积层的特征定义频道数,ksize表示卷积层的卷积核尺寸,knumber表示卷积层的卷积核数量,stride表示卷积层的移动步长,padding表示卷积层的填充值;当type=reul或type=fc时,{name|innumber,outnumber},innumber表示激励层或全连接层的输入神经元的数量,outnumber表示激励层或全连接层的输出神经元的数量;当type=pooling时,{name|channel,ksize,stride},channel表示池化层的输入通道维度,ksize表示池化层的区域大小,stride表示池化层的移动步长;
算法2描述了抽取DNN模型结构的过程。Caffe将训练后的模型存储于原型配置文件中,算法2将该文件作为输入,并使用Python中的数据结构dictionaries保存输出结果。该文件中的语句表示为U={u1,u2,…,un},其中,语句ui∈U表示文件中的第i条语句。对U集合进行迭代,对于每个元素,提取ui中的关键字(Line 3-4),这里的关键字包括“Convolution”,“pooling”,“ReLU”和“InnerProduct”。例如,“Convolution”关键字表示一个卷积层;“pooling”关键字表示池化层;“ReLU”关键字表示激励层;“InnerProduct”关键字表示全连接层。对于每一层保存名称(Line5),根据关键字保存各层的类型(Line 6-14),然后根据类型保存对应的特征参数(Line 15)。接着,根据关键字“bottom”更新R集。例如,如果语句ui有一个关键词“bottom:relul”,其中relu1为lt的名称,则判定当前层的上一层ls即为lt(Line 16-21)。最后,更新L集合(Line 22)。
Figure BDA0003138717660000161
Figure BDA0003138717660000171
(2)基于随机森林回归的代价预测建模
对于每一层,代价预测模型将DNN层的类型和特征作为输入,并预测该层的执行时间。为得到该模型,本文方法分别在不同的计算节点执行同一个DNN应用程序,并收集每层的执行时间。预测过程使用R语言环境以及随机森林回归算法。由于该算法可以对变量的重要性排序,并且袋外数据的错误率可以验证模型的泛化能力。因此该算法是预测层特征参数与执行代价这种非线性关系的最佳工具,可以在不执行DNN应用的情况下有效地预测DNN层的执行时间。假设li层在nk计算节点上执行,li的定义见定义3,nk的定义见定义8,其执行代价如定义7所示。
定义7:一个DNN层在某一计算节点上的执行代价包括执行时间和数据量大小,表示为
Figure BDA0003138717660000181
的二元组,其中,time表示从接收输入数据到生成输出数据过程的执行时间,这取决于计算节点的性能;datasize表示输出数据的数据量大小,这是一个可以在DNN分析工具中获得的固定值。
由于DNN应用层的数量和计算节点的多样性,在运行时获取各层在各计算节点上的执行时间将产生昂贵的代价。因此,我们使用随机森林回归模型来预测
Figure BDA0003138717660000182
本实施例利用历史数据集来训练预测模型:首先在各个计算节点上执行DNN应用程序,并从包括Alexnet、VGG16、VGG19、ResNet-50和ResNet-152在内的DNN应用程序中收集数据;随机森林回归预测模型如公式(1)所示,其中输入值(X)取决于层的类型,当层类型为卷积层conv时,如公式(2)所示;当层类型为池化层pooling时,如公式(3)所示;当层类型为激励层relu时,如公式(4)所示;当层类型为全连接层fc时,如公式(5)所示。
Y=predict(X) (1)
Xconv=(channel,ksize,knumber,stride,padding) (2)
Xpooling=(channel,ksize,stride) (3)
Xrelu=(innumber,outnumber) (4)
Xfc=(innumber,outnumber) (5)
采用以上重要变量,以及参数Ntree和Mtry,便可训练获得一个可预测执行成本的回归模型;其中,Ntree表示基于收集的层执行成本样本生长的回归树的数量,Mtry表示在每个节点上用于预测的预测因子的数量。因此,最终模型定义如表1所示,其中,RMSE为均方根误差。
表1预测模型的定义
Figure BDA0003138717660000191
(3)环境上下文建模
计算卸载基于上下文环境,是评估模型的基础。因此本实施例将描述环境上下文,并对其进行建模分析,图8展示了上下文环境,包括一个在不同场景的设备(DS),多个移动边缘服务器(ME)和一个远程云服务器(RC)。该环境上下文结构的定义如定义8所示。
定义8:一个上下文边缘环境可抽象为一个无向图GC=(N,E),其中N表示一组计算节点,包括本地设备和远程服务器;E表示一组存在于节点ni∈N间的通讯链路。每条边edge(ni,nj)∈E具有以下属性:节点ni和nj间的数据传输速率
Figure BDA0003138717660000192
以及往返时间
Figure BDA0003138717660000193
一个典型的卸载场景如下:起初数据部署于本地设备(仅nDS);在执行过程中,DNN层可被卸载于边缘计算节点nME或远程计算节点nRC,前提是卸载前后的计算节点间有通讯链路相连接;最终,输出的结果应发送至本地设备。
评估模型
基于建模,本实施例将展开对评估模型的阐述。评估模型中有各种影响因素,将决定最终的卸载方案。首先介绍这些影响因素的表示以及含义,并且通过描述如何通过目标函数优化影响因子使得决策成本最小。为最小化总体响应时间,评估模型将在卸载决策过程中,决定哪些层需要卸载,并卸载于哪些计算节点上。
(1)影响因子
表2列举了在决定每一DNN层应被卸载于哪一计算节点过程中,所需考虑的影响因子。其中,L,nk∈N,
Figure BDA0003138717660000201
以及
Figure BDA0003138717660000202
在上文已被定义。
表2影响卸载决策的因子
Figure BDA0003138717660000203
其中,在DEP=(dep(l1),dep(l2),…,dep(ln))中,DEP表示一种计算卸载方案,每一个li∈L均存在一个对应的卸载节点一个DNN应用程序的响应时间被表示为Tresponse,它等同于执行完最后一层DNN层lend的时刻tend,其中ti表示为执行完DNN层li的时刻;构造的目标函数即为评估一个卸载方案的完整响应时间Tresponse的过程;
(2)影响因子
本节中阐述的目标函数可评估一个卸载决策的响应时间,它将根据影响因素进行计算。基于上一节中的影响因素,构造目标函数如公式(6)所示,当一个卸载决策的目标函数值最小,则该卸载决策是最优的。如表2所示,ti是执行完DNN层li的时刻,假设执行第一层DNN开始的时刻为0,则最后一层ln执行完成的时刻即为总体响应时间,如公式(6)所示。
Tresponse=tn (6)
每一DNN层的ti计算如公式(6)所示,描述如下:首先,执行完当前层li的时刻的计算由两部分组成,一部分是该层的执行时间,另一部分是所有父层执行完并将数据发送至当前层的时间。根据表2,执行当前层li的执行时间表示为Te(li);根据DNN模型结构的特性,当且仅当所有父层分支执行完毕并发送数据到当前层后,当前层才可被执行,因此,ti包括所有父层分支所花费时间的最大值。其中,每一条父层分支的时间由执行完该父层的时刻和该父层和当前层之间的数据传输时间组成。根据表2,父层
Figure BDA0003138717660000211
和li间的数据传输时间表示为
Figure BDA0003138717660000212
其中
Figure BDA0003138717660000213
属于当前层li的父节点集合
Figure BDA0003138717660000214
Figure BDA0003138717660000215
在公式(7)中,当前层的执行时间Te(li)计算表示为公式(8),与父节点的数据传输时间计算表示为公式(9)。根据上述公式,在给定一个卸载决策时,计算其响应时间的过程描述如算法3所示。
Figure BDA0003138717660000216
Figure BDA0003138717660000217
用一个例子来阐述算法3的过程,假设一个DNN应用程序有五层并且执行在三个计算节点上,给定一个卸载决策:将第2层和第3层卸载到远程节点A,将第4层卸载到远程节点B,并将第1层和第5层留在本地执行,且第5层应在第3层和第4层执行之后执行。在本例中,该方案的响应时间由第5层执行完后的时刻,即t5决定。首先计算t1(Line 12-13),由于
Figure BDA0003138717660000218
得到公式t1=Te(l1)(Line 9),并且可根据公式(5-8)计算;其次计算t2,由于
Figure BDA0003138717660000219
则可得到tmax(Line 6),由于父层有且仅有一层,因此tmax即为t1+Td(l1,l2),其中Td(l1,l2)可以根据公式(5-9)计算得到;同理可得t3和t4;最后,根据公式(5-7),可以计算执行第五层的时刻t5=max{t3+Td(l3,l5),t4+Td(l4,l5)}+Te(l5),其中Td(l3,l5)和Td(l4,l5)的计算同理Td(l1,l2),Te(5)的计算同理Te(l1)。因此Tresponse=t5便可通过上述公式和算法计算出结果,也就是该卸载决策的目标函数。
Figure BDA0003138717660000221
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。

Claims (9)

1.一种边缘环境下DNN应用计算卸载自适应中间件构建方法,其特征在于:包括以下步骤:
步骤S1:构建卸载机制,所述卸载机制的输入为DNN源码,输出为可卸载的DNN目标代码;
步骤S2:构建评估模型,所述评估模型的输入为环境配置和应用源码,输出为最优卸载方案。
2.根据权利要求1所述的一种边缘环境下DNN应用计算卸载自适应中间件构建方法,其特征在于:所述步骤S1的具体包括以下步骤:
步骤S11:提出管道-过滤器模式的设计模式;
步骤S12:利用代码重构技术将DNN源码转变为DNN目标代码,使该代码符合步骤S11的设计模式;代码重构目的是使代码严格遵循设计模式以实现卸载;
步骤S13:运行时机制根据配置文件对给定的卸载方案进行自适应卸载。
3.根据权利要求1所述的一种边缘环境下DNN应用计算卸载自适应中间件构建方法,其特征在于:所述步骤S11的具体内容为:
管道-过滤器设计模式,即将一个整体的执行单元按需划分为多个可独立执行的小单元;其中,每个执行单元称为一个过滤器部件,该部件有一组独立的输入端口和输出端口,负责承接上下层的中间执行数据;执行单元间的数据连接通路称为一个管道部件,所述管道部件负责接受数据与转发数据;所述管道-过滤器模式扩展DNN层级分布式卸载能力,模型中的层相当于过滤器,管道作为层间的数据传输带,该数据传输模式不依赖于过滤器执行的位置,因此过滤器可被卸载在相同或不同的计算节点上;其中,DNN第一层的参数包括输入数据,DNN最后一层的输出结果即为网络推理的结果;在一个典型的DNN代码执行过程中,过滤器负责层的接受输入、计算以及保存输出,其中,接受的输入值将作为该层的入参,来源于外界输入或是上一层的中间运算向量;计算即DNN层的执行;保存的输出值将作为推理结果或是后继层的入参;管道负责层间数据的调度,包括接受本地或是远程的过滤器输出,并发送至本地过滤器或远程过滤器。
4.根据权利要求1所述的一种边缘环境下DNN应用计算卸载自适应中间件构建方法,其特征在于:所述步骤S12中所述代码重构具体包括以下步骤:
步骤a:入参准备:在传入初始化数据InitData至DNN层中时,新增参数InitL、EndL,分别表示当前节点处理的初始DNN层标号和结束层标号;给定一个应用程序,在代码重构过程中***InitL、EndL于参数列表,表示一次调用从初始DNN层InitL执行至结束DNN层EndL;新增参数CurrentL用以标记DNN应用执行的进度,即当前执行的过滤器标号;那么,当前节点中DNN层标号不在InitL至EndL范围内的DNN层将被跳过执行;由于不执行InitL的上一层,InitData被赋值作为上一层执行的中间结果输出;
步骤b:新增管道机制:新增方法Pipe(i)于执行每一层layer[i]之前,该方法决定layer[i]是否由当前节点的过滤器执行,对过滤器起激活作用,是运行时支撑机制的核心;
步骤c:新增过滤器:新增两个判断语句;第一个判断语句用以控制当前过滤器是否执行,第二个判断语句用以包装并存储本次调用中最后一个过滤器执行的结果,进而通过管道发送给远程节点的过滤器,即对管道起激活作用;新增全局变量Output用以保存待管道接收的中间输出结果,当前层的后继层若卸载于远程时,则需用到该变量。
5.根据权利要求1所述的一种边缘环境下DNN应用计算卸载自适应中间件构建方法,其特征在于:
在DNN应用执行阶段,根据管道-过滤器设计模式进行代码重构的目标程序代码和配置文件将部署在MEC环境中的所有计算节点上,对于配置文件的定义如下:一个DNN应用的卸载方案可通过配置文件config.file(x)表示,其中,x∈L表示DNN模型中的一个层编号,也称为过滤器x,L,且配置文件将不断更新至最新生成的卸载方案;需要明确的是,按层粒度标记每一层的卸载位置时,当过滤器x需要在本地节点被激活,则config_file(x)==LOCAL;当过滤器x需要卸载至远程节点时,则config_file(x)==REMOTE_,其中,REMOTE_后接卸载节点的名称;运行时的计算卸载机制通过管道来控制,并通过管道机制算法即通过输入的待激活的过滤器x和当前需要执行的DNN层″CurrentL″进行比较,如果CurrentL大于x,则x不执行直接跳过,如果当前CurrentL与x相等,则需要执行,并进一步通过config文件进行判断,如果是本地执行则直接在本地激活过滤器x,如果是需要远程执行,则通过RPC来激活卸载的目标计算节点的过滤器,达到计算卸载的目的。
6.根据权利要求1所述的一种边缘环境下DNN应用计算卸载自适应中间件构建方法,其特征在于:所述步骤S2的具体包括以下步骤:
步骤S21:对基本信息进行建模,包括DNN结构模型、随机森林回归的代价预测模型组以及环境上下文模型;其中,DNN结构模型以DNN层代码作为输入,通过静态代码分析对模型中的层参数进行特征抽取;随机森林回归的代价预测模型组以DNN结构模型的信息作为输入,以随机森林回归模型作为训练器,输出为经过训练的模型组所预测的时延;
步骤S22:综合上述三种模型,对要计算的卸载方案进行影响因素分析以及目标函数的构建;
所述影响因素指在衡量计算卸载方案性能问题时,对该问题结果可能产生影响的所有因素,它们可能来源于上述三个信息模型;所述目标函数为执行DNN模型所需的总体响应时间;
步骤S23:评估模型的输出为最优的计算卸载方案,该方案能决策出DNN每一层的部署节点,从而得到最优的目标函数,即使卸载后的应用性能最佳,该方案的粒度为DNN层,通过配置文件实现对该方案的配置,并随目标代码部署于计算节点上。
7.根据权利要求1所述的一种边缘环境下DNN应用计算卸载自适应中间件构建方法,其特征在于:步骤S21所述DNN结构模型的具体构建如下:
一个DNN模型结构可抽象为一个有向图GD=(L,R),表示层特征和层间传输关系;其中,L={l1,l2,...,ln}为DNN模型中层的集合,每个ln为模型中的一个层;R为DNN模型中数据流边的集合,每条边rij∈R表示从层li到lj的数据流向;
一个DNN层结构包括一个类型参数和一个至多个的特征参数,表示为li=<tpe,feature>的二元组,用以描述该层信息;其中,type表示DNN层的类型,feature表示DNN层的特征参数;
一个DNN层的类型参数表示为{type|conv,reul,pooling,fc},即代码分析提取的四种层类型,每个层仅有一个该参数;其中,conv表示为卷积层,reul表示为激励层,pooling表示为池化层,fc表示为全连接层;
一个DNN层的特征参数表示为{feature|name=value},即参数名和参数值的一个键值对,每个层有一至多个的该参数;其中,当type=conv时,
{name|channel,ksize,knumber:stride,padding},channel表示卷积层的特征定义频道数,ksize表示卷积层的卷积核尺寸,knumber表示卷积层的卷积核数量,stride表示卷积层的移动步长,padding表示卷积层的填充值;当type=reul或type=fc时,
{name|innumber,outnumber},innumber表示激励层或全连接层的输入神经元的数量,outnumber表示激励层或全连接层的输出神经元的数量;当type=pooling时,
{name|channel,ksize,stride},channel表示池化层的输入通道维度,ksize表示池化层的区域大小,stride表示池化层的移动步长;
所述环境上下文模型的构建如下:
一个上下文边缘环境可抽象为一个无向图GC=(N,E),其中N表示一组计算节点,包括本地设备和远程服务器;E表示一组存在于节点ni∈N间的通讯链路。每条边edge(ni,nj)∈E具有以下属性:节点ni和nj间的数据传输速率
Figure FDA0003138717650000051
以及往返时间
Figure FDA0003138717650000052
8.根据权利要求1所述的一种边缘环境下DNN应用计算卸载自适应中间件构建方法,其特征在于:步骤S21中所述基于随机森林回归的代价预测建模具体构建如下:对于每一层,代价预测模型将DNN层的类型和特征作为输入,并预测该层的执行时间;个DNN层在某一计算节点上的执行代价包括执行时间和数据量大小,表示为
Figure FDA0003138717650000053
的二元组,其中,time表示从接收输入数据到生成输出数据过程的执行时间,这取决于计算节点的性能;datasize表示输出数据的数据量大小,为固定值;使用随机森林回归模型来预测
Figure FDA0003138717650000054
利用历史数据集来训练预测模型:首先在各个计算节点上执行DNN应用程序,并从包括Alexnet、VGG16、VGG19、ResNet-50和ResNet-152在内的DNN应用程序中收集数据;随机森林回归预测模型如公式(1)所示,其中输入值(X)取决于层的类型,当层类型为卷积层conv时,如公式(2)所示;当层类型为池化层pooling时,如公式(3)所示;当层类型为激励层relu时,如公式(4)所示;当层类型为全连接层fc时,如公式(5)所示。
Y=predict(X) (1)
Xconv=(channel,ksize,knumber,stride,padding) (2)
Xpooling=(channel,ksize,stride) (3)
Xrelu=(innumber,outnumber) (4)
Xfc=(innumber,outnumber) (5)
采用以上重要变量,以及参数Ntree和Mtry,便可训练获得一个可预测执行成本的回归模型;其中,Ntree表示基于收集的层执行成本样本生长的回归树的数量,Mtry表示在每个节点上用于预测的预测因子的数量。
9.根据权利要求1所述的一种边缘环境下DNN应用计算卸载自适应中间件构建方法,其特征在于:所述步骤S22的具体内容为:在决定每一DNN层应被卸载于哪一计算节点过程中,所需考虑的影响因子为:L表示DNN模型中一组DNN层集合,L={l1,l2,...,ln};N表示一组计算节点集合,包括DS,ME和RC,nk∈N;
Figure FDA0003138717650000074
表示DNN层li的一组父节点集合;DEP表示一组计算卸载决策,
DEP=(dep(l1),dep(l2),...,dep(ln));
Figure FDA0003138717650000071
表示节点ni和nj间的数据传输速率
Figure FDA0003138717650000072
Figure FDA0003138717650000073
表示节点ni和nj间的往返时间;ti表示执行完DNN层li的时刻;Td(lk,lm)表示DNN层lk和lm间的数据传输时间;Te(li)表示执行DNN层li的执行时间;Trespanse表示一个DNN应用程序在某一卸载决策下的响应时间;
其中,在DEP=(dep(l1),dep(l2),...,dep(ln))中,DEP表示一种计算卸载方案,每一个li∈L均存在一个对应的卸载节点一个DNN应用程序的响应时间被表示为Tresponse,它等同于执行完最后一层DNN层lend的时刻tend,其中ti表示为执行完DNN层li的时刻;构造的目标函数即为评估一个卸载方案的完整响应时间Tresponse的过程;构造目标函数如公式(6)所示,当一个卸载决策的目标函数值最小,则该卸载决策是最优的;
Tresponse=tn (6)。
CN202110726143.0A 2021-06-29 2021-06-29 一种边缘环境下dnn应用计算卸载自适应中间件构建方法 Active CN113435580B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110726143.0A CN113435580B (zh) 2021-06-29 2021-06-29 一种边缘环境下dnn应用计算卸载自适应中间件构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110726143.0A CN113435580B (zh) 2021-06-29 2021-06-29 一种边缘环境下dnn应用计算卸载自适应中间件构建方法

Publications (2)

Publication Number Publication Date
CN113435580A true CN113435580A (zh) 2021-09-24
CN113435580B CN113435580B (zh) 2022-06-07

Family

ID=77757548

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110726143.0A Active CN113435580B (zh) 2021-06-29 2021-06-29 一种边缘环境下dnn应用计算卸载自适应中间件构建方法

Country Status (1)

Country Link
CN (1) CN113435580B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115733888A (zh) * 2022-11-23 2023-03-03 福州大学 一种边缘环境下支持多物联网应用自适应卸载的方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107133101A (zh) * 2017-04-27 2017-09-05 福州大学 IoT***中的自适应计算迁移中间件
CN110764885A (zh) * 2019-08-28 2020-02-07 中科晶上(苏州)信息技术有限公司 一种多移动设备的dnn任务的拆分和卸载方法
CN111405569A (zh) * 2020-03-19 2020-07-10 三峡大学 基于深度强化学习的计算卸载和资源分配方法及装置
CN112214261A (zh) * 2020-10-30 2021-01-12 内蒙古工业大学 一种面向边缘智能的三层结构dnn计算卸载方法
CN112783567A (zh) * 2021-01-05 2021-05-11 中国科学院计算技术研究所 一种基于全局信息的dnn任务卸载决策方法
CN112817741A (zh) * 2021-01-05 2021-05-18 中国科学院计算技术研究所 一种边缘计算的dnn任务控制方法
CN112822264A (zh) * 2021-01-05 2021-05-18 中国科学院计算技术研究所 一种dnn任务卸载的方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107133101A (zh) * 2017-04-27 2017-09-05 福州大学 IoT***中的自适应计算迁移中间件
CN110764885A (zh) * 2019-08-28 2020-02-07 中科晶上(苏州)信息技术有限公司 一种多移动设备的dnn任务的拆分和卸载方法
CN111405569A (zh) * 2020-03-19 2020-07-10 三峡大学 基于深度强化学习的计算卸载和资源分配方法及装置
CN112214261A (zh) * 2020-10-30 2021-01-12 内蒙古工业大学 一种面向边缘智能的三层结构dnn计算卸载方法
CN112783567A (zh) * 2021-01-05 2021-05-11 中国科学院计算技术研究所 一种基于全局信息的dnn任务卸载决策方法
CN112817741A (zh) * 2021-01-05 2021-05-18 中国科学院计算技术研究所 一种边缘计算的dnn任务控制方法
CN112822264A (zh) * 2021-01-05 2021-05-18 中国科学院计算技术研究所 一种dnn任务卸载的方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CHEN, X (CHEN, XING) ET AL.: "DNNOff: Offloading DNN-Based Intelligent IoT Applications in Mobile Edge Computing", 《IEEE TRANSACTIONS ON INDUSTRIAL INFORMATICS》 *
LIN, B (LIN, BIN) ET AL.: "Cost-Driven Off-Loading for DNN-Based Applications Over Cloud, Edge, and End Devices", 《IEEE TRANSACTIONS ON INDUSTRIAL INFORMATICS》 *
胡俊钦 等: "边缘环境下DNN应用的计算迁移调度技术", 《计算机科学》 *
赵海涛等: "基于DQN的车载边缘网络任务分发卸载算法", 《通信学报》 *
高寒 等: "移动边缘计算环境中基于能耗优化的深度神经网络", 《计算机集成制造***》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115733888A (zh) * 2022-11-23 2023-03-03 福州大学 一种边缘环境下支持多物联网应用自适应卸载的方法

Also Published As

Publication number Publication date
CN113435580B (zh) 2022-06-07

Similar Documents

Publication Publication Date Title
Chen et al. DNNOff: offloading DNN-based intelligent IoT applications in mobile edge computing
Zhou et al. Edge intelligence: Paving the last mile of artificial intelligence with edge computing
Li et al. Edge AI: On-demand accelerating deep neural network inference via edge computing
US20180046913A1 (en) Combining cpu and special accelerator for implementing an artificial neural network
CN114338504B (zh) 一种基于网络边缘***的微服务部署和路由方法
CN110428046B (zh) 神经网络结构的获取方法及装置、存储介质
WO2021254114A1 (zh) 构建多任务学习模型的方法、装置、电子设备及存储介质
CN114915630B (zh) 基于物联网设备的任务分配方法、网络训练方法及装置
US20220004858A1 (en) Method for processing artificial neural network, and electronic device therefor
CN106062786A (zh) 用于训练神经网络的计算***
CN114661466B (zh) 用于边缘计算环境中面向智能工作流应用的任务卸载方法
CN113505883A (zh) 一种神经网络训练方法以及装置
CN113435580B (zh) 一种边缘环境下dnn应用计算卸载自适应中间件构建方法
CN115170840B (zh) 数据处理***、方法和电子设备
CN113946423A (zh) 基于图注意力网络的多任务边缘计算调度优化方法
Hu et al. Pipeedge: Pipeline parallelism for large-scale model inference on heterogeneous edge devices
Tian et al. JMSNAS: Joint model split and neural architecture search for learning over mobile edge networks
CN116341624A (zh) 一种边端协同深度学习计算加速***及方法
Sapra et al. Deep learning model reuse and composition in knowledge centric networking
Guo et al. Energy-efficient incremental offloading of neural network computations in mobile edge computing
US20210383258A1 (en) Systems and Methods for Dynamically Configuring Multidimensional Data Processing Pipelines in Software-controlled Hardware-Software Embedded Systems
CN117395687A (zh) 一种星地融合网络节点资源部署方法、***及电子设备
CN116663644A (zh) 一种多压缩版本的云边端dnn协同推理加速方法
CN116431326A (zh) 一种基于边缘计算和深度强化学习的多用户依赖性任务卸载方法
CN116436980A (zh) 一种实时视频任务端网边协同调度方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant