CN114172937B - 基于深度强化学习的动态服务功能链编排方法及*** - Google Patents

基于深度强化学习的动态服务功能链编排方法及*** Download PDF

Info

Publication number
CN114172937B
CN114172937B CN202210060694.2A CN202210060694A CN114172937B CN 114172937 B CN114172937 B CN 114172937B CN 202210060694 A CN202210060694 A CN 202210060694A CN 114172937 B CN114172937 B CN 114172937B
Authority
CN
China
Prior art keywords
network
neural network
vnf
service function
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210060694.2A
Other languages
English (en)
Other versions
CN114172937A (zh
Inventor
刘亮
杜娅荣
桂晓菁
陈翔
侯泽天
赵国锋
徐川
曾帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Baosi Information Technology Co ltd
Shenzhen Hongyue Information Technology Co ltd
Original Assignee
Guangzhou Baosi Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Baosi Information Technology Co ltd filed Critical Guangzhou Baosi Information Technology Co ltd
Priority to CN202210060694.2A priority Critical patent/CN114172937B/zh
Publication of CN114172937A publication Critical patent/CN114172937A/zh
Application granted granted Critical
Publication of CN114172937B publication Critical patent/CN114172937B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/12Discovery or management of network topologies

Abstract

本发明公开了基于深度强化学习的动态服务功能链编排方法及***,根据SDN控制器获取历史网络状态;网络状态包括支持移动边缘计算的物联网网络中产生的服务功能链请求流信息以及对应的网络资源状态信息;设定深度强化学习参数并初始化神经网络的权重;根据智能体与环境交互产生的经验样本训练神经网络;对于实时获取的服务功能链请求流,利用训练好的神经网络,采用启发式算法,确定并部署满足服务功能链请求流要求的虚拟化网络功能的放置与路由路径,综合考虑了网络资源状态信息,实现了在减少物联网请求流对资源消耗成本和时延的同时实现了网络的负载均衡,并提高了网络流量接收率。

Description

基于深度强化学习的动态服务功能链编排方法及***
技术领域
本发明属于边缘计算技术领域,涉及一种基于深度强化学习的动态服务功能链编排方法及***,用于解决边缘计算背景下的虚拟网络功能放置和路由问题。
背景技术
随着物联网的迅速发展,物联网终端的数量正在持续增长,导致了海量的计算密集型和延迟敏感型的物联网请求流,例如无人驾驶、增强现实和人脸识别等。尽管传统的云计算可以为这些物联网数据提供较高的计算能力,但它不能满足数据的低时延和低能耗要求。将数据传输至远程的云数据中心将造成较大的网络延迟并将消耗巨量的带宽和传输资源。为了解决这个问题,边缘计算通过在靠近物联网终端的网络边缘部署一系列边缘服务器为物联网数据提供计算和存储资源,以达到降低数据处理的时延和能耗的目的。同时,为保证给物联网终端提供稳定,安全,高效的网络服务,网络服务提供商通常需要按照流量的业务需求,规定数据包在网络中传输时,需要按顺序经过不同的网络功能,即服务功能链。网络功能虚拟化改变了网络功能只能在专有平台上实现的情况,解耦了物理网络设备和运行于其之上的网络功能,灵活地为用户提供各种网络服务,并能够快速支持新服务,降低了设备投资和运营费用。软件定义网络中逻辑集中的控制器将服务功能链部署至物理网络中并将流表下发至数据平面以实现流量路由,实现了更加灵活的流量控制能力和网络的可编程性。然而,在支持移动边缘计算的物联网网络中,由于边缘云的资源有限,且每种类型的虚拟化网络功能不只有一个实例,相同类型的虚拟化网络功能可以部署在不同的微云上,这给优化虚拟网络功能的放置和路由路径的选择以合理分配及利用资源增加了难度。而现有的服务功能链部署方法都存在某些方面的不足。传统的求解组合问题的精确方法虽然可以得到全局最优解,但不适用于网络规模和物联网请求流数量较大的情况;启发式算法虽然可以在一定时间内求得可行解,但容易陷入局部最优解且在大多数情况下很难适应动态的网络变化。因此,我们需制定一种优化策略,以从多VNF实例支持的基于移动边缘计算物联网网络环境中动态部署服务功能链,以满足具有服务功能链要求的物联网请求流要求,从而最小化物联网请求流的成本和时延,提高物联网请求流的接收率,确保网络的负载均衡。
发明内容
本发明所要解决的技术问题是如何在实现网络负载均衡的条件下提高物联网请求流的接收率,目的在于提供一种基于深度强化学习的动态服务功能链编排方法及***,综合考虑了网络资源状态信息,实现了在减少物联网请求流对资源消耗成本和时延的同时实现了网络的负载均衡,并提高了网络流量接收率。
本发明通过下述技术方案实现:
一方面,本发明提供基于深度强化学习的动态服务功能链编排方法,包括以下步骤:
S1、根据SDN控制器获取历史网络状态;网络状态包括支持移动边缘计算的物联网网络中产生的服务功能链请求流信息以及对应的网络资源状态信息;
S2、根据网络状态设定深度强化学习参数并初始化神经网络的权重;
S3、根据智能体与环境交互产生的经验样本训练神经网络;
S4、对于实时获取的服务功能链请求流,利用训练好的神经网络,采用启发式算法,确定并部署满足服务功能链请求流要求的虚拟化网络功能的放置与路由路径。
目前,大多数文献不能在保证负载均衡的条件下合理利用边缘云服务器中的计算资源和链路上的带宽资源并联合考虑物联网请求流的接收率和时延要求。因此,需要从多VNF实例支持的基于移动边缘计算物联网网络环境中动态部署服务功能链,制定一种优化策略,以满足具有服务功能链要求的物联网请求流要求,从而最小化物联网请求流的成本和时延,提高物联网请求流的接收率,确保网络的负载均衡。并且由于深度强化学习可以使用马尔可夫决策过程建模网络资源状态的转换且适合解决组合优化问题,因此,本发明中利用深度强化学习的方法训练神经网络,并利用启发式算法使得智能体可以快速响应在支持移动边缘计算的物联网网络中产生的物联网请求流,并动态部署所需的VNF实例并找到最优路由路径。
进一步地,所述步骤S1中,服务功能链请求流按预定义的顺序依次遍历不同的VNF;网络资源状态信息包括微云上CPU计算资源的剩余率、链路上带宽资源的剩余率、微云上VNF实例的处理时延和链路上数据流量的传输时延。
进一步地,所述步骤S2中,初始化神经网络的权重包括:
初始化经验池,将智能体与环境交互产生的经验样本存入经验池中;
将第一状态值函数Q作为在线网络,并随机初始化Q对应的权重参数θ,将第二状态值函数作为目标网络,并将/>对应的权重参数θ-初始化值与θ相同。
进一步地,所述步骤S2中,神经网络包括VNF放置神经网络和流量路由神经网络,设定深度强化学习参数包括设定强化学习中马尔科夫决策过程的相关参数:
状态S:其中,Sp为VNF放置神经网络的输入,Sr为流量路由神经网络的输入,/>为微云c上CPU计算资源的剩余率;/>为属于服务功能链请求流i的类型为p的VNF的CPU计算资源需求,/>为请求流i可容忍的最大延迟;Be,Be+1分别表示路径(e,e+1)上起始节点e和目的节点e+1的二进制编码;/>为第l条链路上带宽资源的剩余率;/>为请求流i的带宽资源需求;
动作A:VNF放置神经网络的动作为请求流i需要遍历的VNF实例的集合;流量路由神经网络的动作为起始节点和目的节点之间的路由路径;
奖励R:VNF放置神经网络的奖励为微云上的处理时延和CPU计算资源消耗成本之和,流量路由神经网络的奖励为请求流i在链路上的传输时延和带宽资源消耗成本的加权和。
进一步地,神经网络包括VNF放置神经网络和流量路由神经网络,则步骤S3中训练神经网络的过程包括:
训练VNF放置神经网络:
从当前网络状态中获取VNF放置神经网络的输入,并利用经验样本训练VNF放置神经网络,输出最优VNF实例组合;
训练流量路由神经网络:
获取最优VNF实例组合及当前网络状态作为流量路由神经网络的输入,并利用经验样本训练流量路由神经网络,输出路由路径。
进一步地,经验样本以四元组的形式进行存储:{S,A,R,S′},表示智能体在状态S下执行动作A,到达新的状态S′,并获得相应的奖励R。
进一步地,两个神经网络的具体训练过程均包括:
S31、随机初始化神经网络的在线网络和目标网络;`
S32、初始化状态S;
S33、在运行时间周期内,根据环境在在线网络中选择动作;
S34、输出在线网络所有动作对应的Q值,并用ε贪婪法选择最优Q值对应的动作A;
S35、在状态S下执行动作A,得到新状态S′和奖励R;并将得到的经验样本{S,A,R,S′}存入经验池中;
S36、从经验池中选择部分经验样本训练目标网络,输出目标Q值:
S37、根据目标Q值,使用均方差损失函数,通过梯度反向传播来更新在线网络的权重参数θ;并利用更新后的权重参数θ更新目标网络的权重参数θ-
进一步地,步骤S4的具体过程包括:
S41、根据训练好的VNF放置神经网络,得到当前请求流所需的VNF实例所在的微云组合,并根据微云上部署情况动态部署所需的VNF实例;
S42、将当前请求流所需的VNF实例所在的微云组合输入到训练好的流量路由神经网络中,将输出的Q值进行排序,选择前k个Q值对应的路由路径组成动作集K;
S43、利用启发式算法,在动作集K中选择满足带宽资源约束时奖励总值最高时对应的路由路径。
S44、根据当前请求流的服务功能链长度n,重复执行n-1次S42-S43,对服务功能链中的相邻微云节点获得n-1条奖励总值最高的路由路径。
进一步地,步骤S43的具体过程包括:
基于真实的支持移动边缘计算的物联网网络构建一个相同的模拟仿真环境;初始化可行动作的奖励集合;
对动作集K中的每个动作进行判断,是否违反链路带宽资源约束;
对于每个动作,如果未违反链路带宽资源约束,则在模拟仿真环境下执行该动作,并将其获得的奖励总值记录至可行动作的奖励集合中;
对可行动作的奖励集合中所有的奖励总值进行排序,将最高奖励总值对应的动作在真实的支持移动边缘计算的物联网网络环境中执行。
另一方面,本发明提供基于深度强化学习的动态服务功能链编排***,包括:
物联网终端,用于在物联网网络中产生支持移动边缘计算的服务功能链请求流信息;
SDN控制器,用于获取所述服务功能链请求流信息和网络资源状态信息;
预定义模块,用于根据获取的网络状态设定深度强化学习参数并初始化神经网络的权重;并负责在微云上进行VNF的动态部署以及管理服务功能链(SFC)请求流路由路径的配置;
网络训练模块,用于根据智能体与环境交互产生的经验样本训练神经网络;
网络部署模块,用于利用训练好的神经网络,采用启发式算法,确定所述服务功能链请求流对应的虚拟化网络功能的放置与路由路径。
本发明与现有技术相比,具有如下的优点和有益效果:
1、本发明提供基于深度强化学习的动态服务功能链编排方法及***,既考虑了资源消耗成本也考虑了端到端延迟,适用于动态复杂的,对通信成本和时延都要求较高的场景;在智能体训练完成后,可根据当前的网络资源状态迅速响应物联网请求流并为其分配合适的微云和链路,且具有一定的泛化能力;
2、本发明提供一种基于深度强化学***衡;
3、本发明提供一种基于深度强化学习的动态服务功能链编排方法及***,通过在资源约束或时延约束不满足时降低奖励值作为惩罚,使得智能体自动选择资源剩余率较高的微云和链路,从而提高物联网请求流的接收率。
附图说明
为了更清楚地说明本发明示例性实施方式的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。在附图中:
图1为本发明实施例提供的动态服务功能链编排方法流程图;
图2为本发明实施例提供的神经网络的训练和运行示意图;
图3为本发明实施例提供的动态服务功能链编排***结构示意图;
图4为本发明一种实施方式生成的服务功能链示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下面结合实施例和附图,对本发明作进一步的详细说明,本发明的示意性实施方式及其说明仅用于解释本发明,并不作为对本发明的限定。
实施例1
如图1所示,本实施例公开了基于深度强化学习的动态服务功能链编排方法,包括以下步骤:
S1、根据SDN控制器获取历史网络状态;网络状态包括支持移动边缘计算的物联网网络中产生的服务功能链请求流信息以及对应的网络资源状态信息;
具体地,服务功能链请求流为支持移动边缘计算的物联网网络中物联网终端发出的请求流,并且该请求流要求按预定义的顺序依次遍历不同的VNF;网络资源状态信息包括微云上CPU计算资源的剩余率、链路上带宽资源的剩余率、微云上VNF实例的处理时延和链路上数据流量的传输时延。
S2、根据网络状态设定深度强化学习参数并初始化神经网络的权重;
具体地,所述神经网络包括VNF放置神经网络和流量路由神经网络,对于每个神经网络,初始化神经网络的权重均包括:
初始化经验池,将智能体与环境交互产生的经验样本存入经验池中,经验池的容量为N(即可以存储N个历史样本),用作历史经验回放;经验池中存储有经验样本,经验样本以四元组的形式进行存储:{S,A,R,S′},表示智能体在状态S下执行动作A,到达新的状态S′,并获得相应的奖励R。
如图2所示,左侧部分为VNF放置神经网络,右侧部分为流量路由神经网络,两个网络均包含在线(online)网络和目标(target)网络,在线网络用于找出最大Q值对应的动作,目标网络用于计算目标Q值,图3中的Network即为图2中的物理网络。
则对于每个网络将第一状态值函数Q作为在线网络,并随机初始化Q对应的权重参数θ,将第二状态值函数作为目标网络,并将/>对应的权重参数θ-初始化值设置成与θ相同。
设定深度强化学习参数包括设定强化学习中马尔科夫决策过程的三大要素:
状态S:其中,Sp为VNF放置神经网络的输入,Sr为流量路由神经网络的输入,/>为第c个微云上CPU计算资源的剩余率;/>为属于服务功能链请求流i的类型为p的VNF的CPU计算资源需求,为请求流i可容忍的最大延迟;Be,Be+1分别表示路径(e,e+1)上起始节点e和目的节点e+1的二进制编码;/>为第l条链路上带宽资源的剩余率;/>为请求流i的带宽资源需求;
动作A:VNF放置神经网络的动作为请求流i需要遍历的VNF实例的集合;流量路由神经网络的动作为起始节点和目的节点之间的路由路径;
奖励R:VNF放置神经网络的奖励为微云上的处理时延和CPU计算资源消耗成本之和,即:
流量路由神经网络的奖励为请求流i在链路上的传输时延和带宽资源消耗成本的加权和,即:
其中,表示根据VNF放置神经网络输出的最优Q值所对应选择的微云集合,/>表示根据流量路由神经网络输出的最优Q值对应选择的路由路径的集合,F表示服务功能链的节点集合,包括起始节点、VNF节点和目的节点;dc为第c个微云上的处理延迟,由以下公式计算可得,/>为微云c上的单位数据包处理时间;xpc为二进制变量表示第c个微云上是否部署了类型为p的VNF实例;其中,ηa,ηb为大于1的常数;/>为类型为p的VNF实例的激活成本;dl为第l条链路上的传输延迟;/>为二进制变量表示服务功能链(SFC)中的链路mn是否映射到了物理链路uv上;物理链路即为图2中的物理网络的链路,以上路由路径均是在物理链路上进行寻找,λ1和λ2为权重系数。值得注意的是,本实施例考虑到了资源的边际成本问题,利用相对成本来刻画资源消耗成本,这样智能体agent可以在VNF放置和路由的选择过程中避免选择资源消耗较多的微云和链路以减少网络拥塞并自动实现负载均衡,并且利用奖励与惩罚使得智能体自动选择资源消耗和延迟较小的微云和链路,并通过当物联网请求流被拒绝导致路由失败时设置较低的奖励值,例如当因请求流的时延或资源约束不满足导致请求流被拒绝接收时将奖励值设置为负数;通过在资源约束或时延约束不满足时降低奖励值作为惩罚,使得智能体自动选择资源剩余率较高的微云和链路,从而提高物联网请求流的接收率。
S3、根据智能体与环境交互产生的经验样本训练神经网络;神经网络的训练是根据S1和S2中的定义,使用基于Double深度Q学习的算法进行的,具体地,两个神经网络的具体训练过程均包括:
S31、随机初始化神经网络的在线网络和目标网络;
S32、初始化状态S作为当前序列的第一个状态;
S33、在运行时间周期内,根据环境在在线网络中选择动作:
for t∈[1:T*episode]
for t∈[1:T]
其中,T表示时间周期,episode是运行周期数;
S34、输出在线网络所有动作对应的Q值,并用ε贪婪法选择最优Q值对应的动作A;
S35、在状态S下执行动作A,得到新状态S′和奖励R并判断是否达到终止条件;若否则重复上述步骤S31-S35,直到达到终止条件,将所有得到的经验样本{S,A,R,S′}存入经验池中;
S36、从经验池中进行采样,选择m个样本{Sj,Aj,Rj,S′j},j=1,2,...m,训练目标网络,根据目标Q值,得到各个状态下对应的奖励值yj
S37、根据不同状态下获得的奖励值,使用均方差损失函数:
通过梯度反向传播来更新在线网络的权重参数θ;并利用更新后的权重参数θ更新目标网络的权重参数θ-。具体地,若Sj为终止状态时,则奖励值yj=Rj,若Sj不是终止状态,则奖励值其中,γ是衰减因子(discountfactor),是介于[0,1]之间的常数。
更加具体地,如图2所示,对两个神经网络进行训练时,需要先对VNF放置神经网络训练,根据上述步骤分别产生VNF放置神经网络的经验样本(ss,as,rs,ss+1)和流量路由神经网络的经验样本(sp,ap,rp,sp+1)且分别存储在经验池Es和经验池Ep中,其中,先根据步骤①-步骤③对VNF放置神经网络进行训练,
步骤①表示从环境中获取VNF放置神经网络的状态ss作为输入;
步骤②表示经过经验样本训练后的VNF放置神经网络,输出最优Q值对应的动作即输出最优VNF实例组合;
步骤③中,智能体通过SDN控制器获得奖励和变化后的状态后,将生成的经验样本存储至经验池Es中;
步骤④-⑥对流量路由神经网络进行训练,与步骤①-③类似,
步骤④根据步骤②输出的最优VNF实例组合及当前网络状态作为流量路由神经网络的输入,
步骤⑤输出最优Q值对应的最优路由路径,
步骤⑥为智能体通过SDN控制器获得奖励和变化后的状态后,将产生的经验样本存储至经验池Ep中,在步骤⑦中,智能体在经验池中随机采样小批量数据用于训练在线网络,并每隔固定时间按照上述步骤更新目标网络的参数。
S4、对于实时获取的服务功能链请求流,利用训练好的神经网络,采用启发式算法(heuristic algorithm),确定并部署满足服务功能链请求流要求的虚拟化网络功能的放置与路由路径。
具体的,S4的具体步骤包括:
S41、根据训练好的VNF放置神经网络,得到当前请求流所需的VNF实例所在的微云组合,并根据微云上部署情况动态部署所需的VNF实例;
S42、将当前请求流所需的VNF实例所在的微云组合输入到训练好的流量路由神经网络中,将输出的Q值进行排序,选择前k个Q值对应的路由路径组成动作集K;
S43、利用启发式算法,在动作集K中选择满足带宽资源约束时奖励总值最高时对应的路由路径。
S44、根据当前请求流的服务功能链长度n,重复执行n-1次S42-S43,为服务功能链中的相邻微云节点获得前k个Q值对应的路由路径,最终获得n-1条奖励总值最高的路由路径。
进一步地,步骤S43的具体过程包括:
基于真实的支持移动边缘计算的物联网网络构建一个相同的模拟仿真环境;初始化可行动作的奖励集合为空集Φ;
对动作集K中的每个动作进行判断,是否违反链路带宽资源约束:for a∈K;
对于每个动作,如果未违反链路带宽资源约束,则在模拟仿真环境下执行该动作a,,并将其获得的奖励总值ra记录至可行动作的奖励集合中且环境到达下一状态,其中奖励总值ra为两个神经网络输出的奖励值的总和,按如下公式进行计算:
ra=rr+rp
(5)
若违反链路带宽资源约束,则路由失败,拒绝接受请求流;
对可行动作的奖励集合中所有的奖励总值进行排序,将最高奖励值对应的动作在真实的支持移动边缘计算的物联网网络环境中执行。
如图2所示,步骤(1)到步骤(5)表示利用本方法得到最优路由路径的过程。
步骤(1)表示获取请求流SFCRi和当前网络状态的资源信息,
步骤(2)表示输出放置了SFCRi所需的VNF实例所在的微云组合,并根据微云上VNF实例的部署情况动态部署所需的VNF,假如SFCRi的SFC长度为5,则需要分别循环执步骤(3)和步骤(4)行四次来获取流量路由神经网络的状态并为相邻的微云选择Q值较高的k条路由路径,在实际应用时,可选择在排序中前20%的Q值对应的k条路由路径;步骤(3)和步骤(4)对应上述步骤S42的过程;
步骤(5)表示利用启发式算法网络输出的性能较好的候选路由路径集合K中选择满足带宽资源约束时奖励总值最高时对应的路由路径,也需循环执行四次。
实施例2
如图3所示,本实施例提供基于深度强化学习的动态服务功能链编排***,包括:
物联网终端,用于在物联网网络中产生支持移动边缘计算的服务功能链请求流信息;
SDN控制器(SDN Controller),用于获取所述服务功能链请求流信息和网络资源状态信息;并负责在微云上进行VNF的动态部署以及管理服务功能链(SFC)请求流路由路径的配置。
智能体包括:
预定义模块,用于根据获取的网络状态设定深度强化学习参数并初始化神经网络的权重;
网络训练模块,用于根据智能体与环境交互产生的经验样本训练神经网络;
网络部署模块,用于利用训练好的神经网络,采用启发式算法,确定所述服务功能链请求流对应的虚拟化网络功能的放置与路由路径。
智能体内网络的训练过程与实施例1中的方法一致,在此不再赘述,在一种具体的实施方式中,如图3所示,环境为整个物理网络环境,环境中包括了多个微云,其中,物联网终端(IoT terminal)作为起始节点,发送支持移动边缘计算的服务功能链请求流SFCRi,该请求流需要依次被Cloudlet3上的防火墙、Cloudlet4上的入侵检测***和Cloudlet5上的负载均衡器所处理,最终到达目的节点Src,则最终形成的请求流SFCRi服务功能链(SFC)的路由路径如图4所示。
可以理解的是,本发明通过以上方法不仅考虑了节点和链路的负载,实现了网络的负载均衡,还综合考虑了多种资源约束,例如微云上的CPU容量和链路上的剩余带宽。利用奖励与惩罚使得智能体自动选择资源消耗和延迟较小的微云和链路,并通过当物联网请求流被拒绝导致路由失败时设置较低的奖励值(例如设置为负值)来提高物联网请求流的接收率。利用训练好的神经网络,智能体可以快速响应在支持移动边缘计算的物联网网络中产生的物联网请求流,动态部署所需的VNF实例并找到最优路由路径。
本领域内的技术人员应明白,本申请的实施例可提供为方法、***、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本领域普通技术人员可以理解实现上述事实和方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,涉及的程序或者所述的程序可以存储于一计算机所可读取存储介质中,该程序在执行时,包括如下步骤:此时引出相应的方法步骤,所述的存储介质可以是ROM/RAM、磁碟、光盘等等。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.基于深度强化学习的动态服务功能链编排方法,其特征在于,包括以下步骤:
S1、根据SDN控制器获取历史网络状态;网络状态包括支持移动边缘计算的物联网网络中产生的服务功能链请求流信息以及对应的网络资源状态信息;
S2、根据网络状态设定深度强化学习参数并初始化神经网络的权重,初始化神经网络的权重包括:初始化经验池,将智能体与环境交互产生的经验样本存入经验池中;将第一状态值函数Q作为在线网络,并随机初始化Q对应的权重参数θ,将第二状态值函数作为目标网络,并将/>对应的权重参数θ-初始化值与θ相同;神经网络包括VNF放置神经网络和流量路由神经网络,设定深度强化学习参数包括设定强化学习中马尔科夫决策过程的相关参数:
状态S:其中,Sp为VNF放置神经网络的输入,Sr为流量路由神经网络的输入,/>为微云c上CPU计算资源的剩余率;/>为属于服务功能链请求流i的类型为p的VNF的CPU计算资源需求,/>为请求流i可容忍的最大延迟;Be,Be+1分别表示路径(e,e+1)上起始节点e和目的节点e+1的二进制编码;/>为第l条链路上带宽资源的剩余率;/>为请求流i的带宽资源需求;
动作A:VNF放置神经网络的动作为请求流i需要遍历的VNF实例的集合;流量路由神经网络的动作为起始节点和目的节点之间的路由路径;
奖励R:VNF放置神经网络的奖励为微云上的处理时延和CPU计算资源消耗成本之和,流量路由神经网络的奖励为请求流i在链路上的传输时延和带宽资源消耗成本的加权和;
其中,奖励R:VNF放置神经网络的奖励为微云上的处理时延和CPU计算资源消耗成本之和,即:
流量路由神经网络的奖励为请求流i在链路上的传输时延和带宽资源消耗成本的加权和,即:其中,/>表示根据VNF放置神经网络输出的最优Q值所对应选择的微云集合,/>表示根据流量路由神经网络输出的最优Q值对应选择的路由路径的集合,F表示服务功能链的节点集合,包括起始节点、VNF节点和目的节点;dc为第c个微云上的处理延迟,由以下公式计算可得,/> 为微云c上的单位数据包处理时间;xpc为二进制变量表示第c个微云上是否部署了类型为p的VNF实例;其中,ηa,ηb为大于1的常数;/>为类型为p的VNF实例的激活成本;dl为第l条链路上的传输延迟;/>为二进制变量表示服务功能链中的链路mn是否映射到了物理链路uv上;λ1和λ2为权重系数;
S3、根据智能体与环境交互产生的经验样本训练神经网络;训练过程包括:
S31、随机初始化神经网络的在线网络和目标网络;
S32、初始化状态S;
S33、在运行时间周期内,根据环境在在线网络中选择动作;
S34、输出在线网络所有动作对应的Q值,并用ε贪婪法选择最优Q值对应的动作A;
S35、在状态S下执行动作A,得到新状态S′和奖励R并判断是否达到终止条件;若否则重复上述步骤S31-S35,直到达到终止条件,将所有得到的经验样本{S,A,R,S′}存入经验池中;
S36、从经验池中进行采样,选择m个样本{Sj,Aj,Rj,Sj′},j=1,2,...m,训练目标网络,根据目标Q值,得到各个状态下对应的奖励值yj为:
S37、根据不同状态下获得的奖励值,使用均方差损失函数为:通过梯度反向传播来更新在线网络的权重参数θ;并利用更新后的权重参数θ更新目标网络的权重参数θ-;其中,若Sj为终止状态时,则奖励值yj=Rj,若Sj不是终止状态,则奖励值γ是衰减因子,是介于[0,1]之间的常数;
S4、对于实时获取的服务功能链请求流,利用训练好的神经网络,采用启发式算法,确定并部署满足服务功能链请求流要求的虚拟化网络功能的放置与路由路径,包括:
S41、根据训练好的VNF放置神经网络,得到当前请求流所需的VNF实例所在的微云组合,并根据微云上VNF的部署情况动态部署所需的VNF实例;
S42、将当前请求流所需的VNF实例所在的微云组合输入到训练好的流量路由神经网络中,将输出的Q值进行排序,选择前k个Q值对应的路由路径组成动作集K;
S43、利用启发式算法,在动作集K中选择满足带宽资源约束时奖励总值最高时对应的路由路径;步骤S43包括:
基于真实的支持移动边缘计算的物联网网络构建一个相同的模拟仿真环境;
初始化可行动作的奖励集合;
对动作集K中的每个动作进行判断,是否违反链路带宽资源约束;
对于每个动作,如果未违反链路带宽资源约束,则在模拟仿真环境下执行该动作,并将其获得的奖励总值记录至可行动作的奖励集合中;
对可行动作的奖励集合中所有的奖励总值进行排序,将最高奖励总值对应的动作在真实的支持移动边缘计算的物联网网络环境中执行;
S44、根据当前请求流的服务功能链长度n,重复执行n-1次S42-S43,对服务功能链中的相邻微云节点获得n-1条奖励总值最高的路由路径。
2.根据权利要求1所述的基于深度强化学习的动态服务功能链编排方法,其特征在于,所述步骤S1中,服务功能链请求流按预定义的顺序依次遍历不同的VNF;网络资源状态信息包括微云上CPU计算资源的剩余率、链路上带宽资源的剩余率、微云上VNF实例的处理时延和链路上数据流量的传输时延。
3.根据权利要求1所述的基于深度强化学习的动态服务功能链编排方法,其特征在于,神经网络包括VNF放置神经网络和流量路由神经网络,则步骤S3中训练神经网络的过程包括:
训练VNF放置神经网络:
从当前网络状态中获取VNF放置神经网络的输入,并利用经验样本训练VNF放置神经网络,输出最优VNF实例组合;
训练流量路由神经网络:
获取最优VNF实例组合及当前网络状态作为流量路由神经网络的输入,并利用经验样本训练流量路由神经网络,输出路由路径。
4.根据权利要求3所述的基于深度强化学习的动态服务功能链编排方法,其特征在于,经验样本以四元组的形式进行存储:{S,A,R,S′},表示智能体在状态S下执行动作A,到达新的状态S′,并获得相应的奖励R。
5.基于深度强化学习的动态服务功能链编排***,其特征在于,包括:
物联网终端,用于在物联网网络中产生支持移动边缘计算的服务功能链请求流信息;
SDN控制器,用于获取所述服务功能链请求流信息和网络资源状态信息;并负责在微云上进行VNF的动态部署以及管理服务功能链请求流路由路径的配置;
预定义模块,用于根据获取的网络状态设定深度强化学习参数并初始化神经网络的权重;初始化神经网络的权重包括:初始化经验池,将智能体与环境交互产生的经验样本存入经验池中;将第一状态值函数Q作为在线网络,并随机初始化Q对应的权重参数θ,将第二状态值函数作为目标网络,并将/>对应的权重参数θ-初始化值与θ相同;神经网络包括VNF放置神经网络和流量路由神经网络,设定深度强化学习参数包括设定强化学习中马尔科夫决策过程的相关参数:
状态S:其中,Sp为VNF放置神经网络的输入,Sr为流量路由神经网络的输入,/>为微云c上CPU计算资源的剩余率;/>为属于服务功能链请求流i的类型为p的VNF的CPU计算资源需求,/>为请求流i可容忍的最大延迟;Be,Be+1分别表示路径(e,e+1)上起始节点e和目的节点e+1的二进制编码;/>为第l条链路上带宽资源的剩余率;/>为请求流i的带宽资源需求;
动作A:VNF放置神经网络的动作为请求流i需要遍历的VNF实例的集合;流量路由神经网络的动作为起始节点和目的节点之间的路由路径;
奖励R:VNF放置神经网络的奖励为微云上的处理时延和CPU计算资源消耗成本之和,流量路由神经网络的奖励为请求流i在链路上的传输时延和带宽资源消耗成本的加权和;
其中,奖励R:VNF放置神经网络的奖励为微云上的处理时延和CPU计算资源消耗成本之和,即:
流量路由神经网络的奖励为请求流i在链路上的传输时延和带宽资源消耗成本的加权和,即:其中,/>表示根据VNF放置神经网络输出的最优Q值所对应选择的微云集合,/>表示根据流量路由神经网络输出的最优Q值对应选择的路由路径的集合,F表示服务功能链的节点集合,包括起始节点、VNF节点和目的节点;dc为第c个微云上的处理延迟,由以下公式计算可得,/> 为微云c上的单位数据包处理时间;xpc为二进制变量表示第c个微云上是否部署了类型为p的VNF实例;其中,ηa,ηb为大于1的常数;/>为类型为p的VNF实例的激活成本;dl为第l条链路上的传输延迟;/>为二进制变量表示服务功能链中的链路mn是否映射到了物理链路uv上;λ1和λ2为权重系数;
网络训练模块,用于根据智能体与环境交互产生的经验样本训练神经网络;训练过程包括:
S31、随机初始化神经网络的在线网络和目标网络;
S32、初始化状态S;
S33、在运行时间周期内,根据环境在在线网络中选择动作;
S34、输出在线网络所有动作对应的Q值,并用ε贪婪法选择最优Q值对应的动作A;
S35、在状态S下执行动作A,得到新状态S′和奖励R并判断是否达到终止条件;若否则重复上述步骤S31-S35,直到达到终止条件,将所有得到的经验样本{S,A,R,S′}存入经验池中;
S36、从经验池中进行采样,选择m个样本{Sj,Aj,Rj,Sj′},j=1,2,...m,训练目标网络,根据目标Q值,得到各个状态下对应的奖励值yj为:
S37、根据不同状态下获得的奖励值,使用均方差损失函数为:通过梯度反向传播来更新在线网络的权重参数θ;并利用更新后的权重参数θ更新目标网络的权重参数θ-;其中,若Sj为终止状态时,则奖励值yj=Rj,若Sj不是终止状态,则奖励值γ是衰减因子,是介于[0,1]之间的常数;
网络部署模块,用于利用训练好的神经网络,采用启发式算法,确定并部署满足服务功能链请求流要求的虚拟化网络功能的放置与路由路径,包括:
S41、根据训练好的VNF放置神经网络,得到当前请求流所需的VNF实例所在的微云组合,并根据微云上VNF的部署情况动态部署所需的VNF实例;
S42、将当前请求流所需的VNF实例所在的微云组合输入到训练好的流量路由神经网络中,将输出的Q值进行排序,选择前k个Q值对应的路由路径组成动作集K;
S43、利用启发式算法,在动作集K中选择满足带宽资源约束时奖励总值最高时对应的路由路径;步骤S43包括:
基于真实的支持移动边缘计算的物联网网络构建一个相同的模拟仿真环境;
初始化可行动作的奖励集合;
对动作集K中的每个动作进行判断,是否违反链路带宽资源约束;
对于每个动作,如果未违反链路带宽资源约束,则在模拟仿真环境下执行该动作,并将其获得的奖励总值记录至可行动作的奖励集合中;
对可行动作的奖励集合中所有的奖励总值进行排序,将最高奖励总值对应的动作在真实的支持移动边缘计算的物联网网络环境中执行;
S44、根据当前请求流的服务功能链长度n,重复执行n-1次S42-S43,对服务功能链中的相邻微云节点获得n-1条奖励总值最高的路由路径。
CN202210060694.2A 2022-01-19 2022-01-19 基于深度强化学习的动态服务功能链编排方法及*** Active CN114172937B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210060694.2A CN114172937B (zh) 2022-01-19 2022-01-19 基于深度强化学习的动态服务功能链编排方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210060694.2A CN114172937B (zh) 2022-01-19 2022-01-19 基于深度强化学习的动态服务功能链编排方法及***

Publications (2)

Publication Number Publication Date
CN114172937A CN114172937A (zh) 2022-03-11
CN114172937B true CN114172937B (zh) 2023-12-29

Family

ID=80489389

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210060694.2A Active CN114172937B (zh) 2022-01-19 2022-01-19 基于深度强化学习的动态服务功能链编排方法及***

Country Status (1)

Country Link
CN (1) CN114172937B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114615183B (zh) * 2022-03-14 2023-09-05 广东技术师范大学 基于资源预测的路由方法、装置、计算机设备及存储介质
CN114827284B (zh) * 2022-04-21 2023-10-03 中国电子技术标准化研究院 工业物联网中服务功能链编排方法、装置及联邦学习***
CN115562832B (zh) * 2022-10-14 2023-04-07 天津大学 一种基于深度强化学习的多资源服务功能链调度方法
CN116112938B (zh) * 2022-11-22 2024-04-19 深圳赛雷文化传媒有限公司 一种基于多智能体强化学习的sfc部署方法
CN116305268B (zh) * 2023-03-14 2024-01-05 中国医学科学院北京协和医院 一种基于有限状态机和多目标学习的数据发布方法及***
CN117499491B (zh) * 2023-12-27 2024-03-26 杭州海康威视数字技术股份有限公司 基于双智能体深度强化学习的物联网服务编排方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015024411A1 (zh) * 2013-08-19 2015-02-26 中兴通讯股份有限公司 一种服务节点能力信息的获取方法及控制平台
CN109842528A (zh) * 2019-03-19 2019-06-04 西安交通大学 一种基于sdn和nfv的服务功能链的部署方法
WO2019152119A1 (en) * 2018-02-01 2019-08-08 Intel Corporation Distributed self sovereign identities for network function virtualization
CN111130904A (zh) * 2019-12-30 2020-05-08 重庆邮电大学 一种基于深度确定性策略梯度的虚拟网络功能迁移优化算法
CN111538587A (zh) * 2020-03-06 2020-08-14 重庆邮电大学 一种基于负载均衡的服务功能链重配置方法
CN112543119A (zh) * 2020-11-27 2021-03-23 西安交通大学 一种基于深度强化学习的服务功能链可靠性部署方法
CN112631717A (zh) * 2020-12-21 2021-04-09 重庆大学 基于异步强化学习的网络服务功能链动态部署***及方法
CN113098714A (zh) * 2021-03-29 2021-07-09 南京邮电大学 一种基于深度强化学习的低时延网络切片的方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9998563B2 (en) * 2015-10-12 2018-06-12 Fujitsu Limited Vertex-centric service function chaining in multi-domain networks

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015024411A1 (zh) * 2013-08-19 2015-02-26 中兴通讯股份有限公司 一种服务节点能力信息的获取方法及控制平台
WO2019152119A1 (en) * 2018-02-01 2019-08-08 Intel Corporation Distributed self sovereign identities for network function virtualization
CN109842528A (zh) * 2019-03-19 2019-06-04 西安交通大学 一种基于sdn和nfv的服务功能链的部署方法
CN111130904A (zh) * 2019-12-30 2020-05-08 重庆邮电大学 一种基于深度确定性策略梯度的虚拟网络功能迁移优化算法
CN111538587A (zh) * 2020-03-06 2020-08-14 重庆邮电大学 一种基于负载均衡的服务功能链重配置方法
CN112543119A (zh) * 2020-11-27 2021-03-23 西安交通大学 一种基于深度强化学习的服务功能链可靠性部署方法
CN112631717A (zh) * 2020-12-21 2021-04-09 重庆大学 基于异步强化学习的网络服务功能链动态部署***及方法
CN113098714A (zh) * 2021-03-29 2021-07-09 南京邮电大学 一种基于深度强化学习的低时延网络切片的方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
A novel approach for service function chain dynamic orchestration in edge clouds;Y. Liu et al;《IEEE Communications Letters》;全文 *
基于强化学习的服务链映射算法;魏亮;黄韬;张娇;王泽南;刘江;刘韵洁;;通信学报(第01期);全文 *
基于服务功能链的多域安全服务按需适配方法;李畅;徐琪;李光磊;周华春;;计算机工程与应用(第21期);全文 *

Also Published As

Publication number Publication date
CN114172937A (zh) 2022-03-11

Similar Documents

Publication Publication Date Title
CN114172937B (zh) 基于深度强化学习的动态服务功能链编排方法及***
Mao et al. Routing or computing? The paradigm shift towards intelligent computer network packet transmission based on deep learning
Baek et al. Heterogeneous task offloading and resource allocations via deep recurrent reinforcement learning in partial observable multifog networks
CN113708972B (zh) 一种服务功能链部署方法、装置、电子设备及存储介质
CN109768940A (zh) 多业务sdn网络的流量分配方法及装置
CN114338504B (zh) 一种基于网络边缘***的微服务部署和路由方法
CN112367109A (zh) 空地网络中由数字孪生驱动的联邦学习的激励方法
CN109829332A (zh) 一种基于能量收集技术的联合计算卸载方法及装置
CN112990423A (zh) 人工智能ai模型生成方法、***及设备
Dalgkitsis et al. Dynamic resource aware VNF placement with deep reinforcement learning for 5G networks
CN114172820A (zh) 跨域sfc动态部署方法、装置、计算机设备及存储介质
CN116541106B (zh) 计算任务卸载方法、计算设备及存储介质
CN110247795A (zh) 一种基于意图的云网资源服务链编排方法及***
CN116450312A (zh) 面向流水线并行训练的调度策略确定方法及***
CN115907038A (zh) 一种基于联邦拆分学习框架的多元控制决策方法
Zhu et al. Double-agent reinforced vNFC deployment in EONs for cloud-edge computing
Tosounidis et al. Deep Q-learning for load balancing traffic in SDN networks
CN116225649A (zh) 一种细粒度电力任务云边协同优化调度方法
Toumi et al. On using deep reinforcement learning for multi-domain SFC placement
CN117436485A (zh) 基于权衡时延和精度的多退出点的端-边-云协同***及方法
CN113708982B (zh) 一种基于群体学习的服务功能链部署方法及***
Afrasiabi et al. Reinforcement learning-based optimization framework for application component migration in nfv cloud-fog environments
Wang et al. Deep Reinforcement Learning Based Resource Allocation for Cloud Native Wireless Network
Bensalem et al. Towards optimal serverless function scaling in edge computing network
Guan et al. Multidimensional Resource Fragmentation-Aware Virtual Network Embedding for IoT Applications in MEC Networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20231128

Address after: Room 801, No. 11 Kehui Second Street, Huangpu District, Guangzhou City, Guangdong Province, 510700

Applicant after: Guangzhou Baosi Information Technology Co.,Ltd.

Address before: 518000 1104, Building A, Zhiyun Industrial Park, No. 13, Huaxing Road, Henglang Community, Longhua District, Shenzhen, Guangdong Province

Applicant before: Shenzhen Hongyue Information Technology Co.,Ltd.

Effective date of registration: 20231128

Address after: 518000 1104, Building A, Zhiyun Industrial Park, No. 13, Huaxing Road, Henglang Community, Longhua District, Shenzhen, Guangdong Province

Applicant after: Shenzhen Hongyue Information Technology Co.,Ltd.

Address before: 400000 No.2 Chongwen Road, Nanshan street, Nan'an District, Chongqing

Applicant before: CHONGQING University OF POSTS AND TELECOMMUNICATIONS

GR01 Patent grant
GR01 Patent grant