CN108932151A - 一种混合虚拟数据中心高效映射方法 - Google Patents

一种混合虚拟数据中心高效映射方法 Download PDF

Info

Publication number
CN108932151A
CN108932151A CN201810693435.7A CN201810693435A CN108932151A CN 108932151 A CN108932151 A CN 108932151A CN 201810693435 A CN201810693435 A CN 201810693435A CN 108932151 A CN108932151 A CN 108932151A
Authority
CN
China
Prior art keywords
vdc
data center
link
mapping method
multicast
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810693435.7A
Other languages
English (en)
Other versions
CN108932151B (zh
Inventor
符小东
郭超
沈纲祥
揭水平
缪冬青
丁建军
王建兵
张伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhongtian Communication Technology Co Ltd
Zhongtian Broadband Technology Co Ltd
Original Assignee
Zhongtian Broadband Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhongtian Broadband Technology Co Ltd filed Critical Zhongtian Broadband Technology Co Ltd
Priority to CN201810693435.7A priority Critical patent/CN108932151B/zh
Publication of CN108932151A publication Critical patent/CN108932151A/zh
Application granted granted Critical
Publication of CN108932151B publication Critical patent/CN108932151B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明公开了一种混合虚拟数据中心高效映射方法,其特征在于:每个混合VDC中不仅有单播虚拟链路,同时也包含多播树,用单播虚拟链路来支持单播业务,用多播树来支持多播业务。本发明同时支持单播和多播业务,并针对该类VDC业务提出了一个新的映射方法,同时设计了一个混合整数线性规划(MILP)模型以及一个高效的启发式算法来实现该映射方法。仿真结果证明本申请提出的混合VDC的映射能方式在***成本,能耗、链路资源的使用以及业务的映射成功率等方面能提供相当不错的性能。

Description

一种混合虚拟数据中心高效映射方法
技术领域
本发明涉及一种数据中心映射,具体为一种同时支持单播和多播业务的混合虚拟数据中高效映射方法。
背景技术
混合虚拟数据中心(VDC)映射是一个非常重要而又具有挑战的研究难题。挑战在于如何高效的实现多个VDC业务对分布在众多节点和链路中的数据中心资源的共享。尽管VDC映射和虚拟网络映射(VNE)有相似之处,但和后者相比,VDC映射必须克服数据中心架构的异构型,同时还必须考虑到数据中心庞大数量的节点和链路给映射带来的负载性。现存的关于VDC映射的研究主要考虑例如成本、能耗以及可靠性等性能指标,但都紧紧考虑了VDC中的单播业务,这种方式当然对大量存在于数据中心(DC)内部的多播业务非常的低效。例如,许多利用分布式文件***以及MapReduce等类型的业务存在大量的多播流量,这些在如今的研究中都不曾考虑到。当然,单播的方式是可以支持多播的业务的,但这种方式无疑会造成资源的利用效率低下同时导致更高的成本(例如能耗的成本、为支持大容量业务必须升级硬件等)。更严重的,这种方式还会造成服务质量的下降(例如引起更高的业务拒绝率、过高的时延等)。
因此,需要一种新的技术方案来解决上述技术问题。
发明内容
本发明提供一种混合虚拟数据中心(VDC)的概念来同时支持单播和多播业务,并针对该类VDC业务提出了一个新的映射方法,同时设计了一个混合整数线性规划(MILP)模型以及一个高效的启发式算法来实现该映射方法。仿真结果证明本申请提出的混合VDC的映射能方式在***成本,能耗、链路资源的使用以及业务的映射成功率等方面能提供相当不错的性能。
为实现上述目的,本发明提供如下技术方案:
一种混合虚拟数据中心高效映射方法,每个混合VDC中不仅有单播虚拟链路,同时也包含多播树, 多播树是由一组虚拟链路链接一个源节点和多个目的节点构成的,所述多播树中的虚拟链路都是单向的,并且每个虚拟链路的链路容量是相同的。用单播虚拟链路来支持单播业务,同时用多播树来支持多播业务。
另外,还通过构建MILP优化模型来实现多播树支持多播业务,以达到在最小化***成本和能耗的同时减少数据中心链路资源使用的目的。在MILP优化模型中,单播虚拟链路以及多播树都是用会话进行表示的;即:某个VDC中的一个多播树可以表示成一个源节点和多个目的节点构成的一个会话,而多播树中虚拟链路的容量等于会话的容量需求;尽管单播的会话可以认为是一个特殊的多播会话,仍然用不同的流量矩阵来表示这两种类型的业务,以此作为问题输入。所述MILP优化模型的集合、参数、变量以及限制条件等如下:
目标:最小化
限制条件解释:
VM节点映射限制条件:条件(2)是服务器容量的限制。(3)保证一个VM只能被映射到一个服务器节点。(4)到(6)是为了找到VDC i中会话j的目的服务器节点n。条件(7)是统计VDCi的会话j中的所有的目的服务器的个数。
多播链路映射限制条件:条件(8)保证用于构建多播生成树的每个交换机节点有一个流入该节点的单向的边(链路)。(9)和(10)保证只要有VDC i中会话j中的虚拟机映射到服务器n上,该服务器就成为构成这个会话的多播生成树的一部分。(11)保证每个目的服务器都有一个出去的边。条件(12)保证每个用于构造多播树的交换机都有至少一个属于该多播生成树的边。条件(13)保证如果某个多播会话的源VM节点映射到一个服务器节点n上,而且该会话中至少有一个目的VM节点映射到其它的服务器中,那么服务器n至少有一个出去的边用来构成该会话的对应的多播生成树。条件(14)保证了一个多播树的目的服务器节点没有出去的边。(15)保证了如果没有虚拟机映射到一个服务器上,该服务器就没有出去的边。
链路容量限制条件:限制条件(16)保证在任何时候,映射到任意物理链路上的所有虚拟链路的总容量不得超过该物理链路的容量。
构造多播生成树的流限制条件:限制条件(17)到(24)实际上是构造多播生成树的流量守恒方程的变形,其目的在于为一个多播会话成功构建一个完全连接的树桩拓扑。具体地,(17)保证从一个中间交换机出去的流的个数等于汇入该交换机节点的流的个数。(18)-(20)则保证了从一个源服务器出去的流的总个数等于目的服务器的个数。(21)则保证了汇入源服务器的总的流的个数为0。(22)保证每个目的服务器没有流出的流。(23)和(24)保证如果从某个物理链路上穿过的流的个数大于零的话,该链路必然是构成对应多播生成树的一部分。
单播链路映射限制条件:条件(25)和(26)保证了对每个单播会话的流量守恒。
处于工作状态的服务器和交换机端口限制条件:条件(27)表示如果有虚拟机映射到某个服务器上,该服务器必然处于活动状态。(28)-(31)保证如果有流入或流出该服务器的流量(虚拟链路的端节点映射到该服务上),则该服务器处于活动状态。(32)-(36)用来判断在映射完成后用到了哪些物理链路。(37)和(38)用于统计处于活动状态的服务器和交换机端口的数量。
一个ILP模型的计算复杂度主要取决于具有主导数量的变量和限制条件。在该模型中,变量的数量水平为,起绝对主导作用。其中指的是VDC请求的总个数,是每个VDC中VM节点集合中的包含的元素数量,指的是物理节点的总数量,而则表示对应的集合中邻节点元素数量。而限制条件中对计算复杂度起到决定影响的是(35)和(36),该限制条件中包含的限制条件的数量水平为,其中,指的是物理网络中的服务器节点个数。
如果仅仅考虑最小化服务器以及链路资源的使用,同一个VDC中的VM节点会尽量的映射到最少的服务器中。这显然会造成服务可靠性的降低,因为,一旦一个服务器节点发生故障,很可能会造成整个VDC的众多VM功能丧失,严重的会导致整个VDC的功能丧失[9]。为了保证VDC业务的可靠性,我们增加了一个限制条件(39)保证一个服务器智能为最多K个VM节点服务。在我们的研究当中,将该值设为1。
此外,如果我们将一个单播会话看成仅仅包含两个VM节点的特殊多播会话,该模型中的参数、变量以及限制条件(25)-(26)、(30)-(31)、(35)-(36)都可以省略掉。而且,限制条件(16)以及(34)中的单播部分的参数和变量都可以直接移除,从而得到大大简化。目标函数则简化为:
所述MILP优化模型适用于静态的业务请求,即每个VDC业务的资源请求以及他们请求使用资源的时间都是已知的。
混合VDC映射的启发式算法的步骤为:
先假设数据中心拥有足够的服务器来完成所有VDC请求的映射,并将数据中心的服务器节点分成若干个小组,同一个机架内的服务器构成一个基本组;然后,以基本组为单位,将两个或多个组合在一起构成更大的分组;根据这些服务器分组的服务器个数从小到大排序,对于服务器个数相同的分组,进一步将这些分组按照其中处于工作状态的服务器个数按照从大到小的顺序排列;这个目的有两个:第一,尽量让VDC映射到小的分组内部,这样可以降低求解的规模,而且可以保证同一个VDC映射到相距较近的服务器,可以减少网络资源的占用;第二,尽量将VDC映射到工作状态较多的服务器分组,可以减少服务器的使用数量。我们将这些分组用列表来表示。对每个VDC业务,算法会扫描上述的列表并找到第一个合适的分组来实现映射。
VM节点映射进程:该进程是MatchNodes()函数的具体算法。对选定的合适的服务器分组,我们按照图3中的所示的例子进行节点匹配。首先,放在左边的是虚拟机节点,
按照CPU资源的请求数量降序排列。放在右边的是该分组中的服务器,按照剩余的CPU的数量升序排列。按照顺序取左边的一个虚拟机,从右边的服务器中按照顺序找到容量充足的第一个服务器,这里的容量包含CPU容量、内存、硬盘以及直接连接该服务器的链路容量(这里的链路容量分为两个部分:进入该服务器的和从该服务器出去的两个部分。一个虚拟机所需要的出去的链路资源量为所有以该虚拟机为源节点的会话的流量请求总和。进入该虚拟机所需要的链路容量则是所有以该虚拟机为目的节点的流量请求总和)。如果成功的话,就将该VM映射到该服务器中。并标记该服务器已经映射了该VDC中的一个VM了,避免同一个VDC中的下一个VM继续映射到该服务器。重复以上过程,直到所有的VM都完成了映射。图3中最右边是完成VM映射以后服务器中剩余的CPU的状态。这个映射方法的目的在于最小化VM对CPU资源的请求和对应的服务器容量之间的资源不匹配,从而减小资源碎片,降低服务器的使用数量。在上述过程中,我们同样考虑了避免同一个VDC中的虚拟机共享服务器。
虚拟链路映射进程:该进程实际上就是BuildMulticastTree()。在成功完成VM节点映射以后,该算法开始在物理拓扑上为每个会话构建多播生成树。(如前文所述,我们将VDC中的多播树看成由一个源节点和多个目的节点构成的会话,而将一个单播的双向虚拟链路看成只包含一个目的节点的反向的两个特殊的会话)。在构造生成树之前,我们首先从物理拓扑上排除剩余容量不足以支持该会话的链路。对每个会话,我们首先创建一个空的生成树。然后,将源服务器节点(源VM节点映射到的服务器)以及其直接相连的ToR交换机添加到该生成树上。紧接着,对该会话中的每个目的节点(目的VM节点映射到的服务器节点),运行Dijkstra算法(最短路由算法)找到生成树中距离该目的节点最近的交换机节点S以及最短路由。最后将路由经过的所有节点和链路添加到中。这个过程完成后,该多播会话的多拨生成树就构建成功了(可以参看图2(b))。
类似于虚拟机映射进程,在虚拟链路的映射过程中,首先利用尽可能已经处于工作状态的交换机来完成多播树的构建。只有当处于工作状态的交换设备无法支持该会话的时候我们才考虑打开处于关闭状态的交换机。
上述算法的主要部分,包括虚拟机节点映射和虚拟链路映射,的时间复杂度都很低。如果用快速排序的话,VM节点映射的时间复杂度为,这里的表示VDC请求中虚拟节点的数量,则表示所选择的服务器分组中的服务器的数量。而构建多播生成树的时间复杂度为,这里的|N|表示物理节点的数量,表示多播会话中虚拟机节点的个数。因此,虚拟链路映射总的时间复杂度为:。这里的是当前VDC中总的会话的数量。总之,映射一个VDC的总的时间复杂度为,其中|L|指的是服务器分组的个数。
上述的算法是映射一个VDC的算法,适用于静态的业务请求,也同样适用于动态的请求的情形。当映射多个VDC的时候,静态和动态的映射算法会有些不同。
本发明能够同时支持单播和多播业务,并针对该类VDC业务提出了一个新的映射方法,同时设计了一个混合整数线性规划(MILP)模型以及一个高效的启发式算法来实现该映射方法。仿真结果证明本申请提出的混合VDC的映射能方式在***成本,能耗、链路资源的使用以及业务的映射成功率等方面能提供相当不错的性能。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。
在附图中:
图1是DCN 以及混合VDC映射示意图。
图2是用单播和多播两种方式映射多播树示意图。
图3是VM节点映射示意图。
图4是***成本示意图。
图5是链路资源占用情况示意图。
图6是链路资源占用情况示意图。
图7是VDC拒绝率随业务到达率增加的变化情况示意图。
图8是VDC拒绝率随业务到达率增加的变化情况示意图。
图9是随着VDC尺寸的增加映射一个VDC所需的时间示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
接下来通过仿真来评估所提出的混合VDC映射。我们从静态和动态的两种情形进行仿真。静态情形当中,我们考虑***成本、链路资源的使用量、能耗作为评估的三个方面。在动态情形当中,我们则评估VDC请求的拒绝率。
利用现有文件(A. Greenberg et al., “VL2: A scalable and flexible datacenter network,” in Proc. SIGCOMM 2009.)中的VL2拓扑部署DCN架构,并考虑大小两个拓扑。小拓扑由15个服务器节点、3个ToR交换机、2个汇聚交换机、2个核心交换机构成。大拓扑则由300个服务器、6个ToR交换机、4个汇聚交换机、4个核心交换机构成。服务器和ToR交换机之间的链路用铜质双绞线部署,链路容量设置为1 Gb/s。交换机之间的链路用10 Gb/s的光纤部署。每个服务器的CPU设为8个,内存为64 GB,硬盘位500 GB。1-Gb/s的铜质交换端口的成本为1个单位,10 Gb/s的光收发器交换端口成本设为100个单位,服务器成本设置为1300个单位。这些成本是根据它们当前的市场价格来设定的。
在小拓扑中,请求设置如下。每个VDC中的VM的数量(记为M)从2个到8个随机产生。每个VM中的CPU则从1个到3个随机产生,内存为0到32GB,硬盘容量请求为0到100GB。一个VDC中的多播会话的数量从1到M随机产生。每个多播会话的中的VM的数量从3到M随机产生。单播会话中的VM数量当然是2了。每个会话中虚拟链路的容量需求为40 Mb/s到100 Mb/s随机产生。
在大拓扑中,每个VDC的VM个数从2到15随机产生。其它的参数设置则和小拓普中的请求设置一样。只不过,考虑到当多播会话中的目的节点过多会导致单播映射不成功,而这又不是我们静态算法中考虑的问题,我们将会话中虚拟机节点的数量上限设置为8,保证单薄和多播映射两种方式都能成功,一次来比较他们在成本等方面的性能。当然,在动态情形中,我们会移除这个限制条件。
为了比较我们算法的性能,我们同样做了基于单播方式映射的仿真。这种方式下,一个多播会话中的每一条虚拟链路都要建立一条互相独立的路径作为单播通信。此外,由于每个路径的单播通信是相互独立的,为此,相比于要增加额外的CPU资源来处理这些通信。我们假设所需要的增加的额外的CPU的数量为,这里的⌈∙⌉符号表示的是向上取整的符号。是该会话中包含的VM节点的数量。我们同样考虑将SecondNet作为比较。只不过,在SecondNet中的BFS路由算法被我们换成了Dijkstra算法。
我们利用了商用的AMPL/Gurobi模型求解器件来求解MILP模型。我们考虑最小化***的成本作为首要目标,因此式(1)
中的参数设为0.01。我们用Java语言来实现启发式算法的。
仿真结果:
对于静态的情形,我们同时考虑了小拓扑(Case 1)和大拓扑(Case 2);业务的到达时间和持续时间用随机产生的浮点型数据表示;VDC的到达时间从0到1随机产生,而持续时间则从0.5到1随机产生;我们用每个VDC的到达时间构成时间序列结合T。
时间序列的列表以及对应处于活跃状态的VDC列表打乱的次数取决于列表的长度。如果列表的元素个数的阶乘(全排列的次数)小于10000,则按照其阶乘作为打乱的次数。否则,则设为10000。然而,对于大拓扑的情形,考虑到其复杂度较高,时间序列只打乱100次,活跃的VDC列表的大乱次数仍遵从上述规则。我们通过仿真来评价映射算法在完成所有请求映射的情况下***成本、链路资源利用、能耗等方面的性能。
1)***成本:图4(a)给出了对小拓扑的情形下得到的仿真结果。途中的三条曲线分别对应着多播的MILP模型、多播的启发式算法、单播的MILP模型求解出来的结果。图4(b)给出的结果是在大拓扑的情形当中的结果。其中的三条曲线分别是多播的启发式算法、单播的算法以及SeconNet算法得到的结果。这里没有给出模型的结果是因为网络规模大的时候,模型无法在有限的时间内给出结果。
根据图4(a)结果,我们能清楚的看到混播VDC映射可以很好的降低***成本的使用(超过24%)。原因主要分为两个方面:1)在进行多播的会话映射的时候消耗的链路资源更少,因而可以减少交换机资源的使用;2)用单播方式去支持多播业务消耗更多的CPU资源,会增加服务器资源的使用。
此外,从MILP模型和启发式算法的结果看来,我们的启发式算法能够非常接近MILP模型的结果。除了在VDC数量在7到9个的情况意外,两者的性能几乎一模一样。此外,在7到9个VDC的情况当中,启发式算法也仅仅比MILP模型多消耗了一个服务器和一个电交换机端口。
从图4(b)的结果,我们很清晰的看出混播映射的算法得出的结果要远优于单播算法映射的结果,提高了19个百分点。进一步证明了我们算法的优越性。此外,我们的结果也远好于SecondNet的结果,最好的情况达到20多个百分点。值得注意的是,尽管这里的单播方式的结果和SecondNet很接近,但是前者的时间复杂度更低,这主要是由于SecondNet在进行节点映射的时候构建了一个二分辅助图的方式来解决最小费用流的算法实现的,因而导致其总的时间复杂度要比我们的高许多。
2)链路资源消耗:我们考虑最小化链路容量的消耗作为第二优化目标。图5(a)中同样给出了小拓扑情形下的结果。从中我们能看出和***成本类似的趋势和结论。我们发现,对比于单播映射方式,混播映射可以将性能提高45%以上。我们同样看到MILP模型求解出来的结果和启发式算法的结果很相似。从图5(b)中的大拓扑清醒的结果我们可以看到混播映射的方式远比单播的方式好的多,性能提高了53个百分点。和前面类似,我们也发现SecondNet的性能和所实施的单播的方式非常接近,因为他们在映射的时候都是用单播的方式支持多播业务的。
3)能耗:我们通过计算所消耗资源的功率大小来评估能耗,计算公式为:,这里的分别指的是服务器、电交换端口、光交换端口的平均功率,其大小分别为400 W、9 W、82 W(这里的平均能耗同样是根据市场上器件的标称能耗来的)。图6中给出了相应的仿真结果。从结果中看到,混播映射比单播方式的映射可以节约相当部分的能耗(多达24%)。当然,我们看到能耗的趋势线和图4中的***成本的趋势线非常类似,这是因为服务器的平均功率是最高的,而其成本也是最高的。
在动态情形当中,我们仅仅考虑大拓扑作为仿真的对象。我们通过拒绝率来评估混播启发式算法对于解决动态情形下映射的性能,这里的拒绝率定义为被拒绝的VDC的数量除以总的到达的VDC业务的数量。
如前所述,在动态情形中,VDC业务是随机先后到达的。每个VDC的到达时间和离开的时间都是未知的。在我们的仿真中,我们考虑VDC的到达服从到达率为的泊松分布,业务的持续时间服从均值为的负指数分布。在我们的仿真环境中,设置平均持续时间为。统计的总的到达业务数量为106。图7中给出了随着到达率的增加业务的拒绝率的仿真结果。我们可以看到,多播的映射方式所体现出来的性能要比单播方式和SecondNet都好。这是因为:(1)混合映射小号更少的物力资源,因而满足更多的业务需求;(2)当一个多播会话中有过多的目的节点的时候,用单播的方式需要建立过多的物理路径,而受限于物理链路的实际容量,该业务无法用单播方式支持,只能拒绝掉,当然也会造成单播的方式下较高的拒绝率。
图8中则给出了随着VDC中的平均虚拟链路容量增加的时候业务接收率的结果(接收率定义为接收的VDC个数除以总的VDC到达数)。这里的业务到达率设置为100,持续时间为1,对应于100-erlang的流量负载。此外,每个虚拟链路变化的范围为60 Mb/s。举个例子,当链路容量的平均值为50 Mb/s的时候,其实际的容量则是从20 Mb/s到80 Mb/s均匀随机产生的。随着虚拟链路的资源请求量的增加,用单播的方式支持多播业务实现的映射方式所产生的接收率几乎是线性下降的。而多播方式支持多播业务的映射方式所产生的结果始终保持着较高的水平(下降的非常缓慢)。这里再次发现所提出的的对比单播映射算法和SecondNet算法的结果几乎是一样的。
算法执行时间:
用小拓扑的情形作为测试对象,其测试的条件和上述测试条件相同相同。跟之前的静态情形中相同,VDC中每个会话所包含的VM的数量也被限制在不超过8个。我们用一个3.40-GHz的英特尔酷睿 i7处理器,以及8 GB的内存的计算机来实时仿真环境。结果如图9所示。
从结果中我们可以看到,我们所提出的的算法的运行时间比SecondNet要少得多。而且,随着VDC尺寸的增加,他们之间的时间差越来越大。这是因为在虚拟机映射的时候,SecondNet构建了一个对偶辅助图,通过求解最小费用流的算法来得到虚拟机映射的结果。由于该算法具有较高的时间复杂度,因而所耗费的时间要比我们的方式多得多。
结论:
考虑到用单播方式来传播多播业务效率低下,我们提出了混合VDC映射机制来充分利用数据中心交换机的多播功能传输VDC中的多播业务。为了最小化***成本以及数据中心资源消耗,我们开发了一套MILP模型来解决混合VDC映射问题。仿真结果表明,我们所提出的混合映射相比于单播映射在***成本、链路资源利用率、功耗等方面的性能分别提高了37%、55%以及38%。此外,我们证明了所提出的启发式算法能够达到和MILP模型接近的性能。我们同样评估了在动态业务情形中混播VDC映射对于降低业务拒绝率的优势,相比于仅仅考虑单播方式支持业务的映射方式,混播VDC映射的业务拒绝率更低。因此,我们证明了所提出的的方式可以提高云服务提供商的收入并能容纳更多的业务请求。

Claims (13)

1.一种混合虚拟数据中心高效映射方法,其特征在于:每个混合VDC中不仅有单播虚拟链路,同时也包含多播树,用单播虚拟链路来支持单播业务,用多播树来支持多播业务。
2.根据权利要求1所述的一种混合虚拟数据中心高效映射方法,其特征在于:所述多播树是由一组虚拟链路链接一个源节点和多个目的节点构成的,所述多播树中的虚拟链路都是单向的,并且每个虚拟链路的链路容量是相同的。
3.根据权利要求1或2所述的一种混合虚拟数据中心高效映射方法,其特征在于:还可以通过构建MILP优化模型来实现多播树支持多播业务,以达到在最小化***成本和能耗的同时减少数据中心链路资源使用的目的。
4.根据权利要求3所述的一种混合虚拟数据中心高效映射方法,其特征在于:MILP优化模型中,单播虚拟链路以及多播树都是用会话进行表示的;即:某个VDC中的一个多播树可以表示成一个源节点和多个目的节点构成的一个会话,而多播树中虚拟链路的容量等于会话的容量需求;尽管单播的会话可以认为是一个特殊的多播会话,仍然用不同的流量矩阵来表示这两种类型的业务,以此作为问题输入。
5.根据权利要求3或4所述的一种混合虚拟数据中心高效映射方法,其特征在于:所述MILP优化模型的内容如下:
6.根据权利要求5所述的一种混合虚拟数据中心高效映射方法,其特征在于:所述MILP优化模型的目标是在在成功映射所有VDC请求的基础上,最小化***成本以及链路的容量的使用,即
7.根据权利要求5所述的一种混合虚拟数据中心高效映射方法,其特征在于:为了实现成功映射所有的VDC请求,必须满足以下限制条件:
8.根据权利要求7所述的一种混合虚拟数据中心高效映射方法,其特征在于:为了保证VDC业务的可靠性,我们增加了一个限制条件(39)保证一个服务器只能为最多K个VM节点服务,
9.根据权利要求7所述的一种混合虚拟数据中心高效映射方法,其特征在于:如果我们将一个单播会话看成仅仅包含两个VM节点的特殊多播会话,该模型中的参数、变量以及限制条件(25)-(26)、(30)-(31)、(35)-(36)都可以省略掉,
而且,限制条件(16)以及(34)中的单播部分的参数和变量都可以直接移除,从而得到大大简化,目标函数则简化为:
10.根据权利要求3所述的一种混合虚拟数据中心高效映射方法,其特征在于:所述MILP优化模型适用于静态的业务请求,即每个VDC业务的资源请求以及他们请求使用资源的时间都是已知的。
11.根据权利要求1或2所述的一种混合虚拟数据中心高效映射方法,其特征在于:还可以通过开发一套高效的启发式算法来实现,所述启发式算法的步骤为:
先假设数据中心拥有足够的服务器来完成所有VDC请求的映射,并将数据中心的服务器节点分成若干个小组,同一个机架内的服务器构成一个基本组;然后,以基本组为单位,将两个或多个组合在一起构成更大的分组;根据这些服务器分组的服务器个数从小到大排序,对于服务器个数相同的分组,进一步将这些分组按照其中处于工作状态的服务器个数按照从大到小的顺序排列;将这些分组用列表L来表示,对每个VDC业务,算法会扫描上述的列表并找到第一个合适的分组来实现映射。
12.根据权利要求11所述的一种混合虚拟数据中心高效映射方法,其特征在于:启发式算法的具体函数为:
13.根据权利要求11所述的一种混合虚拟数据中心高效映射方法,其特征在于:所述启发式算法适用于静态的业务请求,也同样适用于动态的请求的情形。
CN201810693435.7A 2018-06-29 2018-06-29 一种混合虚拟数据中心高效映射方法 Active CN108932151B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810693435.7A CN108932151B (zh) 2018-06-29 2018-06-29 一种混合虚拟数据中心高效映射方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810693435.7A CN108932151B (zh) 2018-06-29 2018-06-29 一种混合虚拟数据中心高效映射方法

Publications (2)

Publication Number Publication Date
CN108932151A true CN108932151A (zh) 2018-12-04
CN108932151B CN108932151B (zh) 2022-04-15

Family

ID=64446722

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810693435.7A Active CN108932151B (zh) 2018-06-29 2018-06-29 一种混合虚拟数据中心高效映射方法

Country Status (1)

Country Link
CN (1) CN108932151B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111371681A (zh) * 2020-03-12 2020-07-03 郑州轻工业大学 一种资源和能耗感知的网络服务功能链映射方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101388704A (zh) * 2008-10-16 2009-03-18 北京创毅视讯科技有限公司 一种单播和多播业务叠加时的传输方法及移动通信***
CN102256301A (zh) * 2011-07-15 2011-11-23 西安交通大学 一种同时满足单播及多播业务的用户选择方法
US20160119865A1 (en) * 2014-10-28 2016-04-28 Alcatel-Lucent Usa Inc. Configurable communication modules for flexible communications within an energy-limited wireless system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101388704A (zh) * 2008-10-16 2009-03-18 北京创毅视讯科技有限公司 一种单播和多播业务叠加时的传输方法及移动通信***
CN102256301A (zh) * 2011-07-15 2011-11-23 西安交通大学 一种同时满足单播及多播业务的用户选择方法
US20160119865A1 (en) * 2014-10-28 2016-04-28 Alcatel-Lucent Usa Inc. Configurable communication modules for flexible communications within an energy-limited wireless system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHUANXIONG GUO, GUOHAN LU等: "A Data Center Network Virtualization architecture with bandwidth guarantees", 《ACM INTERNATIONAL CONFERENCE ON EMERGING NETWORKING EXPERIMENTS AND TECHNOLOGIES》 *
杨树伟: "一种扩展的单播多播业务联合调度算法设计与仿真", 《潍坊学院学报》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111371681A (zh) * 2020-03-12 2020-07-03 郑州轻工业大学 一种资源和能耗感知的网络服务功能链映射方法
CN111371681B (zh) * 2020-03-12 2021-11-19 郑州轻工业大学 一种资源和能耗感知的网络服务功能链映射方法

Also Published As

Publication number Publication date
CN108932151B (zh) 2022-04-15

Similar Documents

Publication Publication Date Title
Khebbache et al. A multi-objective non-dominated sorting genetic algorithm for VNF chains placement
CN104247341B (zh) 分布式交换机及其多播树层次结构的动态优化方法
Rastegarfar et al. TCP flow classification and bandwidth aggregation in optically interconnected data center networks
US20240195749A1 (en) Path selection for packet transmission
Li et al. Towards the tradeoffs in designing data center network architectures
Wang et al. QoS-aware virtual SDN network planning
CN105141512A (zh) 支持分组/电路混合交换网络的统一网络架构和控制方法
Segal et al. Constrained in-network computing with low congestion in datacenter networks
Yang et al. Collective energy-efficiency approach to data center networks planning
Li et al. Dual-centric data center network architectures
CN105245376B (zh) 基于sdn的住宅小区网络控制***
Tang et al. OEHadoop: accelerate Hadoop applications by co-designing Hadoop with data center network
CN108932151A (zh) 一种混合虚拟数据中心高效映射方法
Rikhtegar et al. BiTE: a dynamic bi-level traffic engineering model for load balancing and energy efficiency in data center networks
Montana et al. Adaptive reconfiguration of data networks using genetic algorithms
CN110677306B (zh) 网络拓扑副本服务器配置方法及装置、存储介质和终端
Dong et al. TINA: A fair inter-datacenter transmission mechanism with deadline guarantee
Mohamed et al. On the energy efficiency of MapReduce shuffling operations in data centers
Vishnu et al. Performance modeling of subnet management on fat tree infiniband networks using opensm
Tan et al. Path‐flow matching: Two‐sided matching and multiobjective evolutionary algorithm for traffic scheduling in cloud data* center network
CN108712659A (zh) 一种基于用户驱动的耦合式视频分发方法及***
Shabka et al. Resource allocation in disaggregated data centre systems with reinforcement learning
Zhao et al. On the parallel reconfiguration of virtual networks in hybrid optical/electrical datacenter networks
Xu et al. Reducing controller response time with hybrid routing in software defined networks
Peters et al. Network synthesis of a topology reconfigurable disaggregated rack scale datacentre for multi-tenancy

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20191114

Address after: 226400 Zhongtian Industrial Zone, Hekou Town, Rudong County, Jiangsu, Nantong

Applicant after: Zhongtian Broadband Technology Co., Ltd.

Applicant after: Zhongtian Communication Technology Co., Ltd

Address before: 226400 Zhongtian Industrial Zone, Hekou Town, Rudong County, Jiangsu, Nantong

Applicant before: Zhongtian Broadband Technology Co., Ltd.

GR01 Patent grant
GR01 Patent grant