CN115622938A - 算力服务处理方法、装置及*** - Google Patents

算力服务处理方法、装置及*** Download PDF

Info

Publication number
CN115622938A
CN115622938A CN202211349514.9A CN202211349514A CN115622938A CN 115622938 A CN115622938 A CN 115622938A CN 202211349514 A CN202211349514 A CN 202211349514A CN 115622938 A CN115622938 A CN 115622938A
Authority
CN
China
Prior art keywords
computing power
node
computing
service
multicast
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211349514.9A
Other languages
English (en)
Inventor
李晶林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
New H3C Technologies Co Ltd
Original Assignee
New H3C Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by New H3C Technologies Co Ltd filed Critical New H3C Technologies Co Ltd
Priority to CN202211349514.9A priority Critical patent/CN115622938A/zh
Publication of CN115622938A publication Critical patent/CN115622938A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/32Flooding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/42Centralised routing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明实施例提供了一种算力服务处理方法、装置及***,涉及通信技术领域,该***包括至少一个算力服务节点、至少一个算力边缘节点以及至少一个路由节点;每个算力边缘节点,用于接收终端设备发送的算力服务请求报文,并向自身作为组播源的组播组中的算力服务节点发送组播查询报文;每个算力服务节点,用于响应于来自目标算力边缘节点的目标组播查询报文,向目标算力边缘节点发送查询响应报文,查询响应报文中包括该算力服务节点连接的算力服务器的算力资源信息;每个算力边缘节点,还用于基于接收到的各算力服务器的算力资源信息,选择一个目标算力服务器,向目标算力服务器转发算力服务请求报文。可以简化部署过程,降低部署成本。

Description

算力服务处理方法、装置及***
技术领域
本发明涉及通信技术领域,特别是涉及一种算力服务处理方法、装置及***。
背景技术
目前部署算力网络的主要需求为,基于算力网络中各个能够提供算力服务的算力节点的算力资源信息,将用户的业务调度到最合适的算力节点中。因此,算力网络的控制面需要动态感知算力网络中的算力资源信息,从而确定各算力服务请求报文的转发路径。
根据算力资源信息的收集、转发路径的编排和转发路径的分发机制的不同,算力网络的控制面的部署方式可以分为集中式、分布式和混合式三种。在集中式算力网络中,控制器可以按照应用需求,结合全网的算力资源信息和网络状态编排转发路径。在分布式算力网络中,各节点需通过分布式路由协议对本地的算力资源、网络状态和路由进行泛洪通告,进而分布式算力网络中的路由设备可以基于学习到的全网的算力资源计算转发路径。混合式算力网络的实现方式是集中式算力网络和分布式算力网络实现方式的结合。
采用集中式的部署方式对控制器的要求较高,开发工作量和成本较高。若采用分布式的部署方式,则需将全网的设备均调整为具有泛洪通告算力资源能力的设备,需要对网络中已有的设备进行大幅调整。混合式的部署方式能一定程度缓解上述问题,但仍存在部署复杂的问题。
发明内容
本发明实施例的目的在于提供一种算力服务处理方法、装置及***,以解决算力服务处理***部署复杂的问题。具体技术方案如下:
第一方面,本申请实施例提供一种算力服务处理***,所述***包括至少一个算力服务节点、至少一个算力边缘节点以及至少一个路由节点,每个算力服务节点连接于至少一个算力服务器;
每个算力边缘节点,用于接收终端设备发送的算力服务请求报文,并向自身作为组播源的组播组中的算力服务节点发送组播查询报文,每个组播组对应的组播树中的叶子节点均为算力服务节点,非叶子节点为路由节点,根节点为算力边缘节点;
每个算力服务节点,用于响应于来自目标算力边缘节点的目标组播查询报文,向所述目标算力边缘节点发送查询响应报文,所述查询响应报文中包括该算力服务节点连接的算力服务器的算力资源信息;
每个算力边缘节点,还用于基于接收到的各算力服务器的算力资源信息,选择一个目标算力服务器,向所述目标算力服务器转发算力服务请求报文。
可选的,所述算力服务请求报文用于请求指定服务类型的算力服务;
每个算力边缘节点,具体用于在接收到算力服务请求报文后,从自身作为组播源的多个组播组中,查找支持所述指定服务类型的指定组播组,向所述指定组播组中的算力服务节点发送组播查询报文。
可选的,所述目标组播查询报文用于请求查询指定服务类型的算力资源信息;
每个算力服务节点,具体用于响应于接收到的目标组播查询报文,从连接的算力服务器中,筛选出支持所述指定服务类型的指定算力服务器,向所述目标算力边缘节点发送所述查询响应报文,所述查询响应报文中包括所述指定算力服务器的算力资源信息。
可选的,所述组播查询报文用于请求查询指定服务类型的算力资源信息;
每个算力服务节点,具体用于响应于接收到的目标组播查询报文,从连接的算力服务器中,筛选出支持所述指定服务类型且剩余算力资源满足预设条件的指定算力服务器,向所述目标算力边缘节点发送所述查询响应报文,所述查询响应报文中包括所述指定算力服务器的算力资源信息。
可选的,
每个算力服务节点,还用于周期性获取与自身连接的各算力服务器的算力资源信息。
可选的,所述***还包括汇聚节点;
每个算力服务节点,还用于在接入到所述算力服务处理***中时,向所述汇聚节点发送注册信息,所述注册信息包括该算力服务节点连接的算力服务器的服务类型;
所述汇聚节点,用于响应于来自目标算力服务节点的目标注册信息,基于所述目标注册信息携带的服务类型,将所述目标算力服务节点加入到与所述目标注册信息携带的服务类型匹配的目标组播组中,并更新所述目标组播组对应的组播树。
第二方面,本申请实施例提供一种算力服务处理方法,应用于算力服务处理***中的任一算力边缘节点,所述算力服务处理***中还包括至少一个算力服务节点和至少一个路由节点,每个算力服务节点连接于至少一个算力服务器;所述方法包括:
接收终端设备发送的算力服务请求报文;
向自身作为组播源的组播组中的算力服务节点发送组播查询报文,所述组播组对应的组播树中的叶子节点均为算力服务节点,非叶子节点为路由节点,根节点为所述算力边缘节点;
接收所述组播组中的算力服务节点发送的查询响应报文,所述查询响应报文中包括算力服务节点连接的算力服务器的算力资源信息;
基于接收到的各算力服务器的算力资源信息,选择一个目标算力服务器,向所述目标算力服务器转发所述算力服务请求报文。
可选的,所述向组播组中的算力服务节点发送组播查询报文,包括:
从多个组播组中,查找支持所述指定服务类型的指定组播组;
向所述指定组播组中的算力服务节点发送所述组播查询报文。
第三方面,本申请实施例提供一种算力服务处理方法,应用于算力服务处理***中的任一算力服务节点,所述算力服务处理***中还包括至少一个算力边缘节点和至少一个路由节点,每个算力服务节点连接于至少一个算力服务器;所述算力服务节点为组播组对应的组播树的叶子节点,所述组播树的非叶子节点为路由节点,根节点为算力边缘节点;所述方法包括:
接收目标算力边缘节点发送的组播查询报文,所述组播查询报文为所述目标算力边缘节点接收到终端设备的算力服务请求报文后发送的;
响应于所述组播查询报文,向所述目标算力边缘节点发送查询响应报文,所述查询响应报文中包括所述算力服务节点连接的算力服务器的算力资源信息,以使得所述目标算力边缘节点基于接收到的各算力服务器的算力资源信息,选择一个目标算力服务器,向所述目标算力服务器转发所述算力服务请求报文。
可选的,所述组播查询报文用于请求查询指定服务类型的算力资源信息,所述查询响应报文中包括支持所述指定服务类型的指定算力服务器的算力资源信息;
在所述向所述目标算力边缘节点发送查询响应报文之前,所述方法还包括:
从连接的算力服务器中,筛选出支持所述指定服务类型的指定算力服务器,获取所述指定算力服务器的算力资源信息。
可选的,所述组播查询报文用于请求查询指定服务类型的算力资源信息,所述查询响应报文中包括支持所述指定服务类型,且剩余算力资源满足预设条件的指定算力服务器的资源信息;
在所述向所述目标算力边缘节点发送查询响应报文之前,所述方法还包括:
从自身连接的服务器中,筛选出支持所述指定服务类型且剩余算力资源满足预设条件的指定算力服务器,获取所述指定算力服务器的算力资源信息。
第四方面,本申请实施例提供一种算力服务处理装置,应用于算力服务处理***中的任一算力边缘节点,所述算力服务处理***中还包括至少一个算力服务节点和至少一个路由节点,每个算力服务节点连接于至少一个算力服务器;所述装置包括:
接收模块,用于接收终端设备发送的算力服务请求报文;
发送模块,用于向所述算力边缘节点作为组播源的组播组中的算力服务节点发送组播查询报文,所述组播组对应的组播树中的叶子节点均为算力服务节点,非叶子节点为路由节点,根节点为所述算力边缘节点;
所述接收模块,还用于接收所述组播组中的算力服务节点发送的查询响应报文,所述查询响应报文中包括算力服务节点连接的算力服务器的算力资源信息;
选择模块,用于基于所述接收模块接收到的各算力服务器的算力资源信息,选择一个目标算力服务器;
所述发送模块,还用于向所述选择模块选择的所述目标算力服务器转发所述算力服务请求报文。
可选的,所述发送模块,具体用于:
从多个组播组中,查找支持所述指定服务类型的指定组播组;
向所述指定组播组中的算力服务节点发送所述组播查询报文。
第五方面,本申请实施例提供一种算力服务处理装置,应用于算力服务处理***中的任一算力服务节点,所述算力服务处理***中还包括至少一个算力边缘节点和至少一个路由节点,每个算力服务节点连接于至少一个算力服务器;所述算力服务节点为组播组对应的组播树的叶子节点,所述组播树的非叶子节点为路由节点,根节点为算力边缘节点;所述装置包括:
接收模块,用于接收目标算力边缘节点发送的组播查询报文,所述组播查询报文为所述目标算力边缘节点接收到终端设备的算力服务请求报文后发送的;
发送模块,用于响应于所述组播查询报文,向所述目标算力边缘节点发送查询响应报文,所述查询响应报文中包括所述算力服务节点连接的算力服务器的算力资源信息,以使得所述目标算力边缘节点基于接收到的各算力服务器的算力资源信息,选择一个目标算力服务器,向所述目标算力服务器转发所述算力服务请求报文。
可选的,所述组播查询报文用于请求查询指定服务类型的算力资源信息,所述查询响应报文中包括支持所述指定服务类型的指定算力服务器的算力资源信息;
所述装置还包括:
获取模块,用于从连接的算力服务器中,筛选出支持所述指定服务类型的指定算力服务器,获取所述指定算力服务器的算力资源信息。
可选的,所述组播查询报文用于请求查询指定服务类型的算力资源信息,所述查询响应报文中包括支持所述指定服务类型,且剩余算力资源满足预设条件的指定算力服务器的资源信息;
所述装置还包括:
获取模块,用于从自身连接的服务器中,筛选出支持所述指定服务类型且剩余算力资源满足预设条件的指定算力服务器,获取所述指定算力服务器的算力资源信息。
第六方面,本申请实施例提供一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现第二方面或第三方面任一所述的方法步骤。
第七方面,本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现第二方面或第三方面任一所述的方法步骤。
第八方面,本申请实施例提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据第二方面或第三方面任一所述的方法。
采用本申请实施例,算力边缘节点接收到终端设备发送的算力服务请求报文后,可向自身作为组播源的组播组中的算力服务节点发送组播查询报文,以便于获取各算力服务节点连接的算力服务器的算力资源信息,进而就无需控制器统一接收各算力服务节点的算力资源,降低了对控制器的要求。且算力服务处理***中的各节点也无需互相泛洪通告算力资源,如此,就无需要求算力服务处理***中的所有节点均支持算力网络服务。本申请实施例中,只需算力边缘节点和算力服务节点支持算力网络服务,其余路由节点只是进行普通的报文转发,所以在部署算力服务处理***时,无需大幅调整大量的路由节点,只需将个别边缘节点部署为支持算力网络服务的设备,可以减少开发工作量,简化部署过程,降低部署成本。
当然,实施本发明的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的实施例。
图1为相关技术中提供的一种集中式部署的算力网络的结构示意图;
图2为相关技术中提供的一种分布式部署的算力网络的结构示意图;
图3为相关技术中提供的一种混合式部署的算力网络的结构示意图;
图4为本申请实施例提供的一种算力服务处理***的结构示意图;
图5为本申请实施例提供的一种算力服务处理***的示例性示意图;
图6为本申请实施例提供的一种算力服务处理方法的流程图;
图7为本申请实施例提供的另一种算力服务处理方法的流程图;
图8为本申请实施例提供的一种算力服务处理装置的结构示意图;
图9为本申请实施例提供的另一种算力服务处理装置的结构示意图;
图10为本申请实施例提供的一种网络设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员基于本申请所获得的所有其他实施例,都属于本发明保护的范围。
为方便理解,首先对本申请实施例中涉及到的相关概念进行解释。
算力网络,是指网络基础设施具备对算力资源的感知、调度和编排能力,可以在网络层提供网络、计算、存储的新型信息与通信技术(information and communicationtechnology,ICT)融合服务,是以网络为基础的新一代技术架构和业务运营体系。
在5G以及后5G时代,为了更迅捷高速地响应业务的计算需求,算力资源逐渐被下沉至靠近用户的边缘,形成异构多样、分布式的算力部署新态势。运营商可以借助网络基础设施,将多级分布的算力资源进行统一的动态纳管、调度和编排,实现全网资源的虚拟算力池化优势。
如图1所示,图1为相关技术中的一种集中式控制面部署的算力网络,图1中示例性地示出了三个地区的网络架构,在纵向上,每个地区的网络均包括算力资源层、网络资源层和IP层(IP layer),且还包括应用(Application,APP)、计算机资源(computer resource),可选地,还可以包括一些特定的服务功能,例如图1中示出的功能1(function1)。
在图1中,算力资源层和网络资源层需向控制器上报算力资源信息和网络状态信息,IP层需向控制器上报路由信息,进而控制器和编排器可以按照应用需求,结合全网的算力资源信息、网络状态信息以及路由信息,编排转发路径。
如图2所示,图2为相关技术中的一种分布式控制面部署的算力网络,图2中示例性地示出了三个地区的网络结构,与图1的区别为该算力网络中无需部署集中编排器和控制器,算力资源层之间可以互相泛洪发布算力资源,网络资源层之间可以互相泛洪发布网络状态信息,IP层之间可以互相泛洪发布路由信息。具体可以在网络域内通过IGP协议或在网络域间通过BGP协议进行发布。
进而分布式算力网络中的路由设备可以基于学习到的全网的算力资源信息、网络状态信息和路由信息计算转发路径。
如图3所示,图3为相关技术中的一种混合式控制面部署的算力网络,图3为在图1和图2基础上的改进,其中左侧三列为一个网络域,右侧三列为另一个网络域,各节点可以在网络域内进行泛洪发布,通过控制器和编排器进行网络域间的信息传递。
上述三种算力网络均存在部署复杂的问题,例如在集中式算力网络中,需要对控制器进行大量的开发工作,在分布式算力网络中,需要所有节点均支持算力网络服务,且需为所有节点配置用于泛洪发布信息的交互协议,开发工作量巨大。分布式算力网络缓解了上述问题,但仍未完全解决。
为了解决上述问题,本申请实施例提供了一种算力服务处理***,如图4所示,该***包括至少一个算力服务节点41、至少一个算力边缘节点42以及至少一个路由节点43,每个算力服务节点41连接于至少一个算力服务器44。需要说明的是,图4仅为示例,实际实现中各设备的数量不限于此。
其中,算力服务节点41可以为服务侧的边缘路由设备,算力边缘节点42为终端侧的边缘路由设备,算力服务节点41和算力边缘节点42均为支持算力网络服务的路由设备,路由节点43为普通的路由设备,可以不支持算力网络服务。算力服务器44可以为实体的服务器,也可以为分布式部署的算力服务单元。
每个算力边缘节点42,用于接收终端设备发送的算力服务请求报文,并向自身作为组播源的组播组中的算力服务节点41发送组播查询报文,组播组对应的组播树中的叶子节点均为算力服务节点41,非叶子节点为路由节点43,根节点为算力边缘节点42。
组播树也可称为组播转发树,用于表示组播源至组播组中各组播组成员之间的拓扑关系,组播组中的组播成员为算力服务节点41,所以组播树中的叶子节点均为算力服务节点41。可以理解的是,算力边缘节点42发出的组播查询报文,可沿着组播树经过路由节点43被传输至算力服务节点41。
其中,算力服务请求报文为终端设备发送的用于请求提供算力服务的报文,作为示例,该算力服务可以为游戏服务。组播查询报文用于请求查询组播组中各算力服务节点41连接的算力服务器44的算力资源信息。
每个算力服务节点41,用于响应于来自目标算力边缘节点的目标组播查询报文,向目标算力边缘节点发送查询响应报文,查询响应报文中包括该算力服务节点41连接的算力服务器44的算力资源信息。
其中,算力资源信息包括算力服务器的CPU计算能力信息、CPU占用率以及存储容量中的任意一项或多项,也可包括其他用于表示算力能力的信息,本申请实施例对此不作限定。
本申请实施例中,目标算力边缘节点为该算力服务处理***中发送该目标组播查询报文的算力边缘节点42。组播组中可能存在多个算力服务节点41接收到组播查询报文,每个接收到组播查询报文的算力服务节点41均可针对接收到的组播查询报文向算力边缘节点42发送查询响应报文。查询响应报文为单播报文。
每个算力边缘节点42,还用于基于接收到的各算力服务器44的算力资源信息,选择一个目标算力服务器,向目标算力服务器转发算力服务请求报文。
可以理解的是,算力边缘节点42可以沿着从算力边缘节点42至目标算力服务器连接的算力服务节点41的转发路径,转发已接收到的算力服务请求报文,进而算力服务节点41可将算力服务请求报文转发给目标算力服务器。目标算力服务器即可基于算力服务请求报文为终端设备提供算力服务。
采用本申请实施例,在该算力服务处理***中,算力边缘节点接收到终端设备发送的算力服务请求报文后,可向自身作为组播源的组播组中的算力服务节点发送组播查询报文,以便于获取各算力服务节点连接的算力服务器的算力资源信息,进而就无需控制器统一接收各算力服务节点的算力资源,降低了对控制器的要求。且算力服务处理***中的各节点也无需互相泛洪通告算力资源,如此,就无需要求算力服务处理***中的所有节点均支持算力网络服务。本申请实施例中,只需算力边缘节点和算力服务节点支持算力网络服务,其余路由节点只是进行普通的报文转发,所以在部署算力服务处理***时,无需大幅调整大量的路由节点,只需将个别边缘节点部署为支持算力网络服务的设备,可以减少开发工作量,简化部署过程,降低部署成本。
可选地,终端设备发送的算力服务请求报文用于请求指定服务类型的算力服务。
每个算力边缘节点42,具体用于在接收到算力服务请求报文后,从自身作为组播源的多个组播组中,查找支持指定服务类型的指定组播组,向指定组播组中的算力服务节点41发送组播查询报文。
其中,上述多个组播组的组播源均为该算力边缘节点42,算力边缘节点42可预先存储各组播组支持的服务类型,每个组播组支持一种服务类型,组播组的组播组成员为支持该服务类型的算力服务节点41。例如,服务类型可以为内容分发网络(Content DeliveryNetwork,CDN)、人工智能(Artificial Intelligence,AI)和物联网(Internet of things,IoT)等。
假设一个算力边缘节点42分别是组播组A、组播组B和组播组C的组播源,组播组A支持的服务类型为CDN、组播组B支持的服务类型为AI,组播组C支持的服务类型为IoT,若上述指定服务类型为AI,即算力服务请求报文用于请求AI服务,则该算力边缘节点42可向组播组B发送组播查询报文。
采用本申请实施例,算力边缘节点可向支持指定服务类型的组播组中的算力服务节点发送组播查询报文,可以避免不支持指定服务类型的算力服务节点接收到组播查询报文,可以降低查询开销,提高查询效率。
在上述任一实施例的基础上,目标组播查询报文用于请求查询指定服务类型的算力资源信息,该指定服务类型为客户端发送的算力服务请求报文请求的算力服务的类型。
可以理解为,算力边缘节点42接收到算力服务请求报文后,可获取该算力服务请求报文所请求的算力服务的指定服务类型,进而向算力服务节点41发送用于查询该指定服务类型的算力资源的组播查询报文。
每个算力服务节点41,具体用于响应于接收到的目标组播查询报文,从连接的算力服务器44中,筛选出支持指定服务类型的指定算力服务器,向目标算力边缘节点发送查询响应报文,查询响应报文中包括指定算力服务器的算力资源信息。
可选地,每个算力服务节点41,还用于周期性获取与自身连接的各算力服务器44的算力资源信息。比如,可以每隔5秒获取一次,如此可以使得算力服务节点41及时获知各算力服务器的算力资源信息,并缓存在本地,进而可以准确快速地向算力边缘节点42反馈各算力服务器的算力资源信息。
其中,算力服务节点41接收到的目标组播查询报文携带指定服务类型的标识,算力服务节点41连接的不同算力服务器可以支持不同类型的算力服务,算力服务节点可以筛选出支持指定服务类型的算力服务器,并获取指定服务类型的算力服务器的算力资源信息。如此,算力边缘节点42接收到的算力资源信息均为支持指定服务类型的算力服务器的算力资源信息,可以避免向算力边缘节点42传输不支持指定服务类型的算力服务器的算力资源,可以节省传输开销,进而节省网络资源,提升查询效率。
另一实施方式中,每个算力服务节点41,具体用于响应于接收到的目标组播查询报文,从连接的算力服务器44中,筛选出支持指定服务类型且剩余算力资源满足预设条件的指定算力服务器,向目标算力边缘节点发送查询响应报文,查询响应报文中包括指定算力服务器的算力资源信息。
即算力服务节点41不仅需要筛选支持指定服务类型的算力服务器,还需进一步判断筛选出的算力服务器的剩余算力资源是否满足预设条件,进而向目标算力边缘节点发送满足预设条件的算力服务器的算力资源信息。
其中,预设条件可以基于实际需求设置,例如,预设条件可以为剩余算力资源中的CPU利用率小于预设的CPU利用率阈值,且剩余内存空间大于内存空间阈值。
也就是说,筛选出的指定算力服务器有足够的算力资源,可以避免向目标算力边缘节点反馈剩余算力资源不足的算力服务器的资源信息,可以节省传输开销,且可提高算力边缘节点选择目标服务器的效率,使得算力边缘节点可以更快速地处理算力服务请求报文,降低算力服务的时延。
在本申请另一实施例中,该***中还包括汇聚节点(Rendezvous Point,RP),汇聚节点也是一台路由器,为组播网络中的关键角色。其中,在组播网络中,可以预先以静态配置的方式将一台路由器配置为RP,或者也可动态选择RP,确定RP的方法可参考标准组播协议。
在算力服务处理***中,运行组播协议的路由器可以通过组播路由协议获知RP。
每个算力服务节点41,还用于在接入到算力服务处理***中时,向汇聚节点发送注册信息,该注册信息包括该算力服务节点41连接的算力服务器的服务类型。
汇聚节点,用于响应于来自目标算力服务节点的目标注册信息,基于目标注册信息携带的服务类型,将目标算力服务节点加入到与注册信息携带的服务类型匹配的组播组中,并更新该组播组对应的组播树。
可以理解的是,每个算力服务节点41在接入算力服务处理***中时,需先向汇聚节点进行注册,进而才可以作为组播成员加入组播组。目标算力服务节点为向汇聚节点发送注册信息的算力服务节点41。
本申请实施例中,每个算力服务节点41可以连接多个算力服务器44,且每个算力服务器44的服务类型可以不同,并且单个算力服务器44也可以同时提供多种类型的服务。相应地,算力服务节点41向汇聚节点发送的注册信息可以携带多种服务类型,汇聚节点可以基于多种服务类型将该算力服务节点41加入多个组播组中。
采用该方法,当有算力服务节点加入算力服务处理***时,汇聚节点可以实时将该算力服务节点加入组播组并更新组播组,无需该算力服务节点向算力服务处理***中的其他节点进行信息通告,可以实现算力网络的快速部署。
此外,每个算力边缘节点42也可根据自身接入的终端所需的服务类型,向汇聚节点请求注册为组播源。即算力边缘节点42也可以向汇聚节点发送注册信息,该注册信息包括算力边缘节点42能够为终端设备提供的服务类型。汇聚节点基于注册信息携带的服务类型,将算力边缘节点42作为该服务类型对应的组播组的组播源。
以下结合具体例子对本申请实施例提供的算力服务处理***进行介绍,如图5所示,图5中的节点A至H均为算力服务处理***中的网络节点,这些网络节点均可以为路由设备。
其中,节点A连接于算力服务器1,节点B连接于算力服务器2。节点A和节点B均为算力服务节点。图5中示例性的示出了节点A连接的一个算力服务器1以及节点B连接的一个算力服务器2,在实际部署中,节点A和节点B也可连接多个算力服务器。
节点C、D、E、H为传统网络路由节点,支持IPv6和/或IPv4组播和单播转发。
节点G和F为算力边缘节点,即新型的支持算力网络服务的边缘节点,如果终端设备需要算力网络服务,则终端设备可接入算力边缘节点。
以终端设备为个人计算机(Personal Computer,PC)为例,图5中还示出了两个终端设备,分别为PC-A和PC-B。其中,PC-A上联的节点G为支持算力网络服务的算力边缘节点,因此PC-A可以使用算力网络服务。PC-B上联的节点H为传统路由器,因此PC-B不能使用算力网络服务。
可选地,图5中的各节点还可以与SDN控制器(图5中未示出)连接。
在网络部署时,如果需要实现算力网络服务,则可以在有算力网络服务需求的终端设备接入的边缘节点,替换为本申请实施例中的算力边缘节点,并配置算力边缘节点支持的算力网络服务类型。
例如,在PC-A无需使用算力网络服务时,PC-A接入的边缘节点可以为普通的路由节点,在需要使用算力网络服务时,可将PC-A接入的路由节点替换为支持算力服务的算力边缘节点。
节点G和节点F均可作为组播组的组播源,节点A和节点B均可作为组播组中的组播成员。
作为示例,算力服务器1为游戏a提供算力服务,算力服务器2为游戏a和游戏b提供算力服务。
游戏a对应的组播组为(*,游戏a),游戏b对应的组播组为(*,游戏b)。
在节点A接入该算力服务处理***时,节点A可向汇聚节点(图5中未示出)发送注册信息,注册信息中包括的服务类型为游戏a,进而汇聚节点将节点A加入到组播组(*,游戏a)中。
在节点B接入该算力服务处理***时,节点B向汇聚节点发送注册信息,注册信息中包括的服务类型为游戏a和游戏b,进而汇聚节点将节点B加入到组播组(*,游戏a)和(*,游戏b)中。
假设节点G连接的PC-A需要游戏a的算力服务,节点G可向汇聚节点申请注册为组播组(*,游戏a)的组播源。
当组播组中的组播成员发生更新时,汇聚节点可根据组播源与组播成员之间的拓扑位置关系,更新组播树。或者,在创建一个新的组播组后,汇聚节点可根据组播源与组播成员之间的拓扑位置关系构建组播树。
例如,组播组(*,游戏a)对应的组播树包括两个分支,分别为节点G-节点D-节点A,和节点G-节点D-节点E-节点B,具体为图5中的组播树①。可以看出,组播树①对应的组播源为节点G,组播成员为节点A和节点B。
组播组(*,游戏b)对应的组播树包括一个分支,为节点F-节点E-节点B,具体为图5中的组播树②。可以看出,组播树②对应的组播源为节点F,组播成员为节点B。
当PC-A需要网络服务时,可向节点G发送算力服务请求报文。节点G接收到算力服务请求报文后,可以基于算力服务请求报文识别PC-A请求的服务类型为游戏a。进而,节点G向RP发送目的组播地址为(*,游戏a)的组播请求报文,RP接收到该组播请求报文后,向组播组(*,游戏a)的所有组播成员转发该组播请求报文,也就是沿着组播树①向节点A和节点B转发该组播请求报文。
节点A接收到组播查询报文后,可沿路径:节点A-节点D-节点G,向节点G回复单播的业务查询响应报文,该业务查询响应报文中包括算力服务器1的算力资源信息。
同理,节点B接收到组播查询报文后,可沿路径:节点B-节点E-节点D-节点G,向节点G回复单播的业务查询响应报文,该业务查询响应报文中包括算力服务器2的算力资源信息。
进而节点G可从算力服务器1和算力服务器2的算力资源信息,选择合适的算力服务器。例如若算力服务器1的算力资源更充足,且距离节点G较近,则可选择算力服务器1,进而节点G可向算力服务器1转发算力服务请求报文,后续算力服务器1可为PC-A提供算力服务。
可见,采用该***,相比于分布式的部署方式,本申请实施例无需额外部署复杂的路由协议,可以极大减少算力路由协议的复杂度和开发工作量。并且通过在现有网络的基础上更换算力边缘节点和算力服务节点,即可实现算力网络设备的快速部署,无需对现有网络中的其他设备进行开发,通过简单的组播路由协议即可实现算力路由和算力状态的同步,极大减少了开发工作量和部署复杂度。
对应于上述***实施例,本申请实施例还提供一种算力服务处理方法,该方法可以应用于上述算力服务处理***中的任一算力边缘节点,如图6所示,该方法包括:
S601、接收终端设备发送的算力服务请求报文。
其中,算力服务请求报文用于请求指定服务类型的算力服务。
S602、向自身作为组播源的组播组中的算力服务节点发送组播查询报文。
其中,组播组对应的组播树中的叶子节点均为算力服务节点,非叶子节点为路由节点,根节点为算力边缘节点。
可选地,算力边缘节点可向自身作为组播源的所有组播组发送组播查询报文,进而接收到该组播查询报文的算力服务节点可判断是否支持指定服务类型,若支持,则向算力边缘节点发送查询响应报文。或者,算力边缘节点可从多个组播组中,查找支持指定服务类型的指定组播组,并向该指定组播组中的算力服务节点发送组播查询报文。
S603、接收组播组中的算力服务节点发送的查询响应报文,查询响应报文中包括算力服务节点连接的算力服务器的算力资源信息。
S604、基于接收到的各算力服务器的算力资源信息,选择一个目标算力服务器,向目标算力服务器转发算力服务请求报文。
其中,算力边缘节点可以根据预设的判断条件选择目标算力服务器。
例如,可以选择与算力边缘节点的拓扑距离最近的算力服务器作为目标算力服务器,或者选择CPU占用率低于预设阈值的算力服务器作为目标算力服务器,或者对拓扑距离远近、CPU占用率以及存储容量等算力资源信息进行综合加权,选择一个加权值最高的算力服务器作为目标算力服务器。
采用本申请实施例,算力边缘节点接收到终端设备发送的算力服务请求报文后,可向组播组中的算力服务节点发送组播查询报文,以便于获取各算力服务节点连接的算力服务器的算力资源信息,进而就无需控制器统一接收各算力服务节点的算力资源,降低了对控制器的要求。且算力服务处理***中的各节点也无需互相泛洪通告算力资源,如此,就无需要求算力服务处理***中的所有节点均支持算力网络服务。本申请实施例中,只需算力边缘节点和算力服务节点支持算力网络服务,其余路由节点只是进行普通的报文转发,所以在部署算力服务处理***时,无需大幅调整大量的路由节点,只需将个别边缘节点部署为支持算力网络服务的设备,可以减少开发工作量,简化部署过程,降低部署成本。
对应于上述***实施例,本申请实施例还提供一种算力服务处理方法,该方法应用于算力服务处理***中的任一算力服务节点,如图7所示,该方法包括:
S701、接收目标算力边缘节点发送的组播查询报文,组播查询报文为目标算力边缘节点接收到终端设备的算力服务请求报文后发送的。
其中,目标算力边缘节点可以为算力服务处理***中的任一算力边缘节点,算力服务请求报文用于请求指定服务类型的算力服务,组播查询报文可以携带该指定服务类型的标识,组播查询报文用于请求查询指定服务类型的算力资源信息。
S702、响应于组播查询报文,向目标算力边缘节点发送查询响应报文,查询响应报文中包括算力服务节点连接的算力服务器的算力资源信息,以使得目标算力边缘节点基于接收到的各算力服务器的算力资源信息,选择一个目标算力服务器,向目标算力服务器转发算力服务请求报文。
采用本申请实施例,算力服务节点可接收目标算力边缘节点发送的组播查询报文,并获取各算力服务节点连接的算力服务器的算力资源信息,进而就无需控制器统一接收各算力服务节点的算力资源,降低了对控制器的要求。且算力服务处理***中的各节点也无需互相泛洪通告算力资源,如此,就无需要求算力服务处理***中的所有节点均支持算力网络服务。本申请实施例中,只需算力边缘节点和算力服务节点支持算力网络服务,其余路由节点只是进行普通的报文转发,所以在部署算力服务处理***时,无需大幅调整大量的路由节点,只需将个别边缘节点部署为支持算力网络服务的设备,可以减少开发工作量,简化部署过程,降低部署成本。
可选的,算力服务节点可以周期性获取与自身连接的各算力服务器的算力资源信息,并将算力服务器的算力资源信息缓存在本地,当接收到组播查询报文后,可以快速的向算力边缘节点反馈自身连接的算力服务器的算力资源信息。
在一种实施方式中,组播查询报文用于请求查询指定服务类型的算力资源信息,相应地,在向目标算力边缘节点发送查询响应报文之前,该方法还包括:
从连接的算力服务器中,筛选出支持指定服务类型的指定算力服务器,获取指定算力服务器的算力资源信息。进而,算力服务节点发送的查询响应报文中包括该指定算力服务器的资源信息。
在另一实施方式中,在向目标算力边缘节点发送查询响应报文之前,算力服务节点可以从连接的服务器中,筛选出支持指定服务类型且剩余算力资源满足预设条件的指定算力服务器,获取该指定算力服务器的算力资源信息。进而,算力服务节点发送的查询响应报文中包括支持指定服务类型,且剩余算力资源满足预设条件的指定算力服务器的资源信息。
由于一个算力服务节点可能连接多个算力服务器,所以算力服务节点不仅需要从多个算力服务器中筛选支持指定服务类型的算力服务器,还需进一步判断筛选出的算力服务器的剩余算力资源是否满足预设条件。该预设条件基于实际需求设置,例如,预设条件可以为剩余算力资源中的CPU利用率小于预设的CPU利用率阈值,且剩余内存空间大于内存空间阈值。
采用上述方法,筛选出的算力服务器有足够的算力资源,可以避免向算力边缘节点反馈剩余算力资源不足的算力服务器的资源信息,可以节省传输开销,且可提高算力边缘节点选择目标服务器的效率,使得算力边缘节点可以更快速地处理算力服务请求报文,降低算力服务的时延。
基于相同的发明构思,本申请实施例还提供一种算力服务处理装置,该装置应用于算力服务处理***中的任一算力边缘节点,算力服务处理***中还包括至少一个算力服务节点和至少一个路由节点,每个算力服务节点连接于至少一个算力服务器。如图8所示,该装置包括:
接收模块801,用于接收终端设备发送的算力服务请求报文;
发送模块802,用于向算力边缘节点作为组播源的组播组中的算力服务节点发送组播查询报文,组播组对应的组播树中的叶子节点均为算力服务节点,非叶子节点为路由节点,根节点为算力边缘节点;
接收模块801,还用于接收组播组中的算力服务节点发送的查询响应报文,查询响应报文中包括算力服务节点连接的算力服务器的算力资源信息;
选择模块803,还用于基于接收模块801接收到的各算力服务器的算力资源信息,选择一个目标算力服务器;
发送模块802,还用于向选择模块803选择的目标算力服务器转发算力服务请求报文。
可选的,发送模块802,具体用于:
从多个组播组中,查找支持指定服务类型的指定组播组;
向指定组播组中的算力服务节点发送组播查询报文。
基于相同的发明构思,本申请实施例还提供一种算力服务处理装置,应用于算力服务处理***中的任一算力服务节点,算力服务处理***中还包括至少一个算力边缘节点和至少一个路由节点,每个算力服务节点连接于至少一个算力服务器;算力服务节点为组播组对应的组播树的叶子节点,组播树的非叶子节点为路由节点,根节点为算力边缘节点。如图9所示,该装置包括:
接收模块901,用于接收目标算力边缘节点发送的组播查询报文,组播查询报文为目标算力边缘节点接收到终端设备的算力服务请求报文后发送的;
发送模块902,用于响应于组播查询报文,向目标算力边缘节点发送查询响应报文,查询响应报文中包括算力服务节点连接的算力服务器的算力资源信息,以使得目标算力边缘节点基于接收到的各算力服务器的算力资源信息,选择一个目标算力服务器,向目标算力服务器转发算力服务请求报文。
可选的,组播查询报文用于请求查询指定服务类型的算力资源信息,查询响应报文中包括支持指定服务类型的指定算力服务器的算力资源信息;
该装置还包括:
获取模块,用于从连接的算力服务器中,筛选出支持指定服务类型的指定算力服务器,获取指定算力服务器的算力资源信息。
可选的,组播查询报文用于请求查询指定服务类型的算力资源信息,查询响应报文中包括支持指定服务类型,且剩余算力资源满足预设条件的指定算力服务器的资源信息;
该装置还包括:
获取模块,用于从自身连接的服务器中,筛选出支持指定服务类型且剩余算力资源满足预设条件的指定算力服务器,获取指定算力服务器的算力资源信息。
本申请实施例还提供了一种网络设备,该网络设备可以为上述实施例中的算力边缘节点或算力服务节点,如图10所示,包括处理器1001、通信接口1002、存储器1003和通信总线1004,其中,处理器1001,通信接口1002,存储器1003通过通信总线1004完成相互间的通信,
存储器1003,用于存放计算机程序;
处理器1001,用于执行存储器1003上所存放的程序时,实现上述方法实施例中由算力服务节点执行的方法步骤,或者实现上述方法实施例中由算力边缘节点执行的方法步骤。
上述网络设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,计算机程序被处理器执行时实现上述任一算力服务处理方法的步骤。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一算力服务处理方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行计算机程序指令时,全部或部分地产生按照本发明实施例的流程或功能。计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于方法实施例而言,由于其基本相似于***实施例,所以描述的比较简单,相关之处参见***实施例的部分说明即可。
以上仅为本发明的较佳实施例,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

Claims (13)

1.一种算力服务处理***,其特征在于,所述***包括至少一个算力服务节点、至少一个算力边缘节点以及至少一个路由节点,每个算力服务节点连接于至少一个算力服务器;
每个算力边缘节点,用于接收终端设备发送的算力服务请求报文,并向自身作为组播源的组播组中的算力服务节点发送组播查询报文,每个组播组对应的组播树中的叶子节点均为算力服务节点,非叶子节点为路由节点,根节点为算力边缘节点;
每个算力服务节点,用于响应于来自目标算力边缘节点的目标组播查询报文,向所述目标算力边缘节点发送查询响应报文,所述查询响应报文中包括该算力服务节点连接的算力服务器的算力资源信息;
每个算力边缘节点,还用于基于接收到的各算力服务器的算力资源信息,选择一个目标算力服务器,向所述目标算力服务器转发算力服务请求报文。
2.根据权利要求1所述的***,其特征在于,所述算力服务请求报文用于请求指定服务类型的算力服务;
每个算力边缘节点,具体用于在接收到算力服务请求报文后,从自身作为组播源的多个组播组中,查找支持所述指定服务类型的指定组播组,向所述指定组播组中的算力服务节点发送组播查询报文。
3.根据权利要求1或2所述的***,其特征在于,所述目标组播查询报文用于请求查询指定服务类型的算力资源信息;
每个算力服务节点,具体用于响应于接收到的目标组播查询报文,从连接的算力服务器中,筛选出支持所述指定服务类型的指定算力服务器,向所述目标算力边缘节点发送所述查询响应报文,所述查询响应报文中包括所述指定算力服务器的算力资源信息。
4.根据权利要求1或2所述的***,其特征在于,所述组播查询报文用于请求查询指定服务类型的算力资源信息;
每个算力服务节点,具体用于响应于接收到的目标组播查询报文,从连接的算力服务器中,筛选出支持所述指定服务类型且剩余算力资源满足预设条件的指定算力服务器,向所述目标算力边缘节点发送所述查询响应报文,所述查询响应报文中包括所述指定算力服务器的算力资源信息。
5.根据权利要求1所述的***,其特征在于,
每个算力服务节点,还用于周期性获取与自身连接的各算力服务器的算力资源信息。
6.根据权利要求1所述的***,其特征在于,所述***还包括汇聚节点;
每个算力服务节点,还用于在接入到所述算力服务处理***中时,向所述汇聚节点发送注册信息,所述注册信息包括该算力服务节点连接的算力服务器的服务类型;
所述汇聚节点,用于响应于来自目标算力服务节点的目标注册信息,基于所述目标注册信息携带的服务类型,将所述目标算力服务节点加入到与所述目标注册信息携带的服务类型匹配的目标组播组中,并更新所述目标组播组对应的组播树。
7.一种算力服务处理方法,其特征在于,应用于算力服务处理***中的任一算力边缘节点,所述算力服务处理***中还包括至少一个算力服务节点和至少一个路由节点,每个算力服务节点连接于至少一个算力服务器;所述方法包括:
接收终端设备发送的算力服务请求报文;
向自身作为组播源的组播组中的算力服务节点发送组播查询报文,所述组播组对应的组播树中的叶子节点均为算力服务节点,非叶子节点为路由节点,根节点为所述算力边缘节点;
接收所述组播组中的算力服务节点发送的查询响应报文,所述查询响应报文中包括算力服务节点连接的算力服务器的算力资源信息;
基于接收到的各算力服务器的算力资源信息,选择一个目标算力服务器,向所述目标算力服务器转发所述算力服务请求报文。
8.根据权利要求7所述的方法,其特征在于,所述向组播组中的算力服务节点发送组播查询报文,包括:
从多个组播组中,查找支持所述指定服务类型的指定组播组;
向所述指定组播组中的算力服务节点发送所述组播查询报文。
9.一种算力服务处理方法,其特征在于,应用于算力服务处理***中的任一算力服务节点,所述算力服务处理***中还包括至少一个算力边缘节点和至少一个路由节点,每个算力服务节点连接于至少一个算力服务器;所述算力服务节点为组播组对应的组播树的叶子节点,所述组播树的非叶子节点为路由节点,根节点为算力边缘节点;所述方法包括:
接收目标算力边缘节点发送的组播查询报文,所述组播查询报文为所述目标算力边缘节点接收到终端设备的算力服务请求报文后发送的;
响应于所述组播查询报文,向所述目标算力边缘节点发送查询响应报文,所述查询响应报文中包括所述算力服务节点连接的算力服务器的算力资源信息,以使得所述目标算力边缘节点基于接收到的各算力服务器的算力资源信息,选择一个目标算力服务器,向所述目标算力服务器转发所述算力服务请求报文。
10.根据权利要求9所述的方法,其特征在于,所述组播查询报文用于请求查询指定服务类型的算力资源信息,所述查询响应报文中包括支持所述指定服务类型的指定算力服务器的算力资源信息;
在所述向所述目标算力边缘节点发送查询响应报文之前,所述方法还包括:
从连接的算力服务器中,筛选出支持所述指定服务类型的指定算力服务器,获取所述指定算力服务器的算力资源信息。
11.根据权利要求9所述的方法,其特征在于,所述组播查询报文用于请求查询指定服务类型的算力资源信息,所述查询响应报文中包括支持所述指定服务类型,且剩余算力资源满足预设条件的指定算力服务器的资源信息;
在所述向所述目标算力边缘节点发送查询响应报文之前,所述方法还包括:
从自身连接的服务器中,筛选出支持所述指定服务类型且剩余算力资源满足预设条件的指定算力服务器,获取所述指定算力服务器的算力资源信息。
12.一种算力服务处理装置,其特征在于,应用于算力服务处理***中的任一算力边缘节点,所述算力服务处理***中还包括至少一个算力服务节点和至少一个路由节点,每个算力服务节点连接于至少一个算力服务器;所述装置包括:
接收模块,用于接收终端设备发送的算力服务请求报文;
发送模块,用于向所述算力边缘节点作为组播源的组播组中的算力服务节点发送组播查询报文,所述组播组对应的组播树中的叶子节点均为算力服务节点,非叶子节点为路由节点,根节点为所述算力边缘节点;
所述接收模块,还用于接收所述组播组中的算力服务节点发送的查询响应报文,所述查询响应报文中包括算力服务节点连接的算力服务器的算力资源信息;
选择模块,用于基于所述接收模块接收到的各算力服务器的算力资源信息,选择一个目标算力服务器;
所述发送模块,还用于向所述选择模块选择的所述目标算力服务器转发所述算力服务请求报文。
13.一种算力服务处理装置,其特征在于,应用于算力服务处理***中的任一算力服务节点,所述算力服务处理***中还包括至少一个算力边缘节点和至少一个路由节点,每个算力服务节点连接于至少一个算力服务器;所述算力服务节点为组播组对应的组播树的叶子节点,所述组播树的非叶子节点为路由节点,根节点为算力边缘节点;所述装置包括:
接收模块,用于接收目标算力边缘节点发送的组播查询报文,所述组播查询报文为所述目标算力边缘节点接收到终端设备的算力服务请求报文后发送的;
发送模块,用于响应于所述组播查询报文,向所述目标算力边缘节点发送查询响应报文,所述查询响应报文中包括所述算力服务节点连接的算力服务器的算力资源信息,以使得所述目标算力边缘节点基于接收到的各算力服务器的算力资源信息,选择一个目标算力服务器,向所述目标算力服务器转发所述算力服务请求报文。
CN202211349514.9A 2022-10-31 2022-10-31 算力服务处理方法、装置及*** Pending CN115622938A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211349514.9A CN115622938A (zh) 2022-10-31 2022-10-31 算力服务处理方法、装置及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211349514.9A CN115622938A (zh) 2022-10-31 2022-10-31 算力服务处理方法、装置及***

Publications (1)

Publication Number Publication Date
CN115622938A true CN115622938A (zh) 2023-01-17

Family

ID=84875644

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211349514.9A Pending CN115622938A (zh) 2022-10-31 2022-10-31 算力服务处理方法、装置及***

Country Status (1)

Country Link
CN (1) CN115622938A (zh)

Similar Documents

Publication Publication Date Title
CN112840322B (zh) 网络路由环境中的单节点和多节点数据存储库***
US9838333B2 (en) Software-defined information centric network (ICN)
CN103179192B (zh) 虚拟服务器迁移的报文转发方法、***及nat服务设备
JP5745169B2 (ja) コンテンツ処理方法、コンテンツ処理デバイス、およびコンテンツ処理システム
US8732298B2 (en) Method and apparatus for maintaining routing information
CN112640371A (zh) 使用分段路由技术来减少分布式存储操作延迟
JP2023523473A (ja) ユーザプレーン機能の決定方法、情報提供方法、機器及び媒体
WO2021237827A1 (zh) 一种推送视频流的方法、装置、设备和存储介质
Scherb et al. Resolution strategies for networking the IoT at the edge via named functions
Choi et al. Fault tolerance and QoS scheduling using CAN in mobile social cloud computing
Xie et al. Supporting seamless virtual machine migration via named data networking in cloud data center
CN104754640A (zh) 一种网络资源调度方法及网络资源管理服务器
US20210377326A1 (en) Method, apparatus, device and storage medium for pushing video stream
CN115079935A (zh) 用于存储和查询数据的方法、电子设备和计算机程序产品
Simoens et al. Challenges for orchestration and instance selection of composite services in distributed edge clouds
US11108854B2 (en) Peer-to-peer network for internet of things resource allocation operation
US10904327B2 (en) Method, electronic device and computer program product for searching for node
JP5716745B2 (ja) データ転送システム
US8606890B2 (en) Managing communication between nodes in a virtual network
CN115665262A (zh) 一种请求处理方法、装置、电子设备及存储介质
CN116996585A (zh) 组播通信方法、装置、***、计算机设备和存储介质
CN115622938A (zh) 算力服务处理方法、装置及***
Wang et al. Solving multicast problem in cloud networks using overlay routing
Shukla et al. Towards software defined low maintenance structured peer-to-peer overlays
Ashraf et al. Forwarding and caching in video streaming over ICSDN: A clean-slate publish-subscribe approach

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination