CN105516276A - 基于仿生分级通信的消息处理方法与*** - Google Patents
基于仿生分级通信的消息处理方法与*** Download PDFInfo
- Publication number
- CN105516276A CN105516276A CN201510862028.0A CN201510862028A CN105516276A CN 105516276 A CN105516276 A CN 105516276A CN 201510862028 A CN201510862028 A CN 201510862028A CN 105516276 A CN105516276 A CN 105516276A
- Authority
- CN
- China
- Prior art keywords
- message
- engine
- resource
- real
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/104—Peer-to-peer [P2P] networks
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Information Transfer Between Computers (AREA)
Abstract
本发明提供了一种基于仿生分级通信的消息处理方法与***,分布式***的各节点将未分类的消息发送至消息接收器;消息接收器器通过消息分类器将消息进行分类;不同类别的消息流入不同消息分发引擎;消息分发引擎通过不同处理接口将消息发送至消息处理器;消息处理器通过消息处理插件完成对消息的处理;引擎资源消耗监控器监控各消息分发引擎的监控数据发送至引擎资源管理器;引擎资源管理器根据收到的监控数据以及引擎工作负载状态动态计算各引擎使用的资源量。本发明由通信场景定义消息分级,实现统一消息处理;采用动态资源分配,保证不同属性消息各自获得适当的可靠性和实时性;消息处理工作在应用外完成,降低了应用开发难度。
Description
技术领域
本发明涉及电信技术领域的一种消息处理的方法与***,具体地说,涉及的是一种新型分级通信并根据消息级别选择***内消息传输机制的基于仿生分级通信的消息处理方法与***。
背景技术
随着分布式***的流行,应用***多采用消息队列进行节点间通信。但节点间消息通信的需求各不相同,某些通信对实时性敏感,某些通信对可靠新敏感,某些通信是点对点的形式,某些通信需要在***中的多个节点间进行。
现有技术中没有消息分类管理处理机制,因此如何有效的对消息进行分类、传输和处理成为亟待解决的问题。
目前没有发现同本发明类似技术的说明或报道,也尚未收集到国内外类似的资料。
发明内容
针对现有技术中存在的上述不足,本发明的目的是提供一种基于仿生分级通信的消息处理方法与***,该方法与***能够对通信消息进行自动分级分类,并根据分级动态分配资源进行消息处理。
为实现上述目的,本发明是通过以下技术方案实现的。
根据本发明的一个方面,提供了一种基于仿生分级通信的消息处理方法,包括如下步骤:
步骤S1:分布式***的各节点将未分类的消息发送至消息接收器;
步骤S2:消息接收器通过消息分类器将消息进行分类;
步骤S3:不同类别的消息流入不同消息分发引擎;
步骤S4:消息分发引擎通过不同处理接口将消息发送至消息处理器;
步骤S5:消息处理器通过消息处理插件完成对消息的处理;
步骤S6:消息分发引擎的引擎资源消耗监控器随时监控各消息分发引擎的资源使用情况以及分布式***剩余资源量,并将资源使用情况数据及分布式***生育资源量情况作为监控数据发送至消息分发引擎的引擎资源管理器;
步骤S7:引擎资源管理器根据收到的监控数据以及各消息分发引擎工作负载状态动态计算各消息分发引擎能够使用的资源量,保证高实时性消息能够得到及时处理。
优选地,步骤S4中,所述消息分发引擎包括如下任一种或任多种:
-流式消息分发引擎:为一种类血液***的消息分发引擎,用于处理普通消息,通过普通消息队列依次对普通消息进行处理,保证普通消息处理的可靠性;流式消息引擎将普通消息依次发送至各个消息处理器的消息处理插件,顺序完成对普通消息的处理;
-点对点实时消息引擎:为一种类神经***的消息分发引擎,用于处理点对点的实时消息,能够实时并发处理多个消息内容,保证消息处理实时性;点对点实时消息引擎能够立即将实时消息发送至指定消息处理器的消息处理插件;
-应急恢复消息引擎:为一种类淋巴***的消息分发引擎,用于处理应急恢复消息,能够针对某一应急事件同时处理大量消息内容,并保证应急恢复消息处理的实时性;应急恢复消息引擎根据应急处理组件库决定消息内容应该被消息处理器的哪些消息处理插件处理,消息内容能够被多个消息处理插件同时处理。
优选地,步骤S7中,所述引擎资源管理器通过以下方法动态计算各消息分发引擎能够使用的资源量:
步骤S7.1:引擎资源管理器计算各引擎资源消耗的总和;
步骤S7.2:引擎资源管理器计算资源消耗总和是否已超过***资源的70%;
-若资源消耗总和未超过***资源的70%,则引擎资源管理器不对各引擎资源做配额限制;
-若资源消耗已超过***资源的70%,则管理器按照应急恢复>点对点实时>流式消息的优先级为各引擎分配资源。在高优先级需求未完全满足的情况下,管理器将忽略低优先级需求。
根据本发明的第二个方面,提供了一种基于仿生分级通信的消息处理***,包括:
-分布式***,所述分布式***包括多个节点,多个节点将未分类的消息发送至消息接收器;
-消息接收器和消息分类器,所述消息接收器用于接收未分类的消息,并通过消息分类器将未分类的消息进行分类,然后将不同类别的消息发送至不同的消息分发引擎;
-消息分发引擎,包括多个处理接口、引擎资源消耗监控器、引擎资源管理器;其中:
所述消息分发引擎通过不同处理接口将消息发送至消息处理器;
所述引擎资源消耗监控器用于随时监控各消息分发引擎的资源资源使用情况以及分布式***剩余资源量,并将资源使用情况数据及分布式***生育资源量情况作为监控数据发送至引擎资源管理器;
所述引擎资源管理器根据收到的监控数据以及各消息分发引擎工作负载状态动态计算各消息分发引擎能够使用的资源量;
-消息处理器,包括消息处理插件,通过消息处理插件完成对消息的处理。
优选地,所述消息分发引擎采用如下任一种或任多种:
-流式消息分发引擎:为一种类血液***的消息分发引擎,用于处理普通消息,通过普通消息队列依次对普通消息进行处理,保证普通消息处理的可靠性;流式消息引擎将普通消息依次发送至各个消息处理器的消息处理插件,顺序完成对普通消息的处理;
-点对点实时消息引擎:为一种类神经***的消息分发引擎,用于处理点对点的实时消息,能够实时并发处理多个消息内容,保证消息处理实时性;点对点实时消息引擎能够立即将实时消息发送至指定消息处理器的消息处理插件;
-应急恢复消息引擎:为一种类淋巴***的消息分发引擎,用于处理应急恢复消息,能够针对某一应急事件同时处理大量消息内容,并保证应急恢复消息处理的实时性;应急恢复消息引擎根据应急处理组件库决定消息内容应该被消息处理器的哪些消息处理插件处理,消息内容能够被多个消息处理插件同时处理。
与现有技术相比,本发明具有如下的有益效果:
本发明解决了如下技术问题:
1、消息传输的场景没有分级分类,消息发送端接收端需各自处理不同类型不同用途的消息;本发明仿照人体循环***(血液***、神经***、淋巴***)的几种传输场景,根据消息内容对消息进行自动分级分类;
2、不同类型的消息传输管理难以实现动态的、自动的实现资源匹配。本方法根据消息级别和***当前负载情况动态分配资源,实现消息的分级处理。
本发明带来如下有益效果:
1、由通信场景定义消息分级,实现统一消息处理;
2、采用动态资源分配,保证不同属性消息各自获得适当的可靠性和实时性;
3、消息处理工作在应用外完成,降低了应用开发难度。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明***原理图;
图2为本发明方法流程图。
具体实施方式
下面对本发明的实施例作详细说明:本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
实施例1
本实施例提供了一种基于仿生分级通信的消息处理方法,包括如下步骤:
步骤S1:分布式***的各节点将未分类的消息发送至消息接收器;
步骤S2:消息接收器通过消息分类器将消息进行分类;
步骤S3:不同类别的消息流入不同消息分发引擎;
步骤S4:消息分发引擎通过不同处理接口将消息发送至消息处理器;
步骤S5:消息处理器通过消息处理插件完成对消息的处理;
步骤S6:消息分发引擎的引擎资源消耗监控器随时监控各消息分发引擎的资源使用情况以及分布式***剩余资源量,并将资源使用情况数据及分布式***生育资源量情况作为监控数据发送至消息分发引擎的引擎资源管理器;
步骤S7:引擎资源管理器根据收到的监控数据以及各消息分发引擎工作负载状态动态计算各消息分发引擎能够使用的资源量,保证高实时性消息能够得到及时处理。
进一步地,步骤S4中,所述消息分发引擎包括如下任一种或任多种:
-流式消息分发引擎:为一种类血液***的消息分发引擎,用于处理普通消息,通过普通消息队列依次对普通消息进行处理,保证普通消息处理的可靠性;流式消息引擎将普通消息依次发送至各个消息处理器的消息处理插件,顺序完成对普通消息的处理;
-点对点实时消息引擎:为一种类神经***的消息分发引擎,用于处理点对点的实时消息,能够实时并发处理多个消息内容,保证消息处理实时性;点对点实时消息引擎能够立即将实时消息发送至指定消息处理器的消息处理插件;
-应急恢复消息引擎:为一种类淋巴***的消息分发引擎,用于处理应急恢复消息,能够针对某一应急事件同时处理大量消息内容,并保证应急恢复消息处理的实时性;应急恢复消息引擎根据应急处理组件库决定消息内容应该被消息处理器的哪些消息处理插件处理,消息内容能够被多个消息处理插件同时处理。
进一步地,步骤S7中,所述引擎资源管理器通过以下方法动态计算各消息分发引擎能够使用的资源量:
步骤S7.1:引擎资源管理器计算各引擎资源消耗的总和;
步骤S7.2:引擎资源管理器计算资源消耗总和是否已超过***资源的70%;
-若资源消耗总和未超过***资源的70%,则引擎资源管理器不对各引擎资源做配额限制;
-若资源消耗已超过***资源的70%,则管理器按照应急恢复>点对点实时>流式消息的优先级为各引擎分配资源。在高优先级需求未完全满足的情况下,管理器将忽略低优先级需求。
实施例2
本实施例提供了一种基于仿生分级通信的消息处理***,该***能够执行实施例1提供的基于仿生分级通信的消息处理方法,包括:
-分布式***,所述分布式***包括多个节点,多个节点将未分类的消息发送至消息接收器;
-消息接收器和消息分类器,所述消息接收器用于接收未分类的消息,并通过消息分类器将未分类的消息进行分类,然后将不同类别的消息发送至不同的消息分发引擎;
-消息分发引擎,包括多个处理接口、引擎资源消耗监控器、引擎资源管理器;其中:
所述消息分发引擎通过不同处理接口将消息发送至消息处理器;
所述引擎资源消耗监控器用于随时监控各消息分发引擎的资源资源使用情况以及分布式***剩余资源量,并将资源使用情况数据及分布式***生育资源量情况作为监控数据发送至引擎资源管理器;
所述引擎资源管理器根据收到的监控数据以及各消息分发引擎工作负载状态动态计算各消息分发引擎能够使用的资源量;
-消息处理器,包括消息处理插件,通过消息处理插件完成对消息的处理。
进一步地,所述消息分发引擎采用如下任一种或任多种:
-流式消息分发引擎:为一种类血液***的消息分发引擎,用于处理普通消息,通过普通消息队列依次对普通消息进行处理,保证普通消息处理的可靠性;流式消息引擎将普通消息依次发送至各个消息处理器的消息处理插件,顺序完成对普通消息的处理;
-点对点实时消息引擎:为一种类神经***的消息分发引擎,用于处理点对点的实时消息,能够实时并发处理多个消息内容,保证消息处理实时性;点对点实时消息引擎能够立即将实时消息发送至指定消息处理器的消息处理插件;
-应急恢复消息引擎:为一种类淋巴***的消息分发引擎,用于处理应急恢复消息,能够针对某一应急事件同时处理大量消息内容,并保证应急恢复消息处理的实时性;应急恢复消息引擎根据应急处理组件库决定消息内容应该被消息处理器的哪些消息处理插件处理,消息内容能够被多个消息处理插件同时处理。
上述两个实施例提供的基于仿生分级通信的消息处理方法与***
1、仿照人体循环***(血液***、神经***、淋巴***)的几种传输场景,根据消息内容对消息进行自动分级分类;
2、根据消息级别和***当前负载情况动态分配资源,实现消息的分级处理;
3、由通信场景定义消息分级,实现统一消息处理;
4、采用动态资源分配,保证不同属性消息各自获得适当的可靠性和实时性;
5、消息处理工作在应用外完成,降低了应用开发难度。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。
Claims (5)
1.一种基于仿生分级通信的消息处理方法,其特征在于,包括如下步骤:
步骤S1:分布式***的各节点将未分类的消息发送至消息接收器;
步骤S2:消息接收器通过消息分类器将消息进行分类;
步骤S3:不同类别的消息流入不同消息分发引擎;
步骤S4:消息分发引擎通过不同处理接口将消息发送至消息处理器;
步骤S5:消息处理器通过消息处理插件完成对消息的处理;
步骤S6:消息分发引擎的引擎资源消耗监控器随时监控各消息分发引擎的资源使用情况以及分布式***剩余资源量,并将资源使用情况数据及分布式***生育资源量情况作为监控数据发送至消息分发引擎的引擎资源管理器;
步骤S7:引擎资源管理器根据收到的监控数据以及各消息分发引擎工作负载状态动态计算各消息分发引擎能够使用的资源量,保证高实时性消息能够得到及时处理。
2.根据权利要求1所述的基于仿生分级通信的消息处理方法,其特征在于,步骤S4中,所述消息分发引擎包括如下任一种或任多种:
-流式消息分发引擎:为一种类血液***的消息分发引擎,用于处理普通消息,通过普通消息队列依次对普通消息进行处理,保证普通消息处理的可靠性;流式消息引擎将普通消息依次发送至各个消息处理器的消息处理插件,顺序完成对普通消息的处理;
-点对点实时消息引擎:为一种类神经***的消息分发引擎,用于处理点对点的实时消息,能够实时并发处理多个消息内容,保证消息处理实时性;点对点实时消息引擎能够立即将实时消息发送至指定消息处理器的消息处理插件;
-应急恢复消息引擎:为一种类淋巴***的消息分发引擎,用于处理应急恢复消息,能够针对某一应急事件同时处理大量消息内容,并保证应急恢复消息处理的实时性;应急恢复消息引擎根据应急处理组件库决定消息内容应该被消息处理器的哪些消息处理插件处理,消息内容能够被多个消息处理插件同时处理。
3.根据权利要求1所述的基于仿生分级通信的消息处理方法,其特征在于,步骤S7中,所述引擎资源管理器通过以下方法动态计算各消息分发引擎能够使用的资源量:
步骤S7.1:引擎资源管理器计算各引擎资源消耗的总和;
步骤S7.2:引擎资源管理器计算资源消耗总和是否己超过***资源的70%;
-若资源消耗总和未超过***资源的70%,则引擎资源管理器不对各引擎资源做配额限制;
-若资源消耗己超过***资源的70%,则管理器按照应急恢复>点对点实时>流式消息的优先级为各引擎分配资源。在高优先级需求未完全满足的情况下,管理器将忽略低优先级需求。
4.一种基于仿生分级通信的消息处理***,其特征在于,包括:
-分布式***,所述分布式***包括多个节点,多个节点将未分类的消息发送至消息接收器;
-消息接收器和消息分类器,所述消息接收器用于接收未分类的消息,并通过消息分类器将未分类的消息进行分类,然后将不同类别的消息发送至不同的消息分发引擎;
-消息分发引擎,包括多个处理接口、引擎资源消耗监控器、引擎资源管理器;其中:
所述消息分发引擎通过不同处理接口将消息发送至消息处理器;
所述引擎资源消耗监控器用于随时监控各消息分发引擎的资源资源使用情况以及分布式***剩余资源量,并将资源使用情况数据及分布式***生育资源量情况作为监控数据发送至引擎资源管理器;
所述引擎资源管理器根据收到的监控数据以及各消息分发引擎工作负载状态动态计算各消息分发引擎能够使用的资源量;
-消息处理器,包括消息处理插件,通过消息处理插件完成对消息的处理。
5.根据权利要求4所述的基于仿生分级通信的消息处理***,其特征在于,所述消息分发引擎采用如下任一种或任多种:
-流式消息分发引擎:为一种类血液***的消息分发引擎,用于处理普通消息,通过普通消息队列依次对普通消息进行处理,保证普通消息处理的可靠性;流式消息引擎将普通消息依次发送至各个消息处理器的消息处理插件,顺序完成对普通消息的处理;
-点对点实时消息引擎:为一种类神经***的消息分发引擎,用于处理点对点的实时消息,能够实时并发处理多个消息内容,保证消息处理实时性;点对点实时消息引擎能够立即将实时消息发送至指定消息处理器的消息处理插件;
-应急恢复消息引擎:为一种类淋巴***的消息分发引擎,用于处理应急恢复消息,能够针对某一应急事件同时处理大量消息内容,并保证应急恢复消息处理的实时性;应急恢复消息引擎根据应急处理组件库决定消息内容应该被消息处理器的哪些消息处理插件处理,消息内容能够被多个消息处理插件同时处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510862028.0A CN105516276B (zh) | 2015-11-30 | 2015-11-30 | 基于仿生分级通信的消息处理方法与*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510862028.0A CN105516276B (zh) | 2015-11-30 | 2015-11-30 | 基于仿生分级通信的消息处理方法与*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105516276A true CN105516276A (zh) | 2016-04-20 |
CN105516276B CN105516276B (zh) | 2020-04-17 |
Family
ID=55723907
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510862028.0A Active CN105516276B (zh) | 2015-11-30 | 2015-11-30 | 基于仿生分级通信的消息处理方法与*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105516276B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106603393A (zh) * | 2017-01-16 | 2017-04-26 | 深圳市商沃科技发展有限公司 | 一种智能化信息推送*** |
CN108667719A (zh) * | 2018-04-26 | 2018-10-16 | 广州品唯软件有限公司 | 一种实时消息传递方法及*** |
CN109617790A (zh) * | 2019-01-02 | 2019-04-12 | 北京北信源软件股份有限公司 | 一种支持消息传输通道分级的即时通信方法和即时通信*** |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030172163A1 (en) * | 2002-03-05 | 2003-09-11 | Nec Corporation | Server load balancing system, server load balancing device, and content management device |
CN1805365A (zh) * | 2005-01-12 | 2006-07-19 | 北京航空航天大学 | Web服务分级服务质量处理器及处理方法 |
CN1859122A (zh) * | 2006-02-23 | 2006-11-08 | 华为技术有限公司 | 实现对业务提供商分类服务的方法及装置 |
CN101360093A (zh) * | 2007-08-02 | 2009-02-04 | 华为技术有限公司 | 一种负载控制方法及其*** |
CN101860481A (zh) * | 2010-05-25 | 2010-10-13 | 北京邮电大学 | 一种MPLS-TP over OTN多层网络中区分优先级的业务传送方法及其装置 |
CN103067474A (zh) * | 2012-12-21 | 2013-04-24 | 曙光信息产业(北京)有限公司 | 分布式文件***中通信的处理方法和装置 |
CN103188140A (zh) * | 2011-12-31 | 2013-07-03 | 国民技术股份有限公司 | 一种业务请求处理*** |
CN104980515A (zh) * | 2015-06-26 | 2015-10-14 | 浪潮(北京)电子信息产业有限公司 | 一种云存储***中消息分发处理方法和装置 |
-
2015
- 2015-11-30 CN CN201510862028.0A patent/CN105516276B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030172163A1 (en) * | 2002-03-05 | 2003-09-11 | Nec Corporation | Server load balancing system, server load balancing device, and content management device |
CN1805365A (zh) * | 2005-01-12 | 2006-07-19 | 北京航空航天大学 | Web服务分级服务质量处理器及处理方法 |
CN1859122A (zh) * | 2006-02-23 | 2006-11-08 | 华为技术有限公司 | 实现对业务提供商分类服务的方法及装置 |
CN101360093A (zh) * | 2007-08-02 | 2009-02-04 | 华为技术有限公司 | 一种负载控制方法及其*** |
CN101860481A (zh) * | 2010-05-25 | 2010-10-13 | 北京邮电大学 | 一种MPLS-TP over OTN多层网络中区分优先级的业务传送方法及其装置 |
CN103188140A (zh) * | 2011-12-31 | 2013-07-03 | 国民技术股份有限公司 | 一种业务请求处理*** |
CN103067474A (zh) * | 2012-12-21 | 2013-04-24 | 曙光信息产业(北京)有限公司 | 分布式文件***中通信的处理方法和装置 |
CN104980515A (zh) * | 2015-06-26 | 2015-10-14 | 浪潮(北京)电子信息产业有限公司 | 一种云存储***中消息分发处理方法和装置 |
Non-Patent Citations (1)
Title |
---|
张扬: ""电信经营分析***中数据业务分发引擎的研究与实现"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106603393A (zh) * | 2017-01-16 | 2017-04-26 | 深圳市商沃科技发展有限公司 | 一种智能化信息推送*** |
CN108667719A (zh) * | 2018-04-26 | 2018-10-16 | 广州品唯软件有限公司 | 一种实时消息传递方法及*** |
CN108667719B (zh) * | 2018-04-26 | 2020-11-27 | 广州品唯软件有限公司 | 一种实时消息传递方法及*** |
CN109617790A (zh) * | 2019-01-02 | 2019-04-12 | 北京北信源软件股份有限公司 | 一种支持消息传输通道分级的即时通信方法和即时通信*** |
CN109617790B (zh) * | 2019-01-02 | 2021-11-30 | 北京北信源软件股份有限公司 | 一种支持消息传输通道分级的即时通信方法和即时通信*** |
Also Published As
Publication number | Publication date |
---|---|
CN105516276B (zh) | 2020-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9838483B2 (en) | Methods, systems, and computer readable media for a network function virtualization information concentrator | |
CN110633442A (zh) | 一种推送方法、装置及电子设备 | |
CN104243611B (zh) | 一种基于分发思想的消息服务中间件*** | |
CN111970195B (zh) | 数据传输方法和流式数据传输*** | |
CN111131401B (zh) | 一种服务请求的响应方法及*** | |
CN109547541B (zh) | 雾计算环境下基于过滤及分配机制的节点低开销协作方法 | |
US20230042747A1 (en) | Message Processing Method and Device, Storage Medium, and Electronic Device | |
CN105516276A (zh) | 基于仿生分级通信的消息处理方法与*** | |
CN102970244A (zh) | 一种多cpu核间负载均衡的网络报文处理方法 | |
CN111541555A (zh) | 群聊优化方法及相关产品 | |
CN111586140A (zh) | 一种数据交互的方法及服务器 | |
CN108319509A (zh) | 一种事件管理方法、***及主控设备 | |
WO2017114180A1 (zh) | 调整组件逻辑线程数量的方法及装置 | |
CN113485842A (zh) | 一种基于设备集群进行数据分析的方法及设备 | |
CN106570011A (zh) | 一种分布式爬虫url种子分发方法、调度节点及抓取节点 | |
CN102769495B (zh) | 一种光纤接入网设备通信方法、装置及*** | |
CN114510299A (zh) | 处理人工智能业务的方法、装置以及存储介质 | |
US9705742B2 (en) | Method and apparatus for enabling M2M service and H2H service to coexist | |
CN108156086B (zh) | 一种策略规则下发方法及装置 | |
CN111901561B (zh) | 监控***中的视频数据处理方法、装置、***及存储介质 | |
CN104407920A (zh) | 一种基于进程间通信的数据处理方法及*** | |
CN112256454B (zh) | 消息延时处理方法和*** | |
CN110347518A (zh) | 消息处理方法及装置 | |
CN110995486B (zh) | 一种基于物联网的智能硬件设备监控*** | |
CN108306770B (zh) | 板间通信***及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |