CN107426315A - 一种基于BP神经网络的分布式缓存***Memcached的改进方法 - Google Patents

一种基于BP神经网络的分布式缓存***Memcached的改进方法 Download PDF

Info

Publication number
CN107426315A
CN107426315A CN201710606649.1A CN201710606649A CN107426315A CN 107426315 A CN107426315 A CN 107426315A CN 201710606649 A CN201710606649 A CN 201710606649A CN 107426315 A CN107426315 A CN 107426315A
Authority
CN
China
Prior art keywords
data
server
neural network
cold spot
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710606649.1A
Other languages
English (en)
Other versions
CN107426315B (zh
Inventor
金仙力
赵兴旺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Post and Telecommunication University
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing Post and Telecommunication University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Post and Telecommunication University filed Critical Nanjing Post and Telecommunication University
Priority to CN201710606649.1A priority Critical patent/CN107426315B/zh
Publication of CN107426315A publication Critical patent/CN107426315A/zh
Application granted granted Critical
Publication of CN107426315B publication Critical patent/CN107426315B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/568Storing data temporarily at an intermediate stage, e.g. caching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/568Storing data temporarily at an intermediate stage, e.g. caching
    • H04L67/5682Policies or rules for updating, deleting or replacing the stored data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer And Data Communications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于BP神经网络的分布式缓存***Memcached的改进方法,包含:初始化HC Model;利用三层BP神经网络分类器训练样本数据,并得到分类依据;将实际数据输入训练成功的三层BP神经网络分类器,产生热点数据对象与冷点数据对象;装载HC Model的真实数据,即将热点与冷点数据对象装载至对应服务器节点。本发明提出的HC Model和依靠三层BP神经网络分类器区分热点数据对象与冷点数据对象的方法,与Memcached自带的分布式节点相比,新增加了热点数据服务器与冷点数据服务器,并在其中存放对应数据的路由和键值信息,极大提高了***后面对数据的访问速度,而且对Memcacahed分布式缓存***的工作效率有很大的提高作用。

Description

一种基于BP神经网络的分布式缓存***Memcached的改进 方法
技术领域
本发明属于分布式缓存数据的效率领域,涉及一种数据交换模型以及数据分类方法。
背景技术
伴随着云计算和大数据时代的到来,用户群体与日俱增的需求带来了数据的海量增长,迫使传统的缓存技术日渐显现出容量扩展性差、读写速低,、用户体验差,、并发性能弱等劣势。而云计算的分布式缓存技术恰到好处地提供了一种解决的方案,它具有高速率度读写、快速扩展、支持并发和快速响应等优势。分布式缓存***Memcached具有高性能,分布式等特点,它通过在内存中维护一个统一的庞大的Hash表来管理缓存数据,旨在减少动态应用的数据库负载,提高缓存的访问速度。Memcached的主要特征是它的分布式结构,可以通过在多台服务器上安装Memcached来搭建一个缓存服务器集群,然后通过一致性hash来分散存储,引进虚拟节点,采取智能路由,NRW多副本机制,数据均衡负载等方法降低数据库的访问压力,提高数据访问速度,保持存储数据的一致性。
然而,分布式缓存***中的数据量庞大,若能有效的地区分访问频率大的热点数据与访问频率相对小的冷点数据,将进一步提高缓存数据的读取效率。于是本发明提出Memcached的一种改进方法,引进HC Model与三层BP神经网络分类器,旨在较为准确地将热点数据与冷点数据分类,通过访问热点数据服务器和冷点数据服务器来节省数据访问时间,提高数据访问效率。
发明内容
本发明所要解决的技术问题是针对分布式缓存***Memcached提出了一种HCModel和依靠三层BP神经网络分类器将庞大的缓存数据分类以区分热点与冷点数据对象的方法,并且大大提高了HC Model的工作效率。
本发明为解决上述技术问题采用的技术方案为一种基于BP神经网络的分布式缓存***Memcached的改进方法,包含以下步骤:
S1:初始化HC Model;
S2:利用三层BP神经网络分类器训练样本数据,并得到分类依据;
S3:将实际数据输入训练成功的三层BP神经网络分类器,产生热点数据对象与冷点数据对象;
S4:装载HC Model的真实数据,即将热点与冷点数据对象装载至对应服务器节点。
进一步,上述步骤1具体包含:当分布式缓存***Memcached***启动时,HC Model也随即加载完成,HC Model由Memcached中的两个随机的节点组成,其中指定一个节点为热点服务器,主要存储热点对象的键值与路由信息;指定另一个为冷点服务器,存储暂时回收的键值和路由信息。在初始化HC Model时,HC Mode中的热点数据服务器节点与冷点数据服务器节点均为空。
进一步,上述步骤2中所述三层BP神经网络分类器包含输入层、一个或多个隐含层和输出层,层与层之间全互联,同层节点之间没有任何耦合,并且每一层节点的输出只影响下一层节点的输出。
上述输入层节点的个数通常取输入向量的维数,输出节点的个数通常取输出向量的维数,隐含层节点个数尚无确定的标准,需经过反复试凑的方法取得最终结果。
进一步,上述步骤2中训练样本数据的具体过程为:首先准备样本数据,样本数据中含有相同时间内访问次数多的热点数据样本与访问次数相对较少的冷点数据样本;在网络训练阶段,使用样本数据投入三层BP神经网络分类器中训练,并得到分类结果,由于神经网络分类器采用二分类BP网络,其输出只有+1、0、-1三种值,+1与-1对应的输入类别即为该分类器所能区分的类别,对于结果0则表示该分类器不关注这些输入类;最后三层BP神经网络分类器可以使用样本数据在网络训练阶段训练好分类器,并依靠训练好的分类器预测未来的热点与冷点数据对象。
进一步,上述步骤3具体包含:通过三层BP神经网络分类器训练样本得到的误差相对较小的分类器进行缓存数据的划分,将真实缓存数据加载至训练好的三层BP神经网络分类器中,得到划分成功的热点数据与冷点数据。
进一步,上述步骤4具体包含:将产生的热点数据对象装载至热点数据服务器节点,冷点数据对象装载至冷点数据服务器节点,此时HC Model的数据分类工作已经完成,随着时间的推移,后期的热点数据对象服务器节点与冷点数据对象服务器节点的数据交换则按照其他特定算法进行,热点数据服务器与冷点数据服务器之间的数据对象交换时,当热点对象发生改变,不再被经常查询,热点服务器会发送其键值和路由信息至冷点服务器,并淘汰对应热点对象,此时这部分对象由热点对象转换为冷点对象,当再次访问到热点服务器中没有的对象时,先访问冷点服务器,如果冷点服务器中存储着该对象,则调回至热服务器,若热点数据服务器与冷点数据服务器中都没有该对象,则从分布式的剩余节点中查找读取数据,若随着时间推移,冷服务器中存储的冷点对象已满,则采用特定算法淘汰合适的对象。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
1,本发明提出的HC Model和依靠三层BP神经网络分类器区分热点数据对象与冷点数据对象的方法,与Memcached自带的分布式节点相比,新增加了热点数据服务器与冷点数据服务器,并在其中存放对应数据的路由和键值信息,极大提高了***后续对数据的访问速度;
2,基于HC Model的三层BP神经网络分类器通过训练真实样本数据产生精度颇高的数据分类器,能准确地预测热点数据和冷点数据,并将它们装载进HC Model的热点数据服务器与冷点数据服务器,对Memcacahed分布式缓存***的工作效率有很大的提高作用。
附图说明
图1是数据缓存***Memcached的HC机制节点分布图。
图2是三层BP神经网络分类器模型图。
图3是三层BP神经网络分类器训练流程图。
图4是HC Model运行过程图。
具体实施方式
本发明提出的应用在HC Model中的三层BP神经网络分类器技术主要依据以下原理:
1.分布式缓存***中的缓存数据部分会被经常访问,而且随着时间的推移,缓存数据会发生变化,相对陈旧的缓存数据会被淘汰,用户的操作会产生新的缓存并且不同的缓存数据的用户访问频率是不同的,若能将访问频繁的缓存数据分类并放置到HC Model中,将会提高缓存***的响应速度,提高用户体验。如附图1所示,HC Model由两个随机的Memcached节点组成,其中指定一个Memcached节点为热点服务器Hot Server,主要存储热点对象的键值与路由信息,指定另一个为冷点服务器Cold Server,存储暂时回收的键值和路由信息。
当Memcached***启动时,HC Model也随即加载完成,并根据三层BP神经网络分类器将分好类的热点数据对象和冷点数据对象分别存放至热点服务器节点与冷点服务器节点中。当频繁的操作产生热点对象时,热点服务器开始工作,它记录着热点对象的键值和路由信息,并且采取相应的算法更新存储内容,当热点对象发生改变,不再被经常查询时,热点服务器会发送其键值和路由信息至冷点服务器,并淘汰对应热点对象,此时这部分对象由热点对象转换为冷点对象。当再次访问到热点服务器中没有的对象时,先访问冷点服务器,如果冷点服务器中存储着该对象,则调回至热服务器。若随着时间推移,冷服务器中存储的冷点对象已满,则淘汰合适的对象。
2.三层BP神经网络分类器可以使用样本数据在网络训练阶段训练好分类器,并依靠训练好的分类器预测未来的热点与冷点数据对象。如附图2所示,三层BP神经网络分类器由输入层、一个或多个隐含层和输出层构成,层与层之间全互联,每层节点之间不相连。它的输入层节点的个数通常取输入向量的维数,输出节点的个数通常取输出向量的维数,隐含层节点个数尚无确定的标准,需经过反复试凑的方法取得最终结果。具有一个隐层(隐层节点足够多)的三层BP神经网络能在闭集上以任意精度非线性连续函数,该网络的学习过程分为两个阶段:第一阶段为正向传播过程,同层节点之间没有任何耦合,并且每一层节点的输出只影响下一层节点的输出。第二阶段是反向传播过程,若输出层的输出结果与期望值相差很大,则逐层递归计算实际输出与期望输出之间的误差,根据误差进一步修正前一层的权值,使误差信号趋向最小。在误差函数斜率下降的方向上调整网络权值和阈值从而逼近目标函数。
如附图4所示,HC Model在准备阶段,先将三层BP神经网络分类器训练好,并且利用训练成功的三层BP神经网络分类器将真实数据分类为热点数据和冷点数据,并装入对应的热点数据服务器节点和冷点数据服务器节点中。
下面结合说明书附图及具体实施例对本发明的技术方案做进一步的详细说明。具体实施方式描述如下:
步骤一:初始化HC Model。
HC Model由两个随机的Memcached节点组成,其中指定一个Memcached节点为热点服务器Hot Server,主要存储热点对象的键值与路由信息,指定另一个为冷点服务器ColdServer,存储暂时回收的键值和路由信息。在初始化HC Model时,HC Model中的热点数据服务器节点(Hot Server)与冷点数据服务器节点(Cold Server)均为空。
步骤二:利用三层BP神经网络分类器训练样本数据,并得到分类依据,如图3所示:
(1)初始化:设置隐含层的节点数H,输入层与隐含层之间、隐含层与输出层之间的权值wij,隐含层和输出层的传递函数Sigmoid型函数:误差函数:其中,wij代表前一层的第i个节点到后一层第j个节点之间的连接权值;
(2)输入样本和期望输出:输入的训练样本为:XP,p=1,2,...,p.其中,P为训练样本数,XP为第P个样本输入向量,XP=(Xp1,Xp2,...XpM),M为输入向量维数。期望输出为:ZP,P=1,2,...,P.其中,ZP为第p个样本输入的期望输出,ZP=(Zp1,Zp2,...ZpN),N为输出向量维数,网络的实际输出向量为YP=(Yp1,Yp2,...YpM).;
(3)确定隐含层节点的输出:其中xi为第i个输入层节点的输入,yj为第j个隐含层节点的输出;
(4)确定输出层节点的输出:
(5)定义下降梯度δj
(6)更新权值:ηδiyj=wji(z+1)-wji(t),其中η是学习率;
(7)计算性能指标:
(8)如果误差指标满足精度e要求,训练结束。否则转到(2);
(9)将热点数据对象放置热点服务器节点中,将冷点数据对象放置冷点服务器节点中。
步骤三:将实际数据输入训练成功的三层BP神经网络分类器,产生热点数据对象与冷点数据对象。
通过步骤二中的三层BP神经网络分类器训练样本得到的误差相对较小的分类器进行缓存数据的划分,将真实缓存数据划分为热点数据与冷点数据。
步骤四:HC Model的真实数据装载,将热点与冷点数据对象装载至对应服务器节点。
将热点数据对象装载至Hot Server,冷点数据对象装载至Cold Server,此时HCModel的数据分类工作已经完成,随着时间的推移,后期的热点数据对象服务器节点与冷点数据对象服务器节点的数据交换则按照特定算法进行。

Claims (7)

1.一种基于BP神经网络的分布式缓存***Memcached的改进方法,其特征在于包含以下步骤:
S1:初始化HC Model;
S2:利用三层BP神经网络分类器训练样本数据,并得到分类依据;
S3:将实际数据输入训练成功的三层BP神经网络分类器,产生热点数据对象与冷点数据对象;
S4:装载HC Model的真实数据,即将热点与冷点数据对象装载至对应服务器节点。
2.根据权利要求1所述的基于BP神经网络的分布式缓存***Memcached的改进方法,其特征在于步骤1具体包含:当分布式缓存***Memcached***启动时,HC Model也随即加载完成,HC Model由Memcached中的两个随机的节点组成,其中指定一个节点为热点服务器,主要存储热点对象的键值与路由信息;指定另一个为冷点服务器,存储暂时回收的键值和路由信息。在初始化HC Model时,HC Mode中的热点数据服务器节点与冷点数据服务器节点均为空。
3.根据权利要求1所述的基于BP神经网络的分布式缓存***Memcached的改进方法,其特征在于步骤2中所述三层BP神经网络分类器包含输入层、一个或多个隐含层和输出层,层与层之间全互联,同层节点之间没有任何耦合,并且每一层节点的输出只影响下一层节点的输出。
4.根据权利要求3所述的基于BP神经网络的分布式缓存***Memcached的改进方法,其特征在于输入层节点的个数通常取输入向量的维数,输出节点的个数通常取输出向量的维数,隐含层节点个数尚无确定的标准,需经过反复试凑的方法取得最终结果。
5.根据权利要求1所述的基于BP神经网络的分布式缓存***Memcached的改进方法,其特征在于步骤2中训练样本数据的具体过程为:首先准备样本数据,样本数据中含有相同时间内访问次数多的热点数据样本与访问次数相对较少的冷点数据样本;在网络训练阶段,使用样本数据投入三层BP神经网络分类器中训练,并得到分类结果,由于神经网络分类器采用二分类BP网络,其输出只有+1、0、-1三种值,+1与-1对应的输入类别即为该分类器所能区分的类别,对于结果0则表示该分类器不关注这些输入类;最后三层BP神经网络分类器可以使用样本数据在网络训练阶段训练好分类器,并依靠训练好的分类器预测未来的热点与冷点数据对象。
6.根据权利要求1所述的基于BP神经网络的分布式缓存***Memcached的改进方法,其特征在于步骤3具体包含:通过三层BP神经网络分类器训练样本得到的误差相对较小的分类器进行缓存数据的划分,将真实缓存数据加载至训练好的三层BP神经网络分类器中,得到划分成功的热点数据与冷点数据。
7.根据权利要求1所述的基于BP神经网络的分布式缓存***Memcached的改进方法,其特征在于步骤4具体包含:将产生的热点数据对象装载至热点数据服务器节点,冷点数据对象装载至冷点数据服务器节点,此时HC Model的数据分类工作已经完成,随着时间的推移,后期的热点数据对象服务器节点与冷点数据对象服务器节点的数据交换则按照其他特定算法进行,热点数据服务器与冷点数据服务器之间的数据对象交换时,当热点对象发生改变,不再被经常查询,热点服务器会发送其键值和路由信息至冷点服务器,并淘汰对应热点对象,此时这部分对象由热点对象转换为冷点对象,当再次访问到热点服务器中没有的对象时,先访问冷点服务器,如果冷点服务器中存储着该对象,则调回至热服务器,若热点数据服务器与冷点数据服务器中都没有该对象,则从分布式的剩余节点中查找读取数据,若随着时间推移,冷服务器中存储的冷点对象已满,则采用特定算法淘汰合适的对象。
CN201710606649.1A 2017-07-24 2017-07-24 一种基于BP神经网络的分布式缓存***Memcached的改进方法 Active CN107426315B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710606649.1A CN107426315B (zh) 2017-07-24 2017-07-24 一种基于BP神经网络的分布式缓存***Memcached的改进方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710606649.1A CN107426315B (zh) 2017-07-24 2017-07-24 一种基于BP神经网络的分布式缓存***Memcached的改进方法

Publications (2)

Publication Number Publication Date
CN107426315A true CN107426315A (zh) 2017-12-01
CN107426315B CN107426315B (zh) 2020-07-31

Family

ID=60431006

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710606649.1A Active CN107426315B (zh) 2017-07-24 2017-07-24 一种基于BP神经网络的分布式缓存***Memcached的改进方法

Country Status (1)

Country Link
CN (1) CN107426315B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108173974A (zh) * 2018-03-01 2018-06-15 南京邮电大学 一种基于分布式缓存Memcached的HC Model内部缓存数据淘汰方法
CN109919193A (zh) * 2019-01-31 2019-06-21 中国科学院上海光学精密机械研究所 一种大数据的智能分级方法、***及终端
CN113705979A (zh) * 2021-08-03 2021-11-26 海尔数字科技(上海)有限公司 一种基于物流运输货物批次信息追溯***及追溯方法
CN117008821A (zh) * 2023-04-07 2023-11-07 豪越科技有限公司 一种后勤管理的数据存储方法及***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110072206A1 (en) * 2009-09-21 2011-03-24 Translattice, Inc. Distributed content storage and retrieval
CN102624922A (zh) * 2012-04-11 2012-08-01 武汉大学 一种网络gis异构集群服务器负载均衡方法
CN103024020A (zh) * 2012-12-05 2013-04-03 蓝盾信息安全技术股份有限公司 基于web应用的网络数据文件存储方法及装置
CN104636492A (zh) * 2015-03-04 2015-05-20 浪潮电子信息产业股份有限公司 一种基于模糊积分特征融合的动态数据分级方法
CN105550323A (zh) * 2015-12-15 2016-05-04 北京国电通网络技术有限公司 一种分布式数据库负载均衡预测方法和预测分析器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110072206A1 (en) * 2009-09-21 2011-03-24 Translattice, Inc. Distributed content storage and retrieval
CN102624922A (zh) * 2012-04-11 2012-08-01 武汉大学 一种网络gis异构集群服务器负载均衡方法
CN103024020A (zh) * 2012-12-05 2013-04-03 蓝盾信息安全技术股份有限公司 基于web应用的网络数据文件存储方法及装置
CN104636492A (zh) * 2015-03-04 2015-05-20 浪潮电子信息产业股份有限公司 一种基于模糊积分特征融合的动态数据分级方法
CN105550323A (zh) * 2015-12-15 2016-05-04 北京国电通网络技术有限公司 一种分布式数据库负载均衡预测方法和预测分析器

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108173974A (zh) * 2018-03-01 2018-06-15 南京邮电大学 一种基于分布式缓存Memcached的HC Model内部缓存数据淘汰方法
CN108173974B (zh) * 2018-03-01 2021-02-12 南京邮电大学 一种基于分布式缓存Memcached的HCModel内部缓存数据淘汰方法
CN109919193A (zh) * 2019-01-31 2019-06-21 中国科学院上海光学精密机械研究所 一种大数据的智能分级方法、***及终端
CN109919193B (zh) * 2019-01-31 2023-05-12 中国科学院上海光学精密机械研究所 一种大数据的智能分级方法、***及终端
CN113705979A (zh) * 2021-08-03 2021-11-26 海尔数字科技(上海)有限公司 一种基于物流运输货物批次信息追溯***及追溯方法
CN117008821A (zh) * 2023-04-07 2023-11-07 豪越科技有限公司 一种后勤管理的数据存储方法及***
CN117008821B (zh) * 2023-04-07 2024-04-19 豪越科技有限公司 一种后勤管理的数据存储方法及***

Also Published As

Publication number Publication date
CN107426315B (zh) 2020-07-31

Similar Documents

Publication Publication Date Title
CN107426315A (zh) 一种基于BP神经网络的分布式缓存***Memcached的改进方法
JP6243045B2 (ja) グラフデータクエリ方法および装置
CN103902260B (zh) 一种对象文件***的预取方法
CN103345514A (zh) 大数据环境下的流式数据处理方法
CN109408590A (zh) 分布式数据库的扩容方法、装置、设备及存储介质
CN108932257A (zh) 多维度数据的查询方法及装置
CN110147372A (zh) 一种面向htap的分布式数据库智能混合存储方法
CN103577602A (zh) 一种二次聚类方法及***
CN107133228A (zh) 一种数据重分布的方法及装置
CN102158533B (zh) 基于QoS的分布式web服务选择方法
CN109510852A (zh) 灰度发布的方法及装置
CN103778222A (zh) 一种分布式文件***存储文件的方法及***
CN108712302A (zh) 区域带宽的计算方法及装置、计算机可读介质
CN108984433A (zh) 缓存数据控制方法及设备
CN109710500A (zh) 一种基于自动伸缩Docker集群的组合预测方法
CN108173958A (zh) 一种多云环境下基于蚁群算法的数据优化存储方法
CN104426774A (zh) 一种同时支持IPv4和IPv6的高速路由查找方法及装置
CN106973088B (zh) 一种基于位置变动的联合lru与lfu的缓存更新方法及网络
CN113282933B (zh) 联邦学习方法、装置和***、电子设备、存储介质
CN108173974A (zh) 一种基于分布式缓存Memcached的HC Model内部缓存数据淘汰方法
CN105045906A (zh) 投放信息点击率的预估方法和装置
CN109635161B (zh) 一种海量数据环境下跨域异地协同设计方法
Wang et al. An adaptive deep q-learning service migration decision framework for connected vehicles
CN106648891A (zh) 基于MapReduce模型的任务执行方法和装置
CN107203554A (zh) 一种分布式检索方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant