CN108833352A - 一种缓存方法及*** - Google Patents
一种缓存方法及*** Download PDFInfo
- Publication number
- CN108833352A CN108833352A CN201810475095.0A CN201810475095A CN108833352A CN 108833352 A CN108833352 A CN 108833352A CN 201810475095 A CN201810475095 A CN 201810475095A CN 108833352 A CN108833352 A CN 108833352A
- Authority
- CN
- China
- Prior art keywords
- request content
- user
- fringe node
- cached
- subspace
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/75—Media network packet handling
- H04L65/765—Media network packet handling intermediate
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/56—Provisioning of proxy services
- H04L67/568—Storing data temporarily at an intermediate stage, e.g. caching
- H04L67/5682—Policies or rules for updating, deleting or replacing the stored data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/61—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
- H04L65/612—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本发明实施例提供一种缓存方法及***。方法包括:对于任一边缘节点所服务的用户群中的每一用户,根据所述用户在预设时间段内的历史请求记录集,预测所述用户在目标时刻的请求内容;获取对所述请求内容进行缓存得到的收益,根据所有收益的大小顺序,将对应的请求内容依次缓存至所述边缘节点中。本发明实施例提供的方法及***,通过用户的历史请求记录,有利于充分挖掘用户请求行为特性并实现对用户在未来某一时刻的请求内容的准确预测。并且,通过计算将每一请求内容进行缓存所得到的收益,以根据所有收益的大小顺序,对对应的请求内容依次进行缓存,能够高效利用边缘节点的缓存空间,降低用户的请求时延。
Description
技术领域
本发明实施例涉及缓存技术领域,尤其涉及一种缓存方法及***。
背景技术
通过缓存内容副本,移动内容分发网络(MCDN)将流量卸载到本地,实现了超低数据传输延迟,这为高带宽占用服务(例如增强/虚拟现实等)铺平了道路。虽然这种异构网络和超密集基站在处理不断增长的视频流量方面确实卓有成效,但与大型无线接入带宽相匹配的高速回程链路的部署代价是十分高昂的,因此MCDN对回程链路效率提出了十分苛刻的要求。为了解决无线电接入带宽和回程链路之间的不匹配问题,一种可实现的方式是利用无线边缘缓存。网络运营商可以在网络边缘节点如微型基站存储所请求的内容,进而缩短用户请求响应延迟。另外,当使用无线边缘缓存时,视频业务流量被卸载到本地,从而减轻回程链路压力。
无线边缘缓存具有诸多优点,但如何设计有效的无线边缘缓存方法仍是一个悬而未决的问题。通常请求内容具有多样化、时变性等特性,这使得我们不可能将所有请求的内容存储在具有有限缓存空间的边缘处节点。因此,如何分配有限的缓存资源以尽可能多地满足用户请求成为有无线边缘缓存的主要挑战。现有解决方案可以分为两种类型:基于流行度的边缘缓存策略和基于预取的边缘缓存策略。基于流行度的解决方案试图通过分析视频访问频率来优先缓存流行度高的内容。然而,这种通过考虑用户静态偏好信息来分配缓存空间的解决方案,不能根据用户行为进行及时调整,相比请求而言缓存的内容具有滞后性,而且当流行度随时间变化时会出现缓存内容频繁更替的现象。基于预取的解决方案通过条件概率模型预测哪些内容将具有较高的访问概率,并在本地预先缓存这些内容。但由于条件率模型是基于视频的播放频率建立的,忽略了具体的用户播放行为,导致预测准确度低从而影响缓存效率。
发明内容
本发明实施例提供一种缓存方法及***,用以解决现有技术中对用户请求内容预测的准确性低且缓存效率低的缺陷,提高了对用户请求内容预测的准确性和缓存效率。
本发明实施例提供一种缓存方法,包括:
对于任一边缘节点所服务的用户群中的每一用户,根据所述用户在预设时间段内的历史请求记录集,预测所述用户在目标时刻的请求内容;
获取对所述请求内容进行缓存得到的收益,根据所有收益的大小顺序,将对应的请求内容依次缓存至所述边缘节点中。
本发明实施例提供一种缓存***,包括:
请求内容预测模块,用于对于任一边缘节点所服务的用户群中的每一用户,根据所述用户在预设时间段内的历史请求记录集,预测所述用户在目标时刻的请求内容;
缓存模块,用于获取对每一用户的请求内容进行缓存得到的收益,根据所有收益的大小顺序,将对应的请求内容依次缓存至所述边缘节点中。
本发明实施例提供一种缓存设备,包括存储器和处理器,所述处理器和所述存储器通过总线完成相互间的通信;所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行上述的方法。
本发明实施例提供一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行上述的方法。
本发明实施例提供的一种缓存方法及***,通过用户的历史请求记录,有利于充分挖掘用户请求行为特性并实现对用户在未来某一时刻的请求内容的准确预测。并且,通过计算将每一请求内容进行缓存所得到的收益,以根据所有收益的大小顺序,对对应的请求内容依次进行缓存,能够高效利用边缘节点的缓存空间,降低用户的请求时延。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一种缓存方法实施例流程图;
图2为本发明一种缓存设备实施例结构框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明一种缓存方法实施例流程图,如图1所示,该方法包括:
对于任一边缘节点所服务的用户群中的每一用户,根据所述用户在预设时间段内的历史请求记录集,预测所述用户在目标时刻的请求内容。
获取对所述请求内容进行缓存得到的收益,根据所有收益的大小顺序,将对应的请求内容依次缓存至所述边缘节点中。
需要说明的是,本发明实施例的执行主体为边缘节点。
边缘节点所服务的用户群中的用户个数通常为多个,对于用户群中的每一用户,边缘节点根据该用户在当前时刻之前的预设时间段内的历史请求记录,预测该用户在未来某一时刻的请求内容,本发明实施例中将未来某一时刻称为目标时刻。
对于预测得到的该用户在目标时刻的请求内容,获取假设将该请求内容进行缓存所得到的收益,对于用户群中的每一用户的请求内容,都对应有一个收益。根据所有收益的大小顺序,将对应的请求内容依次缓存至边缘节点中。
举例地,将本发明实施例提供的缓存方法应用在视频缓存技术领域中,那么,历史请求记录集也可称为历史播放记录集。对于历史播放记录集来说,其通常包含了多条历史播放记录。本发明实施例中使用播放时间、播放时长和播放内容这三个兴趣度因子来定义一条历史播放记录。根据用户的历史播放记录集,可预测该用户在未来某一时刻所请求播放的视频。
对于预测得到的该用户在未来某一时刻所请求播放的视频,获取假设将该视频进行缓存得到的收益。对于用户群中的每一用户所请求播放的视频,都对应有一个收益。根据所有收益的大小顺序,将对应的视频依次缓存至边缘节点中。
本发明实施例提供的方法,通过用户的历史请求记录,有利于充分挖掘用户请求行为特性并实现对用户在未来某一时刻的请求内容的准确预测。并且,通过计算将每一请求内容进行缓存所得到的收益,以根据所有收益的大小顺序,对对应的请求内容依次进行缓存,能够高效利用边缘节点的缓存空间,降低用户的请求时延。
基于上述实施例,本发明实施例提供的方法,对用户在未来某一时刻的请求内容的预测过程进行进一步说明。所述根据所述用户在预设时间段内的历史请求记录集,预测所述用户在目标时刻的请求内容,进一步包括:
获取所述用户在预设时间段内的历史请求记录集。
基于训练好的深度信念网络,根据所述历史请求记录集,预测所述用户在目标时刻的请求内容。其中,所述深度信念网络为深度神经网络,通过用户的历史请求记录数据训练得到。
需要说明的是,深度信念网络也即DBN,DBN可以看作是由多层限制玻尔兹曼机也即RBM构成。DBN的训练过程主要分为两步:无监督训练每一层RBM和有监督训练整体DBN。
本发明实施例提供的方法,将训练好的深度信念网络引入至对用户在未来某一时刻的请求内容的预测过程中,与现有技术中利用流行度或概率模型等浅层信息的传统方法进行请求内容的预测方法不同,本发明实施例通过建立深度信念网络来挖掘用户请求行为特性的相关知识,可以更加准确的预测用户在未来某一时刻的请求内容。
基于上述实施例,本发明实施例提供的方法,对基于训练好的深度信念网络,根据所述历史请求记录集,预测所述用户在目标时刻的请求内容,进行进一步说明。所述基于训练好的深度信念网络,根据所述历史请求记录集,预测所述用户在目标时刻的请求内容,进一步包括:
对所述历史请求记录集中的每一历史请求记录进行标准化,并将标准化后的历史请求记录进行归一化。
将归一化后的所有历史请求记录输入至所述训练好的深度信念网络中,预测所述用户在目标时刻的请求内容。
具体地,将上述实施例中的视频缓存的例子进行进一步扩展说明:
对于历史播放记录集中的每一条历史播放记录,使用播放时间、播放时长和播放内容这三个兴趣度因子来定义一条历史播放记录tri,具体为:
tri=(time,duration,ID),tri∈Str
其中,Str表示历史播放记录集,time表示用户i观看视频的时间点,duration表示用户i观看视频的持续时间,ID表示用户i观看视频的编号。
对该条历史播放记录进行标准化,定义tri中元素的标准化方法如下:
其中,timemin和timemax分别是Str中时间点最小值和最大值,durationmin和durationmax分别是Str中持续时间最小值和最大值。
然后将时间点和持续时间进行归一化,归一化方式如下:
X=ω1*T+ω2*D
其中,ω1和ω2均为权重因子。
对历史播放记录集中的每一条历史播放记录进行上述的标准化和归一化,将归一化后的所有历史播放记录输入至所述训练好的深度信念网络中,预测用户i在目标时刻所请求播放的视频。
需要说明的是,训练好的DBN的输入是用户i的归一化后的所有历史播放记录,输出是预测得到的用户i在未来某一时刻请求播放的视频,输出节点格式为{0,0,…1,..0},其中1对应的节点即预测的视频编号。
基于上述实施例,本发明实施例作为一个优选实施例,对DBN的训练过程如下:
DBN的训练过程主要分为两步:无监督训练每一层RBM和有监督训练整体DBN。
RBM由可见层v和隐藏层h组成,为了得到训练好的DBN,首先需要确定三个参数θ={W,a,b},其中W为权重矩阵,a为可见层单元偏置,b为隐藏层单元偏置。假设一个RBM有n个可见单元和m个隐藏单元,在无监督训练每一层RBM时,首先定义如下能量函数:
其中,vi为第i个可见单元,ai为vi的偏置值,hj为第j个隐藏单元,bj为hj的偏置值,wij为vi和hj间的权重因子。在参数θ条件下可见层节点集合和隐藏层节点集合分别处于某一种状态(v,h)的联合概率分布为:
采用似然函数求导的方法对参数求解,得到可见层的边缘分布为:
使用梯度上升法更新θ,公式如下:
有监督训练整体DBN时,定义如下代价函数:
其中D为训练集,由用户的历史请求记录数据构成,d为训练集中一条数据,y'd为DBN网络的输出结果,yd为数据集的标签值。通过反向优化的方式将代价信息自顶向下传播至每一层RBM,微调DBN中参数使其达到最优,从而完成DBN网络的训练。
基于上述实施例,本发明实施例对根据收益对请求内容进行缓存的过程进行进一步说明。所述根据所有收益的大小顺序,将对应的请求内容依次缓存至所述边缘节点中,进一步包括:
将所述用户群中的所有用户的请求内容组成候选集。
在每一次缓存过程中,将所述候选集中收益最大的请求内容缓存至所述边缘节点中,并将所述收益最大的请求内容从所述候选集中删除,以更新所述候选集,并进行下一次缓存,直至所述候选集为空集。
具体地,在本发明实施例中,需要将用户群中预测得到的所有用户的请求内容均缓存至边缘节点中。需要说明的是,这里隐藏了一个条件:即,所有请求内容的大小小于或等于边缘节点的缓存空间的大小。
需要说明的是,在本发明实施例中,将所有请求内容缓存至边缘节点是分次进行的,即,每一次只缓存一个用户的请求内容,将该请求内容缓存完毕之后,才进行下一个用户的请求内容的缓存。
缓存的具体过程为:将用户群中的所有用户的请求内容组成候选集,在第一次缓存过程中,将候选集中收益最大的请求内容缓存至边缘节点中,并将收益最大的请求内容从候选集中删除,以更新候选集,若更新后的候选集不为空集,则进行第二次缓存。
在第二次缓存过程中,将更新后的候选集中收益最大的请求内容缓存至边缘节点中,并将收益最大的请求内容从更新后的候选集中删除,以再次对候选集进行更新,若再次更新后的候选集不为空集,则进行第三次缓存。重复执行上述过程,直至候选集为空集。
基于上述实施例,本发明实施例对“根据收益对请求内容进行缓存”的原因进行说明,以上述实施例中的视频缓存的例子进行扩展说明。
以用户群中所有用户的请求内容的总代价作为优化目标,边缘节点的缓存空间为约束条件,建立用户群的缓存优化模型,以确定如何对请求内容进行缓存,并提供实时有效的调度方案。
建立用户群的缓存优化模型的过程包括:
一般情况下,从远端基站获取视频的代价C2远大于从边缘节点获取的代价C1。基于此设定,定义yi(t)为t时刻训练好DBN的输出,i为视频编号,fj(t)为t时刻用户j请求的视频,F(t)={f1(t)…fj(t)…}为t时刻所有用户请求视频编号集合,t时刻候选集R(t)={i|yi(t)=1},|C|为边缘节点的容量,φ为边缘节点缓存的内容集合,I为全部视频编号的集合,建立如下缓存优化模型:
s.t|φ|≤|C|
<aj,μ>中
上述缓存优化模型是NP-hard问题,因为要选择最优的解需要遍历R(t)所有的子集,时间复杂度为O(2|R(t)|),并不能在多项式复杂度内完成。下面证明缓存优化模型的单调性:
令gfi(φ)=<aj,φ>C1+<aj,I-φ>C2为缓存内容φ后内容请求的代价因为C2远大于C1,所以:
gfi(φ∨em)-gfi(φ)
=<aj,(φ∨em)-φ〉C1+<aj,I-φ-(I-(φ∨em))>C2
=〈aj,em>C1-<aj,em>C2
≤0
因此,优化函数模型单调递减函数。
由于该缓存优化模型的求解是np-hard问题,因此,为了解决该模型,根据收益对请求内容进行缓存。
基于上述实施例,本发明实施例对根据收益对请求内容进行缓存的过程进行进一步说明。所述将所述候选集中收益最大的请求内容缓存至所述边缘节点中,进一步包括:
若所述收益最大的请求内容的大小小于或等于所述边缘节点的第一子空间的大小,则将所述收益最大的请求内容缓存至所述边缘节点中;其中,所述第一子空间为所述边缘节点的缓存空间中的所剩空间。
具体地,本发明实施例将收益最大的请求内容的大小与边缘节点的第一子空间的大小进行对比,以确定是否将收益最大的请求内容直接缓存至边缘节点中。需要说明的是,本发明实施例中的第一子空间代表的是边缘节点的缓存空间中的所剩空间,该所剩空间未被占用。
基于上述实施例,本发明实施例对根据收益对请求内容进行缓存的过程进行进一步说明。所述将所述候选集中收益最大的请求内容缓存至所述边缘节点中,进一步还包括:
若所述收益最大的请求内容的大小大于所述边缘节点的第一子空间的大小,则将所述边缘节点的第二子空间中的部分缓存内容进行删除,以将所述收益最大的请求内容缓存至所述边缘节点中;其中,所述第二子空间为所述边缘节点的缓存空间中的已存空间,所述第二子空间和所述第一子空间共同组成所述边缘节点的缓存空间。
需要说明的是,本发明实施例中的第二子空间代表的是边缘节点的缓存空间中的已存空间,该已存空间已被占用。第一子空间和第二子空间共同组成边缘节点的缓存空间。
基于上述实施例,本发明实施例对将边缘节点的第二子空间中缓存的部分缓存内容进行删除,以将所述收益最大的请求内容缓存至所述边缘节点中进行进一步说明:
对于所述第二子空间中的每一缓存内容,获取所述缓存内容处于未被请求状态的时长。
将处于未被请求状态的时长最长的缓存内容从所述第二子空间中删除,以更新所述第一子空间。
若所述收益最大的请求内容的大小小于或等于更新后的第一子空间的大小,则将所述收益最大的请求内容缓存至所述边缘节点中。
需要说明的是,若收益最大的请求内容的大小大于更新后的第一子空间的大小,则将处于未被请求状态的时长次长的缓存内容从更新后的第二子空间中删除,以再次更新第一子空间。然后,将收益最大的请求内容的大小与再次更新后的第一子空间的大小进行对比,确定进行缓存还是继续删除更新后的第二子空间中的缓存内容。
基于上述实施例,本发明实施例作为一个优选实施例,以上述实施例中视频缓存的例子对根据收益对请求内容进行缓存的过程进行进一步说明。
从候选集R(t)中选择缓存收益最大的视频k,若视频k的大小小于或等于边缘节点的缓存空间中所剩空间的大小,则将视频k进行缓存。
在时刻t缓存视频i的收益通过如下公式计算:
E(i)=Gt(X(t))-Gt(X(t)∪i)
其中X(t)表示在t时刻边缘节点已经缓存的内容。此时边缘节点缓存内容更新为X(t)=X(t)∪k,剩余缓存空间为|C|-|X(t)|,候选集为R(t)=R(t)-k。
如果视频k的大小大于边缘节点的缓存空间中所剩空间的大小,则删除编号为的视频,其中,At(r)为视频r未被请求的时长。此时,已存空间的容量减小,所剩空间的容量增大。接着将视频k的大小与所剩空间的大小进行对比,若视频k的大小小于或等于所剩空间的大小,则将视频k进行缓存。否则,在删除了视频r的X(t)中,继续删除未被请求的时长最长的视频。
重复上述的选择过程,直到候选集R(t)为空集。
本发明实施例提供一种缓存***,包括:
请求内容预测模块,用于对于任一边缘节点所服务的用户群中的每一用户,根据所述用户在预设时间段内的历史请求记录集,预测所述用户在目标时刻的请求内容。
缓存模块,用于获取对每一用户的请求内容进行缓存得到的收益,根据所有收益的大小顺序,将对应的请求内容依次缓存至所述边缘节点中。
需要说明的是,本发明实施例的***可用于执行图1所示的一种缓存方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
图2为本发明一种缓存设备实施例结构框图,如图2所示,所述设备包括:处理器(processor)201、存储器(memory)202和总线203;其中,所述处理器201和所述存储器202通过所述总线203完成相互间的通信;所述处理器201用于调用所述存储器202中的程序指令,以执行上述各方法实施例所提供的方法,例如包括:对于任一边缘节点所服务的用户群中的每一用户,根据所述用户在预设时间段内的历史请求记录集,预测所述用户在目标时刻的请求内容;获取对所述请求内容进行缓存得到的收益,根据所有收益的大小顺序,将对应的请求内容依次缓存至所述边缘节点中。
本发明实施例公开一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法实施例所提供的方法,例如包括:对于任一边缘节点所服务的用户群中的每一用户,根据所述用户在预设时间段内的历史请求记录集,预测所述用户在目标时刻的请求内容;获取对所述请求内容进行缓存得到的收益,根据所有收益的大小顺序,将对应的请求内容依次缓存至所述边缘节点中。
本发明实施例提供一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行上述各方法实施例所提供的方法,例如包括:对于任一边缘节点所服务的用户群中的每一用户,根据所述用户在预设时间段内的历史请求记录集,预测所述用户在目标时刻的请求内容;获取对所述请求内容进行缓存得到的收益,根据所有收益的大小顺序,将对应的请求内容依次缓存至所述边缘节点中。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
综上,本发明实施例提供的一种缓存方法及***,精确地描述用户的请求行为,并生成用户请求行为的相关知识进而实现对用户请求内容的准确预测。因此与现有技术中利用流行度或概率模型等浅层信息的传统方法不同,本发明实施例通过建立深度信念网络来挖掘用户请求行为的相关知识,并提供相应的缓存算法,实现了无线边缘缓存空间的高效使用。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种缓存方法,其特征在于,包括:
对于任一边缘节点所服务的用户群中的每一用户,根据所述用户在预设时间段内的历史请求记录集,预测所述用户在目标时刻的请求内容;
获取对所述请求内容进行缓存得到的收益,根据所有收益的大小顺序,将对应的请求内容依次缓存至所述边缘节点中。
2.根据权利要求1所述的方法,其特征在于,所述根据所述用户在预设时间段内的历史请求记录集,预测所述用户在目标时刻的请求内容,进一步包括:
获取所述用户在预设时间段内的历史请求记录集;
基于训练好的深度信念网络,根据所述历史请求记录集,预测所述用户在目标时刻的请求内容;其中,所述深度信念网络为深度神经网络,通过用户的历史请求记录数据训练得到。
3.根据权利要求2所述的方法,其特征在于,所述基于训练好的深度信念网络,根据所述历史请求记录集,预测所述用户在目标时刻的请求内容,进一步包括:
对所述历史请求记录集中的每一历史请求记录进行标准化,并将标准化后的历史请求记录进行归一化;
将归一化后的所有历史请求记录输入至所述训练好的深度信念网络中,预测所述用户在目标时刻的请求内容。
4.根据权利要求1所述的方法,其特征在于,所述根据所有收益的大小顺序,将对应的请求内容依次缓存至所述边缘节点中,进一步包括:
将所述用户群中的所有用户的请求内容组成候选集;
在每一次缓存过程中,将所述候选集中收益最大的请求内容缓存至所述边缘节点中,并将所述收益最大的请求内容从所述候选集中删除,以更新所述候选集,并进行下一次缓存,直至所述候选集为空集。
5.根据权利要求4所述的方法,其特征在于,所述将所述候选集中收益最大的请求内容缓存至所述边缘节点中,进一步包括:
若所述收益最大的请求内容的大小小于或等于所述边缘节点的第一子空间的大小,则将所述收益最大的请求内容缓存至所述边缘节点中;其中,所述第一子空间为所述边缘节点的缓存空间中的所剩空间。
6.根据权利要求5所述的方法,其特征在于,所述将所述候选集中收益最大的请求内容缓存至所述边缘节点中,进一步还包括:
若所述收益最大的请求内容的大小大于所述边缘节点的第一子空间的大小,则将所述边缘节点的第二子空间中的部分缓存内容进行删除,以将所述收益最大的请求内容缓存至所述边缘节点中;其中,所述第二子空间为所述边缘节点的缓存空间中的已存空间,所述第二子空间和所述第一子空间共同组成所述边缘节点的缓存空间。
7.根据权利要求6所述的方法,其特征在于,所述将所述边缘节点的第二子空间中缓存的部分缓存内容进行删除,以将所述收益最大的请求内容缓存至所述边缘节点中,进一步包括:
对于所述第二子空间中的每一缓存内容,获取所述缓存内容处于未被请求状态的时长;
将处于未被请求状态的时长最长的缓存内容从所述第二子空间中删除,以更新所述第一子空间;
若所述收益最大的请求内容的大小小于或等于更新后的第一子空间的大小,则将所述收益最大的请求内容缓存至所述边缘节点中。
8.一种缓存***,其特征在于,包括:
请求内容预测模块,用于对于任一边缘节点所服务的用户群中的每一用户,根据所述用户在预设时间段内的历史请求记录集,预测所述用户在目标时刻的请求内容;
缓存模块,用于获取对每一用户的请求内容进行缓存得到的收益,根据所有收益的大小顺序,将对应的请求内容依次缓存至所述边缘节点中。
9.一种缓存设备,其特征在于,包括存储器和处理器,所述处理器和所述存储器通过总线完成相互间的通信;所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行如权利要求1至7任一所述的方法。
10.一种非暂态计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行如权利要求1至7任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810475095.0A CN108833352B (zh) | 2018-05-17 | 2018-05-17 | 一种缓存方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810475095.0A CN108833352B (zh) | 2018-05-17 | 2018-05-17 | 一种缓存方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108833352A true CN108833352A (zh) | 2018-11-16 |
CN108833352B CN108833352B (zh) | 2020-08-11 |
Family
ID=64148908
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810475095.0A Active CN108833352B (zh) | 2018-05-17 | 2018-05-17 | 一种缓存方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108833352B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109511009A (zh) * | 2018-12-07 | 2019-03-22 | 北京交通大学 | 一种视频在线缓存管理方法和*** |
CN109542803A (zh) * | 2018-11-20 | 2019-03-29 | 中国石油大学(华东) | 一种基于深度学习的混合多模式热数据缓存策略 |
CN109788305A (zh) * | 2018-12-10 | 2019-05-21 | 北京爱奇艺科技有限公司 | 一种缓存数据的刷新方法及装置 |
CN110059025A (zh) * | 2019-04-22 | 2019-07-26 | 北京电子工程总体研究所 | 一种缓存预取的方法和*** |
CN112020081A (zh) * | 2019-05-30 | 2020-12-01 | 韩国高等科学技术学院 | 在基于多点协作的小蜂窝网络中利用机器学习的主动缓存方法 |
CN112261668A (zh) * | 2020-10-20 | 2021-01-22 | 北京邮电大学 | 移动边缘网络中的内容缓存方法、装置、电子设备 |
CN112751924A (zh) * | 2020-12-29 | 2021-05-04 | 北京奇艺世纪科技有限公司 | 一种数据推送方法、***及装置 |
CN113051298A (zh) * | 2019-12-27 | 2021-06-29 | 中国联合网络通信集团有限公司 | 内容缓存方法及装置 |
CN114026837A (zh) * | 2019-07-05 | 2022-02-08 | 维萨国际服务协会 | 使用ai调用预测和缓存的方法和*** |
CN114785858A (zh) * | 2022-06-20 | 2022-07-22 | 武汉格蓝若智能技术有限公司 | 应用于互感器在线监测***的资源主动缓存方法及装置 |
CN115866051A (zh) * | 2022-11-15 | 2023-03-28 | 重庆邮电大学 | 一种基于内容流行度的边缘缓存方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701207A (zh) * | 2016-01-12 | 2016-06-22 | 腾讯科技(深圳)有限公司 | 资源的请求量预测方法、应用推荐方法和装置 |
CN107171961A (zh) * | 2017-04-28 | 2017-09-15 | 中国人民解放军信息工程大学 | 基于内容流行度的缓存方法及其装置 |
CN107592656A (zh) * | 2017-08-17 | 2018-01-16 | 东南大学 | 基于基站聚类的缓存方法 |
-
2018
- 2018-05-17 CN CN201810475095.0A patent/CN108833352B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701207A (zh) * | 2016-01-12 | 2016-06-22 | 腾讯科技(深圳)有限公司 | 资源的请求量预测方法、应用推荐方法和装置 |
CN107171961A (zh) * | 2017-04-28 | 2017-09-15 | 中国人民解放军信息工程大学 | 基于内容流行度的缓存方法及其装置 |
CN107592656A (zh) * | 2017-08-17 | 2018-01-16 | 东南大学 | 基于基站聚类的缓存方法 |
Non-Patent Citations (1)
Title |
---|
DACHUN HUANG等: ""Caching Scheme Based on User Clustering and User Requests Prediction in Small Cells"", 《2017 IEEE 17TH INTERNATIONAL CONFERENCE ON COMMUNICATION TECHNOLOGY(ICCT)》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109542803A (zh) * | 2018-11-20 | 2019-03-29 | 中国石油大学(华东) | 一种基于深度学习的混合多模式热数据缓存策略 |
CN109511009A (zh) * | 2018-12-07 | 2019-03-22 | 北京交通大学 | 一种视频在线缓存管理方法和*** |
CN109788305A (zh) * | 2018-12-10 | 2019-05-21 | 北京爱奇艺科技有限公司 | 一种缓存数据的刷新方法及装置 |
CN109788305B (zh) * | 2018-12-10 | 2021-03-02 | 北京爱奇艺科技有限公司 | 一种缓存数据的刷新方法及装置 |
CN110059025A (zh) * | 2019-04-22 | 2019-07-26 | 北京电子工程总体研究所 | 一种缓存预取的方法和*** |
CN112020081A (zh) * | 2019-05-30 | 2020-12-01 | 韩国高等科学技术学院 | 在基于多点协作的小蜂窝网络中利用机器学习的主动缓存方法 |
CN114026837A (zh) * | 2019-07-05 | 2022-02-08 | 维萨国际服务协会 | 使用ai调用预测和缓存的方法和*** |
CN113051298A (zh) * | 2019-12-27 | 2021-06-29 | 中国联合网络通信集团有限公司 | 内容缓存方法及装置 |
CN112261668A (zh) * | 2020-10-20 | 2021-01-22 | 北京邮电大学 | 移动边缘网络中的内容缓存方法、装置、电子设备 |
CN112751924A (zh) * | 2020-12-29 | 2021-05-04 | 北京奇艺世纪科技有限公司 | 一种数据推送方法、***及装置 |
CN114785858A (zh) * | 2022-06-20 | 2022-07-22 | 武汉格蓝若智能技术有限公司 | 应用于互感器在线监测***的资源主动缓存方法及装置 |
CN115866051A (zh) * | 2022-11-15 | 2023-03-28 | 重庆邮电大学 | 一种基于内容流行度的边缘缓存方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108833352B (zh) | 2020-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108833352A (zh) | 一种缓存方法及*** | |
Pang et al. | Toward smart and cooperative edge caching for 5G networks: A deep learning based approach | |
KR102036419B1 (ko) | 그래프 처리 성능 향상을 위한 복수 계층 캐싱 방법 및 복수 계층 캐싱 시스템 | |
CN109218747A (zh) | 超密集异构网络中基于用户移动性的视频业务分类缓存方法 | |
CN106464669B (zh) | 基于访问模式的智能文件预取 | |
CN109725842A (zh) | 加速随机写入布局以用于混合存储***内的桶分配的***和方法 | |
CN104021226B (zh) | 预取规则的更新方法及装置 | |
CN111292001A (zh) | 基于强化学习的联合决策方法及装置 | |
US11347646B2 (en) | Method, device and computer program product for managing cache based on matching API | |
Li et al. | Collaborative caching strategy based on optimization of latency and energy consumption in MEC | |
US8291052B2 (en) | Method, apparatus, and computer program product for determining a path update via distributed information management | |
Chan et al. | Big data driven predictive caching at the wireless edge | |
He et al. | A mechanism of topology optimization for underwater acoustic sensor networks based on autonomous underwater vehicles | |
CN113222073A (zh) | 训练迁移学习模型和推荐模型的方法及装置 | |
CN116320000A (zh) | 协同缓存方法、装置、电子设备和存储介质 | |
CN115134410B (zh) | 边缘协作服务领域划分方法、装置、电子设备及存储介质 | |
CN114025017B (zh) | 基于深度循环强化学习的网络边缘缓存方法、装置及设备 | |
Elsayed et al. | Prediction-based cooperative cache discovery in vanets for social networking | |
Hatami et al. | Online caching policy with user preferences and time-dependent requests: A reinforcement learning approach | |
Sakr et al. | Meta-reinforcement learning for edge caching in vehicular networks | |
CN106936913B (zh) | 一种基于节点位移和lru记录的缓存更新方法及网络 | |
CN106936914B (zh) | 一种基于节点位移和lfu记录的缓存更新方法及网络 | |
CN110362769A (zh) | 一种数据处理方法及装置 | |
Firouzjaee et al. | User preference-aware content caching strategy for video delivery in cache-enabled IoT networks | |
Zhang et al. | Vulcan: Automatic Query Planning for Live {ML} Analytics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |