CN104507124A - 一种基站缓存的管理方法及用户访问的处理方法 - Google Patents

一种基站缓存的管理方法及用户访问的处理方法 Download PDF

Info

Publication number
CN104507124A
CN104507124A CN201410817493.8A CN201410817493A CN104507124A CN 104507124 A CN104507124 A CN 104507124A CN 201410817493 A CN201410817493 A CN 201410817493A CN 104507124 A CN104507124 A CN 104507124A
Authority
CN
China
Prior art keywords
request
content
node
base
station node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410817493.8A
Other languages
English (en)
Inventor
李杨
辛永辉
林涛
周旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Acoustics CAS
Original Assignee
Institute of Acoustics CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Acoustics CAS filed Critical Institute of Acoustics CAS
Priority to CN201410817493.8A priority Critical patent/CN104507124A/zh
Publication of CN104507124A publication Critical patent/CN104507124A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/10Flow control between communication endpoints
    • H04W28/14Flow control between communication endpoints using intermediate storage

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明提供了一种基站缓存的管理方法,所述方法包括:步骤101)在集中式网关控制器节点上生成内容热度排名表;步骤102)将每个基站节点的本地缓存分为共享缓存和非共享缓存;步骤103)将内容热度排名表中的请求内容按照排名存入每个基站节点的本地缓存中;步骤104)在集中式网关控制器节点和每个基站节点上各自建立待定请求表。基于上述基站缓存的管理方法,本发明还提供了一种用户访问的处理方法;该方法基于请求聚合和异步多播的策略实现。本发明提出的方法,降低了基站缓存的冗余度,提高了缓存的利用率;减少网络内外的重复流量,加快了网络响应速度,提升了用户的上网体验。

Description

一种基站缓存的管理方法及用户访问的处理方法
技术领域
本发明涉及移动网络技术领域,具体涉及一种基站缓存的管理方法及用户访问的处理方法。
背景技术
随着世界范围内智能手机、平板用户数目的增加,移动设备(Mobile Device,简称MD)对互联网的访问量预计会迅速增长(文献[1]:White Paper,“Cisco Visual Networking Index:Global Mobile Data,”2010-2015.)。当一个MD访问互联网的内容时,该内容必须从移动网络外的原始服务器获得。内容分发网络(Content Delivery Network,简称为CDN)是通过在现有的Internet中增加一层新的网络架构,将网站的内容发布到最接近用户的网络“边缘”,使用户可以就近取得所需的内容,解决Internet网络拥挤的状况,提高用户访问网站的响应速度。从技术上全面解决由于网络带宽小、用户访问量大、网点分布不均等原因所造成的用户访问网站响应速度慢的问题。
文献[2](G.Pallis,A.Vakali,“Insight and perspectives for content delivery networks,”in Communications of the ACM,vol.49,issue 1,January 2006.)和文献[3](Akamai Technologies,http://www.akamai.com.)指出CDN有助于减少互联网带宽的消耗和相关的延迟与抖动,但请求内容在到达MD之前,必须通过无线运营商的核心网(Core Network,简称CN)和无线接入网(Radio Access Network,简称RAN)。因此所有的请求都从CDN处获取内容会给运营商的CN和RAN带来了很大的流量压力;大量并发的请求在有限的网络容量下,极易导致网络拥塞,显著增加网络延迟。此外,现在的移动网络正在经历从3G到LTE的演进,在实际的网络结构中,一个集中式网关控制器(SAE-GW)可以直接控制比以前更多的基站(Evolved Node B,简称eNodeB),由于RAN边缘缓存的尺寸比在互联网中的CDN小得多,因此要以协同的方式在这些大规模的eNodeB中存储内容,使得在RAN中能存储更多种类的内容。因此,网关控制器可以利用这些存储资源以对等的方式来服务本区域基站节点的请求,而不必从互联网上的CDN获取,从而提高整体服务的性能。为了在RAN中最大限度地支持请求数目,基于最优化的方法科学家提出了一些典型缓存策略:
非协同缓存策略:所有的基站节点独立工作,每个基站节点只处理本节点接入用户的请求,若本地缓存有用户请求的内容,则直接返回给用户,若没有,则向外网去获取,对于本地的缓存则采用基于内容访问频率或其它历史使用情况的典型缓存策略。非协同缓存具有容易实现,复杂度较低,节点之间存储与服务相互独立,不会增加网络的管理开销,但会造成网络内部缓存的大量冗余,缓存的内容种类少,缓存的利用率低,用户下载的平均时延大,网络出口流量大等问题。
协同缓存策略:所有基站节点协同工作,由一个网关控制器统一管理;当一个节点收到用户请求后,若本地缓存未命中而对等节点有缓存,则选择从对等节点获取,若对等节点没有,则向服务器去获取,对于本节点的缓存,受控网关控制器和本地统计信息的共同影响。协同缓存中的缓存节点互相合作,由网关控制器统一管理本地的缓存资源,避免了缓存过度冗余的问题,能更好的为收到的用户请求提供服务,但是需要提前预知每个内容请求到达速率(文献[4]:X.Tang,S.T.Chanson,“Coordinated En-Route Web Caching,”in IEEE Transactions on Computers,Vol.51,No.6,pp.595-607,2002.);而在实际应用中,用户对内容的请求率是随着时间和流行度变化的,使得来自于过去的统计结果不再适用;此外,由于对等节点之间内容单播传送,会导致网络内产生大量的重复流量。
下面举例对两个策略的应用进行说明,如图1所示,一个RAN,包括三个eNodeB:eNB1,eNB2和eNB3,和一个能提供四个内容a,b,c,d的原服务器O,此外,所有的eNodeB的存储容量只能存储一个内容对象,SAE-GW不具有存储功能,而且从eNodeB到SAE-GW中的每个上行链路容量是仅能够同时请求一个对象,用τ表示在一个给定的RAN中由一个对等的eNodeB来提供服务需要的平均等待时间。并假设内容的流行度分布是一致的,每个蜂窝中有多组MD向其它eNodeB节点发送请求流,请求流是相同的,由重复序列{aaaabbbccd}表示。我们假设在相同的RAN内从对等的eNodeB节点获取内容的性能(等待时间)比从原始服务器O好得多,因为在实际的网络中,源服务器可能位于相当远的网络。
非协同缓存策略:所有的eNodeB已经累积的信息是对内容a的请求比b,c和d的信息多,因此所有的eNodeB存储a,而不存储其它内容,对MD后续发送的对b、c和d的请求只能先到eNodeB,再转发给SAE-GW,最后发往服务器O。由此可见,非协同缓存策略使得整体缓存冗余度高,利用率低,用户获取内容的平均时延加大,体验较差。
协同缓存策略:由于各个eNodeB是相互合作的,我们假设eNB1存储a,eNB2存储b和eNB3存储c,这样对a、b、c的请求都能在这个RAN中得到服务;而对于 请求d,在对应的eNodeB和RAN中的其他eNodeB上缓存未命中,只能由SAE-GW向原始服务器O来获取内容。由于一个节点接入的用户访问的内容热度分布相近,当多个MD可能同时获取来自同一邻居eNodeB相同的内容,由于协同缓存中独立的对等单播传输机制,就会产生大量重复的流量(包括请求和响应),消耗了宝贵的链路带宽资源。
发明内容
本发明的目的在于克服目前CDN缓存技术中存在的上述缺陷,提出了一种新的基站缓存管理方法,并在此基础上,基于请求聚合和异步多播的策略,提出了一种用户访问的处理方法。
为了实现上述目的,本发明提供了一种基站缓存的管理方法,包括:
步骤101)在集中式网关控制器节点上生成内容热度排名表;
步骤102)将每个基站节点的本地缓存分为共享缓存和非共享缓存;
步骤103)将内容热度排名表中的请求内容按照排名存入每个基站节点的本地缓存中;
步骤104)在集中式网关控制器节点和每个基站节点上各自建立待定请求表。
上述技术方案中,所述步骤101)进一步包括: 
在固定时间周期内,每个基站节点根据用户访问请求统计各请求内容的访问次数,上报给集中式网关控制器节点;集中式网关控制器节点统计所有基站节点的上报信息,并生成内容热度排名表;内容热度排名表记录了每个内容的名字、访问总次数以及历史访问时间数据。
上述技术方案中,所述步骤102)进一步包括: 
假设每个基站节点的本地缓存大小为c,将每个基站节点的本地缓存分为两部分:一部分是共享缓存,用于存储其它基站节点可以访问的内容,大小为x;另一部分是非共享缓存,大小为c-x;
假设每个基站节点具有相同的链路上行带宽U,用户从向基站节点发出请求到收到请求内容的平均时延为τ,则用户向基站节点处的请求速率最大为1/τ;那么集中式网关控制器节点发出的请求速率最大为2/τ,x取值为:
x = τU 2 .
上述技术方案中,所述步骤103)进一步包括: 
假设内容块单位为1,将所有的请求内容都分成大小相等的内容块;将内容热度 排名表中排名最靠前的c-x块内容存储在每个基站节点的非共享缓存中,为其接入的本地用户提供下载服务;然后将内容热度排名表中排名为c-x+1到c-x+Nx的请求内容按顺序分别存到N个基站节点的共享缓存上,为网内的所有用户提供下载服务。
上述技术方案中,所述步骤104)进一步包括: 
基站节点的待定请求表由一系列入口组成,每个入口包括:请求名称,发出该请求的客户端列表;客户端列表中记录了发出该请求的用户地址;
集中式网关控制器节点的待定请求表由一系列入口组成,每个入口包括:请求名称,发出该请求的客户端列表;客户端列表中记录了发出该请求的基站地址。
基于一种基站缓存的管理方法,本发明还提供了一种用户访问的处理方法;包括:
步骤201)用户将请求k发送到其接入的基站节点n;
步骤202)在基站节点n的本地缓存中查找请求内容k;如果本地缓存中有请求内容k,则根据用户地址发送请求内容k;否则,转到步骤203);
步骤203)将基站节点n的本地缓存中未找到的请求k进行聚合,更新基站节点n的待定请求表;
步骤204)集中式网关控制器节点将所基站节点的请求进行聚合,更新集中式网关控制器节点的待定请求表;
步骤205)集中式网关控制器节点查询其它基站节点n的共享缓存上是否有请求内容k;
步骤206)如果有一个基站节点m的共享缓存上有请求内容k,则将请求内容k发送到集中式网关控制器节点;转到步骤208);否则,转到步骤207);
步骤207)集中式网关控制器节点将请求k发送到原始服务器,原始服务器找到请求内容k后,将请求内容k发送到集中式网关控制器节点;
步骤208)集中式网关控制器节点将请求内容k以异步多播方式发给其待定请求表中对应的客户端列表中的基站节点;并删除待定请求表中请求k的条目;
步骤209)基站节点n收到请求内容k后,以异步多播方式发送给待定请求表中对应的客户端列表中的用户,同时删除待定请求表中对应的请求k的条目。
上述技术方案中,所述步骤203)进一步包括: 
步骤203-1)在基站节点n的待定请求表中匹配请求k;
步骤203-2)如果在待定请求表中有一个完全匹配的条目,将请求用户地址添加到匹配条目的客户端列表,随之将请求k丢弃;否则,转到203-3);
步骤203-3)如果在待定请求表中没有一个完全匹配的条目,在待定请求表中增加新的请求k条目,并将请求k转发出去。
上述技术方案中,以基站节点n发出的请求k为例;所述步骤204)进一步包括: 
步骤204-1)在集中式网关控制器节点的待定请求表中匹配请求k;
步骤204-2)如果在待定请求表中有一个完全匹配的条目,将基站节点n添加到匹配条目的客户端列表,随之将请求k丢弃;否则,转到204-3);
步骤204-3)如果在待定请求表中没有一个完全匹配的条目,在待定请求表中增加新的请求k条目。
本发明的优点在于:
1、本发明提出基站缓存的管理方法,使基站节点既能为接入用户提供有效服务,还能方便节点间的协同配合,降低了基站缓存的冗余度,提高了缓存的利用率;
2、本发明提出的用户访问的处理方法中,基站节点和网关节点通过待定请求表分别将多个用户对相同内容的请求聚合为一个,在有限的链路上行带宽下,扩大了节点支持的用户请求数目;
3、本发明提出的用户访问的处理方法,使基站节点和网关节点获取请求内容后,通过异步多播的方式进行发送,减少网络内外的重复流量,加快了网络响应速度,提升了用户的上网体验。
附图说明
图1为移动网络协同缓存处理用户请求示意图;
图2为本发明的基站缓存的设计方法的示意图。
具体实施方式
本发明的应用场景为:一个RAN包括一个SAE-GW节点,N个eNodeB节点,SAE-GW节点管理N个eNodeB节点。
下面结合附图和具体实施例对本发明做进一步的说明。
如图2所示,本发明提供了一种基站缓存的管理方法,包括:
步骤101)在SAE-GW节点上生成内容热度排名表;
在固定时间周期内,每个eNodeB节点根据用户访问请求统计各请求内容的访问次数,上报给SAE-GW节点;SAE-GW节点统计所有eNodeB节点的上报信息,并生成内容热度排名表;内容热度排名表记录了每个内容的名字、访问总次数以及历史访问时间数据。
步骤102)将每个eNodeB节点的本地缓存分为共享缓存和非共享缓存;
假设每个eNodeB节点的本地缓存大小为c,将每个eNodeB节点的本地缓存分为两部分:一部分是共享缓存,用于存储其它eNodeB节点可以访问的内容,大小为x;另一部分是非共享缓存,大小为c-x。
假设每个eNodeB节点具有相同的链路上行带宽U,用户从向eNodeB节点发出请求到收到请求内容的平均时延为τ,则用户向eNodeB节点处的请求速率最大为1/τ;那么SAE-GW节点发出的请求速率最大为2/τ,x取值为:
x = τU 2
步骤103)将内容热度排名表中的请求内容按照排名存入每个eNodeB节点的本地缓存中;
假设内容块单位为1,将所有的请求内容都分成大小相等的内容块;将内容热度排名表中排名最靠前的c-x块内容存储在每个eNodeB节点的非共享缓存中,为其接入的本地用户提供下载服务;然后将内容热度排名表中排名为c-x+1到c-x+Nx的请求内容按顺序分别存到N个eNodeB节点的共享缓存上,为网内的所有用户提供下载服务。
步骤104)在SAE-GW节点和每个eNodeB节点上各自建立一个待定请求表。
eNodeB节点的待定请求表由一系列入口组成,每个入口包括:请求名称,发出该请求的客户端列表;客户端列表中记录了发出该请求的用户地址。
当收到在本地缓存未命中的内容请求时,新建一个入口,记录该请求内容的名字,同时在该入口的客户端列表中添加请求用户地址,并将请求转发出去;如果后续接收到其它用户对该内容的请求,则在客户端列表中添加该用户地址,该请求不再转发。
SAE-GW节点的待定请求表由一系列入口组成,每个入口包括:请求名称,发出该请求的客户端列表;客户端列表中记录了发出该请求的基站地址。
基于一种基站缓存的管理方法,本发明还提供了一种用户访问的处理方法;包括:
步骤201)用户将请求k发送到其接入的eNodeB节点n;
步骤202)在eNodeB节点n的本地缓存中查找请求内容k;如果本地缓存中有请求内容k,则根据用户地址发送请求内容k;否则,转到步骤203);
步骤203)将eNodeB节点n的本地缓存中未找到的请求k进行聚合,更新eNodeB节点n的待定请求表;包括:
步骤203-1)在eNodeB节点n的待定请求表中匹配请求k;
步骤203-2)如果在待定请求表中有一个完全匹配的条目,将请求用户地址添加 到匹配条目的客户端列表,随之将请求k丢弃;否则,转到203-3);
步骤203-3)如果在待定请求表中没有一个完全匹配的条目,在待定请求表中增加新的请求k条目,并将请求k转发出去;
步骤204)SAE-GW节点将所有eNodeB节点的请求进行聚合,更新SAE-GW节点的待定请求表;
以eNodeB节点n发出的请求k为例;步骤204)包括:
步骤204-1)在SAE-GW节点的待定请求表中匹配请求k;
步骤204-2)如果在待定请求表中有一个完全匹配的条目,将eNodeB节点n添加到匹配条目的客户端列表,随之将请求k丢弃;否则,转到204-3);
步骤204-3)如果在待定请求表中没有一个完全匹配的条目,在待定请求表中增加新的请求k条目;
步骤205)SAE-GW节点查询其它eNodeB节点的共享缓存上是否有请求内容k;
SAE-GW节点含有其管辖的所有eNodeB节点的缓存内容视图。
步骤206)如果有一个eNodeB节点m的共享缓存上有请求内容k,则将请求内容k发送到SAE-GW节点;转到步骤208);否则,转到步骤207);
步骤207)SAE-GW节点将请求k发送到原始服务器,原始服务器找到请求内容k后,将请求内容k发送到SAE-GW节点;
步骤208)SAE-GW节点将请求内容k以异步多播方式发给其待定请求表中对应的客户端列表中的eNodeB节点;并删除待定请求表中请求k的条目;
步骤209)eNodeB节点n收到请求内容k后,以异步多播方式发送给待定请求表中对应的客户端列表中的用户,同时删除待定请求表中对应的请求k的条目。
下面对本发明提出的方法与现有的方法进行仿真计算。
首先比较三种方法的源端负载量性能;源端负载量由直接送达原始服务器的请求数目在所有请求中占的百分比衡量。
当使用非协同缓存策略对用户请求进行处理时,所有的eNodeB节点缓存都存储有内容a,当用户对内容a发出请求后,会由用户接入的eNodeB节点直接提供服务,而用户请求内容b,c和d时,必须由原始服务器提供。这意味着三个流的所有请求的6/10将转发到原始服务器,源端负载量为0.6。
当使用协同缓存策略对用户请求进行处理时,假设对内容a,b和c的请求由于请求速率较低都在本RAN内得到满足(最佳情况),三条流上总的3/30,即对d的所有 请求会转发给原始服务器。然而,假设所有请求同时到达(最坏情况),那么所有的上行链路忙,链路容量只可以为一个请求服务,所以其它请求a,b和c仍传送到原始服务器,因此,源端负载量为(4+5+6)/30=0.2。源端负载量最小为0.1,最大为0.2。
用λk表示请求内容k的到达速率,当τλk≥1时,表示对内容k的请求未得到满足时,又有一些对内容k的请求到来。在这种情况下,使用本发明的请求聚合策略,eNodeB节点可以过滤后续用户对内容k的请求,并将请求节点记录在PRT;同时PRT中的所有请求都被发送出去,可能发送到网内的其它eNodeB节点,也可能发送到原始服务器O。
使用本发明的方法时,在上述最坏的情况下,所有的内容相同的请求被聚合在eNodeB节点;例如,用户对内容a的请求被记录在eNB2的PRT中。此外,SAE-GW节点还记录所有管辖的eNodeB节点的请求;如图1所示,eNB1和eNB2对a的请求被记录在SAE-GW节点的PRT中。因此,每个内容只有一个请求被发送出去,其中,只有一个对内容d的请求被传送到原始服务器,即1/30的请求发往原始服务器;如果每一个请求在其以前应答数据返回后到达(最佳情况),请求聚合策略和协同缓存策略一样,因为没有请求发生聚合,此时原始服务器的源端负载量最小为0.033,最大为0.1。
然后比较三种方法的产生流量的性能;产生的流量是通过平均网络跳数和内容大小的乘积计算。基于单元大小内容的前提下,单个请求产生的流量可直接表示为获取内容时走过的网络跳数。
当使用非协同缓存策略对用户请求进行处理时,请求内容a的用户可以直接从接入的eNodeB节点获得内容,而不经过任何对等的eNodeB节点。而请求内容b,c和d时,需通过SAE-GW节点请求原服务器;假设从SAE-GW节点到原服务器的跳数为2则平均每个请求产生的流量是(3·6·3)/30=1.8。
当使用协同缓存策略对用户请求进行处理时,最好的情况是,请求的内容a,b和c都由本RAN提供服务,只将请求内容为d的请求发送到原服务器。因此,平均每个请求产生的流量为[(2·5+3·1)+(2·6+3·1)+(2·7+3·1)]/30=1.5;而在最坏的情况下,当所有的请求同时到达eNodeB节点,由于无法获取到内容a,b和c,因此必须去原服务器获取,平均每个请求产生的流量为:[(2·2+3·4)+(2·2+3·5)+(2·2+3·6)]/30=1.9。
应用本发明的方法对用户请求进行处理时,由于全部重复请求在eNodeB节点与SAE-GW节点进行过滤,平均一个请求产生的流量为:[(2·2+3·1)+(2·2+1·1)+(2·2+1·1)]/30=0.56。
上述仿真结果如表1所示:
表1
  非协同缓存策略 协同缓存策略 本发明的方法
源服务器负载 0.6 0.1~0.2 0.033~0.1
产生流量/请求 1.8 1.5~1.9 0.56~1.5
从表1可以看出,本发明的方法与现有方法相比,不仅使原始服务器上的负载较低,同时产生的流量较低。
需要说明的是,以上介绍的本发明的实施方案提供的只是本方案可以运行的一种方法,该实施例的说明只是用于帮助理解本发明的方法及其核心思想而并非限制。本领域的一般技术人员应当理解,任何对本发明技术方案的修改或者等同替代都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围内。

Claims (8)

1.一种基站缓存的管理方法,所述方法包括:
步骤101)在集中式网关控制器节点上生成内容热度排名表;
步骤102)将每个基站节点的本地缓存分为共享缓存和非共享缓存;
步骤103)将内容热度排名表中的请求内容按照排名存入每个基站节点的本地缓存中;
步骤104)在集中式网关控制器节点和每个基站节点上各自建立待定请求表。
2.根据权利要求1所述的基站缓存的管理方法,其特征在于,所述步骤101)进一步包括:
在固定时间周期内,每个基站节点根据用户访问请求统计各请求内容的访问次数,上报给集中式网关控制器节点;集中式网关控制器节点统计所有基站节点的上报信息,并生成内容热度排名表;内容热度排名表记录了每个内容的名字、访问总次数以及历史访问时间数据。
3.根据权利要求2所述的基站缓存的管理方法,其特征在于,所述步骤102)进一步包括:
假设每个基站节点的本地缓存大小为c,将每个基站节点的本地缓存分为两部分:一部分是共享缓存,用于存储其它基站节点可以访问的内容,大小为x;另一部分是非共享缓存,大小为c-x;
假设每个基站节点具有相同的链路上行带宽U,用户从向基站节点发出请求到收到请求内容的平均时延为τ,则用户向基站节点处的请求速率最大为1/τ;那么集中式网关控制器节点发出的请求速率最大为2/τ,x取值为:
x = τU 2 .
4.根据权利要求3所述的基站缓存的管理方法,其特征在于,所述步骤103)进一步包括:
假设内容块单位为1,将所有的请求内容都分成大小相等的内容块;将内容热度排名表中排名最靠前的c-x块内容存储在每个基站节点的非共享缓存中,为其接入的本地用户提供下载服务;然后将内容热度排名表中排名为c-x+1到c-x+Nx的请求内容按顺序分别存到N个基站节点的共享缓存上,为网内的所有用户提供下载服务。
5.根据权利要求4所述的基站缓存的管理方法,其特征在于,所述步骤104)进一步包括:
基站节点的待定请求表由一系列入口组成,每个入口包括:请求名称,发出该请求的客户端列表;客户端列表中记录了发出该请求的用户地址;
集中式网关控制器节点的待定请求表由一系列入口组成,每个入口包括:请求名称,发出该请求的客户端列表;客户端列表中记录了发出该请求的基站地址。
6.一种用户访问的处理方法,该方法基于权利要求1-5所述的基站缓存的管理方法实现;该方法包括:
步骤201)用户将请求k发送到其接入的基站节点n;
步骤202)在基站节点n的本地缓存中查找请求内容k;如果本地缓存中有请求内容k,则根据用户地址发送请求内容k;否则,转到步骤203);
步骤203)将基站节点n的本地缓存中未找到的请求k进行聚合,更新基站节点n的待定请求表;
步骤204)集中式网关控制器节点将所基站节点的请求进行聚合,更新集中式网关控制器节点的待定请求表;
步骤205)集中式网关控制器节点查询其它基站节点n的共享缓存上是否有请求内容k;
步骤206)如果有一个基站节点m的共享缓存上有请求内容k,则将请求内容k发送到集中式网关控制器节点;转到步骤208);否则,转到步骤207);
步骤207)集中式网关控制器节点将请求k发送到原始服务器,原始服务器找到请求内容k后,将请求内容k发送到集中式网关控制器节点;
步骤208)集中式网关控制器节点将请求内容k以异步多播方式发给其待定请求表中对应的客户端列表中的基站节点;并删除待定请求表中请求k的条目;
步骤209)基站节点n收到请求内容k后,以异步多播方式发送给待定请求表中对应的客户端列表中的用户,同时删除待定请求表中对应的请求k的条目。
7.根据权利要求6所述的用户访问的处理方法,其特征在于,所述步骤203)进一步包括:
步骤203-1)在基站节点n的待定请求表中匹配请求k;
步骤203-2)如果在待定请求表中有一个完全匹配的条目,将请求用户地址添加到匹配条目的客户端列表,随之将请求k丢弃;否则,转到203-3);
步骤203-3)如果在待定请求表中没有一个完全匹配的条目,在待定请求表中增加新的请求k条目,并将请求k转发出去。
8.根据权利要求6所述的用户访问的处理方法,其特征在于,以基站节点n发出的请求k为例;所述步骤204)进一步包括:
步骤204-1)在集中式网关控制器节点的待定请求表中匹配请求k;
步骤204-2)如果在待定请求表中有一个完全匹配的条目,将基站节点n添加到匹配条目的客户端列表,随之将请求k丢弃;否则,转到204-3);
步骤204-3)如果在待定请求表中没有一个完全匹配的条目,在待定请求表中增加新的请求k条目。
CN201410817493.8A 2014-12-24 2014-12-24 一种基站缓存的管理方法及用户访问的处理方法 Pending CN104507124A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410817493.8A CN104507124A (zh) 2014-12-24 2014-12-24 一种基站缓存的管理方法及用户访问的处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410817493.8A CN104507124A (zh) 2014-12-24 2014-12-24 一种基站缓存的管理方法及用户访问的处理方法

Publications (1)

Publication Number Publication Date
CN104507124A true CN104507124A (zh) 2015-04-08

Family

ID=52948824

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410817493.8A Pending CN104507124A (zh) 2014-12-24 2014-12-24 一种基站缓存的管理方法及用户访问的处理方法

Country Status (1)

Country Link
CN (1) CN104507124A (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105471962A (zh) * 2015-11-13 2016-04-06 上海斐讯数据通信技术有限公司 一种网络资源的访问控制方法、***、以及一种基站
CN105656997A (zh) * 2015-12-25 2016-06-08 中国科学院信息工程研究所 基于移动用户关系的热度缓存内容主动推送方法
CN106535231A (zh) * 2016-12-08 2017-03-22 北京邮电大学 一种面向5G用户为中心网络Cache部署的内容传送方法
WO2017113373A1 (zh) * 2015-12-31 2017-07-06 华为技术有限公司 一种缓存的方法及分组数据网关
CN107733949A (zh) * 2016-08-11 2018-02-23 北京邮电大学 一种无线接入网缓存方法及***
WO2018090336A1 (zh) * 2016-11-18 2018-05-24 华为技术有限公司 缓存数据获取方法、相关设备以及通信***
CN108200178A (zh) * 2018-01-04 2018-06-22 海信集团有限公司 一种下载资源的方法和设备
CN108259521A (zh) * 2016-12-28 2018-07-06 ***通信集团浙江有限公司 热点资源共享方法及装置
CN110022579A (zh) * 2019-04-23 2019-07-16 重庆邮电大学 基于基站协作的内容缓存管理方法
CN107493328B (zh) * 2017-08-14 2019-10-11 武汉大学 一种基于特征融合的合作缓存方法
CN110868333A (zh) * 2019-10-28 2020-03-06 云深互联(北京)科技有限公司 一种用于网关的数据缓存方法及***
CN110908612A (zh) * 2019-11-27 2020-03-24 腾讯科技(深圳)有限公司 缓存管理方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102014053A (zh) * 2010-11-17 2011-04-13 华为技术有限公司 业务下发方法、装置及通信***
CN102204324A (zh) * 2011-04-27 2011-09-28 华为技术有限公司 提高移动互联网用户访问速度的方法及设备
CN102244900A (zh) * 2011-07-15 2011-11-16 上海华为技术有限公司 缓存数据热度值的同步方法、分布缓存方法、装置及***
CN103001870A (zh) * 2012-12-24 2013-03-27 中国科学院声学研究所 一种内容中心网络协同缓存方法及***
CN103686860A (zh) * 2011-07-15 2014-03-26 上海华为技术有限公司 缓存数据的分布缓存方法和装置
US20140237071A1 (en) * 2011-09-28 2014-08-21 Telefonaktiebolaget L M Ericsson (Publ) Caching in Mobile Networks

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102014053A (zh) * 2010-11-17 2011-04-13 华为技术有限公司 业务下发方法、装置及通信***
CN102204324A (zh) * 2011-04-27 2011-09-28 华为技术有限公司 提高移动互联网用户访问速度的方法及设备
CN102244900A (zh) * 2011-07-15 2011-11-16 上海华为技术有限公司 缓存数据热度值的同步方法、分布缓存方法、装置及***
CN103686860A (zh) * 2011-07-15 2014-03-26 上海华为技术有限公司 缓存数据的分布缓存方法和装置
US20140237071A1 (en) * 2011-09-28 2014-08-21 Telefonaktiebolaget L M Ericsson (Publ) Caching in Mobile Networks
CN103001870A (zh) * 2012-12-24 2013-03-27 中国科学院声学研究所 一种内容中心网络协同缓存方法及***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YANG LI ET.AL: "A Novel Coordinated Edge Caching with Request Filtration in Radio Access Network", 《THE SCIENTIFIC WORLD JOURNAL:NEXT-GENERATION INTERNET AND COMMUNICATION》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105471962A (zh) * 2015-11-13 2016-04-06 上海斐讯数据通信技术有限公司 一种网络资源的访问控制方法、***、以及一种基站
CN105656997A (zh) * 2015-12-25 2016-06-08 中国科学院信息工程研究所 基于移动用户关系的热度缓存内容主动推送方法
WO2017113373A1 (zh) * 2015-12-31 2017-07-06 华为技术有限公司 一种缓存的方法及分组数据网关
CN107733949B (zh) * 2016-08-11 2021-03-16 北京邮电大学 一种无线接入网缓存方法及***
CN107733949A (zh) * 2016-08-11 2018-02-23 北京邮电大学 一种无线接入网缓存方法及***
CN109891929A (zh) * 2016-11-18 2019-06-14 华为技术有限公司 缓存数据获取方法、相关设备以及通信***
WO2018090336A1 (zh) * 2016-11-18 2018-05-24 华为技术有限公司 缓存数据获取方法、相关设备以及通信***
CN106535231B (zh) * 2016-12-08 2019-12-13 北京邮电大学 一种面向5G用户为中心网络Cache部署的内容传送方法
CN106535231A (zh) * 2016-12-08 2017-03-22 北京邮电大学 一种面向5G用户为中心网络Cache部署的内容传送方法
CN108259521A (zh) * 2016-12-28 2018-07-06 ***通信集团浙江有限公司 热点资源共享方法及装置
CN108259521B (zh) * 2016-12-28 2021-02-23 ***通信集团浙江有限公司 热点资源共享方法及装置
CN107493328B (zh) * 2017-08-14 2019-10-11 武汉大学 一种基于特征融合的合作缓存方法
CN108200178A (zh) * 2018-01-04 2018-06-22 海信集团有限公司 一种下载资源的方法和设备
CN110022579A (zh) * 2019-04-23 2019-07-16 重庆邮电大学 基于基站协作的内容缓存管理方法
CN110868333A (zh) * 2019-10-28 2020-03-06 云深互联(北京)科技有限公司 一种用于网关的数据缓存方法及***
CN110908612A (zh) * 2019-11-27 2020-03-24 腾讯科技(深圳)有限公司 缓存管理方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN104507124A (zh) 一种基站缓存的管理方法及用户访问的处理方法
Tran et al. Cooperative hierarchical caching in 5G cloud radio access networks
CN104683485B (zh) 一种基于c‑ran的互联网内容缓存预加载方法和***
US8355384B2 (en) System and method of handover in wireless network
WO2018120802A1 (zh) 协同内容缓存控制***和方法
CN103781115B (zh) 一种蜂窝网络中基于传输代价的分布式基站缓存替换方法
Sinky et al. Responsive content-centric delivery in large urban communication networks: A LinkNYC use-case
Zheng et al. 5G network-oriented hierarchical distributed cloud computing system resource optimization scheduling and allocation
CN108541025B (zh) 一种面向无线异构网络的基站与d2d共同缓存方法
Sun et al. QoE driven BS clustering and multicast beamforming in cache-enabled C-RANs
Jiang et al. Cooperative content distribution for 5G systems based on distributed cloud service network
Gür Energy-aware cache management at the wireless network edge for information-centric operation
CN108449388A (zh) 一种多节点设备闲置带宽聚合利用方法及***
CN106686399A (zh) 一种基于联合缓存架构的网络内视频缓存方法
Kottursamy et al. Optimized D-RAN aware data retrieval for 5G information centric networks
Alduayji et al. PF-EdgeCache: Popularity and freshness aware edge caching scheme for NDN/IoT networks
Reshadinezhad et al. An efficient adaptive cache management scheme for named data networks
Tang et al. A user‐centric cooperative edge caching scheme for minimizing delay in 5G content delivery networks
Xu et al. Social-aware D2D caching content deployment strategy over edge computing wireless networks
Guo et al. Joint optimization of caching and routing strategies in content delivery networks: A big data case
CN106487923B (zh) 可配置的移动终端协作缓存方法
CN113766540B (zh) 低时延的网络内容传输方法、装置、电子设备及介质
CN113709853B (zh) 面向云边协同的网络内容传输方法、装置及存储介质
Zheng et al. Game theoretic approaches to massive data processing in wireless networks
Zhang et al. A cooperation-driven ICN-based caching scheme for mobile content chunk delivery at RAN

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20150408

RJ01 Rejection of invention patent application after publication