JP2003085032A - Self-organizing cache method and cache server capable of utilizing the method - Google Patents

Self-organizing cache method and cache server capable of utilizing the method

Info

Publication number
JP2003085032A
JP2003085032A JP2001273991A JP2001273991A JP2003085032A JP 2003085032 A JP2003085032 A JP 2003085032A JP 2001273991 A JP2001273991 A JP 2001273991A JP 2001273991 A JP2001273991 A JP 2001273991A JP 2003085032 A JP2003085032 A JP 2003085032A
Authority
JP
Japan
Prior art keywords
cache
content
data
server
buffer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001273991A
Other languages
Japanese (ja)
Inventor
Michimitsu Hattori
進実 服部
Minoru Nakazawa
実 中沢
Takashi Kobayashi
小林  孝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kanazawa Institute of Technology (KIT)
Alpha Systems KK
Original Assignee
Kanazawa Institute of Technology (KIT)
Alpha Systems KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kanazawa Institute of Technology (KIT), Alpha Systems KK filed Critical Kanazawa Institute of Technology (KIT)
Priority to JP2001273991A priority Critical patent/JP2003085032A/en
Publication of JP2003085032A publication Critical patent/JP2003085032A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To solve the problem that a cache of contents is difficult to be dispersedly arranged in consideration of a network load. SOLUTION: A retrieval part 20 of a cache server 18 retrieves the cache of the contents required from a contents receiver 14 from an LRU buffer 22, takes out the hit cache data from a contents cache storage part 28, and transmits the data to the contents receiver 14. A movement control part 26 takes out a cache entry 23a having a high access frequency from the head of the LRU buffer 22, moves it to another cache server 18 placed in the downstream near the contents receiver 14, takes out a cache entry 23n having a low access frequency from the tail of the LRU buffer 22, and moves it to a cache server 18 placed in the upstream near a contents provider.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明はコンテンツをキャ
ッシュする技術、とくにネットワークノードにキャッシ
ュを分散させる自己組織化キャッシュ方法、およびその
方法を利用可能なキャッシュサーバに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for caching contents, and more particularly to a self-organizing cache method for distributing caches to network nodes, and a cache server that can use the method.

【0002】[0002]

【従来の技術】インターネットにおける情報コンテンツ
の配信、特に映像メディアを中心としたストリーミング
配信のように、多くの利用者に同一の情報コンテンツを
配信するサービスや、個人ユーザがコンテンツを発信し
て交換するピア・ツウ・ピアのネットワークサービスの
利用が進んでいる。今後、ブロードバンドのネットワー
クが普及するにつれて、動画像を含むコンテンツの流通
がますます盛んになると思われる。
2. Description of the Related Art A service for distributing the same information content to many users, such as distribution of information content on the Internet, especially streaming distribution centering on video media, and individual users transmitting and exchanging content. The use of peer-to-peer network services is increasing. With the spread of broadband networks in the future, the distribution of contents including moving images will become more and more popular.

【0003】ネットワークを利用してコンテンツの配信
をする際、サーバやルータの処理能力、通信回線の帯域
幅などに制限があるため、処理性能を確保する目的で、
キャッシュサーバをネットワーク上に設け、一時的にサ
ーバのコンテンツを保持することが一般に行われてい
る。コンテンツレシーバがコンテンツプロバイダにアク
セスしてコンテンツを取得したとき、キャッシュサーバ
にそのコンテンツのキャッシュデータが保持され、再度
同じコンテンツがアクセスされる際に、そのキャッシュ
データが代わりに利用される。これによりサーバやルー
タにかかる負荷を軽減し、ネットワークトラフィックを
削減して、ネットワークリソースの利用効率を向上させ
るとともに、サービスの応答時間の改善を図ることがで
きる。
When contents are distributed using a network, the processing capacity of servers and routers and the bandwidth of communication lines are limited.
It is generally practiced to provide a cache server on the network and temporarily hold the contents of the server. When the content receiver accesses the content provider to acquire the content, the cache data of the content is held in the cache server, and when the same content is accessed again, the cache data is used instead. As a result, it is possible to reduce the load on the server or router, reduce network traffic, improve the utilization efficiency of network resources, and improve the response time of services.

【0004】[0004]

【発明が解決しようとする課題】従来のキャッシュサー
バはネットワークのトラフィックの状態を制御するもの
ではなく、ユーザまたはネットワーク管理者がネットワ
ーク上に分散したキャッシュサーバのいずれを使用する
かを手動で設定してキャッシュの有効利用を図る必要が
あった。ネットワーク管理者ならトラフィックを計測し
て、使用すべきキャッシュサーバを選択することもでき
るが、一般ユーザはネットワークのトラフィックの状態
を知ることは困難である。そのため、ネットワークの輻
輳やキャッシュサーバの負荷とは無関係に、コンテンツ
レシーバが利用するキャッシュサーバが固定的に指定さ
れる状況が生まれ、特定のキャッシュサーバに負荷がか
かったり、一個所にネットワークトラフィックが集中す
るなどにより、コンテンツのキャッシュが有効に利用さ
れず、性能改善につながらないという問題があった。
The conventional cache server does not control the state of network traffic, but a user or a network administrator manually sets whether to use a cache server distributed on the network. It was necessary to make effective use of the cache. A network administrator can measure traffic and select a cache server to use, but it is difficult for general users to know the state of network traffic. Therefore, regardless of network congestion or load on the cache server, a situation occurs in which the cache server used by the content receiver is fixedly specified, and the load is applied to a specific cache server or network traffic is concentrated at one location. However, there is a problem that the content cache is not used effectively, which does not lead to performance improvement.

【0005】本発明はこうした状況に鑑みてなされたも
のであり、その目的は、ネットワーク上のキャッシュサ
ーバにコンテンツのキャッシュデータを分散配置するこ
とのできる自己組織化キャッシュ方法、およびその方法
を利用可能なキャッシュサーバのネットワークを提供す
ることにある。
The present invention has been made in view of the above circumstances, and an object thereof is to utilize a self-organizing cache method capable of disposing cache data of contents in cache servers on a network in a distributed manner. To provide a network of cache servers.

【0006】[0006]

【課題を解決するための手段】本発明のある態様は自己
組織化キャッシュ方法に関する。この方法は、コンテン
ツをキャッシュするキャッシュサーバのキャッシュバッ
ファからアクセス頻度の高いキャッシュデータを取り出
し、そのキャッシュデータをコンテンツレシーバに近い
下流方向のキャッシュサーバのキャッシュバッファに移
動させる。前記キャッシュサーバのキャッシュバッファ
からアクセス頻度の低いキャッシュデータを取り出し、
そのキャッシュデータをコンテンツプロバイダに近い上
流方向のキャッシュサーバのキャッシュバッファに移動
させてもよい。
One aspect of the present invention relates to a self-organizing cache method. This method fetches frequently accessed cache data from a cache buffer of a cache server that caches content, and moves the cache data to a cache buffer of a cache server in the downstream direction near the content receiver. Fetching infrequently accessed cache data from the cache buffer of the cache server,
The cache data may be moved to the cache buffer of the upstream cache server near the content provider.

【0007】コンテンツプロバイダは、映像を含むコン
テンツをユーザに提供するWebサーバやデータベース
サーバなどであり、コンテンツレシーバは、サーバから
コンテンツを受信して利用するユーザ端末、またはその
ユーザ端末が属するネットワークにおいてユーザ端末を
代理するプロキシサーバなどである。コンテンツプロバ
イダからコンテンツレシーバまでのネットワーク経路上
のネットワークノードにコンテンツのキャッシュデータ
を保持するキャッシュサーバが構築される。キャッシュ
サーバは経路上にあるネットワークノードのうち少なく
とも一つに設けられる。ネットワーク経路上でコンテン
ツプロバイダに近づく方向を上流と呼び、コンテンツレ
シーバに近づく方向を下流と呼ぶ。ネットワークノード
は、通信データの中継と経路制御を行うルータなどのネ
ットワーク機器であり、キャッシュサーバはネットワー
ク機器に外付けされる形態でも、ネットワーク機器の機
能の一つとしてネットワーク機器内部に実装される形態
でもよい。
[0007] The content provider is a Web server or a database server that provides the user with content including video. The content receiver is a user terminal that receives and uses the content from the server, or a user in the network to which the user terminal belongs. For example, a proxy server that represents the terminal. A cache server that holds cache data of content is constructed in a network node on the network path from the content provider to the content receiver. The cache server is provided in at least one of the network nodes on the route. The direction closer to the content provider on the network path is called upstream, and the direction closer to the content receiver is called downstream. A network node is a network device such as a router that relays communication data and controls a route. Even if the cache server is externally attached to the network device, it is installed inside the network device as one of the functions of the network device. But it's okay.

【0008】キャッシュサーバは、コンテンツのキャッ
シュをキャッシュバッファにおいて管理する。キャッシ
ュデータのアクセス頻度とは、キャッシュデータのアク
セスの頻度を何らかの尺度で評価した値であり、たとえ
ばキャッシュサーバのキャッシュの全アクセス数に対す
る当該キャッシュデータのアクセス数の割合で与えられ
る。キャッシュバッファのキューのヘッド部にあるエン
トリまたはヘッド部に近いエントリから下流に移動させ
るべきキャッシュデータを選んでもよい。また上流に移
動させるキャッシュデータはキューのテイル部またはテ
イル部に近いエントリから選んでもよい。
The cache server manages a cache of contents in a cache buffer. The cache data access frequency is a value obtained by evaluating the cache data access frequency by some measure, and is given, for example, as a ratio of the cache data access count to the total cache cache access count of the cache server. The cache data to be moved downstream may be selected from the entry in the head portion of the queue of the cache buffer or the entry near the head portion. The cache data to be moved upstream may be selected from the tail part of the queue or an entry near the tail part.

【0009】このようにキャッシュデータを移動させる
ことにより、アクセス頻度の高いコンテンツをネットワ
ーク経路上でコンテンツレシーバに近い下流のネットワ
ークノードにキャッシュさせることができ、コンテンツ
への応答時間を短縮し、ネットワークの上流部分のネッ
トワークノードの負荷、トラフィック量を抑える効果を
奏する。またキャッシュデータを他のキャッシュサーバ
に移動させることでコンテンツのキャッシュの分散を図
ることができ、一つのキャッシュサーバの蓄積容量の消
費を抑えるとともに、特定のキャッシュサーバに負荷が
集中するのを防ぐことができる。
By moving the cache data in this way, the frequently accessed contents can be cached in the downstream network node close to the contents receiver on the network path, and the response time to the contents can be shortened and the network This has the effect of suppressing the load on the upstream network node and the amount of traffic. Also, by moving the cache data to other cache servers, it is possible to distribute the cache of the contents, suppress the consumption of the storage capacity of one cache server, and prevent the load from being concentrated on a specific cache server. You can

【0010】キャッシュデータを移動させる際、アクセ
ス頻度の他、キャッシュされたコンテンツの更新頻度を
用いてもよく、コンテンツの更新頻度に応じて前記キャ
ッシュデータの移動を調整してもよい。ここでコンテン
ツの更新頻度とは、コンテンツがコンテンツプロバイダ
により変更される頻度を何らかの尺度で評価した値であ
り、たとえば一定時間における当該コンテンツに対する
コンテンツプロバイダによる変更回数である。
When moving the cache data, the update frequency of the cached contents may be used in addition to the access frequency, and the movement of the cache data may be adjusted according to the update frequency of the contents. Here, the update frequency of the content is a value obtained by evaluating the frequency with which the content is changed by the content provider by some scale, and is, for example, the number of times the content provider has changed the content over a certain period of time.

【0011】たとえばアクセス頻度と更新頻度を組み合
わせて、アクセス頻度が高くても更新頻度が高い場合に
はキャッシュデータを下流に移動させるのを制限しても
よい。これにより、アクセス回数が多く、更新の頻度が
低いコンテンツが下流のキャッシュサーバにキャッシュ
されるようになり、キャッシュデータの移動をきめ細か
く制御して、キャッシュの効率を上げることができる。
For example, the access frequency and the update frequency may be combined to restrict the movement of the cache data downstream if the access frequency is high but the update frequency is high. As a result, the content that is accessed frequently and updated infrequently is cached in the downstream cache server, and the movement of cache data can be finely controlled to improve the cache efficiency.

【0012】また前記キャッシュサーバのキャッシュバ
ッファから更新頻度の高いコンテンツのキャッシュデー
タを取り出し、そのキャッシュデータをコンテンツプロ
バイダに近い上流方向のキャッシュサーバのキャッシュ
バッファに移動させてもよい。キャッシュされたコンテ
ンツが所定の参照回数だけ参照されるまで、そのキャッ
シュデータの下流方向への移動を制限し、そのコンテン
ツが更新された場合、更新されたコンテンツのキャッシ
ュデータについて前記参照回数のカウンタをゼロにリセ
ットしてもよい。
It is also possible to take out the cache data of the frequently updated content from the cache buffer of the cache server and move the cache data to the cache buffer of the cache server in the upstream direction close to the content provider. Until the cached content is referenced a predetermined number of times, the movement of the cache data in the downstream direction is restricted, and when the content is updated, a counter of the number of times of reference for the cached data of the updated content is set. May be reset to zero.

【0013】さらに別のキャッシュの移動制御方法とし
て、キャッシュされたコンテンツの蓄積容量や滞留時間
にもとづいて前記キャッシュデータの移動を調整しても
よい。
As yet another cache movement control method, the movement of the cache data may be adjusted based on the storage capacity and the retention time of the cached contents.

【0014】蓄積容量とは、コンテンツのキャッシュデ
ータのサイズに関する値であり、たとえばコンテンツプ
ロバイダに格納されている状態でのコンテンツの元デー
タのサイズであってもよく、キャッシュサーバにおいて
キャッシュされた状態において、そのキャッシュサーバ
のキャッシュの全容量に対するコンテンツのキャッシュ
データのデータ量の割合であってもよい。特に映像にお
いては、コンテンツプロバイダにおいて格納されている
データ容量に限らず、ネットワークの必要帯域に通信時
間を乗じた値で蓄積容量を定義することもできる。キャ
ッシュデータの移動を行う際、蓄積容量を考慮して、蓄
積容量が大きいほど積極的に下流方向に移動させること
により、キャッシュサーバのキャッシュ容量を最適化
し、検索のヒット率を高くするとともに、上流でのネッ
トワークトラフィックを軽減する効果が得られる。
The storage capacity is a value related to the size of the cache data of the content, and may be the size of the original data of the content stored in the content provider, for example, in the cached state in the cache server. It may be the ratio of the data amount of the cache data of the content to the total capacity of the cache of the cache server. Particularly in the case of video, the storage capacity can be defined by a value obtained by multiplying the required bandwidth of the network by the communication time, not limited to the data capacity stored in the content provider. When moving the cache data, considering the storage capacity, the larger the storage capacity, the more aggressively it moves in the downstream direction, thereby optimizing the cache capacity of the cache server and increasing the hit rate of the search, as well as the upstream. It has the effect of reducing network traffic in.

【0015】滞留時間とは、コンテンツのキャッシュデ
ータの有効期限を表す数値である。たとえばコンテンツ
が明日の天気予想図の画像であるとしたら、コンテンツ
のキャッシュは次の日には無効にしなければならないか
ら、滞留時間は1日に定められる。滞留時間が長いキャ
ッシュデータは積極的に下流のキャッシュサーバに移動
させ、滞留時間が短いキャッシュデータは、下流への移
動を制限することができる。前述の蓄積容量にこの滞留
時間を掛け合わせた値をキャッシュデータの移動制御の
際の評価に用いてもよい。これにより期限的な要素も含
めたキャッシュデータの移動が可能となる。
The retention time is a numerical value indicating the expiration date of cache data of content. For example, if the content is an image of a weather forecast for tomorrow, the content cache must be invalidated the next day, so the dwell time is set to one day. Cache data with a long residence time can be positively moved to a downstream cache server, and cache data with a short residence time can be restricted from moving downstream. A value obtained by multiplying the above-mentioned storage capacity by this residence time may be used for evaluation when controlling the movement of cache data. As a result, it becomes possible to move cached data including deadline elements.

【0016】ネットワークアドレスに応じて複数のキャ
ッシュバッファを設け、前記コンテンツレシーバの属す
るネットワークアドレスに対応するキャッシュバッファ
から前記キャッシュデータを取り出し、そのキャッシュ
データをそのネットワークアドレスに属するキャッシュ
サーバのキャッシュバッファに移動させてもよい。すな
わちキャッシュすべきコンテンツに対して、そのコンテ
ンツの要求元のコンテンツレシーバのネットワークアド
レスをキーとして、複数のバッファに分配される。これ
によりコンテンツに対してどのネットワーク領域からの
アクセスが頻繁であるかを評価した上で、コンテンツの
キャッシュデータの移動先のキャッシュサーバを決める
ことができる。
A plurality of cache buffers are provided according to the network address, the cache data is taken out from the cache buffer corresponding to the network address to which the content receiver belongs, and the cache data is moved to the cache buffer of the cache server belonging to the network address. You may let me. That is, the content to be cached is distributed to a plurality of buffers using the network address of the content receiver that requested the content as a key. This makes it possible to determine the cache server to which the cache data of the content is moved after evaluating which network area frequently accesses the content.

【0017】キャッシュデータは複数のキャッシュサー
バに同時に移動させてもよく、キャッシュされたコンテ
ンツに対するアクセス頻度によって同時に移動させる際
のキャッシュサーバの数を調整してもよい。特にコンテ
ンツに対するアクセス頻度が高い場合、複数のキャッシ
ュサーバにそのコンテンツのキャッシュデータを移動さ
せることで、キャッシュサーバに対するアクセスの集中
を避けることができる。また移動先のキャッシュサーバ
を決める際、コンテンツレシーバの属するネットワーク
アドレスを参照してもよい。
The cache data may be moved to a plurality of cache servers at the same time, and the number of cache servers to be moved at the same time may be adjusted depending on the access frequency to the cached contents. Particularly when the access frequency to the content is high, it is possible to avoid the concentration of access to the cache server by moving the cache data of the content to a plurality of cache servers. Further, when determining the cache server of the moving destination, the network address to which the content receiver belongs may be referred to.

【0018】本発明の別の態様はキャッシュサーバに関
する。このキャッシュサーバは、コンテンツプロバイダ
により提供され、コンテンツレシーバにより利用される
コンテンツをキャッシュして保持する記憶部と、前記コ
ンテンツのキャッシュエントリに前記コンテンツのアク
セス頻度の評価データを含め、そのキャッシュエントリ
のキュー管理を行うキャッシュバッファと、前記評価デ
ータを基準にして前記キャッシュバッファ内の前記キュ
ーを検索して、キャッシュデータを抽出する検索部と、
前記抽出されたキャッシュデータを、前記プロバイダか
ら前記レシーバまでのネットワーク経路上の他のキャッ
シュサーバに移動させる移動制御部とを含む。
Another aspect of the present invention relates to a cache server. The cache server includes a storage unit that is provided by a content provider and that caches and holds content used by a content receiver, and a cache entry queue that includes evaluation data of the access frequency of the content in a cache entry of the content. A cache buffer for management, a search unit for searching the queue in the cache buffer based on the evaluation data, and extracting cache data,
A migration control unit that migrates the extracted cache data to another cache server on the network path from the provider to the receiver.

【0019】前記キャッシュバッファは、前記評価デー
タに前記コンテンツの更新頻度、蓄積容量、および滞留
時間の少なくとも一つをさらに含めて管理してもよく、
前記移動制御部はこれらの評価データを適宜参照してキ
ャッシュデータの移動制御を行ってもよい。前記キャッ
シュバッファは、前記コンテンツのアクセス頻度、更新
頻度、蓄積容量、および滞留時間の少なくとも一つの評
価データによりキャッシュエントリがソートされるキュ
ー構造をもち、前記移動制御部は前記キューのヘッド部
またはテイル部からキャッシュデータを抽出し、前記他
のキャッシュサーバに移動させてもよい。
The cache buffer may manage the evaluation data by further including at least one of the content update frequency, the storage capacity, and the retention time.
The movement control unit may control movement of cache data by appropriately referring to these evaluation data. The cache buffer has a queue structure in which cache entries are sorted according to at least one evaluation data of an access frequency, an update frequency, a storage capacity, and a retention time of the content, and the movement control unit is a head unit or a tail of the queue. Cache data may be extracted from a copy and moved to the other cache server.

【0020】前記キャッシュバッファは、前記レシーバ
のネットワークアドレスに応じて複数のバッファに分割
され、前記検索部は前記レシーバの属するネットワーク
アドレスに対応するキャッシュバッファから前記キャッ
シュデータを抽出し、前記移動制御部は、そのキャッシ
ュデータを対応するネットワークアドレスに属するキャ
ッシュサーバに移動させてもよい。
The cache buffer is divided into a plurality of buffers according to the network address of the receiver, the search unit extracts the cache data from the cache buffer corresponding to the network address to which the receiver belongs, and the movement control unit. May move the cache data to the cache server belonging to the corresponding network address.

【0021】なお、以上の構成要素の任意の組合せ、本
発明の表現を方法、装置、サーバ、システム、コンピュ
ータプログラム、記録媒体などの間で変換したものもま
た、本発明の態様として有効である。
It is to be noted that any combination of the above constituent elements, and the expression of the present invention converted between a method, an apparatus, a server, a system, a computer program, a recording medium, etc. are also effective as an aspect of the present invention. .

【0022】[0022]

【発明の実施の形態】図1は、第1の実施の形態に係る
キャッシュサーバシステムの構成図である。コンテンツ
プロバイダ10はコンテンツをユーザに提供するサーバ
である。コンテンツレシーバ14はインターネット16
を介してコンテンツプロバイダ10が提供するコンテン
ツを受信して利用するユーザの端末である。インターネ
ット16には複数のネットワークノード12が含まれ、
コンテンツプロバイダ10からコンテンツレシーバ14
へ提供されるコンテンツのデータを中継するルータとし
て機能する。さらにネットワークノード12にはキャッ
シュサーバ18が設けられ、中継されるコンテンツのデ
ータを一時的にキャッシュすることができる。キャッシ
ュサーバ18は、ネットワークノード12内に設けられ
てもよく、ネットワークノード12の外側に付属しても
よい。
1 is a block diagram of a cache server system according to a first embodiment. The content provider 10 is a server that provides content to users. The content receiver 14 is the Internet 16
It is a terminal of a user who receives and uses the content provided by the content provider 10 via. The Internet 16 includes a plurality of network nodes 12,
Content provider 10 to content receiver 14
It functions as a router that relays the content data provided to the. Further, the network node 12 is provided with a cache server 18, which can temporarily cache the data of the content to be relayed. The cache server 18 may be provided inside the network node 12 or may be attached outside the network node 12.

【0023】図2にコンテンツプロバイダ10からコン
テンツレシーバ14までのネットワーク経路を示す。ネ
ットワーク経路上に、コンテンツプロバイダ10に近い
方から、3つのネットワークノードA12a、ネットワ
ークノードB12b、ネットワークノードC12c(こ
れらを総称する場合ネットワークノード12とよぶ)
と、それらの各々に付属する3つのキャッシュサーバA
18a、キャッシュサーバB18b、キャッシュサーバ
C18c(これらを総称する場合キャッシュサーバ18
とよぶ)がある。コンテンツプロバイダ10に近い方を
上流とよび、コンテンツレシーバ14に近い方を下流と
よぶ。
FIG. 2 shows a network path from the content provider 10 to the content receiver 14. Three network nodes A12a, network nodes B12b, and network nodes C12c from the side closer to the content provider 10 on the network path (these are collectively referred to as the network node 12).
And three cache servers A attached to each of them
18a, cache server B18b, cache server C18c (when these are collectively referred to as cache server 18
There is). One closer to the content provider 10 is called upstream, and one closer to the content receiver 14 is called downstream.

【0024】コンテンツのキャッシュデータはネットワ
ーク経路上のいずれのキャッシュサーバ18に保持され
てもよいが、当然コンテンツレシーバ14に近い方が応
答時間が短くなるという利点がある。しかしながらキャ
ッシュデータを下流方向のキャッシュサーバ18だけに
保持すると、そのキャッシュサーバ18にアクセスが集
中し、かえって応答時間が悪化してしまう。そこでキャ
ッシュデータをネットワーク経路上の複数のキャッシュ
サーバ18に分散させることが必要となる。
The cache data of the content may be held in any cache server 18 on the network route, but naturally the one closer to the content receiver 14 has the advantage of shorter response time. However, if the cache data is held only in the cache server 18 in the downstream direction, the access will be concentrated in the cache server 18 and the response time will be worsened. Therefore, it is necessary to distribute the cache data to a plurality of cache servers 18 on the network route.

【0025】図3は、キャッシュサーバ18の構成図で
ある。この構成は、ハードウエア的には、任意のコンピ
ュータのCPU、メモリ、その他のLSIで実現でき、
ソフトウエア的にはメモリにロードされた自己組織化キ
ャッシュ機能のあるプログラムなどによって実現される
が、ここではそれらの連携によって実現される機能ブロ
ックを描いている。したがって、これらの機能ブロック
がハードウエアのみ、ソフトウエアのみ、またはそれら
の組合せによっていろいろな形で実現できることは、当
業者には理解されるところである。
FIG. 3 is a block diagram of the cache server 18. In terms of hardware, this configuration can be realized by a CPU, memory, or other LSI of any computer,
In terms of software, it is realized by a program having a self-organizing cache function loaded in the memory, but here, the functional blocks realized by their cooperation are depicted. Therefore, it will be understood by those skilled in the art that these functional blocks can be realized in various forms by only hardware, only software, or a combination thereof.

【0026】キャッシュサーバ18には、LRUバッフ
ァ22が設けられ、LRU(LeastRecent Used)方式で
キュー24にコンテンツのキャッシュエントリ23a、
23b、・・・、23n(これらを総称する場合キャッ
シュエントリ23とよぶ)がキューイングされる。キャ
ッシュエントリ23のデータ構造は後に説明するが、キ
ャッシュエントリ23にはコンテンツデータへのポイン
タが含まれ、コンテンツのキャッシュデータそのものは
大容量記憶装置であるコンテンツキャッシュ記憶部28
に記憶される。
The cache server 18 is provided with an LRU buffer 22, and a cache entry 23a of contents in the queue 24 by the LRU (Least Recent Used) method.
23b, ..., 23n (collectively referred to as cache entry 23) are queued. Although the data structure of the cache entry 23 will be described later, the cache entry 23 includes a pointer to the content data, and the content cache data itself is a content cache storage unit 28 that is a mass storage device.
Memorized in.

【0027】検索部20は、コンテンツレシーバ14か
ら要求のあったコンテンツについて、LRUバッファ2
2のキュー24を先頭から検索して、キャッシュされて
いるかどうかを調べる。コンテンツを識別するためにコ
ンテンツプロバイダ10における格納場所を示すURL
が用いられる。キャッシュにヒットした場合、検索部2
0はコンテンツのキャッシュデータをコンテンツキャッ
シュ記憶部28から取り出し、インターネット16を介
してコンテンツレシーバ14へ送信する。
The search unit 20 searches the LRU buffer 2 for the content requested by the content receiver 14.
The second queue 24 is searched from the beginning to check whether it is cached. URL indicating the storage location in the content provider 10 for identifying the content
Is used. If there is a cache hit, search unit 2
0 retrieves the cache data of the content from the content cache storage unit 28 and transmits it to the content receiver 14 via the Internet 16.

【0028】移動制御部26は、LRUバッファ22の
キュー24のヘッダ部またはテイル部にあるキャッシュ
エントリ23をコンテンツキャッシュ記憶部28に格納
されたコンテンツのキャッシュデータとともに、ネット
ワーク経路上の他のキャッシュサーバ18に移動させ
る。また移動制御部26は後述の評価データにもとづい
てLRUバッファ22のキュー24から移動対象のキャ
ッシュエントリ23を選択することもできる。さらに移
動制御部26は他のキャッシュサーバ18から送信され
たキャッシュデータを受け取り、新たなキャッシュエン
トリとしてLRUバッファ22に追加するとともに、コ
ンテンツのキャッシュデータをコンテンツキャッシュ記
憶部28に記憶する。
The movement control unit 26 stores the cache entry 23 in the header portion or tail portion of the queue 24 of the LRU buffer 22 together with the cache data of the content stored in the content cache storage unit 28 and another cache server on the network path. Move to 18. The migration controller 26 can also select the cache entry 23 to be migrated from the queue 24 of the LRU buffer 22 based on the evaluation data described later. Further, the movement control unit 26 receives the cache data transmitted from another cache server 18, adds the cache data to the LRU buffer 22 as a new cache entry, and stores the cache data of the content in the content cache storage unit 28.

【0029】図4は、キャッシュエントリ23のデータ
構造を説明する図である。PrevRoute30とN
extRoute32はそれぞれ、コンテンツの配信経
路上のすぐ前、すぐ後のネットワークノード12のアド
レスである。
FIG. 4 is a diagram for explaining the data structure of the cache entry 23. PrevRoute30 and N
The extRoute 32 is the address of the network node 12 immediately before and after the content distribution route, respectively.

【0030】アクセス頻度34は、キャッシュデータが
アクセスされる頻度を示すデータであり、キャッシュサ
ーバ18のLRUバッファ22のキャッシュエントリ2
3に対する総アクセス数に対する当該キャッシュデータ
のアクセス数の割合である。アクセスカウンタ35は、
コンテンツのキャッシュデータのアクセス回数のカウン
タである。更新頻度36は、キャッシュされたコンテン
ツがコンテンツプロバイダ10において更新される頻度
を示すデータであり、一定時間における当該コンテンツ
に対するコンテンツプロバイダによる変更回数である。
The access frequency 34 is data indicating the frequency with which the cache data is accessed, and is the cache entry 2 of the LRU buffer 22 of the cache server 18.
3 is the ratio of the number of accesses of the cache data to the total number of accesses to 3. The access counter 35 is
It is a counter of the number of times the cache data of the content is accessed. The update frequency 36 is data indicating the frequency with which the cached content is updated in the content provider 10, and is the number of times the content provider has changed the content over a certain period of time.

【0031】蓄積容量38は、コンテンツのキャッシュ
データのサイズに関する数値であり、キャッシュサーバ
18のLRUバッファ22の全容量に対する当該キャッ
シュデータのデータ量の割合であり、特に映像のコンテ
ンツの場合にはネットワークの必要帯域に通信時間を乗
じた値を用いる。滞留時間40は、コンテンツのキャッ
シュデータがネットワークに滞留してよい時間、すなわ
ち有効期限に達するまでの時間を表す数値である。たと
えば日数や時間などで設定される。
The storage capacity 38 is a numerical value related to the size of the cache data of the content, and is the ratio of the data amount of the cache data to the total capacity of the LRU buffer 22 of the cache server 18, and particularly in the case of video content, the network capacity. A value obtained by multiplying the required bandwidth of by the communication time is used. The retention time 40 is a numerical value that represents the time during which the cached data of the content may remain in the network, that is, the time until the expiration date is reached. For example, it is set by the number of days or time.

【0032】コンテンツレシーバのネットワークアドレ
ス42は、このコンテンツを参照したコンテンツレシー
バ14のネットワークアドレスである。コンテンツポイ
ンタ44は、キャッシュされたコンテンツのデータその
ものへのポインタであり、コンテンツキャッシュ記憶部
28に格納されたコンテンツデータを指す。
The content receiver network address 42 is the network address of the content receiver 14 that referred to this content. The content pointer 44 is a pointer to the data of the cached content itself, and points to the content data stored in the content cache storage unit 28.

【0033】移動制御部26は、基本的には、LRUバ
ッファ22のヘッダ部にあるキャッシュエントリ23を
下流のキャッシュサーバ18に移動させ、LRUバッフ
ァ22のテイル部にあるキャッシュエントリ23を上流
のキャッシュサーバ18に移動させる。LRU方式は、
最後に参照されてからの経過時間が最も長いキャッシュ
エントリ23から先に追い出す方式であり、最近にアク
セスされたキャッシュエントリ23がキュー24の先頭
に動かされる。キュー24の順序は、厳密にはアクセス
頻度34の順にはならないが、アクセス頻度34の低い
キャッシュのエントリは、キュー24の後尾に送り出さ
れて追い出されることになるため、キュー24の順序
は、アクセス頻度をある程度反映したものとなる。
The migration control unit 26 basically moves the cache entry 23 in the header of the LRU buffer 22 to the downstream cache server 18, and the cache entry 23 in the tail of the LRU buffer 22 to the upstream cache. Move to server 18. The LRU method is
This is a method of expelling the cache entry 23 having the longest elapsed time since the last reference, and the cache entry 23 that has been recently accessed is moved to the head of the queue 24. Although the order of the queue 24 is not strictly the order of the access frequency 34, the entry of the cache with the low access frequency 34 is sent to the tail of the queue 24 and is expelled, so the order of the queue 24 is It reflects the frequency to some extent.

【0034】さらに移動制御部26は、キャッシュデー
タの移動制御をよりきめ細かく行うために、移動対象の
キャッシュデータの選択基準として、アクセス頻度3
4、更新頻度36、蓄積容量38、および滞留時間40
の各評価データの組合せを用いることができる。LRU
バッファ22のヘッド部には直近にアクセスされたキャ
ッシュエントリ23が存在するが、これが必ずしもアク
セス頻度34が最も高いエントリとは限らない。そこで
移動制御部26は、LRUバッファ22のヘッド部から
始めて順にキャッシュエントリ23を検索して、アクセ
ス頻度34が高いキャッシュエントリ23を選択して、
そのキャッシュエントリ23を下流に移動させてもよ
い。
Further, the movement control unit 26 uses the access frequency 3 as a criterion for selecting the cache data to be moved in order to perform the movement control of the cache data more finely.
4, update frequency 36, storage capacity 38, and residence time 40
It is possible to use a combination of each evaluation data of. LRU
Although the most recently accessed cache entry 23 exists in the head part of the buffer 22, this is not always the entry with the highest access frequency 34. Therefore, the migration control unit 26 sequentially searches the cache entries 23 starting from the head of the LRU buffer 22 and selects the cache entry 23 with a high access frequency 34,
The cache entry 23 may be moved downstream.

【0035】移動制御部26はさらに更新頻度36を選
択基準に用いて、アクセス頻度34が高くかつ更新頻度
36が低いキャッシュエントリ23をLRUバッファ2
2から選択してもよい。アクセス頻度34と更新頻度3
6の評価を組み合わせた移動制御を可能にするために、
コンテンツのキャッシュデータのアクセスカウンタ35
を用いて、次のようにキャッシュデータの移動を制御し
てもよい。
The movement control unit 26 further uses the update frequency 36 as a selection criterion, and sets the cache entry 23 having the high access frequency 34 and the low update frequency 36 to the LRU buffer 2.
You may select from two. Access frequency 34 and update frequency 3
In order to enable movement control combining the evaluations of 6,
Access counter 35 for content cache data
May be used to control the movement of cache data as follows.

【0036】まずコンテンツを最初にキャッシュするネ
ットワークノード12は、ネットワーク経路上にあるネ
ットワークノード12のうち、コンテンツプロバイダ1
0寄りの上流に位置するN個のノードとする。アクセス
上限回数Accをあらかじめ定めておく。移動制御部2
6は、キャッシュのアクセスカウンタ35がアクセス上
限回数Accに達するまで、キャッシュデータの移動を
制限し、最初のN個のネットワークノード12より下流
にキャッシュデータが伝搬しないようにする。
The network node 12 that first caches the content is the content provider 1 among the network nodes 12 on the network path.
It is assumed that there are N nodes located upstream of 0. The access upper limit number Acc is determined in advance. Movement control unit 2
No. 6 limits the movement of cache data until the cache access counter 35 reaches the access upper limit number Acc, and prevents the cache data from propagating downstream from the first N network nodes 12.

【0037】移動制御部26は、アクセス回数のカウン
タがアクセス上限回数Accに達すると、下流のネット
ワークノード12にキャッシュデータを移動させる。一
方、検索部20は、コンテンツの更新が行われると、キ
ャッシュを無効にするために、アクセスカウンタ35の
値をゼロにリセットし、キャッシュが無効となったこと
を経路上の他のネットワークノード12に通知する。
When the access count counter reaches the access upper limit count Acc, the migration controller 26 migrates cache data to the downstream network node 12. On the other hand, when the content is updated, the search unit 20 resets the value of the access counter 35 to zero in order to invalidate the cache, and notifies the other network node 12 on the route that the cache is invalid. To notify.

【0038】キャッシュデータに対するアクセス回数が
増えても、そのキャッシュデータがコンテンツの更新に
より無効になった場合は、アクセス回数のカウンタがゼ
ロにリセットされ、アクセス上限回数Accに達するま
で下流への移動が制限される。アクセス頻度だけでな
く、コンテンツの更新頻度も考慮してキャッシュデータ
の移動を制御することが可能となる。
Even if the number of accesses to the cache data increases, if the cache data becomes invalid due to the content update, the counter of the number of accesses is reset to zero, and the data is moved downstream until the access upper limit number Acc is reached. Limited. It is possible to control the movement of cache data in consideration of not only the access frequency but also the content update frequency.

【0039】さらに移動制御部26は、アクセス頻度3
4の他に、蓄積容量38と滞留時間40の積を評価値に
用いて移動対象のキャッシュデータを決めてもよい。移
動制御部26は、蓄積容量38と滞留時間40の積が大
きいキャッシュデータを積極的に下流に移動させ、蓄積
容量38と滞留時間40の積が小さいキャッシュデータ
については下流への移動を制限する。したがって蓄積容
量が大きく、かつ有効時間の長いキャッシュデータほど
下流に配置されるようになり、トラフィックの削減につ
ながる。もっとも移動制御部26は、蓄積容量38と滞
留時間40のいずれか一方のみを用いて移動対象のキャ
ッシュデータを決めてもよい。またアクセス頻度34、
蓄積容量38、滞留時間40の3つの値を加味した評価
値を用いてもよい。
Further, the movement control unit 26 determines that the access frequency is 3
Besides 4, the cache data to be moved may be determined by using the product of the storage capacity 38 and the residence time 40 as the evaluation value. The movement control unit 26 positively moves the cache data having a large product of the storage capacity 38 and the residence time 40 to the downstream, and restricts the movement of the cache data having a small product of the storage capacity 38 and the residence time 40 to the downstream. . Therefore, cache data having a large storage capacity and a long effective time will be placed downstream, leading to a reduction in traffic. However, the migration control unit 26 may determine the cache data to be migrated using only one of the storage capacity 38 and the retention time 40. Access frequency 34,
You may use the evaluation value which added the three values of storage capacity 38 and residence time 40.

【0040】LRUバッファ22は、基本的にはLRU
方式でキューイング制御をするが、キュー24のキャッ
シュエントリ23を上記の各種評価データもしくはそれ
らを組み合わせた評価値にもとづいてソートしてもよ
い。あらかじめ評価データにもとづいたソーティングが
なされていれば、移動制御部26は、単にLRUバッフ
ァ22のキュー24のヘッド部またはテイル部からキャ
ッシュエントリ23を選択するだけでよく、キャッシュ
データの選択処理を一元化することが可能となる。もっ
ともLRUバッファ22がキュー24を通常のLRU方
式のソーティングし、キャッシュデータの細かな移動制
御のために、アクセス頻度34、更新頻度36、蓄積容
量38、滞留時間40など他の評価データを用いてキャ
ッシュエントリ23を検索して選択する構成でもよい。
The LRU buffer 22 is basically an LRU.
Although the queuing control is performed by the method, the cache entries 23 of the queue 24 may be sorted based on the above-mentioned various evaluation data or an evaluation value obtained by combining them. If the sorting is performed based on the evaluation data in advance, the movement control unit 26 only needs to select the cache entry 23 from the head portion or tail portion of the queue 24 of the LRU buffer 22, and the cache data selection processing is unified. It becomes possible to do. However, the LRU buffer 22 sorts the queue 24 in a normal LRU manner, and uses other evaluation data such as the access frequency 34, the update frequency 36, the storage capacity 38, and the retention time 40 for fine movement control of cache data. The cache entry 23 may be searched and selected.

【0041】図5は、以上の構成によるキャッシュサー
バ18によるキャッシュ移動制御のシーケンス図であ
る。図2のネットワーク経路の例を用いて処理のシーケ
ンスを説明する。第1のコンテンツレシーバ14aから
のコンテンツの要求情報がネットワークノードB12b
に到着する(S10)。この要求情報はコンテンツのU
RLを含むものである。ネットワークノードB12bに
おいてキャッシュサーバB18bの検索部20がこの要
求情報にもとづいてキャッシュバッファを検索する。キ
ャッシュがヒットした場合、検索部20はキャッシュデ
ータを第1のコンテンツレシーバ14aに送信する(S
12)。また、第2のコンテンツレシーバ14bから同
一のコンテンツに対する要求情報がネットワークノード
B12bに到着し(S14)、キャッシュデータが返信
される(S16)。
FIG. 5 is a sequence diagram of cache movement control by the cache server 18 having the above configuration. The processing sequence will be described with reference to the example of the network route in FIG. The content request information from the first content receiver 14a is the network node B12b.
Arrive at (S10). This request information is the content U
It includes RL. The search unit 20 of the cache server B18b in the network node B12b searches the cache buffer based on this request information. When the cache hits, the search unit 20 transmits the cache data to the first content receiver 14a (S
12). Further, the request information for the same content arrives at the network node B 12b from the second content receiver 14b (S14), and the cache data is returned (S16).

【0042】キャッシュサーバB18bにおいてキャッ
シュがヒットしたとき、移動制御部26は、上述の評価
データを基準にLRUバッファ22のキャッシュデータ
の移動制御を行う。この移動制御により、キャッシュヒ
ットしたコンテンツが第1および第2のコンテンツレシ
ーバ14a、14bに近い下流のネットワークノードC
12cに移動する(S18)。次に第1のコンテンツレ
シーバ14aが同一のコンテンツに対する要求を送信す
ると(S20)、キャッシュデータが下流のネットワー
クノードC12cで取得されて、第1のコンテンツレシ
ーバ14aに送信される(S22)。
When the cache hits in the cache server B18b, the movement control unit 26 controls the movement of the cache data in the LRU buffer 22 based on the above-mentioned evaluation data. By this movement control, the cache hit content is located at the downstream network node C near the first and second content receivers 14a and 14b.
It moves to 12c (S18). Next, when the first content receiver 14a transmits a request for the same content (S20), cache data is acquired by the downstream network node C12c and transmitted to the first content receiver 14a (S22).

【0043】これ以降、このコンテンツにアクセスが起
きなかった場合、下流のネットワークノードC12cに
存在するキャッシュデータはLRUバッファ22のテイ
ル部に送り出され、移動制御部26により上流のネット
ワークノードB12bに移動する(S24)。さらにア
クセスが起きない状態が続いた場合、キャッシュデータ
はさらに上流のネットワークノードA12aに移動する
(S26)。
After that, when this content is not accessed, the cache data existing in the downstream network node C12c is sent to the tail portion of the LRU buffer 22 and moved to the upstream network node B12b by the movement control unit 26. (S24). If no access continues, the cache data moves to the further upstream network node A12a (S26).

【0044】この後、第1のコンテンツレシーバ14a
が同一コンテンツに対する要求情報をネットワークノー
ドB12bに送ると(S28)、キャッシュミスが起こ
り、要求情報は一つ上のネットワークノードA12aに
転送され(S30)、そのネットワークノードA12a
において、キャッシュがヒットし、キャッシュデータが
返信される(S32)。
After this, the first content receiver 14a
Sends the request information for the same content to the network node B12b (S28), a cache miss occurs, and the request information is transferred to the network node A12a one level higher (S30), and the network node A12a.
At, the cache is hit and the cache data is returned (S32).

【0045】図6は、第2の実施の形態に係るキャッシ
ュサーバ18の構成図である。第1の実施の形態とは異
なり、LRUバッファ22にはネットワークアドレスに
対応づけられた複数のキュー24a〜c(これらを総称
する場合キュー24とよぶ)が設けられる。3つのキュ
ー24a〜cはそれぞれ、3つのネットワークアドレス
netaddrA、netaddrB、netaddr
Cに対応する。LRUバッファ22はコンテンツをキャ
ッシュする際、そのコンテンツを要求したコンテンツレ
シーバ14が属するネットワークのネットワークアドレ
スにより、複数のキュー24a〜cからいずれかを選ん
で、キューイングする。ここでコンテンツレシーバ14
の属するネットワークのネットワークアドレスは、コン
テンツレシーバ14のIPアドレスの上位ビットから判
断することができる。
FIG. 6 is a block diagram of the cache server 18 according to the second embodiment. Unlike the first embodiment, the LRU buffer 22 is provided with a plurality of queues 24a to 24c associated with network addresses (collectively referred to as queues 24). Each of the three queues 24a to 24c has three network addresses netaddrA, netaddrB, netaddr.
Corresponds to C. When the content is cached, the LRU buffer 22 selects any one of the plurality of queues 24a to 24c for queuing according to the network address of the network to which the content receiver 14 that requested the content belongs. Here the content receiver 14
The network address of the network to which the user belongs can be determined from the upper bits of the IP address of the content receiver 14.

【0046】検索部20はコンテンツレシーバ14が要
求するコンテンツのキャッシュを検索する際、コンテン
ツレシーバ14のネットワークアドレスを参照して、そ
のネットワークアドレスに対応するキュー24からキャ
ッシュデータを検索する。
When searching the cache for the content requested by the content receiver 14, the search section 20 refers to the network address of the content receiver 14 and searches the cache data from the queue 24 corresponding to the network address.

【0047】移動制御部26は、検索部20によるキャ
ッシュヒットを契機にして、キャッシュヒットのあった
キュー24からキャッシュデータを取り出し、そのキュ
ー24に対応するネットワークアドレスのネットワーク
に属するキャッシュサーバ18にキャッシュデータを移
動させる。また移動制御部26は、複数のネットワーク
領域の各々に属するキャッシュサーバ18に同一のキャ
ッシュデータを移動させることもできる。
In response to the cache hit by the search unit 20, the movement control unit 26 extracts the cache data from the queue 24 having the cache hit, and caches the cache data in the cache server 18 belonging to the network of the network address corresponding to the queue 24. Move data. Further, the movement control unit 26 can also move the same cache data to the cache server 18 belonging to each of the plurality of network areas.

【0048】図7は、第2の実施の形態のキャッシュサ
ーバ18によるキャッシュ移動制御を説明する図であ
る。コンテンツプロバイダ10にはコンテンツA50と
コンテンツB52とが格納されている。第1のネットワ
ーク54に属するコンテンツレシーバ14がコンテンツ
A50にアクセスすると、上流から下流へ3つのネット
ワークノードA12a、ネットワークノードB12b、
ネットワークノードC12cを経由してコンテンツデー
タが中継され、これらのネットワークノード12a〜c
に付属するいずれかのキャッシュサーバ18a〜cにデ
ータがキャッシュされる。第1のネットワーク54に属
するコンテンツレシーバ14からのアクセスが増える
と、コンテンツA50のキャッシュデータは、ネットワ
ーク経路の上流から下流に移動する。
FIG. 7 is a diagram for explaining cache movement control by the cache server 18 according to the second embodiment. The content provider 10 stores content A50 and content B52. When the content receiver 14 belonging to the first network 54 accesses the content A50, three network nodes A12a, B12b, and
Content data is relayed via the network node C12c, and these network nodes 12a to 12c are relayed.
The data is cached in any of the cache servers 18a to 18c attached to the. When the access from the content receiver 14 belonging to the first network 54 increases, the cache data of the content A50 moves from upstream to downstream of the network route.

【0049】いま、コンテンツA50のキャッシュデー
タが第1のネットワーク54に属する下流のキャッシュ
サーバ18cにあるとする。このとき、第2のネットワ
ーク56に属するコンテンツレシーバ14からコンテン
ツA50に対するアクセスが増えた場合、下流のキャッ
シュサーバ18cの移動制御部26は、コンテンツA5
0のキャッシュデータを、第1および第2のネットワー
ク54、56の双方lから見て上流にあるキャッシュサ
ーバ18bに移動させる。
Now, it is assumed that the cache data of the content A50 is in the downstream cache server 18c belonging to the first network 54. At this time, when the number of accesses to the content A50 from the content receiver 14 belonging to the second network 56 increases, the movement control unit 26 of the downstream cache server 18c determines the content A5.
The cache data of 0 is moved to the cache server 18b located upstream from both 1 of the first and second networks 54 and 56.

【0050】移動制御部26は、同一コンテンツにアク
セスするコンテンツレシーバ14が複数のネットワーク
にまたがって存在する場合は、それらの複数のネットワ
ークのそれぞれに属するキャッシュサーバ18にキャッ
シュデータを移動させてもよい。その場合、マルチキャ
スト通信を用いて移動先のネットワークアドレスを複数
指定してキャッシュデータを送信してもよい。たとえ
ば、コンテンツB52のキャッシュデータがネットワー
クD12dに付属するキャッシュサーバ18dにあると
する。このとき第3および第4のネットワーク58、6
0のそれぞれに属するコンテンツレシーバ14からコン
テンツB52へのアクセスがあった場合、これら二つの
ネットワークの上流に位置するキャッシュサーバ18d
は、それぞれのネットワークに属するキャッシュサーバ
18g、18eにキャッシュデータを移動させる。
When the content receivers 14 that access the same content exist over a plurality of networks, the movement control unit 26 may move the cache data to the cache servers 18 belonging to each of the plurality of networks. . In that case, the cache data may be transmitted by designating a plurality of destination network addresses using multicast communication. For example, it is assumed that the cache data of the content B52 is in the cache server 18d attached to the network D12d. At this time, the third and fourth networks 58, 6
When the content receiver 14 belonging to each of 0 accesses the content B52, the cache server 18d located upstream of these two networks.
Moves the cache data to the cache servers 18g and 18e belonging to the respective networks.

【0051】このように複数のネットワーク領域に属す
るキャッシュサーバ18にキャッシュデータを移動させ
る際、移動先ネットワークの数をここではキャスティン
グルート数と呼ぶ。移動制御部26はこのキャスティン
グルート数を、コンテンツに対するアクセス頻度、アク
セス元のコンテンツレシーバ14が属するネットワーク
アドレスの総数などにより適宜調整してもよい。
When the cache data is moved to the cache servers 18 belonging to a plurality of network areas in this way, the number of destination networks is called the casting route number here. The movement control unit 26 may appropriately adjust the number of casting routes according to the access frequency to the content, the total number of network addresses to which the content receiver 14 of the access source belongs, and the like.

【0052】以上述べたように、本発明の実施の形態に
よれば、多数の利用者がコンテンツの配信を受けるイン
ターネットの環境や、ピア・ツウ・ピアでコンテンツの
送受信を行う個人間ネットワークの環境において、コン
テンツのキャッシュをキャッシュサーバに分散して配置
し、コンテンツの配信サービスの応答時間を改善するこ
とができる。
As described above, according to the embodiment of the present invention, the environment of the Internet in which a large number of users receive contents, and the environment of an inter-personal network in which contents are transmitted and received by peer-to-peer. In, it is possible to improve the response time of the content distribution service by disposing the content caches in a distributed manner in the cache servers.

【0053】また実施の形態のキャッシュサーバは、ネ
ットワーク上の他のキャッシュサーバと連携して、自己
組織型のキャッシュ制御を実現するものである。キャッ
シュサーバのネットワークは、コンテンツのアクセス頻
度、更新頻度などの統計情報や、コンテンツの蓄積容
量、滞留時間などのコンテンツに固有の特性情報を評価
しながら、コンテンツのキャッシュを自律的に交換する
能動的なコンテンツアクセス環境を実現する。
The cache server of the embodiment realizes self-organized cache control in cooperation with other cache servers on the network. The cache server network evaluates statistical information such as content access frequency and update frequency, and content-specific characteristic information such as content storage capacity and retention time, while actively exchanging content caches actively. To realize various content access environment.

【0054】また実施の形態のキャッシュサーバはルー
タ機能をもつネットワークノードと連携し、ルーティン
グのプロトコルレイヤーすなわちネットワーク層でキャ
ッシュデータの移動制御を行うため、移動制御にあたっ
て、それよりも上位のレイヤーの情報、たとえばアプリ
ケーション層の情報まで考慮する必要がないため、高速
な処理が可能である。
Further, since the cache server of the embodiment cooperates with the network node having the router function to control the movement of cache data in the routing protocol layer, that is, the network layer, the information of the upper layer in the movement control. For example, since it is not necessary to consider the information of the application layer, high-speed processing is possible.

【0055】以上、本発明を実施の形態をもとに説明し
た。これらの実施の形態は例示であり、それらの各構成
要素や各処理プロセスの組合せにいろいろな変形例が可
能なこと、またそうした変形例も本発明の範囲にあるこ
とは当業者に理解されるところである。以下そのような
変形例を説明する。
The present invention has been described above based on the embodiments. It is understood by those skilled in the art that these embodiments are mere examples, and that various modifications can be made to the combinations of the respective constituent elements and the respective processing processes, and such modifications are also within the scope of the present invention. By the way. Hereinafter, such a modified example will be described.

【0056】上記の説明では、データ中継機能とルータ
機能をもつネットワークノード12と、コンテンツのキ
ャッシュ管理機能をもつキャッシュサーバ18とを別構
成にしたが、キャッシュサーバ18はネットワークノー
ド12と一体化して構成してもよい。またキャッシュサ
ーバ18の検索部20、LRUバッファ22、および移
動制御部26の機能をネットワークノード12内部に実
現し、コンテンツキャッシュ記憶部28のみを大規模記
憶装置としてネットワークノード12の外側に接続する
構成でもよい。
In the above description, the network node 12 having the data relay function and the router function and the cache server 18 having the content cache management function are separately configured, but the cache server 18 is integrated with the network node 12. You may comprise. Further, the functions of the search unit 20, the LRU buffer 22, and the movement control unit 26 of the cache server 18 are realized inside the network node 12, and only the content cache storage unit 28 is connected to the outside of the network node 12 as a large-scale storage device. But it's okay.

【0057】上記の説明では、キャッシュの有効時間を
示す滞留時間40をキャッシュデータの選択基準の一つ
として用いたが、キャッシュデータの作成時のタイムス
タンプとキャッシュデータの利用時のタイムスタンプと
を比較することにより、キャッシュデータの滞留時間4
0に対して、キャッシュデータの有効な時間があとどれ
くらい残留しているかがわかる。移動制御部26は、こ
の残留時間を滞留時間40の代わりに用い、残留時間の
長いキャッシュデータほど積極的に下流のネットワーク
ノード12に移動させ、残留時間が残り少ないキャッシ
ュデータについては下流への移動を制限してもよい。
In the above description, the residence time 40 indicating the effective time of the cache is used as one of the selection criteria of the cache data, but the time stamp when the cache data is created and the time stamp when the cache data is used are used. By comparing, cache data retention time 4
With respect to 0, it can be seen how much remaining valid time of the cache data remains. The migration control unit 26 uses this remaining time in place of the residence time 40 to move the cache data with a longer remaining time more aggressively to the downstream network node 12, and moves the cache data with a shorter remaining time to the downstream. You may limit it.

【0058】またキャッシュバッファとしてLRU方式
のバッファが用いられたが、参照回数の最も少ないキャ
ッシュエントリから先に追い出すLFU(Least Freque
ntlyUsed)方式など、他の方式のバッファが用いられて
もよい。
Further, although the LRU type buffer is used as the cache buffer, the LFU (Least Frequent) which pushes out the cache entry with the smallest number of references first.
Other methods such as ntlyUsed) may be used.

【0059】[0059]

【発明の効果】本発明によれば、コンテンツを効率よく
ユーザに配信することができる。
According to the present invention, contents can be efficiently distributed to users.

【図面の簡単な説明】[Brief description of drawings]

【図1】 第1の実施の形態に係るキャッシュサーバシ
ステムの構成図である。
FIG. 1 is a configuration diagram of a cache server system according to a first embodiment.

【図2】 コンテンツプロバイダからコンテンツレシー
バまでのネットワーク経路上のネットワークノードを説
明する図である。
FIG. 2 is a diagram illustrating a network node on a network path from a content provider to a content receiver.

【図3】 キャッシュサーバの構成図である。FIG. 3 is a configuration diagram of a cache server.

【図4】 キャッシュサーバが管理するLRUバッファ
のキャッシュエントリのデータ構造を説明する図であ
る。
FIG. 4 is a diagram illustrating a data structure of a cache entry of an LRU buffer managed by a cache server.

【図5】 第1の実施の形態のキャッシュサーバによる
キャッシュ移動制御のシーケンス図である。
FIG. 5 is a sequence diagram of cache movement control by the cache server according to the first embodiment.

【図6】 第2の実施の形態に係るキャッシュサーバの
構成図である。
FIG. 6 is a configuration diagram of a cache server according to a second embodiment.

【図7】 第2の実施の形態のキャッシュサーバによる
キャッシュ移動制御を説明する図である。
FIG. 7 is a diagram illustrating cache movement control by a cache server according to the second embodiment.

【符号の説明】[Explanation of symbols]

10 コンテンツプロバイダ、 12 ネットワークノ
ード、 14 コンテンツレシーバ、 16 インター
ネット、 18 キャッシュサーバ、 20検索部、
22 LRUバッファ、 23 キャッシュエントリ、
24 キュー、 26 移動制御部、 28 コンテ
ンツキャッシュ記憶部。
10 content providers, 12 network nodes, 14 content receivers, 16 Internet, 18 cache servers, 20 search units,
22 LRU buffers, 23 cache entries,
24 queues, 26 movement control unit, 28 content cache storage unit.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 中沢 実 石川県石川郡野々市町扇が丘7番1号 学 校法人金沢工業大学内 (72)発明者 小林 孝 東京都渋谷区渋谷二丁目17番5号 株式会 社アルファシステムズ内 Fターム(参考) 5B082 HA02 HA05 HA08 5B085 BA07 BG07    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Minoru Nakazawa             7-1 Ogigaoka, Nonoichi-cho, Ishikawa-gun, Ishikawa Prefecture             Kanazawa Institute of Technology (72) Inventor Takashi Kobayashi             2-17-5 Shibuya, Shibuya-ku, Tokyo Stock market             Company Alpha Systems F-term (reference) 5B082 HA02 HA05 HA08                 5B085 BA07 BG07

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 コンテンツをキャッシュするキャッシュ
サーバのキャッシュバッファからアクセス頻度の高いキ
ャッシュデータを取り出し、そのキャッシュデータをコ
ンテンツレシーバに近い下流方向のキャッシュサーバの
キャッシュバッファに移動させることを特徴とする自己
組織化キャッシュ方法。
1. Self-organization, characterized in that cache data having a high access frequency is fetched from a cache buffer of a cache server that caches contents, and the cache data is moved to a cache buffer of a cache server in a downstream direction near a content receiver. Cache method.
【請求項2】 前記キャッシュサーバのキャッシュバッ
ファからアクセス頻度の低いキャッシュデータを取り出
し、そのキャッシュデータをコンテンツプロバイダに近
い上流方向のキャッシュサーバのキャッシュバッファに
移動させることを特徴とする請求項1に記載の自己組織
化キャッシュ方法。
2. The cache data of low access frequency is taken out from the cache buffer of the cache server, and the cache data is moved to the cache buffer of the upstream cache server near the content provider. Self-organizing cache method.
【請求項3】 前記コンテンツの更新頻度にもとづいて
前記キャッシュデータの移動を調整することを特徴とす
る請求項1または2に記載の自己組織化キャッシュ方
法。
3. The self-organizing cache method according to claim 1, wherein movement of the cache data is adjusted based on a frequency of updating the content.
【請求項4】 キャッシュされたコンテンツが所定の参
照回数だけ参照されるまで、そのキャッシュデータの下
流方向への移動を制限し、そのコンテンツが更新された
場合、前記参照回数のカウンタをリセットすることを特
徴とする請求項3に記載の自己組織化キャッシュ方法。
4. Limiting the movement of the cached data in the downstream direction until the cached content is referenced a predetermined number of times, and resetting the reference frequency counter when the content is updated. The self-organizing cache method according to claim 3, wherein:
【請求項5】 キャッシュされたコンテンツの蓄積容量
にもとづいて前記キャッシュデータの移動を調整するこ
とを特徴とする請求項1または2に記載の自己組織化キ
ャッシュ方法。
5. The self-organizing cache method according to claim 1, wherein movement of the cache data is adjusted based on a storage capacity of cached contents.
【請求項6】 キャッシュされたコンテンツのネットワ
ークにおける滞留時間にもとづいて前記キャッシュデー
タの移動を調整することを特徴とする請求項1、2、5
のいずれかに記載の自己組織化キャッシュ方法。
6. The movement of the cache data is adjusted based on the residence time of the cached content in the network.
The self-organizing cache method according to any one of 1.
【請求項7】 ネットワークアドレスに応じて複数のキ
ャッシュバッファを設け、前記コンテンツレシーバの属
するネットワークアドレスに対応するキャッシュバッフ
ァから前記キャッシュデータを取り出し、そのキャッシ
ュデータを移動先のキャッシュサーバのキャッシュバッ
ファに移動させることを特徴とする請求項1から6のい
ずれかに記載の自己組織化キャッシュ方法。
7. A plurality of cache buffers are provided according to network addresses, the cache data is taken out from the cache buffer corresponding to the network address to which the content receiver belongs, and the cache data is moved to the cache buffer of the destination cache server. The self-organizing cache method according to any one of claims 1 to 6, characterized in that:
【請求項8】 キャッシュされたコンテンツの前記アク
セス頻度により前記キャッシュデータの移動先のキャッ
シュサーバの数を調整することを特徴とする請求項1か
ら7のいずれかに記載の自己組織化キャッシュ方法。
8. The self-organizing cache method according to claim 1, wherein the number of cache servers to which the cache data is moved is adjusted according to the access frequency of cached contents.
【請求項9】 コンテンツプロバイダからコンテンツレ
シーバに提供されるコンテンツをキャッシュして保持す
る記憶部と、 前記コンテンツのキャッシュデータに前記コンテンツの
アクセス頻度の評価データを含め、そのキャッシュデー
タのキュー管理を行うキャッシュバッファと、 前記キャッシュバッファ内の前記キューを検索し、コン
テンツレシーバの要求するコンテンツのキャッシュデー
タを抽出する検索部と、 前記評価データを基準にして前記キャッシュバッファか
らキャッシュデータを抽出し、前記プロバイダから前記
レシーバまでのネットワーク経路上の他のキャッシュサ
ーバに移動させる移動制御部とを含むことを特徴とする
キャッシュサーバ。
9. A storage unit that caches and holds content provided from a content provider to a content receiver, and performs queue management of the cache data by including evaluation data of the access frequency of the content in the cache data of the content. A cache buffer, a search unit that searches the queue in the cache buffer, and extracts cache data of content requested by a content receiver; a cache data extraction unit from the cache buffer based on the evaluation data; A cache control unit for moving the cache server to another cache server on the network path from the receiver to the receiver.
【請求項10】 前記キャッシュバッファは、前記評価
データに前記コンテンツの更新頻度、蓄積容量、および
滞留時間の少なくとも一つをさらに含めて管理すること
を特徴とする請求項9に記載のキャッシュサーバ。
10. The cache server according to claim 9, wherein the cache buffer manages the evaluation data by further including at least one of the content update frequency, the storage capacity, and the retention time.
【請求項11】 前記キャッシュバッファは、前記コン
テンツのアクセス頻度、更新頻度、蓄積容量、および滞
留時間の少なくとも一つの評価データによりキャッシュ
エントリがソートされるキュー構造をもち、前記移動制
御部は前記キューのヘッド部またはテイル部からキャッ
シュデータを抽出し、前記他のキャッシュサーバに移動
させることを特徴とする請求項9に記載のキャッシュサ
ーバ。
11. The cache buffer has a queue structure in which cache entries are sorted according to at least one evaluation data of an access frequency, an update frequency, a storage capacity, and a retention time of the content, and the movement control unit has the queue structure. 10. The cache server according to claim 9, wherein cache data is extracted from the head portion or tail portion of the cache server and moved to the other cache server.
【請求項12】 前記キャッシュバッファは、前記レシ
ーバのネットワークアドレスに応じて複数のバッファに
分割され、前記検索部は前記レシーバの属するネットワ
ークアドレスに対応する前記分割されたバッファから前
記キャッシュデータを抽出し、前記移動制御部は、抽出
された前記キャッシュデータを対応するネットワークア
ドレスに属する前記他のキャッシュサーバに移動させる
ことを特徴とする請求項9から11のいずれかに記載の
キャッシュサーバ。
12. The cache buffer is divided into a plurality of buffers according to a network address of the receiver, and the search unit extracts the cache data from the divided buffer corresponding to a network address to which the receiver belongs. The cache server according to any one of claims 9 to 11, wherein the movement control unit moves the extracted cache data to the other cache server belonging to a corresponding network address.
JP2001273991A 2001-09-10 2001-09-10 Self-organizing cache method and cache server capable of utilizing the method Pending JP2003085032A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001273991A JP2003085032A (en) 2001-09-10 2001-09-10 Self-organizing cache method and cache server capable of utilizing the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001273991A JP2003085032A (en) 2001-09-10 2001-09-10 Self-organizing cache method and cache server capable of utilizing the method

Publications (1)

Publication Number Publication Date
JP2003085032A true JP2003085032A (en) 2003-03-20

Family

ID=19099116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001273991A Pending JP2003085032A (en) 2001-09-10 2001-09-10 Self-organizing cache method and cache server capable of utilizing the method

Country Status (1)

Country Link
JP (1) JP2003085032A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009095040A (en) * 2008-11-26 2009-04-30 Kyocera Corp Wireless communication system and mobile wireless communication apparatus
JP2010502097A (en) * 2006-08-21 2010-01-21 テレフオンアクチーボラゲット エル エム エリクソン(パブル) Distributed server network for providing triple play services to end users
JP2010027058A (en) * 2008-07-18 2010-02-04 Qliktech Internatl Ab Method obtained by computer, computer readable medium, and system for extracting information from database
JP2011034327A (en) * 2009-07-31 2011-02-17 Yahoo Japan Corp Web server and blog page generating method
JP2011109676A (en) * 2010-12-13 2011-06-02 Kyocera Corp Radio communication system and mobile radio communication device
US8521216B2 (en) 2003-05-29 2013-08-27 Kyocera Corporation Wireless transmission system
JP2013536530A (en) * 2010-08-26 2013-09-19 アリババ・グループ・ホールディング・リミテッド Method, system, and server for removing distributed caching objects
JP2013205891A (en) * 2012-03-27 2013-10-07 Fujitsu Ltd Parallel computer, control method of parallel computer and control program
JP2014186652A (en) * 2013-03-25 2014-10-02 Fujitsu Ltd Data transfer device, data transfer system, data transfer method and program
JP2015165632A (en) * 2014-03-03 2015-09-17 日本電気株式会社 Information transfer device, information transfer method, and program
JP2015176350A (en) * 2014-03-14 2015-10-05 Kddi株式会社 Cache management device and communication device
JP2017501460A (en) * 2013-09-27 2017-01-12 アルカテル−ルーセント How to cache
JP2018092271A (en) * 2016-11-30 2018-06-14 富士通株式会社 Distributed data management apparatus, distributed data management program and distributed data management method
JP2020091706A (en) * 2018-12-06 2020-06-11 エヌ・ティ・ティ・コミュニケーションズ株式会社 Storage management device, method, and program
JP2020522078A (en) * 2017-06-02 2020-07-27 華為技術有限公司Huawei Technologies Co.,Ltd. Data access method and device
US11695832B2 (en) 2018-12-06 2023-07-04 Ntt Communications Corporation Data search apparatus, and data search method and program thereof, and edge server and program thereof
US11886520B2 (en) 2018-12-06 2024-01-30 Ntt Communications Corporation Data search apparatus, and data search method and program thereof, and edge server and program thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207270A (en) * 1999-01-13 2000-07-28 Hitachi Ltd Www proxy device
JP2000276425A (en) * 1999-03-24 2000-10-06 Toshiba Corp Information distribution system, mobile computer, cache server device, manageing device, and cache control method
JP2001125879A (en) * 1999-10-29 2001-05-11 Toshiba Corp System and method for storing data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207270A (en) * 1999-01-13 2000-07-28 Hitachi Ltd Www proxy device
JP2000276425A (en) * 1999-03-24 2000-10-06 Toshiba Corp Information distribution system, mobile computer, cache server device, manageing device, and cache control method
JP2001125879A (en) * 1999-10-29 2001-05-11 Toshiba Corp System and method for storing data

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8521216B2 (en) 2003-05-29 2013-08-27 Kyocera Corporation Wireless transmission system
US8639283B2 (en) 2003-05-29 2014-01-28 Kyocera Corporation Wireless transmission system
US8682294B2 (en) 2003-05-29 2014-03-25 Kyocera Corporation Wireless transmission system
US8903385B2 (en) 2003-05-29 2014-12-02 Kyocera Corporation Wireless transmission system
JP2010502097A (en) * 2006-08-21 2010-01-21 テレフオンアクチーボラゲット エル エム エリクソン(パブル) Distributed server network for providing triple play services to end users
JP2010027058A (en) * 2008-07-18 2010-02-04 Qliktech Internatl Ab Method obtained by computer, computer readable medium, and system for extracting information from database
JP2009095040A (en) * 2008-11-26 2009-04-30 Kyocera Corp Wireless communication system and mobile wireless communication apparatus
JP2011034327A (en) * 2009-07-31 2011-02-17 Yahoo Japan Corp Web server and blog page generating method
JP2016085767A (en) * 2010-08-26 2016-05-19 アリババ・グループ・ホールディング・リミテッドAli Method, system and server of removing distributed caching object
JP2013536530A (en) * 2010-08-26 2013-09-19 アリババ・グループ・ホールディング・リミテッド Method, system, and server for removing distributed caching objects
JP2011109676A (en) * 2010-12-13 2011-06-02 Kyocera Corp Radio communication system and mobile radio communication device
JP2013205891A (en) * 2012-03-27 2013-10-07 Fujitsu Ltd Parallel computer, control method of parallel computer and control program
JP2014186652A (en) * 2013-03-25 2014-10-02 Fujitsu Ltd Data transfer device, data transfer system, data transfer method and program
JP2017501460A (en) * 2013-09-27 2017-01-12 アルカテル−ルーセント How to cache
JP2015165632A (en) * 2014-03-03 2015-09-17 日本電気株式会社 Information transfer device, information transfer method, and program
JP2015176350A (en) * 2014-03-14 2015-10-05 Kddi株式会社 Cache management device and communication device
JP2018092271A (en) * 2016-11-30 2018-06-14 富士通株式会社 Distributed data management apparatus, distributed data management program and distributed data management method
JP2020522078A (en) * 2017-06-02 2020-07-27 華為技術有限公司Huawei Technologies Co.,Ltd. Data access method and device
JP2020091706A (en) * 2018-12-06 2020-06-11 エヌ・ティ・ティ・コミュニケーションズ株式会社 Storage management device, method, and program
JP7175731B2 (en) 2018-12-06 2022-11-21 エヌ・ティ・ティ・コミュニケーションズ株式会社 Storage management device, method and program
US11695832B2 (en) 2018-12-06 2023-07-04 Ntt Communications Corporation Data search apparatus, and data search method and program thereof, and edge server and program thereof
US11886520B2 (en) 2018-12-06 2024-01-30 Ntt Communications Corporation Data search apparatus, and data search method and program thereof, and edge server and program thereof

Similar Documents

Publication Publication Date Title
JP2003085032A (en) Self-organizing cache method and cache server capable of utilizing the method
US10574778B2 (en) Content replacement and refresh policy implementation for a content distribution network
US6751608B1 (en) Method and apparatus for improving end to end performance of a data network
US6317778B1 (en) System and method for replacement and duplication of objects in a cache
EP2704402B1 (en) Method and node for distributing electronic content in a content distribution network
US6567893B1 (en) System and method for distributed caching of objects using a publish and subscribe paradigm
JP3595470B2 (en) How to find the requested object
CN108900570B (en) Cache replacement method based on content value
US6959318B1 (en) Method of proxy-assisted predictive pre-fetching with transcoding
US20070050491A1 (en) Cache system
US20110238921A1 (en) Anticipatory response pre-caching
US6370620B1 (en) Web object caching and apparatus for performing the same
US20080235326A1 (en) Methods and Apparatus for Accelerating Web Browser Caching
KR20140067881A (en) Method for transmitting packet of node and content owner in content centric network
JP2003186776A (en) Congestion control system
JP2003015938A (en) Congestion control method
CN108173903B (en) Application method of autonomous system cooperation caching strategy in CCN
CN104994152B (en) A kind of Web collaboration caching system and method
KR20130087810A (en) Method and apparatus for cooperative caching in mobile communication system
JP5625937B2 (en) Router, cache router, content data cache system, and content data cache method
CN109195180A (en) A kind of solution for reducing content in mobile content central site network and obtaining time delay
CN109951390A (en) A kind of network equipment and its cooperation route-caching method based on PopBetw strategy
Carofiglio et al. Evaluating per-application storage management in content-centric networks
KR102235622B1 (en) Method and Apparatus for Cooperative Edge Caching in IoT Environment
WO2020031627A1 (en) Transfer device for content delivery network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080815

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20080815

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110531

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120326

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121016