JP4918535B2 - キャッシュメモリ、キャッシュメモリ装置及び割当て方法 - Google Patents

キャッシュメモリ、キャッシュメモリ装置及び割当て方法 Download PDF

Info

Publication number
JP4918535B2
JP4918535B2 JP2008263175A JP2008263175A JP4918535B2 JP 4918535 B2 JP4918535 B2 JP 4918535B2 JP 2008263175 A JP2008263175 A JP 2008263175A JP 2008263175 A JP2008263175 A JP 2008263175A JP 4918535 B2 JP4918535 B2 JP 4918535B2
Authority
JP
Japan
Prior art keywords
data
cache
memory
address
data memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008263175A
Other languages
English (en)
Other versions
JP2009043282A (ja
Inventor
修 遠藤
Original Assignee
ダッチエンタープライズ アイティ,エル.エル.シー.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ダッチエンタープライズ アイティ,エル.エル.シー. filed Critical ダッチエンタープライズ アイティ,エル.エル.シー.
Priority to JP2008263175A priority Critical patent/JP4918535B2/ja
Publication of JP2009043282A publication Critical patent/JP2009043282A/ja
Application granted granted Critical
Publication of JP4918535B2 publication Critical patent/JP4918535B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Memory System Of A Hierarchy Structure (AREA)

Description

本発明は、
本発明は、マイクロプロセッサに接続するキャッシュメモリに関し、特にそのデータメモリの構成に関する。
一般にキャッシュのデータメモリは1サイクルでリードおよびライトすることによりMPU(マイクロプロセッサ)の待ちサイクルを減らして高速動作を実現する。
図2は、従来のセットアソシアティブのキャッシュメモリの構成図である。
図示例は、4ウェイのセットアソシアティブの構成であり、図中のウェイ1のデータメモリマクロ(ユニット)20〜23、ウェイ2のデータメモリマクロ30〜33、ウェイ3のデータメモリマクロ40〜43は、ウェイ0のデータメモリマクロ10〜13と同様の構成である。また、ライトデータD0〜D3は、それぞれセレクタ50〜53によりラインバッファ1のデータまたはMPUライトデータを選択した値で各データメモリマクロ10〜43に入力されるよう構成され、各データメモリマクロ10〜43からのリードデータは、セレクタ60〜63、70を介して出力されるようになっている。
キャッシュメモリでは、1サイクルでリードデータを出力するために、全ウェイの全ワード(図では4ワード)毎にデータメモリマクロ10〜43を用意する。全てのデータメモリマクロ10〜43のアドレス入力端子Aにアドレスを入力し、チップイネーブル入力端子CEにチップイネーブル0〜3[0:3]をアサートすることで、同時にリードすることができる。尚、[0:3]は、[0]〜[3]を表している。リードしたデータはワードアドレスとキャッシュヒットしたウェイ番号から必要なデータ一つを選択し、MPUに返送する。
各データメモリマクロ10〜43へのライトはMPUからのライト要求またはキャッシュミスにより発生する。キャッシュミスによる場合、メモリシステムから読み出したデータがラインバッファ1に格納された後に発生する。全てのワードデータが揃うと、いずれか一つのウェイの全ワードのデータメモリマクロ10〜43に書き込みを行う。例えば、ウェイ0に書き込みを行う場合、1サイクルで全ワードを同時に書き込むために、データメモリマクロ10〜13のアドレス入力端子Aにアドレスを入力し、データ入力端子DにライトデータD0〜D3をそれぞれ入力し、ウェイ0の全ワードのチップイネーブル入力端子CEにチップイネーブル0[0:3]を、ライトイネーブル入力端子WEにライトイネーブル0[0:3]をアサートすることで、全ワード同時にライトすることができる。
図3は、アドレスフォーマットの説明図である。
MPUが出力するアドレスをキャッシュではタグデータ部X1、インデックスアドレス部X2、ワードアドレス部X3、バイトアドレス部X4に分けて使用する。タグデータ部X1はキャッシュのタグメモリに格納するデータである。MPUからのアクセス要求アドレスと有効なタグメモリのデータを比較して一致した時キャッシュヒットとなる。インデックスアドレス部X2はキャッシュの一つのウェイに登録できるライン数を示すビット数である。ワードアドレス部X3は1ラインのワード数を示すビット数であり、バイトアドレス部X4は1ワードのバイト数を示すビット数となる。
図4は、ウェイ0〜3の各データメモリマクロ10〜43のデータ格納位置の説明図である。
例えば、データメモリマクロ10〜13は、それぞれ図3のワードアドレス部X3における0〜3のデータに対応したデータを格納する。メモリアドレスはインデックスアドレス部X2と等しくする。ウェイ1〜ウェイ3のデータメモリマクロ20〜43も同様である。例として、リード/ライト時のデータ格納位置を網掛け部分で示す。MPUのリード要求アドレスがインデックスアドレス=0、ワードアドレス=2の場合、図4中の(x,0,z)のデータが読み出される。また、リードミスアドレスのインデックスアドレス=511、書き込みウェイ=0の場合は、図4中の(0,511,z)の箇所にラインバッファのデータが書き込まれる。
図5は、従来のフロアプラン例の説明図である。
ここでは、キャッシュのTAGメモリ部81、MPU82、制御部83、データメモリ部84のみ示している。また、80はLSIのダイサイズを示している。データメモリ部84にはデータメモリマクロ85を16個配置する。これらのデータメモリマクロ85は、図2におけるデータメモリマクロ10〜13、20〜23、30〜33、40〜43を示している。
図6は、データメモリマクロ10〜43のリード/ライト時のタイムチャートである。
データメモリマクロ10〜43はクロックに同期して動作する。リード時はクロックのエッジT2に対してアドレスRA1およびチップイネーブル0〜3[0:3]をアサートして入力する。リードデータRD1はクロックのエッジT3でMPUがラッチできるように出力される。ライト時(この例ではウェイ0へのライト)はクロックのエッジT4に対してアドレスWA2、ライトデータ0〜3WD2、チップイネーブル0[0:3]をアサート、ライトイネーブル0[0:3]をアサートして入力する。これによりライトデータ0〜3WD2の値がデータメモリマクロに書き込まれる。
しかしながら、上記従来の構成ではデータメモリマクロ10〜43をウェイ数×ワード数(上記例では16個)だけ用意して接続する必要があり、図5のフロアプラン例のようにMPU82とデータメモリマクロ85間の配線が長くなる箇所ができてしまい、その結果遅延が発生し高速動作の妨げとなっていた。またLSIの面積増によるLSI単価の上昇という問題点があった。
本発明は、前述の課題を解決するため次の構成を採用する。
〈構成1〉
Nウェイのセットアソシアティブ方式に基づいてキャッシュデータを格納するよう設定され、複数のキャッシュデータにそれぞれ対応する複数の格納位置を有する複数のデータメモリマクロユニットを備え、各格納位置は、Nウェイの1つを識別するために用いられるウェイ番号と、メインメモリのキャッシュデータのそれぞれが格納されているアドレスに対応する部分によって決定されるインデックス番号と、メインメモリの対応するアドレスの他の部分によって決定されるワード番号によって指定され、複数のデータメモリマクロユニットは、それぞれ同時にアクセス可能なキャッシュメモリにおいて、複数のデータメモリマクロユニットに対しN個のキャッシュデータを同時書き込み許可するべく、複数のデータメモリマクロユニットのいずれか1つのデータ入力端子にそれぞれ接続されている複数のマルチプレクサを備え、同一のインデックス番号及び相違するワード番号によって指定されたそれぞれのキャッシュデータは、各データメモリマクロユニットに共通に格納され、同一のインデックス番号及び相違するウェイ番号によって指定されたそれぞれのキャッシュデータは、相違するデータメモリマクロユニットに格納されることを特徴とするキャッシュメモリ。
〈構成2〉
他の発明は、Nウェイのセットアソシアティブ方式に基づいてメインメモリからのデータを格納するよう設定されている多数のデータメモリマクロユニットを備え、データメモリマクロユニットの数がウェイNの数と等しく、データメモリマクロユニットがデータを格納可能に複数の格納位置が割り当てられているキャッシュメモリにおいて、各格納位置は、データのそれぞれの一部を格納するように設定され、Nウェイの1つを識別するために用いられるウェイ番号と、データの一部が格納されているメインメモリのアドレスに対応する部分によって決定されているインデックス番号と、メインメモリ内の対応するアドレスの他の部分によって決定されているワード番号とによって指定され、同一のインデックス番号及び相違するワード番号によって指定された各データは、各データメモリマクロユニットに共通に格納され、同一のインデックス番号及び相違するウェイ番号によって指定された各データは、相違するデータメモリマクロユニットに格納されることを特徴とするキャッシュメモリ。
〈構成3〉
また、他の発明は、マイクロプロセッシングユニット(MPU)と、MPUと組み合わされているメインメモリと、MPUによるデータ処理可能にメインメモリからのデータを格納するよう設定されているキャッシュメモリとを含み、該キャッシュメモリは、Nウェイのセットアソシアティブ方式に基づいてデータを格納する複数のデータメモリマクロユニットを備え、複数のデータメモリマクロユニットの数は、ウェイNの数と等しいことを特徴とするキャッシュメモリ装置。
〈構成4〉
更に他の発明は、複数のデータメモリマクロユニットを有するキャッシュメモリに格納位置を割り当てる方法であって、複数のデータメモリマクロユニットの数が、ウェイNの数と等しく、各格納位置は、キャッシュデータのそれぞれの一部を格納するように設定され、Nウェイの1つを識別するために用いられるウェイ番号と、キャッシュデータの各一部が格納されているメインメモリのアドレスに対応する部分によって決定されているインデックス番号と、メインメモリ内の対応するアドレスの他の部分によって決定されているワード番号とによって指定され、割り当てられた格納位置に対応させて、メインメモリからのデータをキャッシュメモリに格納することを特徴とする割当て方法。
本発明によれば、Nウェイのセットアソシアティブ方式のキャッシュメモリであっても最少としてN個のデータメモリマクロを設ければよいので、高速にアクセスすることができる上に配置空間を小さくすることができる。
以下、本発明の実施の形態を具体例を用いて詳細に説明する。
《具体例》
図1は、本発明のキャッシュメモリにおけるデータ格納位置の説明図であるが、これに先立ち、キャッシュメモリの構成について説明する。
図7は、具体例のキャッシュメモリの構成図である。
図示のキャッシュメモリは、ラインバッファ1、データメモリマクロ100〜103、セレクタ200〜203、300〜303、400からなる。ラインバッファ1は、従来と同様に、複数のワードデータを格納するラインバッファであり、本具体例では4ワードを格納するよう構成されている。データメモリマクロ100〜103は、それぞれが同時にアクセス可能なメモリブロックで、そのキャッシュメモリのウェイ数以上設けられるもので、本具体例ではウェイ数と等しい4個が設けられている。これらのデータメモリマクロ100〜103は、それぞれ図4に示した従来のデータメモリマクロの一つ分と比べて、ワード数4の場合、4倍の容量となる。但し、データメモリマクロの個数は1/4であるためメモリの総容量は変わらない。
各データメモリマクロ100〜103には、そのアドレス入力端子Aにアドレス0〜3が、データ入力端子Dにはセレクタ300〜303の出力が、チップイネーブル入力端子CEにはチップイネーブル0〜3が、ライトイネーブル入力端子WEにはライトイネーブル0〜3が入力されるよう構成され、その出力Qはセレクタ400に入力されるよう構成されている。尚、これらのデータ格納位置の詳細については図1を参照して後述する。
セレクタ200〜203は、それぞれラインバッファ1から出力された各ワードのライトデータD0〜D3を選択するためのセレクタであり、その選択出力はセレクタ300〜303に入力されるようになっている。セレクタ300〜303は、それぞれ、MPUライトデータと、セレクタ200〜203の出力を選択するためのセレクタであり、その選択出力は各データメモリマクロ100〜103のデータ入力端子Dに入力されるようになっている。セレクタ400は、各データメモリマクロ100〜103の出力Qを入力し、その選択出力をリードデータとして送出するセレクタである。
次に、図1を用いて本具体例の各データメモリマクロ100〜103のデータ格納状態を説明する。
図1に示すように、本具体例の各データメモリマクロ100〜103は、同一インデックスアドレスのワードアドレス毎に異なるウェイ番号となり、かつ、各ウェイの同一インデックスで同一ワードアドレスのデータは各データメモリマクロ100〜103に格納されるよう構成されている。例えば、データメモリマクロ100のメモリアドレス0にはウェイ0のインデックスアドレス0、ワードアドレス0のデータを格納する。また、メモリアドレス1には、ウェイ1のインデックスアドレス0、ワードアドレス1のデータを、メモリアドレス2には、ウェイ2のインデックスアドレス0、ワードアドレス2のデータを割り当てるといったように、本具体例では、各データメモリマクロ100〜103のそれぞれにワードアドレスを組み込んで割り付けている。従って、このデータ格納位置に対応するよう、メモリアドレスはインデックスアドレス部X2とワードアドレス部X3で構成する。例えば、具体例ではインデックスアドレスが512通り、ワードアドレスが4通りであるからメモリアドレスは0〜2047となる。
また、各データメモリマクロ100〜103は、同一インデックスアドレスかつ同一ワードアドレスで四つのウェイのデータをリードできるように、各データメモリマクロ100〜103毎に、同一インデックスアドレスおよび同一ワードアドレスのウェイ番号が一つずつずれて割り付けられている。
即ち、本具体例のデータメモリマクロ100〜103は、リード時は、特定のインデックスかつ特定のワードの全てのウェイのデータをリードでき、また、ライト時は、特定インデックスかつ特定のウェイの全ワードのデータをライトできるという構成において、データメモリマクロの個数を最小限にするという目的で構成されているものである。
そして、このように割り付けられたデータメモリマクロ100〜103に対するリード/ライト時のアドレスは次のようになっている。
●リード時のメモリアドレス=MPU要求アドレスのうち、インデックスアドレスとワードアドレス部分
●ライト時のメモリアドレス
インデックス部=キャッシュミスしたアドレスのインデックスアドレス部
ワード部=(ライトしたいウェイ番号−データメモリ番号+4)÷4の剰余
また、リード時にセレクタ400で選択するデータやライト時にセレクタ200〜203で選択するデータは以下の式に従って操作する。
●各データメモリマクロ100〜103から読み出されるデータのウェイ番号=(ワードアドレス+データメモリ番号)÷4の剰余
●各データメモリマクロ100〜103へのライトデータのワード番号=ライトアドレスのワード部と同じ
〈動作〉
このように構成されたキャッシュメモリでは、上述したメモリアドレスとリード/ライト時のデータ選択操作により、従来と同様に1サイクルで全ウェイからのリードおよび一つのウェイへの全ワードライトが可能となる。
例えば、MPUのリード要求アドレスがインデックスアドレス=0、ワードアドレス=2の場合、図1に示した各データメモリマクロ100〜103の(2,0,2)、(3,0,2)、(0,0,2)、(1,0,2)のデータが読み出される(図中、網掛けA部分に示す)。従って、データメモリマクロ100〜103に対応するウェイの順番は、2,3,0,1となっている。また、リードミスアドレスのインデックスアドレス=511、書き込みウェイ=0であった場合は、各データメモリマクロ100〜103の(0,511,0)、(0,511,3)、(0,511,2)、(0,511,1)、の箇所にラインバッファ1のデータ(ライトデータ0〜3)がそれぞれ書き込まれる(図中、網掛けB部分に示す)。この時、データメモリマクロ100〜103に対応するワードアドレスの順番は、0,3,2,1となる。
図8は、本具体例のフロアプラン例の説明図である。
従来に比べて、データメモリマクロが4個になったため、データメモリ部91が小さくなり、従って、従来のLSIのダイサイズ80に比べて本具体例のダイサイズ90は小さくすることができる。
図9は、本具体例のリード/ライト時のタイムチャートである。
データメモリマクロ100〜103は、クロックに同期して動作する。リード時はクロックのエッジT2に対してアドレス0〜3およびチップイネーブル0〜3をアサートして入力する。この時、アドレス0〜3は同じアドレスでよい。リードデータはクロックのエッジT3でサンプルできるタイミングで有効なデータを出力する。この時、各データメモリマクロ100〜103からはアドレスで指定された各ウェイのデータが出力されている。
ライト時はクロックのエッジT4に対してアドレス0〜3およびライトデータ0〜3を入力する。この時のアドレス0〜3のインデックスアドレスは同一で、ワードアドレスは書き込みたいウェイ番号により決められた値を供給する。また、この決められたワードアドレスに対応するライトデータ0〜3の一つが選択されてデータメモリマクロ100〜103へのライトデータとなる。同じタイミングでチップイネーブル0〜3およびライトイネーブル0〜3がアサートされる。これによりデータメモリマクロ100〜103にデータが書き込まれる。
〈効果〉
以上のように、具体例によれば、各データメモリマクロにおけるデータ格納位置を、同一インデックスのワードアドレス毎に別のウェイ番号とし、かつ、各ウェイの同一インデックスで同一ワードアドレスのデータは各データメモリマクロ毎に格納するようにしたので、データメモリマクロの数を従来の16個から4個に削減することができ、その結果、図8に示すように、例えばMPUとデータメモリマクロ100〜103間の配線を短くすることができる。これにより配線遅延、リピータによる遅延も小さく抑えることができ、性能向上を図ることができる。また、一般にデータメモリマクロは同じ容量を複数個で実現するより1個で実現する方が面積は小さくなる。これは1個にまとめることで共有できる部分(信号、電源の配線など)が増え、その分面積は小さくすることができるからである。これによりLSIの面積も削減することができ、LSI単価を抑えることができる。また、同一メモリアドレスで特定のワードの全てのウェイのデータをリードすることができるため、キャッシュメモリとしての高速性を損なうことがない。
《利用形態》
具体例のデータメモリマクロ100〜103のデータ格納位置ではワードアドレスをメモリアドレスのLSB側に割り当てたがその他のビットに割り当ててもよい。
また、具体例のデータメモリマクロはLSI内部で使用することを例として説明したが、これに限定されるものではなく、例えばSRAMのIC部品としてLSI外部で使用しても適用可能である。この場合は、ICの数を減らすことができる。
上記具体例では、ウェイ数4、ワード数4で説明したが、他のウェイ数、ワード数でも適用可能である。この場合、データメモリマクロの数はウェイ数と同じかそれ以上とし、ウェイ数よりワード数が多い場合は、一つのデータメモリマクロのビット幅を2ワード以上とする。そして、これらのワードは同一のウェイとする。例えば、ウェイ数4、ワード数8の場合は、データメモリマクロを4として、一つのデータメモリマクロのビット幅を2ワードとする。
図10は、ウェイ数4、ワード数8の場合のデータ格納位置の説明図である。
図示のように、各データメモリマクロ100〜103の同一メモリアドレスに対してそれぞれ2ワードが割り当てられている。これにより、リード時は、各ウェイの同一の2ワード単位でリードし、ライト時は、対象となるウェイの全ワード(0〜7)をライトする。
また、上記具体例では、図1に示すようなデータ格納状態としたが、各データメモリブロックにおけるデータ格納位置を、(同一インデックスの)ワードアドレス毎に別のウェイ番号とし、かつ、各ウェイの同一インデックスで同一ワードアドレスのデータは各データメモリ毎に別に格納する構成であれば、このような割付に限定されるものではない。
図11は、データ格納位置の変形例を示す説明図である。
この例は、ライト時(図中、Bで示す)に各データメモリマクロ100〜103の同一メモリアドレスでアクセスするように配置したものである。この場合のデータメモリマクロ100〜103に対するリード/ライト時のアドレスは次のようになる。
●リード時のメモリアドレス
インデックス部=MPU要求アドレスのインデックスアドレスと同じ
ワード部=(MPU要求アドレスのワードアドレス−データメモリ番号+4)÷4の剰余
●ライト時のメモリアドレス
インデックス部=キャッシュミスしたアドレスのインデックスアドレス
ワード部=ウェイ番号
また、リード時にセレクタ400で選択するデータやライト時にセレクタ200〜203で選択するデータは以下の式に従って操作する。
●各データメモリマクロ100〜103から読み出されるデータのウェイ番号=(MPU要求アドレスのワードアドレス−データメモリ番号+4)÷4の剰余
●各データメモリマクロ100〜103へのライトデータのワード番号=(ウェイ番号+データメモリ番号)÷4の剰余
例えば、MPUのリード要求アドレスがインデックスアドレス=0、ワードアドレス=2の場合、図1に示した各データメモリマクロ100〜103の(2,0,2)、(1,0,2)、(0,0,2)、(3,0,2)のデータが読み出される(図中、網掛けA部分に示す)。従って、データメモリマクロ100〜103に対応するウェイの順番は、2,1,0,3となっている。また、リードミスアドレスのインデックスアドレス=511、書き込みウェイ=0であった場合は、各データメモリマクロ100〜103の(0,511,0)、(0,511,1)、(0,511,2)、(0,511,3)の箇所にラインバッファ1のデータ(ライトデータ0〜3)がそれぞれ書き込まれる(図中、網掛けB部分に示す)。この時、データメモリマクロ100〜103に対応するワードアドレスの順番は、0,1,2,3となる。
本発明のキャッシュメモリにおけるデータ格納位置の説明図である。 従来のキャッシュメモリの構成図である。 アドレスフォーマットの説明図である。 従来のデータ格納位置の説明図である。 従来のフロアプラン例の説明図である。 従来例のリード/ライト時のタイムチャートである。 具体例のキャッシュメモリの構成図である。 具体例のフロアプラン例の説明図である。 具体例のリード/ライト時のタイムチャートである。 ウェイ数4、ワード数8の場合のデータ格納位置の説明図である。 データ格納位置の変形例を示す説明図である。
符号の説明
100〜103 データメモリマクロ

Claims (10)

  1. Nウェイのセットアソシアティブ方式に基づいてキャッシュデータを格納するよう設定され、複数のキャッシュデータにそれぞれ対応する複数の格納位置を有する複数のデータメモリマクロユニットを備え、
    各前記格納位置は、前記Nウェイの1つを識別するために用いられるウェイ番号と、
    メインメモリの前記キャッシュデータのそれぞれが格納されているアドレスに対応する部分によって決定されるインデックス番号と、
    前記メインメモリの前記対応するアドレスの他の部分によって決定されるワード番号によって指定され、
    前記複数のデータメモリマクロユニットは、それぞれ同時にアクセス可能なキャッシュメモリにおいて、
    前記複数のデータメモリマクロユニットに対しN個のキャッシュデータを同時書き込み許可するべく、前記複数のデータメモリマクロユニットのいずれか1つのデータ入力端子にそれぞれ接続されている複数のマルチプレクサを備え、
    同一のインデックス番号及び相違するワード番号によって指定された前記それぞれのキャッシュデータは、前記各データメモリマクロユニットに共通に格納され、同一のインデックス番号及び相違するウェイ番号によって指定された前記それぞれのキャッシュデータは、相違するデータメモリマクロユニットに格納され
    物理的キャッシュメモリアドレスは、前記各データメモリマクロユニットにおける前記各格納位置のために決定され、同一のインデックス番号及び同一のウェイ番号によって指定されたそれぞれのキャッシュデータが、前記各データメモリマクロユニットにおいて同一のキャッシュメモリアドレスに格納されることを特徴とするキャッシュメモリ。
  2. 前記同一のインデックス番号及び同一のワード番号によって指定されたそれぞれのキャッシュデータが、前記各データメモリマクロユニットにおける相違するキャッシュメモリアドレスに格納されることを特徴とする請求項1記載のキャッシュメモリ。
  3. 前記各データメモリマクロユニットに格納されている前記キャッシュデータの部分を構成する前記同一のインデックス番号によって指定された各キャッシュデータは、相違するウェイ番号及び相違するワード番号によって指定されることを特徴とする請求項1記載のキャッシュメモリ。
  4. 前記複数のデータメモリマクロユニットに書き込むための前記メインメモリからの前記N個のデータを受信するために、複数のマルチプレクサに接続されているラインバッファを更に備えることを特徴とする請求項1記載のキャッシュメモリ。
  5. ウェイNの数は4であることを特徴とする請求項1記載のキャッシュメモリ。
  6. 前記各データメモリマクロユニットに格納されている複数の前記それぞれのキャッシュデータは、同一のインデックス番号によって指定されている前記各キャッシュデータのグループに設定され、前記グループは、前記キャッシュメモリアドレスの設定に対応させる方式で、インデックス番号が順次増加する順序で設定されており、前記各グループを構成する前記各キャッシュデータは、ワード番号が順次増加する順序で周期的に設定されることを特徴とする請求項1記載のキャッシュメモリ。
  7. 前記キャッシュデータの前記グループを構成する各キャッシュデータを指定する前記ワード番号の前記周期的なシーケンスにおけるイニシャルウェイ番号が、前記データメモリマクロユニット間で相違することを特徴とする請求項6記載のキャッシュメモリ。
  8. 前記それぞれのキャッシュデータは、前記Nの倍数であるメインメモリからのワード番号を備えることを特徴とする請求項1記載のキャッシュメモリ。
  9. 前記データメモリマクロユニットの数は、前記Nの倍数であることを特徴とする請求項1記載のキャッシュメモリ。
  10. 前記複数のデータメモリマクロユニットからN個のキャッシュデータを同時読み込み許可するべく、前記各データメモリマクロユニットのデータ出力端子に接続されているマルチプククサを備えることを特徴とする請求項1記載のキャッシュメモリ。
JP2008263175A 2008-10-09 2008-10-09 キャッシュメモリ、キャッシュメモリ装置及び割当て方法 Expired - Fee Related JP4918535B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008263175A JP4918535B2 (ja) 2008-10-09 2008-10-09 キャッシュメモリ、キャッシュメモリ装置及び割当て方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008263175A JP4918535B2 (ja) 2008-10-09 2008-10-09 キャッシュメモリ、キャッシュメモリ装置及び割当て方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001073337A Division JP2002278836A (ja) 2001-03-15 2001-03-15 キャッシュメモリ

Publications (2)

Publication Number Publication Date
JP2009043282A JP2009043282A (ja) 2009-02-26
JP4918535B2 true JP4918535B2 (ja) 2012-04-18

Family

ID=40443895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008263175A Expired - Fee Related JP4918535B2 (ja) 2008-10-09 2008-10-09 キャッシュメモリ、キャッシュメモリ装置及び割当て方法

Country Status (1)

Country Link
JP (1) JP4918535B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6287545B2 (ja) * 2014-04-25 2018-03-07 富士通株式会社 演算処理装置及び演算処理装置の制御方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03273592A (ja) * 1990-03-22 1991-12-04 Nec Corp キャッシュメモリ装置
JP2000215103A (ja) * 1999-01-21 2000-08-04 Hitachi Ltd キャッシュメモリ回路

Also Published As

Publication number Publication date
JP2009043282A (ja) 2009-02-26

Similar Documents

Publication Publication Date Title
JP3807582B2 (ja) 情報処理装置及び半導体装置
US5146582A (en) Data processing system with means to convert burst operations into memory pipelined operations
US6170070B1 (en) Test method of cache memory of multiprocessor system
JP4034738B2 (ja) データマスクマッピング情報取得方法
JP2004157593A (ja) 多ポート統合キャッシュ
CN102084428A (zh) 多模式存储器装置和方法
JPH0594698A (ja) 半導体記憶装置
JP4199658B2 (ja) 読出及び書込動作でバースト順序が異なるアドレッシングを行うメモリデバイス
CN108139989B (zh) 配备有存储器中的处理和窄访问端口的计算机设备
US20180314640A1 (en) Memory Device Accessed In Consideration Of Data Locality And Electronic System Including The Same
JP2006507555A (ja) コントローラプログラミングによるハードウェアへのデータマスクマッピング
US10275392B2 (en) Data processing device
TW491970B (en) Page collector for improving performance of a memory
JP4918535B2 (ja) キャッシュメモリ、キャッシュメモリ装置及び割当て方法
US8806102B2 (en) Cache system
JP2002278836A (ja) キャッシュメモリ
JP2007213381A (ja) 情報処理装置
JPH09198862A (ja) 半導体メモリ
JP2008146330A (ja) メモリコントローラ
JP2009217714A (ja) データ処理回路、キャッシュシステムおよびデータ転送装置
JP5182284B2 (ja) ベクトル処理装置
US7404049B2 (en) Method and system for managing address bits during buffered program operations in a memory device
CN103871476A (zh) 嵌入式存储器测试***
JPH0836525A (ja) 多重アクセスキャッシュ記憶装置
JP4750446B2 (ja) 半導体集積回路

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100420

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20100526

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110802

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120106

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120130

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150203

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees