JPH04100158A - Cache control system - Google Patents

Cache control system

Info

Publication number
JPH04100158A
JPH04100158A JP2217823A JP21782390A JPH04100158A JP H04100158 A JPH04100158 A JP H04100158A JP 2217823 A JP2217823 A JP 2217823A JP 21782390 A JP21782390 A JP 21782390A JP H04100158 A JPH04100158 A JP H04100158A
Authority
JP
Japan
Prior art keywords
cache
memory
main memory
space
control flag
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2217823A
Other languages
Japanese (ja)
Inventor
Takahiro Amano
天野 孝弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PFU Ltd
Original Assignee
PFU Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PFU Ltd filed Critical PFU Ltd
Priority to JP2217823A priority Critical patent/JPH04100158A/en
Publication of JPH04100158A publication Critical patent/JPH04100158A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0806Multiuser, multiprocessor or multiprocessing cache systems
    • G06F12/0842Multiuser, multiprocessor or multiprocessing cache systems for multiprocessing or multitasking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0888Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches using selective caching, e.g. bypass

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

PURPOSE:To optimize the balance of the processing of the whole system by providing cache control flags corresponding to respective areas (space) that tasks use, setting the flags ON and OFF, and performing cache operation. CONSTITUTION:A cache control flag 2 is set to ON or OFF when a task is loaded in a main memory 1. When access to an area (space) of the main memory 1 where the cache control flag 2 is ON is attained, the cache operation is performed on a cache memory 4 and when access to an area (space) of the main memory 1 where the cache control flag 2 is ON is attained, the cache operation is inhibited on the cache memory 4. Consequently, the cache memory 4 is used preferentially for a task which is high in necessity of fast processing such as real-time processing to perform the fast processing.

Description

【発明の詳細な説明】 〔概要〕 タスクに対応づけてキャッシュを行うキャッシュ制御方
式に関し、 タスクが使用する空間毎にキャッシュ制御フラグを設け
て0N10FF設定し、リアルタイム処理などの高速処
理の必要の高いタスクについてキャッシュメモリを優先
的に使用し、高速処理可能にすることを目的とし、 メインメモリにロードしたタスクの領域(あるいは空間
)毎にキャッシュを行うか否かを表すキャッシュ制御フ
ラグをそれぞれ設け、タスクのメインメモリへのロード
時などに上記キャッシュ制御フラグをONあるいはOF
Fに設定し、アクセス時に、当該アクセスがキャッシュ
制御フラグのONのメインメモリの領域(あるいは空間
)のときにキャッシュメモリに対してキャッシュ動作を
行い、OFFのメインメモリの領域(あるいは空間)の
ときにキャッシュメモリに対するキャッシュ動作を抑止
するように構成する。
[Detailed Description of the Invention] [Summary] Regarding a cache control method that performs caching in association with a task, a cache control flag is provided for each space used by a task and set to 0N10FF, so that high-speed processing such as real-time processing is required. In order to enable high-speed processing by preferentially using cache memory for tasks, a cache control flag is set for each area (or space) of a task loaded into main memory to indicate whether or not to cache it. Turn the above cache control flag ON or OFF when loading a task to main memory, etc.
Set to F, and at the time of access, cache operation is performed on the cache memory when the access is to a main memory area (or space) where the cache control flag is ON, and when the access is to a main memory area (or space) where the cache control flag is OFF. The configuration is configured to suppress caching operations for the cache memory.

〔産業上の利用分野〕[Industrial application field]

本発明は、タスクに対応づけてキャッシュを行うキャッ
シュ制御方式に関するものである。
The present invention relates to a cache control method that performs caching in association with tasks.

〔従来の技術と発明が解決しようとする課8]マルチタ
スクソステムは、タイマなどによっである時間経通した
ときに割り込みによって、あるいはI10アクセス中な
どのCPUタイムを消費しないシーケンスが開始された
ことによって、タスクを切り替える。このタスクの切り
替えによって、メインメモリをアクセスする領域が代わ
り、時間的、空間的な局所性が損なわれ、キャッシュメ
モリに対するミスヒツトが増大して結果的にリプレース
が多発し、キヤノンユによるノステムの性能向上が半減
してしまうという問題があった。
[Issue 8 to be solved by the prior art and the invention] In a multitasking system, a sequence that does not consume CPU time, such as during an I10 access, is started by an interrupt when a certain amount of time has elapsed using a timer or the like. Switch tasks depending on the situation. This switching of tasks changes the area accessed in main memory, impairs temporal and spatial locality, increases cache memory misses, and results in frequent replacements. The problem was that it was halved.

本発明は、タスクが使用する空間毎にキャッシュ制御フ
ラグを設けてO’、:10 F F設定し、リアルタイ
ム処理などの高速処理の必要の高いタスクについてキャ
ッシュメモリを優先的に使用し、高速処理可能にするこ
とを目的としている。
The present invention provides a cache control flag for each space used by a task and sets it to O', :10FF, and uses the cache memory preferentially for tasks that require high-speed processing such as real-time processing, thereby achieving high-speed processing. It aims to make it possible.

〔課題を解決するだめの手段〕[Failure to solve the problem]

第1図および第2図を参照して課題を解決するための手
段を説明する。
Means for solving the problem will be explained with reference to FIGS. 1 and 2.

第1図において、メインメモリlは、タスクなどをロー
ドする領域(空間)である。
In FIG. 1, main memory l is an area (space) into which tasks and the like are loaded.

キャッシュ制御フラグ2は、メインメモリ1にロードし
たタスクの領域(空間)毎にキャッシュを行うか否かを
表すフラグである。
The cache control flag 2 is a flag indicating whether or not to cache each area (space) of a task loaded into the main memory 1.

キャッシュメモリ4は、キャッシュを行うだめのメモリ
である。
The cache memory 4 is a memory for caching.

第2図において、メインメモリ1は、タスクなどをロー
ドするSII域(空間)である。
In FIG. 2, main memory 1 is an SII area (space) into which tasks and the like are loaded.

キャッシュ制御フラグ2は、メインメモリ1にロードし
たタスクの領域(空間)毎に、キャッシュメモリ4の各
ウェイに対応づけてキヤノンユを行うか否かを表すフラ
グである。
The cache control flag 2 is a flag indicating whether or not to perform canonization in association with each way of the cache memory 4 for each area (space) of the task loaded into the main memory 1.

キャッシュメモリ4は、キャッシュを行うためのメモリ
であって、並行してアクセス可能な複数のウェイから構
成されるメモリである。
The cache memory 4 is a memory for caching, and is a memory composed of a plurality of ways that can be accessed in parallel.

〔作用〕[Effect]

本発明は、第1閲に示すように、タスクのメインメモリ
1へのロート時などにキヤノンユ制4’fEフラグ2を
ONあるいは○FFIこ設定し、アクセス時に、当該ア
クセスがキャッシュ制御フラグ2のONのメインメモリ
1の領域(空間)のときにキャッシュメモリ4に対して
キャノソユ動作を行い、OFFのメインメモリ1の領域
(空間)のときにキャッシュメモリ4に対するキャッシ
ュ動作を抑止する。敦だ、第2図に示すように、タスク
のメインメモリIへのロード時などにキャッシュ制御フ
ラグ2をONあるいはOFFに設定し、アクセス時に、
当該アクセスがキ^ノン二制御フラグ2のONのメイン
メモリ1の領域(空間)のときにキャッシュメモリ4の
OXのウェイに対してキャッシュ動作を行い、OFFの
ウェイに対してキャッシュ動作を抑止する。
As shown in the first review, the present invention sets the Canon system 4'fE flag 2 to ON or ○FFI when loading a task to the main memory 1, and when the access is accessed, the cache control flag 2 is set. When the main memory 1 area (space) is ON, a cache operation is performed on the cache memory 4, and when the main memory 1 area (space) is OFF, the cache operation on the cache memory 4 is suppressed. Atsushi, as shown in Figure 2, cache control flag 2 is set to ON or OFF when loading a task to main memory I, and when accessing,
When the access is to the area (space) of the main memory 1 where the control flag 2 is ON, a cache operation is performed for the OX way of the cache memory 4, and the cache operation is inhibited for the way where the control flag 2 is OFF. .

従って、タスクが使用する領域(空間)毎tこキャッシ
ュ制御フラグ2を設けて○\10FF設定してキャッシ
ュ動作を行う、抑止することにより、リアルタイム処理
などの高速処理の必要性の高いタスクについてキャッシ
ュメモリ4を優先的に使用して高速処理を行うことが可
能となる。
Therefore, by setting a cache control flag 2 for each area (space) used by a task and setting it to ○\10FF to perform or inhibit caching, it is possible to cache tasks that require high-speed processing such as real-time processing. It becomes possible to perform high-speed processing by preferentially using the memory 4.

〔実施例〕〔Example〕

次に、第1図から第5図を用いて本発明の実施例の構成
および動作を順次詳細に説明する。
Next, the configuration and operation of the embodiment of the present invention will be explained in detail using FIGS. 1 to 5.

第1図は、本発明の1実施例構成図を示す。これは、タ
スクをロードするメインメモリ1のeTJ域(空間)に
対応づけてキャッシュ制御フラグ2を設けた場合である
FIG. 1 shows a configuration diagram of one embodiment of the present invention. This is a case where the cache control flag 2 is provided in association with the eTJ area (space) of the main memory 1 into which the task is loaded.

第1図において、メインメモリ1は、O3(オペレーテ
ィングシステム)、タスクなどをロードする領域(仮想
空間のうちの1つの空間)である。
In FIG. 1, main memory 1 is an area (one of the virtual spaces) into which O3 (operating system), tasks, etc. are loaded.

キャッシュ制御フラグ2は、メインメモリ1にロートし
たタスクの領域(空間)毎にキャッシュを行うか否かを
表すフラグであって、ONのときにキャッシュを行い、
OFFのときにキャッシュを抑止するためのフラグであ
る。
The cache control flag 2 is a flag indicating whether or not to cache each area (space) of a task loaded into the main memory 1, and when it is ON, cache is performed.
This is a flag for inhibiting caching when it is OFF.

キャッシュコントローラ3は、キャッシュメモリ4を制
御してキャッシュを行うものである。例えばリード時に
キャッシュメモリ4を構成するタグメモリを検索してヒ
ツトしたときにキャッシュメモリからリードしたデータ
をアクセス要求元に転送し、ミスヒツトしたときにメイ
ンメモリlの8亥当するアドレスからデータを読みだし
てキャッシュメモリに格納すると共にアクセス要求元に
転送したりするものである。
The cache controller 3 controls the cache memory 4 to perform caching. For example, when reading, the tag memory that makes up cache memory 4 is searched, and when there is a hit, the data read from the cache memory is transferred to the access request source, and when there is a miss, the data is read from the corresponding address 8 of main memory 1. The data is then stored in the cache memory and transferred to the access request source.

キャッシュメモリ4は、ヒツト/ミスヒツトを判別する
タグメモリ、データを格納するメモリ(キャッシュメモ
リ)から構成されるものである。
The cache memory 4 is composed of a tag memory for determining hits/misses and a memory (cache memory) for storing data.

1)05は、各種入出力を行う入出力装置である。1) 05 is an input/output device that performs various input/output operations.

CPU6は、メインメモリ1にロードされたプログラム
をもとに各種制御を行うものである。
The CPU 6 performs various controls based on programs loaded into the main memory 1.

第2図は、本発明の他の実施例構成図を示す。FIG. 2 shows a block diagram of another embodiment of the present invention.

これは、タスクをロードするメインメモリ1の領域(空
間)について、キャッシュメモリ4のウェイのいずれに
キャッシュを行うか否かをキャッシュ制御フラグ2によ
って制御するようにした場合のものである。
This is a case where the cache control flag 2 is used to control which way of the cache memory 4 the area (space) of the main memory 1 into which a task is loaded is to be cached.

第2図において、キャッシュ制御フラグ2は、メインメ
モリ1にロードしたタスクの領域(空間)について、キ
ャッシュメモリ4のウェイのいずれにキャッシュを行う
か否かを表すフラグである。ONのウェイのキャッシュ
メモリ4にキャッシュを行い、0FFOウエイのキャッ
シュメモリ4にキャッシュを抑止するためのフラグであ
る。
In FIG. 2, a cache control flag 2 is a flag indicating in which way of the cache memory 4 a task area (space) loaded into the main memory 1 is to be cached. This is a flag for caching in the cache memory 4 of the ON way and inhibiting caching in the cache memory 4 of the 0FFO way.

キャッシュコントローラ3は、キャッシュメモリ4を制
御してキャッシュを行うものである。
The cache controller 3 controls the cache memory 4 to perform caching.

次に、第3図を用いてキャッシュ制御フラグ2の設定に
ついて詳細に説明する。
Next, the setting of cache control flag 2 will be explained in detail using FIG.

第3図において、■は、タスク起動要求を行う。In FIG. 3, ■ issues a task activation request.

@は、メインメモリ1へ割り当てロードする。@ allocates and loads into main memory 1.

これは、タスクを第1図メインメモリlの領域(あるい
は空間)に割り当て、この割り当てた領域(空間)にロ
ードする。
This allocates a task to an area (or space) of the main memory l in FIG. 1 and loads it into this allocated area (space).

0は、優先レベル・高いか否かを判別する。これは、タ
スクの優先レベルが高いか否かを判別(例えばリアルタ
イム処理は高く、ハツチ処理は低く判別)する。YES
の場合(例えば優先レベルの高いリアルタイム処理の場
合)には、■でロードした領域に対応する(ウェイ毎の
)キャッシュ制御フラグ2をセットする。これは、第1
図の場合には、タスクをロードしたメインメモリ1の領
域(空間)のキャッシュ制御フラグ2を0\にセントす
る。第2図の場合には、タスクをロードしたメインメモ
リ1の領域(空間)に対応する、キャッシュメモリ4の
該当するウェイのキャッシュ制御フラグ2をONにセッ
トする。一方、\Oの場合には、キャッシュ制御フラグ
2をOFFのまま、即ちキャッシュを抑止したままにし
、■を行う。
0 determines whether the priority level is high or not. This determines whether the priority level of the task is high (for example, real-time processing is determined to be high and hatch processing is determined to be low). YES
In the case (for example, in the case of real-time processing with a high priority level), the cache control flag 2 (for each way) corresponding to the area loaded in (2) is set. This is the first
In the case shown in the figure, the cache control flag 2 of the area (space) of the main memory 1 into which the task is loaded is set to 0\. In the case of FIG. 2, the cache control flag 2 of the corresponding way of the cache memory 4 corresponding to the area (space) of the main memory 1 loaded with the task is set to ON. On the other hand, in the case of \O, the cache control flag 2 is left OFF, that is, the cache is kept inhibited, and step (2) is performed.

■は、タスクを起動する。■ Launch the task.

以上の処理によって、タスクをメインメモリ1にロード
するときに、第1図構成の場合には優先度の高いタスク
についてキャッシュ制御フラグ2をONにセットしてキ
ャッシュを行うようにし、また、第2図構成の場合には
優先度の高いタスクについて、キャッシュメモリ4の該
当するウエイのキャッシュ制御フラグ2をONにセット
してキヤ・7シユを行うようにしている。
Through the above processing, when loading a task into the main memory 1, in the case of the configuration shown in FIG. In the case of the diagram configuration, for a task with a high priority, the cache control flag 2 of the corresponding way in the cache memory 4 is set to ON to perform a cache.

次に、第4図を用いてキャッシュ動作およびキャッシュ
動作の抑止について詳細に説明する。
Next, cache operation and inhibition of cache operation will be explained in detail using FIG. 4.

第4閏において、■は、アドレス情報取得する。In the fourth leap, ■ acquires address information.

これは、第3図フローチャートによってメインメモリ1
にロードしたタスクを起動し、実行時におけるメインメ
モリ1へのアクセスのアドレス情報を取得する。
This is done according to the flowchart in Figure 3.
Activate the loaded task and obtain address information for accessing the main memory 1 during execution.

■は、キャンシュ制御フラグ2がON領域か否かを判別
する。これは、第1図構成の場合には、タスクがアクセ
スしたメインメモリ1の領域(空間)のキャッシュ制御
フラグ2がONか否かを判別する。第2図構成の場合に
は、タスクがアクセスしたメインメモリlの領域(空間
)のうちのいずれかのキャンシュメモリ4のウェイのキ
ャッシュ制御フラグ2がONか否かを判別する。YES
の場合には、キャッシュ動作を行う。Noの場合には、
キャッシュ動作を抑止する。
(2) determines whether cache control flag 2 is in the ON region or not. In the case of the configuration shown in FIG. 1, this determines whether the cache control flag 2 of the area (space) of the main memory 1 accessed by the task is ON. In the case of the configuration shown in FIG. 2, it is determined whether the cache control flag 2 of any way of the cache memory 4 in the area (space) of the main memory 1 accessed by the task is ON. YES
In this case, cache operation is performed. In case of No,
Suppress cache operations.

以上の処理によって、第1図構成のもとで、タスクがア
クセスしたメインメモリ1の領域(空間)のキャッシュ
制御フラグ2がONのときにキャッシュ動作を行い、O
FFのときにキャッシュ動作を抑止することにより、リ
アルタイム処理などの優先レベルの高いタスクについて
キャッシュメモリ4を優先的に使用して高速に処理を行
うことが可能となる。また、第2図構成のもとで、タス
クがアクセスしたメインメモリ1の領域(空間)につい
て・キャッシュメモリ4のウェイのキャッシュ制j升フ
ラグ2がONのときに当;亥ウェイに対してキャッシュ
動作を行い、OFFのウェイにキャッシュ動作を抑止す
ることにより、リアルタイム処理などの優先レベルの高
いタスクについてキャッシュメモリ4のウェイを優先的
に使用して高速に処理を行うことが可能となる。
Through the above processing, under the configuration shown in FIG. 1, a cache operation is performed when the cache control flag 2 of the area (space) of the main memory 1 accessed by a task is ON, and
By inhibiting the cache operation during FF, it is possible to preferentially use the cache memory 4 for high-priority tasks such as real-time processing to perform high-speed processing. In addition, under the configuration shown in Figure 2, regarding the area (space) of the main memory 1 accessed by the task, when the cache control flag 2 of the way in the cache memory 4 is ON, the cache for the way is By performing the operation and suppressing the cache operation in the OFF way, it becomes possible to preferentially use the way of the cache memory 4 for high-priority tasks such as real-time processing and perform high-speed processing.

第5図は、本発明に係るウェイ許容割り当てテーブル例
を示す。これは、第2図に示すようにキャンシメモリ4
を4ウエイとし、これらの4ウエイに対応づけてキャッ
シュ制御フラグ2をそれぞれ設け、キャッシュを行う/
キャ、ンユを抑止するときに、キャッシュ制御フラグ2
をONにする許容する組合せを予め設定したテーブルで
ある。
FIG. 5 shows an example of a way allowance allocation table according to the present invention. As shown in FIG.
is set as 4 ways, and cache control flag 2 is set in association with these 4 ways to perform caching/
Cache control flag 2 is set when suppressing cache/unyu.
This is a table that presets combinations that are allowed to turn on.

例えば第2図構成は、第5図■の組合せであって、4ウ
ェイ:1組 2ウェイ:1組 1ダイレクト (ウェイ)=2組 としている。ここで、1ダイレクト (ウェイ)は、リ
ード時にミスヒツトしたとき、メインメモリlからリー
ドしたデータをキャッシュメモリ4の当該ウェイに直接
に書き込む。2.4ウエイの場合には、一番古いデ・−
夕を更新する。
For example, the configuration shown in FIG. 2 is the combination shown in FIG. Here, 1 direct (way) directly writes the data read from the main memory 1 to the corresponding way of the cache memory 4 when a miss occurs during reading. 2. In the case of 4-way, the oldest de-
Update evening.

〔発明の効果〕〔Effect of the invention〕

以上説明したように、本発明によれば、タスクが使用す
る領域(空間)毎にキャッシュ制御フラグ2を設けて0
N10FF設定してキャンシュ動作を行う、抑止する構
成を採用しているため、マルチタスクシステムにおいて
、リアルタイム処理などの高速処理の必要性の高いタス
クについてキャッシュメモリ4を優先的に使用して高速
処理を行うことができる。これにより、高速処理の必要
性の高いリアルタイム処理や、高速処理の必要性がそれ
ほどでないパッチ処理をマルチタスクシステムで行う場
合に、システム全体の処理のバランスを最適化すること
が可能となる。
As explained above, according to the present invention, cache control flag 2 is provided for each area (space) used by a task.
Since the configuration uses a configuration that performs and suppresses cache operations by setting N10FF, in a multitasking system, cache memory 4 can be used preferentially for tasks that require high-speed processing such as real-time processing to perform high-speed processing. It can be carried out. This makes it possible to optimize the processing balance of the entire system when a multitasking system performs real-time processing that requires high-speed processing or patch processing that does not require high-speed processing.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の1実施例構成図 第2図は本発明の他の実施例構成図 第3図は本発明の動作説明フローチャート(キャッシュ
制御フラグの七ノド) 第4図は本発明の動作説明フローチャート(キャッシュ
動作/抑止ン 第5図は本発明ムこ係るウェイ許容割り当てチーフル例 を示す。 図中、1:メインメモリ 2°キャッシュ制御フラグ 3:キャッシュコントローラ 4、キャノシュメモリ 5 : ■/○ :  CPU
FIG. 1 is a block diagram of one embodiment of the present invention. FIG. 2 is a block diagram of another embodiment of the present invention. Operation Explanation Flowchart (Cache Operation/Inhibition) Figure 5 shows an example of way permissible allocation according to the present invention. ○: CPU

Claims (2)

【特許請求の範囲】[Claims] (1)タスクに対応づけてキャッシュを行うキャッシュ
制御方式において、 メインメモリ(1)にロードしたタスクの領域(あるい
は空間)毎にキャッシュを行うか否かを表すキャッシュ
制御フラグ(2)をそれぞれ設け、タスクのメインメモ
リ(1)へのロード時などに上記キャッシュ制御フラグ
(2)をONあるいはOFFに設定し、 アクセス時に、当該アクセスがキャッシュ制御フラグ(
2)のONのメインメモリ(1)の領域(あるいは空間
)のときにキャッシュメモリ(4)に対してキャッシュ
動作を行い、OFFのメインメモリ(1)の領域(ある
いは空間)のときにキャッシュメモリ(4)に対するキ
ャッシュ動作を抑止するように構成したことを特徴とす
るキャッシュ制御方式。
(1) In a cache control method that performs caching in association with tasks, a cache control flag (2) is provided for each region (or space) of a task loaded into the main memory (1), indicating whether or not caching is to be performed. , the above cache control flag (2) is set to ON or OFF when loading the task to the main memory (1), and when accessing, the cache control flag (2) is set to ON or OFF.
2) When the main memory (1) area (or space) is ON, cache operation is performed on the cache memory (4), and when the main memory (1) area (or space) is OFF, the cache operation is performed on the cache memory (4). (4) A cache control method characterized by being configured to suppress cache operations for the above.
(2)タスクに対応づけてキャッシュを行うキャッシュ
制御方式において、 メインメモリ(1)にロードしたタスクの領域(あるい
は空間)毎に、キャッシュメモリ(4)の各ウェイに対
応づけてキャッシュを行うか否かを表すキャッシュ制御
フラグ(2)をそれぞれ設け、タスクのメインメモリ(
1)へのロード時などに上記キャッシュ制御フラグ(2
)をONあるいはOFFに設定し、 アクセス時に、当該アクセスがキャッシュ制御フラグ(
2)のいずれかがONのメインメモリ(1)の領域(あ
るいは空間)のときにキャッシュメモリ(4)の当該O
Nのウェイに対してキャッシュ動作を行い、OFFのウ
ェイに対してキャッシュ動作を抑止するように構成した
ことを特徴とするキャッシュ制御方式。
(2) In a cache control method that caches in association with tasks, is it possible to cache each area (or space) of a task loaded in main memory (1) in association with each way in cache memory (4)? A cache control flag (2) is provided to indicate whether or not the task's main memory (
When loading to 1), the above cache control flag (2
) is set to ON or OFF, and when accessing, the cache control flag (
2) is ON in the main memory (1) area (or space), the corresponding O in the cache memory (4)
A cache control method characterized in that a cache operation is performed for N ways, and the cache operation is suppressed for OFF ways.
JP2217823A 1990-08-18 1990-08-18 Cache control system Pending JPH04100158A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2217823A JPH04100158A (en) 1990-08-18 1990-08-18 Cache control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2217823A JPH04100158A (en) 1990-08-18 1990-08-18 Cache control system

Publications (1)

Publication Number Publication Date
JPH04100158A true JPH04100158A (en) 1992-04-02

Family

ID=16710307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2217823A Pending JPH04100158A (en) 1990-08-18 1990-08-18 Cache control system

Country Status (1)

Country Link
JP (1) JPH04100158A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08166888A (en) * 1994-12-14 1996-06-25 Nec Corp Memory controller
JP2002342163A (en) * 2001-05-15 2002-11-29 Fujitsu Ltd Method for controlling cache for multithread processor
JP2004178571A (en) * 2002-11-11 2004-06-24 Matsushita Electric Ind Co Ltd Cache controller, cache control method, computer system
WO2005048112A1 (en) * 2003-11-12 2005-05-26 Matsushita Electric Industrial Co., Ltd. Cache memory and control method thereof
JP2005346168A (en) * 2004-05-31 2005-12-15 Matsushita Electric Ind Co Ltd Cache memory, system, and data storage method
JP2006520044A (en) * 2003-03-06 2006-08-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Data processing system with cache optimized for processing data flow applications
JP2008525919A (en) * 2004-12-29 2008-07-17 インテル・コーポレーション Method for programmer-controlled cache line eviction policy
US7493448B2 (en) 2002-06-24 2009-02-17 Nec Corporation Prevention of conflicting cache hits without an attendant increase in hardware
JP2009518754A (en) * 2005-12-22 2009-05-07 インテル コーポレイション Prioritizing performance on multithreaded processors
JP2010170272A (en) * 2009-01-21 2010-08-05 Toyota Motor Corp Control unit
JPWO2013008325A1 (en) * 2011-07-13 2015-02-23 富士通株式会社 Multi-core processor system and control method

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08166888A (en) * 1994-12-14 1996-06-25 Nec Corp Memory controller
JP2002342163A (en) * 2001-05-15 2002-11-29 Fujitsu Ltd Method for controlling cache for multithread processor
US7493448B2 (en) 2002-06-24 2009-02-17 Nec Corporation Prevention of conflicting cache hits without an attendant increase in hardware
JP2004178571A (en) * 2002-11-11 2004-06-24 Matsushita Electric Ind Co Ltd Cache controller, cache control method, computer system
JP4664586B2 (en) * 2002-11-11 2011-04-06 パナソニック株式会社 Cache control device, cache control method, and computer system
JP2006520044A (en) * 2003-03-06 2006-08-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Data processing system with cache optimized for processing data flow applications
WO2005048112A1 (en) * 2003-11-12 2005-05-26 Matsushita Electric Industrial Co., Ltd. Cache memory and control method thereof
US7502887B2 (en) 2003-11-12 2009-03-10 Panasonic Corporation N-way set associative cache memory and control method thereof
US7904675B2 (en) 2004-05-31 2011-03-08 Panasonic Corporation Cache memory, system, and method of storing data
JP2005346168A (en) * 2004-05-31 2005-12-15 Matsushita Electric Ind Co Ltd Cache memory, system, and data storage method
JP4753549B2 (en) * 2004-05-31 2011-08-24 パナソニック株式会社 Cache memory and system
JP2008525919A (en) * 2004-12-29 2008-07-17 インテル・コーポレーション Method for programmer-controlled cache line eviction policy
JP2009518754A (en) * 2005-12-22 2009-05-07 インテル コーポレイション Prioritizing performance on multithreaded processors
JP2010170272A (en) * 2009-01-21 2010-08-05 Toyota Motor Corp Control unit
JPWO2013008325A1 (en) * 2011-07-13 2015-02-23 富士通株式会社 Multi-core processor system and control method

Similar Documents

Publication Publication Date Title
US8250332B2 (en) Partitioned replacement for cache memory
US8108629B2 (en) Method and computer for reducing power consumption of a memory
EP0856797B1 (en) A cache system for concurrent processes
JP3370683B2 (en) Cash system
JP5214676B2 (en) Preserving processor resources during architectural events
US7676632B2 (en) Partial cache way locking
JP5914145B2 (en) Memory protection circuit, processing device, and memory protection method
US5809563A (en) Method and apparatus utilizing a region based page table walk bit
JPH0512116A (en) Cache memory controller
US6643733B2 (en) Prioritized content addressable memory
JP2009506411A (en) Preemptable context switch in a computer device
US6026471A (en) Anticipating cache memory loader and method
JP2019096309A (en) Execution of maintenance operation
JPH04100158A (en) Cache control system
JPH04242848A (en) System for controlling cache memory by running mode
KR102482516B1 (en) memory address conversion
JP3607540B2 (en) Program unit memory access attribute management method
EP1599803B1 (en) Reducing cache trashing of certain pieces
US6785797B2 (en) Address predicting apparatus and methods
JPH01125641A (en) Buffer memory control system
US20030221067A1 (en) Staggering call stack offsets for multiple duplicate control threads
CN111373385B (en) Processor for improved process switching and method thereof
JPH11143774A (en) Cache control mechanism
US20100299482A1 (en) Method and apparatus for determining cache storage locations based on latency requirements
JPH0728706A (en) Cache memory device