JPH0421043A - One-chip cache memory - Google Patents

One-chip cache memory

Info

Publication number
JPH0421043A
JPH0421043A JP2124963A JP12496390A JPH0421043A JP H0421043 A JPH0421043 A JP H0421043A JP 2124963 A JP2124963 A JP 2124963A JP 12496390 A JP12496390 A JP 12496390A JP H0421043 A JPH0421043 A JP H0421043A
Authority
JP
Japan
Prior art keywords
data
block
cache memory
memory
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2124963A
Other languages
Japanese (ja)
Inventor
Fumihiko Terayama
寺山 文彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2124963A priority Critical patent/JPH0421043A/en
Publication of JPH0421043A publication Critical patent/JPH0421043A/en
Pending legal-status Critical Current

Links

Landscapes

  • Memory System Of A Hierarchy Structure (AREA)

Abstract

PURPOSE:To obtain the highest hit rate, respectively in accordance with each application program by providing a pre-fetch number setting register for setting the number of pre-fetch blocks, and a pre-fetcher for executing the pre-fetch by the set number of times. CONSTITUTION:A second set select is obtained by incrementing a first set select in an access address. Subsequently, by a second set select, a cache memory access is executed, whether it is a hit or a miss is decided, and a pre-fetcher 10 for fetching data from a main memory at the time when a miss is decided, and a pre-fetch setting register 11 for setting the number of times of incrementing a second set select are provided. Accordingly, the number of pre- fetch blocks can be set optimumly in accordance with an application program. In such a way, the highest hit rate is obtained at every application program.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、1チツプキヤシユメモリのフェッチ方式に
関するものである。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a fetch method for a one-chip cache memory.

〔従来の技術〕[Conventional technology]

第2図は従来の1チツプキヤツシユ・メモリμPD43
608Rにおけるメモリブロック全体の構成を示すブロ
ック図である0例えば「1チツプ・キャッシュ・メモリ
μPD43608Rの概要と活用法」 (インターフェ
ース、CQ出版社、AUG、1987、p241−2.
57)を抜粋したものである。また、第3図は第2図に
示された1チップキャッシュメモリμPD43608R
におけるメモリブロックの構成を示す図である。
Figure 2 shows the conventional 1-chip cache memory μPD43.
608R is a block diagram showing the overall structure of the memory block in 608R.
This is an excerpt from 57). In addition, FIG. 3 shows the one-chip cache memory μPD43608R shown in FIG.
FIG. 2 is a diagram showing the configuration of a memory block in FIG.

第2図において、2はCPUアドレス、3はCPUデー
タ、4はデータブロック、5はディレクトリ、6はブロ
ックアドレスジェネレータ、7は入力ラッチ、8はブロ
ックロードバッファ、9はバイパスバッファ、10はプ
リフェッチャ、12はシステムバスインターフェース、
13はCPUバスインターフェース、14はLRUであ
る。
In FIG. 2, 2 is a CPU address, 3 is CPU data, 4 is a data block, 5 is a directory, 6 is a block address generator, 7 is an input latch, 8 is a block load buffer, 9 is a bypass buffer, 10 is a prefetcher, 12 is a system bus interface;
13 is a CPU bus interface, and 14 is an LRU.

次に1チップキャッシュメモリブロック全体の動作につ
いて説明する。
Next, the operation of the entire one-chip cache memory block will be explained.

1チップキャッシュメモリは、CPUからの要求に応じ
てメインメモリのデータを記憶し、CPUからのアクセ
スに対しメインメモリに代わって、そのデータの読み出
し/書き込みを高速に9テう。
The 1-chip cache memory stores data in the main memory in response to requests from the CPU, and reads/writes the data at high speed in place of the main memory when accessed by the CPU.

CPUからのメモリアクセスには局所性があり、CPU
からの要求でキャッシュメモリに記憶されたデータは、
近い将来再びアクセスされる可能性が高い、また、アク
セスされたデータにお番する近傍のデータが再びアクセ
スされる可能性も高し)。
Memory access from the CPU has locality, and the CPU
Data stored in cache memory upon request from
There is a high possibility that the accessed data will be accessed again in the near future, and there is also a high possibility that data in the vicinity of the accessed data will be accessed again).

そのため、いったんアクセスされたデータとその近傍の
データをキャッシュメモリに記憶することでCPUの高
速メモリアクセスを実現すること力くできる。CPUが
1チツプキヤ・ンシュメモリをアクセスしたとき、デー
タが存在すればキヤ・ノシュヒット、存在しない場合を
キヤ・νシュミスと言う。
Therefore, by storing data once accessed and data in the vicinity thereof in the cache memory, high-speed memory access by the CPU can be easily achieved. When the CPU accesses one chip memory, if data exists, it is said to be a hit, and if it does not, it is called a hit.

キャツシュヒツトの場合、キャッシュメモリから高速に
データが読み出される。キャッシュミスの場合、CPU
が要求するワードを含むデータのかたまりをメインメモ
リからキヤ・ンシュメモリGこ取り込み(フェッチ動作
)、次回からのCPUアクセスに備える。
In the case of cache data, data is read from the cache memory at high speed. In case of cache miss, CPU
The data block including the word requested by the cache memory G is fetched from the main memory (fetch operation) in preparation for the next CPU access.

ここで、このキャッシュメモリとメインメモリの情報転
送の単位であるデータのかたまりをブロックと呼び、そ
の大きさをブロックサイズと言う。
Here, a block of data that is a unit of information transfer between the cache memory and the main memory is called a block, and its size is called a block size.

この情報転送時におけるキャッシュメモリの動作はキャ
ッシュメモリ中にそのブロックを記憶する空きスペース
がない場合、現在ある古いブロックのどれかを追い出す
(リプレース動作)。
The operation of the cache memory during this information transfer is to eject one of the existing old blocks (replace operation) if there is no free space in the cache memory to store the block.

次に従来の1チップキャッシュメモリのメモリ構成と動
作について説明する。第3図はデータブロック4、ディ
レクトリ5、LRU14の3ブロツクよりなる4ウエイ
セツトアソシアテイブのメモリ構成を示す。データブロ
ック4はメインメモリのデータを保持するメモリ部であ
る。ディレクトリ5は、データブロックの各データに対
応するアドレスの格納場所であるアドレスタグと、格納
データが有効か無効かを示すバリッドビットより成る。
Next, the memory configuration and operation of a conventional one-chip cache memory will be explained. FIG. 3 shows a four-way set associative memory configuration consisting of three blocks: data block 4, directory 5, and LRU 14. The data block 4 is a memory section that holds data in the main memory. The directory 5 includes an address tag, which is a storage location for an address corresponding to each data block, and a valid bit, which indicates whether the stored data is valid or invalid.

LRU14は4ウエイの各データがCPUからアクセス
された古さの情報を格納する。
The LRU 14 stores information on how old each 4-way data was accessed from the CPU.

CPUはメモリブロック中のアドレスでアクセスする。The CPU accesses using addresses within the memory block.

第3図に示されるようにアクセスアドレスタグ、セット
セレクト、ワードセレクトの3部分に分けられる。アク
セスアドレスのセ・ントセレクトによって、アドレスタ
グとバリッドビットがディレクトリから選択されて読み
だされる。同じくデータブロックからはブロックが選択
されて読みだされる。
As shown in FIG. 3, it is divided into three parts: access address tag, set select, and word select. By selecting the access address, the address tag and valid bit are selected and read from the directory. Similarly, a block is selected from the data blocks and read out.

ここで、4ウ工イセツトアソシアテイブ方式について述
べる。一般にアクセスアドレスの上位部であるアドレス
タグは、セットセレクトで選択されたディレクトリ中の
アドレスタグ部の内容と比較される。ゆえに上記の方式
では、一つのセ・ントセレクトに対して最大4個までの
アドレスタグが同時に記憶される。従って、ヒ・ノド/
ミス判定時にはあるセットセレクトに対して同時に4個
のアドレスタグを参照比較することになる。また、ノく
リッドビットは記憶している各アドレスタグの有効性を
示し、ヒツト/ミス判定時に有効かどうかのチエツクを
行う、4つのウェイは並行して同じ動作を行い、ディレ
クトリから読みだされたアドレスタグとアクセスアドレ
スのアドレスタグ部との比較を4ウ工イ同時に行いヒツ
ト/ミス判定を行う。
Here, we will discuss the four-step associative method. Generally, the address tag, which is the upper part of the access address, is compared with the contents of the address tag part in the directory selected by set select. Therefore, in the above method, up to four address tags are simultaneously stored for one send select. Therefore, Hi-nod/
When a mistake is determined, four address tags are simultaneously referenced and compared for a certain set selection. In addition, the no-read bit indicates the validity of each stored address tag, and checks whether it is valid or not when determining a hit/miss.The four ways perform the same operation in parallel and are read from the directory. The address tag of the access address is compared with the address tag part of the access address in all four ways at the same time to determine whether it is a hit or a miss.

一方、読みだされたデータブロックはワードセレクトに
よってワードが選択され、最後にヒ・ント判定からどの
ウェイがヒツトしたかを示すウェイ選択信号をもらい、
一つのワードが決定される。
On the other hand, in the read data block, a word is selected by word select, and finally a way selection signal indicating which way was hit is received from the hint judgment.
One word is determined.

次にフェッチ方式について説明する。1チップキャッシ
ュメモリではオン・デマンド方式と、プリフェッチ・オ
ン・ミス方式のフエ・ンチアルゴリズムをサポートして
いる。
Next, the fetch method will be explained. The 1-chip cache memory supports on-demand and prefetch-on-miss algorithms.

オン・デマンド方式はあるブロックが必要となった時点
(キャッシュミスした時点)で1チ・ノブキャッシュメ
モリにメインメモリ内容をプロ・ツク単位でフェッチす
る。
In the on-demand method, the contents of the main memory are fetched into the one-knob cache memory in units of programs when a certain block is needed (when a cache miss occurs).

一方、プリフェッチ・オン・ミス方式では、キャッシュ
ミス発生時にアクセスされたブロックをフェッチした後
、アクセスされたブロックにおける次のフ゛ロックのキ
ヤ・ンシュミスをチエ・ツクする。
On the other hand, in the prefetch-on-miss method, after fetching the block accessed when a cache miss occurs, a cache miss of the next block in the accessed block is checked.

次のブロックがキャッシュミスであればそのブロックも
フェッチする。
If the next block is a cache miss, that block is also fetched.

一般にキャッシュメモリの性能を示すには、ヒツト率が
使われる。ヒツト率とは、CPUからのメモリアクセス
に対し、キャッシュメモリ内にそのアクセスデータが存
在する確率である。
Generally, the hit rate is used to indicate the performance of cache memory. The hit rate is the probability that the accessed data exists in the cache memory when the CPU accesses the memory.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

従来の1チップキャッシュメモリは以上のように構成さ
れているので、プリフェッチするブロック数は1つと固
定であるが、ヒツト率向上に対するプリフェッチ数の効
果はアプリケーションにより異なる。データのアドレス
連続性が高いアプリケーションプログラムではプリフェ
ッチ数を増やすと高いヒツト率を得ることができるが、
データのアドレスが離散的であればプリフェッチ数を増
やしてもヒツト率は向上しない。プリフェッチ数が固定
では、すべてのアプリケーションプログラムに対して高
ヒツト率を得ることは期待できない。
Since the conventional one-chip cache memory is configured as described above, the number of blocks to be prefetched is fixed at one, but the effect of the number of prefetches on improving the hit rate varies depending on the application. For application programs with high address continuity of data, increasing the number of prefetching can obtain a high hit rate.
If the data addresses are discrete, the hit rate will not improve even if the number of prefetches is increased. If the number of prefetch is fixed, it cannot be expected to obtain a high hit rate for all application programs.

従って、システムパフォーマンスを最高にするためには
、高ヒツト率を得るプリフェッチブロック数をアプリケ
ーションプログラムに対応して選択する必要がある。
Therefore, in order to maximize system performance, it is necessary to select the number of prefetch blocks that will yield a high hit rate in accordance with the application program.

この発明は上記のような問題点を解消するためになされ
たもので、アプリケーションプログラムに応じて、それ
ぞれ最も高いヒツト率が得られるlチップキャッシュメ
モリを得ることを目的とする。
The present invention was made to solve the above-mentioned problems, and its object is to obtain an l-chip cache memory that can obtain the highest hit rate depending on the application program.

〔課題を解決するための手段〕[Means to solve the problem]

この発明に係る1チップキャッシュメモリはプリフェッ
チブロック数を設定するプリフェッチ数設定レジスタと
、設定された回数プリフェッチを実行するプリフェッチ
ヤとを備えたものである。
The one-chip cache memory according to the present invention includes a prefetch number setting register that sets the number of prefetch blocks, and a prefetcher that executes prefetching a set number of times.

(作用〕 この発明においては、プリフェッチブロック数をアプリ
ケーションプログラムに対応して最適に設定することに
より高ヒツト率を得ることができる。
(Operation) In the present invention, a high hit rate can be obtained by optimally setting the number of prefetch blocks in accordance with the application program.

[実施例〕 以下、この発明の一実施例を図について説明する。[Example〕 An embodiment of the present invention will be described below with reference to the drawings.

第1図は本発明の一実施例による1チップキャッシュメ
モリの図である。
FIG. 1 is a diagram of a one-chip cache memory according to one embodiment of the present invention.

図において、1は1チップキャッシュメモリ、2はCP
Uアドレス、3はCPUデータ、4はデータブロック、
5はディレクトリ、6はフ゛口・ツクアドレスジェネレ
ータ、7は入力ラッチ、8はブロックロードバッファ、
9はバイパスバッファ、10はブリフエツチャ、11は
プリフェッチ数設定レジスタ、12はシステムバスイン
ターフェース、13はcpuバスインターフェース、1
4はLRUである。
In the figure, 1 is a 1-chip cache memory, 2 is a CP
U address, 3 is CPU data, 4 is data block,
5 is a directory, 6 is a file address generator, 7 is an input latch, 8 is a block load buffer,
9 is a bypass buffer, 10 is a brief fetcher, 11 is a prefetch number setting register, 12 is a system bus interface, 13 is a CPU bus interface, 1
4 is LRU.

次に1チップキャッシュメモリ1のリードアクセス動作
について説明する。1チップキャッシュメモリ1は、C
PUアドレス2によりディレクトリ5およびブロックロ
ードバッファ8を参照し、ここでキャツシュヒツトすれ
ばデータブロック4からデータをCPUデータバス3に
出力する。
Next, a read access operation of the one-chip cache memory 1 will be explained. 1-chip cache memory 1 is C
The directory 5 and block load buffer 8 are referred to using the PU address 2, and if a cache hit is made here, data from the data block 4 is output to the CPU data bus 3.

ここで、ブロックロードバッファ8を参照する理由につ
いて述べる。ブロックロードバッファ8に1ブロツクデ
ータがそろった時点でデータブロック4に書き込まれる
ため、データブロック4にデータがなくてもブロックロ
ードバッファ8には存在する可能性があるためである。
Here, the reason for referring to the block load buffer 8 will be described. This is because the data is written to the data block 4 when one block of data is collected in the block load buffer 8, so even if there is no data in the data block 4, there is a possibility that the data exists in the block load buffer 8.

キャッシュミスすればシステムバスインターフェース1
2を通しメモリバスの使用を要求し、メモリバスの使用
が許可されるとバスアクセスを開始してブロックアドレ
スジェネレータ6が生成したアドレスによりメインメモ
リからデータをフェッチする。メインメモリからのフェ
ッチデータは入力ラッチ7からブロックロードバッファ
8とバイパスバッファ9に渡される。バイパスバッファ
9はそのデータをCPUデータバス3に出力し、CPU
にデータ出力完了を通知する。ブロックロードバッファ
8はlブロック分のデータフェッチを完了するとブロッ
クアドレスジェネレータ6が発生するアドレスによりキ
ャッシュデータ更新を行う、またメモリバスをアクセス
している間にプリフェッチャ10はディレクトリ50次
のブロックを参照する。
If there is a cache miss, system bus interface 1
2 to request the use of the memory bus, and when the use of the memory bus is permitted, bus access is started and data is fetched from the main memory using the address generated by the block address generator 6. Fetch data from main memory is passed from input latch 7 to block load buffer 8 and bypass buffer 9. The bypass buffer 9 outputs the data to the CPU data bus 3, and the CPU
Notify the data output completion. When the block load buffer 8 completes data fetching for l blocks, it updates the cache data using the address generated by the block address generator 6. Also, while accessing the memory bus, the prefetcher 10 refers to the next block in the directory 50. .

キャツシュヒツトであれば何もしないが、キャッシュミ
スであればシステムバスインターフェース12にバス使
用要求を出し、次のブロックのフェッチを行う。プリフ
ェッチブロック数設定レジスタ11に設定された回数だ
けこのプリフェッチを行う。最終的に、キャッシュミス
したブロックと引き続く設定されたプリフェッチブロッ
ク数分のブロックがフェッチされデータブロックに書き
込まれる。プリフェッチ終了後、再び1チップキャッシ
ュメモリはアクセスを受は付ける状態となりリードアク
セス、ライトアクセスを受は付ける。
If it is a cache hit, nothing is done, but if it is a cache miss, a bus usage request is issued to the system bus interface 12 and the next block is fetched. This prefetch is performed the number of times set in the prefetch block number setting register 11. Finally, the cache-missed block and the following blocks corresponding to the set number of prefetch blocks are fetched and written to the data block. After the prefetch is completed, the one-chip cache memory is again in a state where it accepts accesses, and accepts read accesses and write accesses.

なお、プリフェッチ数設定レジスタ11の設定は、リセ
ット後の内部レジスタ設定時に行う。
Note that the setting of the prefetch number setting register 11 is performed at the time of internal register setting after reset.

またプリフェッチ設定レジスタを用いず、1チフブキヤ
ツシユメモリの信号ビンに外部より与える信号によって
プリフェッチ数が設定される構成とすることも可能であ
る。このようにすれば1チップキャッシュメモリの初期
設定時、プログラムがプリフェッチブロック設定レジス
タを設定する必要が無いので、1チップキャッシュメモ
リ無しのプログラムを変更なしに使うことが出来る。
It is also possible to adopt a configuration in which the prefetch number is set by a signal externally applied to a signal bin of a single-chip cache memory without using a prefetch setting register. In this way, there is no need for the program to set the prefetch block setting register when initializing the 1-chip cache memory, so a program without a 1-chip cache memory can be used without modification.

〔発明の効果] 以上のように、この発明に係る1チップキャッシュメモ
リによれば、プリフェッチブロック数を設定するプリフ
ェッチ数設定レジスタを設けるとともに、設定された回
数プリフェッチを実行するプリフェッチャを設けたので
、各アプリケーションプログラム毎に最も高いヒツト率
が得られる効果がある。
[Effects of the Invention] As described above, according to the one-chip cache memory according to the present invention, a prefetch number setting register for setting the number of prefetch blocks is provided, as well as a prefetcher for executing prefetch a set number of times. This has the effect of obtaining the highest hit rate for each application program.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の一実施例による1チツプメモリのブ
ロック構成図、第2図は従来の1チップキャッシュメモ
リのブロック構成図、第3図は第2図に示した1チツプ
キ中ツシユメモリのメモリ構成図である。 図において、1は1チップキャッシュメモリ、2はCP
Uアドレス、3はCPUデータ、4はデータブロック、
5はディレクトリ、6はブロックアドレスジェネレータ
、7は入力ラッチ、8はブロックロードバッファ、9は
バイパスバッファ、10はプリフェッチャ、11はプリ
フェッチ数設定レジスタ、12はシステムバスインター
フェース、13はCPUバスインターフェース、14は
LRUである。 なお図中同一符号は同一または相当部分を示す。
FIG. 1 is a block diagram of a 1-chip memory according to an embodiment of the present invention, FIG. 2 is a block diagram of a conventional 1-chip cache memory, and FIG. 3 is a memory configuration of a single-chip memory shown in FIG. 2. It is a diagram. In the figure, 1 is a 1-chip cache memory, 2 is a CP
U address, 3 is CPU data, 4 is data block,
5 is a directory, 6 is a block address generator, 7 is an input latch, 8 is a block load buffer, 9 is a bypass buffer, 10 is a prefetcher, 11 is a prefetch number setting register, 12 is a system bus interface, 13 is a CPU bus interface, 14 is LRU. Note that the same reference numerals in the figures indicate the same or corresponding parts.

Claims (1)

【特許請求の範囲】[Claims] (1)CPUのアクセスアドレスを保持する手段と、 該アクセスアドレス中における第1のセットセレクトを
インクリメントして第2のセットセレクトを得る手段と
を有する1チップキャッシュメモリにおいて、 該第2のセットセレクトによりキャッシュメモリアクセ
スを行い、ヒットあるいはミスであるかを判定し、ミス
判定時メインメモリよりデータをフェッチするプリフェ
ッチャと、 該第2のセットセレクトをインクリメントする回数を設
定するプリフェッチ数設定レジスタとを備えたことを特
徴とする1チップキャッシュメモリ。
(1) In a one-chip cache memory having means for holding an access address of a CPU and means for incrementing a first set select in the access address to obtain a second set select, the second set select A prefetcher that performs cache memory access, determines whether it is a hit or a miss, and fetches data from the main memory when a miss is determined, and a prefetch number setting register that sets the number of times the second set select is incremented. A one-chip cache memory characterized by:
JP2124963A 1990-05-14 1990-05-14 One-chip cache memory Pending JPH0421043A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2124963A JPH0421043A (en) 1990-05-14 1990-05-14 One-chip cache memory

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2124963A JPH0421043A (en) 1990-05-14 1990-05-14 One-chip cache memory

Publications (1)

Publication Number Publication Date
JPH0421043A true JPH0421043A (en) 1992-01-24

Family

ID=14898555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2124963A Pending JPH0421043A (en) 1990-05-14 1990-05-14 One-chip cache memory

Country Status (1)

Country Link
JP (1) JPH0421043A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999034356A3 (en) * 1997-12-30 1999-10-07 Genesis One Technologies Inc Disk cache enhancer with dynamically sized read request based upon current cache hit rate

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999034356A3 (en) * 1997-12-30 1999-10-07 Genesis One Technologies Inc Disk cache enhancer with dynamically sized read request based upon current cache hit rate
US6085287A (en) * 1997-12-30 2000-07-04 Genesis One Technologies, Inc. Method and apparatus for enhancing the disk cache process by dynamically sizing prefetch data associated with read requests based upon the current cache hit rate

Similar Documents

Publication Publication Date Title
US5586295A (en) Combination prefetch buffer and instruction cache
JP2554449B2 (en) Data processing system having cache memory
KR100278328B1 (en) Cache miss buffer
EP0695996B1 (en) Multi-level cache system
US5091851A (en) Fast multiple-word accesses from a multi-way set-associative cache memory
US5603004A (en) Method for decreasing time penalty resulting from a cache miss in a multi-level cache system
EP0637800B1 (en) Data processor having cache memory
US5499355A (en) Prefetching into a cache to minimize main memory access time and cache size in a computer system
US5694568A (en) Prefetch system applicable to complex memory access schemes
KR100274327B1 (en) Methods and apparatus for providing multiple outstanding operations in a cache consistent multiple processor computer system
US8725987B2 (en) Cache memory system including selectively accessible pre-fetch memory for pre-fetch of variable size data
JP3016575B2 (en) Multiple cache memory access methods
US7047362B2 (en) Cache system and method for controlling the cache system comprising direct-mapped cache and fully-associative buffer
US6782454B1 (en) System and method for pre-fetching for pointer linked data structures
US8621152B1 (en) Transparent level 2 cache that uses independent tag and valid random access memory arrays for cache access
US5367657A (en) Method and apparatus for efficient read prefetching of instruction code data in computer memory subsystems
US5287512A (en) Computer memory system and method for cleaning data elements
CN115563031A (en) Instruction cache prefetch control method, device, chip and storage medium
US6081853A (en) Method for transferring burst data in a microprocessor
JPH0421043A (en) One-chip cache memory
JPH0421044A (en) One-chip cache memory
CN111198827B (en) Page table prefetching method and device
JPH02301843A (en) Pre-fetch controlling system
KR20040047398A (en) Method for data access using cache memory
JPH0477344B2 (en)