G - Physics – 06 – F
Patent
G - Physics
06
F
G06F 13/20 (2006.01) G06F 12/08 (2006.01)
Patent
CA 2240351
A cache system provides for accessing set associative caches with no increase in critical path delay, for reducing the latency penalty for cache accesses, for reducing snoop busy time, and for responding to MRU misses and cache misses. A two level cache subsystem including an L1 cache and an L2 cache is provided. A cache directory is accessed for a second snoop request while a directory access from a first snoop request is being evaluated. During a REQUEST stage, a directory access snoop to the directory of the L1 cache is requested; and responsive thereto, during a SNOOP stage, the directory is accessed; during an ACCESS stage, the cache arrays are accessed while processingresults from the SNOOP stage. If multiple data transfers are required out of the L1 cache, a pipeline hold is issued to the REQUEST and SNOOP stages, and the ACCESS stage is repeated. During a FLUSH stage, cache data read from the L1 cache during the ACCESS stage is sent to the L2 cache.
Système de cache permettant d'avoir accès à des caches associatives sans accroître le retard de chemin critique, de réduire le retard d'accès en mémoire cache, de réduire le temps de surveillance, de remédier aux échecs de recherches en mémoire MRU et en mémoire cache. Un sous-système de cache à deux niveaux comprenant une cache L1 et une cache L2 est présenté. Un répertoire de cache est consulté lors d'une deuxième demande de surveillance tandis que l'accès au répertoire à partir d'une première demande de surveillance est évalué. Lors d'une étape DEMANDE, une demande de surveillance visant l'accès du répertoire de la cache L1 est présentée; et, en réponse à cette demande, à une étape SURVEILLANCE, le répertoire est consulté; à une étape ACCÐS, les matrices de cache sont consultées pendant le traitement des résultats de l'étape SURVEILLANCE. Si de multiples transferts de données de la cache L1 sont nécessaires, un signal de maintien d'état de pipeline est transmis aux fins des étapes DEMANDE et SURVEILLANCE, et l'étape ACCÐS est répétée. Lors d'une étape VIDAGE, les données de cache lues dans la cache L1 à l'étape ACCÐS sont transmises à la cache L2..
International Business Machines Corporation
Saunders Raymond H.
LandOfFree
Pipelined snooping of multiple l1 cache lines does not yet have a rating. At this time, there are no reviews or comments for this patent.
If you have personal experience with Pipelined snooping of multiple l1 cache lines, we encourage you to share that experience with our LandOfFree.com community. Your opinion is very important and Pipelined snooping of multiple l1 cache lines will most certainly appreciate the feedback.
Profile ID: LFCA-PAI-O-2028585