CN101395586A - 基于任务的执行阶段动态调整高速缓存分区大小的方法和设备 - Google Patents

基于任务的执行阶段动态调整高速缓存分区大小的方法和设备 Download PDF

Info

Publication number
CN101395586A
CN101395586A CNA2007800073570A CN200780007357A CN101395586A CN 101395586 A CN101395586 A CN 101395586A CN A2007800073570 A CNA2007800073570 A CN A2007800073570A CN 200780007357 A CN200780007357 A CN 200780007357A CN 101395586 A CN101395586 A CN 101395586A
Authority
CN
China
Prior art keywords
task
cache
application task
application
phase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA2007800073570A
Other languages
English (en)
Inventor
毕尤·托马斯
斯里拉姆·克里斯兰
米林德·马诺哈尔·库尔卡尼
萨拿斯·卡拉帕姆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of CN101395586A publication Critical patent/CN101395586A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0806Multiuser, multiprocessor or multiprocessing cache systems
    • G06F12/0808Multiuser, multiprocessor or multiprocessing cache systems with cache invalidating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0806Multiuser, multiprocessor or multiprocessing cache systems
    • G06F12/084Multiuser, multiprocessor or multiprocessing cache systems with a shared cache
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0806Multiuser, multiprocessor or multiprocessing cache systems
    • G06F12/0842Multiuser, multiprocessor or multiprocessing cache systems for multiprocessing or multitasking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/12Replacement control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/60Details of cache memory
    • G06F2212/601Reconfiguration of cache memory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

本发明提出了用于在多处理器中针对应用任务的高速缓存动态分区的方法和***。提供了基于应用任务的执行阶段来动态调整高速缓存分区大小的方法。以表格形式来标识和更新应用任务的执行阶段。在执行任务的特定情况期间调整高速缓存分区的大小,使得在任何给定的时间点,为任务分配必要且足量的高速缓存空间。该高速缓存分区大小是根据任务执行期间的任务的工作集合需求来确定的,动态或静态地监控所述任务的工作集合需求。根据任务的执行阶段来动态调整高速缓存分区的大小,以避免不必要地保留整个高速缓存,因此实现了高速缓存的有效利用。

Description

基于任务的执行阶段动态调整高速缓存分区大小的方法和设备
技术领域
本发明一般涉及包括高速缓存存储器的数据处理***,更具体地,涉及在多处理器中针对应用任务对高速缓存存储器进行动态分区。
背景技术
高速缓存分区是多任务***中众所周知的技术,其通过减小资源干扰来实现更加可预测的高速缓存性能。在包括多处理器的数据处理***中,在多个进程或任务之间共享高速缓存存储器。高速缓存存储器被分为不同的部分以用于不同的应用任务。有利的是将高速缓存分为多个部分,其中每个部分被分配给各类进程,而不是各类进程共享整个高速缓存存储器。在将高速缓存存储器分为多个部分时,产生了如何确定不同应用任务的高速缓存分区的大小以及何时调整该高速缓存分区的大小的问题。
Henk Muller等的美国专利申请2002/0002657 A1公开了一种对***中的高速缓存存储器进行操作的方法,在该***中,处理器能够执行多个进程。这样的技术将高速缓存分为许多小分区,而不是使用一个单片数据高速缓存,在单片数据高速缓存中,对不同数据对象的访问可能彼此干扰。在这种情况下,典型地,编译器知道高速缓存的架构并为任务分配高速缓存分区。这样的技术在任务的整个执行持续时间内为任务保留了的所分的高速缓存部分。因此,静态的分区技术通常导致对高速缓存的次优使用或对高速缓存分区的保留不足。
由Edward Suh等在“Analytical Cache Models with applications tocache partitioning”中提出的动态分区技术试图通过动态调整分区大小来避免上述静态分区的缺点。这样的技术没有考虑如各个任务的分阶段执行之类的程序特性。例如,多媒体应用的执行行为通常属于重复行为(阶段),该重复行为(阶段)可以具有不同的高速缓存使用特性。可以通过在程序阶段边界(phase boundary)处确定分区大小来实现有效的高速缓存使用。
Timothy等描述了可以精确地识别和预测程序行为的阶段[参考文献2:“Discovering and exploiting program phase”,Timothy Sherwood etal]。这些阶段中的程序(任务)行为具有不同的资源使用特性并可以使用性能度量来量化。这种度量的一个示例是[参考文献2]中描述的基本块矢量(basic block vector)[BBV]。
当前的高速缓存分区技术为应用任务在其整个执行持续时间内保留了高速缓存存储器的分区部分。但是,媒体处理任务具有彼此不同的执行阶段,对高速缓存的需求在这些阶段的每一个中发生变化。在多任务实时***中,由于高优先级的应用任务的到来,会切换应用任务。由于中断而切换应用任务也是常见的。这样的任务切换可以在当前执行的任务的不同执行阶段发生。当前的高速缓存分区技术不能解决这个高速缓存的变化需求的问题。
因此,存在这样一种未被满足的需要,即根据执行阶段来动态地调整多处理器中针对每个任务分配的高速缓存分区的大小,使得在任何给定的时间,只分配最少量的高速缓存空间。对这个问题的解决方案将确保对于即将到来的任务(切换进来的中断任务或高优先级任务)有足够的(或更优的)高速缓存空间可用。
发明内容
本发明提出了一种多处理器中针对每个应用任务动态高速缓存分区的方法和***。提供了基于应用任务的执行阶段来动态地调整高速缓存分区大小的方法。根据当前任务的执行阶段来动态地调整高速缓存分区的大小,从而避免对整个高速缓存的不必要的保留,因此实现了高速缓存的有效利用。
在多任务处理共享高速缓存/存储器的多处理器中,通常认为分区是一种实现存储器子***的可预测性能的机制。在文献中已有多种分区方案,如路线分区(Way Partitioning)(列高速缓存(ColumnCaching)、集合分区(Set Partitioning)等。流应用采用具有不同阶段的执行模式,所述不同阶段具有不同的持续时间。本发明的目的是利用关于多媒体应用任务的不同执行阶段的信息,从而基于在执行阶段期间的需求来自调整分区大小。可以以许多方式来识别应用任务(程序)的执行阶段:一个示例是通过监控工作集合的改变以及其他方法[参考文献2]。应用任务的执行阶段被定义为在应用任务的执行中具有相似行为的间隔的集合,而应用任务的工作集合被定义为在特定执行阶段处应用任务的高速缓存分区需求。
本发明的一个方面提供了基于应用任务的执行阶段来动态调整高速缓存分区大小的方法。以表格形式来标识和更新应用任务的执行阶段。在执行任务的特定情况期间调整高速缓存分区的大小,使得在任何给定的时间点,为任务分配必要且足量的高速缓存空间。该高速缓存分区大小是根据任务执行期间任务的工作集合需求来确定的,动态或静态地监控所述任务的工作集合需求。
本发明的另一方面提供了一种用于在多处理器中针对应用任务动态调整高速缓存分区大小的计算机***。所述***包括任务阶段监控器,用于监控应用任务的工作集合的变化,可以动态地监控工作集合的变化或可以静态地收集信息并将其存储在所述任务阶段监控器中。在任务阶段表中存储任务的阶段信息。所述任务阶段表包含阶段以及在切换任务时分配的高速缓存分区(这是在相应阶段处应用任务的工作集合)。
所述***也包括高速缓存分配控制器,用于在新的应用任务中断当前执行的任务时分配最大高速缓存大小。在新的应用任务中断当前执行的任务时,所述高速缓存分配控制器查看新的应用任务的工作集合需求,并通过为所述新任务分配最大可能的高速缓存大小来对所述高速缓存进行分区。根据所述新应用任务的阶段来进行高速缓存存储器的分配。
本发明的一个目的是设计一种用于动态地管理正在计算机***上执行的多个进程之间的高速缓存分区的方法和装置。
本发明的另一个目的是通过避免在应用任务执行的整个持续时间期间为正在执行的应用任务不必要地保留高速缓存分区,来提高高速缓存的利用率。
本发明的另一个目的是增大将中断任务的工作集合的更多部分映射到高速缓存上的概率。因此,当较高优先级任务或中断发生时,将有更多高速缓存可用于分配给中断任务。
附图说明
本发明的上述概括不是旨在描述本发明的每个公开实施例。以下的附图和详细描述提供了本发明的其他方面。
图1示出了在多处理器中针对应用任务动态调整高速缓存分区大小的方法的实施例。
图2是示出了应用任务的工作集合变化的图示。
图3是示出了针对应用任务动态调整高速缓存分区大小的***实施例的架构的框图。
图4示出了用于存储应用任务的信息的任务阶段表。
图5是示出了两个应用任务(T1和T2)的高速缓存需求的示例的简单图示。
图6示出了当新的应用任务T3中断当前执行的应用任务(T1和T2)时图5所示示例的高速缓存分区情况。
具体实施方式
以下结合附图,详细描述本发明的上述和其他特征、方面和优点。附图包括6幅图。
图1示意了在多处理器中针对应用任务动态调整高速缓存分区大小的方法的实施例。通过使用应用任务的基本块矢量(BBV)度量或工作集合,标识每个应用任务的执行阶段101。以表格的形式来存储应用任务的阶段信息和工作集合102。接着,根据应用任务的执行阶段,利用该阶段信息来动态配置高速缓存分区。
根据所提出的发明,在应用任务执行的特定情况期间调整高速缓存分区的大小,使得在任何给定的时间点,为应用任务分配必要且足量的高速缓存空间。该高速缓存分区大小是根据任务执行期间的任务的工作集合需求来确定的。可以动态或静态地监控所述任务的工作集合需求。通过避免在应用任务的整个执行持续时间为应用任务冗余地保留高速缓存分区,提高了总体高速缓存利用率。
图2示出了描述应用任务的工作集合变化的图201。在图2中示出了在任务的执行时间段“T”期间的应用任务的工作集合W(t)的变化。应用任务的工作集合在其执行时间段T期间发生变化。相应地存在与工作集合W1、W2和W3相对应的不同阶段P1、P2和P3。根据如调度量(schedule quantum)、中断、输入/输出缓冲器的数据/空间可用性等***条件,可以在应用任务执行的任何阶段切换应用任务。如果在应用任务执行时间段T期间为应用任务分配的高速缓存分区是恒定的(如现有技术),则这将导致高速缓存分区的冗余分块。
例如,如果为应用任务分配的高速缓存分区等于W1(字节)的分区,而且如果该应用任务在P3(与W3相对应)切换,则不必要地为该应用任务分块了高速缓存空间W1-W3。
图3是示出了用于针对应用任务动态调整高速缓存分区大小的***实施例的架构的框图。任务阶段监控器301监控应用任务的工作集合变化。可以动态地监控所述工作集合变化,或者静态地收集信息。在任务阶段表302中存储阶段信息。任务阶段表302包含阶段以及在切换应用任务时分配的高速缓存分区(这是在相应阶段处应用任务的工作集合)。
在新的应用任务中断当前执行的任务时,高速缓存分配控制器303查看新的应用任务的工作集合需求,并根据新的应用任务的阶段,通过为新的任务分配最大可能的高速缓存大小来进行高速缓存分区。
图4示出了用于存储应用任务的信息401的任务阶段表302。任务阶段表302包括每个应用任务的单独的任务ID、应用任务的阶段信息以及在任务切换时为每个应用任务分配的高速缓存分区大小。对三个连续的应用任务T1、T2和T3,应用任务的阶段信息分别被标记为P1(T1)、P2(T2)和P3(T3),P1、P2、P3是三个任务的三个不同阶段。同样,在任务切换时为每个应用任务分配的高速缓存分区大小被标记为W1、W2和W3。
图5是示出了两个应用任务的高速缓存要求的示例501的简单图示。如图5所示,考虑两个应用任务T1和T2的高速缓存需求。假定总的高速缓存大小是20行。应用任务运行在多任务模式下,从一个任务切换至另一个任务。在一段时间之后,假定执行产生了具有在阶段P2(T1)的任务T1以及在阶段P3(T2)的任务T2的高速缓存。被占用的总的高速缓存是7+4=11行,剩余9行空闲。
图6示出了当新的应用任务T3中断当前执行的应用任务时示例601的两种情况下的高速缓存分区情况。在图5中,考虑这样一种情形,即新的应用任务T3(中断任务)在阶段P1(T3)到达,其工作集合需求为8行。在情况1 602所示的传统模式的高速缓存分区中,基于最大高速缓存需求来分配高速缓存大小,即在整个执行持续时间中,为任务T1分配7行,为任务T2分配8行。这将消耗15行,直到任务T1和任务T2完成其执行为止。
在情况2 603中,可以为任务T3分配高速缓存,剩余1行空闲。如果任务T1、T2处于其执行的其他某个阶段处,情况1 601和情况2602中的分配将更有戏剧性。例如,如果任务T1和T2分别处于阶段P1(T1)和P1(T2),当任务T3到达时,T3有20-(2+4)=14行可用。因此,对于情况2,即使任务T3的工作集合更多(最大14),也有空闲行可用于该中断应用任务。
在针对音频、视频和移动应用的片上***(SoC)中,本发明可实现其工业应用。本发明通过避免在应用任务执行的整个持续时间期间为正在执行的应用任务不必要地保留高速缓存分区,来提高高速缓存的利用率。因此可以实现高速缓存存储器的有效利用。

Claims (13)

1.一种针对多个应用任务动态地调整多处理器中的高速缓存分区的大小的方法,其中,所述多处理器能够执行所述多个应用任务,所述多处理器包括主存储器和高速缓存存储器,所述高速缓存存储器包括高速缓存分区的集合,所述方法包括以下步骤:
标识和监控所述多个应用任务的执行阶段;
维护和更新关于当前应用任务的执行阶段和工作集合的信息;以及
根据所述当前应用任务的执行阶段,动态地配置所述高速缓存分区,从而避免在任务执行的整个持续时间上为执行任务冗余地保留高速缓存分区。
2.如权利要求1所述的方法,其中,所述应用任务包括指令序列。
3.如权利要求1所述的方法,其中,所述应用任务的执行阶段包括在所述应用任务执行中的具有相似行为的间隔的集合。
4.如权利要求1所述的方法,其中,所述应用任务的工作集合包括在特定执行阶段处所述应用任务的高速缓存分区需求。
5.如权利要求1所述的方法,其中,静态地进行对所述执行任务的执行阶段的监控,以及根据执行期间所述应用任务的工作集合需求来确定高速缓存分区大小。
6.如权利要求1所述的方法,其中,动态地进行对所述执行任务的执行阶段的监控,以及根据执行期间所述应用任务的工作集合需求来确定高速缓存分区大小。
7.如权利要求1所述的方法,其中,当出现较高优先级任务时,有足够的高速缓存分区可用于分配给所述高优先级任务,从而将所述较高优先级任务的工作集合的充足的部分映射到所述高速缓存上。
8.如权利要求1所述的方法,其中,为每个应用任务分配的高速缓存分区根据执行阶段而变化,从而在任何给定的时间,只分配最优量的高速缓存空间。
9.一种针对个应用任务动态地调整多处理器中的高速缓存分区的大小的***,其中,所述多处理器能够执行所述多个应用任务,所述多处理器包括主存储器和高速缓存存储器,所述高速缓存存储器包括高速缓存分区的集合,所述***包括:
任务阶段监控器,用于监控应用任务的工作集合的变化;
存储器,用于存储来自所述任务阶段监控器的关于应用任务的阶段信息;以及
高速缓存分配控制器,用于在新的应用任务中断当前执行的应用任务时,分配最大高速缓存大小。
10.如权利要求9所述的***,其中,所述存储器包括任务阶段表,所述任务阶段表包括应用任务的阶段信息以及在切换任务时为每个应用任务分配的高速缓存分区大小,其中,为每个应用任务分配的高速缓存分区大小包括在相应阶段处任务的工作集合。
11.如权利要求9所述的***,其中,所述任务阶段监控器静态地监控工作集合的变化,并将其存储在任务阶段表中。
12.如权利要求9所述的***,其中,所述任务阶段监控器动态地监控工作集合的变化,并将其存储在所述存储器中。
13.如权利要求9所述的***,其中,所述应用任务包括指令序列。
CNA2007800073570A 2006-03-02 2007-02-24 基于任务的执行阶段动态调整高速缓存分区大小的方法和设备 Pending CN101395586A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US77927106P 2006-03-02 2006-03-02
US60/779,271 2006-03-02

Publications (1)

Publication Number Publication Date
CN101395586A true CN101395586A (zh) 2009-03-25

Family

ID=38459415

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA2007800073570A Pending CN101395586A (zh) 2006-03-02 2007-02-24 基于任务的执行阶段动态调整高速缓存分区大小的方法和设备

Country Status (5)

Country Link
US (1) US20110113215A1 (zh)
EP (1) EP1999596A2 (zh)
JP (1) JP2009528610A (zh)
CN (1) CN101395586A (zh)
WO (1) WO2007099483A2 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101894048A (zh) * 2010-05-07 2010-11-24 中国科学院计算技术研究所 一种基于阶段分析的缓存动态划分方法和***
CN102681792A (zh) * 2012-04-16 2012-09-19 华中科技大学 一种固态盘内存分区方法
CN105512185A (zh) * 2015-11-24 2016-04-20 无锡江南计算技术研究所 一种基于作业时序缓存共享的方法
CN106537360A (zh) * 2014-07-17 2017-03-22 高通股份有限公司 用于具有动态分区的共享高速缓存的方法和装置
CN107329911A (zh) * 2017-07-04 2017-11-07 国网浙江省电力公司信息通信分公司 一种基于cp‑abe属性访问机制的缓存替换算法
CN111355962A (zh) * 2020-03-10 2020-06-30 珠海全志科技股份有限公司 适用于多参考帧的视频解码高速缓存方法、计算机装置及计算机可读存储介质
CN112889038A (zh) * 2019-02-13 2021-06-01 谷歌有限责任公司 ***级缓存

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8250305B2 (en) 2008-03-19 2012-08-21 International Business Machines Corporation Method, system and computer program product for data buffers partitioned from a cache array
JP5239890B2 (ja) * 2009-01-21 2013-07-17 トヨタ自動車株式会社 制御装置
US9104583B2 (en) 2010-06-24 2015-08-11 International Business Machines Corporation On demand allocation of cache buffer slots
US8621070B1 (en) * 2010-12-17 2013-12-31 Netapp Inc. Statistical profiling of cluster tasks
US9817700B2 (en) * 2011-04-26 2017-11-14 International Business Machines Corporation Dynamic data partitioning for optimal resource utilization in a parallel data processing system
US9141544B2 (en) * 2012-06-26 2015-09-22 Qualcomm Incorporated Cache memory with write through, no allocate mode
US9128845B2 (en) * 2012-07-30 2015-09-08 Hewlett-Packard Development Company, L.P. Dynamically partition a volatile memory for a cache and a memory partition
JP6042170B2 (ja) * 2012-10-19 2016-12-14 ルネサスエレクトロニクス株式会社 キャッシュ制御装置及びキャッシュ制御方法
KR102027573B1 (ko) * 2013-06-26 2019-11-04 한국전자통신연구원 캐시 메모리 제어 방법 및 그 장치
KR102161689B1 (ko) * 2013-12-10 2020-10-05 삼성전자 주식회사 L2 캐시 특성을 조절할 수 있는 멀티-코어 cpu 시스템, 이의 동작 방법, 및 이를 포함하는 장치들
JP6248808B2 (ja) * 2014-05-22 2017-12-20 富士通株式会社 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、情報処理装置の制御プログラム
JP2019168733A (ja) * 2016-07-08 2019-10-03 日本電気株式会社 情報処理システム、キャッシュ容量配分方法、記憶制御装置およびその方法とプログラム
WO2020000344A1 (en) 2018-06-29 2020-01-02 Intel Corporation Techniques to support a holistic view of cache class of service for a processor cache
CN110058814B (zh) * 2019-03-25 2022-09-06 中国航空无线电电子研究所 分区操作***中安全地获取非活动分区内存快照的***
JP7259967B2 (ja) * 2019-07-29 2023-04-18 日本電信電話株式会社 キャッシュチューニング装置、キャッシュチューニング方法、および、キャッシュチューニングプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0799508B2 (ja) * 1990-10-15 1995-10-25 インターナショナル・ビジネス・マシーンズ・コーポレイション キャッシュ記憶機構を動的に区分する方法およびキャッシュ記憶機構システム
EP0856798B1 (en) * 1997-01-30 2004-09-29 STMicroelectronics Limited A cache system
US6493800B1 (en) * 1999-03-31 2002-12-10 International Business Machines Corporation Method and system for dynamically partitioning a shared cache
JP2001282617A (ja) * 2000-03-27 2001-10-12 Internatl Business Mach Corp <Ibm> 共有されたキャッシュを動的に区分するための方法及びシステム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101894048B (zh) * 2010-05-07 2012-11-14 中国科学院计算技术研究所 一种基于阶段分析的缓存动态划分方法和***
CN101894048A (zh) * 2010-05-07 2010-11-24 中国科学院计算技术研究所 一种基于阶段分析的缓存动态划分方法和***
CN102681792A (zh) * 2012-04-16 2012-09-19 华中科技大学 一种固态盘内存分区方法
CN102681792B (zh) * 2012-04-16 2015-03-04 华中科技大学 一种固态盘内存分区方法
CN106537360B (zh) * 2014-07-17 2020-04-21 高通股份有限公司 用于具有动态分区的共享高速缓存的方法和装置
CN106537360A (zh) * 2014-07-17 2017-03-22 高通股份有限公司 用于具有动态分区的共享高速缓存的方法和装置
CN105512185A (zh) * 2015-11-24 2016-04-20 无锡江南计算技术研究所 一种基于作业时序缓存共享的方法
CN105512185B (zh) * 2015-11-24 2019-03-26 无锡江南计算技术研究所 一种基于作业时序缓存共享的方法
CN107329911A (zh) * 2017-07-04 2017-11-07 国网浙江省电力公司信息通信分公司 一种基于cp‑abe属性访问机制的缓存替换算法
CN107329911B (zh) * 2017-07-04 2020-07-28 国网浙江省电力公司信息通信分公司 一种基于cp-abe属性访问机制的缓存替换方法
CN112889038A (zh) * 2019-02-13 2021-06-01 谷歌有限责任公司 ***级缓存
CN112889038B (zh) * 2019-02-13 2024-03-15 谷歌有限责任公司 用于分配缓存资源的方法和***
CN111355962A (zh) * 2020-03-10 2020-06-30 珠海全志科技股份有限公司 适用于多参考帧的视频解码高速缓存方法、计算机装置及计算机可读存储介质

Also Published As

Publication number Publication date
JP2009528610A (ja) 2009-08-06
US20110113215A1 (en) 2011-05-12
EP1999596A2 (en) 2008-12-10
WO2007099483A3 (en) 2008-01-03
WO2007099483A2 (en) 2007-09-07

Similar Documents

Publication Publication Date Title
CN101395586A (zh) 基于任务的执行阶段动态调整高速缓存分区大小的方法和设备
EP1971924B1 (en) Methods and system for interrupt distribution in a multiprocessor system
CN102023890B (zh) 一种用于设置事务优先级的数据处理装置和方法
JP5366552B2 (ja) 集中特化したマルチタスク及びマルチフロー処理をリアルタイム実行する手法及びシステム
US7412590B2 (en) Information processing apparatus and context switching method
US8713573B2 (en) Synchronization scheduling apparatus and method in real-time multi-core system
US20160098292A1 (en) Job scheduling using expected server performance information
JP4621786B2 (ja) 情報処理装置、並列処理最適化方法およびプログラム
WO2011148563A1 (ja) 情報処理システム
JP2010122758A (ja) ジョブ管理装置、ジョブ管理方法およびジョブ管理プログラム
US8769543B2 (en) System and method for maximizing data processing throughput via application load adaptive scheduling and context switching
US9081576B2 (en) Task scheduling method of a semiconductor device based on power levels of in-queue tasks
JP2008257578A (ja) 情報処理装置、スケジューラおよび情報処理置のスケジュール制御方法
KR20090080753A (ko) 다중 프로세서 시스템에서 작업을 이동시키는 방법 및 장치
CN101310257A (zh) 多处理器***和用于使计算机执行多处理器***的控制方法的程序
US9507633B2 (en) Scheduling method and system
US10768684B2 (en) Reducing power by vacating subsets of CPUs and memory
US20070055852A1 (en) Processing operation management systems and methods
KR20130137503A (ko) 리소스 모니터링을 이용한 동적 데이터 처리 장치 및 그 방법
CN102193828B (zh) 从处理器中的并发物理线程的数目中去耦合逻辑线程的数目
JP5007838B2 (ja) 情報処理装置および情報処理プログラム
JP5810918B2 (ja) スケジューリング装置、スケジューリング方法及びプログラム
CN100397345C (zh) 用于管理资源元素队列的方法和控制器
CN101847128A (zh) 管理tlb的方法和装置
CN102405466B (zh) 存储控制装置及其控制方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Open date: 20090325