CN115878553A - 用于片上***的方法及其相关产品 - Google Patents
用于片上***的方法及其相关产品 Download PDFInfo
- Publication number
- CN115878553A CN115878553A CN202110926703.7A CN202110926703A CN115878553A CN 115878553 A CN115878553 A CN 115878553A CN 202110926703 A CN202110926703 A CN 202110926703A CN 115878553 A CN115878553 A CN 115878553A
- Authority
- CN
- China
- Prior art keywords
- cluster
- data
- chip
- latch
- storage area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Memory System Of A Hierarchy Structure (AREA)
Abstract
本公开涉及一种用于片上***的方法、片上***、计算装置和板卡,该计算装置包括在组合处理装置中,该组合处理装置还可以包括接口装置和其他处理装置。该计算装置与其他处理装置进行交互,共同完成用户指定的计算操作。组合处理装置还可以包括存储装置,该存储装置分别与计算装置和其他处理装置连接,用于存储该计算装置和其他处理装置的数据。本披露的方案可以扩展高速缓冲存储器的使用场景和提升其使用效率。
Description
技术领域
本公开一般地涉及存储领域。更具体地,本公开涉及一种用于片上***的方法、对应的片上***、包括该片上***的计算装置和包括该计算装置的板卡。
背景技术
计算***的操作性能在相当大程度上取决于内存平均访问延迟。通过提高高速缓冲存储器(简称为“缓存”)的命中率来有效减少内存访问次数,可以显著改善***性能。为此,处理器通常采用缓存机制,并且利用缓存来调节处理器与低速主存之间速度和性能上的不匹配。当前的缓存实行多级缓存机制,例如采用三级缓存(L1,L2和L3),并且将最靠近主存的缓存称为最后一级缓存(“Last Level Cache”,LLC)。鉴于缓存在片上***中的频繁使用及其重要作用,需要提出有效的管理策略,以便提高缓存的利用率,减少对主存的访问次数。另外,如何针对不同的场景来扩展LLC的应用也成为需要解决的问题。
发明内容
鉴于上述背景技术部分所提及的技术问题,扩展高速缓冲存储器的使用场景。本公开在如下的多个方面中提供用于片上***的方案。
在第一方面中,本公开提供了一种用于片上***的方法,所述片上***包括至少用于执行运算操作的多个集群和与该多个集群互联的高速缓冲存储器,每个集群包括用于执行所述运算操作的多个处理器核,所述方法包括:将片外存储器的指定存储空间映射到高速缓冲存储器的给定存储区,以将该给定存储区用作集群间数据通信的集群存储区;以及使用所述集群存储区来执行所述集群的操作。
在第二方面中,本公开提供了一种片上***,包括:多个集群,其中每个集群包括至少用于执行运算操作的多个处理器核;以及高速缓冲存储器,其与所述多个集群互联,并且配置成:将给定存储区用作集群间数据通信的集群存储区,其中所述给定存储区与片外存储器的指定存储空间形成映射关系;以及使用所述集群存储区来执行所述集群的操作。
在第三方面中,本公开提供了一种计算装置,其包括如上所述以及在下文多个实施例中所述的片上***。
在第四方面中,本公开提供了一种板卡,包括如上所述以及在下文多个实施例中所述的计算装置。
在第五方面中,本公开提供了一种计算设备,包括如上所述以及在下文多个实施例中所述的板卡。
根据本公开上述多个方面中所提供的方案,可以利用高速缓冲存储器的给定存储区来实现片上***的集群间的高效通信。由此,可以将本需要通过片外存储器来传递的数据直接通过该给定存储区来进行传递,由此加速数据的访存并显著提升缓存命中率。进一步,由于通过给定存储区提升了缓存命中的机率,本公开的方案也显著提升了片上***的整体性能。另外,该给定存储区的划分简化了高速缓冲存储器的管理,并且扩展了高速缓冲存储器的使用场景。借助于该给定存储区,片上***的多个集群可以实现多种灵活的通信机制,从而也提升了集群的操作性能。
附图说明
通过参考附图阅读下文的详细描述,本公开示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本公开的若干实施方式,并且相同或对应的标号表示相同或对应的部分其中:
图1是示出根据本公开实施例的板卡的结构图;
图2是示出根据本公开实施例的集成电路装置的结构图;
图3是示出根据本公开实施例的单核计算装置的内部结构示意图;
图4是示出根据本公开实施例的多核计算装置的内部结构示意图;
图5是示出根据本公开实施例的处理器核的内部结构示意图;
图6是示出根据本公开实施例的用于高速缓冲存储器的方法流程图;
图7是示出根据本公开实施例的高速缓冲存储器的简化框图;
图8是示出根据本公开实施例的片上***的简化框图;
图9是示出根据本公开实施例的片上***的详细框图;
图10是示出根据本公开实施例的页模式的示意框图;
图11是示出根据本公开实施例的窗口模式下的哈希操作示意图
图12是示出根据本公开实施例的片上***的简化框图;
图13是示出根据本公开实施例的用于片上***的方法流程图;以及
图14是示出根据本公开实施例的片上***的操作框图。
具体实施方式
下面将结合本披露实施例中的附图,对本披露实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本披露一部分实施例,而不是全部的实施例。基于本披露中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本披露保护的范围。
应当理解,本披露的权利要求、说明书及附图中可能使用的术语“第一”、“第二”和“第三”等是用于区别不同对象,而不是用于描述特定顺序。本披露的说明书和权利要求书中使用的术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本披露说明书中所使用的术语仅仅是出于描述特定实施例的目的,而并不意在限定本披露。如在本披露说明书和权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。还应当进一步理解,在本披露说明书和权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本说明书和权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
下面结合附图来详细描述本公开的具体实施方式。
图1示出根据本公开实施例的一种板卡10的结构示意图。可以理解的是图1所示结构和组成仅仅是一种示例,其并不用于在任何方面对本公开的方案进行限制。
如图1所示,板卡10包括芯片101,其可以是一种***级芯片(System on Chip,SoC),也即本公开上下文中所描述的片上***。在一个实施场景中,其可以集成有一个或多个组合处理装置。前述组合处理装置可以是一种人工智能运算单元,用以支持各类深度学***台的存储能力和计算能力有很高的要求,而本实施例的板卡10适用在云端智能应用,具有庞大的片外存储、片上存储和强大的计算能力。
进一步如图中所示,芯片101通过对外接口装置102与外部设备103相连接。根据不同的应用场景,外部设备103例如可以是服务器、计算机、摄像头、显示器、鼠标、键盘、网卡或wifi接口等。待处理的数据可以由外部设备103通过对外接口装置102传递至芯片101。芯片101的计算结果可以经由对外接口装置102传送回外部设备103。根据不同的应用场景,对外接口装置102可以具有不同的接口形式,例如PCIe接口等。
板卡10还可以包括用于存储数据的存储器件104,其包括一个或多个存储单元105。存储器件104通过总线与控制器件106和芯片101进行连接和数据传输。板卡10中的控制器件106可以配置用于对芯片101的状态进行调控。为此,在一个应用场景中,控制器件106可以包括单片机(Micro Controller Unit,MCU)。
图2是示出根据上述实施例的芯片101中的组合处理装置的结构图。如图2中所示,组合处理装置20可以包括计算装置201、接口装置202、处理装置203和动态随机存取存储器(Dynamic Random Access Memory,DRAM)DRAM 204。
计算装置201可以配置成执行用户指定的操作,主要实现为单核智能处理器或者多核智能处理器。在一些操作中,其可以用于执行深度学习或机器学习方面的计算,并且还可以通过接口装置202与处理装置203进行交互,以共同完成用户指定的操作。
接口装置202可以用于在计算装置201与处理装置203间传输数据和控制指令。例如,计算装置201可以经由接口装置202从处理装置203中获取输入数据,写入计算装置201片上的存储装置。进一步,计算装置201可以经由接口装置202从处理装置203中获取控制指令,写入计算装置201片上的控制缓存中。替代地或可选地,接口装置202也可以读取计算装置201的存储装置中的数据并传输给处理装置203。
处理装置203作为通用的处理装置,执行包括但不限于数据搬运、对计算装置201的开启和/或停止等基本控制。根据实现方式的不同,处理装置203可以是中央处理器(Central Processing Unit,CPU)、图形处理器(Graphics Processing Unit,GPU)或其他通用和/或专用处理器中的一种或多种类型的处理器,这些处理器包括但不限于数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application SpecificIntegrated circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,并且其数目可以根据实际需要来确定。如前所述,仅就本公开的计算装置201而言,其可以视为具有单核结构或者同构多核结构。然而,当将计算装置201和处理装置203整合共同考虑时,二者视为形成异构多核结构。
DRAM 204用以存储待处理的数据,为DDR内存,大小通常为16G或更大,用于保存计算装置201和/或处理装置203的数据。
图3示出了计算装置201为单核的内部结构示意图。单核计算装置301用以处理计算机视觉、语音、自然语言、数据挖掘等输入数据,单核计算装置301包括三大模块:控制模块31、运算模块32及存储模块33。
控制模块31用以协调并控制运算模块32和存储模块33的工作,以完成深度学习的任务,其包括取指单元(Instruction Fetch Unit,IFU)311及指令译码单元(InstructionDecode Unit,IDU)312。取指单元311用以获取来自处理装置203的指令,指令译码单元312则将获取的指令进行译码,并将译码结果作为控制信息发送给运算模块32和存储模块33。
运算模块32包括向量运算单元321及矩阵运算单元322。向量运算单元321用以执行向量运算,可支持向量乘、加、非线性变换等复杂运算;矩阵运算单元322负责深度学习算法的核心计算,即矩阵乘及卷积。存储模块33用来存储或搬运相关数据,包括神经元存储单元(Neuron RAM,NRAM)331、参数存储单元(Weight RAM,WRAM)332、直接内存访问模块(Direct Memory Access,DMA)333。NRAM 331用以存储输入神经元、输出神经元和计算后的中间结果;WRAM 332则用以存储深度学习网络的卷积核,即权值;DMA 333通过总线34连接DRAM 204,负责单核计算装置301与DRAM 204间的数据搬运。
图4示出了计算装置201为多核的内部结构示意图。多核计算装置41采用分层结构设计,多核计算装置41作为一个片上***,其包括根据本公开的至少一个集群(cluster),每个集群又包括多个处理器核。换言之,多核计算装置41是以片上***-集群-处理器核的层次所构成的。以片上***的层级来看,如图4所示,多核计算装置41包括外部存储控制器401、外设通信模块402、片上互联模块403、同步模块404以及多个集群405。
外部存储控制器401可以有多个(如图中示例性地示出2个),其用以响应处理器核发出的访问请求,访问外部存储设备,也即本公开上下文中的片外存储器(例如图2中的DRAM 204),从而自片外读取数据或是将数据写入。外设通信模块402用以通过接口装置202接收来自处理装置203的控制信号,启动计算装置201执行任务。片上互联模块403将外部存储控制器401、外设通信模块402及多个集群405连接起来,用以在各个模块间传输数据和控制信号。同步模块404是一种全局同步屏障控制器(Global Barrier Controller,GBC),用以协调各集群的工作进度,确保信息的同步。本公开的多个集群405是多核计算装置41的计算核心。尽管在图4中示例性地示出4个集群,然而,随着硬件的发展,本公开的多核计算装置41还可以包括8个、16个、64个、甚至更多的集群405。在一个应用场景中,集群405可以用于高效地执行深度学习算法。
以集群的层级来看,如图4所示,每个集群405可以包括多个处理器核(IPU core)406及一个存储核(MEM core)407,其例如可以包括本公开上下文所描述的高速缓冲存储器(例如LLC)。
处理器核406在图中示例性地示出为4个,本公开不限制处理器核406的数量,并且其内部架构如图5所示。每个处理器核406类似于图3的单核计算装置301,并且同样可以包括三个模块:控制模块51、运算模块52和存储模块53。控制模块51、运算模块52及存储模块53的功用及结构大致与控制模块31、运算模块32及存储模块33相同,此处不再赘述。需特别说明的是,存储模块53可以包括输入/输出直接内存访问模块(Input/Output DirectMemory Access,IODMA)533、搬运直接内存访问模块(Move Direct Memory Access,MVDMA)534。IODMA 533通过广播总线409控制NRAM 531/WRAM 532与DRAM 204的访存;MVDMA 534则用以控制NRAM 531/WRAM 532与存储单元(SRAM)408的访存。
回到图4,存储核407主要用以存储和通信,即存储处理器核406间的共享数据或中间结果、以及执行集群405与DRAM 204之间的通信、集群405间彼此的通信、处理器核406间彼此的通信等。在其他实施例中,存储核407可以具有标量运算的能力,用以执行标量运算。
存储核407可以包括静态随机存取存储器(Static Random-Access Memory,SRAM)408、广播总线409、集群直接内存访问模块(Cluster Direct Memory Access,CDMA)410及全局直接内存访问模块(Global Direct Memory Access,GDMA)411。在一个实施场景中,SRAM 408可以承担高性能数据中转站的角色。由此,在同一个集群405内不同处理器核406之间所复用的数据不需要通过处理器核406各自向DRAM 204获得,而是经SRAM 408在处理器核406间中转。进一步,存储核407仅需要将复用的数据从SRAM 408迅速分发给多个处理器核406即可,从而可以提高核间通信效率,并显著减少片上片外的输入/输出访问。
广播总线409、CDMA 410及GDMA 411则分别用来执行处理器核406间的通信、集群405间的通信和集群405与DRAM 204的数据传输。以下将分别说明。
广播总线409用以完成集群405内各处理器核406间的高速通信,此实施例的广播总线409支持核间通信方式包括单播、多播与广播。单播是指点对点(例如单一处理器核至单一处理器核)的数据传输,多播是将一份数据从SRAM 408传输到特定几个处理器核406的通信方式,而广播则是将一份数据从SRAM 408传输到所有处理器核406的通信方式,属于多播的一种特例。
CDMA 410用以控制在同一个计算装置201内不同集群405间的SRAM 408的访存。GDMA 411与外部存储控制器401协同,用以控制集群405的SRAM 408到DRAM 204的访存,或是将数据自DRAM 204读取至SRAM 408中。从前述可知,DRAM 204与NRAM 431或WRAM 432间的通信可以经由2种方式来实现。第一种方式是通过IODAM 433直接和DRAM 204与NRAM 431或WRAM 432通信;第二种方式是先经由GDMA 411使得数据在DRAM 204与SRAM 408间传输,再经过MVDMA 534使得数据在SRAM 408与NRAM 431或WRAM 432间传输。尽管第二种方式可能需要更多的元件参与且数据流较长,但实际上在部分实施例中,第二种方式的带宽远大于第一种方式,因此通过第二种方式来执行DRAM 204与NRAM 431或WRAM 432间的通信可能更为有效。可以理解的是,这里所描述的数据传输方式仅仅是示例性的,并且本领域技术人员根据本公开的教导,也可以根据硬件的具体布置来灵活地选择和适用各种数据传输方式。
在其他的实施例中,GDMA 411的功能和IODMA 533的功能可以整合在同一部件中。尽管本公开为了方便描述,将GDMA 411和IODMA 533视为不同的部件,然而对于本领域技术人员来说,只要其实现的功能以及达到的技术效果与本公开类似,即属于本公开的保护范围。进一步地,GDMA 411的功能、IODMA 533的功能、CDMA 410的功能、MVDMA 534的功能也可以由同一部件来实现。
以上结合图1-图5对本公开的硬件架构及其内部结构进行了详细的描述。可以理解的是上述描述仅仅是示例性的而非限制性的。根据不同的应用场景和硬件规格,本领域技术人员也可以对本公开的板卡及其内部结构进行改变,而这些改变依然落入本公开的保护范围内。例如,在本公开下面将用描述的方案中,其对应的硬件架构可以是不包括用以控制在同一个计算装置201内不同集群405间对SRAM 408访存的CDMA410。取而代之,本公开下面的方案涉及对例如设置在SRAM408和DRAM204之间的高速缓冲存储器进行改进和优化,以通过高速缓冲存储器实现高效的数据按需锁存和不同集群间的通信。
为了高效地使用高速缓冲存储器(例如LLC)并提高数据访问的命中率,本公开下面的方案提出将高速缓冲存储器中的特定存储空间配置成锁存区,以用于数据的锁存操作,特别是针对于将要被频繁使用的数据。例如,前述频繁使用的数据可以是将要在具有数据依赖关系的至少一个任务之间重复使用的数据。可以理解的是,当只需使用数据一次时,则可以不将该数据锁存在高速缓冲存储器中。
进一步,在前述配置锁存区以用于数据锁存的基础上,本公开下面的方案还提出将高速缓冲存储器配置成支持多种锁存模式,以便在接收到锁存相关请求时,令高速缓冲存储器操作在与前述锁存相关请求对应的锁存模式下。根据不同的应用场景和需求,本公开的多种锁存模式可以具有特定的优先级顺序,以满足不同的锁存相关操作。另外,为了使得高速缓冲存储器支持多种锁存模式,本公开的方案也提出多种不同的配置方法,使得可以更为灵活地使用高速缓冲存储器并且利用其实现集群间的通信。
图6是示出根据本公开实施例的用于高速缓冲存储器的方法600的流程图。如图6中所示,方法600包括在步骤S602处,将所述高速缓冲存储器中的特定存储空间配置为支持多种锁存模式的锁存区。在一个实施例中,前述的多种锁存模式可以包括但不限于基于硬件指令来执行锁存相关操作的指令模式、基于窗口属性来执行锁存相关操作的窗口模式、基于数据流来执行锁存相关操作的流模式和/或基于缓存页来执行锁存相关操作的页模式。在一个实施例中,前述的数据流可以是具有不同类型的指令流或数据流。以数据流为例,在神经网络的应用场景中,该数据流可以是神经网络模型的神经元数据流、权重数据流、输出结果数据流等。另外,在本公开的上下文场景中,锁存相关操作所针对的数据是将要由片上***的处理器多次使用到的数据,其相对于未进行锁存操作的数据具有相对高的优先级。通过将这样多次使用的数据锁存(或称驻留)于本公开的锁存区中,可以显著提升缓存命中率,由此改善***的整体性能。另外,通过将重复使用到的数据驻留在LLC的锁存区中,可以减小数据在片上***和片外存储器(例如DDR或DRAM)之间的读写操作,从而也提高了访存效率。
在一个应用场景中,上述的多种锁存模式可以根据用户的偏好或***的优选项而设置为具有不同的优先级。例如,在一个实施方式中,优先级的高低顺序可以是指令模式—>窗口模式—>流模式—>页模式;在另一个实施方式中,优先级的高低顺序可以是指令模式—>页模式—>流模式—>窗口模式。通过这样的多模式和优先级设置,可以以更多方式来使用高速缓冲存储器中的锁存区,增加了锁存区使用的灵活性以应对不同的应用场景和***要求。进一步地,可以根据上述锁存模式的优先级顺序依次遍历,当高优先级的锁存模式被禁用时,可以采用低优先级的锁存模式。
在一个实施例中,可以根据接收到的多种配置指令中的一种配置指令将特定存储空间配置成支持对应的一种锁存模式的锁存区。在一个场景中,该配置指令可以包括一个或多个配置项,以实现对前述锁存区的配置。例如,该多个配置项可以包括启用锁存区、禁用锁存区和/或锁存区大小的配置项。进一步,可以在前述的指令模式、窗口模式、流模式或页模式来配置相应的锁存策略(例如锁存数据的大小或需锁存的具体数据),以用于锁存不同类型或特定的指令、数据或数据流等。在不同模式下来配置相应的锁存策略具体可参见下文的描述。通过这样的启用、禁用和多种具体的配置,本公开的方案可以实现灵活地使用高速缓冲存储器,使得其可以根据需要操作于本公开的多种锁存模式之一,或者操作于常规模式。
返回到图6中的流程图,在完成上述步骤S602处的配置操作后,在步骤S604处,接收在锁存区中对数据进行锁存相关操作的锁存相关请求。根据本公开的实施例,该锁存相关请求可以由旨在将特定的数据驻留于锁存区的操作来触发。替代地,该锁存相关请求也可以由旨在将特定的数据从锁存区移除或释放的操作来触发。如前文所详细描述的,当操作于不同的锁存模式时,本公开的锁存相关请求也可以具有不同的表达形式或内容。例如,对于指令模式、窗口模式或流模式,锁存相关请求可以包括用于指示高速缓冲存储器的行为属性的配置项等。
在一个实施例中,上述用于指示高速缓冲存储器的行为属性的配置项至少包括以下多个配置属性中的一个:
瞬态(Transient)属性:不在LLC内进行缓存,也即与片外存储器(如DDR)直接进行数据的读写操作;用以对于某些只访问一次的数据,不在LLC内进行缓存,从而避免占用LLC资源;
锁定(Lock)属性:将特定的数据驻留于锁存区,从命中的缓存行(cacheline)中读写数据。若缓存行属于锁存区,则缓存行属性配置为持久(persisting)属性;若缓存行不属于锁存区,则缓存行的属性不变,即保持下面的常规(normal)属性;应当清楚的是,上述的锁存区的缓存行具有两种属性,即持久(persisting)属性和常规(normal)属性。该锁存区中持久(persisting)属性的缓存行仅可以被附带Lock属性的锁存相关请求访问和替换。
解锁(Unlock)属性:将从命中的缓存行中读写数据后,释放LLC中锁存区内数据的对应存储空间,并将锁存区中的相应的缓存行属性设置为下面的常规属性;
常规属性:在LLC内正常缓存的请求,可以直接与片外存储器进行读写数据;
无效(Invalid)属性:读取之后直接无效数据,避免被替换写入到片外存储器;
干净(Clean)属性:在执行写操作时,可以将数据写入命中的缓存行中,并将整个高速缓冲存储器(cache)的存储内容写回到片外存储器,缓存行的属性保持不变;读操作时,从命中的缓存行中读取数据。当该命中的缓存行为脏(dirty)时,则将其写回到片外存储器中;
默认(Default)属性:该默认项可以用以指示忽略关于锁存模式的配置。
通过在锁存相关请求中附带上述示例性的可配置属性后,本公开的方案可以根据这些附带的属性来执行指令模式下的对应锁存相关操作。
再例如,对于页模式,锁存相关请求可以指示与特定的页相关的数据将被锁存于锁存区中以用于后续的多次使用,或可以指示与特定的页相关的数据在经多次使用后,从锁存区解锁以释放出更多的存储空间来用于后续的数据锁存。可以理解的是,通过释放操作,锁存区的存储空间可以被灵活地使用,从而提高了本公开锁存区的使用效率。
返回到图6的流程,响应于上述步骤S604的锁存相关请求,在步骤S606处,可以根据锁存相关请求,以对应的锁存模式在锁存区中对数据执行锁存相关操作。根据本公开的实施例,前述的锁存相关操作可以包括针对于锁存区的读操作和写操作。在一个实施方式中,针对于锁存区的写操作,方法600还可以包括根据锁存相关请求将数据或选定的部分数据锁存于锁存区的指定区域内,以便用于后续的多次读取。在另一个实施方式中,针对于锁存区的读操作,方法600还可以包括在执行完读操作后,根据锁存相关请求将数据或选定的部分所述数据从所述锁存区的指定区域释放。
关于前述选定的部分数据,在一个实施例中,可以以随机的方式从数据中选择预定比例的数据形成前述的部分数据来锁存于锁存区中。在另一个实施例中,可以利用哈希算法从数据中选择预定比例的数据作为前述的部分数据来锁存于锁存区中。在进一步的实施例中,当待执行锁存相关操作的数据的访存地址处于所述锁定窗口的地址范围之内,可以采用前述的哈希算法选定能够锁存在锁存区的部分数据。关于哈希算法的具体使用,将再稍后结合附图11来进行详细描述。
利用上述结合图6所描述的方法,本公开的方案使得高速缓冲存储器支持多个锁存模式,从而扩大了高速缓冲存储器的应用场景并且显著提升了缓存命中率。进一步,由于多种锁存模式的引入,也令锁存区的使用更具灵活性和适应性,从而满足不同的应用场景和用户需求。另外,由于在锁存区对数据进行有效的锁存,也促进了数据在生产者内核(“producer kernel”)和一个或多个消费者内核(“consumer kernel”)之间的共享,提升了数据的可访问性和使用率。此处的生产者内核和消费者内核可以理解为具有依赖性的两个任务,其中生产者内核的输出将作为传递至消费者内核的输入,以便消费者内核使用该输入来完成相应的任务。此时,由于生产者内核的输出将作为后续运算的输入,因此可以将该生产者内核的输出作为后续需要多次使用的数据,该后续需要多次使用的数据可以暂存在高速缓冲存储器的锁存区内,以便于消费者内核可以直接从该高速缓冲存储器中获取该输入,而无需访问片外存储器,从而减少了人工智能处理器与片外存储器之间的访存交互,降低了IO访存开销,进而可以提高人工智能处理器的处理效率及性能。
图7是示出根据本公开实施例的高速缓冲存储器700的简化框图。可以理解的是图7所示的高速缓冲存储器700可以是结合图6所描述的高速缓冲存储器,因此关于图6所描述的高速缓冲存储器也同样适用于下面关于图7的描述。
如图7中所示,本公开的高速缓冲存储器700可以包括配置模块701和锁存执行模块702。进一步,高速缓冲存储器700中还包括用于执行缓存操作的存储空间,例如,图中所示出的将存储空间平均划分成8份的8路(way0~way7),其中每路中包括若干数目的缓存行(cacheline)。
在一个实施例中,上述的配置模块可以用于将高速缓冲存储器中的特定存储空间配置成支持多种锁存模式的锁存区,其中该特定存储空间的大小小于高速缓冲存储器的总存储大小。例如,图7中的way0~way5可以被配置为支持锁存的特定存储空间。对应地,图7中的way6~7可以保持高速缓冲存储器的普通属性,也即作为一般缓存使用。如前所述,该锁存模式可以是指令模式、窗口模式、流模式和/或页模式。进一步,锁存执行模块可以用于接收在锁存区中对数据进行锁存相关操作的锁存相关请求。接着,该锁存执行模块可以根据锁存相关请求,以对应的锁存模式在锁存区内对数据执行锁存相关操作。与前文描述相同,此处的锁存相关操作可以包括针对于锁存区的写操作(即将数据写入到锁存区)或将锁存区中的数据从锁存区释放。例如,当消费者内核使用完锁存区的数据,并且该数据将不再被其他消费者内核使用时,则可以将该锁存区内存储数据的空间进行释放,以用于锁存其他数据。
图8是示出根据本公开实施例的片上***800的简化框图。如图8中所示,本公开的片上***800可以包括如图7中所示出的高速缓冲存储器700和处理器(或处理器核)802。在一个实施方式中,高速缓冲存储器的锁存执行模块可以用于根据锁存相关请求,以对应的所述锁存模式在所述锁存区内对所述数据执行锁存相关操作。关于高速缓冲存储器700,前文结合图6和图7对其进行了描述,此处将不再赘述。关于处理器802,根据本公开的方案,其可以是各种类型的处理器,并且可以包括一个或多个处理器核以生成锁存相关请求。在操作中,高速缓冲存储器的锁存执行模块用于根据生成的锁存相关请求,以对应的锁存模式在锁存区内对数据执行锁存相关操作。例如,当锁存模式是指令模式时,则处理器可以用于根据接收到的硬件指令来生成锁存相关请求。又例如,当锁存模式是页模式时,则处理器可以用于根据缓存页配置来生成锁存相关请求。再如,当锁存模式是窗口模式或流模式时,则处理可以用于配置锁定窗口,并根据锁定窗口来生成锁存相关请求。
根据不同的实施方式,处理器802还可以是包括多个计算核的智能处理器或智能处理单元(“Intelligence Processing Unit”,简写为“IPU”),其可以配置成执行各类人工智能领域(例如神经网络方面)的计算。
图9是示出根据本公开实施例的片上***900的详细框图。可以理解的是这里所示出的片上***900可以是图8所示片上***的一种具体实现方式,因此关于图8所描述的内容也同样适用于图9。进一步,仅为了示例的目的,将以多个锁存模式中的窗口模式(或流模式)来描述片上***900的操作。
如图9中所示,片上***900可以包括任务调度器(“Job Scheduler”)902,其包括调度单元903和配置器904。在一个实施例中,配置器904可以用于根据分配的配置任务(例如可以从任务队列中获得)来生成配置指令,以便向高速缓冲存储器(即“LLC”906)的配置模块(如CLR)发送。在一个实施例中,调度单元903可以用于对任务调度器中的多个任务(也即将在人工智能处理器上执行的“kernel”)进行调度,以便向本公开的片上***中的智能处理器(IPU)905发送。在本公开的方案中,这里的智能处理器905可以是包括多个处理器核,多个处理器核可以构成如图4中所示出的一个群集(cluster)。在一个实施场景中,在如前的多处理器核架构中,调度单元可以根据多个处理器核的空闲度(例如利用率)来将任务分配给合适的处理器核。
进一步,该片上***900还包括***内存管理单元(“System Memory ManagementUnit”,简写为“SMMU”),该***内存管理单元用于将访存数据的虚拟地址转换为物理地址,以根据该物理地址实现对相关存储位置的访问。在一个实施方式中,该***内存管理单元中包括设置有地址转换缓冲器TLB(Translation Lookaside Buffer,也称为快表)。该TLB中维护有页表,该页表包括至少一个页表项,每个页表项包括页(page)以及该页对应的页框(Frame)。在操作中,该***内存管理单元可以根据接收到的虚拟地址来确定该虚拟地址对应的页,并且接着可以通过页与页框的映射关系确定该虚拟地址对应的物理地址PA(Physcial Address),从而可以根据该物理地址实现对高速缓冲存储器的相关存储位置的访问。
在一个实施例中,可以通过上述的窗口模式或流模式实现对高速缓冲存储器的访问。此时,智能处理器可以从存储器中获取参数表,并根据参数表来配置与待执行锁存相关操作的数据关联的锁定窗口(“Lock window”),以及根据配置的锁定窗口生成锁存相关请求(即,例如附带lock/unlock属性的IO访问请求)。接着,SMMU可以根据该IO访问请求来对LLC执行锁存相关操作。具体地,SMMU可以将前述的IO访问请求发送至LLC 906的缓存策略模块907(其执行类似于图7中锁存执行模块702的相同操作)来进行执行。在一个实施方式中,参数表可以包括用于配置锁定窗口或流模式中的流锁存属性的参数项。例如,参数项可以包括但不限于锁定/解锁窗口(“lock/unlock window”)、每数据流的锁定/解锁(“perstream lock/unlock”)、锁存比率(“Lock Ratio”)、锁定窗口标识(“lock window flag”)等信息。在一个实施场景中,该参数表中的参数可以是用户自定义设置的。由此,可以在程序的运行阶段获得该参数表中的相关参数,并且将该参数表存储在存储器(例如DDR)中,以便智能处理器(如图中的IPU 905)在执行阶段使用。
在一个实施方式中,上述的锁定窗口用于表示软件用户希望锁存的存储空间,该锁定窗口的大小可以大于高速缓冲存储器上的锁存区的大小。上述锁定窗口包括以下中的一项或多项:窗口的基地址和大小,其中窗口的基地址可以是上层软件配置的虚拟地址(例如虚拟地址“Virtual Address”,简写“VA”),该窗口的基地址与待执行锁存相关操作的数据起始地址相对应,而窗口的大小可以与待锁存的数据大小相对应。
具体地,在窗口模式下,智能处理器可以根据任务调度器下发的任务,确定该任务中数据的访存地址(该访存地址可以是虚拟地址),并将该任务中数据的访存地址与窗口的锁定窗口定义的地址范围进行比较。如果该任务中数据的访存地址在锁定窗口的地址范围,则表示命中该锁定窗口,此时可以使能锁定窗口(如“Enabled”)。否则,若该任务中数据的访存地址在锁定窗口的地址范围之外,则表示未命中该锁定窗口。此时,该锁定窗口可以被忽略,也即表明该任务中的数据将不会被暂存在高速缓冲存储器中。进一步地,在数据的访存地址命中该锁定窗口时,则可以利用哈希算法从数据中选择预定比例的数据作为前述的部分数据来存储于锁存区中。关于哈希算法的具体使用,将再稍后结合附图11来进行详细描述。之后,智能处理器可以通过SMMU将附带Lock属性的锁存相关请求发送给高速缓冲存储器LLC。其中,该附带Lock属性的锁存相关请求可以用于指示将特定的数据驻留于锁存区,该特定的数据可以是根据哈希算法选定的部分数据。
下面以窗口模式,结合图9来描述LLC的锁存过程和释放过程。
LLC驻留(或称锁定)过程:
步骤1:任务调度器借助配置器来配置LLC(例如经由缓存策略模块)以便启用锁定区(“Lock enable”)、禁用锁定区(“Lock disable”)和锁定区的大小,即图中所示出的路(“Way”)数(例如Way0~Way7)。
步骤2:任务调度器下发任务kernel给IPU;
步骤3:IPU从参数表中获取锁定窗口标识(“lock window flag”),读取并配置锁定窗口。在一个实施场景中,这里的参数表可以通过软件来配置并存储在片外的动态随机存取存储器(“Dynamic Random Access Memory”,简写为“DRAM”)的一个存储地址处。接着,任务调度器可以向IPU传送该地址并且IPU可以根据该地址来读取参数表,以便完成对锁定窗口的配置。
步骤4:IPU通过内存管理单元SMMU生成锁存相关请求,并且在向LLC的缓存策略模块发送该请求时,可以令该请求依据锁定窗口信息来附带lock属性。
步骤5:LLC的缓存策略模块在接收到带有lock属性的锁存相关请求之后,将对应的数据存储在相应的缓存行中,并标记该缓存行(也即锁存区)的lock属性,例如设置为如前所述的“持久(persisting)”。
LLC解驻留(或称释放)过程:
步骤6:任务调度器下发kernel给IPU;
步骤7:IPU从参数表中获取解锁窗口标识,读取并配置解锁窗口;
步骤8:IPU发射请求的时候,依据解锁窗口信息来附带解锁(“unlock”)属性;
步骤9:LLC的缓存策略模块在接收到带有unlock属性的请求之后,将命中的lock属性的缓存行切换为常规属性,如前面结合指令模式所描述的常规(Normal)属性;
步骤10:任务调度器借助配置器并且通过CLR模块来禁用锁存区即(即,LLC lockdisable)。在一个实现场景中,CLR模块可以根据配置器的指示来清空先前的锁定属性配置。
以上结合图9对本公开的片上***在窗口模式下的锁存方案进行了详细的描述。通过这样的锁存操作,可以显著提升缓存命中的机率并且改善了高速缓冲存储器的使用效率和扩大了应用场景。
本公开实施例还支持流模式下的锁存相关操作,当本公开的任务中数据流对应的使能比特位为低,则视为默认情形,也即不执行流模式下的锁存相关操作。反之,当使能比特位为高时,则可以在流模式下对该数据流执行相应的锁存相关操作。具体地,本公开的窗口模式和流模式具有相类似的操作,可以利用哈希算法和该数据流的锁存比例从该数据流中选择预定比例的数据作为前述的部分数据来存储于锁存区中。关于哈希算法的具体使用,将再稍后结合附图11来进行详细描述。
如前所述,在一个实施例中,本公开实施例还支持页模式下的锁存相关操作,下面结合图10来描述该页模式。
图10是示出根据本公开实施例的页模式的示意框图。如图10所示,根据本申请的方案,可以对缓存页直接进行配置以使得其具有本公开的锁定属性,从而使得与存储器(如“内存”)形成映射关系的缓存页可以用于多个内核kernel(如图中所示内核0~2)之间共享访问数据使用。在一个实施方式中,程序员可以利用指令(例如Malloc)对缓存页进行锁定属性标记。当一个内核访问标记为锁定的缓存页时,SMMU可以将缓存页所对应的数据锁定于本公开的锁存区中。接着,当后续的内核需要再次访问到前述的缓存页时,其可以从锁存区的对应缓存行读取先前锁定的数据,从而实现缓存命中。由此,通过页模式,本公开的方案提升了数据在多个内核之间的共享和可访问性。
具体地,在页模式下,软件驱动程序可以通过指令直接配置(“System MemoryManagement Unit”,简写为“SMMU”)页表中的信息,并且根据该信息来确定执行基于页的锁存操作或者常规(normal)操作两种配置。当页表中的信息指示SMMU被旁路(bypass)时,则表示无需对高速缓冲存储器进行锁存,此时高速缓冲存储器中的缓冲行的属性可以是常规(Normal)属性。当信息指示SMMU为线性映射时,此时则可以根据SMMU线性映射窗口配置来设置基于页的锁存操作。例如,该线性映射窗口内的缓存页所对应的数据锁定于本公开的锁存区中。该SMMU可以基于页表中的信息生成相应的锁存相关请求,并将该锁存相关请求发送至LLC,LLC的缓存策略模块可以根据该锁存相关请求对LLC的缓存行进行配置,以执行相应的缓存相关操作。
在一个实施例中,本公开实施例还支持指令模式,此时,该片上***可以通过指令集中的访存指令(IO指令)来配置LLC中的锁存区。
例如IO指令附带锁存相关属性的至少一种配置域,从而借助于该配置域来灵活地配置LLC。这里,各种配置域可以代表当对片外存储器(例如DDR空间)执行数据访存时,LLC可以对应执行的操作行为。在一个实施场景中,指令中包括上述的配置属性:瞬态(Transient)属性、锁定(Lock)属性、解锁(Unlock)属性、常规(Normal)属性、无效(Invalid)属性、干净(Clean)属性或默认(Default)属性等等。由于指令模式为最高优先级,因此当IO访存指令指示为Default属性时,则意味着可以由其他模式(如窗口模式、流模式或页模式)来执行锁存相关操作。
通过在锁存相关请求中附带上述示例性的可配置属性后,本公开的方案可以根据这些附带的属性来执行指令模式下的对应锁存相关操作。
当任务调度器将任务下发至智能处理器IPU时,IPU可以根据任务中IO指令确定锁存相关请求。具体地,当IO指令中的Lock属性的配置域使能时,此时可以在锁存相关请求中附带Lock属性,以使得LLC根据该附带Lock属性的锁存相关请求来将特定的数据存储于锁定区。当IO指令中的Unlock属性的配置域使能时,此时可以在锁存相关请求中附带Unlock属性,以使得LLC根据该附带Unlock属性的锁存相关请求来释放锁定区。根据应用场景不同,这里的锁存相关请求还可以类似地附带其他的属性。
进一步地,在一些操作场景中,当指令中还包括用于指示锁存比例的特定配置域。当该指令中的特定配置域(例如特定比特位inst_ratio_en)为低时,则可以认为锁存操作取决于指令配置,即根据任务中具体的IO指令来确定锁存相关请求。如果前述比特位为高,则可以根据哈希(hash)算法与该指令指示的锁存比率(lock ratio)进行比较,从该数据流中选择预定比例的数据作为前述的部分数据来存储于锁存区中。关于哈希算法的具体使用,下文结合附图11来进行详细描述。
图11是示出根据本公开实施例的窗口模式或流模式下的哈希操作。本公开的方案使用哈希操作来执行一定比例的驻留(即锁定)是因为LLC驻留关键问题之一是带宽与容量的权衡(“tradeoff”)。因此,本公开提出执行一定比例的驻留(即Lock Ratio),从而可以针对不同的任务,获得不同的带宽和驻留容量。假定预设Lock Ratio的值为P(例如以百分比计),则预期带宽为B=6T*P+2T*(1-P),这里6T是数据驻留于LLC上的读取速率,而2T是数据存储于内存(如DRAM)上的读取速度,其中T=1000Gbit/s。如前所述,Lock Ratio可以在lock/unlock window中配置或者是针对具体的数据流进行配置。另外,尽管下文对窗口模式或流模式下的哈希操作进行了描述,但类似的操作也适用于指令模式下的哈希操作。
具体来说,在窗口模式或流模式下,智能处理器核首先数据的访存地址与锁定窗口限定的地址范围进行比较,以确定请求的地址是否在锁定窗口的地址范围内。当请求的地址在锁定窗口的地址范围内时,则如图11中所示,可以对命中的窗口地址范围执行哈希运算。这里,每个数据的访存地址可以是虚拟地址。
具体来说,借助于全局固定的Hash规则,可以将该访存地址的VA映射到Hash空间上(即图中的“Hash Map”),并且该Hash过程可以优先保留地址低位信息。接着,可以将在1102处获得的Hash值与锁存比例Lock Ratio在1104处进行比较,以随机选取出对应比例的数据。具体地,当访存地址的hash值小于该锁存比例时,则认为命中,并且因此该部分数据(即符合比例的数据)可以锁存在高速缓冲存储器中。与之相反,当访存地址的hash值大于或等于该锁存比例时,则认为未命中,并且因此该部分数据将不会锁存在高速缓冲存储器中。
例如,当锁存比例Lock Ratio设定为10%,则可以依顺序从Hash值中选取前10%值所对应的部分数据,即数据的锁存地址的哈希值小于该锁存比例的部分数据进行锁存相关操作。当前在其他示例中,锁存比例还可以是其他数值,该锁存比例可以由软件用户自定义设置,前述的选取操作也可以根据Hash算法的设定来实现。例如,该锁存比例还可以是20%~30%,此时可以依顺序从Hash值中选取前20%~30%值所对应的部分数据进行锁存相关操作。此后,可以在1106处按照指定的请求类型来处理,即将部分数据进行锁定或解锁。
以上结合图6-图11对本公开的高速缓冲存储器的锁存方案进行了详细地描述。基于前述锁存方案的思想,并且作为前述锁存方案的补充,下面将结合图12-图14对本公开针对高速缓冲存储器的另一扩展应用进行描述,即如何通过高速缓冲器来实现片上***内集群间的通信。
图12是示出根据本公开实施例的片上***的简化框图。结合前文的描述,可以理解的是这里的片上***可以是包括在图2所示计算装置201中的片上***,例如是由多核计算装置41所构成的片上***。如图6中所示,该片上***1200包括示例性示出的四个集群0-集群4。鉴于前文已经对集群进行了详细的描述,此处不再赘述。进一步示出的是高速缓冲存储器1201,其例如可以设置在如前图5中所示出的SRAM 408中,用于执行集群间的数据传输操作。在一个实施场景中,该高速缓冲存储器1201也可以与DRAM(例如DDR)进行片上与片外之间的双向通信,包括各种类型数据或指令的传递。
图13是示出根据本公开实施例的用于片上***的方法1300的流程图。这里的片上***可以是如图12中所示出的片上***。具体来说,该片上***至少包括用于执行运算操作的多个集群和与该多个集群互联的高速缓冲存储器。在一个实施场景中,每个集群可以包括用于执行所述运算操作的多个处理器核。在一个实施场景中,上述在高速缓冲存储器中确定的锁存区可以用于完成集群间的数据通信,从而使得该片上***可以不再设置CDMA410和GDMA 411等通信模块。
在一个实施方式中,上述锁存区可以用于在具有依赖关系的任务之间传递数据,例如,锁存区可以用于在生产者内核和消费者内核之间传递数据。具体来说,处理器可以通过配置的锁定窗口,将生产者内核需要交换给消费者内核的数据锁存在LLC中。在一个场景中,当处理器执行完生产者内核后,可以将需要传递给消费者内核的数据(其可能是生产者内核的输入数据或输出数据)进行锁存。鉴于此,处理器可以如前所述那样通过配置的锁定窗口并且借助于例如SMMU来对LLC进行本公开的锁存相关操作,从而在窗口模式下将需要交换的上述数据锁存于LLC中,以供消费者内核稍后使用。对应地,处理器还可以根据消费者内核中配置的解锁窗口来释放锁存区,即处理器在通过对于LLC中锁存的数据执行读取操作完成消费者内核的执行时,可以释放LLC中锁存区内数据的对应存储空间。
基于上述锁存区能够配置用于在具有依赖关系的任务之间传递数据,该锁存区还可以用于片间通信的应用场景。例如,该处理器的一个集群或处理器核中经由锁存区发射数据(该数据可以是生产者内核需要交换给消费者内核的数据)给其他集群中的处理器进行归并处理。其他集群中的处理器从锁存区读取数据进行处理,从而实现数据间的片间传输。采用该锁存区进行集群间通信的方式具体可参见下文的描述。
如图13所示,本公开还包括使用高速缓冲存储器的锁存区来进行集群间通信的方法,该方法包括:
在步骤S1302处,将片外存储器的指定存储空间映射到高速缓冲存储器(“cache”)的给定存储区(其物理属性与前述结合附图所描述的锁定区相同),以将该给定存储区用作集群间数据通信的集群存储区。在如图8所示出的一个实施场景中,高速缓冲存储器可以包括LLC,并且片外存储器包括DDR。基于此,指定的存储空间可以是图14中1402处所指定的存储空间。对应地,集群存储区可以是图14中1404处高速缓冲存储器中的给定存储区。在一个实施场景中,可以通过软件配置来指定DDR的指定存储空间,并且将该DDR的指定存储空间映射到cache上的给定空间,用作cluster间(例如图14中所示出的集群0和集群1)通信。在完成集群存储区的划分和确定后,在步骤S1304处,可以使用确定的所述集群存储区来执行集群的操作。
在一个实施例中,使用集群存储区来执行集群的操作可以包括将所述集群存储区用于集群间通信。在该情形中,将所述集群存储区用于集群间通信可以具体包括:利用所述集群存储区来实现集群之间的点对点通信。附加地,可以利用所述集群存储区来实现所述多个集群之一对其余集群的广播通信。当点对点通信的场景中,集群存储区可以用于接收来自于第一集群针对写入数据的写操作以及响应于第二集群的读操作,向所述第二集群发送第一集群先前的写入数据。
在上述写操作的一个示例实现中,集群存储区还可以用于接收将上述写操作所关联的写入数据驻留于所述集群存储区的锁定指示,例如图14中所示出的写锁定(“writelock”),即上述的附带Lock属性的锁定相关请求。接着,可以基于锁定指示将写入数据驻留于集群存储区中,其中该集群存储区可以是上述实施例中确定的锁存区。通过这样的驻留方式,可以显著提高将被多次读取的数据在高速缓冲存储器中的命中率。
在一中实施场景中,在其中一个集群中执行的生产者内核可以通过上述的写锁定,将需要交换给消费者内核的数据锁存在LLC中,以供消费者内核稍后使用,例如生产者内核经由LLC发射数据给其他集群中的处理器进行归并处理。其他集群中的处理器可以从该集群存储区读取数据进行处理,从而实现数据间的片间传输。
在上述读操作的一个示例实现中,集群存储区还可以用于接收令所述写入数据不写回片外存储器的读无效指示,例如从图14中集群1所发出的读无效(“read invalid”)。其中,该读无效指示可以是附带invalid属性的锁存相关请求,该锁存相关请求的生成方式具体可参见上文的描述。在不同的锁存模式下,其锁存相关请求可以不同。接着,集群存储区可以在向集群1发送所述写入数据后,基于所述读无效指示来令与所述写入数据关联的高速缓存行无效。
为了实现上述集群之间的数据传递(或者说通信)的同步,向集群存储区写入数据的集群(如集群0)可以在写操作后完成后向另一个集群(如集群1)发送同步指令,例如如图14中的hsem(“硬件信号量”)。接收到同步指令后,集群1可以发送针对于集群存储区的上述读无效请求,以便在读取集群0写入进集群存储区的数据后,令高速缓存行无效,从而防止前述数据的写回。
在本披露的上下文中,上述将数据写入到集群存储区和从集群存储区读取数据的行为也可以统称为锁存相关请求所触发的锁存相关操作,该锁存相关请求的确认方式可参见上文的描述。具体地,该锁存相关的请求可以用于指示锁存操作。通过锁存操作,数据将被锁存于集群存储区中以用于后续的多次使用。进一步,该锁存相关的请求可以用于指示释放操作,并且通过该释放操作,数据可以从集群存储区解锁以释放出更多的存储空间来用于后续的数据锁存。可以理解的是,通过释放操作,集群存储区的存储空间可以被灵活地使用,从而提高了本公开集群存储区的使用效率。
在一个实施方式中,针对于集群存储区的读操作,还可以在执行完读操作后,根据锁存相关请求将数据或选定的部分所述数据从所述集群存储区的指定区域释放。关于前述选定的部分数据,在一个实施例中,可以以随机的方式从数据中选择预定比例的数据形成前述的部分数据来锁存于锁存区中。在另一个实施例中,可以利用哈希算法从数据中选择预定比例的数据作为前述的部分数据来锁存于集群存储区中,具体可参见上文图11部分的描述。
以上结合附图对本公开的方案进行了详细的描述。根据不同的应用场景,本披露的电子设备或装置可以包括服务器、云端服务器、服务器集群、数据处理装置、机器人、电脑、打印机、扫描仪、平板电脑、智能终端、PC设备、物联网终端、移动终端、手机、行车记录仪、导航仪、传感器、摄像头、相机、摄像机、投影仪、手表、耳机、移动存储、可穿戴设备、视觉终端、自动驾驶终端、交通工具、家用电器、和/或医疗设备。所述交通工具包括飞机、轮船和/或车辆;所述家用电器包括电视、空调、微波炉、冰箱、电饭煲、加湿器、洗衣机、电灯、燃气灶、油烟机;所述医疗设备包括核磁共振仪、B超仪和/或心电图仪。本披露的电子设备或装置还可以被应用于互联网、物联网、数据中心、能源、交通、公共管理、制造、教育、电网、电信、金融、零售、工地、医疗等领域。进一步,本披露的电子设备或装置还可以用于云端、边缘端、终端等与人工智能、大数据和/或云计算相关的应用场景中。在一个或多个实施例中,根据本披露方案的算力高的电子设备或装置可以应用于云端设备(例如云端服务器),而功耗小的电子设备或装置可以应用于终端设备和/或边缘端设备(例如智能手机或摄像头)。在一个或多个实施例中,云端设备的硬件信息和终端设备和/或边缘端设备的硬件信息相互兼容,从而可以根据终端设备和/或边缘端设备的硬件信息,从云端设备的硬件资源中匹配出合适的硬件资源来模拟终端设备和/或边缘端设备的硬件资源,以便完成端云一体或云边端一体的统一管理、调度和协同工作。
需要说明的是,为了简明的目的,本披露将一些方法及其实施例表述为一系列的动作及其组合,但是本领域技术人员可以理解本披露的方案并不受所描述的动作的顺序限制。因此,依据本披露的公开或教导,本领域技术人员可以理解其中的某些步骤可以采用其他顺序来执行或者同时执行。进一步,本领域技术人员可以理解本披露所描述的实施例可以视为可选实施例,即其中所涉及的动作或模块对于本披露某个或某些方案的实现并不一定是必需的。另外,根据方案的不同,本披露对一些实施例的描述也各有侧重。鉴于此,本领域技术人员可以理解本披露某个实施例中没有详述的部分,也可以参见其他实施例的相关描述。
在具体实现方面,基于本披露的公开和教导,本领域技术人员可以理解本披露所公开的若干实施例也可以通过本文未公开的其他方式来实现。例如,就前文所述的电子设备或装置实施例中的各个单元来说,本文在考虑了逻辑功能的基础上对其进行划分,而实际实现时也可以有另外的划分方式。又例如,可以将多个单元或组件结合或者集成到另一个***,或者对单元或组件中的一些特征或功能进行选择性地禁用。就不同单元或组件之间的连接关系而言,前文结合附图所讨论的连接可以是单元或组件之间的直接或间接耦合。在一些场景中,前述的直接或间接耦合涉及利用接口的通信连接,其中通信接口可以支持电性、光学、声学、磁性或其它形式的信号传输。
在本披露中,作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元示出的部件可以是或者也可以不是物理单元。前述部件或单元可以位于同一位置或者分布到多个网络单元上。另外,根据实际的需要,可以选择其中的部分或者全部单元来实现本披露实施例所述方案的目的。另外,在一些场景中,本披露实施例中的多个单元可以集成于一个单元中或者各个单元物理上单独存在。
在一些实现场景中,上述集成的单元可以采用软件程序模块的形式来实现。如果以软件程序模块的形式实现并作为独立的产品销售或使用时,所述集成的单元可以存储在计算机可读取存储器中。基于此,当本披露的方案以软件产品(例如计算机可读存储介质)的形式体现时,该软件产品可以存储在存储器中,其可以包括若干指令用以使得计算机设备(例如个人计算机、服务器或者网络设备等)执行本披露实施例所述方法的部分或全部步骤。前述的存储器可以包括但不限于U盘、闪存盘、只读存储器(“Read Only Memory”,简写为ROM)、随机存取存储器(“Random Access Memory”,简写为RAM)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
在另外一些实现场景中,上述集成的单元也可以采用硬件的形式实现,即为具体的硬件电路,其可以包括数字电路和/或模拟电路等。电路的硬件结构的物理实现可以包括但不限于物理器件,而物理器件可以包括但不限于晶体管或忆阻器等器件。鉴于此,本文所述的各类装置(例如计算装置或其他处理装置)可以通过适当的硬件处理器来实现,例如CPU、GPU、FPGA、DSP和ASIC等。进一步,前述的所述存储单元或存储装置可以是任意适当的存储介质(包括磁存储介质或磁光存储介质等),其例如可以是可变电阻式存储器(“Resistive Random Access Memory”,简写为RRAM)、动态随机存取存储器(“DynamicRandom Access Memory”,简写为DRAM)、静态随机存取存储器(“Static Random AccessMemory”,简写为SRAM)、增强动态随机存取存储器(“Enhanced Dynamic Random AccessMemory”,简写为“EDRAM”)、高带宽存储器(“High Bandwidth Memory”,简写为“HBM”)、混合存储器立方体(“Hybrid Memory Cube”,简写为“HMC”)、ROM和RAM等。
依据以下条款可更好地理解前述内容:
条款A1.一种用于片上***的方法,所述片上***包括至少用于执行运算操作的多个集群和与该多个集群互联的高速缓冲存储器,每个集群包括用于执行所述运算操作的多个处理器核,所述方法包括:
将片外存储器的指定存储空间映射到高速缓冲存储器的给定存储区,以将该给定存储区用作集群间数据通信的集群存储区;以及
使用所述集群存储区来执行所述集群的操作。
条款A2.根据条款A1所述的方法,其中使用所述集群存储区来执行所述集群的操作包括将所述集群存储区用于集群间通信。
条款A3.根据条款A2所述的方法,其中将所述集群存储区用于集群间通信包括:
利用所述集群存储区来实现集群之间的点对点通信;或者
利用所述集群存储区来实现所述多个集群之一对其余集群的广播通信。
条款A4.根据条款A3所述的方法,其中利用所述集群存储区来实现集群之间的点对点通信包括:
接收来自于第一集群针对写入数据的写操作;以及
响应于第二集群的读操作,向所述第二集群发送所述写入数据。
条款A5.根据条款A4所述的方法,其中在所述写操作中,所述方法还包括:
接收将所述写操作所关联的写入数据驻留于所述集群存储区的锁定指示;以及
基于所述锁定指示将所述写入数据驻留于所述集群存储区。
条款A6.根据条款A4或A5所述的方法,其中在所述读操作中,所述方法还包括:
接收令所述写入数据不写回片外存储器的读无效指示;以及
在向所述第二集群发送所述写入数据后,基于所述读无效指示来令与所述写入数据关联的高速缓存行无效。
条款A7.一种片上***,包括:
多个集群,其中每个集群包括至少用于执行运算操作的多个处理器核;以及
高速缓冲存储器,其与所述多个集群互联,并且配置成:
将给定存储区用作集群间数据通信的集群存储区,其中所述给定存储区与片外存储器的指定存储空间形成映射关系;以及
使用所述集群存储区来执行所述集群的操作。
条款A8.根据条款A7所述的片上***,其中所述集群存储区配置成用于集群间通信。
条款A9.根据条款A8所述的片上***,其中所述集群存储区配置成用于集群间的点对点通信或所述多个集群之一对其余集群的广播通信。
条款A10.根据条款A9所述的片上***,其中在所述点对点通信中,集群存储区配置成:
接收来自于第一集群针对写入数据的写操作;以及
响应于第二集群的读操作,向所述第二集群发送所述写入数据。
条款A11.根据条款A10所述的片上***,其中所述第二集群配置成:
接收来自于所述第一集群的硬件信号量;以及
响应于接收到所述硬件信号量,对所述集群存储区执行所述读操作。
条款A12.根据条款A10所述的片上***,其中在所述写操作中,所述第一集群配置成向所述集群存储区发送将所述写入数据驻留于所述集群存储区的锁定指示,以便所述集群存储区基于所述锁定指示来驻留所述写入数据。
条款A13、根据条款A12所述的片上***,其中在所述读操作中,所述第二集群配置成向所述集群存储区发送令所述写入数据不写回片处存储器的读无效指示,以便所述集群存储区基于所述读无效指示来令与所述写入数据关联的高速缓存行无效。
条款A14.一种计算装置,包括根据条款A7-A13的任意一项所述的片上***。
条款A15.一种板卡,包括根据条款A14所述的计算装置。
条款A16、一种计算设备,包括根据条款A15所述的板卡。
虽然本文已经示出和描述了本披露的多个实施例,但对于本领域技术人员显而易见的是,这样的实施例只是以示例的方式来提供。本领域技术人员可以在不偏离本披露思想和精神的情况下想到许多更改、改变和替代的方式。应当理解的是在实践本披露的过程中,可以采用对本文所描述的本披露实施例的各种替代方案。所附权利要求书旨在限定本披露的保护范围,并因此覆盖这些权利要求范围内的等同或替代方案。
Claims (15)
1.一种用于片上***的方法,所述片上***包括至少用于执行运算操作的多个集群和与该多个集群互联的高速缓冲存储器,每个集群包括用于执行所述运算操作的多个处理器核,所述方法包括:
将片外存储器的指定存储空间映射到高速缓冲存储器的给定存储区,以将该给定存储区用作集群间数据通信的集群存储区;以及
使用所述集群存储区来执行所述集群的操作。
2.根据权利要求1所述的方法,其中使用所述集群存储区来执行所述集群的操作包括将所述集群存储区用于集群间通信。
3.根据权利要求2所述的方法,其中将所述集群存储区用于集群间通信包括:
利用所述集群存储区来实现集群之间的点对点通信;或者
利用所述集群存储区来实现所述多个集群之一对其余集群的广播通信。
4.根据权利要求3所述的方法,其中利用所述集群存储区来实现集群之间的点对点通信包括:
接收来自于第一集群针对写入数据的写操作;以及
响应于第二集群的读操作,向所述第二集群发送所述写入数据。
5.根据权利要求4所述的方法,其中在所述写操作中,所述方法还包括:
接收将所述写操作所关联的写入数据驻留于所述集群存储区的锁定指示;以及
基于所述锁定指示将所述写入数据驻留于所述集群存储区。
6.根据权利要求4或5所述的方法,其中在所述读操作中,所述方法还包括:
接收令所述写入数据不写回片外存储器的读无效指示;以及
在向所述第二集群发送所述写入数据后,基于所述读无效指示来令与所述写入数据关联的高速缓存行无效。
7.一种片上***,包括:
多个集群,其中每个集群包括至少用于执行运算操作的多个处理器核;以及
高速缓冲存储器,其与所述多个集群互联,并且配置成:
将给定存储区用作集群间数据通信的集群存储区,其中所述给定存储区与片外存储器的指定存储空间形成映射关系;以及
使用所述集群存储区来执行所述集群的操作。
8.根据权利要求7所述的片上***,其中所述集群存储区配置成用于集群间通信。
9.根据权利要求8所述的片上***,其中所述集群存储区配置成用于集群间的点对点通信或所述多个集群之一对其余集群的广播通信。
10.根据权利要求9所述的片上***,其中在所述点对点通信中,集群存储区配置成:
接收来自于第一集群针对写入数据的写操作;以及
响应于第二集群的读操作,向所述第二集群发送所述写入数据。
11.根据权利要求10所述的片上***,其中所述第二集群配置成:
接收来自于所述第一集群的硬件信号量;以及
响应于接收到所述硬件信号量,对所述集群存储区执行所述读操作。
12.根据权利要求10所述的片上***,其中在所述写操作中,所述第一集群配置成向所述集群存储区发送将所述写入数据驻留于所述集群存储区的锁定指示,以便所述集群存储区基于所述锁定指示来驻留所述写入数据。
13.根据权利要求12所述的片上***,其中在所述读操作中,所述第二集群配置成向所述集群存储区发送令所述写入数据不写回片处存储器的读无效指示,以便所述集群存储区基于所述读无效指示来令与所述写入数据关联的高速缓存行无效。
14.一种计算装置,包括根据权利要求7-13的任意一项所述的片上***。
15.一种板卡,包括根据权利要求14所述的计算装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110926703.7A CN115878553A (zh) | 2021-08-12 | 2021-08-12 | 用于片上***的方法及其相关产品 |
PCT/CN2022/110740 WO2023016383A1 (zh) | 2021-08-12 | 2022-08-08 | 用于高速缓冲存储器的方法及其相关产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110926703.7A CN115878553A (zh) | 2021-08-12 | 2021-08-12 | 用于片上***的方法及其相关产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115878553A true CN115878553A (zh) | 2023-03-31 |
Family
ID=85762180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110926703.7A Pending CN115878553A (zh) | 2021-08-12 | 2021-08-12 | 用于片上***的方法及其相关产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115878553A (zh) |
-
2021
- 2021-08-12 CN CN202110926703.7A patent/CN115878553A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9218286B2 (en) | System cache with partial write valid states | |
US9734056B2 (en) | Cache structure and management method for use in implementing reconfigurable system configuration information storage | |
US9158685B2 (en) | System cache with cache hint control | |
US11474951B2 (en) | Memory management unit, address translation method, and processor | |
US10678702B2 (en) | Using multiple memory elements in an input-output memory management unit for performing virtual address to physical address translations | |
US20230367722A1 (en) | Data processing device and method, and related products | |
US9043570B2 (en) | System cache with quota-based control | |
WO2014052383A1 (en) | System cache with data pending state | |
US20210248006A1 (en) | Hardware Resource Allocation System for Allocating Resources to Threads | |
US20150074357A1 (en) | Direct snoop intervention | |
US9311251B2 (en) | System cache with sticky allocation | |
EP4078383A1 (en) | Zero value memory compression | |
US12020065B2 (en) | Hierarchical processor selection | |
US20210224213A1 (en) | Techniques for near data acceleration for a multi-core architecture | |
US10318428B2 (en) | Power aware hash function for cache memory mapping | |
US12013780B2 (en) | Multi-partition memory sharing with multiple components | |
Abdallah | Heterogeneous Computing: An Emerging Paradigm of Embedded Systems Design | |
CN115878553A (zh) | 用于片上***的方法及其相关产品 | |
CN115705300A (zh) | 用于高速缓冲存储器的方法及其相关产品 | |
CN115686740A (zh) | 用于交叉地址空间数据移动的可缩放访问控制检查 | |
WO2023016383A1 (zh) | 用于高速缓冲存储器的方法及其相关产品 | |
CN116601613A (zh) | 利用分组元数据的数据放置 | |
WO2023016382A1 (zh) | 用于片上***的方法及其相关产品 | |
CN118113631B (zh) | 一种数据处理***、方法、设备、介质及计算机程序产品 | |
CN118113631A (zh) | 一种数据处理***、方法、设备、介质及计算机程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |