CN105446896A - 映射化简应用的缓存管理方法和装置 - Google Patents
映射化简应用的缓存管理方法和装置 Download PDFInfo
- Publication number
- CN105446896A CN105446896A CN201410438255.6A CN201410438255A CN105446896A CN 105446896 A CN105446896 A CN 105446896A CN 201410438255 A CN201410438255 A CN 201410438255A CN 105446896 A CN105446896 A CN 105446896A
- Authority
- CN
- China
- Prior art keywords
- buffer memory
- task
- size
- map
- map task
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0875—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches with dedicated cache, e.g. instruction or stack
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/17—Details of further file system functions
- G06F16/172—Caching, prefetching or hoarding of files
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/18—File system types
- G06F16/182—Distributed file systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Memory System Of A Hierarchy Structure (AREA)
Abstract
本发明涉及分布式文件***,其公开了MapReduce应用的缓存管理方法和装置,该方法包括:接收需要迭代计算的MapReduce作业的Map任务的处理请求;获取所述Map任务的参数,所述Map任务的参数包括待处理的数据大小、每条数据记录的大小和同时工作的Mapper的数目;获取所述Map任务的缓存分片大小,其中所述Map任务的缓存分片大小是根据所述Map任务的参数和Map缓存分片大小的训练模型计算得到的;将待处理的数据按照所述缓存分片大小从所述分布式文件***的存储介质读到缓存中用于Map任务处理;将Map任务处理的中间结果数据按照所述缓存分片大小写入所述缓存中用于后续的迭代计算。该方法能高效地缓存需要迭代计算的MapReduce作业的数据,提高内存缓存的利用率,减小处理延时。
Description
本发明涉及分布式文件***,更具体地,涉及基于分布式文件***的MapReduce应用的缓存管理方法和装置。
背景技术
分布式文件***(DistributedFileSystem)是指文件***管理的物理存储资源不一定直接连接在本地节点上,而是通过计算机网络与节点相连。分布式文件***的设计基于客户机/服务器模式。一个典型的网络可能包括多个供多用户访问的服务器。MapReduce是Google公司提出的一种用于大规模并行编程的软件架构。由于MapReduce架构可以实现大规模数据集(大于1TB)的并行运算,并通过把对数据集的大规模操作分发给网络上的多个节点进行并行运算来实现伸缩性,因此被分布式文件***广泛应用。概念“Map(映射)”和“Reduce(化简)”及其主要思想,都是从函数式编程语言借来的。当前的MapReduce中间件实现要求应用开发者指定一个Map(映射)函数,用来把一组键值对映射成一些新的键值对(key-valuepair),称作中间键值对;此外还要求应用开发者指定一个Reduce(化简)函数,用来对Map函数输出的中间键值对进行进一步处理。
分布式文件***需要将划分的文件块存储在多个计算节点上,并且需要将每个文件块复制为多个副本保存在不同的计算节点上,对于需要反复迭代的计算,MapReduce执行每一次迭代的计算结果都需要写入分布式文件***的存储介质,再从存储介质中读取出来作为下一次迭代的输入数据,由此对多个计算节点的文件块进行读写操作时就不可避免地产生了文件传输的网络开销以及计算延时。
现有的基于MapReduce架构的分布式文件***,例如M3R***和Spark***修改现有的MapReduce机制,使处理作业所有的Map任务线程和Reduce任务线程共享一个进程的内存空间,在Hadoop的基础上实现了将数据一次性读入内存中,后续的处理直接在内存中操作,避免频繁访问分布式文件***的存储介质,使用内容操作代替存储介质访问,然而一旦作业的某个Map任务或Reduce任务失败需要重新计算,该作业其余所有的Map任务和Reduce任务都需要重新计算,耗费大量的计算资源。再例如Tachyon和Redis***提供了内存缓存管理(CacheMemoryManagement),MapReduce作业中Mapper处理的结果可以缓存在Tachyon和Redis管理的内存缓存中,后续的迭代计算可以直接从内存缓存中读取计算所需的数据。然而,在Tachyon***和Redis***中,按照预先设定的缓存分片大小把分布式文件***的存储介质中读到内存缓存中,以及按照预先设定的缓存分片大小将每次迭代的中间计算结果写入到内存缓存,预先设定的缓存分片大小不同,读取的性能有比较大的差异,在设定的缓存分片大小比较大的情况,数据读取的速度有可能比从存储介质中读取还慢,同时分配给Mapper的内存缓存就会变少,使得同时能运行的Mapper数目受到限制,影响性能;而在设定的缓存分片大小比较小的情况,需要读取数据的次数增多,由于需要多次的在分布式文件***中打开/关闭文件,从而产生了较大的处理延时,而且随着剩余内存缓存大小的增加,在同时运行的Mapper数目给定的情况下,会造成部分内存缓存处于闲置状态,造成了浪费。
因此,需要一种基于分布式文件***的MapReduce应用的缓存大小的配置方法,能够高效地缓存需要迭代计算的MapReduce作业的数据,提高内存缓存的利用率,减小处理延时。
发明内容
根据本发明的一个方面,提供了一种基于分布式文件***的MapReduce应用的缓存管理方法,包括:接收需要迭代计算的MapReduce作业的Map任务处理请求;获取处理所述Map任务的参数,所述Map任务的参数包括待处理的数据大小、每条数据记录的大小和同时工作的Mapper的数目;获取所述Map任务的缓存分片大小,其中所述Map任务的缓存分片大小是根据所述Map任务的参数和Map缓存分片大小的训练模型计算得到的;将待处理的数据按照所述缓存分片大小从所述分布式文件***的存储介质读到缓存中用于Map任务处理;将所述Map任务处理的中间结果数据按照所述缓存分片大小写入所述缓存中用于后续的迭代计算。
根据本发明的另一个方面,提供了一种基于分布式文件***的MapReduce应用的缓存管理装置,包括:接收模块,被配置为接收需要迭代计算的MapReduce作业的Map任务处理请求;第一获取模块,被配置为获取所述Map任务的参数,所述Map任务的参数包括待处理的数据大小、每条数据记录的大小和同时工作的Mapper的数目;第二获取模块,被配置为获取所述Map任务的缓存分片大小,其中所述Map任务的缓存分片大小是根据所述Map任务的参数和Map缓存分片大小训练模型计算得到的;第一读取模块,被配置为将待处理的数据按照所述缓存分片大小从分布式文件***的存储介质读到缓存中用于Map任务处理;第一写入模块,被配置为将Map任务处理的中间结果数据按照所述缓存分片大小写入所述缓存中用于后续的迭代计算。
根据本发明实施例的基于分布式文件***的MapReduce应用的缓存管理方法和装置,能够高效地缓存需要迭代计算的MapReduce作业的数据,提高内存缓存的利用率,减小处理延时。
附图说明
通过结合附图对本公开示例性实施方式进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,其中,在本公开示例性实施方式中,相同的参考标号通常代表相同部件。
图1示出了适于用来实现本发明实施方式的示例性计算机***/服务器12的框图。
图2示出根据本发明实施例的基于分布式文件***的MapReduce应用的缓存管理方法。
图3示出MapReduce架构的数据传输的示意图
图4示出根据本发明的实施例的基于分布式文件***的MapReduce应用的缓存管理装置400。
具体实施方式
下面将参照附图更详细地描述本公开的优选实施方式。虽然附图中显示了本公开的优选实施方式,然而应该理解,可以以各种形式实现本公开而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
图1示出了适于用来实现本发明实施方式的示例性计算机***/服务器12的框图。图1显示的计算机***/服务器12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图1所示,计算机***/服务器12以通用计算设备的形式表现。计算机***/服务器12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,***存储器28,连接不同***组件(包括***存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,***总线,图形加速端口,处理器或使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及***组件互连(PCI)总线。
计算机***/服务器12典型地包括多种计算机***可读介质。这些介质可以是任何能够被计算机***/服务器12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
***存储器28可以包括易失性存储器形式的计算机***可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。计算机***/服务器12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机***存储介质。仅作为举例,存储***34可以用于读写不可移动的、非易失性磁介质(图1未显示,通常称为“硬盘驱动器”)。尽管图1中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括——但不限于——操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
计算机***/服务器12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机***/服务器12交互的设备通信,和/或与使得该计算机***/服务器12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机***/服务器12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与计算机***/服务器12的其它模块通信。应当明白,尽管图中未示出,可以结合计算机***/服务器12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
图2示出根据本发明实施例的一种基于分布式文件***的MapReduce应用的缓存管理方法,包括:在步骤S201,接收需要迭代计算的MapReduce作业的Map任务处理请求;在步骤S202,获取所述Map任务的参数,所述Map任务的参数包括待处理的数据大小、每条数据记录的大小和同时工作的Mapper的数目;在步骤S203,获取所述Map任务的缓存分片大小,其中所述Map任务的缓存分片大小是根据所述Map任务的参数和Map缓存分片大小的训练模型计算得到的;在步骤S204,将待处理的数据按照所述缓存分片大小从所述分布式文件***的存储介质读到缓存中用于Map任务处理;在步骤S205,将Map任务处理的中间结果数据按照所述缓存分片大小写入所述缓存中用于后续的迭代计算。步骤S201-S204由分布式文件***的至少一个计算节点上的Mapper执行,上述步骤中的缓存是指计算节点上的缓存(Cachememory),Map任务的参数也是针对每个计算节点而言的。
在步骤S201,接收需要迭代计算的MapReduce作业的Map任务处理请求,由作业服务器(JobTracker)接收用户提交的需要迭代计算的MapReduce作业请求,并将将用户提交的作业拆分成多个任务,包括Map任务和Reduce任务等,负责将Map任务和Reduce任务分配给多个计算节点的任务服务器。图3示出MapReduce架构的数据传输的示意图,作业服务器(JobTracker)和多个任务服务器(TaskTracker)是MapReduce框架最基本的两个服务,作业服务器部署在主节点上,接收用户提交的作业,统一调度所有的作业(job),管理所有计算节点的任务服务器(TaskTracker),将用户提交的每一个作业拆分成多个任务,包括Map任务和Reduce任务等,负责将任务分配给多个计算节点的任务服务器,任务是具体执行的基本单元,它们都需要分配到合适的计算节点的任务服务器上去执行,分配执行Map任务的任务服务器是Map任务服务器,分配执行Reduce任务的任务服务器是Reduce任务服务器,任务服务器一边执行一边向作业服务器汇报各个任务的状态,以此来帮助作业服务器了解作业执行的整体情况。Mapper和Reducer是两种数据处理原语,其中Mapper负责执行Map任务,把输入的key/value(键值)映射为中间key/value(键值),Reducer执行Reduce任务,负责对Map任务的中间结果进行运算并输出最终结果。
在步骤S202,获取所述Map任务的参数,所述Map任务的参数包括待处理的数据大小、每条数据记录的大小和同时工作的Mapper的数目,所述Map任务的参数可以由各个计算节点的Mapper从分配Map任务的作业服务器(JobTracker)获得。
在步骤S203,获取所述Map任务的缓存分片大小,其中所述Map任务的缓存分片大小是根据所述Map任务的参数和Map缓存分片大小的训练模型计算得到的。
其中所述Map缓存分片大小训练模型是基于至少一个计算节点处理的Map任务的历史参数训练的Map任务处理时间与缓存分片大小之间关系的多元线性回归模型,其中所述Map任务的历史参数包括:Map任务的处理时间、处理的数据大小、每条数据记录的大小和所述计算节点同时工作的Mapper的数目,其中每条数据记录的大小是缓存分片大小的最小单位,该多元线性回归模型为:
Y=β0+β1M+β2X/S+β3T/X+ε,(1)
其中M表示某个计算节点同时工作的Mapper的数目,S表示每条数据记录的大小,T表示处理的数据大小,β0是常数项系数,β1,β2,β3为偏回归系数(PartialRegressionCoefficient),β1,β2,β3的含义为在其它自变量保持不变的条件下,自变量改变一个单位时因变量Y的平均改变量。ε为随机误差,又称残差(Residual),它表示Y的变化中不能由自变量解释的部分,Y表示该计算节点处理Map任务的时间,X表示该计算节点处理所述Map任务的缓存分片大小。该多元线性回归模型是基于Map任务的历史参数建立的:
1)将n次观测的Map任务的结果数据(Yi,Mi,(X/S)i,(T/X)i),其中i=1...n输入模型中,可得方程组:
Y1=β0+β1*M11+β2*(X/S)21+β3*(T/X)31+ε1;
Y2=β0+β1*M12+β2*(X/S)22+β3*(T/X)32+ε2;
…
Yn=β0+β1*M1n+β2*(X/S)2n+β3*(T/X)3n+εn;
2)将方程组表示为矩阵形式,如下:
记
矩阵可以简化为Y=X*β+ε,
3)用最小二乘法求解系数β和ε,最小二乘(OLS)法的原理是通过求残差e(误差项的估计值)平方和最小确定回归参数估计值,计算过程如下:
寻找一组系数估计值使得残差平方和最小,即
对求偏导,得:
将代入Y=X*β+ε式中的,求得
ε=Y-X((X′X)-1(X′Y))
这里的就是符合模型要求的β和ε,将和ε代入公式(1),得到公式(1)的Map缓存分片大小训练模型。模型的系数β和ε不是一成不变的,而是由Map任务的结果数据(Yi,Mi,(X/S)i,(T/X)i)(其中i=1...n)不断地修正,从而使训练模型更加精准。
将新MapReduce作业的Map任务的处理的数据大小T、每条数据记录的大小S和所述计算节点同时工作的Mapper数目M输入上述公式(1)中的多元线性回归模型中,可以计算出满足特定Map任务的处理时间条件的Map缓存分片大小,例如通过对模型获得Map任务的处理时间最短时对应的Map任务的缓存分片大小,或者获得某个特定数值的处理时间对应的Map任务的缓存分片大小。缓存分片大小的计算既可以在分配Map任务的作业服务器(JobTracker)上实现,也可以由各个计算节点来实现,在此不做限定。
在步骤S204,将待处理的数据按照所述缓存分片大小从所述分布式文件***的存储介质读到缓存中用于Map任务处理,所述计算节点的Mapper直接从缓存中读取数据进行Map计算。
在步骤S205,将Map任务处理的中间结果数据按照所述缓存分片大小写入所述缓存中用于后续的迭代计算,多次迭代计算的多个中间结果数据按照所述缓存分片大小写入缓存,Mapper直接从缓存中读取中间结果数据进行后续的迭代计算。根据本发明的实施例,还包括迭代计算结束将Map任务的最终计算结果写入到分布式文件***的存储介质中用于后续的Reduce任务的处理。根据本发明的又一个实施例,还包括迭代计算结束将Map任务的最终计算结果按照所述缓存分片大小写入缓存中用于后续的Reduce任务的处理。
本发明实施例的缓存管理方法,通过Map缓存分片大小训练模型能够针对每个计算节点获得满足特定Map任务处理时间条件的Map任务的缓存分片大小,对于迭代运算的MapReduce作业,能够有效地降低文件传输的网络开销,减小处理时延。
根据本发明的实施例,还包括获取所述Map任务的处理时间,根据获取的所述Map任务的参数和处理时间修正所述第一多元线性回归模型的系数。根据所述计算节点的Map任务的处理时间、待处理的数据大小、每条数据记录的大小和所述计算节点同时工作的Mapper数目修正第一多元线性回归模型的系数(β0,β1,β2,β3,ε),从而使Map缓存分片大小训练模型更加精准。
如果在Map任务完成后处理Reduce任务,根据本发明的实施例,该方法还包括:接收用户提交的需要迭代计算的MapReduce作业的Reduce任务的处理请求;获取所述Reduce任务的参数,所述参数包括待处理的数据大小、每条数据记录的大小和同时工作的Reducer数;获取所述Reduce任务的缓存分片大小,其中所述Reduce任务的缓存分片大小是根据所述参数和Reduce缓存分片大小的训练模型计算得到的,缓存分片大小的计算既可以在分配Reduce任务的作业服务器(JobTracker)上实现,也可以由各个计算节点来实现,在此不做限定;按照所述Reduce任务的缓存分片大小将Map任务的最终输出结果从所述缓存读取出来用于Reduce任务处理。上述步骤由分布式文件***的至少一个计算节点的Reducer来实现,由于利用Reduce缓存分片大小训练模型获得了满足特定Reduce任务处理时间的Reduce任务的缓存分片大小,减少了由IO操作和网络传输引起的性能损耗,提高内存缓存的利用率,减小处理时延。
其中所述Reduce缓存分片大小训练模型是基于至少一个计算节点处理的Reduce任务的历史参数训练的Reduce任务处理时间与缓存分片大小之间关系的多元线性回归模型,其中所述Reduce任务的历史参数包括:Reduce任务的处理时间、处理的数据大小、每条数据记录的大小和所述计算节点同时工作的Reducer数目,该多元线性回归模型为:
Y=α0+α1K+α2X/L+α3N/X+e,(2)
其中K表示某个计算节点同时工作的Reducer数目,L表示每条数据记录的大小,N表示处理的数据大小,α0是常数项系数,α1,α2,α3为偏回归系数(PartialRegressionCoefficient),α1,α2,α3的含义为在其它自变量保持不变的条件下,自变量改变一个单位时因变量Y的平均改变量。ε为随机误差,又称残差(Residual),它表示Y的变化中不能由自变量解释的部分,Y表示该计算节点处理Reduce任务的时间,X表示该计算节点处理所述Reduce任务的缓存分片大小。该多元线性回归模型的建立与前面的Map缓存分片大小训练模型的建立过程类似,是基于Reduce任务的历史参数建立的:
1)将n次观测的Reduce任务的结果数据(Yi,Ki,(X/L)i,(N/X)i),其中i=1...n输入到模型中,可得程组:
Y1=α0+α1*K11+α2*(X/L)21+α3*(N/X)31+ε1;
Y2=α0+α1*K12+α2*(X/L)22+α3*(N/X)32+ε2;
…
Yn=α0+α1*K1n+α2*(X/L)2n+α3*(N/X)3n+εn;
2)将方程组表示为矩阵形式,如下:
记
矩阵可以简化为Y=X*α+ε,
3)用最小二乘法求解系数α和ε,最小二乘(OLS)法的原理是通过求残差e(误差项的估计值)平方和最小确定回归参数估计值,计算过程如下:
寻找一组系数估计值使得残差平方和最小,即
对求偏导,得:
将代入Y=X*α+ε式中的,求得
ε=Y-X((X′X)-1(X′Y))
这里的就是符合模型要求的α和ε,将和ε代入公式(2),得到公式(2)的Reduce缓存分片大小训练模型。模型的系数α和ε不是一成不变的,而是由Reduce任务的结果数据(Yi,Ki,(X/L)i,(N/X)i)(其中i=1...n)不断地修正,从而使训练模型更加精准。
将获取的所述Reduce任务的参数,即,待处理的数据大小N、每条数据记录的大小L和同时工作的Reducer数K,输入到公式(2)的Reduce缓存分片大小训练模型,可以计算出满足特定Reduce任务的处理时间条件的Reduce缓存分片大小,例如Reduce任务的处理时间最短时对应的Reduce缓存分片大小,或者某个特定数值的处理时间对应的Reduce缓存分片大小。
本领域技术人员理解,尽管在上文中以多元线性回归模型为例对Map和Reduce缓存分片大小训练模型进行了详细描述,但是根据本发明实施方式的Map和Reduce缓存分片大小训练模型并不局限于此,还可以使用多项式函数模型、双对数模型建立Map和Reduce缓存分片大小训练模型,以上所描述的训练模型的创建过程仅是示例性的,本发明的方法的实施仅仅依赖于预先存在的训练模型,而并不局限于任何特定的训练模型的创建过程。
根据本发明的实施例,还包括获取所述Reduce任务的处理时间,根据获取的所述Reduce任务的参数和处理时间修正Reduce缓存分片大小训练模型的系数。根据所述Reduce任务的处理时间、待处理的数据大小、每条数据记录的大小和同时工作的Reducer数目修正多元线性回归模型的系数(α0,α1,α2,α3,ε),从而使Reduce缓存分片大小训练模型更加精准。
前面已经参考附图描述了实现本发明的方法的各个实施例。本领域技术人员可以理解的是,上述方法可以以软件方式实现,也可以以硬件方式实现,或者通过软件与硬件相结合的方式实现。并且,本领域技术人员可以理解,通过以软件、硬件或者软硬件相结合的方式实现上述方法中的各个步骤,可以提供一种基于分布式文件***的MapReduce应用的缓存管理装置。即使该装置在硬件结构上与通用处理设备相同,由于其中所包含的软件的作用,使得该装置表现出区别于通用处理设备的特性,从而形成本发明的各个实施例的装置。
基于同一发明构思,根据本发明的实施例还提出一种基于分布式文件***的MapReduce应用的缓存管理装置,图4示出根据本发明的实施例的基于分布式文件***的MapReduce应用的缓存管理装置400,包括:接收模块401,被配置为接收需要迭代计算的MapReduce作业的Map任务的处理请求;第一获取模块402,被配置为获取所述Map任务的参数,所述Map任务的参数包括待处理的数据大小、每条数据记录的大小和同时工作的Mapper数;第二获取模块403,被配置为获取所述Map任务的缓存分片大小,其中所述Map任务的缓存分片大小是根据所述Map任务的参数和Map缓存分片大小训练模型计算得到的;第一读取模块404,被配置为将待处理的数据按照所述缓存分片大小从分布式文件***的存储介质读到缓存中用于Map任务处理;第一写入模块405,被配置为将所述Map任务处理的中间结果数据按照所述缓存分片大小写入所述缓存中用于后续的迭代计算。
根据本发明的实施例,所述第一写入模块405进一步被配置为迭代计算结束将Map任务的最终计算结果按照所述缓存分片大小写入所述缓存中用于后续的Reduce任务的处理。
根据本发明的实施例,其中所述Map缓存分片大小训练模型是基于至少一个计算节点处理的Map任务的历史参数建立的Map任务处理时间与缓存分片大小之间关系的第一多元线性回归模型,其中所述Map任务的历史参数包括:Map任务的处理时间、处理的数据大小、每条数据记录的大小和所述计算节点同时工作的Mapper的数目。
根据本发明的实施例,其中所述第一获取模块402进一步被配置为获取所述Map任务的处理时间,根据获取的所述Map任务的参数和处理时间修正所述第一多元线性回归模型的系数。
根据本发明的实施例,该装置还包括:第二接收模块406,被配置为接收用户提交的需要迭代计算的MapReduce作业的Reduce任务的处理请求;第三获取模块407,被配置为获取Reduce任务的参数,所述参数包括待处理的数据大小、每条数据记录的大小和同时工作的Reducer数;第四获取模块408,被配置为获取所述Reduce任务的缓存分片大小,其中所述Reduce任务的缓存分片大小是根据所述参数和Reduce缓存分片大小的训练模型计算得到的;以及第二读取模块409,被配置为按照所述Reduce任务的缓存分片大小将Map任务的最终输出结果从所述缓存读取出来用于Reduce任务处理。
根据本发明的实施例,其中所述Reduce缓存分片大小训练模型是基于至少一个计算节点处理的Reduce任务的历史参数建立的Reduce任务处理时间与缓存分片大小之间关系的第二多元线性回归模型,其中所述Reduce任务的历史参数包括:Reduce任务的处理时间、处理的数据大小、每条数据记录的大小和所述计算节点同时工作的Reducer数目。
根据本发明的实施例,所述第二获取模块进一步被配置为获取所述Reduce任务的处理时间,根据获取的所述Reduce任务的参数和处理时间修正所述第二多元线性回归模型的系数。
本领域技术人员应该理解,如果需要迭代计算的MapReduce作业只进行Map任务的处理,不需要Reduce任务的处理,那么第二接收模块406、第三获取模块407、第四获取模块408、第二读取模块409是不需要的,因此这四个模块是可选的。
上述每个模块的具体实现方法参照根据本发明实施例的基于分布式文件***的MapReduce应用的缓存管理方法的详细描述,在此不一一赘述。
本发明可以是***、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是——但不限于——电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本发明操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言-诸如Smalltalk、C++等,以及常规的过程式编程语言-诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络-包括局域网(LAN)或广域网(WAN)-连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本发明的各个方面。
这里参照根据本发明实施例的方法、装置(***)和计算机程序产品的流程图和/或框图描述了本发明的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本发明的多个实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (14)
1.一种基于分布式文件***的MapReduce应用的缓存管理方法,包括:
接收需要迭代计算的MapReduce作业的Map任务的处理请求;
获取处理所述Map任务的参数,所述Map任务的参数包括待处理的数据大小、每条数据记录的大小和同时工作的Mapper的数目;
获取所述Map任务的缓存分片大小,其中所述Map任务的缓存分片大小是根据所述Map任务的参数和Map缓存分片大小的训练模型计算得到的;
将待处理的数据按照所述缓存分片大小从所述分布式文件***的存储介质读到缓存中用于Map任务处理;
将所述Map任务处理的中间结果数据按照所述缓存分片大小写入所述缓存中用于后续的迭代计算。
2.根据权利要求1所述的方法,还包括迭代计算结束将Map任务的最终计算结果按照所述缓存分片大小写入所述缓存中用于后续的Reduce任务的处理。
3.根据权利要求1所述的方法,其中所述Map缓存分片大小训练模型是基于至少一个计算节点处理的Map任务的历史参数建立的Map任务处理时间与缓存分片大小之间关系的第一多元线性回归模型,其中所述Map任务的历史参数包括:Map任务的处理时间、处理的数据大小、每条数据记录的大小和所述计算节点同时工作的Mapper的数目。
4.根据权利要求3所述的方法,还包括获取所述Map任务的处理时间,根据获取的所述Map任务的参数和处理时间修正所述第一多元线性回归模型的系数。
5.根据权利要求2所述的方法,该方法进一步包括:
接收用户提交的需要迭代计算的MapReduce作业的Reduce任务的处理请求;
获取处理Reduce任务的参数,所述参数包括待处理的数据大小、每条数据记录的大小和同时工作的Reducer的数目;
获取所述Reduce任务的缓存分片大小,其中所述Reduce任务的缓存分片大小是根据所述参数和Reduce缓存分片大小的训练模型计算得到的;
按照所述Reduce任务的缓存分片大小将Map任务的最终输出结果从所述缓存读取出来用于Reduce任务处理。
6.根据权利要求5所述的方法,其中所述Reduce缓存分片大小训练模型是基于至少一个计算节点处理的Reduce任务的历史参数建立的Reduce任务处理时间与缓存分片大小之间关系的第二多元线性回归模型,其中所述Reduce任务的历史参数包括:Reduce任务的处理时间、处理的数据大小、每条数据记录的大小和所述计算节点同时工作的Reducer的数目。
7.根据权利要求6所述的方法,还包括获取所述Reduce任务的处理时间,根据获取的所述Reduce任务的参数和处理时间修正所述第二多元线性回归模型的系数。
8.一种基于分布式文件***的MapReduce应用的缓存管理装置,包括:
第一接收模块,被配置为接收需要迭代计算的MapReduce作业的Map任务的处理请求;
第一获取模块,被配置为获取所述Map任务的参数,所述Map任务的参数包括待处理的数据大小、每条数据记录的大小和同时工作的Mapper的数目;
第二获取模块,被配置为获取所述Map任务的缓存分片大小,其中所述Map任务的缓存分片大小是根据所述Map任务的参数和Map缓存分片大小训练模型计算得到的;
第一读取模块,被配置为将待处理的数据按照所述缓存分片大小从分布式文件***的存储介质读到缓存中用于Map任务处理;
第一写入模块,被配置为将所述Map任务处理的中间结果数据按照所述缓存分片大小写入所述缓存中用于后续的迭代计算。
9.根据权利要求8所述的装置,所述第一写入模块进一步被配置为迭代计算结束将Map任务的最终计算结果按照所述缓存分片大小写入所述缓存中用于后续的Reduce任务的处理。
10.根据权利要求8所述的装置,其中所述Map缓存分片大小训练模型是基于至少一个计算节点处理的Map任务的历史参数建立的Map任务处理时间与缓存分片大小之间关系的第一多元线性回归模型,其中所述Map任务的历史参数包括:Map任务的处理时间、处理的数据大小、每条数据记录的大小和所述计算节点同时工作的Mapper的数目。
11.根据权利要求10所述的装置,其中所述第一获取模块进一步被配置为获取所述Map任务的处理时间,根据获取的所述Map任务的参数和处理时间修正所述第一多元线性回归模型的系数。
12.根据权利要求10所述的装置,该装置进一步包括:
第二接收模块,被配置为接收用户提交的需要迭代计算的MapReduce作业的Reduce任务的处理请求;
第三获取模块,被配置为获取Reduce任务的参数,所述参数包括待处理的数据大小、每条数据记录的大小和同时工作的Reducer的数目;
第四获取模块,被配置为获取Reduce任务的缓存分片大小,其中所述Reduce任务的缓存分片大小是根据所述参数和Reduce缓存分片大小的训练模型计算得到的;以及
第二读取模块,被配置为按照所述Reduce任务的缓存分片大小将Map任务的最终输出结果从所述缓存读取出来用于Reduce任务处理。
13.根据权利要求12所述的装置,其中所述Reduce缓存分片大小训练模型是基于至少一个计算节点处理的Reduce任务的历史参数建立的Reduce任务处理时间与缓存分片大小之间关系的第二多元线性回归模型,其中所述Reduce任务的历史参数包括:Reduce任务的处理时间、处理的数据大小、每条数据记录的大小和所述计算节点同时工作的Reducer的数目。
14.根据权利要求13所述的装置,所述第二获取模块进一步被配置为获取所述Reduce任务的处理时间,根据获取的所述Reduce任务的参数和处理时间修正所述第二多元线性回归模型的系数。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410438255.6A CN105446896B (zh) | 2014-08-29 | 2014-08-29 | 映射化简应用的缓存管理方法和装置 |
US14/828,600 US10078594B2 (en) | 2014-08-29 | 2015-08-18 | Cache management for map-reduce applications |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410438255.6A CN105446896B (zh) | 2014-08-29 | 2014-08-29 | 映射化简应用的缓存管理方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105446896A true CN105446896A (zh) | 2016-03-30 |
CN105446896B CN105446896B (zh) | 2018-05-04 |
Family
ID=55402649
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410438255.6A Active CN105446896B (zh) | 2014-08-29 | 2014-08-29 | 映射化简应用的缓存管理方法和装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10078594B2 (zh) |
CN (1) | CN105446896B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106060594A (zh) * | 2016-05-25 | 2016-10-26 | 武汉斗鱼网络科技有限公司 | 一种基于播放器心跳的白名单生成***及方法 |
CN106126343A (zh) * | 2016-06-27 | 2016-11-16 | 西北工业大学 | 基于增量式分区策略的MapReduce数据均衡方法 |
CN107037989A (zh) * | 2017-05-17 | 2017-08-11 | 北京小米移动软件有限公司 | 分布式计算***中的数据处理方法和装置 |
CN107343164A (zh) * | 2016-04-29 | 2017-11-10 | 中国电信股份有限公司 | 视频监控任务的分配方法及装置 |
CN108509586A (zh) * | 2018-03-29 | 2018-09-07 | 努比亚技术有限公司 | 缓存管理的方法、装置及计算机可读存储介质 |
CN110110256A (zh) * | 2018-01-17 | 2019-08-09 | 阿里巴巴集团控股有限公司 | 数据处理方法、装置、电子设备和存储介质 |
CN111444148A (zh) * | 2020-04-09 | 2020-07-24 | 南京大学 | 基于MapReduce的数据传输方法和装置 |
CN114816711A (zh) * | 2022-05-13 | 2022-07-29 | 湖南长银五八消费金融股份有限公司 | 批量任务处理方法、装置、计算机设备和存储介质 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107644020B (zh) * | 2016-07-20 | 2020-07-28 | 平安科技(深圳)有限公司 | 数据存储和调用的方法及装置 |
CN109144733A (zh) * | 2018-09-06 | 2019-01-04 | 北京京东尚科信息技术有限公司 | 基于Alluxio的数据处理方法及*** |
US11586979B2 (en) | 2018-12-31 | 2023-02-21 | Visa International Service Association | System, method, and computer program product for distributed cache data placement |
CN110347718B (zh) * | 2019-05-31 | 2023-12-15 | 平安科技(深圳)有限公司 | 一种redis分片方法、装置、计算机设备和存储介质 |
CN110378471B (zh) * | 2019-07-24 | 2021-06-01 | 中科寒武纪科技股份有限公司 | 运算方法、装置及相关产品 |
CN112444851B (zh) * | 2019-08-30 | 2024-06-18 | 中国石油化工股份有限公司 | 基于MapReduce并行框架的逆时偏移成像方法及存储介质 |
CN110688401B (zh) * | 2019-09-10 | 2023-11-03 | 中国平安财产保险股份有限公司 | 动态缓存处理方法、装置、存储介质及电子设备 |
CN112905181B (zh) * | 2019-12-04 | 2023-10-10 | 杭州海康威视数字技术股份有限公司 | 一种模型编译、运行方法及装置 |
US11237740B2 (en) | 2020-01-31 | 2022-02-01 | EMC IP Holding Company LLC | Automatically determining sizing configurations for storage components using machine learning techniques |
CN112380489B (zh) * | 2020-11-03 | 2024-04-16 | 武汉光庭信息技术股份有限公司 | 数据处理时间计算方法、数据处理平台评价方法及*** |
US11782637B2 (en) * | 2021-01-05 | 2023-10-10 | Red Hat, Inc. | Prefetching metadata in a storage system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120016816A1 (en) * | 2010-07-15 | 2012-01-19 | Hitachi, Ltd. | Distributed computing system for parallel machine learning |
CN102779025A (zh) * | 2012-03-19 | 2012-11-14 | 南京大学 | 一种基于Hadoop的并行化PLSA方法 |
CN103902474A (zh) * | 2014-04-11 | 2014-07-02 | 华中科技大学 | 一种支持固态盘缓存动态分配的混合存储***和方法 |
US8788783B1 (en) * | 2010-06-18 | 2014-07-22 | Disney Enterprises, Inc. | Dynamically tuning the size of a cache stored in a shared memory |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6226790B1 (en) * | 1997-02-28 | 2001-05-01 | Silicon Graphics, Inc. | Method for selecting optimal parameters for compiling source code |
US7209875B2 (en) * | 2002-12-04 | 2007-04-24 | Microsoft Corporation | System and method for machine learning a confidence metric for machine translation |
US8108863B2 (en) * | 2005-12-30 | 2012-01-31 | Intel Corporation | Load balancing for multi-threaded applications via asymmetric power throttling |
US8645119B2 (en) * | 2007-03-26 | 2014-02-04 | Google Inc. | Minimum error rate training with a large number of features for machine learning |
US8949233B2 (en) * | 2008-04-28 | 2015-02-03 | Alexandria Investment Research and Technology, Inc. | Adaptive knowledge platform |
US8082415B2 (en) * | 2008-07-01 | 2011-12-20 | International Business Machines Corporation | Estimating the size of an in-memory cache |
US8150723B2 (en) * | 2009-01-09 | 2012-04-03 | Yahoo! Inc. | Large-scale behavioral targeting for advertising over a network |
US8572575B2 (en) | 2009-09-14 | 2013-10-29 | Myspace Llc | Debugging a map reduce application on a cluster |
US9804943B2 (en) * | 2009-10-16 | 2017-10-31 | Sap Se | Estimating service resource consumption based on response time |
US9619291B2 (en) * | 2009-12-20 | 2017-04-11 | Yahoo! Inc. | System and method for a task management library to execute map-reduce applications in a map-reduce framework |
US8682812B1 (en) * | 2010-12-23 | 2014-03-25 | Narus, Inc. | Machine learning based botnet detection using real-time extracted traffic features |
US8612368B2 (en) * | 2011-03-01 | 2013-12-17 | International Business Machines Corporation | Systems and methods for processing machine learning algorithms in a MapReduce environment |
WO2012154177A1 (en) * | 2011-05-11 | 2012-11-15 | Hewlett-Packard Development Company, L.P. | Varying a characteristic of a job profile relating to map and reduce tasks according to a data size |
US8560779B2 (en) * | 2011-05-20 | 2013-10-15 | International Business Machines Corporation | I/O performance of data analytic workloads |
US9244751B2 (en) * | 2011-05-31 | 2016-01-26 | Hewlett Packard Enterprise Development Lp | Estimating a performance parameter of a job having map and reduce tasks after a failure |
US10853306B2 (en) * | 2011-08-02 | 2020-12-01 | Ajay JADHAV | Cloud-based distributed persistence and cache data model |
US9053067B2 (en) * | 2011-09-30 | 2015-06-09 | International Business Machines Corporation | Distributed data scalable adaptive map-reduce framework |
US8732720B2 (en) * | 2011-12-22 | 2014-05-20 | Hewlett-Packard Development Company, L.P. | Job scheduling based on map stage and reduce stage duration |
US9405692B2 (en) | 2012-03-21 | 2016-08-02 | Cloudera, Inc. | Data processing performance enhancement in a distributed file system |
US9633315B2 (en) * | 2012-04-27 | 2017-04-25 | Excalibur Ip, Llc | Method and system for distributed machine learning |
US8984515B2 (en) * | 2012-05-31 | 2015-03-17 | International Business Machines Corporation | System and method for shared execution of mixed data flows |
US10474658B2 (en) * | 2012-06-04 | 2019-11-12 | Micro Focus Llc | User-defined loading of data onto a database |
US20140059552A1 (en) * | 2012-08-24 | 2014-02-27 | International Business Machines Corporation | Transparent efficiency for in-memory execution of map reduce job sequences |
US9385915B2 (en) * | 2012-11-30 | 2016-07-05 | Netapp, Inc. | Dynamic caching technique for adaptively controlling data block copies in a distributed data processing system |
US9152469B2 (en) * | 2013-01-28 | 2015-10-06 | Hewlett-Packard Development Company, L.P. | Optimizing execution and resource usage in large scale computing |
CN104516773B (zh) * | 2013-09-29 | 2018-04-20 | 国际商业机器公司 | 用于物理机的数据分配方法和数据分配装置 |
US9405695B2 (en) * | 2013-11-05 | 2016-08-02 | Netapp, Inc. | Cache modeling using random sampling and a timestamp histogram |
US9269057B1 (en) * | 2013-12-11 | 2016-02-23 | Google, Inc. | Using specialized workers to improve performance in machine learning |
US9986018B2 (en) * | 2014-01-09 | 2018-05-29 | Excalibur Ip, Llc | Method and system for a scheduled map executor |
US9286044B2 (en) * | 2014-06-27 | 2016-03-15 | International Business Machines Corporation | Hybrid parallelization strategies for machine learning programs on top of MapReduce |
US10540606B2 (en) * | 2014-06-30 | 2020-01-21 | Amazon Technologies, Inc. | Consistent filtering of machine learning data |
US10990288B2 (en) * | 2014-08-01 | 2021-04-27 | Software Ag Usa, Inc. | Systems and/or methods for leveraging in-memory storage in connection with the shuffle phase of MapReduce |
US20160103845A1 (en) * | 2014-10-09 | 2016-04-14 | Robin Systems, Inc. | Enhanced Handling Of Intermediate Data Generated During Distributed, Parallel Processing |
US9679041B2 (en) * | 2014-12-22 | 2017-06-13 | Franz, Inc. | Semantic indexing engine |
US9946593B2 (en) * | 2015-09-18 | 2018-04-17 | Salesforce.Com, Inc. | Recovery strategy for a stream processing system |
US9558049B1 (en) * | 2015-10-12 | 2017-01-31 | International Business Machines Corporation | Shuffle optimization in map-reduce processing |
-
2014
- 2014-08-29 CN CN201410438255.6A patent/CN105446896B/zh active Active
-
2015
- 2015-08-18 US US14/828,600 patent/US10078594B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8788783B1 (en) * | 2010-06-18 | 2014-07-22 | Disney Enterprises, Inc. | Dynamically tuning the size of a cache stored in a shared memory |
US20120016816A1 (en) * | 2010-07-15 | 2012-01-19 | Hitachi, Ltd. | Distributed computing system for parallel machine learning |
CN102779025A (zh) * | 2012-03-19 | 2012-11-14 | 南京大学 | 一种基于Hadoop的并行化PLSA方法 |
CN103902474A (zh) * | 2014-04-11 | 2014-07-02 | 华中科技大学 | 一种支持固态盘缓存动态分配的混合存储***和方法 |
Non-Patent Citations (5)
Title |
---|
ALEXANDRA FEDOROVA: "Cache-Fair Thread Scheduling for Multicore Processors", 《HTTP://FTP.DEAS.HARVARD.EDU/TECHREPORTS/TR-17-06.PDF》 * |
ATUL NEGI: "Applying Machine Learning Techniques to Improve Linux Process Scheduling", 《TENCON 2005-2005 IEEE REGION 10》 * |
SHUBIN ZHANG: "Accelerating MapReduce with Distributed Memory Cache", 《PARALLEL AND DISTRIBUTED SYSTEMS(ICPADS),2009 15TH INTERNATIONAL CONFERENCE ON》 * |
李光瑞: "Map/Reduce 型海量数据处理平台中的内存级数据缓存技术研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
黄山 等: "MapReduce优化技术综述", 《计算机科学与探索》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107343164A (zh) * | 2016-04-29 | 2017-11-10 | 中国电信股份有限公司 | 视频监控任务的分配方法及装置 |
CN107343164B (zh) * | 2016-04-29 | 2020-02-14 | 中国电信股份有限公司 | 视频监控任务的分配方法及装置 |
CN106060594A (zh) * | 2016-05-25 | 2016-10-26 | 武汉斗鱼网络科技有限公司 | 一种基于播放器心跳的白名单生成***及方法 |
CN106126343A (zh) * | 2016-06-27 | 2016-11-16 | 西北工业大学 | 基于增量式分区策略的MapReduce数据均衡方法 |
CN106126343B (zh) * | 2016-06-27 | 2020-04-03 | 西北工业大学 | 基于增量式分区策略的MapReduce数据均衡方法 |
CN107037989A (zh) * | 2017-05-17 | 2017-08-11 | 北京小米移动软件有限公司 | 分布式计算***中的数据处理方法和装置 |
CN110110256A (zh) * | 2018-01-17 | 2019-08-09 | 阿里巴巴集团控股有限公司 | 数据处理方法、装置、电子设备和存储介质 |
CN108509586A (zh) * | 2018-03-29 | 2018-09-07 | 努比亚技术有限公司 | 缓存管理的方法、装置及计算机可读存储介质 |
CN111444148A (zh) * | 2020-04-09 | 2020-07-24 | 南京大学 | 基于MapReduce的数据传输方法和装置 |
CN111444148B (zh) * | 2020-04-09 | 2023-09-05 | 南京大学 | 基于MapReduce的数据传输方法和装置 |
CN114816711A (zh) * | 2022-05-13 | 2022-07-29 | 湖南长银五八消费金融股份有限公司 | 批量任务处理方法、装置、计算机设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN105446896B (zh) | 2018-05-04 |
US10078594B2 (en) | 2018-09-18 |
US20160062900A1 (en) | 2016-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105446896A (zh) | 映射化简应用的缓存管理方法和装置 | |
JP7087079B2 (ja) | 深層学習アプリケーションのための堅牢な勾配重み圧縮方式 | |
US20170116157A1 (en) | Parallelizing matrix factorization across hardware accelerators | |
JP6234477B2 (ja) | 回帰モデルを計算するための方法、コンピュータ・プログラム、およびシステム | |
CN103970604A (zh) | 基于MapReduce架构实现图处理的方法和装置 | |
CN104516730A (zh) | 一种数据处理方法和装置 | |
US10831604B2 (en) | Storage system management method, electronic device, storage system and computer program product | |
US10725494B2 (en) | Optimizing neurosynaptic networks | |
Kim et al. | Prediction based sub-task offloading in mobile edge computing | |
US11915147B2 (en) | Large model support in deep learning | |
US20210150351A1 (en) | Isa-based compression in distributed training of neural networks | |
US11461291B2 (en) | Method, electronic device and computer program product for processing machine learning model | |
CN105302536A (zh) | MapReduce应用的相关参数的配置方法和装置 | |
CN117786412A (zh) | 大型语言模型的弹性训练方法、集群***、产品及介质 | |
WO2020200774A1 (en) | Method for flexible, fast all-reduce on arbitrary tree topology | |
US20230305841A1 (en) | Efficient Data Layout and Alignment for Wide-Vector Accelerator Systems | |
US20200279152A1 (en) | Lexicographic deep reinforcement learning using state constraints and conditional policies | |
WO2023077989A1 (en) | Incremental machine learning for a parametric machine learning model | |
US11068346B2 (en) | Method and apparatus for data protection | |
KR102471553B1 (ko) | 컴퓨팅 기기에 의해 수행되는 방법, 장치, 기기 및 컴퓨터 판독가능 저장 매체 | |
US11599768B2 (en) | Cooperative neural network for recommending next user action | |
CN115775029A (zh) | 量子线路转化方法、装置、介质及电子装置 | |
CN115879562A (zh) | 一种量子程序初始映射的确定方法、装置及量子计算机 | |
US20150171966A1 (en) | Regenerator placement using a polynomial-time algorithm | |
CN117114055B (zh) | 面向工业应用场景的fpga二值神经网络加速方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |