CN107577809A - 离线小文件处理方法及装置 - Google Patents

离线小文件处理方法及装置 Download PDF

Info

Publication number
CN107577809A
CN107577809A CN201710888790.5A CN201710888790A CN107577809A CN 107577809 A CN107577809 A CN 107577809A CN 201710888790 A CN201710888790 A CN 201710888790A CN 107577809 A CN107577809 A CN 107577809A
Authority
CN
China
Prior art keywords
data
file
map
column storage
storage file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710888790.5A
Other languages
English (en)
Inventor
谢永恒
李鑫
火莽
火一莽
万月亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Ruian Technology Co Ltd
Original Assignee
Beijing Ruian Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Ruian Technology Co Ltd filed Critical Beijing Ruian Technology Co Ltd
Priority to CN201710888790.5A priority Critical patent/CN107577809A/zh
Publication of CN107577809A publication Critical patent/CN107577809A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明实施例公开了一种离线小文件处理方法及装置。所述方法包括:由HDFS中读取列式存储文件;提供进行数据处理指定的配置;对所述列式存储文件进行预处理及合并;按照指定的归并频率将执行预处理及合并后的所述列式存储文件归并为大文件。本发明实施例提供的离线小文件处理方法及装置能够有效的降低Hadoop***中nameNode上内存的占用率。

Description

离线小文件处理方法及装置
技术领域
本发明实施例涉及分布式计算技术领域,尤其涉及一种离线小文件处理方法及装置。
背景技术
对于大数据的离线分析工作,采取将流式数据转换成parquet列式存储格式文件方式,并结合spark-sql等技术手段进行离线分析。其中实时接入的流式数据,会从Kafka上获取并实时转换成parquet文件,采用HDFS文件***方式进行存储,最后作为离线分析工具的源文件。Hadoop分布式文件***(Hadoop distributed file system,HDFS)被设计成适合运行在通用硬件(commodity hardware)上的分布式文件***,具有高度容错、高吞吐量等特性,非常适合大规模数据集上的应用。但Hadoop的设计之初主要是面向流式处理的,对于处理大量远小于block size值的小文件时候,由于设计机制的问题,会出现响应速度大幅下降,严重影响性能,甚至导致无法正常运行的现象。由于数据来自各厂商、分光等实时接入数据,离线分析文件生成***会对Kafka上的每条日志信息进行实时的文件转换工作,从而形成了大量的小文件供后续产品分析,与此同时,产生的大量远小于block size的小文件,大大影响了Hadoop存储的读取性能。
发明内容
针对上述技术问题,本发明实施例提供了一种离线小文件处理方法及装置,以提高Hadoop***存储的读取性能,有效的降低Hadoop***中nameNode上内存的占用率。
一方面,本发明实施例提供了一种离线小文件处理方法,运行于Hadoop 分布式处理***上,所述方法包括:
由HDFS中读取列式存储文件,其中,列式存储文件的大小小于预定的文件大小设定值;
提供进行数据处理指定的配置;
根据所述配置,基于Map-Reduce计算模型,对所述列式存储文件进行预处理及合并;
基于Map-Reduce计算模型,按照指定的归并频率将执行预处理及合并后的所述列式存储文件归并为大文件。
另一方面,本发明实施例还提供了一种离线小文件处理装置,集成在 Hadoop分布式处理***中,所述装置包括:
读取模块,用于由HDFS中读取列式存储文件,其中,列式存储文件的大小小于预定的文件大小设定值;
配置模块,用于提供进行数据处理指定的配置;
预处理模块,用于根据所述配置,基于Map-Reduce计算模型,对所述列式存储文件进行预处理及合并;
归并模块,用于基于Map-Reduce计算模型,按照指定的归并频率将执行预处理及合并后的所述列式存储文件归并为大文件。
本发明实施例提供的离线小文件处理方法及装置,通过读取列式存储文件,提供进行数据处理执行的配置,对列式存储文件进行预处理及合并,以及按照指定的归并频率将执行预处理及合并后的列式存储文件归并为大文件,大大提高了Hadoop***存储的读取性能,能够有效的降低Hadoop***中 nameNode上内存的占用率。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1是本发明第一实施例提供的离线小文件处理方法的流程示意图;
图2是本发明第一实施例提供的运行离线小文件处理方法的***的逻辑结构示意图;
图3是本发明第二实施例提供的离线小文件处理方法的流程示意图;
图4是本发明第三实施例提供的离线小文件处理方法中预处理的流程示意图;
图5是本发明第四实施例提供的离线小文件处理方法中遗弃数据处理的流程示意图;
图6是本发明第五实施例提供的离线小文件处理方法中文件归并的流程示意图;
图7是本发明第六实施例提供的离线小文件处理装置的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
第一实施例
本实施例提供了离线小文件处理方法的一种技术方案。在该技术方案中,离线小文件处理方法由离线小文件处理装置执行,并且,离线小文件处理装置通常集成在Hadoop分布式数据处理***之中。
参见图1,离线小文件处理方法包括:
S11,由HDFS中读取列式存储文件。
所谓列式存储,就是将同一个数据列的所有制存放在一起的存储方式。这种方式非常适合联机分析处理(OLAP),因为OLAP类型的查询往往只关心少量几个列,当字段数比较多且整个文件有几百万甚至数十亿行记录时,列式存储可以极大的减少扫描数据量,加快反馈速度。
在本实施例中列式存储优选为parquet文件。Parquet文件可以为大数据生态***中的服务提供高效的数据支持,且于编程语言、数据模型或数据框架都没有关系。而且,parquet文件能够被Hadoop***所处理,Hive、Impala和Spark SQL都能直接查询以parquet文件为基础的数据仓库。这一特性使得parquet文件可以替代传统的文本文件类型。
在本实施例中,被读取的parquet文件的大小均没有超出文件大小的上限。具体的,上述文件大小的上限为128MB。而且,Parquet文件的存储位置通常是在Hadoop***中的DataNode上。
***读取源数据生产***提供的parquet文件,为每个数据集的数据增加UniqueNum字段,用于根据配置的数据集唯一字段通过MD5算法计算该数据的唯一数据值,用于数据去重判断。为每个数据集的数据增加FIRST_COLLECT _TIME、LAST_COLLECT_TIME、TORL_FOUND_COUNTER、TOTAL_DAY_ COUNTER字段,用于对数据去重时,计算重复数据出现的最早时间、最迟时间,总计发现次数、累计发现天数等统计数据。
S12,提供进行数据处理指定的配置。
在后续的文件合并、归并等数据处理中,数据处理需要按照指定的规则运行。另外,在数据处理中经常会使用一些处理参数。这些规则及处理参数将以配置的形式来提供。
结合实际应用场景,该***提供通过配置文件信息,进行数据筛选、数据唯一化指定的配置。该步骤需要用户根据配置信息模板,提供需要保留的数据集范围,数据集中数据的唯一标识信息等配置。
S13,根据所述配置,基于Map-Reduce计算模型,对所述列式存储文件进行预处理及合并。
在本实施例中,预处理及合并处理主要是指数据的筛选、去重、合并,以及存储目录结构的优化。
筛选是指由海量的parquet小文件中,筛选出需要进行离线分析的文件。在本实施例中,小文件(Small files,SF)是指文件总大小没有达到设定的文件大小上限的文件。优选的,上述上限的设定值是128MB。
所谓去重是指对重复出现的数据记录进行去除,完全相同的数据记录仅保留其中一条记录的操作。
具体的,去重操作是根据数据缓存数据量阈值(Data buffer count,DBC) 以及数据缓存时长阈值(Data buffer time,DBT)而执行的。DBC是指同类别的数据,在运算时缓存数据量的最大阈值,***默认设置为1000000条。DBT 是指同类别的数据,在运算时一次缓存的时间段最大阈值,***默认设置为5 分钟。在内存中会根据数据集生成Map的键值对进行缓存,采用Queue格式保存数据队列,缓存的数据当达到DBC或者DBT时,开始进行当前类别数据的去重操作。
所谓合并是指数据合并就是通过读取多个parquet文件的数据信息,经过处理合并为一个较大的parquet文件进行保存。经过前面的数据筛选、数据分类缓存、数据去重之后形成的数据合并结果生成文件进行保存。
所谓存储目录的优化能够达到使得合并后的parquet文件信息的目录结构更为有序的目的。目录结构的有序能够大大方便文件的检索及定位。优选的,在本实施例中,对合并文件的存储采用二层目录结构。更进一步的,根据采集日期生成一级存储目录,再根据数据集名称生成二级存储目录进行分类存储。
而且,上述的文件预处理及合并的操作是基于Hadoop***提供的 Map-Reduce计算模型实现的。这将意味着预处理及合并的计算任务将被划分为若干细小的子任务,交由不同的运算节点设备分别执行。
S14,基于Map-Reduce计算模型,按照指定的归并频率将执行预处理及合并后的所述列式存储文件归并为大文件。
定期文件归并是指***定期对小文件进行归并为大文件的操作。***会每天(***设定为当前处理前一天目录数据)对前一天各目录数据进行归并操作,对于单个文件不到阈值(***设定为128MB)的文件尝试进行归并操作,归并后的文件不超过设定阈值(***设定合并后的文件大小上限为1024MB),并删除已进行归并的小文件。
在本实施例中,归并后文件不能超出的设定阈值被称为合并文件大小(Mergefile size,MFZ)。它指的是合并后的大文件大小的最大阈值,***默认设置为1024MB。
还有上述文件归并操作是按照指定期限执行的。这个指定期限被称为文件定期归并间隔时间(Fixed consolidation interval time,FCIT)。它具体是指文件定期归并操作的间隔时间阈值,它的***默认设定值是1天。
图2提供了执行本实施例提供的离线小文件处理方法的Hadoop***的整体结构框架。参见图2,该***衔接源数据生产***与离线分析***,对离线分析***的输入文件做进一步的优化,提高整体性能。本发明***主要包括数据使用的配置管理、数据预处理及合并、遗弃数据的处理与恢复、定期文件归并四大部分功能,对源数据生产***落地的parquet待分析小文件进行数据筛选、数据去重、数据合并后根据先按时间、后按数据集优化创建后的目录进行文件保存。这里源数据生产***产生的数据已经做过元数据的处理,已经可以根据元数据中的数据集进行分类管理。***提供的配置文件,用于对数据是否遗弃进行筛选,并根据配置的数据唯一关键字段(每条数据可以设置多个字段)进行数据的去重操作;已经遗弃的数据会定期进行数据的压缩,减少对Hadoop 的nameNode内存使用,并提供一定的数据恢复机制;已合并的数据会定期进行小文件的归并操作,进一步优化Hadoop的存储,优化整体***性能。
本实施例对于明确元数据的不同第三方来源数据,提供了数据层面的筛选定制功能,并对筛选遗弃的数据进行压缩管理,有效降低nameNode内存使用情况。对于待分析的离线文件数据进行了数据去重、数据合并、目录存储优化操作,并通过定期文件归并功能,归并小文件,提高对原小文件的读取效率,提升了整体性能。
第二实施例
本实施例以本发明前述实施例为基础,进一步的提供了离线小文件处理方法的一种技术方案。在该技术方案中,离线小文件处理方法还进一步包括:在对所述列式存储文件进行预处理及合并之后,基于Map-Reduce计算模型,对遗弃数据进行定期的压缩及恢复。
参见图3,离线小文件处理方法包括:
S31,由HDFS中读取列式存储文件,其中,列式存储文件的大小小于预定的文件大小设定值。
S32,提供进行数据处理指定的配置。
S33,根据所述配置,基于Map-Reduce计算模型,对所述列式存储文件进行预处理及合并。
S34,基于Map-Reduce计算模型,对遗弃数据进行定期的压缩及恢复。
遗弃数据是指在预处理阶段,没有通过数据筛选操作的数据。也就是说,经过筛选操作,Hadoop***认为这些数据不需要对其执行离线分析。
遗弃数据的处理与恢复还提供定期压缩遗弃数据、定期删除遗弃数据、恢复数据的功能。定期压缩遗弃数据是根据遗弃数据压缩间隔时间(Abandoned data compressioninterval time,ADCIT),对遗弃数据进行压缩操作。压缩数据时会重新维护一张压缩数据表,记录压缩后的文件名称、压缩时间、遗弃数据的时间范围、遗弃数据的数据集范围。基于Hadoop提供的har压缩机制,对遗弃的SF进行压缩处理,减少对Hadoop的nameNode内存使用,优化Hadoop 整体文件读取性能。压缩完毕后将原始遗弃的SF清除并清除对应的遗弃数据登记信息。定期删除遗弃数据是根据遗弃数据保留最长时间(Abandoneddatareservation time,ADRT),对保留的遗弃数据进行清除操作,进一步降低对 Hadoop的存储压力。删除对应压缩文件的同时,删除对应的压缩文件数据表信息。恢复数据是根据用户要求恢复指定的删除数据信息。如果要恢复的数据尚未进行压缩,则检索遗弃数据登记表信息,恢复相关数据文件到本发明***的输入目录,进行后续的离线分析文件数据的预处理及合并操作等;如果恢复的数据已经经过压缩,则需要检索压缩数据信息表,找到对应压缩文件,解压出相关文件到本发明***的输入目录;如果要恢复的数据在两处均为找到,则恢复操作失败。
S35,基于Map-Reduce计算模型,按照指定的归并频率将执行预处理及合并后的所述列式存储文件归并为大文件。
本实施例通过在对列式存储文件进行预处理及合并之后,采用Map-Reduce 计算模型对遗弃数据进行定期的压缩及恢复,进一步的提高了***中小文件的读取效率。
第三实施例
本实施例以本发明前述实施例为基础,进一步的提供了离线小文件处理方法中预处理的一种技术方案。在该技术方案中,根据所述配置,基于Map-Reduce 计算模型,对所述列式存储文件进行预处理及合并,包括:基于Map-Reduce 计算模型,对列式存储文件的内容数据进行筛选;基于Map-Reduce计算模型,对列式存储文件的内容数据进行去重;基于Map-Reduce计算模型,对列式存储文件进行合并;以及基于Map-Reduce计算模型,对列式存储文件的存储目录结构进行优化。
参见图4,根据所述配置,基于Map-Reduce计算模型,对所述列式存储文件进行预处理及合并,包括:
S41,基于Map-Reduce计算模型,对列式存储文件的内容数据进行筛选。
可以理解的是,在对列式存储文件进行归并之前,列式存储文件中的一些数据存储内容是不需要进行离线分析的。因此,在预处理阶段,首先需要对列式存储文件中存储的内容数据进行筛选操作。经过筛选之后,通过筛选的数据被以新的列式存储文件的形式保存,而没有经过筛选的数据则被识别为遗弃数据。
在进行列式存储文件的预处理及合并操作之初,首先需要对列式存储文件计算唯一值。计算依据为用户配置的该数据集的唯一字段信息进行加权计算,生成MD5数据,保存在该数据的UniqueNum字段中。
S42,基于Map-Reduce计算模型,对列式存储文件的内容数据进行去重。
去重操作是对列式存储文件的存储内容的去重。去重操作会根据计算好 MD5值进行比较判断,如果存在重复数据,会删除较晚***队列的数据,并更新较早***队列数据的FIRST_COLLECT_TIME、LAST_COLLECT_TIME、TO RL_FOUND_COUNTER、TOTAL_DAY_COUNTER四个字段信息。
S43,基于Map-Reduce计算模型,对列式存储文件进行合并。
当前批次的数据处理完毕后,生成合并后的parquet文件进行保存,同时清空该队列数据,以便开始下一批次数据的缓冲处理。
S44,基于Map-Reduce计算模型,对列式存储文件的存储目录结构进行优化。
文件保存的时候首先会根据处理日期创建日期目录,并根据数据集信息,即Key值创建对应数据集目录,并将合并的文件以数据集和数据处理时间段进行命名,保存到对应的数据集目录下。一切操作成功后,删除该批次对应的原始离线分析SF。
本实施例通过对列式存储文件的内容数据进行筛选,对上述内容数据进行去重,对列式存储文件进行合并,以及对存储目录结构进行优化,实现了对列式存储文件的预处理及合并操作。
第四实施例
本实施例以本发明前述实施例为基础,进一步的提供了离线小文件处理方法中遗弃数据处理的一种技术方案。在该技术方案中,基于Map-Reduce计算模型,对遗弃数据进行定期的压缩及恢复,包括:基于Map-Reduce计算模型,由原始数据中区分出遗弃数据;基于Map-Reduce计算模型,对遗弃数据进行定期压缩,生成HAR文件;以及基于Map-Reduce计算模型,对遗弃数据进行定期的恢复。
参见图5,基于Map-Reduce计算模型,对遗弃数据进行定期的压缩及恢复,包括:
S51,基于Map-Reduce计算模型,由原始数据中区分出遗弃数据,并且懂遗弃数据守护进程。
实际上区分出遗弃数据的过程,就是数据筛选的过程。区分出遗弃数据之后,会启动专用用于对遗弃数据进行处理的遗弃数据守护进程。由这个遗弃数据守护进程执行对遗弃数据的定期压缩、定期删除、定期恢复等操作。
S52,基于Map-Reduce计算模型,对遗弃数据进行定期压缩,生成HAR 文件。
对于遗弃数据的压缩,是定期执行的。上述压缩操作的执行期限通常是1 天。当上述时间期限到达之后,利用Hadoop***自身的Hadoop Archive功能,对已经识别的遗弃数据生成对应的HAR文件。
S53,基于Map-Reduce计算模型,对遗弃数据进行定期的恢复。
恢复数据是指恢复已经遗弃的数据,采用后续离线分析工作。如果要恢复的数据是当天遗弃的(也就是尚未进行压缩处理),直接检索遗弃的数据登记表,并将遗弃的数据文件放置到当天对应数据集目录下,作为数据预处理及合并的输入数据,进行后续的操作;如果要恢复的数据不是当天数据,则需要检索压缩文件数据对应表信息,如果超出遗弃数据保留时间(***设定为30天),则恢复失败;否则,找到相应的HAR文件,解压出相应的数据文件放置到当天对应数据集目录下,作为数据预处理及合并的输入数据,进行后续的操作。
除了上述区分、压缩及恢复的操作,对遗弃数据的处理还包括对遗弃数据的删除。而且,上述对遗弃数据的压缩、删除及恢复操作均是由遗弃数据守护进程完成的,它们在时序上并不存在必然的先后关系。
本实施例通过由原始数据中区分出遗弃数据,对遗弃数据进行定期压缩,以及对遗弃数据进行定期的恢复,实现了对列式存储文件中遗弃数据的处理。
第五实施例
本实施例以本发明前述实施例为基础,进一步的提供了离线小文件处理方法中文件归并的一种技术方案。在该技术方案中,基于Map-Reduce计算模型,按照指定的归并频率将执行预处理及合并后的所述列式存储文件归并为大文件,包括:根据列式存储文件的存储目录结构,将所述列式存储文件归并为大文件。
具体的,参见图6,基于Map-Reduce计算模型,按照指定的归并频率将执行预处理及合并后的所述列式存储文件归并为大文件,包括:
S61,顺序读取目录中需要合并的列式存储文件。
S62,判断目录中是否还有需要合并的列式存储文件,如果是,执行S63,如果不是执行S61。
S63,将读取的小文件归并为大文件。
S64,判断归并后的大文件的大小是否超出了大小阈值,如果是,丢弃大文件,如果不是,保留大文件。
需要说明的是,上述归并操作是基于Map-Reduce计算模型而执行的。具体的,上述归并操作基于DataNode上若干个目录中存储的列式存储文件,基于 Map-Reduce计算模型并行的执行上述归并操作。
本实施例通过定期的执行上述归并操作,将小文件归并为大文件,大大提升了Hadoop***的读取性能。
第六实施例
本实施例提供了离线小文件处理装置的一种技术方案。在该技术方案中,离线小文件处理装置集成在Hadoop分布式处理***中。参见图7,离线小文件处理装置包括:读取模块71、配置模块72、预处理模块73,以及归并模块75。
读取模块71用于由HDFS中读取列式存储文件,其中,列式存储文件的大小小于预定的文件大小设定值。
配置模块72用于提供进行数据处理指定的配置。
预处理模块73用于根据所述配置,基于Map-Reduce计算模型,对所述列式存储文件进行预处理及合并。
归并模块75用于基于Map-Reduce计算模型,按照指定的归并频率将执行预处理及合并后的所述列式存储文件归并为大文件。
进一步的,离线小文件处理装置还包括:遗弃运算模块74。
遗弃运算模块74用于在对所述列式存储文件进行预处理及合并之后,基于 Map-Reduce计算模型,对遗弃数据进行定期的压缩及恢复。
进一步的,预处理模块73包括:筛选单元、去重单元、合并单元,以及目录优化单元。
筛选单元用于基于Map-Reduce计算模型,对列式存储文件的内容数据进行筛选。
去重单元用于基于Map-Reduce计算模型,对列式存储文件的内容数据进行去重。
合并单元用于基于Map-Reduce计算模型,对列式存储文件进行合并。
目录优化单元用于基于Map-Reduce计算模型,对列式存储文件的存储目录结构进行优化。
进一步的,遗弃运算模块74包括:区分单元、压缩单元,以及恢复单元。
区分单元用于基于Map-Reduce计算模型,由原始数据中区分出遗弃数据,其中,所述遗弃数据为不需要参加离线分析的数据。
压缩单元用于基于Map-Reduce计算模型,对遗弃数据进行定期压缩,生成HAR文件。
恢复单元用于基于Map-Reduce计算模型,对遗弃数据进行定期的恢复。
进一步的,归并模块具体用于:根据列式存储文件的存储目录结构,将所述列式存储文件归并为大文件。
进一步的,所述列式存储文件包括:parquet存储文件。
本领域普通技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个计算装置上,或者分布在多个计算装置所组成的网络上,可选地,他们可以用计算机装置可执行的程序代码来实现,从而可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件的结合。
以上所述仅为本发明的优选实施例,并不用于限制本发明,对于本领域技术人员而言,本发明可以有各种改动和变化。凡在本发明的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种离线小文件处理方法,运行于Hadoop分布式处理***上,其特征在于,包括:
由HDFS中读取列式存储文件,其中,列式存储文件的大小小于预定的文件大小设定值;
提供进行数据处理指定的配置;
根据所述配置,基于Map-Reduce计算模型,对所述列式存储文件进行预处理及合并;以及
基于Map-Reduce计算模型,按照指定的归并频率将执行预处理及合并后的所述列式存储文件归并为大文件。
2.根据权利要求1所述的方法,其特征在于,还包括:
在对所述列式存储文件进行预处理及合并之后,基于Map-Reduce计算模型,对遗弃数据进行定期的压缩及恢复。
3.根据权利要求1或2所述的方法,其特征在于,根据所述配置,基于Map-Reduce计算模型,对所述列式存储文件进行预处理及合并,包括:
基于Map-Reduce计算模型,对列式存储文件的内容数据进行筛选;
基于Map-Reduce计算模型,对列式存储文件的内容数据进行去重;
基于Map-Reduce计算模型,对列式存储文件进行合并;以及
基于Map-Reduce计算模型,对列式存储文件的存储目录结构进行优化。
4.根据权利要求2所述的方法,其特征在于,基于Map-Reduce计算模型,对遗弃数据进行定期的压缩及恢复,包括:
基于Map-Reduce计算模型,由原始数据中区分出遗弃数据,其中,所述遗弃数据为不需要参加离线分析的数据;
基于Map-Reduce计算模型,对遗弃数据进行定期压缩,生成HAR文件;以及
基于Map-Reduce计算模型,对遗弃数据进行定期的恢复。
5.根据权利要求3所述的方法,其特征在于,基于Map-Reduce计算模型,按照指定的归并频率将执行预处理及合并后的所述列式存储文件归并为大文件,包括:
根据列式存储文件的存储目录结构,将所述列式存储文件归并为大文件。
6.根据权利要求1或2所述的方法,其特征在于,所述列式存储文件包括:parquet存储文件。
7.一种离线小文件处理装置,集成在Hadoop分布式处理***中,其特征在于,包括:
读取模块,用于由HDFS中读取列式存储文件,其中,列式存储文件的大小小于预定的文件大小设定值;
配置模块,用于提供进行数据处理指定的配置;
预处理模块,用于根据所述配置,基于Map-Reduce计算模型,对所述列式存储文件进行预处理及合并;以及
归并模块,用于基于Map-Reduce计算模型,按照指定的归并频率将执行预处理及合并后的所述列式存储文件归并为大文件。
CN201710888790.5A 2017-09-27 2017-09-27 离线小文件处理方法及装置 Pending CN107577809A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710888790.5A CN107577809A (zh) 2017-09-27 2017-09-27 离线小文件处理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710888790.5A CN107577809A (zh) 2017-09-27 2017-09-27 离线小文件处理方法及装置

Publications (1)

Publication Number Publication Date
CN107577809A true CN107577809A (zh) 2018-01-12

Family

ID=61038862

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710888790.5A Pending CN107577809A (zh) 2017-09-27 2017-09-27 离线小文件处理方法及装置

Country Status (1)

Country Link
CN (1) CN107577809A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108804566A (zh) * 2018-05-22 2018-11-13 广东技术师范学院 一种基于Hadoop的海量小文件读取方法
CN111352897A (zh) * 2020-03-02 2020-06-30 广东科徕尼智能科技有限公司 一种实时数据存储方法、设备、存储介质
CN111897772A (zh) * 2020-08-05 2020-11-06 光大兴陇信托有限责任公司 一种大文件数据导入方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103150163A (zh) * 2013-03-01 2013-06-12 南京理工大学常熟研究院有限公司 一种基于MapReduce模型的并行关联方法
CN104767795A (zh) * 2015-03-17 2015-07-08 浪潮通信信息***有限公司 一种基于hadoop的lte mro数据统计方法及***
CN105677836A (zh) * 2016-01-05 2016-06-15 北京汇商融通信息技术有限公司 一种同时支持离线数据和实时在线数据的大数据处理解决***
US20160291900A1 (en) * 2015-03-30 2016-10-06 International Business Machines Corporation Adaptive map-reduce pipeline with dynamic thread allocations
CN106855861A (zh) * 2015-12-09 2017-06-16 北京金山安全软件有限公司 一种文件合并方法、装置及电子设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103150163A (zh) * 2013-03-01 2013-06-12 南京理工大学常熟研究院有限公司 一种基于MapReduce模型的并行关联方法
CN104767795A (zh) * 2015-03-17 2015-07-08 浪潮通信信息***有限公司 一种基于hadoop的lte mro数据统计方法及***
US20160291900A1 (en) * 2015-03-30 2016-10-06 International Business Machines Corporation Adaptive map-reduce pipeline with dynamic thread allocations
CN106855861A (zh) * 2015-12-09 2017-06-16 北京金山安全软件有限公司 一种文件合并方法、装置及电子设备
CN105677836A (zh) * 2016-01-05 2016-06-15 北京汇商融通信息技术有限公司 一种同时支持离线数据和实时在线数据的大数据处理解决***

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108804566A (zh) * 2018-05-22 2018-11-13 广东技术师范学院 一种基于Hadoop的海量小文件读取方法
CN111352897A (zh) * 2020-03-02 2020-06-30 广东科徕尼智能科技有限公司 一种实时数据存储方法、设备、存储介质
CN111897772A (zh) * 2020-08-05 2020-11-06 光大兴陇信托有限责任公司 一种大文件数据导入方法
CN111897772B (zh) * 2020-08-05 2024-02-20 光大兴陇信托有限责任公司 一种大文件数据导入方法

Similar Documents

Publication Publication Date Title
US11989707B1 (en) Assigning raw data size of source data to storage consumption of an account
US10909151B2 (en) Distribution of index settings in a machine data processing system
CN111400408A (zh) 数据同步方法、装置、设备及存储介质
CN101127034B (zh) 数据组织、查询、呈现、存档、恢复、删除、提炼方法及装置和***
US10417265B2 (en) High performance parallel indexing for forensics and electronic discovery
CN102027457A (zh) 单独可访问数据单元的管理存储
US11429658B1 (en) Systems and methods for content-aware image storage
CN107301214A (zh) 在hive中数据迁移方法、装置及终端设备
US11853217B2 (en) Multi-cache based digital output generation
CN107577809A (zh) 离线小文件处理方法及装置
CN114385760A (zh) 增量数据实时同步的方法、装置、计算机设备及存储介质
CN113791586A (zh) 一种新型的工业app与标识注册解析集成方法
CN112965939A (zh) 一种文件合并方法、装置和设备
CN112084190A (zh) 一种基于大数据的采集数据实时存储与管理***和方法
CN112100197B (zh) 基于Elasticsearch的准实时日志数据分析与统计方法
KR101955376B1 (ko) 비공유 아키텍처 기반의 분산 스트림 처리 엔진에서 관계형 질의를 처리하는 방법, 이를 수행하기 위한 기록 매체 및 장치
CN106919566A (zh) 一种基于海量数据的查询统计方法及***
CN111125045B (zh) 一种轻量级etl处理平台
CN106326400A (zh) 基于多维数据集的数据处理***
CN111274316B (zh) 多级数据流转任务的执行方法及装置、电子设备、存储介质
CN111680072A (zh) 基于社交信息数据的划分***及方法
CN115455031B (zh) 一种Doris的数据查询方法、装置、存储介质及设备
US10037155B2 (en) Preventing write amplification during frequent data updates
Sureshrao et al. MapReduce-Based warehouse systems: a survey
CN112632020B (zh) 基于spark大数据平台的日志信息类型提取方法、挖掘方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20180112

RJ01 Rejection of invention patent application after publication