CN112328602B - 一种数据写入Kafka的方法、装置及设备 - Google Patents
一种数据写入Kafka的方法、装置及设备 Download PDFInfo
- Publication number
- CN112328602B CN112328602B CN202011283123.2A CN202011283123A CN112328602B CN 112328602 B CN112328602 B CN 112328602B CN 202011283123 A CN202011283123 A CN 202011283123A CN 112328602 B CN112328602 B CN 112328602B
- Authority
- CN
- China
- Prior art keywords
- data
- task
- identifier
- kafka
- topic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/22—Indexing; Data structures therefor; Storage structures
- G06F16/2282—Tablespace storage structures; Management thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/23—Updating
- G06F16/2365—Ensuring data consistency and integrity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/27—Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明的实施例提供了一种数据写入Kafka的方法、装置及设备。所述方法包括检索批次号,存在且任务执行状态为任务开始,则合并标识为肯定标识;存在且任务执行状态为任务成功,则设置合并标识为否定标识;不存在,则***当前任务的批次号及其状态信息,设置合并标识为否定标识;读取最近批次的Topic的偏移量,从偏移量开始消费数据源Kafka的数据;每条消费的数据对应生成一个Key,将消费的数据和对应的Key写入目标存储Kafka的Topic;根据合并标识对数据进行合并,并保存。以此方式,保证在异常场景下,程序重启导致的数据重新处理,再次写入时不会导致数据的重复,从而实现数据存储一致性。
Description
技术领域
本发明的实施例一般涉及数据处理领域,并且更具体地,涉及一种数据写入Kafka的方法、装置及设备。
背景技术
在现实场景中,经常需要通过Spark Structured Streaming读取Kafka,对读取的数据进行清洗处理等操作,例如进行字符串的截取、数据类型的转换、日期格式转换等。然后再将处理后的数据写入Kafka。
然而,将数据写入Kafka的过程中,写入后的数据不能更改和删除;而且SparkStructured Streaming消费Kafka的Topic,并反写Kafka的Topic,只能保证数据不丢失,无法保证数据不重复写入。例如,数据保存到Kafka后,没来得及保存offset,此时程序重启,将从上上次保存的offset开始消费,如此,就重复消费了上一次的数据,导致数据重复。
发明内容
根据本发明的实施例,提供了一种数据写入Kafka的方案。
在本发明的第一方面,提供了一种数据写入Kafka方法。该方法包括:
步骤1:分批次消费数据源Kafka的Topic的数据,在数据库中检索当前任务的批次号,如果数据库中存在所述批次号,则执行步骤2;否则,向所述数据库中***当前任务的批次号及其状态信息,并设置合并标识为否定标识,执行步骤3;
步骤2:如果当前批次任务的状态为任务开始,则设置合并标识为肯定标识,执行步骤3;如果当前批次任务的状态为任务成功,则设置合并标识为否定标识,执行步骤6;
步骤3:读取最近批次的数据源Kafka的Topic的偏移量,从所述偏移量开始消费数据源Kafka的Topic的数据;
步骤4:每条消费的数据对应生成一个Key,将所述消费的数据和对应的Key写入目标存储Kafka的Topic;
步骤5:判断所述合并标识是否为肯定标识,如果是,则对数据进行合并,执行步骤6;否则,更新当前批次任务的状态信息,执行步骤6;
步骤6:保存当前批次的数据源Kafka的Topic的偏移量。
进一步地,所述每条消费的数据对应生成一个Key,包括:
将每条数据对应的Topic名称、分区以及偏移量的字段按特定顺序顺次拼接为一个字符串,形成该条数据的Key。
进一步地,在所述对数据进行合并时,判断待合并的数据中是否存在相同的Key,如果是,则从Key相同的数据中,根据每条数据的写入时间戳,保留最新的一条数据;否则,在数据合并时保留每条数据。
进一步地,所述状态信息包括批次号和任务执行状态,用于标识当前批次任务的执行状态;所述任务执行状态包括任务开始和任务成功。
在本发明的第二方面,提供了一种数据写入Kafka装置。该装置包括:
第一判断模块,用于分批次消费数据源Kafka的Topic的数据,在数据库中检索当前任务的批次号,如果数据库中存在所述批次号,则调用第二判断模块;否则,向所述数据库中***当前任务的批次号及其状态信息,并设置合并标识为否定标识,调用消费模块;
第二判断模块,用于判断如果当前批次任务的状态为任务开始,则设置合并标识为肯定标识,调用消费模块;如果当前批次任务的状态为任务成功,则设置合并标识为否定标识,调用保存模块;
消费模块,用于读取最近批次的数据源Kafka的Topic的偏移量,从所述偏移量开始消费数据源Kafka的Topic的数据;
生成模块,用于每条消费的数据对应生成一个Key,将所述消费的数据和对应的Key写入目标存储Kafka的Topic;
第三判断模块,用于判断所述合并标识是否为肯定标识,如果是,则对数据进行合并,调用保存模块;否则,更新当前批次任务的状态信息,调用保存模块;
保存模块,用于保存当前批次的数据源Kafka的Topic的偏移量。
进一步地,所述生成模块,进一步用于将每条数据对应的Topic名称、分区以及偏移量的字段顺次拼接为一个字符串,形成该条数据的Key。
进一步地,所述第三判断模块,还包括:
合并模块,用于在所述对数据进行合并时,判断待合并的数据中是否存在相同的Key,如果是,则从Key相同的数据中,根据每条数据的写入时间戳,保留最新的一条数据;否则,在数据合并时保留每条数据。
进一步地,所述状态信息包括批次号和任务执行状态,用于标识当前批次任务的执行状态;所述任务执行状态包括任务开始和任务成功。
在本发明的第三方面,提供了一种电子设备。该电子设备包括:存储器和处理器,所述存储器上存储有计算机程序,所述处理器执行所述程序时实现如以上所述的方法。
在本发明的第四方面,提供了一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如根据本发明的第一方面的方法。
应当理解,发明内容部分中所描述的内容并非旨在限定本发明的实施例的关键或重要特征,亦非用于限制本发明的范围。本发明的其它特征将通过以下的描述变得容易理解。
本发明能够保证Spark Structured Streaming处理Kafka数据后再次存入Kafka时数据的一致性,在异常场景下,程序重启导致的数据重新处理,再次写入Kafka时不会导致数据的重复。
附图说明
结合附图并参考以下详细说明,本发明各实施例的上述和其他特征、优点及方面将变得更加明显。在附图中,相同或相似的附图标记表示相同或相似的元素,其中:
图1示出了根据本发明的实施例的数据写入Kafka方法的流程图;
图2示出了根据本发明的实施例的数据写入Kafka装置的方框图;
图3示出了能够实施本发明的实施例的示例性电子设备的方框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的全部其他实施例,都属于本发明保护的范围。
另外,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
本发明中,能够保证Spark Structured Streaming处理Kafka数据后再次存入Kafka时数据的一致性,在异常场景下,程序重启导致的数据重新处理,再次写入Kafka时不会导致数据的重复。
图1示出了本发明实施例的数据写入Kafka的方法的流程图。
该方法包括:
S101、分批次消费数据源Kafka的Topic的数据,在数据库中检索当前任务的批次号,如果数据库中存在所述批次号,则执行S102;否则,向所述数据库中***当前任务的批次号及其状态信息,并设置合并标识为否定标识,执行S103。
使用Spark Structured Streaming消费Kafka的数据。Spark StructuredStreaming用于实时数据处理的大数据计算引擎,可针对海量数据进行计算、分析。SparkStructured Streaming按照一定的时间间隔(例如10秒一次),触发一次读取Kafka数据的操作,每触发一次,就是一个批次,形成一个唯一的批次号。
所述状态信息用于标识当前批次的任务是否执行成功。所述状态信息可存储在文件中或者数据库中。状态信息中包含了批次号和任务执行状态,例如{"batchid":124,"status":"starting"}。其中,batchid表示批次号,status表示任务执行状态,可设置为任务开始或任务成功。在本实施例中,批次号为124,任务的状态为任务开始状态。
所述合并标识,用于标识是否需要合并数据,如果需要合并数据,将合并标识设置为肯定标识,如果不需要合并数据,将合并标识设置为否定标识,例如“需要合并数据”或“不需要合并数据”。
Spark Structured Streaming分批次消费数据源Kafka的Topic的数据,在每个批次中,需要首先在数据库或者数据文件中检索是否已存在当前批次号。
如果在数据库中未检索到该批次号,则在数据库中***该批次号及其状态信息,任务执行状态标识置为任务开始,并且将合并标识设置为否定标识,例如“不需要合并数据”。
在本实施例中,可以使用“starting”表示任务开始,例如状态信息表示为:{"batchid":124,"status":"starting"}。
在使用Spark Structured Streaming消费Kafka的数据的过程中,可能存在数据保存到kafka之后,没有来得及保存offset,程序失败了的情况。
通过一个具体实施例进行说明:从数据库或者其他存储偏移量的存储中,获取上一次消费的kafka的偏移量(偏移量存储在Mysql或者其他存储中):{"topicA":{"0":23,"1":22}}。分区0的偏移量为23,分区1的偏移量为22。
从获取的偏移量开始消费数据,假设消费的情况如下:分区0消费了2个记录,对应的结束偏移量为25(23加上2),分区1消费了4条记录,对应的最大偏移量为26(22加上4)。将消费的数据存储至目标TopicD。
如果上一步消费成功了,则将本次消费的Kafka的偏移量保存至数据库(或者其他存储)。即:{"topicA":{"0":25,"1":26}}。下次消费时,将从数据库获取的偏移量的位置开始消费,即分区0从偏移量为25、分区1从偏移量为26的位置开始消费。如果上一步消费的数据已经保存在Kafka的TopicD中,但是还没有来得及保存偏移量,程序挂掉。那么下次消费时,从数据库获取的偏移量为:{"topicA":{"0":23,"1":22}}。然后从这个偏移量开始消费,存储至目标TopicD。这时从这个偏移量开始,已经有数据在程序失败之前,保存至Kafka的TopicD了,而TopicD的数据不能删除、修改。因此重启后重新消费导致数据重复。
故,在上述实施例中,如果在数据库中检索到该批次号,且任务状态为开始标识,这个任务很可能是上一次执行异常了,本次是程序重启后执行的。那么需要设置合并标识为肯定标识,即“需要合并数据”;然后执行S103中的数据合并,以消除重复数据。
如果在数据库中检索到该批次号,但当前批次任务的状态为任务成功,则设置合并标识为否定标识,执行S106。
通过在数据库或文件中检索批次号,识别出当前任务是否为重启执行,从而避免数据重复存储。
S103、读取最近批次的数据源Kafka的Topic的偏移量,从所述偏移量开始消费数据源Kafka的Topic的数据。
所述Topic的偏移量包括Topic的名称、分区和具体的offset值。例如,{"topicA":{"0":23,"1":22},"topicB":{"0":11}},获取了两个Topic的偏移量,其中topicA的偏移量包括两个分区,即分区0和分区1,其中分区0的offset为23,分区1的offset为22。topicB只有一个分区0,其offset为11。
所述offset是一个连续的用于定位被追加到分区的每一个消息的序列号,最大值为64位的long大小,19位数字字符长度。
从数据库或其他存储文件中检索出最新批次任务的Topic的偏移量。
作为本发明的一种实施例,数据库或其他存储文件中可能存储了很多的Topic的偏移量,例如:
{"batchid":124,"topicA":{"0":45,"1":46}};
{"batchid":123,"topicA":{"0":30,"1":31}};
{"batchid":122,"topicA":{"0":25,"1":26}};
则,需要根据批次的ID,即batchid字段,对上述记录降序排列,取第一条数据记录,即读取到批次号最近的记录,并从该记录的偏移量开始消费数据源Kafka的Topic的数据。如此可以准确的读取到离当前批次最近的Topic数据。
S104、每条消费的数据对应生成一个Key,将所述消费的数据和对应的Key写入目标存储Kafka的Topic。
所述每条消费的数据对应生成一个Key,包括:
将每条数据对应的Topic名称、分区以及偏移量的字段按特定顺序顺次拼接为一个字符串,形成该条数据的Key。
作为本发明的一种实施例,特定顺序可以是Topic名称、分区、偏移量的顺次顺序,topicA的某条数据,其所在分区为1,偏移量为22,则其Key为“topicA_1_22”。
当然,上述实施例中只是一种生成方法,也可以将每条数据对应的Topic名称、偏移量以及分区的字段顺次拼接为一个字符串,形成该条数据的Key。
例如上述实施例中,topicA的某条数据,其所在分区为1,偏移量为22,则其Key为“topicA_22_1”。
通过构造每条数据唯一的Key,能够通过Key识别出唯一的数据。
设置一个目标存储Kafka的Topic,从S103中读取到的偏移量开始消费数据,将消费的数据和对应的Key写入目标存储Kafka的Topic,用于对数据进行存储。
S105、判断所述合并标识是否为肯定标识,如果是,则对数据进行合并,执行S106;否则,更新当前批次任务的状态信息,执行S106。
在S101中设置了合并标识,在此步骤中对合并标识进行判断。如果是肯定标识,例如“需要合并数据”,则说明此时需要执行数据合并步骤,即对数据进行合并;如果合并标识是否定标识,例如“不需要合并数据”,则更新当前批次的任务信息为任务成功。
所述对数据进行合并,可以利用Kafka的Compact的API,触发对数据执行合并操作,保证对于Key相同的数据,只保留最新的一条记录。
具体在所述对数据进行合并时,判断待合并的数据中是否存在相同的Key,如果是,则从Key相同的数据中,根据每条数据的写入时间戳,保留最新的一条数据;否则,在数据合并时保留每条数据。
S106、保存当前批次的数据源Kafka的Topic的偏移量。供下一个批次的任务从这个偏移量消费数据。在执行完成后,执行下一批次任务,迭代循环。
根据本发明的实施例,能够保证Spark Structured Streaming处理Kafka数据后再次存入Kafka时数据的一致性,在异常场景下,程序重启导致的数据重新处理,再次写入Kafka时不会导致数据的重复。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于可选实施例,所涉及的动作和模块并不一定是本发明所必须的。
以上是关于方法实施例的介绍,以下通过装置实施例,对本发明所述方案进行进一步说明。
如图2所示,装置200包括:
第一判断模块210,用于分批次消费数据源Kafka的Topic的数据,在数据库中检索当前任务的批次号,如果数据库中存在所述批次号,则调用第二判断模块220;否则,向所述数据库中***当前任务的批次号及其状态信息,并设置合并标识为否定标识,调用消费模块230;所述状态信息包括批次号和任务执行状态,用于标识当前批次任务的执行状态;所述任务执行状态包括任务开始和任务成功。
第二判断模块220,用于判断如果当前批次任务的状态为任务开始,则设置合并标识为肯定标识,调用消费模块230;如果当前批次任务的状态为任务成功,则设置合并标识为否定标识,调用保存模块260。
消费模块230,用于读取最近批次的数据源Kafka的Topic的偏移量,从所述偏移量开始消费数据源Kafka的Topic的数据。
生成模块240,用于每条消费的数据对应生成一个Key,将所述消费的数据和对应的Key写入目标存储Kafka的Topic。
所述生成模块240,进一步用于将每条数据对应的Topic名称、分区以及偏移量的字段顺次拼接为一个字符串,形成该条数据的Key。
第三判断模块250,用于判断所述合并标识是否为肯定标识,如果是,则对数据进行合并,调用保存模块260;否则,更新当前批次任务的状态信息,调用保存模块260。
所述第三判断模块250,还包括:
合并模块,用于在所述对数据进行合并时,判断待合并的数据中是否存在相同的Key,如果是,则从Key相同的数据中,根据每条数据的写入时间戳,保留最新的一条数据;否则,在数据合并时保留每条数据。
保存模块260,用于保存当前批次的数据源Kafka的Topic的偏移量。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,所述描述的模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
如图3所示,设备包括中央处理单元(CPU),其可以根据存储在只读存储器(ROM)中的计算机程序指令或者从存储单元加载到随机访问存储器(RAM)中的计算机程序指令,来执行各种适当的动作和处理。在RAM中,还可以存储设备操作所需的各种程序和数据。CPU、ROM以及RAM通过总线彼此相连。输入/输出(I/O)接口也连接至总线。
设备中的多个部件连接至I/O接口,包括:输入单元,例如键盘、鼠标等;输出单元,例如各种类型的显示器、扬声器等;存储单元,例如磁盘、光盘等;以及通信单元,例如网卡、调制解调器、无线通信收发机等。通信单元允许设备通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理单元执行上文所描述的各个方法和处理,例如方法S101~S106。例如,在一些实施例中,方法S101~S106可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元。在一些实施例中,计算机程序的部分或者全部可以经由ROM和/或通信单元而被载入和/或安装到设备上。当计算机程序加载到RAM并由CPU执行时,可以执行上文描述的方法S101~S106的一个或多个步骤。备选地,在其他实施例中,CPU可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行方法S101~S106。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD)等等。
用于实施本发明的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
此外,虽然采用特定次序描绘了各操作,但是这应当理解为要求这样操作以所示出的特定次序或以顺序次序执行,或者要求所有图示的操作应被执行以取得期望的结果。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本发明的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实现中。相反地,在单个实现的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实现中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。
Claims (10)
1.一种数据写入Kafka的方法,其特征在于,包括:
步骤1:分批次消费数据源Kafka的Topic的数据,在数据库中检索当前任务的批次号,如果数据库中存在所述批次号,则执行步骤2;否则,向所述数据库中***当前任务的批次号及其状态信息,并设置合并标识为否定标识,执行步骤3;
步骤2:如果当前批次任务执行状态为任务开始,则设置合并标识为肯定标识,执行步骤3;如果当前批次任务执行状态为任务成功,则设置合并标识为否定标识,执行步骤6;
步骤3:读取最近批次的数据源Kafka的Topic的偏移量,从所述偏移量开始消费数据源Kafka的Topic的数据;
步骤4:每条消费的数据对应生成一个Key,将所述消费的数据和对应的Key写入目标存储Kafka的Topic;
步骤5:判断所述合并标识是否为肯定标识,如果是,则对数据进行合并,执行步骤6;否则,更新当前批次任务的状态信息,执行步骤6;
步骤6:保存当前批次的数据源Kafka的Topic的偏移量。
2.根据权利要求1所述的方法,其特征在于,所述每条消费的数据对应生成一个Key,包括:
将每条数据对应的Topic名称、分区以及偏移量的字段按特定顺序顺次拼接为一个字符串,形成该条数据的Key。
3.根据权利要求1所述的方法,其特征在于,在所述对数据进行合并时,判断待合并的数据中是否存在相同的Key,如果是,则从Key相同的数据中,根据每条数据的写入时间戳,保留最新的一条数据;否则,在数据合并时保留每条数据。
4.根据权利要求1所述的方法,其特征在于,所述状态信息包括任务执行状态,所述任务执行状态用于标识当前批次任务的执行状态;所述任务执行状态包括任务开始和任务成功。
5.一种数据写入Kafka的装置,其特征在于,包括:
第一判断模块,用于分批次消费数据源Kafka的Topic的数据,在数据库中检索当前任务的批次号,如果数据库中存在所述批次号,则调用第二判断模块;否则,向所述数据库中***当前任务的批次号及其状态信息,并设置合并标识为否定标识,调用消费模块;
第二判断模块,用于判断如果当前批次任务的状态为任务开始,则设置合并标识为肯定标识,调用消费模块;如果当前批次任务的状态为任务成功,则设置合并标识为否定标识,调用保存模块;
消费模块,用于读取最近批次的数据源Kafka的Topic的偏移量,从所述偏移量开始消费数据源Kafka的Topic的数据;
生成模块,用于每条消费的数据对应生成一个Key,将所述消费的数据和对应的Key写入目标存储Kafka的Topic;
第三判断模块,用于判断所述合并标识是否为肯定标识,如果是,则对数据进行合并,调用保存模块;否则,更新当前批次任务的状态信息,调用保存模块;
保存模块,用于保存当前批次的数据源Kafka的Topic的偏移量。
6.根据权利要求5所述的装置,其特征在于,所述生成模块,进一步用于将每条数据对应的Topic名称、分区以及偏移量的字段顺次拼接为一个字符串,形成该条数据的Key。
7.根据权利要求5所述的装置,其特征在于,所述第三判断模块,还包括:
合并模块,用于在所述对数据进行合并时,判断待合并的数据中是否存在相同的Key,如果是,则从Key相同的数据中,根据每条数据的写入时间戳,保留最新的一条数据;否则,在数据合并时保留每条数据。
8.根据权利要求5所述的装置,其特征在于,所述状态信息包括任务执行状态,所述任务执行状态用于标识当前批次任务的执行状态;所述任务执行状态包括任务开始和任务成功。
9.一种电子设备,包括存储器和处理器,所述存储器上存储有计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1~4中任一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1~4中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011283123.2A CN112328602B (zh) | 2020-11-17 | 2020-11-17 | 一种数据写入Kafka的方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011283123.2A CN112328602B (zh) | 2020-11-17 | 2020-11-17 | 一种数据写入Kafka的方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112328602A CN112328602A (zh) | 2021-02-05 |
CN112328602B true CN112328602B (zh) | 2023-03-31 |
Family
ID=74318365
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011283123.2A Active CN112328602B (zh) | 2020-11-17 | 2020-11-17 | 一种数据写入Kafka的方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112328602B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113297309B (zh) * | 2021-05-31 | 2023-11-10 | 平安证券股份有限公司 | 流数据写入方法、装置、设备及存储介质 |
CN113608896B (zh) * | 2021-08-12 | 2023-09-08 | 重庆紫光华山智安科技有限公司 | 一种动态切换数据流的方法、***、介质及终端 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108255628A (zh) * | 2016-12-29 | 2018-07-06 | 北京国双科技有限公司 | 一种数据处理方法及装置 |
CN109493076A (zh) * | 2018-11-09 | 2019-03-19 | 武汉斗鱼网络科技有限公司 | 一种Kafka消息唯一消费方法、***、服务器及存储介质 |
CN110795428A (zh) * | 2019-10-10 | 2020-02-14 | 中盈优创资讯科技有限公司 | 应用于工业物联网的时序数据存储方法和时序数据库 |
CN110908788A (zh) * | 2019-12-02 | 2020-03-24 | 北京锐安科技有限公司 | 基于Spark Streaming的数据处理方法、装置、计算机设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10560544B2 (en) * | 2015-08-25 | 2020-02-11 | Box, Inc. | Data caching in a collaborative file sharing system |
-
2020
- 2020-11-17 CN CN202011283123.2A patent/CN112328602B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108255628A (zh) * | 2016-12-29 | 2018-07-06 | 北京国双科技有限公司 | 一种数据处理方法及装置 |
CN109493076A (zh) * | 2018-11-09 | 2019-03-19 | 武汉斗鱼网络科技有限公司 | 一种Kafka消息唯一消费方法、***、服务器及存储介质 |
CN110795428A (zh) * | 2019-10-10 | 2020-02-14 | 中盈优创资讯科技有限公司 | 应用于工业物联网的时序数据存储方法和时序数据库 |
CN110908788A (zh) * | 2019-12-02 | 2020-03-24 | 北京锐安科技有限公司 | 基于Spark Streaming的数据处理方法、装置、计算机设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
Spark平台中Kafka偏移量的读取管理与设计;高宗宝;《软件》;20190715;第40卷(第7期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112328602A (zh) | 2021-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107016480B (zh) | 任务调度方法、装置及*** | |
CN110442498B (zh) | 异常数据节点的定位方法、装置、存储介质及计算机设备 | |
CN108255620B (zh) | 一种业务逻辑处理方法、装置、业务服务器及*** | |
CN112328602B (zh) | 一种数据写入Kafka的方法、装置及设备 | |
CN111324423A (zh) | 容器内进程的监控方法、装置、存储介质和计算机设备 | |
CN111475401A (zh) | 一种测试方法及相关设备 | |
CN113448862B (zh) | 软件版本测试方法、装置及计算机设备 | |
CN107357731A (zh) | 进程产生core dump问题的监控、分析和处理方法 | |
CN108446110B (zh) | Lua脚本生成方法、装置、终端及计算机可读介质 | |
CN115827162A (zh) | 一种智能化处理镜像仓库数据方法、装置、介质及设备 | |
CN113641544B (zh) | 用于检测应用状态的方法、装置、设备、介质和产品 | |
CN112988776B (zh) | 文本解析规则的更新方法、装置、设备及可读存储介质 | |
CN113157426A (zh) | 一种任务调度方法、***、设备及存储介质 | |
CN113157569A (zh) | 自动化测试方法、装置、计算机设备和存储介质 | |
CN114647548A (zh) | 一种日志生成方法及装置 | |
CN116701445A (zh) | 资源匹配信息生成方法、装置、设备和计算机可读介质 | |
CN107577433B (zh) | 一种存储介质和文件数据的迁移方法、装置及设备 | |
CN108628909B (zh) | 信息推送方法和装置 | |
CN115328736A (zh) | 一种探针部署方法、装置、设备和存储介质 | |
CN114721876A (zh) | 一种数据备份方法、装置、介质 | |
CN112000492B (zh) | 公众号用户标签的管理***及方法 | |
CN115495151A (zh) | 规则引擎的迁移方法、装置、设备、存储介质及程序产品 | |
CN114625515A (zh) | 一种任务管理方法、装置、设备及存储介质 | |
CN114928603A (zh) | 客户端软件的升级方法、装置、电子设备和介质 | |
US11727059B2 (en) | Retrieval sentence utilization device and retrieval sentence utilization method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP02 | Change in the address of a patent holder | ||
CP02 | Change in the address of a patent holder |
Address after: Room 702-2, No. 4811 Caoan Road, Jiading District, Shanghai, 201800 Patentee after: CHINA UNITECHS Address before: Room 1004-4, 10 / F, 1112 Hanggui Road, Anting Town, Jiading District, Shanghai 201800 Patentee before: CHINA UNITECHS |