CN115687031A - 一种告警描述文本的生成方法、装置、设备及介质 - Google Patents
一种告警描述文本的生成方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN115687031A CN115687031A CN202211431021.XA CN202211431021A CN115687031A CN 115687031 A CN115687031 A CN 115687031A CN 202211431021 A CN202211431021 A CN 202211431021A CN 115687031 A CN115687031 A CN 115687031A
- Authority
- CN
- China
- Prior art keywords
- alarm
- text
- target
- training
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000012544 monitoring process Methods 0.000 claims abstract description 35
- 238000012549 training Methods 0.000 claims description 98
- 239000011159 matrix material Substances 0.000 claims description 37
- 238000004590 computer program Methods 0.000 claims description 17
- 230000002457 bidirectional effect Effects 0.000 claims description 6
- 239000000126 substance Substances 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 20
- 230000008569 process Effects 0.000 abstract description 11
- 230000008439 repair process Effects 0.000 abstract description 10
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 101100269850 Caenorhabditis elegans mask-1 gene Proteins 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012163 sequencing technique Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Alarm Systems (AREA)
Abstract
本发明公开了一种告警描述文本的生成方法、装置、设备及介质,包括:获取监控***针对目标业务***生成的目标告警日志,将所述目标告警日志输入至预先训练的文本描述模型,通过所述文本描述模型,输出与目标告警日志匹配的目标告警描述文本。本发明实施例的技术方案可以节省告警日志处理过程中所消耗的人力成本和时间成本,提高业务***的修复效率。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种告警描述文本的生成方法、装置、设备及介质。
背景技术
随着信息技术的发展,现有业务的操作多数都集成于计算机***中。为了保证业务***正常运行,企业通过部署监控***实时获取业务***的运行数据,并根据该运行数据生成告警日志。由于业务***越来越庞大,告警日志数量越来越多,如何在大量告警日志中筛选严重等级较高的日志,对于业务***的发展尤为重要。
现有技术中,通常是由运维人员通过手动方式,根据预设指标在大量告警日志中确定每个告警日志的严重等级,然后筛选严重等级较高的告警日志,并对该告警日志的故障原因进行排查。
但是,现有的告警日志处理方法需要耗费较高的人力成本和时间成本,导致业务***修复效率较低。
发明内容
本发明提供了一种告警描述文本的生成方法、装置、设备及介质,可以节省告警日志处理过程中所消耗的人力成本和时间成本,提高业务***的修复效率。
根据本发明的一方面,提供了一种告警描述文本的生成方法,包括:
获取监控***针对目标业务***生成的目标告警日志;
将所述目标告警日志输入至预先训练的文本描述模型;
其中,所述文本描述模型通过使用告警文本训练集,对统一预训练语言模型UniLM训练得到;所述UniLM模型中包括多个Transformer网络层;
通过所述文本描述模型,输出与目标告警日志匹配的目标告警描述文本;所述目标告警描述文本中包括目标告警日志对应的告警等级以及故障原因。
可选的,在获取监控***针对目标业务***生成的目标告警日志之前,还包括:
获取与监控***对应的告警文本训练集,所述告警文本训练集中包括多个告警文本;
使用所述告警文本训练集,对UniLM模型进行迭代训练,得到所述文本描述模型。
可选的,获取与监控***对应的告警文本训练集,包括:
获取监控***针对多个业务***生成的多个历史告警日志;
从预设的开源数据仓库中获取多个扩展告警文本;
根据所述多个历史告警日志与多个扩展告警文本,生成所述告警文本训练集。
可选的,根据所述多个历史告警日志与多个扩展告警文本,生成所述告警文本训练集,包括:
根据预设的告警字段,在各所述历史告警日志中分别提取告警字段信息;
对各所述告警字段信息进行格式化处理,得到多个历史告警文本;
根据所述多个历史告警文本与多个扩展告警文本,生成所述告警文本训练集。
可选的,使用所述告警文本训练集,对UniLM模型进行迭代训练,得到所述文本描述模型,包括:
通过UniLM模型,生成告警文本训练集中各告警文本对应的词嵌入向量矩阵;
将各告警文本对应的词嵌入向量矩阵,依次输入至多个Transformer网络层,通过对所述多个Transformer网络层进行训练,得到所述文本描述模型。
可选的,对所述多个Transformer网络层进行训练,得到所述文本描述模型,包括:
将所述多个告警文本按照预设权重比例,分为第一文本集、第二文本集和第三文本集;
使用所述第一文本集,对所述多个Transformer网络层进行单向训练;
使用所述第二文本集,对所述多个Transformer网络层进行双向训练;
使用所述第三文本集,对所述多个Transformer网络层进行序列训练。
可选的,将所述目标告警日志输入至预先训练的文本描述模型,包括:
生成与所述目标告警日志对应的目标词嵌入向量矩阵;
将所述目标词嵌入向量矩阵,输入至预先训练的文本描述模型。
根据本发明的另一方面,提供了一种告警描述文本的生成装置,所述装置包括:
日志获取模块,用于获取监控***针对目标业务***生成的目标告警日志;
日志输入模块,用于将所述目标告警日志输入至预先训练的文本描述模型;
其中,所述文本描述模型通过使用告警文本训练集,对统一预训练语言模型UniLM训练得到;所述UniLM模型中包括多个Transformer网络层;
文本输出模块,用于通过所述文本描述模型,输出与目标告警日志匹配的目标告警描述文本;所述目标告警描述文本中包括目标告警日志对应的告警等级以及故障原因。
根据本发明的另一方面,提供了一种电子设备,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例所述的告警描述文本的生成方法。
根据本发明的另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现本发明任一实施例所述的告警描述文本的生成方法。
本发明实施例提供的技术方案,通过获取监控***针对目标业务***生成的目标告警日志,将所述目标告警日志输入至预先训练的文本描述模型,通过所述文本描述模型,输出与目标告警日志匹配的目标告警描述文本;所述目标告警描述文本中包括目标告警日志对应的告警等级以及故障原因的技术手段,可以节省告警日志处理过程中所消耗的人力成本和时间成本,提高业务***的修复效率。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例提供的一种告警描述文本的生成方法的流程图;
图2是根据本发明实施例提供的另一种告警描述文本的生成方法的流程图;
图3是根据本发明实施例提供的另一种告警描述文本的生成方法的流程图;
图4是根据本发明实施例提供的一种告警描述文本的生成装置的结构示意图;
图5是实现本发明实施例的告警描述文本的生成方法的电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
图1为本发明实施例一提供的一种告警描述文本的生成方法的流程图,本实施例可适用于对监控***产生的告警日志,生成对应的描述文本的情况,该方法可以由告警描述文本的生成装置来执行,该告警描述文本的生成装置可以采用硬件和/或软件的形式实现,该告警描述文本的生成装置可配置于具备数据处理功能的电子设备(例如终端或者服务器)中。如图1所示,该方法包括:
步骤110、获取监控***针对目标业务***生成的目标告警日志。
在本实施例中,监控***可以根据目标业务***的运行情况,生成对应的目标告警日志,所述目标告警日志中可以包括多条告警事件。
步骤120、将所述目标告警日志输入至预先训练的文本描述模型;
在本实施例中,所述文本描述模型通过使用告警文本训练集,对统一预训练语言模型(Unified Language Model,UniLM)训练得到;所述UniLM模型中包括多个Transformer网络层。
在一个具体的实施例中,所述告警文本训练集中可以包括多个用于对UniLM模型进行训练的告警文本。所述UniLM模型可以为一种用于对自然语言进行理解,并生成相应描述文本的模型。所述UniLM模型可以针对自然语言理解和生成任务进行微调。该模型使用三种类型的语言建模任务进行预训练:单向、双向以及序列到序列预测,并使用共享的Transformer网络层,以及特定的注意力掩码去控制预测条件的上下文。
其中,Transformer网络层的结构与Bert模型一致,可以由自注意力self-attention机制组成。
步骤130、通过所述文本描述模型,输出与目标告警日志匹配的目标告警描述文本;所述目标告警描述文本中包括目标告警日志对应的告警等级以及故障原因。
在本实施例中,将目标告警日志输入至文本描述模型后,文本描述模型可以根据目标告警日志对应的语言特征、日志中上下文和前后句之间的逻辑关系,以及预先学习的故障特征和故障原因之间的逻辑关系,确定目标告警日志的告警等级以及故障原因,并根据所述告警等级以及故障原因生成目标告警描述文本。
在一个具体的实施例中,目标告警日志对应的告警等级越高,则可以认为该目标告警日志中的故障情况越严重,由此便于运维人员根据故障原因对故障情况进行及时修复。
在本实施例中,通过预先构建文本描述模型,便于在监控***产生新的告警日志后,自动确定该告警日志的严重等级以及故障原因,以使运维人员在大量告警日志中及时筛查等级较高的日志,并对这些日志涉及的故障情况进行快速修复,由此可以节省告警日志处理过程中所消耗的人力成本和时间成本,提高业务***的修复效率。
本发明实施例提供的技术方案,通过获取监控***针对目标业务***生成的目标告警日志,将所述目标告警日志输入至预先训练的文本描述模型,通过所述文本描述模型,输出与目标告警日志匹配的目标告警描述文本;所述目标告警描述文本中包括目标告警日志对应的告警等级以及故障原因的技术手段,可以节省告警日志处理过程中所消耗的人力成本和时间成本,提高业务***的修复效率。
图2为本发明实施例二提供的一种告警描述文本的生成方法的流程图,本实施例是对上述实施例的进一步细化。如图2所示,该方法包括:
步骤210、获取与监控***对应的告警文本训练集,所述告警文本训练集中包括多个告警文本。
在本实施例的一个实施方式中,获取与监控***对应的告警文本训练集,包括:获取监控***针对多个业务***生成的多个历史告警日志;从预设的开源数据仓库中获取多个扩展告警文本;根据所述多个历史告警日志与多个扩展告警文本,生成所述告警文本训练集。
在本实施例中,所述开源数据仓库可以包括面向开源及软件项目的数据平台(例如GitHub),以及多种开源检索网站。所述开源数据仓库中可以包括大量其他业务***对应的告警文本(也即扩展告警文本)。
这样设置的好处在于,在对UniLM模型进行训练时,由于历史告警日志对应的***类型以及故障原因比较局限,通过在开源数据仓库中获取其他业务***产生的告警文本,可以丰富训练集的样本类型,提高后续文本描述模型的有效性和准确性。
在一个具体的实施方式中,根据所述多个历史告警日志与多个扩展告警文本,生成所述告警文本训练集,包括:根据预设的告警字段,在各所述历史告警日志中分别提取告警字段信息;对各所述告警字段信息进行格式化处理,得到多个历史告警文本;根据所述多个历史告警文本与多个扩展告警文本,生成所述告警文本训练集。
在本实施例中,为了保证告警文本格式的一致性,可以对历史告警日志中的告警字段信息进行格式化处理。这样设置的好处在于,便于UniLM模型按照统一的处理方式,对各告警文本的特征进行提取,由此提高模型的训练效率。
步骤220、使用所述告警文本训练集,对UniLM模型进行迭代训练,得到所述文本描述模型。
步骤230、获取监控***针对目标业务***生成的目标告警日志。
步骤240、将所述目标告警日志输入至预先训练的文本描述模型。
步骤250、通过所述文本描述模型,输出与目标告警日志匹配的目标告警描述文本;所述目标告警描述文本中包括目标告警日志对应的告警等级以及故障原因。
本发明实施例提供的技术方案,通过获取与监控***对应的告警文本训练集,使用所述告警文本训练集,对UniLM模型进行迭代训练,得到文本描述模型,获取监控***针对目标业务***生成的目标告警日志,将所述目标告警日志输入至预先训练的文本描述模型,通过所述文本描述模型,输出与目标告警日志匹配的目标告警描述文本的技术手段,可以节省告警日志处理过程中所消耗的人力成本和时间成本,提高业务***的修复效率。
图3为本发明实施例三提供的一种告警描述文本的生成方法的流程图,本实施例是对上述实施例的进一步细化。如图3所示,该方法包括:
步骤310、获取与监控***对应的告警文本训练集,所述告警文本训练集中包括多个告警文本。
步骤320、通过UniLM模型,生成告警文本训练集中各告警文本对应的词嵌入向量矩阵。
在此步骤中,可选的,可以通过UniLM模型对各告警文本进行预处理,包括语义特征嵌入、句特征嵌入、位置特征嵌入等处理,并根据处理结果得到与各告警文本对应的词嵌入向量矩阵H。其中,H=[x1,x2,...,xj],x为告警文本中各分词对应的词向量。
步骤330、将各告警文本对应的词嵌入向量矩阵,依次输入至多个Transformer网络层,通过对所述多个Transformer网络层进行训练,得到所述文本描述模型。
在本实施例中,可选的,Transformer网络层的数量可以设为24,具体数值可以根据实际情况进行预设,本实施例对此并不进行限制。具体的,可以将每个告警文本的词嵌入向量矩阵H0作为24个Transformer网络层的输入,每一个Transformer网络层的输出可以为:
Hl=Transformerl(Hl-1)
在一个具体的实施例中,在将词嵌入向量矩阵H输入至Transformer网络层之前,还可以计算H与预设权重矩阵的相乘结果,并将该相乘结果输入至Transformer网络层,具体计算方式可以如下述公式所示:
Q=Hl-1W1 Q
K=Hl-1W1 K
V=Hl-1W1 V
其中,W1 Q,W1 K和W1 V为第l层Transformer网络层对应的权重矩阵,Q,K和V分别为Transformer网络层对应的Query向量、Key向量和、Value向量。
在本实施例中,对Transformer网络层进行训练时,还可以根据告警文本对应的掩码矩阵,Transformer网络层的参数进行调整。具体的,Transformer网络层可以根据告警文本的掩码矩阵,控制文本中各分词的关注范围。
其中,假设告警文本可以被关注,则对应的掩码矩阵Mij可以为0;假设告警文本无法被关注,则对应的掩码矩阵Mij可以为-∞。在设定好告警文本的掩码矩阵后,可以根据下述公式对网络层的参数进行调整:
在本实施例的一个实施方式中,对所述多个Transformer网络层进行训练,得到所述文本描述模型,包括:将所述多个告警文本按照预设权重比例,分为第一文本集、第二文本集和第三文本集;使用所述第一文本集,对所述多个Transformer网络层进行单向训练;使用所述第二文本集,对所述多个Transformer网络层进行双向训练;使用所述第三文本集,对所述多个Transformer网络层进行序列训练。
在一个具体的实施例中,可以在全部的告警文本中,将1/3数量的告警文本作为第一文本集,将1/3数量的告警文本作为第二文本集,将1/3数量的告警文本作为第三文本集。具体权重比例可以根据实际情况进行预设,本实施例对此并不进行限制。
在一个具体的实施方式中,可选的,可以使用第一文本集中的一半文本,对Transformer网络层进行从左向右单向训练,使用另一半文本对Transformer网络层进行从右向左单向训练。例如,假设预测序列为x1,x2[mask]和x4,则可以利用x1和x2进行自编码,并使用上三角矩阵作为掩码矩阵。
在一个具体的实施方式中,使用第二文本集对多个Transformer网络层进行双向训练时,可以使用网络层中的所有token进行编码。例如,假设预测序列为x1,x2[mask]和x4,则可以利用x1、x2、x4进行自编码,并且使用全0矩阵作为掩码矩阵。
在一个具体的实施方式中,使用第三文本集对多个Transformer网络层进行序列训练时,可以在文本输入的起始处添加[sos]标记,结尾处添加[eos]标记,以将所述标记作为任务边界标识。
具体的,在序列训练过程中,如果预测的特殊标记[mask]出现在第一段文本,则可以使用第一段文本中所有的token进行预测;如果预测的特殊标记[mask]出现在第二段文本,则可以采用第一段文本中所有的token,和第二段文本中该预测标记左侧所有tokne进行预测。
例如,假设预测序列为:[sos]x1x2[mask1]x4[eos]x5x6[mask2][eos],预测[mask1]时,可以除去[SOS]和[EOS],并利用x1,x2和x4进行自编码;预测[mask2]时,可以除去[SOS]和[EOS],并利用x1,x2[mask1],x4,x5和x6进行自编码。
步骤340、获取监控***针对目标业务***生成的目标告警日志。
步骤350、生成与所述目标告警日志对应的目标词嵌入向量矩阵。
在此步骤中,可选的,可以通过UniLM模型对目标告警日志进行预处理,包括语义特征嵌入、句特征嵌入、位置特征嵌入等处理,并根据处理结果得到目标词嵌入向量矩阵。
步骤360、将所述目标词嵌入向量矩阵,输入至预先训练的文本描述模型。
步骤370、通过所述文本描述模型,输出与目标告警日志匹配的目标告警描述文本;所述目标告警描述文本中包括目标告警日志对应的告警等级以及故障原因。
本发明实施例提供的技术方案,通过获取与监控***对应的告警文本训练集,通过UniLM模型,生成告警文本训练集中各告警文本对应的词嵌入向量矩阵,将各告警文本对应的词嵌入向量矩阵,依次输入至多个Transformer网络层,通过对多个Transformer网络层进行训练,得到文本描述模型,获取监控***针对目标业务***生成的目标告警日志,生成与目标告警日志对应的目标词嵌入向量矩阵,将目标词嵌入向量矩阵输入至预先训练的文本描述模型,通过文本描述模型输出与目标告警日志匹配的目标告警描述文本的技术手段,可以节省告警日志处理过程中所消耗的人力成本和时间成本,提高业务***的修复效率。
图4为本发明实施例四提供的一种告警描述文本的生成装置的结构示意图,如图4所示,该装置包括:日志获取模块410、日志输入模块420和文本输出模块430。
其中,日志获取模块410,用于获取监控***针对目标业务***生成的目标告警日志;
日志输入模块420,用于将所述目标告警日志输入至预先训练的文本描述模型;
其中,所述文本描述模型通过使用告警文本训练集,对统一预训练语言模型UniLM训练得到;所述UniLM模型中包括多个Transformer网络层;
文本输出模块430,用于通过所述文本描述模型,输出与目标告警日志匹配的目标告警描述文本;所述目标告警描述文本中包括目标告警日志对应的告警等级以及故障原因。
本发明实施例提供的技术方案,通过获取监控***针对目标业务***生成的目标告警日志,将所述目标告警日志输入至预先训练的文本描述模型,通过所述文本描述模型,输出与目标告警日志匹配的目标告警描述文本;所述目标告警描述文本中包括目标告警日志对应的告警等级以及故障原因的技术手段,可以节省告警日志处理过程中所消耗的人力成本和时间成本,提高业务***的修复效率。
在上述实施例的基础上,所述装置还包括:
训练集获取模块,用于获取与监控***对应的告警文本训练集,所述告警文本训练集中包括多个告警文本;
模型训练模块,用于使用所述告警文本训练集,对UniLM模型进行迭代训练,得到所述文本描述模型。
所述训练集获取模块包括:
历史日志获取单元,用于获取监控***针对多个业务***生成的多个历史告警日志;
扩展文本获取单元,用于从预设的开源数据仓库中获取多个扩展告警文本;
训练集生成单元,用于根据所述多个历史告警日志与多个扩展告警文本,生成所述告警文本训练集;
字段提取单元,用于根据预设的告警字段,在各所述历史告警日志中分别提取告警字段信息;
字段处理单元,用于对各所述告警字段信息进行格式化处理,得到多个历史告警文本;
文本处理单元,用于根据所述多个历史告警文本与多个扩展告警文本,生成所述告警文本训练集。
所述模型训练模块包括:
矩阵生成单元,用于通过UniLM模型,生成告警文本训练集中各告警文本对应的词嵌入向量矩阵;
矩阵输入单元,用于将各告警文本对应的词嵌入向量矩阵,依次输入至多个Transformer网络层,通过对所述多个Transformer网络层进行训练,得到所述文本描述模型;
文本划分单元,用于将所述多个告警文本按照预设权重比例,分为第一文本集、第二文本集和第三文本集;
单向训练单元,用于使用所述第一文本集,对所述多个Transformer网络层进行单向训练;
双向训练单元,用于使用所述第二文本集,对所述多个Transformer网络层进行双向训练;
序列训练单元,用于使用所述第三文本集,对所述多个Transformer网络层进行序列训练。
所述日志输入模块420包括:
告警日志处理单元,用于生成与所述目标告警日志对应的目标词嵌入向量矩阵;将所述目标词嵌入向量矩阵,输入至预先训练的文本描述模型。
上述装置可执行本发明前述所有实施例所提供的方法,具备执行上述方法相应的功能模块和有益效果。未在本发明实施例中详尽描述的技术细节,可参见本发明前述所有实施例所提供的方法。
图5示出了可以用来实施本发明的实施例的电子设备10的结构示意图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图5所示,电子设备10包括至少一个处理器11,以及与至少一个处理器11通信连接的存储器,如只读存储器(ROM)12、随机访问存储器(RAM)13等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器11可以根据存储在只读存储器(ROM)12中的计算机程序或者从存储单元18加载到随机访问存储器(RAM)13中的计算机程序,来执行各种适当的动作和处理。在RAM 13中,还可存储电子设备10操作所需的各种程序和数据。处理器11、ROM 12以及RAM 13通过总线14彼此相连。输入/输出(I/O)接口15也连接至总线14。
电子设备10中的多个部件连接至I/O接口15,包括:输入单元16,例如键盘、鼠标等;输出单元17,例如各种类型的显示器、扬声器等;存储单元18,例如磁盘、光盘等;以及通信单元19,例如网卡、调制解调器、无线通信收发机等。通信单元19允许电子设备10通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器11可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器11的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器11执行上文所描述的各个方法和处理,例如告警描述文本的生成方法。
在一些实施例中,告警描述文本的生成方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元18。在一些实施例中,计算机程序的部分或者全部可以经由ROM 12和/或通信单元19而被载入和/或安装到电子设备10上。当计算机程序加载到RAM 13并由处理器11执行时,可以执行上文描述的告警描述文本的生成方法的一个或多个步骤。备选地,在其他实施例中,处理器11可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行告警描述文本的生成方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在电子设备上实施此处描述的***和技术,该电子设备具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给电子设备。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (10)
1.一种告警描述文本的生成方法,其特征在于,包括:
获取监控***针对目标业务***生成的目标告警日志;
将所述目标告警日志输入至预先训练的文本描述模型;
其中,所述文本描述模型通过使用告警文本训练集,对统一预训练语言模型UniLM训练得到;所述UniLM模型中包括多个Transformer网络层;
通过所述文本描述模型,输出与目标告警日志匹配的目标告警描述文本;所述目标告警描述文本中包括目标告警日志对应的告警等级以及故障原因。
2.根据权利要求1所述的方法,其特征在于,在获取监控***针对目标业务***生成的目标告警日志之前,还包括:
获取与监控***对应的告警文本训练集,所述告警文本训练集中包括多个告警文本;
使用所述告警文本训练集,对UniLM模型进行迭代训练,得到所述文本描述模型。
3.根据权利要求2所述的方法,其特征在于,获取与监控***对应的告警文本训练集,包括:
获取监控***针对多个业务***生成的多个历史告警日志;
从预设的开源数据仓库中获取多个扩展告警文本;
根据所述多个历史告警日志与多个扩展告警文本,生成所述告警文本训练集。
4.根据权利要求3所述的方法,其特征在于,根据所述多个历史告警日志与多个扩展告警文本,生成所述告警文本训练集,包括:
根据预设的告警字段,在各所述历史告警日志中分别提取告警字段信息;
对各所述告警字段信息进行格式化处理,得到多个历史告警文本;
根据所述多个历史告警文本与多个扩展告警文本,生成所述告警文本训练集。
5.根据权利要求2所述的方法,其特征在于,使用所述告警文本训练集,对UniLM模型进行迭代训练,得到所述文本描述模型,包括:
通过UniLM模型,生成告警文本训练集中各告警文本对应的词嵌入向量矩阵;
将各告警文本对应的词嵌入向量矩阵,依次输入至多个Transformer网络层,通过对所述多个Transformer网络层进行训练,得到所述文本描述模型。
6.根据权利要求5所述的方法,其特征在于,对所述多个Transformer网络层进行训练,得到所述文本描述模型,包括:
将所述多个告警文本按照预设权重比例,分为第一文本集、第二文本集和第三文本集;
使用所述第一文本集,对所述多个Transformer网络层进行单向训练;
使用所述第二文本集,对所述多个Transformer网络层进行双向训练;
使用所述第三文本集,对所述多个Transformer网络层进行序列训练。
7.根据权利要求1所述的方法,其特征在于,将所述目标告警日志输入至预先训练的文本描述模型,包括:
生成与所述目标告警日志对应的目标词嵌入向量矩阵;
将所述目标词嵌入向量矩阵,输入至预先训练的文本描述模型。
8.一种告警描述文本的生成装置,其特征在于,包括:
日志获取模块,用于获取监控***针对目标业务***生成的目标告警日志;
日志输入模块,用于将所述目标告警日志输入至预先训练的文本描述模型;
其中,所述文本描述模型通过使用告警文本训练集,对统一预训练语言模型UniLM训练得到;所述UniLM模型中包括多个Transformer网络层;
文本输出模块,用于通过所述文本描述模型,输出与目标告警日志匹配的目标告警描述文本;所述目标告警描述文本中包括目标告警日志对应的告警等级以及故障原因。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的告警描述文本的生成方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现权利要求1-7中任一项所述的告警描述文本的生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211431021.XA CN115687031A (zh) | 2022-11-15 | 2022-11-15 | 一种告警描述文本的生成方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211431021.XA CN115687031A (zh) | 2022-11-15 | 2022-11-15 | 一种告警描述文本的生成方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115687031A true CN115687031A (zh) | 2023-02-03 |
Family
ID=85051134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211431021.XA Pending CN115687031A (zh) | 2022-11-15 | 2022-11-15 | 一种告警描述文本的生成方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115687031A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116089231A (zh) * | 2023-02-13 | 2023-05-09 | 北京优特捷信息技术有限公司 | 一种故障告警方法、装置、电子设备及存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110083826A (zh) * | 2019-03-21 | 2019-08-02 | 昆明理工大学 | 一种基于Transformer模型的老汉双语对齐方法 |
WO2019210820A1 (zh) * | 2018-05-03 | 2019-11-07 | 华为技术有限公司 | 一种信息输出方法及装置 |
CN110765270A (zh) * | 2019-11-04 | 2020-02-07 | 苏州思必驰信息科技有限公司 | 用于口语交互的文本分类模型的训练方法及*** |
CN111639163A (zh) * | 2020-04-29 | 2020-09-08 | 深圳壹账通智能科技有限公司 | 问题生成模型的训练方法、问题生成方法及其相关设备 |
CN111723547A (zh) * | 2020-05-25 | 2020-09-29 | 河海大学 | 一种基于预训练语言模型的文本自动摘要方法 |
CN111783459A (zh) * | 2020-05-08 | 2020-10-16 | 昆明理工大学 | 一种基于改进Transformer+CRF的老挝语命名实体识别方法 |
CN113094200A (zh) * | 2021-06-07 | 2021-07-09 | 腾讯科技(深圳)有限公司 | 一种应用程序的故障预测方法和装置 |
CN113723115A (zh) * | 2021-09-30 | 2021-11-30 | 平安科技(深圳)有限公司 | 基于预训练模型的开放域问答预测方法及相关设备 |
CN113821408A (zh) * | 2021-09-23 | 2021-12-21 | 中国建设银行股份有限公司 | 一种服务器告警处理方法及相关设备 |
CN114528845A (zh) * | 2022-02-14 | 2022-05-24 | 中国工商银行股份有限公司 | 异常日志的分析方法、装置及电子设备 |
CN114968633A (zh) * | 2022-04-14 | 2022-08-30 | 阿里巴巴(中国)有限公司 | 异常日志的检测方法及装置 |
-
2022
- 2022-11-15 CN CN202211431021.XA patent/CN115687031A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019210820A1 (zh) * | 2018-05-03 | 2019-11-07 | 华为技术有限公司 | 一种信息输出方法及装置 |
CN110083826A (zh) * | 2019-03-21 | 2019-08-02 | 昆明理工大学 | 一种基于Transformer模型的老汉双语对齐方法 |
CN110765270A (zh) * | 2019-11-04 | 2020-02-07 | 苏州思必驰信息科技有限公司 | 用于口语交互的文本分类模型的训练方法及*** |
CN111639163A (zh) * | 2020-04-29 | 2020-09-08 | 深圳壹账通智能科技有限公司 | 问题生成模型的训练方法、问题生成方法及其相关设备 |
CN111783459A (zh) * | 2020-05-08 | 2020-10-16 | 昆明理工大学 | 一种基于改进Transformer+CRF的老挝语命名实体识别方法 |
CN111723547A (zh) * | 2020-05-25 | 2020-09-29 | 河海大学 | 一种基于预训练语言模型的文本自动摘要方法 |
CN113094200A (zh) * | 2021-06-07 | 2021-07-09 | 腾讯科技(深圳)有限公司 | 一种应用程序的故障预测方法和装置 |
CN113821408A (zh) * | 2021-09-23 | 2021-12-21 | 中国建设银行股份有限公司 | 一种服务器告警处理方法及相关设备 |
CN113723115A (zh) * | 2021-09-30 | 2021-11-30 | 平安科技(深圳)有限公司 | 基于预训练模型的开放域问答预测方法及相关设备 |
CN114528845A (zh) * | 2022-02-14 | 2022-05-24 | 中国工商银行股份有限公司 | 异常日志的分析方法、装置及电子设备 |
CN114968633A (zh) * | 2022-04-14 | 2022-08-30 | 阿里巴巴(中国)有限公司 | 异常日志的检测方法及装置 |
Non-Patent Citations (1)
Title |
---|
岳增营; 叶霞; 刘睿珩: "基于语言模型的预训练技术研究综述", 《中文信息学报》, vol. 35, no. 9, pages 2 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116089231A (zh) * | 2023-02-13 | 2023-05-09 | 北京优特捷信息技术有限公司 | 一种故障告警方法、装置、电子设备及存储介质 |
CN116089231B (zh) * | 2023-02-13 | 2023-09-15 | 北京优特捷信息技术有限公司 | 一种故障告警方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113239705B (zh) | 语义表示模型的预训练方法、装置、电子设备和存储介质 | |
CN113792154B (zh) | 故障关联关系的确定方法、装置、电子设备及存储介质 | |
CN113722493A (zh) | 文本分类的数据处理方法、设备、存储介质及程序产品 | |
CN113986864A (zh) | 日志数据处理方法、装置、电子设备及存储介质 | |
CN116089231B (zh) | 一种故障告警方法、装置、电子设备及存储介质 | |
CN113407610A (zh) | 信息抽取方法、装置、电子设备和可读存储介质 | |
CN115454706A (zh) | 一种***异常确定方法、装置、电子设备及存储介质 | |
CN116307672A (zh) | 一种故障诊断方法、装置、电子设备及介质 | |
CN112559885A (zh) | 地图兴趣点的训练模型确定方法、装置及电子设备 | |
CN115293149A (zh) | 一种实体关系识别方法、装置、设备及存储介质 | |
JP2023025126A (ja) | 深層学習モデルのトレーニング方法及び装置、テキストデータ処理方法及び装置、電子機器、記憶媒体、並びにコンピュータプログラム | |
CN115687031A (zh) | 一种告警描述文本的生成方法、装置、设备及介质 | |
CN113806522A (zh) | 摘要生成方法、装置、设备以及存储介质 | |
CN113190746A (zh) | 推荐模型的评估方法、装置及电子设备 | |
CN112906368A (zh) | 行业文本增量方法、相关装置及计算机程序产品 | |
CN113157877A (zh) | 多语义识别方法、装置、设备和介质 | |
US20230185646A1 (en) | Method for early warning of failure, electronic device and non-transitory computer-readable storage medium | |
CN117076610A (zh) | 一种数据敏感表的识别方法、装置、电子设备及存储介质 | |
US20230052623A1 (en) | Word mining method and apparatus, electronic device and readable storage medium | |
CN115618234A (zh) | 一种模型训练方法、装置、设备及存储介质 | |
CN114254028A (zh) | 事件属性抽取方法、装置、电子设备和存储介质 | |
CN114202309A (zh) | 用户与企业的匹配参数的确定方法、电子设备及程序产品 | |
CN114254650A (zh) | 一种信息处理方法、装置、设备及介质 | |
CN114330718A (zh) | 因果关系的提取方法、装置及电子设备 | |
CN113051926A (zh) | 文本抽取方法、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20230203 |
|
RJ01 | Rejection of invention patent application after publication |