CN113779240A - 信息识别方法、装置、计算机***及可读存储介质 - Google Patents

信息识别方法、装置、计算机***及可读存储介质 Download PDF

Info

Publication number
CN113779240A
CN113779240A CN202110186799.8A CN202110186799A CN113779240A CN 113779240 A CN113779240 A CN 113779240A CN 202110186799 A CN202110186799 A CN 202110186799A CN 113779240 A CN113779240 A CN 113779240A
Authority
CN
China
Prior art keywords
text information
initial
recognition model
training
information recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110186799.8A
Other languages
English (en)
Inventor
周彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jingdong Century Trading Co Ltd
Beijing Wodong Tianjun Information Technology Co Ltd
Original Assignee
Beijing Jingdong Century Trading Co Ltd
Beijing Wodong Tianjun Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jingdong Century Trading Co Ltd, Beijing Wodong Tianjun Information Technology Co Ltd filed Critical Beijing Jingdong Century Trading Co Ltd
Priority to CN202110186799.8A priority Critical patent/CN113779240A/zh
Publication of CN113779240A publication Critical patent/CN113779240A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Character Discrimination (AREA)

Abstract

本公开提供了一种文本信息识别模型的训练方法,包括:获取训练样本数据集,其中训练样本数据集中的训练样本包括文本信息及每个文本信息对应的初始类别标签,其中,文本信息至少包括目标关键词,初始类别标签用于表征文本信息为违规信息或者合规信息;构建初始文本信息识别模型,其中,初始文本信息识别模型中包括空洞卷积网络模块和双向长短期记忆网络模块,以及基于训练样本数据集对初始文本信息识别模型进行训练,得到文本信息识别模型。本公开还提供了文本信息识别方法、装置、计算机***、可读存储介质以及计算机程序产品。

Description

信息识别方法、装置、计算机***及可读存储介质
技术领域
本公开涉及计算机技术领域和互联网技术领域,更具体地,涉及一种文本信息识别模型的训练方法、文本信息识别方法、装置、计算机***、可读存储介质及计算机程序产品。
背景技术
随着生活水平的提高,以及计算机、互联网技术的不断发展,网络购物越来越普及。网络购物为现今的传统企业提供了一个很好的机会与平台,构建合理的网络购物平台不失为传统企业未来发展重心和出路。但是,随着入驻商铺越来越多,网络购物平台上各个店铺展示的网页信息中,可能存在一些违规信息。这样的违规信息展示,容易使消费者上当受骗,且后续无法追溯自己的合法利益。因此,为净化网络购物平台环境,需要对平台上展示的商品信息进行筛选与审核。
在实现本公开构思的过程中,发明人发现相关技术中至少存在如下问题:现有筛查方式需要大量的人力投入,工作效率低,审核准确度低,容易出现漏筛情况。
发明内容
有鉴于此,本公开提供了一种文本信息识别模型的训练方法、文本信息识别方法、装置、计算机***、可读存储介质及计算机程序产品。
本公开的一个方面提供了一种文本信息识别模型的训练方法,包括:
获取训练样本数据集,其中,上述训练样本数据集中的训练样本包括文本信息及每个文本信息对应的初始类别标签,其中,上述文本信息至少包括目标关键词,上述初始类别标签用于表征上述文本信息为违规信息或者合规信息;
构建初始文本信息识别模型,其中,上述初始文本信息识别模型包括空洞卷积网络模块和双向长短期记忆网络模块;以及
基于上述训练样本数据集对上述初始文本信息识别模型进行训练,得到文本信息识别模型。
根据本公开的实施例,其中,上述基于上述训练样本数据集对上述初始文本信息识别模型进行训练,得到文本信息识别模型包括:
基于上述训练样本数据集中的训练样本,构建上述初始文本信息识别模型的损失函数;其中,上述损失函数包括均方错误误差函数;
将上述训练样本输入至上述初始文本信息识别模型中,得到预测类别标签;
将上述预测类别标签与上述初始类别标签输入上述损失函数,得到损失结果;
根据上述损失结果调整上述初始文本信息识别模型中的参数,直到上述损失函数收敛;以及
将上述损失函数收敛时对应的模型作为上述文本信息识别模型。
根据本公开的实施例,其中,上述初始文本信息识别模型还包括特征向量表征网络、注意力机制层、输出层;
上述将上述训练样本输入至上述初始文本信息识别模型中,得到预测类别标签包括:
利用上述特征向量表征网络处理上述训练样本的文本信息,得到第一中间特征;
利用上述空洞卷积网络模块处理上述第一中间特征,得到第二中间特征;
利用上述双向长短期记忆网络模块处理上述第一中间特征,得到第三中间特征;
利用上述注意力机制层处理上述第二中间特征和上述第三中间特征,得到第四中间特征;以及
利用上述输出层处理上述第四中间特征,得到上述预测类别标签。
根据本公开的实施例,其中,上述空洞卷积网络模块包括依次串联的M个组合网络以及自注意力机制层,其中,上述组合网络包括并联的空洞卷积网络、池化层和归一化处理层;上述M为大于等于1的整数;
其中,上述双向长短期记忆网络模块包括依次串联的N个双向长短期记忆网络和自注意力机制层,其中,上述N为大于等于1的整数;
其中,上述输出层包括依次串联的全局池化层和X层线性层,其中X为大于等于1的整数。
根据本公开的实施例,其中,上述将上述预测类别标签与上述初始类别标签输入上述损失函数,得到损失结果包括:
基于上述预测类别标签与上述初始类别标签,通过均方错误误差函数分别计算违规信息类别的第一损失和合规信息类别的第二损失;以及
基于上述第一损失和上述第二损失,确定上述损失函数的损失。
根据本公开的实施例,还包括:
将上述训练样本输入至上述文本信息识别模型中,得到上述训练样本的预测类别标签;
将上述预测类别标签与上述训练样本的初始类别标签进行匹配,得到匹配结果,其中,上述匹配结果用于表征上述预测类别标签与上述初始类别标签是否一致;
在表征上述预测类别标签与上述初始类别标签一致的匹配结果数量满足预设条件的情况下,得到上述文本信息识别模型;
在表征上述预测类别标签与上述初始类别标签一致的匹配结果数量不满足上述预设条件的情况下,修改与上述预测类别标签不一致的初始类别标签;以及
基于修改标签后的训练样本训练上述文本信息识别模型。
根据本公开的实施例,上述获取训练样本数据集包括:
基于上述目标关键词获取电商平台中的初始文本信息;
对上述初始文本信息进行数据处理,得到上述文本信息;
利用先验知识对上述文本信息进行打标,得到上述文本信息的初始类别标签;以及
基于上述文本信息和上述初始类别标签,得到训练样本数据集。
本公开的另一方面提供了一种文本信息识别方法,包括:
获取待识别文本信息;
将上述待识别文本信息输入至上述文本信息识别模型,得到上述文本信息识别模型的输出结果;以及
根据上述文本信息识别模型的输出结果,确定上述待识别文本信息的预测结果,其中,上述预测结果为上述待识别信息是否为违规信息。
本公开的再一方面提供了一种文本信息识别模型的训练装置,包括:
第一获取模块,用于获取训练样本数据集,其中,上述训练样本数据集中的训练样本包括文本信息及每个文本信息对应的初始类别标签,其中,上述文本信息至少包括目标关键词,上述初始类别标签用于表征上述文本信息为违规信息或者合规信息;
构建模块,用于构建初始文本信息识别模型,其中,上述初始文本信息识别模型包括空洞卷积网络模块和双向长短期记忆网络模块;以及
训练模块,用于基于上述训练样本数据集对上述初始文本信息识别模型进行训练,得到文本信息识别模型。
本公开的再一方面提供一种文本信息识别装置,包括:
第二获取模块,用于获取待识别文本信息;
输入模块,用于将上述待识别文本信息输入至上述文本信息识别模型,得到上述文本信息识别模型的输出结果;
预测模块,用于根据上述文本信息识别模型的输出结果,确定上述待识别文本信息的预测结果,其中,上述预测结果为上述待识别信息是否为违规信息。
本公开的再一方面提供一种计算机***,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
其中,当上述一个或多个程序被上述一个或多个处理器执行时,使得上述一个或多个处理器实现上述的方法。
本公开的再一方面提供一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器实现上述的方法。
本公开的再一方面提供一种计算机程序产品,包括上述计算机程序,计算机程序包括计算机可执行指令,上述指令在被执行时用于实现上述的方法。
根据本公开的实施例,因为采用了一种文本信息识别模型的训练方法。该方法包括获取训练样本数据集,其中,训练样本数据集中的训练样本包括文本信息及每个文本信息对应的初始类别标签,其中,文本信息至少包括目标关键词,初始类别标签用于表征文本信息为违规信息或者合规信息;构建初始文本信息识别模型,其中,初始文本信息识别模型包括空洞卷积网络模块和双向长短期记忆网络模块;以及基于训练样本数据集对初始文本信息识别模型进行训练,得到文本信息识别模型的技术手段,利用空洞卷积网络模块和双向长短期记忆网络模块,兼顾了局部信息与长距离语义的特征两种优势,并利用人工智能的方式训练模型,使文本信息模型识别精度高;所以至少部分地克服了现有技术中人工筛查违规信息工作量大,筛查容易出错的技术问题,进而达到了高效、快速审核识别违规信息的技术效果。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了可以应用本公开的文本信息识别方法和装置的示例性***架构;
图2示意性示出了根据本公开实施例的文本信息识别模型的训练方法的流程图;
图3示意性示出了根据本公开实施例的获取训练样本数据集的流程图;
图4示意性示出了根据本公开实施例的初始文本信息识别模型的结构图;
图5示意性示出了根据本公开另一实施例的文本信息识别模型的训练方法的流程图;
图6示意性示出了根据本公开另一实施例的文本信息识别模型的训练方法的流程图;
图7示意性示出了根据本公开另一实施例的文本信息识别模型的训练方法的流程图;
图8示意性示出了根据本公开实施例的文本信息识别方法的流程图;
图9示意性示出了根据本公开实施例的文本信息识别模型的训练以及识别方法的流程图;
图10示意性示出了根据本公开实施例的文本信息识别模型的训练装置的框图;
图11示意性示出了根据本公开实施例的文本信息识别装置的框图;以及
图12示意性示出了根据本公开实施例的适于实现文本信息识别模型的训练方法的计算机***的框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的***”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的***等)。在使用类似于“A、B或C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B或C中至少一个的***”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的***等)。
在实际应用中,电商网站各个店铺中,存在店铺引流的问题。而店铺引流是一种比较严重的违规情况,具体表现为:店铺在售卖商品的同时,会在商品的宣传页上显示一些违规信息,例如其他平台的链接、名称、或者某些提示语。这些违规信息容易诱导购物者在非法平台进行购物,进而容易因为这种违规信息而上当受骗,导致购物者的购物体验非常不好,且最终无法追溯自己的合法利益。
不仅如此,这些违规信息对电商平台也是非常大的伤害。为了减少这种违规的信息展示,除了加强对商家的宣贯之外,平台往往能做的很少。
根据本公开的可选实施例,为了净化平台的环境,可以通过采用人工筛查的方式,筛选违规商品或者信息,但是这种方式效率太低,且容易有筛查漏检的情况,不能从根本上解决问题。
本公开的实施例提供了一种文本信息识别模型的训练方法。该方法包括获取训练样本数据集,其中,训练样本数据集中的训练样本包括文本信息及每个文本信息对应的初始类别标签,其中,文本信息至少包括目标关键词,初始类别标签用于表征文本信息为违规信息或者合规信息;构建初始文本信息识别模型,其中,初始文本信息识别模型包括空洞卷积网络模块和双向长短期记忆网络模块;以及基于训练样本数据集对初始文本信息识别模型进行训练,得到文本信息识别模型。
本公开的实施例还提供了一种文本信息识别方法。该方法包括获取待识别文本信息;将待识别文本信息输入至文本信息识别模型,得到文本信息识别模型的输出结果;以及根据文本信息识别模型输出的结果,确定待识别文本信息的预测结果,其中预测结果为待识别信息是否为违规信息。
根据本公开的实施例,基于该训练方法得到的文本信息识别模型,可以应用于电商网站中,来维持平台上信息安全,净化平台环境,提高用户的购物体验。
图1示意性示出了根据本公开实施例的可以应用文本信息识别方法和装置的示例性***架构100。需要注意的是,图1所示仅为可以应用本公开实施例的***架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、***、环境或场景。
如图1所示,根据该实施例的***架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线和/或无线通信链路等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如违规信息识别类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端和/或社交平台软件等(仅为示例)。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的文本信息识别方法一般可以由服务器105执行。相应地,本公开实施例所提供的文本信息识别装置一般可以设置于服务器105中。本公开实施例所提供的文本信息识别方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的文本信息识别装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。
例如,待识别文本信息可以原本存储在终端设备101、102、或103中的任意一个(例如,终端设备101,但不限于此)之中,或者存储在外部存储设备上并可以导入到终端设备101中。然后,终端设备101可以将训练样本数据集发送到其他终端设备、服务器、或服务器集群,并由接收该训练样本数据集的其他服务器、或服务器集群来执行本公开实施例所提供的文本信息识别模型的训练方法。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
图2示意性示出了根据本公开实施例的文本信息识别模型的训练方法的流程图。
如图2所示,该方法包括操作S210~S230。
在操作S210,获取训练样本数据集,其中,训练样本数据集中的训练样本包括文本信息及每个文本信息对应的初始类别标签,其中,文本信息至少包括目标关键词,初始类别标签用于表征文本信息为违规信息或者合规信息。
根据本公开的实施例,训练样本数据集中的训练样本包括文本信息,文本信息至少包括目标关键词。
在操作S220,构建初始文本信息识别模型,其中,初始文本信息识别模型包括空洞卷积网络模块和双向长短期记忆网络模块。
根据本公开的实施例,在初始文本信息识别模型的构建过程中,使用了空洞卷积网络模块与双向长短期记忆网络模块两个模块共同开发模型。
根据本公开的实施例,本公开的文本信息与一般的文本语义不同,决定文本信息的词有的时候会距离目标关键词较远的地方出现,利用双向长短期记忆网络模块可以更好的捕捉长距离的信息;利用空洞卷积网络模块可以针对文本信息的局部特征捕捉非常到位。
在操作S230,基于训练样本数据集对初始文本信息识别模型进行训练,得到文本信息识别模型。
根据本公开的实施例,构建了包括空洞卷积网络模块与双向长短期记忆网络模块两个模块的模型,兼顾了局部信息与长距离语义的特征两种优势,并利用人工智能的方式训练模型,使文本信息模型识别精度高。
下面参考图3~图9,结合具体实施例对图2所示的方法做进一步说明。
图3示意性示出了根据本公开实施例的获取训练样本数据集的流程图。
如图3所示,获取训练样本数据集包括操作S310~S340。
在操作S310,基于目标关键词获取电商平台中的初始文本信息。
根据本公开的实施例,目标关键词可以为英文字母串,如alibaba、tmall等;还可以是中文名称,例如淘宝,天猫,苏宁等。在本公开的可选实施例中,可以先收集关键词,然后对关键词进行评估,根据评估标准确定目标关键词。根据本公开的实施例,其评估标准包括违规量级以及业务严重性。
根据本公开的实施例,可以根据实际情况,首先确定目标关键词,基于目标关键词,利用爬虫技术爬取初始文本信息。
在操作S320,对初始文本信息进行数据处理,得到文本信息。
根据本公开的实施例,不同的电商展示的初始文本信息的格式不同。可以对初始文本信息进行例如清洗、格式转换、删除等数据处理。
例如,只提取初始文本信息中的包含中文、英文、数字和/或空格的字符。其余字符抛弃。
例如,将所有的英文都转换为小写字母。
例如,对一些stopwords进行过滤,去掉一些没有实际意义的词,比如,我、我们、你、你们等等。
例如,还可以针对较长的句子,在目标关键词周围进行一定长度的文字截取,截取目标关键词前后各50个字符,作为最终的文本信息。
根据本公开的实施例,采用数据处理的方式得到文本信息,得到简洁、干净的训练样本数据集。
在操作S330,利用先验知识对文本信息进行打标,得到文本信息的初始类别标签。
根据本公开的实施例,先验知识可以是根据大量统计数据分析得到,先验知识可以为,目标关键词“苏宁”和足球队、苏宁置业一起出现的时候,多数为不违规信息;“天猫”和精灵一起出现的时候,也是不违规的;http和tmall、taobao一起出现的时候,多数是违规的。
根据本公开的其他实施例,对文本信息进行达标,可以采用人工标注的方式。但是此方式需要大量的人力投入。
根据本公开的实施例,并不局限于采用人工标注的方式,还可以利用先验知识机器打标,不仅解放人工标注数据工作量,而且减少在打标过程中的人工参与程度。
在操作S340,基于文本信息和初始类别标签,得到训练样本数据集。
根据本公开的实施例,基于本公开的数据处理方法得到的文本信息以及初始类别标签,解放人力,无需人工标注,且有利于后续训练时提高训练速度。
图4示意性示出了根据本公开实施例的初始文本信息识别模型的结构图。
如图4所示,初始文本信息识别模型依次顺序包括特征向量表征网络(Embedding)、并联的空洞卷积网络模块和双向长短期记忆网络模块、注意力机制层(attention)和输出层。
根据本公开的实施例,利用并联的空洞卷积网络模块和双向长短期记忆网络模块可以更好的捕捉文本信息:将其拼接起来使用,提取的信息特征,兼顾了局部信息与长距离语义的特征。在空洞卷积网络模块和双向长短期记忆网络模块之后加入注意力机制层,更有助于提取有用的特征。
根据本公开的实施例,特征向量表征网络用于输入文本信息的特征表征,初始化的时候可以采用随机模型,但是并不局限于此,还可以使用预训练模型提取特征向量。比如word2vec、fasttext等预训练模型。
根据本公开的实施例,初始化的随机模型所需要的训练时间较长,而使用预训练模型引入了一些先验知识,收敛速度快、训练的时间较短。
根据本公开的实施例,空洞卷积网络模块包括依次串联的M个组合网络以及自注意力机制层(self attention),其中,组合网络包括并联的空洞卷积网络、池化层(maxpooling)和归一化处理层(bn);M为大于等于1的整数。
根据本公开的实施例,空洞卷积网络模块允许随着数据集复杂程度的不同,允许增加或者减少模型的复杂度。通过超参数M来设定。该参数主要是表征空洞卷积网络模块的重复次数。值取值范围是M>=1。由于空洞卷积网络模块使用了自注意力机制层,所以空洞卷积网络模块在输入与输出的维度上必须保持一致,可以是128、256,但是并不局限于此,只是数据维度再大,会导致计算资源的飙升。
根据本公开的实施例,自注意力机制层的计算公式(1)如下:
K=cnn-output*wk
Q=cnn_output*Wq
V=cnn_output*wv
Figure BDA0002942611290000131
其中,atten_output为自注意力基质层的输出结果;cnn_output为组合网络输出结果;K为键向量(Key Vector)矩阵;Q为查询向量(Query Vector)矩阵;V为值向量(ValueVector)矩阵;Wk为K的权重;Wq为Q的权重;Wv为V的权重;dim为权重。
根据本公开的其他实施例,可以将自注意力机制层的softmax函数,改成sigmoid函数。前提是在文本信息识别模型基本收敛之后,更改为sigmoid函数有效果。即在开始训练的时候使用正常的softmax函数作为自注意力机制层的激活函数,后续模型收敛之后,使用sigmoid函数代替softmax函数,继续训练一段时间。
根据本公开的其他实施例,使用sigmoid函数作为自注意力机制层的激活函数,具体的计算公式(2)如下:
K=cnn_output*Wk
Q=cnn_output*wq
V=cnn_output*Wv
Figure BDA0002942611290000132
其中,atten_output为自注意力基质层的输出结果;cnn_output为组合网络输出结果;K为键向量(Key Vector)矩阵;Q为查询向量(Query Vector)矩阵;V为值向量(ValueVector)矩阵;Wk为K的权重;Wq为Q的权重;Wv为V的权重;dim为权重。
根据本公开的实施例,双向长短期记忆网络模块包括依次串联的N个双向长短期记忆网络(Bi-LSTM)和自注意力机制层,其中,N为大于等于1的整数。
根据本公开的实施例,为了增加整体模型的灵活性,双向长短期记忆网络模块也可以采取可调节的模型结构,可以通过N来调节双向长短期记忆网络模块的重复次数。
根据本公开的可选实施例,由于双向长短期记忆网络模块的参数量较大,可以将N设定为1、2或3。
根据本公开的实施例,双向长短期记忆网络模块的自注意力机制层可以采用softmax函数作为激活函数;但是并不局限于此,还可以将双向长短期记忆网络模块的自注意力机制层的softmax函数改成sigmoid函数。前提是在文本信息识别模型基本收敛之后,更改为sigmoid函数有效果。即在开始训练的时候使用正常的softmax函数作为自注意力机制层的激活函数,后续模型收敛之后,使用sigmoid函数代替softmax函数,继续训练一段时间。
根据本公开的实施例,空洞卷积网络模块和双向长短期记忆网络模块之后加入注意力机制层,采用了如下策略,具体计算公式(3)如下:
K=block1_output*wk
Q=block2_output*Wq
V=block1_output*wv
Figure BDA0002942611290000141
其中,atten_output为注意力基质层的输出结果;block1_output为空洞卷积网络模块输出结果;block2_output为双向长短期记忆网络模块输出结果;K为键向量(KeyVector)矩阵;Q为查询向量(Query Vector)矩阵;V为值向量(Value Vector)矩阵;Wk为K的权重;Wq为Q的权重;Wv为V的权重;dim为权重。
根据本公开的实施例,输出层包括依次串联的全局池化层(global averagepooling)和X层线性层(liner),其中X为大于等于1的整数。
根据本公开的实施例,线性层部分为了增加灵活性,也可以设定可调节参数X。在本公开的实施例中,X可以为1或2。
根据本公开的实施例,本公开实施例由初始文本信息识别模型训练得到的文本信息识别模型的网络框架图也可以如图4所示,只是其模型参数不同,在此不再赘述。
图5示意性示出了根据本公开另一实施例的文本信息识别模型的训练方法的流程图。
如图5所示,将训练样本输入至初始文本信息识别模型中,得到预测类别标签包括操作S510、S521、S522、S530和S540。
在操作S510,利用特征向量表征网络处理训练样本的文本信息,得到第一中间特征。
在操作S521,利用空洞卷积网络模块处理第一中间特征,得到第二中间特征。
在操作S522,利用双向长短期记忆网络模块处理第一中间特征,得到第三中间特征。
在操作S530,利用注意力机制层处理第二中间特征和第三中间特征,得到第四中间特征。
在操作S540,利用输出层处理第四中间特征,得到预测类别标签。
根据本公开实施例,初始文本信息识别模型利用并联的空洞卷积网络模块和双向长短期记忆网络模块可以更好的捕捉文本信息:将其拼接起来使用,提取的第四中间特征,兼顾了局部信息与长距离语义的特征。在空洞卷积网络模块和双向长短期记忆网络模块之后加入注意力机制层,更有助于提取有用的特征。
图6示意性示出了根据本公开另一实施例的文本信息识别模型的训练方法的流程图。
如图6所示,基于训练样本数据集对初始文本信息识别模型进行训练,得到文本信息识别模型包括操作S610~S650。
在操作S610,基于训练样本数据集中的训练样本,构建初始文本信息识别模型的损失函数;其中,损失函数包括均方错误误差函数。
在操作S620,将训练样本输入至初始文本信息识别模型中,得到预测类别标签。
在操作S630,将预测类别标签与初始类别标签输入损失函数,得到损失结果。
在操作S640,根据损失结果调整初始文本信息识别模型中的参数,直到损失函数收敛。
在操作S650,将损失函数收敛时对应的模型作为文本信息识别模型。
根据本公开的实施例,其中,将预测类别标签与初始类别标签输入损失函数,得到损失结果可以包括基于预测类别标签与初始类别标签,通过均方错误误差函数分别计算违规信息类别的第一损失和合规信息类别的第二损失;基于第一损失和第二损失,确定损失函数的损失。
根据本公开的实施例,使用了均方错误误差(Mean Squared False Error,MSFE)构建了损失函数,该损失函数的损失具体计算公式(4)如下:
Figure BDA0002942611290000161
Figure BDA0002942611290000162
其中,n为训练样本数量;m为类别数量;Losscategory为每个类别的损失;Loss为损失函数的损失;ground_truth为初始样本标签;pred为预测样本标签。
分别计算每个类别的损失,取均值,然后在不同类别之间损失计算平均值。
根据本公开的其他实施例,还可以采用交叉熵损失函数,focal loss等。
但是采用msfe构建的损失函数,数据中噪音小,且经损失经验证比单纯的使用交叉熵在不平衡数据集熵效果要好。
图7示意性示出了根据本公开另一实施例的文本信息识别模型的训练方法的流程图。
如图7所示,该方法包括操作S710、S720、S731、S732和S740。
根据本公开的实施例,该训练样本的初始类别标签为机器打标,存在一定的错误率,以具有机器打标得到的初始类别标签的训练样本进行训练得到的文本信息识别模型,其识别精度可以通过多次迭代优化来提高。
根据本公开的实施例,优化训练方式可以通过操作S710、S720、S731、S732和S740来实现。
在操作S710,将训练样本输入至文本信息识别模型中,得到训练样本的预测类别标签。
根据本公开的实施例,可以利用训练好的文本信息识别模型,对之前的训练样本数据集重新进行预测,得到训练样本的预测类别标签。
在操作S720,将预测类别标签与训练样本的初始类别标签进行匹配,得到匹配结果,其中,匹配结果用于表征预测类别标签与初始类别标签是否一致。
根据本公开的实施例,将预测类别标签与对应的初始类别标签进行匹配,得到匹配结果。收集预测类别标签与训练样本的初始类别标签不一致的数据。
在操作S731,在表征预测类别标签与初始类别标签一致的匹配结果数量满足预设条件的情况下,得到文本信息识别模型。
根据本公开的实施例,该预设条件可以为表征预测类别标签与初始类别标签一致的匹配结果数量占训练样本数量的100%,在预设条件为100%时,表明预测类别标签与初始类别标签完全一致。但是并不局限于此,还可以是90%、80%。
根据本公开的实施例,在满足预设条件的情况下,则认为文本信息识别模型已经完成最终的训练。
在操作S732,在表征预测类别标签与初始类别标签一致的匹配结果数量不满足预设条件的情况下,修改与预测类别标签不一致的初始类别标签。
在操作S740,基于修改标签后的训练样本训练文本信息识别模型。
根据本公开的实施例,在表征预测类别标签与初始类别标签一致的匹配结果数量不满足预设条件的情况下,有可能是初始类别标签标注错误的问题,也有可能是文本信息识别模型预测错误的问题。
根据本公开的实施例,可以人为对匹配结果不一致的初始类别标签进行审查,进行判断。
根据本公开的实施例,如果是初始类别标签的标注问题,则人为修改初始类别标签,然后基于修改标签后的训练样本重新训练文本信息识别模型。
根据本公开的其他实施例,如果是文本信息识别模型的预测问题,则调整模型的参数,例如调整模型中的M、N等的值,或者采用更少的训练样本的样本数量。然后用训练样本集对模型重新进行训练。
根据本公开的实施例,提供一种新的模型训练方式,采用机器打标,并进行反复迭代,反复小批量的纠正错误的数据的方式训练模型,不需要人为一次性标注大量数据,解放了人力,节省了成本。
图8示意性示出了根据本公开实施例的文本信息识别方法的流程图。
如图8所示,该方法包括操作S810~S830。
在操作S810,获取待识别文本信息;
在操作S820,将待识别文本信息输入至文本信息识别模型,得到文本信息识别模型的输出结果;以及
在操作S830,根据文本信息识别模型的输出结果,确定待识别文本信息的预测结果,其中,预测结果为待识别信息是否为违规信息。
根据本公开的其他实施例,对文本信息进行识别审核,可以组织人工进行抽审,但是审核范围有限,不可能覆盖全部的商品,而且人工审核的标准不一,容易造成误判,引起商家投诉。
根据本公开的实施例,利用文本信息识别模型来识别购物平台上的违规信息,识别精度高、速度快,不仅净化了平台的环境,而且解放了人力,从根本上解决筛选违规信息的问题。
下面结合具体实施例对本公开的技术方案作进一步说明,但需要注意的是,下述的实施例仅用于说明本公开的技术方案,但本公开并不限于此。
图9示意性示出了根据本公开另一实施例的文本信息识别模型的训练以及识别方法的流程图。
如图9所示,本公开实施例的整体流程可以包括,1、收集关键词并进行关键词评估;2、确定目标关键词;3、提取包含目标关键词的初始文本信息;4、对初始文本信息进行数据清洗,得到文本信息,并对文本信息进行打标签,得到训练样本数据集;5、构建模型,利用训练样本数据集中的训练样本进行模型训练;6、基于训练后的模型对训练样本进行再一次预测,基于预测结果进行模型评估,反复迭代训练;7、得到最终文本信息识别模型;8、将训练好的模型,放在线上进行部署,使其可以对外提供服务,对于新的文本信息进行预测的时候,首先需要对文本信息进行数据清洗,然后再调用模型进行预测。
根据本公开的实施例,本公开提出了一种新的多个维度的文本信息识别方法来识别店铺引流,该方法提高了识别准确率,节省了人力成本。
图10示意性示出了根据本公开的实施例的文本信息识别模型的训练装置的框图。
如图10所示,文本信息识别模型的训练装置1000包括第一获取模块1010、构建模块1020和训练模块1030。
第一获取模块1010,用于获取训练样本数据集,其中,训练样本数据集中的训练样本包括文本信息及每个文本信息对应的初始类别标签,其中,文本信息至少包括目标关键词,初始类别标签用于表征文本信息为违规信息或者合规信息;
构建模块1020,用于构建初始文本信息识别模型,其中,初始文本信息识别模型包括空洞卷积网络模块和双向长短期记忆网络模块;以及
训练模块1030,用于基于训练样本数据集对初始文本信息识别模型进行训练,得到文本信息识别模型。
图11示意性示出了根据本公开的实施例的文本信息识别装置的框图。
如图11所示,文本信息识别装置1100包括第二获取模块1110、输入模块1120和预测模块1130。
第二获取模块1110,用于获取待识别文本信息;
输入模块1120,用于将待识别文本信息输入至本公开的文本信息识别模型,得到文本信息识别模型的输出结果;
预测模块1130,用于根据文本信息识别模型的输出结果,确定待识别文本信息的预测结果,其中,预测结果为待识别信息是否为违规信息。
根据本公开的实施例,训练模块包括构建单元、第一输入单元、第二输入单元、调整单元,确认单元。
构建单元,用于基于训练样本数据集中的训练样本,构建初始文本信息识别模型的损失函数;其中,损失函数包括均方错误误差函数;
第一输入单元,用于将训练样本输入至初始文本信息识别模型中,得到预测类别标签;
第二输入单元,用于将预测类别标签与初始类别标签输入损失函数,得到损失结果;
调整单元,用于根据损失结果调整初始文本信息识别模型中的参数,直到损失函数收敛;以及
确认单元,用于将损失函数收敛时对应的模型作为文本信息识别模型。
根据本公开的实施例,初始文本信息识别模型还包括特征向量表征网络、注意力机制层、输出层。
根据本公开的实施例,第一输入单元包括第一子单元、第二子单元、第三子单元、第四子单元及第五子单元。
第一子单元,用于利用特征向量表征网络处理训练样本的文本信息,得到第一中间特征;
第二子单元,用于利用空洞卷积网络模块处理第一中间特征,得到第二中间特征;
第三子单元,用于利用双向长短期记忆网络模块处理第一中间特征,得到第三中间特征;
第四子单元,用于利用注意力机制层处理第二中间特征和第三中间特征,得到第四中间特征;以及
第五子单元,用于利用输出层处理第四中间特征,得到预测类别标签。
根据本公开的实施例,空洞卷积网络模块包括依次串联的M个组合网络以及自注意力机制层,其中,组合网络包括并联的空洞卷积网络、池化层和归一化处理层;M为大于等于1的整数;
其中,双向长短期记忆网络模块包括依次串联的N个双向长短期记忆网络和自注意力机制层,其中,N为大于等于1的整数;
其中,输出层包括依次串联的全局池化层和X层线性层,其中X为大于等于1的整数。
根据本公开的实施例,第二输入单元包括第六子单元和第七子单元。
第六子单元,用于基于预测类别标签与初始类别标签,通过均方错误误差函数分别计算违规信息类别的第一损失和合规信息类别的第二损失;以及
第七子单元,用于基于第一损失和第二损失,确定损失函数的损失。
根据本公开的实施例,训练装置还包括训练预测模块、匹配模块、模型确认模块、修改模块以及迭代训练模块。
训练预测模块,用于将训练样本输入至文本信息识别模型中,得到训练样本的预测类别标签;
匹配模块,用于将预测类别标签与训练样本的初始类别标签进行匹配,得到匹配结果,其中,匹配结果用于表征预测类别标签与初始类别标签是否一致;
模型确认模块,用于在表征预测类别标签与初始类别标签一致的匹配结果数量满足预设条件的情况下,得到文本信息识别模型;
修改模块,用于在表征预测类别标签与初始类别标签一致的匹配结果数量不满足预设条件的情况下,修改与预测类别标签不一致的初始类别标签;以及
迭代训练模块,用于基于修改标签后的训练样本训练文本信息识别模型。
根据本公开的实施例,第一获取模块包括初始文本获取单元、数据处理单元、打标单元以及数据集得到单元。
初始文本获取单元,用于基于目标关键词获取电商平台中的初始文本信息;
数据处理单元,用于对初始文本信息进行数据处理,得到文本信息;
打标单元,用于利用先验知识对文本信息进行打标,得到文本信息的初始类别标签;以及
数据集得到单元,用于基于文本信息和初始类别标签,得到训练样本数据集。
根据本公开的实施例的模块、子模块、单元、子单元中的任意多个、或其中任意多个的至少部分功能可以在一个模块中实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以被拆分成多个模块来实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上***、基板上的***、封装上的***、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,根据本公开实施例的模块、子模块、单元、子单元中的一个或多个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
例如,第一获取模块1010、构建模块1020和训练模块1030中的任意多个可以合并在一个模块/单元/子单元中实现,或者其中的任意一个模块/单元/子单元可以被拆分成多个模块/单元/子单元。或者,这些模块/单元/子单元中的一个或多个模块/单元/子单元的至少部分功能可以与其他模块/单元/子单元的至少部分功能相结合,并在一个模块/单元/子单元中实现。根据本公开的实施例,第一获取模块1010、构建模块1020和训练模块1030中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上***、基板上的***、封装上的***、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,第一获取模块1010、构建模块1020和训练模块1030中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
需要说明的是,本公开的实施例中文本信息识别模型的训练装置部分与本公开的实施例中文本信息识别模型的训练方法部分是相对应的,文本信息识别模型的训练装置部分的描述具体参考文本信息识别模型的训练方法部分,在此不再赘述。
图12示意性示出了根据本公开实施例的适于实现上文描述的方法的计算机***的框图。图12示出的计算机***仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图12所示,根据本公开实施例的计算机***1200包括处理器1201,其可以根据存储在只读存储器(ROM)1202中的程序或者从存储部分1208加载到随机访问存储器(RAM)1203中的程序而执行各种适当的动作和处理。处理器1201例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器1201还可以包括用于缓存用途的板载存储器。处理器1201可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 1203中,存储有***1200操作所需的各种程序和数据。处理器1201、ROM1202以及RAM 1203通过总线1204彼此相连。处理器1201通过执行ROM 1202和/或RAM 1203中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 1202和RAM 1203以外的一个或多个存储器中。处理器1201也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,***1200还可以包括输入/输出(I/O)接口1205,输入/输出(I/O)接口1205也连接至总线1204。***1200还可以包括连接至I/O接口1205的以下部件中的一项或多项:包括键盘、鼠标等的输入部分1206;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1207;包括硬盘等的存储部分1208;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分1209。通信部分1209经由诸如因特网的网络执行通信处理。驱动器1210也根据需要连接至I/O接口1205。可拆卸介质1211,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1210上,以便于从其上读出的计算机程序根据需要被安装入存储部分1208。
根据本公开的实施例,根据本公开实施例的方法流程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读存储介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分1209从网络上被下载和安装,和/或从可拆卸介质1211被安装。在该计算机程序被处理器1201执行时,执行本公开实施例的***中限定的上述功能。根据本公开的实施例,上文描述的***、设备、装置、模块、单元等可以通过计算机程序模块来实现。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/***中所包含的;也可以是单独存在,而未装配入该设备/装置/***中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质。例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 1202和/或RAM 1203和/或ROM 1202和RAM 1203以外的一个或多个存储器。
本公开的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行本公开实施例所提供的方法的程序代码,当计算机程序产品在电子设备上运行时,该程序代码用于使电子设备实现本公开实施例所提供的文本信息识别模型的训练方法或文本信息识别方法。
在该计算机程序被处理器1201执行时,执行本公开实施例的***/装置中限定的上述功能。根据本公开的实施例,上文描述的***、装置、模块、单元等可以通过计算机程序模块来实现。
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分1209被下载和安装,和/或从可拆卸介质1211被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
根据本公开的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。

Claims (13)

1.一种文本信息识别模型的训练方法,包括:
获取训练样本数据集,其中,所述训练样本数据集中的训练样本包括文本信息及每个文本信息对应的初始类别标签,其中,所述文本信息至少包括目标关键词,所述初始类别标签用于表征所述文本信息为违规信息或者合规信息;
构建初始文本信息识别模型,其中,所述初始文本信息识别模型包括空洞卷积网络模块和双向长短期记忆网络模块;以及
基于所述训练样本数据集对所述初始文本信息识别模型进行训练,得到文本信息识别模型。
2.根据权利要求1所述的方法,其中,所述基于所述训练样本数据集对所述初始文本信息识别模型进行训练,得到文本信息识别模型包括:
基于所述训练样本数据集中的训练样本,构建所述初始文本信息识别模型的损失函数;其中,所述损失函数包括均方错误误差函数;
将所述训练样本输入至所述初始文本信息识别模型中,得到预测类别标签;
将所述预测类别标签与所述初始类别标签输入所述损失函数,得到损失结果;
根据所述损失结果调整所述初始文本信息识别模型中的参数,直到所述损失函数收敛;以及
将所述损失函数收敛时对应的模型作为所述文本信息识别模型。
3.根据权利要求2所述的方法,其中,所述初始文本信息识别模型还包括特征向量表征网络、注意力机制层、输出层;
所述将所述训练样本输入至所述初始文本信息识别模型中,得到预测类别标签包括:
利用所述特征向量表征网络处理所述训练样本的文本信息,得到第一中间特征;
利用所述空洞卷积网络模块处理所述第一中间特征,得到第二中间特征;
利用所述双向长短期记忆网络模块处理所述第一中间特征,得到第三中间特征;
利用所述注意力机制层处理所述第二中间特征和所述第三中间特征,得到第四中间特征;以及
利用所述输出层处理所述第四中间特征,得到所述预测类别标签。
4.根据权利要求3所述的方法,其中,所述空洞卷积网络模块包括依次串联的M个组合网络以及自注意力机制层,其中,所述组合网络包括并联的空洞卷积网络、池化层和归一化处理层;所述M为大于等于1的整数;
其中,所述双向长短期记忆网络模块包括依次串联的N个双向长短期记忆网络和自注意力机制层,其中,所述N为大于等于1的整数;
其中,所述输出层包括依次串联的全局池化层和X层线性层,其中X为大于等于1的整数。
5.根据权利要求2所述的方法,其中,所述将所述预测类别标签与所述初始类别标签输入所述损失函数,得到损失结果包括:
基于所述预测类别标签与所述初始类别标签,通过均方错误误差函数分别计算违规信息类别的第一损失和合规信息类别的第二损失;以及
基于所述第一损失和所述第二损失,确定所述损失函数的损失。
6.根据权利要求1所述的方法,还包括:
将所述训练样本输入至所述文本信息识别模型中,得到所述训练样本的预测类别标签;
将所述预测类别标签与所述训练样本的初始类别标签进行匹配,得到匹配结果,其中,所述匹配结果用于表征所述预测类别标签与所述初始类别标签是否一致;
在表征所述预测类别标签与所述初始类别标签一致的匹配结果数量满足预设条件的情况下,得到所述文本信息识别模型;
在表征所述预测类别标签与所述初始类别标签一致的匹配结果数量不满足所述预设条件的情况下,修改与所述预测类别标签不一致的初始类别标签;以及
基于修改标签后的训练样本训练所述文本信息识别模型。
7.根据权利要求1所述的方法,所述获取训练样本数据集包括:
基于所述目标关键词获取电商平台中的初始文本信息;
对所述初始文本信息进行数据处理,得到所述文本信息;
利用先验知识对所述文本信息进行打标,得到所述文本信息的初始类别标签;以及
基于所述文本信息和所述初始类别标签,得到训练样本数据集。
8.一种文本信息识别方法,包括:
获取待识别文本信息;
将所述待识别文本信息输入至所述如权利要求1至7任一项所述文本信息识别模型,得到所述文本信息识别模型的输出结果;以及
根据所述文本信息识别模型的输出结果,确定所述待识别文本信息的预测结果,其中,所述预测结果为所述待识别信息是否为违规信息。
9.一种文本信息识别模型的训练装置,包括:
第一获取模块,用于获取训练样本数据集,其中,所述训练样本数据集中的训练样本包括文本信息及每个文本信息对应的初始类别标签,其中,所述文本信息至少包括目标关键词,所述初始类别标签用于表征所述文本信息为违规信息或者合规信息;
构建模块,用于构建初始文本信息识别模型,其中,所述初始文本信息识别模型包括空洞卷积网络模块和双向长短期记忆网络模块;以及
训练模块,用于基于所述训练样本数据集对所述初始文本信息识别模型进行训练,得到文本信息识别模型。
10.一种文本信息识别装置,包括:
第二获取模块,用于获取待识别文本信息;
输入模块,用于将所述待识别文本信息输入至所述如权利要求1至7任一项所述文本信息识别模型,得到所述文本信息识别模型的输出结果;
预测模块,用于根据所述文本信息识别模型的输出结果,确定所述待识别文本信息的预测结果,其中,所述预测结果为所述待识别信息是否为违规信息。
11.一种计算机***,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现权利要求1至7中任一项或权利要求8所述的方法。
12.一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器实现权利要求1至7中任一项或权利要求8所述的方法。
13.一种计算机程序产品,包括计算机程序,所述计算机程序包括计算机可执行指令,所述指令在被执行时用于实现权利要求1至7中任一项或权利要求8所述的方法。
CN202110186799.8A 2021-02-10 2021-02-10 信息识别方法、装置、计算机***及可读存储介质 Pending CN113779240A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110186799.8A CN113779240A (zh) 2021-02-10 2021-02-10 信息识别方法、装置、计算机***及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110186799.8A CN113779240A (zh) 2021-02-10 2021-02-10 信息识别方法、装置、计算机***及可读存储介质

Publications (1)

Publication Number Publication Date
CN113779240A true CN113779240A (zh) 2021-12-10

Family

ID=78835597

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110186799.8A Pending CN113779240A (zh) 2021-02-10 2021-02-10 信息识别方法、装置、计算机***及可读存储介质

Country Status (1)

Country Link
CN (1) CN113779240A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114301713A (zh) * 2021-12-30 2022-04-08 中国工商银行股份有限公司 风险访问检测模型的训练方法、风险访问检测方法及装置
CN114780719A (zh) * 2022-03-28 2022-07-22 京东城市(北京)数字科技有限公司 文本分类模型的训练方法、文本分类方法及装置
CN115550506A (zh) * 2022-09-27 2022-12-30 中国电信股份有限公司 用户识别模型的训练、用户识别方法和装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110162799A (zh) * 2018-11-28 2019-08-23 腾讯科技(深圳)有限公司 模型训练方法、机器翻译方法以及相关装置和设备
CN110321566A (zh) * 2019-07-10 2019-10-11 北京邮电大学 中文命名实体识别方法、装置、计算机设备和存储介质
WO2019214149A1 (zh) * 2018-05-11 2019-11-14 平安科技(深圳)有限公司 文本关键信息的识别方法、电子装置及可读存储介质
WO2020165610A1 (en) * 2019-02-15 2020-08-20 Sophos Limited Systems and methods for conducting a security recognition task
CN111881262A (zh) * 2020-08-06 2020-11-03 重庆邮电大学 基于多通道神经网络的文本情感分析方法
CN112036509A (zh) * 2020-09-30 2020-12-04 北京百度网讯科技有限公司 用于训练图像识别模型的方法和装置
CN112182229A (zh) * 2020-11-05 2021-01-05 江西高创保安服务技术有限公司 一种文本分类模型构建方法、文本分类方法及装置
CN112214418A (zh) * 2020-12-04 2021-01-12 支付宝(杭州)信息技术有限公司 一种应用程序的合规检测方法、装置和电子设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019214149A1 (zh) * 2018-05-11 2019-11-14 平安科技(深圳)有限公司 文本关键信息的识别方法、电子装置及可读存储介质
CN110162799A (zh) * 2018-11-28 2019-08-23 腾讯科技(深圳)有限公司 模型训练方法、机器翻译方法以及相关装置和设备
WO2020165610A1 (en) * 2019-02-15 2020-08-20 Sophos Limited Systems and methods for conducting a security recognition task
CN110321566A (zh) * 2019-07-10 2019-10-11 北京邮电大学 中文命名实体识别方法、装置、计算机设备和存储介质
CN111881262A (zh) * 2020-08-06 2020-11-03 重庆邮电大学 基于多通道神经网络的文本情感分析方法
CN112036509A (zh) * 2020-09-30 2020-12-04 北京百度网讯科技有限公司 用于训练图像识别模型的方法和装置
CN112182229A (zh) * 2020-11-05 2021-01-05 江西高创保安服务技术有限公司 一种文本分类模型构建方法、文本分类方法及装置
CN112214418A (zh) * 2020-12-04 2021-01-12 支付宝(杭州)信息技术有限公司 一种应用程序的合规检测方法、装置和电子设备

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114301713A (zh) * 2021-12-30 2022-04-08 中国工商银行股份有限公司 风险访问检测模型的训练方法、风险访问检测方法及装置
CN114780719A (zh) * 2022-03-28 2022-07-22 京东城市(北京)数字科技有限公司 文本分类模型的训练方法、文本分类方法及装置
CN115550506A (zh) * 2022-09-27 2022-12-30 中国电信股份有限公司 用户识别模型的训练、用户识别方法和装置
CN115550506B (zh) * 2022-09-27 2024-08-23 中国电信股份有限公司 用户识别模型的训练、用户识别方法和装置

Similar Documents

Publication Publication Date Title
CN111107048B (zh) 一种钓鱼网站检测方法、装置和存储介质
CN113779240A (zh) 信息识别方法、装置、计算机***及可读存储介质
CN107153716B (zh) 网页内容提取方法和装置
WO2017121076A1 (zh) 信息推送方法和装置
CN113986864A (zh) 日志数据处理方法、装置、电子设备及存储介质
CN113507419B (zh) 流量分发模型的训练方法、流量分发方法及装置
CN107291774B (zh) 错误样本识别方法和装置
CN113393299A (zh) 推荐模型训练方法、装置、电子设备和存储介质
CN113128773B (zh) 地址预测模型的训练方法、地址预测方法及装置
CN113051911A (zh) 提取敏感词的方法、装置、设备、介质及程序产品
CN114363019A (zh) 钓鱼网站检测模型的训练方法、装置、设备及存储介质
CN118018278A (zh) 访问控制方法、装置、设备、介质和程序产品
CN116089732B (zh) 基于广告点击数据的用户偏好识别方法及***
CN117216393A (zh) 信息推荐方法、信息推荐模型的训练方法及装置、设备
CN116720489A (zh) 页面填充方法及装置、电子设备和计算机可读存储介质
CN115525781A (zh) 多模态虚假信息检测方法、装置和设备
CN116434218A (zh) 适用于移动端的支票识别方法、装置、设备和介质
CN112906726A (zh) 模型训练方法、图像处理方法、装置、计算设备、介质
CN115292187A (zh) 无编码的页面自动测试方法、装置、电子设备和介质
CN113869904B (zh) 可疑数据识别方法、装置、电子设备、介质和计算机程序
CN113609018A (zh) 测试方法、训练方法、装置、设备、介质和程序产品
CN114358024A (zh) 日志分析方法、装置、设备、介质和程序产品
CN114416422A (zh) 问题定位方法、装置、设备、介质和程序产品
CN113392215A (zh) 生产问题分类模型的训练方法、生产问题分类方法及装置
CN113052509A (zh) 模型评估方法、模型评估装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination