CN111221966A - 一种文本语义关系提取方法及*** - Google Patents

一种文本语义关系提取方法及*** Download PDF

Info

Publication number
CN111221966A
CN111221966A CN201911412034.0A CN201911412034A CN111221966A CN 111221966 A CN111221966 A CN 111221966A CN 201911412034 A CN201911412034 A CN 201911412034A CN 111221966 A CN111221966 A CN 111221966A
Authority
CN
China
Prior art keywords
representing
text
lstm
output
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911412034.0A
Other languages
English (en)
Inventor
徐家慧
张晓营
武毅
林海峰
殷智
王刚
王燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Kedong Electric Power Control System Co Ltd
Original Assignee
Beijing Kedong Electric Power Control System Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Kedong Electric Power Control System Co Ltd filed Critical Beijing Kedong Electric Power Control System Co Ltd
Priority to CN201911412034.0A priority Critical patent/CN111221966A/zh
Publication of CN111221966A publication Critical patent/CN111221966A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种文本语义关系提取方法及***,获取文本信息,将文本信息向量化,提取文本局部特征;将文本局部特征输入至预先训练好的双向LSTM模型,引入注意力机制对双向LSTM模型的输入与输出之间的相关性进行重要度计算,根据重要度获取文本整体特征;将局部特征和整体特征进行特征融合,通过分类器输出分类结果。优点:基于长短期记忆模型(LSTM)网络,并引入注意力机制算法,采用LSTM模型来避免CNN和RNN的长距离依赖问题,并采用注意力机制更好地考虑了模型输入和输出的相关性问题,充分提取文本局部特征对实体概念进行提取,提升电网检修本体概念提取的速度和准确率。

Description

一种文本语义关系提取方法及***
技术领域
本发明涉及一种文本语义关系提取方法及***,属于本体概念提取技术领 域。
背景技术
随着网络技术的快速发展,互联网为人们创造了一个很好的交互平台。如 何有效地在海量的网络大数据中为用户提取出有价值的信息,也面临着巨大的 挑战。基于语义的信息处理能有效地解决上述问题。作为一种共享的概念化模 型,本体在语义分析中起着至关重要的作用。领域本体学习是一种针对特定的 领域自动的获取该领域本体中的概念和概念间关系的学习方法,随着电网行业 与互联网信息技术的迅速发展,电网检修对领域本体的自动学习提出了更高、 更大的需求。
在我国电网检修领域,一些研究人员已将本体和语义网技术应用于电网检 修应急管理领域,通过“领域词典”构建了应急决策领域本体,该本体以领域 本体为基础,通过基于语义查询转换和语义检索与推理实现了应急检修初始方 案的生成,提高了应急决策的智能性。
随着时代的进步和发展,现有的领域本体已经不足以支持电网检修领域知 识的表达,丰富领域本体知识并提升本体提取的准确率已经成为一个迫切需要 解决的问题。另外,手工进行本体构建是一个既费时又低效的工作,如何有效 的提高本体自动更新的效率是当前需要克服的技术难题。
发明内容
本发明所要解决的技术问题是克服现有技术的缺陷,提供一种文本语义关 系提取方法及***。
为解决上述技术问题,本发明提供一种文本语义关系提取方法,
获取文本信息,将文本信息向量化,提取文本局部特征;
将文本局部特征输入至预先训练好的双向LSTM模型,引入注意力机制对 双向LSTM模型的输入与输出之间的相关性进行重要度计算,根据重要度确定 文本整体特征;
将局部特征和整体特征进行特征融合,通过分类器输出分类结果。
进一步的,所述双向LSTM模型的训练过程为:
获取LSTM训练样本,采集电网调度日检修申请票数据和调度日志,作为 LSTM训练样本;电网调度日检修申请票和调度日志可以从调度***中获得,针 对一张检修票或调度日志,应该收集的数据包括:设备信息、设备参数、故障 信息、检修方式等;
使用LSTM训练样本训练双向LSTM模型:
Figure BDA0002350232700000021
其中,it,ft,ct,ot,ht分别是LSTM的输入门,遗忘门,记忆,输出门 和隐藏状态的变量,gt表示当前输入的单元状态,σ表示逻辑sigmoid激活函数, tanh表示输出的激活函数,TD+m+n,n表示用学习到的参数所定义的实数空间 RD+m+n到Rn的仿射变换,D表示提取器提取的样本向量维度,m和n分别 表示嵌入矩阵和LSTM网络矩阵维度,E表示嵌入矩阵,E∈Rm*K,R表示实数 集合,K表示样本词汇量,yt-1表示前一时刻的语义释义中间变量,
Figure BDA0002350232700000022
表示随机 变量,z是上下文向量,z∈RD
ct=ft⊙ct-1+it⊙gt
ht=ottanh(ct)
⊙表示元素乘法,ct-1为注意力模型上一时刻状态。
进一步的,通过下式确定ct
Figure BDA0002350232700000023
其中,
Figure BDA0002350232700000024
atj为注意力机制给所有特征向量赋予的权重,hj为LSTM神经网络输出的 特征向量序列,T表示特征向量总数,j表示第j个特征向量,exp(etj)表示以自 然常数e为底的指数函数,etj表示输出特征值是对齐模型,代表时刻t的输入和 时刻j的输出匹配程度的分数,etk同理,a表示计算etj的函数,va为全局的权值, wa为上一时刻注意力机制的状态的权值,ua为上一时刻的特征向量的权值。
一种文本语义关系提取***,包括获取模块、确定模块和输出模块;
所述括获取模块,用于获取文本信息,将文本信息向量化,提取文本局部 特征;
所述确定模块,用于将文本局部特征输入至预先训练好的双向LSTM模型, 引入注意力机制对双向LSTM模型的输入与输出之间的相关性进行重要度计算, 根据重要度确定文本整体特征;
所述输出模块,用于将局部特征和整体特征进行特征融合,通过分类器输 出分类结果。
进一步的,所述确定模块包括训练模块,用于获取LSTM训练样本,采集 电网调度日检修申请票数据和调度日志,作为LSTM训练样本;
使用LSTM训练样本训练双向LSTM模型:
Figure BDA0002350232700000031
其中,it,ft,ct,ot,ht分别是LSTM的输入门,遗忘门,记忆,输出门 和隐藏状态的变量,gt表示当前输入的单元状态,σ表示逻辑sigmoid激活函数, tanh表示输出的激活函数,TD+m+n,n表示用学习到的参数所定义的实数空间 RD+m+n到Rn的仿射变换,D表示提取器提取的样本向量维度,m和n分别 表示嵌入矩阵和LSTM网络矩阵维度,E表示嵌入矩阵,E∈Rm*K,R表示实数 集合,K表示样本词汇量,yt-1表示前一时刻的语义释义中间变量,
Figure BDA0002350232700000032
表示随机 变量,z是上下文向量,z∈RD
ct=ft⊙ct-1+it⊙gt
ht=ottanh(ct)
⊙表示元素乘法,ct-1为注意力模型上一时刻状态。
进一步的,所述训练模块包括记忆变量确定模块,用于通过下式确定ct
Figure BDA0002350232700000033
其中,
Figure BDA0002350232700000041
atj为注意力机制给所有特征向量赋予的权重,hj为LSTM神经网络输出的 特征向量序列,T表示特征向量总数,j表示第j个特征向量,exp(etj)表示以自 然常数e为底的指数函数,etj表示输出特征值是对齐模型,代表时刻t的输入和 时刻j的输出匹配程度的分数,etk同理,a表示计算etj的函数,va为全局的权值, wa为上一时刻注意力机制的状态的权值,ua为上一时刻的特征向量的权值。
本发明所达到的有益效果:
基于长短期记忆模型(LSTM)网络,并引入注意力机制算法,采用LSTM 模型来避免CNN和RNN的长距离依赖问题,并采用注意力机制更好地考虑 了模型输入和输出的相关性问题,充分提取文本局部特征对实体概念进行提取, 提升电网检修本体概念提取的速度和准确率,依据本体概念和关系提取,制定更 科学化的电网检修方案,运用最为妥帖的检修方式,最大程度地减少人、财、 物的消耗,提高检修效率,继而有效地提高电网安全运行水平和供电可靠性, 提高社会效益和供电企业自身的经济效益。
具体实施方式
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将对 本发明实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施 例仅仅是本发明一部分实施例,而非全部的实施例。基于本发明中的实施例, 本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例, 都属于本发明保护的范围。
下面通过具体实施方式来进一步说明本发明的技术方案。
一种将长短期记忆模型(LSTM)与注意力机制(Attention Mechanism)相结 合的关系提取方法,首先将文本信息向量化,提取文本局部特征;然后将文本 局部特征导入双向LSTM模型中,引入注意力机制对LSTM模型的输入与输 出之间的相关性进行重要度计算,根据重要度获取文本整体特征;再将局部特 征和整体特征进行特征融合,通过分类器输出分类结果。
使用LSTM训练样本:
Figure BDA0002350232700000051
it,ft,ct,ot,ht分别是LSTM的输入门,遗忘门,记忆,输出门和隐 藏状态的变量。向量z∈RD是上下文向量,捕获与特定输入位置相关联的视 觉信息,如下所述。E∈Rm*K是嵌入矩阵,m和n分别表示嵌入矩阵和LSTM 网络矩阵维度,σ和⊙表示逻辑sigmoid激活函数和元素乘法,
ct=ft⊙ct-1+it⊙gt
ht=ottanh(ct)
定义x1,x2,x3,…xT-1,xT为LSTM神经网络输入的字词联合向量 序列;atj为注意力机制给所有特征向量赋予的权重,公式如下:
Figure BDA0002350232700000052
式中:ct-1为注意力模型上一时刻状态;va为全局的权值;hj为LSTM神 经网络输出的特征向量序列;ua为上一时刻的特征向量的权值;wa为上一 时刻注意力机制的状态的权值
Figure BDA0002350232700000053
注意力机制模型最后的输出状态ct计算方法:
Figure BDA0002350232700000054
其中,hj表示LSTM神经网络输出的特征向量序列;atj为注意力机制给所 有特征向量赋予的权重,对于atj的计算,在编码和解码阶段采用的模型不 同有着不同的计算方式。
相应的本发明提供一种文本语义关系提取***,包括获取模块、确定模块 和输出模块;
所述括获取模块,用于获取文本信息,将文本信息向量化,提取文本局部 特征;
所述确定模块,用于将文本局部特征输入至预先训练好的双向LSTM模型, 引入注意力机制对双向LSTM模型的输入与输出之间的相关性进行重要度计算, 根据重要度确定文本整体特征;
所述输出模块,用于将局部特征和整体特征进行特征融合,通过分类器输 出分类结果。
所述确定模块包括训练模块,用于获取LSTM训练样本,采集电网调度日 检修申请票数据和调度日志,作为LSTM训练样本;
使用LSTM训练样本训练双向LSTM模型:
Figure BDA0002350232700000061
其中,it,ft,ct,ot,ht分别是LSTM的输入门,遗忘门,记忆,输出门 和隐藏状态的变量,gt表示当前输入的单元状态,σ表示逻辑sigmoid激活函数, tanh表示输出的激活函数,TD+m+n,n表示用学习到的参数所定义的实数空间 RD+m+n到Rn的仿射变换,D表示提取器提取的样本向量维度,m和n分别 表示嵌入矩阵和LSTM网络矩阵维度,E表示嵌入矩阵,E∈Rm*K,R表示实数 集合,K表示样本词汇量,yt-1表示前一时刻的语义释义中间变量,
Figure BDA0002350232700000062
表示随机 变量,z是上下文向量,z∈RD
ct=ft⊙ct-1+it⊙gt
ht=ottanh(ct)
⊙表示元素乘法,ct-1为注意力模型上一时刻状态。
所述双向LSTM模型的训练过程,主要是对电网检修信息进行分词,提取 文本实体特征,然后将这些实体特征和文本信息转化为词向量。通过训练好的 双向LSTM模型,提取训练样本的特征数据,包括检修的设备信息、故障信息、 检修方式等,设备信息包括设备名称、设备类型、设备厂家、设备电压等级等 信息。
所述训练模块包括记忆变量确定模块,用于通过下式确定ct
Figure BDA0002350232700000071
其中,
Figure BDA0002350232700000072
atj为注意力机制给所有特征向量赋予的权重,hj为LSTM神经网络输出的 特征向量序列,T表示特征向量总数,j表示第j个特征向量,exp(etj)表示以 自然常数e为底的指数函数,etj表示输出特征值是对齐模型,代表时刻t的输 入和时刻j的输出匹配程度的分数,etk同理,a表示计算etj的函数,va为全 局的权值,wa为上一时刻注意力机制的状态的权值,ua为上一时刻的特征 向量的权值。
本专利采用LSTM模型来避免CNN和RNN的长距离依赖问题,并采 用注意力机制更好地考虑了模型输入和输出的相关性问题,更有效地进行关 系提取。
本领域内的技术人员应明白,本申请的实施例可提供为方法、***、或计 算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结 合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包 含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、 CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(***)来描述的。应理解 可由计算机程序指令实现每一流程。可提供这些计算机程序指令到通用计算机、 专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机 器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于 实现在一个流程或多个流程中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设 备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中 的指令产生包括指令装置的制造品,该指令装置实现在一个流程或多个流程中 指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使 得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处 理,从而在计算机或其他可编程设备上执行的指令提供用于实现一个流程或多 个流程中指定的功能的步骤。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽 管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理 解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分 技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱 离本发明各实施例技术方案的精神和范围。

Claims (6)

1.一种文本语义关系提取方法,其特征在于,
获取文本信息,将文本信息向量化,提取文本局部特征;
将文本局部特征输入至预先训练好的双向LSTM模型,引入注意力机制对双向LSTM模型的输入与输出之间的相关性进行重要度计算,根据重要度确定文本整体特征;
将局部特征和整体特征进行特征融合,通过分类器输出分类结果。
2.根据权利要求1所述的文本语义关系提取方法,其特征在于,所述双向LSTM模型的训练过程为:
获取LSTM训练样本,采集电网调度日检修申请票数据和调度日志,作为LSTM训练样本;
使用LSTM训练样本训练双向LSTM模型:
Figure FDA0002350232690000011
其中,it,ft,ct,ot,ht分别是LSTM的输入门,遗忘门,记忆,输出门和隐藏状态的变量,gt表示当前输入的单元状态,σ表示逻辑sigmoid激活函数,tanh表示输出的激活函数,TD+m+n,n表示用学习到的参数所定义的实数空间RD+m+n到Rn的仿射变换,D表示提取器提取的样本向量维度,m和n分别表示嵌入矩阵和LSTM网络矩阵维度,E表示嵌入矩阵,E∈Rm*K,R表示实数集合,K表示样本词汇量,yt-1表示前一时刻的语义释义中间变量,
Figure FDA0002350232690000012
表示随机变量,z是上下文向量,z∈RD
ct=ft⊙ct-1+it⊙gt
ht=ottanh(ct)
⊙表示元素乘法,ct-1为注意力模型上一时刻状态。
3.根据权利要求2所述的文本语义关系提取方法,其特征在于,通过下式确定ct
Figure FDA0002350232690000021
其中,
Figure FDA0002350232690000022
atj为注意力机制给所有特征向量赋予的权重,hj为LSTM神经网络输出的特征向量序列,T表示特征向量总数,j表示第j个特征向量,exp(etj)表示以自然常数e为底的指数函数,etj表示输出特征值是对齐模型,代表时刻t的输入和时刻j的输出匹配程度的分数,etk同理,a表示计算etj的函数,va为全局的权值,wa为上一时刻注意力机制的状态的权值,ua为上一时刻的特征向量的权值。
4.一种文本语义关系提取***,其特征在于,包括获取模块、确定模块和输出模块;
所述括获取模块,用于获取文本信息,将文本信息向量化,提取文本局部特征;
所述确定模块,用于将文本局部特征输入至预先训练好的双向LSTM模型,引入注意力机制对双向LSTM模型的输入与输出之间的相关性进行重要度计算,根据重要度确定文本整体特征;
所述输出模块,用于将局部特征和整体特征进行特征融合,通过分类器输出分类结果。
5.根据权利要求4所述的文本语义关系提取方法,其特征在于,所述确定模块包括训练模块,用于获取LSTM训练样本,采集电网调度日检修申请票数据和调度日志,作为LSTM训练样本;
使用LSTM训练样本训练双向LSTM模型:
Figure FDA0002350232690000023
其中,it,ft,ct,ot,ht分别是LSTM的输入门,遗忘门,记忆,输出门和隐藏状态的变量,gt表示当前输入的单元状态,σ表示逻辑sigmoid激活函数,tanh表示输出的激活函数,TD+m+n,n表示用学习到的参数所定义的实数空间RD+m+n到Rn的仿射变换,D表示提取器提取的样本向量维度,m和n分别表示嵌入矩阵和LSTM网络矩阵维度,E表示嵌入矩阵,E∈Rm*K,R表示实数集合,K表示样本词汇量,yt-1表示前一时刻的语义释义中间变量,
Figure FDA0002350232690000031
表示随机变量,z是上下文向量,z∈RD
ct=ft⊙ct-1+it⊙gt
ht=ottanh(ct)
⊙表示元素乘法,ct-1为注意力模型上一时刻状态。
6.根据权利要求5所述的文本语义关系提取方法,其特征在于,所述训练模块包括记忆变量确定模块,用于通过下式确定ct
Figure FDA0002350232690000032
其中,
Figure FDA0002350232690000033
atj为注意力机制给所有特征向量赋予的权重,hj为LSTM神经网络输出的特征向量序列,T表示特征向量总数,j表示第j个特征向量,exp(etj)表示以自然常数e为底的指数函数,etj表示输出特征值是对齐模型,代表时刻t的输入和时刻j的输出匹配程度的分数,etk同理,a表示计算etj的函数,va为全局的权值,wa为上一时刻注意力机制的状态的权值,ua为上一时刻的特征向量的权值。
CN201911412034.0A 2019-12-31 2019-12-31 一种文本语义关系提取方法及*** Pending CN111221966A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911412034.0A CN111221966A (zh) 2019-12-31 2019-12-31 一种文本语义关系提取方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911412034.0A CN111221966A (zh) 2019-12-31 2019-12-31 一种文本语义关系提取方法及***

Publications (1)

Publication Number Publication Date
CN111221966A true CN111221966A (zh) 2020-06-02

Family

ID=70825949

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911412034.0A Pending CN111221966A (zh) 2019-12-31 2019-12-31 一种文本语义关系提取方法及***

Country Status (1)

Country Link
CN (1) CN111221966A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116934468A (zh) * 2023-09-15 2023-10-24 成都运荔枝科技有限公司 一种基于语义识别的授信客户分级方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109214001A (zh) * 2018-08-23 2019-01-15 桂林电子科技大学 一种中文语义匹配***及方法
CN109389091A (zh) * 2018-10-22 2019-02-26 重庆邮电大学 基于神经网络和注意力机制结合的文字识别***及方法
US20190114320A1 (en) * 2017-10-17 2019-04-18 Tata Consultancy Services Limited System and method for quality evaluation of collaborative text inputs
CN109710761A (zh) * 2018-12-21 2019-05-03 中国标准化研究院 基于注意力增强的双向lstm模型的情感分析方法
CN109902293A (zh) * 2019-01-30 2019-06-18 华南理工大学 一种基于局部与全局互注意力机制的文本分类方法
CN110609897A (zh) * 2019-08-12 2019-12-24 北京化工大学 一种融合全局和局部特征的多类别中文文本分类方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190114320A1 (en) * 2017-10-17 2019-04-18 Tata Consultancy Services Limited System and method for quality evaluation of collaborative text inputs
CN109214001A (zh) * 2018-08-23 2019-01-15 桂林电子科技大学 一种中文语义匹配***及方法
CN109389091A (zh) * 2018-10-22 2019-02-26 重庆邮电大学 基于神经网络和注意力机制结合的文字识别***及方法
CN109710761A (zh) * 2018-12-21 2019-05-03 中国标准化研究院 基于注意力增强的双向lstm模型的情感分析方法
CN109902293A (zh) * 2019-01-30 2019-06-18 华南理工大学 一种基于局部与全局互注意力机制的文本分类方法
CN110609897A (zh) * 2019-08-12 2019-12-24 北京化工大学 一种融合全局和局部特征的多类别中文文本分类方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116934468A (zh) * 2023-09-15 2023-10-24 成都运荔枝科技有限公司 一种基于语义识别的授信客户分级方法
CN116934468B (zh) * 2023-09-15 2023-12-22 成都运荔枝科技有限公司 一种基于语义识别的授信客户分级方法

Similar Documents

Publication Publication Date Title
Chen et al. Stock prediction using convolutional neural network
Ruangkanokmas et al. Deep belief networks with feature selection for sentiment classification
CN112100397A (zh) 基于双向门控循环单元的电力预案知识图谱构建方法及***
CN110807084A (zh) 一种基于注意力机制的Bi-LSTM和关键词策略的专利术语关系抽取方法
CN106980650A (zh) 一种面向Twitter观点分类的情感增强词嵌入学习方法
CN112560486A (zh) 基于多层神经网络的电力实体识别方法、存储介质和设备
CN114265937A (zh) 科技情报的智能分类分析方法、***、存储介质及服务器
Mishev et al. Forecasting corporate revenue by using deep-learning methodologies
Chen et al. Research on automatic essay scoring of composition based on CNN and OR
CN111783464A (zh) 一种面向电力的领域实体识别方法、***及存储介质
Lin et al. BERT-SMAP: Paying attention to Essential Terms in passage ranking beyond BERT
CN112559741B (zh) 核电设备缺陷记录文本分类方法、***、介质及电子设备
Shen et al. GAR: Graph adversarial representation for adverse drug event detection on Twitter
CN111221966A (zh) 一种文本语义关系提取方法及***
Pratama et al. Performance of Lexical Resource and Manual Labeling on Long Short-Term Memory Model for Text Classification
Azizah et al. Performance Analysis of Transformer Based Models (BERT, ALBERT, and RoBERTa) in Fake News Detection
CN116127954A (zh) 一种基于词典的新工科专业中文知识概念抽取方法
CN116226371A (zh) 一种数字经济专利分类方法
CN113157914B (zh) 一种基于多层循环神经网络的文档摘要提取方法及***
Hu et al. A classification model of power operation inspection defect texts based on graph convolutional network
Ma et al. PAI at SemEval-2023 Task 4: A general multi-label classification system with class-balanced loss function and ensemble module
Suwarningsih et al. RoBERTa: language modelling in building Indonesian question-answering systems
CN114357166A (zh) 一种基于深度学习的文本分类方法
CN110825851A (zh) 基于中值转化模型的句子对关系判别方法
Zhang et al. YUN_DE at HASOC2020 subtask A: Multi-Model Ensemble Learning for Identifying Hate Speech and Offensive Language.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination