CN111221966A - 一种文本语义关系提取方法及*** - Google Patents
一种文本语义关系提取方法及*** Download PDFInfo
- Publication number
- CN111221966A CN111221966A CN201911412034.0A CN201911412034A CN111221966A CN 111221966 A CN111221966 A CN 111221966A CN 201911412034 A CN201911412034 A CN 201911412034A CN 111221966 A CN111221966 A CN 111221966A
- Authority
- CN
- China
- Prior art keywords
- representing
- text
- lstm
- output
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种文本语义关系提取方法及***,获取文本信息,将文本信息向量化,提取文本局部特征;将文本局部特征输入至预先训练好的双向LSTM模型,引入注意力机制对双向LSTM模型的输入与输出之间的相关性进行重要度计算,根据重要度获取文本整体特征;将局部特征和整体特征进行特征融合,通过分类器输出分类结果。优点:基于长短期记忆模型(LSTM)网络,并引入注意力机制算法,采用LSTM模型来避免CNN和RNN的长距离依赖问题,并采用注意力机制更好地考虑了模型输入和输出的相关性问题,充分提取文本局部特征对实体概念进行提取,提升电网检修本体概念提取的速度和准确率。
Description
技术领域
本发明涉及一种文本语义关系提取方法及***,属于本体概念提取技术领 域。
背景技术
随着网络技术的快速发展,互联网为人们创造了一个很好的交互平台。如 何有效地在海量的网络大数据中为用户提取出有价值的信息,也面临着巨大的 挑战。基于语义的信息处理能有效地解决上述问题。作为一种共享的概念化模 型,本体在语义分析中起着至关重要的作用。领域本体学习是一种针对特定的 领域自动的获取该领域本体中的概念和概念间关系的学习方法,随着电网行业 与互联网信息技术的迅速发展,电网检修对领域本体的自动学习提出了更高、 更大的需求。
在我国电网检修领域,一些研究人员已将本体和语义网技术应用于电网检 修应急管理领域,通过“领域词典”构建了应急决策领域本体,该本体以领域 本体为基础,通过基于语义查询转换和语义检索与推理实现了应急检修初始方 案的生成,提高了应急决策的智能性。
随着时代的进步和发展,现有的领域本体已经不足以支持电网检修领域知 识的表达,丰富领域本体知识并提升本体提取的准确率已经成为一个迫切需要 解决的问题。另外,手工进行本体构建是一个既费时又低效的工作,如何有效 的提高本体自动更新的效率是当前需要克服的技术难题。
发明内容
本发明所要解决的技术问题是克服现有技术的缺陷,提供一种文本语义关 系提取方法及***。
为解决上述技术问题,本发明提供一种文本语义关系提取方法,
获取文本信息,将文本信息向量化,提取文本局部特征;
将文本局部特征输入至预先训练好的双向LSTM模型,引入注意力机制对 双向LSTM模型的输入与输出之间的相关性进行重要度计算,根据重要度确定 文本整体特征;
将局部特征和整体特征进行特征融合,通过分类器输出分类结果。
进一步的,所述双向LSTM模型的训练过程为:
获取LSTM训练样本,采集电网调度日检修申请票数据和调度日志,作为 LSTM训练样本;电网调度日检修申请票和调度日志可以从调度***中获得,针 对一张检修票或调度日志,应该收集的数据包括:设备信息、设备参数、故障 信息、检修方式等;
使用LSTM训练样本训练双向LSTM模型:
其中,it,ft,ct,ot,ht分别是LSTM的输入门,遗忘门,记忆,输出门 和隐藏状态的变量,gt表示当前输入的单元状态,σ表示逻辑sigmoid激活函数, tanh表示输出的激活函数,TD+m+n,n表示用学习到的参数所定义的实数空间 RD+m+n到Rn的仿射变换,D表示提取器提取的样本向量维度,m和n分别 表示嵌入矩阵和LSTM网络矩阵维度,E表示嵌入矩阵,E∈Rm*K,R表示实数 集合,K表示样本词汇量,yt-1表示前一时刻的语义释义中间变量,表示随机 变量,z是上下文向量,z∈RD;
ct=ft⊙ct-1+it⊙gt
ht=ottanh(ct)
⊙表示元素乘法,ct-1为注意力模型上一时刻状态。
进一步的,通过下式确定ct,
atj为注意力机制给所有特征向量赋予的权重,hj为LSTM神经网络输出的 特征向量序列,T表示特征向量总数,j表示第j个特征向量,exp(etj)表示以自 然常数e为底的指数函数,etj表示输出特征值是对齐模型,代表时刻t的输入和 时刻j的输出匹配程度的分数,etk同理,a表示计算etj的函数,va为全局的权值, wa为上一时刻注意力机制的状态的权值,ua为上一时刻的特征向量的权值。
一种文本语义关系提取***,包括获取模块、确定模块和输出模块;
所述括获取模块,用于获取文本信息,将文本信息向量化,提取文本局部 特征;
所述确定模块,用于将文本局部特征输入至预先训练好的双向LSTM模型, 引入注意力机制对双向LSTM模型的输入与输出之间的相关性进行重要度计算, 根据重要度确定文本整体特征;
所述输出模块,用于将局部特征和整体特征进行特征融合,通过分类器输 出分类结果。
进一步的,所述确定模块包括训练模块,用于获取LSTM训练样本,采集 电网调度日检修申请票数据和调度日志,作为LSTM训练样本;
使用LSTM训练样本训练双向LSTM模型:
其中,it,ft,ct,ot,ht分别是LSTM的输入门,遗忘门,记忆,输出门 和隐藏状态的变量,gt表示当前输入的单元状态,σ表示逻辑sigmoid激活函数, tanh表示输出的激活函数,TD+m+n,n表示用学习到的参数所定义的实数空间 RD+m+n到Rn的仿射变换,D表示提取器提取的样本向量维度,m和n分别 表示嵌入矩阵和LSTM网络矩阵维度,E表示嵌入矩阵,E∈Rm*K,R表示实数 集合,K表示样本词汇量,yt-1表示前一时刻的语义释义中间变量,表示随机 变量,z是上下文向量,z∈RD;
ct=ft⊙ct-1+it⊙gt
ht=ottanh(ct)
⊙表示元素乘法,ct-1为注意力模型上一时刻状态。
进一步的,所述训练模块包括记忆变量确定模块,用于通过下式确定ct,
atj为注意力机制给所有特征向量赋予的权重,hj为LSTM神经网络输出的 特征向量序列,T表示特征向量总数,j表示第j个特征向量,exp(etj)表示以自 然常数e为底的指数函数,etj表示输出特征值是对齐模型,代表时刻t的输入和 时刻j的输出匹配程度的分数,etk同理,a表示计算etj的函数,va为全局的权值, wa为上一时刻注意力机制的状态的权值,ua为上一时刻的特征向量的权值。
本发明所达到的有益效果:
基于长短期记忆模型(LSTM)网络,并引入注意力机制算法,采用LSTM 模型来避免CNN和RNN的长距离依赖问题,并采用注意力机制更好地考虑 了模型输入和输出的相关性问题,充分提取文本局部特征对实体概念进行提取, 提升电网检修本体概念提取的速度和准确率,依据本体概念和关系提取,制定更 科学化的电网检修方案,运用最为妥帖的检修方式,最大程度地减少人、财、 物的消耗,提高检修效率,继而有效地提高电网安全运行水平和供电可靠性, 提高社会效益和供电企业自身的经济效益。
具体实施方式
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将对 本发明实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施 例仅仅是本发明一部分实施例,而非全部的实施例。基于本发明中的实施例, 本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例, 都属于本发明保护的范围。
下面通过具体实施方式来进一步说明本发明的技术方案。
一种将长短期记忆模型(LSTM)与注意力机制(Attention Mechanism)相结 合的关系提取方法,首先将文本信息向量化,提取文本局部特征;然后将文本 局部特征导入双向LSTM模型中,引入注意力机制对LSTM模型的输入与输 出之间的相关性进行重要度计算,根据重要度获取文本整体特征;再将局部特 征和整体特征进行特征融合,通过分类器输出分类结果。
使用LSTM训练样本:
it,ft,ct,ot,ht分别是LSTM的输入门,遗忘门,记忆,输出门和隐 藏状态的变量。向量z∈RD是上下文向量,捕获与特定输入位置相关联的视 觉信息,如下所述。E∈Rm*K是嵌入矩阵,m和n分别表示嵌入矩阵和LSTM 网络矩阵维度,σ和⊙表示逻辑sigmoid激活函数和元素乘法,
ct=ft⊙ct-1+it⊙gt
ht=ottanh(ct)
定义x1,x2,x3,…xT-1,xT为LSTM神经网络输入的字词联合向量 序列;atj为注意力机制给所有特征向量赋予的权重,公式如下:
式中:ct-1为注意力模型上一时刻状态;va为全局的权值;hj为LSTM神 经网络输出的特征向量序列;ua为上一时刻的特征向量的权值;wa为上一 时刻注意力机制的状态的权值
注意力机制模型最后的输出状态ct计算方法:
其中,hj表示LSTM神经网络输出的特征向量序列;atj为注意力机制给所 有特征向量赋予的权重,对于atj的计算,在编码和解码阶段采用的模型不 同有着不同的计算方式。
相应的本发明提供一种文本语义关系提取***,包括获取模块、确定模块 和输出模块;
所述括获取模块,用于获取文本信息,将文本信息向量化,提取文本局部 特征;
所述确定模块,用于将文本局部特征输入至预先训练好的双向LSTM模型, 引入注意力机制对双向LSTM模型的输入与输出之间的相关性进行重要度计算, 根据重要度确定文本整体特征;
所述输出模块,用于将局部特征和整体特征进行特征融合,通过分类器输 出分类结果。
所述确定模块包括训练模块,用于获取LSTM训练样本,采集电网调度日 检修申请票数据和调度日志,作为LSTM训练样本;
使用LSTM训练样本训练双向LSTM模型:
其中,it,ft,ct,ot,ht分别是LSTM的输入门,遗忘门,记忆,输出门 和隐藏状态的变量,gt表示当前输入的单元状态,σ表示逻辑sigmoid激活函数, tanh表示输出的激活函数,TD+m+n,n表示用学习到的参数所定义的实数空间 RD+m+n到Rn的仿射变换,D表示提取器提取的样本向量维度,m和n分别 表示嵌入矩阵和LSTM网络矩阵维度,E表示嵌入矩阵,E∈Rm*K,R表示实数 集合,K表示样本词汇量,yt-1表示前一时刻的语义释义中间变量,表示随机 变量,z是上下文向量,z∈RD;
ct=ft⊙ct-1+it⊙gt
ht=ottanh(ct)
⊙表示元素乘法,ct-1为注意力模型上一时刻状态。
所述双向LSTM模型的训练过程,主要是对电网检修信息进行分词,提取 文本实体特征,然后将这些实体特征和文本信息转化为词向量。通过训练好的 双向LSTM模型,提取训练样本的特征数据,包括检修的设备信息、故障信息、 检修方式等,设备信息包括设备名称、设备类型、设备厂家、设备电压等级等 信息。
所述训练模块包括记忆变量确定模块,用于通过下式确定ct,
atj为注意力机制给所有特征向量赋予的权重,hj为LSTM神经网络输出的 特征向量序列,T表示特征向量总数,j表示第j个特征向量,exp(etj)表示以 自然常数e为底的指数函数,etj表示输出特征值是对齐模型,代表时刻t的输 入和时刻j的输出匹配程度的分数,etk同理,a表示计算etj的函数,va为全 局的权值,wa为上一时刻注意力机制的状态的权值,ua为上一时刻的特征 向量的权值。
本专利采用LSTM模型来避免CNN和RNN的长距离依赖问题,并采 用注意力机制更好地考虑了模型输入和输出的相关性问题,更有效地进行关 系提取。
本领域内的技术人员应明白,本申请的实施例可提供为方法、***、或计 算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结 合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包 含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、 CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(***)来描述的。应理解 可由计算机程序指令实现每一流程。可提供这些计算机程序指令到通用计算机、 专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机 器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于 实现在一个流程或多个流程中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设 备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中 的指令产生包括指令装置的制造品,该指令装置实现在一个流程或多个流程中 指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使 得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处 理,从而在计算机或其他可编程设备上执行的指令提供用于实现一个流程或多 个流程中指定的功能的步骤。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽 管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理 解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分 技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱 离本发明各实施例技术方案的精神和范围。
Claims (6)
1.一种文本语义关系提取方法,其特征在于,
获取文本信息,将文本信息向量化,提取文本局部特征;
将文本局部特征输入至预先训练好的双向LSTM模型,引入注意力机制对双向LSTM模型的输入与输出之间的相关性进行重要度计算,根据重要度确定文本整体特征;
将局部特征和整体特征进行特征融合,通过分类器输出分类结果。
2.根据权利要求1所述的文本语义关系提取方法,其特征在于,所述双向LSTM模型的训练过程为:
获取LSTM训练样本,采集电网调度日检修申请票数据和调度日志,作为LSTM训练样本;
使用LSTM训练样本训练双向LSTM模型:
其中,it,ft,ct,ot,ht分别是LSTM的输入门,遗忘门,记忆,输出门和隐藏状态的变量,gt表示当前输入的单元状态,σ表示逻辑sigmoid激活函数,tanh表示输出的激活函数,TD+m+n,n表示用学习到的参数所定义的实数空间RD+m+n到Rn的仿射变换,D表示提取器提取的样本向量维度,m和n分别表示嵌入矩阵和LSTM网络矩阵维度,E表示嵌入矩阵,E∈Rm*K,R表示实数集合,K表示样本词汇量,yt-1表示前一时刻的语义释义中间变量,表示随机变量,z是上下文向量,z∈RD;
ct=ft⊙ct-1+it⊙gt
ht=ottanh(ct)
⊙表示元素乘法,ct-1为注意力模型上一时刻状态。
4.一种文本语义关系提取***,其特征在于,包括获取模块、确定模块和输出模块;
所述括获取模块,用于获取文本信息,将文本信息向量化,提取文本局部特征;
所述确定模块,用于将文本局部特征输入至预先训练好的双向LSTM模型,引入注意力机制对双向LSTM模型的输入与输出之间的相关性进行重要度计算,根据重要度确定文本整体特征;
所述输出模块,用于将局部特征和整体特征进行特征融合,通过分类器输出分类结果。
5.根据权利要求4所述的文本语义关系提取方法,其特征在于,所述确定模块包括训练模块,用于获取LSTM训练样本,采集电网调度日检修申请票数据和调度日志,作为LSTM训练样本;
使用LSTM训练样本训练双向LSTM模型:
其中,it,ft,ct,ot,ht分别是LSTM的输入门,遗忘门,记忆,输出门和隐藏状态的变量,gt表示当前输入的单元状态,σ表示逻辑sigmoid激活函数,tanh表示输出的激活函数,TD+m+n,n表示用学习到的参数所定义的实数空间RD+m+n到Rn的仿射变换,D表示提取器提取的样本向量维度,m和n分别表示嵌入矩阵和LSTM网络矩阵维度,E表示嵌入矩阵,E∈Rm*K,R表示实数集合,K表示样本词汇量,yt-1表示前一时刻的语义释义中间变量,表示随机变量,z是上下文向量,z∈RD;
ct=ft⊙ct-1+it⊙gt
ht=ottanh(ct)
⊙表示元素乘法,ct-1为注意力模型上一时刻状态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911412034.0A CN111221966A (zh) | 2019-12-31 | 2019-12-31 | 一种文本语义关系提取方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911412034.0A CN111221966A (zh) | 2019-12-31 | 2019-12-31 | 一种文本语义关系提取方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111221966A true CN111221966A (zh) | 2020-06-02 |
Family
ID=70825949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911412034.0A Pending CN111221966A (zh) | 2019-12-31 | 2019-12-31 | 一种文本语义关系提取方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111221966A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116934468A (zh) * | 2023-09-15 | 2023-10-24 | 成都运荔枝科技有限公司 | 一种基于语义识别的授信客户分级方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109214001A (zh) * | 2018-08-23 | 2019-01-15 | 桂林电子科技大学 | 一种中文语义匹配***及方法 |
CN109389091A (zh) * | 2018-10-22 | 2019-02-26 | 重庆邮电大学 | 基于神经网络和注意力机制结合的文字识别***及方法 |
US20190114320A1 (en) * | 2017-10-17 | 2019-04-18 | Tata Consultancy Services Limited | System and method for quality evaluation of collaborative text inputs |
CN109710761A (zh) * | 2018-12-21 | 2019-05-03 | 中国标准化研究院 | 基于注意力增强的双向lstm模型的情感分析方法 |
CN109902293A (zh) * | 2019-01-30 | 2019-06-18 | 华南理工大学 | 一种基于局部与全局互注意力机制的文本分类方法 |
CN110609897A (zh) * | 2019-08-12 | 2019-12-24 | 北京化工大学 | 一种融合全局和局部特征的多类别中文文本分类方法 |
-
2019
- 2019-12-31 CN CN201911412034.0A patent/CN111221966A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190114320A1 (en) * | 2017-10-17 | 2019-04-18 | Tata Consultancy Services Limited | System and method for quality evaluation of collaborative text inputs |
CN109214001A (zh) * | 2018-08-23 | 2019-01-15 | 桂林电子科技大学 | 一种中文语义匹配***及方法 |
CN109389091A (zh) * | 2018-10-22 | 2019-02-26 | 重庆邮电大学 | 基于神经网络和注意力机制结合的文字识别***及方法 |
CN109710761A (zh) * | 2018-12-21 | 2019-05-03 | 中国标准化研究院 | 基于注意力增强的双向lstm模型的情感分析方法 |
CN109902293A (zh) * | 2019-01-30 | 2019-06-18 | 华南理工大学 | 一种基于局部与全局互注意力机制的文本分类方法 |
CN110609897A (zh) * | 2019-08-12 | 2019-12-24 | 北京化工大学 | 一种融合全局和局部特征的多类别中文文本分类方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116934468A (zh) * | 2023-09-15 | 2023-10-24 | 成都运荔枝科技有限公司 | 一种基于语义识别的授信客户分级方法 |
CN116934468B (zh) * | 2023-09-15 | 2023-12-22 | 成都运荔枝科技有限公司 | 一种基于语义识别的授信客户分级方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | Stock prediction using convolutional neural network | |
Ruangkanokmas et al. | Deep belief networks with feature selection for sentiment classification | |
CN112100397A (zh) | 基于双向门控循环单元的电力预案知识图谱构建方法及*** | |
CN110807084A (zh) | 一种基于注意力机制的Bi-LSTM和关键词策略的专利术语关系抽取方法 | |
CN106980650A (zh) | 一种面向Twitter观点分类的情感增强词嵌入学习方法 | |
CN112560486A (zh) | 基于多层神经网络的电力实体识别方法、存储介质和设备 | |
CN114265937A (zh) | 科技情报的智能分类分析方法、***、存储介质及服务器 | |
Mishev et al. | Forecasting corporate revenue by using deep-learning methodologies | |
Chen et al. | Research on automatic essay scoring of composition based on CNN and OR | |
CN111783464A (zh) | 一种面向电力的领域实体识别方法、***及存储介质 | |
Lin et al. | BERT-SMAP: Paying attention to Essential Terms in passage ranking beyond BERT | |
CN112559741B (zh) | 核电设备缺陷记录文本分类方法、***、介质及电子设备 | |
Shen et al. | GAR: Graph adversarial representation for adverse drug event detection on Twitter | |
CN111221966A (zh) | 一种文本语义关系提取方法及*** | |
Pratama et al. | Performance of Lexical Resource and Manual Labeling on Long Short-Term Memory Model for Text Classification | |
Azizah et al. | Performance Analysis of Transformer Based Models (BERT, ALBERT, and RoBERTa) in Fake News Detection | |
CN116127954A (zh) | 一种基于词典的新工科专业中文知识概念抽取方法 | |
CN116226371A (zh) | 一种数字经济专利分类方法 | |
CN113157914B (zh) | 一种基于多层循环神经网络的文档摘要提取方法及*** | |
Hu et al. | A classification model of power operation inspection defect texts based on graph convolutional network | |
Ma et al. | PAI at SemEval-2023 Task 4: A general multi-label classification system with class-balanced loss function and ensemble module | |
Suwarningsih et al. | RoBERTa: language modelling in building Indonesian question-answering systems | |
CN114357166A (zh) | 一种基于深度学习的文本分类方法 | |
CN110825851A (zh) | 基于中值转化模型的句子对关系判别方法 | |
Zhang et al. | YUN_DE at HASOC2020 subtask A: Multi-Model Ensemble Learning for Identifying Hate Speech and Offensive Language. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |