CN114443813B - 一种智能化的在线教学资源知识点概念实体链接方法 - Google Patents
一种智能化的在线教学资源知识点概念实体链接方法 Download PDFInfo
- Publication number
- CN114443813B CN114443813B CN202210018754.4A CN202210018754A CN114443813B CN 114443813 B CN114443813 B CN 114443813B CN 202210018754 A CN202210018754 A CN 202210018754A CN 114443813 B CN114443813 B CN 114443813B
- Authority
- CN
- China
- Prior art keywords
- knowledge point
- character
- vector
- concept
- entity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 239000013598 vector Substances 0.000 claims description 149
- 238000004364 calculation method Methods 0.000 claims description 41
- 238000012512 characterization method Methods 0.000 claims description 30
- 230000007246 mechanism Effects 0.000 claims description 27
- 230000006870 function Effects 0.000 claims description 18
- 238000004140 cleaning Methods 0.000 claims description 14
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 6
- 230000007704 transition Effects 0.000 claims description 6
- 230000003213 activating effect Effects 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 3
- 230000002457 bidirectional effect Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 230000000306 recurrent effect Effects 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 2
- 230000003993 interaction Effects 0.000 claims description 2
- 238000007781 pre-processing Methods 0.000 claims 1
- 230000008520 organization Effects 0.000 abstract description 5
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000002203 pretreatment Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/374—Thesaurus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3346—Query execution using probabilistic model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Machine Translation (AREA)
Abstract
一种智能化的在线教学资源知识点概念实体链接方法,知识点概念实体识别模型和知识点概念链接模型,由于应用场景主要面向国内在线学习平台中的教学资源组织管理,国内的教学基本为中文教学,因此仅适用于中文语言文本,兼容部分英文文本。知识点概念实体识别是要从教学资源文本中抽取出包含的知识点概念实体词汇,学科、专业术语和历史事件等,抽取出的知识点概念实体称之为知识点提及;知识点概念关联指,根据所抽取出的知识点概念提及以及其所处的上下文语境,从知识库中找出语义相似度最高的概念知识,进行关系。通过知识点概念实体识别和知识点概念链接,实现教学资源之间与知识点概念之间的关联,达到了构建以概念知识为核心的教学资源组织体系目的。
Description
技术领域
本发明涉及智能教育,具体涉及一种智能化的在线教学资源知识点概念实体链接方法。
背景技术
传统的教学资源库中承载着大量的学***台上的使用人数越来越多,为了满足不同用户对于资源的不同需求,平台中的教学资源数量和类型也在不断增加。在实践中,伴随教学资源数量的增加以及内容的多元化,学***台上搜寻和选择自身所需要的学***台中的学习效率也在逐渐降低,严重影响了学习者的学习质量和学习的主动性。
知识图谱作为一种能够有效结构化人类知识的手段,已成为了推动互联网和人工智能发展的核心驱动力。自适应学习***中的教学资源库同样可以借助知识图谱技术,构建以知识为核心的教学资源体系。教学资源可以通过与概念知识点进行关联,能够有效地对教学资源体系进行组织,为自适应学习***赋能。
在线教学资源中已有的知识点概念标注和关联,均通过教师手工的方式进行录入。但手工录入的方式会耗费大量的时间和精力,且教师所提供的知识点概念大多是粗粒度的,忽略了教学资源中出现的细粒度知识点概念,知识点概念标注不够全面,学习者无法直观地了解课程内容细节。为解决上述问题,需要一种智能化的方法或工具,准确地对在线教学资源中的知识点概念实体进行识别和关联。目前,仅有一些研究人员对此开展部分相关工作,主要是通过统计学习的手段实现对教学资源中的关键短语和术语进行抽取。但是,这些研究进展还远不足以解决上述的关键问题。
随着知识图谱和自然语言处理领域的发展,实体链接技术可以充分解决上述的问题。实体链接技术是将文本中的提及进行识别,并链接至知识库中的相应实体。现有的实体链接方法大多是面向开放领域,即识别出文本语料中的人名、地名、组织和时间等关键实体词汇,并链接至知识库(如:百度百科,***等)中的对应词条上。目前,已有比较成熟的实体链接工具,如:Wikify!,,AIDA,DBpedia Spotlight,TagMe以及Linkify等。这些实体链接***主要由两部分组成,实体提及检测和实体链接。虽然上述的实体链接***已经开发的较为成熟,但仍存在一定的不足。在实体提及检测上,上述的***主要依赖于已有的命名实体识别(NER)工具,如Stanza,Jieba和SnowNLP等,这些工具已经能够达到较为可观的实体识别准确率,但仅能识别三种实体类别:人物、地点和组织。
与开放领域中的实体链接任务不同的是,教学资源知识点概念链接是要将教学资源中涉及的概念实体进行抽取并关联,不是对所有的实体如:地名实体、人物实体和时间实体等进行抽取和关联,因此现有的实体链接工具不适用于教学资源中的知识点概念链接。
发明内容
为了克服上述现有技术的不足,本发明的目的是提供一种智能化的在线教学资源知识点概念实体链接方法,基于自然语言处理模型Bert,同时结合文本数据增强技术,对教学资源中涵盖的知识点概念抽取和链接。实现教学资源之间与概念知识之间的关联,最终构建以知识点概念为核心的教学资源组织体系。
为了实现上述目的,本发明采用的技术方案是:
一种智能化的在线教学资源知识点概念实体链接方法,其特征在于,包括以下步骤:
1)首先对字符串进行字符串清洗的预处理过程,字符串清洗主要是判断一个字符是否是为中文、数字和英文字符集,将该字符集标注为S,若不在该字符集S中,则将该字符移除;
2)模型需要对清洗后的字符串C={c1,c2,......,cl}中的各个元素通过”BIO”标注机制进行序列标注,当一个字符ci被标注为”B”时,代表字符ci为某个知识点概念词汇实体的首个字符,”I”为个知识点概念词汇实体的中间字符,”O”为非知识点概念词汇字符,最终得到文本数据;
3)文本数据增强通过知识库中的知识点词条名词及其别名构建知识点概念词典Dict,使用最大双向匹配算法(BiDirectional Maximum Matching algorithm)对字符串C进行匹配,找出字符串中包含的词典词汇,所匹配到的字符子串均以“BIEO”机制进行标注,即若匹配到的字符子串为Csub={ci,ci+1,……,ci+m},Csub∈Dict,对子串中的起始字符ci标注为”B”,结束字符ci+m标注为”E”,起始字符ci和结束字符ci+m之间的字符串{ci+1,ci+2,…,ci+m-1}包含的字符全部标注为”I”,未匹配到的其它字符标注为”O”,通过这种机制,可以得到一串带标注的字符串,并添加起始字符“[CLS]”和结束字符“[SEP]”S={s[CLS],s1,s2,……,s[SEP]},其中每个元素si由字符串C中相应索引位置的字符ci和标注字符组成;
4)将上述得到带标注的字符串S进行向量空间嵌入操作Embedding(S),即将S中的每个元素si表征为一个维度为ds的高维向量,其向量中的数值均使用KaiMing分布随机初始化,嵌入后的序列向量为
5)通过上述操作得到的序列向量ES包含了知识点概念词汇的边界信息,将对字符串C中所包含的上下文语义信息进行表征,使用的是预训练的神经网络语言模型Bert,预训练模型指已在大规模通用文本数据训练后的模型,将预训练的语言模型Bert作为语义编码器,能够有效地将文本序列表征为高维向量,将清洗后的字符串C作为预训练Bert语言模型的输入,Bert模型是以字符为单位对字符串C进行计算,对于输入的字符串C={c1,c2,......,cl},Bert模型会首先在字符串的起始位置之前和末尾位置之后分别***标识符“[CLS]”和“[SEP]”,即字符串{"[CLS]",c1,c2,......,cl,"[SEP]"}作为模型的计算数据;
6)通过上述Bert模型的得到的输出向量F即为字符串C的编码向量,接下来将结合带有概念知识点词汇边界信息的序列向量ES,并通过LSTM模型和条件随机场CRF从字符串C中抽取候选概念知识点实体;将预测标签序列上相应的子串进行提取,可以得到知识点概念提及实体;
7)知识点概念实体链接模型是将抽取出的知识点概念提及实体M={m1,m2,.......,mk}与知识库中的知识点实体进行匹配和关联,基于Levenshtein Distance字符串模糊匹配算法的候选知识点概念实体生成,将当前的提及实体mi与知识库中的知识点概念词汇进行模糊匹配,通过设定模糊匹配算法中的编辑距离参数Distance,将匹配到的编辑距离大于Distance的知识点概念词汇进行过滤,生成候选知识点概念实体集
8)通过上述介绍的预训练Bert模型对每个候选知识点概念实体的摘要文本描述进行编码,获取用于表征候选知识点概念实体的向量,对于一个候选知识点概念实体entityi,其相应的摘要描述为字符串作为Bert模型的输入,Bert模型编码后的输出向量为/>将标识符”CLS”相应的隐含向量hcls,通过激活函数为tanh的全连接层,得到输出向量/>作为候选知识点概念实体的表征向量,即/> 通过这种方式,可以获得候选知识点概念实体集的表征向量集合/>
9)对于每个提及知识点概念mi的表征,首先通过预训练Bert模型对提及知识点概念所位于的课程文本C={c1,c2,......,cl}进行编码,获取课程文本的表征向量VC,获取表征向量VC的方式与候选知识点概念实体的表征向量方法相同;
10)课程文本中每个字符通过Bert模型计算后的编码向量为HC={hcls,h1,h2,......,hl,hsep},对于所抽取的提及知识点概念mi,其表示的明文子串在课程文本C的索引位置可以表示为一个二元组其中,beg表示子串在C中的起始位置索引,end表示子串在C中的结束位置索引。将编码向量HC中提取/>中起始位置索引beg与结束位置索引end之间的编码向量,表示为/>将/>通过文本卷积网络TextCNN,得到提及知识点概念实体的表征向量/>TextCNN模型对于输入/>的计算,将课程文本的表征向量VC与提及知识点概念实体的表征向量/>进行Concatenate拼接操作,并经过一个激活函数为tanh的全连接层,得到输出向量/>即
11)将提及知识点概念实体的输出向量与候选知识点概念实体集的表征向量集合/>中的每个向量进行cos相似度计算,即/>从候选知识点概念实体集/> 选择选择相似度最高的知识点概念与提及知识点概念进行关联,即最后的关联结果可以表示为一个二元组/>
12)输入课程文本中所包含的知识点概念链接结果为 完成对教学资源之间与知识库中知识点概念之间的关联。
所述的知识点概念实体识别模型的输入是一段文本字符串X={x1,x2,......,xn},X由n个字符构成,xi为X的第i个字符,该文本字符串可来自于课程视频字幕或电子教材文本等。
所述的字符串清洗的预处理方法的实现主要通过Unicode编码表实现,当一个字符xi的Unicode编码位于\u4e00和\u9fa5之间时,即/>字符xi为中文字符。同理,当/> 时,字符xi为数字字符;当/> 或/>时,字符xi为英文字符,Unicode编码为上述编码范围之外的字符全部进行删除,完成字符串的清洗过程,清洗后的字符串C={c1,c2,......,cl},清洗后的字符串长度l≤n。
所述的Bert模型对于字符串的计算主要有以下几个步骤:
字符嵌入操作:将待计算的字符串{"[CLS]",c1,c2,......,cl,"[SEP]"}中的每个字符通过嵌入操作(Embedding),将字符串的每个字符表征为一个d维的字符向量,嵌入后的字符串向量为
融入位置信息编码:为了获得文本数据的序列特征,Bert模型使用sin和cos机制对字符串向量Ec中的每个元素的位置索引进行编码。即对于第pos个位置上的元素,其中di为每个元素中的维度位置,1≤di≤d,当di为偶数时使用sin函数进行转换,di为奇数时使用cos函数进行转换,得到位置编码向量每个元素p为一个d维的向量,其相应的位置编码公式如下:
基于点积缩放的自注意力机制:将上述计算获得的字符串向量Ec和位置编码向量P进行相加,得到自注意力机制的输入向量Z={zcls,z1,......,zl,zsep}。自注意力机制主要通过点积缩放的方法捕获序列中每两个元素之间的关联度,两个元素之间的关联程度越高,其计算结果的数值就越大。自注意力机制的计算公式如下,其中输入均为向量Z与其相应的权重参数W进行相乘,即Q=ZWQ,K=ZWK,V=ZWV,d为输入的向量维度:
多头自注意力机制:为了充分考虑上述经缩放点积计算后的来自不同独立子空间的信息,将经过h次缩放点积计算的向量,即h个自注意力头进行拼接Concate后,再进行一个线性变换,计算公式如下,其中WO为一个可训练的参数矩阵:
MultiHead(Q,K,V)=Concate(head1,……,headh)WO
前馈网络层:各字符元素在经过多头注意力计算后的结果M=MultiHead(Q,K,V),仍然是一个只经过线性变换后的结果,为了充分考虑不同潜在维度下的信息之间的相互影响,将具有非线性变换的前馈网络层整合进模型中,前馈网络层的计算方式如下,其中均为可训练的参数矩阵:
F=FFN(Z)=ReLU(ZW(1)+b(1))W(2)+b(2)。
所述的通过LSTM模型和条件随机场CRF从字符串C中抽取候选概念知识点实体;其主要流程如下:
特征向量融合:特征融合主要是将带有语义特征的编码向量F和带有知识点概念词汇边界信息的序列向量ES进行Concate拼接,并通过一个权重参数矩阵W进行线性变换,得到融合后的向量V={vcls,v1,v2,......,vl,vsep},其公式如下:
V=Concate(F,ES)W
LSTM模型编码:LSTM模型是循环神经网络(RNN)的一个变体,,比RNN模型具有更加强大的预测效果。在计算第i个元素时可以充分结合前i-1个元素的向量信息,LSTM模型对于每个时间步t下元素的计算过程如下:
zt=σ(Wi*[ht-1,vt])
rt=σ(Wr*[ht-1,vt])
其中,σ为sigmoid函数,·为点积相乘运算符,vt为融合后的向量V中的第t个元素,ht为隐含状态向量,即vt的相应输出,向量V经过LSTM模型后的输出为H={h1,h2,.....,hT},其中T=l+2。
CRF模型预测层:模型预测层是LSTM模型输出的隐含向量进行判断,由一个全连接层和一个CRF层组成。首先,LSTM模型输出的隐含状态向量H={h1,h2,.....,hT}通过一个全连接层进行线性变换,得到每个字符对应各类别标签的得分,即每个标签的得分l_scorei=[score1,score2,score3]包含三个元素,其中score1表示预测当前字符为”B”的概率得分,score2表示预测当前字符为”I”的概率得分,score3表示预测当前字符为”O”的概率得分。字符串中各字符预测标签的概率得分集合为L_Score={l_scorecls,l_score1,l_score2,,......,l_scorel,l_scoresep},将字符串的得分集合作为CRF层的输入。CRF层可以将输入的得分集合作为Emission得分矩阵,对标签进行建模,计算标签类别之间的得分转移矩阵T,表示从一个标签到另外一个标签的转换概率,以挖掘标签类别之间的依赖关系,计算出字符串的序列得分Scores(H),通过维特比算法对得分序列Scores(H)进行解码得到预测的标签序列将Bert模型携带的起始标识符”CLS”和终止标识符”SEP”相应的预测标签进行去除,得到字符串的预测标签序列结果/>将预测标签序列上相应的子串进行提取,可以得到知识点概念提及实体M={m1,m2,.......,mk}。
所述的将抽取出的知识点概念提及实体M={m1,m2,.......,mk}与知识库中的知识点实体进行匹配和关联,主要步骤有:1、使用Levenshtein Distance字符串模糊匹配算法对每个提及实体mi进行模糊搜索,从知识库中选择可能匹配的候选知识点实体集;2、对提及实体mi和候选实体同样通过Bert模型进行上下文语义表征,得到上下文语义表征向量;3、通过cos函数对提及知识点实体与每个候选实体的上下文语义表征向量进行相似度计算,相似度最高的候选知识点实体即为链接的知识点概念。
所述的TextCNN模型对于输入的计算步骤如下:
1、定义多个一维卷积核,并使用这些卷积核对输入分别做卷积计算,捕捉相邻字符的相关性。
2、对输出的所有通道分别做时序最大池化,再将这些通道的池化输出值拼接,即为表征向量。
本发明的有益效果是:
本专利的技术框架主要包含两个主要部分:知识点概念实体识别模型和知识点概念链接模型,由于本专利的应用场景主要面向国内在线学习平台中的教学资源组织管理,国内的教学基本为中文教学,因此仅适用于中文语言文本,兼容部分英文文本。知识点概念实体识别是要从教学资源文本中抽取出包含的知识点概念实体词汇,如:学科、专业术语和历史事件等,抽取出的知识点概念实体称之为知识点提及;知识点概念关联指,根据所抽取出的知识点概念提及以及其所处的上下文语境,从知识库中找出语义相似度最高的概念知识,进行关系。通过知识点概念实体识别和知识点概念链接,实现教学资源之间与知识点概念之间的关联,达到了构建以概念知识为核心的教学资源组织体系目的。
附图说明
图1为本发明的工作原理图。
图2为本发明的原理图。
具体实施方式
以下结合附图对本发明进一步叙述。
如图1、2所示,知识点概念实体识别模型
知识点概念实体识别模型的输入是一段文本字符串X={x1,x2,......,xn},X由n个字符构成,xi为X的第i个字符,该文本字符串可来自于课程视频字幕或电子教材文本等。
首先对字符串进行字符串清洗的预处理过程,字符串清洗主要是判断一个字符是否是为中文、数字和英文字符集,将该字符集标注为S,若不在该字符集S中,则将该字符移除;该方法的实现主要通过Unicode编码表实现,当一个字符xi的Unicode编码位于\u4e00和\u9fa5之间时,即/>字符xi为中文字符。同理,当时,字符xi为数字字符;当/> 或/>时,字符xi为英文字符。Unicode编码为上述编码范围之外的字符全部进行删除,完成字符串的清洗过程,清洗后的字符串C={c1,c2,......,cl},清洗后的字符串长度l≤n。接下来,模型需要对清洗后的字符串C={c1,c2,......,cl}中的各个元素通过”BIO”标注机制进行序列标注,当一个字符ci被标注为”B”时,代表字符ci为某个知识点概念词汇实体的首个字符,”I”为个知识点概念词汇实体的中间字符,”O”为非知识点概念词汇字符。
由于知识点概念词汇通常在教学文本中出现的词频较低,且其概念词汇的字符串长度相差较大,传统基于字符级的实体识别模型难以识别知识点概念实体的文本边界,知识点概念实体很难被完整识别。本专利使用了文本数据增强的方法,并结合Bert语言模型以提高知识点概念实体识别模型的准确率。
文本数据增强通过知识库中的知识点词条名词及其别名构建知识点概念词典Dict,本专利使用的外部知识库是学术在线提供的学科知识库。使用最大双向匹配算法(BiDirectional Maximum Matching algorithm)对字符串C进行匹配,找出字符串中包含的词典词汇。所匹配到的字符子串均以“BIEO”机制进行标注,即若匹配到的字符子串为Csub={ci,ci+1,……,ci+m},Csub∈Dict,对子串中的起始字符ci标注为”B”,结束字符ci+m标注为”E”,起始字符ci和结束字符ci+m之间的字符串{ci+1,ci+2,.....,ci+m-1}包含的字符全部标注为”I”,未匹配到的其它字符标注为”O”。通过这种机制,可以得到一串带标注的字符串,并添加起始字符“[CLS]”和结束字符“[SEP]”S={s1,s2,……,sl},其中每个元素si由字符串C中相应索引位置的字符ci和标注字符组成。
将上述得到带标注的字符串S进行向量空间嵌入操作Embedding(S),即将S中的每个元素si表征为一个维度为ds的高维向量,其向量中的数值均使用KaiMing分布随机初始化,嵌入后的序列向量为
通过上述操作得到的序列向量ES包含了知识点概念词汇的边界信息,接下来将对字符串C中所包含的上下文语义信息进行表征。本专利使用的是预训练的神经网络语言模型Bert,预训练模型指已在大规模通用文本数据训练后的模型。本专利将预训练的语言模型Bert作为语义编码器,能够有效地将文本序列表征为高维向量。
将清洗后的字符串C作为预训练Bert语言模型的输入,Bert模型是以字符为单位对字符串C进行计算。对于输入的字符串C={c1,c2,......,cl},Bert模型会首先在字符串的起始位置之前和末尾位置之后分别***标识符“[CLS]”和“[SEP]”,即字符串{"[CLS]",c1,c2,......,cl,"[SEP]"}作为模型的计算数据。Bert模型对于字符串的计算主要有以下几个步骤:
字符嵌入操作:将待计算的字符串{"[CLS]",c1,c2,......,cl,"[SEP]"}中的每个字符通过嵌入操作(Embedding),将字符串的每个字符表征为一个d维的字符向量,嵌入后的字符串向量为
融入位置信息编码:为了获得文本数据的序列特征,Bert模型使用sin和cos机制对字符串向量Ec中的每个元素的位置索引进行编码。即对于第pos个位置上的元素,其中di为每个元素中的维度位置,1≤di≤d,当di为偶数时使用sin函数进行转换,di为奇数时使用cos函数进行转换,得到位置编码向量每个元素p为一个d维的向量,其相应的位置编码公式如下:
基于点积缩放的自注意力机制:将上述计算获得的字符串向量Ec和位置编码向量P进行相加,得到自注意力机制的输入向量Z={zcls,z1,......,zl,zsep}。自注意力机制主要通过点积缩放的方法捕获序列中每两个元素之间的关联度,两个元素之间的关联程度越高,其计算结果的数值就越大。自注意力机制的计算公式如下,其中输入均为向量Z与其相应的权重参数W进行相乘,即Q=ZWQ,K=ZWK,V=ZWV,d为输入的向量维度:
多头自注意力机制:为了充分考虑上述经缩放点积计算后的来自不同独立子空间的信息,将经过h次缩放点积计算的向量,即h个自注意力头进行拼接Concate后,再进行一个线性变换,计算公式如下,其中WO为一个可训练的参数矩阵:
MultiHead(Q,K,V)=Concate(head1,……,headh)WO
前馈网络层:各字符元素在经过多头注意力计算后的结果M=MultiHead(Q,K,V),仍然是一个只经过线性变换后的结果,为了充分考虑不同潜在维度下的信息之间的相互影响,将具有非线性变换的前馈网络层整合进模型中,前馈网络层的计算方式如下,其中均为可训练的参数矩阵:
F=FFN(Z)=ReLU(ZW(1)+b(1))W(2)+b(2)
通过上述Bert模型的得到的输出向量F即为字符串C的编码向量,接下来将结合带有概念知识点词汇边界信息的序列向量ES,并通过LSTM模型和条件随机场CRF从字符串C中抽取候选概念知识点实体,其主要流程如下:
特征向量融合:特征融合主要是将带有语义特征的编码向量F和带有知识点概念词汇边界信息的序列向量ES进行Concate拼接,并通过一个权重参数矩阵W进行线性变换,得到融合后的向量V={vcls,v1,v2,......,vl,vsep},其公式如下:
V=Concate(F,ES)W
LSTM模型编码:LSTM模型是循环神经网络(RNN)的一个变体,,比RNN模型具有更加强大的预测效果。在计算第i个元素时可以充分结合前i-1个元素的向量信息,LSTM模型对于每个时间步t下元素的计算过程如下:
zt=σ(Wi*[ht-1,vt])
rt=σ(Wr*[ht-1,vt])
其中,σ为sigmoid函数,·为点积相乘运算符,vt为融合后的向量V中的第t个元素,ht为隐含状态向量,即vt的相应输出,向量V经过LSTM模型后的输出为H={h1,h2,.....,hT},其中T=l+2。
CRF模型预测层:模型预测层是LSTM模型输出的隐含向量进行判断,由一个全连接层和一个CRF层组成。首先,LSTM模型输出的隐含状态向量H={h1,h2,.....,hT}通过一个全连接层进行线性变换,得到每个字符对应各类别标签的得分,即每个标签的得分l_scorei=[score1,score2,score3]包含三个元素,其中score1表示预测当前字符为”B”的概率得分,score2表示预测当前字符为”I”的概率得分,score3表示预测当前字符为”O”的概率得分。字符串中各字符预测标签的概率得分集合为L_Score={l_scorecls,l_score1,l_score2,,......,l_scorel,l_scoresep},将字符串的得分集合作为CRF层的输入。CRF层可以将输入的得分集合作为Emission得分矩阵,对标签进行建模,计算标签类别之间的得分转移矩阵T,表示从一个标签到另外一个标签的转换概率,以挖掘标签类别之间的依赖关系,计算出字符串的序列得分Scores(H),通过维特比算法对得分序列Scores(H)进行解码得到预测的标签序列将Bert模型携带的起始标识符”CLS”和终止标识符”SEP”相应的预测标签进行去除,得到字符串的预测标签序列结果/>将预测标签序列上相应的子串进行提取,可以得到知识点概念提及实体M={m1,m2,.......,mk}。
一.知识点概念实体链接模型
知识点概念实体链接模型是将抽取出的知识点概念提及实体M={m1,m2,.......,mk}与知识库中的知识点实体进行匹配和关联,主要步骤有:1、使用Levenshtein Distance字符串模糊匹配算法对每个提及实体mi进行模糊搜索,从知识库中选择可能匹配的候选知识点实体集;2、对提及实体mi和候选实体同样通过Bert模型进行上下文语义表征,得到上下文语义表征向量;3、通过cos函数对提及知识点实体与每个候选实体的上下文语义表征向量进行相似度计算,相似度最高的候选知识点实体即为链接的知识点概念。
基于Levenshtein Distance字符串模糊匹配算法的候选知识点概念实体生成,将当前的提及实体mi与知识库中的知识点概念词汇进行模糊匹配,通过设定模糊匹配算法中的编辑距离参数Distance,将匹配到的编辑距离大于Distance的知识点概念词汇进行过滤,生成候选知识点概念实体集
在外部知识库中,对于每一个知识点概念词汇都有其相应的摘要文本描述。本专利通过上述介绍的预训练Bert模型对每个候选知识点概念实体的摘要文本描述进行编码,获取用于表征候选知识点概念实体的向量。对于一个候选知识点概念实体entityi,其相应的摘要描述为字符串作为Bert模型的输入。Bert模型编码后的输出向量为将标识符”CLS”相应的隐含向量hcls,通过激活函数为tanh的全连接层,得到输出向量/>作为候选知识点概念实体的表征向量,即/> 通过这种方式,可以获得候选知识点概念实体集的表征向量集合/>
对于每个提及知识点概念mi的表征,首先通过预训练Bert模型对提及知识点概念所位于的课程文本C={c1,c2,......,cl}进行编码,获取课程文本的表征向量VC,获取表征向量VC的方式与候选知识点概念实体的表征向量方法相同。
课程文本中每个字符通过Bert模型计算后的编码向量为HC={hcls,h1,h2,......,hl,hsep},对于所抽取的提及知识点概念mi,其表示的明文子串在课程文本C的索引位置可以表示为一个二元组其中,beg表示子串在C中的起始位置索引,end表示子串在C中的结束位置索引。将编码向量HC中提取/>中起始位置索引beg与结束位置索引end之间的编码向量,表示为/>将/>通过文本卷积网络TextCNN,得到提及知识点概念实体的表征向量/>TextCNN模型对于输入/>的计算步骤如下:
3、定义多个一维卷积核,并使用这些卷积核对输入分别做卷积计算,捕捉相邻字符的相关性。
4、对输出的所有通道分别做时序最大池化,再将这些通道的池化输出值拼接,即为表征向量。
最后,将课程文本的表征向量VC与提及知识点概念实体的表征向量进行Concatenate拼接操作,并经过一个激活函数为tanh的全连接层,得到输出向量/>即
将提及知识点概念实体的输出向量与候选知识点概念实体集的表征向量集合/>中的每个向量进行cos相似度计算,即/>从候选知识点概念实体集 选择选择相似度最高的知识点概念与提及知识点概念进行关联,即最后的关联结果可以表示为一个二元组/>
输入课程文本中所包含的知识点概念链接结果为 完成对教学资源之间与知识库中知识点概念之间的关联。/>
Claims (7)
1.一种智能化的在线教学资源知识点概念实体链接方法,其特征在于,包括以下步骤:
1)首先对字符串进行字符串清洗的预处理过程,字符串清洗主要是判断一个字符是否是为中文、数字和英文字符集,若不在该字符集中,则将该字符移除;
2)模型需要对清洗后的字符串C={c1,c2,......,cl}中的各个元素通过”BIO”标注机制进行序列标注,当一个字符ci被标注为”B”时,代表字符ci为某个知识点概念词汇实体的首个字符,”I”为个知识点概念词汇实体的中间字符,”O”为非知识点概念词汇字符,最终得到文本数据;
3)文本数据增强通过知识库中的知识点词条名词及其别名构建知识点概念词典Dict,使用最大双向匹配算法(BiDirectional Maximum Matching algorithm)对字符串C进行匹配,找出字符串中包含的词典词汇,所匹配到的字符子串均以“BIEO”机制进行标注,即若匹配到的字符子串为Csub={ci,ci+1,......,ci+m},Csub∈Dict,对子串中的起始字符ci标注为“B”,结束字符ci+m标注为“E”,起始字符ci和结束字符ci+m之间的字符串{ci+1,ci+2,......,ci+m-1}包含的字符全部标注为”I”,未匹配到的其它字符标注为“O”,通过这种机制,可以得到一串带标注的字符串同时添加起始字符“[CLS]”和结束字符“[SEP]”,S={s[CLS],s1,s2,......,sl,S[SEP]},其中每个元素si由字符串C中相应索引位置的字符ci和标注字符组成;
4)将上述得到带标注的字符串S进行向量空间嵌入操作Embedding(S),即将S中的每个元素si表征为一个维度为ds的高维向量,其向量中的数值均使用KaiMing分布随机初始化,嵌入后的序列向量为
5)通过上述操作得到的序列向量ES包含了知识点概念词汇的边界信息,将对字符串C中所包含的上下文语义信息进行表征,使用的是预训练的神经网络语言模型Bert,预训练模型指已在大规模通用文本数据训练后的模型,将预训练的语言模型Bert作为语义编码器,能够有效地将文本序列表征为高维向量,将清洗后的字符串C作为预训练Bert语言模型的输入,Bert模型是以字符为单位对字符串C进行计算,对于输入的字符串C={c1,c2,......,cl},Bert模型会首先在字符串的起始位置之前和末尾位置之后分别***标识符”[CLS]”和”[SEP]”,即字符串{″[CLS]″,c1,c2,......,cl,″[SEP]″}作为模型的计算数据;
6)通过上述Bert模型的得到的输出向量F即为字符串C的编码向量,接下来将结合带有概念知识点词汇边界信息的序列向量ES,并通过LSTM模型和条件随机场CRF从字符串C中抽取候选概念知识点实体;将预测标签序列上相应的子串进行提取,可以得到知识点概念提及实体;
7)知识点概念实体链接模型是将抽取出的知识点概念提及实体M={m1,m2,......,mk}与知识库中的知识点实体进行匹配和关联,基于Levenshtein Distance字符串模糊匹配算法的候选知识点概念实体生成,将当前的提及实体mi与知识库中的知识点概念词汇进行模糊匹配,通过设定模糊匹配算法中的编辑距离参数Distance,将匹配到的编辑距离大于Distance的知识点概念词汇进行过滤,生成候选知识点概念实体集
8)通过上述介绍的预训练Bert模型对每个候选知识点概念实体的摘要文本描述进行编码,获取用于表征候选知识点概念实体的向量,对于一个候选知识点概念实体entityi,其相应的摘要描述为字符串作为Bert模型的输入,Bert模型编码后的输出向量为/>将标识符”CLS”相应的隐含向量hcls,通过激活函数为tanh的全连接层,得到输出向量/>作为候选知识点概念实体的表征向量,即/> 通过这种方式,可以获得候选知识点概念实体集的表征向量集合/>
9)对于每个提及知识点概念mi的表征,首先通过预训练Bert模型对提及知识点概念所位于的课程文本C={c1,c2,......,cl}进行编码,获取课程文本的表征向量VC,获取表征向量VC的方式与候选知识点概念实体的表征向量方法相同;
10)课程文本中每个字符通过Bert模型计算后的编码向量为HC={hcls,h1,h2,......,hl,hsep},对于所抽取的提及知识点概念mi,其表示的明文子串在课程文本C的索引位置可以表示为一个二元组其中,beg表示子串在C中的起始位置索引,end表示子串在C中的结束位置索引,将编码向量HC中提取/>中起始位置索引beg与结束位置索引end之间的编码向量,表示为/>将/>通过文本卷积网络TextCNN,得到提及知识点概念实体的表征向量/>TextCNN模型对于输入/>的计算,将课程文本的表征向量VC与提及知识点概念实体的表征向量/>进行Concatenate拼接操作,并经过一个激活函数为tanh的全连接层,得到输出向量/>即/>
11)将提及知识点概念实体的输出向量与候选知识点概念实体集的表征向量集合中的每个向量进行cos相似度计算,即/>从候选知识点概念实体集/> 选择选择相似度最高的知识点概念与提及知识点概念进行关联,即最后的关联结果可以表示为一个二元组/>
12)输入课程文本中所包含的知识点概念链接结果为 完成对教学资源之间与知识库中知识点概念之间的关联。
2.根据权利要求1所述的一种智能化的在线教学资源知识点概念实体链接方法,其特征在于,所述的知识点概念实体识别模型的输入是一段文本字符串X={x1,x2,......,xn},X由n个字符构成,xi为X的第i个字符,该文本字符串可来自于课程视频字幕或电子教材文本等。
3.根据权利要求1所述的一种智能化的在线教学资源知识点概念实体链接方法,其特征在于,所述的字符串清洗的预处理方法的实现主要通过Unicode编码表实现,当一个字符xi的Unicode编码位于\u4e00和\u9fa5之间时,即’/>字符xi为中文字符;同理,当/>时,字符xi为数字字符;当或/>时,字符xi为英文字符,Unicode编码为上述编码范围之外的字符全部进行删除,完成字符串的清洗过程,清洗后的字符串C={c1,c2,......,cl},清洗后的字符串长度l≤n。
4.根据权利要求1所述的一种智能化的在线教学资源知识点概念实体链接方法,其特征在于,所述的Bert模型对于字符串的计算主要有以下几个步骤:
1)字符嵌入操作:将待计算的字符串{″[CLS]″,c1,c2,......,cl,″[SEP]″}中的每个字符通过嵌入操作(Embedding),将字符串的每个字符表征为一个d维的字符向量,嵌入后的字符串向量为
2)融入位置信息编码:为了获得文本数据的序列特征,Bert模型使用sin和cos机制对字符串向量Ec中的每个元素的位置索引进行编码,即对于第pos个位置上的元素,其中di为每个元素中的维度位置,1≤di≤d,当di为偶数时使用sin函数进行转换,di为奇数时使用cos函数进行转换,得到位置编码向量每个元素p为一个d维的向量,其相应的位置编码公式如下:
3)基于点积缩放的自注意力机制:将上述计算获得的字符串向量Ec和位置编码向量P进行相加,得到自注意力机制的输入向量Z={zcls,z1,......,zl,zsep};自注意力机制主要通过点积缩放的方法捕获序列中每两个元素之间的关联度,两个元素之间的关联程度越高,其计算结果的数值就越大;自注意力机制的计算公式如下,其中输入均为向量Z与其相应的权重参数W进行相乘,即Q=ZWQ,K=ZWK,V=ZWV,d为输入的向量维度:
4)多头自注意力机制:为了充分考虑上述经缩放点积计算后的来自不同独立子空间的信息,将经过h次缩放点积计算的向量,即h个自注意力头进行拼接Concate后,再进行一个线性变换,计算公式如下,其中WO为一个可训练的参数矩阵:
MultiHead(Q,K,V)=Concate(head1,......,headh)WO
5)前馈网络层:各字符元素在经过多头注意力计算后的结果M=MultiHead(Q,K,V),仍然是一个只经过线性变换后的结果,为了充分考虑不同潜在维度下的信息之间的相互影响,将具有非线性变换的前馈网络层整合进模型中,前馈网络层的计算方式如下,其中W(1),b(1),/>均为可训练的参数矩阵:
F=FFN(Z)=ReLU(ZW(1)+b(1))W(2)+b(2)。
5.根据权利要求1所述的一种智能化的在线教学资源知识点概念实体链接方法,其特征在于,所述的通过LSTM模型和条件随机场CRF从字符串C中抽取候选概念知识点实体;其主要流程如下:
1)特征向量融合:特征融合主要是将带有语义特征的编码向量F和带有知识点概念词汇边界信息的序列向量ES进行Concate拼接,并通过一个权重参数矩阵W进行线性变换,得到融合后的向量V={vcls,v1,v2,......,vl,vsep},其公式如下:
V=Concate(F,ES)W
2)LSTM模型编码:LSTM模型是循环神经网络(RNN)的一个变体,比RNN模型具有更加强大的预测效果;在计算第i个元素时可以充分结合前i-1个元素的向量信息,LSTM模型对于每个时间步t下元素的计算过程如下:
zt=σ(Wi*[ht-1,vt])
rt=σ(Wr*[ht-1,vt])
其中,σ为sigmoid函数,·为点积相乘运算符,vt为融合后的向量V中的第t个元素,ht为隐含状态向量,即vt的相应输出,向量V经过LSTM模型后的输出为H={h1,h2,......,hT},其中T=l+2;
3)CRF模型预测层:模型预测层是LSTM模型输出的隐含向量进行判断,由一个全连接层和一个CRF层组成;首先,LSTM模型输出的隐含状态向量H={h1,h2,......,hT}通过一个全连接层进行线性变换,得到每个字符对应各类别标签的得分,即每个标签的得分l_scorei=[score1,score2,score3]包含三个元素,其中score1表示预测当前字符为”B”的概率得分,score2表示预测当前字符为”I”的概率得分,score3表示预测当前字符为”O”的概率得分;字符串中各字符预测标签的概率得分集合为L_Score={l_scorecls,l_score1,l_score2,......,l_scorel,l_scoresep},将字符串的得分集合作为CRF层的输入;CRF层可以将输入的得分集合作为Emission得分矩阵,对标签进行建模,计算标签类别之间的得分转移矩阵T,表示从一个标签到另外一个标签的转换概率,以挖掘标签类别之间的依赖关系,计算出字符串的序列得分Scores(H),通过维特比算法对得分序列Scores(H)进行解码得到预测的标签序列将Bert模型携带的起始标识符”CLS”和终止标识符”SEP”相应的预测标签进行去除,得到字符串的预测标签序列结果/>将预测标签序列上相应的子串进行提取,可以得到知识点概念提及实体M={m1,m2,......,mk}。
6.根据权利要求1所述的一种智能化的在线教学资源知识点概念实体链接方法,其特征在于,所述的将抽取出的知识点概念提及实体M={m1,m2,......,mk}与知识库中的知识点实体进行匹配和关联,主要步骤有:1)使用Levenshtein Distance字符串模糊匹配算法对每个提及实体mi进行模糊搜索,从知识库中选择可能匹配的候选知识点实体集;2)对提及实体mi和候选实体同样通过Bert模型进行上下文语义表征,得到上下文语义表征向量;3、通过cos函数对提及知识点实体与每个候选实体的上下文语义表征向量进行相似度计算,相似度最高的候选知识点实体即为链接的知识点概念。
7.根据权利要求1所述的一种智能化的在线教学资源知识点概念实体链接方法,其特征在于,所述的TextCNN模型对于输入的计算步骤如下:
1)定义多个一维卷积核,并使用这些卷积核对输入分别做卷积计算,捕捉相邻字符的相关性;
2)对输出的所有通道分别做时序最大池化,再将这些通道的池化输出值拼接,即为表征向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210018754.4A CN114443813B (zh) | 2022-01-09 | 2022-01-09 | 一种智能化的在线教学资源知识点概念实体链接方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210018754.4A CN114443813B (zh) | 2022-01-09 | 2022-01-09 | 一种智能化的在线教学资源知识点概念实体链接方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114443813A CN114443813A (zh) | 2022-05-06 |
CN114443813B true CN114443813B (zh) | 2024-04-09 |
Family
ID=81367718
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210018754.4A Active CN114443813B (zh) | 2022-01-09 | 2022-01-09 | 一种智能化的在线教学资源知识点概念实体链接方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114443813B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115633090B (zh) * | 2022-10-21 | 2023-07-18 | 北京中电飞华通信有限公司 | 一种基于eSIM卡和5G网络的多源数据链接方法 |
CN116976351B (zh) * | 2023-09-22 | 2024-01-23 | 之江实验室 | 基于学科实体的语言模型构建方法以及学科实体识别装置 |
CN117852637B (zh) * | 2024-03-07 | 2024-05-24 | 南京师范大学 | 一种基于定义的学科概念知识体系自动构建方法与*** |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107526799A (zh) * | 2017-08-18 | 2017-12-29 | 武汉红茶数据技术有限公司 | 一种基于深度学习的知识图谱构建方法 |
CN109902298A (zh) * | 2019-02-13 | 2019-06-18 | 东北师范大学 | 一种自适应学***估测方法 |
CN111753098A (zh) * | 2020-06-23 | 2020-10-09 | 陕西师范大学 | 一种基于跨媒体动态知识图谱的教学方法及*** |
WO2021012645A1 (zh) * | 2019-07-22 | 2021-01-28 | 创新先进技术有限公司 | 推送信息的生成方法及装置 |
-
2022
- 2022-01-09 CN CN202210018754.4A patent/CN114443813B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107526799A (zh) * | 2017-08-18 | 2017-12-29 | 武汉红茶数据技术有限公司 | 一种基于深度学习的知识图谱构建方法 |
CN109902298A (zh) * | 2019-02-13 | 2019-06-18 | 东北师范大学 | 一种自适应学***估测方法 |
WO2021012645A1 (zh) * | 2019-07-22 | 2021-01-28 | 创新先进技术有限公司 | 推送信息的生成方法及装置 |
CN111753098A (zh) * | 2020-06-23 | 2020-10-09 | 陕西师范大学 | 一种基于跨媒体动态知识图谱的教学方法及*** |
Non-Patent Citations (1)
Title |
---|
课程知识本体自动构建方法研究;吕健颖;尚福华;曹茂俊;;计算机应用与软件;20180812(08);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114443813A (zh) | 2022-05-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114443813B (zh) | 一种智能化的在线教学资源知识点概念实体链接方法 | |
CN108460013B (zh) | 一种基于细粒度词表示模型的序列标注模型及方法 | |
CN110083831B (zh) | 一种基于BERT-BiGRU-CRF的中文命名实体识别方法 | |
CN111985239B (zh) | 实体识别方法、装置、电子设备及存储介质 | |
CN111694924A (zh) | 一种事件抽取方法和*** | |
CN114943230B (zh) | 一种融合常识知识的中文特定领域实体链接方法 | |
CN112183064B (zh) | 基于多任务联合学习的文本情绪原因识别*** | |
CN111767718B (zh) | 一种基于弱化语法错误特征表示的中文语法错误更正方法 | |
CN111783399A (zh) | 一种法律裁判文书信息抽取方法 | |
CN112101028A (zh) | 一种多特征双向门控领域专家实体抽取方法及*** | |
CN115292463B (zh) | 一种基于信息抽取的联合多意图检测和重叠槽填充的方法 | |
CN113190656A (zh) | 一种基于多标注框架与融合特征的中文命名实体抽取方法 | |
CN114239574A (zh) | 一种基于实体和关系联合学习的矿工违规行为知识抽取方法 | |
CN113641809A (zh) | 一种基于XLNet-BiGRU-CRF的智能问答方法 | |
CN114238652A (zh) | 一种用于端到端场景的工业故障知识图谱建立方法 | |
CN111444720A (zh) | 一种英文文本的命名实体识别方法 | |
CN115238693A (zh) | 一种基于多分词和多层双向长短期记忆的中文命名实体识别方法 | |
CN113076718B (zh) | 一种商品属性抽取方法及其*** | |
CN113051904B (zh) | 一种面向小规模知识图谱的链接预测方法 | |
CN114020900A (zh) | 基于融合空间位置注意力机制的图表英语摘要生成方法 | |
CN115408506B (zh) | 联合语义解析和语义成分匹配的nl2sql的方法 | |
CN111199152A (zh) | 一种基于标签注意力机制的命名实体识别方法 | |
CN115936001A (zh) | 基于BERT-BiLSTM-CRF模型和注意力的电网IT运维实体识别方法及*** | |
CN112784576B (zh) | 一种文本依存句法分析方法 | |
Xin et al. | Automatic annotation of text classification data set in specific field using named entity recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |