CN113822019A - 文本规整方法、相关设备及可读存储介质 - Google Patents
文本规整方法、相关设备及可读存储介质 Download PDFInfo
- Publication number
- CN113822019A CN113822019A CN202111108530.4A CN202111108530A CN113822019A CN 113822019 A CN113822019 A CN 113822019A CN 202111108530 A CN202111108530 A CN 202111108530A CN 113822019 A CN113822019 A CN 113822019A
- Authority
- CN
- China
- Prior art keywords
- text
- sentence
- features
- level
- normalization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010606 normalization Methods 0.000 title claims abstract description 92
- 238000012549 training Methods 0.000 claims description 73
- 238000013145 classification model Methods 0.000 claims description 51
- 230000003993 interaction Effects 0.000 claims description 37
- 238000000034 method Methods 0.000 claims description 34
- 238000000605 extraction Methods 0.000 claims description 27
- 230000007246 mechanism Effects 0.000 claims description 23
- 230000004931 aggregating effect Effects 0.000 claims description 16
- 230000002452 interceptive effect Effects 0.000 claims description 12
- 238000013459 approach Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 7
- 230000001105 regulatory effect Effects 0.000 abstract description 5
- 230000008569 process Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000007781 pre-processing Methods 0.000 description 5
- 230000002776 aggregation Effects 0.000 description 4
- 238000004220 aggregation Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 4
- 238000006116 polymerization reaction Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 208000031361 Hiccup Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Document Processing Apparatus (AREA)
Abstract
本申请公开了一种文本规整方法、相关设备及可读存储介质。对于待规整的文本,确定用于表征该文本中各个句子的关联关系的全局特征,基于该文本的全局特征对该文本进行规整,得到规整后的文本。该方案在对文本规整时,考虑了文本中各个句子之间的关联关系,因此,可以提升文本的规整效果。
Description
技术领域
本申请涉及自然语言处理技术领域,更具体的说,是涉及一种文本规整方法、相关设备及可读存储介质。
背景技术
随着互联网技术的迅速发展,人们面对越来越多的文本,如各种网页中的文本、语音识别后得到的文本等,这些文本中通常会存在大量口语化描述。比如,语音识别后得到的文本中常存在用户自身在说话时由于说话不流畅或其他因素导致的重复内容,以及,用户自身在说话时由于日常讲话方式存在口语化(如,语气词、应答语、口头禅等)导致的无意义内容。由于口语化描述的存在,导致文本不够书面化。
因此,如何对文本进行规整,以去除文本中的口语化描述,使规整后的文本更书面化,成为本领域技术人员亟待解决的技术问题。
发明内容
鉴于上述问题,本申请提出了一种文本规整方法、相关设备及可读存储介质。具体方案如下:
一种文本规整方法,所述方法包括:
获取待规整的文本;
确定所述文本的全局特征;所述全局特征用于表征所述文本中各个句子之间的关联关系;
基于所述文本的全局特征,对所述文本进行规整,得到规整后的文本。
可选地,所述确定所述文本的全局特征,包括:
确定所述文本中每个句子的词级特征,所述文本中每个句子的句子级特征,以及,所述文本中每个句子的语义类型特征,所述文本中每个句子的句子级特征用于表征所述句子与所述文本中除所述句子之外的其他句子之间的关联关系;
将所述文本中每个句子的词级特征、所述文本中每个句子的句子级特征,以及,所述文本中每个句子的语义类型特征按照句子对应关系进行拼接,得到所述文本的全局特征。
可选地,所述确定所述文本中每个句子的词级特征,所述文本中每个句子的句子级特征,以及,所述文本中每个句子的语义类型特征,包括:
将所述文本输入到文本句子分类模型,所述文本句子分类模型对所述文本进行特征提取,得到所述文本中每个句子的词级特征、所述文本中每个句子的句子级特征,以及,所述文本中每个句子的语义类型特征;
其中,所述文本句子分类模型是以规整前训练文本为训练样本,以规整前训练文本中每个句子的句子标签为样本标签,训练得到的,句子标签用于表征句子的语义类型。
可选地,所述将所述文本输入到文本句子分类模型,所述文本句子分类模型对所述文本进行特征提取,得到所述文本中每个句子的词级特征、所述文本中每个句子的句子级特征,以及,所述文本中每个句子的语义类型特征,包括:
所述文本句子分类模型中的词编码网络,对所述文本中每个句子进行词级编码,得到所述文本中每个句子的词级特征;
所述文本句子分类模型中的文本句子特征提取模块,基于所述文本中每个句子的词级特征对所述文本中每个句子进行句子级特征提取,得到所述文本中每个句子的句子级特征;
所述文本句子分类模型中的文本句子分类模块,对所述文本中每个句子的句子级特征进行识别,得到所述文本中每个句子的语义类型特征。
可选地,所述文本句子分类模型中的文本句子特征提取模块,基于所述文本中每个句子的词级特征对所述文本中每个句子进行句子级特征提取,得到所述文本中每个句子的句子级特征,包括:
对所述文本中每个句子的词级特征进行压缩,得到所述文本中每个句子的第一特征;
采用注意力机制对所述文本中各个句子的第一特征进行聚合,得到所述文本中每个句子的第二特征;
基于所述文本中各个句子间的交互信息,对所述文本中各个句子的第一特征进行聚合,得到所述文本中每个句子的第三特征;
对所述文本中每个句子的第一特征、所述文本中每个句子的第二特征以及所述文本中每个句子的第三特征按照句子对应关系进行拼接,得到所述文本中每个句子的句子级特征。
可选地,所述采用注意力机制对所述文本中各个句子的第一特征进行聚合,得到所述文本中每个句子的第二特征,包括:
将所述文本中每个句子的第一特征作为一个节点构建文本句子间图注意力网络;
针对所述文本句子间图注意力网络中的每个节点,以所述节点为注意力机制中的query,以所述文本句子间图注意力网络中除所述节点之外的其他节点作为注意力机制中的key,计算所述节点在所述其他节点上的注意力系数;以所述节点在所述其他节点上的注意力系数加权其他节点,得到所述节点的新特征;
所述文本句子间图注意力网络中各个节点的新特征即为所述文本中每个句子的第二特征。
可选地,所述基于所述文本中各个句子的交互信息,对所述文本中各个句子的第一特征进行聚合,得到所述文本中每个句子的第三特征,包括:
将所述文本中每个句子的第一特征作为一个节点构建文本句子间图交互网络;
针对所述文本句子间图交互网络中的每个节点,计算所述节点与所述文本句子间图交互网络中除所述节点之外的其他节点的交互信息;将所述节点与所述文本句子间图交互网络中除所述节点之外的其他节点的交互信息进行压缩,得到所述节点的新特征;
所述文本句子间图交互网络中各个节点的新特征即为所述文本中每个句子的第三特征。
可选地,所述基于所述文本的全局特征,对所述文本进行规整,得到规整后的文本,包括:
将所述文本的全局特征输入文本规整模型,所述文本规整模型对所述文本的全局特征进行编码及解码,得到规整后的文本;
其中,所述文本规整模型是以规整前训练文本的全局特征为训练样本,以模型输出趋近于与所述规整前训练文本对应的规整后训练文本为训练目标,训练得到的。
一种文本规整装置,所述装置包括:
获取单元,用于获取待规整的文本;
确定单元,用于确定所述文本的全局特征;所述全局特征用于表征所述文本中各个句子之间的关联关系;
规整单元,用于基于所述文本的全局特征,对所述文本进行规整,得到规整后的文本。
可选地,所述确定单元,包括:
多级特征确定单元,用于确定所述文本中每个句子的词级特征,所述文本中每个句子的句子级特征,以及,所述文本中每个句子的语义类型特征,所述文本中每个句子的句子级特征用于表征所述句子与所述文本中除所述句子之外的其他句子之间的关联关系;
第一拼接单元,用于将所述文本中每个句子的词级特征、所述文本中每个句子的句子级特征,以及,所述文本中每个句子的语义类型特征按照句子对应关系进行拼接,得到所述文本的全局特征。
可选地,所述多级特征确定单元,包括:
文本句子分类模型处理单元,用于将所述文本输入到文本句子分类模型,所述文本句子分类模型对所述文本进行特征提取,得到所述文本中每个句子的词级特征、所述文本中每个句子的句子级特征,以及,所述文本中每个句子的语义类型特征;
其中,所述文本句子分类模型是以规整前训练文本为训练样本,以规整前训练文本中每个句子的句子标签为样本标签,训练得到的,句子标签用于表征句子的语义类型。
可选地,所述文本句子分类模型处理单元,包括:
词级特征确定单元,用于所述文本句子分类模型中的词编码网络,对所述文本中每个句子进行词级编码,得到所述文本中每个句子的词级特征;
句子级特征确定单元,用于所述文本句子分类模型中的文本句子特征提取模块,基于所述文本中每个句子的词级特征对所述文本中每个句子进行句子级特征提取,得到所述文本中每个句子的句子级特征;
语义类型特征确定单元,用于所述文本句子分类模型中的文本句子分类模块,对所述文本中每个句子的句子级特征进行识别,得到所述文本中每个句子的语义类型特征。
可选地,所述句子级特征确定单元,包括:
压缩单元,用于对所述文本中每个句子的词级特征进行压缩,得到所述文本中每个句子的第一特征;
第一聚合单元,用于采用注意力机制对所述文本中各个句子的第一特征进行聚合,得到所述文本中每个句子的第二特征;
第二聚合单元,用于基于所述文本中各个句子间的交互信息,对所述文本中各个句子的第一特征进行聚合,得到所述文本中每个句子的第三特征;
第二拼接单元,用于对所述文本中每个句子的第一特征、所述文本中每个句子的第二特征以及所述文本中每个句子的第三特征按照句子对应关系进行拼接,得到所述文本中每个句子的句子级特征。
可选地,所述第一聚合单元,包括:
文本句子间图注意力网络构建单元,用于将所述文本中每个句子的第一特征作为一个节点构建文本句子间图注意力网络;
第二特征确定单元,用于针对所述文本句子间图注意力网络中的每个节点,以所述节点为注意力机制中的query,以所述文本句子间图注意力网络中除所述节点之外的其他节点作为注意力机制中的key,计算所述节点在所述其他节点上的注意力系数;以所述节点在所述其他节点上的注意力系数加权其他节点,得到所述节点的新特征;所述文本句子间图注意力网络中各个节点的新特征即为所述文本中每个句子的第二特征。
可选地,所述第二聚合单元,包括:
文本句子间图交互网络构建单元,用于将所述文本中每个句子的第一特征作为一个节点构建文本句子间图交互网络;
第三特征确定单元,用于针对所述文本句子间图交互网络中的每个节点,计算所述节点与所述文本句子间图交互网络中除所述节点之外的其他节点的交互信息;将所述节点与所述文本句子间图交互网络中除所述节点之外的其他节点的交互信息进行压缩,得到所述节点的新特征;所述文本句子间图交互网络中各个节点的新特征即为所述文本中每个句子的第三特征。
可选地,所述规整单元,包括:
文本规整模型处理单元,用于将所述文本的全局特征输入文本规整模型,所述文本规整模型对所述文本的全局特征进行编码及解码,得到规整后的文本;
其中,所述文本规整模型是以规整前训练文本的全局特征为训练样本,以模型输出趋近于与所述规整前训练文本对应的规整后训练文本为训练目标,训练得到的。
一种文本规整设备,包括存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现如上所述的文本规整方法的各个步骤。
一种可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,实现如上所述的文本规整方法的各个步骤。
借由上述技术方案,本申请公开了一种文本规整方法、相关设备及可读存储介质。对于待规整的文本,确定用于表征该文本中各个句子的关联关系的全局特征,基于该文本的全局特征对该文本进行规整,得到规整后的文本。该方案在对文本规整时,考虑了文本中各个句子之间的关联关系,因此,可以提升文本的规整效果。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本申请的限制。而且在整个附图中,用相同的参考符号特征相同的部件。在附图中:
图1为本申请实施例公开的文本规整方法的流程示意图;
图2为本申请实施例公开的一种确定文本的全局特征的示意图;
图3为本申请实施例公开的一种文本句子分类模型的结构示意图;
图4为本申请实施例公开的文本句子分类模型中的文本句子中特征提取模块基于所述文本中每个句子的词级特征对所述文本中每个句子进行句子级特征提取,得到所述文本中每个句子的句子级特征的过程示意图;
图5为本申请实施例公开的一种文本规整模型的结构示意图;
图6为本申请实施例公开的一种文本规整装置结构示意图;
图7为本申请实施例公开的一种文本规整设备的硬件结构框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
为了对文本进行规整,以去除文本中的口语化描述,使规整后的文本更书面化,本案发明人进行研究,起初的思路为:对文本进行逐句规整。但是,对文本逐句规整的方式,忽略了文本中各个句子之间的关联关系,导致规整效果有限。
鉴于上述思路存在的问题,本案发明人进行了深入研究,最终提出了一种文本规整方法,该方法在对文本规整时,考虑了文本中各个句子之间的关联关系,提升了文本的规整效果。接下来,通过下述实施例对本申请提供的文本规整方法进行介绍。
参照图1,图1为本申请实施例公开的文本规整方法的流程示意图,该方法可以包括:
步骤S101:获取待规整的文本。
在本申请中,所述待规整的文本主要是包含口语描述的文本,如对口语化的语音数据进行识别后得到的文本,具体可以为通用领域的文本,也可以为根据应用需求定制的文本,对此本案不做限定。
步骤S102:确定所述文本的全局特征。
在本申请中,所述文本的全局特征用于表征所述文本中各个句子之间的关联关系。
作为一种可实施方式,所述文本的全局特征包括所述文本中各个句子的全局特征,所述文本中每个句子的全局特征用于表征所述句子与所述文本中除所述句子之外的其他句子的关联关系。
步骤S103:基于所述文本的全局特征,对所述文本进行规整,得到规整后的文本。
在本申请中,在得到所述文本的全局特征之后,即可基于所述文本的全局特征,对所述文本进行规整,得到规整后的文本。
在本申请中,可以基于神经网络模型对所述文本的全局特征进行编码和解码处理,实现对所述文本的规整,得到规整后的文本。具体实现方式将通过后面的实施例详细说明。
本实施例公开了一种文本规整方法,对于待规整的文本,确定用于表征该文本中各个句子的关联关系的全局特征,基于该文本的全局特征对该文本进行规整,得到规整后的文本。该方法在对文本规整时,考虑了文本中各个句子之间的关联关系,因此,可以提升文本的规整效果。
在本申请的一个实施例中,对步骤S102确定所述文本的全局特征的具体实现过程进行了介绍,该过程可以包括以下步骤:
步骤S201:确定所述文本中每个句子的词级特征,所述文本中每个句子的句子级特征,以及,所述文本中每个句子的语义类型特征。
需要说明的是,在本申请中,所述文本中每个句子的句子级特征用于表征所述句子与所述文本中除所述句子之外的其他句子之间的关联关系,是将所述句子与所述文本中除所述句子之外的其他句子进行聚合后得到的。
在本申请中,可以基于神经网络确定所述文本中每个句子的词级特征,所述文本中每个句子的句子级特征,以及,所述文本中每个句子的语义类型特征。具体实现方式将通过后面的实施例详细说明。
需要说明的是,句子的语义类型特征用于表征句子所属的语义类型,在本申请中,可以预定义语义类型,作为一种可实施方式,本申请中给出一种语义类型分类方案,具体的,该方案中,句子的语义类型包括***语、语义混乱、语义截断、冗余以及正常语句这五种。为便于理解,本申请中对上述几种语义类型进行了如下解释说明。
***语,指文本中出现无关的***语、题外话,如一场会议进行中途参会人打电话的内容或旁人***的与整体文本主题无关的话等。如:“风好大。我刚刚说哪了?对,消费者他会能够更加有体系化地去认识到审美是一件什么样的事儿,”;(划线部分为***语);
语义混乱,指文本中句子逻辑混乱导致语义无法理解或句子转写结果有问题且对应音频内容不清晰造成的语义混乱。如:“丁老师呢,他什么亲戚就是国家有关的可以部的,还是什么没有关系”;
冗余,指文本中存在重复表达或后文对前文修正。如:“有一条,读一条,有一条读一条呗。”或是“我们星期五,不,还是星期六约吧。”
语义截断,指由于说话人表达时不足够流畅,存在犹豫或思考或设备故障等因素,导致文本中句子语义不完整,有截断现象。如“他这个。”“我们计划明天开会,然后。”
正常语句,指具有明确语义且易于理解无冗余的文本句子,特别地,允许句子中存在没有任何实际意义的语气词,如:哦、噢、呃、嗯、啊、唉、哎、呢、啦、吧、呵、哼、嘿,嗨、咦、呗、呦、嘞、哈、哇等,允许句子中存在没有实际意义的停顿词,如这个、那个、就是、是吧、好、那么、就、这、那、所以呢、然后等等。
需要说明的是,上述语义类型分类方案是本案提出的一种可行的具体分类方案,是根据分析预收集的大量文本,分析归纳得出的一种效果较好的分类方案,但该种分类方案并不是理论上唯一的可行方案。例如,可以对上述语义类型分类方案中给出的5种类型进行细化,如语义混乱可以根据语义混乱的原因进一步将句子文本语义类型进行细粒度划分,也可以在上述句子文本语义类型分类方案中给出的5种类型以外,额外增加其他类型,如句子倒装、指代歧义、成分缺失等。
步骤S202:将所述文本中每个句子的词级特征、所述文本中每个句子的句子级特征,以及,所述文本中每个句子的语义类型特征按照句子对应关系进行拼接,得到所述文本的全局特征。
为便于理解,参阅图2,图2为本申请实施例公开的一种确定文本的全局特征的示意图,由图2可以看出,将图2左侧所示的文本中每个句子的词级特征、文本中每个句子的句子级特征,以及,文本中每个句子的语义类型特征按照句子对应关系进行拼接,即可得到图2右侧所示的文本的全局特征。需要说明的是,对于第i句中的每个词,对应的句子级特征均为ci,语义类型特征均为pi。
在本申请中,可以预先收集大量规整前文本,比如可以收集大量口语化的语音数据(如,采访的语音数据),进行语音识别后得到相应文本,也可以直接收集包含口语描述的文本,如小说中包含人物的口语描述的文本等。并对收集的规整前文本进行规整(如,去除规整前文本中的口语描述)得到规整后文本。并从收集的大量规整前文本中选取部分或全部作为规整前训练文本,从与收集的大量规整前文本对应的规整后文本中选取与规整前训练文本对应的规整后训练文本,对文本句子分类模型和文本规整模型进行训练。
在本申请中,在基于规整前训练文本和对应的规整后训练文本对文本句子分类模型和文本规整模型进行训练之前,还需要对规整前训练文本和规整后训练文本进行预处理。
其中,对规整前训练文本的预处理包括对规整前训练文本进行分句处理,将规整前训练文本中的每个句子处理成分词的输入序列形式,以及,对规整前训练文本中的每个句子添加句子标签,其中不同的句子标签表征不同的语义类型。对规整后训练文本的预处理包括将规整后训练文本中的每个句子处理成分词的输入序列形式。
在本申请中,对规整前训练文本进行分句处理,可以采用按标点符号进行子句或整句的切分,也可根据识别VAD(Voice Activity Detection,语音活动检测),按照不同VAD段进行切分,本案不做具体要求。对规整前训练文本和规整后训练文本中的每个句子处理成分词的输入序列形式,可以采用现有分词技术,此处不再详述。
为便于理解,如规整前训练文本为“因为嗯,其他品牌的是都有的,但是他这个,他这个他这个。他这个。怎么说呢,他这个软件比较奇葩,所以他会删掉那我加张中间表就完了。有一条,读一条,有一条读一条呗。”,对其进行分句处理后得到以下句子:
“因为嗯,其他品牌的是都有的,但是他这个,他这个他这个。”
“他这个。”
“怎么说呢,他这个软件比较奇葩,所以他会删掉那我加张中间表就完了。”
“有一条,读一条,有一条读一条呗。”
以句子“因为嗯,其他品牌的是都有的,但是他这个,他这个他这个。”为例,分词的输入序列形式为:
“因为/嗯/,/其他/品牌/的/是/都/有/的/,/但是/他/这个/,/他/这个/他/这个/。”。
在对规整前训练文本和规整后训练文本预处理完毕之后,即可对文本句子分类模型和文本规整模型进行训练,其中,所述文本句子分类模型是以规整前训练文本为训练样本,以规整前训练文本中每个句子的句子标签为样本标签,训练得到的,可采用基于交叉熵的损失函数、负对数似然损失函数等,具体实现方式与现有过程一致,本案不作限定。
所述文本规整模型是以规整前训练文本的全局特征为训练样本,以模型输出趋近于与所述规整前训练文本对应的规整后训练文本为训练目标,训练得到的。
基于训练得到的文本句子分类模型,作为一种可实施方式,所述确定所述文本中每个句子的词级特征,所述文本中每个句子的句子级特征,以及,所述文本中每个句子的语义类型特征的过程可以为:将所述文本输入到文本句子分类模型,所述文本句子分类模型对所述文本进行特征提取,得到所述文本中每个句子的词级特征、所述文本中每个句子的句子级特征,以及,所述文本中每个句子的语义类型特征。
需要说明的是,在将所述文本输入到文本句子分类模型之前,需要对所述文本进行预处理,具体的,需要对所述文本进行分句处理,将文本中的每个句子处理成分词的输入序列形式。具体方式可参见前述对规整前训练文本的预处理方式的详细介绍,此处不再赘述。
基于训练得到的文本规整模型,作为一种可实施方式,所述基于所述文本的全局特征,对所述文本进行规整,得到规整后的文本的过程可以为:
将所述文本的全局特征输入文本规整模型,所述文本规整模型对所述文本的全局特征进行编码及解码,得到规整后的文本。
参照图3,图3为本申请实施例公开的一种文本句子分类模型的结构示意图,该模型包括词编码网络、文本句子特征提取模块以及文本句子分类模块。其中:
所述词编码网络,输入为预处理后的规整前文本,输出为规整前文本中每个句子的词级特征,每个句子的词级特征包括该句子中每个词的词特征。所述词编码网络的网络结构可利用Transformer方案下的encoder部分模型,具体过程与现有技术相同,在此不再详述。
所述文本句子特征提取模块,输入为规整前文本中每个句子的词级特征,输出为规整前文本中每个句子的句子级特征。所述文本句子特征提取模块的具体实现方式将通过后续实施例详细说明。
所述文本句子分类模块,输入为规整前文本中每个句子的句子级特征,输出为规整前文本中每个句子的语义类型特征。
在本申请中,规整前文本中每个句子的语义类型特征为每个句子对应预定义的句子标签的概率。本申请中对文本句子分类模块的网络结构不作限定,可以采用非线性变换接softmax层等现有技术。
基于图3所示的文本句子分类模型,作为一种可实施方式,所述将所述文本输入到文本句子分类模型,所述文本句子分类模型对所述文本进行特征提取,得到所述文本中每个句子的词级特征、所述文本中每个句子的句子级特征,以及,所述文本中每个句子的语义类型特征的过程可以包括以下步骤:
步骤301:所述文本句子分类模型中的词编码网络,对所述文本中每个句子进行词级编码,得到所述文本中每个句子的词级特征。
步骤302:所述文本句子分类模型中的文本句子特征提取模块,基于所述文本中每个句子的词级特征对所述文本中每个句子进行句子级特征提取,得到所述文本中每个句子的句子级特征。
步骤303:所述文本句子分类模型中的文本句子分类模块,对所述文本中每个句子的句子级特征进行识别,得到所述文本中每个句子的语义类型特征。
在本申请的一个实施例中,对步骤S302所述文本句子分类模型中的文本句子中特征提取模块基于所述文本中每个句子的词级特征对所述文本中每个句子进行句子级特征提取,得到所述文本中每个句子的句子级特征的过程进行详细说明,为便于理解,参阅图4,图4为本申请实施例公开的文本句子分类模型中的文本句子中特征提取模块基于所述文本中每个句子的词级特征对所述文本中每个句子进行句子级特征提取,得到所述文本中每个句子的句子级特征的过程示意图,结合图4,对步骤S302所述文本句子分类模型中的文本句子中特征提取模块基于所述文本中每个句子的词级特征对所述文本中每个句子进行句子级特征提取,得到所述文本中每个句子的句子级特征的过程所包含的步骤进行如下说明:
步骤S401:对所述文本中每个句子的词级特征进行压缩,得到所述文本中每个句子的第一特征。
图4中W11,W12…,Wm1表示文本中第1个句子中的每个词的词特征,其中m1表示第1个句子中包含的词数,同理,W21,W22…,Wm2表示文本中第2个句子中的每个词的词特征,其中m2表示第2个句子中包含的词数,直至第n个句子中的mn个词特征,n表示文本预处理后共有n个句子。
在本申请中,可以将输入的文本中每个句子的词级特征进行压缩,得到固定长度的第一特征,对应图4中,文本的第1个句子所有词特征W11,W12…,Wm,经过压缩后,得到第1个句子的第一特征为s1。依次类推,文本中第1个句子至第n个句子的第一特征可表示为序列s1,s2…,sn。本案对多个词的词特征进行压缩的网络结构不作限定,可采用注意力机制或池化等现有技术。
步骤S402:采用注意力机制对所述文本中各个句子的第一特征进行聚合,得到所述文本中每个句子的第二特征。
文本中不同句子之间可能存在多种关联关系,很难用单一的注意来描述所有的关联。在本申请中,可以将所述文本中每个句子的第一特征作为一个节点构建文本句子间图注意力网络;针对所述文本句子间图注意力网络中的每个节点,以所述节点为注意力机制中的query,以所述文本句子间图注意力网络中除所述节点之外的其他节点作为注意力机制中的key,计算所述节点在所述其他节点上的注意力系数;以所述节点在所述其他节点上的注意力系数加权其他节点,得到所述节点的新特征;所述文本句子间图注意力网络中各个节点的新特征即为所述文本中每个句子的第二特征。
为便于理解,参阅图4,文本句子间图注意力网络,是将文本中的每个句子的第一特征si视为图神经网络中的一个节点,建立一个全连通图。对每个节点采用注意力机制来聚合邻居节点的信息,最终对于每个文本中的句子,输出关注到其他句子的第二特征h1,h2…,hn。以第i句为例,以si为注意力机制中的query,其他n-1个句子的第一特征作为注意力机制中的key,计算在其他每个句子上的注意力系数,最后以计算出的注意力系数加权其他句子的第一特征,最终文本句子间图注意力网络输出第i句的第二特征hi。所述注意力机制计算方式及网络结构,本案不做具体要求,可采用基于乘积的multi-head attention或加性attention,具体实现方式与现有技术相同,在此不再详述。
步骤S403:基于所述文本中各个句子间的交互信息,对所述文本中各个句子的第一特征进行聚合,得到所述文本中每个句子的第三特征。
具体的,在本申请中,可以将所述文本中每个句子的第一特征作为一个节点构建文本句子间图交互网络;针对所述文本句子间图交互网络中的每个节点,计算所述节点与所述文本句子间图交互网络中除所述节点之外的其他节点的交互信息;将所述节点与所述文本句子间图交互网络中除所述节点之外的其他节点的交互信息进行压缩,得到所述节点的新特征;所述文本句子间图交互网络中各个节点的新特征即为所述文本中每个句子的第三特征。
所述文本句子间图交互网络,和前面所述文本句子间图注意力网络类似,仍是将文本中的每个句子的第一特征si视为图神经网络中的一个节点,建立一个全连通图。区别在于文本句子间图注意力网络使用基于图的注意权重来聚合文本中所有句子的第一特征,而文本句子间图交互网络是通过计算每两个句子特征的交互作用来明确描述文本中不同句子之间的关联关系。在本申请通过拼接、差值和乘积来获得第i句和第j句之间的交互信息,计算公式如下所示:
uij=RELU(Wu[si;sj;si-sj;dot(si,sj)])
其中,uij表示文本句子间图交互网络计算得到的第i句和第j句之间的交互信息,RELU(*)表示激活函数,Wu表示网络可学习线性变换参数,si;sj表示第i句和第j句的第一特征的拼接,si-sj表示第i句和第j句的第一特征的差值,dot(si,sj)表示第i句和第j句的第一特征的点积。
如图4所示,所述文本句子间图交互网络最终对于每个句子获得第i个句子的第二特征用ui表示,是通过将n-1个uij,j=[1,n],j≠i进行压缩,得到的固定长度的特征,本案对n-1个uij进行压缩的网络结构不作限定,可采用注意力机制或池化等现有技术。
步骤S404:对所述文本中每个句子的第一特征、所述文本中每个句子的第二特征以及所述文本中每个句子的第三特征按照句子对应关系进行拼接,得到所述文本中每个句子的句子级特征。
如图4所示,经过步骤S401、步骤S402和步骤S403的处理,对于文本中的第i句话,分别提取了第一特征si,第二特征hi以及第三特征ui,通过拼接操作,即可获得句子的句子级特征ci,即:ci=[si,hi,ui]。
参照图5,图5为本申请实施例公开的一种文本规整模型的结构示意图,如图5所示,该模型包括文本规整编码模块以及文本规整解码模块,模型的输入为基于上述实施例确定的文本的全局特征。模型输出为规整后文本。
下面对本申请实施例公开的文本规整装置进行描述,下文描述的文本规整装置与上文描述的文本规整方法可相互对应参照。
参照图6,图6为本申请实施例公开的一种文本规整装置结构示意图。如图6所示,该文本规整装置可以包括:
获取单元61,用于获取待规整的文本;
确定单元62,用于确定所述文本的全局特征;所述全局特征用于表征所述文本中各个句子之间的关联关系;
规整单元63,用于基于所述文本的全局特征,对所述文本进行规整,得到规整后的文本。
作为一种可实施方式,所述确定单元,包括:
多级特征确定单元,用于确定所述文本中每个句子的词级特征,所述文本中每个句子的句子级特征,以及,所述文本中每个句子的语义类型特征,所述文本中每个句子的句子级特征用于表征所述句子与所述文本中除所述句子之外的其他句子之间的关联关系;
第一拼接单元,用于将所述文本中每个句子的词级特征、所述文本中每个句子的句子级特征,以及,所述文本中每个句子的语义类型特征按照句子对应关系进行拼接,得到所述文本的全局特征。
作为一种可实施方式,所述多级特征确定单元,包括:
文本句子分类模型处理单元,用于将所述文本输入到文本句子分类模型,所述文本句子分类模型对所述文本进行特征提取,得到所述文本中每个句子的词级特征、所述文本中每个句子的句子级特征,以及,所述文本中每个句子的语义类型特征;
其中,所述文本句子分类模型是以规整前训练文本为训练样本,以规整前训练文本中每个句子的句子标签为样本标签,训练得到的,句子标签用于表征句子的语义类型。
作为一种可实施方式,所述文本句子分类模型处理单元,包括:
词级特征确定单元,用于所述文本句子分类模型中的词编码网络,对所述文本中每个句子进行词级编码,得到所述文本中每个句子的词级特征;
句子级特征确定单元,用于所述文本句子分类模型中的文本句子特征提取模块,基于所述文本中每个句子的词级特征对所述文本中每个句子进行句子级特征提取,得到所述文本中每个句子的句子级特征;
语义类型特征确定单元,用于所述文本句子分类模型中的文本句子分类模块,对所述文本中每个句子的句子级特征进行识别,得到所述文本中每个句子的语义类型特征。
作为一种可实施方式,所述句子级特征确定单元,包括:
压缩单元,用于对所述文本中每个句子的词级特征进行压缩,得到所述文本中每个句子的第一特征;
第一聚合单元,用于采用注意力机制对所述文本中各个句子的第一特征进行聚合,得到所述文本中每个句子的第二特征;
第二聚合单元,用于基于所述文本中各个句子间的交互信息,对所述文本中各个句子的第一特征进行聚合,得到所述文本中每个句子的第三特征;
第二拼接单元,用于对所述文本中每个句子的第一特征、所述文本中每个句子的第二特征以及所述文本中每个句子的第三特征按照句子对应关系进行拼接,得到所述文本中每个句子的句子级特征。
作为一种可实施方式,所述第一聚合单元,包括:
文本句子间图注意力网络构建单元,用于将所述文本中每个句子的第一特征作为一个节点构建文本句子间图注意力网络;
第二特征确定单元,用于针对所述文本句子间图注意力网络中的每个节点,以所述节点为注意力机制中的query,以所述文本句子间图注意力网络中除所述节点之外的其他节点作为注意力机制中的key,计算所述节点在所述其他节点上的注意力系数;以所述节点在所述其他节点上的注意力系数加权其他节点,得到所述节点的新特征;所述文本句子间图注意力网络中各个节点的新特征即为所述文本中每个句子的第二特征。
作为一种可实施方式,所述第二聚合单元,包括:
文本句子间图交互网络构建单元,用于将所述文本中每个句子的第一特征作为一个节点构建文本句子间图交互网络;
第三特征确定单元,用于针对所述文本句子间图交互网络中的每个节点,计算所述节点与所述文本句子间图交互网络中除所述节点之外的其他节点的交互信息;将所述节点与所述文本句子间图交互网络中除所述节点之外的其他节点的交互信息进行压缩,得到所述节点的新特征;所述文本句子间图交互网络中各个节点的新特征即为所述文本中每个句子的第三特征。
作为一种可实施方式,所述规整单元,包括:
文本规整模型处理单元,用于将所述文本的全局特征输入文本规整模型,所述文本规整模型对所述文本的全局特征进行编码及解码,得到规整后的文本;
其中,所述文本规整模型是以规整前训练文本的全局特征为训练样本,以模型输出趋近于与所述规整前训练文本对应的规整后训练文本为训练目标,训练得到的。
需要说明的是,上述各个单元的具体功能描述,可参见方法实施例的相关描述,此处不再赘述。
参照图7,图7为本申请实施例提供的文本规整设备的硬件结构框图,参照图7,文本规整设备的硬件结构可以包括:至少一个处理器1,至少一个通信接口2,至少一个存储器3和至少一个通信总线4;
在本申请实施例中,处理器1、通信接口2、存储器3、通信总线4的数量为至少一个,且处理器1、通信接口2、存储器3通过通信总线4完成相互间的通信;
处理器1可能是一个中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路等;
存储器3可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatilememory)等,例如至少一个磁盘存储器;
其中,存储器存储有程序,处理器可调用存储器存储的程序,所述程序用于:
获取待规整的文本;
确定所述文本的全局特征;所述全局特征用于表征所述文本中各个句子之间的关联关系;
基于所述文本的全局特征,对所述文本进行规整,得到规整后的文本。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
本申请实施例还提供一种可读存储介质,该可读存储介质可存储有适于处理器执行的程序,所述程序用于:
获取待规整的文本;
确定所述文本的全局特征;所述全局特征用于表征所述文本中各个句子之间的关联关系;
基于所述文本的全局特征,对所述文本进行规整,得到规整后的文本。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (11)
1.一种文本规整方法,其特征在于,所述方法包括:
获取待规整的文本;
确定所述文本的全局特征;所述全局特征用于表征所述文本中各个句子之间的关联关系;
基于所述文本的全局特征,对所述文本进行规整,得到规整后的文本。
2.根据权利要求1所述的方法,其特征在于,所述确定所述文本的全局特征,包括:
确定所述文本中每个句子的词级特征,所述文本中每个句子的句子级特征,以及,所述文本中每个句子的语义类型特征,所述文本中每个句子的句子级特征用于表征所述句子与所述文本中除所述句子之外的其他句子之间的关联关系;
将所述文本中每个句子的词级特征、所述文本中每个句子的句子级特征,以及,所述文本中每个句子的语义类型特征按照句子对应关系进行拼接,得到所述文本的全局特征。
3.根据权利要求2所述的方法,其特征在于,所述确定所述文本中每个句子的词级特征,所述文本中每个句子的句子级特征,以及,所述文本中每个句子的语义类型特征,包括:
将所述文本输入到文本句子分类模型,所述文本句子分类模型对所述文本进行特征提取,得到所述文本中每个句子的词级特征、所述文本中每个句子的句子级特征,以及,所述文本中每个句子的语义类型特征;
其中,所述文本句子分类模型是以规整前训练文本为训练样本,以规整前训练文本中每个句子的句子标签为样本标签,训练得到的,句子标签用于表征句子的语义类型。
4.根据权利要求3所述的方法,其特征在于,所述将所述文本输入到文本句子分类模型,所述文本句子分类模型对所述文本进行特征提取,得到所述文本中每个句子的词级特征、所述文本中每个句子的句子级特征,以及,所述文本中每个句子的语义类型特征,包括:
所述文本句子分类模型中的词编码网络,对所述文本中每个句子进行词级编码,得到所述文本中每个句子的词级特征;
所述文本句子分类模型中的文本句子特征提取模块,基于所述文本中每个句子的词级特征对所述文本中每个句子进行句子级特征提取,得到所述文本中每个句子的句子级特征;
所述文本句子分类模型中的文本句子分类模块,对所述文本中每个句子的句子级特征进行识别,得到所述文本中每个句子的语义类型特征。
5.根据权利要求4所述的方法,其特征在于,所述文本句子分类模型中的文本句子特征提取模块,基于所述文本中每个句子的词级特征对所述文本中每个句子进行句子级特征提取,得到所述文本中每个句子的句子级特征,包括:
对所述文本中每个句子的词级特征进行压缩,得到所述文本中每个句子的第一特征;
采用注意力机制对所述文本中各个句子的第一特征进行聚合,得到所述文本中每个句子的第二特征;
基于所述文本中各个句子间的交互信息,对所述文本中各个句子的第一特征进行聚合,得到所述文本中每个句子的第三特征;
对所述文本中每个句子的第一特征、所述文本中每个句子的第二特征以及所述文本中每个句子的第三特征按照句子对应关系进行拼接,得到所述文本中每个句子的句子级特征。
6.根据权利要求5所述的方法,其特征在于,所述采用注意力机制对所述文本中各个句子的第一特征进行聚合,得到所述文本中每个句子的第二特征,包括:
将所述文本中每个句子的第一特征作为一个节点构建文本句子间图注意力网络;
针对所述文本句子间图注意力网络中的每个节点,以所述节点为注意力机制中的query,以所述文本句子间图注意力网络中除所述节点之外的其他节点作为注意力机制中的key,计算所述节点在所述其他节点上的注意力系数;以所述节点在所述其他节点上的注意力系数加权其他节点,得到所述节点的新特征;
所述文本句子间图注意力网络中各个节点的新特征即为所述文本中每个句子的第二特征。
7.根据权利要求5所述的方法,其特征在于,所述基于所述文本中各个句子的交互信息,对所述文本中各个句子的第一特征进行聚合,得到所述文本中每个句子的第三特征,包括:
将所述文本中每个句子的第一特征作为一个节点构建文本句子间图交互网络;
针对所述文本句子间图交互网络中的每个节点,计算所述节点与所述文本句子间图交互网络中除所述节点之外的其他节点的交互信息;将所述节点与所述文本句子间图交互网络中除所述节点之外的其他节点的交互信息进行压缩,得到所述节点的新特征;
所述文本句子间图交互网络中各个节点的新特征即为所述文本中每个句子的第三特征。
8.根据权利要求1所述的方法,其特征在于,所述基于所述文本的全局特征,对所述文本进行规整,得到规整后的文本,包括:
将所述文本的全局特征输入文本规整模型,所述文本规整模型对所述文本的全局特征进行编码及解码,得到规整后的文本;
其中,所述文本规整模型是以规整前训练文本的全局特征为训练样本,以模型输出趋近于与所述规整前训练文本对应的规整后训练文本为训练目标,训练得到的。
9.一种文本规整装置,其特征在于,所述装置包括:
获取单元,用于获取待规整的文本;
确定单元,用于确定所述文本的全局特征;所述全局特征用于表征所述文本中各个句子之间的关联关系;
规整单元,用于基于所述文本的全局特征,对所述文本进行规整,得到规整后的文本。
10.一种文本规整设备,其特征在于,包括存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现如权利要求1至8中任一项所述的文本规整方法的各个步骤。
11.一种可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如权利要求1至8中任一项所述的文本规整方法的各个步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111108530.4A CN113822019B (zh) | 2021-09-22 | 2021-09-22 | 文本规整方法、相关设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111108530.4A CN113822019B (zh) | 2021-09-22 | 2021-09-22 | 文本规整方法、相关设备及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113822019A true CN113822019A (zh) | 2021-12-21 |
CN113822019B CN113822019B (zh) | 2024-07-12 |
Family
ID=78915104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111108530.4A Active CN113822019B (zh) | 2021-09-22 | 2021-09-22 | 文本规整方法、相关设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113822019B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107180023A (zh) * | 2016-03-11 | 2017-09-19 | 科大讯飞股份有限公司 | 一种文本分类方法及*** |
CN108090099A (zh) * | 2016-11-22 | 2018-05-29 | 科大讯飞股份有限公司 | 一种文本处理方法及装置 |
CN110765733A (zh) * | 2019-10-24 | 2020-02-07 | 科大讯飞股份有限公司 | 一种文本规整方法、装置、设备及存储介质 |
CN111046179A (zh) * | 2019-12-03 | 2020-04-21 | 哈尔滨工程大学 | 一种面向特定领域开放网络问句的文本分类方法 |
CN111753498A (zh) * | 2020-08-10 | 2020-10-09 | 腾讯科技(深圳)有限公司 | 文本处理方法、装置、设备及存储介质 |
WO2020211275A1 (zh) * | 2019-04-18 | 2020-10-22 | 五邑大学 | 基于预训练模型与微调技术的医疗文本关系抽取方法 |
CN111832305A (zh) * | 2020-07-03 | 2020-10-27 | 广州小鹏车联网科技有限公司 | 一种用户意图识别方法、装置、服务器和介质 |
CN111831783A (zh) * | 2020-07-07 | 2020-10-27 | 北京北大软件工程股份有限公司 | 一种篇章级关系抽取方法 |
WO2020244066A1 (zh) * | 2019-06-04 | 2020-12-10 | 平安科技(深圳)有限公司 | 一种文本分类方法、装置、设备及存储介质 |
-
2021
- 2021-09-22 CN CN202111108530.4A patent/CN113822019B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107180023A (zh) * | 2016-03-11 | 2017-09-19 | 科大讯飞股份有限公司 | 一种文本分类方法及*** |
CN108090099A (zh) * | 2016-11-22 | 2018-05-29 | 科大讯飞股份有限公司 | 一种文本处理方法及装置 |
WO2020211275A1 (zh) * | 2019-04-18 | 2020-10-22 | 五邑大学 | 基于预训练模型与微调技术的医疗文本关系抽取方法 |
WO2020244066A1 (zh) * | 2019-06-04 | 2020-12-10 | 平安科技(深圳)有限公司 | 一种文本分类方法、装置、设备及存储介质 |
CN110765733A (zh) * | 2019-10-24 | 2020-02-07 | 科大讯飞股份有限公司 | 一种文本规整方法、装置、设备及存储介质 |
CN111046179A (zh) * | 2019-12-03 | 2020-04-21 | 哈尔滨工程大学 | 一种面向特定领域开放网络问句的文本分类方法 |
CN111832305A (zh) * | 2020-07-03 | 2020-10-27 | 广州小鹏车联网科技有限公司 | 一种用户意图识别方法、装置、服务器和介质 |
CN111831783A (zh) * | 2020-07-07 | 2020-10-27 | 北京北大软件工程股份有限公司 | 一种篇章级关系抽取方法 |
CN111753498A (zh) * | 2020-08-10 | 2020-10-09 | 腾讯科技(深圳)有限公司 | 文本处理方法、装置、设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
RANDA ZARNOUFI ETAL.: "Machine Normalization: Bringing Social Media Text from Non-Standard to Standard Form", ACM TRANS. ASIAN LOW-RESOUR. LANG. INF. PROCESS., vol. 19, no. 4, 30 April 2020 (2020-04-30), pages 49 - 79 * |
何维等: "基于句子关系图的网页文本主题句抽取", 知识组织与知识管理, no. 3, pages 57 - 61 * |
Also Published As
Publication number | Publication date |
---|---|
CN113822019B (zh) | 2024-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11663411B2 (en) | Ontology expansion using entity-association rules and abstract relations | |
CN108255805B (zh) | 舆情分析方法及装置、存储介质、电子设备 | |
CN107729309B (zh) | 一种基于深度学习的中文语义分析的方法及装置 | |
CN111145718B (zh) | 一种基于自注意力机制的中文普通话字音转换方法 | |
CN113094578B (zh) | 基于深度学习的内容推荐方法、装置、设备及存储介质 | |
CN108090038B (zh) | 文本断句方法及*** | |
CN112633003B (zh) | 一种地址识别方法、装置、计算机设备及存储介质 | |
CN108416032B (zh) | 一种文本分类方法、装置及存储介质 | |
US20230385549A1 (en) | Systems and methods for colearning custom syntactic expression types for suggesting next best corresponence in a communication environment | |
WO2022178969A1 (zh) | 语音对话数据处理方法、装置、计算机设备及存储介质 | |
KR102041621B1 (ko) | 인공지능 음성인식 기반 기계학습의 대규모 말뭉치 구축을 위한 대화형 말뭉치 분석 서비스 제공 시스템 및 구축 방법 | |
CN112328761B (zh) | 一种意图标签设置方法、装置、计算机设备及存储介质 | |
CN112992125B (zh) | 一种语音识别方法、装置、电子设备、可读存储介质 | |
CN112215008A (zh) | 基于语义理解的实体识别方法、装置、计算机设备和介质 | |
CN111695338A (zh) | 基于人工智能的面试内容精炼方法、装置、设备及介质 | |
KR20200119410A (ko) | 전역 및 지역 문맥 기반 한국어 대화문 감정 인식 시스템 및 방법 | |
CN112016320A (zh) | 基于数据增强的英文标点符号添加方法和***及设备 | |
CN111159405B (zh) | 基于背景知识的讽刺检测方法 | |
WO2022073341A1 (zh) | 基于语音语义的疾病实体匹配方法、装置及计算机设备 | |
CN111694936B (zh) | 用于ai智能面试的识别的方法、装置、计算机设备及存储介质 | |
CN116775873A (zh) | 一种多模态对话情感识别方法 | |
CN113822019A (zh) | 文本规整方法、相关设备及可读存储介质 | |
CN109344388A (zh) | 一种垃圾评论识别方法、装置及计算机可读存储介质 | |
CN114637831A (zh) | 基于语义分析的数据查询方法及其相关设备 | |
CN114492382A (zh) | 人物提取方法、文本朗读方法、对话式文本生成方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |