CN113673225A - 中文句子相似性判别方法、装置、计算机设备和存储介质 - Google Patents

中文句子相似性判别方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN113673225A
CN113673225A CN202110959210.3A CN202110959210A CN113673225A CN 113673225 A CN113673225 A CN 113673225A CN 202110959210 A CN202110959210 A CN 202110959210A CN 113673225 A CN113673225 A CN 113673225A
Authority
CN
China
Prior art keywords
sentence
text
chinese
pairs
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110959210.3A
Other languages
English (en)
Inventor
张翀
何春辉
葛斌
胡升泽
赵翔
肖卫东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202110959210.3A priority Critical patent/CN113673225A/zh
Publication of CN113673225A publication Critical patent/CN113673225A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请涉及一种中文句子相似性判别方法、装置、计算机设备和存储介质。所述方法包括:获取中文句子对,并且对中文句子对进行拼接,得到拼接文本;通过预训练的结合多头注意力机制的BERT向量编码器对拼接文本进行编码,得到句对向量;将句对向量输入预训练的全连接神经网络,输出中文句子对的相似标签和不相似标签;提取表征句子对之间相关性的多个相关性特征,将文本特征、相似标签和不相似标签进行拼接,得到融合特征;将融合特征输入预先训练的分类器,输出中文句子对相似性判别结果。采用本方法能够提高相似性判别的准确性。

Description

中文句子相似性判别方法、装置、计算机设备和存储介质
技术领域
本申请涉及计算机技术领域,特别是涉及一种中文句子相似性判别方法、装置、计算机设备和存储介质。
背景技术
句子对的相似性判别属于句间关系的研究范围。它的输入是一对文本,输出类型则与建模方式相关。若采用基于字面相似度或空间向量相似度的方式来建模,一般输出句子对的相似度值,再结合人工设置的阈值给出相似性判别结果。若采用分类思想来建模,一般会直接输出句子对的分类标签。随着深度学习技术的发展,采用预训练模型对文本进行向量表征,然后结合深度学习算法来判别句子对的相似性已成为了学术界和工业界的主流方法。
然而,传统的句子对相似性判别,均是从句子本身的语义出发,通过语义的相似度来判别句子对的相似度,从而导致相似度判别的泛化能力弱,并且精度低。
发明内容
基于此,有必要针对上述技术问题,提供一种能够解决目前句子对判别精度低问题的中文句子相似性判别方法、装置、计算机设备和存储介质。
一种中文句子相似性判别方法,所述方法包括:
获取中文句子对,并且对所述中文句子对进行拼接,得到拼接文本;
通过预训练的结合多头注意力机制的BERT向量编码器对所述拼接文本进行编码,得到句对向量;
将所述句对向量输入预训练的全连接神经网络,输出所述中文句子对的相似标签和不相似标签;所述相似标签和所述不相似标签均对应概率值;
提取表征句子对之间相关性的多个相关性特征,将所述文本特征、所述相似标签和所述不相似标签进行拼接,得到融合特征;
将所述融合特征输入预先训练的分类器,输出中文句子对相似性判别结果。
在其中一个实施例中,还包括:获取中文句子对,将句子对中句子S1和S2的每一个字用空格来切割,并且按照[CLS]S1[SEP]S2[SEP]的顺序依次完成句子对的拼接;其中,CLS表示句首标签,SEP表示句尾标签。
在其中一个实施例中,所述BERT向量编码器为双向编码器;还包括:通过预训练的双向编码器,结合多头注意力机制对所述拼接文本进行编码,得到句对向量。
在其中一个实施例中,所述全连接神经网络包括:输入层、全连接层和softmax输出层,还包括:将所述句对向量输入预训练的全连接神经网络的输入层,由所述全连接层对所述句对向量进行映射处理,得到1×2维向量;通过softmax输出层对所述1×2维向量进行归一化,得到相似标签和不相似标签。
在其中一个实施例中,所述相关性特征包括:情感倾向一致性、句对文本长度差比率、句对文本相同字符覆盖率以及句对文本同义词覆盖率;还包括:从中文句子对中提取表征句子对之间相关性的情感倾向一致性、句对文本长度差比率、句对文本相同字符覆盖率以及句对文本同义词覆盖率;将情感倾向一致性、句对文本长度差比率、句对文本相同字符覆盖率、句对文本同义词覆盖率、所述相似标签和所述不相似标签进行拼接,得到融合特征。
在其中一个实施例中,还包括:从中文句子对中提取表征句子对之间相关性的情感倾向一致性为:
Figure BDA0003221462420000021
其中,SA表示情感倾向一致性;
从中文句子对中提取表征句子对之间相关性的句对文本长度差比率为:
Figure BDA0003221462420000022
其中,Len(A)和Len(B)表示中文句子对中两个句子的长度,LD表示句对文本长度差比率;
从中文句子对中提取表征句子对之间相关性的句对文本相同字符覆盖率为:
Figure BDA0003221462420000031
其中,T(A,B)表示中文句子对中两个句子相同的字符总数,SCC表示句对文本相同字符覆盖率;
从中文句子对中提取表征句子对之间相关性的句对文本同义词覆盖率为:
Figure BDA0003221462420000032
其中,SC表示句对文本同义词覆盖率。
在其中一个实施例中,述分类器包括:贝叶斯模型或者随机森林模型。
一种中文句子相似性判别装置,所述装置包括:
预处理模块,用于获取中文句子对,并且对所述中文句子对进行拼接,得到拼接文本;
编码模块,用于通过预训练的结合多头注意力机制的BERT向量编码器对所述拼接文本进行编码,得到句对向量;
将所述句对向量输入预训练的全连接神经网络,输出所述中文句子对的相似标签和不相似标签;所述相似标签和所述不相似标签均对应概率值;
提取表征句子对之间相关性的多个相关性特征,将所述文本特征、所述相似标签和所述不相似标签进行拼接,得到融合特征;
将所述融合特征输入预先训练的分类器,输出中文句子对相似性判别结果。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取中文句子对,并且对所述中文句子对进行拼接,得到拼接文本;
通过预训练的结合多头注意力机制的BERT向量编码器对所述拼接文本进行编码,得到句对向量;
将所述句对向量输入预训练的全连接神经网络,输出所述中文句子对的相似标签和不相似标签;所述相似标签和所述不相似标签均对应概率值;
提取表征句子对之间相关性的多个相关性特征,将所述文本特征、所述相似标签和所述不相似标签进行拼接,得到融合特征;
将所述融合特征输入预先训练的分类器,输出中文句子对相似性判别结果。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取中文句子对,并且对所述中文句子对进行拼接,得到拼接文本;
通过预训练的结合多头注意力机制的BERT向量编码器对所述拼接文本进行编码,得到句对向量;
将所述句对向量输入预训练的全连接神经网络,输出所述中文句子对的相似标签和不相似标签;所述相似标签和所述不相似标签均对应概率值;
提取表征句子对之间相关性的多个相关性特征,将所述文本特征、所述相似标签和所述不相似标签进行拼接,得到融合特征;
将所述融合特征输入预先训练的分类器,输出中文句子对相似性判别结果。
上述中文句子相似性判别方法、装置、计算机设备和存储介质,首先,通过对中文句子对进行预处理,然后结合多头注意力机制的BERT向量编码器,可以提取到深层语义的句对向量,然后通过全连接神经网络,提取得到相似标签和不相似标签,用以表示句子对的深层语义特征,然后通过提取表示句子对之间相似性的显示特征,通过深层语义特征和显示特征融合,并且由分类器自动输出判别结果,不仅泛化能力强,并且判别精度高。
附图说明
图1为一个实施例中中文句子相似性判别方法的流程示意图;
图2为一个实施例中中文句子相似性判别的流程框图;
图3为一个实施例中中文句子相似性判别装置的结构框图;
图4为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,如图1所示,提供了一种中文句子相似性判别方法,包括以下步骤:
步骤102,获取中文句子对,并且对所述中文句子对进行拼接,得到拼接文本。
中文句子对表示输入的数据为两个中文句子,例如:“怎么更改还款卡”和“如何修改还款卡”。拼接指的是将两个句子合为一个拼接文本进行处理。
具体的,本发明可以应用在智能问答***中,由于中文表达的多样化,表达同一个含义可以多种不同的句式,而在智能问答***中,一般只保存一种或者少量的几种句式,在用户输入问题时,例如“怎么更改还款卡”,服务器通过网络获取用户输入的中文文本“怎么更改还款卡”,或者从终端的输入界面获取中文文本“怎么更改还款卡”,具体形式在不做具体限制,然后智能问答***初步选择对应的中文文本“如何修改还款卡”,然后“怎么更改还款卡”和“如何修改还款卡”作为中文句子的输入。
具体的,作为输入的中文句子对,可以是存储在数据库的表单中,或者Word、Excel、TXT等格式的文档中,以便计算机可以识别。
步骤104,通过预训练的结合多头注意力机制的BERT向量编码器对拼接文本进行编码,得到句对向量。
BERT向量编码器具有文本的编码能力,可以将文本转化为对应含义的向量,通过结合多头注意力机制,可以提取到深层含义的语义特征。
步骤106,将句对向量输入预训练的全连接神经网络,输出中文句子对的相似标签和不相似标签;
似标签和所述不相似标签均对应概率值。
步骤108,提取表征句子对之间相关性的多个相关性特征,将文本特征、相似标签和不相似标签进行拼接,得到融合特征。
步骤110,将融合特征输入预先训练的分类器,输出中文句子对相似性判别结果。
上述中文句子相似性判别方法中,首先,通过对中文句子对进行预处理,然后结合多头注意力机制的BERT向量编码器,可以提取到深层语义的句对向量,然后通过全连接神经网络,提取得到相似标签和不相似标签,用以表示句子对的深层语义特征,然后通过提取表示句子对之间相似性的显示特征,通过深层语义特征和显示特征融合,并且由分类器自动输出判别结果,不仅泛化能力强,并且判别精度高。
在其中一个实施例中,在进行拼接时,具体可以是:获取中文句子对,将句子对中句子S1和S2的每一个字用空格来切割,并且按照[CLS]S1[SEP]S2[SEP]的顺序依次完成句子对的拼接;其中,CLS表示句首标签,SEP表示句尾标签。
在其中一个实施例中,BERT向量编码器为双向编码器,通过预训练的双向编码器,结合多头注意力机制对拼接文本进行编码,得到句对向量。
具体的,把整个深层语义信息计算层抽象成一个特征降维的过程。在编码层,首先利用BERT对预处理之后的句对文本片段做交互式编码转换得到1×m维的句对向量。BERT模型采用双向Transformer作为编码器实现特征抽取,并结合多头注意力机制捕获更多上下文信息,从而将词语转化为语义特征更丰富的向量形式。自注意力机制输入部分由Query(Q),Key(K),Value(V)三个向量构成,再通过Q*K来表示输入部分字向量的相似度,然后通过Dk进行合理缩放。最后由SoftMax函数做归一化处理得到最终概率分布,进而输出句中所有词向量的权重求和表示。注意力和多头注意力计算过程见公式(1)-(3):
Figure BDA0003221462420000061
MutilHead(Q,K,V)=Concat(head1,...,headn)WO (2)
Figure BDA0003221462420000062
相关参数矩阵
Figure BDA0003221462420000071
实验中,取h=12,dk=dv=dmodel/h=64。经过编码层后得到1×m维的句对向量,需要注意的是,实验中取倒数第二层的输出值作为句向量。
在其中一个实施例中,全连接神经网络包括:输入层、全连接层和softmax输出层。将句对向量输入预训练的全连接神经网络的输入层,由全连接层对句对向量进行映射处理,得到1×2维向量;通过softmax输出层对1×2维向量进行归一化,得到相似标签和不相似标签。
具体的,全连接层的相关计算步骤见公式(4)和(5):
Figure BDA0003221462420000072
Figure BDA0003221462420000073
实验中,将1×768维的句对向量映射成1×2维的向量,即取m=768,K=2,
Figure BDA0003221462420000075
指第j维特征对应的权重系数,bj指第j维特征对应的偏置。最后将得到的1×2维向量输入到Softmax函数中输出对应类别的归一化概率。不同类别所对应的概率计算过程见公式(6)和(7):
Figure BDA0003221462420000074
0≤P(Yi)≤1,∑iP(Yi)=1 (7)
因为分类对象为是否相似的二分类问题,所以最终类别数为2,即i=1或者2。结合公式(1)-(7)可以将任意句子对转化为一个可量化的深层语义向量[P1,P2],其中,P1指不相似概率,P2指相似概率。
在其中一个实施例中,相关性特征包括:情感倾向一致性、句对文本长度差比率、句对文本相同字符覆盖率以及句对文本同义词覆盖率;从中文句子对中提取表征句子对之间相关性的情感倾向一致性、句对文本长度差比率、句对文本相同字符覆盖率以及句对文本同义词覆盖率;将情感倾向一致性、句对文本长度差比率、句对文本相同字符覆盖率、句对文本同义词覆盖率、相似标签和不相似标签进行拼接,得到融合特征。
具体的,在的到深层特征的判别结果后,未直接完成分类,而是将这两个概率值作为深层语义向量,然后再拼接4个归一化之后的显式特征来共同构建新的向量
Figure BDA0003221462420000081
作为模型的输入数据来完成新分类器的训练,从而进一步提升模型的整体性能,其中
Figure BDA0003221462420000082
指向量拼接运算。
在其中一个实施例中,从中文句子对中提取表征句子对之间相关性的情感倾向一致性为:
Figure BDA0003221462420000083
其中,SA表示情感倾向一致性;
从中文句子对中提取表征句子对之间相关性的句对文本长度差比率为:
Figure BDA0003221462420000084
其中,Len(A)和Len(B)表示中文句子对中两个句子的长度,LD表示句对文本长度差比率;
从中文句子对中提取表征句子对之间相关性的句对文本相同字符覆盖率为:
Figure BDA0003221462420000085
其中,T(A,B)表示中文句子对中两个句子相同的字符总数,SCC表示句对文本相同字符覆盖率;
从中文句子对中提取表征句子对之间相关性的句对文本同义词覆盖率为:
Figure BDA0003221462420000086
其中,SC表示句对文本同义词覆盖率。
在其中一个实施例中,分类器包括:贝叶斯模型或者随机森林模型。
具体的,利用Python提供的SK-learn算法工具包中贝叶斯或者随机森林等基础分类算法来完成中文句子对的相似性判别。本发明的具体流程如图2所示。
应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图3所示,提供了一种中文句子相似性判别装置,包括:预处理模块302、编码模块304、深层特征提取模块306、特征融合模块308和判别模块310,其中:
预处理模块302,用于获取中文句子对,并且对所述中文句子对进行拼接,得到拼接文本;
编码模块304,用于通过预训练的结合多头注意力机制的BERT向量编码器对所述拼接文本进行编码,得到句对向量;
深层特征提取模块306,用于将所述句对向量输入预训练的全连接神经网络,输出所述中文句子对的相似标签和不相似标签;所述相似标签和所述不相似标签均对应概率值;
特征融合模块308,用于提取表征句子对之间相关性的多个相关性特征,将所述文本特征、所述相似标签和所述不相似标签进行拼接,得到融合特征;
判别模块310,用于将所述融合特征输入预先训练的分类器,输出中文句子对相似性判别结果。
在其中一个实施例中,预处理模块302还用于获取中文句子对,将句子对中句子S1和S2的每一个字用空格来切割,并且按照[CLS]S1[SEP]S2[SEP]的顺序依次完成句子对的拼接;其中,CLS表示句首标签,SEP表示句尾标签。
在其中一个实施例中,所述BERT向量编码器为双向编码器;编码模块304还用于通过预训练的双向编码器,结合多头注意力机制对所述拼接文本进行编码,得到句对向量。
在其中一个实施例中,全连接神经网络包括:输入层、全连接层和softmax输出层;深层特征提取模块306还用于将所述句对向量输入预训练的全连接神经网络的输入层,由所述全连接层对所述句对向量进行映射处理,得到1×2维向量;通过softmax输出层对所述1×2维向量进行归一化,得到相似标签和不相似标签。
在其中一个实施例中,所述相关性特征包括:情感倾向一致性、句对文本长度差比率、句对文本相同字符覆盖率以及句对文本同义词覆盖率;特征融合模块308还用于从中文句子对中提取表征句子对之间相关性的情感倾向一致性、句对文本长度差比率、句对文本相同字符覆盖率以及句对文本同义词覆盖率;将情感倾向一致性、句对文本长度差比率、句对文本相同字符覆盖率、句对文本同义词覆盖率、所述相似标签和所述不相似标签进行拼接,得到融合特征。
在其中一个实施例中,特征融合模块308还用于从中文句子对中提取表征句子对之间相关性的情感倾向一致性为:
Figure BDA0003221462420000101
其中,SA表示情感倾向一致性;
从中文句子对中提取表征句子对之间相关性的句对文本长度差比率为:
Figure BDA0003221462420000102
其中,Len(A)和Len(B)表示中文句子对中两个句子的长度,LD表示句对文本长度差比率;
从中文句子对中提取表征句子对之间相关性的句对文本相同字符覆盖率为:
Figure BDA0003221462420000103
其中,T(A,B)表示中文句子对中两个句子相同的字符总数,SCC表示句对文本相同字符覆盖率;
从中文句子对中提取表征句子对之间相关性的句对文本同义词覆盖率为:
Figure BDA0003221462420000111
其中,SC表示句对文本同义词覆盖率。
在其中一个实施例中,分类器包括:贝叶斯模型或者随机森林模型。
关于中文句子相似性判别装置的具体限定可以参见上文中对于中文句子相似性判别方法的限定,在此不再赘述。上述中文句子相似性判别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图4所示。该计算机设备包括通过***总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***和计算机程序。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种中文句子相似性判别方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图4中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现上述实施例中方法的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种中文句子相似性判别方法,其特征在于,所述方法包括:
获取中文句子对,并且对所述中文句子对进行拼接,得到拼接文本;
通过预训练的结合多头注意力机制的BERT向量编码器对所述拼接文本进行编码,得到句对向量;
将所述句对向量输入预训练的全连接神经网络,输出所述中文句子对的相似标签和不相似标签;所述相似标签和所述不相似标签均对应概率值;
提取表征句子对之间相关性的多个相关性特征,将所述文本特征、所述相似标签和所述不相似标签进行拼接,得到融合特征;
将所述融合特征输入预先训练的分类器,输出中文句子对相似性判别结果。
2.根据权利要求1所述的方法,其特征在于,所述获取中文句子对,并且对所述中文句子对进行拼接,得到拼接文本,包括:
获取中文句子对,将句子对中句子S1和S2的每一个字用空格来切割,并且按照[CLS]S1[SEP]S2[SEP]的顺序依次完成句子对的拼接;其中,CLS表示句首标签,SEP表示句尾标签。
3.根据权利要求1所述的方法,其特征在于,所述BERT向量编码器为双向编码器;
所述通过预训练的结合多头注意力机制的BERT向量编码器对所述拼接文本进行编码,得到句对向量,包括:
通过预训练的双向编码器,结合多头注意力机制对所述拼接文本进行编码,得到句对向量。
4.根据权利要求1所述的方法,其特征在于,所述全连接神经网络包括:输入层、全连接层和softmax输出层;
将所述句对向量输入预训练的全连接神经网络,输出所述中文句子对的相似标签和不相似标签,包括:
将所述句对向量输入预训练的全连接神经网络的输入层,由所述全连接层对所述句对向量进行映射处理,得到1×2维向量;
通过softmax输出层对所述1×2维向量进行归一化,得到相似标签和不相似标签。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述相关性特征包括:情感倾向一致性、句对文本长度差比率、句对文本相同字符覆盖率以及句对文本同义词覆盖率;
提取表征句子对之间相关性的多个相关性特征,将所述文本特征、所述相似标签和所述不相似标签进行拼接,得到融合特征,包括:
从中文句子对中提取表征句子对之间相关性的情感倾向一致性、句对文本长度差比率、句对文本相同字符覆盖率以及句对文本同义词覆盖率;
将情感倾向一致性、句对文本长度差比率、句对文本相同字符覆盖率、句对文本同义词覆盖率、所述相似标签和所述不相似标签进行拼接,得到融合特征。
6.根据权利要求5所述的方法,其特征在于,从中文句子对中提取表征句子对之间相关性的情感倾向一致性、句对文本长度差比率、句对文本相同字符覆盖率以及句对文本同义词覆盖率,包括:
从中文句子对中提取表征句子对之间相关性的情感倾向一致性为:
Figure FDA0003221462410000021
其中,SA表示情感倾向一致性;
从中文句子对中提取表征句子对之间相关性的句对文本长度差比率为:
Figure FDA0003221462410000022
其中,Len(A)和Len(B)表示中文句子对中两个句子的长度,LD表示句对文本长度差比率;
从中文句子对中提取表征句子对之间相关性的句对文本相同字符覆盖率为:
Figure FDA0003221462410000023
其中,T(A,B)表示中文句子对中两个句子相同的字符总数,SCC表示句对文本相同字符覆盖率;
从中文句子对中提取表征句子对之间相关性的句对文本同义词覆盖率为:
Figure FDA0003221462410000024
其中,SC表示句对文本同义词覆盖率。
7.根据权利要求1至4任一项所述的方法,其特征在于,所述分类器包括:贝叶斯模型或者随机森林模型。
8.一种中文句子相似性判别装置,其特征在于,所述装置包括:
预处理模块,用于获取中文句子对,并且对所述中文句子对进行拼接,得到拼接文本;
编码模块,用于通过预训练的结合多头注意力机制的BERT向量编码器对所述拼接文本进行编码,得到句对向量;
深层特征提取模块,用于将所述句对向量输入预训练的全连接神经网络,输出所述中文句子对的相似标签和不相似标签;所述相似标签和所述不相似标签均对应概率值;
特征融合模块,用于提取表征句子对之间相关性的多个相关性特征,将所述文本特征、所述相似标签和所述不相似标签进行拼接,得到融合特征;
判别模块,用于将所述融合特征输入预先训练的分类器,输出中文句子对相似性判别结果。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
CN202110959210.3A 2021-08-20 2021-08-20 中文句子相似性判别方法、装置、计算机设备和存储介质 Pending CN113673225A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110959210.3A CN113673225A (zh) 2021-08-20 2021-08-20 中文句子相似性判别方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110959210.3A CN113673225A (zh) 2021-08-20 2021-08-20 中文句子相似性判别方法、装置、计算机设备和存储介质

Publications (1)

Publication Number Publication Date
CN113673225A true CN113673225A (zh) 2021-11-19

Family

ID=78544276

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110959210.3A Pending CN113673225A (zh) 2021-08-20 2021-08-20 中文句子相似性判别方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN113673225A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116503031A (zh) * 2023-06-29 2023-07-28 中国人民解放军国防科技大学 基于简历解析的人员相似性计算方法、装置、设备及介质
CN116522165A (zh) * 2023-06-27 2023-08-01 武汉爱科软件技术股份有限公司 一种基于孪生结构的舆情文本匹配***及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110674260A (zh) * 2019-09-27 2020-01-10 北京百度网讯科技有限公司 语义相似模型的训练方法、装置、电子设备和存储介质
CN111950272A (zh) * 2020-06-23 2020-11-17 北京百度网讯科技有限公司 文本相似度的生成方法、装置及电子设备
US20210089722A1 (en) * 2019-09-25 2021-03-25 Hitachi, Ltd. Information processing method and information processing apparatus
CN112948562A (zh) * 2021-04-01 2021-06-11 广东优碧胜科技有限公司 问答处理方法、装置、计算机设备及可读存储介质
CN113032519A (zh) * 2021-01-22 2021-06-25 中国平安人寿保险股份有限公司 一种句子相似度判断方法、装置、计算机设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210089722A1 (en) * 2019-09-25 2021-03-25 Hitachi, Ltd. Information processing method and information processing apparatus
CN110674260A (zh) * 2019-09-27 2020-01-10 北京百度网讯科技有限公司 语义相似模型的训练方法、装置、电子设备和存储介质
CN111950272A (zh) * 2020-06-23 2020-11-17 北京百度网讯科技有限公司 文本相似度的生成方法、装置及电子设备
CN113032519A (zh) * 2021-01-22 2021-06-25 中国平安人寿保险股份有限公司 一种句子相似度判断方法、装置、计算机设备及存储介质
CN112948562A (zh) * 2021-04-01 2021-06-11 广东优碧胜科技有限公司 问答处理方法、装置、计算机设备及可读存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
杨晨: "基于神经网络的短文本语义相似度计算方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, pages 62 - 63 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116522165A (zh) * 2023-06-27 2023-08-01 武汉爱科软件技术股份有限公司 一种基于孪生结构的舆情文本匹配***及方法
CN116522165B (zh) * 2023-06-27 2024-04-02 武汉爱科软件技术股份有限公司 一种基于孪生结构的舆情文本匹配***及方法
CN116503031A (zh) * 2023-06-29 2023-07-28 中国人民解放军国防科技大学 基于简历解析的人员相似性计算方法、装置、设备及介质
CN116503031B (zh) * 2023-06-29 2023-09-08 中国人民解放军国防科技大学 基于简历解析的人员相似性计算方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
CN110765265B (zh) 信息分类抽取方法、装置、计算机设备和存储介质
CN110598206B (zh) 文本语义识别方法、装置、计算机设备和存储介质
CN110059320B (zh) 实体关系抽取方法、装置、计算机设备和存储介质
US20210200961A1 (en) Context-based multi-turn dialogue method and storage medium
CN109992664B (zh) 争议焦点的标注分类方法、装置、计算机设备和存储介质
CN110569500A (zh) 文本语义识别方法、装置、计算机设备和存储介质
CN111259113B (zh) 文本匹配方法、装置、计算机可读存储介质和计算机设备
CN111062215A (zh) 基于半监督学习训练的命名实体识别方法和装置
CN111858940B (zh) 一种基于多头注意力的法律案例相似度计算方法及***
CN111475617A (zh) 事件主体抽取方法、装置及存储介质
CN112052684A (zh) 电力计量的命名实体识别方法、装置、设备和存储介质
CN113268586A (zh) 文本摘要生成方法、装置、设备及存储介质
CN115599901B (zh) 基于语义提示的机器问答方法、装置、设备及存储介质
CN114139551A (zh) 意图识别模型的训练方法及装置、意图识别的方法及装置
CN113673225A (zh) 中文句子相似性判别方法、装置、计算机设备和存储介质
CN112766319A (zh) 对话意图识别模型训练方法、装置、计算机设备及介质
CN113657105A (zh) 基于词汇增强的医学实体抽取方法、装置、设备及介质
CN111145914B (zh) 一种确定肺癌临床病种库文本实体的方法及装置
CN115587583A (zh) 噪声的检测方法、装置及电子设备
CN117520590B (zh) 海洋跨模态图文检索方法、***、设备及存储介质
CN116822513A (zh) 一种融合实体类型与关键词特征的命名实体识别方法
CN115062619B (zh) 中文实体链接方法、装置、设备及存储介质
US20220392205A1 (en) Method for training image recognition model based on semantic enhancement
CN115240713B (zh) 基于多模态特征和对比学习的语音情感识别方法及装置
CN115309862A (zh) 基于图卷积网络和对比学习的因果关系识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination