CN110309282A - 一种答案确定方法及装置 - Google Patents

一种答案确定方法及装置 Download PDF

Info

Publication number
CN110309282A
CN110309282A CN201910518065.8A CN201910518065A CN110309282A CN 110309282 A CN110309282 A CN 110309282A CN 201910518065 A CN201910518065 A CN 201910518065A CN 110309282 A CN110309282 A CN 110309282A
Authority
CN
China
Prior art keywords
vector
text
term
splicing
participle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910518065.8A
Other languages
English (en)
Other versions
CN110309282B (zh
Inventor
刘思阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing QIYI Century Science and Technology Co Ltd
Original Assignee
Beijing QIYI Century Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing QIYI Century Science and Technology Co Ltd filed Critical Beijing QIYI Century Science and Technology Co Ltd
Priority to CN201910518065.8A priority Critical patent/CN110309282B/zh
Publication of CN110309282A publication Critical patent/CN110309282A/zh
Application granted granted Critical
Publication of CN110309282B publication Critical patent/CN110309282B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/253Grammatical analysis; Style critique
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)

Abstract

本申请实施例提供了一种答案确定方法及装置。方法包括:对资料文本和问题文本进行分词处理,得到资料文本的第一分词和问题文本的第二分词;提取第一分词的词义向量和词性向量;并提取第二分词的词义向量和词性向量;将第一词向量输入至于预先经过训练的序列编码器;并将第二词向量输入至序列编码器;将第一词向量输入至预先经过训练的树型编码器;并将第二词向量输入至预先经过训练的树型编码器;拼接得到资料文本的第一拼接编码向量;拼接得到问题文本的第二拼接编码向量;根据第一拼接编码向量和第二拼接编码向量,在资料文本中确定与问题文本相匹配的内容,作为待答复问题的答案。可以充分应对自然语言的灵活性,以准确确定问题的答案。

Description

一种答案确定方法及装置
技术领域
本申请涉及深度学习技术领域,特别是涉及一种答案确定方法及装置。
背景技术
出于降低客服人工成本的考虑,可以通过智能客服对用户提出的问题进行自动答复。相关技术中,可以是预先设置多个问题模板,并针对每个问题模板设置相应的答案。在获取到用户的提出的问题后,将问题与问题模板进行匹配,以确定相匹配的问题模板,并反馈用户该问题模板所对应的答案。
但是自然语言较为灵活多变,同一个问题可能存在多种表述形式,因此难以设置通用的问题模板。导致相关技术中,智能客服可能无法准确答复用户提出的问题。
发明内容
本申请实施例的目的在于提供一种答案确定方法及装置,以实现更准确的确定两个文本之间的准确确定出待答复问题的答案。具体技术方案如下:
在本发明实施例的第一方面,提供了一种答案确定方法,所述方法包括:
对资料文本和问题文本进行分词处理,得到资料文本的第一分词和问题文本的第二分词,所述资料文本用于表示至少一个领域的相关知识,所述问题文本用于表示待答复问题;
提取所述第一分词的词义向量和词性向量,得到由所述第一分词的词义向量和词性向量组成的第一词向量;并提取所述第二分词的词义向量和词性向量,得到由所述第二分词的词义向量和词性向量组成的第二词向量,其中,词义向量用于表示分词的词义,词性向量用于表示分词的词性;
将所述第一词向量输入至于预先经过训练的序列编码器,得到所述序列编码器的输出,作为所述资料文本的序列编码向量;并将所述第二词向量输入至所述序列编码器,得到所述序列编码器的输出,作为所述问题文本的序列编码向量,所述序列编码向量用于表示文本中分词之间的上下文关系;
将所述第一词向量输入至预先经过训练的树型编码器,得到所述树型编码器的输出,作为所述资料文本的树型编码向量;并将所述第二词向量输入至预先经过训练的树型编码器,得到所述树型编码器的输出,作为所述问题文本的树型编码向量,所述树型编码向量用于表示文本的语法结构;
按照预设的拼接方式,拼接所述资料文本的所述序列编码向量和所述树型编码向量,得到所述资料文本的第一拼接编码向量;并按照所述预设的拼接方式,拼接所述问题文本的所述序列编码向量和所述树型编码向量,得到所述问题文本的第二拼接编码向量;
根据所述第一拼接编码向量和所述第二拼接编码向量,在所述资料文本中确定与所述问题文本相匹配的内容,作为所述待答复问题的答案。
在一种可能的实现方式中,所述根据所述第一拼接编码向量和所述第二拼接编码向量,在所述资料文本中确定与所述问题文本相匹配的内容,作为所述待答复问题的答案,包括:
融合所述第一拼接编码向量和所述第二拼接编码向量,得到融合编码向量;
将所述融合编码向量输入至预先经过训练的分类器,得到所述资料文本中与所述问题文本相匹配的内容的位置;
从所述资料文本中提取所述位置处的文本,作为所述待答复问题的答案。
在一种可能的实现方式中,所述融合所述第一拼接编码向量和所述第二拼接编码向量,得到融合编码向量,包括:
将所述第一拼接编码向量输入至特征融合网络中的第一双向长短时记忆网络,得到所述第一双向长短时记忆网络的输出,作为第一输出特征;并将所述第二拼接编码向量输入至所述特征融合网络中的第二双向长短时记忆网络,得到所述第一双向长短时记忆网络的输出,作为第二输出特征;
将所述第一输出特征和所述第二输出特征进行向量级拼接,得到拼接结果;
重复执行以下步骤:
将拼接结果输入至所述特征融合网络中下一层的双向长短时记忆网络,得到输出结果;并将输出结果与所述第二输出特征进行向量级拼接,得到新的拼接结果;
直至得到所述特征融合网络中最后一层的双向长短时记忆网络的输出结果,将该输出结果作为融合编码向量。
在一种可能的实现方式中,所述将所述融合编码向量输入至预先经过训练的分类器,得到所述资料文本中与所述问题文本相匹配的内容的位置,作为所述待答复问题的答案所处的位置,包括:
将所述融合编码向量和领域向量拼接,得到表示特征,所述领域向量为用于表示所述待答复问题所属领域的独热(one-hot)编码;
将所述表示特征输入至预先经过训练的分类器,得到所述资料文本中与所述问题文本相匹配的内容的位置,作为所述待答复问题的答案所处的位置。
在一种可能的实现方式中,所述提取所述第一分词的词义向量和词性向量,得到第一词向量,包括:
提取所述第一分词的词义向量和词性向量;并将所述第一分词的词义向量和词性向量首尾拼接,得到拼接结果,作为第一词向量;
所述提取所述第二分词的词义向量和词性向量,得到第二词向量,包括:
提取所述第二分词的词义向量和词性向量;并将所述第二分词的词义向量和词性向量首尾拼接,得到拼接结果,作为第一词向量。
在本发明实施例的第二方面,提供了一种答案确定装置,所述装置包括:
分词提取模块,用于对资料文本和问题文本进行分词处理,得到资料文本的第一分词和问题文本的第二分词,所述资料文本用于表示至少一个领域的相关知识,所述问题文本用于表示待答复问题;
词向量提取模块,提取所述第一分词的词义向量和词性向量,得到由所述第一分词的词义向量和词性向量组成的第一词向量;并提取所述第二分词的词义向量和词性向量,得到由所述第二分词的词义向量和词性向量组成的第二词向量,其中,词义向量用于表示分词的词义,词性向量用于表示分词的词性;
序列编码模块,用于将所述第一词向量输入至于预先经过训练的序列编码器,得到所述序列编码器的输出,作为所述资料文本的序列编码向量;并将所述第二词向量输入至所述序列编码器,得到所述序列编码器的输出,作为所述问题文本的序列编码向量,所述序列编码向量用于表示文本中分词之间的上下文关系;
树型编码模块,用于将所述第一词向量输入至预先经过训练的树型编码器,得到所述树型编码器的输出,作为所述资料文本的树型编码向量;并将所述第二词向量输入至预先经过训练的树型编码器,得到所述树型编码器的输出,作为所述问题文本的树型编码向量,所述树型编码向量用于表示文本的语法结构;
拼接模块,用于按照预设的拼接方式,拼接所述资料文本的所述序列编码向量和所述树型编码向量,得到所述资料文本的第一拼接编码向量;并按照所述预设的拼接方式,拼接所述问题文本的所述序列编码向量和所述树型编码向量,得到所述问题文本的第二拼接编码向量;
匹配模块,用于根据所述第一拼接编码向量和所述第二拼接编码向量,在所述资料文本中确定与所述问题文本相匹配的内容,作为所述待答复问题的答案。
在一种可能的实施例中,所述匹配模块,具体用于融合所述第一拼接编码向量和所述第二拼接编码向量,得到融合编码向量;
将所述融合编码向量输入至预先经过训练的分类器,得到所述资料文本中与所述问题文本相匹配的内容的位置;
从所述资料文本中提取所述位置处的文本,作为所述待答复问题的答案。
在一种可能的实施例中,所述匹配模块,具体用于将所述第一拼接编码向量输入至特征融合网络中的第一双向长短时记忆网络,得到所述第一双向长短时记忆网络的输出,作为第一输出特征;并将所述第二拼接编码向量输入至所述特征融合网络中的第二双向长短时记忆网络,得到所述第一双向长短时记忆网络的输出,作为第二输出特征;
将所述第一输出特征和所述第二输出特征进行向量级拼接,得到拼接结果;
重复执行以下步骤:
将拼接结果输入至所述特征融合网络中下一层的双向长短时记忆网络,得到输出结果;并将输出结果与所述第二输出特征进行向量级拼接,得到新的拼接结果;
直至得到所述特征融合网络中最后一层的双向长短时记忆网络的输出结果,将该输出结果作为融合编码向量。
在一种可能的实施例中,所述匹配模块,具体用于将所述融合编码向量和领域向量拼接,得到表示特征,所述领域向量为用于表示所述待答复问题所属领域的独热(one-hot)编码;将所述表示特征输入至预先经过训练的分类器,得到所述资料文本中与所述问题文本相匹配的内容的位置,作为所述待答复问题的答案所处的位置。
在一种可能的实施例中,所述词向量提取模块,具体用于提取所述第一分词的词义向量和词性向量;并将所述第一分词的词义向量和词性向量首尾拼接,得到拼接结果,作为第一词向量;并提取所述第二分词的词义向量和词性向量;并将所述第二分词的词义向量和词性向量首尾拼接,得到拼接结果,作为第一词向量。
在本发明实施例的第三方面,提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述第一方面任一所述的答案确定方法。
在本申请实施的第四方面,还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述第一方面任一所述的答案确定方法。
在本申请实施的第五方面,本发明实施例还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述第一方面任一所述的答案确定方法。
本申请实施例提供的一种答案确定方法及装置,在构建资料文本和问题文本的词向量中,包括了用于表示词义的词义向量和表示词性的词性向量,而词性向量可以反映出一个词在句子的语法结构中的位置,并利用树型编码器在词义向量和词性向量的基础上分析出资料文本和问题文本你的语法结构,进而综合语法结构以及分词之间的语义关联,在资料文本中查找到与问题文本匹配的内容,而这部分内容可以视为问题文本所表示的待答复问题的答案,整个无需预先设置问题模板,可以充分应对自然语言的灵活性。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为本申请实施例提供的答案确定方法的一种流程图;
图2a为文本进行词性替换后的一种示意图;
图2b为本申请实施例提供的特征融合网络的一种结构示意图;
图2c为本申请实施例提供的融合编码向量到答案的位置的映射的一种示意图;
图3为本申请实施例提供的答案确定网络模型的一种结构示意图;
图4为本申请实施例提供的答案确定装置的一种结构示意图;
图5为本申请实施例提供的电子设备的一种结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
为了准确确定出待答复问题的答案,本申请实施例提供了一种答案确定方法及装置,其中,本申请实施例提供的一种答案确定方法包括:
对资料文本和问题文本进行分词处理,得到资料文本的第一分词和问题文本的第二分词,资料文本用于表示至少一个领域的相关知识,问题文本用于表示待答复问题;
提取第一分词的词义向量和词性向量,得到第一词向量;并提取第二分词的词义向量和词性向量,得到第二词向量;
将第一词向量输入至于预先经过训练的序列编码器,得到序列编码器的输出,作为资料文本的序列编码向量;并将第二词向量输入至序列编码器,得到序列编码器的输出,作为问题文本的序列编码向量,序列编码向量用于表示文本中分词之间的上下文关系;
将第一词向量输入至预先经过训练的树型编码器,得到树型编码器的输出,作为资料文本的树型编码向量;并将第二词向量输入至预先经过训练的树型编码器,得到树型编码器的输出,作为问题文本的树型编码向量,树型编码向量用于表示文本的语法结构;
基于资料文本的序列编码向量和树型编码向量,以及问题文本的序列编码向量和树型编码向量之间的匹配关系,在资料文本中确定与问题文本相匹配的内容,作为待答复问题的答案。
本申请实施例提供的一种答案确定方法及装置,在构建资料文本和问题文本的词向量中,包括了用于表示词义的词义向量和表示词性的词性向量,而词性向量可以反映出一个词在句子的语法结构中的位置,并利用树型编码器在词义向量和词性向量的基础上分析出资料文本和问题文本你的语法结构,进而综合语法结构以及分词之间的语义关联,在资料文本中查找到与问题文本匹配的内容,而这部分内容可以视为问题文本所表示的待答复问题的答案,整个无需预先设置问题模板,可以充分应对自然语言的灵活性。
下面首先对本申请实施例提供的一种答案确定方法进行介绍。如图1所示,本申请实施例提供的一种答案确定方法包括如下步骤。
S101,对资料文本和问题文本进行分词处理,得到资料文本的第一分词和问题文本的第二分词。
其中,资料文本为用于表示至少一个领域的相关知识的文本,问题文本用于表示待答复问题。示例性的,资料文本可以是一篇计算机领域的论文,问题文本可以是“如何训练神经网络”,则问题文本经过分词处理后,所得到的分词分别为:如何、训练、神经网络。
其中,分词处理可以是由预设的分词工具完成的,预设的分词工具可以是Stanford CoreNLP、jieba、NLTK(natural language toolkit,自然语言工具包)等,本实施例对此不做限制。
S102,提取第一分词的词义向量和词性向量,得到由第一分词的词义向量和词性向量组成的第一词向量;并提取第二分词的词义向量和词性向量,得到由第二分词的词义向量和词性向量组成的第二词向量。
其中,词义向量用于表示分词的词义,词性向量用于表示分词的词性。在不同的应用场景中,词义向量和词性向量的表示方式可以不同,本实施例对此不做限制。
可以是将分词输入至预先经过训练的特征替换网络模型,得到每一个分词的由该分词的词义向量和该分词的词性向量组成的词向量,在一种可能的实施例中,一个分词的词向量可以是该分词的词性向量和词义向量首尾拼接得到的,例如可以是将词性向量拼接于词义向量之后,也可以是将词义向量拼接于词性向量之后,本实施例对此不做限制。其中,特征替换网络模型用于将输入的分词替换为用词向量和词性向量表示。可以认为,特征替换网络模型包括两个部分,一个部分是将输入的分词替换为预先训练好的词义向量,另一个部分是将输入的分词替换为预先训练好的词性向量。下面针对两个部分分别进行说明。这样,特征替换网络模型输出的是用词义向量和词性向量将输入的分词替换后的词向量。
针对于词义向量部分,词义向量用于将每一分词以计算机的方式表示出。可以采用离散表示(one-hot representation),还可以采用分布式表示(distributionrepresentation),在此不作限定。
针对于词性向量部分,词性向量用于表示每一分词的词性。一般来说,词性向量可表示的词性包括34种:CC(并列连词)、CD(基数)、DT(限定词)、EX(存在词)、FW(外语词汇)、IN(介词、连词、从属词)、JJ(形容词、序数形容词)、JJR(形容词比较级)、LS(列表项)、JJS(形容词最高级)、MD(情态助动词)、NN(名词、单数、物资名词)、NNP(专有名词单数)、NNS(名词复数)、NNPS(专有名词复数)、SYM(符号)、PDT(前置限定词)、TO(不定式或介词的)、POS(名词所有格)、UH(感叹词)、PRP(人称代词)、VB(动词原型)、PRP$(物主代词)、VBD(动词过去分词)、RB(副词)、VBG(动词现在分词)、RBR(副词比较级)、VBN(动词过去分词)、RBS(副词最高级)、VBP(动词非第三人称单数)、RP(相近)、VBZ(动词第三人称单数)、WDT(限定词)、WP$(物主代词)。对于每一分词,均可以根据上述34种词性确定该分词的词性,进而用所确定的词性对应的词性向量来替换该分词。
其中,词性向量可以是预先训练好的,对词性向量进行训练的一种实现方式中,可以确定训练文本,训练文本可以是自定义设定的,比如,可以是新闻、百科、文学作品等本文。利用预设的分词工具对训练文本进行分词处理,并对每一个分词进行词性标注。在完成词性标注后,可以用词性来代替分词,并形成由词性组成的新的文本,新的文本如图2a所示。再利用Word2Vec算法对该新的文本进行训练,进而可以得到上述34个词性对应的词性向量。
对于词性向量的训练,除了上述方式以外,还可以通过其他方式进行训练进而得到词性向量,在此不作限定。
特征替换网络模型输出的是输入的分词对应的词向量,该词向量中包括词义向量和词性向量。当一个文本的多个分词依次输入至特征替换网络模型时,该特征替换网络模型输出的是该一个文本对应的词向量,该词向量中包括各个分词的特征,每个分词的特征由该分词对应的词向量和词性向量组成的。
例如,以资料文本为例,假设资料文本为S,经过分词处理后的资料文本S为{w1,2,3…n},其中,n表示分词的数量,利用训练好的词向量和词性向量对每一个分词进行替换,替换完后S为{v1,2,3…n},其中,vi为1×d的特征,表示第i个分词对应的特征,d=dw+p,dw表示词义向量,w为词义向量的维度,dp表示词性向量,p为词性向量的维度。
S103,将第一词向量输入至于预先经过训练的序列编码器,得到序列编码器的输出,作为资料文本的序列编码向量;并将第二词向量输入至序列编码器,得到序列编码器的输出,作为问题文本的序列编码向量。
其中,预先经过训练可以是指预先经过执行主体的训练,也可以是预先经过执行主体以外的其他具有计算能力的电子设备的训练,根据实际需求,预先训练所采用的方法可以不同,本实施例对此不做限制。
S104,将第一词向量输入至预先经过训练的树型编码器,得到树型编码器的输出,作为资料文本的树型编码向量;并将第二词向量输入至预先经过训练的树型编码器,得到树型编码器的输出。
可以理解的是,图1所示仅为本发明实施例一种可能的实施例,在其他实施例中,S103也可以是在S104之后执行的,还可以是与S104并行执行或者交替执行的,本实施例对此不做限制。
序列编码器和树型编码器可以是一个预先经过训练的答案确定网络模型中的两个编码器,其中,答案确定网络模型可以是预先训练好的神经网络模型,该答案确定网络模型可以从输入的资料文本中抽取问题文本所表示的问题的答案。
其中,序列编码器可以用于确定所输入的分词之间的上下文关系。序列编码器可以是基于循环神经网络(Recurrent Neural Network,RNN)经过训练得到的。序列编码器可以是Bi-LSTM(Bi-directional Long Short-Term Memory,双向长短时记忆)网络,Bi-LSTM由前向LSTM与后向LSTM组合而成。
其中,Bi-LSTM网络中隐层的维度为h维,则在各分词的词向量依次输入至序列编码器,输出的第一拼接特征为h维的特征。其中,各分词输入至序列编码器时,应按照各分词在资料文本和问题文本中的位置依次输入。例如,问题文本为“如何训练神经网络”经过分词处理后所得到的分词为:如何、训练、神经网络,则先将分词“如何”的特征输入至序列编码器,再输入分词“训练”,最后输入分词“神经网络”。
树型编码器用于确定所输入的分词之间的语法关系。树型编码器是基于循环神经网络经过训练得到的,树型编码器可以是Tree-LSTM(Tree Long Short-Term Memory,树型长短时记忆)网络,Tree-LSTM是采用树的结构来保存文本中各分词的依存关系。
Tree-LSTM的公式表达如下所示:
ht=ot⊙tanh(ct)
其中:xt为输入,W和V是预设的矩阵,可以对该矩阵进行训练,b为预设的偏置特征,可以对该偏置特征进行训练,N为Tree-LSTM网络中子树的个数。为选择每一个子树细胞状态中有效的信息并求和加入当前单元的细胞状态,为选择有效的输入信息加入细胞状态,⊙表示元素级乘法,ht表示Tree-LSTM网络的隐层的特征。当N等于1时,Tree-LSTM网络就退化成了序列LSTM。
S105,按照预设的拼接方式,拼接资料文本的序列编码向量和树型编码向量,得到资料文本的第一拼接编码向量;并按照该预设的拼接方式,拼接问题文本的序列编码向量和树型编码向量,得到问题文本的第二拼接编码向量。
其中,预设的拼接方式可以是首尾拼接。可以是将序列编码向量拼接于树型编码向量的尾部之后,也可以是将树型编码向量拼接于序列编码向量的尾部之后,本实施例对此不做限制。
S106,根据第一拼接编码向量和第二拼接编码向量,在资料文本中确定与问题文本相匹配的内容,作为待答复问题的答案。
可以是将所得到资料文本的序列编码向量和树型编码向量,以及问题文本的序列编码向量和树型编码向量输入至预先经过训练的分类器,在资料文本中确定与问题文本相匹配的内容。此时可以认为除了考虑词义向量和各分词的词性向量以外,还考虑了各分词的语法结构关系,进而可以准确找打资料文本中与问题文本相匹配的内容,作为答案。示例性的,假设资料文本为中国各城市旅游指南,问题文本为“北京有什么值得去的旅游景点”,则可以从资料文本中找到介绍北京市各个旅游景点的内容,作为该问题的答案。
在一种可能实施例中,可以将第一拼接编码向量和第二拼接编码向量融合,得到融合编码向量,并输入至预先经过训练的分类器,得到资料文本中与问题文本相匹配的内容的位置,并从资料文本中提取位置处的文本,作为待答复问题的答案。其中,位置可以是以起始位置和终止位置的形式表示的。
下面将结合具体的应用场景对本发明实施例提供的第一编码向量和第二编码向量的融合方法进行说明,可以参见图2b,图2b所示为本发明实施例提供的特征融合网络的一种网络结构示意图,其中包括三层双向长短时记忆网络,第一层中包括两个双向长短时记忆网络,分别记为第一双向长短时记忆网络,和第二双向长短时记忆网络,第二层包括一个双向长短时记忆网络,记为第三双向长短时记忆网络,第三层包括一个双向长短时记忆网络,记为第四双向长短时记忆网络。
为描述方便,下面将第一编码向量记为vc={vc1,vc2,vc3,…,v},第二编码向量记为vq={vq1,vq2,vq3,…,v}。
可以是将第一编码向量输入至第一双向长短时记忆网络,得到第一双向长短时记忆网络的输出,作为第一输出特征,记为vc′={vc1′,vc2′,vc3′,…,vcα′}。并将第二编码向量输入至第二双向长短时记忆网络,得到第二双向长短时记忆网络的输出,作为第二输出特征,记为vq′={vq1′,vq2′,vq3′,…,vqα′}。
将vc′={vc1′,vc2′,vc3′,…,vcα′}与vq′={vq1′,vq2′,vq3′,…,vqα′}进行向量级拼接,得到拼接结果,记为vf={vf1,vf2,vf3,…,v},其中,:vf1=vq1′:vc1′、vf2=vq2′:vc2′依次类推。
将vf={vf1,vf2,vf3,…,v}输入至第三双向长短时记忆网络,得到第三双长短时记忆网络的输出,记为vf′={vf1′,vf2′,vf3′,…,vfα′}。将vf′={vf1′,vf2′,vf3′,…,vfα′}与vq′={vq1′,vq2′,vq3′,…,vqα′}进行向量级拼接,将拼接结果记为vf″={vf1″,vf2″,vf3″,…,vfα″},其中,vf1″=vf1′:vq1′、vf2″=vf2′:vq2′依次类推。
将vf″={vf1″,vf2″,vf3″,…,vfα″}输入至第四双向长短时记忆网络,得到第四双向长短时记忆网络的输出,作为融合编码向量。
在一种可能的实施例中,在得到融合编码向量后,将融合编码向量与领域向量拼接,为描述方便,将融合编码向量记为vf″′,领域向量记为stype,领域向量为用于表示待答复问题所属领域的独热(one-hot)编码。例如,可以设定医疗领域的领域向量为{001},快销领域的领域向量为{010},保险领域的领域向量为{100}。关于融合编码向量可以参见前述相关描述,在此不再赘述。通过拼接领域向量,使得该实施例可以通过一个网络模型从资料文本中确定不同领域的问题的答案,无需针对不同领域的分别训练不同模型,适用性更高。
示例性的,可以如图2c所示,将stype经过一个全连接层,与vf″′进行元素级加法,得到表示特征记为vfinal。将表示特征分别输入至两个全连接层,每个全连接层可以包括三层激活层,激活层所使用的激活函数可以是ReLU(Rectified Linear Units,线性整流函数),将两个全连接层的输出输入至各自后续的Softmax(归一化指示函数)层,其中一个Softmax层用于输出答案的起始位置,另一个Softmax层用于输出答案的结束位置。
本申请实施例提供的一种答案确定方法及装置,在构建资料文本和问题文本的词向量中,包括了用于表示词义的词义向量和表示词性的词性向量,而词性向量可以反映出一个词在句子的语法结构中的位置,并利用树型编码器在词义向量和词性向量的基础上分析出资料文本和问题文本你的语法结构,进而综合语法结构以及分词之间的语义关联,在资料文本中查找到与问题文本匹配的内容,而这部分内容可以视为问题文本所表示的待答复问题的答案,整个无需预先设置问题模板,可以充分应对自然语言的灵活性
在一种可能的应用场景中,本发明实施例提供的答案确定方法,可以通过一个预先经过训练的神经网络实现,可以如图3所示,在其他可能的应用场景中,也可以是通过多个神经网络(或者基于传统机器学习得到的模型)实现,本实施例对此不做限制。
图3所示为本发明实施例提供的答案确定网络模型的一种结构示意图,可以包括:单词层(Word Layer)310、编码层(Coding Layer)320、融合层(Fusion Layer)330以及输出层(Output Layer)340。为描述方便,下面将分别对单词层310、编码层320、融合层330以及输出层340进行描述。
单词层310的输入为资料文本和问题文本,单词层310用于对资料文本和问题文本进行分词,得到资料文本的第一分词以及问题文本的第二分词,并将每个分词替换为由该分词的词义向量和词性向量组成的词向量,得到对应的词向量。关于词义向量和词性向量可以参见前述相关描述,在此不再赘述。
编码层320可以包括两个相同的序列编码器(Bi-LSTM)321以及两个相同的树型编码器(Tree-LSTM)322,其中,两个相同的序列编码器的输入分别为单词层输出的第一词向量和第二词向量,输出分别为资料文本和问题文本的序列编码向量。两个不同的树型编码器的输入分别为单词层输出的第一词向量和第二词向量,输出分别为资料文本和问题文本的树型编码向量。
融合层330可以参见前述关于图2b的相关描述,输出层340可以参见前述关于图2c的相关描述,在此不再赘述。
相应于上述答案确定方法实施例,本申请实施例还提供一种答案确定装置,如图4所示,可以包括:
分词提取模块401,用于对资料文本和问题文本进行分词处理,得到资料文本的第一分词和问题文本的第二分词,资料文本用于表示至少一个领域的相关知识,问题文本用于表示待答复问题;
词向量提取模块402,用于提取第一分词的词义向量和词性向量,得到由第一分词的词义向量和词性向量组成的第一词向量;并提取第二分词的词义向量和词性向量,得到由第二分词的词义向量和词性向量组成的第二词向量,其中,词义向量用于表示分词的词义,词性向量用于表示分词的词性;
序列编码模块403,用于将第一词向量输入至于预先经过训练的序列编码器,得到序列编码器的输出,作为资料文本的序列编码向量;并将第二词向量输入至序列编码器,得到序列编码器的输出,作为问题文本的序列编码向量,序列编码向量用于表示文本中分词之间的上下文关系;
树型编码模块404,用于将第一词向量输入至预先经过训练的树型编码器,得到树型编码器的输出,作为资料文本的树型编码向量;并将第二词向量输入至预先经过训练的树型编码器,得到树型编码器的输出,作为问题文本的树型编码向量,树型编码向量用于表示文本的语法结构;
拼接模块405,用于按照预设的拼接方式,拼接资料文本的序列编码向量和树型编码向量,得到资料文本的第一拼接编码向量;并按照预设的拼接方式,拼接问题文本的序列编码向量和树型编码向量,得到问题文本的第二拼接编码向量;
匹配模块406,用于根据第一拼接编码向量和第二拼接编码向量,在资料文本中确定与问题文本相匹配的内容,作为待答复问题的答案。
在一种可能的实施例中,匹配模块406,具体用于将融合编码向量输入至预先经过训练的分类器,得到资料文本中与问题文本相匹配的内容的位置;
从资料文本中提取位置处的文本,作为待答复问题的答案。
在一种可能实施例中,匹配模块406,具体用于将融合编码向量和领域向量输入至预先经过训练的分类器,得到资料文本中与问题文本相匹配的内容的位置,作为待答复问题的答案所处的位置,领域向量为用于表示待答复问题所属领域的独热(one-hot)编码。
在一种可能的实施例中,词向量提取模块402,具体用于提取第一分词的词义向量和词性向量;并将第一分词的词义向量和词性向量首尾拼接,得到拼接结果,作为第一词向量;并提取第二分词的词义向量和词性向量;并将第二分词的词义向量和词性向量首尾拼接,得到拼接结果,作为第一词向量。
相应于上述答案确定方法实施例,本申请实施例还提供了一种电子设备,如图5所示,包括处理器510、通信接口520、存储器530和通信总线540,其中,处理器510,通信接口520,存储器530通过通信总线540完成相互间的通信,
存储器530,用于存放计算机程序;
处理器510,用于执行存储器530上所存放的程序时,实现如下步骤:
对资料文本和问题文本进行分词处理,得到资料文本的第一分词和问题文本的第二分词,资料文本用于表示至少一个领域的相关知识,问题文本用于表示待答复问题;
提取第一分词的词义向量和词性向量,得到由第一分词的词义向量和词性向量组成的第一词向量;并提取第二分词的词义向量和词性向量,得到由第二分词的词义向量和词性向量组成的第二词向量,其中,词义向量用于表示分词的词义,词性向量用于表示分词的词性;
将第一词向量输入至于预先经过训练的序列编码器,得到序列编码器的输出,作为资料文本的序列编码向量;并将第二词向量输入至序列编码器,得到序列编码器的输出,作为问题文本的序列编码向量,序列编码向量用于表示文本中分词之间的上下文关系;
将第一词向量输入至预先经过训练的树型编码器,得到树型编码器的输出,作为资料文本的树型编码向量;并将第二词向量输入至预先经过训练的树型编码器,得到树型编码器的输出,作为问题文本的树型编码向量,树型编码向量用于表示文本的语法结构;
按照预设的拼接方式,拼接资料文本的序列编码向量和树型编码向量,得到资料文本的第一拼接编码向量;并按照预设的拼接方式,拼接问题文本的序列编码向量和树型编码向量,得到问题文本的第二拼接编码向量;
根据第一拼接编码向量和第二拼接编码向量,在资料文本中确定与问题文本相匹配的内容,作为待答复问题的答案。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
相应于上述答案确定方法实施例,在本申请提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述实施例中任一的答案确定方法。
相应于上述答案确定方法实施例,在本申请提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一的答案确定方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于答案确定装置、电子设备、计算机可读存储介质以及计算机程序产品实施例而言,由于其基本相似于答案确定方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的较佳实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本申请的保护范围内。

Claims (11)

1.一种答案确定方法,其特征在于,所述方法包括:
对资料文本和问题文本进行分词处理,得到资料文本的第一分词和问题文本的第二分词,所述资料文本用于表示至少一个领域的相关知识,所述问题文本用于表示待答复问题;
提取所述第一分词的词义向量和词性向量,得到由所述第一分词的词义向量和词性向量组成的第一词向量;并提取所述第二分词的词义向量和词性向量,得到由所述第二分词的词义向量和词性向量组成的第二词向量,其中,词义向量用于表示分词的词义,词性向量用于表示分词的词性;
将所述第一词向量输入至于预先经过训练的序列编码器,得到所述序列编码器的输出,作为所述资料文本的序列编码向量;并将所述第二词向量输入至所述序列编码器,得到所述序列编码器的输出,作为所述问题文本的序列编码向量,所述序列编码向量用于表示文本中分词之间的上下文关系;
将所述第一词向量输入至预先经过训练的树型编码器,得到所述树型编码器的输出,作为所述资料文本的树型编码向量;并将所述第二词向量输入至预先经过训练的树型编码器,得到所述树型编码器的输出,作为所述问题文本的树型编码向量,所述树型编码向量用于表示文本的语法结构;
按照预设的拼接方式,拼接所述资料文本的所述序列编码向量和所述树型编码向量,得到所述资料文本的第一拼接编码向量;并按照所述预设的拼接方式,拼接所述问题文本的所述序列编码向量和所述树型编码向量,得到所述问题文本的第二拼接编码向量;
根据所述第一拼接编码向量和所述第二拼接编码向量,在所述资料文本中确定与所述问题文本相匹配的内容,作为所述待答复问题的答案。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一拼接编码向量和所述第二拼接编码向量,在所述资料文本中确定与所述问题文本相匹配的内容,作为所述待答复问题的答案,包括:
融合所述第一拼接编码向量和所述第二拼接编码向量,得到融合编码向量;
将所述融合编码向量输入至预先经过训练的分类器,得到所述资料文本中与所述问题文本相匹配的内容的位置;
从所述资料文本中提取所述位置处的文本,作为所述待答复问题的答案。
3.根据权利要求2所述的方法,其特征在于,所述融合所述第一拼接编码向量和所述第二拼接编码向量,得到融合编码向量,包括:
将所述第一拼接编码向量输入至特征融合网络中的第一双向长短时记忆网络,得到所述第一双向长短时记忆网络的输出,作为第一输出特征;并将所述第二拼接编码向量输入至所述特征融合网络中的第二双向长短时记忆网络,得到所述第一双向长短时记忆网络的输出,作为第二输出特征;
将所述第一输出特征和所述第二输出特征进行向量级拼接,得到拼接结果;
重复执行以下步骤:
将拼接结果输入至所述特征融合网络中下一层的双向长短时记忆网络,得到输出结果;并将输出结果与所述第二输出特征进行向量级拼接,得到新的拼接结果;
直至得到所述特征融合网络中最后一层的双向长短时记忆网络的输出结果,将该输出结果作为融合编码向量。
4.根据权利要求2所述的方法,其特征在于,所述将所述融合编码向量输入至预先经过训练的分类器,得到所述资料文本中与所述问题文本相匹配的内容的位置,作为所述待答复问题的答案所处的位置,包括:
将所述融合编码向量和领域向量拼接,得到表示特征,所述领域向量为用于表示所述待答复问题所属领域的独热(one-hot)编码;
将所述表示特征输入至预先经过训练的分类器,得到所述资料文本中与所述问题文本相匹配的内容的位置,作为所述待答复问题的答案所处的位置。
5.根据权利要求1所述的方法,其特征在于,所述提取所述第一分词的词义向量和词性向量,得到第一词向量,包括:
提取所述第一分词的词义向量和词性向量;并将所述第一分词的词义向量和词性向量首尾拼接,得到拼接结果,作为第一词向量;
所述提取所述第二分词的词义向量和词性向量,得到第二词向量,包括:
提取所述第二分词的词义向量和词性向量;并将所述第二分词的词义向量和词性向量首尾拼接,得到拼接结果,作为第一词向量。
6.一种答案确定装置,其特征在于,所述装置包括:
分词提取模块,用于对资料文本和问题文本进行分词处理,得到资料文本的第一分词和问题文本的第二分词,所述资料文本用于表示至少一个领域的相关知识,所述问题文本用于表示待答复问题;
词向量提取模块,用于提取所述第一分词的词义向量和词性向量,得到由所述第一分词的词义向量和词性向量组成的第一词向量;并提取所述第二分词的词义向量和词性向量,得到由所述第二分词的词义向量和词性向量组成的第二词向量,其中,词义向量用于表示分词的词义,词性向量用于表示分词的词性;
序列编码模块,用于将所述第一词向量输入至于预先经过训练的序列编码器,得到所述序列编码器的输出,作为所述资料文本的序列编码向量;并将所述第二词向量输入至所述序列编码器,得到所述序列编码器的输出,作为所述问题文本的序列编码向量,所述序列编码向量用于表示文本中分词之间的上下文关系;
树型编码模块,用于将所述第一词向量输入至预先经过训练的树型编码器,得到所述树型编码器的输出,作为所述资料文本的树型编码向量;并将所述第二词向量输入至预先经过训练的树型编码器,得到所述树型编码器的输出,作为所述问题文本的树型编码向量,所述树型编码向量用于表示文本的语法结构;
拼接模块,用于按照预设的拼接方式,拼接所述资料文本的所述序列编码向量和所述树型编码向量,得到所述资料文本的第一拼接编码向量;并按照所述预设的拼接方式,拼接所述问题文本的所述序列编码向量和所述树型编码向量,得到所述问题文本的第二拼接编码向量;
匹配模块,用于根据所述第一拼接编码向量和所述第二拼接编码向量,在所述资料文本中确定与所述问题文本相匹配的内容,作为所述待答复问题的答案。
7.根据权利要求6所述的装置,其特征在于,所述匹配模块,具体用于融合所述第一拼接编码向量和所述第二拼接编码向量,得到融合编码向量;
将所述融合编码向量输入至预先经过训练的分类器,得到所述资料文本中与所述问题文本相匹配的内容的位置;
从所述资料文本中提取所述位置处的文本,作为所述待答复问题的答案。
8.根据权利要求7所述的装置,其特征在于,所述匹配模块,具体用于将所述第一拼接编码向量输入至特征融合网络中的第一双向长短时记忆网络,得到所述第一双向长短时记忆网络的输出,作为第一输出特征;并将所述第二拼接编码向量输入至所述特征融合网络中的第二双向长短时记忆网络,得到所述第一双向长短时记忆网络的输出,作为第二输出特征;
将所述第一输出特征和所述第二输出特征进行向量级拼接,得到拼接结果;
重复执行以下步骤:
将拼接结果输入至所述特征融合网络中下一层的双向长短时记忆网络,得到输出结果;并将输出结果与所述第二输出特征进行向量级拼接,得到新的拼接结果;
直至得到所述特征融合网络中最后一层的双向长短时记忆网络的输出结果,将该输出结果作为融合编码向量。
9.根据权利要求7所述的装置,其特征在于,所述匹配模块,具体用于将所述融合编码向量和领域向量拼接,得到表示特征,所述领域向量为用于表示所述待答复问题所属领域的独热(one-hot)编码;将所述表示特征输入至预先经过训练的分类器,得到所述资料文本中与所述问题文本相匹配的内容的位置,作为所述待答复问题的答案所处的位置。
10.根据权利要求6所述的装置,其特征在于,所述词向量提取模块,具体用于提取所述第一分词的词义向量和词性向量;并将所述第一分词的词义向量和词性向量首尾拼接,得到拼接结果,作为第一词向量;并提取所述第二分词的词义向量和词性向量;并将所述第二分词的词义向量和词性向量首尾拼接,得到拼接结果,作为第一词向量。
11.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-5任一所述的方法步骤。
CN201910518065.8A 2019-06-14 2019-06-14 一种答案确定方法及装置 Active CN110309282B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910518065.8A CN110309282B (zh) 2019-06-14 2019-06-14 一种答案确定方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910518065.8A CN110309282B (zh) 2019-06-14 2019-06-14 一种答案确定方法及装置

Publications (2)

Publication Number Publication Date
CN110309282A true CN110309282A (zh) 2019-10-08
CN110309282B CN110309282B (zh) 2021-08-27

Family

ID=68076006

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910518065.8A Active CN110309282B (zh) 2019-06-14 2019-06-14 一种答案确定方法及装置

Country Status (1)

Country Link
CN (1) CN110309282B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110750998A (zh) * 2019-10-14 2020-02-04 腾讯科技(深圳)有限公司 一种文本输出方法、装置、计算机设备和存储介质
CN111078851A (zh) * 2019-12-09 2020-04-28 科大讯飞(苏州)科技有限公司 信息处理方法、装置、设备及可读存储介质
CN112131366A (zh) * 2020-09-23 2020-12-25 腾讯科技(深圳)有限公司 训练文本分类模型及文本分类的方法、装置及存储介质
CN112507081A (zh) * 2020-12-16 2021-03-16 平安科技(深圳)有限公司 相似句匹配方法、装置、计算机设备及存储介质
CN113342950A (zh) * 2021-06-04 2021-09-03 北京信息科技大学 基于语义联合的答案选取方法及***
CN114662482A (zh) * 2022-03-25 2022-06-24 北京感易智能科技有限公司 文本表格中答案文本的抽取方法及装置
CN116737888A (zh) * 2023-01-11 2023-09-12 北京百度网讯科技有限公司 对话生成模型的训练方法和答复文本的确定方法、装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040137490A1 (en) * 2000-12-28 2004-07-15 Pangenex, Inc. Methods for making polynucleotide libraries, polynucleotide arrays, and cell libraries for high-throughput genomics analysis
CN106649258A (zh) * 2016-09-22 2017-05-10 北京联合大学 一种智能的问答***
CN107229684A (zh) * 2017-05-11 2017-10-03 合肥美的智能科技有限公司 语句分类方法、***、电子设备、冰箱及存储介质
US20170316775A1 (en) * 2016-04-27 2017-11-02 Conduent Business Services, Llc Dialog device with dialog support generated using a mixture of language models combined using a recurrent neural network
CN107578092A (zh) * 2017-09-01 2018-01-12 广州智慧城市发展研究院 一种基于情绪和意见挖掘的情感复合分析方法及***
CN108536681A (zh) * 2018-04-16 2018-09-14 腾讯科技(深圳)有限公司 基于情感分析的智能问答方法、装置、设备及存储介质
CN109033068A (zh) * 2018-06-14 2018-12-18 北京慧闻科技发展有限公司 基于注意力机制的用于阅读理解的方法、装置和电子设备
CN109815323A (zh) * 2019-01-08 2019-05-28 四川灵灵器机器人有限责任公司 一种人机交互训练问答生成算法
CN109840255A (zh) * 2019-01-09 2019-06-04 平安科技(深圳)有限公司 答复文本生成方法、装置、设备及存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040137490A1 (en) * 2000-12-28 2004-07-15 Pangenex, Inc. Methods for making polynucleotide libraries, polynucleotide arrays, and cell libraries for high-throughput genomics analysis
US20170316775A1 (en) * 2016-04-27 2017-11-02 Conduent Business Services, Llc Dialog device with dialog support generated using a mixture of language models combined using a recurrent neural network
CN106649258A (zh) * 2016-09-22 2017-05-10 北京联合大学 一种智能的问答***
CN107229684A (zh) * 2017-05-11 2017-10-03 合肥美的智能科技有限公司 语句分类方法、***、电子设备、冰箱及存储介质
CN107578092A (zh) * 2017-09-01 2018-01-12 广州智慧城市发展研究院 一种基于情绪和意见挖掘的情感复合分析方法及***
CN108536681A (zh) * 2018-04-16 2018-09-14 腾讯科技(深圳)有限公司 基于情感分析的智能问答方法、装置、设备及存储介质
CN109033068A (zh) * 2018-06-14 2018-12-18 北京慧闻科技发展有限公司 基于注意力机制的用于阅读理解的方法、装置和电子设备
CN109815323A (zh) * 2019-01-08 2019-05-28 四川灵灵器机器人有限责任公司 一种人机交互训练问答生成算法
CN109840255A (zh) * 2019-01-09 2019-06-04 平安科技(深圳)有限公司 答复文本生成方法、装置、设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIANGFENG ZENG 等: "Enhancing Attention-Based LSTM With Position Context for Aspect-Level Sentiment Classification", 《IEEE ACCESS》 *
李洋 等: "基于CNN和BiLSTM网络特征融合的文本情感分析", 《计算机应用》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110750998A (zh) * 2019-10-14 2020-02-04 腾讯科技(深圳)有限公司 一种文本输出方法、装置、计算机设备和存储介质
CN110750998B (zh) * 2019-10-14 2023-10-31 腾讯科技(深圳)有限公司 一种文本输出方法、装置、计算机设备和存储介质
CN111078851A (zh) * 2019-12-09 2020-04-28 科大讯飞(苏州)科技有限公司 信息处理方法、装置、设备及可读存储介质
CN111078851B (zh) * 2019-12-09 2024-04-12 科大讯飞(苏州)科技有限公司 信息处理方法、装置、设备及可读存储介质
CN112131366A (zh) * 2020-09-23 2020-12-25 腾讯科技(深圳)有限公司 训练文本分类模型及文本分类的方法、装置及存储介质
CN112131366B (zh) * 2020-09-23 2024-02-09 腾讯科技(深圳)有限公司 训练文本分类模型及文本分类的方法、装置及存储介质
CN112507081A (zh) * 2020-12-16 2021-03-16 平安科技(深圳)有限公司 相似句匹配方法、装置、计算机设备及存储介质
CN113342950A (zh) * 2021-06-04 2021-09-03 北京信息科技大学 基于语义联合的答案选取方法及***
CN114662482A (zh) * 2022-03-25 2022-06-24 北京感易智能科技有限公司 文本表格中答案文本的抽取方法及装置
CN116737888A (zh) * 2023-01-11 2023-09-12 北京百度网讯科技有限公司 对话生成模型的训练方法和答复文本的确定方法、装置
CN116737888B (zh) * 2023-01-11 2024-05-17 北京百度网讯科技有限公司 对话生成模型的训练方法和答复文本的确定方法、装置

Also Published As

Publication number Publication date
CN110309282B (zh) 2021-08-27

Similar Documents

Publication Publication Date Title
CN110309282A (zh) 一种答案确定方法及装置
CN108363790B (zh) 用于对评论进行评估的方法、装置、设备和存储介质
CN110427623A (zh) 半结构化文档知识抽取方法、装置、电子设备及存储介质
CN111611810B (zh) 一种多音字读音消歧装置及方法
CN111310440B (zh) 文本的纠错方法、装置和***
CN110348007A (zh) 一种文本相似度确定方法及装置
CN110298038B (zh) 一种文本打分方法及装置
CN112949312A (zh) 一种产品知识融合方法和***
CN112215008A (zh) 基于语义理解的实体识别方法、装置、计算机设备和介质
CN108846138A (zh) 一种融合答案信息的问题分类模型构建方法、装置和介质
CN113886601A (zh) 电子文本事件抽取方法、装置、设备及存储介质
CN116578688A (zh) 基于多轮问答的文本处理方法、装置、设备及存储介质
CN114997181A (zh) 一种基于用户反馈修正的智能问答方法及***
CN114004231A (zh) 一种中文专词抽取方法、***、电子设备及存储介质
CN114491018A (zh) 敏感信息检测模型的构建方法、敏感信息检测方法及装置
CN112232052A (zh) 文本拼接方法、装置、计算机设备及存储介质
CN112836502A (zh) 一种金融领域事件隐式因果关系抽取方法
CN113158687A (zh) 语义的消歧方法及装置、存储介质、电子装置
CN112182167A (zh) 一种文本匹配方法、装置、终端设备和存储介质
CN113723077B (zh) 基于双向表征模型的句向量生成方法、装置及计算机设备
CN115600605A (zh) 一种中文实体关系联合抽取方法、***、设备及存储介质
CN115438149A (zh) 一种端到端模型训练方法、装置、计算机设备及存储介质
CN113486659B (zh) 文本匹配方法、装置、计算机设备及存储介质
CN113360654B (zh) 文本分类方法、装置、电子设备及可读存储介质
CN114722832A (zh) 一种摘要提取方法、装置、设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant