CN110928987B - 基于神经网络混合模型的法律条文检索方法及相关设备 - Google Patents

基于神经网络混合模型的法律条文检索方法及相关设备 Download PDF

Info

Publication number
CN110928987B
CN110928987B CN201910991657.1A CN201910991657A CN110928987B CN 110928987 B CN110928987 B CN 110928987B CN 201910991657 A CN201910991657 A CN 201910991657A CN 110928987 B CN110928987 B CN 110928987B
Authority
CN
China
Prior art keywords
vector
text
normalized
neural network
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910991657.1A
Other languages
English (en)
Other versions
CN110928987A (zh
Inventor
于修铭
雷骏峰
刘嘉伟
陈晨
李可
汪伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201910991657.1A priority Critical patent/CN110928987B/zh
Priority to PCT/CN2019/119314 priority patent/WO2021072892A1/zh
Publication of CN110928987A publication Critical patent/CN110928987A/zh
Application granted granted Critical
Publication of CN110928987B publication Critical patent/CN110928987B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3346Query execution using probabilistic model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请涉及人工智能领域,本申请公开了一种基于神经网络混合模型的法律条文检索方法及相关设备,所述方法包括:获取输入文本,对所述输入文本进行向量化,获得第一文本向量及第二文本向量;对所述第一文本向量及所述第二文本向量进行堆栈嵌入,获得第一循环向量及第二循环向量;将所述第一循环向量与所述第二循环向量进行拼接,获得混合向量,并对所述混合向量进行堆栈嵌入,获得混合堆栈向量;对所述混合堆栈向量进行归一化处理,获得文本检索结果。本申请通过对输入文本进行多路输入,并对多路输入向量化,进行堆栈嵌入循环运算,对运算后的结果拼接后再次进行堆栈嵌入循环运算,获得法律条文的检索结果,可以有效提高法律条文检索的准确度。

Description

基于神经网络混合模型的法律条文检索方法及相关设备
技术领域
本申请涉及人工智能领域,特别涉及一种基于神经网络混合模型的法律条文检索方法及相关设备。
背景技术
知识图谱技术日益成为人工智能的基础,它是机器理解自然语言和构建知识网络的重要方法。近年来,知识图谱在司法领域的运用悄然兴起,法律条文的快速检索***能够依赖法律知识图谱,根据用户输入的文本内容快速地在线检索法律条文,提高法院审判工作质量和效率,该***主要包括两种类型的快速检索功能,一是根据法律条文对其相关法律条文的检索,二是根据案件要素信息对相关法律条文的检索。
法律条文检索***通常被法律从业人员用于根据案件中的信息对相关法律条文进行检索,提高案件处理的效率,无需手动翻阅查找相关法律条文;而目前的法律条文检索通常都是通过自然语言处理技术,采用的方法较多为文本相似度、关键词匹配等方法,其中最典型的是transformer算法,该算法基于transformer模型,通过该模型,可以获取案件中的相关法律条文信息,但是该模型在训练过程中,只能够学习到文本的上文或者下文内容,因此预测准确度不高,且耗时较长。
发明内容
本申请的目的在于针对现有技术的不足,提供一种基于神经网络混合模型的法律条文检索方法及相关设备,通过对输入文本进行多路输入,并对多路输入向量化,进行堆栈嵌入循环运算,对运算后的结果拼接后再次进行堆栈嵌入循环运算,获得法律条文的检索结果,可以有效提高法律条文检索的准确度。
为达到上述目的,本申请的技术方案提供一种基于神经网络混合模型的法律条文检索方法及相关设备。
本申请公开了一种基于神经网络混合模型的法律条文检索方法,包括以下步骤:
获取输入文本,对所述输入文本进行向量化,获得第一文本向量及第二文本向量;
对所述第一文本向量及所述第二文本向量进行堆栈嵌入,获得第一循环向量及第二循环向量;
将所述第一循环向量与所述第二循环向量进行拼接,获得混合向量,并对所述混合向量进行堆栈嵌入,获得混合堆栈向量;
对所述混合堆栈向量进行归一化处理,获得文本检索结果。
较佳地,所述获取输入文本,对所述输入文本进行向量化,获得第一文本向量及第二文本向量,包括:
获取输入文本,将所述输入文本设置为第一文本;
对所述第一文本进行实体链接,获得所述第一文本中的要素,将所述要素拼接成上下文,将所述上下文设置为第二文本;
分别对所述第一文本和所述第二文本进行向量化,获得第一文本向量及第二文本向量。
较佳地,所述分别对所述第一文本和所述第二文本进行向量化,获得第一文本向量及第二文本向量,包括:
对所述第一文本和所述第二文本进行字分割,获得第一文本和第二文本中的每个字;
预设向量的维度,根据所述向量的维度分别对所述第一文本的每个字和所述第二文本的每个字进行向量化,获得第一文本向量和第二文本向量。
较佳地,所述对所述第一文本向量及所述第二文本向量进行堆栈嵌入,获得第一循环向量及第二循环向量,包括:
将所述第一文本向量与所述第一文本向量的位置信息相加,获得第一位置向量,将所述第二文本向量与所述第二文本向量的位置信息相加,获得第二位置向量;
分别将所述第一位置向量与所述第二位置向量输入神经网络模型进行归一化处理,获得第一归一化隐向量及第二归一化隐向量;
对所述第一归一化隐向量及所述第二归一化隐向量进行特征提取,获得第一特征向量及第二特征向量;
将所述第一特征向量及所述第二特征向量输入神经网络模型进行归一化处理,获得第一归一化向量及第二归一化向量,将所述第一归一化向量及所述第二归一化向量输入自注意力神经网络模型进行处理,获得第一编码块向量及第二编码块向量,对所述第一编码块向量及所述第二编码块向量进行循环处理,获得第一循环向量及第二循环向量。
较佳地,所述对所述第一归一化隐向量及所述第二归一化隐向量进行特征提取,获得第一特征向量及第二特征向量,包括:
将所述第一归一化隐向量及所述第二归一化隐向量输入神经网络模型进行特征提取,将所述特征提取后的向量分别与所述第一位置向量及所述第二位置向量相加,获得第一特征隐向量及第二特征隐向量;
预设第一循环次数,将所述第一特征隐向量及所述第二特征隐向量输入神经网络模型进行归一化,将归一化后获得的向量输入神经网络模型进行特征提取,将特征提取后的向量分别与所述第一位置向量及所述第二位置向量相加,并根据预设的第一循环次数重复执行本步骤,获得第一特征向量及第二特征向量。
较佳地,所述将所述第一归一化向量及所述第二归一化向量输入自注意力神经网络模型进行处理,获得第一编码块向量及第二编码块向量,对所述第一编码块向量及所述第二编码块向量进行循环处理,获得第一循环向量及第二循环向量,包括:
将所述第一归一化向量及所述第二归一化向量输入自注意力神经网络模型进行处理,将模型处理后获得的向量分别与所述第一特征向量及所述第二特征向量进行相加,获得第一编码块向量及第二编码块向量;
预设第二循环次数,将所述第一编码块向量及所述第二编码块向量分别与位置信息相加获得位置向量,将所述位置向量输入神经网络模型进行归一化处理,获得归一化隐向量,将所述归一化隐向量进行特征提取,获得特征向量,将所述特征向量进行归一化处理,获得归一化向量,将所述归一化向量输入自注意力神经网络模型进行处理,获得第一编码块向量及第二编码块编码块向量,并根据预设的第二循环次数重复执行本步骤,获得第一循环向量及第二循环向量。
较佳地,所述对所述混合堆栈向量进行归一化处理,获得文本检索结果,包括:
预设法律条文概率阈值;
将所述混合堆栈向量输入卷积神经网络的全连接层进行线性处理,获得待分类向量,并对所述待分类向量进行归一化处理,获得每一条法律条文对应的概率;
将所述每一条法律条文对应的概率与所述预设的法律条文概率阈值进行比较,将所有大于所述法律条文概率阈值的法律条文进行输出。
本申请还公开了一种基于神经网络混合模型的法律条文检索装置,所述装置包括:
获取模块:设置为获取输入文本,对所述输入文本进行向量化,获得第一文本向量及第二文本向量;
第一堆栈模块:设置为对所述第一文本向量及所述第二文本向量进行堆栈嵌入,获得第一循环向量及第二循环向量;
第二堆栈模块:设置为将所述第一循环向量与所述第二循环向量进行拼接,获得混合向量,并对所述混合向量进行堆栈嵌入,获得混合堆栈向量;
输出模块:设置为对所述混合堆栈向量进行归一化处理,获得文本检索结果。
本申请还公开了一种计算机设备,所述计算机设备包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被一个或多个所述处理器执行时,使得一个或多个所述处理器执行上述所述检索方法的步骤。
本申请还公开了一种存储介质,所述存储介质可被处理器读写,所述存储介质存储有计算机指令,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行上述所述检索方法的步骤。
本申请的有益效果是:本申请通过对输入文本进行多路输入,并对多路输入向量化,进行堆栈嵌入循环运算,对运算后的结果拼接后再次进行堆栈嵌入循环运算,获得法律条文的检索结果,可以有效提高法律条文检索的准确度。
附图说明
图1为本申请第一个实施例的一种基于神经网络混合模型的法律条文检索方法的流程示意图;
图2为本申请第二个实施例的一种基于神经网络混合模型的法律条文检索方法的流程示意图;
图3为本申请第三个实施例的一种基于神经网络混合模型的法律条文检索方法的流程示意图;
图4为本申请第四个实施例的一种基于神经网络混合模型的法律条文检索方法的流程示意图;
图5为本申请第五个实施例的一种基于神经网络混合模型的法律条文检索方法的流程示意图;
图6为本申请第六个实施例的一种基于神经网络混合模型的法律条文检索方法的流程示意图;
图7为本申请第七个实施例的一种基于神经网络混合模型的法律条文检索方法的流程示意图;
图8为本申请实施例的一种基于神经网络混合模型的法律条文检索装置结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本申请的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。
本申请第一个实施例的一种基于神经网络混合模型的法律条文检索方法流程如图1所示,本实施例包括以下步骤:
步骤s101,获取输入文本,对所述输入文本进行向量化,获得第一文本向量及第二文本向量;
具体的,所述输入文本为任意长度的法律条文内容,可以是完整的一句话,例如:“想问借贷关系中需要参考哪些法律条文?”,当用户在***中输入上述句子后,***可获取所述输入文本。
具体的,通过用户输入的文本信息,可通过实体链接技术提取所述输入文本中的要素信息,所述要素信息可包括:争议焦点、小事实要素、证据,例如:“想问借贷关系中需要参考哪些法律条文?”文本中,争议焦点是“借贷关系是否成立”,小事实要素是“是否签订借条/欠条/收据/借款合同”,证据是“借款合同”。
具体的,当获取到输入文本后,通过分别对所述输入文本及文本中的要素信息进行向量化,可以获得第一文本向量及第二文本向量。
步骤s102,对所述第一文本向量及所述第二文本向量进行堆栈嵌入,获得第一循环向量及第二循环向量;
具体的,所述堆栈嵌入包括对所述第一文本向量及所述第二文本向量进行嵌入操作,并将多个嵌入操作串联起来执行,完成堆栈嵌入操作;当执行嵌入操作时,首先获取所述第一文本向量及所述第二文本向量中的位置信息,所述位置信息根据计算公式获得,其中p代表词向量中词的位置、i表示词向量中每一个词对应向量中元素的位置,d表示向量维度;然后将所述位置信息与所述第一文本向量及所述第二文本向量分别进行相加,获得第一位置向量及第二位置向量。
具体的,当获得所述第一位置向量及所述第二位置向量之后,将所述第一位置向量及所述第二位置向量输入神经网络模型,进行归一化处理,所述归一化可根据公式进行,其中,μ为均值,σ为方差,a为位置向量,H为神经网络中神经元个数,由此获得第一归一化隐向量及第二归一化隐向量;然后将所述第一归一化隐向量及第二归一化隐向量输入卷积神经网络,进行特征提取,所述特征提取可通过卷积神经网络的卷积核进行提取,所述特征提取包括向量特征的提取,在向量特征进行提取后,将特征提取后的向量分别与所述第一位置向量和所述第二位置向量相加,获得第一特征隐向量及第二特征隐向量。
具体的,当获取到所述第一特征隐向量及所述第二特征隐向量后,可从所述第一特征隐向量及所述第二特征隐向量中获取位置信息,并将所述位置信息与所述第一特征隐向量及所述第二特征隐向量分别相加,获得新的第一位置向量及第二位置向量,然后将新的第一位置向量及第二位置向量输入神经网络进行归一化处理获得新的第一归一化隐向量及第二归一化隐向量,最后将新的第一归一化隐向量及第二归一化隐向量再次输入卷积神经网络进行特征提取,获得新的第一特征隐向量及第二特征隐向量,并重复本步骤N次,其中,所述重复的次数N可以预先设定,例如N=6,当N=6时可得到较好的结果,当完成N次本步骤之后,获得第一特征向量及第二特征向量。
具体的,当获取到所述第一特征向量及所述第二特征向量后,可将所述第一特征向量及所述第二特征向量再次输入神经网络模型进行归一化处理,获得第一归一化向量及第二归一化向量,然后将所述第一归一化向量及所述第二归一化向量输入自注意力神经网络模型进行计算,并将计算后的向量分别与所述第一特征向量及第二特征向量相加,获得第一编码块向量及第二编码块向量;获得了编码块向量即意味着完成了嵌入操作。
具体的,当获取到所述第一编码块向量及所述第二编码块向量后,再将所述第一编码块向量及所述第二编码块向量与编码块向量对应的位置信息相加,获得新的第一位置信息及第二位置信息,然后将新的第一位置信息及第二位置信息输入神经网络模型进行归一化处理,获得新的第一归一化隐向量和第二归一化隐向量,并将新的第一归一化隐向量和第二归一化隐向量再次输入卷积神经网络模型进行特征提取,获得新的第一特征向量及第二特征向量,接着将新的第一特征向量及第二特征向量输入神经网络模型进行归一化处理,获得新的第一归一化向量及第二归一化向量,最后将新的第一归一化向量及第二归一化向量输入自注意力神经网络模型中进行计算,并将计算获得的结果分别与新的第一特征向量及第二特征向量相加,获得新的第一编码块向量及第二编码块向量,并重复本步骤N次,其中,所述重复的次数N可以预先设定,例如N=6,当N=6时可得到较好的结果,当完成N次本步骤之后,获得第一循环向量及第二循环向量,获得了循环向量即意味着完成了堆栈嵌入操作。
步骤s103,将所述第一循环向量与所述第二循环向量进行拼接,获得混合向量,并对所述混合向量进行堆栈嵌入,获得混合堆栈向量;
具体的,当获取到所述第一循环向量与所述第二循环向量之后,可对所述第一循环向量与所述第二循环向量进行拼接,获得混合向量,所述拼接为向量与向量之间的拼接,例如,如果所述第一循环向量是20*128维的向量,所述第二循环向量是30*128维的向量,则拼接后的向量,即混合向量为50*128维的向量。
具体的,当获取到所述混合向量后,可对所述混合向量进行堆栈嵌入,所述堆栈嵌入的操作可按照步骤s102的方式进行,即将所述混合向量与其对应的位置信息相加,获得新的位置向量,然后对新的位置向量进行归一化获得新的归一化隐向量,接着对新的归一化隐向量进行特征提取,获得新的特征向量,并对新的特征向量再次进行归一化获得新的归一化向量,最后对新的归一化向量输入自注意力神经网络模型进行计算,并将计算结果与新的特征向量相加获得新的编码块向量,将新的编码块向量循环进行前述步骤后获得循环向量,所述最终的循环向量即为合堆栈向量。
步骤s104,对所述混合堆栈向量进行归一化处理,获得文本检索结果。
具体的,当获取到所述混合堆栈向量之后,可对所述混合堆栈向量进行线性处理,所述线性处理包括将所述混合堆栈向量输入卷积神经网络的全连接层进行线性处理,获得待分类向量,所述全连接层可看成是矩阵乘法,例如:输入向量是一个128*128的向量,[1,2,...,128*128],而全连接层的矩阵为一个(128*128)*4的矩阵,那么得到的结果即为长度为(1,4)的向量,对所述混合堆栈向量的线性处理的目的是为了降维,例如,上述例子中通过线性处理后向量从128维降到了4维,所述降维后的4维向量即为待分类向量。其中,经过全连接层后的向量维度即是检索的法律条文的总数目,例如,如果检索的法律条文的总数为2000,则输出的向量即为(1,2000)的向量。因此所述全连接层的构建需根据法律条文的数目进行预先设定。
具体的,当获取到待分类向量之后,可对所述待分类向量进行归一化处理,所述归一化处理可以通过softmax函数进行,当对所述待分类向量进行归一化处理之后,就会根据所述待分类向量的维度输出每个维度对应的概率,其中,每个维度对应一个法律条文。
具体的,还可预设法律条文的概率阈值,当获取到每个法律条文的概率后,可将所述概率分别与预设的概率阈值进行比较,如果概率大于所述概率阈值,则将所述概率对应的法律条文进行输出,否则不输出。
本实施例中,通过对输入文本进行多路输入,并对多路输入向量化,进行堆栈嵌入循环运算,对运算后的结果拼接后再次进行堆栈嵌入循环运算,获得法律条文的检索结果,可以有效提高法律条文检索的准确度。
图2为本申请第二个实施例的一种基于神经网络混合模型的法律条文检索方法流程示意图,如图所示,所述步骤s101,获取输入文本,对所述输入文本进行向量化,获得第一文本向量及第二文本向量,包括:
步骤s201,获取输入文本,将所述输入文本设置为第一文本;
具体的,当获取到输入文本之后,可将所述输入文本复制分成两份,并将所述输入文本设置为第一文本。
步骤s202,对所述第一文本进行实体链接,获得所述第一文本中的要素,将所述要素拼接成上下文,将所述上下文设置为第二文本;
具体的,可通过实体链接技术提取所述输入文本中的要素信息,所述要素信息包括:争议焦点、小事实要素、证据,例如:“想问借贷关系中需要参考哪些法律条文?”文本中,争议焦点是“借贷关系是否成立”,小事实要素是“是否签订借条/欠条/收据/借款合同”,证据是“借款合同”;然后将所有的要素信息拼接成上下文,并可将所述上下文设置为第二文本。
步骤s203,分别对所述第一文本和所述第二文本进行向量化,获得第一文本向量及第二文本向量。
具体的,当获取到第一文本及第二文本后,可分别对所述第一文本及第二文本进行向量化,获得第一文本向量及第二文本向量。
本实施例中,通过对输入文本分成两路,并对两路文本进行不同的处理,以及进行向量化,可以更多的获取文本中的上下文信息,提高文本的检索效果。
图3为本申请第三个实施例的一种基于神经网络混合模型的法律条文检索方法流程示意图,如图所示,所述步骤s203,分别对所述第一文本和所述第二文本进行向量化,获得第一文本向量及第二文本向量,包括:
步骤s301,对所述第一文本和所述第二文本进行字分割,获得第一文本和第二文本中的每个字;
具体的,所述字分割可以通过分词工具进行,当对所述第一文本和所述第二文本进行字分割后,可获得第一文本和第二文本中的每个字。
步骤s302,预设向量的维度,根据所述向量的维度分别对所述第一文本的每个字和所述第二文本的每个字进行向量化,获得第一文本向量和第二文本向量。
具体的,所述向量化可通过word2Vec方法进行,所述向量的维度可以设定为128维,例如,如果向量化的函数为X=V(char),其中,char表示每个字,则V(“想”)=[v1,v2,...,v128],而V(“想”)是一个128维的向量。所述文本向量的维度用于确定所述输入文本中字的向量数目,所述文本向量的维度可以预先设定,例如,设定为128,则本次输入文本的字向量数目为128,当所述输入文本的字向量数目超过128时,超过128的字向量直接删除,如果本次输入文本的字向量不足128,则不足的字向量用0补足。例如:用户输入文本:“想问借贷关系中需要参考哪些法律条文?”,则对文本中的字进行向量化后,可获得X1=V(‘想’),X2=V(‘问’),X3=V(‘借’),X4=V(‘贷’)……,X17=V(‘文’),X18=V(‘?’),X19=[0,0,0,……,0]……,X128=[0,0,0,……,0];当对所述第一文本及所述第二文本中的每个字进行向量化后,可获得第一文本向量和第二文本向量。
本实施例中,通过对文本进行向量化,可以更好的获取文本中的上下文信息,更精确的实现文本检索。
图4为本申请第四个实施例的一种基于神经网络混合模型的法律条文检索方法流程示意图,如图所示,所述步骤s102,对所述第一文本向量及所述第二文本向量进行堆栈嵌入,获得第一循环向量及第二循环向量,包括:
步骤s401,将所述第一文本向量与所述第一文本向量的位置信息相加,获得第一位置向量,将所述第二文本向量与所述第二文本向量的位置信息相加,获得第二位置向量;
具体的,首先获取所述第一文本向量及所述第二文本向量中的位置信息,所述位置信息根据计算公式获得,其中p代表词向量中词的位置、i表示词向量中每一个词对应向量中元素的位置,d表示向量维度;然后将所述位置信息与所述第一文本向量及所述第二文本向量分别进行相加,获得第一位置向量及第二位置向量。
步骤s402,分别将所述第一位置向量与所述第二位置向量输入神经网络模型进行归一化处理,获得第一归一化隐向量及第二归一化隐向量;
具体的,当获得所述第一位置向量及所述第二位置向量之后,将所述第一位置向量及所述第二位置向量输入神经网络模型,进行归一化处理,所述归一化可根据公式进行,其中,μ为均值,σ为方差,a为位置向量,H为神经网络中神经元个数,由此获得第一归一化隐向量及第二归一化隐向量。
步骤s403,对所述第一归一化隐向量及所述第二归一化隐向量进行特征提取,获得第一特征向量及第二特征向量;
具体的,当获得所述第一归一化隐向量及所述第二归一化隐向量后,可将所述第一归一化隐向量及第二归一化隐向量输入卷积神经网络,进行特征提取,所述特征提取可通过卷积神经网络的卷积核进行提取,所述特征提取包括向量特征的提取,在向量特征进行提取后,获得第一特征向量及第二特征向量。
步骤s404,将所述第一特征向量及所述第二特征向量输入神经网络模型进行归一化处理,获得第一归一化向量及第二归一化向量,将所述第一归一化向量及所述第二归一化向量输入自注意力神经网络模型进行处理,获得第一编码块向量及第二编码块向量,对所述第一编码块向量及所述第二编码块向量进行循环处理,获得第一循环向量及第二循环向量。
具体的,当获得所述第一特征向量及所述第二特征向量后,可将所述第一特征向量及所述第二特征向量输入神经网络模型进行归一化处理,获得第一归一化向量及第二归一化向量,并将所述第一归一化向量及所述第二归一化向量输入自注意力神经网络模型进行处理,获得第一编码块向量及第二编码块向量,然后对所述第一编码块向量及所述第二编码块向量进行循环处理,获得第一循环向量及第二循环向量。
本实施例中,通过对文本向量进行堆栈嵌入操作,可以提高文本信息的采集和识别,提高文本检索的准确度。
图5为本申请第五个实施例的一种基于神经网络混合模型的法律条文检索方法流程示意图,如图所示,所述步骤s403,对所述第一归一化隐向量及所述第二归一化隐向量进行特征提取,获得第一特征向量及第二特征向量,包括:
步骤s501,将所述第一归一化隐向量及所述第二归一化隐向量输入神经网络模型进行特征提取,将所述特征提取后的向量分别与所述第一位置向量及所述第二位置向量相加,获得第一特征隐向量及第二特征隐向量;
具体的,当获得所述第一归一化隐向量及所述第二归一化隐向量后,可将所述第一归一化隐向量及第二归一化隐向量输入卷积神经网络,进行特征提取,所述特征提取可通过卷积神经网络的卷积核进行提取,所述特征提取包括向量特征的提取,在向量特征进行提取后,将特征提取后的向量分别与所述第一位置向量和所述第二位置向量相加,获得第一特征隐向量及第二特征隐向量。
步骤s502,预设第一循环次数,将所述第一特征隐向量及所述第二特征隐向量输入神经网络模型进行归一化,将归一化后获得的向量输入神经网络模型进行特征提取,将特征提取后的向量分别与所述第一位置向量及所述第二位置向量相加,并根据预设的第一循环次数重复执行本步骤,获得第一特征向量及第二特征向量。
具体的,当获取到所述第一特征隐向量及所述第二特征隐向量后,可从所述第一特征隐向量及所述第二特征隐向量中获取位置信息,并将所述位置信息与所述第一特征隐向量及所述第二特征隐向量分别相加,获得新的第一位置向量及第二位置向量,然后将新的第一位置向量及第二位置向量输入神经网络进行归一化处理获得新的第一归一化隐向量及第二归一化隐向量,最后将新的第一归一化隐向量及第二归一化隐向量再次输入卷积神经网络进行特征提取,获得新的第一特征隐向量及第二特征隐向量,并重复本步骤N次,其中,所述重复的次数N可以预先设定,例如N=6,当N=6时可得到较好的结果,在重复进行本步骤时,本次的输出作为下次的输入;当完成N次本步骤之后,获得第一特征向量及第二特征向量。
本实施例中,通过对文本向量进行特征提取,可以更精确的提取文本中的特征信息,提高文本检索的精确度。
图6为本申请第六个实施例的一种基于神经网络混合模型的法律条文检索方法流程示意图,如图所示,所述步骤s502,将所述第一归一化向量及所述第二归一化向量输入自注意力神经网络模型进行处理,获得第一编码块向量及第二编码块向量,对所述第一编码块向量及所述第二编码块向量进行循环处理,获得第一循环向量及第二循环向量,包括:
步骤s601,将所述第一归一化向量及所述第二归一化向量输入自注意力神经网络模型进行处理,将模型处理后获得的向量分别与所述第一特征向量及所述第二特征向量进行相加,获得第一编码块向量及第二编码块向量;
具体的,当获得所述第一归一化向量及所述第二归一化向量后,可将所述第一归一化向量及所述第二归一化向量输入自注意力神经网络模型进行计算,并将计算后的向量分别与所述第一特征向量及第二特征向量相加,获得第一编码块向量及第二编码块向量。
步骤s602,预设第二循环次数,将所述第一编码块向量及所述第二编码块向量分别与位置信息相加获得位置向量,将所述位置向量输入神经网络模型进行归一化处理,获得归一化隐向量,将所述归一化隐向量进行特征提取,获得特征向量,将所述特征向量进行归一化处理,获得归一化向量,将所述归一化向量输入自注意力神经网络模型进行处理,获得第一编码块向量及第二编码块编码块向量,并根据预设的第二循环次数重复执行本步骤,获得第一循环向量及第二循环向量。
具体的,当获取到所述第一编码块向量及所述第二编码块向量后,再将所述第一编码块向量及所述第二编码块向量与编码块向量对应的位置信息相加,获得新的第一位置信息及第二位置信息,然后将新的第一位置信息及第二位置信息输入神经网络模型进行归一化处理,获得新的第一归一化隐向量和第二归一化隐向量,并将新的第一归一化隐向量和第二归一化隐向量再次输入卷积神经网络模型进行特征提取,获得新的第一特征向量及第二特征向量,接着将新的第一特征向量及第二特征向量输入神经网络模型进行归一化处理,获得新的第一归一化向量及第二归一化向量,最后将新的第一归一化向量及第二归一化向量输入自注意力神经网络模型中进行计算,并将计算获得的结果分别与新的第一特征向量及第二特征向量相加,获得新的第一编码块向量及第二编码块向量,并重复本步骤N次,其中,所述重复的次数N可以预先设定,例如N=6,当N=6时可得到较好的结果,在重复进行本步骤时,本次的输出作为下次的输入;当完成N次本步骤之后,获得第一循环向量及第二循环向量。
本实施例中,通过对文本向量进行堆栈嵌入处理,可以提高文本检索的精确度。
图7为本申请第七个实施例的一种基于神经网络混合模型的法律条文检索方法流程示意图,如图所示,所述步骤s104,对所述混合堆栈向量进行归一化处理,获得文本检索结果,包括:
步骤s701,预设法律条文概率阈值;
具体的,所述概率阈值用于将概率较低的法律条文进行排除,可预先在***中进行设置。
步骤s702,将所述混合堆栈向量输入卷积神经网络的全连接层进行线性处理,获得待分类向量,并对所述待分类向量进行归一化处理,获得每一条法律条文对应的概率;
具体的,当获取到所述混合堆栈向量之后,可对所述混合堆栈向量进行线性处理,所述线性处理包括将所述混合堆栈向量输入卷积神经网络的全连接层进行线性处理,获得待分类向量,所述全连接层可看成是矩阵乘法,例如:输入向量是一个128*128的向量,[1,2,...,128*128],而全连接层的矩阵为一个(128*128)*4的矩阵,那么得到的结果即为长度为(1,4)的向量,对所述混合堆栈向量的线性处理的目的是为了降维,例如,上述例子中通过线性处理后向量从128维降到了4维,所述降维后的4维向量即为待分类向量。其中,经过全连接层后的向量维度即是检索的法律条文的总数目,例如,如果检索的法律条文的总数为2000,则输出的向量即为(1,2000)的向量。因此所述全连接层的构建需根据法律条文的数目进行预先设定。
具体的,当获取到待分类向量之后,可对所述待分类向量进行归一化处理,所述归一化处理可以通过softmax函数进行,当对所述待分类向量进行归一化处理之后,就会根据所述待分类向量的维度输出每个维度对应的概率,其中,每个维度对应一个法律条文。
步骤s703,将所述每一条法律条文对应的概率与所述预设的法律条文概率阈值进行比较,将所有大于所述法律条文概率阈值的法律条文进行输出。
具体的,当获取到每个法律条文的概率后,可将每一条法律条文对应的概率分别与预设的概率阈值进行比较,如果概率大于所述概率阈值,则将所述概率对应的法律条文进行输出,否则不输出。
本实施例中,通过设置概率阈值,并将大于所述概率阈值的法律条文进行输出,可以快速获得文本检索结果。
本申请实施例的一种基于神经网络混合模型的法律条文检索装置结构如图8所示,包括:
获取模块801、第一堆栈模块802、第二堆栈模块803及输出模块804;其中,获取模块801与第一堆栈模块802相连,第一堆栈模块802与第二堆栈模块803相连,第二堆栈模块803与输出模块804相连;获取模块801设置为获取输入文本,对所述输入文本进行向量化,获得第一文本向量及第二文本向量;第一堆栈模块802设置为对所述第一文本向量及所述第二文本向量进行堆栈嵌入,获得第一循环向量及第二循环向量;第二堆栈模块803设置为将所述第一循环向量与所述第二循环向量进行拼接,获得混合向量,并对所述混合向量进行堆栈嵌入,获得混合堆栈向量;输出模块804设置为对所述混合堆栈向量进行归一化处理,获得文本检索结果。
本申请实施例还公开了一种计算机设备,所述计算机设备包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被一个或多个所述处理器执行时,使得一个或多个所述处理器执行上述各实施例中所述检索方法中的步骤。
本申请实施例还公开了一种存储介质,所述存储介质可被处理器读写,所述存储器存储有计算机可读指令,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行上述各实施例中所述检索方法中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (7)

1.一种基于神经网络混合模型的法律条文检索方法,其特征在于,包括以下步骤:
获取输入文本,对所述输入文本进行向量化,获得第一文本向量及第二文本向量;
对所述第一文本向量及所述第二文本向量进行堆栈嵌入,获得第一循环向量及第二循环向量;
将所述第一循环向量与所述第二循环向量进行拼接,获得混合向量,并对所述混合向量进行堆栈嵌入,获得混合堆栈向量;
对所述混合堆栈向量进行归一化处理,获得文本检索结果
所述获取输入文本,对所述输入文本进行向量化,获得第一文本向量及第二文本向量,包括:
获取输入文本,将所述输入文本设置为第一文本;
对所述第一文本进行实体链接,获得所述第一文本中的要素,将所述要素拼接成上下文,将所述上下文设置为第二文本;
分别对所述第一文本和所述第二文本进行向量化,获得第一文本向量及第二文本向量;
所述对所述第一文本向量及所述第二文本向量进行堆栈嵌入,获得第一循环向量及第二循环向量,包括:
将所述第一文本向量与所述第一文本向量的位置信息相加,获得第一位置向量,将所述第二文本向量与所述第二文本向量的位置信息相加,获得第二位置向量;
分别将所述第一位置向量与所述第二位置向量输入神经网络模型进行归一化处理,获得第一归一化隐向量及第二归一化隐向量;
对所述第一归一化隐向量及所述第二归一化隐向量进行特征提取,获得第一特征向量及第二特征向量;
将所述第一特征向量及所述第二特征向量输入神经网络模型进行归一化处理,获得第一归一化向量及第二归一化向量,将所述第一归一化向量及所述第二归一化向量输入自注意力神经网络模型进行处理,获得第一编码块向量及第二编码块向量,对所述第一编码块向量及所述第二编码块向量进行循环处理,获得第一循环向量及第二循环向量;
所述对所述混合堆栈向量进行归一化处理,获得文本检索结果,包括:
预设法律条文概率阈值;
将所述混合堆栈向量输入卷积神经网络的全连接层进行线性处理,获得待分类向量,并对所述待分类向量进行归一化处理,获得每一条法律条文对应的概率;
将所述每一条法律条文对应的概率与所述预设法律条文概率阈值进行比较,将所有大于所述法律条文概率阈值的法律条文进行输出。
2.如权利要求1所述的基于神经网络混合模型的法律条文检索方法,其特征在于,所述分别对所述第一文本和所述第二文本进行向量化,获得第一文本向量及第二文本向量,包括:
对所述第一文本和所述第二文本进行字分割,获得第一文本和第二文本中的每个字;
预设向量的维度,根据所述向量的维度分别对所述第一文本的每个字和所述第二文本的每个字进行向量化,获得第一文本向量和第二文本向量。
3.如权利要求1所述的基于神经网络混合模型的法律条文检索方法,其特征在于,所述对所述第一归一化隐向量及所述第二归一化隐向量进行特征提取,获得第一特征向量及第二特征向量,包括:
将所述第一归一化隐向量及所述第二归一化隐向量输入神经网络模型进行特征提取,将所述特征提取后的向量分别与所述第一位置向量及所述第二位置向量相加,获得第一特征隐向量及第二特征隐向量;
预设第一循环次数,将所述第一特征隐向量及所述第二特征隐向量输入神经网络模型进行归一化,将归一化后获得的向量输入神经网络模型进行特征提取,将特征提取后的向量分别与所述第一位置向量及所述第二位置向量相加,并根据预设的第一循环次数重复执行本步骤,获得第一特征向量及第二特征向量。
4.如权利要求3所述的基于神经网络混合模型的法律条文检索方法,其特征在于,所述将所述第一归一化向量及所述第二归一化向量输入自注意力神经网络模型进行处理,获得第一编码块向量及第二编码块向量,对所述第一编码块向量及所述第二编码块向量进行循环处理,获得第一循环向量及第二循环向量,包括:
将所述第一归一化向量及所述第二归一化向量输入自注意力神经网络模型进行处理,将模型处理后获得的向量分别与所述第一特征向量及所述第二特征向量进行相加,获得第一编码块向量及第二编码块向量;
预设第二循环次数,将所述第一编码块向量及所述第二编码块向量分别与位置信息相加获得位置向量,将所述位置向量输入神经网络模型进行归一化处理,获得归一化隐向量,将所述归一化隐向量进行特征提取,获得特征向量,将所述特征向量进行归一化处理,获得归一化向量,将所述归一化向量输入自注意力神经网络模型进行处理,获得第一编码块向量及第二编码块向量,并根据预设的第二循环次数重复执行本步骤,获得第一循环向量及第二循环向量。
5.一种基于神经网络混合模型的法律条文检索装置,其特征在于,所述装置包括:
获取模块:设置为获取输入文本,对所述输入文本进行向量化,获得第一文本向量及第二文本向量;
第一堆栈模块:设置为对所述第一文本向量及所述第二文本向量进行堆栈嵌入,获得第一循环向量及第二循环向量;
第二堆栈模块:设置为将所述第一循环向量与所述第二循环向量进行拼接,获得混合向量,并对所述混合向量进行堆栈嵌入,获得混合堆栈向量;
输出模块:设置为对所述混合堆栈向量进行归一化处理,获得文本检索结果;
所述获取模块,具体设置为获取输入文本,将所述输入文本设置为第一文本;对所述第一文本进行实体链接,获得所述第一文本中的要素,将所述要素拼接成上下文,将所述上下文设置为第二文本;分别对所述第一文本和所述第二文本进行向量化,获得第一文本向量及第二文本向量;
所述第一堆栈模块,具体设置为将所述第一文本向量与所述第一文本向量的位置信息相加,获得第一位置向量,将所述第二文本向量与所述第二文本向量的位置信息相加,获得第二位置向量;分别将所述第一位置向量与所述第二位置向量输入神经网络模型进行归一化处理,获得第一归一化隐向量及第二归一化隐向量;对所述第一归一化隐向量及所述第二归一化隐向量进行特征提取,获得第一特征向量及第二特征向量;将所述第一特征向量及所述第二特征向量输入神经网络模型进行归一化处理,获得第一归一化向量及第二归一化向量,将所述第一归一化向量及所述第二归一化向量输入自注意力神经网络模型进行处理,获得第一编码块向量及第二编码块向量,对所述第一编码块向量及所述第二编码块向量进行循环处理,获得第一循环向量及第二循环向量;
所述输出模块,具体设置为预设法律条文概率阈值;将所述混合堆栈向量输入卷积神经网络的全连接层进行线性处理,获得待分类向量,并对所述待分类向量进行归一化处理,获得每一条法律条文对应的概率;将所述每一条法律条文对应的概率与所述预设法律条文概率阈值进行比较,将所有大于所述法律条文概率阈值的法律条文进行输出。
6.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被一个或多个所述处理器执行时,使得一个或多个所述处理器执行如权利要求1至4中任一项所述检索方法的步骤。
7.一种存储介质,其特征在于,所述存储介质可被处理器读写,所述存储介质存储有计算机指令,所述计算机指令被一个或多个处理器执行时,使得一个或多个处理器执行如权利要求1至4中任一项所述检索方法的步骤。
CN201910991657.1A 2019-10-18 2019-10-18 基于神经网络混合模型的法律条文检索方法及相关设备 Active CN110928987B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910991657.1A CN110928987B (zh) 2019-10-18 2019-10-18 基于神经网络混合模型的法律条文检索方法及相关设备
PCT/CN2019/119314 WO2021072892A1 (zh) 2019-10-18 2019-11-19 基于神经网络混合模型的法律条文检索方法及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910991657.1A CN110928987B (zh) 2019-10-18 2019-10-18 基于神经网络混合模型的法律条文检索方法及相关设备

Publications (2)

Publication Number Publication Date
CN110928987A CN110928987A (zh) 2020-03-27
CN110928987B true CN110928987B (zh) 2023-07-25

Family

ID=69849151

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910991657.1A Active CN110928987B (zh) 2019-10-18 2019-10-18 基于神经网络混合模型的法律条文检索方法及相关设备

Country Status (2)

Country Link
CN (1) CN110928987B (zh)
WO (1) WO2021072892A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113282709B (zh) * 2021-06-01 2022-11-04 平安国际智慧城市科技股份有限公司 文本匹配方法、装置、设备及计算机可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018113498A1 (zh) * 2016-12-23 2018-06-28 北京国双科技有限公司 法律知识的检索方法及装置
CN110110045A (zh) * 2019-04-26 2019-08-09 腾讯科技(深圳)有限公司 一种检索相似文本的方法、装置以及存储介质
CN110275936A (zh) * 2019-05-09 2019-09-24 浙江工业大学 一种基于自编码神经网络的相似法律案例检索方法
CN110276068A (zh) * 2019-05-08 2019-09-24 清华大学 法律案情分析方法及装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160232441A1 (en) * 2015-02-05 2016-08-11 International Business Machines Corporation Scoring type coercion for question answering
CN107679224B (zh) * 2017-10-20 2020-09-08 竹间智能科技(上海)有限公司 一种面向无结构文本智能问答的方法和***
CN109271524B (zh) * 2018-08-02 2021-10-15 中国科学院计算技术研究所 知识库问答***中的实体链接方法
CN109446416B (zh) * 2018-09-26 2021-09-28 南京大学 基于词向量模型的法条推荐方法
CN109829055B (zh) * 2019-02-22 2021-03-12 苏州大学 基于过滤门机制的用户法条预测方法
CN110188192B (zh) * 2019-04-16 2023-01-31 西安电子科技大学 一种多任务网络构建与多尺度的罪名法条联合预测方法
CN110334189B (zh) * 2019-07-11 2023-04-18 河南大学 基于长短时和自注意力神经网络的微博话题标签确定方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018113498A1 (zh) * 2016-12-23 2018-06-28 北京国双科技有限公司 法律知识的检索方法及装置
CN110110045A (zh) * 2019-04-26 2019-08-09 腾讯科技(深圳)有限公司 一种检索相似文本的方法、装置以及存储介质
CN110276068A (zh) * 2019-05-08 2019-09-24 清华大学 法律案情分析方法及装置
CN110275936A (zh) * 2019-05-09 2019-09-24 浙江工业大学 一种基于自编码神经网络的相似法律案例检索方法

Also Published As

Publication number Publication date
WO2021072892A1 (zh) 2021-04-22
CN110928987A (zh) 2020-03-27

Similar Documents

Publication Publication Date Title
US11238093B2 (en) Video retrieval based on encoding temporal relationships among video frames
CN110825857B (zh) 多轮问答识别方法、装置、计算机设备及存储介质
CN109344399B (zh) 一种基于堆叠双向lstm神经网络的文本相似度计算方法
CN106033426A (zh) 一种基于潜在语义最小哈希的图像检索方法
CN112819023A (zh) 样本集的获取方法、装置、计算机设备和存储介质
WO2020114100A1 (zh) 一种信息处理方法、装置和计算机存储介质
CN111985228A (zh) 文本关键词提取方法、装置、计算机设备和存储介质
CN113449084A (zh) 基于图卷积的关系抽取方法
CN111563161B (zh) 一种语句识别方法、语句识别装置及智能设备
CN110197213B (zh) 基于神经网络的图像匹配方法、装置和设备
CN115098556A (zh) 用户需求匹配方法、装置、电子设备及存储介质
CN115392357A (zh) 分类模型训练、标注数据样本抽检方法、介质及电子设备
CN117217277A (zh) 语言模型的预训练方法、装置、设备、存储介质及产品
CN113553847A (zh) 用于对地址文本进行解析的方法、装置、***和存储介质
CN111611796A (zh) 下位词的上位词确定方法、装置、电子设备及存储介质
CN117332788B (zh) 一种基于英语口语文本的语义分析方法
CN110928987B (zh) 基于神经网络混合模型的法律条文检索方法及相关设备
CN112307175B (zh) 一种文本处理方法、装置、服务器及计算机可读存储介质
CN116257601A (zh) 一种基于深度学习的违法词库构建方法及***
CN112632287B (zh) 电力知识图谱构建方法和装置
CN115017267A (zh) 无监督的语义检索方法、装置及计算机可读存储介质
CN109446321A (zh) 一种文本分类方法、装置、终端及计算机可读存储介质
CN113254587B (zh) 搜索文本的识别方法、装置、计算机设备及存储介质
CN110427615B (zh) 一种基于注意力机制的金融事件修饰时态的分析方法
CN113268566B (zh) 问答对的质量评价方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant