CN114676227A - 样本生成方法、模型的训练方法以及检索方法 - Google Patents
样本生成方法、模型的训练方法以及检索方法 Download PDFInfo
- Publication number
- CN114676227A CN114676227A CN202210357147.0A CN202210357147A CN114676227A CN 114676227 A CN114676227 A CN 114676227A CN 202210357147 A CN202210357147 A CN 202210357147A CN 114676227 A CN114676227 A CN 114676227A
- Authority
- CN
- China
- Prior art keywords
- statement
- sample
- training
- language processing
- pair
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3347—Query execution using vector based model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Machine Translation (AREA)
Abstract
本公开提供了一种样本生成方法、语言处理模型的训练方法、检索方法、装置、电子设备、存储介质以及程序产品,涉及人工智能技术领域,尤其涉及深度学习技术领域。具体实现方案为:从语料集合中确定与待匹配语句相匹配的第一目标语句,将待匹配语句和第一目标语句,作为负样本语句对;从日志中获取搜索语句和与搜索语句相匹配的第二目标语句,将搜索语句和第二目标语句,作为正样本语句对;以及基于负样本语句对和正样本语句对,生成目标样本,负样本语句对之间的语义相关性大于第一预定阈值、且小于第二预定阈值,正样本语句对的语义相关性大于第二预定阈值。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及深度学习技术领域,具体涉及样本生成方法、语言处理模型的训练方法、检索方法、装置、电子设备、存储介质以及程序产品。
背景技术
随着人工智能技术的不断发展,自然语言处理实现让机器能够听懂人类输出的自然语言,理解自然语言中的内在含义,并作出相应的反馈。在这些操作中,语义的准确理解、反馈的迅速程度、以及给予相应的意见或者建议,均成为影响人机交互顺畅的因素。
发明内容
本公开提供了一种样本生成方法、语言处理模型的训练方法、检索方法、装置、电子设备、存储介质以及程序产品。
根据本公开的一方面,提供了一种样本生成方法,包括:从语料集合中确定与待匹配语句相匹配的第一目标语句,将所述待匹配语句和所述第一目标语句,作为负样本语句对;从日志中获取搜索语句和与所述搜索语句相匹配的第二目标语句,将所述搜索语句和所述第二目标语句,作为正样本语句对;以及基于所述负样本语句对和所述正样本语句对,生成目标样本,其中,所述负样本语句对之间的语义相关性大于第一预定阈值、且小于第二预定阈值,所述正样本语句对的语义相关性大于所述第二预定阈值。
根据本公开的另一方面,提供了一种语言处理模型的训练方法,包括:利用训练样本训练语言处理模型,得到经训练的语言处理模型,其中,所述训练样本是利用本公开所述的样本生成方法生成的。
根据本公开的另一方面,提供了一种检索方法,包括:获取检索项;以及将所述检索项和多个候选语句输入至语言处理模型中,得到目标语句,其中,所述语言处理模型是利用本公开所述的语言处理模型的训练方法训练得到的。
根据本公开的另一方面,提供了一种样本生成装置,包括:第一确定模块,用于从语料集合中确定与待匹配语句相匹配的第一目标语句,将所述待匹配语句和所述第一目标语句,作为负样本语句对;第二确定模块,用于从日志中获取搜索语句和与所述搜索语句相匹配的第二目标语句,将所述搜索语句和所述第二目标语句,作为正样本语句对;以及生成模块,用于基于所述负样本语句对和所述正样本语句对,生成目标样本,其中,所述负样本语句对之间的语义相关性大于第一预定阈值、且小于第二预定阈值,所述正样本语句对的语义相关性大于所述第二预定阈值。
根据本公开的另一方面,提供了一种语言处理模型的训练装置,包括:训练模块,用于利用训练样本训练语言处理模型,得到经训练的语言处理模型,其中,所述训练样本是利用本公开所述的样本生成装置生成的。
根据本公开的另一方面,提供了一种检索装置,包括:获取模块,用于获取检索项;以及检索模块,用于将所述检索项和多个候选语句输入至语言处理模型中,得到目标语句,其中,所述语言处理模型是利用本公开所述的语言处理模型的训练装置训练得到的。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如本公开的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行如本公开的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如本公开的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1示意性示出了根据本公开实施例的可以应用检索方法及装置的示例性***架构;
图2示意性示出了根据本公开实施例的样本生成方法的流程图;
图3示意性示出了根据本公开实施例的确定负样本语句对的示意图;
图4示意性示出了根据本公开实施例的确定正样本语句对的示意图;
图5示意性示出了根据本公开实施例的语言处理模型的训练方法的流程图;
图6示意性示出了根据本公开另一实施例的语言处理模型的训练方法的流程图;
图7示意性示出了根据本公开实施例的检索方法的流程图;
图8示意性示出了根据本公开实施例的样本生成装置的框图;
图9示意性示出了根据本公开实施例的语言处理模型的训练装置的框图;
图10示意性示出了根据本公开实施例的检索装置的框图;以及
图11示意性示出了根据本公开实施例的适于实现样本生成方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本公开提供了一种样本生成方法、语言处理模型的训练方法、检索方法、装置、电子设备、存储介质以及程序产品。
根据本公开的一方面,提供了一种样本生成方法,包括:从语料集合中确定与待匹配语句相匹配的第一目标语句,将待匹配语句和第一目标语句,作为负样本语句对;从日志中获取搜索语句和与搜索语句相匹配的第二目标语句,将搜索语句和第二目标语句,作为正样本语句对;以及基于负样本语句对和正样本语句对,生成目标样本,其中,负样本语句对之间的语义相关性大于第一预定阈值、且小于第二预定阈值,正样本语句对的语义相关性大于第二预定阈值。
根据本公开的另一方面,提供了一种语言处理模型的训练方法,包括:利用训练样本训练语言处理模型,得到经训练的语言处理模型,其中,训练样本是利用本公开的样本生成方法生成的。
根据本公开的另一方面,提供了一种检索方法,包括:获取检索项;以及将检索项和多个候选语句输入至语言处理模型中,得到目标语句,其中,语言处理模型是利用本公开的语言处理模型的训练方法训练得到的。
在本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供、公开和应用等处理,均符合相关法律法规的规定,采取了必要保密措施,且不违背公序良俗。
在本公开的技术方案中,在获取或采集用户个人信息之前,均获取了用户的授权或同意。
图1示意性示出了根据本公开实施例的可以应用检索方法及装置的示例性***架构。
需要注意的是,图1所示仅为可以应用本公开实施例的***架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、***、环境或场景。例如,在另一实施例中,可以应用检索方法及装置的示例性***架构可以包括终端设备,但终端设备可以无需与服务器进行交互,即可实现本公开实施例提供的检索方法及装置。
如图1所示,根据该实施例的***架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线和/或无线通信链路等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如知识阅读类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端和/或社交平台软件等(仅为示例)。
终端设备101、102、103可以是具有显示屏并且支持以文本或者语音的形式接收检索项的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机、台式计算机、智能音箱、智能可穿戴设备、或者机器人等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所输入的检索项提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的检索项等数据进行分析等处理,并将处理结果例如目标语句反馈给终端设备。
需要说明的是,本公开实施例所提供的检索方法一般可以由终端设备101、102、或103执行。相应地,本公开实施例所提供的检索装置也可以设置于终端设备101、102、或103中。
或者,本公开实施例所提供的检索方法一般也可以由服务器105执行。相应地,本公开实施例所提供的检索装置一般可以设置于服务器105中。本公开实施例所提供的检索方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的检索装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。
例如,在用户以文本的形式在输入框中输入检索项时,终端设备101、102、103可以获取用户输入的检索项,然后将获取的检索项发送给服务器105,由服务器105将检索项和多个候选语句输入至经训练的语言处理模型中,得到目标语句,将目标语句作为反馈结果发送给终端设备101、102、103。或者由能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群对检索项进行分析,并最终得到目标语句。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
应注意,以下方法中各个操作的序号仅作为该操作的表示以便描述,而不应被看作表示该各个操作的执行顺序。除非明确指出,否则该方法不需要完全按照所示顺序来执行。
图2示意性示出了根据本公开实施例的样本生成方法的流程图。
如图2所示,该方法包括操作S210~S230。
在操作S210,从语料集合中确定与待匹配语句相匹配的第一目标语句,将待匹配语句和第一目标语句,作为负样本语句对。
在操作S220,从日志中获取搜索语句和与搜索语句相匹配的第二目标语句,将搜索语句和第二目标语句,作为正样本语句对。
在操作S230,基于负样本语句对和正样本语句对,生成目标样本。
根据本公开的实施例,负样本语句对之间的语义相关性大于第一预定阈值、且小于第二预定阈值,正样本语句对的语义相关性大于第二预定阈值。
根据本公开的实施例,语义相关性可以指:语句对之间所表达的语义的相似程度。例如,语句A所表达的是“歌手A的歌曲B很好听”,语句B所表达的是“歌手A的歌曲B旋律很优美”,则可以认为语句A与语句B之间的语义相关性很高。但是并不局限于此。语义相关性还可以指:语句对之间具有上下文的关联性。例如,语句C为疑问句“歌手A的生日是多少?”,语句D为回答句“歌手A的生日是**年**月**日”,则可以认为语句C与语句D之间的语义相关性很高。
根据本公开的实施例,确定语义相关性的方式不做限定,例如,可以根据两个语句对之间的相同词的数量即相同词频来确定语义相关性,也可以根据向量相似度来确定语义相关性。向量相似度可以通过如下方式来确定,例如,提取两个语句对各自的语义特征向量,基于两个语句对各自的语义特征向量来确定两个语句对之间的向量相似度。
根据本公开的实施例,语料集合的来源不做限定,例如,可以是从开源的语料库中获取的,但是并不局限于此,还可以是通过随机采样的方式获取得到的语料集合。只要是利用现有技术提供的获取的语料的方式即可,在此不做限定。
根据本公开的实施例,待匹配语句可以是语料集合中的任意一个语句,但是并不局限于此,还可以是日志中的搜索语句或者第二目标语句,对待匹配语句不做限定。
根据本公开的实施例,基于待匹配语句,从语料集合中确定第一目标语句的方式不做限定。例如,可以计算待匹配语句与语料集合中多个语句各自之间的相同词的数量,即计算语料集合中多个语句各自与待匹配语句之间的相同词频,将相同词频大于词频阈值的语句作为第一目标语句。可以将词频阈值作为第一预定阈值。但是并不局限于此。也可以计算待匹配语句与语料集合中多个语句各自之间的语义相关性,即提取语料集合中多个语句各自的语句向量,以及提取待匹配语句的待匹配语句的待匹配语句向量,计算多个语句向量各自与待匹配语句向量之间的向量相似度,将向量相似度大于第一预定阈值的语句作为第一目标语句。
根据本公开的实施例,日志的形式不做限定,例如,可以是展现日志,但是并不局限于此,还可以是点击日志,只要是通过搜索平台记录的关于用户输入的搜索语句的日志即可。日志中可以记录了用户输入的搜索语句以及搜索平台利用搜索引擎展现给用户的与该搜索语句相关的候选语句,或者日志中记录了用户输入的搜索语句以及用户从多个候选语句中通过点击的方式深入了解的点击语句。
根据本公开的实施例,候选语句或者点击语句的类型不做限定,例如,可以是标题,也可以是标题下的文本中的任意一个语句。可以将候选语句作为第二目标语句,但是并不局限于此,还可以将点击语句作为第二目标语句,只要是能够确定搜索语句与第二目标语句之间的语义相关性大于第二预定阈值即可。搜索语句与第二目标语句之间的语义相关性的确定方式可以与待匹配语句与第一目标语句之间的语句相关性的确定方式相同,在此不再赘述。
根据本公开的实施例,利用包括有负样本语句对和正样本语句对的目标样本来作为训练样本训练深度学习模型,可以使得深度学习模型学习到语义相关性大于第二预定阈值的正样本语句对的特征,也能学习到语义相关性小于第二预定阈值的负样本语句对的特征,使得深度学习模型学习的特征的种类更多,避免深度学习模型的过拟合问题,提高深度学习模型的预测精度。与此同时,负样本语句对之间的语义相关性还限定大于第一预定阈值。可以利用第一预定阈值来保证负样本语句对之间并非毫无语义关系的两个语句,而是具有一定的语义相关性的语句对。相比于利用毫无语义关系的语句对作为负样本语句对来训练深度学习模型,利用语义相关性大于第一预定阈值的负样本语句对来训练深度学习模型,可以提高正样本语句对与负样本语句对之间的区分难度,更好的提升深度学习模型的语义理解能力,加快深度学习模型的训练速度。
图3示意性示出了根据本公开实施例的确定负样本语句对的示意图。
如图3所示,可以将待匹配语句310输入至双塔模型320中,得到待匹配语句310的待匹配语句向量330。可以将语料集合340中的多个语句输入至双塔模型320中,得到与多个语句一一对应的多个语句向量,生成语句向量集合350。可以遍历语句向量集合350中的语句向量,计算多个语句向量各自与待匹配语句向量330之间的向量相似度,得到与多个语句向量一一对应的多个向量相似度。将向量相似度作为语义相关性,将向量相似度大于第一预定阈值且小于第二预定阈值的语句向量作为第一目标语句向量360,将与第一目标语句向量360对应的语句作为第一目标语句370。
根据本公开的实施例,可以利用双塔模型作为编码器,来处理待匹配语句,得到与待匹配语句相对应的待匹配语句向量,但是并不局限于此,还可以利用其它类型的特征提取模型或者编码器,只要能够对对待处理语句进行向量化表征的例如卷积神经网络模型或者循环神经网络模型等模型即可。
根据本公开的实施例,双塔模型(dual_model,例如Bi-encoder)可以包括两个并联的BERT(Bidirectional Encoder Representation from Transformers,双向语言表征编码器)模块,但是并不局限于此,还可以包括两个并联的编码模块,每个编码模块可以包括级联的BERT层和池化层。
根据本公开的实施例,向量相似度的计算方式不做限定,例如可以利用余弦相似度、欧式距离或者曼哈顿距离等计算方式。只要是能够得到向量相似度的计算方式即可。
根据本公开的实施例,可以利用最近邻搜索算法对所有的语句向量建立映射关系,例如生成索引表。利用该索引表从多个语句中确定与第一目标语句向量对应的语句。
根据本公开的实施例,可以将大于第一预定阈值且小于第二预定阈值的负样本语句对作为强负样本语句对。相比于利用随机采样的方式得到的负样本语句对,强负样本语句对的生成难度增加。在此基础上,利用双塔模型通过对待匹配语句和语料集合中的多个语句的向量化表征,并利用向量相似度来作为语义相关性,使得语义相关性的确定简单化,降低了强负样本语句对的获取难度,提高了强负样本语句对的获取效率。
根据本公开的实施例,双塔模型可以是利用多个样本集合分阶段训练初始双塔模型得到的。多个样本集合中的每个样本集合可以包括训练样本对,多个样本集合各自的训练样本对的语义相关性彼此不同。
根据本公开的实施例,利用多个样本集合分阶段训练初始双塔模型,得到双塔模型可以包括如下操作。
例如,利用第一样本集合训练初始双塔模型,得到第二双塔模型。利用第二样本集合训练第二双塔模型,得到第三双塔模型。利用第三样本集合训练第三双塔模型,得到第四双塔模型。
根据本公开的实施例,第一样本集合可以包括第一正训练样本对和第一负训练样本对,第二样本集合可以包括第二正训练样本对和第二负训练样本对,第三样本集合可以包括第三正训练样本对和第三负训练样本对。
根据本公开的实施例,多个样本集合各自的训练样本对的语义相关性彼此不同,可以理解为:随着训练轮次的增加,样本集合中的训练样本对的语义相关性逐级升高。例如,第一负训练样本对之间的语义相关性低于第二负训练样本对之间的语义相关性,第二负训练样本对之间的语义相关性低于第三负训练样本对之间的语义相关性。还例如,第一正训练样本对之间的语义相关性低于第二正训练样本对之间的语义相关性,第二正训练样本对之间的语义相关性低于第三正训练样本对之间的语义相关性。
根据本公开的实施例,多个样本集合各自的训练样本对的语义相关性彼此不同的同时,多个样本集合各自的训练样本对的关注度也可以彼此不同。例如,第一正训练样本对的关注度低于第二正训练样本对的关注度,第二正训练样本对的关注度低于第三正训练样本对的关注度。
根据本公开的实施例,第一正训练样本对可以包括同一篇文章中的任意两个语句。第一负训练样本对可以包括从语料集合中获取的待匹配语句以及通过随机采样的方式获取的其他语句。第二正训练样本对可以包括展现日志中的搜索语句和展现日志中的与搜索语句匹配的展现目标语句。第二负训练样本对可以包括从语料集合中获取的第一待匹配语句以及与第一待匹配语句相匹配的语句。第三正训练样本对可以包括点击日志中的搜索语句和点击日志中的与搜索语句匹配的点击语句。第三负训练样本对可以包括从语料集合中获取的第二待匹配语句以及与第二待匹配语句相匹配的语句。
根据本公开的实施例,利用训练样本对的语义相关性彼此不同的多个样本集合来分阶段训练初始双塔模型,使得得到的双塔模型的精度得到提高的同时,降低训练样本对的数据量。
图4示意性示出了根据本公开实施例的确定正样本语句对的示意图。
如图4所示,从日志中获取与搜索语句(Query)410相匹配的多个初始目标语句420。根据点击率430,确定多个初始目标语句各自的关注度,得到多个关注度。基于多个关注度,从多个初始目标语句中确定第二目标语句。
如图4所示,日志可以是集合多个初始目标语句与相应的点击率的综合日志。可以同时从日志中获取多个初始目标语句以及多个初始目标语句各自的点击率。
根据本公开的其他实施例,日志可以包括展现日志和点击日志。可以从展现日志中获取与搜索语句相匹配的多个展现目标语句,作为多个初始目标语句。例如,将展现日志中展现语句与搜索语句之间的语义相关性大于第二阈值的作为展现目标语句。该语义相关性可以是将展现语句与搜索语句输入至双塔模型中,得到与展现语句相对应的展现语句向量以及与搜索语句相对应的搜索语句向量。计算展现语句向量与搜索语句向量之间的向量相似度,来确定展现语句与搜索语句之间的语义相关性。从点击日志中,确定多个初始目标语句各自的点击率。
根据本公开的实施例,可以直接将点击率作为关注度,但是并不局限于此,还可以根据预定的转换规则,基于点击率,经过预定的转换规则转换得到相对应的关注度。预定的转换规则可以为:对点击率进行加权得到关注度。或者将点击率的表达形式进行转换,例如将百分制点击率转换为十分制,得到关注度。
根据本公开的实施例,基于多个关注度来从多个初始目标语句中确定第二目标语句的确定方式不做限定。例如,可以对多个关注度按照由高到低的顺序进行排序,将关注度排在首位的初始目标语句作为第二目标语句。但是并不局限于此。还例如,可以预定关注度阈值,将关注度高于关注度阈值的初始目标语句作为第二目标语句。
根据本公开的实施例,第二目标语句是从大于第二阈值的初始目标语句中确定的,在第二阈值的基础上,利用关注度来进行进一步筛选。可以使得正样本语句对不光可以体现语义相关性,还能体现用户的关注度。进而使得利用该正样本语句对来训练深度学习模型,可以使得深度学习模型学习到用户的关注的内容以及特征,使得经训练的深度学习模型的预测能够更贴合用户,提升用户体验。
图5示意性示出了根据本公开实施例的语言处理模型的训练方法的流程图。
如图5所示,该方法包括操作S510。
在操作S510,利用训练样本训练语言处理模型,得到经训练的语言处理模型。训练样本是利用样本生成方法生成的。
根据本公开的实施例,语言处理模型可以包括交叉双塔模型(Cross BERT),但是并不局限于此,语言处理模型还可以包括级联的多头注意力层、卷积层、池化层的模型。只要是能够对语句对进行处理,确定语句对之间的语义相关性的深度学习模型即可。
根据本公开的实施例,负样本语句对之间的语义相关性大于第一预定阈值、且小于第二预定阈值,正样本语句对的语义相关性大于第二预定阈值。
根据本公开的实施例,利用包括有负样本语句对和正样本语句对的目标样本来作为训练样本训练语言处理模型,可以使得语言处理模型学习到语义相关性大于第二预定阈值的正样本语句对的特征,也能学习到语义相关性小于第二预定阈值的负样本语句对的特征,使得语言处理模型学习的特征的种类更多,避免语言处理模型的过拟合问题,提高语言处理模型的预测精度。与此同时,负样本语句对之间的语义相关性还限定大于第一预定阈值。可以利用第一预定阈值来保证负样本语句对之间并非毫无语义关系的两个语句,而是具有一定的语义相关性的语句对。相比于利用毫无语义关系的语句对来训练语言处理模型,利用语义相关性大于第一预定阈值的负样本语句对来训练语言处理模型,可以提高正样本语句对与负样本语句对之间的区分难度,更好的提升语言处理模型的语义理解能力,加快语言处理模型的训练速度。
根据本公开的实施例,训练样本包括第i训练样本和第i+1训练样本。语言处理模型为第i语言处理模型。
根据本公开的实施例,操作S510,利用训练样本训练语言处理模型,得到经训练的语言处理模型包括如下操作。
例如,利用第i训练样本训练第i语言处理模型,得到第i+1语言处理模型。第i训练样本包括第i负样本语句对,i为大于或者等于1的整数。利用第i+1训练样本训练第i+1语言处理模型,得到第i+2语言处理模型,将第i+2语言处理模型作为经训练的语言处理模型。第i+1训练样本包括第i+1负样本语句对。第i+1负样本语句对之间的语义相关性大于第i负样本语句对之间的语义相关性。
根据本公开的实施例,i可以为1,则可以对语音处理模型训练两轮,但是i并不局限于此,还可以为2、3、4等大于1的整数。i越大,则经训练的语言处理模型的精度越大,但是需要的周期长。可以设置停止训练条件,在满足停止训练条件的情况下,则确定模型为经训练的语言处理模型。停止训练条件可以包括:语言处理模型的参数更新次数达到预定更新次数、语言处理模型的预测精度达到预定预测精度。
根据本公开的实施例,利用具有语义相关性层级关系的负样本语句对作为训练样本来训练语言处理模型,可以利用语义相关性低但是数据量大的负样本语句对来训练语言处理模型,得到已经调参后的语言处理模型,利用语义相关性高但是数据量少的负样本语句对来训练已经调参后的语言处理模型,经过多轮训练后,可以使得语言处理模型的泛化性和精度均得到提升,提高了语言处理模型的训练效率。
根据本公开的实施例,第i训练样本还包括第i正样本语句对,第i+1训练样本还包括第i+1正样本语句对。第i+1正样本语句对中的正样本语句的关注度大于第i正样本语句对中的正样本语句的关注度。
根据本公开的实施例,训练样本中的正样本语句对,设置在满足语义相关性大于第二阈值的情况下,还设置具有关注度层级关系。可以利用关注度低但是数据量大的正样本语句对来训练语言处理模型,得到已经调参后的语言处理模型,利用关注度高但是数据量少的正样本语句对来训练已经调参后的语言处理模型,经过多轮训练后,可以使得语言处理模型的预测结果更贴近用户,进而提升经训练的语言处理模型的智能性。
图6示意性示出了根据本公开另一实施例的语言处理模型的训练方法的流程图。
如图6所示,该方法包括操作S610~操作S630。
在操作S610,利用第1训练样本训练第1语言处理模型,得到第2语言处理模型。
根据本公开的实施例,第1训练样本包括第1负样本语句对和第1正样本语句对。第1正样本语句对可以包括同一篇文章中的任意两个语句。第1负样本语句对可以包括从语料集合中获取的待匹配语句以及通过随机采样的方式获取的其他语句。
在操作S620,利用第2训练样本训练第2语言处理模型,得到第3语言处理模型。
根据本公开的实施例,第2训练样本可以包括第2负样本语句对和第2正样本语句对。第2正样本语句对可以包括展现日志中的搜索语句和展现日志中的与搜索语句匹配的展现目标语句。第2负样本语句对可以包括从语料集合中获取的待匹配语句以及第一目标语句。第2负样本语句对之间的语义相关性大于第1负样本语句对之间的语义相关性。第2正样本语句对之间的关注度大于第1正样本语句对之间的关注度。
在操作S630,利用第3训练样本训练第3语言处理模型,得到第4语言处理模型,作为经训练的语言处理模型。
根据本公开的实施例,第3训练样本包括第3负样本语句对和第3正样本语句对。第3正样本语句对可以包括点击日志中的搜索语句和点击日志中的与搜索语句匹配的第二目标语句。第3负样本语句对可以包括从语料集合中获取的待匹配语句以及第一目标语句。第3负样本语句对之间的语义相关性大于第2负样本语句对之间的语义相关性。第3正样本语句对之间的关注度大于第2正样本语句对之间的关注度。
根据本公开的实施例,可以利用具有语义相关性层级关系的训练样本来训练语言处理模型,在提高语义相关性的同时降低训练样本的数据量,提高语言处理模型的训练效率的同时,利用具有关注度层级关系的训练样本来训练语言处理模型,提高语言处理模型的预测结果与用户的贴合度,提高语言处理模型的智能性。
图7示意性示出了根据本公开实施例的检索方法的流程图。
如图7所示,该方法包括操作S710~S720。
在操作S710,获取检索项。
在操作S720,将检索项和多个候选语句输入至语言处理模型中,得到目标语句。语言处理模型是利用语言处理模型的训练方法训练得到的。
根据本公开的实施例,可以将经训练的语言处理模型应用至在线问答、人机对话等场景中。经训练的语言处理模型可以装载于例如机器人或者智能音箱等终端设备上,但是并不局限于此,经训练的语言处理模型和用于反馈的候选语句也可以都装载于服务器上,可以通过终端设备将检索项传送至服务器,经过服务器处理检索项,例如将检索项和多个候选语句输入至语言处理模型中,得到目标语句。服务器可以将目标语句传送至终端设备,以便通过终端设备反馈给用户或者显示给用户。
根据本公开的实施例,检索项的形式不做限定,例如,可以是语音的形式,也可以是文本的形式。用户以语音或者文本的形式输入用于咨询或者询问的检索项,终端设备可以将用于反馈的目标语句以相同的形式反馈给用户,以实现人机交互。
根据本公开的实施例,语言处理模型是利用语言处理模型的训练方法训练得到的,能够更为精准的预测与检索项相关的目标语句,进而提高人机交互的精准性以及智能性。
图8示意性示出了根据本公开实施例的样本生成装置的框图。
如图8所示,样本生成装置800可以包括第一确定模块810、第二确定模块820、以及生成模块830。
第一确定模块810,用于从语料集合中确定与待匹配语句相匹配的第一目标语句,将待匹配语句和第一目标语句,作为负样本语句对。
第二确定模块820,用于从日志中获取搜索语句和与搜索语句相匹配的第二目标语句,将搜索语句和第二目标语句,作为正样本语句对。
生成模块830,用于基于负样本语句对和正样本语句对,生成目标样本。
根据本公开的实施例,负样本语句对之间的语义相关性大于第一预定阈值、且小于第二预定阈值,正样本语句对的语义相关性大于第二预定阈值。
根据本公开的实施例,第一确定模块包括输入单元、以及第一确定单元。
输入单元,用于将待匹配语句输入至双塔模型中,得到待匹配语句的待匹配语句向量。
第一确定单元,用于基于待匹配语句向量和语句向量集合,从语料集合中确定与待匹配语句相匹配的第一目标语句,其中,语句向量集合是通过将语料集合中的多个语句输入至双塔模型中得到的,语句向量集合中的多个语句向量与语料集合中的多个语句一一对应。
根据本公开的实施例,第二确定模块包括获取单元、第二确定单元、以及第三确定单元。
获取单元,用于从日志中获取与搜索语句相匹配的多个初始目标语句。
第二确定单元,用于根据点击率,确定多个初始目标语句各自的关注度,得到多个关注度。
第三确定单元,用于基于多个关注度,从多个初始目标语句中确定第二目标语句。
根据本公开的实施例,双塔模型是利用多个样本集合分阶段训练初始双塔模型得到的,其中,多个样本集合中的每个样本集合包括训练样本对,多个样本集合各自的训练样本对的语义相关性彼此不同。
图9示意性示出了根据本公开实施例的语言处理模型的训练装置的框图。
如图9所示,语言处理模型的训练装置900可以包括训练模块910。
训练模块910,用于利用训练样本训练语言处理模型,得到经训练的语言处理模型。
根据本公开的实施例,训练样本是利用样本生成装置生成的。
根据本公开的实施例,训练样本包括第i训练样本和第i+1训练样本。
根据本公开的实施例,语言处理模型为第i语言处理模型。
根据本公开的实施例,训练模块包括第一训练单元、以及第二训练单元。
第一训练单元,用于利用第i训练样本训练第i语言处理模型,得到第i+1语言处理模型,其中,第i训练样本包括第i负样本语句对,i为大于或者等于1的整数。
第二训练单元,用于利用第i+1训练样本训练第i+1语言处理模型,得到第i+2语言处理模型,将第i+2语言处理模型作为经训练的语言处理模型,其中,第i+1训练样本包括第i+1负样本语句对。
根据本公开的实施例,第i+1负样本语句对之间的语义相关性大于第i负样本语句对之间的语义相关性。
根据本公开的实施例,第i训练样本还包括第i正样本语句对,第i+1训练样本还包括第i+1正样本语句对。
根据本公开的实施例,第i+1正样本语句对中的正样本语句的关注度大于第i正样本语句对中的正样本语句的关注度。
图10示意性示出了根据本公开实施例的检索装置的框图。
如图10所示,检索装置1000可以包括获取模块1010、以及检索模块1020。
获取模块1010,用于获取检索项。
检索模块1020,用于将检索项和多个候选语句输入至语言处理模型中,得到目标语句。
根据本公开的实施例,语言处理模型是利用语言处理模型的训练装置训练得到的。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
根据本公开的实施例,一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如本公开实施例的方法。
根据本公开的实施例,一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行如本公开实施例的方法。
根据本公开的实施例,一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现如本公开实施例的方法。
图11示出了可以用来实施本公开的实施例的示例电子设备1100的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图11所示,设备1100包括计算单元1101,其可以根据存储在只读存储器(ROM)1102中的计算机程序或者从存储单元1108加载到随机访问存储器(RAM)1103中的计算机程序,来执行各种适当的动作和处理。在RAM 1103中,还可存储设备1100操作所需的各种程序和数据。计算单元1101、ROM 1102以及RAM 1103通过总线1104彼此相连。输入/输出(I/O)接口1105也连接至总线1104。
设备1100中的多个部件连接至I/O接口1105,包括:输入单元1106,例如键盘、鼠标等;输出单元1107,例如各种类型的显示器、扬声器等;存储单元1108,例如磁盘、光盘等;以及通信单元1109,例如网卡、调制解调器、无线通信收发机等。通信单元1109允许设备1100通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1101可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1101的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1101执行上文所描述的各个方法和处理,例如样本生成方法、语言处理模型的训练方法、或者检索方法。例如,在一些实施例中,样本生成方法、语言处理模型的训练方法、或者检索方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1108。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1102和/或通信单元1109而被载入和/或安装到设备1100上。当计算机程序加载到RAM 1103并由计算单元1101执行时,可以执行上文描述的样本生成方法、语言处理模型的训练方法、或者检索方法的一个或多个步骤。备选地,在其他实施例中,计算单元1101可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行样本生成方法、语言处理模型的训练方法、或者检索方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以是分布式***的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (19)
1.一种样本生成方法,包括:
从语料集合中确定与待匹配语句相匹配的第一目标语句,将所述待匹配语句和所述第一目标语句,作为负样本语句对;
从日志中获取搜索语句和与所述搜索语句相匹配的第二目标语句,将所述搜索语句和所述第二目标语句,作为正样本语句对;以及
基于所述负样本语句对和所述正样本语句对,生成目标样本,
其中,所述负样本语句对之间的语义相关性大于第一预定阈值、且小于第二预定阈值,所述正样本语句对的语义相关性大于所述第二预定阈值。
2.根据权利要求1所述的方法,其中,所述从语料集合中确定与待匹配语句相匹配的第一目标语句包括:
将所述待匹配语句输入至双塔模型中,得到所述待匹配语句的待匹配语句向量;以及
基于所述待匹配语句向量和语句向量集合,从所述语料集合中确定与所述待匹配语句相匹配的所述第一目标语句,其中,所述语句向量集合是通过将所述语料集合中的多个语句输入至所述双塔模型中得到的,所述语句向量集合中的多个语句向量与所述语料集合中的多个语句一一对应。
3.根据权利要求1或2所述的方法,其中,所述从日志中获取搜索语句和与所述搜索语句相匹配的第二目标语句包括:
从所述日志中获取与所述搜索语句相匹配的多个初始目标语句;
根据点击率,确定所述多个初始目标语句各自的关注度,得到多个关注度;以及
基于所述多个关注度,从所述多个初始目标语句中确定所述第二目标语句。
4.根据权利要求2所述的方法,其中,所述双塔模型是利用多个样本集合分阶段训练初始双塔模型得到的,其中,所述多个样本集合中的每个样本集合包括训练样本对,所述多个样本集合各自的训练样本对的语义相关性彼此不同。
5.一种语言处理模型的训练方法,包括:
利用训练样本训练语言处理模型,得到经训练的语言处理模型,
其中,所述训练样本是利用根据权利要求1至4中任一项所述的方法生成的。
6.根据权利要求5所述的方法,其中,所述训练样本包括第i训练样本和所述第i+1训练样本;
其中,所述语言处理模型为第i语言处理模型;
所述利用训练样本训练语言处理模型,得到经训练的语言处理模型包括:
利用所述第i训练样本训练所述第i语言处理模型,得到第i+1语言处理模型,其中,所述第i训练样本包括第i负样本语句对,所述i为大于或者等于1的整数;以及
利用所述第i+1训练样本训练所述第i+1语言处理模型,得到第i+2语言处理模型,将所述第i+2语言处理模型作为所述经训练的语言处理模型,其中,所述第i+1训练样本包括第i+1负样本语句对,
其中,所述第i+1负样本语句对之间的语义相关性大于所述第i负样本语句对之间的语义相关性。
7.根据权利要求6所述的方法,其中,所述第i训练样本还包括第i正样本语句对,所述第i+1训练样本还包括第i+1正样本语句对,
其中,所述第i+1正样本语句对中的正样本语句的关注度大于所述第i正样本语句对中的正样本语句的关注度。
8.一种检索方法,包括:
获取检索项;以及
将所述检索项和多个候选语句输入至语言处理模型中,得到目标语句,
其中,所述语言处理模型是利用根据权利要求5至7中任一项所述的方法训练得到的。
9.一种样本生成装置,包括:
第一确定模块,用于从语料集合中确定与待匹配语句相匹配的第一目标语句,将所述待匹配语句和所述第一目标语句,作为负样本语句对;
第二确定模块,用于从日志中获取搜索语句和与所述搜索语句相匹配的第二目标语句,将所述搜索语句和所述第二目标语句,作为正样本语句对;以及
生成模块,用于基于所述负样本语句对和所述正样本语句对,生成目标样本,
其中,所述负样本语句对之间的语义相关性大于第一预定阈值、且小于第二预定阈值,所述正样本语句对的语义相关性大于所述第二预定阈值。
10.根据权利要求9所述的装置,其中,所述第一确定模块包括:
输入单元,用于将所述待匹配语句输入至双塔模型中,得到所述待匹配语句的待匹配语句向量;以及
第一确定单元,用于基于所述待匹配语句向量和语句向量集合,从所述语料集合中确定与所述待匹配语句相匹配的所述第一目标语句,其中,所述语句向量集合是通过将所述语料集合中的多个语句输入至所述双塔模型中得到的,所述语句向量集合中的多个语句向量与所述语料集合中的多个语句一一对应。
11.根据权利要求9或10所述的装置,其中,所述第二确定模块包括:
获取单元,用于从所述日志中获取与所述搜索语句相匹配的多个初始目标语句;
第二确定单元,用于根据点击率,确定所述多个初始目标语句各自的关注度,得到多个关注度;以及
第三确定单元,用于基于所述多个关注度,从所述多个初始目标语句中确定所述第二目标语句。
12.根据权利要求10所述的装置,其中,所述双塔模型是利用多个样本集合分阶段训练初始双塔模型得到的,其中,所述多个样本集合中的每个样本集合包括训练样本对,所述多个样本集合各自的训练样本对的语义相关性彼此不同。
13.一种语言处理模型的训练装置,包括:
训练模块,用于利用训练样本训练语言处理模型,得到经训练的语言处理模型,
其中,所述训练样本是利用根据权利要求1至4中任一项所述的装置生成的。
14.根据权利要求13所述的装置,其中,所述训练样本包括第i训练样本和所述第i+1训练样本;
其中,所述语言处理模型为第i语言处理模型;
所述训练模块包括:
第一训练单元,用于利用所述第i训练样本训练所述第i语言处理模型,得到第i+1语言处理模型,其中,所述第i训练样本包括第i负样本语句对,所述i为大于或者等于1的整数;以及
第二训练单元,用于利用所述第i+1训练样本训练所述第i+1语言处理模型,得到第i+2语言处理模型,将所述第i+2语言处理模型作为所述经训练的语言处理模型,其中,所述第i+1训练样本包括第i+1负样本语句对,
其中,所述第i+1负样本语句对之间的语义相关性大于所述第i负样本语句对之间的语义相关性。
15.根据权利要求14所述的装置,其中,所述第i训练样本还包括第i正样本语句对,所述第i+1训练样本还包括第i+1正样本语句对,
其中,所述第i+1正样本语句对中的正样本语句的关注度大于所述第i正样本语句对中的正样本语句的关注度。
16.一种检索装置,包括:
获取模块,用于获取检索项;以及
检索模块,用于将所述检索项和多个候选语句输入至语言处理模型中,得到目标语句,
其中,所述语言处理模型是利用根据权利要求13至15中任一项所述的装置训练得到的。
17.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至4中任一项所述的样本生成方法、权利要求5至7中任一项所述的语言处理模型的训练方法或者权利要求所述的检索方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1至4中任一项所述的样本生成方法、权利要求5至7中任一项所述的语言处理模型的训练方法或者权利要求所述的检索方法。
19.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1至4中任一项所述的样本生成方法、权利要求5至7中任一项所述的语言处理模型的训练方法或者权利要求所述的检索方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210357147.0A CN114676227B (zh) | 2022-04-06 | 2022-04-06 | 样本生成方法、模型的训练方法以及检索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210357147.0A CN114676227B (zh) | 2022-04-06 | 2022-04-06 | 样本生成方法、模型的训练方法以及检索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114676227A true CN114676227A (zh) | 2022-06-28 |
CN114676227B CN114676227B (zh) | 2023-07-18 |
Family
ID=82078869
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210357147.0A Active CN114676227B (zh) | 2022-04-06 | 2022-04-06 | 样本生成方法、模型的训练方法以及检索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114676227B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116628315A (zh) * | 2023-04-07 | 2023-08-22 | 百度在线网络技术(北京)有限公司 | 搜索方法、深度学习模型的训练方法、装置及电子设备 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150095017A1 (en) * | 2013-09-27 | 2015-04-02 | Google Inc. | System and method for learning word embeddings using neural language models |
CN107491518A (zh) * | 2017-08-15 | 2017-12-19 | 北京百度网讯科技有限公司 | 一种搜索召回方法和装置、服务器、存储介质 |
CN110377714A (zh) * | 2019-07-18 | 2019-10-25 | 泰康保险集团股份有限公司 | 基于迁移学习的文本匹配方法、装置、介质及设备 |
CN110674292A (zh) * | 2019-08-27 | 2020-01-10 | 腾讯科技(深圳)有限公司 | 一种人机交互方法、装置、设备及介质 |
WO2020108608A1 (zh) * | 2018-11-29 | 2020-06-04 | 腾讯科技(深圳)有限公司 | 搜索结果处理方法、装置、终端、电子设备及存储介质 |
CN112084150A (zh) * | 2020-09-09 | 2020-12-15 | 北京百度网讯科技有限公司 | 模型训练、数据检索方法,装置,设备以及存储介质 |
CN112287069A (zh) * | 2020-10-29 | 2021-01-29 | 平安科技(深圳)有限公司 | 基于语音语义的信息检索方法、装置及计算机设备 |
CN112328891A (zh) * | 2020-11-24 | 2021-02-05 | 北京百度网讯科技有限公司 | 训练搜索模型的方法、搜索目标对象的方法及其装置 |
CN112528681A (zh) * | 2020-12-18 | 2021-03-19 | 北京百度网讯科技有限公司 | 跨语言检索及模型训练方法、装置、设备和存储介质 |
CN112989164A (zh) * | 2021-03-26 | 2021-06-18 | 北京金堤征信服务有限公司 | 搜索结果处理方法、装置及电子设备 |
CN113051368A (zh) * | 2021-03-24 | 2021-06-29 | 北京百度网讯科技有限公司 | 双塔模型训练方法、检索方法、装置及电子设备 |
CN113380238A (zh) * | 2021-06-09 | 2021-09-10 | 阿波罗智联(北京)科技有限公司 | 处理音频信号的方法、模型训练方法、装置、设备和介质 |
CN113408299A (zh) * | 2021-06-30 | 2021-09-17 | 北京百度网讯科技有限公司 | 语义表示模型的训练方法、装置、设备和存储介质 |
CN113590645A (zh) * | 2021-06-30 | 2021-11-02 | 北京百度网讯科技有限公司 | 搜索方法、装置、电子设备及存储介质 |
CN113887234A (zh) * | 2021-09-15 | 2022-01-04 | 北京三快在线科技有限公司 | 一种模型训练以及推荐方法及装置 |
CN113988157A (zh) * | 2021-09-30 | 2022-01-28 | 北京百度网讯科技有限公司 | 语义检索网络训练方法、装置、电子设备及存储介质 |
-
2022
- 2022-04-06 CN CN202210357147.0A patent/CN114676227B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150095017A1 (en) * | 2013-09-27 | 2015-04-02 | Google Inc. | System and method for learning word embeddings using neural language models |
CN107491518A (zh) * | 2017-08-15 | 2017-12-19 | 北京百度网讯科技有限公司 | 一种搜索召回方法和装置、服务器、存储介质 |
WO2020108608A1 (zh) * | 2018-11-29 | 2020-06-04 | 腾讯科技(深圳)有限公司 | 搜索结果处理方法、装置、终端、电子设备及存储介质 |
CN110377714A (zh) * | 2019-07-18 | 2019-10-25 | 泰康保险集团股份有限公司 | 基于迁移学习的文本匹配方法、装置、介质及设备 |
CN110674292A (zh) * | 2019-08-27 | 2020-01-10 | 腾讯科技(深圳)有限公司 | 一种人机交互方法、装置、设备及介质 |
CN112084150A (zh) * | 2020-09-09 | 2020-12-15 | 北京百度网讯科技有限公司 | 模型训练、数据检索方法,装置,设备以及存储介质 |
CN112287069A (zh) * | 2020-10-29 | 2021-01-29 | 平安科技(深圳)有限公司 | 基于语音语义的信息检索方法、装置及计算机设备 |
CN112328891A (zh) * | 2020-11-24 | 2021-02-05 | 北京百度网讯科技有限公司 | 训练搜索模型的方法、搜索目标对象的方法及其装置 |
CN112528681A (zh) * | 2020-12-18 | 2021-03-19 | 北京百度网讯科技有限公司 | 跨语言检索及模型训练方法、装置、设备和存储介质 |
CN113051368A (zh) * | 2021-03-24 | 2021-06-29 | 北京百度网讯科技有限公司 | 双塔模型训练方法、检索方法、装置及电子设备 |
CN112989164A (zh) * | 2021-03-26 | 2021-06-18 | 北京金堤征信服务有限公司 | 搜索结果处理方法、装置及电子设备 |
CN113380238A (zh) * | 2021-06-09 | 2021-09-10 | 阿波罗智联(北京)科技有限公司 | 处理音频信号的方法、模型训练方法、装置、设备和介质 |
CN113408299A (zh) * | 2021-06-30 | 2021-09-17 | 北京百度网讯科技有限公司 | 语义表示模型的训练方法、装置、设备和存储介质 |
CN113590645A (zh) * | 2021-06-30 | 2021-11-02 | 北京百度网讯科技有限公司 | 搜索方法、装置、电子设备及存储介质 |
CN113887234A (zh) * | 2021-09-15 | 2022-01-04 | 北京三快在线科技有限公司 | 一种模型训练以及推荐方法及装置 |
CN113988157A (zh) * | 2021-09-30 | 2022-01-28 | 北京百度网讯科技有限公司 | 语义检索网络训练方法、装置、电子设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
吴炎等: "基于BERT的语义匹配算法在问答***中的应用", 《仪表技术》 * |
吴炎等: "基于BERT的语义匹配算法在问答***中的应用", 《仪表技术》, no. 06, 15 June 2020 (2020-06-15) * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116628315A (zh) * | 2023-04-07 | 2023-08-22 | 百度在线网络技术(北京)有限公司 | 搜索方法、深度学习模型的训练方法、装置及电子设备 |
CN116628315B (zh) * | 2023-04-07 | 2024-03-22 | 百度在线网络技术(北京)有限公司 | 搜索方法、深度学习模型的训练方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN114676227B (zh) | 2023-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Suhaili et al. | Service chatbots: A systematic review | |
US20190163691A1 (en) | Intent Based Dynamic Generation of Personalized Content from Dynamic Sources | |
CN110019732B (zh) | 一种智能问答方法以及相关装置 | |
CN112507715A (zh) | 确定实体之间关联关系的方法、装置、设备和存储介质 | |
JP7301922B2 (ja) | 意味検索方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
CN114840671A (zh) | 对话生成方法、模型的训练方法、装置、设备及介质 | |
WO2020232898A1 (zh) | 文本分类方法、装置、电子设备及计算机非易失性可读存储介质 | |
US20160171063A1 (en) | Modeling actions, consequences and goal achievement from social media and other digital traces | |
US20220114340A1 (en) | System and method for an automatic search and comparison tool | |
CN114861889B (zh) | 深度学习模型的训练方法、目标对象检测方法和装置 | |
CN112231569A (zh) | 新闻推荐方法、装置、计算机设备及存储介质 | |
CN112528681A (zh) | 跨语言检索及模型训练方法、装置、设备和存储介质 | |
CN110727769B (zh) | 语料库生成方法及装置、人机交互处理方法及装置 | |
CN115688920A (zh) | 知识抽取方法、模型的训练方法、装置、设备和介质 | |
CN114116997A (zh) | 知识问答方法、装置、电子设备及存储介质 | |
CN114003682A (zh) | 一种文本分类方法、装置、设备及存储介质 | |
US20210081462A1 (en) | Binary coding for improved semantic search | |
CN114676227B (zh) | 样本生成方法、模型的训练方法以及检索方法 | |
US20220310083A1 (en) | Virtual assistant response generation | |
CN117807482A (zh) | 海关报关单的分类方法、装置、设备及存储介质 | |
CN114328800A (zh) | 文本处理方法、装置、电子设备和计算机可读存储介质 | |
CN112307738B (zh) | 用于处理文本的方法和装置 | |
CN112100360B (zh) | 一种基于向量检索的对话应答方法、装置和*** | |
CN115658903A (zh) | 文本分类方法、模型训练方法、相关装置及电子设备 | |
CN114925185B (zh) | 交互方法、模型的训练方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |