CN112115257B - 用于生成信息评估模型的方法和装置 - Google Patents
用于生成信息评估模型的方法和装置 Download PDFInfo
- Publication number
- CN112115257B CN112115257B CN201910537150.9A CN201910537150A CN112115257B CN 112115257 B CN112115257 B CN 112115257B CN 201910537150 A CN201910537150 A CN 201910537150A CN 112115257 B CN112115257 B CN 112115257B
- Authority
- CN
- China
- Prior art keywords
- model
- comment information
- sample
- information
- label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请实施例公开了用于生成信息评估模型的方法和装置、用于确定评论信息的有用性的方法和装置、电子设备以及计算机可读介质。用于生成信息评估模型的方法包括:获取训练样本,训练样本包括具有有用性标签的第一样本评论信息和不具有有用性标签的第二样本评论信息;获取基于生成式对抗网络中的生成网络和判别网络分别构建的预测器模型和判别器模型,利用第一样本评论信息预训练预测器模型,预测器模型用于预测评论信息的有用性标签,判别器模型用于判别有用性标签的真实性;迭代执行多次训练操作对预测器模型和判别器模型进行训练,将训练完成的预测器模型作为信息评估模型。该方法基于海量未知价值的评论信息训练评估模型,可以提升模型准确性。
Description
技术领域
本申请实施例涉及计算机技术领域,具体涉及网络信息处理技术领域,尤其涉及用于生成信息评估模型的方法和装置。
背景技术
随着互联网技术的发展,网络用户和互联网产品的数量不断增多,网络用户关于互联网产品的评论也***式增长。用户在浏览互联网信息时常常会参考其他用户的评论来进行行为决策,例如,用户可以参考产品的评论来做出消费决策。
然而,由于网络中的评论的质量参差不齐,且数量巨大,难以从高效地从海量的评论中筛选出有价值的评论作为参考。因此,存在对评论的价值进行评估的需求。目前的方法是通过众包的方式,设置一系列票选按钮请求其他用户对评论的价值进行投票,这种方式可以收集到少量的投票结果。
发明内容
本公开的实施例提出了用于生成信息评估模型的方法和装置、用于确定评论信息的有用性的方法和装置、电子设备以及计算机可读介质。
第一方面,本公开的实施例提供了一种用于生成信息评估模型的方法,包括:获取训练样本,训练样本包括具有有用性标签的第一样本评论信息和不具有有用性标签的第二样本评论信息;获取基于生成式对抗网络中的生成网络和判别网络分别构建的预测器模型和判别器模型,利用第一样本评论信息预训练预测器模型,预测器模型用于预测评论信息的有用性标签,判别器模型用于判别有用性标签的真实性;通过迭代执行多次训练操作对预测器模型和判别器模型进行训练,将训练完成的预测器模型作为信息评估模型;训练操作包括:采用预测器模型对第二样本评论信息的有用性标签进行预测,将第一样本评论信息的有用性标签作为真实标签,第二样本评论信息的有用性标签作为虚假标签,采用判别器模型对第一样本评论信息的有用性标签和第二样本评论信息的有用性标签的真实性进行判别,基于判别器模型的判别结果的误差迭代更新判别器模型的参数和与判别器模型的参数和预测器模型的参数关联的奖励函数,根据奖励函数和预测器模型确定预测器模型的期望奖励,基于期望奖励的误差迭代更新预测器模型的参数。
在一些实施例中,上述采用判别器模型对第一样本评论信息的有用性标签和第二样本评论信息的有用性标签的真实性进行判别,包括:选取数量相等的第一样本评论信息和第二样本评论信息的有用性标签,采用判别器模型对选取出的有用性标签的真实性进行判别。
在一些实施例中,上述判别器模型的判别结果的误差包括第一交叉熵的相反数和第二交叉熵的相反数的和;第一交叉熵包括:第一样本评论信息的有用性标签为真实标签的第一概率分布与判别器模型将第一样本评论信息的有用性标签判定为真实标签的第二概率分布之间的交叉熵;第二交叉熵包括:预测器模型预测出的第二样本评论信息的有用性标签为真实标签的第三概率分布与判别器模型将第二样本评论信息的有用性标签判定为真实标签的第四概率分布之间的交叉熵。
在一些实施例中,上述奖励函数的输入为第二样本评论信息时,输出为判别器模型对第二样本评论信息的有用性标签的真实性判别结果;以及上述根据奖励函数和预测器模型确定预测器模型的期望奖励,基于期望奖励的误差迭代更新预测器模型的参数,包括:将奖励函数与预测器模型的预测结果相乘计算出期望奖励,响应于确定期望奖励未达到预设的奖励值条件,迭代更新预测器模型的参数。
在一些实施例中,上述奖励函数的输入为第一样本评论信息且判别器模型将第一样本评论信息的有用性标签判别为真实标签时,奖励函数的值为1;上述奖励函数的输入为第一样本评论信息且判别器模型将第一样本评论信息的有用性标签判别为虚假标签时,奖励函数的值为0。
在一些实施例中,上述第一样本评论信息还具有有用性指数标签,有用性指数标签用于表征有用性的程度,预测器模型还用于预测评论信息的有用性指数标签;上述训练操作还包括:采用预测器模型对第二样本评论信息的有用性指数标签进行预测;确定预测器模型对有用性指数标签的预测误差;以及上述基于期望奖励的误差迭代更新预测器模型的参数,包括:基于期望奖励的误差和预测器模型对有用性指数标签的预测误差交替迭代更新预测器模型的参数。
在一些实施例中,上述方法还包括:获取训练样本对应的评论对象信息;以及上述预测器模型包括信息预处理网络和分类网络;信息预处理网络用于将训练样本和对应的评论对象信息转换为数学表示,分类网络基于数学表示预测训练样本的有用性标签。
在一些实施例中,上述信息预处理网络包括第一双向长短期记忆网络和第二双向长短期记忆网络;上述第一双向长短期记忆网络将训练样本转换为第一向量表示,第二双向长短期记忆网络将训练样本对应的评论对象信息转换为第二向量表示;上述信息预处理网络基于注意力机制将训练样本的第一向量表示和对应的评论对象信息的第二向量表示整合为与训练样本对应的数学表示。
第二方面,本公开的实施例提供了一种用于确定评论信息的有用性的方法,包括:获取评论信息集合;将评论信息集合中的评论信息输入采用如第一方面提供的方法生成的信息评估模型,得到评论信息的有用性标签。
在一些实施例中,上述方法还包括:基于评论信息的有用性标签,呈现评论信息集合中的评论信息。
第二方面,本公开的实施例提供了一种用于生成信息评估模型的装置,包括:第一获取单元,被配置为获取训练样本,训练样本包括具有有用性标签的第一样本评论信息和不具有有用性标签的第二样本评论信息;预处理单元,被配置为获取基于生成式对抗网络中的生成网络和判别网络分别构建的预测器模型和判别器模型,利用第一样本评论信息预训练预测器模型,预测器模型用于预测评论信息的有用性标签,判别器模型用于判别有用性标签的真实性;训练单元,被配置为通过迭代执行多次训练操作对预测器模型和判别器模型进行训练,将训练完成的预测器模型作为信息评估模型;训练操作包括:采用预测器模型对第二样本评论信息的有用性标签进行预测,将第一样本评论信息的有用性标签作为真实标签,第二样本评论信息的有用性标签作为虚假标签,采用判别器模型对第一样本评论信息的有用性标签和第二样本评论信息的有用性标签的真实性进行判别,基于判别器模型的判别结果的误差迭代更新判别器模型的参数和与判别器模型的参数和预测器模型的参数关联的奖励函数,根据奖励函数和预测器模型确定预测器模型的期望奖励,基于期望奖励的误差迭代更新预测器模型的参数。
在一些实施例中,上述训练单元被配置为在训练操作中,按照如下方式采用判别器模型对第一样本评论信息的有用性标签和第二样本评论信息的有用性标签的真实性进行判别:选取数量相等的第一样本评论信息和第二样本评论信息的有用性标签,采用判别器模型对选取出的有用性标签的真实性进行判别。
在一些实施例中,上述判别器模型的判别结果的误差包括第一交叉熵的相反数和第二交叉熵的相反数的和;第一交叉熵包括:第一样本评论信息的有用性标签为真实标签的第一概率分布与判别器模型将第一样本评论信息的有用性标签判定为真实标签的第二概率分布之间的交叉熵;第二交叉熵包括:预测器模型预测出的第二样本评论信息的有用性标签为真实标签的第三概率分布与判别器模型将第二样本评论信息的有用性标签判定为真实标签的第四概率分布之间的交叉熵。
在一些实施例中,上述奖励函数的输入为第二样本评论信息时,输出为判别器模型对第二样本评论信息的有用性标签的真实性判别结果;以及上述训练单元被配置为在训练操作中,按照如下方式确定预测器模型的期望奖励,基于期望奖励的误差迭代更新预测器模型的参数:将奖励函数与预测器模型的预测结果相乘计算出期望奖励,响应于确定期望奖励未达到预设的奖励值条件,迭代更新预测器模型的参数。
在一些实施例中,上述奖励函数的输入为第一样本评论信息且判别器模型将第一样本评论信息的有用性标签判别为真实标签时,奖励函数的值为1;奖励函数的输入为第一样本评论信息且判别器模型将第一样本评论信息的有用性标签判别为虚假标签时,奖励函数的值为0。
在一些实施例中,上述第一样本评论信息还具有有用性指数标签,有用性指数标签用于表征有用性的程度,预测器模型还用于预测评论信息的有用性指数标签;训练单元执行的训练操作还包括:采用预测器模型对第二样本评论信息的有用性指数标签进行预测;确定预测器模型对有用性指数标签的预测误差;以及训练单元被配置为在训练操作中,按照如下方式迭代更新预测器模型的参数:基于期望奖励的误差和预测器模型对有用性指数标签的预测误差交替迭代更新预测器模型的参数。
在一些实施例中,上述第一获取单元还被配置为获取训练样本对应的评论对象信息;以及上述预测器模型包括信息预处理网络和分类网络;信息预处理网络用于将训练样本和对应的评论对象信息转换为数学表示,分类网络基于数学表示预测训练样本的有用性标签。
在一些实施例中,上述信息预处理网络包括第一双向长短期记忆网络和第二双向长短期记忆网络;第一双向长短期记忆网络将训练样本转换为第一向量表示,第二双向长短期记忆网络将训练样本对应的评论对象信息转换为第二向量表示;信息预处理网络基于注意力机制将训练样本的第一向量表示和对应的评论对象信息的第二向量表示整合为与训练样本对应的数学表示。
第四方面,本公开的实施例提供了一种用于确定评论信息的有用性的装置,包括:第二获取单元,被配置为获取评论信息集合;评估单元,被配置为将评论信息集合中的评论信息输入采用如第一方面提供的方法生成的信息评估模型,得到评论信息的有用性标签。
在一些实施例中,上述装置还包括:呈现单元,被配置为基于评论信息的有用性标签,呈现评论信息集合中的评论信息。
第五方面,本公开的实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面提供的用于生成信息评估模型的方法或如第二方面提供的用于确定评论信息的有用性的方法。
第六方面,本公开的实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现第一方面提供的用于生成信息评估模型的方法或如第二方面提供的用于确定评论信息的有用性的方法。
本公开的上述实施例的用于生成信息评估模型的方法和装置,首先获取训练样本,训练样本包括具有有用性标签的第一样本评论信息和不具有有用性标签的第二样本评论信息,然后获取基于生成式对抗网络中的生成网络和判别网络分别构建的预测器模型和判别器模型,利用第一样本评论信息预训练预测器模型,预测器模型用于预测评论信息的有用性标签,判别器模型用于判别有用性标签的真实性,之后通过迭代执行多次训练操作对预测器模型和判别器模型进行训练,将训练完成的预测器模型作为信息评估模型;训练操作包括:采用预测器模型对第二样本评论信息的有用性标签进行预测,将第一样本评论信息的有用性标签作为真实标签,第二样本评论信息的有用性标签作为虚假标签,采用判别器模型对第一样本评论信息的有用性标签和第二样本评论信息的有用性标签的真实性进行判别,基于判别器模型的判别结果的误差迭代更新判别器模型的参数和与判别器模型的参数和预测器模型的参数关联的奖励函数,根据奖励函数和预测器模型确定预测器模型的期望奖励,基于期望奖励的误差迭代更新预测器模型的参数。该方法和装置实现了基于海量未知价值的评论信息训练评估模型,可以实现低成本的高价值评论信息挖掘,提升了生成的信息评估模型的准确度。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请实施例可以应用于其中的示例性***架构图;
图2是根据本公开的用于生成信息评估模型的方法的一个实施例的流程图;
图3是根据本公开的用于生成信息评估模型的方法的另一个实施例的流程图;
图4是用于生成信息评估模型的方法的一种具体实现方式的原理架构示意图;
图5是预测器模型的结构示意图;
图6是判别器模型的结构示意图;
图7是根据本公开的用于确定评论信息的有用性的方法的一个实施例的流程图;
图8是本公开的用于生成信息评估模型的装置的一个实施例的结构示意图;
图9是本公开的用于确定评论信息的有用性的装置的一个实施例的结构示意图;
图10是适于用来实现本申请实施例的电子设备的计算机***的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于生成信息评估模型的方法或用于生成信息评估模型的装置的示例性***架构。
如图1所示,***架构100中可以包括客户端101、网络102以及服务器103。网络102用以在客户端101和服务器103之间提供通信链路的介质。网络可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
客户端101可以是具有用户接口的客户端,用户可以通过客户端101访问网络。客户端101具体可以实现为各种电子设备,包括但不限于智能手机、笔记本电脑、台式电脑、平板电脑、智能手表,等等。或者,客户端101具体可以实现为安装在上述电子设备上的各种应用程序,例如电商购物应用、知识分享类应用、社交平台应用、音视频播放应用,等等。
服务器103可以提供网络资源服务。在实践中,服务器103可以实现为为客户端101的应用提供后台支持的服务器,例如电商平台的服务器、知识分享类应用的服务器、社交平台服务器、音视频资源服务器,等等。
客户端101可以通过网络102与服务器103建立连接。用户可以通过客户端101向服务器103发出网络资源获取请求。服务器103接收到请求后,查找相应的网络资源,并将网络资源反馈至客户端101。服务器103还可以收集客户端101的网络资源访问数据,例如可以获取用户通过客户端101提交的评论、对评论有用性的投票结果等,然后对收集到的网络资源访问数据进行处理,例如可以基于收集到的评论训练信息评估模型,或者给出评论的有用性评估结果。服务器103还可以将网络资源访问数据的处理结果反馈至客户端101,例如可以将已有评论的有用性评估结果反馈至客户端101。
需要说明的是,服务器103可以是硬件,也可以是软件。当客户服务器103为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器103为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本公开的实施例所提供的用于生成信息评估模型的方法可以由服务器103执行,相应地,用于生成信息评估模型的装置可以设置于服务器103。本公开实施例所提供的用于确定评论信息的有用性的方法可以由客户端101或服务器103执行,相应地,用于确定评论信息的有用性的方法可以设置于客户端101或服务器103中。
应该理解,图1中的客户端、网络、服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的客户端、网络、服务器。
继续参考图2,其示出了根据本申请的用于生成信息评估模型的方法的一个实施例的流程200。该用于生成信息评估模型的方法,包括以下步骤:
步骤201,获取训练样本,训练样本包括具有有用性标签的第一样本评论信息和不具有有用性标签的第二样本评论信息。
在本实施例中,上述用于生成信息评估模型的方法的执行主体可以采用机器学习的方式训练得出信息评估模型。可以首先收集互联网中针对评论对象的评论信息作为训练样本。在这里,评论对象可以是互联网中的产品或内容,例如可以是发表的文章或消息、发布的产品、音视频资源,等等。评论信息是用户对互联网中的产品或内容进行评价生成的文本信息。
在实践中,可以通过设置投票或打分按钮来收集对评论信息是否有用的投票或打分结果。当一条评论被公开发表后,浏览该评论的用户可以根据该评论是否有用、或者有用程度来投票或打分。上述执行主体可以获取用户的投票或打分结果,并基于用户的投票或打分结果生成有用性标签。
在本实施例中,可以将收集到的训练样本中具有有用性标签的评论信息作为第一样本评论信息。一些评论信息未收集到有用性的投票或打分结果,这些评论信息不具有有用性标签,其有用性是未知的,可以将训练样本中不具有有用性标签的评论信息作为第二样本评论信息。
步骤202,获取基于生成式对抗网络中的生成网络和判别网络分别构建的预测器模型和判别器模型,利用第一样本评论信息预训练预测器模型。
可以采用生成式对抗网络中的生成网络构建预测器模型,采用生成式对抗网络中的对抗网络构建判别器模型。预测器模型用于预测评论信息的有用性标签,判别器模型用于判别有用性标签的真实性。预测器模型和判别器模型可以采用神经网络架构,例如采用深度神经网络架构。
可以利用步骤201获取的第一样本评论信息对预测器模型进行预训练。可以按照如下方式执行预训练操作:初始化预测器模型的参数,将第一样本评论信息输入预测器模型进行有用性标签的预测,基于预测器模型对第一样本评论信息的有用性标签的预测误差,采用梯度下降法迭代更新预测器模型的参数,直到预测器模型的预测误差收敛到预设的区间范围内或者迭代次数达到预设的阈值时停止迭代更新,完成预训练。
步骤203,通过迭代执行预设次训练操作对预测器模型和判别器模型进行训练,将训练完成的预测器模型作为信息评估模型。
可以利用上述第一样本评论信息和第二样本评论信息对上述预训练得到的预测器模型和上述判别器模型进行联合训练。在训练过程中,通过迭代调整预测器模型的参数使得预测器模型对第二样本评论信息的有用性标签的预测结果无法被判别器准确判定为虚假标签的概率逐渐提升,通过迭代调整判别器模型的参数使得判别器模型对第一样本评论信息和第二样本评论信息的有用性标签的真实性准确判别的概率逐渐提升,即通过预测器模型和判别器模型的对抗训练,得到能够预测出无法被判别器准确判别真实性的有用性标签的预测器模型,作为生成的信息评估模型。
具体地,上述预测器模型和判别器模型的联合训练可以通过迭代执行预测次训练操作来实现。训练操作可以包括步骤2031至步骤2034:
在步骤2031中,采用预测器模型对第二样本评论信息的有用性标签进行预测。
在第一次训练操作中,可以采用步骤202预训练得到的预测器模型对第二样本评论信息的有用性标签进行预测。在第一次之后的训练操作中,可以采用上一次训练操作执行完毕后得到的预测器模型对第二样本评论信息的有用性标签进行预测。
在步骤2032中,将第一样本评论信息的有用性标签作为真实标签,第二样本评论信息的有用性标签作为虚假标签,采用判别器模型对第一样本评论信息的有用性标签和第二样本评论信息的有用性标签的真实性进行判别。
第一样本评论信息的有用性标签是基于用户对评论信息的有用性投票或打分行为获取到的,可以作为真实标签。第二样本评论信息的有用性标签是当前的预测器模型预测得出的,是虚假标签。训练预测器模型的目的是期望预测器模型预测出的有用性标签难以被辨别为虚假标签。可以将第一样本评论信息的有用性标签和由当前的预测器模型预测出的第二样本评论信息的有用性标签输入当前的判别器模型,判别器模型可以输出有用性标签是否为真实标签的判别结果。
在实践中,判别器模型可以输出有用性标签被判别为真实标签的概率或输出有用性标签被判别为虚假标签的概率。当判别器模型输出的有用性标签为真实标签的概率或输出有用性标签被判别为虚假标签的概率接近0.5时,表征判别器模型判断错误的概率较高。
在示例性的实现方式中,判别器模型可以是用于判别输入的有用性标签是否为真实标签的二分类模型。
可选地,可以在步骤2032中选取数量相等的第一样本评论信息和第二样本评论信息的有用性标签,例如选取m个第一样本评论信息的有用性标签(真实标签)和m个第二样本评论信息的有用性标签(由预测器预测出的虚假标签),采用判别器模型对选取出的有用性标签的真实性进行判别,其中,m为正整数。这样,可以保证判别器模型具有数量相等的正样本和负样本,有助于保证判别器的训练效果,提升判别器的准确性。
在步骤2033中,基于判别器模型的判别结果的误差迭代更新判别器模型的参数和与判别器模型的参数和预测器模型的参数关联的奖励函数。
在本实施例中,如果输入的有用性标签为真实标签,判别器模型对该有用性标签的判别结果为虚假标签,则判别器模型判断错误;或者,如果输入的有用性标签为虚假标签,判别器模型对该有用性标签的判别结果为真实标签,则判别器模型判断错误。可以统计出判别器模型对输入的有用性标签的总体判断错误率,作为判别器模型的误差。并采用反向传播的方法迭代更新判别器模型的参数,使得判别器的误差缩小。
可选地,判别器模型的判别结果的误差可以包括第一交叉熵的相反数和第二交叉熵的相反数的和,其中,第一交叉熵包括:第一样本评论信息的有用性标签为真实标签的第一概率分布与判别器模型将第一样本评论信息的有用性标签判定为真实标签的第二概率分布之间的交叉熵。第二交叉熵包括:预测器模型预测出的第二样本评论信息的有用性标签为真实标签的第三概率分布与判别器模型将第二样本评论信息的有用性标签判定为真实标签的第四概率分布之间的交叉熵。
利用Jφ表示判别器模型,其中φ表示判别器模型的参数,第一交叉熵E1和第二交叉熵E1可以分别表示为:
其中,x表示预测器模型的输入,例如为第一样本评论信息或第二样本评论信息,表示预测器模型的输入x的有用性标签的预测结果,y表示第一样本评论信息的有用性标签(即真实标签),DL表示第一样本评论信息形成的集合,DU表示第二样本评论信息形成的集合,Pθ表示预测器模型,其中θ表示预测器模型的参数。则判别器模型的误差可以表示为:
在训练过程中,可以通过最小化公式(3)表示的判别器的误差来优化判别器模型。
在本实施例中,可以预先设定奖励函数,该奖励函数表征对预测器模型的预测能力的奖励,具体可以表征预测器生成的有用性标签基于真实标签接近的程度。奖励函数与预测器模型预测出的有用性标签和判别器模型的判别性能相关。预测器模型生成的有用性标签与真实标签越接近,判别器模型越难以准确判别该有用性标签的真实性,奖励函数的值越大。在实践中,可以基于奖励函数取值与判别器模型以及预测器模型之间满足的上述关系来设定奖励函数。
在一些可选的实现方式中,奖励函数可以按照如下方式设置:当奖励函数的输入为第二样本评论信息时,奖励函数的输出为判别器模型对第二样本评论信息的有用性标签的真实性判别结果,在这里,判别器模型对有用性标签的真实性判别结果表征判别器模型将有用性标签判定为真实标签的概率。即对于不具有真实的有用性标签的样本评论信息,奖励函数的值为判别器模型将预测器模型预测得出的有用性标签判定为真实标签的概率。
进一步可选地,奖励函数还可以表征预测器模型对第一样本评论信息的有用性标签的预测结果的奖励。在奖励函数的输入为第一样本评论信息且判别器模型将第一样本评论信息的有用性标签判别为真实标签时,奖励函数的值为1;奖励函数的输入为第一样本评论信息且判别器模型将第一样本评论信息的有用性标签判别为虚假标签时,奖励函数的值为0,也即,奖励函数可以按照公式(4)设置:
其中,x表示预测器模型的输入,例如为第一样本评论信息或第二样本评论信息,表示预测器模型对输入x的有用性标签的预测结果,y表示第一样本评论信息的有用性标签,DL表示第一样本评论信息形成的集合,DU表示第二样本评论信息形成的集合,Jφ表示判别器模型,φ表示判别器模型的参数。
在步骤2034中,根据奖励函数和预测器模型确定预测器模型的期望奖励,基于期望奖励的误差迭代更新预测器模型的参数。
期望奖励可以表征预测器模型带来的奖励的期望值。在这里,预测器模型输出的有用性标签的真实性被判别器模型错误判别时,预测器模型获得正奖励(例如获得奖励值1);相反,预测器模型输出的有用性标签的真实性被判别器模型正确判别时,预测器模型获得负奖励(例如获取奖励值0)。期望奖励可以与奖励函数和预测器模型相关。奖励函数的值越高,期望奖励的值越大。
在一些可选的实现方式中,奖励函数可以按照如下方式设置:当奖励函数的输入为第二样本评论信息时,输出为判别器模型对第二样本评论信息的有用性标签的真实性判别结果,这时可以将奖励函数与预测器模型的预测结果相乘计算出期望奖励。具体来说,预测器模型可以是概率分布模型,预测器模型的参数用θ表示,预测器模型表征给定输入x时输出有用性标签的概率分布/>预测器模型的期望奖励表示为R(θ):
在步骤2033中更新奖励函数之后,可以根据公式(5)计算期望奖励R(θ),然后判断期望奖励是否达到预设的奖励值条件,若未达到,则迭代更新预测器模型的参数。在这里,预设的奖励值条件可以包括期望奖励R(θ)的误差小于预设的奖励误差阈值。可以在根据公式(5)计算出期望奖励R(θ)之后,计算期望奖励R(θ)的误差。期望奖励R(θ)的误差可以基于期望奖励与预设的最大奖励值之间的差异计算得出。
由于判别器模型判断错误时向预测器模型反馈正奖励,判别器模型判断正确时向预测器模型反馈负奖励,因此,奖励值越大,判别器模型判断错误的概率越大。可以通过判断上述期望奖励R(θ)是否达到最大值来确定是否停止迭代更新模型参数。如果期望奖励R(θ)未达到最大值,则可以根据期望奖励R(θ)的误差迭代更新预测器模型的参数θ。
可以按照公式(6)计算期望奖励R(θ)的梯度:
公式(7)是公式(6)的无偏估计。在使用m个具有有用性标签的第一样本评论信息和m个不具有有用性标签的第二样本评论信息进行训练时,期望奖励R(θ)的梯度可被近似计算为:
其中,α表示学习率,也即梯度下降的步长参数,θ+和θ-分别表示更新后的预测器模型的参数和当前的预测器模型的参数。
在步骤2033和步骤2034中分别更新判别器模型的参数和预测器模型的参数之后,可以结束当前的训练操作,返回至步骤2031,基于更新后的判别器模型和预测器模型,执行下一次训练操作。这样,通过迭代执行多次训练操作,不断优化判别器模型的参数和预测器模型的参数,当预测器模型的期望奖励的误差收敛至预设的误差范围,或者当预测器模型的期望奖励达到预设的最大值时,或者,当训练操作执行预设的次数后,可以停止训练操作,得到训练完成的预测器模型和判别器模型。
本公开上述实施例的用于生成信息评估模型的方法,通过获取训练样本,训练样本包括具有有用性标签的第一样本评论信息和不具有有用性标签的第二样本评论信息,随后获取基于生成式对抗网络中的生成网络和判别网络分别构建的预测器模型和判别器模型,利用第一样本评论信息预训练预测器模型,预测器模型用于预测评论信息的有用性标签,判别器模型用于判别有用性标签的真实性,之后通过迭代执行多次训练操作对预测器模型和判别器模型进行训练,将训练完成的预测器模型作为信息评估模型,其中训练操作包括:采用预测器模型对第二样本评论信息的有用性标签进行预测,将第一样本评论信息的有用性标签作为真实标签,第二样本评论信息的有用性标签作为虚假标签,采用判别器模型对第一样本评论信息的有用性标签和第二样本评论信息的有用性标签的真实性进行判别,基于判别器模型的判别结果的误差迭代更新判别器模型的参数和与判别器模型的参数和预测器模型的参数关联的奖励函数,根据奖励函数和预测器模型确定预测器模型的期望奖励,基于期望奖励的误差迭代更新预测器模型的参数,实现了基于海量未知价值的评论信息训练评估模型,可以实现低成本的高价值评论信息挖掘,提升了生成的信息评估模型的准确度。
继续参考图3,其示出了根据本公开的用于生成信息评估模型的方法的另一个实施例的流程图。如图3所示,用于生成信息评估模型的方法的流程300,包括以下步骤:
步骤301,获取训练样本,训练样本包括具有有用性标签和有用性指数标签的第一样本评论信息和不具有有用性标签的第二样本评论信息。
用于生成信息评估模型的方法的执行主体可以按照上述步骤201描述的方式获取训练样本。
在本实施例中,第一样本评论信息还具有有用性指数标签,有用性指数标签用于表征有用性的程度,可以例如为有用性程度的得分。
在实践中,可以收集用户对评论信息的有用性程度进行评价的评价结果,例如为已发表的评论信息设置有用性程度的打分选项,获取用户对评论信息的有用性程度的打分,基于打分的统计结果确定评论信息的有用性指数标签。
可以将通过用户反馈数据的收集获取到的具有有用性标签和有用性指数标签的评论信息作为第一样本评论信息,将未收集到有用性和有用性指数反馈数据的评论信息作为第二样本评论信息,来构建训练样本。
步骤302,获取基于生成式对抗网络中的生成网络和判别网络分别构建的预测器模型和判别器模型,利用第一样本评论信息预训练预测器模型。
可以采用生成式对抗网络中的生成网络构建预测器模型,采用生成式对抗网络中的对抗网络构建判别器模型。在本实施例中,预测器模型用于预测评论信息的有用性标签和评论信息的有用性指数标签,判别器模型用于判别有用性标签的真实性。
可以利用第一样本评论信息对预测器模型进行预训练。在预训练时,可以初始化预测器模型的参数,将第一样本评论信息输入预测器模型进行有用性标签及有用性指数标签的预测,基于预测器模型对第一样本评论信息的有用性标签的预测误差和预测器模型对第一样本评论信息的有用性指数标签的预测误差,采用梯度下降法迭代更新预测器模型的参数,直到预测器模型的预测误差收敛到预设的区间范围内或者迭代次数达到预设的阈值时停止迭代更新,完成预训练。在这里,可以基于预测器模型对第一样本评论信息的有用性标签的和有用性指数标签的联合预测误差来迭代更新预测器模型的参数。或者,可以在迭代过程中交替地基于预测器模型对第一样本评论信息的有用性标签的预测误差和预测器模型对第一样本评论信息的有用性指数标签的预测误差来更新预测器模型的参数,例如在第奇数次迭代中基于预测器模型对第一样本评论信息的有用性标签的预测误差更新预测器的参数,在第偶数次迭代中基于预测器模型对第一样本评论信息的有用性指数标签的预测误差更新预测器的参数。
步骤303,通过迭代执行预设次训练操作对预测器模型和判别器模型进行训练,将训练完成的预测器模型作为信息评估模型。
在本实施例中,训练操作可以包括步骤3031至步骤3035:
在步骤3031中,采用预测器模型对第二样本评论信息的有用性标签和有用性指数标签进行预测。
在执行第一次训练操作时,可以采用步骤302预训练得到的预测器模型对二样本信息的有用性标签和有用性指数标签进行预测。在第一次之后的训练操作中,可以采用上一次训练操作执行完毕后得到的预测器模型对第二样本评论信息的有用性标签和有用性指数标签进行预测。
步骤3032,将第一样本评论信息的有用性标签作为真实标签,第二样本评论信息的有用性标签作为虚假标签,采用判别器模型对第一样本评论信息的有用性标签和第二样本评论信息的有用性标签的真实性进行判别。
在步骤3033中,基于判别器模型的判别结果的误差迭代更新判别器模型的参数和与判别器模型的参数和预测器模型的参数关联的奖励函数。
本实施例中的步骤3032和步骤3033分别与前述实施例的步骤2032和步骤2033一致,步骤3032和步骤3033的具体实现方式可以分别参考前述实施例中对步骤2032和步骤2033的描述,此处不再赘述。
在步骤3034中,确定预测器模型对有用性指数标签的预测误差。
在本实施例中,预测器模型对有用性指数标签的预测误差可以表征输入的评论信息的真实的有用性指数标签与预测器模型预测出的有用性指数标签之间的差异。
在一些可选的实现方式中,第二样本评论信息的真实的有用性程度是未知的,可以基于第二样本评论信息与第一样本评论信息之间的相似度将第一样本评论信息的有用性指数标签转换为第二样本评论信息的有用性指数标签。例如当第二样本评论信息与第一样本评论信息的相似度不小于预设的相似度阈值(例如90%)时,第二样本评论信息的有用性指数可以与第一样本评论新的有用性指数相同。
或者,可以基于第二样本评论信息的文本信息量确定第二样本评论信息的有用性指数标签。例如,可以采用TF-IDF(term frequency–inverse document frequency,词频-逆文本频率指数)确定出第二样本评论信息中各词语的重要程度,然后基于各词语的重要程度计算整条第二样本评论信息的信息熵,从而确定第二样本评论信息的文本信息量,将文本信息量转换为第二样本评论信息的有用性指数标签。
在确定第二样本评论信息的有用性指数标签之后,可以计算预测器模型对有用性指数标签的预测误差Ls,该预测误差Ls也与预测器模型的参数θ相关。
在另一些可选的实现方式中,第二样本评论信息可以具有有用性指数标签,即训练样本可以包括具有有用性指数标签的第二样本评论信息。则预测器模型对有用性指数标签的预测误差Ls可以基于预测器模型预测出的有用性指数标签与第二样本评论信息的有用性指数标签之间的差异计算得出。
在步骤3035中,根据奖励函数和预测器模型确定预测器模型的期望奖励,基于期望奖励的误差和预测器模型对有用性指数标签的预测误差交替迭代更新预测器模型的参数。
预测器模型的期望奖励及期望奖励的误差也可以按照前述实施例的步骤2024中描述的方式确定,例如可以基于公式(5)确定期望奖励,基于公式(6)(7)(8)计算期望奖励的梯度。
在更新预测器模型的参数时,可以交替地基于期望奖励的误差和预测器模型对有用性指数标签的预测误差迭代更新预测器模型的参数。具体地,在当前训练操作中基于期望奖励的误差更新预测器模型的参数,即可以采用上述公式(9)更新预测器模型的参数;在下一次训练操作中基于对有用性指数标签的预测误差更新预测器模型的参数,即可以采用以下公式(10)来更新参数:
其中,α表示学习率,也即梯度下降的步长参数,θ+和θ-分别表示更新后的预测器模型的参数和当前的预测器模型的参数。
可以在第奇数次训练中基于公式(9)更新预测器模型的参数,在第偶数次训练操作中基于公式(10)更新预测器模型的参数。或者,可以在第奇数次训练中基于公式(10)更新预测器模型的参数,在第偶数次训练操作中基于公式(9)更新预测器模型的参数。
这样,本实施例的用于生成信息评估模型的方法通过对预测器模型基于具有有用性标签和有用性指数标签的样本进行预训练使其具有初步的有用性和有用性指数预测能力,在训练操作中交替地基于预测器模型对有用性标签和有用性指数标签的预测误差来迭代更新预测器模型的参数,能够训练得出可同时评估评论信息的有用性和有用性指数的预测器模型,提升了预测器模型的预测能力和预测效率。
请参考图4,其示出了图3所示用于生成信息评估模型的方法的一种具体实现方式的原理架构示意图。
如图4所示,基于具有有用性标签和有用性指数标签的样本数据集DL和不具有用性标签且具有有用性指数标签的样本数据集DU训练预测器模型,其中,样本数据集DL包括样本评论信息集合{(X,Y,Z)},X表示样本评论信息,Y表示有用性标签,Z表示有用性指数标签。样本数据集DU包括样本评论信息集合{(X,?,Z)},“?”表示未知的有用性标签。预测器模型基于样本数据集DL的特征{X}和标签{Y,Z}、以及样本数据集DU的特征{X}进行有用性标签和有用性指数标签/>的预测。将样本数据集DL的标签的真实性设为1,样本数据集DU的标签真实性设置为0,利用判别器模型进行判别,根据判别器模型对标签的真实性的判别结果向预测器模型反馈奖励R,同时,还根据预测器模型对样本数据集DU的有用性指数标签的预测误差loss来迭代调整预测器模型的参数。
在上述结合图2和图3描述的实施例的一些可选的实现方式中,用于生成信息评估模型的方法的流程还可以包括获取训练样本对应的评论对象信息的步骤。评论对象信息是指评论信息所针对的评论对象的相关信息。评论对象可以是互联网中的内容,例如产品、文章、帖子,等等。评论对象信息可以包括评论对象的文本描述信息,例如评论对象的标题。
这时,上述预测器模型可以包括信息预处理网络和分类网络。其中信息处理网络用于将训练样本和对应的评论对象信息转换为数学表示,分类网络基于训练样本的数学表示预测训练样本的有用性标签。可选地,分类网络还可以基于训练样本的数学表示预测训练样本的有用性指数标签。
训练样本和训练样本对应的评论对象信息是文本信息,可以将文本信息转换为对应的数学表示,例如可以将第一样本评论信息/第二样本评论信息与对应的评论对象信息分别转换为向量后整合到一起,形成包含评论对象信息的样本评论信息的编码,这样形成的数学表示中不仅包含了样本评论信息,还包括了评论对象信息。
可选地,信息预处理网络包括第一双向长短期记忆网络和第二双向长短期记忆网络;第一双向长短期记忆网络将训练样本转换为第一向量表示,第二双向长短期记忆网络将训练样本对应的评论对象信息转换为第二向量表示。
请参考图5,其示出了预测器模型的一个结构示意图。可以首先对训练样本(第一样本评论信息或第二样本评论信息)进行分词。假设作为训练样本的评论信息R包含n个词,通过查找向量表的方式将每个词转换为词向量,则训练样本为其中l表示向量长度,/>表示实数域;同理,包含m个词的评论对象信息P为/>图5中以评论信息分词得到“I ordered this phone…Flex Policy”的词序列、对应的评论对象信息分词得到“xple xphone 7 128G…US Version”为例,可以采用Bi-LSTM(Bi-Long-Short Memory,双向长短期记忆网络)分别对训练样本R和评论对象信息P编码为HR和HP,其中,
为了使得训练样本可以更全面地囊括评论对象信息,可以采用基于注意力机制的方法将第一向量表示和对应的评论对象信息的第二向量表示整合为与训练样本对应的数学表示。具体地,定义Q为:
其中,是权重矩阵,/>是偏置向量,ReLU是激活函数,/>表示将偏置向量bp复制m次以生成2l×m的矩阵,/> 是词级别的稀疏矩阵,其包含评论对象信息和训练样本之间的匹配信息。对Q的每一列应用softmax函数得到注意力矩阵G:G=softmax(Q)。其中,G为m行n列的矩阵,矩阵G的第i列表示评论对象信息的每个词对作为训练样本的评论信息中第i个词的权重或重要性程度,矩阵G的第j行表示作为训练样本的评论信息中各词对评论对象信息中的第j个词的权重或重要性程度。
如图5所示,预测器模型还包括分类网络。分类网络可以包括用于执行有用性标签预测的逻辑回归层和用于执行有用性指数标签预测的线性回归层。
图6示出了判别器模型的一个示例性结构图。可以使用Bi-LSTM作为判别器模型。
假设作为训练样本的一条评论信息包含T个词,该评论信息表示为:x={w(1),w(2),…,w(T)|w(t)∈{0,1}k}表示,其中,w(t)为每个词的独热(One-hot)向量,k为词表大小。相应的有用性标签用独热向量y∈{0,1}c表示,有用性指数标签用独热向量z∈{0,1}d表示,其中,c为有用性标签的类别数量(例如为2),d为有用性指数标签的数量。嵌入式矩阵E可以用于将每个词的独热向量转换为p维分布向量{v(1),v(2),…,v(T)}。给定一条评论信息,经过Bi-LSTM处理,正向LSTM的最后的隐状态为hf,反向LSTM的最后的隐状态为hb,将hf和hb拼接为hc,然后将hb与表示有用性标签向量y和有用性指数标签向量z拼接后,输入至输出网络得到判别结果。判别器模型的目标是估计(y;w(1),w(2),…,w(T);z)来自有标签的样本数据集DL的概率。其中,输出网络可以是全连接网络,用公式(12)表示输出网络的输出o:
o=[hc,z,y]·Wo+bo(12)
其中,Wo为输出网络的权重向量,bo为输出网络的偏置向量。
可以将真实标签作为正样本和虚假标签作为负样本训练通过最小化上述公式(3)表示的交叉熵来训练判别器模型Jφ。
继续参考图7,其示出了根据本公开的用于确定评论信息的有用性的一个实施例的流程图。如图7所示,用于确定评论信息的有用性的方法流程可以包括:
步骤701,获取评论信息集合。
步骤702,将评论信息集合中的评论信息输入信息评估模型,得到评论信息的有用性标签,其中,信息评估模型采用本公开上述实施例的用于生成信息评估模型的方法而生成。
在本实施例中,评论信息集合可以是从网络收集的不确定其有用性的评论信息的集合。对于评论信息结合中的评论信息,可以采用如图5所示的预测器模型中的信息预处理网络进行预处理,并利用预测器模型中的分类网络进行分类,得到评论信息对应的有用性标签和/或有用性指数标签。
本公开上述实施例的用于确定评论信息的有用性的方法,采用已训练的信息评估模型对评论信息的有用性进行评估,能够得到比较准确的评估结果,从而可以帮助筛选出有用的评论信息作为决策参考。
在一些实施例中,上述用于确定评论信息的有用性的方法还可以包括:
步骤703,基于评论信息的有用性标签,呈现评论信息集合中的评论信息。
可以将有用性标签为“有用”的评论信息优先展示,或者在每条评论信息中根据其有用性标签配置显示“有用”或“无用”标签,还可以对有用性标签为“无用”的评论信息滤除(不展示),等等。
通过基于有用性标签呈现评论信息,能够清楚地对评论信息是否有用进行提示或展现,有效帮助浏览评论信息的用户筛选有用的评论信息。
进一步参考图8,作为对上述各图所示方法的实现,本申请提供了一种用于生成信息评估模型的装置的一个实施例,该装置实施例与图2和图3所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图8所示,本实施例的用于生成信息评估模型的装置800包括:第一获取单元801、预处理单元802以及训练单元803。其中,第一获取单元801被配置为获取训练样本,训练样本包括具有有用性标签的第一样本评论信息和不具有有用性标签的第二样本评论信息;预处理单元802被配置为获取基于生成式对抗网络中的生成网络和判别网络分别构建的预测器模型和判别器模型,利用第一样本评论信息预训练预测器模型,预测器模型用于预测评论信息的有用性标签,判别器模型用于判别有用性标签的真实性;训练单元803被配置为通过迭代执行多次训练操作对预测器模型和判别器模型进行训练,将训练完成的预测器模型作为信息评估模型;训练操作包括:采用预测器模型对第二样本评论信息的有用性标签进行预测,将第一样本评论信息的有用性标签作为真实标签,第二样本评论信息的有用性标签作为虚假标签,采用判别器模型对第一样本评论信息的有用性标签和第二样本评论信息的有用性标签的真实性进行判别,基于判别器模型的判别结果的误差迭代更新判别器模型的参数和与判别器模型的参数和预测器模型的参数关联的奖励函数,根据奖励函数和预测器模型确定预测器模型的期望奖励,基于期望奖励的误差迭代更新预测器模型的参数。
在一些实施例中,上述训练单元803被配置为在训练操作中,按照如下方式采用判别器模型对第一样本评论信息的有用性标签和第二样本评论信息的有用性标签的真实性进行判别:选取数量相等的第一样本评论信息和第二样本评论信息的有用性标签,采用判别器模型对选取出的有用性标签的真实性进行判别。
在一些实施例中,上述判别器模型的判别结果的误差包括第一交叉熵的相反数和第二交叉熵的相反数的和;第一交叉熵包括:第一样本评论信息的有用性标签为真实标签的第一概率分布与判别器模型将第一样本评论信息的有用性标签判定为真实标签的第二概率分布之间的交叉熵;第二交叉熵包括:预测器模型预测出的第二样本评论信息的有用性标签为真实标签的第三概率分布与判别器模型将第二样本评论信息的有用性标签判定为真实标签的第四概率分布之间的交叉熵。
在一些实施例中,上述奖励函数的输入为第二样本评论信息时,输出为判别器模型对第二样本评论信息的有用性标签的真实性判别结果;以及上述训练单元803被配置为在训练操作中,按照如下方式确定预测器模型的期望奖励,基于期望奖励的误差迭代更新预测器模型的参数:将奖励函数与预测器模型的预测结果相乘计算出期望奖励,响应于确定期望奖励未达到预设的奖励值条件,迭代更新预测器模型的参数。
在一些实施例中,上述奖励函数的输入为第一样本评论信息且判别器模型将第一样本评论信息的有用性标签判别为真实标签时,奖励函数的值为1;上述奖励函数的输入为第一样本评论信息且判别器模型将第一样本评论信息的有用性标签判别为虚假标签时,奖励函数的值为0。
在一些实施例中,上述第一样本评论信息还具有有用性指数标签,有用性指数标签用于表征有用性的程度,预测器模型还用于预测评论信息的有用性指数标签;上述训练单元803执行的训练操作还包括:采用预测器模型对第二样本评论信息的有用性指数标签进行预测;确定预测器模型对有用性指数标签的预测误差;以及上述训练单元803被配置为在训练操作中,按照如下方式迭代更新预测器模型的参数:基于期望奖励的误差和预测器模型对有用性指数标签的预测误差交替迭代更新预测器模型的参数。
在一些实施例中,上述第一获取单元还被配置为获取训练样本对应的评论对象信息;以及上述预测器模型包括信息预处理网络和分类网络;信息预处理网络用于将训练样本和对应的评论对象信息转换为数学表示,分类网络基于数学表示预测训练样本的有用性标签。
在一些实施例中,上述信息预处理网络包括第一双向长短期记忆网络和第二双向长短期记忆网络;第一双向长短期记忆网络将训练样本转换为第一向量表示,第二双向长短期记忆网络将训练样本对应的评论对象信息转换为第二向量表示;信息预处理网络基于注意力机制将训练样本的第一向量表示和对应的评论对象信息的第二向量表示整合为与训练样本对应的数学表示。
应当理解,装置800中记载的诸单元与参考图2和图3描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作和特征同样适用于装置800及其中包含的单元,在此不再赘述。
本申请上述实施例的用于生成信息评估模型的装置800,能够实现基于海量未知价值的评论信息训练评估模型,实现了低成本的高价值评论信息挖掘,提升了生成的信息评估模型的准确度。
进一步参考图9,作为对上述各图所示方法的实现,本申请提供了一种用于确定评论信息的有用性的装置的一个实施例,该装置实施例与图7所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图9所示,本实施例的用于确定评论信息的有用性的装置900包括:第二获取单元901和评估单元902。其中,第二获取单元902被配置为获取评论信息集合;评估单元903被配置为将评论信息集合中的评论信息输入采用上述用于生成信息评估模型的方法生成的信息评估模型,得到评论信息的有用性标签。
在一些实施例中,上述装置900还包括:呈现单元,被配置为基于评论信息的有用性标签,呈现评论信息集合中的评论信息。
本公开的用于确定评论信息的有用性的装置采用已训练的信息评估模型对评论信息的有用性进行评估,能够得到比较准确的评估结果,从而可以帮助筛选出有用的评论信息作为决策参考。
下面参考图10,其示出了适于用来实现本公开的实施例的电子设备(例如图1中的服务器)1000的结构示意图。图10示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图10所示,电子设备1000可以包括处理装置(例如中央处理器、图形处理器等)1001,其可以根据存储在只读存储器(ROM)1002中的程序或者从存储装置1008加载到随机访问存储器(RAM)1003中的程序而执行各种适当的动作和处理。在RAM 1003中,还存储有电子设备1000操作所需的各种程序和数据。处理装置1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
通常,以下装置可以连接至I/O接口1005:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置1006;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置1007;包括例如硬盘等的存储装置1008;以及通信装置1009。通信装置1009可以允许电子设备1000与其他设备进行无线或有线通信以交换数据。虽然图10示出了具有各种装置的电子设备1000,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图10中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置1009从网络上被下载和安装,或者从存储装置1008被安装,或者从ROM 1002被安装。在该计算机程序被处理装置1001执行时,执行本公开的实施例的方法中限定的上述功能。需要说明的是,本公开的实施例所描述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取训练样本,训练样本包括具有有用性标签的第一样本评论信息和不具有有用性标签的第二样本评论信息;获取基于生成式对抗网络中的生成网络和判别网络分别构建的预测器模型和判别器模型,利用第一样本评论信息预训练预测器模型,预测器模型用于预测评论信息的有用性标签,判别器模型用于判别有用性标签的真实性;通过迭代执行多次训练操作对预测器模型和判别器模型进行训练,将训练完成的预测器模型作为信息评估模型;训练操作包括:采用预测器模型对第二样本评论信息的有用性标签进行预测,将第一样本评论信息的有用性标签作为真实标签,第二样本评论信息的有用性标签作为虚假标签,采用判别器模型对第一样本评论信息的有用性标签和第二样本评论信息的有用性标签的真实性进行判别,基于判别器模型的判别结果的误差迭代更新判别器模型的参数和与判别器模型的参数和预测器模型的参数关联的奖励函数,根据奖励函数和预测器模型确定预测器模型的期望奖励,基于期望奖励的误差迭代更新预测器模型的参数。或者,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取评论信息集合;将评论信息集合中的评论信息输入采用本公开上述实施例的用于生成信息评估模型的方法生成的信息评估模型,得到评论信息的有用性标签。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的实施例的操作的计算机程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括第一获取单元、预处理单元和训练单元。或者可以描述为:一种处理器包括第二获取单元和评估单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取训练样本的单元”。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (22)
1.一种用于生成信息评估模型的方法,包括:
获取训练样本,所述训练样本包括具有有用性标签的第一样本评论信息和不具有有用性标签的第二样本评论信息;
获取基于生成式对抗网络中的生成网络和判别网络分别构建的预测器模型和判别器模型,利用所述第一样本评论信息预训练所述预测器模型,所述预测器模型用于预测评论信息的有用性标签,所述判别器模型用于判别有用性标签的真实性;
通过迭代执行多次训练操作对所述预测器模型和所述判别器模型进行训练,将训练完成的预测器模型作为信息评估模型;
所述训练操作包括:
采用预测器模型对第二样本评论信息的有用性标签进行预测,将第一样本评论信息的有用性标签作为真实标签,第二样本评论信息的有用性标签作为虚假标签,采用判别器模型对第一样本评论信息的有用性标签和第二样本评论信息的有用性标签的真实性进行判别,基于判别器模型的判别结果的误差迭代更新判别器模型的参数和与判别器模型的参数和预测器模型的参数关联的奖励函数,根据所述奖励函数和预测器模型确定所述预测器模型的期望奖励,基于所述期望奖励的误差迭代更新所述预测器模型的参数。
2.根据权利要求1所述的方法,其中,所述采用判别器模型对第一样本评论信息的有用性标签和第二样本评论信息的有用性标签的真实性进行判别,包括:
选取数量相等的第一样本评论信息和第二样本评论信息的有用性标签,采用判别器模型对选取出的有用性标签的真实性进行判别。
3.根据权利要求1所述的方法,其中,所述判别器模型的判别结果的误差包括第一交叉熵的相反数和第二交叉熵的相反数的和;
所述第一交叉熵包括:第一样本评论信息的有用性标签为真实标签的第一概率分布与判别器模型将第一样本评论信息的有用性标签判定为真实标签的第二概率分布之间的交叉熵;
所述第二交叉熵包括:预测器模型预测出的第二样本评论信息的有用性标签为真实标签的第三概率分布与判别器模型将第二样本评论信息的有用性标签判定为真实标签的第四概率分布之间的交叉熵。
4.根据权利要求1所述的方法,其中,所述奖励函数的输入为第二样本评论信息时,输出为所述判别器模型对所述第二样本评论信息的有用性标签的真实性判别结果;以及
所述根据所述奖励函数和预测器模型确定所述预测器模型的期望奖励,基于所述期望奖励的误差迭代更新所述预测器模型的参数,包括:
将所述奖励函数与所述预测器模型的预测结果相乘计算出期望奖励,响应于确定所述期望奖励未达到预设的奖励值条件,迭代更新所述预测器模型的参数。
5.根据权利要求4所述的方法,其中,所述奖励函数的输入为第一样本评论信息且所述判别器模型将所述第一样本评论信息的有用性标签判别为真实标签时,所述奖励函数的值为1;
所述奖励函数的输入为第一样本评论信息且所述判别器模型将所述第一样本评论信息的有用性标签判别为虚假标签时,所述奖励函数的值为0。
6.根据权利要求1所述的方法,其中,所述第一样本评论信息还具有有用性指数标签,所述有用性指数标签用于表征有用性的程度,所述预测器模型还用于预测评论信息的有用性指数标签;
所述训练操作还包括:
采用预测器模型对第二样本评论信息的有用性指数标签进行预测;
确定所述预测器模型对有用性指数标签的预测误差;以及
所述基于所述期望奖励的误差迭代更新所述预测器模型的参数,包括:
基于所述期望奖励的误差和所述预测器模型对有用性指数标签的预测误差交替迭代更新所述预测器模型的参数。
7.根据权利要求1所述的方法,其中,所述方法还包括:
获取所述训练样本对应的评论对象信息;以及
所述预测器模型包括信息预处理网络和分类网络;
所述信息预处理网络用于将所述训练样本和对应的评论对象信息转换为数学表示,所述分类网络基于所述数学表示预测所述训练样本的有用性标签。
8.根据权利要求7所述的方法,其中,所述信息预处理网络包括第一双向长短期记忆网络和第二双向长短期记忆网络;
所述第一双向长短期记忆网络将所述训练样本转换为第一向量表示,所述第二双向长短期记忆网络将所述训练样本对应的评论对象信息转换为第二向量表示;
所述信息预处理网络基于注意力机制将所述训练样本的第一向量表示和对应的评论对象信息的第二向量表示整合为与所述训练样本对应的数学表示。
9.一种用于确定评论信息的有用性的方法,包括:
获取评论信息集合;
将所述评论信息集合中的评论信息输入采用如权利要求1-8任一项所述的方法生成的信息评估模型,得到所述评论信息的有用性标签。
10.根据权利要求9所述的方法,其中,所述方法还包括:
基于所述评论信息的有用性标签,呈现所述评论信息集合中的评论信息。
11.一种用于生成信息评估模型的装置,包括:
第一获取单元,被配置为获取训练样本,所述训练样本包括具有有用性标签的第一样本评论信息和不具有有用性标签的第二样本评论信息;
预处理单元,被配置为获取基于生成式对抗网络中的生成网络和判别网络分别构建的预测器模型和判别器模型,利用所述第一样本评论信息预训练所述预测器模型,所述预测器模型用于预测评论信息的有用性标签,所述判别器模型用于判别有用性标签的真实性;
训练单元,被配置为通过迭代执行多次训练操作对所述预测器模型和所述判别器模型进行训练,将训练完成的预测器模型作为信息评估模型;
所述训练操作包括:
采用预测器模型对第二样本评论信息的有用性标签进行预测,将第一样本评论信息的有用性标签作为真实标签,第二样本评论信息的有用性标签作为虚假标签,采用判别器模型对第一样本评论信息的有用性标签和第二样本评论信息的有用性标签的真实性进行判别,基于判别器模型的判别结果的误差迭代更新判别器模型的参数和与判别器模型的参数和预测器模型的参数关联的奖励函数,根据所述奖励函数和预测器模型确定所述预测器模型的期望奖励,基于所述期望奖励的误差迭代更新所述预测器模型的参数。
12.根据权利要求11所述的装置,其中,所述训练单元被配置为在训练操作中,按照如下方式采用判别器模型对第一样本评论信息的有用性标签和第二样本评论信息的有用性标签的真实性进行判别:
选取数量相等的第一样本评论信息和第二样本评论信息的有用性标签,采用判别器模型对选取出的有用性标签的真实性进行判别。
13.根据权利要求11所述的装置,其中,所述判别器模型的判别结果的误差包括第一交叉熵的相反数和第二交叉熵的相反数的和;
所述第一交叉熵包括:第一样本评论信息的有用性标签为真实标签的第一概率分布与判别器模型将第一样本评论信息的有用性标签判定为真实标签的第二概率分布之间的交叉熵;
所述第二交叉熵包括:预测器模型预测出的第二样本评论信息的有用性标签为真实标签的第三概率分布与判别器模型将第二样本评论信息的有用性标签判定为真实标签的第四概率分布之间的交叉熵。
14.根据权利要求11所述的装置,其中,所述奖励函数的输入为第二样本评论信息时,输出为所述判别器模型对所述第二样本评论信息的有用性标签的真实性判别结果;以及
所述训练单元被配置为在训练操作中,按照如下方式确定所述预测器模型的期望奖励,基于所述期望奖励的误差迭代更新所述预测器模型的参数:
将所述奖励函数与所述预测器模型的预测结果相乘计算出期望奖励,响应于确定所述期望奖励未达到预设的奖励值条件,迭代更新所述预测器模型的参数。
15.根据权利要求14所述的装置,其中,所述奖励函数的输入为第一样本评论信息且所述判别器模型将所述第一样本评论信息的有用性标签判别为真实标签时,所述奖励函数的值为1;
所述奖励函数的输入为第一样本评论信息且所述判别器模型将所述第一样本评论信息的有用性标签判别为虚假标签时,所述奖励函数的值为0。
16.根据权利要求11所述的装置,其中,所述第一样本评论信息还具有有用性指数标签,所述有用性指数标签用于表征有用性的程度,所述预测器模型还用于预测评论信息的有用性指数标签;
所述训练单元执行的训练操作还包括:
采用预测器模型对第二样本评论信息的有用性指数标签进行预测;
确定所述预测器模型对有用性指数标签的预测误差;以及
所述训练单元被配置为在训练操作中,按照如下方式迭代更新所述预测器模型的参数:
基于所述期望奖励的误差和所述预测器模型对有用性指数标签的预测误差交替迭代更新所述预测器模型的参数。
17.根据权利要求11所述的装置,其中,所述第一获取单元还被配置为获取所述训练样本对应的评论对象信息;以及
所述预测器模型包括信息预处理网络和分类网络;
所述信息预处理网络用于将所述训练样本和对应的评论对象信息转换为数学表示,所述分类网络基于所述数学表示预测所述训练样本的有用性标签。
18.根据权利要求17所述的装置,其中,所述信息预处理网络包括第一双向长短期记忆网络和第二双向长短期记忆网络;
所述第一双向长短期记忆网络将所述训练样本转换为第一向量表示,所述第二双向长短期记忆网络将所述训练样本对应的评论对象信息转换为第二向量表示;
所述信息预处理网络基于注意力机制将所述训练样本的第一向量表示和对应的评论对象信息的第二向量表示整合为与所述训练样本对应的数学表示。
19.一种用于确定评论信息的有用性的装置,包括:
第二获取单元,被配置为获取评论信息集合;
评估单元,被配置为将所述评论信息集合中的评论信息输入采用如权利要求1-8任一项所述的方法生成的信息评估模型,得到所述评论信息的有用性标签。
20.根据权利要求19所述的装置,其中,所述装置还包括:
呈现单元,被配置为基于所述评论信息的有用性标签,呈现所述评论信息集合中的评论信息。
21.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-10中任一所述的方法。
22.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-10中任一所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910537150.9A CN112115257B (zh) | 2019-06-20 | 2019-06-20 | 用于生成信息评估模型的方法和装置 |
US16/700,593 US11521016B2 (en) | 2019-06-20 | 2019-12-02 | Method and apparatus for generating information assessment model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910537150.9A CN112115257B (zh) | 2019-06-20 | 2019-06-20 | 用于生成信息评估模型的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112115257A CN112115257A (zh) | 2020-12-22 |
CN112115257B true CN112115257B (zh) | 2023-07-14 |
Family
ID=73796030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910537150.9A Active CN112115257B (zh) | 2019-06-20 | 2019-06-20 | 用于生成信息评估模型的方法和装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11521016B2 (zh) |
CN (1) | CN112115257B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108363790B (zh) * | 2018-02-12 | 2021-10-22 | 百度在线网络技术(北京)有限公司 | 用于对评论进行评估的方法、装置、设备和存储介质 |
US11537809B2 (en) * | 2019-11-21 | 2022-12-27 | Kyndryl, Inc. | Dynamic container grouping |
CN112734035B (zh) * | 2020-12-31 | 2023-10-27 | 成都佳华物链云科技有限公司 | 一种数据处理方法及装置、可读存储介质 |
CN113240109B (zh) * | 2021-05-17 | 2023-06-30 | 北京达佳互联信息技术有限公司 | 网络训练的数据处理方法、装置、电子设备、存储介质 |
CN113536080B (zh) * | 2021-07-20 | 2023-06-20 | 湖南快乐阳光互动娱乐传媒有限公司 | 一种数据上传方法、装置及电子设备 |
CN113642635B (zh) * | 2021-08-12 | 2023-09-15 | 百度在线网络技术(北京)有限公司 | 模型训练方法及装置、电子设备和介质 |
CN113469290B (zh) * | 2021-09-01 | 2021-11-19 | 北京数美时代科技有限公司 | 一种训练样本的选取方法、***、存储介质和电子设备 |
CN113768523B (zh) * | 2021-11-11 | 2022-04-22 | 华南理工大学 | 基于对抗生成网络的二便预警方法与*** |
CN114386336B (zh) * | 2022-03-22 | 2022-07-15 | 成都飞机工业(集团)有限责任公司 | 一种基于多方3d打印数据库联合训练的方法 |
CN114896522B (zh) * | 2022-04-14 | 2023-04-07 | 北京航空航天大学 | 多平台信息疫情风险评估方法及装置 |
CN117634710B (zh) * | 2024-01-23 | 2024-04-26 | 湖南三一中诚车身有限公司 | 一种板材定尺方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108460717A (zh) * | 2018-03-14 | 2018-08-28 | 儒安科技有限公司 | 一种基于双判别器的生成对抗网络的图像生成方法 |
CN109189921A (zh) * | 2018-08-07 | 2019-01-11 | 阿里巴巴集团控股有限公司 | 评论评估模型的训练方法和装置 |
KR101936029B1 (ko) * | 2018-07-18 | 2019-01-11 | 한국과학기술정보연구원 | 딥러닝 기반의 가치 평가 방법 및 그 장치 |
CN109492764A (zh) * | 2018-10-24 | 2019-03-19 | 平安科技(深圳)有限公司 | 生成式对抗网络的训练方法、相关设备及介质 |
CN109614471A (zh) * | 2018-12-07 | 2019-04-12 | 北京大学 | 一种基于生成式对抗网络的开放式问题自动生成方法 |
CN109726918A (zh) * | 2018-12-29 | 2019-05-07 | 云南大学 | 基于生成式对抗网络和半监督学习的个人信用确定方法 |
CN109885667A (zh) * | 2019-01-24 | 2019-06-14 | 平安科技(深圳)有限公司 | 文本生成方法、装置、计算机设备及介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8990124B2 (en) * | 2010-01-14 | 2015-03-24 | Microsoft Technology Licensing, Llc | Assessing quality of user reviews |
GB201809604D0 (en) * | 2018-06-12 | 2018-07-25 | Tom Tom Global Content B V | Generative adversarial networks for image segmentation |
US11518382B2 (en) * | 2018-09-26 | 2022-12-06 | Nec Corporation | Learning to simulate |
CN111639247B (zh) * | 2019-03-01 | 2023-08-01 | 百度在线网络技术(北京)有限公司 | 用于评估评论的质量的方法、装置、设备以及计算机可读存储介质 |
-
2019
- 2019-06-20 CN CN201910537150.9A patent/CN112115257B/zh active Active
- 2019-12-02 US US16/700,593 patent/US11521016B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108460717A (zh) * | 2018-03-14 | 2018-08-28 | 儒安科技有限公司 | 一种基于双判别器的生成对抗网络的图像生成方法 |
KR101936029B1 (ko) * | 2018-07-18 | 2019-01-11 | 한국과학기술정보연구원 | 딥러닝 기반의 가치 평가 방법 및 그 장치 |
CN109189921A (zh) * | 2018-08-07 | 2019-01-11 | 阿里巴巴集团控股有限公司 | 评论评估模型的训练方法和装置 |
CN109492764A (zh) * | 2018-10-24 | 2019-03-19 | 平安科技(深圳)有限公司 | 生成式对抗网络的训练方法、相关设备及介质 |
CN109614471A (zh) * | 2018-12-07 | 2019-04-12 | 北京大学 | 一种基于生成式对抗网络的开放式问题自动生成方法 |
CN109726918A (zh) * | 2018-12-29 | 2019-05-07 | 云南大学 | 基于生成式对抗网络和半监督学习的个人信用确定方法 |
CN109885667A (zh) * | 2019-01-24 | 2019-06-14 | 平安科技(深圳)有限公司 | 文本生成方法、装置、计算机设备及介质 |
Non-Patent Citations (1)
Title |
---|
生成式对抗网络研究综述;罗佳;黄晋英;;仪器仪表学报(第03期);第77-87页 * |
Also Published As
Publication number | Publication date |
---|---|
US11521016B2 (en) | 2022-12-06 |
CN112115257A (zh) | 2020-12-22 |
US20200401852A1 (en) | 2020-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112115257B (zh) | 用于生成信息评估模型的方法和装置 | |
CN110520871B (zh) | 使用学习进度测量训练机器学习模型 | |
AU2020385264B2 (en) | Fusing multimodal data using recurrent neural networks | |
JP2021516398A (ja) | 音楽推薦方法、装置、コンピューティング機器及び媒体 | |
US11741398B2 (en) | Multi-layered machine learning system to support ensemble learning | |
US20210158147A1 (en) | Training approach determination for large deep learning models | |
CN111666416B (zh) | 用于生成语义匹配模型的方法和装置 | |
CN111340220B (zh) | 用于训练预测模型的方法和装置 | |
CN111783810B (zh) | 用于确定用户的属性信息的方法和装置 | |
CN111368973B (zh) | 用于训练超网络的方法和装置 | |
CN112966701A (zh) | 目标分类的方法和装置 | |
Lee et al. | Effective evolutionary multilabel feature selection under a budget constraint | |
US20210150270A1 (en) | Mathematical function defined natural language annotation | |
CN113033707B (zh) | 视频分类方法、装置、可读介质及电子设备 | |
CN114511152A (zh) | 预测模型的训练方法和装置 | |
CN113742590A (zh) | 一种推荐方法、装置、存储介质及电子设备 | |
CN116401522A (zh) | 一种金融服务动态化推荐方法和装置 | |
CN114625876B (zh) | 作者特征模型的生成方法、作者信息处理方法和装置 | |
US11687823B2 (en) | Automated switching of a strategy for selection of data elements to be labeled based on labeling progress | |
Hao et al. | Deep collaborative online learning resource recommendation based on attention mechanism | |
CN115827705A (zh) | 用于反事实解释的数据处理方法和装置 | |
CN116109449A (zh) | 一种数据处理方法及相关设备 | |
US10394898B1 (en) | Methods and systems for analyzing discrete-valued datasets | |
Mahajan et al. | Ongoing solution reproducibility of earth system models as they progress toward exascale computing | |
CN111754984B (zh) | 文本选取的方法、装置、设备和计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |