CN112950291A - 模型的偏差优化方法、装置、设备及计算机可读介质 - Google Patents
模型的偏差优化方法、装置、设备及计算机可读介质 Download PDFInfo
- Publication number
- CN112950291A CN112950291A CN202110355124.1A CN202110355124A CN112950291A CN 112950291 A CN112950291 A CN 112950291A CN 202110355124 A CN202110355124 A CN 202110355124A CN 112950291 A CN112950291 A CN 112950291A
- Authority
- CN
- China
- Prior art keywords
- model
- deviation
- promotion
- prediction
- media data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0242—Determining effectiveness of advertisements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0242—Determining effectiveness of advertisements
- G06Q30/0244—Optimization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0273—Determination of fees for advertising
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- Development Economics (AREA)
- Accounting & Taxation (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Entrepreneurship & Innovation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Game Theory and Decision Science (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请涉及一种模型的偏差优化方法、装置、设备及计算机可读介质。该方法包括:将第一模型对目标维度的推广媒体数据进行预测产生的偏差特征输入第二模型,以获取第二模型对目标维度的推广媒体数据进行价值评估得到的第一推广预测结果,第二模型中隐含层的数量小于第一模型中隐含层的数量;在使用训练数据对第一模型进行训练时,将第一推广预测结果与第一模型中的目标隐含层的输出进行拼接后继续训练,以使得第一模型最终输出的第二推广预测结果中对目标维度的推广媒体数据的预测偏差小于第一偏差阈值。本申请解决了预测模型对特定维度的数据的预测值存在预测偏差的问题。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种模型的偏差优化方法、装置、设备及计算机可读介质。
背景技术
随着深度学***台的数据,联合建立一个模型,使得模型有着较好的泛化性,但是同时存在问题,不同广告位,真实的点击率存在较大差距,深度模型在抽象出高阶特征后,对于数据量较少的广告位会存在预估偏差。
目前,相关技术中,一般采用的是通过拆分模型,即对不同的广告位分别建模,但是如此一来,对于训练数据较少的广告位的模型,学习效果大打折扣,且在实际工程中使用多个模型的话,会对运维工作造成较大负担,因此相关技术仅仅是在预估偏差和工程运维之间做取舍,并没有从根本上解决预测模型对特定维度的数据的预测值存在预测偏差的问题。
针对预测模型对特定维度的数据的预测值存在预测偏差的问题,目前尚未提出有效的解决方案。
发明内容
本申请提供了一种模型的偏差优化方法、装置、设备及计算机可读介质,以解决预测模型对特定维度的数据的预测值存在预测偏差的技术问题。
根据本申请实施例的一个方面,本申请提供了一种模型的偏差优化方法,包括:
将第一模型对目标维度的推广媒体数据进行预测产生的偏差特征输入第二模型,以获取第二模型对目标维度的推广媒体数据进行价值评估得到的第一推广预测结果,第二模型中隐含层的数量小于第一模型中隐含层的数量,偏差特征用于表示第一模型对目标维度的推广媒体数据的预测偏差大于或等于第一偏差阈值;
在使用训练数据对第一模型进行训练时,将第一推广预测结果与第一模型中的目标隐含层的输出进行拼接后继续训练,以使得第一模型最终输出的第二推广预测结果中对目标维度的推广媒体数据的预测偏差小于第一偏差阈值。
可选地,将偏差特征输入第二模型,以获取第二模型对目标维度的推广媒体数据进行价值评估得到的第一推广预测结果包括:将偏差特征转换为第一特征向量,第一特征向量为对偏差特征离散化得到的;初始化第二模型中各网络层中的权重参数,并将第一特征向量输入第二模型,权重参数与第一特征向量相对应;获取第二模型的输出层输出的第一推广预测结果。
可选地,在使用训练数据对第一模型进行训练时,将第一推广预测结果与第一模型中的目标隐含层的输出进行拼接后继续训练包括:在使用训练数据继续对第一模型进行训练时,提取第一模型的最后一层隐含层的输出向量作为中间向量;将第一推广预测结果与中间向量拼接为一个向量,并将拼接向量输入第一模型的输出层。
可选地,使用训练数据对第一模型进行训练包括:提取训练数据的特征,并将训练数据的特征转换为特征向量后拼接为第二特征向量,训练数据包括目标维度的推广媒体数据,训练数据的特征向量是由训练数据的特征映射得到的;将第二特征向量输入第一模型,以在第一模型中利用多层隐含层逐层提取训练数据的高阶特征进行价值评估。
可选地,将第一模型对目标维度的推广媒体数据进行预测产生的偏差特征输入第二模型之前,所述方法还包括按照如下方式获取偏差特征:将推广媒体数据输入第一模型,以获取第一模型对推广媒体数据进行价值评估得到的第三推广预测结果;利用第三推广预测结果确定偏差特征,推广媒体数据包括目标维度的推广媒体数据。
可选地,利用第三推广预测结果确定偏差特征包括:获取各个维度的推广媒体数据的实际推广结果;确定每个维度的第三推广预测结果与实际推广结果的差值;将差值与实际推广结果的比值作为预测偏差;在预测偏差大于或等于第一偏差阈值的情况下,将预测偏差对应的目标维度作为偏差特征。
可选地,提取训练数据的特征包括以下方式中的至少一种:获取点击广告的用户的身份信息,并利用身份信息生成用户的用户画像,以提取用户特征,训练数据包括对不同位置的广告的点击数据;确定广告的所在位置,以提取位置特征,训练数据包括广告的位置信息;从广告素材中确定图片大小、视频长度、代言人知名度及文本字数中的至少一种,以提取广告特征,训练数据包括广告素材。
可选地,将拼接向量输入第一模型的输出层之后,该方法还包括:获取第一模型的输出层输出的第二推广预测结果,第二推广预测结果包括对不同位置的广告的点击预测率和转化预测率中的至少一种;利用第二推广预测结果和实际检测值确定损失值,并利用损失值调整第一模型的参数,直至第一模型的预测偏差小于第二偏差阈值,第二偏差阈值小于第一偏差阈值。
根据本申请实施例的另一方面,本申请提供了一种模型的偏差优化装置,包括:
偏差学习模块,用于将第一模型对目标维度的推广媒体数据进行预测产生的偏差特征输入第二模型,以获取第二模型对目标维度的推广媒体数据进行价值评估得到的第一推广预测结果,第二模型中隐含层的数量小于第一模型中隐含层的数量,偏差特征用于表示第一模型对目标维度的推广媒体数据的预测偏差大于或等于第一偏差阈值;
预测偏差修正模块,用于在使用训练数据对第一模型进行训练时,将第一推广预测结果与第一模型中的目标隐含层的输出进行拼接后继续训练,以使得第一模型最终输出的第二推广预测结果中对目标维度的推广媒体数据的预测偏差小于第一偏差阈值。
根据本申请实施例的另一方面,本申请提供了一种电子设备,包括存储器、处理器、通信接口及通信总线,存储器中存储有可在处理器上运行的计算机程序,存储器、处理器通过通信总线和通信接口进行通信,处理器执行计算机程序时实现上述方法的步骤。
根据本申请实施例的另一方面,本申请还提供了一种具有处理器可执行的非易失的程序代码的计算机可读介质,程序代码使处理器执行上述的方法。
本申请实施例提供的上述技术方案与相关技术相比具有如下优点:
本申请技术方案通过在训练深度模型时,利用隐含层数量较少的浅层神经网络模型作为偏差学习结构来强化深度模型存在预测偏差的偏差特征,将强化的偏差特征和深度模型目标隐含层的输出一起进行后续训练,能够在深度模型的训练后期突出在前中期被深度模型忽略的某些维度的特征,从而使得最终训练出来的深度模型能够在对各个维度的数据进行预测时均能够将预测偏差控制在较小范围内,提高预测准确度。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
为了更清楚地说明本申请实施例或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为根据本申请实施例提供的一种可选的模型的偏差优化方法硬件环境示意图;
图2为根据本申请实施例提供的一种可选的模型的偏差优化方法流程图;
图3为根据本申请实施例提供的一种可选的模型的偏差优化方法示意图;
图4为根据本申请实施例提供的一种可选的模型的偏差优化装置框图;
图5为本申请实施例提供的一种可选的电子设备结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本申请的说明,其本身并没有特定的意义。因此,“模块”与“部件”可以混合地使用。
首先,在对本申请实施例进行描述的过程中出现的部分名词或者术语适用于如下解释:
神经网络:神经网络可以是由神经单元组成的,神经单元可以是指以xs和截距b为输入的运算单元,该运算单元的输出可以为:
其中,s=1、2、……n,n为大于1的自然数,Ws为xs的权重,b为神经单元的偏置。f为神经单元的激活函数(activation functions),用于将非线性特性引入神经网络中,来将神经单元中的输入信号转换为输出信号。该激活函数的输出信号可以作为下一层卷积层的输入。激活函数可以是sigmoid函数。神经网络是将许多个上述单一的神经单元联结在一起形成的网络,即一个神经单元的输出可以是另一个神经单元的输入。每个神经单元的输入可以与前一层的局部接受域相连,来提取局部接受域的特征,局部接受域可以是由若干个神经单元组成的区域。
深度神经网络:深度神经网络(deep neural network,DNN),也称多层神经网络,可以理解为具有很多层隐含层的神经网络,这里的“很多”并没有特别的度量标准。从DNN按不同层的位置划分,DNN内部的神经网络可以分为三类:输入层,隐含层,输出层。一般来说第一层是输入层,最后一层是输出层,中间的层数都是隐含层。例如,全连接神经网络中层与层之间是全连接的,也就是说,第i层的任意一个神经元一定与第i+1层的任意一个神经元相连。虽然DNN看起来很复杂,但是就每一层的工作来说,其实并不复杂,简单来说就是如下线性关系表达式:其中,是输入向量,是输出向量,是偏移向量,W是权重矩阵(也称系数),α()是激活函数。每一层仅仅是对输入向量经过如此简单的操作得到输出向量由于DNN层数多,则系数W和偏移向量的数量也就很多了。这些参数在DNN中的定义如下所述:以系数W为例:假设在一个三层的DNN中,第二层的第4个神经元到第三层的第2个神经元的线性系数定义为上标3代表系数W所在的层数,而下标对应的是输出的第三层索引2和输入的第二层索引4。总结就是:第L-1层的第k个神经元到第L层的第j个神经元的系数定义为需要注意的是,输入层是没有W参数的。在深度神经网络中,更多的隐含层让网络更能够刻画现实世界中的复杂情形。理论上而言,参数越多的模型复杂度越高,“容量”也就越大,也就意味着它能完成更复杂的学习任务。训练深度神经网络的也就是学习权重矩阵的过程,其最终目的是得到训练好的深度神经网络的所有层的权重矩阵(由很多层的向量W形成的权重矩阵)。
相关技术中,对于预测模型对特定维度的数据的预测值存在预测偏差的问题,一般采用的是通过拆分模型,即对不同的广告位分别建模,但是如此一来,对于训练数据较少的广告位的模型,学习效果大打折扣,且在实际工程中使用多个模型的话,会对运维工作造成较大负担,因此相关技术仅仅是在预估偏差和工程运维之间做取舍,并没有从根本上解决预测模型对特定维度的数据的预测值存在预测偏差的问题。
为了解决背景技术中提及的问题,根据本申请实施例的一方面,提供了一种模型的偏差优化方法的实施例,所述模型的偏差优化方法可以应用于OCPX业务,如OCPC(Optimized Cost per Click,优化点击付费)、OCPM(Optimized Cost per Mille,优化千次展现出价)、OCPA(Optimized Cost per Action,优化行为出价)等。OCPX是一种以转化成本为优化目的,根据单个流量的点击率和转化率进行智能动态出价的调整,帮助商家有效的控制转化成本,提升广告效率,最终达成目标的工具。OCPX广告转化出价,适合追求广告效果的商家。
简单而言,OCPX是一种出价机制,允许广告主按照转化行为成本出价。假设对于游戏类的广告主,希望优化App的激活,那么广告主在投放***中设置了激活成本之后,算法就会根据以往转化数据和广告主的出价,自动筛选有价值的人群,针对高激活概率的人提高出价赢得广告曝光,对低激活概率的人群降低出价减少广告曝光以减少广告浪费。
可选地,在本申请实施例中,上述模型的偏差优化方法可以应用于如图1所示的由终端101和服务器103所构成的硬件环境中。如图1所示,服务器103通过网络与终端101进行连接,可用于为终端或终端上安装的客户端提供服务,可在服务器上或独立于服务器设置数据库105,用于为服务器103提供数据存储服务,上述网络包括但不限于:广域网、城域网或局域网,终端101包括但不限于PC、手机、平板电脑等。
本申请实施例中的一种模型的偏差优化方法可以由服务器103来执行,还可以是由服务器103和终端101共同执行,如图2所示,该方法可以包括以下步骤:
步骤S202,将第一模型对目标维度的推广媒体数据进行预测产生的偏差特征输入第二模型,以获取第二模型对目标维度的推广媒体数据进行价值评估得到的第一推广预测结果,第二模型中隐含层的数量小于第一模型中隐含层的数量,偏差特征用于表示第一模型对目标维度的推广媒体数据的预测偏差大于或等于第一偏差阈值。
本申请实施例中,上述推广媒体数据可以是广告位数据、广告尺寸数据、推广媒介数据、广告代言数据等。广告位数据即广告所在位置的数据,如网页首页、程序加载界面、报纸头条、闹市广告牌、大厦电子显示屏等等。广告尺寸数据即广告显示界面的大小。推广媒介数据可以是图片、语音广播、视频、文字等等。广告代言数据可以是明星代言、运动员代言、劳动模范代言、自创动画形象代言等等。
本申请实施例以广告位数据为例进行说明,不同的广告位能被用户看到、点击的概率不同,因此广告位在很大程度上影响广告的点击率和转化率。本申请可以通过将广告位数据输入第一模型来预测不同广告位所能带来的广告点击率和转化率,从而为广告主向需求方报价提供建议。不同广告位所产生的数据量大小不一,在第一模型训练时,对于数据量大的广告位的预测结果比较准确,但是对于数据量小的部分广告位的预测结果与实际的广告点击率、转化率存在较大差距,即存在较大的预测偏差,因此可以在训练时利用对不同广告位的推广预测结果找出存在预测偏差的部分数据,进而确定上述偏差特征,即数据量较小的广告位,从而可以进行后续矫正预测偏差。推广媒体数据的维度可以是不同的广告位,即不同的广告位置,上述目标维度可以是数据量较少的广告位。本申请实施例中,所述广告位可以表示不同的广告投放平台,也可以细化表示一个或多个平台中的广告投放的位置。
本申请实施例中,上述第一模型可以是深度神经网络模型。与第一模型不同,上述第二模型可以是隐含层数量少于第一模型的深度神经网络模型。由于隐含层数量较少,对于输入模型的原始特征的记忆性较高,能够强化原始特征的表达,减少预测偏差。作为一种优选的实施方式,本申请可以采用浅层神经网络模型,即只有一层隐含层的神经网络模型来作为第二模型。将上述偏差特征输入浅层神经网络模型,得到的第一推广预测结果是强化偏差特征对预测输出的影响的产物,即在第二模型的计算中,数据量较少的广告位对广告点击率、转化率的影响会比第一模型更大,且因为浅层神经网络模型仅有一层隐含层,所以浅层神经网络模型的输出不会因为模型记忆性原因产生偏差,预测结果也较为准确。上述第一推广预测结果可以是广告的点击率、转化率等。
步骤S204,在使用训练数据对第一模型进行训练时,将第一推广预测结果与第一模型中的目标隐含层的输出进行拼接后继续训练,以使得第一模型最终输出的第二推广预测结果中对目标维度的推广媒体数据的预测偏差小于第一偏差阈值。
本申请实施例中,在继续对上述第一模型进行训练时,为了使得第一模型也能够对上述目标维度的推广媒体数据的预测准确度较高,因此可以在第一模型的输出之前,将强化偏差特征对预测输出的影响添加到目标隐含层的输出中进行后续训练,相当于在第一模型由于数据量原因和模型记忆性原因已经遗忘了目标维度的推广媒体数据对预测输出的影响时,提醒第一模型该目标维度的推广媒体数据对预测输出也存在影响,虽然数据量很小,但是这种影响却不能忽略,最终达到减小第一模型对各个维度的数据的预测偏差的目的。上述目标隐含层可以是第一模型的最后一层隐含层。上述第二推广预测结果可以是广告的点击率、转化率等,上述第一偏差阈值可以是根据需要设置的,还可以是根据实验、实际情况设置的。
通过上述步骤S202至S204,本申请技术方案可以在训练深度模型时,利用隐含层数量较少的浅层神经网络模型作为偏差学习结构来强化深度模型存在预测偏差的偏差特征,将强化的偏差特征和深度模型目标隐含层的输出一起进行后续训练,能够在深度模型的训练后期突出在前中期被深度模型忽略的某些维度的特征,从而使得最终训练出来的深度模型能够在对各个维度的数据进行预测时均能够将预测偏差控制在较小范围内,提高预测准确度。
可选地,步骤S202将偏差特征输入第二模型,以获取第二模型对目标维度的推广媒体数据进行价值评估得到的第一推广预测结果可以包括:将偏差特征转换为第一特征向量,第一特征向量为对偏差特征离散化得到的;初始化第二模型中各网络层中的权重参数,并将第一特征向量输入第二模型,权重参数与第一特征向量相对应;获取第二模型的输出层输出的第一推广预测结果。
本申请实施例中,可以采用one-hot编码的方式将偏差特征离散化,得到一组n维的特征向量XT=[x1,…xn]T,即上述第一特征向量。第二模型中各网络层的参数可以在输入第一特征向量前随机初始化,初始化的参数可以包括权重参数和偏置,其中权重参数w不能全部初始化为0,会导致隐含层设置的多个神经元没有意义,但偏置可以初始化为0,并不会影响神经网络的训练效果。多个权重参数组成权重向量W=[w1,…,wn],得到第二模型输出的第一推广预测结果ybias=WXT。
可选地,步骤S204在使用训练数据对第一模型进行训练时,将第一推广预测结果与第一模型中的目标隐含层的输出进行拼接后继续训练可以包括:在使用训练数据继续对第一模型进行训练时,提取第一模型的最后一层隐含层的输出向量作为中间向量;将第一推广预测结果与中间向量拼接为一个向量,并将拼接向量输入第一模型的输出层。
本申请实施例中,第一模型的目标隐含层可以是第一模型的最后一层隐含层,其输出为m维向量Xdeep=[xdeep1,…,xdeepm],该向量即为上述中间向量。将上述第二推广预测结果ybias拼接到中间向量,得到Xdeep=[xdeep1,…,xdeepm,ybias],以此拼接向量进行后续训练,或将该拼接向量输入到第一模型的输出层,再经过输出层计算得到第二推广预测结果,即广告的点击率、转化率。
可选地,使用训练数据对第一模型进行训练包括:提取训练数据的特征,并将训练数据的特征转换为特征向量后拼接为第二特征向量,训练数据包括目标维度的推广媒体数据,训练数据的特征向量是由训练数据的特征映射得到的;将第二特征向量输入第一模型,以在第一模型中利用多层隐含层逐层提取训练数据的高阶特征进行价值评估。
本申请实施例中,训练数据可以包括不同广告位的点击数据,从点击数据可以提取用户身份信息;可以包括广告的位置信息;还可以包括广告素材。提取训练数据的特征可以是获取点击广告的用户的身份信息,并利用身份信息生成用户的用户画像,以提取用户特征;可以是确定广告的所在位置,以提取位置特征;还可以是从广告素材中确定图片大小、视频长度、代言人知名度及文本字数中的至少一种,以提取广告特征。上述用户特征、位置特征、广告特征可以通过Embedding嵌入的映射方式转换为特征向量之后拼接为第二特征向量,再将第二特征向量输入第一模型,以利用第一模型预测广告点击率和转化率。广告特征以Embedding嵌入的映射方式转换为特征向量具体可以是:通过索引对广告特征进行编码;创建嵌入矩阵,其中,嵌入矩阵用于保存嵌入向量,嵌入向量的长度与每个索引的关联因子的数量相同,嵌入向量为用索引表中的索引值表示的广告特征。
可选地,将第一模型对目标维度的推广媒体数据进行预测产生的偏差特征输入第二模型之前,所述方法还包括按照如下方式获取偏差特征:将推广媒体数据输入第一模型,以获取第一模型对推广媒体数据进行价值评估得到的第三推广预测结果;利用第三推广预测结果确定偏差特征,推广媒体数据包括目标维度的推广媒体数据。其中,利用第三推广预测结果确定偏差特征可以包括:获取各个维度的推广数据的实际推广结果;确定每个维度的第三推广预测结果与实际推广结果的差值;将差值与实际推广结果的比值作为预测偏差;在预测偏差大于或等于第一偏差阈值的情况下,将预测偏差对应的目标维度作为偏差特征。
本申请实施例中,不同的广告位能被用户看到、点击的概率不同,因此广告位在很大程度上影响广告的点击率和转化率。本申请可以通过将广告位数据输入第一模型来预测不同广告位所能带来的广告点击率和转化率,从而为广告主向需求方报价提供建议。不同广告位所产生的数据量大小不一,在第一模型训练时,对于数据量大的广告位的预测结果比较准确,但是对于数据量小的部分广告位的预测结果与实际的广告点击率、转化率存在较大差距,即存在较大的预测偏差,因此可以在训练时利用对不同广告位的推广预测结果找出存在预测偏差的部分数据,进而确定上述偏差特征。
本申请实施例中,上述实际推广结果可以是各个广告的点击率和转化率,由此可以对每个广告位的预测点击率、预测转化率和实际点击率、实际转化率进行对比,将各个广告位的预测点击率与实际点击率的差值,或预测转化率和实际转化率的差值作为每个广告位的预测偏差,若预测偏差大于第一偏差阈值,则将该预测偏差对应的目标维度即广告位作为偏差特征。例如A、B、C三个广告位,其中B的预测偏差大于第一偏差阈值,则偏差特征即为B,离散化表示即为[0,1,0],同理,若A、C的预测偏差大于第一偏差阈值,则偏差特征位A、C,离散化表示为[1,0,1]。
可选地,将拼接向量输入第一模型的输出层之后,该方法还包括:获取第一模型的输出层输出的第二推广预测结果,第二推广预测结果包括对不同位置的广告的点击预测率和转化预测率中的至少一种;利用第二推广预测结果和实际检测值确定损失值,并利用损失值调整第一模型的参数,直至第一模型的预测偏差小于第二偏差阈值,第二偏差阈值小于第一偏差阈值。
本申请实施例中,为了进一步优化预测准确率,可以从整体上对第一模型进行参数微调,即计算预测点击率、预测转化率(相当于第三预测推广结果)和实际点击率、实际转化率(相当于是检测值)的差值作为损失值,通过反向传播和adam等优化算法来对第一模型的参数进行微调,直至第一模型的预测偏差小于第二偏差阈值,第二偏差阈值小于第一偏差阈值,从而训练出预测更准确的预测模型。
如图3为本申请技术方案的示意图。如图所示,用户特征、广告特征及上下文特征(相当于位置特征)Embedding嵌入后拼接为一个向量输入深度模型中进行训练。偏差特征可以采用one-hot编码的方式离散化后输入浅层神经网络模型中进行强化特征,将浅层神经网络模型的输出拼接到深度模型的最后一层隐含层的输出上,最后由深度模型的输出层预测点击率、转化率。图中pxxr表示预测点击率(Predict Click-Through Rate,PCTR)或预测转化率(Predict Conversion Rate,PCVR)。
根据本申请实施例的又一方面,如图4所示,提供了一种模型的偏差优化装置,包括:
偏差学习模块401,用于将第一模型对目标维度的推广媒体数据进行预测产生的偏差特征输入第二模型,以获取第二模型对目标维度的推广媒体数据进行价值评估得到的第一推广预测结果,第二模型中隐含层的数量小于第一模型中隐含层的数量,偏差特征用于表示第一模型对目标维度的推广媒体数据的预测偏差大于或等于第一偏差阈值;
预测偏差修正模块403,用于在使用训练数据对第一模型进行训练时,将第一推广预测结果与第一模型中的目标隐含层的输出进行拼接后继续训练,以使得第一模型最终输出的第二推广预测结果中对目标维度的推广媒体数据的预测偏差小于第一偏差阈值。
需要说明的是,该实施例中的偏差学习模块401可以用于执行本申请实施例中的步骤S202,该实施例中的预测偏差修正模块403可以用于执行本申请实施例中的步骤S204。
此处需要说明的是,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在如图1所示的硬件环境中,可以通过软件实现,也可以通过硬件实现。
可选地,该偏差学习模块,具体用于:将偏差特征转换为第一特征向量,第一特征向量为对偏差特征离散化得到的;初始化第二模型中各网络层中的权重参数,并将第一特征向量输入第二模型,权重参数与第一特征向量相对应;获取第二模型的输出层输出的第一推广预测结果。
可选地,该预测偏差修正模块,具体用于:在使用训练数据继续对第一模型进行训练时,提取第一模型的最后一层隐含层的输出向量作为中间向量;将第一推广预测结果与中间向量拼接为一个向量,并将拼接向量输入第一模型的输出层。
可选地,该模型的偏差优化装置,还包括模型训练模块,用于:提取训练数据的特征,并将训练数据的特征转换为特征向量后拼接为第二特征向量,训练数据包括目标维度的推广媒体数据,训练数据的特征向量是由训练数据的特征映射得到的;将第二特征向量输入第一模型,以在第一模型中利用多层隐含层逐层提取训练数据的高阶特征进行价值评估。
可选地,该模型的偏差优化装置,还包括偏差特征获取模块,用于:将推广媒体数据输入第一模型,以获取第一模型对推广媒体数据进行价值评估得到的第三推广预测结果;利用第三推广预测结果确定偏差特征,推广媒体数据包括目标维度的推广媒体数据。
可选地,该偏差特征获取模块,具体用于:获取各个维度的推广媒体数据的实际推广结果;确定每个维度的第三推广预测结果与实际推广结果的差值;将差值与实际推广结果的比值作为预测偏差;在预测偏差大于或等于第一偏差阈值的情况下,将预测偏差对应的目标维度作为偏差特征。
可选地,该模型训练模块,还包括特征提取单元,用于:获取点击广告的用户的身份信息,并利用身份信息生成用户的用户画像,以提取用户特征,训练数据包括对不同位置的广告的点击数据;确定广告的所在位置,以提取位置特征,训练数据包括广告的位置信息;从广告素材中确定图片大小、视频长度、代言人知名度及文本字数中的至少一种,以提取广告特征,训练数据包括广告素材。
可选地,该模型的偏差优化装置,还包括参数优化模块,用于:获取第一模型的输出层输出的第二推广预测结果,第二推广预测结果包括对不同位置的广告的点击预测率和转化预测率中的至少一种;利用第二推广预测结果和实际检测值确定损失值,并利用损失值调整第一模型的参数,直至第一模型的预测偏差小于第二偏差阈值,第二偏差阈值小于第一偏差阈值。
根据本申请实施例的另一方面,本申请提供了一种电子设备,如图5所示,包括存储器501、处理器503、通信接口505及通信总线507,存储器501中存储有可在处理器503上运行的计算机程序,存储器501、处理器503通过通信接口505和通信总线507进行通信,处理器503执行计算机程序时实现上述方法的步骤。
上述电子设备中的存储器、处理器通过通信总线和通信接口进行通信。所述通信总线可以是外设部件互连标准(Peripheral Component Interconnect,简称PCI)总线或扩展工业标准结构(Extended Industry Standard Architecture,简称EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。
存储器可以包括随机存取存储器(Random Access Memory,简称RAM),也可以包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processing,简称DSP)、专用集成电路(Application SpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
根据本申请实施例的又一方面还提供了一种具有处理器可执行的非易失的程序代码的计算机可读介质。
可选地,在本申请实施例中,计算机可读介质被设置为存储用于所述处理器执行以下步骤的程序代码:
将第一模型对目标维度的推广媒体数据进行预测产生的偏差特征输入第二模型,以获取第二模型对目标维度的推广媒体数据进行价值评估得到的第一推广预测结果,第二模型中隐含层的数量小于第一模型中隐含层的数量,偏差特征用于表示第一模型对目标维度的推广媒体数据的预测偏差大于或等于第一偏差阈值;
在使用训练数据对第一模型进行训练时,将第一推广预测结果与第一模型中的目标隐含层的输出进行拼接后继续训练,以使得第一模型最终输出的第二推广预测结果中对目标维度的推广媒体数据的预测偏差小于第一偏差阈值。
可选地,本实施例中的具体示例可以参考上述实施例中所描述的示例,本实施例在此不再赘述。
本申请实施例在具体实现时,可以参阅上述各个实施例,具有相应的技术效果。
可以理解的是,本文描述的这些实施例可以用硬件、软件、固件、中间件、微码或其组合来实现。对于硬件实现,处理单元可以实现在一个或多个专用集成电路(ApplicationSpecific Integrated Circuits,ASIC)、数字信号处理器(Digital Signal Processing,DSP)、数字信号处理设备(DSP Device,DSPD)、可编程逻辑设备(Programmable LogicDevice,PLD)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、通用处理器、控制器、微控制器、微处理器、用于执行本申请所述功能的其它电子单元或其组合中。
对于软件实现,可通过执行本文所述功能的单元来实现本文所述的技术。软件代码可存储在存储器中并通过处理器执行。存储器可以在处理器中或在处理器外部实现。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本申请的具体实施方式,使本领域技术人员能够理解或实现本申请。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所申请的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种模型的偏差优化方法,其特征在于,包括:
将第一模型对目标维度的推广媒体数据进行预测产生的偏差特征输入第二模型,以获取所述第二模型对所述目标维度的推广媒体数据进行价值评估得到的第一推广预测结果,其中,所述第二模型中隐含层的数量小于所述第一模型中隐含层的数量,所述偏差特征用于表示所述第一模型对所述目标维度的推广媒体数据的预测偏差大于或等于第一偏差阈值;
在使用训练数据对所述第一模型进行训练时,将所述第一推广预测结果与所述第一模型中的目标隐含层的输出进行拼接后继续训练,以使得所述第一模型最终输出的第二推广预测结果中对所述目标维度的推广媒体数据的预测偏差小于所述第一偏差阈值。
2.根据权利要求1所述的方法,其特征在于,将所述偏差特征输入第二模型,以获取所述第二模型对所述目标维度的推广媒体数据进行价值评估得到的第一推广预测结果包括:
将所述偏差特征转换为第一特征向量,其中,所述第一特征向量为对所述偏差特征离散化得到的;
初始化所述第二模型中各网络层中的权重参数,并将所述第一特征向量输入所述第二模型,其中,所述权重参数与所述第一特征向量相对应;
获取所述第二模型的输出层输出的所述第一推广预测结果。
3.根据权利要求1所述的方法,其特征在于,在使用训练数据对所述第一模型进行训练时,将所述第一推广预测结果与所述第一模型中的目标隐含层的输出进行拼接后继续训练包括:
在使用训练数据继续对所述第一模型进行训练时,提取所述第一模型的最后一层隐含层的输出向量作为中间向量;
将所述第一推广预测结果与所述中间向量拼接为一个向量,并将拼接向量输入所述第一模型的输出层。
4.根据权利要求3所述的方法,其特征在于,使用训练数据对所述第一模型进行训练包括:
提取所述训练数据的特征,并将所述训练数据的特征转换为特征向量后拼接为第二特征向量,其中,所述训练数据包括所述目标维度的推广媒体数据,所述训练数据的特征向量是由所述训练数据的特征映射得到的;
将所述第二特征向量输入所述第一模型,以在所述第一模型中利用多层隐含层逐层提取所述训练数据的高阶特征进行价值评估。
5.根据权利要求1所述的方法,其特征在于,将第一模型对目标维度的推广媒体数据进行预测产生的偏差特征输入第二模型之前,所述方法还包括按照如下方式获取所述偏差特征:
将推广媒体数据输入所述第一模型,以获取所述第一模型对所述推广媒体数据进行价值评估得到的第三推广预测结果;
利用所述第三推广预测结果确定所述偏差特征,其中,所述推广媒体数据包括所述目标维度的推广媒体数据。
6.根据权利要求5所述的方法,其特征在于,利用所述第三推广预测结果确定所述偏差特征包括:
获取各个维度的所述推广媒体数据的实际推广结果;
确定每个维度的所述第三推广预测结果与所述实际推广结果的差值;
将所述差值与所述实际推广结果的比值作为所述预测偏差;
在所述预测偏差大于或等于所述第一偏差阈值的情况下,将所述预测偏差对应的所述目标维度作为所述偏差特征。
7.根据权利要求3所述的方法,其特征在于,将拼接向量输入所述第一模型的输出层之后,所述方法还包括:
获取所述第一模型的输出层输出的所述第二推广预测结果,其中,所述第二推广预测结果包括对不同位置的广告的点击预测率和转化预测率中的至少一种;
利用所述第二推广预测结果和实际检测值确定损失值,并利用所述损失值调整所述第一模型的参数,直至所述第一模型的预测偏差小于第二偏差阈值,其中,所述第二偏差阈值小于所述第一偏差阈值。
8.一种模型的偏差优化装置,其特征在于,包括:
偏差学习模块,用于将第一模型对目标维度的推广媒体数据进行预测产生的偏差特征输入第二模型,以获取所述第二模型对所述目标维度的推广媒体数据进行价值评估得到的第一推广预测结果,其中,所述第二模型中隐含层的数量小于所述第一模型中隐含层的数量,所述偏差特征用于表示所述第一模型对所述目标维度的推广媒体数据的预测偏差大于或等于第一偏差阈值;
预测偏差修正模块,用于在使用训练数据对所述第一模型进行训练时,将所述第一推广预测结果与所述第一模型中的目标隐含层的输出进行拼接后继续训练,以使得所述第一模型最终输出的第二推广预测结果中对所述目标维度的推广媒体数据的预测偏差小于所述第一偏差阈值。
9.一种电子设备,包括存储器、处理器、通信接口及通信总线,所述存储器中存储有可在所述处理器上运行的计算机程序,所述存储器、所述处理器通过所述通信总线和所述通信接口进行通信,其特征在于,所述处理器执行所述计算机程序时实现上述权利要求1至7任一项所述的方法的步骤。
10.一种具有处理器可执行的非易失的程序代码的计算机可读介质,其特征在于,所述程序代码使所述处理器执行所述权利要求1至7任一所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110355124.1A CN112950291B (zh) | 2021-03-31 | 2021-03-31 | 模型的偏差优化方法、装置、设备及计算机可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110355124.1A CN112950291B (zh) | 2021-03-31 | 2021-03-31 | 模型的偏差优化方法、装置、设备及计算机可读介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112950291A true CN112950291A (zh) | 2021-06-11 |
CN112950291B CN112950291B (zh) | 2023-07-21 |
Family
ID=76231983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110355124.1A Active CN112950291B (zh) | 2021-03-31 | 2021-03-31 | 模型的偏差优化方法、装置、设备及计算机可读介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112950291B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113673532A (zh) * | 2021-10-21 | 2021-11-19 | 北京科技大学 | 量化模型的优化方法及装置 |
CN115130621A (zh) * | 2022-08-31 | 2022-09-30 | 支付宝(杭州)信息技术有限公司 | 一种模型训练方法、装置、存储介质及电子设备 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109196527A (zh) * | 2016-04-13 | 2019-01-11 | 谷歌有限责任公司 | 广度和深度机器学习模型 |
CN109345302A (zh) * | 2018-09-27 | 2019-02-15 | 腾讯科技(深圳)有限公司 | 机器学习模型训练方法、装置、存储介质和计算机设备 |
US20190066112A1 (en) * | 2014-08-08 | 2019-02-28 | Brighterion, Inc. | Artificial intelligence fraud management solution |
CN109960759A (zh) * | 2019-03-22 | 2019-07-02 | 中山大学 | 基于深度神经网络的推荐***点击率预测方法 |
CN110796499A (zh) * | 2019-11-06 | 2020-02-14 | 中山大学 | 一种广告转化率预估模型及其训练方法 |
US20200074325A1 (en) * | 2018-08-29 | 2020-03-05 | National Chiao Tung University | Systems and Methods for Creating an Optimal Prediction Model and Obtaining Optimal Prediction Results Based on Machine Learning |
US20200125640A1 (en) * | 2018-10-17 | 2020-04-23 | Fujitsu Limited | User-friendly explanation production using generative adversarial networks |
CN111582587A (zh) * | 2020-05-11 | 2020-08-25 | 深圳赋乐科技有限公司 | 一种视频舆情的预测方法及预测*** |
CN111860986A (zh) * | 2020-07-07 | 2020-10-30 | 北京明略昭辉科技有限公司 | 一种预测模型的训练方法、广告点击预测方法及装置 |
WO2021022521A1 (zh) * | 2019-08-07 | 2021-02-11 | 华为技术有限公司 | 数据处理的方法、训练神经网络模型的方法及设备 |
-
2021
- 2021-03-31 CN CN202110355124.1A patent/CN112950291B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190066112A1 (en) * | 2014-08-08 | 2019-02-28 | Brighterion, Inc. | Artificial intelligence fraud management solution |
CN109196527A (zh) * | 2016-04-13 | 2019-01-11 | 谷歌有限责任公司 | 广度和深度机器学习模型 |
US20200074325A1 (en) * | 2018-08-29 | 2020-03-05 | National Chiao Tung University | Systems and Methods for Creating an Optimal Prediction Model and Obtaining Optimal Prediction Results Based on Machine Learning |
CN109345302A (zh) * | 2018-09-27 | 2019-02-15 | 腾讯科技(深圳)有限公司 | 机器学习模型训练方法、装置、存储介质和计算机设备 |
US20200125640A1 (en) * | 2018-10-17 | 2020-04-23 | Fujitsu Limited | User-friendly explanation production using generative adversarial networks |
CN109960759A (zh) * | 2019-03-22 | 2019-07-02 | 中山大学 | 基于深度神经网络的推荐***点击率预测方法 |
WO2021022521A1 (zh) * | 2019-08-07 | 2021-02-11 | 华为技术有限公司 | 数据处理的方法、训练神经网络模型的方法及设备 |
CN110796499A (zh) * | 2019-11-06 | 2020-02-14 | 中山大学 | 一种广告转化率预估模型及其训练方法 |
CN111582587A (zh) * | 2020-05-11 | 2020-08-25 | 深圳赋乐科技有限公司 | 一种视频舆情的预测方法及预测*** |
CN111860986A (zh) * | 2020-07-07 | 2020-10-30 | 北京明略昭辉科技有限公司 | 一种预测模型的训练方法、广告点击预测方法及装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113673532A (zh) * | 2021-10-21 | 2021-11-19 | 北京科技大学 | 量化模型的优化方法及装置 |
CN115130621A (zh) * | 2022-08-31 | 2022-09-30 | 支付宝(杭州)信息技术有限公司 | 一种模型训练方法、装置、存储介质及电子设备 |
CN115130621B (zh) * | 2022-08-31 | 2022-12-27 | 支付宝(杭州)信息技术有限公司 | 一种模型训练方法、装置、存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112950291B (zh) | 2023-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107145940B (zh) | 压缩的递归神经网络模型 | |
WO2022199504A1 (zh) | 内容识别方法、装置、计算机设备和存储介质 | |
US20230102337A1 (en) | Method and apparatus for training recommendation model, computer device, and storage medium | |
CN110377740B (zh) | 情感极性分析方法、装置、电子设备及存储介质 | |
US11520899B2 (en) | System and method for machine learning architecture with adversarial attack defense | |
CN112035743B (zh) | 数据推荐方法、装置、计算机设备以及存储介质 | |
US11868738B2 (en) | Method and apparatus for generating natural language description information | |
CN112487827B (zh) | 问题回答方法及电子设备、存储装置 | |
CN112950291A (zh) | 模型的偏差优化方法、装置、设备及计算机可读介质 | |
CN112288042A (zh) | 行为预测***的更新方法及装置、存储介质和计算设备 | |
US11822590B2 (en) | Method and system for detection of misinformation | |
CN113204655B (zh) | 多媒体信息的推荐方法、相关装置及计算机存储介质 | |
CN116645668B (zh) | 图像生成方法、装置、设备以及存储介质 | |
WO2023184226A1 (zh) | 一种物品推荐方法、物品知识图谱、模型训练方法及装置 | |
CN114511576A (zh) | 尺度自适应特征增强深度神经网络的图像分割方法与*** | |
CN114281976A (zh) | 一种模型训练方法、装置、电子设备及存储介质 | |
CN115984874A (zh) | 文本生成方法、装置、电子设备及存储介质 | |
CN115018549A (zh) | 广告文案生成方法及其装置、设备、介质、产品 | |
WO2023029350A1 (zh) | 基于点击行为预测的信息推送方法及装置 | |
CN117576264A (zh) | 图像生成方法、装置、设备及介质 | |
CN115099854A (zh) | 广告文案创作方法及其装置、设备、介质、产品 | |
CN113761910A (zh) | 一种融合情感特征的评论文本细粒度情感分析方法 | |
CN111008667A (zh) | 一种特征提取方法、装置及电子设备 | |
CN114493674A (zh) | 一种广告点击率预测模型及方法 | |
CN111178535B (zh) | 实现自动机器学习的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |