CN117194966A - 对象分类模型的训练方法和相关装置 - Google Patents
对象分类模型的训练方法和相关装置 Download PDFInfo
- Publication number
- CN117194966A CN117194966A CN202210589182.5A CN202210589182A CN117194966A CN 117194966 A CN117194966 A CN 117194966A CN 202210589182 A CN202210589182 A CN 202210589182A CN 117194966 A CN117194966 A CN 117194966A
- Authority
- CN
- China
- Prior art keywords
- sample
- sample set
- positive
- objects
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 136
- 238000012549 training Methods 0.000 title claims abstract description 135
- 238000013145 classification model Methods 0.000 title claims abstract description 118
- 238000003062 neural network model Methods 0.000 claims abstract description 97
- 230000008569 process Effects 0.000 claims abstract description 56
- 238000006243 chemical reaction Methods 0.000 claims description 57
- 239000002245 particle Substances 0.000 claims description 54
- 238000004422 calculation algorithm Methods 0.000 claims description 37
- 239000013598 vector Substances 0.000 claims description 36
- 238000005457 optimization Methods 0.000 claims description 30
- 238000003860 storage Methods 0.000 claims description 21
- 230000002159 abnormal effect Effects 0.000 claims description 14
- 230000006399 behavior Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 6
- 230000003993 interaction Effects 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 abstract description 28
- 230000000694 effects Effects 0.000 abstract description 19
- 238000013473 artificial intelligence Methods 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 21
- 238000011176 pooling Methods 0.000 description 15
- 238000013527 convolutional neural network Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 14
- 238000009826 distribution Methods 0.000 description 12
- 238000001514 detection method Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 5
- 210000002569 neuron Anatomy 0.000 description 5
- 230000002776 aggregation Effects 0.000 description 4
- 238000004220 aggregation Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000006116 polymerization reaction Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000007596 consolidation process Methods 0.000 description 2
- 230000008602 contraction Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000000746 purification Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开对象分类模型的训练方法和相关装置,可用于云技术、人工智能、智慧交通、辅助驾驶等场景,获取包括第一正例样本集和未标注样本集的样本对象数据集。从第一正例样本集中去除中间样本得到第二正例样本集,将中间样本添加至未标注样本集得到原始待标注样本集。根据构建的样本对象数据集中样本对象的对象特征,在第二正例样本集和原始待标注样本集上训练神经网络模型得到对象分类模型。在训练对象分类模型的过程中,利用训练得到的神经网络模型对原始待标注样本集中的样本对象进行分类,直到原始待标注样本集中每个样本对象具有分类标签,从而平衡了正负例样本,确保原始待标注样本集中样本对象的分类准确率,提高了信息推荐的业务效果。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种对象分类模型的训练方法和相关装置。
背景技术
在各类产品的运营过程中,需要对产品进行宣传推广,从而给产品持续性引入新用户。一般来说,应该尽量选择可能对该产品感兴趣的用户,来作为与该产品相关的信息的投放对象,以提高推广效益。
为此,需要对用户意愿进行识别,以判断出可能对产品感兴趣的用户作为投放对象。在目前的相关技术中,虽然可以通过训练对象分类模型,利用训练得到的对象分类模型来识别对产品可能感兴趣的用户,进而向这些用户推荐信息。
但是相关技术提供的对象分类模型,对于用户是否是对产品感兴趣的用户的识别准确率不是很高,降低了信息推荐的业务效果。
发明内容
为了解决上述技术问题,本申请提供了一种对象分类模型的训练方法和相关装置,有效地平衡了初始正负例样本,使其在分类过程中具有更好地泛化性,确保了原始待标注样本集中样本对象的分类准确率,进一步提高后续信息推荐的业务效果。
本申请实施例公开了如下技术方案:
一方面,本申请实施例提供一种对象分类模型的训练方法,所述方法包括:
获取针对目标产品的样本对象数据集,所述样本对象数据集中包括第一正例样本集和未标注样本集,所述第一正例样本集中的样本对象具有正例标签,所述正例标签是一种分类标签,所述正例标签用于标记样本对象具有针对所述目标产品执行转换操作的意愿,所述未标注样本集中的样本对象不具有分类标签,所述分类标签用于标记样本对象是否具有针对目标产品执行转换操作的意愿;
构建所述样本对象数据集中样本对象的对象特征;
从所述第一正例样本集中选择多个样本对象作为中间样本,并从所述第一正例样本集中去除所述中间样本得到第二正例样本集,以及将所述中间样本添加至所述未标注样本集得到原始待标注样本集;
根据所述对象特征,在所述第二正例样本集和所述原始待标注样本集上训练神经网络模型,得到所述对象分类模型;
在训练所述神经网络模型以得到所述对象分类模型的过程中,利用训练过程中得到的神经网络模型对所述原始待标注样本集中的样本对象进行分类,直到所述原始待标注样本集中每个样本对象具有分类标签,得到目标正例集、目标负例集和所述对象分类模型。
一方面,本申请实施例提供一种对象分类模型的训练方法,所述装置包括获取单元、构建单元、确定单元和训练单元:
所述获取单元,用于获取针对目标产品的样本对象数据集,所述样本对象数据集中包括第一正例样本集和未标注样本集,所述第一正例样本集中的样本对象具有正例标签,所述正例标签是一种分类标签,所述正例标签用于标记样本对象具有针对所述目标产品执行转换操作的意愿,所述未标注样本集中的样本对象不具有分类标签,所述分类标签用于标记样本对象是否具有针对目标产品执行转换操作的意愿;
所述构建单元,用于构建所述样本对象数据集中样本对象的对象特征;
所述确定单元,用于从所述第一正例样本集中选择多个样本对象作为中间样本,并从所述第一正例样本集中去除所述中间样本得到第二正例样本集,以及将所述中间样本添加至所述未标注样本集得到原始待标注样本集;
所述训练单元,用于根据所述对象特征,在所述第二正例样本集和所述原始待标注样本集上训练神经网络模型,得到所述对象分类模型;
在训练所述神经网络模型以得到所述对象分类模型的过程中,所述训练单元用于利用训练过程中得到的神经网络模型对所述原始待标注样本集中的样本对象进行分类,直到所述原始待标注样本集中每个样本对象具有分类标签,得到目标正例集、目标负例集和所述对象分类模型。
一方面,本申请实施例提供一种计算机设备,所述计算机设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行前述任一方面所述的方法。
一方面,本申请实施例提供一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行前述任一方面所述的方法。
一方面,本申请实施例提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现前述任一方面所述的方法。
由上述技术方案可以看出,在训练对象分类模型时,可以获取针对目标产品的样本对象数据集,样本对象数据集中包括第一正例样本集和未标注样本集,第一正例样本集中的样本对象具有正例标签,正例标签用于标记样本对象具有针对目标产品执行转换操作的意愿,未标注样本集中的样本对象不具有分类标签,分类标签用于标记样本对象是否具有针对目标产品执行转换操作的意愿。从第一正例样本集中选择多个样本对象作为中间样本,并从第一正例样本集中去除中间样本得到第二正例样本集,以及将中间样本添加至未标注样本集得到原始待标注样本集。根据构建得到的样本对象数据集中样本对象的对象特征,在第二正例样本集和原始待标注样本集上训练神经网络模型,得到对象分类模型。在训练神经网络模型以得到对象分类模型的过程中,利用训练过程中得到的神经网络模型对原始待标注样本集中的样本对象进行分类,直到原始待标注样本集中每个样本对象具有分类标签,得到目标正例集、目标负例集和对象分类模型。由于中间样本是从第一正例样本集中选出的正例样本,和原始待标注样本集中未知正例样本的行为是一致的,利用中间样本可以可靠地对未知正例样本进行评估,有效地平衡了正负例样本,使其在分类过程中具有更好地泛化性,从而更好地对原始待标注样本集中的样本对象进行分类。并且由于不断更新对象分类模型划分原始待标注样本集中的样本对象,使得无标记样原始待标注样本集中的样本对象本每一次都能在对象分类模型状态最好的情况下被提纯,确保了原始待标注样本集中样本对象的分类准确率,进一步提高后续信息推荐的业务效果。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术成员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种对象分类模型的训练方法的应用场景架构图;
图2为本申请实施例提供的一种对象分类模型的训练方法的流程图;
图3为本申请实施例提供的一种对象分类模型的训练方法的技术方案架构示例图;
图4为本申请实施例提供的一种聚合方式的示例图;
图5为本申请实施例提供的一种ISPYST算法框架的结构图;
图6为本申请实施例提供的一种基于QPSO对神经网络模型进行参数寻优的流程图;
图7为本申请实施例提供的一种量子测量的方法流程图;
图8为本申请实施例提供的一种CNN的网络结构示例图;
图9为本申请实施例提供的一种卷积层的卷积操作示意图;
图10为本申请实施例提供的一种池化层的池化操作示意图;
图11为本申请实施例提供的一种全连接层的结构示意图;
图12为本申请实施例提供的一种基于ISPYST算法和BQPSO训练对象分类模型的方法详细流程图;
图13为本申请实施例提供的一种不同方法的业务效果对比示意图;
图14为本申请实施例提供的一种对象分类模型的训练装置的结构图;
图15为本申请实施例提供的一种终端的结构图;
图16为本申请实施例提供的一种服务器的结构图。
具体实施方式
下面结合附图,对本申请的实施例进行描述。
相关技术中提供的对象分类模型,是基于非深度学习的方法确定的,可以进行对象分类。但是在“预测对象是否具有针对目标产品执行转换操作的意愿”场景中,对象特征较为复杂,对象特征在数据表征上很难显式表达。不适合“预测对象是否具有针对目标产品执行转换操作的意愿”的场景,往往容易形成数据孤岛,业务效果不佳。
另外,由于标注需要耗费大量的人力物力,导致带有分类标签样本对象较少,甚至存在正负样本比例异常和正样本严重偏低问题。
为了解决上述技术问题,本申请实施例提供一种对象分类模型的训练方法和相关装置,从第一正例样本集中选出的正例样本作为中间样本加入到未标注样本集中得到原始待标注样本集,并从第一正例样本集中去除中间样本得到第二正例样本集,从而在第二正例样本集和原始待标注样本集上训练神经网络模型,得到对象分类模型。由于中间样本是从第一正例样本集中选出的正例样本,和原始待标注样本集中未知正例样本的行为是一致的,利用中间样本可以可靠地对未知正例样本进行评估,有效地平衡了正负例样本,使其在分类过程中具有更好地泛化性,从而更好地对原始待标注样本集中的样本对象进行分类。并且由于不断更新对象分类模型划分原始待标注样本集中的样本对象,使得无标记样原始待标注样本集中的样本对象本每一次都能在对象分类模型状态最好的情况下被提纯,确保了原始待标注样本集中样本对象的分类准确率,进一步提高后续信息推荐的业务效果。
本申请实施例可以应用在多种对象分类场景,这里的对象分类主要是用于区分对象是否具有针对目标产品执行转换操作的意愿,以便在后续进行信息推荐的过程中,向具有针对目标产品执行转换操作的意愿的对象推荐目标产品的相关信息,从而提高业务效果,对精细化运营提供直接帮助。其中,转换操作可以是为运营带来收益或者有利效果的操作,对象或者样本对象例如可以是用户。
在不同的场景中,是否具有针对目标产品执行转换操作的意愿可以有所不同,例如在视频会议场景中,目标产品可以是视频会议付费,是否具有针对目标产品执行转换操作的意愿可以是用户是否具有视频会议付费的意愿,即转换操作为付费。其中,视频会议可以使用视频会议软件,该视频会议软件具有300人在线会议、全平台一键接入、音视频智能降噪、美颜、背景虚化、锁定会议、屏幕水印等功能。该视频会议软件还提供实时共享屏幕、支持在线文档协作等;又如在二手车购买场景中,目标产品可以是二手车,是否具有针对目标产品执行转换操作的意愿可以是用户是否具有购买二手车的意愿,即转换操作是购买;再如,在视频观看场景中,目标产品可以是视频,是否具有针对目标产品执行转换操作的意愿可以是用户是否具有观看视频的意愿,即转换操作是观看,等等。
需要说明的是,本申请实施例可以借助于云技术(Cloud Technology)实现,云技术是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。云技术是基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、以及应用技术等的总称,可以组成资源池,按需所用,灵活便利。
例如涉及云技术中的云计算,云计算(cloud computing)是一种计算模式,它将计算任务分布在大量计算机构成的资源池上,使各种应用***能够根据需要获取计算力、存储空间和信息服务。提供资源的网络被称为“云”。“云”中的资源在使用者看来是可以无限扩展的,并且可以随时获取,按需使用,随时扩展,按使用付费。
又如涉及云技术中的大数据,大数据(Big data)是指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。随着云时代的来临,大数据也吸引了越来越多的关注,大数据需要特殊的技术,以有效地处理大量的容忍经过时间内的数据。适用于大数据的技术,包括大规模并行处理数据库、数据挖掘、分布式文件***、分布式数据库、云计算平台、互联网和可扩展的存储***。
本申请实施例例如还可以涉及人工智能,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。例如,可以利用机器学习和深度学习训练对象分类模型。
需要说明的是,在本申请实施例中,对象分类模型的训练方法可以由计算机设备执行,计算机设备可以是终端,也可以是服务器,或者是终端和服务器的组合,本申请实施例对此不作限定。
如图1所示,图1示出了一种对象分类模型的训练方法的应用场景架构图。在该应用场景中以计算机设备是服务器为例,则该应用场景中可以包括服务器101和终端102,服务器101可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式***,还可以是提供云计算服务的云服务器。终端102可以是待识别对象对应的终端,终端102可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能语音交互设备、智能家电、车载终端、飞行器等,但并不局限于此。终端102以及服务器101可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。
本申请实施例提供的方法可应用于各种需要进行对象分类的场景,包括但不限于云技术、人工智能、智慧交通、辅助驾驶等。
在图1所示的应用场景架构图中,服务器101可以用于训练对象分类模型,在完成对象分类模型的训练后,服务器101可以在线使用该对象分类模型进行对象分类,进而根据分类结果进行目标产品的相关信息的推荐。
在训练对象分类模型时,服务器101可以获取针对目标产品的样本对象数据集,其中,目标产品可以是运营提供的、各种待执行转换操作的产品。样本对象数据集中包括第一正例样本集和未标注样本集,第一正例样本集中的样本对象具有正例标签,正例标签用于标记样本对象具有针对目标产品执行转换操作的意愿,正例标签可以是人工预先标记得到的。然而由于标注需要大量人力、物力,故还存在许多未标注的样本对象,即未标注样本集中的样本对象不具有分类标签,分类标签用于标记样本对象是否具有针对目标产品执行转换操作的意愿。
为了得到更多具有分类标签的样本对象以对神经网络模型进行训练,并且尽量保证正负例样本的平衡,服务器101可以从第一正例样本集中选择多个样本对象作为中间样本,并从第一正例样本集中去除中间样本得到第二正例样本集,以及将中间样本添加至未标注样本集得到原始待标注样本集。进而根据构建得到的样本对象数据集中样本对象的对象特征,在第二正例样本集和原始待标注样本集上训练神经网络模型,得到对象分类模型。
在训练神经网络模型以得到对象分类模型的过程中,利用训练过程中得到的神经网络模型对原始待标注样本集中的样本对象进行分类,直到原始待标注样本集中每个样本对象具有分类标签,得到目标正例集、目标负例集和对象分类模型。由于中间样本是从第一正例样本集中选出的正例样本,和原始待标注样本集中未知正例样本的行为是一致的,利用中间样本可以可靠地对未知正例样本进行评估,有效地平衡了初始正负例样本,使其在分类过程中具有更好地泛化性,从而更好地对原始待标注样本集中的样本对象进行分类。并且由于不断更新对象分类模型划分原始待标注样本集中的样本对象,使得无标记样原始待标注样本集中的样本对象本每一次都能在对象分类模型状态最好的情况下被提纯,确保了原始待标注样本集中样本对象的分类准确率,进一步提高后续信息推荐的业务效果。
在完成对象分类模型的训练后,服务器101可以使用该对象分类模型对待识别对象进行分类,从而根据分类结果确定是否向待识别对象推荐目标产品的相关信息。若待识别对象具有针对目标产品执行转换操作的意愿,则可以向待识别对象推荐目标产品的相关信息,例如将目标产品的相关信息发送至待识别对象对应的终端102上进行展示,从而提高相关信息的转换率;若待识别对象不具有针对目标产品执行转换操作的意愿,则无需向待识别对象推荐目标产品的相关信息,从而减少无效推荐,提高业务效果。
需要说明的是,本申请实施例涉及到的与用户相关的数据(例如第一正例样本集、未标注样本集、构建样本对象数据集中样本对象的对象特以及构建对象特征所需的相关数据等)的获取及处理是经过用户授权允许的。
接下来,将以服务器执行对象分类模型的训练方法为例,结合附图对本申请实施例提供的对象分类模型的训练方法进行详细介绍。参见图2,图2示出了一种对象分类模型的训练方法的流程图,所述方法包括:
S201、获取针对目标产品的样本对象数据集,样本对象数据集中包括第一正例样本集和未标注样本集,第一正例样本集中的样本对象具有正例标签,正例标签是一种分类标签,正例标签用于标记样本对象具有针对目标产品执行转换操作的意愿,未标注样本集中的样本对象不具有分类标签,分类标签用于标记样本对象是否具有针对目标产品执行转换操作的意愿。
其中,第一正例样本集可以用P表示,未标注样本集可以用U表示。分类标签可以通过数字、符号等表示,以数字表示为例,例如当分类标签为1时,分类标签可以为正例标签,当分类标签为0时,分类标签可以为负例标签。
本申请实施例提供的对象分类模型的训练方法的技术方案架构可以参见图3所示,主要包括样本创建(例如图3中301所示)、特征构建(例如图3中302所示)、结合隐藏技术和自学习训练的训练框架(例如图3中303所示的ISPYST算法框架),首先对样本创建进行介绍。
在进行样本创建时,可以根据人工标注和业务经验,找出与业务强相关、数据分布正常、对象画像合理的样本对象。其中,与业务强相关可以是基于经验确定出与业务强相关的样本对象(例如用户),例如目标产品是视频会议付费,则可以判断与业务强相关的样本对象(例如用户)可能是上班族,并且工作单位往往是上市大企业。数据分布正常可以是样本对象的多种数据进行比对,分布应该较为合理。例如目标产品是视频会议付费,因为付费用户往往是上市大企业的用户,那么这批用户使用游戏的时长往往比较短。基于此,根据已收集到的正样本对象的玩游戏时长分布,将玩游戏时长较长的正样本对象剔除。对象画像合理可以是指样本对象的基本特征比较合理,例如目标产品是视频会议付费,因为付费用户往往是上市大企业的用户,那么在对象画像上要符合这一先验知识,比如年龄为24-45岁等。
通常情况下,正负样本对象的比例为1:10000,且正样本对象(带有正例标签的样本对象)的数量低于5万,不符合对象分类模型训练的最低要求。为此,在本申请实施利中在训练对象分类模型时,主要使用正样本对象和未标注的样本对象(即不具有分类标签的样本对象),从而结合隐藏技术和自学习训练的训练框架,对未标注的样本对象进行分类,以得到充足、可靠的正例样本对象和负例样本对象(带有负例标签的样本对象,负例标签用于指示样本对象不具有针对目标产品执行转换操作的意愿)。为此,本申请实施例获取针对目标产品的样本对象数据集,样本对象数据集中包括第一正例样本集和未标注样本集。
其中,目标产品可以是运营提供的、各种待执行转换操作的产品,例如可以是视频会议付费、视频软件的会员、某视频、某商品、某广告等等。转换操作可以是为运营带来收益或者有利效果的操作,在不同的场景中,是否具有针对目标产品执行转换操作的意愿可以有所不同。例如在视频会议场景中,目标产品可以是视频会议付费,是否具有针对目标产品执行转换操作的意愿可以是用户是否具有视频会议付费的意愿,即转换操作为付费;又如在二手车购买场景中,目标产品可以是二手车,是否具有针对目标产品执行转换操作的意愿可以是用户是否具有购买二手车的意愿,即转换操作是购买;再如,在视频观看场景中,目标产品可以是视频,是否具有针对目标产品执行转换操作的意愿可以是用户是否具有观看视频的意愿,即转换操作是观看,等等。
在一种可能的实现方式中,获取针对目标产品的样本对象数据集的方式可以是获取针对目标产品的初始种子对象,从初始种子对象中过滤异常种子对象,得到剩余种子对象,进而根据剩余种子对象构建样本对象数据集。
可以理解的是,在本申请实施例中,过滤异常种子对象可以是通过多种方式进行过滤,一种方式是,在基于规则粗召回一批初始种子对象后,然后基于人工筛查的方式进行过滤,最后基于业务逻辑进行验证。
另一种方式是,获取初始种子对象的基础画像。基础画像包括样本对象针对目标产品的一些非隐私及交互数据,比如是否安装与目标产品所属厂家相同的手机管家、是否使用与目标产品所属厂家相同的手机管家骚扰拦截功能等。
再一种可能的实现方式是,计算异常对象检测指标,进而基于异常对象检测指标过滤异常种子对象。在真实业务场景,会存在虚假对象(用户)、电脑操控终端的情况。为了剔除非真实用户对训练对象分类模型的影响,会基于业务经验设置异常对象检测指标,比如用户在与目标产品所属厂家相同的其他产品的流量使用情况、流量产生的时间分布等,进而基于异常对象检测指标过滤异常种子对象。
再一种可能的实现中,基于分布异常定理,过滤异常种子对象。使用“拉依达准则”进行异常值判断标准。具体做法是:假设一组检测数据只含有随机误差,对其进行计算处理得到标准偏差,按一定概率确定一个区间,认为凡超过这个区间的误差,就不属于随机误差而是粗大误差,含有该误差的数据(例如初始种子对象)应予以剔除。
以上四种过滤异常种子对象的方式可以单独使用,也可以结合使用,本申请实施例对此不作限定。
在得到样本对象数据集后,可以将样本对象数据集离线存储,例如可以存储在分布式文件***(The Hadoop Distributed File System,HDFS)中。
S202、构建样本对象数据集中样本对象的对象特征。
然后,服务器构建样本对象数据集中样本对象的对象特征。在一种可能的实现方式中,为了构建出高维特征向量,以提高训练对象分类模型的准确性。服务器在进行对象特征的构建时,可以根据样本对象数据集中样本对象的对象交互行为,构建样本对象数据集中样本对象的基础特征,并根据针对目标产品的业务特性,构建垂直类型特征,进而根据基础特征和垂直类型特征进行特征合并得到对象特征。
在构建基础特征时,服务器可以基于对象交互行为,构建出丰富的对象画像作为基础特征,例如可以包括:对象基础属性、设备基础属性、网络连接属性等。比如:对象基础属性(年龄、性别)、设备基础属性(终端品牌)、网络连接属性(本周连接网络的次数,例如10次)。
在构建垂直类型特征时,垂直类型特征例如可以包括样本对象对特定类型广告的点击率、转化率等。
在服务器根据基础特征和垂直类型特征进行特征合并得到对象特征时,可以先结合时间维度,聚合出不同时间跨度的基础特征和垂直类型特征,然后再对聚合后的基础特征和垂直类型特征进行特征处理,基于特征处理后的基础特征和垂直类型特征进行特征合并得到对象特征(例如图3中302所示)。
结合时间维度,聚合出不同时间跨度的基础特征和垂直类型特征的方式可以选用求和、中位数、标准差三种。例如对样本对象在一段时间内对应的垂直类型特征进行聚合,一段时间例如可以是近半年/近3个月/近1个月/近1周等,选用求和进行聚合的方式可以参见图4所示,在图4中,(a)所标识的图为聚合前的垂直类型特征,(b)所标识的图为聚合后的垂直类型特征,(a)所标识的图与(b)所标识的图中,采用相同填充方式的表示聚合前后相对应的垂直类型特征。例如采用白色填充方式的四个方格(1、2、3、0),进行聚合后得到垂直类型特征的值是1.5;采用左下-右上的斜线填充方式的四个方格(0、3、7、2),进行聚合后得到垂直类型特征的值是3;采用左上-右下的斜线填充方式的四个方格(0、3、0、4),进行聚合后得到垂直类型特征的值是1.75;采用曲线填充方式的四个方格(5、1、0、4),进行聚合后得到垂直类型特征的值是2.5.
对聚合后的基础特征和垂直类型特征进行特征处理的方式可以包括归一化处理得到归一化数值型特征和离散化处理得到离散化非数值型特征等。本申请实施例主要对离散化处理进行介绍。针对不同的特征,离散化处理的方式可能有所不同。离散化处理主要包括以下方式:
独热编码(One-Hot Encoding):又称一位有效编码,其方法是使用N位状态寄存器来对N个状态进行编码,每个状态都有它独立的寄存器位,并且在任意时候,其中只有一位有效。即,只有一位是1,其余都是零值。One-Hot Encoding主要可以针对基础特征中的性别特征、地区特征等等,例如对于样本对象(例如用户)的性别特征,One-Hot Encoding变为:男:(1,0)、女:(0,1);
频数编码(Count Encoding),按照类别出现的次数和频率进行编码。例如对于样本对象(用户)的WiFi兴趣点(Point of Interest,POI)特征,会用Count Encoding来标识样本对象和这个POI的兴趣程度。比如用户当周去了“美食-中国菜-粤菜”这个POI共3次。
合并编码(Consolidation Encoding),Consolidation Encoding是指某些特征对应的变量下有多个取值,可以将其归纳成同一个信息。比如××操作***的终端的***版本特征的多个取值里包括“4.2”、“4.4”和“5.0”三个,基于经验可以将这三个值归纳为“低版本××***”。
将处理后的基础特征和垂直类型特征进行特征合并得到对象特征、并离线存储在HDFS中,便于后续流程的快速访问。对于样本对象数据集中每一个样本对象,输入到神经网络模型的对象特征是一个N*1的数值型向量,比如(1,0,31,4,0.2,9.3,8.8,…,0,0,1,2,34)。
通过上述方法,可以产出高维特征向量,从而得到包括更加丰富信息的对象特征,以提高训练对象分类模型的准确性。
S203、从第一正例样本集中选择多个样本对象作为中间样本,并从第一正例样本集中去除中间样本得到第二正例样本集,以及将中间样本添加至未标注样本集得到原始待标注样本集。
在本申请实施例中,收集大量不具有分类标签的样本对象相对容易,而获取大量具有分类标签的样本对象则要困难得多,自训练算法是半监督学习中研究较多的一种算法,该算法可以利用少量具有分类标签的样本对象训练分类器(也可以称为对象分类模型,可以用C表示),然后用该对象分类模型预测不具有分类标签的样本对象,并将高置信度结果加入到具有分类标签的样本对象所在集合中,不断迭代直至所有不具有分类标签的样本对象被划分完成。这一过程实际就是分类器使用自身的预测结果来提升自己。
在本申请实施例中,为了解决正负例样本比例异常和正例样本的数量严重偏低的问题,可以采用结合隐藏技术和自学习训练的训练框架进行神经网络模型的训练。其中,自学习训练可以是正例无标记(Positive and Unlabeled,PU)学习,PU学习是指训练集在仅含正例样本集和未标注样本集的情况下训练分类器的过程。结合隐藏技术和自学习训练的训练框架例如可以是隐藏技术结合半监督自训练的PU学习方法(PU learning methodcombining spy technology and semi-supervised self-training,SPYST),也可以是改进隐藏技术后结合半监督自训练的PU学习方法(An improved spy technique combinedwith semi-supervised self-training for PU learning algorithm,ISPYST),本申请实施例将主要以ISPYST算法框架为例进行介绍。分类器(神经网络模型)例如可以是卷积神经网络(Convolutional Neural Network,CNN)、循环神经网络(Recurrent Neural Network,RNN)等等,本申请将主要以神经网络模型是CNN为例进行介绍。
在结合隐藏技术和自学习训练的训练框架训练神经网络模型以得到对象分类模型时,首先服务器从正例样本集中选择多个样本对象作为中间样本。在选取中间样本时,可以挖掘第一正例样本集的空间分布信息,把握第一正例样本集的空间分布信息后计算第一正例样本集的聚类中心,并根据与聚类中心的距离选择中间样本。通常情况下,根据距离选择与聚类中心之间的距离较近的样本对象作为中间样本(也可以称为隐藏样本,可以用S表示)。具体的,可以从正例样本集中选择多个样本对象作为中间样本的方式可以是确定第一正例样本集的质心向量(即聚类中心),计算第一正例样本集中每个样本对象与质心向量之间的距离,然后根据距离确定中间样本。其中,中间样本与质心向量之间的距离一般比较小,即中间样本为距离质心向量较近的样本对象。
在一种可能的实现方式中,确定第一正例样本集的质心向量的方法可以包括以下步骤:
1、在第一正例样本集P中随机选择一个样本对象作为初始的质心向量u;
2、在P中随机选出t个样本对象作为中间样本;
3、初始化簇Cluster为空集;
4、对于j=1,…,n,计算样本对象Pj和质心向量u之间的距离Dj,计算公式如下:
其中,Pj表示第一正例样本集P中第j个样本对象,u表示质心向量,Dj表示Pj和质心向量u之间的距离;
5、更新Cluster=Cluster∪{Pj};
6、对Cluster中所有样本对象重新计算新的质心向量u,计算公式如下:
其中,P∈Cluster表示P为簇Cluster中的样本对象,作为分母的Cluster表示Cluster中样本对象的数量;
7、重复第2-第5步,直到质心向量u不再发生变化,输出质心向量u。
在计算第一正例样本集中每个样本对象与质心向量之间的距离时,可以通过如下公式进行计算:
其中,d表示第一正例样本集中每个样本对象与质心向量之间的距离,Pj表示第一正例样本集P中第j个样本对象,u表示最终确定的质心向量,n表示第一正例样本集P中样本对象的数量。
需要说明的是,本申请实施例根据距离确定中间样本的目的是确定出距离质心向量较近的样本对象作为中间对象。在这种情况下,根据距离确定中间样本的方式可以包括多种,一种方式可以是根据每个样本对象对应的距离,选择距离小于预设阈值的样本对象作为中间对象。
另一种方式可以是,将每个样本对象对应的距离按照从小到大的顺序排列,进而选取排列在前t个的样本对象作为中间样本。
又一种方式可以是,将每个样本对象对应的距离按照从大到小的顺序排列,进而选取排列在后t个的样本对象作为中间样本。
通过上述方法,可以挖掘出第一正例样本集的空间分布信息,空间分布信息可以体现出第一正例样本集的空间结构,把握第一正例样本集的空间结构后计算第一正例样本集的质心向量,并找出距离质心向量较近的样本对象作为中间样本。从而使得中间样本在空间结构上离质心向量更近,所包含的正例样本的真实信息量也更大,因此更能有效地体现未标记样本集中未知正例的分布情况。
在选取得到中间样本后,可以将中间样本从第一正例样本集中去除,得到第二正例样本集,以及将中间样本添加至未标注样本集得到原始待标注样本集,即第二正例样本集可以表示为P-S,原始待标注样本集可以用U+S。参见图5所示,图5示出了一种ISPYST算法框架的结构图,第二正例样本集P,未标注样本集U,第二正例样本集P-S,原始待标注样本集U+S可以分别参见图5所示。
S204、根据对象特征,在第二正例样本集和原始待标注样本集上训练神经网络模型,得到对象分类模型。
S205、在训练神经网络模型以得到对象分类模型的过程中,利用训练过程中得到的神经网络模型对原始待标注样本集中的样本对象进行分类,直到原始待标注样本集中每个样本对象具有分类标签,得到目标正例集、目标负例集和对象分类模型。
在得到第二正例样本集和原始待标注样本集后,服务器可以根据对象特征,在第二正例样本集和原始待标注样本集上训练神经网络模型,得到对象分类模型。
在训练神经网络模型以得到对象分类模型的过程中,利用训练过程中得到的神经网络模型对原始待标注样本集中的样本对象进行分类,直到原始待标注样本集中每个样本对象具有分类标签,得到目标正例集、目标负例集和对象分类模型。其中,目标正例集可以用RP表示,目标负例集可以用RN表示。
由于中间样本是从第一正例样本集中选出的正例样本,和原始待标注样本集中未知正例样本的行为是一致的,利用中间样本可以可靠地对未知正例样本进行评估,有效地平衡了正负例样本,使其在分类过程中具有更好地泛化性,从而更好地对原始待标注样本集中的样本对象进行分类。并且由于不断更新对象分类模型划分原始待标注样本集中的样本对象,使得无标记样原始待标注样本集中的样本对象本每一次都能在对象分类模型状态最好的情况下被提纯,确保了原始待标注样本集中样本对象的分类准确率。
在一种可能的实现方式中,在训练神经网络模型以得到对象分类模型的过程中,利用训练得到的神经网络模型对原始待标注样本集中的样本对象进行分类,直到原始待标注样本集中每个样本对象具有分类标签,得到目标正例集、目标负例集和对象分类模型的方式可以是利用训练得到的神经网络模型对原始待标注样本集中的样本对象进行分类,得到初始正例集和初始负例集,并将初始正例集作为新的待标注样本集;在第二正例样本集和初始负例集上重新训练神经网络模型;利用训练得到的神经网络模型对新的待标注样本集进行分类,并基于分类结果更新第二正例样本集、新的待标注样本集和初始负例集,重新执行在第二正例样本集和初始负例集上重新训练神经网络模型的步骤,直到新的待标注样本集中每个样本对象具有分类标签,得到目标正例集、目标负例集和对象分类模型。
其中,初始正例集可以用RN表示,初始负例集可以用RP表示。重新赋予第二正例样本集正例标签,赋予RN中的样本对象负例标签,隐藏RP,将RP看做新的待标注样本集,新的待标注样本集可以用U’表示。然后,利用训练得到的神经网络模型对U’进行分类,并基于分类结果更新第二正例样本集P、新的待标注样本集U’和初始负例集RN,重新执行在第二正例样本集和初始负例集上重新训练神经网络模型的步骤,直到新的待标注样本集中每个样本对象具有分类标签,得到目标正例集、目标负例集和对象分类模型(参见图5所示)。
在一种可能的实现方式中,利用训练得到的神经网络模型对原始待标注样本集中的样本对象进行分类,得到初始正例集和初始负例集的方式可以是利用训练得到的神经网络模型对原始待标注样本集中的样本对象进行分类,得到原始待标注样本集中的样本对象属于正例样本的第一后验概率,第一后验概率可以用Pru表示;计算中间样本属于正例样本的第二后验概率,第二后验概率可以用Prs表示;然后根据第二后验概率Prs确定概率阈值,概率阈值可以用theta表示;接着,根据第一后验概率小于概率阈值的样本对象确定初始负例集,以及根据原始待标注样本集和初始负例样本集确定初始正例集。对于原始待标注样本集U={u1,u2,u3……},ui表示原始待标注样本集中第i个样本对象,若ui对应的第一后验概率小于概率阈值,则将其添加至初始负例集中,初始正例集为从原始待标注样本集中去除属于初始负例样本集的样本对象得到的集合,即RP=U-RN。
在一种可能的实现方式中,利用训练得到的神经网络模型对新的待标注样本集进行分类,并基于分类结果更新第二正例样本集、新的待标注样本集和初始负例集的方式可以是利用训练得到的神经网络模型对新的待标注样本集进行分类,得到新的待标注样本集中样本对象所属类别的后验概率最大值,后验概率最大值作为分类结果;将新的待标注样本集中样本对象所属类别的后验概率最大值按照从大到小的顺序进行排列;选取后验概率最大值排序在前f位的样本对象;根据前f位的样本对象及对应的分类标签更新第二正例样本集、新的待标注样本集和初始负例集。
其中,后验概率最大值可以表示为Pr,将新的待标注样本集中样本对象所属类别的后验概率最大值按照从大到小的顺序进行排列,后验概率最大值Pr越大,表示其置信度越高,故选取后验概率最大值排序在前f位的样本对象,并将前f位的样本对象及对应的分类标签更新第二正例样本集、新的待标注样本集和初始负例集。通常情况下,新的待标注样本集U’中需要减去挑选出的f个样本对象,以更新新的待标注样本集。
通过选取前f位的样本对象,由于前f位的样本对象是高置信度样本,携带更多有效分布信息,利于神经网络模型的重新训练。循环迭代上述过程直至新的待标注样本集中的样本对象被全部划分完成。这也就达到了对隐藏技术的粗糙分类结果进行精细化提纯的目的,从而得出了分类效率更高的PU学习框架。
以上介绍了SPYST算法框架具体实现方法,SPYST算法框架的核心作用是对未标注样本集进行自训练提纯,提取更多可靠的高质量正例样本,降低正负例样本倾斜比例,提高正例样本的绝对量级。
在得到完成对象分类模型的训练后,服务器可以使用该对象分类模型对待识别对象进行分类,从而根据分类结果确定是否向待识别对象推荐目标产品的相关信息。具体的,服务器可以获取待识别对象,构建待识别对象的目标对象特征,进而根据目标对象特征,通过对象分类模型确定待识别对象的分类标签,分类标签可以作为分类结果,分类标签用于指示待识别对象是否具有针对目标产品执行转换操作的意愿。
若分类标签指示待识别对象具有针对目标产品执行转换操作的意愿,则可以向待识别对象对应的终端推荐目标产品的相关信息,例如将目标产品的相关信息发送至待识别对象对应的终端上进行展示,从而提高相关信息的转换率;若分类标签指示待识别对象不具有针对目标产品执行转换操作的意愿,则无需向待识别对象推荐目标产品的相关信息,从而减少无效推荐,提高业务效果。
由上述技术方案可以看出,在训练对象分类模型时,可以获取针对目标产品的样本对象数据集,样本对象数据集中包括第一正例样本集和未标注样本集,第一正例样本集中的样本对象具有正例标签,正例标签用于标记样本对象具有针对目标产品执行转换操作的意愿,未标注样本集中的样本对象不具有分类标签,分类标签用于标记样本对象是否具有针对目标产品执行转换操作的意愿。从第一正例样本集中选择多个样本对象作为中间样本,并从第一正例样本集中去除中间样本得到第二正例样本集,以及将中间样本添加至未标注样本集得到原始待标注样本集。根据构建得到的样本对象数据集中样本对象的对象特征,在第二正例样本集和原始待标注样本集上训练神经网络模型,得到对象分类模型。在训练神经网络模型以得到对象分类模型的过程中,利用训练过程中得到的神经网络模型对原始待标注样本集中的样本对象进行分类,直到原始待标注样本集中每个样本对象具有分类标签,得到目标正例集、目标负例集和对象分类模型。由于中间样本是从第一正例样本集中选出的正例样本,和原始待标注样本集中未知正例样本的行为是一致的,利用中间样本可以可靠地对未知正例样本进行评估,有效地平衡了正负例样本,使其在分类过程中具有更好地泛化性,从而更好地对原始待标注样本集中的样本对象进行分类。并且由于不断更新对象分类模型划分原始待标注样本集中的样本对象,使得无标记样原始待标注样本集中的样本对象本每一次都能在对象分类模型状态最好的情况下被提纯,确保了原始待标注样本集中样本对象的分类准确率,进一步提高后续信息推荐的业务效果。
在本申请实施例中,不仅采用结合隐藏技术和自学习训练的训练框架进行神经网络模型的训练,以提高训练得到的对象分类模型的准确率和识别效率,还可以在训练过程中,针对神经网络模型的参数寻优过程进行改进,从而提高对象分类模型的训练效率,并进一步提高训练得到的对象分类模型的准确率和识别效率。
在这种情况下,根据对象特征,在第二正例样本集和原始待标注样本集上训练神经网络模型的方式可以是根据对象特征,在第二正例样本集和原始待标注样本集上对神经网络模型的参数进行更新,得到最优网络参数;根据最优网络参数,确定对象分类模型。
在一种可能的实现方式中,可以采用粒子群优化(Particle SwarmOptimization,PSO)算法进行参数寻优。在此基础上,还可以采用基于PSO的改进算法进行参数寻优,改进的粒子群优化算法例如可以包括量子粒子群优化算法(Quantum-behavedParticle SwarmOptimization,QPSO)、二进制编码的量子粒子群优化算法(Quantum-Bahaved Particle Swarm Optimizationwith Binary Encoding,BQPSO)等。本申请实施例主要对基于改进的粒子群优化算法进行参数寻优进行介绍,基于改进的粒子群优化算法进行参数寻优参见图3中304所示。若神经网络模型包括多个网络层,根据对象特征,在第二正例样本集和原始待标注样本集上对神经网络模型的参数进行更新,得到最优网络参数的方式可以是对多个网络层的参数分别进行编码,得到多维粒子向量;利用改进的量子粒子群优化算法,确定多维粒子向量对应的种群的全局最优位置;在利用改进的量子粒子群优化算法,确定多维粒子向量对应的种群的全局最优位置的过程中,若达到改进的量子粒子群优化算法的终止条件,将达到终止条件时种群的全局最优位置解码输出,得到最优网络参数。
接下来,本申请实施例将主要以改进的量子粒子群优化算法是QPSO和BQPSO为例,对上述最优网络参数的确定方式进行详细介绍。首先介绍基于QPSO确定最优网络参数。
基于QPSO对神经网络模型进行参数寻优的流程图可以参见图6所示:
S601、在QPSO中初始化量子粒子位置信息,选出全局最优位置。
S602、每个量子粒子将按照分段压缩编码策略解码成一个神经网络模型结构。
S603、确定神经网络模型结构是否有效,若是执行S604,若否执行S607.
S604、计算适应度值。
S605、将更新个体最佳位置Pi和全局最佳位置Pg。
S606、确定是否达到最大进化周期,若是,则结束流程,输出Pg;若否,则返回S602。
S607、进行量子测量。
当粒子解码产生无效的神经网络结构时,量子粒子可以被重复测量以获得更多新的位置信息,进而解码产生更多新的CNN结构。量子测量的方法可以参见图7所示,所述方法包括:
S701、计算当前粒子的特征长度和吸引子。
其中,特征长度和吸引子的计算公式可以如下所示:
其中,mbest为群体平均最优位置,M为种群规模,Pid为种群中第d个维度的第i个粒子,d在1到D之间取值,D为粒子向量的维度,和u是[0,1]区间内的随机小数,β是一个正常数,叫做收缩膨胀系数,aid表示局部吸引子,Pid和Pgd分别代表第i个粒子的局部最优解和全局的最优解在第d维度上的位置信息。
S702、随机产生一个小数。
通常情况下,可以在区间[0,1]随机产生一个小数。
S703、产生新的个体。
在本申请实施例中,可以根据如下公式,产生新的个体:
其中,xid(t+1)表示产生的用于第t+1次迭代的新的个体,xid(t)表示当前粒子,即第t次迭代的个体,u表示随机产生的小数,mbestd表示在第d个维度的群体平均最优位置。
S704、按照分段压缩编码策略将个位的位置信息解码成一个神经网络结构。
S705、确定神经网络模型结构是否有效,若是,则执行S706,若否,则返回S702。
S706、将该个体作为下一代个体。
如果达到最大迭代次数,则结束流程。
接下来介绍基于BQPSO确定最优网络参数,包括以下步骤:
a)用二进制位串的形式初始化群体中的每个粒子xi,使得Pi=xi;
其中,xi={xi1,xi2,……,xiD},xid表示第i个粒子在第d个维度的位置信息。
b)计算群体平均最优位置mbest的值,计算流程如下所示:
将P1、P2、……、PM作为输入,mbest作为输出,通过如下代码计算mbest:
设置sum的初始值为0;
sum=sum+Pi[j]
avg=sum/M;
当avg>0.5,mbest[j]=1;当avg<0.5,mbest[j]=0;当avg=0.5,mbest[j]=0或1;
其中,j为1到l之间的取值,l为每个粒子的长度,Pi为种群中第i个粒子,i为1到M之间的取值,M为种群规模。
c)根据适应度函数计算群体中每一个粒子的适应度值,并与前次的粒子最优值比较,如果f(xi)>f(Pi),则Pi=xi,反之不更新。适应度函数可以包括很多,在本申请实施例中,可以选择Schaffer函数和RA-Rastrigin函数两种适应度值的计算方式。
d)更新群体中全局最优粒子pg;
e)根据算法计算局部吸引子aid的值;
aid是根据Pid和Pgd计算得到的,Pid和Pgd分别代表第i个粒子的局部最优解和全局的最优解在第d维度上的位置信息。
f)根据公式计算prd的值,prd表示在第d个维度的概率,公式如下所示:
其中,xid表示第i个粒子在第d个维度的位置信息,mbestd表示在第d个维度的群体平均最优位置,u表示随机产生的0到1之间的小数,β是一个正常数,叫做收缩膨胀系数,ld表示xid的长度,dH()表示计算函数。
g)根据算法计算xid的值,并连接生成xi;
xid是根据aid和prd计算得到的。
h)重复上述步骤,直到满足改进的量子粒子群优化算法的终止条件。
在上述基于改进的粒子群优化算法进行参数寻优的过程中,首先需要对神经网络模型的参数进行编码,以神经网络模型是CNN为例,CNN的网络结构可以参见图8所示,包括多个网络层,分别是一个输入层(Input)、两个卷积层(Convolution)、两个池化层(Pool)和两个全连接层(包括隐藏层和输出层)组成。每一个网络层的配置都有所差异:步长、核大小和特征图是卷积层配置的重要参数;步长、核大小和池类型是池化层的主要属性;神经元数量是全连接层唯一的属性。下面,简要地介绍卷积层、池化层和全连接层。
CNN由一个输入层(Input)、两个卷积层(Convolution)、两个池化层(Pool)和两个全连接层组成。输出层的神经元个数等于分类问题中的类的个数。
卷积层的卷积操作示意图如图9所示:使用大小为3*3的卷积核,从输入的图像矩阵左上角阴影位置开始进行卷积操作,该次操作得到的结果是3。由于步长设置为1,阴影位置还能向左或向右移动,最终得到9个结果组成的3*3特征图(Feature Map)
池化层的池化操作示意图如图10所示:从某种程度讲,卷积层越多,提取到的特征越全面。但过多的卷积核操作会使提取到的特征维度过大,所需的计算资源过大,因此需要进行池化操作以降低特征维度。池化操作有池化核和步长两个参数,常见的池化操作有均值池化和最大池化。前者对应核大小的区域取特征矩阵的均值,后者是对应区域取特征矩阵的最大值。
全连接层如图11所示:第一层负责输入数据(例如x1、x2、x3),最后一层负责输出结果(例如y),其它各层叫做隐藏层。隐藏层的每一个神经元都与上一层的神经元相连,因此称之为全连接层。
以改进的粒子群优化算法是BQPSO为例,对CNN的参数进行编码的方法如下:
二进制编码策略:
编码过程是在BQPSO算法的D维离散搜索空间中实现,其中每个粒子中的D个决策变量均是固定长度的二进制序列,如表1所示:
表1
ID | 参数1 | 参数2 | …… |
每个二进制序列分别承载一个网络层的配置,包括其ID和各参数。
CNN各网络层类型的参数,经二进制编码后如下所示:
卷积层编码策略如表2所示:
表2
ID | 核大小 | 特征图 | 步长 | 总计 | |
取值范围 | 0或7 | [1,8] | [1,128] | [1,4] | |
二进制位数 | 3 | 3 | 7 | 2 | 15 |
例子 | 0(000) | 2(001) | 16(0001111) | 2(01) | 000001000111101 |
池化层编码策略如表3所示:
表3
ID | 核大小 | 步长 | 类型 | 总计 | |
取值范围 | 1或6 | [1,4] | [1,4] | [1,2] | |
二进制位数 | 3 | 2 | 2 | 1 | 8 |
例子 | 0(001) | 2(01) | 2(01) | 2(1) | 00101011XXXXXXX |
全连接层编码策略如表4所示:
表4
ID | 神经元数目 | 总计 | |
取值范围 | 2或5 | [1,2048] | |
二进制位数 | 3 | 11 | 14 |
例子 | 2(010) | 1024(01111111111) | 010011111111111X |
空白层编码策略如表5所示:
表5
ID | 总计 | |
取值范围 | 3或4 | |
二进制位数 | 3 | 3 |
例子 | 3(011) | 011XXXXXXXXXXXX |
基于上述不同网络层的编码策略以及CNN的网络结构,可以完成对CNN的参数进行编码。
基于二进制的量子粒子群优化算法,对神经网络模型进行参数寻优,以获得更好的模型效果。经过参数调优的神经网络模型,对全体样本进行预测,可以提高预测准确性。
需要说明的是,本申请实施例提供的基于ISPYST算法和BQPSO训练对象分类模型的方法详细流程图可以参见图12所示,包括:
S1201、获取针对目标产品的初始种子对象。
S1202、从初始种子对象中过滤异常种子对象,得到剩余种子对象。
S1203、根据剩余种子对象构建样本对象数据集。
S1204、构建基础特征。
S1205、构建垂直类型特征。
S1206、根据基础特征和垂直类型特征进行特征合并得到对象特征。
S1207、从第一正例样本集中选择多个样本对象作为中间样本。
S1208、从第一正例样本集中去除中间样本得到第二正例样本集,以及将中间样本添加至未标注样本集得到原始待标注样本集。
S1209、利用训练得到的神经网络模型对原始待标注样本集中的样本对象进行分类,得到初始正例集和初始负例集。
S1210、将初始正例集作为新的待标注样本集。
S1211、在第二正例样本集和初始负例集上重新训练神经网络模型。
S1212、利用训练得到的神经网络模型对新的待标注样本集进行分类,并基于分类结果更新第二正例样本集、新的待标注样本集和初始负例集。
S1213、用二进制位串的形式初始化群体中的每个粒子xi,使得Pi=xi。
S1214、计算群体平均最优位置mbest的值。
S1215、根据适应度函数计算群体中每一个粒子的适应度值,并与前次的粒子最优值比较,如果f(xi)>f(Pi),则Pi=xi。
S1216、更新群体中全局最优粒子pg。
S1217、根据算法计算局部吸引子aid的值。
S1218、计算prd的值。
S1219、根据算法计算xid的值,并连接生成xi。
S1220、重复上述步骤,直到满足改进的量子粒子群优化算法的终止条件。
下面对不同方法的业务效果对比分析,不同方法包括相关技术1,相关技术2和本申请实施例提供的方法,相关技术1可以是基于人工经验确定数据规则,即产品运营基于业务经验,设定人工识别的规则,比如“年纪为35-40岁、生活水平为高”的对象,认为有处于“视频会议付费高意愿对象”的概率更高,相关技术2可以是基于非深度学习的方法,不同方法的业务效果对比示意图如图13所示:
在图13可以看出,从广告点击率来看本申请实施例提供的方法相比其它技术,平均提高182.7%;从广告转化率来看,本申请实施例提供的方法相比其它技术,平均提高178.41%,即业务效果得到显著的提高。
需要说明的是,本申请在上述各方面提供的实现方式的基础上,还可以进行进一步组合以提供更多实现方式。
基于图2对应实施例提供的对象分类模型的训练方法,本申请实施例还提供一种对象分类模型的训练装置1400。参见图14,所述对象分类模型的训练装置1400包括获取单元1401、构建单元1402、确定单元1403和训练单元1404:
所述获取单元1401,用于获取针对目标产品的样本对象数据集,所述样本对象数据集中包括第一正例样本集和未标注样本集,所述第一正例样本集中的样本对象具有正例标签,所述正例标签是一种分类标签,所述正例标签用于标记样本对象具有针对所述目标产品执行转换操作的意愿,所述未标注样本集中的样本对象不具有分类标签,所述分类标签用于标记样本对象是否具有针对目标产品执行转换操作的意愿;
所述构建单元1402,用于构建所述样本对象数据集中样本对象的对象特征;
所述确定单元1403,用于从所述第一正例样本集中选择多个样本对象作为中间样本,并从所述第一正例样本集中去除所述中间样本得到第二正例样本集,以及将所述中间样本添加至所述未标注样本集得到原始待标注样本集;
所述训练单元1404,用于根据所述对象特征,在所述第二正例样本集和所述原始待标注样本集上训练神经网络模型,得到所述对象分类模型;
在训练所述神经网络模型以得到所述对象分类模型的过程中,所述训练单元1404用于利用训练过程中得到的神经网络模型对所述原始待标注样本集中的样本对象进行分类,直到所述原始待标注样本集中每个样本对象具有分类标签,得到目标正例集、目标负例集和所述对象分类模型。
在一种可能的实现方式中,所述确定单元1403,具体用于;
确定所述第一正例样本集的质心向量;
计算所述第一正例样本集中每个样本对象与所述质心向量之间的距离;
根据所述距离确定所述中间样本。
在一种可能的实现方式中,所述确定单元1403,具体用于:
将每个样本对象对应的距离按照从小到大的顺序排列;
选取排列在前t个的样本对象作为所述中间样本。
在一种可能的实现方式中,所述训练单元1404,具体用于:
利用训练得到的神经网络模型对所述原始待标注样本集中的样本对象进行分类,得到初始正例集和初始负例集,并将所述初始正例集作为新的待标注样本集;
在所述第二正例样本集和所述初始负例集上重新训练所述神经网络模型;
利用训练得到的神经网络模型对所述新的待标注样本集进行分类,并基于分类结果更新所述第二正例样本集、所述新的待标注样本集和所述初始负例集,重新执行在所述第二正例样本集和所述初始负例集上重新训练所述神经网络模型的步骤,直到所述新的待标注样本集中每个样本对象具有分类标签,得到所述目标正例集、所述目标负例集和所述对象分类模型。
在一种可能的实现方式中,所述训练单元1404,具体用于:
利用训练得到的神经网络模型对所述原始待标注样本集中的样本对象进行分类,得到所述原始待标注样本集中的样本对象属于正例样本的第一后验概率;
计算所述中间样本属于正例样本的第二后验概率;
根据所述第二后验概率确定概率阈值;
根据所述第一后验概率小于所述概率阈值的样本对象确定所述初始负例集,以及根据所述原始待标注样本集和所述初始负例样本集确定所述初始正例集。
在一种可能的实现方式中,所述训练单元1404,具体用于:
利用训练得到的神经网络模型对所述新的待标注样本集进行分类,得到所述新的待标注样本集中样本对象所属类别的后验概率最大值,所述后验概率最大值作为所述分类结果;
将所述新的待标注样本集中样本对象所属类别的后验概率最大值按照从大到小的顺序进行排列;
选取后验概率最大值排序在前f位的样本对象;
根据前f位的样本对象及对应的分类标签更新所述第二正例样本集、所述新的待标注样本集和所述初始负例集。
在一种可能的实现方式中,所述训练单元1404,具体用于;
根据所述对象特征,在所述第二正例样本集和所述原始待标注样本集上对所述神经网络模型的参数进行更新,得到最优网络参数;
根据所述最优网络参数,确定所述对象分类模型。
在一种可能的实现方式中,所述神经网络模型包括多个网络层,所述训练单元1404,具体用于:
对所述多个网络层的参数分别进行编码,得到多维粒子向量;
利用改进的粒子群优化算法,确定所述多维粒子向量对应的种群的全局最优位置;
在利用改进的粒子群优化算法,确定所述多维粒子向量对应的种群的全局最优位置的过程中,若达到所述改进的量子粒子群优化算法的终止条件,将达到所述终止条件时所述种群的全局最优位置解码输出,得到所述最优网络参数。
在一种可能的实现方式中,所述获取单元1401,具体用于:
获取针对所述目标产品的初始种子对象;
从所述初始种子对象中过滤异常种子对象,得到剩余种子对象;
根据所述剩余种子对象构建所述样本对象数据集。
在一种可能的实现方式中,所述构建单元1402,具体用于:
根据所述样本对象数据集中样本对象的对象交互行为,构建所述样本对象数据集中样本对象的基础特征;
根据针对所述目标产品的业务特性,构建垂直类型特征;
根据所述基础特征和所述垂直类型特征进行特征合并得到所述对象特征。
在一种可能的实现方式中,所述装置还包括分类单元:
所述获取单元1401,还用于获取待识别对象;
所述构建单元1402,还用于构建所述待识别对象的目标对象特征;
所述分类单元,用于根据所述目标对象特征,通过所述对象分类模型确定所述待识别对象的分类标签,所述分类标签用于指示所述待识别对象是否具有针对目标产品执行转换操作的意愿。
在一种可能的实现方式中,所述装置还包括推荐单元:
若所述分类标签指示所述待识别对象具有针对目标产品执行转换操作的意愿,所述推荐单元,用于向所述待识别对象对应的终端推荐所述目标产品的相关信息。
由上述技术方案可以看出,在训练对象分类模型时,可以获取针对目标产品的样本对象数据集,样本对象数据集中包括第一正例样本集和未标注样本集,第一正例样本集中的样本对象具有正例标签,正例标签用于标记样本对象具有针对目标产品执行转换操作的意愿,未标注样本集中的样本对象不具有分类标签,分类标签用于标记样本对象是否具有针对目标产品执行转换操作的意愿。从第一正例样本集中选择多个样本对象作为中间样本,并从第一正例样本集中去除中间样本得到第二正例样本集,以及将中间样本添加至未标注样本集得到原始待标注样本集。根据构建得到的样本对象数据集中样本对象的对象特征,在第二正例样本集和原始待标注样本集上训练神经网络模型,得到对象分类模型。在训练神经网络模型以得到对象分类模型的过程中,利用训练过程中得到的神经网络模型对原始待标注样本集中的样本对象进行分类,直到原始待标注样本集中每个样本对象具有分类标签,得到目标正例集、目标负例集和对象分类模型。由于中间样本是从第一正例样本集中选出的正例样本,和原始待标注样本集中未知正例样本的行为是一致的,利用中间样本可以可靠地对未知正例样本进行评估,有效地平衡了正负例样本,使其在分类过程中具有更好地泛化性,从而更好地对原始待标注样本集中的样本对象进行分类。并且由于不断更新对象分类模型划分原始待标注样本集中的样本对象,使得无标记样原始待标注样本集中的样本对象本每一次都能在对象分类模型状态最好的情况下被提纯,确保了原始待标注样本集中样本对象的分类准确率,进一步提高后续信息推荐的业务效果。
本申请实施例还提供了一种计算机设备,该计算机设备可以执行图数据的处理方法。该计算机设备例如可以是终端,以终端为智能手机为例:
图15示出的是与本申请实施例提供的智能手机的部分结构的框图。参考图15,智能手机包括:射频(英文全称:Radio Frequency,英文缩写:RF)电路1510、存储器1520、输入单元1530、显示单元1540、传感器1550、音频电路1560、无线保真(英文缩写:WiFi)模块1570、处理器1580、以及电源1590等部件。输入单元1530可包括触控面板1531以及其他输入设备1532,显示单元1540可包括显示面板1541,音频电路1560可以包括扬声器1561和传声器1562。可以理解的是,图15中示出的智能手机结构并不构成对智能手机的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
存储器1520可用于存储软件程序以及模块,处理器1580通过运行存储在存储器1520的软件程序以及模块,从而执行智能手机的各种功能应用以及数据处理。存储器1520可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据智能手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器1520可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器1580是智能手机的控制中心,利用各种接口和线路连接整个智能手机的各个部分,通过运行或执行存储在存储器1520内的软件程序和/或模块,以及调用存储在存储器1520内的数据,执行智能手机的各种功能和处理数据。可选的,处理器1580可包括一个或多个处理单元;优选的,处理器1580可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作***、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1580中。
在本实施例中,由智能手机中的处理器1580执行的步骤可以基于图15所示的结构实现。
本申请实施例的计算机设备还可以是服务器,请参见图16所示,图16为本申请实施例提供的服务器1600的结构图,服务器1600可因配置或性能不同而产生比较大的差异,可以包括一个或一个以***处理器(Central Processing Units,简称CPU)1622(例如,一个或一个以上处理器)和存储器1632,一个或一个以上存储应用程序1642或数据1644的存储介质1630(例如一个或一个以上海量存储设备)。其中,存储器1632和存储介质1630可以是短暂存储或持久存储。存储在存储介质1630的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器1622可以设置为与存储介质1630通信,在服务器1600上执行存储介质1630中的一系列指令操作。
服务器1600还可以包括一个或一个以上电源1626,一个或一个以上有线或无线网络接口1650,一个或一个以上输入输出接口1658,和/或,一个或一个以上操作***1641,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
在本实施例中,服务器1600中的中央处理器1622可以执行以下步骤:
获取针对目标产品的样本对象数据集,所述样本对象数据集中包括第一正例样本集和未标注样本集,所述第一正例样本集中的样本对象具有正例标签,所述正例标签是一种分类标签,所述正例标签用于标记样本对象具有针对所述目标产品执行转换操作的意愿,所述未标注样本集中的样本对象不具有分类标签,所述分类标签用于标记样本对象是否具有针对目标产品执行转换操作的意愿;
构建所述样本对象数据集中样本对象的对象特征;
从所述第一正例样本集中选择多个样本对象作为中间样本,并从所述第一正例样本集中去除所述中间样本得到第二正例样本集,以及将所述中间样本添加至所述未标注样本集得到原始待标注样本集;
根据所述对象特征,在所述第二正例样本集和所述原始待标注样本集上训练神经网络模型,得到所述对象分类模型;
在训练所述神经网络模型以得到所述对象分类模型的过程中,利用训练过程中得到的神经网络模型对所述原始待标注样本集中的样本对象进行分类,直到所述原始待标注样本集中每个样本对象具有分类标签,得到目标正例集、目标负例集和所述对象分类模型。
根据本申请的一个方面,提供了一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行前述各个实施例所述的对象分类模型的训练方法。
根据本申请的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述实施例各种可选实现方式中提供的方法。
上述各个附图对应的流程或结构的描述各有侧重,某个流程或结构中没有详述的部分,可以参见其他流程或结构的相关描述。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本申请所提供的几个实施例中,应该理解到,所揭露的***,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术成员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (16)
1.一种对象分类模型的训练方法,其特征在于,所述方法包括:
获取针对目标产品的样本对象数据集,所述样本对象数据集中包括第一正例样本集和未标注样本集,所述第一正例样本集中的样本对象具有正例标签,所述正例标签是一种分类标签,所述正例标签用于标记样本对象具有针对所述目标产品执行转换操作的意愿,所述未标注样本集中的样本对象不具有分类标签,所述分类标签用于标记样本对象是否具有针对目标产品执行转换操作的意愿;
构建所述样本对象数据集中样本对象的对象特征;
从所述第一正例样本集中选择多个样本对象作为中间样本,并从所述第一正例样本集中去除所述中间样本得到第二正例样本集,以及将所述中间样本添加至所述未标注样本集得到原始待标注样本集;
根据所述对象特征,在所述第二正例样本集和所述原始待标注样本集上训练神经网络模型,得到所述对象分类模型;
在训练所述神经网络模型以得到所述对象分类模型的过程中,利用训练过程中得到的神经网络模型对所述原始待标注样本集中的样本对象进行分类,直到所述原始待标注样本集中每个样本对象具有分类标签,得到目标正例集、目标负例集和所述对象分类模型。
2.根据权利要求1所述的方法,其特征在于,所述从所述正例样本集中选择多个样本对象作为中间样本,包括;
确定所述第一正例样本集的质心向量;
计算所述第一正例样本集中每个样本对象与所述质心向量之间的距离;
根据所述距离确定所述中间样本。
3.根据权利要求2所述的方法,其特征在于,所述根据所述距离确定所述中间样本,包括:
将每个样本对象对应的距离按照从小到大的顺序排列;
选取排列在前t个的样本对象作为所述中间样本。
4.根据权利要求1所述的方法,其特征在于,在训练所述神经网络模型以得到所述对象分类模型的过程中,利用训练得到的神经网络模型对所述原始待标注样本集中的样本对象进行分类,直到所述原始待标注样本集中每个样本对象具有分类标签,得到目标正例集、目标负例集和对象分类模型,包括:
利用训练得到的神经网络模型对所述原始待标注样本集中的样本对象进行分类,得到初始正例集和初始负例集,并将所述初始正例集作为新的待标注样本集;
在所述第二正例样本集和所述初始负例集上重新训练所述神经网络模型;
利用训练得到的神经网络模型对所述新的待标注样本集进行分类,并基于分类结果更新所述第二正例样本集、所述新的待标注样本集和所述初始负例集,重新执行在所述第二正例样本集和所述初始负例集上重新训练所述神经网络模型的步骤,直到所述新的待标注样本集中每个样本对象具有分类标签,得到所述目标正例集、所述目标负例集和所述对象分类模型。
5.根据权利要求4所述的方法,其特征在于,所述利用训练得到的神经网络模型对所述原始待标注样本集中的样本对象进行分类,得到初始正例集和初始负例集,包括:
利用训练得到的神经网络模型对所述原始待标注样本集中的样本对象进行分类,得到所述原始待标注样本集中的样本对象属于正例样本的第一后验概率;
计算所述中间样本属于正例样本的第二后验概率;
根据所述第二后验概率确定概率阈值;
根据所述第一后验概率小于所述概率阈值的样本对象确定所述初始负例集,以及根据所述原始待标注样本集和所述初始负例样本集确定所述初始正例集。
6.根据权利要求4所述的方法,其特征在于,所述利用训练得到的神经网络模型对所述新的待标注样本集进行分类,并基于分类结果更新所述第二正例样本集、所述新的待标注样本集和所述初始负例集,包括:
利用训练得到的神经网络模型对所述新的待标注样本集进行分类,得到所述新的待标注样本集中样本对象所属类别的后验概率最大值,所述后验概率最大值作为所述分类结果;
将所述新的待标注样本集中样本对象所属类别的后验概率最大值按照从大到小的顺序进行排列;
选取后验概率最大值排序在前f位的样本对象;
根据前f位的样本对象及对应的分类标签更新所述第二正例样本集、所述新的待标注样本集和所述初始负例集。
7.根据权利要求1所述的方法,其特征在于,所述根据所述对象特征,在所述第二正例样本集和所述原始待标注样本集上训练神经网络模型,包括;
根据所述对象特征,在所述第二正例样本集和所述原始待标注样本集上对所述神经网络模型的参数进行更新,得到最优网络参数;
根据所述最优网络参数,确定所述对象分类模型。
8.根据权利要求1所述的方法,其特征在于,所述神经网络模型包括多个网络层,所述根据所述对象特征,在所述第二正例样本集和所述原始待标注样本集上对所述神经网络模型的参数进行更新,得到最优网络参数,包括:
对所述多个网络层的参数分别进行编码,得到多维粒子向量;
利用改进的粒子群优化算法,确定所述多维粒子向量对应的种群的全局最优位置;
在利用改进的粒子群优化算法,确定所述多维粒子向量对应的种群的全局最优位置的过程中,若达到所述改进的量子粒子群优化算法的终止条件,将达到所述终止条件时所述种群的全局最优位置解码输出,得到所述最优网络参数。
9.根据权利要求1-8任一项所述的方法,其特征在于,所述获取针对目标产品的样本对象数据集,包括:
获取针对所述目标产品的初始种子对象;
从所述初始种子对象中过滤异常种子对象,得到剩余种子对象;
根据所述剩余种子对象构建所述样本对象数据集。
10.根据权利要求1-8任一项所述的方法,其特征在于,所述构建所述样本对象数据集中样本对象的对象特征,包括:
根据所述样本对象数据集中样本对象的对象交互行为,构建所述样本对象数据集中样本对象的基础特征;
根据针对所述目标产品的业务特性,构建垂直类型特征;
根据所述基础特征和所述垂直类型特征进行特征合并得到所述对象特征。
11.根据权利要求1-8任一项所述的方法,其特征在于,所述方法还包括:
获取待识别对象;
构建所述待识别对象的目标对象特征;
根据所述目标对象特征,通过所述对象分类模型确定所述待识别对象的分类标签,所述分类标签用于指示所述待识别对象是否具有针对目标产品执行转换操作的意愿。
12.根据权利要求11所述的方法,其特征在于,所述方法还包括:
若所述分类标签指示所述待识别对象具有针对目标产品执行转换操作的意愿,向所述待识别对象对应的终端推荐所述目标产品的相关信息。
13.一种对象分类模型的训练方法,其特征在于,所述装置包括获取单元、构建单元、确定单元和训练单元:
所述获取单元,用于获取针对目标产品的样本对象数据集,所述样本对象数据集中包括第一正例样本集和未标注样本集,所述第一正例样本集中的样本对象具有正例标签,所述正例标签是一种分类标签,所述正例标签用于标记样本对象具有针对所述目标产品执行转换操作的意愿,所述未标注样本集中的样本对象不具有分类标签,所述分类标签用于标记样本对象是否具有针对目标产品执行转换操作的意愿;
所述构建单元,用于构建所述样本对象数据集中样本对象的对象特征;
所述确定单元,用于从所述第一正例样本集中选择多个样本对象作为中间样本,并从所述第一正例样本集中去除所述中间样本得到第二正例样本集,以及将所述中间样本添加至所述未标注样本集得到原始待标注样本集;
所述训练单元,用于根据所述对象特征,在所述第二正例样本集和所述原始待标注样本集上训练神经网络模型,得到所述对象分类模型;
在训练所述神经网络模型以得到所述对象分类模型的过程中,所述训练单元用于利用训练过程中得到的神经网络模型对所述原始待标注样本集中的样本对象进行分类,直到所述原始待标注样本集中每个样本对象具有分类标签,得到目标正例集、目标负例集和所述对象分类模型。
14.一种计算机设备,其特征在于,所述计算机设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行权利要求1-12任一项所述的方法。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储程序代码,所述程序代码当被处理器执行时使所述处理器执行权利要求1-12任一项所述的方法。
16.一种计算机程序产品,包括计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1-12任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210589182.5A CN117194966A (zh) | 2022-05-27 | 2022-05-27 | 对象分类模型的训练方法和相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210589182.5A CN117194966A (zh) | 2022-05-27 | 2022-05-27 | 对象分类模型的训练方法和相关装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117194966A true CN117194966A (zh) | 2023-12-08 |
Family
ID=88989249
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210589182.5A Pending CN117194966A (zh) | 2022-05-27 | 2022-05-27 | 对象分类模型的训练方法和相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117194966A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117649567A (zh) * | 2024-01-30 | 2024-03-05 | 腾讯科技(深圳)有限公司 | 数据标注方法、装置、计算机设备和存储介质 |
-
2022
- 2022-05-27 CN CN202210589182.5A patent/CN117194966A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117649567A (zh) * | 2024-01-30 | 2024-03-05 | 腾讯科技(深圳)有限公司 | 数据标注方法、装置、计算机设备和存储介质 |
CN117649567B (zh) * | 2024-01-30 | 2024-04-09 | 腾讯科技(深圳)有限公司 | 数据标注方法、装置、计算机设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113822494B (zh) | 风险预测方法、装置、设备及存储介质 | |
CN112667714B (zh) | 基于深度学习的用户画像优化方法、装置及存储介质 | |
Zhao et al. | Intuitionistic fuzzy set approach to multi-objective evolutionary clustering with multiple spatial information for image segmentation | |
WO2021139415A1 (zh) | 数据处理方法、装置、计算机可读存储介质及电子设备 | |
CN111967971B (zh) | 银行客户数据处理方法及装置 | |
CN113569895A (zh) | 图像处理模型训练方法、处理方法、装置、设备及介质 | |
CN113033090A (zh) | 推送模型训练方法、数据推送方法、装置及存储介质 | |
CN113255908A (zh) | 基于事件序列进行业务预测的方法、神经网络模型和装置 | |
CN113656699B (zh) | 用户特征向量确定方法、相关设备及介质 | |
CN117194966A (zh) | 对象分类模型的训练方法和相关装置 | |
CN113569955A (zh) | 一种模型训练方法、用户画像生成方法、装置及设备 | |
CN113642727A (zh) | 神经网络模型的训练方法和多媒体信息的处理方法、装置 | |
CN117635238A (zh) | 一种商品推荐方法、装置、设备及存储介质 | |
CN108629381A (zh) | 基于大数据的人群筛选方法及终端设备 | |
CN111667307A (zh) | 一种理财产品销量的预测方法及装置 | |
CN117093849A (zh) | 一种基于自动生成模型的数字矩阵特征分析方法 | |
CN113297385B (zh) | 基于改进GraphRNN的多标签文本分类***及分类方法 | |
Kuo et al. | Integration of particle swarm optimization and immune genetic algorithm-based dynamic clustering for customer clustering | |
CN111984842B (zh) | 银行客户数据处理方法及装置 | |
CN113822291A (zh) | 一种图像处理方法、装置、设备及存储介质 | |
CN111967973A (zh) | 银行客户数据处理方法及装置 | |
CN118170993B (zh) | 一种基于对比学习与场因子分解的教育资源推荐方法 | |
Yang et al. | Generative face inpainting hashing for occluded face retrieval | |
US11989243B2 (en) | Ranking similar users based on values and personal journeys | |
CN117252665B (zh) | 业务推荐方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |