CN113536140B - 一种基于小样本数据的实时推荐方法和*** - Google Patents

一种基于小样本数据的实时推荐方法和*** Download PDF

Info

Publication number
CN113536140B
CN113536140B CN202111083715.4A CN202111083715A CN113536140B CN 113536140 B CN113536140 B CN 113536140B CN 202111083715 A CN202111083715 A CN 202111083715A CN 113536140 B CN113536140 B CN 113536140B
Authority
CN
China
Prior art keywords
data
prediction model
time
real
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111083715.4A
Other languages
English (en)
Other versions
CN113536140A (zh
Inventor
张凯
马乐乐
杨光远
朱国立
王子璇
张梅玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Leadthing Information Science And Technology Co ltd
Original Assignee
Guangdong Zhongju Artificial Intelligence Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Zhongju Artificial Intelligence Technology Co ltd filed Critical Guangdong Zhongju Artificial Intelligence Technology Co ltd
Priority to CN202111083715.4A priority Critical patent/CN113536140B/zh
Publication of CN113536140A publication Critical patent/CN113536140A/zh
Application granted granted Critical
Publication of CN113536140B publication Critical patent/CN113536140B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Educational Administration (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Educational Technology (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及一种基于小样本数据的实时推荐方法,所述方法提供实时学习,实时的范围t可以根据不同应用环境进行调整。具体来说,本发明基于历史时间段t−1数据训练的模型,加入当前时间段t收集的数据,经过重训练之后对时间段t+1的用户交互进行预测。本发明从样本选取、模型测试到模型使用均利用了样本的时序特征,从而使得训练速度更快,检测精度更高,降低了异常检测误报率。

Description

一种基于小样本数据的实时推荐方法和***
技术领域
本发明涉及用户推荐技术领域,尤其涉及一种基于小样本数据的实时推荐方法和***。
背景技术
随着信息化时代的快速发展,各种互联网产品在人们的日常生活中扮演着越来越重要的角色。例如通讯软件,电子商务平台以及线上教学平台等,可以实现远距离通讯,线上购物和线上学***台的普及,线上教学的重要性越来越明显,它为广大学生提供了更多的学***台,从而使得学生能够提升自身的学***台能够更好的实现因材施教,才会为学生提供最合适的帮助,才能达到共赢的目的。同样,对于一些其他线上推荐***来说,个性化推荐也扮演着重要角色。对于线上推荐平台来说,实现个性化推荐的一个关键挑战在于用户行为的多少。原则上,获取到更多的用户的行为,可以实现更好的推荐。然而,值得注意的是,新用户在短期内产生的行为数据并不充分,若平台无法利用现有数据尽早的对用户实现个性化推荐,那么用户可能会因为体验感太差,在使用某段时间之后因失去耐心而放弃使用,这就使得初期推荐达不到效果,而且起到相反的作用。现有的推荐方法要么为了追求更高的准确性,忽略了用户早期的体验。这种方法会随着时间线的推移展线出其优越的性能,但与此同时也会在早期失去大部分的用户;部分方法在早期就对用户建模,从而实现尽早的个性化推荐,并随着用户行为的增加,使得推荐性能逐步提高。但随着时间推移,该方法在建模时会产生大量的计算,使得后期维护代价过高,无法实现广泛使用。本发明为了解决上述方法的不足,本发明通过对小样本数据建模,解决用户早期行为数据过少,个性化推荐性能较低的问题,从而实现早期的个性化推荐;首先:通过设计适当的时间段,基于记忆神经网络,在历史模型状态的基础上,只需对新加入时间段的数据进行训练,然后融合历史状态和当前状态对模型进行更新,从而对下一个时间段的用户交互进行预测,减少模型重训练的代价的同时也满足了不同***的实时性需求。
发明内容
为了解决现有技术中的上述问题,本发明提出了一种基于小样本数据的实时推荐方法,所述方法包含:
步骤S1: 数据分割,具体为:对原始序列数据根据时间段t进行分割,分割后的数据元素中每个元素D中包含的数据均在一个时间跨度范围内;将数据元素分割成元素重叠的K元组,其中:K为预测模型中记忆神经元的个数;两个相邻的K元组中存在K-1个重叠元素;两个相邻的第ti和ti+1的K元组分别为:(Dti,Dti+1 … Dti+K−1)和(Dti+1,Dti+1 … Dti+K);其中:K值的设置和神经网络模型中神经元的数量相关;
所述K为动态设置的,随着原始序列数据的数量增加K值;
步骤S2:作数据向量化表示;具体的:将元组中的数据元素输入特征空间转化函数f(X)→𝒳,获得一个维度变小的向量表示;
步骤S3:预测模型的初始化;具体的:初始化权重文件,从第1个K元组开始,使用已有的K元组对预测模型进行初始化训练;
步骤S4:预测模型的训练;收集随着时间增长的新时间段的数据,对初始化后的预测模型进行不断的更新学习;实时检测是否需要进行用户推荐,如果是,则进入步骤S5,否则,重复步骤S4;
步骤S5:预测用户交互数据;输入当前时间段的数据,输入预测模型以预测生成下一时间段的数据;
步骤S6,推荐阶段:基于所预测的用户交互数据进行实时推荐。
进一步的,时间段t包含的原始序列数据为S={s1,s2,s3 ,…,sn},si表示为序列数据中第i个元素,n为序列数据的长度。
进一步的,原始序列数据中的每一个元素代表一次交互。
进一步的,原始序列数据采用one-hot编码方式编码。
进一步的,一次交互元素包含m个属性。
进一步的,设置K的初始值为K=3,每次K值更新时在原K值上加上增量值;
作并行分割,设置两个K值,K=K1和K2,分别同时进行基于K1和K2的分割,分割得到的K元组包含K1元组和K2元组,K2比K1大一个增量值;
步骤S1还包括:实时监测原始序列数据的长度n,当所述长度n超过动态长度阈值时,相应的动态更新K值,使得K1=K2;K2=K2+INC;其中K1和K2是更新后的K值;动态长度阈值是随着原始序列数据长度的增加而动态增长的;
在K值被更新后,第一预测模型被换出缓存空间;第二预测模型成为第一预测模型,重新训练基于K2的第二预测模型;基于K2作数据的分割,数据向量化表示以及第二预测模型的初始化和训练;在K值再次被更新后,重复换出更替;
所述步骤S3还包括:将经过初始化训练的第一预测模型和第二预测模型同时加载到推荐***的缓存空间中,当小样本数量达到动态长度阈值时,做两个预测模型的替换;此时,第二预测模型成为第一预测模型,并用于进行推荐,而第一预测模型被换出缓存空间;相应的旧的K1元组被删除。
进一步的,所述预测模型为神经网络模型。
进一步的,所述预测模型为LSTM、或Bi-LSTM神经网络模型。
一种基于小样本数据的实时推荐***,预测模型包括数据表示层、记忆层,全连接层和输出层;数据表示层为对输入的向量化表示进行学习;将向量化表示的特征输入预测模型的数据表示层;
通过预测模型对输入的向量化特征表示进行表示学习;其输出用于作为预测模型的记忆层的输入,对下一时间段的交互进行预测;
记忆层包含K个神经元;每个神经元的输入为K元组中一个元素的向量化表示,每个神经元的输出被输入到全连接层对神经元的输出进行全连接;
输出层用于输出下一时间段的预测数据。
进一步的,根据计算能力上限设置K的上限值。
本发明通过对小样本数据建模,实现早期对未来更好的推荐;具体的有益效果包括:(1)通过记忆神经网络实现模型的增量更新,从而能够支持实现实时的推荐;(2)通过引入加权的或者不加权的全连接层,使得神经网络在预测的时候能够考虑历史数据之间的关联关系,以及调整不同阶段历史的遗忘程度,从而使得学习速度更快,并增强了在小样本数据的早期、中期、后期均能够有较好的预测效果;(3)在模型初始化时代入已经训练完成的权重文件,在借鉴了已有的训练数据的基础上加快了模型的训练速度,避免了其他推荐目标数据属性信息的代入,使得当前推荐目标的小样本数据能够发挥最大的作用;(4)采用并行训练,提前加载的方式,提高了小样本不同阶段的预测效率和推荐效率,模型更换对用户来说是透明的,大大提高了用户体验;(5)设置K值不断增加的双预测模型模式,使得随着数据量逐渐增加,形成推荐准确度螺旋上升并最终形成稳定的预测模型的模型使用方式,更加适合小样本数据的不同阶段。
附图说明
此处所说明的附图是用来提供对本发明的进一步理解,构成本申请的一部分,但并不构成对本发明的不当限定,在附图中:
图1为本发明的一种基于小样本数据的实时推荐方法示意图;
图2为本发明的预测模型结构示意图。
具体实施方式
下面将结合附图以及具体实施例来详细说明本发明,其中的示意性实施例以及说明仅用来解释本发明,但并不作为对本发明的限定。
本发明学习的过程可以看作是一个元学习的实例,因为学习的目标是如何更好地解决任务(即对未来有更好的泛化性能),这比仅仅在固定数据情形下学习一个模型要难的多。此外为了使用户获得更好的体验,本发明同时提供实时学习,实时的范围t可以根据不同应用环境进行调整。具体来说,本发明基于历史时间段t−1数据训练的模型,加入当前时间段t收集的数据,经过重训练之后对时间段t+1的用户交互进行交互。基于元学习的思想,其中每一个时间段的学习都看成是一个任务。同时为了减少计算和存储代价,本发明采用记忆神经网络的思想,只对新数据进行训练,并将训练结果与模型历史状态相结合获取更新之后的状态。
实施例1
如附图1所示,本发明所述的一种基于小样本数据的实时推荐方法,包含如下步骤:
步骤(1),数据分割:根据时间段t设置的范围,对用户数据进行分割,除初始阶段的格式为一个二元组(Dt0,Dt1)外,其余的数据格式均为三元组(Dt−1,Dt ,Dt+1 );
优选的:分割为根据时间长度t进行分割,或者根据包含的数据元素的个数进行分割;
优选的:只有初始阶段的二元组中第一个元素Dt0参与模型训练,其余的三元组数据中第一个元素并不再重新参与训练,它代表的是一种历史状态,即模型上一阶段的状态。
步骤(2),数据向量化表示:对数据用唯一索引进行表示;例如:使用PyTorch自带的embedding方法对其进行向量表示;
步骤(3),将向量化数据表示输入预测模型,对输入数据表示进行学习;
步骤(4),进行模型初始化:即模型的初始状态学习,基于数据(Dt0,Dt1)初始化模型;
步骤(5),模型再训练阶段:基于初始化模型,收集随着时间增长的新时间段的数据(Dt−1,Dt,Dt+1),对初始化模型进行不断的更新学习;实时检测是否需要进行用户推荐时,进入步骤(6),否则重复步骤(5);
如图2所示,对上述步骤(4),(5)作进一步说明。图2中左边模块对应于步骤(4),该模块是初始阶段,即基于用户第一个时间段的交互数据所训练的模型。其中Dt0表示为第一个时间段的数据,Yt1表示模型的输出是对下一个时间段的交互进行预测,W0代表为模型的初始状态;图右模块对应与步骤(5),该模块表示的是在若干时间段内,当加入新时间段的数据Dti∈Dt1:n−1,对新数据进行学习,获取当前的模型状态Wi∈W1:n−1, 历史模型状态为Wj∈W0:n−2, 根据更新原则,对上述两个模型状态进行融合,获取更新之后的模型状态Wi∈W1:n−1。Yti∈ Yt2:n表示为模型的输出对下一个时间段的用户交互的预测。
步骤(6),预测阶段:基于当前时间段t的模型,预测时间段t+1的用户交互;
步骤(7),推荐阶段:基于所预测的用户交互数据进行实时推荐;通过增量数据训练能够实现基于神经网络的实时推荐,提高了推荐效率;
实施例2
下面来具体的介绍,所述基于小样本数据的实时推荐方法,包含如下步骤:
步骤S1: 数据分割,具体为:原始数据是序列数据,即时间段t包含的原始数据为S= {s1,s2,s3,…,sn},si表示为序列数据中第i个元素,n为序列数据的长度。其中,原始数据采用one-hot编码方式编码;每一个元素代表一次交互;一次交互元素包含m个属性,例如:点击,提交等行为属性、名称属性、类型属性等;
对原始数据根据时间段t进行分割,分割后的数据元素中每个元素D中包含的数据均在一个时间跨度范围内,表示为Dt0 ,Dt1…Dti−1 ,Dti ,Dti+1… ;将其表示成元素重叠的K元组,其中:K为预测模型中记忆神经元的个数;两个相邻的K元组中存在K-1个重叠元素;两个相邻ti和ti+1的K元组分别为:(Dti,Dti+1 … Dti+K−1)和(Dti+1,Dti+1 … Dti+K);其中:K值的设置和神经网络模型中神经元的数量相关;
可替换的:按照原始数据个数进行分割时,每个元素D中包含的原始数据个数是相同的;
优选的:K的数量越大训练时间更长;因此本发明提出了动态分割方法,随着小样本的增加,动态增加K的数量,使得最终脱离小样本阶段;
所述K为动态设置的,随着原始序列数据的数量增加K值;设置K的初始值为K=3,每次K值更新时的增量值INC为INC =
Figure 832161DEST_PATH_IMAGE001
;根据计算能力上限设置K的上限值;优选的:设置τ=10;
为了支持小样本推荐的无缝快速衔接,作并行分割,设置两个K值,K=K1和K2,分别同时进行基于K1和K2的分割,分割得到的K元组包含K1元组和K2元组,K2比K1大一个增量值;
所述步骤还包括:实时监测原始序列数据的长度n,当所述长度n超过动态长度阈值时,相应的动态更新K值,使得K1=K2;K2=K2+INC;其中K1和K2是更新后的K值;动态长度阈值是随着原始序列数据长度的增加而动态增长的;
优选的:动态长度阈值的增长幅度逐渐增加;
优选的:在K值被更新后,第一预测模型被换出缓存空间;第二预测模型成为第一预测模型,重新训练基于K2的第二预测模型;基于K2作数据的分割,数据向量化表示以及第二预测模型的初始化和训练;在K值再次被更新后,重复换出更替,通过这样的方式,形成推荐准确度逐渐上升,所需要数据量逐渐增加的螺旋上升趋势;直到最后K到达上限值为止,此时所采用的预测模型不再被重新更新;
步骤S2:作数据向量化表示;具体的:将元组中的数据元素输入特征空间转化函数f(X)→𝒳,获得一个维度变小的向量表示;
one-hot编码虽然简单,但当属性或者元素数目很大时,将会产生一个超大维的数据,不利于计算,本发明one-hot编码进行特征空间转化f(X)→𝒳,获得一个维度变小的向量表示,从而减少需要参与计算和存储的数据量;
步骤S3:预测模型的初始化;具体的:初始化权重文件,从第1个K元组开始,使用已有的K元组对预测模型进行初始化训练;通过初始化来增强预测模型的泛化能力,能够使模型在早期就可以实现较好的个性化推荐;
所述预测模型包括数据表示层、记忆层,全连接层和输出层;数据表示层为对输入的向量化表示进行学习;将向量化表示的特征输入预测模型的数据表示层;
优选的:通过预测模型对输入的向量化特征表示进行表示学习,得到更好的特征表示作为输出。其输出用于作为预测模型的记忆层的输入,对下一时间段的交互进行预测;
记忆层包含K个神经元;每个神经元的输入为K元组中一个元素的向量化表示,每个神经元的输出被输入到全连接层对神经元的输出进行全连接;在记忆、遗忘的同时学习历史信息;优选的:全连接层设置权重输入,所述权重输入为K维向量,将K维度向量中的每个元素分别输入全连接层中的每个神经元,以调整各个时期记忆的遗忘速度;也就是说,全连接层中每个神经元的输入是K+1个;
输出层用于输出下一时间段的预测数据;其输入是全连接层的输出;
本发明通过引入加权的或者不加权的全连接层,使得神经网络在预测的时候能够考虑历史数据之间的关联关系,以及调整不同阶段历史的遗忘程度,从而使得学习速度更快,并增强了在小样本数据的早期、中期、后期均能够有较好的预测效果;
优选的:所述神经元为递归神经元;
优选的:所述预测模型为神经网络模型;
优选的:所述预测模型为LSTM、Bi-LSTM神经网络模型;
优选的:选择已经训练好的预测模型的权重文件做权重文件的初始化;
所述初始化权重文件,具体为:
步骤SA1:获取当前推荐目标的当前目标属性;
优选的:当前目标属性包括:用户年龄、偏好等信息;
步骤SA2:将当前目标属性和权重文件标签匹配,并选择目标和标签匹配程度最高的权重文件作为当前权重文件;
权重文件具有一个或者多个标签;这里目标属性和标签的匹配是指两者相同或者相似;被匹配的标签数量越多匹配程度越高;
步骤SA3:基于当前权重文件进行模型的训练;
在小样本推荐时,由于没有历史可以借鉴,现有技术中存在通过特征匹配获取和当前推荐对象匹配的已经经过训练的预测模型直接使用的方式,小样本对于已经训练形成的预测模型来说微不足道,因此,及时已经存在当前推荐目标的小样本数据,但是这样的方式在初期被代入的当前推荐目标的考虑显得微乎其微;本发明在进行模型初始化时,通过代入已经训练完成的权重文件的方式,在借鉴了已有的训练数据的基础上加快了模型的训练速度,同时因为没有代入具体的数据属性信息,使得当前推荐目标的小样本数据能够发挥最大的作用;
为了实现小样本不同阶段学习能力的提高,本发明采用并行训练,提前加载的方式,提高了小样本不同阶段的预测效率和推荐效率,模型更换对用户来说是透明的,大大提高了用户体验;
从第1个K元组开始,使用已有的K元组对预测模型进行初始化训练;具体为:同时进行两个预测模型的初始化,K元组包含K1元组和K2元组,所述两个预测模型为基于K1元组的第一预测模型和基于K2元组的第二预测模型,其中:K2比K1大一个增量值;从第1个K1元组开始,顺序输入K1元组以对第一预测模型进行初始化;从第1个K2元组开始,顺序输入K2元组以对第一预测模型进行初始化;
优选的:将经过初始化训练的第一预测模型和第二预测模型同时加载到推荐***的缓存空间中,当小样本数量达到动态长度阈值时,做两个预测模型的替换;此时,第二预测模型成为第一预测模型,并用于进行推荐,而第一预测模型被换出缓存空间;相应的就的K1元组被删除;
步骤S4:预测模型的训练;收集随着时间增长的新时间段的数据,对初始化后的预测模型进行不断的更新学习;实时检测是否需要进行用户推荐,如果是,则进入步骤S5,否则,重复步骤S4;
所述对初始化后的预测模型进行不断的更新学习;具体为:将收集到的经处理的新时间段的数据按照顺序输入预测模型进行模型更新训练;这里的训练为增量训练,也就是用新增数据进行训练;
优选的:所述预测模型为记忆神经网络模型,所述记忆神经网络模型将模型历史状态作为待更新的记忆,对其进行选择性遗忘,以及根据新的输入数据在此基础上做新的添加,以此实现模型状态的更新。
本发明中预测模型的训练强调的是模型更新,是能否实现实时推荐中的重要一环,是影响用户体验的重要一环;在进行初始化预测模型后,模型具有简单的预测能力,本发明通过记忆神经网络实现模型的增量更新,从而能够支持实现实时的推荐;
步骤S5:预测用户交互数据;输入当前时间段的数据,输入预测模型以预测生成下一时间段的数据;例如:基于ti刻的数据Dti,和历史数据结合产生最新的K元组,输入K元组,生成下一时间段i+1时间段的数据Dti+1
优选的:采用第一预测模型预测交互数据;
步骤S6,推荐阶段:基于所预测的用户交互数据进行实时推荐;例如:基于Dti+1进行推荐;当然需要先进行数据的解析等操作;
本发明通过增量数据训练能够实现基于神经网络的实时推荐,提高了推荐效率;
软件环境可以分为两类,包括在一个或多个硬件环境上执行的***软件和应用软件。在一个实施例中,在此公开的方法和过程可以实现为***软件、应用软件或它们的组合。***软件可以包括诸如操作***(OS)和信息管理***之类的控制程序,它们指示硬件环境中的一个或多个处理器(例如微处理器)如何运行和处理信息。应用软件可以包括但不限于程序代码、数据结构、固件、驻留软件、微代码,或者可以由处理器读取、分析或执行的任何其它形式的信息或例程。
换言之,应用软件可以实现为程序代码,其以机器可用或计算机可读存储介质的形式嵌入在计算机程序产品中,计算机程序产品提供程序代码以便由机器、计算机或任何指令执行***使用或者与其结合使用。此外,应用软件可以包括一个或多个计算机程序,这些计算机程序在从存储介质加载到本地存储器之后,在***软件之上执行。在客户端-服务器体系结构中,应用软件可以包括客户端软件和服务器软件。例如,在一个实施例中,客户端软件可以在客户端计算***上执行,该客户端计算***不同于并且独立于执行服务器软件的服务器计算***。
软件环境还可以包括浏览器软件以便访问通过本地或远程计算网络提供的数据。进一步,软件环境可以包括用户接口(例如图形用户接口(GUI))以便接收用户命令和数据。有必要重申,上面描述的硬件和软件体系结构和环境用于实例目的。因此,可以在任何类型的***体系结构、功能或逻辑平台或处理环境上实现一个或多个实施例。
以上所述仅是本发明的较佳实施方式,故凡依本发明专利申请范围所述的构造、特征及原理所做的等效变化或修饰,均包括于本发明专利申请范围内。

Claims (8)

1.一种基于小样本数据的实时推荐方法,其特征在于,所述方法包含:
步骤S1: 数据分割,具体为:对原始序列数据根据时间段t进行分割,分割后的数据元素中每个元素D中包含的数据均在一个时间跨度范围内;将数据元素分割成元素重叠的K元组,其中:K为预测模型中记忆神经元的个数;两个相邻的K元组中存在K-1个重叠元素;两个相邻的第ti和ti+1的K元组分别为:(Dti,Dti+1,…,Dti+K−1)和(Dti+1,Dti+1,…,Dti+K);其中:K值的设置和神经网络模型中神经元的数量相关;
所述K为动态设置的,随着原始序列数据的数量增加K值;
步骤S2:作数据向量化表示;具体的:将元组中的数据元素输入特征空间转化函数f(X)→𝒳,获得一个维度变小的向量表示;
步骤S3:预测模型的初始化;具体的:初始化权重文件,从第1个K元组开始,使用已有的K元组对预测模型进行初始化训练;
步骤S4:预测模型的训练;收集随着时间增长的新时间段的数据,对初始化后的预测模型进行不断的更新学习;实时检测是否需要进行用户推荐,如果是,则进入步骤S5,否则,重复步骤S4;
步骤S5:预测用户交互数据;输入当前时间段的数据,输入预测模型以预测生成下一时间段的数据;
步骤S6,推荐阶段:基于所预测的用户交互数据进行实时推荐;
其中:预测模型包括数据表示层、记忆层,全连接层和输出层;数据表示层为对输入的向量化表示进行学习;将向量化表示的特征输入预测模型的数据表示层;
通过预测模型对输入的向量化特征表示进行表示学习;其输出用于作为预测模型的记忆层的输入,对下一时间段的交互进行预测;
记忆层包含K个神经元;每个神经元的输入为K元组中一个元素的向量化表示,每个神经元的输出被输入到全连接层对神经元的输出进行全连接;
输出层用于输出下一时间段的预测数据。
2.根据权利要求1所述的基于小样本数据的实时推荐方法,其特征在于,时间段t包含的原始序列数据为S={s1,s2,s3,…,sn},n为序列数据的长度。
3.根据权利要求2所述的基于小样本数据的实时推荐方法,其特征在于,原始序列数据中的每一个元素代表一次交互。
4.根据权利要求3所述的基于小样本数据的实时推荐方法,其特征在于,原始序列数据采用one-hot编码方式编码。
5.根据权利要求4所述的基于小样本数据的实时推荐方法,其特征在于,一次交互元素包含m个属性。
6.根据权利要求5所述的基于小样本数据的实时推荐方法,其特征在于,
设置K的初始值为K=3,每次K值更新时在原K值上加上增量值;
作并行分割,设置两个K值,K=K1和K2,分别同时进行基于K1和K2的分割,分割得到的K元组包含K1元组和K2元组,K2比K1大一个增量值;
步骤S1还包括:实时监测原始序列数据的长度n,当所述长度n超过动态长度阈值时,相应的动态更新K值,使得K1=K2;K2=K2+INC;其中:K1和K2是更新后的K值;INC是每次K值更新时的增量值;动态长度阈值是随着原始序列数据长度的增加而动态增长的;
在K值被更新后,第一预测模型被换出缓存空间;第二预测模型成为第一预测模型,重新训练基于K2的第二预测模型;基于K2作数据的分割,数据向量化表示以及第二预测模型的初始化和训练;在K值再次被更新后,重复换出更替,
所述步骤S3还包括:将经过初始化训练的第一预测模型和第二预测模型同时加载到推荐***的缓存空间中,当小样本数量达到动态长度阈值时,做两个预测模型的替换;此时,第二预测模型成为第一预测模型,并用于进行推荐,而第一预测模型被换出缓存空间;相应的旧的K1元组被删除。
7.根据权利要求6所述的基于小样本数据的实时推荐方法,其特征在于,所述预测模型为神经网络模型。
8.根据权利要求7所述的基于小样本数据的实时推荐方法,其特征在于,所述预测模型为LSTM、或Bi-LSTM神经网络模型。
CN202111083715.4A 2021-09-16 2021-09-16 一种基于小样本数据的实时推荐方法和*** Active CN113536140B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111083715.4A CN113536140B (zh) 2021-09-16 2021-09-16 一种基于小样本数据的实时推荐方法和***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111083715.4A CN113536140B (zh) 2021-09-16 2021-09-16 一种基于小样本数据的实时推荐方法和***

Publications (2)

Publication Number Publication Date
CN113536140A CN113536140A (zh) 2021-10-22
CN113536140B true CN113536140B (zh) 2022-02-11

Family

ID=78093324

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111083715.4A Active CN113536140B (zh) 2021-09-16 2021-09-16 一种基于小样本数据的实时推荐方法和***

Country Status (1)

Country Link
CN (1) CN113536140B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106874522A (zh) * 2017-03-29 2017-06-20 珠海习悦信息技术有限公司 信息推荐方法、装置、存储介质及处理器
CN108681739A (zh) * 2018-03-26 2018-10-19 安徽师范大学 一种基于用户情感和时间动态的旅游目的地推荐方法
CN112380433A (zh) * 2020-11-13 2021-02-19 中国科学技术大学 面向冷启动用户的推荐元学习方法
CN112749345A (zh) * 2021-02-09 2021-05-04 上海海事大学 一种基于神经网络的k近邻矩阵分解推荐方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090216547A1 (en) * 2008-02-22 2009-08-27 Disney Enterprises, Inc. Method, system and computer program product for providing real-time recommendations
CN104239374B (zh) * 2013-06-21 2018-12-04 伊姆西公司 用于文档推荐的方法和装置
CN106953887B (zh) * 2017-01-05 2020-04-24 北京中瑞鸿程科技开发有限公司 一种细粒度电台音频内容个性化组织推荐方法
US20180300407A1 (en) * 2017-04-13 2018-10-18 Runtime Collective Limited Query Generation for Social Media Data
CN108182259B (zh) * 2018-01-03 2020-06-19 华南理工大学 基于深度长短期记忆神经网络对多变量时间序列分类方法
CN108664558B (zh) * 2018-04-04 2020-05-05 山东科技大学 一种面向大规模用户的网络电视个性化推荐服务方法
CN108648049B (zh) * 2018-05-03 2022-03-01 中国科学技术大学 一种基于用户行为区别建模的序列推荐方法
US10834452B2 (en) * 2019-01-02 2020-11-10 International Business Machines Corporation Dynamic live feed recommendation on the basis of user real time reaction to a live feed
US11238521B2 (en) * 2019-12-11 2022-02-01 Microsoft Technology Licensing, Llc Text-based similarity system for cold start recommendations
CN112905518A (zh) * 2021-01-29 2021-06-04 上海莎沙教育科技有限公司 一种具有自动推荐功能的幼儿教育用知识学习卡板
CN113032567B (zh) * 2021-03-29 2022-03-29 广东众聚人工智能科技有限公司 位置嵌入解释方法、装置、计算机设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106874522A (zh) * 2017-03-29 2017-06-20 珠海习悦信息技术有限公司 信息推荐方法、装置、存储介质及处理器
CN108681739A (zh) * 2018-03-26 2018-10-19 安徽师范大学 一种基于用户情感和时间动态的旅游目的地推荐方法
CN112380433A (zh) * 2020-11-13 2021-02-19 中国科学技术大学 面向冷启动用户的推荐元学习方法
CN112749345A (zh) * 2021-02-09 2021-05-04 上海海事大学 一种基于神经网络的k近邻矩阵分解推荐方法

Also Published As

Publication number Publication date
CN113536140A (zh) 2021-10-22

Similar Documents

Publication Publication Date Title
CN111966914B (zh) 基于人工智能的内容推荐方法、装置和计算机设备
US12050971B2 (en) Transaction composition graph node embedding
Gui et al. Depression detection on social media with reinforcement learning
CN111027672A (zh) 一种基于交互式多尺度循环神经网络的时间序列预测方法
CN115098789B (zh) 基于神经网络的多维兴趣融合推荐方法、装置及相关设备
Diao et al. Personalized learning path recommendation based on weak concept mining
CN115114974A (zh) 一种模型蒸馏方法、装置、计算机设备和存储介质
Camargo et al. An incremental learning approach to prediction models of SEIRD variables in the context of the COVID-19 pandemic
Luelmo et al. Machine Learning Techniques for Knowledge Tracing: A Systematic
CN115631008B (zh) 商品推荐方法、装置、设备及介质
CN113259163B (zh) 一种基于网络拓扑感知的Web服务质量预测方法及***
Krajsic et al. Lambda architecture for anomaly detection in online process mining using autoencoders
Yuan et al. Deep learning from a statistical perspective
CN116249994A (zh) 具有被配置为生成可解释结果的可分解分层的预测模型
CN113536140B (zh) 一种基于小样本数据的实时推荐方法和***
Zhang et al. Click is not equal to purchase: multi-task reinforcement learning for multi-behavior recommendation
CN111897943A (zh) 会话记录搜索方法、装置、电子设备及存储介质
CN117194771A (zh) 一种图模型表征学习的动态知识图谱服务推荐方法
CN116109449A (zh) 一种数据处理方法及相关设备
CN115423016A (zh) 多任务预测模型的训练方法、多任务预测方法及装置
Yin et al. Context-uncertainty-aware chatbot action selection via parameterized auxiliary reinforcement learning
CN113706347A (zh) 一种多任务模型蒸馏方法、***、介质及电子终端
CN112307330B (zh) 一种交易偏好判别模型自适应方法
Shaik et al. Graph-enabled reinforcement learning for time series forecasting with adaptive intelligence
CN113297385A (zh) 基于改进GraphRNN的多标签文本分类模型及分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20221011

Address after: 276825 Intersection of Beiyuansi Road and Yanzhou Road, Donggang District, Rizhao City, Shandong Province

Patentee after: Shandong Leadthing Information Science and Technology Co.,Ltd.

Address before: Room 156-8, No.5 Lingbin Road, Dangan Town, Xiangzhou District, Zhuhai City, Guangdong Province 519000

Patentee before: Guangdong Zhongju Artificial Intelligence Technology Co.,Ltd.

TR01 Transfer of patent right