CN111489203A - 理财产品推荐方法及*** - Google Patents

理财产品推荐方法及*** Download PDF

Info

Publication number
CN111489203A
CN111489203A CN202010293998.4A CN202010293998A CN111489203A CN 111489203 A CN111489203 A CN 111489203A CN 202010293998 A CN202010293998 A CN 202010293998A CN 111489203 A CN111489203 A CN 111489203A
Authority
CN
China
Prior art keywords
deep
bgru
layer
cnn
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010293998.4A
Other languages
English (en)
Inventor
聂文俊
王伟权
郑显凌
唐琳娜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial and Commercial Bank of China Ltd ICBC
Original Assignee
Industrial and Commercial Bank of China Ltd ICBC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial and Commercial Bank of China Ltd ICBC filed Critical Industrial and Commercial Bank of China Ltd ICBC
Priority to CN202010293998.4A priority Critical patent/CN111489203A/zh
Publication of CN111489203A publication Critical patent/CN111489203A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/06Asset management; Financial planning or analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Strategic Management (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Operations Research (AREA)
  • Technology Law (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请公开了一种理财产品推荐方法及***,其中所述方法包括:获取待预测的理财产品历史数据;将所述待预测的理财产品历史数据进行归一化处理,得到序列数据;进一步,将所述序列数据输入基于深层BGRU‑CNN神经网络模型的预测模型中,得到预测结果;根据所述预测结果确定目标推荐理财产品。与传统上基于深度学习的理财产品推荐方法相比,能提供精度更高的理财产品预测与推荐结果。

Description

理财产品推荐方法及***
技术领域
本申请涉及金融数据挖掘技术领域,尤其涉及一种利用BGRU(双向门控循环单元神经网络)和CNN(卷积神经网络)组合的深度学习模型对理财产品进行预测和推荐的方法。
背景技术
本部分旨在为权利要求书中陈述的本申请实施例提供背景或上下文。此处的描述不因为包括在本部分中就承认是现有技术。
理财产品预测与推荐一直是投资者关注的热点,其中的资产估值、风险管理给投资者带来巨大回报的同时也可能带来相当大的损失。从传统的统计角度出发,许多金融时间序列预测模型和方法被提出以减少损失和风险。这些模型虽然能直观地描述数据特征,但都受到某些数据假设的限制,如正态性和自相关性。然而,这些假设并不适用于复杂的现实世界数据。从机器学习的角度来看,机器学习的自学习能力强,同时对噪声数据鲁棒性和容错性较强,从而可以逼近非线性关系,对非线性数据进行处理。因为这些特点,机器学习被逐渐应用于预测金融市场的涨幅情况。
虽然现在机器学习在图像识别、语音识别、情绪分类、预测数据等诸多领域得到广泛应用并且收获不错成效,但是在金融行业的应用与研究还不够深入,也并未考虑到理财产品波动情况和时间维度的紧密联系。
发明内容
本申请实施例提供一种理财产品推荐方法及***,能提供精度更高的理财产品预测与推荐结果。
第一方面,本申请实施例提供了一种理财产品推荐方法,包括:
获取待预测的理财产品历史数据;
将所述待预测的理财产品历史数据进行归一化处理,得到序列数据;
将所述序列数据输入基于深层BGRU-CNN神经网络模型的预测模型中,得到预测结果;
根据所述预测结果确定目标推荐理财产品。
可选地,所述基于深层BGRU-CNN神经网络模型的预测模型包括输入层、深层BGRU部分、深层CNN部分、全连接层部分和输出层,其中,所述深层BGRU部分包括若干层BGRU单元,所述深层CNN部分包括若干层CNN层和Pooling池化层,所述全连接层部分包括若干层全连接层。
可选地,所述基于深层BGRU-CNN神经网络模型的预测模型还包括随机失活Dropout层和批量标准化Batch Normalization层,所述Dropout层设置在所述深层BGRU部分与所述深层CNN部分之间,所述Batch Normalization层设置在所述深层CNN部分与所述全连接层部分之间。
可选地,所述将所述序列数据输入基于深层BGRU-CNN神经网络模型的预测模型中,得到预测结果,包括:
将待预测的理财产品历史数据对应的序列数据划分为训练集与测试集;
根据所述训练集采用所述深层BGRU-CNN神经网络模型进行训练,得到预测模型;
根据所述测试集对所述预测模型进行测试和参数调整,得到所述基于深层BGRU-CNN神经网络模型的预测模型;
采用所述基于深层BGRU-CNN神经网络模型的预测模型对待预测的理财产品历史数据对应的序列数据进行预测,得到理财产品的预测结果。
可选地,所述根据所述训练集采用所述深层BGRU-CNN神经网络模型进行训练,得到预测模型,包括:
对训练集中的理财产品数据进行预处理,得到预处理后的数据;
以所述深层BGRU-CNN神经网络模型的第一层深层BGRU-CNN神经网络单元为当前神经单元,将所述预处理后的数据输入当前神经单元;
计算当前神经单元的记忆状态值、输出值和隐藏状态值;
以下一层BGRU神经网络单元为当前神经单元,返回计算当前神经单元的隐藏状态值、更新门状态和重置门状态,直至最后一层BGRU神经网络单元,输出序列数据;
将所述序列数据通过所述CNN部分使用一维卷积核和Pooling层进行一维卷积处理,输出非线性特征;
将所述非线性特征通过全连接层部分进行加权计算,得到隐含层的输出;
将隐含层的输出作为输入,进入输出层,得到预测值;
根据所述预测值计算损失函数值,并根据损失函数值进行网络参数更新和调整,直至迭代结束。
可选地,所述计算当前神经单元的记忆状态值、输出值和隐藏状态值,包括:
计算当前神经单元的的记忆候选值、输入门状态、遗忘门状态、更新门状态和重置门状态;
根据所述当前神经单元的记忆候选值、输入门状态和遗忘门状态计算当前神经单元的记忆状态值;
根据所述当前神经单元的更新门状态和重置门状态计算当前神经单元的隐藏状态值;
将当前神经单元的记忆状态值和输出值保存并用于下一时刻的GRU单元计算中,直至向前层和向后层的GRU单元均学习完全部的时间序列;
根据向前层和向后层的GRU单元最后时刻的输出计算出当前神经单元的输出值。
第二方面,本申请实施例提供了一种基于深层BGRU-CNN神经网络模型的理财产品推荐***,包括:
理财产品数据获取模块,用于获取待预测的理财产品历史数据;
归一化模块,用于将所述待预测的理财产品历史数据进行归一化处理,得到序列数据;
深度预测模块,用于将所述序列数据输入基于深层BGRU-CNN神经网络模型的预测模型中,得到预测结果;
推荐目标确定模块,用于根据所述预测结果确定目标推荐理财产品。
可选地,所述基于深层BGRU-CNN神经网络模型的预测模型包括输入层、深层BGRU部分、深层CNN部分、全连接层部分和输出层,其中,所述深层BGRU部分包括若干层BGRU单元,所述深层CNN部分包括若干层CNN层和Pooling池化层,所述全连接层部分包括若干层全连接层。
可选地,所述基于深层BGRU-CNN神经网络模型的预测模型还包括随机失活Dropout层和批量标准化Batch Normalization层,所述Dropout层设置在所述深层BGRU部分与所述深层CNN部分之间,所述Batch Normalization层设置在所述深层CNN部分与所述全连接层部分之间。
可选地,所述深度预测模块,具体用于:
将待预测的理财产品历史数据对应的序列数据划分为训练集与测试集;
根据所述训练集采用所述深层BGRU-CNN神经网络模型进行训练,得到预测模型;
根据所述测试集对所述预测模型进行测试和参数调整,得到所述基于深层BGRU-CNN神经网络模型的预测模型;
采用所述基于深层BGRU-CNN神经网络模型的预测模型对待预测的理财产品历史数据对应的序列数据进行预测,得到理财产品的预测结果。
可选地,所述根据所述训练集采用所述深层BGRU-CNN神经网络模型进行训练,得到预测模型,包括:
对训练集中的理财产品数据进行预处理,得到预处理后的数据;
以所述深层BGRU-CNN神经网络模型的第一层深层BGRU-CNN神经网络单元为当前神经单元,将所述预处理后的数据输入当前神经单元;
计算当前神经单元的记忆状态值、输出值和隐藏状态值;
以下一层BGRU神经网络单元为当前神经单元,返回计算当前神经单元的隐藏状态值、更新门状态和重置门状态,直至最后一层BGRU神经网络单元,输出序列数据;
将所述序列数据通过所述CNN部分使用一维卷积核和Pooling层进行一维卷积处理,输出非线性特征;
将所述非线性特征通过全连接层部分进行加权计算,得到隐含层的输出;
将隐含层的输出作为输入,进入输出层,得到预测值;
根据所述预测值计算损失函数值,并根据损失函数值进行网络参数更新和调整,直至迭代结束。
可选地,所述计算当前神经单元的记忆状态值、输出值和隐藏状态值,包括:
计算当前神经单元的的记忆候选值、输入门状态、遗忘门状态、更新门状态和重置门状态;
根据所述当前神经单元的记忆候选值、输入门状态和遗忘门状态计算当前神经单元的记忆状态值;
根据所述当前神经单元的更新门状态和重置门状态计算当前神经单元的隐藏状态值;
将当前神经单元的记忆状态值和输出值保存并用于下一时刻的GRU单元计算中,直至向前层和向后层的GRU单元均学习完全部的时间序列;
根据向前层和向后层的GRU单元最后时刻的输出计算出当前神经单元的输出值。
第三方面,本申请实施例提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面任一所述方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有执行上述第一方面任一所述方法的计算机程序。
综上所述,本申请实施例提供的一种理财产品推荐方法及***,通过获取待预测的理财产品历史数据;将所述待预测的理财产品历史数据进行归一化处理,得到序列数据;进一步,将所述序列数据输入基于深层BGRU-CNN神经网络模型的预测模型中,得到预测结果;根据所述预测结果确定目标推荐理财产品。与传统上基于深度学习的理财产品推荐方法相比,能提供精度更高的理财产品预测与推荐结果。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1为本申请实施例中提供的一种基于深层BGRU-CNN神经网络模型的理财产品推荐方法流程示意图;
图2为本申请实施例中提供的一种基于深层BGRU-CNN神经网络模型的理财产品推荐方法的整体流程图;
图3为本申请实施例中提供的一种深层BGRU-CNN神经网络模型结构示意图;
图4为本申请实施例中提供的一种基于深层BGRU-CNN神经网络模型的理财产品推荐***框图。
图5为适用于实现本发明中的基于深层BGRU-CNN神经网络模型的理财产品推荐方法的计算机设备结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
下面参考本申请的若干代表性实施方式,详细阐释本申请的原理和精神。
虽然本申请提供了如下述实施例或附图所示的方法操作步骤或装置结构,但基于常规或者无需创造性的劳动在所述方法或装置中可以包括更多或者更少的操作步骤或模块单元。在逻辑性上不存在必要因果关系的步骤或结构中,这些步骤的执行顺序或装置的模块结构不限于本申请实施例或附图所示的执行顺序或模块结构。所述的方法或模块结构的在实际中的装置或终端产品应用时,可以按照实施例或者附图所示的方法或模块结构进行顺序执行或者并行执行。
深层BGRU-CNN神经网络模型是循环神经网络的变体,它引入了门机制和记忆单元,能解决循环神经网络长时间序列上的梯度消失和梯度***问题。本申请实施例首次将深层BGRU-CNN神经网络模型应用于理财产品预测与推荐中,充分利用了时间序列上向前和向后两个时间方向上的上下文关系来进行理财产品预测与推荐,考虑了时间因素对理财产品波动造成的影响,与传统的于深度学习的理财产品推荐方法相比,能提供精度更高的理财产品预测与推荐结果。
图1示出了本申请实施例提供的一种基于深层BGRU-CNN神经网络模型的理财产品推荐方法流程示意图,具体可以包括如下步骤:
步骤101:获取待预测的理财产品历史数据。
步骤102:将所述待预测的理财产品历史数据进行归一化处理,得到序列数据。
步骤103:将所述序列数据输入基于深层BGRU-CNN神经网络模型的预测模型中,得到预测结果。
步骤104:根据所述预测结果确定目标推荐理财产品。
在一种可能的实施方式中,待预测的理财产品历史数据可以是股票指数,理财产品预测结果也可以是股票指数(如S&P500指数),这样即可根据理财产品指数的高低来为客户等推荐相应的高收益理财产品。
在一种可能的实施方式中,基于深层BGRU-CNN神经网络模型的预测模型包括输入层、深层BGRU部分、深层CNN部分、全连接层部分和输出层,其中,所述深层BGRU部分包括若干层BGRU单元,所述深层CNN部分包括若干层CNN层和Pooling池化层,所述全连接层部分包括若干层全连接层。
在一种可能的实施方式中,所述基于深层BGRU-CNN神经网络模型的预测模型还包括随机失活Dropout层和批量标准化Batch Normalization层,所述Dropout层设置在所述深层BGRU部分与所述深层CNN部分之间,所述Batch Normalization层设置在所述深层CNN部分与所述全连接层部分之间。
具体地Dropout的原理,就是在训练网络的时候,以预先设置的概率停止神经单元的输出,这样会使得部分神经单元的“罢工”,意味着每次的网络训练只有一部分数据特征在参与,从而防止网络过多地学习训练集的数据特征,达到防止过拟合的目的。BatchNormalization的原理,就是通过一定的规范化手段,把每层神经网络任意神经元这个输入值的分布转化为均值为0方差为1的标准正太分布里。这样让梯度变大,避免梯度消失问题的发生,加快收敛速度。本申请实施例通过在深层BGRU-CNN神经网络模型中引入Dropout和Batch Normalization策略,在一定程度上解决了深层网络模型带来的训练难、收敛慢和过拟合等问题。
在一种可能的实施方式中,步骤103中,具体可以包括如下步骤:
步骤1031:将待预测的理财产品历史数据对应的序列数据划分为训练集与测试集。
步骤1032:根据所述训练集采用所述深层BGRU-CNN神经网络模型进行训练,得到预测模型。
步骤1033:根据所述测试集对所述预测模型进行测试和参数调整,得到所述基于深层BGRU-CNN神经网络模型的预测模型。
步骤1034:采用所述基于深层BGRU-CNN神经网络模型的预测模型对待预测的理财产品历史数据对应的序列数据进行预测,得到理财产品的预测结果。
在一种可能的实施方式中,在步骤1032中,具体可以包括如下步骤:
步骤1:对训练集中的理财产品数据进行预处理,得到预处理后的数据。
步骤2:以所述深层BGRU-CNN神经网络模型的第一层深层BGRU-CNN神经网络单元为当前神经单元,将所述预处理后的数据输入当前神经单元。
步骤3:计算当前神经单元的记忆状态值、输出值和隐藏状态值。
步骤4:以下一层BGRU神经网络单元为当前神经单元,返回步骤3计算当前神经单元的隐藏状态值、更新门状态和重置门状态,直至最后一层BGRU神经网络单元,输出序列数据。
步骤5:将所述序列数据通过所述CNN部分使用一维卷积核和Pooling层进行一维卷积处理,输出非线性特征。
步骤6:将所述非线性特征通过全连接层部分进行加权计算,得到隐含层的输出。
步骤7:将隐含层的输出作为输入,进入输出层,得到预测值。
步骤8:根据所述预测值计算损失函数值,并根据损失函数值进行网络参数更新和调整,直至迭代结束。
在一种可能的实施方式中,迭代结束的条件可以是到达指定的迭代次数或损失函数值不再降低等。
在一种可能的实施方式中,在上述步骤3中,具体可以包括如下步骤:计算当前神经单元的的记忆候选值、输入门状态、遗忘门状态、更新门状态和重置门状态;根据所述当前神经单元的记忆候选值、输入门状态和遗忘门状态计算当前神经单元的记忆状态值,根据所述当前神经单元的更新门状态和重置门状态计算当前神经单元的隐藏状态值;进一步,将当前神经单元的记忆状态值和输出值保存并用于下一时刻的GRU单元计算中,直至向前层和向后层的GRU单元均学习完全部的时间序列;进一步,根据向前层和向后层的GRU单元最后时刻的输出计算出当前神经单元的输出值。
为了使得本申请实施例提供的基于深层BGRU-CNN神经网络模型的理财产品推荐方法更加清楚明了,现在结合图2进行进一步说明。图2示出了一种基于深层BGRU-CNN神经网络模型的理财产品推荐方法实施例流程图,具体包括如下步骤:
首先,获取待预测的理财产品数据;将数据分为训练集和测试集,训练集用来训练模型,测试集用来测试模型精度。
进一步,初始化模型,利用训练集训练模型,使用测试集测试模型预测的精度。若未达到预设精度,再使用训练集重复训练模型,直到达到预设精度,保存最终预测模型。
进一步,将待预测的理财产品数据输入基于深层BGRU-CNN神经网络模型的理财产品预测模型中,得到理财产品预测结果。
进一步,根据理财产品预测结果进行理财产品推荐。
图3示出了本申请实施例提出的深度双向GRU模型(简称DBGRU)结构示意图。分为输入层Input Layer、BGRU部分BGRU part、CNN部分CNN part、全连接层部分FullConnected Layer part、输出层Output Layer,BGRU部分由多层BGRU组成,CNN部分由若干层CNN层和Pooling层组成,全连接层部分由多层全连接层组成。
BP神经网络未考虑到序列时间因素,单向RNN网络也只能朝一个方向学习时间序列的数据特征。但是在时间序列中,对某一时间点的数据来说,除了过去时刻的数据和其相关联外,未来时刻的数据对其也具有影响力。例如:序列abcdef和abccba,如果只知序列abc,是无法准确预测后面的序列酒精是def还是cba。
因此本申请实施例运用双向GRU网络,具有如下优势:(1)回避RNN在长时间序列上的梯度消失和梯度***问题;(2)学习对时间有长期依赖性的信息;(3)利用时间序列上向前、向后两个时间方向上的上下文关系。为了实现数据的深层次特征挖掘,将多个双向GRU层叠加起来,本申请实施例通过多层神经网络结构来学习时间序列的深层特征。除了双向GRU层,还可以添加全连接层(fully connected layers,FC)。全连接层具有良好的非线性映射能力,对双向GRU输出的非线性特征进行加权处理,即对这些非线性特征进行组合。另外,随着网络层的增加,考虑到模型训练难度增加、收敛变慢、出现过拟合等问题,使用Dropout和Batch Normalization策略来解决这些问题。
Dropout的原理,直观来说就是在训练网络的时候,以预先设置的概率停止神经单元的输出,这样部分神经单元的“罢工”,意味着每次的网络训练只有一部分数据特征在参与,从而防止网络过多地学习训练集的数据特征,达到防止过拟合的目的。BatchNormalization的原理,就是通过一定的规范化手段,把每层神经网络任意神经元这个输入值的分布转化为均值为0方差为1的标准正太分布里。这样让梯度变大,避免梯度消失问题的发生,加快收敛速度。
在一种可能的实施方式中,本申请实施例所述基于深层BGRU-CNN神经网络模型的预测模型训练过程的具体步骤如下:
步骤一:数据预处理:将数据X={x1,x2,...,xN}进行归一化处理。
步骤二:初始化神经单元的隐藏状态h(0),将预处理后的数据输入第一层双向GRU神经元。
步骤三:按照公式z(t)=σ(Wz·[h(t-1),x(t)])、r(t)=σ(Wr·[h(t-1),x(t)])计算出当前神经单元的更新门状态z(t)和重置门状态r(t),其中:Wz是t时刻更新门的权值,Wr是t时刻重置门的权值,x(t)是t时刻的输入数据,h(t-1)是上一时刻GRU的隐藏状态。
步骤四:按照公式
Figure BDA0002451491340000101
计算出当前神经单元的记忆内容
Figure BDA0002451491340000102
其中:
Figure BDA0002451491340000103
是隐藏状态的权值。
步骤五:根据公式
Figure BDA0002451491340000104
计算当前神经单元的隐藏状态值h(t)
步骤六:将h(t)保留并使用到下一时刻的GRU神经单元计算中。
步骤七:重复步骤三到六,直到向前层、向后层的GRU神经单元均学习完全部的时间序列;将前、后向神经单元最后的输出
Figure BDA0002451491340000105
Figure BDA0002451491340000106
根据公式
Figure BDA0002451491340000107
计算出输出值h(t)进入下一层BGRU。其中
Figure BDA0002451491340000108
Figure BDA0002451491340000109
分别是GRU中在t时刻输入数据的前向和后向的隐藏状态,
Figure BDA00024514913400001010
表示整合操作。
步骤八:重复以上步骤,直到最后一层BGRU,据公式y(t)=σ(Wσ·h(t))计算当前神经单元的输出值y(t),出序列数据。
步骤九:将序列数据S输入Dropout层,输出序列数据S′。
步骤十:将序列数据S′输入CNN prat,使用若干个一维卷积核和Pooling层,输出非线性数据特征t。
步骤十一:进入多层FC(全连接层)部分,对非线性特征t进行加权计算,得到隐含层的输出t′。
步骤十二:将t′输入输出层,得到预测值p。
步骤十三:计算损失函数值,不断更新网络参数,直到迭代结束。
可以看出,本申请实施例通过深层BGRU-CNN神经网络模型这一具有时间性的神经网络来进行理财产品预测,充分利用了时间序列上向前和向后两个时间方向上的上下文关系,考虑了时间因素对理财产品波动造成的影响。
综上所述,本申请实施例提供了一种基于深层BGRU-CNN神经网络模型的理财产品推荐方法,通过获取待预测的理财产品历史数据;将所述待预测的理财产品历史数据进行归一化处理,得到序列数据;进一步,将所述序列数据输入基于深层BGRU-CNN神经网络模型的预测模型中,得到预测结果;根据所述预测结果确定目标推荐理财产品。与传统上基于深度学习的理财产品推荐方法相比,能提供精度更高的理财产品预测与推荐结果。
基于相同的技术构思,本申请实施例还提供了一种基于深层BGRU-CNN神经网络模型的理财产品推荐***,如图4所示,所述***包括:
理财产品数据获取模块401,用于获取待预测的理财产品历史数据。
归一化模块402,用于将所述待预测的理财产品历史数据进行归一化处理,得到序列数据。
深度预测模块403,用于将所述序列数据输入基于深层BGRU-CNN神经网络模型的预测模型中,得到预测结果。
推荐目标确定模块404,用于根据所述预测结果确定目标推荐理财产品。
在一种可能的实施方式中,所述基于深层BGRU-CNN神经网络模型的预测模型包括输入层、深层BGRU部分、深层CNN部分、全连接层部分和输出层,其中,所述深层BGRU部分包括若干层BGRU单元,所述深层CNN部分包括若干层CNN层和Pooling池化层,所述全连接层部分包括若干层全连接层。
在一种可能的实施方式中,所述基于深层BGRU-CNN神经网络模型的预测模型还包括随机失活Dropout层和批量标准化Batch Normalization层,所述Dropout层设置在所述深层BGRU部分与所述深层CNN部分之间,所述Batch Normalization层设置在所述深层CNN部分与所述全连接层部分之间。
在一种可能的实施方式中,所述深度预测模块403,具体用于:将待预测的理财产品历史数据对应的序列数据划分为训练集与测试集;根据所述训练集采用所述深层BGRU-CNN神经网络模型进行训练,得到预测模型;根据所述测试集对所述预测模型进行测试和参数调整,得到所述基于深层BGRU-CNN神经网络模型的预测模型;采用所述基于深层BGRU-CNN神经网络模型的预测模型对待预测的理财产品历史数据对应的序列数据进行预测,得到理财产品的预测结果。
在一种可能的实施方式中,所述根据所述训练集采用所述深层BGRU-CNN神经网络模型进行训练,得到预测模型,包括:对训练集中的理财产品数据进行预处理,得到预处理后的数据;以所述深层BGRU-CNN神经网络模型的第一层深层BGRU-CNN神经网络单元为当前神经单元,将所述预处理后的数据输入当前神经单元;计算当前神经单元的记忆状态值、输出值和隐藏状态值;以下一层BGRU神经网络单元为当前神经单元,返回计算当前神经单元的隐藏状态值、更新门状态和重置门状态,直至最后一层BGRU神经网络单元,输出序列数据;将所述序列数据通过所述CNN部分使用一维卷积核和Pooling层进行一维卷积处理,输出非线性特征;将所述非线性特征通过全连接层部分进行加权计算,得到隐含层的输出;将隐含层的输出作为输入,进入输出层,得到预测值;根据所述预测值计算损失函数值,并根据损失函数值进行网络参数更新和调整,直至迭代结束。
在一种可能的实施方式中,所述计算当前神经单元的记忆状态值、输出值和隐藏状态值,包括:计算当前神经单元的的记忆候选值、输入门状态、遗忘门状态、更新门状态和重置门状态;根据所述当前神经单元的记忆候选值、输入门状态和遗忘门状态计算当前神经单元的记忆状态值;根据所述当前神经单元的更新门状态和重置门状态计算当前神经单元的隐藏状态值;将当前神经单元的记忆状态值和输出值保存并用于下一时刻的GRU单元计算中,直至向前层和向后层的GRU单元均学习完全部的时间序列;根据向前层和向后层的GRU单元最后时刻的输出计算出当前神经单元的输出值。
从硬件层面来说,为了本发明提供一种用于实现所述基于深层BGRU-CNN神经网络模型的理财产品推荐方法中的全部或部分内容的电子设备的实施例,所述电子设备具体包含有如下内容:
处理器(processor)、存储器(memory)、通信接口(Communications Interface)和总线;其中,所述处理器、存储器、通信接口通过所述总线完成相互间的通信;所述通信接口用于实现服务器、装置、分布式消息中间件集群装置、各类数据库以及用户终端等相关设备之间的信息传输;该电子设备可以是台式计算机、平板电脑及移动终端等,本实施例不限于此。在本实施例中,该电子设备可以参照实施例中的基于深层BGRU-CNN神经网络模型的理财产品推荐方法的实施例,以及,基于深层BGRU-CNN神经网络模型的理财产品推荐方法装置的实施例进行实施,其内容被合并于此,重复之处不再赘述。
图5为本发明实施例的电子设备9600的***构成的示意框图。如图5所示,该电子设备9600可以包括中央处理器9100和存储器9140;存储器9140耦合到中央处理器9100。值得注意的是,该图5是示例性的;还可以使用其他类型的结构,来补充或代替该结构,以实现电信功能或其他功能。
一实施例中,基于深层BGRU-CNN神经网络模型的理财产品推荐方法功能可以被集成到中央处理器9100中。例如,中央处理器9100可以被配置为进行如下控制:
步骤101:获取待预测的理财产品历史数据。
步骤102:将所述待预测的理财产品历史数据进行归一化处理,得到序列数据。
步骤103:将所述序列数据输入基于深层BGRU-CNN神经网络模型的预测模型中,得到预测结果。
步骤104:根据所述预测结果确定目标推荐理财产品。
从上述描述可知,本发明的实施例提供的电子设备,通过获取待预测的理财产品历史数据;将所述待预测的理财产品历史数据进行归一化处理,得到序列数据;进一步,将所述序列数据输入基于深层BGRU-CNN神经网络模型的预测模型中,得到预测结果;根据所述预测结果确定目标推荐理财产品。与传统上基于深度学习的理财产品推荐方法相比,能提供精度更高的理财产品预测与推荐结果。
在另一个实施方式中,基于深层BGRU-CNN神经网络模型的理财产品推荐方法装置可以与中央处理器9100分开配置,例如可以将基于深层BGRU-CNN神经网络模型的理财产品推荐方法配置为与中央处理器9100连接的芯片,通过中央处理器的控制来实现基于深层BGRU-CNN神经网络模型的理财产品推荐方法功能。
如图5所示,该电子设备9600还可以包括:通信模块9110、输入单元9120、音频处理器9130、显示器9160、电源9170。值得注意的是,电子设备9600也并不是必须要包括图5中所示的所有部件;此外,电子设备9600还可以包括图5中没有示出的部件,可以参考现有技术。
如图5所示,中央处理器9100有时也称为控制器或操作控件,可以包括微处理器或其他处理器装置和/或逻辑装置,该中央处理器9100接收输入并控制电子设备9600的各个部件的操作。
其中,存储器9140,例如可以是缓存器、闪存、硬驱、可移动介质、易失性存储器、非易失性存储器或其它合适装置中的一种或更多种。可储存上述与失败有关的信息,此外还可存储执行有关信息的程序。并且中央处理器9100可执行该存储器9140存储的该程序,以实现信息存储或处理等。
输入单元9120向中央处理器9100提供输入。该输入单元9120例如为按键或触摸输入装置。电源9170用于向电子设备9600提供电力。显示器9160用于进行图像和文字等显示对象的显示。该显示器例如可为LCD显示器,但并不限于此。
该存储器9140可以是固态存储器,例如,只读存储器(ROM)、随机存取存储器(RAM)、SIM卡等。还可以是这样的存储器,其即使在断电时也保存信息,可被选择性地擦除且设有更多数据,该存储器的示例有时被称为EPROM等。存储器9140还可以是某种其它类型的装置。存储器9140包括缓冲存储器9141(有时被称为缓冲器)。存储器9140可以包括应用/功能存储部9142,该应用/功能存储部9142用于存储应用程序和功能程序或用于通过中央处理器9100执行电子设备9600的操作的流程。
存储器9140还可以包括数据存储部9143,该数据存储部9143用于存储数据,例如联系人、数字数据、图片、声音和/或任何其他由电子设备使用的数据。存储器9140的驱动程序存储部9144可以包括电子设备的用于通信功能和/或用于执行电子设备的其他功能(如消息传送应用、通讯录应用等)的各种驱动程序。
通信模块9110即为经由天线9111发送和接收信号的发送机/接收机9110。通信模块(发送机/接收机)9110耦合到中央处理器9100,以提供输入信号和接收输出信号,这可以和常规移动通信终端的情况相同。
基于不同的通信技术,在同一电子设备中,可以设置有多个通信模块9110,如蜂窝网络模块、蓝牙模块和/或无线局域网模块等。通信模块(发送机/接收机)9110还经由音频处理器9130耦合到扬声器9131和麦克风9132,以经由扬声器9131提供音频输出,并接收来自麦克风9132的音频输入,从而实现通常的电信功能。音频处理器9130可以包括任何合适的缓冲器、解码器、放大器等。另外,音频处理器9130还耦合到中央处理器9100,从而使得可以通过麦克风9132能够在本机上录音,且使得可以通过扬声器9131来播放本机上存储的声音。
本发明的实施例还提供能够实现上述实施例中的执行主体可以为服务器的基于深层BGRU-CNN神经网络模型的理财产品推荐方法中全部步骤的一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例中的基于深层BGRU-CNN神经网络模型的理财产品推荐方法的全部步骤。
从上述描述可知,本发明的实施例提供的计算机可读存储介质,通过获取待预测的理财产品历史数据;将所述待预测的理财产品历史数据进行归一化处理,得到序列数据;进一步,将所述序列数据输入基于深层BGRU-CNN神经网络模型的预测模型中,得到预测结果;根据所述预测结果确定目标推荐理财产品。与传统上基于深度学习的理财产品推荐方法相比,能提供精度更高的理财产品预测与推荐结果。
本领域内的技术人员应明白,本发明的实施例可提供为方法、装置、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(装置)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本发明中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (14)

1.一种理财产品推荐方法,其特征在于,包括:
获取待预测的理财产品历史数据;
将所述待预测的理财产品历史数据进行归一化处理,得到序列数据;
将所述序列数据输入基于深层BGRU-CNN神经网络模型的预测模型中,得到预测结果;
根据所述预测结果确定目标推荐理财产品。
2.如权利要求1所述的方法,其特征在于,所述基于深层BGRU-CNN神经网络模型的预测模型包括输入层、深层BGRU部分、深层CNN部分、全连接层部分和输出层,其中,所述深层BGRU部分包括若干层BGRU单元,所述深层CNN部分包括若干层CNN层和Pooling池化层,所述全连接层部分包括若干层全连接层。
3.如权利要求2所述的方法,其特征在于,所述基于深层BGRU-CNN神经网络模型的预测模型还包括随机失活Dropout层和批量标准化Batch Normalization层,所述Dropout层设置在所述深层BGRU部分与所述深层CNN部分之间,所述Batch Normalization层设置在所述深层CNN部分与所述全连接层部分之间。
4.如权利要求1所述的方法,其特征在于,所述将所述序列数据输入基于深层BGRU-CNN神经网络模型的预测模型中,得到预测结果,包括:
将待预测的理财产品历史数据对应的序列数据划分为训练集与测试集;
根据所述训练集采用所述深层BGRU-CNN神经网络模型进行训练,得到预测模型;
根据所述测试集对所述预测模型进行测试和参数调整,得到所述基于深层BGRU-CNN神经网络模型的预测模型;
采用所述基于深层BGRU-CNN神经网络模型的预测模型对待预测的理财产品历史数据对应的序列数据进行预测,得到理财产品的预测结果。
5.如权利要求4所述的方法,其特征在于,所述根据所述训练集采用所述深层BGRU-CNN神经网络模型进行训练,得到预测模型,包括:
对训练集中的理财产品数据进行预处理,得到预处理后的数据;
以所述深层BGRU-CNN神经网络模型的第一层深层BGRU-CNN神经网络单元为当前神经单元,将所述预处理后的数据输入当前神经单元;
计算当前神经单元的记忆状态值、输出值和隐藏状态值;
以下一层BGRU神经网络单元为当前神经单元,返回计算当前神经单元的隐藏状态值、更新门状态和重置门状态,直至最后一层BGRU神经网络单元,输出序列数据;
将所述序列数据通过所述CNN部分使用一维卷积核和Pooling层进行一维卷积处理,输出非线性特征;
将所述非线性特征通过全连接层部分进行加权计算,得到隐含层的输出;
将隐含层的输出作为输入,进入输出层,得到预测值;
根据所述预测值计算损失函数值,并根据损失函数值进行网络参数更新和调整,直至迭代结束。
6.如权利要求5所述的方法,其特征在于,所述计算当前神经单元的记忆状态值、输出值和隐藏状态值,包括:
计算当前神经单元的的记忆候选值、输入门状态、遗忘门状态、更新门状态和重置门状态;
根据所述当前神经单元的记忆候选值、输入门状态和遗忘门状态计算当前神经单元的记忆状态值;
根据所述当前神经单元的更新门状态和重置门状态计算当前神经单元的隐藏状态值;
将当前神经单元的记忆状态值和输出值保存并用于下一时刻的GRU单元计算中,直至向前层和向后层的GRU单元均学习完全部的时间序列;
根据向前层和向后层的GRU单元最后时刻的输出计算出当前神经单元的输出值。
7.一种理财产品推荐***,其特征在于,包括:
理财产品数据获取模块,用于获取待预测的理财产品历史数据;
归一化模块,用于将所述待预测的理财产品历史数据进行归一化处理,得到序列数据;
深度预测模块,用于将所述序列数据输入基于深层BGRU-CNN神经网络模型的预测模型中,得到预测结果;
推荐目标确定模块,用于根据所述预测结果确定目标推荐理财产品。
8.如权利要求7所述的***,其特征在于,所述基于深层BGRU-CNN神经网络模型的预测模型包括输入层、深层BGRU部分、深层CNN部分、全连接层部分和输出层,其中,所述深层BGRU部分包括若干层BGRU单元,所述深层CNN部分包括若干层CNN层和Pooling池化层,所述全连接层部分包括若干层全连接层。
9.如权利要求8所述的***,其特征在于,所述基于深层BGRU-CNN神经网络模型的预测模型还包括随机失活Dropout层和批量标准化Batch Normalization层,所述Dropout层设置在所述深层BGRU部分与所述深层CNN部分之间,所述Batch Normalization层设置在所述深层CNN部分与所述全连接层部分之间。
10.如权利要求7所述的***,其特征在于,所述深度预测模块,具体用于:
将待预测的理财产品历史数据对应的序列数据划分为训练集与测试集;
根据所述训练集采用所述深层BGRU-CNN神经网络模型进行训练,得到预测模型;
根据所述测试集对所述预测模型进行测试和参数调整,得到所述基于深层BGRU-CNN神经网络模型的预测模型;
采用所述基于深层BGRU-CNN神经网络模型的预测模型对待预测的理财产品历史数据对应的序列数据进行预测,得到理财产品的预测结果。
11.如权利要求10所述的***,其特征在于,所述根据所述训练集采用所述深层BGRU-CNN神经网络模型进行训练,得到预测模型,包括:
对训练集中的理财产品数据进行预处理,得到预处理后的数据;
以所述深层BGRU-CNN神经网络模型的第一层深层BGRU-CNN神经网络单元为当前神经单元,将所述预处理后的数据输入当前神经单元;
计算当前神经单元的记忆状态值、输出值和隐藏状态值;
以下一层BGRU神经网络单元为当前神经单元,返回计算当前神经单元的隐藏状态值、更新门状态和重置门状态,直至最后一层BGRU神经网络单元,输出序列数据;
将所述序列数据通过所述CNN部分使用一维卷积核和Pooling层进行一维卷积处理,输出非线性特征;
将所述非线性特征通过全连接层部分进行加权计算,得到隐含层的输出;
将隐含层的输出作为输入,进入输出层,得到预测值;
根据所述预测值计算损失函数值,并根据损失函数值进行网络参数更新和调整,直至迭代结束。
12.如权利要求11所述的***,其特征在于,所述计算当前神经单元的记忆状态值、输出值和隐藏状态值,包括:
计算当前神经单元的的记忆候选值、输入门状态、遗忘门状态、更新门状态和重置门状态;
根据所述当前神经单元的记忆候选值、输入门状态和遗忘门状态计算当前神经单元的记忆状态值;
根据所述当前神经单元的更新门状态和重置门状态计算当前神经单元的隐藏状态值;
将当前神经单元的记忆状态值和输出值保存并用于下一时刻的GRU单元计算中,直至向前层和向后层的GRU单元均学习完全部的时间序列;
根据向前层和向后层的GRU单元最后时刻的输出计算出当前神经单元的输出值。
13.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6任一所述方法。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有执行权利要求1至6任一所述方法的计算机程序。
CN202010293998.4A 2020-04-15 2020-04-15 理财产品推荐方法及*** Pending CN111489203A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010293998.4A CN111489203A (zh) 2020-04-15 2020-04-15 理财产品推荐方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010293998.4A CN111489203A (zh) 2020-04-15 2020-04-15 理财产品推荐方法及***

Publications (1)

Publication Number Publication Date
CN111489203A true CN111489203A (zh) 2020-08-04

Family

ID=71810908

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010293998.4A Pending CN111489203A (zh) 2020-04-15 2020-04-15 理财产品推荐方法及***

Country Status (1)

Country Link
CN (1) CN111489203A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113487377A (zh) * 2021-06-07 2021-10-08 贵州电网有限责任公司 一种基于gru网络的个性化实时推荐方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020161664A1 (en) * 2000-10-18 2002-10-31 Shaya Steven A. Intelligent performance-based product recommendation system
US20050273430A1 (en) * 2004-06-02 2005-12-08 Pliha Robert K Systems and methods for scoring bank customers direct deposit account transaction activity to match financial behavior to specific acqusition, performance and risk events defined by the bank using a decision tree and stochastic process
CN106991506A (zh) * 2017-05-16 2017-07-28 深圳先进技术研究院 智能终端及其基于lstm的股票趋势预测方法
CN109754324A (zh) * 2019-02-26 2019-05-14 重庆科技学院 一种股票价格走势预测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020161664A1 (en) * 2000-10-18 2002-10-31 Shaya Steven A. Intelligent performance-based product recommendation system
US20050273430A1 (en) * 2004-06-02 2005-12-08 Pliha Robert K Systems and methods for scoring bank customers direct deposit account transaction activity to match financial behavior to specific acqusition, performance and risk events defined by the bank using a decision tree and stochastic process
CN106991506A (zh) * 2017-05-16 2017-07-28 深圳先进技术研究院 智能终端及其基于lstm的股票趋势预测方法
CN109754324A (zh) * 2019-02-26 2019-05-14 重庆科技学院 一种股票价格走势预测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MUCHAMMAD FERDIAN AKBAR 等: "Smart Light Recommending System Using Artificial Neural Network Algorithm", 2019 7TH INTERNATIONAL CONFERENCE ON INFORMATION AND COMMUNICATION TECHNOLOGY (ICOICT) *
刘高军 等: "基于BGRU-CNN 的层次结构微博情感分析", 北方工业大学学报, vol. 31, no. 2 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113487377A (zh) * 2021-06-07 2021-10-08 贵州电网有限责任公司 一种基于gru网络的个性化实时推荐方法

Similar Documents

Publication Publication Date Title
US11790238B2 (en) Multi-task neural networks with task-specific paths
EP3711000B1 (en) Regularized neural network architecture search
US11651214B2 (en) Multimodal data learning method and device
CN109766557B (zh) 一种情感分析方法、装置、存储介质及终端设备
CN107911491A (zh) 信息推荐方法、装置及存储介质、服务器和移动终端
CN111966800B (zh) 情感对话生成方法、装置及情感对话模型训练方法、装置
CN112990444B (zh) 一种混合式神经网络训练方法、***、设备及存储介质
CN107947951A (zh) 用户群组推荐方法、装置及存储介质和服务器
WO2021164317A1 (zh) 序列挖掘模型的训练方法、序列数据的处理方法及设备
CN106170800A (zh) 经由输出分布来学习学生dnn
US11347940B2 (en) Asynchronous role-playing system for dialog data collection
US11681922B2 (en) Performing inference and training using sparse neural network
CN113128671B (zh) 一种基于多模态机器学习的服务需求动态预测方法及***
CN110969441A (zh) 基于深度学习的反欺诈模型处理方法及装置
CN111489203A (zh) 理财产品推荐方法及***
CN116910373A (zh) 房源推荐方法、装置、电子设备及存储介质
CN111788582A (zh) 电子设备及其控制方法
CN117795527A (zh) 使用自回归语言模型神经网络评估输出序列
CN111177493B (zh) 数据处理方法、装置、服务器和存储介质
WO2020054402A1 (ja) ニューラルネットワーク処理装置、コンピュータプログラム、ニューラルネットワーク製造方法、ニューラルネットワークデータの製造方法、ニューラルネットワーク利用装置、及びニューラルネットワーク小規模化方法
CN112633464A (zh) 用于识别图像的计算***和方法
EP4398128A1 (en) Recommendation method and related device
US20240104898A1 (en) Methods and apparatus for incremental learning using stored features
US20220292688A1 (en) Deep learning based image segmentation method including biodegradable stent in intravascular optical tomography image
KR102418887B1 (ko) 음성 인식을 위한 음향 모델 학습 장치 및 그 학습 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination