CN117455366A - 基于神经网络模型的库存分配方法、装置、介质及设备 - Google Patents

基于神经网络模型的库存分配方法、装置、介质及设备 Download PDF

Info

Publication number
CN117455366A
CN117455366A CN202311757785.2A CN202311757785A CN117455366A CN 117455366 A CN117455366 A CN 117455366A CN 202311757785 A CN202311757785 A CN 202311757785A CN 117455366 A CN117455366 A CN 117455366A
Authority
CN
China
Prior art keywords
target
neural network
network model
order
supply
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311757785.2A
Other languages
English (en)
Inventor
王书为
郑玮
蒋能学
徐可
王成林
马雨浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Netease Cloud Music Technology Co Ltd
Original Assignee
Hangzhou Netease Cloud Music Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Netease Cloud Music Technology Co Ltd filed Critical Hangzhou Netease Cloud Music Technology Co Ltd
Priority to CN202311757785.2A priority Critical patent/CN117455366A/zh
Publication of CN117455366A publication Critical patent/CN117455366A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/087Inventory or stock management, e.g. order filling, procurement or balancing against orders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Artificial Intelligence (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Development Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本公开实施方式涉及一种基于神经网络模型的库存分配方法、装置、介质及设备,涉及计算机技术领域或者数据处理技术领域。方法包括:响应于目标订单下单成功,根据目标订单的定向条件确定与所述目标订单对应的第一数量的目标需求节点;目标订单为购买目标对象形成的购买凭据;在为目标订单提供目标对象的供给平台中,根据目标订单的供给渠道,确定第二数量的目标供给节点;将第一数量和第二数量输入已训练神经网络模型进行处理,得到每一目标供给节点分配的目标对象的分配比例值,并按照分配比例值对目标对象进行分配。如此,由于使用神经网络模型拟合分配比例,能够增加得到分配方案的概率,并拓展分配方案的适用场景。

Description

基于神经网络模型的库存分配方法、装置、介质及设备
技术领域
本公开的实施方式涉及计算机技术领域或者数据处理技术领域,更具体地,本公开的实施方式涉及一种基于神经网络模型的库存分配方法、基于神经网络模型的库存分配装置、计算机可读存储介质及电子设备。
背景技术
对于一个追求稳定、高效的供给平台来说,库存分配需要尽可能满足各方条件,一方面需要确定各订单在每个渠道上的分配比例,一方面需要每个订单的分配比例能够满足订单完成率最大化以及流量分配最优等众多条件。但是,目前的分配方法无法帮助供给平台在库存分配的过程中满足上述的各种条件。
发明内容
然而,相关技术在分配逻辑中掺入复杂的限制条件,这些条件往往使得最终难以得到分配方案;其次,往往采用启发式的方式进行搜索,其本质是通过贪心策略搜索最优解,较容易导致得到的分配方案适用于部分场景。
为此,非常需要一种库存分配方法,以增加有解的情况,并缓解陷入局部最优解的情况。
在本上下文中,本公开的实施方式期望提供一种基于神经网络模型的库存分配方法、基于神经网络模型的库存分配装置、计算机可读存储介质及电子设备。
根据本公开的第一方面,提供一种基于神经网络模型的库存分配方法,所述方法包括:响应于目标订单下单成功,根据所述目标订单的定向条件确定与所述目标订单对应的第一数量的目标需求节点;所述目标订单为购买目标对象形成的购买凭据;在为所述目标订单提供所述目标对象的供给平台中,根据所述目标订单的供给渠道,确定第二数量的目标供给节点;将所述第一数量和所述第二数量输入已训练神经网络模型进行处理,得到每一所述目标供给节点分配的所述目标对象的分配比例值,并按照所述分配比例值对所述目标对象进行分配。
在一种实施方式中,所述根据所述目标订单的定向条件确定与所述目标订单对应的第一数量的目标需求节点,包括:确定所述定向条件的数量;将所述目标订单按照所述定向条件的数量进行拆分,得到第一数量的所述目标需求节点。
在一种实施方式中,所述根据所述目标订单的供给渠道,确定第二数量的目标供给节点,包括:将所述目标订单的每一供给渠道作为一个所述目标供给节点。
在一种实施方式中,所述响应于目标订单下单成功,包括:响应于所述目标订单下单当天所有所述目标供给节点的总库存大于或等于所有所述目标需求节点的总需求量,确定下单成功。
在一种实施方式中,所述将所述第一数量和所述第二数量输入已训练神经网络模型进行处理,得到每一所述目标供给节点分配的所述目标对象的分配比例值,包括:在输入层,分别对所述目标需求节点与所述目标供给节点进行独热编码,得到第一稀疏向量与第二稀疏向量;在嵌入层,对所述第一稀疏向量和所述第二稀疏向量进行降维,得到第一稠密向量和第二稠密向量;在网络层,对所述第一稠密向量和所述第二稠密向量进行特征提取,得到第一特征向量和第二特征向量;在输出层,采用归一化函数将所述第一特征向量和所述第二特征向量转换为所述目标供给节点的分配比例值。
在一种实施方式中,所述方法还包括:读取处理上一目标订单的已训练神经网络模型;采用所述目标订单的所述第一数量和所述第二数量对上一目标订单的已训练神经网络模型进行训练,得到所述已训练神经网络模型;将所述第一数量和所述第二数量输入所述已训练神经网络模型进行处理,得到每一所述目标供给节点分配的所述目标对象的分配比例值。
在一种实施方式中,训练神经网络模型得到所述已训练神经网络模型的过程为:初始化神经网络模型的参数;所述参数包括权重和偏差;将训练数据输入所述神经网络模型,向前传播得到预测分配比例值;根据预设损失函数计算预测分配比例与真实分配比例之间的损失值;所述损失函数包括正则化项;采用梯度下降法根据所述损失值反向传播计算所述神经网络模型的参数的下降梯度;根据所述下降梯度对所述神经网络模型进行优化,直到达到预设的收敛条件,结束训练,得到所述已训练神经网络模型。
在一种实施方式中,所述方法还包括:采用验证集计算所述已训练神经网络模型的评估指标;所述评估指标包括以下至少一种:均方误差、均方根误差、平均绝对误差、决定系数。
根据本公开的第二方面,提供一种基于神经网络模型的库存分配装置,所述装置包括:目标需求节点确定模块,被配置为响应于目标订单下单成功,根据所述目标订单的定向条件确定与所述目标订单对应的第一数量的目标需求节点;所述目标订单为购买目标对象形成的购买凭据;目标供给节点确定模块,被配置为在为所述目标订单提供所述目标对象的供给平台中,根据所述目标订单的供给渠道,确定第二数量的目标供给节点;目标对象分配模块,被配置为将所述第一数量和所述第二数量输入已训练神经网络模型进行处理,得到每一所述目标供给节点分配的所述目标对象的分配比例值,并按照所述分配比例值对所述目标对象进行分配。
在一种实施方式中,所述目标需求节点确定模块被配置为:确定所述定向条件的数量;将所述目标订单按照所述定向条件的数量进行拆分,得到第一数量的所述目标需求节点。
在一种实施方式中,所述目标供给节点确定模块被配置为:将所述目标订单的每一供给渠道作为一个所述目标供给节点。
在一种实施方式中,所述目标需求节点确定模块被配置为:响应于所述目标订单下单当天所有所述目标供给节点的总库存大于或等于所有所述目标需求节点的总需求量,确定下单成功。
在一种实施方式中,所述目标对象分配模块被配置为:在输入层,分别对所述目标需求节点与所述目标供给节点进行独热编码,得到第一稀疏向量与第二稀疏向量;在嵌入层,对所述第一稀疏向量和所述第二稀疏向量进行降维,得到第一稠密向量和第二稠密向量;在网络层,对所述第一稠密向量和所述第二稠密向量进行特征提取,得到第一特征向量和第二特征向量;在输出层,采用归一化函数将所述第一特征向量和所述第二特征向量转换为所述目标供给节点的分配比例值。
在一种实施方式中,所述装置还包括模型更新模块,所述模型更新模块被配置为:读取处理上一目标订单的已训练神经网络模型;采用所述目标订单的所述第一数量和所述第二数量对上一目标订单的已训练神经网络模型进行训练,得到所述已训练神经网络模型;将所述第一数量和所述第二数量输入所述已训练神经网络模型进行处理,得到每一所述目标供给节点分配的所述目标对象的分配比例值。
在一种实施方式中,所述装置还包括模型训练模块,所述模型训练模块被配置为:初始化神经网络模型的参数;所述参数包括权重和偏差;将训练数据输入所述神经网络模型,向前传播得到预测分配比例值;根据预设损失函数计算预测分配比例与真实分配比例之间的损失值;所述损失函数包括正则化项;采用梯度下降法根据所述损失值反向传播计算所述神经网络模型的参数的下降梯度;根据所述下降梯度对所述神经网络模型进行优化,直到达到预设的收敛条件,结束训练,得到所述已训练神经网络模型。
在一种实施方式中,所述装置还包括模型评估模块,所述模型评估模块被配置为:采用验证集计算所述已训练神经网络模型的评估指标;所述评估指标包括以下至少一种:均方误差、均方根误差、平均绝对误差、决定系数。
根据本公开的第三方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一种方法。
根据本公开的第一方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一种方法。
根据本公开实施方式的基于神经网络模型的库存分配方法、基于神经网络模型的库存分配装置、计算机可读存储介质及电子设备,响应于目标订单下单成功,根据所述目标订单的定向条件确定与所述目标订单对应的第一数量的目标需求节点;所述目标订单为购买目标对象形成的购买凭据;在为所述目标订单提供所述目标对象的供给平台中,根据所述目标订单的供给渠道,确定第二数量的目标供给节点;将所述第一数量和所述第二数量输入已训练神经网络模型进行处理,得到每一所述目标供给节点分配的所述目标对象的分配比例值,并按照所述分配比例值对所述目标对象进行分配。如此,由于使用神经网络模型拟合分配比例,能够增加得到分配方案的概率,并拓展分配方案的适用场景。
附图说明
通过参考附图阅读下文的详细描述,本公开示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本公开的若干实施方式,其中:
图1示出本公开实施方式中一种基于神经网络模型的库存分配流程架构示意图。
图2示出本公开实施方式中一种基于神经网络模型的库存分配方法的流程图。
图3示出本公开实施方式中一种基于神经网络模型的库存分配方法中目标需求节点确定的流程图。
图4示出本公开实施方式中一种基于神经网络模型的库存分配方法中目标需求节点与目标供给节点的示意图。
图5示出本公开实施方式中一种基于神经网络模型的库存分配方法中已训练神经网络模型对第一数量和第二数量进行处理的流程图。
图6示出本公开实施方式中一种基于神经网络模型的库存分配方法中已训练神经网络模型的架构图。
图7示出本公开实施方式中一种基于神经网络模型的库存分配方法中更新已训练神经网络模型的流程图。
图8示出本公开实施方式中一种基于神经网络模型的库存分配方法中训练神经网络模型得到已训练神经网络模型的流程图。
图9示出本公开实施方式中一种基于神经网络模型的库存分配装置的结构示意图。
图10示出本公开实施方式中一种电子设备的结构示意图。
在附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
下面将参考若干示例性实施方式来描述本公开的原理和精神。应当理解,给出这些实施方式仅仅是为了使本领域技术人员能够更好地理解进而实现本公开,而并非以任何方式限制本公开的范围。相反,提供这些实施方式是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
本领域技术人员知道,本公开的实施方式可以实现为一种***、装置、设备、方法或计算机程序产品。因此,本公开可以具体实现为以下形式,即:完全的硬件、完全的软件(包括固件、驻留软件、微代码等),或者硬件和软件结合的形式。
根据本公开的实施方式,提供一种基于神经网络模型的库存分配方法、基于神经网络模型的库存分配装置、计算机可读存储介质及电子设备。
在本文中,附图中的任何元素数量均用于示例而非限制,以及任何命名都仅用于区分,而不具有任何限制含义。
下面参考本公开的若干代表性实施方式,详细阐述本公开的原理和精神。
对于一个追求稳定、高效的供给平台来说,库存分配需要尽可能满足各方条件,一方面需要确定各订单在每个渠道上的分配比例,一方面需要每个订单的分配比例能够满足订单完成率最大化以及流量分配最优等众多条件。但是,目前的分配方法无法帮助供给平台在库存分配的过程中满足上述的各种条件。具体的,相关技术存在以下几个问题:
(1)由于既要保障订单投放方(比如广告主)的投放条件,使得订单能够在规定时间内投放完成,又要保证流量(比如广告位)能够充分利用,往往在分配逻辑中掺入复杂的限制条件,这些条件往往使得分配求解过程出现无解;
(2)当前的订单在供给平台的库存分配方法中往往采用启发式的方式进行搜索,其本质是通过贪心策略搜索最优解,较容易导致求解结果陷入局部最优解;
(3)缺少实时更新机制,无法及时适应变化的订单环境,可能导致库存分配效果不佳。
鉴于上述内容,本公开提供一种基于神经网络模型的库存分配方法、基于神经网络模型的库存分配装置、计算机可读存储介质及电子设备,响应于目标订单下单成功,根据目标订单的定向条件确定与所述目标订单对应的第一数量的目标需求节点;目标订单为购买目标对象形成的购买凭据;在为目标订单提供目标对象的供给平台中,根据目标订单的供给渠道,确定第二数量的目标供给节点;将第一数量和第二数量输入已训练神经网络模型进行处理,得到每一目标供给节点分配的目标对象的分配比例值,并按照分配比例值对目标对象进行分配。如此,由于使用神经网络模型拟合分配比例,能够增加得到分配方案的概率,并拓展分配方案的适用场景。
在介绍了本公开的基本原理之后,下面具体介绍本公开的各种非限制性实施方式。
应用场景总览
需要注意的是,下述应用场景仅是为了便于理解本公开的精神和原理而示出,本公开的实施方式在此方面不受任何限制。相反,本公开的实施方式可以应用于适用的任何场景。
本公开可以应用于任何库存分配场景中,服务器响应于目标订单下单成功,根据目标订单的定向条件确定与所述目标订单对应的第一数量的目标需求节点;目标订单为购买目标对象形成的购买凭据;在为目标订单提供目标对象的供给平台中,根据目标订单的供给渠道,确定第二数量的目标供给节点;将第一数量和第二数量输入已训练神经网络模型进行处理,得到每一目标供给节点分配的目标对象的分配比例值,并按照分配比例值对目标对象进行分配。
示例性方法
下面结合图1对本示例性实施方式运行环境的***架构与应用场景进行示例性说明。
图1示出了***架构的示意图,该***架构100可以包括终端110与服务器120。其中,终端110可以是智能手机、平板电脑、个人电脑等,终端110可以接收用户输入的目标订单及相关信息。服务器120响应于目标订单下单成功,根据目标订单的定向条件确定与所述目标订单对应的第一数量的目标需求节点;目标订单为购买目标对象形成的购买凭据;在为目标订单提供目标对象的供给平台中,根据目标订单的供给渠道,确定第二数量的目标供给节点;将第一数量和第二数量输入已训练神经网络模型进行处理,得到每一目标供给节点分配的目标对象的分配比例值,并按照分配比例值对目标对象进行分配。服务器120可以泛指提供库存分配相关服务的后台***(如库存分配***),可以是一台服务器或多台服务器形成的集群。终端110与服务器120之间可以通过有线或无线的通信链路形成连接,以进行数据交互。
本公开的示例性实施方式首先提供一种基于神经网络模型的库存分配方法,可以包括:
响应于目标订单下单成功,根据目标订单的定向条件将目标订单拆分为第一数量的目标需求节点;目标订单为购买目标对象形成的购买凭据;
在为目标订单提供目标对象的供给平台中,根据目标订单的供给渠道,确定第二数量的目标供给节点;
将第一数量和第二数量输入已训练神经网络模型进行处理,得到每一目标供给节点分配的目标对象的分配比例值,并按照分配比例值对目标对象进行分配。
图2示出了该基于神经网络模型的库存分配方法的示例性流程,下面分别对图2中的每个步骤进行具体说明。
参考图2,步骤S210中,响应于目标订单下单成功,根据目标订单的定向条件确定与所述目标订单对应的第一数量的目标需求节点。
其中,目标订单为购买目标对象形成的购买凭据。
订单为消费者购买某一对象(比如:商品)形成的购买凭据,一般包括对象信息(比如:价格、颜色、尺码等)、购买时间、商家信息(比如:店铺名称等)等;进一步的,目标订单可以理解为新订单,在供需关系中为需求方购买目标对象得到的购买凭据;比如:在电商场景中,消费者下单a个商品A,得到目标订单1;在广告投放场景中,广告主下单B个按照策略b对广告一进行广告的广告位,得到目标订单2;在歌曲推荐场景中,消费者购买c个歌曲C,得到目标订单3。
定向条件为消费者为了实现某一目的附加的条件;比如:为了针对性的将广告定向至某类目标用户群体,广告主额外增加的诸如标签、剧集、专辑等定向条件来对广告进行定向投放;具体的,比如:广告主D的目标订单的定向条件为电视剧频道、古装剧标签,即,将广告主D的广告需要投放至电视剧频道以及古装剧标签下的视频中。
需求节点可以理解为带定向标签/定向条件的定向订单。需求节点的数量可以是根据任一粒度的定向条件确定;比如:可以按照定向条件的数量确定需求节点的数量,也可以按照定向条件的类别确定需求节点的数量;具体的,参考图3,上述步骤S210可以进一步包括以下步骤S310和S320:
步骤S310、确定定向条件的数量。
其中,定向条件一般包含在目标订单中,通过查看目标订单即可确定定向条件的数量;示例性的,目标订单的定向条件为电视剧频道、古装剧标签,则定向条件的数量为2;目标订单的定向条件为曲风定向标签、语种定向标签、粉丝人群定向,则定向条件的数量为3。
步骤S320、将目标订单按照定向条件的数量进行拆分,得到第一数量的目标需求节点。
其中,定向条件的数量为多少,则目标需求节点的数量为多少,即第一数量为多大;示例性的,目标订单的定向条件为电视剧频道、古装剧标签,定向条件的数量为2,那么,将目标订单拆分为两个目标需求节点,即,将电视剧频道作为一个目标需求节点,将带有古装剧标签的视频作为一个目标需求节点。示例性的,如图4所示,对目标订单进行拆分,得到目标需求节点1、目标需求节点2和目标需求节点3。
供给节点是指供给平台的流量曝光节点,参考互联网的合约广告中根据各广告位、时间等因素生成的库存节点。在推歌***中,供给节点是指流量渠道和场景,包括外部渠道和内部渠道,能够为生成的歌曲订单提供流量分发的节点;比如:歌曲E在专辑E、内容合辑E、推荐歌单E进行分发,那么,歌曲E的供给节点为专辑E、内容合辑E和推荐歌单E。
示例性地,目标供给节点的供给量大于或等于目标需求节点的需求量,则下单成功,否则,下单失败;进一步的,为了满足消费者更复杂的需求,目标供给节点当日的供给量大于或等于目标需求节点的需求量,则下单成功,否则,下单失败;具体的,上述步骤S210中的“响应于目标订单下单成功”可以进一步包括以下步骤:
响应于目标订单下单当天所有目标供给节点的总库存大于或等于所有目标需求节点的总需求量,确定下单成功。
示例性的,所有目标供给节点的总库存是3000,目标订单下单的当天,所有目标供给节点的总库存是1000,所有目标需求节点的总需求量1000,那么,所有目标供给节点当天的总库存等于所有目标需求节点的总需求量,下单成功;如果目标订单下单的当天,所有目标供给节点的总库存大于所有目标需求节点的总需求量1000,那么也是下单成功;如果目标订单下单的当天,所有目标供给节点的总库存小于所有目标需求节点的总需求量1000,那么下单失败。
继续参考图2,步骤S220中,在为目标订单提供目标对象的供给平台中,根据目标订单的供给渠道,确定第二数量的目标供给节点。
其中,供给平台指出售商品的平台,比如:电商平台(出售商品)、听歌App(出售歌曲)、健身App(出售健身课程)等。
供给渠道指提供商品的途径,比如:外部渠道1、外部渠道2、内部渠道1、内部渠道2等。供给节点的数量可以是根据任一粒度的供给渠道确定;目标供给节点的数量的确定同上。具体的,上述步骤S220中的“根据目标订单的供给渠道,确定第二数量的目标供给节点”可以进一步包括以下步骤:
将目标订单的每一供给渠道作为一个目标供给节点。
示例性的,按照比较粗的粒度可以将供给渠道划分为外部渠道和内部渠道,那么,目标供给节点为外部渠道供给节点和内部渠道供给节点;按照比较细的粒度可以将供给渠道划分为外部渠道1、外部渠道2、内部渠道1、内部渠道2,那么,目标供给节点为外部渠道1供给节点、外部渠道2供给节点、内部渠道1供给节点、内部渠道2供给节点。示例性的,如图4所示,基于四个供给渠道,得到目标供给节点1、目标供给节点2、目标供给节点3、目标供给节点4;进一步的,接上述例子,目标供给节点1和目标供给节点3为目标需求节点1提供目标对象,目标供给节点2和目标供给节点4为目标需求节点2提供目标对象,目标供给节点3和目标供给节点4为目标需求节点3提供目标对象。
继续参考图2,步骤S230中,将第一数量和第二数量输入已训练神经网络模型进行处理,得到每一目标供给节点分配的目标对象的分配比例,并按照分配比例值对目标对象进行分配。
示例性的,神经网络模型包括输入层、嵌入层、网络层、输出层;输入层用于获取输入的第一数量和第二数量,并进行预设的数据处理;嵌入层用于对输入层输出的数据进行降维;网络层用于对嵌入层输出的数据进行特征提取;输出层用于对网络层的输出进行转化。示例性的,可以对神经网络模型进行训练,得到上述已训练神经网络模型,已训练神经网络模型针对每一目标需求节点和每一目标供给节点进行以下操作;具体的,参考图5,上述步骤S230中的“将第一数量和第二数量输入已训练神经网络模型进行处理,得到每一目标供给节点为目标订单分配的目标对象的分配比例”可以进一步包括以下步骤S510至S540:
步骤S510、在输入层,分别对目标需求节点与目标供给节点进行独热编码,得到第一稀疏向量与第二稀疏向量。
其中,输入层是已训练神经网络模型的第一层,一般接收输入数据并将其传递至下一层,但不对输入数据执行任何运算;因此,输入层没有权重值和偏置值。示例性的,如图6所示。
独热编码(One-Hot Encoding),又称一位有效编码,其方法是使用N位状态寄存器来对N个状态进行编码,每个状态都有它独立的寄存器位,并且在任意时候,其中只有一位有效。即,只有一位是1,其余都是零值。独热编码。
示例性的,目标需求节点为古装剧频道和古装剧标签,那么,古装剧频道这一目标需求节点的独热编码为(0,1),那么,古装剧标签这一目标需求节点的独热编码为(1,0)。目标需求节点同理,此处不再赘述。
本步骤中,第一稀疏向量可以是将每一目标需求节点生成的独热编码横向拼接得到,也可以是将每一目标需求节点生成的独热编码纵向拼接得到;比如:将古装剧频道这一目标需求节点的独热编码为(0,1)和古装剧标签这一目标需求节点的独热编码为(1,0)进行横向拼接为[0,1,1,0],将古装剧频道这一目标需求节点的独热编码为(0,1)和古装剧标签这一目标需求节点的独热编码为(1,0)进行纵向拼接为
步骤S520、在嵌入层,对第一稀疏向量和第二稀疏向量进行降维,得到第一稠密向量和第二稠密向量。
其中,嵌入层是一个映射,可以将特征从原来的低维空间映射到高维空间,或者从原来的高维空间映射到低维空间;比如:对独热编码后的高维稀疏矩阵乘以映射表(即嵌入矩阵或者查询表)/>的矩阵,得到降维后的/>的低维稠密矩阵;升维与之相反,此处不再赘述。
在实际操作中,可以通过嵌入层将第一稀疏向量和第二稀疏向量映射到较小维度的空间内;示例性的,如图6所示,可以通过嵌入层将第一稀疏向量和第二稀疏向量映射到k维的空间内;具体的,对输入的目标需求节点j的向量(第一稀疏向量)乘以嵌入矩阵,得到该向量的嵌入向量(第一稠密向量)embj,其中,N代表目标需求节点的数量;对输入的目标供给节点i的向量(第二稀疏向量),乘以嵌入矩阵/>,得到该向量的嵌入向量(即第二稠密向量)embi,其中,M代表目标供给节点的数量;图6中,嵌入层包括需求嵌入层与供给嵌入层,需求嵌入层对上述第一稀疏向量进行嵌入,供给嵌入层对上述第二稀疏向量进行嵌入。
步骤S530、在网络层,对第一稠密向量和第二稠密向量进行特征提取,得到第一特征向量和第二特征向量。
其中,网络层可以包括若干个全连接网络,每一全连接网络可以包括若干个全连接层,此处不做限定;示例性的,每一全连接网络可以包括三个全连接层,分别用来输出256维、128维和64维的特征向量。
进一步的,每一全连接层可以使用一定的概率以及激活函数进行随机丢失来防止过拟合;比如:使用0.2的概率以及线性整流函数(Linear rectification function,ReLU)进行随机丢失来防止过拟合。示例性的,如图6所示,网络层可以是多个多层感知机(Multilayer perceptron,MLP)依次连接而成的深度神经网络(Deep neural network,DNN),其中,网络层可以是深度神经网络,全连接网络可以是多层感知机。
步骤S540、在输出层,采用归一化函数将第一特征向量和第二特征向量转换为目标供给节点的分配比例值。
其中,输出层的作用是把上一层的输出转化为最后的分配比例。输出层通常使用一层权连接层,其输出维度为1;同时,使用归一化指数函数(Softmax)对同一个目标供给节点下的所有向量进行输出转化,将其转化为0-1之间的值。示例性的,如图6所示。
使用神经网络模型拟合分配比例,通过嵌入矩阵的变换以及模型的随机性,能够较快的求得最优解,并缓解陷入局部最优解的情况。
在一种实施方式中,为了进一步提高实时性,可以对处理上一目标订单的已训练神经网络模型进行进一步训练,以得到处理当前目标订单的已训练神经网络模型;具体的,参考图7,该基于神经网络模型的库存分配方法还可以进一步包括以下步骤S710至S730:
步骤S710、读取处理上一目标订单的已训练神经网络模型。
其中,可以对处理每一目标订单的已训练神经网络模型进行保存,如此,在需要时,直接读取处理上一目标订单的已训练神经网络模型即可。
步骤S720、采用目标订单的第一数量和第二数量对上一目标订单的已训练神经网络模型进行训练,得到已训练神经网络模型。
其中,嵌入向量、损失函数等参数可以保持不变。
对神经网络模型如何训练得到已训练神经网络模型在下面进行***说明,此处先不做解释。
步骤S730、将第一数量和第二数量输入已训练神经网络模型进行处理,得到每一目标供给节点分配的目标对象的分配比例值。
示例性的,神经网络模型包括输入层、嵌入层、网络层、输出层;输入层用于获取输入的第一数量和第二数量,并进行简单的数据处理;嵌入层用于对输入层输出的数据进行降维;网络层用于对嵌入层输出的数据进行特征提取;输出层用于对网络层的输出进行转化。示例性的,可以对神经网络模型进行训练,得到上述已训练神经网络模型。
根据当前订单实时更新模型,能够使得模型及时适应变化的订单环境,从而报障模型的分配效果。
在一种实施方式中,可以对神经网络模型进行训练,得到已训练神经网络模型;具体的,参考图8,训练神经网络模型得到已训练神经网络模型可以进一步包括以下步骤S810至S850:
步骤S810、初始化神经网络模型的参数。
其中,参数包括权重和偏差。
参数的初始化可以采用预训练初始化的方式,也可以采用随机初始化的方式,还可以采用固定值初始化的方式,此处不做限定。
步骤S820、将训练数据输入神经网络模型,向前传播得到预测分配比例值。
其中,可以将训练数据分为多个批次,按批次对神经网络模型进行训练;比如:可以将训练数据分为10个批次,每个批次的训练数据为B,分10次对神经网络模型进行训练。
步骤S830、根据预设损失函数计算预测分配比例与真实分配比例之间的损失值。
其中,损失函数包括正则化项。
模型训练的目标通常为损失函数最小化。在实际操作中,可以采用如下损失函数:
其中,,/>表示需求节点j的需求量,/>表示需求节点j能定向到的所有供给节点i的供给量之和;/>表示从数据库中获取到的需求节点j对应的未完成惩罚系数;/>表示从数据库中获取到的需求节点j对应的未完成的量;/>表示订单j在供给渠道i上的完整播放比例;/>表示从数据库***获取到的神经网络中所涉及的损失函数项的系数;/>表示输入的样本数量;/>表示需求节点j的重要程度;/>表示模型输出的分配比例;
加入的正则化项reg作为限制条件替代了相关技术中启发式算法的搜索过程中的限制条件来约束优化过程,能够使得求解结果满足各项限制条件的同时,降低了分配过程中无解的概率。
步骤S840、采用梯度下降法根据损失值反向传播计算神经网络模型的参数的下降梯度。
其中,优化器是在深度学习反向传播过程中,指引损失函数(目标函数)的各个参数往正确的方向更新合适的大小,使得更新后的各个参数让损失函数值不断逼近全局最小。
优化主要考虑两方面:
第一、优化方向,在优化器中反映为梯度或动量;
第二、步长,在优化器中反映为学习率。
一般的,需要优化的参数包括损失函数、初始学习率、将一个批次的训练数据迭代一遍的时间。
优化器包括随机梯度下降法(Stochastic Gradient Descent,SGD)、SGD withMomentum、SGD with Nesterov Acceleration、自适应学习率算法(AdaGrad梯度下降法)、AdaDelta/RMSProp、Adam梯度下降法等。
步骤S850、根据下降梯度对神经网络模型进行优化,直到达到预设的收敛条件,结束训练,得到已训练神经网络模型。
其中,预设的收敛条件为根据历史数据或者经验设置的迭代次数阈值,或者损失值阈值;进而,在达到迭代次数阈值,或者达到损失值阈值时,结束迭代训练,即可得到已训练神经网络模型。
在实际操作中,还可以采用测试数据对通过训练集训练好的神经网络模型进行进一步测试,在测试通过后,将测试通过的神经网络模型作为已训练神经网络模型。
在一种实施方式中,为了确保模型效果,可以进一步对已训练神经网络模型进行评估;具体的,该基于神经网络模型的库存分配方法还可以进一步包括以下步骤:
采用验证集计算已训练神经网络模型的评估指标。
其中,评估指标包括以下至少一种:均方误差、均方根误差、平均绝对误差、决定系数。
均方误差(Mean Squared Error,MSE)是一种常用的衡量模型预测值与实际观测值之间差异的指标,用于评估模型在给定数据上的拟合程度。MSE是通过计算预测值与实际观测值之间差异的平方的平均值得到。
均方根误差(Root Mean Squared Error,RMSE)是一种常用的衡量模型预测值与实际观测值之间差异的指标,它用于评估模型在给定数据上的拟合程度。RMSE是通过计算预测值与实际观测值之间差异的平方的均值,并取其平方根得到。
平均绝对误差(Mean Absolute Error,MAE)是一种常用的衡量模型预测值与实际观测值之间差异的指标,用于评估模型在给定数据上的拟合程度。MAE是通过计算预测值与实际观测值之间差异的绝对值的平均值得到。
决定系数(Coefficient of Determination),通常表示为R²,是一种用于评估回归模型拟合优度的统计指标。它表示因变量的变异性能够由模型解释的比例,即模型对数据的拟合程度。
示例性装置
在介绍了本公开示例性实施方式的基于神经网络模型的库存分配方法之后,接下来,参考图9对本公开示例性实施方式的基于神经网络模型的库存分配装置进行说明。
参考图9所示,基于神经网络模型的库存分配装置,装置包括:目标需求节点确定模块910,被配置为响应于目标订单下单成功,根据目标订单的定向条件确定与所述目标订单对应的第一数量的目标需求节点;目标订单为购买目标对象形成的购买凭据;目标供给节点确定模块920,被配置为在为目标订单提供目标对象的供给平台中,根据目标订单的供给渠道,确定第二数量的目标供给节点;目标对象分配模块930,被配置为将第一数量和第二数量输入已训练神经网络模型进行处理,得到每一目标供给节点分配的目标对象的分配比例值,并按照分配比例值对目标对象进行分配。
在一种实施方式中,目标需求节点确定模块910被配置为:确定定向条件的数量;将目标订单按照定向条件的数量进行拆分,得到第一数量的目标需求节点。
在一种实施方式中,目标供给节点确定模块920被配置为:将目标订单的每一供给渠道作为一个目标供给节点。
在一种实施方式中,目标需求节点确定模块910被配置为:响应于目标订单下单当天所有目标供给节点的总库存大于或等于所有目标需求节点的总需求量,确定下单成功。
在一种实施方式中,目标对象分配模块930被配置为:在输入层,分别对目标需求节点与目标供给节点进行独热编码,得到第一稀疏向量与第二稀疏向量;在嵌入层,对第一稀疏向量和第二稀疏向量进行降维,得到第一稠密向量和第二稠密向量;在网络层,对第一稠密向量和第二稠密向量进行特征提取,得到第一特征向量和第二特征向量;在输出层,采用归一化函数将第一特征向量和第二特征向量转换为目标供给节点的分配比例值。
在一种实施方式中,装置还包括模型更新模块,模型更新模块被配置为:读取处理上一目标订单的已训练神经网络模型;采用目标订单的第一数量和第二数量对上一目标订单的已训练神经网络模型进行训练,得到已训练神经网络模型;将第一数量和第二数量输入已训练神经网络模型进行处理,得到每一目标供给节点分配的目标对象的分配比例值。
在一种实施方式中,装置还包括模型训练模块,模型训练模块被配置为:初始化神经网络模型的参数;参数包括权重和偏差;将训练数据输入神经网络模型,向前传播得到预测分配比例值;根据预设损失函数计算预测分配比例与真实分配比例之间的损失值;损失函数包括正则化项;采用梯度下降法根据损失值反向传播计算神经网络模型的参数的下降梯度;根据下降梯度对神经网络模型进行优化,直到达到预设的收敛条件,结束训练,得到已训练神经网络模型。
在一种实施方式中,装置还包括模型评估模块,模型评估模块被配置为:采用验证集计算已训练神经网络模型的评估指标;评估指标包括以下至少一种:均方误差、均方根误差、平均绝对误差、决定系数。
示例性存储介质
下面对本公开示例性实施方式的存储介质进行说明。
本示例性实施方式中,可以通过程序产品实现上述方法,如可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
该程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RE等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,程序设计语言包括面向对象的程序设计语言-诸如Java、C++等,还包括常规的过程式程序设计语言-诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
示例性电子设备
参考图10对本公开示例性实施方式的电子设备进行说明。
图10显示的电子设备1000仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图10所示,电子设备1000以通用计算设备的形式表现。电子设备1000的组件可以包括但不限于:至少一个处理单元1010、至少一个存储单元1020、连接不同***组件(包括存储单元1020和处理单元1010)的总线1030、显示单元1040。
其中,存储单元存储有程序代码,程序代码可以被处理单元1010执行,使得处理单元1010执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,处理单元1010可以执行如图1所示的方法步骤等。
存储单元1020可以包括易失性存储单元,例如随机存取存储单元(RAM)1021和/或高速缓存存储单元1022,还可以进一步包括只读存储单元(ROM)1023。
存储单元1020还可以包括具有一组(至少一个)程序模块1025的程序/实用工具1024,这样的程序模块1025包括但不限于:操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线1030可以包括数据总线、地址总线和控制总线。
电子设备1000也可以与一个或多个外部设备2000(例如键盘、指向设备、蓝牙设备等)通信,这种通信可以通过输入/输出(I/O)接口1050进行。电子设备1000还包括显示单元1040,其连接到输入/输出(I/O)接口1050,用于进行显示。并且,电子设备1000还可以通过网络适配器1060与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器1060通过总线1030与电子设备1000的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备1000使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
应当注意,尽管在上文详细描述中提及了装置的若干模块或子模块,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多单元/模块的特征和功能可以在一个单元/模块中具体化。反之,上文描述的一个单元/模块的特征和功能可以进一步划分为由多个单元/模块来具体化。
此外,尽管在附图中以特定顺序描述了本公开方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
虽然已经参考若干具体实施方式描述了本公开的精神和原理,但是应该理解,本公开并不限于所公开的具体实施方式,对各方面的划分也不意味着这些方面中的特征不能组合以进行受益,这种划分仅是为了表述的方便。本公开旨在涵盖所附权利要求的精神和范围内所包括的各种修改和等同布置。

Claims (18)

1.一种基于神经网络模型的库存分配方法,其特征在于,所述方法包括:
响应于目标订单下单成功,根据所述目标订单的定向条件确定与所述目标订单对应的第一数量的目标需求节点;所述目标订单为购买目标对象形成的购买凭据;
在为所述目标订单提供所述目标对象的供给平台中,根据所述目标订单的供给渠道,确定第二数量的目标供给节点;
将所述第一数量和所述第二数量输入已训练神经网络模型进行处理,得到每一所述目标供给节点分配的所述目标对象的分配比例值,并按照所述分配比例值对所述目标对象进行分配。
2.根据权利要求1所述的方法,其特征在于,所述根据所述目标订单的定向条件确定与所述目标订单对应的第一数量的目标需求节点,包括:
确定所述定向条件的数量;
将所述目标订单按照所述定向条件的数量进行拆分,得到第一数量的所述目标需求节点。
3.根据权利要求1所述的方法,其特征在于,所述根据所述目标订单的供给渠道,确定第二数量的目标供给节点,包括:
将所述目标订单的每一供给渠道作为一个所述目标供给节点。
4.根据权利要求1所述的方法,其特征在于,所述响应于目标订单下单成功,包括:
响应于所述目标订单下单当天所有所述目标供给节点的总库存大于或等于所有所述目标需求节点的总需求量,确定下单成功。
5.根据权利要求1所述的方法,其特征在于,所述将所述第一数量和所述第二数量输入已训练神经网络模型进行处理,得到每一所述目标供给节点分配的所述目标对象的分配比例值,包括:
在输入层,分别对所述目标需求节点与所述目标供给节点进行独热编码,得到第一稀疏向量与第二稀疏向量;
在嵌入层,对所述第一稀疏向量和所述第二稀疏向量进行降维,得到第一稠密向量和第二稠密向量;
在网络层,对所述第一稠密向量和所述第二稠密向量进行特征提取,得到第一特征向量和第二特征向量;
在输出层,采用归一化函数将所述第一特征向量和所述第二特征向量转换为所述目标供给节点的分配比例值。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
读取处理上一目标订单的已训练神经网络模型;
采用所述目标订单的所述第一数量和所述第二数量对上一目标订单的已训练神经网络模型进行训练,得到所述已训练神经网络模型;
将所述第一数量和所述第二数量输入所述已训练神经网络模型进行处理,得到每一所述目标供给节点分配的所述目标对象的分配比例值。
7.根据权利要求1所述的方法,其特征在于,训练神经网络模型得到所述已训练神经网络模型的过程为:
初始化神经网络模型的参数;所述参数包括权重和偏差;
将训练数据输入所述神经网络模型,向前传播得到预测分配比例值;
根据预设损失函数计算预测分配比例与真实分配比例之间的损失值;所述损失函数包括正则化项;
采用梯度下降法根据所述损失值反向传播计算所述神经网络模型的参数的下降梯度;
根据所述下降梯度对所述神经网络模型进行优化,直到达到预设的收敛条件,结束训练,得到所述已训练神经网络模型。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
采用验证集计算所述已训练神经网络模型的评估指标;所述评估指标包括以下至少一种:均方误差、均方根误差、平均绝对误差、决定系数。
9.一种基于神经网络模型的库存分配装置,其特征在于,所述装置包括:
目标需求节点确定模块,被配置为响应于目标订单下单成功,根据所述目标订单的定向条件确定与所述目标订单对应的第一数量的目标需求节点;所述目标订单为购买目标对象形成的购买凭据;
目标供给节点确定模块,被配置为在为所述目标订单提供所述目标对象的供给平台中,根据所述目标订单的供给渠道,确定第二数量的目标供给节点;
目标对象分配模块,被配置为将所述第一数量和所述第二数量输入已训练神经网络模型进行处理,得到每一所述目标供给节点分配的所述目标对象的分配比例值,并按照所述分配比例值对所述目标对象进行分配。
10.根据权利要求9所述的装置,其特征在于,所述目标需求节点确定模块被配置为:
确定所述定向条件的数量;
将所述目标订单按照所述定向条件的数量进行拆分,得到第一数量的所述目标需求节点。
11.根据权利要求9所述的装置,其特征在于,所述目标供给节点确定模块被配置为:
将所述目标订单的每一供给渠道作为一个所述目标供给节点。
12.根据权利要求9所述的装置,其特征在于,所述目标需求节点确定模块被配置为:
响应于所述目标订单下单当天所有所述目标供给节点的总库存大于或等于所有所述目标需求节点的总需求量,确定下单成功。
13.根据权利要求9所述的装置,其特征在于,所述目标对象分配模块被配置为:
在输入层,分别对所述目标需求节点与所述目标供给节点进行独热编码,得到第一稀疏向量与第二稀疏向量;
在嵌入层,对所述第一稀疏向量和所述第二稀疏向量进行降维,得到第一稠密向量和第二稠密向量;
在网络层,对所述第一稠密向量和所述第二稠密向量进行特征提取,得到第一特征向量和第二特征向量;
在输出层,采用归一化函数将所述第一特征向量和所述第二特征向量转换为所述目标供给节点的分配比例值。
14.根据权利要求9所述的装置,其特征在于,所述装置还包括模型更新模块,所述模型更新模块被配置为:
读取处理上一目标订单的已训练神经网络模型;
采用所述目标订单的所述第一数量和所述第二数量对上一目标订单的已训练神经网络模型进行训练,得到所述已训练神经网络模型;
将所述第一数量和所述第二数量输入所述已训练神经网络模型进行处理,得到每一所述目标供给节点分配的所述目标对象的分配比例值。
15.根据权利要求9所述的装置,其特征在于,所述装置还包括模型训练模块,所述模型训练模块被配置为:
初始化神经网络模型的参数;所述参数包括权重和偏差;
将训练数据输入所述神经网络模型,向前传播得到预测分配比例值;
根据预设损失函数计算预测分配比例与真实分配比例之间的损失值;所述损失函数包括正则化项;
采用梯度下降法根据所述损失值反向传播计算所述神经网络模型的参数的下降梯度;
根据所述下降梯度对所述神经网络模型进行优化,直到达到预设的收敛条件,结束训练,得到所述已训练神经网络模型。
16.根据权利要求15所述的装置,其特征在于,所述装置还包括模型评估模块,所述模型评估模块被配置为:
采用验证集计算所述已训练神经网络模型的评估指标;所述评估指标包括以下至少一种:均方误差、均方根误差、平均绝对误差、决定系数。
17.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~8任一项所述的方法。
18.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~8任一项所述的方法。
CN202311757785.2A 2023-12-19 2023-12-19 基于神经网络模型的库存分配方法、装置、介质及设备 Pending CN117455366A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311757785.2A CN117455366A (zh) 2023-12-19 2023-12-19 基于神经网络模型的库存分配方法、装置、介质及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311757785.2A CN117455366A (zh) 2023-12-19 2023-12-19 基于神经网络模型的库存分配方法、装置、介质及设备

Publications (1)

Publication Number Publication Date
CN117455366A true CN117455366A (zh) 2024-01-26

Family

ID=89585802

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311757785.2A Pending CN117455366A (zh) 2023-12-19 2023-12-19 基于神经网络模型的库存分配方法、装置、介质及设备

Country Status (1)

Country Link
CN (1) CN117455366A (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110097302A (zh) * 2018-01-29 2019-08-06 北京京东尚科信息技术有限公司 分配订单的方法和装置
CN110197257A (zh) * 2019-05-28 2019-09-03 浙江大学 一种基于增量正则化的神经网络结构化稀疏方法
CN112001681A (zh) * 2020-08-31 2020-11-27 杭州拼便宜网络科技有限公司 一种仓储管理方法、装置、平台和计算机可读存储介质
US11080727B1 (en) * 2018-12-11 2021-08-03 Stitch Fix, Inc. Global optimization of inventory allocation
CN113706211A (zh) * 2021-08-31 2021-11-26 平安科技(深圳)有限公司 基于神经网络的广告点击率预测方法及***
KR102452440B1 (ko) * 2022-07-25 2022-10-11 주식회사 어스큐레이션 전자 장비의 유통을 위한 재고 관리 및 주문 처리 방법, 장치 및 시스템
CN116107279A (zh) * 2023-02-20 2023-05-12 合肥城市云数据中心股份有限公司 基于注意力深度神经网络的流程工业能耗多目标优化方法
CN116227577A (zh) * 2023-03-07 2023-06-06 北京中电普华信息技术有限公司 神经网络模型训练方法、装置、设备及可读存储介质
CN116257758A (zh) * 2023-01-18 2023-06-13 杭州网易云音乐科技有限公司 模型训练方法、人群拓展方法、介质、装置和计算设备
CN116862580A (zh) * 2023-07-11 2023-10-10 深圳市乐信信息服务有限公司 短信触达时间预测方法、装置、计算机设备及存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110097302A (zh) * 2018-01-29 2019-08-06 北京京东尚科信息技术有限公司 分配订单的方法和装置
US11080727B1 (en) * 2018-12-11 2021-08-03 Stitch Fix, Inc. Global optimization of inventory allocation
CN110197257A (zh) * 2019-05-28 2019-09-03 浙江大学 一种基于增量正则化的神经网络结构化稀疏方法
CN112001681A (zh) * 2020-08-31 2020-11-27 杭州拼便宜网络科技有限公司 一种仓储管理方法、装置、平台和计算机可读存储介质
CN113706211A (zh) * 2021-08-31 2021-11-26 平安科技(深圳)有限公司 基于神经网络的广告点击率预测方法及***
KR102452440B1 (ko) * 2022-07-25 2022-10-11 주식회사 어스큐레이션 전자 장비의 유통을 위한 재고 관리 및 주문 처리 방법, 장치 및 시스템
CN116257758A (zh) * 2023-01-18 2023-06-13 杭州网易云音乐科技有限公司 模型训练方法、人群拓展方法、介质、装置和计算设备
CN116107279A (zh) * 2023-02-20 2023-05-12 合肥城市云数据中心股份有限公司 基于注意力深度神经网络的流程工业能耗多目标优化方法
CN116227577A (zh) * 2023-03-07 2023-06-06 北京中电普华信息技术有限公司 神经网络模型训练方法、装置、设备及可读存储介质
CN116862580A (zh) * 2023-07-11 2023-10-10 深圳市乐信信息服务有限公司 短信触达时间预测方法、装置、计算机设备及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
XU, J等: "Sportswear retailing forecast model based on the combination of multi-layer perceptron and convolutional neural network", 《TEXTILE RESEARCH JOURNAL》, vol. 91, no. 23, 31 December 2021 (2021-12-31), pages 2980 - 2994 *
吕飞等: "单周期随机库存控制策略下的选址分配问题优化模型及其算法", 《物流技术》, vol. 28, no. 12, 15 December 2009 (2009-12-15), pages 93 - 97 *
石磊;: "时间序列和神经网络对迷你型洗衣机销量预测", 安徽理工大学学报(自然科学版), no. 03, 15 September 2013 (2013-09-15), pages 73 - 77 *

Similar Documents

Publication Publication Date Title
CN109902849B (zh) 用户行为预测方法及装置、行为预测模型训练方法及装置
US10812870B2 (en) Yield optimization of cross-screen advertising placement
CA3007853C (en) End-to-end deep collaborative filtering
US20180342004A1 (en) Cumulative success-based recommendations for repeat users
CN110866628A (zh) 利用动态时间上下文学习进行多界限时间序列预测的***和方法
CN110046965A (zh) 信息推荐方法、装置、设备和介质
WO2022246010A1 (en) Digital asset management
KR20110082597A (ko) 자동화된 명세, 추정, 원인 드라이버들의 디스커버리 및 마켓 응답 탄력성들 또는 리프트 인자
CN110991464A (zh) 一种基于深度多模态数据融合的商品点击率预测方法
CN114117216A (zh) 推荐概率预测方法及装置、计算机存储介质和电子设备
WO2017124041A1 (en) Yield optimization of cross-screen advertising placement
CN112348592A (zh) 广告推荐方法、装置、电子设备及介质
CN113706211A (zh) 基于神经网络的广告点击率预测方法及***
Zhao et al. Tag‐Aware Recommender System Based on Deep Reinforcement Learning
US10678800B2 (en) Recommendation prediction based on preference elicitation
CN116910373B (zh) 房源推荐方法、装置、电子设备及存储介质
CN112348590A (zh) 一种物品价值确定方法、装置、电子设备和存储介质
US20210248576A1 (en) System to facilitate exchange of data segments between data aggregators and data consumers
US11861459B2 (en) Automatic determination of suitable hyper-local data sources and features for modeling
CN116340635A (zh) 物品推荐方法、模型训练方法、装置及设备
CN117455366A (zh) 基于神经网络模型的库存分配方法、装置、介质及设备
CN113902481B (zh) 权益确定方法、装置、存储介质及设备
CN114331637A (zh) 对象推荐方法及装置、存储介质、电子设备
CN115329183A (zh) 数据处理方法、装置、存储介质及设备
CN114529309A (zh) 一种信息审核方法、装置、电子设备及计算机可读介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination