CN115936582A - 商品补货方法、***、电子设备及可读存储介质 - Google Patents

商品补货方法、***、电子设备及可读存储介质 Download PDF

Info

Publication number
CN115936582A
CN115936582A CN202211682974.3A CN202211682974A CN115936582A CN 115936582 A CN115936582 A CN 115936582A CN 202211682974 A CN202211682974 A CN 202211682974A CN 115936582 A CN115936582 A CN 115936582A
Authority
CN
China
Prior art keywords
target
deep learning
historical
replenishment
commodity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211682974.3A
Other languages
English (en)
Inventor
顾伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Resources Digital Technology Co Ltd
Original Assignee
China Resources Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Resources Digital Technology Co Ltd filed Critical China Resources Digital Technology Co Ltd
Priority to CN202211682974.3A priority Critical patent/CN115936582A/zh
Publication of CN115936582A publication Critical patent/CN115936582A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种商品补货方法、***、电子设备及可读存储介质,商品补货方法包括:获取目标商品的当前库存状态数据;根据当前库存状态数据和预先获得的目标深度学习预测模型得到目标补货量,其中,目标深度学习预测模型根据QLearning算法和预先获取的目标商品对应的历史库存状态数据得到。本发明实施例可以利用目标深度学习预测模型以及获取的当前库存状态数据,完成对目标商品在相关时间段下的目标补货量的确定,进而为卖场进行货物补货以及供给提供了理论支撑,极大的减小了卖场管理人员在商品进货、补货等流程中需要投入的人力和物力需求,降低了买成的整体成本,且可以有效的避免人工计算带来的计算误差。

Description

商品补货方法、***、电子设备及可读存储介质
技术领域
本发明涉及信息处理领域,尤其是涉及一种商品补货方法、***、电子设备及可读存储介质。
背景技术
商品补货及时率、补货量的准确性直接影响到卖场是否会出现缺货、现金资本的流动率,卖场的盈利能力。因此,如何科学、准确、及时的计算出每一类商品的补货数量及其补货时间点,成了卖场商品管理急需解决的问题。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一。为此,本发明提出一种商品补货方法,能够满足商场对商品补的准确性和及时性的需求。
本发明还提出了一种商品补货***、电子设备以及计算机可读存储介质。
根据本发明的第一方面实施例的商品补货方法,包括:
获取目标商品的当前库存状态数据;
根据所述当前库存状态数据和预先获得的目标深度学习预测模型得到目标补货量,其中,所述目标深度学习预测模型根据QLearning算法和预先获取的所述目标商品对应的历史库存状态数据得到。
根据本发明实施例的商品补货方法,至少具有以下有益效果:
本发明实施例的商品补货方法基于历史库存状态数据并利用QLearning算法构建目标深度学习预测模型,从而可以利用目标深度学习预测模型以及获取的当前库存状态数据,完成对目标商品在相关时间段下的目标补货量的确定,进而为卖场进行货物补货以及供给提供了理论支撑。本发明实施例的商品补货方法在确定目标商品的当前库存状态数据的前提下,能够自主的完成对目标补货量的确定,极大的减小了卖场管理人员在商品进货、补货等流程中需要投入的人力和物力需求,降低了买成的整体成本,且可以有效的避免人工计算带来的计算误差。
根据本发明的一些实施例,所述当前库存状态数据至少包括所述目标商品在当前销售阶段对应的当前状态变量,所述当前状态变量用于表征所述当前销售阶段的销售促销状态。
根据本发明的一些实施例,所述根据所述当前库存状态数据和预先获得的目标深度学习预测模型得到目标补货量,包括:
将所述当前状态变量输入所述目标深度学习预测模型,以得到多个不同补货量下对应的多个预测奖励值;
选取多个所述预测奖励值中数值最大的一个对应的所述补货量为所述目标补货量。
根据本发明的一些实施例,所述目标深度学习预测模型由以下步骤得到:
获取所述历史库存状态数据;
基于所述QLearning算法构建深度学习QLearning模型;
利用所述历史库存状态数据对所述深度学习QLearning模型进行训练,得到所述目标深度学习预测模型。
根据本发明的一些实施例,所述基于所述QLearning算法构建深度学习QLearning模型,包括:
获取奖励函数和与所述奖励函数对应的目标约束容量;
基于所述QLearning算法,根据所述奖励函数和所述目标约束容量构建所述深度学习QLearning模型。
根据本发明的一些实施例,所述历史库存状态数据包括所述目标商品在多个历史销售阶段对应的历史库存数量、历史需求数量和历史订单数量,以及与每个所述历史销售阶段对应的历史状态变量,每个所述历史状态变量皆用于表征对应所述历史销售阶段的销售促销状态。
根据本发明的第二方面实施例的商品补货***,包括:
当前状态确定模块,用于获取目标商品的当前库存状态数据;
预测模块,用于根据所述当前库存状态数据和预先获得的目标深度学习预测模型得到目标补货量,其中,所述目标深度学习预测模型根据QLearning算法和预先获取的所述目标商品对应的历史库存状态数据得到。
根据本发明实施例的商品补货***,至少具有以下有益效果:
本发明实施例的商品补货***基于历史库存状态数据并利用QLearning算法构建目标深度学习预测模型,从而可以利用目标深度学习预测模型以及获取的当前库存状态数据,完成对目标商品在相关时间段下的目标补货量的确定,进而为卖场进行货物补货以及供给提供了理论支撑。本发明实施例的商品补货***在确定目标商品的当前库存状态数据的前提下,能够自主的完成对目标补货量的确定,极大的减小了卖场管理人员在商品进货、补货等流程中需要投入的人力和物力需求,降低了买成的整体成本,且可以有效的避免人工计算带来的计算误差。
根据本发明的一些实施例,所述商品补货***还包括:
数据获取模块,用于获取所述历史库存状态数据;
模型构建模块,用于基于所述QLearning算法构建深度学习QLearning模型;
模型训练生成模块,用于利用所述历史库存状态数据对所述深度学习QLearning模型进行训练,得到所述目标深度学习预测模型。
根据本发明的第三方面实施例的电子设备,包括存储器、通讯模块、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述的商品补货方法。由于计算机程序执行了了上述实施例的商品补货方法的全部技术方案,因此至少具有上述实施例的技术方案所带来的所有有益效果。
根据本发明的第四方面实施例的计算机可读存储介质,存储有计算机可执行指令,所述计算机可执行指令用于执行如上述的商品补货方法。由于计算机可读存储介质采用了上述实施例的商品补货方法的全部技术方案,因此至少具有上述实施例的技术方案所带来的所有有益效果。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明一实施例提供的商品补货方法的流程图;
图2是本发明一实施例提供的获取目标深度学习预测模型的流程图;
图3是本发明一实施例提供的构建深度学习QLearning模型的流程图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,如果有描述到第一、第二等只是用于区分技术特征为目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量或者隐含指明所指示的技术特征的先后关系。
在本发明的描述中,需要理解的是,涉及到方位描述,例如上、下等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
本发明的描述中,需要说明的是,除非另有明确的限定,设置、安装、连接等词语应做广义理解,所属技术领域技术人员可以结合技术方案的具体内容合理确定上述词语在本发明中的具体含义。
下面将结合附图对本发明的技术方案进行清楚、完整的描述,显然,以下所描述的实施例是本发明一部分实施例,并非全部实施例。
如图1所示,图1是本发明一个实施例提供的商品补货方法的流程图,该商品补货方法包括但不限于以下步骤:
获取目标商品的当前库存状态数据;
根据当前库存状态数据和预先获得的目标深度学习预测模型得到目标补货量,其中,目标深度学习预测模型根据QLearning算法和预先获取的目标商品对应的历史库存状态数据得到。
为了完成对目标商品的目标补货量的预测,需要先构建目标深度学习预测模型。本发明实施例中基于QLearning算法来构建预测模型,从而可以更好的完成对补货量的阶段性预测。构建基于QLearning算法的目标深度学习预测模型时,为了保证模型预测的准确性,则进一步采用目标商品对应的历史库存状态数据来对预先构建的模型进行训练,从而得到满足预测需求的目标深度学习预测模型。
本发明实施例的商品补货方法可以利用目标深度学习预测模型以及获取的当前库存状态数据,完成对目标商品在相关时间段下的目标补货量的确定,进而为卖场进行货物补货以及供给提供了理论支撑。并且,本发明实施例的商品补货方法在确定目标商品的当前库存状态数据的前提下,能够自主的完成对目标补货量的确定,极大的减小了卖场管理人员在商品进货、补货等流程中需要投入的人力和物力需求,且可以有效的避免人工计算带来的计算误差。
在一些实施例中,历史库存状态数据包括目标商品在多个历史销售阶段对应的历史库存数量、历史需求数量和历史订单数量,以及与每个历史销售阶段对应的历史状态变量,每个历史状态变量皆用于表征对应历史销售阶段的销售促销状态。
不同的历史销售阶段,对应不同的货品销售情况,例如:在商品促销期间,商品的销售速度必定会远远大于没有促销时的销售速度,因此,基于不同的销售阶段的历史库存状态数据可以更好的完成对模型的训练,也便于后续利用训练完成的目标深度学习预测模型在不同的销售场景下完成更准确的预测。历史库存状态数据包括历史库存数量、历史需求数量和历史订单数量等数据信息,以及根据历史库存数量、历史需求数量和历史订单数量等数据信息确定的历史状态变量,历史状态变量可以直接表征当前的销售促销状态,例如,当前是“促销”还是“非促销”,具体的历史状态变量的种类不作具体要求,可以在“促销”、“非促销”以外再设置更多的条目。需要说明的是,历史状态变量可以根据历史库存数量、历史需求数量和历史订单数量等数据信息自动确定,例如,根据库存在一定时间内的销售量,便可以确定这一阶段是否在进行促销;但是,自动确定的历史状态变量可能存在误差,因此在进行模型训练之间,可以人工对历史状态变量进行复核,减少错误数据带来的影响。
参考图2,在一些实施例中,目标深度学习预测模型由以下步骤得到:
获取历史库存状态数据;
基于QLearning算法构建深度学习QLearning模型;
利用历史库存状态数据对深度学习QLearning模型进行训练,得到目标深度学习预测模型。
预测的准确性主要在于目标深度学习预测模型,本实施例在获得历史库存状态数据前,会基于QLearning算法构建深度学习QLearning模型,利用深度学习QLearning模型来完成对补货量的预测。构建的深度学习QLearning模型会利用预先获取的历史库存状态数据来完成对目标深度学习预测模型,又因为,历史库存状态数据包含了多个不同历史销售阶段下大量的数据,因此,在利用目标深度学习预测模型时,输入目标商品的当前状态库存数据便可以直接有效的预测出目标补货量。
参考图3,在一些实施例中,基于QLearning算法构建深度学习QLearning模型,包括:
获取奖励函数和与奖励函数对应的目标约束容量;
基于QLearning算法,根据奖励函数和目标约束容量构建深度学习QLearning模型。
本实施例是基于QLearning算法完成的模型构建,而QLearning算法运用时,则需要利用到Q表,本实施例中Q表可以参考表1,表1中s1至s4为步骤,可以理解为对应不同的销售阶段,a1至a4对应不同特征,例如a1至a4可以分别对应目标商品历史中在不同阶段的最小陈列量、缺货率指标、陈列相对距离以及陈列占比系数。
表1
Q表 a1 a2 a3 a4
s1 -1 2 1 4
s2 2 3 4 1
s3 3 1 2 -1
s4 5 0 -1 2
可以理解的是,模型构建中,最重要的便是损失函数(即本发明中奖励函数),基于QLearning算法构建深度学习QLearning模型同样也需要确定奖励函数。本实施例中基于下述公式完成了模型构建。
Q(s,a)new=(1-α)Q(s,a)old+α[r+γmaxa′Q(s′,a′)](1)
式中,α指学习率,γ指衰减值,Q(s,a)new指Q表在下一个步骤s与a指标形成的新矩阵,Q(s,a)old指Q表在上一个步骤s与a指标形成的矩阵,Q(s’,a’)指Q表在上一个步骤的矩阵Q(s,a)new与下一步Q(s,a)old的矩阵之间的步差,即奖励函数。
因此,在确定基于上述公式(1)构算法建模型后,也许需要利用上述公式(1)完成对奖励函数的确定。确定奖励函数时,首先需要获取每个特征的特征原始值,通过计算特征方差、相关系数等,得到每个步骤对应的特征矩阵,即完成对Q表中每一项的确定,需要说明的是,确定Q表过程中,需要依据时间业务进行特征值和步骤的调整;在确定完特征矩阵时,可以同步确定每个特征矩阵对应的历史状态变量,并将处于同一历史状态变量的特征矩阵带入到上述公式中,并完成计算,最终选取出在同一类活动(可视为历史状态变量一致)中,奖励函数趋近于最大的同时衰减值最小的一种情况,此时,可以认为形成模型收敛,奖励函数完成确定,同时,在确定完奖励函数后,奖励函数对应的目标约束容量也可以同步完成确定,目标约束容量可以理解为各类a指标约束数值。
在一些实施例中,当前库存状态数据至少包括目标商品在当前销售阶段对应的当前状态变量,当前状态变量用于表征当前销售阶段的销售促销状态。
完成对当前状态下目标补货量的确定,至少需要确定当前状态变量,即,需要明确当前是处于哪一种销售促销状态,从而可以利用目标深度学习预测模型完成对目标补货量的预测。在一些实施例中,为了完成对补货量预测,在确定当前状态变量时,同样可以获取与历史库存数量、历史需求数量和历史订单数量对应的当前库存数量、当前需求数量和当前订单数量来辅助完成确定。
在一些实施例中,根据当前库存状态数据和预先获得的目标深度学习预测模型得到目标补货量,包括:
将当前状态变量输入目标深度学习预测模型,以得到多个不同补货量下对应的多个预测奖励值;
选取多个预测奖励值中数值最大的一个对应的补货量为目标补货量。
在向目标深度学习预测模型输入当前状态变量后,可以利用目标深度学习预测模型得到多个不同补货量下对应的多个预测奖励值,此时,则可以从多个预测奖励值中选取出最大的一个预测奖励值对应的补货量作为目标补货量。
为了更好的说明本发明实施例的商品补货方法,这里以具体实施例的方式进行进一步描述。
获取目标商品的历史库存状态数据,历史库存状态数据需要包括多个销售阶段的历史库存数量、历史需求数量和历史订单数量,并根据每个销售阶段对应的历史库存数量、历史需求数量和历史订单数量确定对应的历史状态变量;
获取预先得到的奖励函数和目标约束容量,并根据奖励函数和目标约束容量使用公式(1)构建基于QLearning算法的深度学习QLearning模型,其中,公式(1)中最后一项即为奖励函数;
基于历史状态变量对深度学习QLearning模型进行训练,直至奖励函数收敛时,得到满足补货预测需求的目标深度学习预测模型;
确定目标商品的当前状态变量,将当前状态变量输入至目标深度学习预测模型中,从而得到不同补货量情况对应的预测奖励值;
选取多个预测奖励值中最大一个对应的补货量为目标补货量;
其中,奖励函数可以根据公式(1)变形得到,并且可以通过Q表中的特征数据来完成对奖励函数收敛的确定,并在确定奖励函数收敛时,同步确定目标约束容量,目标约束容量即α与γ的乘积。
本具体实施方式的商品补货方法基于历史库存数量、历史需求数量和历史订单数量确定历史状态变量,并基于历史状态变量完成对预先构建的深度学习QLearning模型训练,从而可以得到用于预测补货量的目标深度学习预测模型,最终可以利用目标深度学习预测模型完成对目标商品在相关时间段下的目标补货量的确定,进而为卖场进行货物补货以及供给提供了理论支撑。本具体实施方式的商品补货方法在确定目标商品的当前库存状态数据的前提下,能够自主的完成对目标补货量的确定,极大的减小了卖场管理人员在商品进货、补货等流程中需要投入的人力和物力需求,降低了买成的整体成本,且可以有效的避免人工计算带来的计算误差。
本发明的一个实施例还提供了一种商品补货***,该商品补货***包括:当前状态确定模块和预测模块,
当前状态确定模块,用于获取目标商品的当前库存状态数据;
预测模块,用于根据当前库存状态数据和预先获得的目标深度学习预测模型得到目标补货量,其中,目标深度学习预测模型根据QLearning算法和预先获取的目标商品对应的历史库存状态数据得到。
为了完成对目标商品的目标补货量的预测,需要先构建目标深度学习预测模型。本发明实施例中基于QLearning算法来构建预测模型,从而可以更好的完成对补货量的阶段性预测。构建基于QLearning算法的目标深度学习预测模型时,为了保证模型预测的准确性,则进一步采用目标商品对应的历史库存状态数据来对预先构建的模型进行训练,从而得到满足预测需求的目标深度学习预测模型。
本发明实施例的商品补货***可以利用目标深度学习预测模型以及获取的当前库存状态数据,完成对目标商品在相关时间段下的目标补货量的确定,进而为卖场进行货物补货以及供给提供了理论支撑。并且,本发明实施例的商品补货***在确定目标商品的当前库存状态数据的前提下,能够自主的完成对目标补货量的确定,极大的减小了卖场管理人员在商品进货、补货等流程中需要投入的人力和物力需求,降低了买成的整体成本,且可以有效的避免人工计算带来的计算误差。
在一些实施例中,商品补货***还包括:
数据获取模块,用于获取历史库存状态数据;
模型构建模块,用于基于QLearning算法构建深度学习QLearning模型;
模型训练生成模块,用于利用历史库存状态数据对深度学习QLearning模型进行训练,得到目标深度学习预测模型。
预测的准确性主要在于目标深度学习预测模型,本实施例在获得历史库存状态数据前,会基于QLearning算法构建深度学习QLearning模型,利用深度学习QLearning模型来完成对补货量的预测。构建的深度学习QLearning模型会利用预先获取的历史库存状态数据来完成对目标深度学习预测模型,又因为,历史库存状态数据包含了多个不同历史销售阶段下大量的数据,因此,在利用目标深度学习预测模型时,只需要知晓目标商品的当前状态库存数据便可以直接有效的预测出目标补货量。需要说明的是,关于奖励函数的确定过程在前述实施例中已有具体叙述,此处便不再进行赘述。
另外,本发明的一个实施例还提供了一种电子设备,该电子设备包括存储器、通讯模块、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现如上述的商品补货方法。
另外,本发明的一个实施例还提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机可执行指令,计算机可执行指令用于执行如上述的商品补货方法,例如,被上述电子设备的实施例中的一个处理器执行,可使得上述处理器执行上述实施例中的商品补货方法,例如,执行以上描述的图1至图3中的方法。
实现上述实施例的商品补货方法所需的非暂态软件程序以及指令存储在存储器中,当被处理器执行时,执行上述实施例中的商品补货方法,例如,执行以上描述的图1至图3中的方法。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、***可以被实施为软件、固件、硬件及其适当的组合。某些物理组件或所有物理组件可以被实施为由处理器,如中央处理器、数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其他数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其他存储单元技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质。此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读指令、数据结构、程序模块或者诸如载波或其他传输机制之类的调制数据信号中的其他数据,并且可包括任何信息递送介质。
上面结合附图对本发明实施例作了详细说明,但是本发明不限于上述实施例,在所属技术领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。

Claims (10)

1.一种商品补货方法,其特征在于,包括:
获取目标商品的当前库存状态数据;
根据所述当前库存状态数据和预先获得的目标深度学习预测模型得到目标补货量,其中,所述目标深度学习预测模型根据QLearning算法和预先获取的所述目标商品对应的历史库存状态数据得到。
2.根据权利要求1所述的商品补货方法,其特征在于,所述当前库存状态数据至少包括所述目标商品在当前销售阶段对应的当前状态变量,所述当前状态变量用于表征所述当前销售阶段的销售促销状态。
3.根据权利要求2所述的商品补货方法,其特征在于,所述根据所述当前库存状态数据和预先获得的目标深度学习预测模型得到目标补货量,包括:
将所述当前状态变量输入所述目标深度学习预测模型,以得到多个不同补货量下对应的多个预测奖励值;
选取多个所述预测奖励值中数值最大的一个对应的所述补货量为所述目标补货量。
4.根据权利要求1所述的商品补货方法,其特征在于,所述目标深度学习预测模型由以下步骤得到:
获取所述历史库存状态数据;
基于所述QLearning算法构建深度学习QLearning模型;
利用所述历史库存状态数据对所述深度学习QLearning模型进行训练,得到所述目标深度学习预测模型。
5.根据权利要求4所述的商品补货方法,其特征在于,所述基于所述QLearning算法构建深度学习QLearning模型,包括:
获取奖励函数和与所述奖励函数对应的目标约束容量;
基于所述QLearning算法,根据所述奖励函数和所述目标约束容量构建所述深度学习QLearning模型。
6.根据权利要求4所述的商品补货方法,其特征在于,所述历史库存状态数据包括所述目标商品在多个历史销售阶段对应的历史库存数量、历史需求数量和历史订单数量,以及与每个所述历史销售阶段对应的历史状态变量,每个所述历史状态变量皆用于表征对应所述历史销售阶段的销售促销状态。
7.一种商品补货***,其特征在于,包括:
当前状态确定模块,用于获取目标商品的当前库存状态数据;
预测模块,用于根据所述当前库存状态数据和预先获得的目标深度学习预测模型得到目标补货量,其中,所述目标深度学习预测模型根据QLearning算法和预先获取的所述目标商品对应的历史库存状态数据得到。
8.根据权利要求7所述的商品补货***,其特征在于,所述商品补货***还包括:
数据获取模块,用于获取所述历史库存状态数据;
模型构建模块,用于基于所述QLearning算法构建深度学习QLearning模型;
模型训练生成模块,用于利用所述历史库存状态数据对所述深度学习QLearning模型进行训练,得到所述目标深度学习预测模型。
9.一种电子设备,包括存储器、通讯模块、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6任一所述的商品补货方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行如权利要求1至6任一所述的商品补货方法。
CN202211682974.3A 2022-12-27 2022-12-27 商品补货方法、***、电子设备及可读存储介质 Pending CN115936582A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211682974.3A CN115936582A (zh) 2022-12-27 2022-12-27 商品补货方法、***、电子设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211682974.3A CN115936582A (zh) 2022-12-27 2022-12-27 商品补货方法、***、电子设备及可读存储介质

Publications (1)

Publication Number Publication Date
CN115936582A true CN115936582A (zh) 2023-04-07

Family

ID=86655679

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211682974.3A Pending CN115936582A (zh) 2022-12-27 2022-12-27 商品补货方法、***、电子设备及可读存储介质

Country Status (1)

Country Link
CN (1) CN115936582A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116342042A (zh) * 2023-05-25 2023-06-27 北京京东乾石科技有限公司 一种补货方法及装置、存储介质
CN116911742A (zh) * 2023-08-04 2023-10-20 杭州聚水潭网络科技有限公司 一种电商补货方法、***及设备

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116342042A (zh) * 2023-05-25 2023-06-27 北京京东乾石科技有限公司 一种补货方法及装置、存储介质
CN116342042B (zh) * 2023-05-25 2024-04-19 北京京东乾石科技有限公司 一种补货方法及装置、存储介质
CN116911742A (zh) * 2023-08-04 2023-10-20 杭州聚水潭网络科技有限公司 一种电商补货方法、***及设备

Similar Documents

Publication Publication Date Title
CN115936582A (zh) 商品补货方法、***、电子设备及可读存储介质
CN101777147B (zh) 预测建模
US8700443B1 (en) Supply risk detection
US11568432B2 (en) Auto clustering prediction models
CN111133460B (zh) 需求预测参数的优化
US11928647B2 (en) System and method to predict service level failure in supply chains
US20200104771A1 (en) Optimized Selection of Demand Forecast Parameters
US20180137455A1 (en) Automated Purchasing
CN111815198B (zh) 一种门店补货方法、装置和设备
CN111242524A (zh) 一种确定单品补货量的方法、***、设备及存储介质
CN107146039B (zh) 一种多目标协同控制的定制式混流装配生产方法及装置
US11915187B2 (en) Method and system for tracking inventory including inventory level reconciliation across inventory tracking system
CN113469591A (zh) 库存补货控制方法、装置、电子设备及存储介质
US11244278B2 (en) Decision support system for optimizing the unit identifier stocking decision
US8768790B2 (en) Product-family inventory replenishment system using a composite product mix framework
CN111985862A (zh) 定位库存物品的方法和装置
CN112215546A (zh) 一种对象页面生成方法、装置、设备及存储介质
US11354686B2 (en) Short life cycle sales curve estimation
CN113780913B (zh) 一种安全库存信息的生成方法和装置
CN112150056B (zh) 一种确定补货周期的方法、装置和存储介质
CN116862574A (zh) 产品需求预测方法、装置、电子设备及可读存储介质
CN113762842B (zh) 仓储调度方法、服务器和***
US20160292606A1 (en) Optimal allocation of hardware inventory procurements
US8688488B2 (en) Method and apparatus for the prediction of order turnaround time in an information verification system
CN117541156B (zh) 仓库管理数据库数据处理方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination