CN116232923A - 模型训练方法、装置以及网络流量预测方法、装置 - Google Patents

模型训练方法、装置以及网络流量预测方法、装置 Download PDF

Info

Publication number
CN116232923A
CN116232923A CN202211666559.9A CN202211666559A CN116232923A CN 116232923 A CN116232923 A CN 116232923A CN 202211666559 A CN202211666559 A CN 202211666559A CN 116232923 A CN116232923 A CN 116232923A
Authority
CN
China
Prior art keywords
model
parameters
training
neural network
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211666559.9A
Other languages
English (en)
Inventor
刘派
马星粟
杨鑫
杨本艳
双程
赵静
赵煜
高允翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China United Network Communications Group Co Ltd
Original Assignee
China United Network Communications Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China United Network Communications Group Co Ltd filed Critical China United Network Communications Group Co Ltd
Priority to CN202211666559.9A priority Critical patent/CN116232923A/zh
Publication of CN116232923A publication Critical patent/CN116232923A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/147Network analysis or design for predicting network behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/145Network analysis or design involving simulating, designing, planning or modelling of a network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0876Network utilisation, e.g. volume of load or congestion level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/06Testing, supervising or monitoring using simulated traffic

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Environmental & Geological Engineering (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请涉及通信技术领域,尤其涉及一种模型训练方法、装置以及网络流量预测方法、装置,能够对于未提出请求的地点,进行网络资源的预测调配。该方法包括:确定第一训练参数和第二训练参数;其中,第一训练参数为在第一预设时间段内至少一个小区的网络流量参数,第二训练参数为在第二预设时间段内至少一个小区的网络流量参数;将第一训练参数和第二训练参数输入当前神经网络模型中进行迭代训练,直至当前神经网络模型的损失值满足预设条件;确定当前神经网络模型为网络流量预测模型;网络流量预测模型用于根据输入的目标小区的历史网络流量参数,预测目标小区在目标时间段的网络流量参数。本申请用于模型训练和网络流量预测过程中。

Description

模型训练方法、装置以及网络流量预测方法、装置
技术领域
本申请涉及通信技术领域,尤其涉及一种模型训练方法、装置以及网络流量预测方法、装置。
背景技术
相关技术的载波调配方法,大都是运营商先确定大型活动的时间和地点,由网络侧提出该地点的保证请求,进而一线的运维人员在上述指定的时间,对该地点进行资源调配,该方式仅能对提出请求的地点进行网络资源调配,对于未提出请求的地点,则不能进行网络资源的调配且无法预测不同区域的需求。因此,如何预测小区的网络流量成为当前亟待解决的技术问题。
发明内容
本申请提供一种模型训练方法、装置以及网络流量预测方法、装置,能够预测小区的网络流量。
为达到上述目的,本申请采用如下技术方案:
第一方面,本申请提供一种模型训练方法,该方法包括:确定第一训练参数和第二训练参数;其中,第一训练参数为在第一预设时间段内至少一个小区的网络流量参数,第二训练参数为在第二预设时间段内至少一个小区的网络流量参数;将第一训练参数和第二训练参数输入当前神经网络模型中进行迭代训练,直至当前神经网络模型的损失值满足预设条件;其中,损失值用于表征第二训练参数和输出结果的误差值;输出结果为当前神经网络模型根据第一训练参数和第二训练参数预测得到的在第二预设时间段内至少一个小区的网络流量参数;确定当前神经网络模型为网络流量预测模型;网络流量预测模型用于根据输入的目标小区的历史网络流量参数,预测目标小区在目标时间段的网络流量参数。
结合第一方面,在一种可能的实现方式中,将第一训练参数和第二训练参数输入当前神经网络模型中进行迭代训练,直至当前神经网络模型的损失值满足预设条件,包括:步骤1、将第一训练参数和第二训练参数输入当前神经网络模型中,确定当前神经网络模型的输出结果;步骤2、根据输出结果和第二训练参数,确定当前神经网络模型的损失值;步骤3、确定当前神经网络模型的损失值是否满足预设条件;步骤4、若满足,则将当前神经网络模型,作为网络流量预测模型;步骤5、若不满足,则根据损失值,调整当前神经网络模型的模型参数;步骤6、将调整参数后的当前神经网络模型,作为当前神经网络模型,迭代执行步骤1、步骤2、步骤3、步骤4、步骤5、以及步骤6,直至当前神经网络模型的损失值满足预设条件。
结合第一方面,在一种可能的实现方式中,网络流量参数包括h个参数;当前神经网络模型的输出层包括h个输出层节点;h个输出层节点与h个参数一一对应;i个输出层节点用于输出当前神经网络模型预测的第i个参数;h和i为正整数;根据输出结果和第二训练参数,确定当前神经网络模型的损失值,包括:确定h个输出层节点中每个输出节点的损失值;其中,第i个节点的损失值根据第i个节点的输出结果以及第二训练参数中的第i个参数确定;每个输出节点的损失值之和为当前神经网络模型的损失值。
结合第一方面,在一种可能的实现方式中,当前神经网络模型的隐藏层包括q个隐藏层节点;q个隐藏层节点中的第h个隐藏层节点包括a个模型参数;a个模型参数与a个输出层节点一一对应;q和a为正整数;根据损失值,调整当前神经网络模型的模型参数,包括:将第h个隐藏层节点的第j个模型参数的值调整为:第h个隐藏层节点的第j个模型参数的当前值,与第j个输出层节点的损失值之和;j为正整数。
第二方面,本申请提供一种网络流量预测方法,该方法包括:获取目标小区在第三预设时间段内的网络流量参数;将目标小区在第三预设时间段内的网络流量参数输入到网络流量预测模型,确定目标小区在第四预设时间段内的网络流量参数;其中,网络流量预测模型为根据第一方面的模型方法训练得到的网络流量预测模型。
结合第二方面,在一种可能的实现方式中,目标小区在第四预设时间段内的网络流量参数包括各个时间间隔的网络流量参数;在确定目标小区在第四预设时间段内的网络流量参数之后,包括:确定在第四预设时间段内的网络流量参数大于第一预设阈值且小于第二预设阈值的目标小区,为减容小区;确定在第四预设时间段内的网络流量参数大于第二预设阈值的目标小区,为扩容小区;将减容小区的待调配载波资源,调配给扩容小区。
第三方面,本申请提供了一种模型训练装置,该装置包括:处理单元;处理单元,用于确定第一训练参数和第二训练参数;其中,第一训练参数为在第一预设时间段内至少一个小区的网络流量参数,第二训练参数为在第二预设时间段内至少一个小区的网络流量参数;处理单元,还用于将第一训练参数和第二训练参数输入当前神经网络模型中进行迭代训练,直至当前神经网络模型的损失值满足预设条件;其中,损失值用于表征第二训练参数和输出结果的误差值;输出结果为当前神经网络模型根据第一训练参数和第二训练参数预测得到的在第二预设时间段内至少一个小区的网络流量参数;处理单元,还用于确定当前神经网络模型为网络流量预测模型;网络流量预测模型用于根据输入的目标小区的历史网络流量参数,预测目标小区在目标时间段的网络流量参数。
结合第三方面,在一种可能的实现方式中,处理单元,具体用于执行以下步骤:步骤1、将第一训练参数和第二训练参数输入当前神经网络模型中,确定当前神经网络模型的输出结果;步骤2、根据输出结果和第二训练参数,确定当前神经网络模型的损失值;步骤3、确定当前神经网络模型的损失值是否满足预设条件;步骤4、若满足,则将当前神经网络模型,作为网络流量预测模型;步骤5、若不满足,则根据损失值,调整当前神经网络模型的模型参数;步骤6、将调整参数后的当前神经网络模型,作为当前神经网络模型,迭代执行步骤1、步骤2、步骤3、步骤4、步骤5、以及步骤6,直至当前神经网络模型的损失值满足预设条件。
结合第三方面,在一种可能的实现方式中,网络流量参数包括h个参数;当前神经网络模型的输出层包括h个输出层节点;h个输出层节点与h个参数一一对应;i个输出层节点用于输出当前神经网络模型预测的第i个参数;h和i为正整数;处理单元,还用于确定h个输出层节点中每个输出节点的损失值;其中,第i个节点的损失值根据第i个节点的输出结果以及第二训练参数中的第i个参数确定;每个输出节点的损失值之和为当前神经网络模型的损失值。
结合第三方面,在一种可能的实现方式中,当前神经网络模型的隐藏层包括q个隐藏层节点;q个隐藏层节点中的第h个隐藏层节点包括a个模型参数;a个模型参数与a个输出层节点一一对应;q和a为正整数;处理单元,还用于将第h个隐藏层节点的第j个模型参数的值调整为:第h个隐藏层节点的第j个模型参数的当前值,与第j个输出层节点的损失值之和;j为正整数。
第四方面,本申请提供了一种网络流量预测装置,该装置包括:处理单元和获取单元;获取单元,用于获取目标小区在第三预设时间段内的网络流量参数;处理单元,用于将目标小区在第三预设时间段内的网络流量参数输入到网络流量预测模型,确定目标小区在第四预设时间段内的网络流量参数;其中,网络流量预测模型为根据第一方面的模型方法训练得到的网络流量预测模型。
结合第四方面,在一种可能的实现方式中,目标小区在第四预设时间段内的网络流量参数包括各个时间间隔的网络流量参数;处理单元,还用于确定在第四预设时间段内的网络流量参数大于第一预设阈值且小于第二预设阈值的目标小区,为减容小区;确定在第四预设时间段内的网络流量参数大于第二预设阈值的目标小区,为扩容小区;将减容小区的待调配载波资源,调配给扩容小区。
第五方面,本申请提供了一种电子设备,该装置包括:处理器和通信接口;通信接口和处理器耦合,处理器用于运行计算机程序或指令,以实现如第一方面和第一方面的任一种可能的实现方式中所描述的模型训练方法。
第六方面,本申请提供了一种电子设备,该装置包括:处理器和通信接口;通信接口和处理器耦合,处理器用于运行计算机程序或指令,以实现如第二方面和第二方面的任一种可能的实现方式中所描述的网络流量预测方法。
第七方面,本申请提供了一种计算机可读存储介质,计算机可读存储介质中存储有指令,当指令在终端上运行时,使得终端执行如第一方面和第一方面的任一种可能的实现方式中描述的模型训练方法。
第八方面,本申请提供了一种计算机可读存储介质,计算机可读存储介质中存储有指令,当指令在终端上运行时,使得终端执行如第二方面和第二方面的任一种可能的实现方式中描述的网络流量预测方法。
在本申请中,上述电子设备的名字对设备或功能模块本身不构成限定,在实际实现中,这些设备或功能模块可以以其他名称出现。只要各个设备或功能模块的功能和本申请类似,属于本申请权利要求及其等同技术的范围之内。
本申请的这些方面或其他方面在以下的描述中会更加简明易懂。
基于上述技术方案,本申请实施例提供的模型训练方法,模型训练装置首先确定第一训练参数和第二训练参数,将第一训练参数和第二训练参数输入当前神经网络模型中进行迭代训练,直至当前神经网络模型的损失值满足预设条件,则确定当前神经网络模型为网络流量预测模型,网络流量预测模型可以根据输入的目标小区的历史网络流量参数,预测目标小区在目标时间段的网络流量参数;本申请提出的模型训练方法无需运营商提前确定活动的时间、地点以及提出请求才能调配,本方法通过模型训练装置能够预测小区的网络流量,根据预测的网络流量进行网络资源的调配,以保证用户的网络需求。
附图说明
图1为本申请提供的一种电子设备的结构示意图;
图2为本申请提供的一种模型训练方法的流程图;
图3为本申请提供的另一种模型训练方法的流程图;
图4为本申请提供的一种网络流量预测方法的流程图;
图5为本申请提供的一种模型训练装置的结构示意图;
图6为本申请提供的一种网络流量预测装置的结构示意图;
图7为本申请提供的另一种电子设备的结构示意图。
具体实施方式
下面结合附图对本申请实施例提供的模型训练方法、装置以及网络流量预测方法、装置进行详细地描述。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。
本申请的说明书以及附图中的术语“第一”和“第二”等是用于区别不同的对象,或者用于区别对同一对象的不同处理,而不是用于描述对象的特定顺序。
此外,本申请的描述中所提到的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、***、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括其他没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要说明的是,本申请实施例中,“示例性的”或者“例如”等词用于表示作例子、例证或说明。本申请实施例中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念。
图1为本申请实施例提供的一种电子设备的结构示意图,电子设备可以为模型训练装置或网络流量预测装置。如图1所示,该电子设备100包括至少一个处理器101,通信线路102,以及至少一个通信接口104,还可以包括存储器103。其中,处理器101,存储器103以及通信接口104三者之间可以通过通信线路102连接。
处理器101可以是一个中央处理器(central processing unit,CPU),也可以是特定集成电路(application specific integrated circuit,ASIC),或者是被配置成实施本申请实施例的一个或多个集成电路,例如:一个或多个数字信号处理器(digital signalprocessor,DSP),或,一个或者多个现场可编程门阵列(field programmable gate array,FPGA)。
通信线路102可以包括一通路,用于在上述组件之间传送信息。
通信接口104,用于与其他设备或通信网络通信,可以使用任何收发器一类的装置,如以太网,无线接入网(radio access network,RAN),无线局域网(wireless localarea networks,WLAN)等。
存储器103可以是只读存储器(read-only memory,ROM)或可存储静态信息和指令的其他类型的静态存储设备,随机存取存储器(random access memory,RAM)或者可存储信息和指令的其他类型的动态存储设备,也可以是电可擦可编程只读存储器(electricallyerasable programmable read-only memory,EEPROM)、只读光盘(compact disc read-only memory,CD-ROM)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于包括或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。
一种可能的设计中,存储器103可以独立于处理器101存在,即存储器103可以为处理器101外部的存储器,此时,存储器103可以通过通信线路102与处理器101相连接,用于存储执行指令或者应用程序代码,并由处理器101来控制执行,实现本申请下述实施例提供的网络质量确定方法。又一种可能的设计中,存储器103也可以和处理器101集成在一起,即存储器103可以为处理器101的内部存储器,例如,该存储器103为高速缓存,可以用于暂存一些数据和指令信息等。
作为一种可实现方式,处理器101可以包括一个或多个CPU,例如图1中的CPU0和CPU1。作为另一种可实现方式,数据传输100可以包括多个处理器,例如图1中的处理器101和处理器107。作为再一种可实现方式,数据传输100还可以包括输出设备105和输入设备106。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将网络节点的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。上述描述的***,模块和网络节点的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
目前,在相关技术中提出一种基站设备载波自适应调配的方法及一种基站,该方法首先预测小区所需的载波个数;再根据预测的小区所需的载波个数和可分配的载波资源,按照满足最多个需要增加载波的小区的原则确定待分配载波的小区;为待分配载波的小区分配载波。
相关技术的载波调配方法,大都是先确定大型活动的时间和地点,由网络侧提出该地点的保证请求,进而一线的运维人员在上述指定的时间,将该地点所需的网络资源调配至本地所处的接入网设备上,当活动结束后,运维人员再将该地的网络资源释放或恢复原状,该方法在进行载波调配之前需要运营商进行提前研判和审批,并且需要运维人员操控网元管理***,涉及到的流程较多导致调配效率低,并且无法适应地理跨度较大的潮汐场景。
为了解决现有技术中的问题,本申请实施例提供一种如图2所示的模型训练方法。该方法包括:通过模型训练装置确定第一训练参数和第二训练参数,将第一训练参数和第二训练参数输入当前神经网络模型中进行迭代训练,直至当前神经网络模型的损失值满足预设条件,则模型训练装置确定当前神经网络模型为网络流量预测模型。
如图2所示,为本申请实施例提供的一种模型训练方法的流程图,本申请实施例提供的模型训练方法可以应用于如图1所示的电子设备中,本申请实施例提供的模型训练方法可以通过以下步骤实现。
步骤201、模型训练装置确定第一训练参数和第二训练参数。
其中,第一训练参数为在第一预设时间段内至少一个小区的网络流量参数,第二训练参数为在第二预设时间段内至少一个小区的网络流量参数。
在一种可能的实现方式中,模型训练装置所需的数据可以通过文件传输协议(File Transfer Protocol,FTP)同步的方式或消息订阅采集的方式,从无线性能数据采集***和工参数据采集***实时同步到源数据库的分布式文件(Hadoop Distributed FileSystem,HDFS)***中。主要的数据涉及有无线网络侧的基站小时级数据、基站工参信息、小区地理信息等数据,例如上行利用率(Physical Uplink Shared Channel、PUSCH)、下行利用率PDSCH、下行利用率PDCCH、有效无线资源控制连接重建请求(Radio ResourceControl,RRC)连接平均数、PRB(permeable Reactive Barriers)利用率、用户感知数等。
在训练参数构造过程中,模型训练装置从源数据库HDFS***中筛选出近28天的数据作为训练样本,并结合基站分布的地理信息构造成第一训练参数和第二训练参数。
值得注意的是,网络流量参数可以为小区KPI数据,第一训练参数可以为近7天-近28天的小区PRB利用率、上行流量、以及下行流量,第二训练参数可以为近7天的小区PRB利用率、上行流量、以及下行流量。
步骤202、模型训练装置将第一训练参数和第二训练参数输入当前神经网络模型中进行迭代训练,直至当前神经网络模型的损失值满足预设条件。
其中,损失值用于表征第二训练参数和输出结果的误差值;输出结果为当前神经网络模型根据第一训练参数和第二训练参数预测得到的在第二预设时间段内至少一个小区的网络流量参数。
在一种可能的实现方式中,上述步骤202的实现过程可以为:模型训练装置将第一训练参数和第二训练参数输入当前神经网络模型中,确定输出结果;模型训练装置根据输出结果与第二训练参数计算损失值,若损失值大于预设值,则对第一训练参数和第二训练参数进行迭代训练,直至损失值满足预设条件。
可选的,输入至当前神经网络模型中的参数还可以包括时间维度信息和地理维度信息。
示例性的,第一训练参数和第二训练参数的输入数据结构可以为[batch_size xin_seq_len(序列信息),时间维度信息和地理维度信息的输入数据结构可以为batch_sizex n_features(时间、地市等)。相应的,当前神经网络模型的输出数据结构可以为[batch_size x out_seq_len],输出的数据结果为单地市未来48小时的小区指标趋势预测结果。
可选的,输入数据结构中的activation参数采用ReLU函数,防止梯度消失;采用Batch Normalization辅助进行快速调参,使训练快速收敛;损失函数采用Mean AbsoluteError函数;在模型中引入残差连接,增加模型的鲁棒性;引入学习率warm up和衰减机制,减少训练过程的震荡;引入Dropout和早停机制,防止模型出现过拟合。
步骤203、模型训练装置确定当前神经网络模型为网络流量预测模型。
其中,网络流量预测模型用于根据输入的目标小区的历史网络流量参数,预测目标小区在目标时间段的网络流量参数。
在一种可能的实现方式中,上述步骤203的实现过程可以为:在损失值满足预设条件的情况下,模型训练装置判定当前神经网络模型为网络流量预测模型。
上述方案至少带来以下有益效果:
基于上述技术方案,本申请实施例提供的模型训练方法,模型训练装置首先确定第一训练参数和第二训练参数,将第一训练参数和第二训练参数输入当前神经网络模型中进行迭代训练,直至当前神经网络模型的损失值满足预设条件,则确定当前神经网络模型为网络流量预测模型,网络流量预测模型可以根据输入的目标小区的历史网络流量参数,预测目标小区在目标时间段的网络流量参数;本申请提出的模型训练方法无需运营商提前确定活动的时间、地点以及提出请求才能调配,本方法通过模型训练装置能够预测小区的网络流量,根据预测的网络流量进行网络资源的调配,以保证用户的网络需求。
一种可能的实现方式中,结合图2,如图3所示,上述步骤202、将第一训练参数和第二训练参数输入当前神经网络模型中进行迭代训练,直至当前神经网络模型的损失值满足预设条件,具体可以通过以下步骤301-步骤306实现,以下进行详细说明:
步骤301、模型训练装置将第一训练参数和第二训练参数输入当前神经网络模型中,确定当前神经网络模型的输出结果。
在一种可能的实现方式中,当前神经网络模型的隐藏层包括q个隐藏层节点;q个隐藏层节点中的第h个隐藏层节点包括a个模型参数;a个模型参数与a个输出层节点一一对应;q和a为正整数。
一种示例,q个隐藏层节点可以为q个隐藏层神经元,首先模型训练装置将近21天的小区PRB利用率、上行流量、以及下行流量和近7天的小区PRB利用率、上行流量、以及下行流量确定为输入向量矩阵输入至神经网络模型中,具体可以通过公式1确定q个隐藏层神经元的输出结果。
q个隐藏层神经元的输出结果满足以下公式1:
Figure BDA0004014868730000091
其中,Bq表示q个隐藏层神经元的输出结果;d表示输入向量矩阵的个数;viq表示各个输入向量从输入层至隐藏层的权重值;xi表示第i个输入向量;θq表示q个隐藏层神经元的偏置变量。
可选的,输入向量矩阵还可以包括时间维度信息和地理维度信息。
作为一种可能的实现方式,网络流量参数包括h个参数;当前神经网络模型的输出层包括h个输出层节点;h个输出层节点与h个参数一一对应;i个输出层节点用于输出当前神经网络模型预测的第i个参数;h和i为正整数。
又一种示例,模型训练装置根据确定q个隐藏层神经元的输出结果,确定当前神经网络模型的输出结果,具体可以通过公式2实现。
Figure BDA0004014868730000101
其中,Yh表示当前神经网络模型的输出结果;q表示隐藏层神经元的个数;wqh表示各个隐藏层神经元从隐藏层至输出层的权重值;Bq表示q个隐藏层神经元的输出结果;θh表示h个输出层神经元的偏置变量。
步骤302、模型训练装置根据输出结果和第二训练参数,确定当前神经网络模型的损失值。
作为一种可能的实现方式,模型训练装置确定h个输出层节点中每个输出节点的损失值;其中,第i个节点的损失值根据第i个节点的输出结果以及第二训练参数中的第i个参数确定;每个输出节点的损失值之和为当前神经网络模型的损失值。
一种示例,网络流量参数包括PRB利用率、上行流量、以及下行流量;当前神经网络模型的输出层包括第一输出层节点、第二输出层节点、第三输出层节点;第一输出层节点用于输出当前神经网络模型预测的PRB利用率;第二输出层节点用于输出当前神经网络模型预测的上行流量;第三输出层节点用于输出当前神经网络模型预测的下行流量。
进而,模型训练装置根据第一输出层节点的输出结果和第二训练参数的PRB利用率,确定当前神经网络模型的第一输出层节点的损失值E1。例如:若第一输出层节点的输出结果为y1,第二训练集的PRB利用率为t1,则第一输出层节点的损失值E1具体可以通过公式3实现:
Figure BDA0004014868730000102
模型训练装置根据第二输出层节点的输出结果和第二训练参数的上行流量,确定当前神经网络模型的第二输出层节点的损失值E2
模型训练装置根据第三输出层节点的输出结果和第二训练参数的下行流量,确定当前神经网络模型的第三输出层节点的损失值E3
同理,第二输出层节点的损失值E2和第三输出层节点的损失值E3均可通过自身相对应的公式3实现。
模型训练装置确定第一输出层节点的损失值、第二输出层节点的损失值、以及第三输出层节点的损失值之和为当前神经网络模型的损失值E。例如:E=E1+E2+E3
步骤303、模型训练装置确定当前神经网络模型的损失值是否满足预设条件。
步骤304、若满足,则模型训练装置将当前神经网络模型,作为网络流量预测模型。
在一种可能的实现方式中,若当前神经网络模型的损失值小于预设条件,则模型训练装置确定当前神经网络模型,作为网络流量预测模型。
步骤305、若不满足,则模型训练装置根据损失值,调整当前神经网络模型的模型参数。
在一种可能的实现方式中,模型训练装置将第h个隐藏层节点的第j个模型参数的值调整为:第h个隐藏层节点的第j个模型参数的当前值,与第j个输出层节点的损失值之和;j为正整数。
结合步骤302中的示例,若当前神经网络模型的损失值大于或等于预设值,则模型训练装置根据损失值,首先调整当前神经网络模型中h个输出层节点分别到q个隐藏层节点的权重值。
模型训练装置确定第一输出节点到第h个隐藏层节点的权重偏差,权重偏差满足以下公式:ΔW1h=E1(a);其中,a为学习率。
模型训练装置调整第一输出节点到第h个隐藏层节点的权重值,将权重偏差ΔW1h与前一次的权重W1h相加确定第一输出节点到第h个隐藏层节点调整后的权重值W1h’。模型训练装置以相同方式确定第一输出节点到每个隐藏层节点的权重偏差,并重新调整第一输出节点到每个隐藏层节点的权重值W1h’。
可以理解的是,模型训练装置通过上述相同的方式调整每个输出节点到每个隐藏层节点的权重值。
步骤306、模型训练装置将调整参数后的当前神经网络模型,作为当前神经网络模型,迭代执行步骤301、步骤302、步骤303、步骤304、步骤305、以及步骤306,直至当前神经网络模型的损失值满足预设条件。
在一种可能的实现方式中,模型训练装置调整每个输出节点到每个隐藏层节点的权重值后,迭代执行步骤301、步骤302、步骤303、步骤304、步骤305、以及步骤306,若当前神经网络模型的损失值仍然大于或等于预设条件,则模型训练装置通过与步骤305的相同方式,调整每个隐藏层节点到每个输入层的权重值,并迭代执行步骤30、步骤302、步骤303、步骤304、步骤305、以及步骤306,若当前神经网络模型的损失值仍然大于或等于预设条件。
以上,对模型训练装置如何将第一训练参数和第二训练参数输入当前神经网络模型中进行迭代训练,直至当前神经网络模型的损失值满足预设条件,进行了详细说明。
一种可能的实现方式中,结合图2,如图4所示,上述步骤203确定当前神经网络模型为网络流量预测模型后,网络流量预测装置如何预测并调配网络流量,具体可以通过以下步骤401-步骤405实现。
步骤401、网络流量预测装置获取目标小区在第三预设时间段内的网络流量参数。
一种示例,第三预设时间段内的网络流量参数可以为当前时间之前28天目标小区的PRB利用率,上行流量,下行流量等数据。
步骤402、网络流量预测装置将目标小区在第三预设时间段内的网络流量参数输入到网络流量预测模型,确定目标小区在第四预设时间段内的网络流量参数。
其中,网络流量预测模型为根据步骤201-步骤203以及步骤301-步骤306的模型方法训练得到的网络流量预测模型。
一种示例,第四预设时间段为未来48小时。
网络流量预测装置第三预设时间段内目标小区的PRB利用率,上行流量,下行流量等数据输入到网络流量预测模型中。网络流量预测模型根据步骤301中的公式1,确定网络流量预测模型的隐藏层的输出结果再根据公式2,确定网络流量预测模型的输出层的输出结果,最终网络流量预测模型输出目标小区在未来48小时的PRB利用率,上行流量,下行流量。
步骤403、网络流量预测装置确定在第四预设时间段内的网络流量参数大于第一预设阈值且小于第二预设阈值的目标小区,为减容小区。
一种示例,网络流量预测装置根据目标小区未来四十八小时的PRB利用率筛选下限30%-上限70%的小区为可以减容的小区。
示例性的,根据减容小区的上行流量和下行流量确定减容小区可调配的载波数量。
步骤404、网络流量预测装置确定在第四预设时间段内的网络流量参数大于第二预设阈值的目标小区,为扩容小区。
一种示例,网络流量预测装置根据目标小区未来四十八小时的PRB利用率筛选大于70%的小区为需要扩容的小区。
示例性的,根据扩容小区的上行流量和下行流量确定扩容小区所需的载波数量。
步骤405、网络流量预测装置将减容小区的待调配载波资源,调配给扩容小区。
结合上述步骤403和步骤404中的示例,网络流量预测装置确定扩容小区和减容小区后,配置任务的执行时间,譬如在早晨的8点-9点之间进行调配,并结合基站的地址位置信息,尽可能的就近调配,网络流量预测装置将可以减容小区的载波在8点-9点之间调配至需要扩容的小区。
示例性的,网络流量预测装置已配置完成了涉及小区设备的OMC减容MMA指令模版,网络流量预测装置中设置有任务执行器,任务执行器监测到当前时间为任务执行时间,结合基站建设信息填写指令模版并向OMC发送减容指令,当结果返回为正常时则执行下一步,否则回滚该步骤并通过***短信接口通知网管人员然后结束。
相应的,当网络流量预测装置执行到此步骤时,结合设备信息填写指令模版并向OMC发送扩容指令,当结果返回为正常时结束,否则回滚此步骤和前一步骤并通过***短信接口通知网管人员再结束。
在一种可能实现的方式中,网络流量预测模型为保证预测数据尽可能的准确,将定期获取更新的目标小区在第三预设时间段内的网络流量参数,并输出更新后的目标小区在第四预设时间段内的网络流量参数,再依次重复上述步骤302-步骤306。
本申请实施例可以根据上述方法示例对电子设备进行功能模块或者功能单元的划分,例如,可以对应各个功能划分各个功能模块或者功能单元,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块或者功能单元的形式实现。其中,本申请实施例中对模块或者单元的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
如图5所示,为本申请实施例提供的一种模型训练装置的结构示意图,该装置包括:处理单元501;处理单元501,用于确定第一训练参数和第二训练参数;其中,第一训练参数为在第一预设时间段内至少一个小区的网络流量参数,第二训练参数为在第二预设时间段内至少一个小区的网络流量参数;处理单元501,还用于将第一训练参数和第二训练参数输入当前神经网络模型中进行迭代训练,直至当前神经网络模型的损失值满足预设条件;其中,损失值用于表征第二训练参数和输出结果的误差值;输出结果为当前神经网络模型根据第一训练参数和第二训练参数预测得到的在第二预设时间段内至少一个小区的网络流量参数;处理单元501,还用于确定当前神经网络模型为网络流量预测模型;网络流量预测模型用于根据输入的目标小区的历史网络流量参数,预测目标小区在目标时间段的网络流量参数。
可选的,处理单元501,具体用于执行以下步骤:步骤1、将第一训练参数和第二训练参数输入当前神经网络模型中,确定当前神经网络模型的输出结果;步骤2、根据输出结果和第二训练参数,确定当前神经网络模型的损失值;步骤3、确定当前神经网络模型的损失值是否满足预设条件;步骤4、若满足,则将当前神经网络模型,作为网络流量预测模型;步骤5、若不满足,则根据损失值,调整当前神经网络模型的模型参数;步骤6、将调整参数后的当前神经网络模型,作为当前神经网络模型,迭代执行步骤1、步骤2、步骤3、步骤4、步骤5、以及步骤6,直至当前神经网络模型的损失值满足预设条件。
可选的,网络流量参数包括h个参数;当前神经网络模型的输出层包括h个输出层节点;h个输出层节点与h个参数一一对应;i个输出层节点用于输出当前神经网络模型预测的第i个参数;处理单元501,还用于确定h个输出层节点中每个输出节点的损失值;其中,第i个节点的损失值根据第i个节点的输出结果以及第二训练参数中的第i个参数确定;每个输出节点的损失值之和为当前神经网络模型的损失值。
可选的,当前神经网络模型的隐藏层包括q个隐藏层节点;q个隐藏层节点中的第h个隐藏层节点包括l个模型参数;l个模型参数与l个输出层节点一一对应;处理单元501,还用于将第h个隐藏层节点的第j个模型参数的值调整为:第h个隐藏层节点的第j个模型参数的当前值,与第j个输出层节点的损失值之和。
可选的,模型训练装置还可以包括通信单元502。模型训练装置可以通过通信单元502与其他设备(例如网络流量预测装置)进行通信。
如图6所示,为本申请实施例提供的一种网络流量预测装置的结构示意图,该装置包括:处理单元601和获取单元602;获取单元602,用于获取目标小区在第三预设时间段内的网络流量参数;处理单元601,用于将目标小区在第三预设时间段内的网络流量参数输入到网络流量预测模型,确定目标小区在第四预设时间段内的网络流量参数;其中,网络流量预测模型为根据第一方面的模型方法训练得到的网络流量预测模型。
可选的,目标小区在第四预设时间段内的网络流量参数包括各个时间间隔的网络流量参数;处理单元601,还用于确定在第四预设时间段内的网络流量参数大于第一预设阈值且小于第二预设阈值的目标小区,为减容小区;确定在第四预设时间段内的网络流量参数大于第二预设阈值的目标小区,为扩容小区;将减容小区的待调配载波资源,调配给扩容小区。
在通过硬件实现时,本申请实施例中的通信单元502或获取单元602以集成在通信接口上,处理单元501或处理单元601可以集成在处理器上。具体实现方式如图7所示。
图7示出了上述实施例中所涉及的电子设备的又一种可能的结构示意图。该电子设包括:处理器702和通信接口703。处理器702用于对电子设置的动作进行控制管理,例如,执行上述处理单元501或处理单元601执行的步骤,和/或用于执行本文所描述的技术的其它过程。通信接口703用于支持电子设与其他网络实体的通信,例如,执行上述通信单元502或获取单元602执行的步骤。电子设还可以包括存储器701和总线704,存储器701用于存储电子设的程序代码和数据。
其中,存储器701可以是电子设中的存储器等,该存储器可以包括易失性存储器,例如随机存取存储器;该存储器也可以包括非易失性存储器,例如只读存储器,快闪存储器,硬盘或固态硬盘;该存储器还可以包括上述种类的存储器的组合。
上述处理器702可以是实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。该处理器可以是中央处理器,通用处理器,数字信号处理器,专用集成电路,现场可编程门阵列或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。该处理器也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等。
总线704可以是扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。总线704可以分为地址总线、数据总线、控制总线等。为便于表示,图7中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。上述描述的***,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请实施例提供一种包含指令的计算机程序产品,当该计算机程序产品在计算机上运行时,使得该计算机执行上述方法实施例中的模型训练方法或网络流量预测方法。
本申请实施例还提供一种计算机可读存储介质,计算机可读存储介质中存储有指令,当该指令在计算机上运行时,使得该计算机执行上述方法实施例所示的方法流程中的模型训练方法或网络流量预测方法。
其中,计算机可读存储介质,例如可以是但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(Random Access Memory,RAM)、只读存储器(Read-Only Memory,ROM)、可擦式可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、寄存器、硬盘、光纤、便携式紧凑磁盘只读存储器(Compact Disc Read-Only Memory,CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合、或者本领域熟知的任何其它形式的计算机可读存储介质。一种示例性的存储介质耦合至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。当然,存储介质也可以是处理器的组成部分。处理器和存储介质可以位于特定用途集成电路(Application Specific Integrated Circuit,ASIC)中。在本申请实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
由于本发明的实施例中的电子设备、计算机可读存储介质、计算机程序产品可以应用于上述方法,因此,其所能获得的技术效果也可参考上述方法实施例,本发明实施例在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的***、设备和方法,可以通过其它的方式实现。例如,以上所描述的设备实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
以上,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何在本申请揭露的技术范围内的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。

Claims (14)

1.一种模型训练方法,其特征在于,应用于预测模型,所述方法包括:
确定第一训练参数和第二训练参数;其中,所述第一训练参数为在第一预设时间段内至少一个小区的网络流量参数,所述第二训练参数为在第二预设时间段内所述至少一个小区的网络流量参数;
将所述第一训练参数和第二训练参数输入当前神经网络模型中进行迭代训练,直至所述当前神经网络模型的损失值满足预设条件;其中,所述损失值用于表征所述第二训练参数和输出结果的误差值;所述输出结果为所述当前神经网络模型根据所述第一训练参数和所述第二训练参数预测得到的在所述第二预设时间段内所述至少一个小区的网络流量参数;
确定所述当前神经网络模型为网络流量预测模型;所述网络流量预测模型用于根据输入的目标小区的历史网络流量参数,预测所述目标小区在目标时间段的网络流量参数。
2.根据权利要求1所述的方法,其特征在于,所述将所述第一训练参数和第二训练参数输入当前神经网络模型中进行迭代训练,直至所述当前神经网络模型的损失值满足预设条件,包括:
步骤1、将所述第一训练参数和第二训练参数输入当前神经网络模型中,确定所述当前神经网络模型的所述输出结果;
步骤2、根据所述输出结果和所述第二训练参数,确定所述当前神经网络模型的损失值;
步骤3、确定所述当前神经网络模型的损失值是否满足所述预设条件;
步骤4、若满足,则将所述当前神经网络模型,作为所述网络流量预测模型;
步骤5、若不满足,则根据所述损失值,调整所述当前神经网络模型的模型参数;
步骤6、将调整参数后的当前神经网络模型,作为所述当前神经网络模型,迭代执行所述步骤1、步骤2、步骤3、步骤4、步骤5、以及步骤6,直至所述当前神经网络模型的损失值满足所述预设条件。
3.根据权利要求2所述的方法,其特征在于,所述网络流量参数包括h个参数;所述当前神经网络模型的输出层包括h个输出层节点;所述h个输出层节点与所述h个参数一一对应;所述i个输出层节点用于输出所述当前神经网络模型预测的第i个参数;h和i为正整数;
所述根据所述输出结果和所述第二训练参数,确定所述当前神经网络模型的损失值,包括:
确定所述h个输出层节点中每个输出节点的损失值;其中,所述第i个节点的损失值根据第i个节点的输出结果以及第二训练参数中的第i个参数确定;
所述每个输出节点的损失值之和为所述当前神经网络模型的损失值。
4.根据权利要求3所述的方法,其特征在于,所述当前神经网络模型的隐藏层包括q个隐藏层节点;所述q个隐藏层节点中的第h个隐藏层节点包括a个模型参数;所述a个模型参数与所述a个输出层节点一一对应;q和a为正整数;
所述根据所述损失值,调整所述当前神经网络模型的模型参数,包括:
将所述第h个隐藏层节点的第j个模型参数的值调整为:所述第h个隐藏层节点的第j个模型参数的当前值,与所述第j个输出层节点的损失值之和;j为正整数。
5.一种网络流量预测方法,其特征在于,包括:
获取目标小区在第三预设时间段内的网络流量参数;
将所述目标小区在第三预设时间段内的网络流量参数输入到网络流量预测模型,确定所述目标小区在第四预设时间段内的网络流量参数;其中,所述网络流量预测模型为根据权利要求1-4所述的模型方法训练得到的网络流量预测模型。
6.根据权利要求5所述的方法,其特征在于,所述目标小区在第四预设时间段内的网络流量参数包括各个时间间隔的网络流量参数;
在所述确定所述目标小区在第四预设时间段内的网络流量参数之后,包括:
确定在第四预设时间段内的网络流量参数大于第一预设阈值且小于第二预设阈值的目标小区,为减容小区;
确定在第四预设时间段内的网络流量参数大于所述第二预设阈值的目标小区,为扩容小区;
将所述减容小区的待调配载波资源,调配给所述扩容小区。
7.一种模型训练装置,其特征在于,所述装置包括:处理单元;
所述处理单元,用于确定第一训练参数和第二训练参数;其中,所述第一训练参数为在第一预设时间段内至少一个小区的网络流量参数,所述第二训练参数为在第二预设时间段内所述至少一个小区的网络流量参数;
所述处理单元,还用于将所述第一训练参数和第二训练参数输入当前神经网络模型中进行迭代训练,直至所述当前神经网络模型的损失值满足预设条件;其中,所述损失值用于表征所述第二训练参数和输出结果的误差值;所述输出结果为所述当前神经网络模型根据所述第一训练参数和所述第二训练参数预测得到的在所述第二预设时间段内所述至少一个小区的网络流量参数;
所述处理单元,还用于确定所述当前神经网络模型为网络流量预测模型;所述网络流量预测模型用于根据输入的目标小区的历史网络流量参数,预测所述目标小区在目标时间段的网络流量参数。
8.根据权利要求7所述的装置,其特征在于,所述处理单元,具体用于执行以下步骤:
步骤1、将所述第一训练参数和第二训练参数输入当前神经网络模型中,确定所述当前神经网络模型的所述输出结果;
步骤2、根据所述输出结果和所述第二训练参数,确定所述当前神经网络模型的损失值;
步骤3、确定所述当前神经网络模型的损失值是否满足所述预设条件;
步骤4、若满足,则将所述当前神经网络模型,作为所述网络流量预测模型;
步骤5、若不满足,则根据所述损失值,调整所述当前神经网络模型的模型参数;
步骤6、将调整参数后的当前神经网络模型,作为所述当前神经网络模型,迭代执行所述步骤1、步骤2、步骤3、步骤4、步骤5、以及步骤6,直至所述当前神经网络模型的损失值满足所述预设条件。
9.根据权利要求8所述的装置,其特征在于,所述网络流量参数包括h个参数;所述当前神经网络模型的输出层包括h个输出层节点;所述h个输出层节点与所述h个参数一一对应;所述i个输出层节点用于输出所述当前神经网络模型预测的第i个参数;h和i为正整数;
所述处理单元,还用于确定所述h个输出层节点中每个输出节点的损失值;其中,所述第i个节点的损失值根据第i个节点的输出结果以及第二训练参数中的第i个参数确定;
所述每个输出节点的损失值之和为所述当前神经网络模型的损失值。
10.根据权利要求9所述的装置,其特征在于,所述当前神经网络模型的隐藏层包括q个隐藏层节点;所述q个隐藏层节点中的第h个隐藏层节点包括a个模型参数;所述a个模型参数与所述a个输出层节点一一对应;q和a为正整数;
所述处理单元,还用于将所述第h个隐藏层节点的第j个模型参数的值调整为:所述第h个隐藏层节点的第j个模型参数的当前值,与所述第j个输出层节点的损失值之和;j为正整数。
11.一种网络流量预测装置,其特征在于,处理单元和获取单元;
所述获取单元,用于获取目标小区在第三预设时间段内的网络流量参数;
所述处理单元,用于将所述目标小区在第三预设时间段内的网络流量参数输入到网络流量预测模型,确定所述目标小区在第四预设时间段内的网络流量参数;其中,所述网络流量预测模型为根据权利要求1-4所述的模型方法训练得到的网络流量预测模型。
12.根据权利要求11所述的装置,其特征在于,所述目标小区在第四预设时间段内的网络流量参数包括各个时间间隔的网络流量参数;
所述处理单元,还用于确定在第四预设时间段内的网络流量参数大于第一预设阈值且小于第二预设阈值的目标小区,为减容小区;
确定在第四预设时间段内的网络流量参数大于所述第二预设阈值的目标小区,为扩容小区;
将所述减容小区的待调配载波资源,调配给所述扩容小区。
13.一种电子设备,其特征在于,包括:处理器和通信接口;所述通信接口和所述处理器耦合,所述处理器用于运行计算机程序或指令,以实现如权利要求1-6任一项中所述的模型训练方法或网络流量预测方法。
14.一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,其特征在于,当处理器执行该指令时,该处理器执行上述权利要求1-6任一项中所述的模型训练方法或网络流量预测方法。
CN202211666559.9A 2022-12-23 2022-12-23 模型训练方法、装置以及网络流量预测方法、装置 Pending CN116232923A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211666559.9A CN116232923A (zh) 2022-12-23 2022-12-23 模型训练方法、装置以及网络流量预测方法、装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211666559.9A CN116232923A (zh) 2022-12-23 2022-12-23 模型训练方法、装置以及网络流量预测方法、装置

Publications (1)

Publication Number Publication Date
CN116232923A true CN116232923A (zh) 2023-06-06

Family

ID=86575798

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211666559.9A Pending CN116232923A (zh) 2022-12-23 2022-12-23 模型训练方法、装置以及网络流量预测方法、装置

Country Status (1)

Country Link
CN (1) CN116232923A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117432414A (zh) * 2023-12-20 2024-01-23 中煤科工开采研究院有限公司 顶板磨砂射流成缝的调控方法及***

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109951357A (zh) * 2019-03-18 2019-06-28 西安电子科技大学 基于多层神经网络的网络应用识别方法
CN110213784A (zh) * 2019-07-05 2019-09-06 中国联合网络通信集团有限公司 一种流量预测方法及装置
CN110621026A (zh) * 2019-02-18 2019-12-27 北京航空航天大学 一种基站流量多时刻预测方法
CN111200531A (zh) * 2020-01-02 2020-05-26 国网冀北电力有限公司信息通信分公司 一种通信网流量预测方法、装置与电子设备
CN111260122A (zh) * 2020-01-13 2020-06-09 重庆首讯科技股份有限公司 一种高速公路上车流量预测方法及装置
CN111294227A (zh) * 2018-12-10 2020-06-16 ***通信集团四川有限公司 基于神经网络的流量预测的方法、装置、设备和介质
CN111327441A (zh) * 2018-12-14 2020-06-23 中兴通讯股份有限公司 一种流量数据预测方法、装置、设备及存储介质
US20200403913A1 (en) * 2019-06-21 2020-12-24 Beijing University Of Posts And Telecommunications Network Resource Scheduling Method, Apparatus, Electronic Device and Storage Medium
WO2021188022A1 (en) * 2020-03-17 2021-09-23 Telefonaktiebolaget Lm Ericsson (Publ) Radio resource allocation
CN113497717A (zh) * 2020-03-19 2021-10-12 ***通信有限公司研究院 网络流量的预测方法、装置、设备及存储介质
WO2022161599A1 (en) * 2021-01-26 2022-08-04 Telefonaktiebolaget Lm Ericsson (Publ) Training and using a neural network for managing an environment in a communication network

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111294227A (zh) * 2018-12-10 2020-06-16 ***通信集团四川有限公司 基于神经网络的流量预测的方法、装置、设备和介质
CN111327441A (zh) * 2018-12-14 2020-06-23 中兴通讯股份有限公司 一种流量数据预测方法、装置、设备及存储介质
CN110621026A (zh) * 2019-02-18 2019-12-27 北京航空航天大学 一种基站流量多时刻预测方法
CN109951357A (zh) * 2019-03-18 2019-06-28 西安电子科技大学 基于多层神经网络的网络应用识别方法
US20200403913A1 (en) * 2019-06-21 2020-12-24 Beijing University Of Posts And Telecommunications Network Resource Scheduling Method, Apparatus, Electronic Device and Storage Medium
CN110213784A (zh) * 2019-07-05 2019-09-06 中国联合网络通信集团有限公司 一种流量预测方法及装置
CN111200531A (zh) * 2020-01-02 2020-05-26 国网冀北电力有限公司信息通信分公司 一种通信网流量预测方法、装置与电子设备
CN111260122A (zh) * 2020-01-13 2020-06-09 重庆首讯科技股份有限公司 一种高速公路上车流量预测方法及装置
WO2021188022A1 (en) * 2020-03-17 2021-09-23 Telefonaktiebolaget Lm Ericsson (Publ) Radio resource allocation
CN113497717A (zh) * 2020-03-19 2021-10-12 ***通信有限公司研究院 网络流量的预测方法、装置、设备及存储介质
WO2022161599A1 (en) * 2021-01-26 2022-08-04 Telefonaktiebolaget Lm Ericsson (Publ) Training and using a neural network for managing an environment in a communication network

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
S XU: ""Realtime scheduling and power allocation using deep neural networks"", 《IEEE》, 31 December 2019 (2019-12-31) *
丁章;于德成;: "基于循环神经网络的无线通信指标预测应用研究", 山东通信技术, no. 01, 15 March 2020 (2020-03-15) *
张杰;白光伟;沙鑫磊;赵文天;沈航;: "基于时空特征的移动网络流量预测模型", 计算机科学, no. 12, 31 December 2019 (2019-12-31) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117432414A (zh) * 2023-12-20 2024-01-23 中煤科工开采研究院有限公司 顶板磨砂射流成缝的调控方法及***
CN117432414B (zh) * 2023-12-20 2024-03-19 中煤科工开采研究院有限公司 顶板磨砂射流成缝的调控方法及***

Similar Documents

Publication Publication Date Title
US5809423A (en) Adaptive-Dynamic channel assignment organization system and method
US5404574A (en) Apparatus and method for non-regular channel assignment in wireless communication networks
Chen et al. Multiuser computation offloading and resource allocation for cloud–edge heterogeneous network
CN111132190A (zh) 基站负荷预警方法、装置
CN111601327B (zh) 一种服务质量优化方法、装置、可读介质和电子设备
KR102668157B1 (ko) 클라우드 무선 접속 네트워크의 동적 리소스를 할당하는 장치 및 방법
CN116232923A (zh) 模型训练方法、装置以及网络流量预测方法、装置
CN113076177A (zh) 一种边缘计算环境下的虚拟机动态迁移方法
CN113407249A (zh) 一种面向位置隐私保护的任务卸载方法
US20160080975A1 (en) System and Method for Overlapping Rate Region Zoning
Saffar et al. Pricing and rate optimization of cloud radio access network using robust hierarchical dynamic game
KR102056894B1 (ko) 포그 산업용 사물인터넷 네트워크의 동적 리소스 재분배 방법
Ansari et al. Token based distributed dynamic channel allocation in wireless communication network
Jiang et al. A channel borrowing scheme for TDMA cellular communication systems
WO2023220975A1 (en) Method, apparatus and system for managing network resources
Casares-Giner et al. Performance model for two-tier mobile wireless networks with macrocells and small cells
Touati et al. Queue-based model approximation for inter-cell coordination with service differentiation
Lin et al. Channel assignment for GSM half-rate and full-rate traffic
Chousainov et al. Performance evaluation of a C-RAN supporting a mixture of random and quasi-random traffic
WO2023003275A1 (en) Method and system for dynamic beamwidth management in the wireless communication systems
CN112929885B (zh) 资源分配方法和***
Manzanilla-Salazar et al. An algorithm for threading assignment in large-scale wireless network mobile simulations
KR20230026874A (ko) 무선 통신 시스템에서 단말을 추적하기 위한 장치 및 방법
Boukerche et al. Distributed dynamic channel allocation for mobile communication systems
Fan et al. Revenue-Aware Edge Server Deployment Algorithm in Edge Computing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination