CN112752308B - 一种基于深度强化学习的移动预测无线边缘缓存方法 - Google Patents
一种基于深度强化学习的移动预测无线边缘缓存方法 Download PDFInfo
- Publication number
- CN112752308B CN112752308B CN202011620501.1A CN202011620501A CN112752308B CN 112752308 B CN112752308 B CN 112752308B CN 202011620501 A CN202011620501 A CN 202011620501A CN 112752308 B CN112752308 B CN 112752308B
- Authority
- CN
- China
- Prior art keywords
- user
- cache
- service node
- neural network
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/10—Flow control between communication endpoints
- H04W28/14—Flow control between communication endpoints using intermediate storage
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/147—Network analysis or design for predicting network behaviour
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Mobile Radio Communication Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明涉及一种基于深度强化学习的移动预测无线边缘缓存方法,包括以下步骤:构建无线智能缓存网络模型,包括用户集、服务节点集、用户请求内容集、缓存内容集、源内容库、用户历史轨迹向量和用户分类组;构建长短期记忆网络模型,根据用户历史轨迹向量作为预测用户在下一时隙的预测位置并进行分类,获取用户分类组;建立替换缓存策略,根据用户分类组,获取每一个服务节点的预测用户集,并根对当前服务节点的缓存内容进行替换;构建结合Q学习和DQN强化学习的神经网络,对神经网络进行训练,得到训练好的动态缓存替换模型,将动态缓存替换模型利用于替换缓存策略中。
Description
技术领域
本发明涉及一种基于深度强化学习的移动预测无线边缘缓存方法,属于无线通信和计算机技术领域。
背景技术
随着移动无线通信、数据需求的指数级增长以及设备存储和计算能力的不断提高,实时多媒体服务在5G通信网络中逐渐成为主要业务,人类生活与工作逐渐向移动互联网全面的迁徙,将各种网络功能推向网络的边缘,如边缘计算和边缘缓存。通过预存储用户请求的流行内容,边缘缓存旨在减少回程网络中的流量负载和重复传输,从而显著降低延迟,因此,准确预测用户的未来需求是边缘缓存替代的关键。为了捕捉内容流行度和时变无线环境的动态特性,策略控制框架被引入无线缓存领域。深度强化学习结合了深度神经网络和Q学习,在解决复杂控制问题方面表现出了优异的性能,在无线边缘缓存的研究中得到了越来越多的关注。
发明内容
为了解决上述现有技术中存在的问题,本发明提出了一种基于深度强化学习的移动预测无线边缘缓存方法,利用长短期记忆网络对移动用户的位置进行预测,可克服用户的移动性对缓存命中率的影响,同时利用结合Q学习和强化学习的神经网络框架进行服务节点的缓存替换策略,解决在无线网络中的缓存问题,从而提高了移动预测无线边缘缓存的能力。
本发明的技术方案如下:
一种基于深度强化学习的移动预测无线边缘缓存方法,包括以下步骤:
构建无线智能缓存网络模型,包括服务节点模型和服务节点控制模型,所述服务节点模型包括用户集、服务节点集、用户请求内容集、缓存内容集和源内容库;所述服务节点控制模型包括用户历史轨迹向量和用户分类组;
移动预测,构建长短期记忆网络模型,将所述用户历史轨迹向量作为输入,输出用户在下一时隙的预测位置;并根据用户集中每个用户在下一时隙的预测位置进行分类,获取所述用户分类组;
建立替换缓存策略,根据用户分类组,获取服务节点集中每一个服务节点在下一时隙的预测用户集,并根据所述预测用户集中用户的历史请求内容和当前服务节点的缓存内容从源内容库中获取替换内容对当前服务节点的缓存内容进行替换;
优化模型,构建结合Q学习的深度学习神经网络,以预测用户集、用户请求内容集和缓存内容集组成的状态空间中的样本状态作为输入,以替换内容组成的动作空间中的某一各动作作为输出,对神经网络进行训练,得到训练好的动态缓存替换模型,将动态缓存替换模型利用于替换缓存策略中。
进一步的,所述无线智能缓存网络模型以时间离散的方式运行,在每个时隙中,用户请求内容和用户历史轨迹均进行更新。
进一步的,所述用户历史轨迹向量为一个位置序列,表示一段时间内用户的移动轨迹,将每个用户的历史轨迹向量存入服务节点控制模型中;
将所述用户的历史轨迹向量输入所述构建长短期记忆网络模型中,并引入权重矩阵,输出各用户在下一时隙的预测位置。
进一步的,在对神经网络进行训练的过程中,基于缓存命中率构建奖励函数对神经网络进行训练,具体步骤为:
构建奖励函数,所述奖励函数通过输入的样本状态和输出的动作计算一瞬时奖赏值,并将所述瞬时奖赏值提供给神经网络;
构建缓存命中率计算公式,所述缓存命中率指的是一服务节点对应的用户集中的每个用户的请求内容能够在对应服务节点的缓存内容中找到的概率;
预设一阈值,该阈值∈(0,1),根据输入的样本状态和输出的动作获取样本在下一时隙的状态,根据所述缓存命中率计算公式计算该样本在下一时隙的状态时的缓存命中率,并与阈值比较,当该样本在下一时隙的状态时的缓存命中率大于阈值时,获得正的瞬时奖赏值。
进一步的,所述神经网络中设置有经验回放机制,将输入的样本状态、输出的动作、瞬时奖赏值以及样本在下一时隙的状态合成一组合并存入一经验回放库中作为神经网络的训练样本。
进一步的,所述构建结合Q学习和DQN强化学习的神经网络的步骤具体为:
通过Q学习定义一通过经验回放库中的训练样本计算q值的动作价值函数;
DQN强化学习采用神经网络来预估q值,对于经验回放库中的每个训练样本,先通过样本状态和动作预估当前采取动作的q值,再通过样本在下一时隙的状态和动作预估下一状态采取动作的q值;
构造以下一状态采取动作的q值与当前采取动作的q值之间的差值为基准的损失函数,并利用梯度下降法迭代更新神经网络的权重参数,使神经网络达到收敛。
本发明具有如下有益效果:
1、本发明一种基于深度强化学习的移动预测无线边缘缓存方法,利用长短期记忆网络对移动用户的位置进行预测,可克服用户的移动性对缓存命中率的影响,同时利用结合Q学习和强化学习的神经网络框架进行服务节点的缓存替换策略,解决在无线网络中的缓存问题,从而提高了移动预测无线边缘缓存的能力。
2、本发明一种基于深度强化学习的移动预测无线边缘缓存方法,建立基于缓存命中率的奖励函数,当进行替换缓存内容后缓存命中率大于阈值时才给与正的瞬时奖赏值,提高神经网络输出结果的精准度。
3、本发明一种基于深度强化学习的移动预测无线边缘缓存方法,根据用户的预测位置获取每一个节点的预测用户集,尽可能地让用户能够在服务节点中获取缓存资源,减少时延。
4、本发明一种基于深度强化学习的移动预测无线边缘缓存方法,用神经网络近似Q值的计算,通过迭代产生每个状态下能够获得最大Q值的动作,从而得出最优缓存替换策略,神经网络通过梯度下降不断更新迭代参数,让损失函数趋于稳定的最小值,使整个网络达到收敛。
附图说明
图1为本发明实施例的整体流程图;
图2为本发明实施例中无线智能缓存网络模型的示例图;
图3为本发明实施例中缓存策略的流程图;
图4为本发明实施例中不同移动模式的场景示例图;
图5为对于不同移动模式采用本实施例方案后的计算结果对比示例图。
具体实施方式
下面结合附图和具体实施例来对本发明进行详细的说明。
实施例一:
参见图1,一种基于深度强化学习的移动预测无线边缘缓存方法,包括以下步骤:
构建无线智能缓存网络模型,包括服务节点模型和服务节点控制模型,所述服务节点模型包括用户集U={U1,U2,...,UI}、服务节点集B={B1,B2,...,BJ}、用户请求内容集缓存内容集和源内容库O={O1,O2,...,OK};表示第i个用户在第t个时隙中的请求内容,同时表示第j个服务节点在第t个时隙中的缓存内容;
所述服务节点控制模型包括用户历史轨迹向量和用户分类组;
移动预测,构建长短期记忆网络模型,将所述用户历史轨迹向量作为输入,输出用户在下一时隙的预测位置;并根据用户集中每个用户在下一时隙的预测位置进行分类,获取所述用户分类组;
建立替换缓存策略,根据用户分类组,获取服务节点集中每一个服务节点在下一时隙的预测用户集并根据所述预测用户集中的用户,从用户请求集和缓存内容集中获取该用户的历史请求内容和当前服务节点的缓存内容,当用户的历史请求内容在当前服务节点的缓存内容中不存在时,从源内容库O={O1,O2,...,OK}中获取替换内容对当前服务节点的缓存内容进行替换,即中存储的一些内容将被O={O1,O2,...,OK}提供的新内容所取代;
优化模型,构建结合Q学习和DQN强化学习的深度学习神经网络,状态空间定义为以状态空间中的样本状态作为输入,动作空间定义为a(t)={x1,x2,…,xK},x1~xk表示替换内容的动作空间中的某一各动作作为输出,对神经网络进行训练,得到训练好的动态缓存替换模型,将动态缓存替换模型利用于替换缓存策略中。
本实施利用长短期记忆网络对移动用户的位置进行预测,可克服用户的移动性对缓存命中率的影响,同时利用结合Q学习和强化学习的神经网络框架进行服务节点的缓存替换策略,解决在无线网络中的缓存问题,从而提高了移动预测无线边缘缓存的能力。
实施例二:
进一步的,所述无线智能缓存网络模型以时间离散方式运行t={1,2,…,T}。在每个时隙中,用户的位置信息和请求都会被更新,即和被更新,如果请求的内容缓存在集合中,它将直接传输给用户;否则,需要通过回程从远程服务器发送内容请求和传递。为了更新缓存内容,从服务节点控制器发送的预测用户集将和用作神经网络的输入,以确定下一个时隙的缓存内容,即存储中的一些内容将被远程服务器提供的新内容所取代。
进一步的,在对神经网络进行训练的过程中,基于缓存命中率构建奖励函数对神经网络进行训练,具体步骤为:
构建奖励函数,在每个时隙,服务节点接受到用户的请求内容和服务节点控制器模型的预测用户集之后,会结合当前用户服务节点的缓存,即产生状态s(t)之后,当做神经网络的输入,神经网络会根据状态s(t)选择动作空间里的某一个动作a(t)当做输出,执行该动作后,根据奖励函数得到一个瞬时奖励值
构建缓存命中率计算公式:
其中,表示当用户的请求在当前服务节点的缓存中能找到的时候,该指示函数的值为1,反之则为0,然后缓存第j个服务节点的缓存命中率即对所有当前处在该服务节点的用户都进行一次指示函数的求值,最后归一化求百分比命中率。
进一步的,所述神经网络中设置有经验回放机制,在每个时隙,服务节点接受到用户的请求内容和预测用户集之后,会结合当前用户服务节点的缓存内容,即产生状态s(t)之后,当做神经网络的输入,神经网络会根据状态s(t)选择动作空间里的某一个动作a(t)当做输出,执行该动作后,***会根据奖励函数得到一个瞬时奖励值并且进入下一个状态s(t+1)。然后会将该四个元素合成一个组合存入一经验回放库中当做神经网络的训练样本。
进一步的,所述构建结合Q学习和DQN强化学习的神经网络的步骤具体为:
通过Q学习(Q-learning)定义一通过经验回放库中的训练样本计算q值的动作价值函数:
其中γ∈(0,1)表示折扣因子。
由于动作空间的大维数会消耗大量的内存,DQN强化学***方
并用梯度下降法更新神经网络的权重参数ω;
使得训练出来的权重参数ω达到稳定,让整个神经网络达到收敛状态。
为了让本领域技术人员进一步了解本实施例所提出的方案,下面结合具体实施例作详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程。
如图2所示,为无线智能缓存网络模型。
该模型主要有服务节点、控制器、源服务器、缓存模板等组成,介绍了服务节点下的用户缓存模型,每个服务节点都可以通过回程链路在源服务器上下载用户请求的内容,并在本地缓存用户请求的内容,直接为小区内的用户服务。
如图3所示,是缓存策略流程图。
在时隙t中,用户产生的请求和位置。请求端:如果缓存在服务节点上,就直接发送用户请求的内容给用户,如果没有则从远程服务器(源内容库)中下载。位置端:更新用户的历史轨迹向量,通过长短期记忆网络预测用户的移动性,然后通过分类函数得到对应服务节点的预测用户集,最后进行神经网络来更新缓存内容。
如图4所示,为不同的移动场景示例图。
为了研究在各种移动场景下提出的基于DRL的缓存方案,对三种不同的移动模式进行了测试和比较,图4中(a)为线性移动:用于模拟用户在街道或道路上的直线移动。图4中(b)为圆周运动:这是一种典型的确定性运动模式,用于模拟固定路径轨迹。图4中(c)为随机移动:用于模拟用户在开放区域的不规则移动。
计算结果如图5所示,结果表明采用移动性预测的算法优于没有移动预测的算法,在线性、圆形和随机运动情况下,缓存命中率的性能增益分别为14.5%、19.3%和10.0%,这说明准确预测用户在内容替换中起着关键作用,以适应用户的数据请求。
上述分析说明,本发明所提出方案,能获得比现有方法更好的缓存能力,可以很好地改善用户的缓存问题。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (5)
1.一种基于深度强化学习的移动预测无线边缘缓存方法,其特征在于,包括以下步骤:
构建无线智能缓存网络模型,包括服务节点模型和服务节点控制模型,所述服务节点模型包括用户集、服务节点集、用户请求内容集、缓存内容集和源内容库;所述服务节点控制模型包括用户历史轨迹向量和用户分类组;
移动预测,构建长短期记忆网络模型,将所述用户历史轨迹向量作为输入,输出用户在下一时隙的预测位置;并根据用户集中每个用户在下一时隙的预测位置进行分类,获取所述用户分类组;
建立替换缓存策略,根据用户分类组,获取服务节点集中每一个服务节点在下一时隙的预测用户集,并根据所述预测用户集中用户的历史请求内容和当前服务节点的缓存内容从源内容库中获取替换内容对当前服务节点的缓存内容进行替换;
优化模型,构建结合Q学习和DQN强化学习的神经网络,以预测用户集、用户请求内容集和缓存内容集组成的状态空间中的样本状态作为输入,以替换内容组成的动作空间中的某一各动作作为输出,对神经网络进行训练,得到训练好的动态缓存替换模型,将动态缓存替换模型利用于替换缓存策略中;所述无线智能缓存网络模型以时间离散的方式运行,在每个时隙中,用户请求内容和用户历史轨迹均进行更新。
2.根据权利要求1所述的一种基于深度强化学习的移动预测无线边缘缓存方法,其特征在于:所述用户历史轨迹向量为一个位置序列,表示一段时间内用户的移动轨迹,将每个用户的历史轨迹向量存入服务节点控制模型中;
将所述用户的历史轨迹向量输入所述构建长短期记忆网络模型中,并引入权重矩阵,输出各用户在下一时隙的预测位置。
3.根据权利要求1所述的一种基于深度强化学习的移动预测无线边缘缓存方法,其特征在于,在对神经网络进行训练的过程中,基于缓存命中率构建奖励函数对神经网络进行训练,具体步骤为:
构建奖励函数,所述奖励函数通过输入的样本状态和输出的动作计算一瞬时奖赏值,并将所述瞬时奖赏值提供给神经网络;
构建缓存命中率计算公式,所述缓存命中率指的是一服务节点对应的用户集中的每个用户的请求内容能够在对应服务节点的缓存内容中找到的概率;
预设一阈值,该阈值∈(0,1),根据输入的样本状态和输出的动作获取样本在下一时隙的状态,根据所述缓存命中率计算公式计算该样本在下一时隙的状态时的缓存命中率,并与阈值比较,当该样本在下一时隙的状态时的缓存命中率大于阈值时,获得正的瞬时奖赏值。
4.根据权利要求3所述的一种基于深度强化学习的移动预测无线边缘缓存方法,其特征在于:所述神经网络中设置有经验回放机制,将输入的样本状态、输出的动作、瞬时奖赏值以及样本在下一时隙的状态合成一组合并存入一经验回放库中作为神经网络的训练样本。
5.根据权利要求4所述的一种基于深度强化学习的移动预测无线边缘缓存方法,其特征在于,所述构建结合Q学习和DQN强化学习的神经网络的步骤具体为:
通过Q学习定义一通过经验回放库中的训练样本计算q值的动作价值函数;
DQN强化学习采用神经网络来预估q值,对于经验回放库中的每个训练样本,先通过样本状态和动作预估当前采取动作的q值,再通过样本在下一时隙的状态和动作预估下一状态采取动作的q值;构造以下一状态采取动作的q值与当前采取动作的q值之间的差值为基准的损失函数,并利用梯度下降法迭代更新神经网络的权重参数,使神经网络达到收敛。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011620501.1A CN112752308B (zh) | 2020-12-31 | 2020-12-31 | 一种基于深度强化学习的移动预测无线边缘缓存方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011620501.1A CN112752308B (zh) | 2020-12-31 | 2020-12-31 | 一种基于深度强化学习的移动预测无线边缘缓存方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112752308A CN112752308A (zh) | 2021-05-04 |
CN112752308B true CN112752308B (zh) | 2022-08-05 |
Family
ID=75650307
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011620501.1A Active CN112752308B (zh) | 2020-12-31 | 2020-12-31 | 一种基于深度强化学习的移动预测无线边缘缓存方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112752308B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113422801B (zh) * | 2021-05-13 | 2022-12-06 | 河南师范大学 | 边缘网络节点内容分配方法、***、装置及计算机设备 |
CN113315978B (zh) * | 2021-05-13 | 2022-03-15 | 江南大学 | 一种基于联邦学习的协作式在线视频边缘缓存方法 |
CN114025017B (zh) * | 2021-11-01 | 2024-04-16 | 杭州电子科技大学 | 基于深度循环强化学习的网络边缘缓存方法、装置及设备 |
CN114780889B (zh) * | 2022-05-07 | 2024-06-25 | 重庆大学 | 一种基于模仿学习的缓存替换***及方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103282891A (zh) * | 2010-08-16 | 2013-09-04 | 甲骨文国际公司 | 用于使用神经网络来进行有效的缓存的***和方法 |
US9047225B1 (en) * | 2012-09-27 | 2015-06-02 | Emc Corporation | Dynamic selection of data replacement protocol for cache |
CN110651279A (zh) * | 2017-06-28 | 2020-01-03 | 渊慧科技有限公司 | 利用学徒来训练动作选择神经网络 |
CN111901392A (zh) * | 2020-07-06 | 2020-11-06 | 北京邮电大学 | 一种面向移动边缘计算的内容部署与分发方法及*** |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10595037B2 (en) * | 2016-10-28 | 2020-03-17 | Nec Corporation | Dynamic scene prediction with multiple interacting agents |
CN113056749B (zh) * | 2018-09-11 | 2024-05-24 | 辉达公司 | 用于自主机器应用的未来对象轨迹预测 |
US20200134445A1 (en) * | 2018-10-31 | 2020-04-30 | Advanced Micro Devices, Inc. | Architecture for deep q learning |
CN109976909B (zh) * | 2019-03-18 | 2022-11-08 | 中南大学 | 边缘计算网络中基于学习的低延时任务调度方法 |
US11636393B2 (en) * | 2019-05-07 | 2023-04-25 | Cerebri AI Inc. | Predictive, machine-learning, time-series computer models suitable for sparse training sets |
EP3748455B1 (en) * | 2019-06-07 | 2022-03-16 | Tata Consultancy Services Limited | A method and a system for hierarchical network based diverse trajectory proposal |
-
2020
- 2020-12-31 CN CN202011620501.1A patent/CN112752308B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103282891A (zh) * | 2010-08-16 | 2013-09-04 | 甲骨文国际公司 | 用于使用神经网络来进行有效的缓存的***和方法 |
US9047225B1 (en) * | 2012-09-27 | 2015-06-02 | Emc Corporation | Dynamic selection of data replacement protocol for cache |
CN110651279A (zh) * | 2017-06-28 | 2020-01-03 | 渊慧科技有限公司 | 利用学徒来训练动作选择神经网络 |
CN111901392A (zh) * | 2020-07-06 | 2020-11-06 | 北京邮电大学 | 一种面向移动边缘计算的内容部署与分发方法及*** |
Non-Patent Citations (3)
Title |
---|
基于Bi-LSTM的无人机轨迹预测模型及仿真;杨任农等;《航空工程进展》;20200228(第01期);全文 * |
基于深度学习的智能移动边缘网络缓存;宋旭鸣等;《中国科学院大学学报》;20200115(第01期);全文 * |
基于长短记忆型卷积神经网络的犯罪地理位置预测方法;肖延辉等;《数据分析与知识发现》;20181025(第10期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112752308A (zh) | 2021-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112752308B (zh) | 一种基于深度强化学习的移动预测无线边缘缓存方法 | |
Zhu et al. | Caching transient data for Internet of Things: A deep reinforcement learning approach | |
CN109660598B (zh) | 一种物联网暂态数据的缓存替换方法及*** | |
WO2020253664A1 (zh) | 视频传输方法、***和存储介质 | |
Li et al. | Energy-latency tradeoffs for edge caching and dynamic service migration based on DQN in mobile edge computing | |
Zhang et al. | Toward edge-assisted video content intelligent caching with long short-term memory learning | |
CN109639760A (zh) | 一种基于深度强化学习的d2d网络中的缓存策略方法 | |
CN109982104B (zh) | 移动边缘计算中移动感知的视频预取与缓存替换决策方法 | |
CN111491331B (zh) | 一种雾计算网络中基于迁移学习的网络感知自适应缓存方法 | |
CN114553963B (zh) | 移动边缘计算中基于深度神经网络的多边缘节点协作缓存方法 | |
CN115809147B (zh) | 多边缘协作缓存调度优化方法、***及模型训练方法 | |
Yan et al. | Distributed edge caching with content recommendation in fog-rans via deep reinforcement learning | |
Wang et al. | Deepchunk: Deep q-learning for chunk-based caching in wireless data processing networks | |
Negara et al. | Caching and machine learning integration methods on named data network: A survey | |
CN113687960A (zh) | 一种基于深度强化学习的边缘计算智能缓存方法 | |
Li et al. | DQN-enabled content caching and quantum ant colony-based computation offloading in MEC | |
CN117221403A (zh) | 一种基于用户移动和联邦缓存决策的内容缓存方法 | |
CN116321307A (zh) | 一种无蜂窝网络中基于深度强化学习的双向缓存放置方法 | |
Yu et al. | Mobility-aware proactive edge caching for large files in the internet of vehicles | |
Liu et al. | Mobility-aware video prefetch caching and replacement strategies in mobile-edge computing networks | |
CN113114762B (zh) | 一种数据缓存方法及*** | |
CN114786200A (zh) | 一种基于协作感知的数据智能缓存方法 | |
Xu et al. | An incremental learning based edge caching system: From modeling to evaluation | |
CN115129888A (zh) | 一种基于网络边缘知识图谱的主动内容缓存方法 | |
Hatami et al. | Online caching policy with user preferences and time-dependent requests: A reinforcement learning approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |