首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
柳兴  杨震  王新军  朱恒 《计算机应用》2020,40(5):1389-1391
针对移动边缘计算(MEC)中的内容分发加速问题,考虑MEC服务器存储空间受限对内容缓存的影响,以移动用户获取对象延时为优化目标,根据用户群对不同对象的兴趣的差异,提出了一种基于兴趣的内容分发加速策略(ICDAS)。该策略根据MEC服务器的存储空间、移动用户群对不同对象的兴趣以及对象的文件大小,选择性地在MEC服务器上缓存对象,并及时对MEC服务器上缓存的对象进行更新,最大限度地满足移动用户群的内容需求。仿真结果表明,所提策略具有良好的收敛性能,其缓存命中率相对稳定且明显优于现有策略;当系统运行达到稳定后,相较于现有策略,该策略可使用户获取对象数据的时延减少20%。  相似文献   

2.
随着无线网络中的移动数据流量爆炸式增长,支持高速缓存的无人机被应用于移动计算领域充当边缘服务器,为网络中的用户提供按需服务。为了在满足其他资源约束的条件下,给用户带来更好的体验,通过联合优化无人机部署、缓存放置和用户关联以实现最小化所有用户的内容访问时延,并为用户提供质量不同的内容缓存服务。针对多无人机和地面基站协同提供缓存服务的场景,提出了一种基于迭代优化的联合优化算法。该算法通过迭代求解由目标问题分解得到的三个子问题的方式来获得具有收敛性保证的次优解决方案。首先,采用基于连续凸近似的算法求解无人机部署子问题;其次,采用基于贪心的算法求解内容缓存子问题;然后,利用基于罚函数的连续凸近似算法求解用户关联子问题;最后,对上述过程重复迭代,得到目标问题的一个次优解。多次仿真实验验证了所提算法的有效性和可行性。仿真结果表明,与基准算法相比,所提联合优化算法在平均内容访问时延、缓存命中率两方面均具有更好的性能。  相似文献   

3.
现有大多数内容缓存算法需要对内容流行度的准确估计,这在动态移动网络环境中是较难实现的。提出考虑内容异构5G无线网络云对边混合缓存策略,设计优化了内容缓存位置,其可以是原始内容服务器、云单元(CUs)和基站(BSs)。采用Lyapunov优化方法解决了NP-hard缓存控制问题与CU缓存和BS缓存控制决策之间的紧密耦合问题,有助于改善和识别网络体系结构的层次性和Cus缓存与BSs缓存之间的隶属关系,同时新的分层网络架构能够通过机会性地开发以云为中心和以边缘为中心的缓存来提高内容缓存性能,支持高平均请求的内容数据速率。采用李雅普诺夫优化技术,可实现恒定分数的容量区域的所有到达率的有限服务延迟,进而实现缓存数据的快速读取。仿真结果显示,所提缓存策略在平均端到端服务延迟和负载降低率方面具有较为显著的优势。  相似文献   

4.
移动边缘计算研究中,边缘服务器通过缓存任务数据可以有效节约计算资源,但如何分配缓存资源解决边缘服务器的竞争关系,以及能耗和效益问题,达到系统性能最优是一个NP难问题。为此提出基于缓存优化的在线势博弈资源分配策略OPSCO(online potential-game strategy based on cache optimization),采用新的缓存替换策略CASCU(cache allocation strategy based on cache utility),最大化缓存的效用。通过优化边缘服务器的效益指示函数,将缓存替换代价等因素与李雅普诺夫优化、势博弈以及EWA(exponential weighting algorithm)算法结合,对边缘服务器的竞争关系建模,进行势博弈相关证明和分析。仿真结果表明,OPSCO相比于其他资源分配策略,可以明显提升任务完成率和缓存效用,并降低设备能耗和时间开销,解决了移动边缘计算在线缓存场景中的资源分配以及数据缓存问题。  相似文献   

5.
移动边缘计算(MEC)的出现使移动用户能够以低延迟访问部署在边缘服务器上的服务。然而,MEC仍然存在各种挑战,尤其是服务部署问题。边缘服务器的数量和资源通常是有限的,只能部署数量有限的服务;此外,用户的移动性改变了不同服务在不同地区的流行度。在这种情况下,为动态请求部署合适的服务就成为一个关键问题。针对该问题,通过了解动态用户请求来部署适当的服务以最小化交互延迟,将服务部署问题表述为一个全局优化问题,并提出了一种基于集群划分的资源聚合算法,从而在计算、带宽等资源约束下初步部署合适的服务。此外,考虑动态用户请求对服务流行度及边缘服务器负载的影响,开发了动态调整算法来更新现有服务,以确保服务质量(QoS)始终满足用户期望。通过一系列仿真实验验证了所提出策略的性能。仿真结果表明,与现有基准算法相比,所提出的策略可以降低服务交互延迟并实现更稳定的负载均衡。  相似文献   

6.
王亚丽  陈家超  张俊娜 《计算机应用》2022,42(11):3479-3485
移动边缘计算(MEC)通过将资源部署在用户的近邻区域,可以减少移动设备的能耗,降低用户获取服务的时延;然而,大多数有关缓存方面的研究忽略了用户所请求服务的地域差异特性。通过研究区域所请求内容的特点和内容的动态性特性,提出一种收益最大化的缓存协作策略。首先,考虑用户偏好的区域性特征,将基站分为若干协作域,使每一个区域内的基站服务偏好相同的用户;然后,根据自回归移动平均(ARIMA)模型和内容的相似度预测每个区域的内容的流行度;最后,将缓存协作问题转化为收益最大化问题,根据存放内容所获得的收益,使用贪心算法解决移动边缘环境中缓存的内容的放置和替换问题。仿真实验表明,与基于MEC分组的协作缓存算法(GHCC)相比,所提算法在缓存命中率方面提高了28%,且平均传输时延低于GHCC。可见,所提算法可以有效提高缓存命中率,减少平均传输时延。  相似文献   

7.
Cloud-based video on demand (VOD) service is a promising next-generation media streaming service paradigm. Being a resource-intensive application, how to maximize resource utilization is a key issue of designing such an application. Due to the special cloud-based VOD system architecture consisting of cloud storage cluster and media server cluster, existing techniques such as traditional caching strategies are inappropriate to be adopted by a cloud-based VOD system directly in practice. Therefore, in this study, we have proposed a systemic caching scheme, which seamlessly integrates a caching algorithm and a cache deployment algorithm together to maximize the resources utilization of cloud-based VOD system. Firstly, we have proposed a cloud-based caching algorithm. The algorithm models the cloud-based VOD system as a multi-constraint optimization problem, so as to balance the resource utilization between cloud storage cluster and media server cluster. Secondly, we have proposed a cache deployment algorithm. The algorithm further manages the bandwidth and cache space resource utilization inside the media server cluster in a more fine-grained manner, and achieves load balancing performance. Our evaluation results show that the proposed scheme enhances the resource utilization of the cloud-based VOD system under resource-constrained situation, and cuts down the reject ratio of user requests.  相似文献   

8.
Data caching is a popular technique that improves data accessibility in wired or wireless networks. However, in mobile ad hoc networks, improvement in access latency and cache hit ratio may diminish because of the mobility and limited cache space of mobile hosts (MHs). In this paper, an improved cooperative caching scheme called group-based cooperative caching (GCC) is proposed to generalize and enhance the performance of most group-based caching schemes. GCC allows MHs and their neighbors to form a group, and exchange a bitmap data directory periodically used for proposed algorithms, such as the process of data discovery, and cache placement and replacement. The goal is to reduce the access latency of data requests and efficiently use available caching space among MH groups. Two optimization techniques are also developed for GCC to reduce computation and communication overheads. The first technique compresses the directories using an aggregate bitmap. The second employs multi-point relays to develop a forwarding node selection scheme to reduce the number of broadcast messages inside the group. Our simulation results show that the optimized GCC yields better results than existing cooperative caching schemes in terms of cache hit ratio, access latency, and average hop count.  相似文献   

9.
随着移动互联网业务的快速发展,增强现实、虚拟现实、超清视频等手机应用逐渐普及、IoT应用不断涌现,计算能力和续航能力的不足成为限制智能终端设备成功支撑这些应用的主要瓶颈。针对这一现状,采用计算卸载的方式解决该问题,在多用户多移动边缘服务器的场景下,综合考虑智能设备性能和服务器资源提出了一种基于改进拍卖算法的计算卸载策略。该策略主要包括两个阶段,在卸载决策阶段,通过综合考虑计算任务自身大小、计算需求和服务器计算能力、网络带宽等因素提出了卸载决策的依据;在任务调度阶段,通过综合考虑计算任务的时间需求和MEC服务器计算性能提出了基于改进拍卖算法的任务调度模型。实验证明,提出的计算卸载策略能够有效地降低服务时延,减少智能设备能耗,改善用户体验。  相似文献   

10.
移动数据库的缓存技术使客户机通过缓存少量的服务器数据项,便能拥有较高的处理速度,而且,它也是解决移动数据库频繁断接性问题的关键技术。文章研究了缓存管理策略在移动数据库中的应用,重点研究了缓存管理策略三大关键问题:缓存粒度、缓存一致性以及缓存替换,提出了一种基于统计与优先级原则解决缓存一致性问题的新思路。  相似文献   

11.
移动边缘计算(mobile edge computing,MEC)是一种高效的技术,通过将计算密集型任务从移动设备卸载到边缘服务器,使终端用户实现高带宽、低时延的目标.移动边缘计算环境下的计算卸载在减轻用户负载和增强终端计算能力等方面发挥着重要作用.考虑了服务缓存,提出一种云-边-端协同的计算卸载框架,在该框架中引入D2D (device-to-device,D2D)通信和机会网络.基于建立的模型,将计算卸载决策问题转化为一个混合整数非线性规划问题,并对无线特性和移动用户之间的非合作博弈交互制定了一个迭代机制来共同确定计算卸载方案.对提出的计算卸载算法从理论上证明了多用户计算卸载博弈模型为严格势力场博弈(exact potential game,EPG),卸载决策可获得全网范围内的最优效益.考虑到服务器的计算资源、卸载任务数据量和任务延迟需求,提出对用户和MEC服务器之间最佳用户关联匹配算法.最后,模拟结果表明,卸载决策算法具有较快的收敛速度,并在能效方面优于其他基准算法.  相似文献   

12.
A scalable low-latency cache invalidation strategy for mobile environments   总被引:3,自引:0,他引:3  
Caching frequently accessed data items on the client side is an effective technique for improving performance in a mobile environment. Classical cache invalidation strategies are not suitable for mobile environments due to frequent disconnections and mobility of the clients. One attractive cache invalidation technique is based on invalidation reports (IRs). However, the IR-based cache invalidation solution has two major drawbacks, which have not been addressed in previous research. First, there is a long query latency associated with this solution since a client cannot answer the query until the next IR interval. Second, when the server updates a hot data item, all clients have to query the server and get the data from the server separately, which wastes a large amount of bandwidth. In this paper, we propose an IR-based cache invalidation algorithm, which can significantly reduce the query latency and efficiently utilize the broadcast bandwidth. Detailed analytical analysis and simulation experiments are carried out to evaluate the proposed methodology. Compared to previous IR-based schemes, our scheme can significantly improve the throughput and reduce the query latency, the number of uplink request, and the broadcast bandwidth requirements.  相似文献   

13.
Data caching on mobile clients is widely seen as an effective solution to improve system performance. In particular, cooperative caching, based on the idea of sharing and coordination of cache data among multiple users, can be particularly effective for information access in mobile ad hoc networks where mobile clients are moving frequently and network topology is changing dynamically. Most existing cache strategies perform replacement independently, and they seldom consider coordinated replacement and energy saving issues in the context of a mobile ad hoc network. In this paper, we analyse the impact of energy on designing a cache replacement policy and formulate the Energy-efficient COordinated cache Replacement Problem (ECORP) as a 0-1 knapsack problem. A dynamic programming algorithm called ECORP-DP and a heuristic algorithm called ECORP-Greedy are presented to solve the problem. Simulations, using both synthetic workload traces and real workload traces in our experiments, show that the proposed policies can significantly reduce energy consumption and access latency when compared to other replacement policies.  相似文献   

14.
多服务移动边缘计算(multiple-services mobile edge computing,MSs-MEC)能根据需求自适应调整服务缓存决策,使得部署在用户侧的边缘服务器能够灵活处理不同服务类型的任务。但在实际应用中,特定类型任务的成功迁移依赖于服务环境的提前安装。此外,同时进行任务迁移和服务缓存可能会因时间冲突而导致计算延时。因此,针对上述相关问题,首先将任务迁移和服务缓存决策进行解耦,针对深度强化学习(deep reinforcement learning,DRL)在具有高维的混合决策空间的性能提升不明显的缺点(例如资源分配时利用率不高),将DRL与Transformer结合,通过在历史数据中学习,输出当前时隙的任务迁移决策和下一时隙的任务决策,保证任务到达边缘服务器时能立即执行。其次,为了提高资源分配问题中的资源利用率,将问题分解为连续资源分配问题和离散的任务迁移与服务缓存问题,利用凸优化技术求解资源分配最优决策。广泛的数值结果表明,与其他基线算法相比,提出的算法能有效地减少任务的平均完成时延,同时在资源利用率和稳定性方面也有优异的表现。  相似文献   

15.
为了应对第五代无线通信网络中数据吞吐量急剧增加的问题,移动边缘缓存成为了一种有效的解决方案。它通过在边缘设备上存储网络内容,减轻回程链路和核心网络的负担,缩短服务时延。到目前为止,大多数边缘缓存研究主要在协作内容缓存的优化方面,忽略了内容传输的效率。研究超密集网络的内容协作边缘缓存与无线带宽资源的分配问题,通过余弦相似度和高斯相似度求解基站之间总的相似度,将网络中的小基站根据总相似度进行分组,把缓存和无线带宽分配问题建模成一个长期混合整数的非线性规划问题(LT-MINLP),进而将协作边缘缓存与带宽分配问题转变为一个带约束的马尔可夫决策过程,并利用深度确定性策略梯度DDPG模型,提出了一种基于深度强化学习的内容协作边缘缓存与带宽分配算法CBDDPG。提出的基站分组方案增加了基站之间文件共享的机会,提出的CBDDPG算法的缓存方案利用DDPG双网络机制能更好地捕捉用户的请求规律,优化缓存部署。将CBDDPG算法与三种基线算法(RBDDPG、LCCS和CB-TS)进行了对比实验,实验结果表明所提方案能够有效地提高内容缓存命中率,降低内容传递的时延,提升用户体验。  相似文献   

16.
随着移动设备数量的爆炸性增长以及许多新兴应用的出现,移动网络的流量呈指数级增长.传统的集中式网络架构由于回程链路负载过重、时延较长,无法满足移动用户的需求.因此,提出了将网络能力从核心网开放至边缘网的新体系结构,即移动边缘计算(MEC).移动边缘计算能够在移动蜂窝网络的边缘提供轻量级的云计算和存储能力.对移动边缘计算相关的最新研究成果进行了详尽的回顾:首先,概述了移动边缘计算的发展历程、关键问题和支撑技术;然后,针对MEC架构、计算迁移、边缘缓存和服务编排这4个关键研究问题进行了全面的综述,并讨论了增强现实、虚拟现实、动态内容交付、车联网和物联网等移动边缘计算中的典型应用案例;最后,从移动边缘计算功能增强、服务质量保障和安全可用性这3个方面展望了移动边缘计算的开放式研究挑战和未来的发展趋势.  相似文献   

17.
随着移动设备和新兴移动应用的广泛使用,移动网络中流量的指数级增长所引发的网络拥塞、时延较大、用户体验质量差等问题无法满足移动用户的需求。边缘缓存技术通过对网络热点内容的复用,能极大缓解无线网络的传输压力;同时,该技术减少用户请求的网络时延,进而改善用户的网络体验,已经成为面向5G/Beyond 5G的移动边缘计算(MEC)中的关键性技术之一。围绕移动边缘缓存技术,首先介绍了移动边缘缓存的应用场景、主要特性、执行过程和评价指标;其次,对以低时延高能效、低时延高命中率及最大化收益为优化目标的边缘缓存策略进行了分析和对比,并总结出各自的关键研究点;然后,阐述了支持5G的MEC服务器的部署,并在此基础上分析了5G网络中的绿色移动感知缓存策略和5G异构蜂窝网络中的缓存策略;最后,从安全、移动感知缓存、基于强化学习的边缘缓存、基于联邦学习的边缘缓存以及Beyond 5G/6G网络的边缘缓存等几个方面讨论了边缘缓存策略的研究挑战和未来发展方向。  相似文献   

18.
电工装备智慧物联有利于电力装备行业实现高水平发展,而传统信息交互架构无法适应智慧物联的信息交互需求。针对电工装备智能监造平台信息分发效率问题,设计一种基于边缘缓存的电工装备信息分发架构。考虑到网络建设成本以及业务数据的分发时延需求,以电力公司服务缓存收益最大化为目标,研究一种面向电工装备智能监造的边缘信息缓存策略。为降低问题求解复杂度,提出一种基于改进粒子群的缓存决策算法完成问题求解。仿真结果表明,所提缓存算法在保证部分时延优先级较高的数据缓存需求的情况下实现了电力公司高缓存服务收益的获取。  相似文献   

19.
Liu  Xi  Liu  Jun  Wu  Hong 《The Journal of supercomputing》2022,78(15):16621-16646

With lower network latency and powerful hardware, mobile edge computing (MEC) is effective for computation-intensive and delay-sensitive tasks. The rising energy and low-latency demands of mobile applications for MEC pose challenges to task allocation. In this work, we consider computation offloading in MEC that is composed of a set of mobile devices, each with multiple tasks to offload to a nearby MEC server, with both single and multiple access points (APs). With multiple APs deployed, each mobile device can directly communicate with one or more APs, and their tasks can offload to different MEC servers that are within direct communication range. By considering binary computation offloading mode and limited subchannels, we formulate the multitask allocation problem as an integer programming problem, with the objective of minimizing the total energy consumption of all mobile devices while meeting deadline requirements. To solve this complicated problem, we propose efficient algorithms for single and multiple APs, and analyze related properties, including the approximation ratio and complexity. Experiments show that the algorithm can find high-quality solutions in a short time.

  相似文献   

20.
针对车联网中数据流量爆炸式增长而引起的业务响应时延过高的问题,提出了一种基于移动边缘计算的蚁群模拟退火算法缓存策略(ACSAM)。首先,在基于5G的车—边—云协同系统架构下,以最小化内容下载时延为目标,建立了通信计算模型;其次,采用蚁群算法构造了使内容下载时延最小的局部最优解;最后,使用模拟退火算法对局部最小下载时延进行扰动,并以一定概率接受新解,从而得到全局最小下载时延,即保证了内容被预缓存在最佳的位置。仿真结果表明,在车—边—云协同架构下,ACSAM缓存策略可显著减少传输冗余,降低下载时延。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号