首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 125 毫秒
1.
工业应用对数据传输的确定性有严格要求,有必要通过合理的缓存策略保障工业边缘网络的实时服务性能保障.首先面向工业边缘计算应用场景阐述了边缘缓存问题模型.然后分析了工业应用中用户请求的动态性特点,结合工业用户请求的特征属性,给出用户请求内容流行度变化的预测方法.在此基础上提出了基于属性特征流行度预测的缓存替换(combing periodic popularity prediction and size caching strategy,PPPS)算法,根据最近周期窗口内主导属性特征的热度预测值,和尺寸参数一起确定缓存内容价值.实验结果表明:与MPC(most-popular content)、贪婪双尺寸(greedy dual size,GDS)、最近最久未使用(least recently used,LRU)、最近最少访问频次(least frequently used,LFU)、先进先出(first in first out,FIFO)这5种经典算法相比,提出的PPPS算法在缓存命中率和平均延迟2种性能指标下,在不同的用户请求模型、内容大小分布、内容种类参数下均取得最优性能,有效提升了边缘缓存的命中率,提高了缓存利用效率,降低了用户请求内容的延迟.  相似文献   

2.
张鹏程  魏芯淼  金惠颖 《计算机学报》2021,44(12):2431-2446
在5G边缘网络飞速发展的过程中,边缘用户对高带宽、低时延的网络服务的质量要求也显著提高.从移动边缘网络的角度来看,网络内的整体服务质量与边缘用户的分配息息相关,用户移动的复杂性为边缘用户分配带来困难,边缘用户分配过程中还存在隐私泄露问题.本文提出一种移动边缘环境下基于联邦学习的动态QoS(Quality of Service)优化方法MECFLD_QoS,基于联邦学习的思想,优化边缘区域的服务缓存,在动态移动场景下根据用户位置分配边缘服务器,有效保护用户隐私,实现区域服务质量优化,对动态用户移动场景有更好的适应性.MECFLD_QoS主要做了以下几个方面的优化工作:(1)优化了传统QoS数据集,将数据集映射到边缘网络环境中,充分考虑边缘计算的移动、分布式、实时性、复杂场景等特点,形成边缘QoS特征数据集;(2)优化了边缘服务器缓存,在用户终端训练用户偏好模型,与区域公有模型交互时只传输参数,将用户的隐私数据封装在用户终端中,避免数据的传输,可以有效地保护用户特征隐私;(3)优化了用户移动场景,在动态移动场景中收集用户移动信息,利用用户接入基站的地理位置拟合用户的移动轨迹进行预测,有效地模糊了用户的真实位置,在轨迹预测的同时有效地保护了用户的位置隐私;(4)优化了用户分配方法,提出改进的基于二维解的人工蜂群算法对边缘网络中的用户分配问题进行优化,事实证明改进的人工蜂群算法针对其多变量多峰值的特点有效地优化了用户分配,达到了较优的分配效果.通过边缘QoS特征数据集实验表明,本方法在多变量多峰值的用户分配问题中能产生全局最优的分配.  相似文献   

3.
近年来,随着各类视频、短视频平台的快速发展,网络视频流量在全球无线网络总流量中占比日益增长.移动边缘计算通过将用户可能请求的视频内容事先存放于网络边缘节点可以有效降低骨干网负载,提高视频服务的响应速度.另一方面,移动无人机技术的推广应用为移动边缘计算应用带来了新的机遇.针对短视频等新兴的应用场景,本文提出的视频内容缓存策略(DC-DRL),基于视频文件内容流行度预测,并与无人机基站调度相结合,从边缘服务器的内容缓存策略和无人机的调度等方面进行多因素、多目标的联合优化,以提升边缘节点高速缓存的系统平均缓存命中率.在缓存替换策略方面,使用对时序特征敏感的长短期记忆神经网络进行基于流行度的文件替换;在无人机基站的轨迹优化方面,本文提出的系统模型,结合演员-批评家算法,利用无人机的移动性辅助优化系统平均缓存命中率.最后通过一系列的仿真实验分析验证了上述策略的有效性.  相似文献   

4.
在发生重大自然灾害时,所在区域的基站等通信设备容易遭到破坏,无法满足受灾人员的通信需求.针对该场景,在无线mesh网络架构下,提出地空异构网络中无人机辅助的文件协作缓存算法.其中,mesh路由器为主要缓存设备,将缓存文件块作为缓存策略的基因,采用遗传算法实现文件协作缓存,减少用户请求文件的响应时延,达到应急通信的目的;无人机作为中继传输节点,将转弯角作为轨迹规划的基因,采用遗传算法得出最优中继位置,辅助地面无线mesh路由缓存,共同为用户提供文件块.仿真结果表明,所提出的算法可以显著降低用户获取文件的平均时延,达到应急通信的目的.  相似文献   

5.
网络化缓存是命名数据网络实现对信息的高效获取,有效降低互联网骨干网络流量的关键技术.网络化缓存将缓存作为普适的功能添加到每个网络节点.用户需要获取信息时,缓存有该内容的任意网络节点(例如路由器)接收到用户请求后都可直接向用户返回相应内容,提升用户请求响应效率.然而,命名数据网络采用泛在缓存使得内容发布者到用户的传输路径上的各节点对内容进行重复并无差别缓存,造成数据冗余、内容缓存无差别对待问题.为此,提出一种基于内容类型的隔跳概率缓存机制.首先根据业务特征(例如时延要求、带宽占用)将内容划分为4种类型:动态类、实时类、大数据类、以及小数据类;其次构造隔跳待定缓存策略,将数据存储在非连续的传输节点上,从空间上减少冗余缓存;最后针对不同内容提供差异化缓存服务:无缓存、网络边缘概率缓存、网络次边缘概率缓存、以及网络核心概率缓存策略,从而进一步降低冗余数据,同时提高用户获取内容的效率.实验结果表明,该机制能够减少冗余缓存,降低用户请求内容时延.  相似文献   

6.
《微型机与应用》2014,(12):69-72
在分布式存储中,客户端的数据访问请求并非完全随机,它是由程序或者用户的行为驱动,因此文件访问顺序是可以预测的;服务器端收到的访问请求在时间轴上也非平坦分布,因此服务器有时繁忙有时空闲。为此,提出了一种基于文件预测的分布式缓存模型,在客户端预测将要访问的文件,并利用服务器空闲时间传输预测文件。  相似文献   

7.
顾汇贤  王海江  魏贵义 《软件学报》2022,33(11):4396-4409
随着多媒体数据流量的急剧增长,传统云计算模式难以满足用户对于低延时和高带宽的需求.虽然边缘计算中基站等边缘设备拥有的计算能力以及基站与用户之间的短距离通信能够使用户获得更高的服务质量,但是如何利用边缘节点的收益和成本之间的关系设计边缘缓存策略,仍然是一个具有挑战性的问题.利用5G和协作边缘计算技术,在大量短视频应用场景下,提出了一种协作边缘缓存技术来同时解决以下3个问题:(1)通过减少传输延时,提高了用户的服务体验;(2)通过近距离传输,降低了骨干网络的数据传输压力;(3)分布式的工作模式减少了云服务器的工作负载.首先定义了一个协作边缘缓存模型,其中,边缘节点配备有容量有限的存储空间,移动用户可以接入这些边缘节点,一个边缘节点可以服务多个用户;其次,设计了一个非协作博弈模型来研究边缘节点之间的协作行为,每一个边缘节点看成一个玩家并且可以做出缓存初始和缓存重放策略;最后,找到了该博弈的纳什均衡,并设计了一个分布式的算法以达到均衡.实验仿真结果表明,提出的边缘缓存策略能够降低用户20%的延时,并且减少了80%的骨干网络的流量.  相似文献   

8.
交互式流媒体代理缓存   总被引:4,自引:1,他引:4  
基于代理的流媒体应用中通常假设用户总是从媒体内容的起始部分请求播放.然而,在交互式场景下用户的焦点可能是媒体内容的任意部分.针对交互式流媒体应用,提出了一种基于分段的流行度敏锐(popularitywise)缓存算法,适用于缓存任意媒体内容流行度分布下的热点部分.仿真结果表明,现有的分段缓存算法的性能随着用户交互强度的增加而显著下降,而流行度敏锐算法在不同的用户请求模式和交互强度下都可以提供较低的用户响应时延和链路占用带宽.  相似文献   

9.
宋煜  张帅  严永辉  钱柱中 《计算机工程》2021,47(3):209-217,226
在增强现实应用中,距离较近的多个用户请求很可能是相似或者相同的,从而导致同样的计算任务被重复执行。针对该问题,设计基于冗余任务消减的计算任务缓存系统。通过在边缘节点设计任务缓存,使边缘服务器以自组织方式维护全局缓存。对客户端请求时延、用户轨迹、节点部署和总时延进行建模,基于此研究基站上边缘服务器的计算资源部署问题,在给定总的部署代价下优化平均请求时延,并将该问题转化为整数非线性规划问题,设计针对中小规模场景的IDM算法和针对大规模场景的LDM算法。实验结果表明:IDM算法的平均时延与参考最优解仅相差5.85%,对最优解具有较好的逼近效果;LDM算法在牺牲9.20%平均时延的情况下,相比于IDM算法运行时间缩短98.15%,大幅减少了运行开销。  相似文献   

10.
王亚丽  陈家超  张俊娜 《计算机应用》2022,42(11):3479-3485
移动边缘计算(MEC)通过将资源部署在用户的近邻区域,可以减少移动设备的能耗,降低用户获取服务的时延;然而,大多数有关缓存方面的研究忽略了用户所请求服务的地域差异特性。通过研究区域所请求内容的特点和内容的动态性特性,提出一种收益最大化的缓存协作策略。首先,考虑用户偏好的区域性特征,将基站分为若干协作域,使每一个区域内的基站服务偏好相同的用户;然后,根据自回归移动平均(ARIMA)模型和内容的相似度预测每个区域的内容的流行度;最后,将缓存协作问题转化为收益最大化问题,根据存放内容所获得的收益,使用贪心算法解决移动边缘环境中缓存的内容的放置和替换问题。仿真实验表明,与基于MEC分组的协作缓存算法(GHCC)相比,所提算法在缓存命中率方面提高了28%,且平均传输时延低于GHCC。可见,所提算法可以有效提高缓存命中率,减少平均传输时延。  相似文献   

11.
Ever since the advent of wireless communications, there has been a tremendous growth in data traffic and service demand. Both of the above quantities are expected to explosively dominate wireless communication networks, as we move on to the future 5G wireless communication systems. This paper involves the so-called hit probability related to data caching, a technique that mainly alleviates backbone network congestion and reduces latency, by storing frequently accessed data in mobile users' cache (mobility-aware caching) and leaves the least popular data for recovery from base stations. The hit probability is defined in the literature as the probability of specific file request by a user together with the successful delivery of the data packet to the user/network node that made the request. Considering three distributions, the uniform, the well-established Zipf-like distribution and the normal distribution, we allow a varying number of cached filles and observe the curves representing the hit probabilities and perform comparison. We provide interpretation of the related to optimality results i.e. greatest achievable hit probability. In a pico-cell of a cellular network of minimum radius of 50 m and a maximum radius of 200 m, we derive the transmission power level and verify that it complies to the typical transmission power of a pico-cell. A final remark involves the Compressed Sensing sparsity concept, where considering that the possibility that a file is cached with probability p, and not cached with probability 1 − p, we examine the «sparsest» and «densest» scenario with respect to the number of cached files n opposed to the total N files in the aggregate users' cache, plotting the equivalent total probability. A final conclusion sets the issues of future work.  相似文献   

12.
针对当前的边缘缓存策略存在的传输能耗高、对较小区域中用户需求感知不足的问题,结合全网与区域在流行内容和流行特征的差异,提出基于区域用户需求感知的边缘缓存策略。首先,依据区域用户的长/短期兴趣和全网流行度信息,估算用户的请求意愿;然后,综合区域用户的需求选择待缓存内容及缓存优先级;最后,考虑基站的位置和用户需求的差异,设计区域缓存能耗优化的联合放置策略。仿真结果表明,所提策略与传统的缓存策略相比在请求命中率、字节命中率和缓存能耗上均有一定提升。  相似文献   

13.
In this paper we examine the problem of modelling data base contents and user requests. This modelling is necessary in analytic data base performance evaluation studies in order to estimate the number of records of a file that have to be retrieved in response to user(s) requests. The cpu, io, and telecommunication costs of the system are directly or indirectly expressed in terms of these quantities.We first show that certain assumptions-used for modelling data base contents, data placement on devices and user requests often are not satisfied in actual data base environments. Thereafter we provide more detailed modelling techniques based on a multivariate statistical model, and we demonstrate their use in improving data base performance.  相似文献   

14.
杨德志  许鲁  张建刚 《计算机科学》2007,34(10):143-145
BWMMS是BWFS的分布式文件系统元数据服务子系统。它充分利用系统访问负载的动态性和局部性特征,通过简单的集中决策机制管理元数据请求负载在多个元数据服务器的分布。为降低集中决策点可能的瓶颈限制,集中决策点位于元数据请求处理路径的末端。本文介绍各个元数据服务器上用来降低对后端集中决策点的压力,提高元数据访问效率的元数据分布信息缓存,并通过测试数据评估缓存命中率对后端集中决策点和元数据访问效率的影响。  相似文献   

15.
数据挖掘技术在Web预取中的应用研究   总被引:69,自引:0,他引:69  
WWW以其多媒体的传输及良好的交互性而倍受青睐,虽然近几年来网络速度得到了很大的提高,但是由于接入Internet的用户数量剧增以及Web服务和网络固有的延迟,使得网络越来越拥护,用户的服务质量得不到很好的保证。为此文中提出了一种智能Web预取技术,它能够加快用户浏览Web页面时获取页面的速度。该技术通过简化的WWW数据模型表示用户浏览器缓冲器中的数据,在此基础上利用数据挖掘技术挖掘用户的兴趣关联规则,存放在兴趣关联知识库中,作为对用户行为进行预测的依据。在用户端,智能代理负责用户兴趣的挖掘及基于兴趣关联知识库的Web预取,从而对用户实现透明的浏览器加速。  相似文献   

16.
在分析用户访问行为基础上实现代理缓存   总被引:3,自引:0,他引:3  
文中提出一个描述WWW结构的网站图Site-Graph模型,在此基础上进行用户访问行为分析,从而提出了一个考虑实际请问请求模式的代理缓存系统URAC.文中详细描述了URAC的工作原理,对代理缓存设计时所要解决的命中率,一致性和替换算法等主要问题进行了讨论,并给出了性能分析,得到URAC以提高命中率和降低访问延迟为目标是一个更加实用的代理缓存系统的结论。  相似文献   

17.
18.
李学勇  孙甲霞 《计算机工程》2011,37(11):114-116
在非结构化对等(P2P)网络中,节点“搭便车”行为以及用户查询不均匀会造成网络节点负载分布严重失衡。为此,提出一种节点负载控制算法,采用缓存和链路迁移策略,将重载节点中的剩余负载向其他轻载节点转移,同时在链路节点中缓存网络中的热门文件资源。实验结果表明,在用户查询服从Zipf分布的环境下,该算法能使网络中节点负载达到较好的均衡,降低系统整体负载。  相似文献   

19.
HTTP缓存服务器是提高HTTP Streaming系统客户并发量的关键环节。但当前主流HTTP缓存服务器,如Nginx、Squid、Varnish等,在缓存资源更新期间的行为都存在不足,当被应用在面向直播的HTTP Streaming系统中时,会周期性地把大量客户端请求转发至源服务器,从而制约了HTTP Streaming系统的可伸缩性。提出一种优化的HTTP缓存服务器在缓存更新期间的行为,即缓存服务器仅向源服务器转发一路客户端请求,缓存更新期间,拒绝其他关于该资源的请求。优化策略在使用最为广泛的Nginx服务器的基础上进行了实现。实验证明,优化后系统的伸缩性得到了显著提高。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号