首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 93 毫秒
1.
在VOD集群代理缓存系统中,由于存在多个服务器节点,缓存在其上的合理分布能够极大地提高整个系统的缓存利用率,进而提高系统的整体性能,这就是缓存配置问题.现有缓存技术中动态缓存配置(DCR)算法中,部分影片缓存不充分,浪费了一部分缓存空间.针对该问题,提出了一种改进算法.算法以提高系统的缓存利用率并进而提高缓存命中率为目标,在放置过程中,对需要缓存的影片数据都进行充分放置.仿真实验表明,改进后的算法有较高的缓存命中率,因而,改进算法使缓存系统有更好的整体性能.  相似文献   

2.
石磊  孟彩霞  韩英杰 《计算机应用》2007,27(8):1842-1845
为提高Web缓存性能,在缓存替换算法的基础上加入预测机制,提出了基于预测的Web替换策略P-Re。预测算法采用PPM上下文模型,当缓存空间不够用来存放新的对象时,P-Re选择键值较小且未被预测到的对象进行替换。实验表明,基于预测的Web缓存替换算法P-Re相对于传统替换算法而言具有较高的命中率和字节命中率。  相似文献   

3.
针对集群缓存系统的特点,对其内部各代理缓存进行了详细的研究.在缓存副本的存储方面,采用了面向网站的存储方案,更好的实现个性化服务的功能;在缓存副本的管理方面,采用了将替换和一致性结合在一起的RCA算法,使得整个系统有较高的命中陈旧率;在代理协作方面,通过重定向的方法将请求从未命中的代理转发给缓存了请求的代理,避免了代理之间复制对象,有效地减少了缓存对象的冗余度.通过理论分析推导,证明了它能大大减少访问延迟、有效地减轻了Web服务器的负担.实验证明,本协作方案有较高的命中率.  相似文献   

4.
王蒙蒙  鲍可进 《计算机工程》2009,35(12):242-244
针对现有分段算法的缺点,提出一种基于用户随机行为的分段缓存策略,充分考虑不同流媒体对象及同一流媒体对象的不同段落在流行性方面的差异,以段落的流行度作为空间调度的依据,结合前缀缓存的思想,保证缓存效率,且改善字节命中率和延时启动率。实验表明,较之焦点缓存和适应性分段缓存,该策略的字节命中率分别提高了8%和18%左右。  相似文献   

5.
集群协作缓存机制研究   总被引:1,自引:0,他引:1  
计算机集群中的节点使用内存一般不均衡,往往有些节点使用太多内存,而其他节点又有较多的空闲内存.为了改进集群操作系统,将集群节点的内存作全局分布的资源使用,我们首先提出一个内存互操作高速缓存方案:通过使用集群范围内的内存作文件高速缓存,从其他节点的高速缓存中读文件,可以避免很多低速的磁盘访问,改进集群文件系统的总体吞吐量.然后利用我们提出的缓存页面代替策略GCAR来支持这种内存互操作的高速缓存方案.该算法与CAR相比,对缓存中被"经常"使用的页面的管理粒度更细,更适合集群协作缓存的计算环境.实验结果表明,GCAR对本地缓存的命中率比CAR略好,在集群协作缓存下能取得更好的缓存命中率.  相似文献   

6.
现有的Web缓存器的实现主要是基于传统的内存缓存算法,由于Web业务请求的异质性,传统的替换算法不能在Web环境中有效工作。研究了Web缓存替换操作的依据,分析了以往替换算法的不足,考虑到Web文档的大小、访问代价、访问频率、访问兴趣度以及最近一次被访问的时间对缓存替换的影响,提出了Web缓存对象角色的概念,建立了一种新的基于对象角色的高精度Web缓存替换算法(ORB算法);并以NASA和DEC的代理服务器数据为例,将该算法与LRU、LFU、SIZE、Hybrid算法进行了仿真实验对比,结果证明,ORB算  相似文献   

7.
提出了一种利用JBossCache分布式缓存构建基于Java框架的集群环境下共享内存数据的思想,从提高应用程序的性能出发,给出了利用JBossCache开发电信级应用的解决方案。以移动公司利用JBossCache构建分布式缓存为实例,阐述了在集群环境下,缓存数据被自动复制,不用考虑集群的服务器之间的内存数据同步问题,各应用间快速共享内存数据的优势。JBossCache是基于Java的框架,使系统具有良好的可扩展性、高可用性和可移植性。  相似文献   

8.
冯欣  王康  邓一贵 《计算机科学》2006,33(2):139-141
内容分发网络是互联网中解决响应速度、提高服务质量的一种应用技术,而流媒体内容分发网络是将内容分发网络应用于流媒体传输领域。流媒体内容分发网络中的边缘服务器缓存策略是流媒体内容分发网络的核心。本文深入研究了现有各种缓存策略;在流媒体内容分发网络中,提出了一种部分缓存算法。实践证明,这种部分缓存策略能明显提高流媒体内容分发网络的并发性能、命中率和服务质量等性能。  相似文献   

9.
一种有效的Web代理缓存替换算法   总被引:2,自引:0,他引:2       下载免费PDF全文
设计良好的Web缓存替换策略能使网络上的资源得到最有效的利用。文章设计了一个较有效率的Web缓存替换策略LFRU,期望以较佳的方式获得网络资源及改善Web缓存的性能和服务质量。实验结果表明该策略有较高的文档命中率和字节命中率。  相似文献   

10.
建立准确的缓存分析模型有助于更好地预测缓存行为,对于网络性能分析与规划具有重要作用。现有面向缓存强一致性研究的分析模型普遍基于最近最少使用(LRU)缓存替换策略,然而在实际环境中需要根据不同的应用场景和缓存节点能力采取LRU、q-LRU、先进先出等不同的缓存替换策略。为扩展缓存强一致性分析模型的适用范围,基于缓存建模的基本假设构建缓存强一致性通用分析模型,并给出被动查询、主动移除、主动更新3种缓存强一致性策略下缓存命中率和服务器负载的计算方法。利用模型计算结果绘制缓存参数变化曲线图找出使缓存性能达到最优的值,通过分析模型计算结果选出给定缓存参数时对应的最优缓存替换策略。实验结果表明,该模型在3种缓存强一致性策略下均具有较高的计算精确度,其中计算结果与仿真结果的最大误差和最小误差分别为6.92%和0.06%,适用于通过特征时间近似的缓存替换策略。  相似文献   

11.
基于集群的流媒体缓存代理服务器体系结构   总被引:1,自引:0,他引:1  
提出了基于集群的流媒体缓存代理服务器体系结构,并将基于内容的前端机负载平衡调度策略引入到流媒体缓存代理服务器的架构设计中,对系统设计原理及各组成模块结构和各模块间的消息通信机制进行了详细的分析阐述,主要采用C和C++语言在Linux操作系统下实现了原型系统,通过对原型系统进行测试,表明整个系统设计合理,性能突出,具有良好的稳定性和可扩展性。  相似文献   

12.
边缘缓存技术能够将热点内容提前放置在距离用户较近的网络边缘,可以显著降低传输时延、提高网络效率。然而,不同的运营商各自部署边缘设备,投入巨大且缓存内容相互隔离,无法共享。针对此问题,改进了一种基于联盟链的边缘缓存系统架构,运营商部署的边缘设备间能够打破内容隔离,实现更大范围的内容共享。此外,设计了基于智能合约的内容交易流程,使得不同运营商之间的合作变得可信、公平和可追踪。最后,考虑到热门内容的流行程度、文件大小以及传输时延等,对热点内容进行定价,并以收益最大化为目标,通过贪婪算法确定缓存内容放置的位置。仿真实验表明,基于该架构下的收益最大化缓存策略能够有效增加边缘缓存的收益。  相似文献   

13.
缓存替换策略是内容分发网络(Content Delivery Network, CDN)研究中的重要内容。常用的缓存方案是根据内容本身的特征进行缓存,比如视频的流行度、评分质量等。文章在缓存策略的设计中考虑到了用户特征,即根据用户的喜好,选择需要缓存的内容。使用基于矩阵分解的推荐算法对用户需求进行分析,筛选出用户可能感兴趣的视频,并利用基于加权评分预测值的贪婪缓存算法选择合适的内容进行缓存。仿真实验的结果表明,该算法可以将缓存命中率提高5-10%。  相似文献   

14.
缓存技术在移动数据库中的应用研究   总被引:6,自引:1,他引:6  
缓存技术是提高教据访问性能的经典技术,已经在计算技术的很多方面得到了成功的应用.在移动计算环境中,由于设备和网络资源的限制,缓存将发挥更加重要的作用.研究了移动数据库中的客户端缓存管理技术,重点讨论了缓存管理的缓存粒度、缓存一致性策略和缓存替换策略3个关键问题.  相似文献   

15.
在移动园区网环境中部署了P2P系统并提出了一种协同缓存策略。接入控制策略利用"阈值"和节点的位置关系选择缓存的数据。缓存替换策略利用价值函数"Cost"选择要替换掉的数据,该函数考虑了数据的被访问频率、大小及区域之间的距离这三个因素。数据一致性策略结合了Plain-Push和Pull-Every-time方案的优点并做了改进。通过两组模拟实验验证了这种协同缓存策略在降低时延、减少网络通信开销、提高缓存命中率方面具有较好的性能。  相似文献   

16.
目前大部分P2P文件共享系统由于在设计时没有考虑实际网络的拓扑结构,导致巨大的P2P流量挤占了宝贵的骨干网资源,使P2P计算遭到网络运营商的排斥。为解决上述问题,本文从运营商的角度出发,在深入分析我国互联网络的基础上,给出了一种自适应多层节点聚簇构建P2P文件共享系统的方法,该方法可将绝大部分的P2P流量限制在本地网络内,阻止P2P流量向上层网络扩散。仿真结果表明,本文方法可将80以上的P2P流量限制在运营商省级网络范围内。  相似文献   

17.
基于大规模事务处理系统的中间层语义缓存技术的研究   总被引:3,自引:0,他引:3  
向阳  杨树强  蔡建宇  贾焰 《计算机应用》2005,25(8):1843-1845
对当前的中间层语义缓存的研究进行了分析,以一个大规模事务处理系统为背景,提出了一个针对海量数据统计分析的中间层语义缓存解决方案,给出了其相关定义、体系结构及管理机制,并在大规模事务处理系统上对语义缓存进行了测试。  相似文献   

18.
Jhonny Mertz  Ingrid Nunes 《Software》2018,48(6):1218-1237
Meeting performance and scalability requirements while delivering services is a critical issue in web applications. Recently, latency and cost of Internet‐based services are encouraging the use of application‐level caching to continue satisfying users' demands and improve the scalability and availability of origin servers. Application‐level caching, in which developers manually control cached content, has been adopted when traditional forms of caching are insufficient to meet such requirements. Despite its popularity, this level of caching is typically addressed in an ad hoc way, given that it depends on specific details of the application. Furthermore, it forces application developers to reason about a crosscutting concern, which is unrelated to the application business logic. As a result, application‐level caching is a time‐consuming and error‐prone task, becoming a common source of bugs. Among all the issues involved with application‐level caching, the decision of what should be cached must frequently be adjusted to cope with the application evolution and usage, making it a challenging task. In this paper, we introduce an automated caching approach to automatically identify application‐level cache content at runtime by monitoring system execution and adaptively managing caching decisions. Our approach is implemented as a framework that can be seamlessly integrated into new and existing web applications. In addition to the reduction of the effort required from developers to develop a caching solution, an empirical evaluation showed that our approach significantly speeds up and improves hit ratios with improvements ranging from 2.78% to 17.18%.  相似文献   

19.
针对车联网中数据流量爆炸式增长而引起的业务响应时延过高的问题,提出了一种基于移动边缘计算的蚁群模拟退火算法缓存策略(ACSAM)。首先,在基于5G的车—边—云协同系统架构下,以最小化内容下载时延为目标,建立了通信计算模型;其次,采用蚁群算法构造了使内容下载时延最小的局部最优解;最后,使用模拟退火算法对局部最小下载时延进行扰动,并以一定概率接受新解,从而得到全局最小下载时延,即保证了内容被预缓存在最佳的位置。仿真结果表明,在车—边—云协同架构下,ACSAM缓存策略可显著减少传输冗余,降低下载时延。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号