共查询到19条相似文献,搜索用时 93 毫秒
1.
在VOD集群代理缓存系统中,由于存在多个服务器节点,缓存在其上的合理分布能够极大地提高整个系统的缓存利用率,进而提高系统的整体性能,这就是缓存配置问题.现有缓存技术中动态缓存配置(DCR)算法中,部分影片缓存不充分,浪费了一部分缓存空间.针对该问题,提出了一种改进算法.算法以提高系统的缓存利用率并进而提高缓存命中率为目标,在放置过程中,对需要缓存的影片数据都进行充分放置.仿真实验表明,改进后的算法有较高的缓存命中率,因而,改进算法使缓存系统有更好的整体性能. 相似文献
2.
3.
针对集群缓存系统的特点,对其内部各代理缓存进行了详细的研究.在缓存副本的存储方面,采用了面向网站的存储方案,更好的实现个性化服务的功能;在缓存副本的管理方面,采用了将替换和一致性结合在一起的RCA算法,使得整个系统有较高的命中陈旧率;在代理协作方面,通过重定向的方法将请求从未命中的代理转发给缓存了请求的代理,避免了代理之间复制对象,有效地减少了缓存对象的冗余度.通过理论分析推导,证明了它能大大减少访问延迟、有效地减轻了Web服务器的负担.实验证明,本协作方案有较高的命中率. 相似文献
4.
5.
集群协作缓存机制研究 总被引:1,自引:0,他引:1
计算机集群中的节点使用内存一般不均衡,往往有些节点使用太多内存,而其他节点又有较多的空闲内存.为了改进集群操作系统,将集群节点的内存作全局分布的资源使用,我们首先提出一个内存互操作高速缓存方案:通过使用集群范围内的内存作文件高速缓存,从其他节点的高速缓存中读文件,可以避免很多低速的磁盘访问,改进集群文件系统的总体吞吐量.然后利用我们提出的缓存页面代替策略GCAR来支持这种内存互操作的高速缓存方案.该算法与CAR相比,对缓存中被"经常"使用的页面的管理粒度更细,更适合集群协作缓存的计算环境.实验结果表明,GCAR对本地缓存的命中率比CAR略好,在集群协作缓存下能取得更好的缓存命中率. 相似文献
6.
现有的Web缓存器的实现主要是基于传统的内存缓存算法,由于Web业务请求的异质性,传统的替换算法不能在Web环境中有效工作。研究了Web缓存替换操作的依据,分析了以往替换算法的不足,考虑到Web文档的大小、访问代价、访问频率、访问兴趣度以及最近一次被访问的时间对缓存替换的影响,提出了Web缓存对象角色的概念,建立了一种新的基于对象角色的高精度Web缓存替换算法(ORB算法);并以NASA和DEC的代理服务器数据为例,将该算法与LRU、LFU、SIZE、Hybrid算法进行了仿真实验对比,结果证明,ORB算 相似文献
7.
8.
9.
10.
建立准确的缓存分析模型有助于更好地预测缓存行为,对于网络性能分析与规划具有重要作用。现有面向缓存强一致性研究的分析模型普遍基于最近最少使用(LRU)缓存替换策略,然而在实际环境中需要根据不同的应用场景和缓存节点能力采取LRU、q-LRU、先进先出等不同的缓存替换策略。为扩展缓存强一致性分析模型的适用范围,基于缓存建模的基本假设构建缓存强一致性通用分析模型,并给出被动查询、主动移除、主动更新3种缓存强一致性策略下缓存命中率和服务器负载的计算方法。利用模型计算结果绘制缓存参数变化曲线图找出使缓存性能达到最优的值,通过分析模型计算结果选出给定缓存参数时对应的最优缓存替换策略。实验结果表明,该模型在3种缓存强一致性策略下均具有较高的计算精确度,其中计算结果与仿真结果的最大误差和最小误差分别为6.92%和0.06%,适用于通过特征时间近似的缓存替换策略。 相似文献
11.
基于集群的流媒体缓存代理服务器体系结构 总被引:1,自引:0,他引:1
提出了基于集群的流媒体缓存代理服务器体系结构,并将基于内容的前端机负载平衡调度策略引入到流媒体缓存代理服务器的架构设计中,对系统设计原理及各组成模块结构和各模块间的消息通信机制进行了详细的分析阐述,主要采用C和C++语言在Linux操作系统下实现了原型系统,通过对原型系统进行测试,表明整个系统设计合理,性能突出,具有良好的稳定性和可扩展性。 相似文献
12.
边缘缓存技术能够将热点内容提前放置在距离用户较近的网络边缘,可以显著降低传输时延、提高网络效率。然而,不同的运营商各自部署边缘设备,投入巨大且缓存内容相互隔离,无法共享。针对此问题,改进了一种基于联盟链的边缘缓存系统架构,运营商部署的边缘设备间能够打破内容隔离,实现更大范围的内容共享。此外,设计了基于智能合约的内容交易流程,使得不同运营商之间的合作变得可信、公平和可追踪。最后,考虑到热门内容的流行程度、文件大小以及传输时延等,对热点内容进行定价,并以收益最大化为目标,通过贪婪算法确定缓存内容放置的位置。仿真实验表明,基于该架构下的收益最大化缓存策略能够有效增加边缘缓存的收益。 相似文献
13.
14.
缓存技术在移动数据库中的应用研究 总被引:6,自引:1,他引:6
缓存技术是提高教据访问性能的经典技术,已经在计算技术的很多方面得到了成功的应用.在移动计算环境中,由于设备和网络资源的限制,缓存将发挥更加重要的作用.研究了移动数据库中的客户端缓存管理技术,重点讨论了缓存管理的缓存粒度、缓存一致性策略和缓存替换策略3个关键问题. 相似文献
15.
在移动园区网环境中部署了P2P系统并提出了一种协同缓存策略。接入控制策略利用"阈值"和节点的位置关系选择缓存的数据。缓存替换策略利用价值函数"Cost"选择要替换掉的数据,该函数考虑了数据的被访问频率、大小及区域之间的距离这三个因素。数据一致性策略结合了Plain-Push和Pull-Every-time方案的优点并做了改进。通过两组模拟实验验证了这种协同缓存策略在降低时延、减少网络通信开销、提高缓存命中率方面具有较好的性能。 相似文献
16.
目前大部分P2P文件共享系统由于在设计时没有考虑实际网络的拓扑结构,导致巨大的P2P流量挤占了宝贵的骨干网资源,使P2P计算遭到网络运营商的排斥。为解决上述问题,本文从运营商的角度出发,在深入分析我国互联网络的基础上,给出了一种自适应多层节点聚簇构建P2P文件共享系统的方法,该方法可将绝大部分的P2P流量限制在本地网络内,阻止P2P流量向上层网络扩散。仿真结果表明,本文方法可将80以上的P2P流量限制在运营商省级网络范围内。 相似文献
17.
18.
Meeting performance and scalability requirements while delivering services is a critical issue in web applications. Recently, latency and cost of Internet‐based services are encouraging the use of application‐level caching to continue satisfying users' demands and improve the scalability and availability of origin servers. Application‐level caching, in which developers manually control cached content, has been adopted when traditional forms of caching are insufficient to meet such requirements. Despite its popularity, this level of caching is typically addressed in an ad hoc way, given that it depends on specific details of the application. Furthermore, it forces application developers to reason about a crosscutting concern, which is unrelated to the application business logic. As a result, application‐level caching is a time‐consuming and error‐prone task, becoming a common source of bugs. Among all the issues involved with application‐level caching, the decision of what should be cached must frequently be adjusted to cope with the application evolution and usage, making it a challenging task. In this paper, we introduce an automated caching approach to automatically identify application‐level cache content at runtime by monitoring system execution and adaptively managing caching decisions. Our approach is implemented as a framework that can be seamlessly integrated into new and existing web applications. In addition to the reduction of the effort required from developers to develop a caching solution, an empirical evaluation showed that our approach significantly speeds up and improves hit ratios with improvements ranging from 2.78% to 17.18%. 相似文献
19.
针对车联网中数据流量爆炸式增长而引起的业务响应时延过高的问题,提出了一种基于移动边缘计算的蚁群模拟退火算法缓存策略(ACSAM)。首先,在基于5G的车—边—云协同系统架构下,以最小化内容下载时延为目标,建立了通信计算模型;其次,采用蚁群算法构造了使内容下载时延最小的局部最优解;最后,使用模拟退火算法对局部最小下载时延进行扰动,并以一定概率接受新解,从而得到全局最小下载时延,即保证了内容被预缓存在最佳的位置。仿真结果表明,在车—边—云协同架构下,ACSAM缓存策略可显著减少传输冗余,降低下载时延。 相似文献