首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 109 毫秒
1.
视频点播(VoD-Video on Demand)系统作为互联网重要的多媒体应用,相比于传统应用对服务端在带宽、响应速度等方面有更高要求.VoD服务器广泛使用缓存策略解决此问题,不同缓存策略具有不同的侧重与适应方面.VoD系统所需缓存策略需综合多种缓存策略以满足自身需求.本文总结VoD系统对缓存策略的需求,分析了缓存策略组成与分类,对各类缓存策略的特点进行综述并分析其对VoD系统的适用性.  相似文献   

2.
Memcached是一个免费开源、高性能的、分布式的内存对象缓存系统,用于在动态Web应用中提升访问速度,在很多高访问量的大型网站中得到广泛应用。然而却一直没有一个对Memcached进行统一集中管理部署的工具,在实际开发中往往会将Memcached模块紧密地和应用程序混在一起,给缓存的独立维护造成困难。文中从Memcached应用特征和Web应用体系结构特征两方面分析了现有Memcached系统的缺点,进而提出了一种缓存资源集中管理和多应用共享方案,并构建了一个Memcached Manager应用系统。相对于传统Web开发方式,文中提出的方案可以很大程度上规范和简化应用程序对Memcached的使用,方便缓存资源的统一分配管理。  相似文献   

3.
郭栋  王伟  曾国荪 《微机发展》2013,(12):62-65
Memcached是一个免费开源、高性能的、分布式的内存对象缓存系统,用于在动态Web应用中提升访问速度,在很多高访问量的大型网站中得到广泛应用。然而却一直没有一个对Memcached进行统一集中管理部署的工具,在实际开发中往往会将Memcached模块紧密地和应用程序混在一起,给缓存的独立维护造成困难。文中从Memcached应用特征和Web应用体系结构特征两方面分析了现有Memcached系统的缺点,进而提出了一种缓存资源集中管理和多应用共享方案,并构建了一个MemcachedManager应用系统。相对于传统Web开发方式,文中提出的方案可以很大程度上规范和简化应用程序对Memcached的使用,方便缓存资源的统一分配管理。  相似文献   

4.
性能是云应用的重要指标,云应用与现有应用在数据存储与管理方式和访问模式等方面存在较大差异,这使得传统的缓存管理算法难以适应云应用的要求。针对云应用的特性,设计了基于影响因子的缓存策略,亦即将元数据和数据缓存分开管理,使用影响因子综合管理影响缓存被再次访问的几率的多种因素,区别创建、打开、读取和修改等操作对缓存再次访问的几率的影响;设计了缓存关联管理策略,即利用元数据和数据之间的关联提高缓存管理的性能;设计了缓存主动调度策略,即通过主动淘汰较低影响因子的缓存项和动态调整元数据与数据缓存的大小来提高缓存子系统的适应能力和性能。最后实现了原型系统,并使用Filebench和Postmark进行了测试和分析,验证了面向云应用缓存子系统原型能提高1%~120%的I/O性能以及2%~87%的操作处理速度。  相似文献   

5.
张南平  陈小倩 《微机发展》2005,15(8):88-91,150
ASP.NET提供两种主要形式的缓存:输出缓存(页面级和用户控件级)和数据缓存。输出缓存的优点是非常易于实现。在大多数情况下,使用这种缓存就足够了。而数据缓存则提供了额外的灵活性(实际上是相当大的灵活性),可在应用程序的每一层利用缓存。文中全面介绍了这两种缓存技术在系统各层中的应用。同时对于引擎无法控制的、潜在的性能优化点,例如代码逻辑不优化等,也介绍了相应的优化技巧。  相似文献   

6.
ASP.NET提供两种主要形式的缓存:输出缓存(页面级和用户控件级)和数据缓存.输出缓存的优点是非常易于实现.在大多数情况下,使用这种缓存就足够了.而数据缓存则提供了额外的灵活性(实际上是相当大的灵活性),可在应用程序的每一层利用缓存.文中全面介绍了这两种缓存技术在系统各层中的应用.同时对于引擎无法控制的、潜在的性能优化点,例如代码逻辑不优化等,也介绍了相应的优化技巧.  相似文献   

7.
介绍了Web站点动态内容缓存的几种方法,包括smarty缓存、内存缓存、服务器缓存.使用并发压力测试对这几种方法做了使用缓存前后的性能提升的纵向比较,以及各项方法对性能提升程度的横向比较,性能的主要指标为请求时长和吞吐率.  相似文献   

8.
提出了一种新的机群文件系统缓存模型,它充分利用机群系统累积的系统资源和高速的互联网络,将文件系统元数据和内容数据分离,分别使用分布式元数据缓存和统一缓存模型进行管理。元数据缓存使用改进的广播一致性协议和LRU替换算法。内容数据统一缓存则将磁盘缓存整个文件和内存缓存文件块相结合组成一个单一映像的多层次分布协作缓存,并使用单拷贝优先LRU和向前传递调度缓存块替换算法以及一种贪心的数据预取方法。实验结果表明,这两种缓存机制结合使用能极大地提高机群文件系统的性能。  相似文献   

9.
在Internet上高效传输流媒体数据是推广诸如视频点播等应用的基础.现有方案仅考虑了采用单代理结构的前缀缓存和服务器调度来降低骨干网带宽消耗和服务器负载.在带前缀缓存的Batch patching基础上提出了后缀的动态缓存算法ICBR,并提出了基于ICBR缓存算法的多缓存协作体系结构及协作算法MCC,仿真结果表明,基于ICBR的多缓存协作显著地降低了获取补丁而导致的骨干网带宽的消耗,提高了客户端QoS同时也降低了服务器负载.  相似文献   

10.
随着移动终端深入人们的生活,移动社交APP得到了广泛使用。在移动社交APP中往往会使用大量的图片资源,如微信朋友圈、Instagram的图片分享等。在APP中浏览图片会消耗较多的网络流量,影响加载速度,因此大部分APP采用首先显示缩略图,根据用户需求再加载原图的策略。在服务器端也采用缓存技术来加快缩略图产生时间,减少磁盘I/O。但是,当前的缓存机制更多关注的是缓存的访问频率、最近访问时间等因素,并没有过多关注数据生成用户之间的社交关系,也没有考虑移动用户对缩略图和原图的不同访问模式。把缓存划分为两个部分:缩略图缓存区和原图缓存区,提出了基于社交关系的图片缓存替换算法,在传统缓存替换算法的基础上增加用户的社交关系以及缩略图和原图的关联关系,通过计算图片的缓存价值进行缓存替换。实验表明,所提出的基于社交关系的图片缓存替换算法对于缩略图和原图的缓存命中率都有明显提高。  相似文献   

11.
为了提高网络缓存的命中率,分析了背包问题与缓存替换问题之间的异同,证实了缓存替换问题是一种典型的0/1背包问题,并由此借鉴求解0/1背包的蚁群算法模型的思路,提出了一种实施在应用层的基于蚁群算法的缓存替换算法ACA-CRA.该算法综合考虑了缓存数据的大小,被命中次数和在缓存中存留的时间来判定该缓存的缓存价值,并利用蚁群算法中正反馈机制使得缓存中保持的都是缓存价值较大的缓存数据,从而提高缓存命中率.并通过仿真实验证明了该算法的可行性和有效性.  相似文献   

12.
由于Cache拓染问题,传统的仅由硬件控制的Cache替换箫略不能得到令人满意的Cache利用率。为解决该问题,EPIC引入了Cache提示以辅助控制Cache替换。文章提出了一个由编译器辅助挖制的Cache替换策略:最优Cache划分(OCP)。OCP Cache替换策略简化了Cache行为和Cache失效分析方法。实验结果表明,OCP Cache替换箫略能有效地降低Cache失效率。  相似文献   

13.
建立准确的缓存分析模型有助于更好地预测缓存行为,对于网络性能分析与规划具有重要作用。现有面向缓存强一致性研究的分析模型普遍基于最近最少使用(LRU)缓存替换策略,然而在实际环境中需要根据不同的应用场景和缓存节点能力采取LRU、q-LRU、先进先出等不同的缓存替换策略。为扩展缓存强一致性分析模型的适用范围,基于缓存建模的基本假设构建缓存强一致性通用分析模型,并给出被动查询、主动移除、主动更新3种缓存强一致性策略下缓存命中率和服务器负载的计算方法。利用模型计算结果绘制缓存参数变化曲线图找出使缓存性能达到最优的值,通过分析模型计算结果选出给定缓存参数时对应的最优缓存替换策略。实验结果表明,该模型在3种缓存强一致性策略下均具有较高的计算精确度,其中计算结果与仿真结果的最大误差和最小误差分别为6.92%和0.06%,适用于通过特征时间近似的缓存替换策略。  相似文献   

14.
Caches are essential to bridge the gap between the high latency main memory and the fast processor pipeline. Standard processor architectures implement two first-level caches to avoid a structural hazard in the pipeline: an instruction cache and a data cache. For tight worst-case execution times it is important to classify memory accesses as either cache hit or cache miss. The addresses of instruction fetches are known statically and static cache hit/miss classification is possible for the instruction cache. The access to data that is cached in the data cache is harder to predict statically. Several different data areas, such as stack, global data, and heap allocated data, share the same cache. Some addresses are known statically, other addresses are only known at runtime. With a standard cache organization all those different data areas must be considered by worst-case execution time analysis. In this paper we propose to split the data cache for the different data areas. Data cache analysis can be performed individually for the different areas. Access to an unknown address in the heap does not destroy the abstract cache state for other data areas. Furthermore, we propose to use a small, highly associative cache for the heap area. We designed and implemented a static analysis for this cache, and integrated it into a worst-case execution time analysis tool.  相似文献   

15.
基于语义缓存的移动查询导出   总被引:19,自引:2,他引:19  
吴婷婷  周兴铭 《计算机学报》2002,25(10):1104-1110
在移动环境下,客户缓存为提高客户-服务器数据库系统的整体性能,特别是保证客户端数据可用性提供了有效途径,该文针对如何从基于语义描述的缓存中导出当前查询(部分)结果的问题,研究了查询从缓存导出的充分条件,并在定义查询与缓存之间的精确匹配,包含匹配和相互匹配几种情况的基础上,给出缓存与查询,包含与相交匹配的判断条件和相应的算法,基于该文的研究,查询可以充分利用本地语义缓存的内容,从而降低网络开销,加快响应时间,并支持移动客户断接时的数据访问。  相似文献   

16.
分组密码Cache攻击技术研究   总被引:2,自引:0,他引:2  
近年来,Cache攻击已成为微处理器上分组密码实现的最大安全威胁,相关研究是密码旁路攻击的热点问题.对分组密码Cache攻击进行了综述.阐述了Cache工作原理及Cache命中与失效旁路信息差异,分析了分组密码查表Cache访问特征及泄露信息,从攻击模型、分析方法、研究进展3个方面评述了典型的分组密码Cache攻击技术,并对Cache攻击的发展特点进行了总结,最后指出了该领域研究存在的问题,展望了未来的研究方向.  相似文献   

17.
On-chip caches to reduce average memory access latency are commonplace in today's commercial microprocessors. These on-chip caches generally have low associativity and small cache sizes. Cache line conflicts are the main source of cache misses, which are critical for overall system performance. This paper introduces an innovative design for on-chip data caches of microprocessors, called one's complement cache. While binary complement numbers have been successfully used in designing arithmetic units, to the best of our knowledge, no one has ever considered using such complement numbers in cache memory designs. This paper will show that such complement numbers help greatly in reducing cache misses in a data cache, thereby improving data cache performance. By parallel computation of cache addresses and memory addresses, the new design does not increase the critical hit time of cache accesses. Cache misses caused by line interference are reduced by evenly distributing data items referenced by program loops across all sets in a cache. Even distribution of data in the cache is achieved by making the number of sets in the cache a prime or an odd number, so that the chance of related data being mapped to a same set is small. Trace-driven simulations are used to evaluate the performance of the new design. Performance results on benchmarks show that the new design improves cache performance significantly with negligible additional hardware cost.  相似文献   

18.
This article presents an algorithm to reduce cache conflicts and improve cache localities. The proposed algorithm analyzes locality reference space for each reference pattern, partitions the multi-level cache into several parts with different sizes, and then maps array data onto the scheduled cache positions to eliminate cache conflicts. A greedy method for rearranging array variables in declared statement is also developed, to reduce the memory overhead for mapping arrays onto a partitioned cache. Besides, loop tiling and the proposed schemes are combined to exploit opportunities for both temporal and spatial reuse. Atom is used as a tool to develop a simulation of the behavior of the direct-mapping cache to demonstrate that our approach is effective at reducing number of cache conflicts and exploiting cache localities. Experimental results reveal that applying the cache partitioning scheme can greatly reduce the cache conflicts and thus save program execution time in both single-level cache and multi-level cache hierarchies.  相似文献   

19.
移动查询缓存处理的研究   总被引:5,自引:0,他引:5  
客户缓存为提高客户/服务器数据库系统整体性能以及客户方数据可用性提供了有效途径。移动环境下网络资源的贫乏使客户缓存的作用更为重要,语义缓存是基于客户查询语义相关建立的一类缓存,提出一个基于语义缓存的客户缓存机制,给出缓存的内容组织,提出缓存项合并策略;然后讨论了基于语义缓存的查询处理策略;最后,模拟结果表明该客户缓存机制能够提高分布式、特别是移动环境下客户服务器数据库系统的性能。  相似文献   

20.
针对信息中心网络缓存管理效率较低的问题,提出一种旨在提高缓存管理效率的方法,且充分利用了无线网状网络(WMN)环境中软件定义网络(SDN)的概念。主要工作体现在SDN内容管理上,缓存位置决策考虑了网络拓扑位置、内容尺寸和缓存节点资源的位置。缓存操作考虑了请求客户端和缓存节点位置,且操作分为通过分支点的off-path缓存和通过缓存节点内容流的on-path缓存。控制器通过缓存内容表来确定工作的分配。实验在两种环境下进行:含有局部聚合客户端的小型网络和局部分布式客户端的大型网络。结果显示,所提方案仅利用每秒5.13kb的控制流量负荷即可将随机缓存位置方案的平均响应延迟减少23.95%。相比于其他网络缓存方案,所提方案最大化了WMN的节点缓存效率,明显提升了内容缓存分配性能,且系统没有较大的额外开销。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号