首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 125 毫秒
1.
基于LRU算法的Web系统缓存机制   总被引:8,自引:0,他引:8       下载免费PDF全文
Web系统嵌入缓存机制将被访问的对象保存在内存缓冲区中,在频繁创建和销毁对象时,降低了系统开销、提高了系统的整体快速响应能力、避免了频繁的数据交互。该文分析了Cache技术的设计原理和实现策略、LRU算法的设计模式,构造了缓存机制的基本框架。  相似文献   

2.
秦勇  魏再跃 《计算机工程与应用》2004,40(20):140-142,210
现有Web代理Cache调度机制主要是基于传统的数据处理算法,为加快网络对用户请求的响应速度,文章提出了一种新的基于用户代理Cache内容和其内容的语义信息作为基础的层次数据模型,基于这种模型设计并实现了基于内容识别的Web代理Cache调度算法-CAOA算法,并通过实验对算法性能进行了验证。  相似文献   

3.
随着网络上光盘资源的增长,光盘服务器成为光盘网络共享的重要技术,针对传统光盘服务器的缺点,实现了一个新的高性能光盘服务器CDS(CDServer),CDS系统采用两级Cache(客户端Cache加服务器Cache)的技术来提高系统的性能.客户端Cache根据光盘顺序访问特点,采用慢速增长快速下降的预取算法设计,即提高了系统的性能,也保证预取不命中时的响应时间,服务器Cache采用Hash算法同平衡二叉树相结合的两级组织结构,实现了Cache的快速查找.在详细介绍了CDS系统的两级Cache算法的同时,进行了相应的试验测试和性能分析.  相似文献   

4.
讨论了运用模块化技术扩展GPRS/HLR系统用户容量和处理能力的必要性和由此对MAP对话管理带来的问题,并通过对消息分拣机制的引入与分析,提出了实现HLR模块化扩展的一种有效方法,从而完成前端七号信令处理机与后端HLR数据库之间的消息分拣处理功能,保证业务的正确演进,实现模块化。  相似文献   

5.
方娟  王帅  于璐 《计算机科学》2014,41(7):36-39,73
如何提高多核处理器的性能和降低多核处理器中Cache的功耗已经成为下一代多核处理器的研究热点。为了降低片上多核处理器的功耗,基于路适应算法可以采用一种新的动态划分机制,该机制主要由路分配模块和动态功耗控制模块组成。路分配模块在程序运行过程中根据处理器核所运行线程的工作集的大小调整处理器核所分配的Cache路。动态功耗控制模块利用程序运行的局部性原理,将处理器核所运行线程的工作空间控制在少数Cache路中。关闭剩余的Cache路,从而达到降低Cache功耗的目的。该机制使用Simics全系统模拟平台模拟多核处理器,并用SpecOMP测试集测试了系统的性能和功耗。与传统的Cache(Conventional L2Cache,C-L2)相比,其IPC提高了9.27%,功耗降低了10.95%。  相似文献   

6.
针对复杂立方体查询中可能存在的3种聚集依赖(完全依赖、部分依赖和互斥依赖),分别提出了3种基于Cache重用技术的解决方法:完全Cache重用、部分Cache重用以及反Cache重用机制,并相应地给出了计算方法和算法.在模拟和真实数据集上的实验结果表明,不同数据集下改进算法均比基本算法的效率有明显提高,特别地,数据量越大,Cache重用技术的优越性越明显.  相似文献   

7.
基于DM642的视频编码Cache优化策略   总被引:3,自引:3,他引:3  
TMS320DM642DSP是TI公司新近推出的一款高性能数字多媒体处理器,它的两级高速缓存(Cache)结构为高复杂度视频编码算法的高效率实现提供了有力的保证。综合考虑视频编码算法特点和Cache结构特征实现的算法,能够满足系统整体需求和指标要求。本文首先简要介绍DM642的Cache结构特点,然后针对视频编码算法的高复杂度,提出一种Cache优化策略,能够很好的解决应用系统中的实时实现问题。  相似文献   

8.
基于DM642的视频编码Cache优化策略   总被引:3,自引:0,他引:3  
TMS320DM642 DSP是TI公司新近推出的一款高性能数字多媒体处理器,它的两级高速缓存(Cache)结构为高复杂度视频编码算法的高效率实现提供了有力的保证.综合考虑视频编码算法特点和Cache结构特征实现的算法,能够满足系统整体需求和指标要求.本文首先简要介绍DM642的Cache结构特点,然后针对视频编码算法的高复杂度,提出一种Cache优化策略,能够很好的解决应用系统中的实时实现问题.  相似文献   

9.
方娟  郭媚  杜文娟  雷鼎 《计算机应用》2013,33(9):2404-2409
针对多核处理器下的共享二级缓存(L2 Cache)提出了一种面向低功耗的Cache设计方案(LPD)。在LPD方案中,分别通过低功耗的共享Cache混合划分算法(LPHP)、可重构Cache算法(CRA)和基于Cache划分的路预测算法(WPP-L2)来达到降低Cache功耗的目的,同时保证系统的性能良好。在LPHP和CRA中,程序运行时动态地关闭Cache中空闲的Cache列,节省了对空闲列的访问功耗。在WPP-L2中,利用路预测技术在Cache访问前给出预测路信息,预测命中时则可用最短的访问延时和最少的访问功耗完成Cache访问;预测失效时,则结合Cache划分策略,降低由路预测失效导致的额外功耗开销。通过SPEC2000测试程序验证,与传统使用最近最少使用(LRU)替换策略的共享L2 Cache相比,本方案提出的三种算法虽然对程序执行时间稍有影响,但分别节省了20.5%、17%和64.6%的平均L2 Cache访问功耗,甚至还提高了系统吞吐率。实验表明,所提方法在保持系统性能的同时可以显著降低多核处理器的功耗。  相似文献   

10.
Linux系统在被不同大小的数据块访问时,系统读写性能有差异。在少数特定访问数据块大小的应用中,Linux系统读写性能较差。文件Cache算法的性能是导致该问题的原因之一。在分析访问数据块大小对文件Cache算法性能的影响的基础上,提出了一种文件Cache自适应策略。该策略考虑了预取算法对于页面置换算法的影响,增强了页面置换算法对访问数据块大小变化的适应性,达到了提高Linux系统读写性能的目标。Linux系统读写性能测试实验表明,该策略可以使Linux系统在被不同大小的数据块访问时保持稳定且更优的读写性能。  相似文献   

11.
张云  杨志义 《计算机仿真》2007,24(9):329-331
信号数据的实时采集和处理是实现以信号测控为特点的实时仿真系统关键技术之一.文中针对某智能花样机仿真测试系统的实时要求,综合采用Windows提供的硬件中断、线程同步和双级缓存等技术,提出了一种基于计数器卡实现信号数据的实时采集和与仿真目标同步显示的方案,并给出详细设计思路论证方案的可行性,实验结果表明可以明显改善目标仿真平台的实时性与准确性.该系统的设计思想在其它方面的应用也具有借鉴意义.  相似文献   

12.
正则表达式(Regular Expression,RE)因其强大的表达能力和简单性正取代精确字符串(explicitstring)成为描述模式(pattern)的首选。在网络应用中,基于DFA(确定有限自动机)的正则表达式匹配技术通常用于网络流量实时处理、病毒检测等系统中。随着正则表达式的数量不断增加,DFA的存储空间急剧膨胀导致Cache的命中率大大降低,最终影响匹配的性能。提出了一种高效的正则表达式分组算法,通过合理地将正则表达式分组来大大降低DFA所需的存储空间。还尝试提出了评价正则表达式分组算法的一些指标。  相似文献   

13.
针对LTE终端通信协议栈的处理过程中Cache缓存方式效率差,提出一种可以提高处理速度降低延时的数据缓存方式。通过利用便签式存储器(Scratch-Pad Memory,SPM)和直接内存存取方式(Direct Memory Access,DMA)的性能优势,将协议栈处理的过程中需要与处理器频繁交互的数据缓存到SPM中,实现在SPM中完成数据的包头压缩/解压、加密/解密和重组等协议功能处理,并通过DMA方式实现SPM与主存之间的数据搬运,减少处理器对大块连续数据的搬运,提高处理效率。该方式避免了CPU在通过Cache缓存方式进行数据交互容易发生缓存不命中的问题,从而提高了协议栈的数据处理效率。经过理论分析及实验对比,结果表明,在LTE协议栈处理过程中,采用SPM与DMA结合的数据缓存机制,相比Cache缓存方式可以使整体性能至少提升12.65%。  相似文献   

14.
随着海量数据的集中出现,对数据中心的海量数据的组织、查询和存取日益成为影响其性能的关键因素。传统的数据库优化技术只能实现降低查询处理时间或减少存储以及维护开销中的某一个或者某几个,无法达到同时优化的效果。提出一种基于实时同步的分页缓存及分区存贮(DBMS-Cache-DCS)的海量数据查询优化方法,实验结果表明,通过该方法可以同时降低访问处理时间。  相似文献   

15.
高速缓存是提高计算机性能的一种关键技术。文章主要分析了高速缓存所在的计算机存储系统结构、磁盘高速缓存工作原理,深入讨论高速缓存管理器与其它的内核组件相互配合协调工作的机制。  相似文献   

16.
An overview is given of the architecture of an overall design considerations for the 11-unit, 32-b V80 microprocessor, which includes two 1-kB cache memories and a branch prediction mechanism that is a new feature for microprocessors. The V80's pipeline processing and system support functions for multiprocessor and high-reliability systems are discussed. Using V80 support functions, multiprocessor and high-reliability systems were realized without any performance drop. Cache memories and a branch prediction mechanism were used to improve pipeline processing. Various hardware facilities replaced the usual microprogram to ensure high performance  相似文献   

17.
在采用并行超长指令字结构的DSP芯片中,CPU处理速度与片外数据存取速度不匹配的问题,导致了CPU处理延时,限制了DSP系统性能的提升,针对这一问题,根据Cache的结构提出一种适宜于在DSPCPU上进行视频数据处理的数据排列新算法,并且将其成功地应用到基于Trimedia PNXl301的MPEG-4程序优化工作中,系统编码结果表明,该方法有效地减少了Cachemiss及片外数据存取的时间开销,在同等条件下,采用本算法后系统编码性能提高2帧/秒(CIF格式)左右。  相似文献   

18.
本文介绍了采用非易失写缓存解决RAID5小写问题的设计和实现,该方法通过对Cache数据结构的精心组织和采用事务机制对Cache进行修改。我们用单片NVRAM实现了高可用的磁盘阵列Cache。  相似文献   

19.
Cache技术是一种能够减少时延,节省带宽和降低服务器负载的有效方法。文章分析了现有证书服务器中Cache算法和证书系统的结构特性;指出证书缓存的简单替换算法:FIFO(first in first out)和LRU(Least Recently Used),无法提供较高的Cache命中率。文中提出了一种智能预留控制缓存替换算法,理论分析和仿真数据表明该算法能大大减少访问证书的时间,改善证书管理效率,并有效提高缓存的命中率。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号