共查询到19条相似文献,搜索用时 62 毫秒
2.
LRU算法的研究及实现 总被引:4,自引:0,他引:4
本文主要介绍页面置换算法中的LRU算法(leastrecentlyused),并将LRU算法与另外一些常用页面置换算法进行了比较。同时探讨了LRU算法的实现问题。 相似文献
3.
黄明志 《电脑与微电子技术》2012,(11):7-9,12
阐述LRU算法的基本原理.提出在.NETFramework平台上基于LRU算法的高速缓存的设计思路.并给出一个通用、高性能、GB级、线程安全和支持泛型的LRUCache缓存类的具体实现方法。 相似文献
4.
5.
6.
7.
本首先介绍了几种测试生成方法,然后分析了Mips RISC体系结构的存储管理高缓结构特点,提出了一种对基于R3000类型系统的高缓功能测试方法,并给出了相应的程序流图。 相似文献
8.
移动学习已经成为一种趋势,然而大软件、大教学视频更加凸显手机系统内存的渺小。随着虚拟内存软件的开发,在某种程度上小内存也可以运行大程序。文章介绍手机存储的发展,分析两种增加虚拟内存的软件,针对虚拟内存软件存在的不足,通过对比3种页面置换算法,提出改善虚拟内存性能的一种LRU(Least Recently Used)改进算法。改进后的LRU算法降低缺页率,提高虚拟内存的使用效率,运行大型应用软件或播放大容量教学视频时更加流畅,响应时间更短。 相似文献
9.
《计算机应用与软件》2016,(4)
在高速主干网络中,随着网络链路速率的不断提高和网络流数量的增加,如何及时、准确地检测出网络中的大流信息,成为目前网络流测量的热点问题。根据传统LRU算法由于突发性大量小流导致淘汰大流的测量缺陷和网络重尾分布的特点,提出一种新的识别大流的算法——基于流抽样和LRU的大流检测算法。算法通过流抽样技术过滤大部分的小流,并通过LRU算法识别大流信息,将过滤和识别过程分离,减少小流错误淘汰大流的可能性,提高算法测量准确性。分析算法的复杂度和漏检率,并通过实际试验数据分析了算法参数配置对于大流测量的准确性的影响。理论分析和仿真结果表明,与标准LRU算法和LRU_BF算法相比,在使用相同的存储空间下,新算法具有更高的测量准确性和实用性。 相似文献
10.
页面置换算法是操作系统中虚拟存储管理的一个重要部分。改进页面置换算法,可以降低页面失败率,从而有效地提高系统性能。现有的应用于虚拟存储管理的页面置换算法主要是Least Reference Used(LRU)页面置换算法。文中利用页面访问间隔数,分析不同的页面访问序列对LRU算法的影响,把页面访问序列分为LRU-友好页面访问序列、LRU-不友好页面访问序列、不友好页面访问序列三类,为改进LRU页面置换算法提供了依据。 相似文献
11.
12.
为应用服务器添加Web层静态文件缓存功能 总被引:1,自引:0,他引:1
为提高访问效率,在内存中开辟一块空间,将访问过的静态文件保存起来,下次再访问该文件的时候直接从内存中返回内容而不从磁盘读取。文章实现了一种基于LRU淘汰算法的静态文件缓存功能。该缓存功能不与特定的服务器相关,具有良好的可移植性。 相似文献
13.
14.
15.
本文详细论述了TigerSHARC Ts201中cache的结构和运行原理,并给出了在DSP复位后对cache进行初始化和打开cache使其处于工作状态的汇编程序,最后通过常用的FFT程序使用cache前后DSP所消耗的时间显示了cache在提高DSP性能方面起到的重要作用。 相似文献
16.
描述了促进Web内容有效管理和利用的层次模型与体系结构。讨论了通过索引和聚集等方法对Web中的内容进行积极有效的存取。提出了一种内容识别的代理缓存覆盖算法,通过实验比较了该方法的优缺点,并作出了客观的评价。 相似文献
17.
多数处理器中采用多级包含的cache存储层次,现有的末级cache块替换算法带来的性能开销较大.针对该问题,提出一种优化的末级cache块替换算法PLI,在选择丢弃块时考虑其在上级cache的访问频率,以较小的代价选出最优的LLC替换块.在时钟精确模拟器上的评测结果表明,该算法较原算法性能平均提升7%. 相似文献
18.
现有Web代理Cache调度机制主要是基于传统的数据处理算法,为加快网络对用户请求的响应速度,文章提出了一种新的基于用户代理Cache内容和其内容的语义信息作为基础的层次数据模型,基于这种模型设计并实现了基于内容识别的Web代理Cache调度算法-CAOA算法,并通过实验对算法性能进行了验证。 相似文献
19.
陈晓龙 《计算机工程与应用》2003,39(19):100-101,185
该文提出了一种新的加强代理服务器CACHE的技术。首先给出CHACE内容的标题层、逻辑层、物理层的三层模型。对其内容进行索引,以便比较、查询。并给出了考虑文件存储空间、访问时间的LRU算法,保证CACHE中内容总是最相关、使用率高的内容。提高了具有相同目的用户的访问效率。 相似文献