首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
Set associative page mapping algorithms have become widespread for the operation of cache memories for reasons of cost and efficiency. We show how to calculate analytically the effectiveness of standard bit-selection set associative page mapping or random mapping relative to fully associative (unconstrained mapping) paging. For two miss ratio models, Saltzer's linear model and a mixed geometric model, we are able to obtain simple, closed-form expressions for the relative LRU fault rates. We also experiment with two (infeasible to implement) dynamic mapping algorithms, in which pages are assigned to sets either in an LRU or FIFO manner at fault times, and find that they often yield significantly lower miss ratios than static algorithms such as bit selection. Trace driven simulations are used to generate experimental results and to verify the accuracy of our calculations. We suggest that as electronically accessed third-level memories composed of electron-beam tubes, magnetic bubbles, or charge-coupled devices become available, algorithms currently used only for cache paging will be applied to main memory, for the same reasons of efficiency, implementation ease, and cost.  相似文献   

2.
当海量数据请求访问异构内存系统时,异构内存页在动态随机存储器(dynamic random access memory, DRAM)和非易失性存储器(non-volatile memory, NVM)之间进行频繁的往返迁移.然而,应用于传统内存页的迁移策略难以适应内存页“冷”“热”度的快速动态变化,这使得从DRAM迁移至NVM的“冷”页面可能在短时间内变“热”从而产生大量冗余的迁移操作.当前的相关研究都仅着眼于正在执行迁移的页面而忽视了等待迁移和完成迁移的页面,且判断“冷”“热”程度的标准不一,使得冗余的迁移大量产生.因此,提出了一个基于DRAM牺牲Cache的异构内存页迁移机制(VC-HMM),使用非易失性存储器中工艺较为成熟的相变存储器(phase change memory, PCM),通过在DRAM和PCM之间增加一个由DRAM构成的小容量牺牲Cache将系统主存DRAM中变“冷”的页面迁移到牺牲Cache中,以避免主存页面在短时间内再次变“热”而造成的冗余迁移.同时,还使得迁回PCM的部分页面不需要写回,减少PCM存储单元的写入操作次数,延长PCM的使用寿命.另外,对于不同的工作负载,VC-HMM可以自适应设置迁移操作的参数,增加迁移的合理性.实验结果表明:与其他迁移策略(CoinMigrator,MQRA,THMigrator)相比,VC-HMM平均减少了至少62.97%的PCM写操作次数、22.72%的平均访问时延、38.37%的重复迁移操作以及3.40%的系统能耗.  相似文献   

3.
已有主存索引通过指针消除和预取机制提升索引结构的缓存感知能力,减少缓存失效次数,但是并没有有效地利用现代计算机的CPU性能和内存空间。为了进一步提升索引结构对内存空间以及CPU性能的利用率,提出了DCST-树索引结构。该索引结构采用数据压缩的方式,对结点中的关键字进行压缩,提高索引结构对内存空间和缓存空间的利用率,减少内存访问次数,提高缓存命中率。同时,对结点进行分区,增加结点容量,提高结点扇出度,降低树的高度。实验结果表明,所提方案比现有主存索引机制具有更加高效的空间利用率和缓存感知能力,同时具有更加优秀的查询处理能力。  相似文献   

4.
针对目前内存数据库中索引缓存失配的问题,在分析了现有内存数据库索引结构基础上,提出了一种缓存敏感T树(CST树)的索引数据结构,详细数据结构描述和操作算法也已给出。通过CST树的缓存次数分析和进行查询、插入等操作性能测试,结果表明CST树能有效减少缓存敏感次数,并且在数据量较小时,CST树的插入、删除速度比T树略慢,而查询速度比T树要快。在数据量较大时,CST树的插入、删除、查询效率都比T树要高。  相似文献   

5.
为微处理器扩展向量指令集是提升现代微处理器性能的一种可行手段,然而传统向量指令对存储系统的访问表现出较差的局部性,因此难以与现代微处理器设计中广泛使用的Cache很好的结合。本文以优化Cache性能为目标,对传统向量指令集进行改造,提出了COV(Cache Optimized Vector Instruction Set)向量指令集,并以OpenRISC1200为平台,对该指令集进行了实现与测评,获得了约四倍的性能加速比。  相似文献   

6.
7.
闪存被广泛应用在电子产品的存储设备中, 针对闪存的研究也日益得到重视. 基于访问的局部性原理, 并结合闪存读写代价的差异性, 提出了一种针对闪存特点运用块级局部性原理的cache缓存管理算法LRU-BLL. 实验表明, 这种方法有效地提高了缓存的命中率, 并且减少了缓存的脏页回写次数和提高了缓冲区的平均换出长度.  相似文献   

8.
孟红涛  余松平  刘芳  肖侬 《计算机科学》2017,44(6):31-35, 74
Spark系统是基于Map-Reduce模型的大数据处理框架。Spark能够充分利用集群的内存,从而加快数据的处理速度。Spark按照功能把内存分成不同的区域:Shuffle Memory和Storage Memory,Unroll Memory,不同的区域有不同的使用特点。首先,测试并分析了Shuffle Memory和Storage Memory的使用特点。RDD是Spark系统最重要的抽象,能够缓存在集群的内存中;在内存不足时,需要淘汰部分RDD分区。接着,提出了一种新的RDD分布式权值缓存策略,通过RDD分区的存储时间、大小、使用次数等来分析RDD分区的权值,并根据RDD的分布式特征对需要淘汰的RDD分区进行选择。最后,测试和分析了多种缓存策略的性能。  相似文献   

9.
内存数据库一种紧凑的存储结构   总被引:1,自引:0,他引:1  
文章分析和研究了当前针对内存数据库的存储结构,提出了索引与记录相结合的存储结构,通过索引与记录数据的结合存储,以提高内存数据库存储空间利用率和操作的效率。  相似文献   

10.
不同的应用对存储器结构有不同的需求:在运行控制任务时,需要Cache匹配速度差异;在处理数据流时,需要片内存储器提高访问带宽.本文设计了一种基于SRAM的可配置Cache/SRAM存储器,通过数据存储器独立寻址,控制和数据通路充分共享,实现了一个四路组相连、容量为16KB的Cache和容量为16KB的SRAM.综合结果表明,该设计与普通Cache相比,延时仅增加0.035%,门数增加1.06%.  相似文献   

11.
为支持数据挖掘应用,对NOW机群系统的分布式共享存储管理机制进行了适当的简化1~2,结合数据挖掘中数据处理的特点,设计了一个并行内存缓冲系统。该缓冲系统为应用程序提供上下两层应用接口,既可以保证内存操作的透明性,又为应用程序自主操作数据提供了极大的灵活性。缓冲系统可以充分利用网络结点的存储空间为应用程序实现网络虚拟存储环境,同时也可以很好地支持应用程序对数据文件的并行化处理。  相似文献   

12.
内存受限的实时内存数据库数据装入策略   总被引:3,自引:0,他引:3  
刘云生  迟岩 《计算机工程》2004,30(20):50-52
实时数据库要求以内存数据库为其底层的支持。传统的内存数据库要求内存数据库能容纳全部外存数据库,因此没有数据装入的问题。而要实现内存受限的内存数据库,就是在内存数据库不能容纳全部外存数据库的前提下,保证一个事务执行前,其数据被装入内存。而内存数据库的脆弱性使得数据的装入比较频繁(包括初装和运行时装入),因此传统的装入策略对实时内存数据库就显得不合适。为此给出了新的数据装入策略,并在此基础上实现了ERTMMDB(Embedded Real-time Main Memory Database)。  相似文献   

13.
张学 《微处理机》2003,(3):29-31
因为主存数据库具有实时性的特点,所以在某些场合是其它大型数据库所无法替代的。本文讨论了一种基于关系的主存数据库的最底层的设计与实现。本文采用分页技术,在一大块内存中实现主存数据库的存储管理,并向应用程序提供一组存取函数。应用程序的SQL语句被编译之后,就可以转化为相应的存取函数,从而实现对数据库的访问。  相似文献   

14.
稀疏矩阵向量乘是许多科学计算的核心,计算中大量的间接和随机访存成为计算的主要瓶颈。本文通过分析稀疏矩阵向量乘运算的数据结构和计算过程,得到计算中不同数据的访存特征,并提出了一种面向数据访存特性的Cache划分方法。对12个稀疏矩阵向量乘的测试表明,本文的Cache划分方法能有效地提高可重用向量的Cache命中率,同时减少计算对Cache空间的需求。  相似文献   

15.
本文基于简单常见模式压缩编码设计了一种新颖的片内压缩Cache层次结构。在该结构中,L1数据Cache和L2Cache都以压缩格式保存数据,但具有不同的布局。其中,L1数据Cache的布局能触发部分Cache行预取,同时又能避免普通预取技术可能导致的Cache污染增加以及带宽浪费的现象,而且没有预取缓冲开销。实验结果表明,与传统Cache结构相比,本文的设计方案可以显著增加L1数据Cache和L2Cache的有效容量,并且不会增加L1数据Cache的访存延迟,对L1数据Cache平均能增加33%的有效容量,减少L1数据Cachhe失效率达21%,程序执行速度提高了13%。  相似文献   

16.
针对传统的cache在预取时不判断预取数据块的状态,导致一些不必要的I/O,同时降低cache命中率的缺点,提出了一种基于语义信息的cache管理策略.该策略首先通过收集语义信息让磁盘了解文件系统在磁盘上的数据布局,磁盘上每个数据块是活跃的还是死亡的,并得出磁盘上分区数据块的活跃度.然后根据语义信息在预取的时候不预取死亡的块,在活跃度高的分区上提高预取参数,而在cache替换出数据块时对于死亡块不进行写盘操作.实验结果表明该策略可以较好提高cache命中率进而提高系统的吞吐量.  相似文献   

17.
当前数据中心广泛采用虚拟化、混合存储等技术以满足不断增长的存储容量和性能需求,这使得存储系统异构性变得越来越普遍.异构存储系统的一个典型问题是由于设备负载和服务能力不匹配,使得存储系统中广泛使用的条带等并行访问技术难以充分发挥作用,导致性能降低.针对这一问题,提出了一种基于负载特征识别和访问性能预测的缓存分配算法(access-pattern aware and performance prediction-based cache allocation algorithm, Caper),通过缓存分配来调节不同存储设备之间的I/O负载分布,使得存储设备上的负载和其本身服务能力相匹配,从而减轻甚至消除异构存储系统中的性能瓶颈.实验结果表明,Caper算法能够有效提高异构存储系统的性能,在混合负载访问下,比Chakraborty算法平均提高了约26.1%,比Forney算法平均提高了约28.1%,比Clock算法平均提高了约30.3%,比添加预取功能的Chakraborty算法和Forney算法分别平均提高了约7.7%和17.4%.  相似文献   

18.
超节点P2P(Super-peerP2P)结合了P2P结构和C/S结构的优点,是当前应用最广的一类P2P系统。在超节点P2P网络中,文件访问是最基本的操作,往往使用缓存技术来提高其操作效率。目前大多数超节点P2P网络使用传统的“尽力而为”的缓存机制,该机制没有区分超节点网络中不同节点对资源的需求及关注程度不同,导致偶尔访问的对象替换经常访问的对象。针对“尽力而为”缓存机制的不足,本文提出一种基于语义信息的协同缓存管理机制SCOCM(Semantic-based Cooperative Cache Management mechanism for super-peer net works),应用已经请求对象的语义信息主动地选择对象放置缓存,以兴趣度的远近驱逐缓存内的对象,减少缓存对象的替换,使得每个缓存中缓存的对象之间尽可能地保持语义联系。实验结果表明,基于语义信息的协同缓存管理机制与LRU相比可大大降低缓存的替换率,提高缓存的存取效率,命中率也较高。  相似文献   

19.
缓存技术是支持断接操作的重要技术。如何提高断接状态下缓存的命中率,成为研究的热点之一。引入数据分类和权限管理,提出了一种动态缓存管理机制,大大提高了断接状态下缓存的命中率。  相似文献   

20.
介绍开放源码编译器ORC中使用的存储管理方法:存储池.存储池不是一种通用的存储管理方法,但是它特别适合于编译器.在编译器这个应用场合下,存储池比通用的malloc/free存储管理机制具有十分明显的优点.具体表现为分配速度快、管理开销小、释放时间开销小以及没有内存泄漏的问题.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号