首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 187 毫秒
1.
内容中心网络( CCN)作为一种主要的未来网络架构,以命名的内容作为网内的主要元素之一,在网络研究中受到广泛关注。针对已有的CCN缓存方案内容副本替换严重的问题,提出一种内容热门度与节点中介中心度约束的缓存机制PopBetw。在基于节点中心度的基础上,从内容本身的属性热门度出发,避免非热门内容的不必要缓存,降低每个节点的缓存负荷,提高网络缓存性能。仿真结果表明,通过评估缓存大小和内容热门度对缓存性能的影响,PopBetw缓存策略可取得比LCE,LCPro和EgoBetw方案更高的缓存命中率和更小的路径延展度,明显降低网内缓存替换数量,有效减少网内节点中介中心性较大节点群的缓存替换数,达到整体性能最优化。  相似文献   

2.
现有Internet架构存在着众所周知的缺点,未来网络架构的研究成为了热点.其中,CCN(Content-Centric Networking)在众多新架构中正逐渐被大家认为是最有前途的方案之一,它要求网络中的每一节点都要有缓存功能.所以,研究高效的缓存机制就成为实现CCN预期目标的关键.针对CCN现有缓存机制中存在的"无序缓存"的问题,文中提出了选择性缓存机制SC(Selective Caching).它根据用户的潜在需求和内容的流行规律,只在必要的节点上选择性地(而不是沿着内容传输路径处处地)缓存.同时,采用带宽换缓存的思想,利用链路的冗余带宽,将内容分流到相邻节点缓存,进一步提升缓存效率.我们首先提出了缓存空间消耗的理论分析模型,然后在多种实验条件下对SC进行了验证,实验结果表明SC可以提高网络的缓存效率和性能,同时SC的通信、计算、状态记忆等额外开销也都很小.  相似文献   

3.
《电子技术应用》2017,(3):100-103
随着网络流量的急剧增长,现有的IP体系架构难以满足用户不断增长的需求。CCN成为未来网络研究的热点,其最大的特点是网络节点的处处缓存,所以为CCN设计一种高效的缓存机制显得尤为重要。针对CCN中现有的缓存机制存在一些问题,提出了一种基于内容收益的内容流行度和节点重要度PBCS的缓存方案。在请求次数满足收益标准的前提下,进行内容流行度与节点重要度的匹配,得到符合要求的缓存节点。仿真结果表明,该方案提高了内容的节点命中率,缩短了获取内容的平均跳数。  相似文献   

4.
内容中心网络(Content-Centric Networking,CCN)作为一种以内容为中心进行路由、缓存的新型未来网络体系架构受到了广泛的关注.在CCN中,关键技术问题之一是网络缓存问题,现有方案主要采用ALWAYS-LRU缓存策略,然而该策略容易出现相邻节点重复缓存的问题,使得网络整体缓存效率较低.针对这一问题,文中提出了一种基于逗留时间的新型缓存决定策略,设计了一种适用于CCN的合作缓存机制.在请求泊松到达的假设下,通过在单个缓存器对LRU(Least Recently Used)替换策略使用马尔可夫链建模,该文得到了内容在各缓存器平均逗留时间的近似计算公式.数值仿真结果显示,该方案相比传统缓存策略,有效地提升了网络缓存的效率和缓存内容的多样性,进而减少了用户请求服务的总跳数,增加了内容访问的命中率.  相似文献   

5.
内容中心网络(CCN)是未来互联网中一种有前景的网络架构。它通过网内缓存机制加强内容的传输减少网络传输代价或提高网络吞吐量。针对同一个自治域内的内容分布情况以及热门内容对网络的影响,提出一种以降低内容传输代价为目标的缓存机制——DCR策略。该策略能够将热门内容推向用户同时降低内容的冗余度。实验结果表明:该缓存策略能有效地降低自治域内内容的传输代价,提高了域内缓存命中率。  相似文献   

6.
田铭  邬江兴  兰巨龙 《计算机科学》2016,43(11):164-171
通过对信息中心网络的网内节点缓存建模,分析发现基于全局内容流行度的替换策略不适用于信息中心网络的分布式模式。继而提出了一种基于局部内容活跃度的缓存替换策略LAU,并基于该策略提出了一种自适应路径缓存算法ACAP,使缓存内容按照本地活跃度依次缓存在访问路径中。仿真结果表明,LAU策略提高了单节点缓存命中率;ACAP相比已有的路径缓存算法,具有较低的服务器命中率和跳数比。最后对该算法适用的缓存结构和拓扑结构进行了讨论和分析。  相似文献   

7.
许慧青  王高才  闵仁江 《计算机科学》2017,44(8):76-81, 106
当前大多内容中心网络(Content-Centric Network,CCN)缓存决策策略研究都没有综合考虑请求热点、网络能耗、内容流行度和节点协同等相关要素。因此提出一种基于内容流行度的协同缓存策略来优化内容中心网络的能耗。该策略将CCN的一个自治区域网络中的所有内容路由器节点当作一个协同缓存组,并把协同缓存组中每个节点的缓存容量分为两部分,一部分用于自身节点和其他节点协同缓存内容;另一部分用于自身节点独立缓存本地最流行的内容,以提高协同缓存组中内容副本种类的多样性,从而减少网络中内容的重复传输,实现网络能耗的优化。建立相关的能耗优化模型,采用一种改进的遗传算法求解出该协同缓存组能耗优化问题的最优解。实验结果表明,与相关文献中的缓存决策策略相比,所提策略可以有效地降低CCN的能耗,提高其可扩展性,进而指导CCN的演化和部署。  相似文献   

8.
信息中心网络通过高速网内缓存可以有效降低用户的访问时延,降低服务器和链路负载,提升网络性能。然而,网络中部分节点负载过高导致节点内缓存替换率升高,使得个别节点乃至整体网络性能下降。本文提出一种基于流量负载控制的缓存策略,根据节点接收队列的流量状态,动态控制节点缓存的替换速率,并将由于负载控制而无法缓存的内容交给下游低负载节点缓存。实验结果显示,我们的策略可以有效提升高流量负载节点的缓存命中率,同时提高了低负载节点的缓存利用率,均衡了网络中的缓存负载状态,提升了网络的整体性能。  相似文献   

9.
针对在内容中心网络(Content Centric Networking, CCN)中如何合理放置与高效利用应答数据的问题,该文将集中化控制的思想引入到内容缓存与查找中,提出一种协作缓存路由机制。缓存决策时,通过兴趣包和数据包携带标签的方式,确定沿途最大缓存收益区域;在最大缓存收益区域内,结合内容全局活跃度和节点可用缓存空间,选择内容最佳放置位置。路由查找时,将区域内容放置与路由转发相结合,增大缓存资源可用性。仿真结果表明,与经典算法相比,该机制以少量额外的开销提高了缓存命中率和跳数减少率,改善了缓存负载分布均衡性,提升了CCN网络缓存和传输效率。  相似文献   

10.
为了提高内容中心移动边缘网络的缓存性能,提出了一种基于用户移动性感知和节点中心性度量的内容中心移动边缘网络缓存机制(user mobility-aware and node centrality based caching,简称UMANCC).UMANCC机制利用边缘节点计算节点中心性、缓存空闲率以及小区内用户逗留时间.移动边缘网络控制器综合各边缘节点的信息,计算各边缘节点的重要性并进行排序,最后根据排序结果选择内容缓存节点.仿真实验结果表明:与传统缓存机制LCE及Prob相比,UMANCC有效减少用户获取内容的平均跳数高达15.9%,提高边缘节点缓存命中率至少13.7%,减少进入核心网流量高达32.1%,有效地提高了内容中心移动边缘网络的内容分发性能.  相似文献   

11.
Caching has been intensively used in memory and traditional file systems to improve system performance. However, the use of caching in parallel file systems and I/O libraries has been limited to I/O nodes to avoid cache coherence problems. We specify an adaptive cache coherence protocol that is very suitable for parallel file systems and parallel I/O libraries. This model exploits the use of caching, both at processing and I/O nodes, providing performance improvement mechanisms such as aggressive prefetching and delayed-write techniques. The cache coherence problem is solved by using a dynamic scheme of cache coherence protocols with different sizes and shapes of granularity. The proposed model is very appropriate for parallel I/O interfaces, such as MPI-IO. Performance results, obtained on an IBM SP2, are presented to demonstrate the advantages offered by the cache management methods proposed.  相似文献   

12.
集群协作缓存机制研究   总被引:1,自引:0,他引:1  
计算机集群中的节点使用内存一般不均衡,往往有些节点使用太多内存,而其他节点又有较多的空闲内存.为了改进集群操作系统,将集群节点的内存作全局分布的资源使用,我们首先提出一个内存互操作高速缓存方案:通过使用集群范围内的内存作文件高速缓存,从其他节点的高速缓存中读文件,可以避免很多低速的磁盘访问,改进集群文件系统的总体吞吐量.然后利用我们提出的缓存页面代替策略GCAR来支持这种内存互操作的高速缓存方案.该算法与CAR相比,对缓存中被"经常"使用的页面的管理粒度更细,更适合集群协作缓存的计算环境.实验结果表明,GCAR对本地缓存的命中率比CAR略好,在集群协作缓存下能取得更好的缓存命中率.  相似文献   

13.
信息中心网络(information-centric networking,简称ICN)将网络通信模式从当前的以地址为中心转变为以信息为中心.泛在化缓存是ICN重要特性之一,它通过赋予网络任意节点缓存的能力来缓和服务器的压力,降低用户访问延迟.然而,由于缺少内容热度的分布感知,现有ICN缓存策略仍存在缓存利用率较低、缓存位置缺乏合理规划等问题.为了解决这些问题,提出一种基于两级缓存的协同缓存机制(a cache coordination scheme based on two-level cache,简称CSTC).将每个节点的缓存空间分为热度感知和协作分配两部分,为不同热度的内容提供不同的缓存策略.同时,结合提出的热度筛选机制和路由策略,降低了缓存冗余,实现了缓存位置优化.最后,基于真实网络拓扑的仿真实验表明,CSTC在次热门内容缓存数量上提升了2倍,缓存命中率提升了将近50%,且平均往返跳数在多数情况下优于现有On-path缓存方式.  相似文献   

14.
This paper proposes a novel contribution in Web caching area, especially in Web cache replacement, so-called intelligent client-side Web caching scheme (ICWCS). This approach is developed by splitting the client-side cache into two caches: short-term cache that receives the Web objects from the Internet directly, and long-term cache that receives the Web objects from the short-term cache. The objects in short-term cache are removed by least recently used (LRU) algorithm as short-term cache is full. More significantly, when the long-term cache saturates, the neuro-fuzzy system is employed efficiently in managing contents of the long-term cache. The proposed solution is validated by implementing trace-driven simulation and the results are compared with least recently used (LRU) and least frequently used (LFU) algorithms; the most common policies of evaluating Web caching performance. The simulation results have revealed that the proposed approach improves the performance of Web caching in terms of hit ratio (HR), up to 14.8% and 17.9% over LRU and LFU. In terms of byte hit ratio (BHR), the Web caching performance is improved up to 2.57% and 26.25%, and for latency saving ratio (LSR), the performance is better with 8.3% and 18.9% over LRU and LFU, respectively.  相似文献   

15.
Caching strategies to improve disk system performance   总被引:1,自引:0,他引:1  
Karedla  R. Love  J.S. Wherry  B.G. 《Computer》1994,27(3):38-46
I/O subsystem manufacturers attempt to reduce latency by increasing disk rotation speeds, incorporating more intelligent disk scheduling algorithms, increasing I/O bus speed, using solid-state disks, and implementing caches at various places in the I/O stream. In this article, we examine the use of caching as a means to increase system response time and improve the data throughput of the disk subsystem. Caching can help to alleviate I/O subsystem bottlenecks caused by mechanical latencies. This article describes a caching strategy that offers the performance of caches twice its size. After explaining some basic caching issues, we examine some popular caching strategies and cache replacement algorithms, as well as the advantages and disadvantages of caching at different levels of the computer system hierarchy. Finally, we investigate the performance of three cache replacement algorithms: random replacement (RR), least recently used (LRU), and a frequency-based variation of LRU known as segmented LRU (SLRU)  相似文献   

16.
命名数据网络(NDN)中的路由器节点具有缓存能力,这就极大地提高了网络中的数据发送与检索效率。然而,由于路由器的缓存能力是有限的,设计有效的缓存策略仍然是一项紧迫的任务。为了解决这个问题,提出了一种动态内容流行度缓存决策和替换策略(DPDR)。DPDR综合考虑内容流行度和缓存能力,利用一个和式增加、积式减少(AIMD)的算法动态调节流行度阈值,并将超过流行度阈值的内容存入缓存空间;同时提出了一个缓存替换算法,综合考虑了缓存空间中内容的流行度和内容最后被访问时间等因素,将替换值最小的内容移出内容缓存。大量仿真结果显示,与其他算法相比,本文所提的算法能够有效提高缓存命中率,缩短平均命中距离和网络吞吐量。  相似文献   

17.
在无线Mesh中,由于每个节点缓冲的数据量不同,可能会造成某些节点的缓冲区利用率低,某些节点因为缓冲任务繁重而进行频繁的数据置换操作,从而造成节点存储空间使用不均衡,降低数据缓冲的效率。提出了一种基于节点分级管理的协作缓冲算法,该算法为网络中的每个节点在网络中构造一个分布式缓冲区域,利用该缓冲区域来替代节点本身的缓冲区,通过合理地利用每个节点的存储空间,增加单个节点的数据缓冲能力。理论分析和实验结果表明,该算法可以有效提高数据访问命中率,减少缓冲区数据的置换操作,降低节点的能量消耗。  相似文献   

18.
Data caching is a popular technique that improves data accessibility in wired or wireless networks. However, in mobile ad hoc networks, improvement in access latency and cache hit ratio may diminish because of the mobility and limited cache space of mobile hosts (MHs). In this paper, an improved cooperative caching scheme called group-based cooperative caching (GCC) is proposed to generalize and enhance the performance of most group-based caching schemes. GCC allows MHs and their neighbors to form a group, and exchange a bitmap data directory periodically used for proposed algorithms, such as the process of data discovery, and cache placement and replacement. The goal is to reduce the access latency of data requests and efficiently use available caching space among MH groups. Two optimization techniques are also developed for GCC to reduce computation and communication overheads. The first technique compresses the directories using an aggregate bitmap. The second employs multi-point relays to develop a forwarding node selection scheme to reduce the number of broadcast messages inside the group. Our simulation results show that the optimized GCC yields better results than existing cooperative caching schemes in terms of cache hit ratio, access latency, and average hop count.  相似文献   

19.
A structured P2P network based on the small world phenomenon   总被引:1,自引:0,他引:1  
In this paper, we propose a new structured P2P overlay network, named SW-Uinta(small-world). In order to reduce the routing latency, we firstly construct the Uinta network in which both physical characteristics of network and data semantic are considered. Furthermore, based on Uinta, a nondeterministic caching strategy is employed to allow for poly-logarithmic search time while having only a constant cache size. Compared with the deterministic caching strategy proposed by previous P2P systems, the nondeterministic caching strategy can reduce communication overhead for maintaining the routing cache table. Cache entries in the cache table of peer nodes can be updated by subsequent queries rather than only by running stabilization periodically. In the following, a novel cache replacement scheme, named the SW cache replacement scheme, is used to improve lookup performance, which has proved to satisfy the small-world principle. So we call this network SW-Uinta(small-world). After that, according to the theoretical analysis, it can be proved that SW-Uinta(small-world) can get O((log 2 N)/k) search time with O(k) cache size. Lastly, the performance of SW-Uinta(small-world) is compared with those of other structured P2P networks such as Chord and Uinta. It shows that SW-Uinta(small-world) can achieve improved object lookup performance and reduce maintenance cost.
Hai Jin (Corresponding author)Email:
  相似文献   

20.
语义缓存的最小权值项LWI替换策略   总被引:5,自引:0,他引:5  
在客户-服务器数据库系统中,语义缓存是基于客户查询语义相关建立的一种客户缓存.语义缓存的内容由以往查询的结果以及相应的描述构成.针对语义缓存的特征,提出语义缓存下最小权值项LWI(1east weight itern)替换策略.该策略由缓存项投影属性的访问频率和缓存项与查询的条件匹配情况,结合数据访问的时间局部性考虑决定缓存项的权值,替换最小权值项.通过性能分析实验,在语义缓存中,基于LWI替换策略的系统性能要优于基于传统LRU和LFU替换策略的系统性能.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号