首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 156 毫秒
1.
郭晨  郑烇  丁尧  王嵩 《计算机系统应用》2017,26(12):165-169
缓存技术是数据命名网络(Named data networking,NDN)的关键技术之一. NDN传统的LCE缓存策略会造成较大的冗余. 改进的RCOne策略采用随机放置的方法,没有利用任何内容、节点信息,对网络缓存性能的提升有限. Betw策略只考虑到节点介数,导致高介数节点缓存更替频繁,当节点缓存容量远小于内容总量时,缓存性能下降. 为了解决这些问题,本文提出一种结合内容热度与节点介数的新型缓存策略HotBetw(Hot content placed on node with high Betweenness),充分利用内容与节点信息选择最佳的位置放置缓存. 仿真实验表明相对于典型NDN缓存策略,HotBetw缓存策略在提高缓存命中率、降低平均跳数方面具有很好的效果.  相似文献   

2.
《计算机工程》2018,(2):46-50
为实现高效的命名数据网络(NDN)缓存替换,设计动态流行度与请求代价相结合的缓存替换策略。使每个节点单独计算缓存内容的动态流行度与请求代价的加权(DPC)值,并基于该值进行缓存内容的替换,保留高流行度与高请求代价的内容。在此基础上,根据内容的DPC值对其分类,执行区分化的缓存决策算法,合理选择节点放置缓存。实验结果表明,相对于典型NDN缓存策略,该策略能有效提高缓存命中率,降低平均跳数。  相似文献   

3.
针对命名数据网络(NDN)架构中多数缓存策略的冗余与低效问题,提出一种基于节点介数与边缘内容流行度的缓存放置策略BEP。结合节点的介数中心性与内容的动态流行度,同时考虑缓存的过滤作用,将最流行的内容放置在最重要的节点上,以高效利用稀缺的缓存资源。仿真结果表明,与经典NDN缓存策略LCE、LCD相比,BEP能有效提高缓存命中率,降低服务器负载。  相似文献   

4.
命名数据网络(named data network,NDN)是一种以数据为中心的新型网络体系结构。现有NDN网络路由策略未能充分利用路由结点缓存导致转发效率不高。为了在路由决策中充分利用NDN网络中的缓存,提出了一种邻居缓存路由(neighbor cache explore routing,NCE)策略,将路由结点缓存因素引入到路由决策中,并设计了相应的报文格式及路由选择算法。模拟实验结果表明,邻居缓存路由策略在减少网络冗余流量的同时提高了整体网络的性能,验证了NCE策略在NDN网络中的有效性。  相似文献   

5.
陈秋瑶  郑烇 《计算机工程》2020,46(1):172-178
命名数据网络(NDN)缓存策略通常较少关注内容所属的服务类型及不同服务类型的服务质量需求差异,难以应用于服务类型多样、用户需求复杂的实际场景。为充分利用有限的缓存资源,借鉴IP网络中的Diffserv模型,提出一个适用于NDN的缓存内容分类模型,并给出同时考虑内容分类、路由器本地流行度和内容下载时延的概率缓存算法DiffCache。实验结果表明,该算法可实现缓存资源的动态分配,在不影响全局命中率和下载时延的情况下,能够准确区分每种内容类型的性能指标表现。  相似文献   

6.
针对内容中心网络(CCN)中的缓存污染攻击问题,提出一种基于多样化存储的缓存污染防御机制。对不同业务内容采取差异化缓存从而减小网络受攻击面,将业务划分为三类并采用不同缓存策略:对隐私及实时性业务不予缓存;对流媒体业务以概率推送至网络边缘缓存;对其他文件类内容业务由上游到边缘逐步推送缓存。在不同节点分别配置不同的缓存污染攻击防御手段:对于边缘节点通过内容请求到达概率的变化对攻击进行检测;对于上游节点通过设置过滤规则将请求概率较低的内容排除出缓存空间。仿真结果表明,相比CNN传统缓存策略下的防御效果,该机制使网络平均缓存命中率提高了17.3%,该机制能够有效提升网络对于缓存污染攻击的防御能力。  相似文献   

7.
信息中心网络(information-centric networking,简称ICN)将网络通信模式从当前的以地址为中心转变为以信息为中心.泛在化缓存是ICN重要特性之一,它通过赋予网络任意节点缓存的能力来缓和服务器的压力,降低用户访问延迟.然而,由于缺少内容热度的分布感知,现有ICN缓存策略仍存在缓存利用率较低、缓存位置缺乏合理规划等问题.为了解决这些问题,提出一种基于两级缓存的协同缓存机制(a cache coordination scheme based on two-level cache,简称CSTC).将每个节点的缓存空间分为热度感知和协作分配两部分,为不同热度的内容提供不同的缓存策略.同时,结合提出的热度筛选机制和路由策略,降低了缓存冗余,实现了缓存位置优化.最后,基于真实网络拓扑的仿真实验表明,CSTC在次热门内容缓存数量上提升了2倍,缓存命中率提升了将近50%,且平均往返跳数在多数情况下优于现有On-path缓存方式.  相似文献   

8.
信息中心网络默认的LCE缓存策略在数据包返回路径上的每个节点缓存内容,会产生大量冗余副本,无法充分利用缓存资源。针对该问题,提出基于节点热度与缓存替换率的缓存策略。在数据包返回路径上选择特殊节点缓存内容,考虑网络流量在不同区域和不同时间段内的差异性,周期性地计算节点热度和缓存替换率,并将其作为内容是否被缓存在节点上的度量指标。实验结果表明,相对于LCE和CLFM策略,该策略能有效降低平均请求跳数和源端命中率,获得较高的缓存收益。  相似文献   

9.
命名数据网络(NDN)中的路由器节点具有缓存能力,这就极大地提高了网络中的数据发送与检索效率。然而,由于路由器的缓存能力是有限的,设计有效的缓存策略仍然是一项紧迫的任务。为了解决这个问题,提出了一种动态内容流行度缓存决策和替换策略(DPDR)。DPDR综合考虑内容流行度和缓存能力,利用一个和式增加、积式减少(AIMD)的算法动态调节流行度阈值,并将超过流行度阈值的内容存入缓存空间;同时提出了一个缓存替换算法,综合考虑了缓存空间中内容的流行度和内容最后被访问时间等因素,将替换值最小的内容移出内容缓存。大量仿真结果显示,与其他算法相比,本文所提的算法能够有效提高缓存命中率,缩短平均命中距离和网络吞吐量。  相似文献   

10.
为了降低信息中心网络(Information Centric Networking, ICN)缓存冗余度和平均接入代价,提出一种基于节点中心性度量近似算法的协作缓存策略Centrality Metric Approximation Algorithm (CMAA)。考虑到精确计算最短路径的工作量对缓存性能的影响,CMAA策略利用最短路径近似估计值以提高节点中心性的计算效率,将节点中心性近似度量加权融合值、节点热度和缓存利用率三者作为缓存影响因子,计算得出兴趣包转发路径各节点的缓存优先级。在多种实验条件下对CMAA进行仿真实验,结果表明与LCE (Leave Copy Everywhere)和CLFM (Cache “Less for More”)相比,CMAA在平均缓存请求时延变化不大的情况下,可有效地提高缓存命中率,降低平均接入代价,从而改善缓存系统性能。  相似文献   

11.
网络化缓存是命名数据网络实现对信息的高效获取,有效降低互联网骨干网络流量的关键技术.网络化缓存将缓存作为普适的功能添加到每个网络节点.用户需要获取信息时,缓存有该内容的任意网络节点(例如路由器)接收到用户请求后都可直接向用户返回相应内容,提升用户请求响应效率.然而,命名数据网络采用泛在缓存使得内容发布者到用户的传输路径...  相似文献   

12.
In information-centric networking, in-network caching has the potential to improve network efficiency and content distribution performance by satisfying user requests with cached content rather than downloading the requested content from remote sources. In this respect, users who request, download, and keep the content may be able to contribute to in-network caching by sharing their downloaded content with other users in the same network domain (i.e., user-assisted in-network caching). In this paper, we examine various aspects of user-assisted in-network caching in the hopes of efficiently utilizing user resources to achieve in-network caching. Through simulations, we first show that user-assisted in-network caching has attractive features, such as self-scalable caching, a near-optimal cache hit ratio (that can be achieved when the content is fully cached by the in-network caching) based on stable caching, and performance improvements over in-network caching. We then examine the caching strategy of user-assisted in-network caching. We examine three caching strategies based on a centralized server that maintains all content availability information and informs each user of what to cache. We also examine three caching strategies based on each user’s content availability information. We first show that the caching strategy affects the distribution of upload overhead across users and the number of cache hits in each segment. One interesting observation is that, even with a small storage space (i.e., 0.1% of the content size per user), the centralized and distributed approaches improve the cache hit ratio by 50% and 45%, respectively. With an overall view of caching information, the centralized approach can achieve a higher cache hit ratio than the distributed approach. Based on this observation, we discuss a distributed approach with a larger view of caching information than the distributed approach and, through simulations, confirm that a larger view leads to a higher cache hit ratio. Another interesting observation is that the random distributed strategy yields comparable performance to more complex strategies.  相似文献   

13.
针对内容中心网络(content centric networking,CCN)中不同业务内容的合理放置问题,提出了一种基于业务分类和节点分区的混合缓存机制。根据不同的业务特征,设计了差异化的缓存策略。对于流媒体点播业务,采用基于流行度的推拉式缓存,实现其在边缘网络的按序存储;对于非流媒体共享内容,采用基于hash的显式缓存,实现其在核心网络的单一副本放置。仿真结果表明,与经典算法相比,该机制提高了缓存命中率和跳数减少率,降低了平均请求时延。  相似文献   

14.
With the explosion of multimedia content, Internet bandwidth is wasted by repeated downloads of popular content. Recently, Content-Centric Networking (CCN), or the so-called Information-Centric Networking (ICN), has been proposed for efficient content delivery. In this paper, we investigate the performance of in-network caching for Named Data Networking (NDN), which is a promising CCN proposal. First, we examine the inefficiency of LRU (Least Recently Used) which is a basic cache replacement policy in NDN. Then we formulate the optimal content assignment for two in-network caching policies. One is Single-Path Caching, which allows a request to be served from routers only along the path between a requester and a content source. The other is Network-Wide Caching, which enables a request to be served from any router holding the requested content in a network. For both policies, we use a Mixed Integer Program to optimize the content assignment models by considering the link cost, cache size, and content popularity. We also consider the impact of link capacity and routing issues on the optimal content assignment. Our evaluation and analysis present the performance bounds of in-network caching on NDN in terms of the practical constraints, such as the link cost, link capacity, and cache size.  相似文献   

15.
In a mobile computing environment, database servers disseminate information to multiple mobile clients via wireless channels. Due to the low bandwidth and low reliability of wireless channels, it is important for a mobile client to cache its frequently accessed database items into its local storage. This improves performance of database queries and improves availability of database items for query processing during disconnection. In this paper, we investigate issues on caching granularity, coherence strategy, and replacement policy of caching mechanisms for a mobile environment utilizing point-to-point communication paradigm.We first illustrate that page-based caching is not suitable in the mobile context due to the lack of locality among database items. We propose three different levels of caching granularity: attribute caching, object caching, and hybrid caching, a hybrid approach of attribute and object caching. Next, we show that existing coherence strategies are inappropriate due to frequent disconnection in a mobile environment, and propose a cache coherence strategy, based on the update patterns of database items. Via a detail simulation model, we examine the performance of various levels of caching granularity with our cache coherence strategy. We observe, in general, that hybrid caching could achieve a better performance. Finally, we propose several cache replacement policies that can adapt to the access patterns of database items. For each given caching granularity, we discover that our replacement policies outperform conventional ones in most situations.  相似文献   

16.
熊炼  李朋明  陈翔  朱红梅 《计算机应用》2018,38(12):3509-3513
针对内容中心网络(CCN)中节点默认缓存所有经过的内容,未能实现对内容选择性缓存与最佳放置的问题,提出一种基于用户偏好的协作缓存策略(CCUP)。首先,考虑用户对内容类型的喜好和内容流行度作为用户本地偏好度指标,实现缓存内容的选择;然后,对需要缓存内容执行差异化缓存策略,全局活跃的内容则缓存在重要的中心节点,非活跃内容则按本地偏好度与节点同用户距离层级匹配缓存;最后,实现用户对本地偏好内容的就近获取和全局活跃内容的快速分发。仿真结果表明,相比典型缓存策略(LCE、Prob(0.6)、Betw),CCUP在平均缓存命中率和平均请求时延方面有明显优势。  相似文献   

17.
高子轩  郑烇 《计算机工程》2021,47(3):190-195
多数NDMANET缓存策略研究未考虑内容的优先级,从而降低了重要内容在节点移动环境下的可用性。针对该问题,提出一种基于内容优先级的缓存替换策略PFC。根据节点内容对可用性的不同需求划分内容优先级,将其作为缓存替换的参考因子进行缓存替换决策,以提高重要内容的命中率和可用性。在ndnSIM仿真平台上的测试结果表明,相比LRU和FIFO策略,PFC策略在不影响全局命中率和响应时延的情况下,可以明显提高重要内容的缓存占比与可用性。  相似文献   

18.
内容中心网络(CCN)是一种新型的网络架构,但其路由器缓存数据包的模式给用户带来了隐私泄露的风险。提出一种面向隐私保护的动态区域协作缓存策略。该策略以兼顾用户隐私保护的同时提高网络性能为目的进行设计,从信息熵的角度出发,以提高用户的请求信息的不确定度为目标,通过将内容存储在相应的隐匿系数高的缓存节点,增加攻击者确定请求用户的难度;以动态区域协作的方式存储内容,增大缓存内容的归属不确定性,以加大攻击者定位数据包的难度。仿真结果表明,该策略可降低内容请求时延,提高缓存命中率。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号