首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 890 毫秒
1.
车联网中,如何有效选择缓存位置和缓存内容对于提高整体网络性能至关重要。针对上述问题,引入了内容中心网络技术,提出了一种新的优化缓存策略——缓存位置和缓存内容的选择取决于车辆节点值和内容流行度(Vehicle Node Value and Content Popularity,VNVCP)。首先,定义了连通性、中间中心性和特征向量中心性3个车辆节点属性用来评估车辆节点的值,具有不同值的车辆节点缓存具有不同流行度的内容,内容的重要性由其受欢迎程度决定。其次,该策略利用不同类型内容受欢迎程度的差异确保缓存内容分布均匀,同时评估来自多个属性的车辆节点的值以提高车辆节点利用率。仿真结果表明,VNVCP在缓存命中率、平均跳数和传输延迟方面明显优于传统的LCE(Leave Copy Every where)、Prob(0.5)和MPC(Most Popular Content)。  相似文献   

2.
针对内容中心网络(Content Centric Networking,CCN)中路由检索过程造成大量低效的冗余问题,进行了更深一层的研究,结合节点相似度、标签传播等方法,将CCN网络拓扑划分为多个社区。该方法首先将CCN网络中各个请求节点以及节点内容进行名字解析,以便获取用户的兴趣偏好,并将节点中影响力较高的节点作为社区核心节点,再将节点划分社区,实现内容快速缓存,有效地避免了CCN网络检索所造成的数据冗余问题,进一步提高整个网络速度,提高资源利用率,减少数据冗余。  相似文献   

3.
信息中心网络(ICN:Information-Centric Networking)域内缓存机制的研究大多假定单个内容的流行度相同,而忽视了同一内容的不同分块具有不同流行度的特性.本文提出了一种基于内容分块流行度以及缓存节点位置的分级缓存策略,通过兴趣包和数据包携带标签的方式实现隐式缓存协作.仿真实验证明相比于其他方案,该方案可以充分利用细粒度的内容分块流行度这一特性,提高缓存路由器缓存命中率,减小用户请求内容时延以及网络流量,进而提升用户对实时业务的服务体验.  相似文献   

4.
基于节点介数和替换率的内容中心网络网内缓存策略   总被引:2,自引:0,他引:2  
网内缓存技术是内容中心网络(CCN)的关键技术之一,CCN采用传统的ALWAYS缓存策略,会造成较大冗余。改进的Betw方案仅考虑了节点介数,容易造成高介数节点缓存更替频繁,内容可用性下降。为了解决这个问题,该文提出一种综合使用网络节点介数和节点缓存内容更替速率作为缓存决策度量的新型网内缓存策略BetwRep,通过权衡节点位置重要性和缓存内容时效性实现回传内容的最佳放置。最后,基于ndnSIM平台进行的网络仿真表明,该文提出的BetwRep缓存策略取得了比Betw方案和ALWAYS方案更低的源端请求负载和更少的平均跳数。  相似文献   

5.
在信息中心网络(Information-Centric Network, ICN)中,利用网络内置缓存提高内容获取及传输效率是该网络构架最重要的特性。然而,网络内置的缓存存在应对大量的需要转发的内容时能力相对弱小,对内容放置缺乏均衡分布的问题。该文提出基于内容流行度和节点中心度匹配的缓存策略(Popularity and Centrality Based Caching Scheme, PCBCS),通过对经过的内容进行选择性缓存来提高内容分发沿路节点的缓存空间使用效率,减少缓存冗余。仿真结果表明,该文提出的算法和全局沿路缓存决策方案,LCD(Leave Copy Down)以及参数为0.7及0.3的Prob(copy with Probability)相比较,在服务器命中率上平均减少30%,在命中缓存内容所需的跳数上平均减少20%,最重要的是,和全局沿路缓存决策方案相比总体缓存替换数量平均减少了40%。  相似文献   

6.
蔡君  余顺争  刘外喜 《通信学报》2015,(6):2015222-2015222
全网内置缓存是ICN(信息中心网络)架构中最重要的特性之一。为使被缓存的内容对象在空间和时间上分布更合理,提出了一种基于节点社团重要度的缓存策略(CSNIC)。该策略以社团为单位,不仅把内容缓存到社团内用户容易获取的节点处,而且使不同流行度的内容对象在各社团内节点处的时间分布上更合理。在多种实验条件下对CSNIC策略进行了仿真验证,结果表明该策略与CEE-LRU、Betw-LFU、Opportunistic相比,能更好地提升包括缓存命中率、跳数减少率、内容差异性及替换数量等在内的网络缓存性能指标,而且,CSNIC策略的额外开销较小。  相似文献   

7.
针对内容中心网络中同质化缓存造成的节点负载不均和存储资源无法有效利用的问题,提出一种热区控制及内容调度缓存算法.在内容请求时,根据节点介数与节点访问度综合判断节点热度,筛选出负载过重节点;缓存决策时,以流行度为依据将内容调度至空闲邻居节点,并设置生命期控制机制,从而达到分散请求、消除热区的目的.仿真结果表明该算法减少了请求时延与路由跳数,在提高缓存命中率的同时,有效改善了负载在节点上分布的均衡性.  相似文献   

8.
综合考虑内容中心网络(CCN)的能耗优化及性能提升,该文提出一种内容中心网络中能耗优化的隐式协作缓存机制。缓存决策时,利用缓存节能量作为判决条件优先在用户远端节点缓存,并利用数据包携带最近上游缓存跳数信息进行隐式协作,减轻用户近端节点缓存空间的竞争压力,提高邻近节点缓存的差异性。缓存替换时,选取缓存节能量最小的缓存内容加以替换,达到最优的能耗优化效果。仿真结果表明,该缓存机制在性能上获得较优的缓存命中率及平均路由跳数,同时有效降低了网络能耗。  相似文献   

9.
陈龙  汤红波  罗兴国  柏溢  张震 《通信学报》2016,37(5):130-142
针对信息中心网络(ICN)内置缓存系统中的海量内容块流行度获取和存储资源高效利用问题,以最大化节省内容访问总代价为目标,建立针对内容块流行度的缓存收益优化模型,提出了一种基于收益感知的缓存机制。该机制利用缓存对请求流的过滤效应,在最大化单点缓存收益的同时潜在地实现节点间协作和多样化缓存;使用基于布隆过滤器的滑动窗口策略,在检测请求到达间隔时间的同时兼顾从源服务器获取内容的代价,捕获缓存收益高的内容块。分析表明,该方法能够大幅压缩获取内容流行度的存储空间开销;仿真结果表明,该方法能够较为准确地实现基于流行度的缓存收益感知,且在内容流行度动态变化的情况下,在带宽节省和缓存命中率方面更具优势。  相似文献   

10.
黄丹  宋荣方 《电信科学》2018,34(11):59-66
缓存替换机制是内容中心网络的重要研究问题之一,考虑到缓存空间的有限性,合理地对缓存内容进行置换,成为影响网络整体性能的关键因素。因此,设计了一种基于内容价值的缓存替换方案。该方案综合考虑了内容的动态流行度、缓存代价以及最近被请求的时间,构建了更实际的内容价值函数,并依据该内容价值函数,设计了有效的内容存储与置换方案。具体地,当缓存空间不足时,对已有缓存内容按照价值从小到大进行置换。仿真结果表明,相比于传统替换算法 LRU、LFU 和 FIFO,本文提出的方案有效地提升了网络节点的内容缓存命中率,降低了用户获取内容的平均跳数。  相似文献   

11.
针对内容中心网络(CCN, content centric networking)节点存储资源的有效利用和优化配给问题,在同质化缓存分配的基础上,提出了一种基于替换率的缓存空间动态借调机制。该机制从节点存储空间使用状态的动态差异性出发,首先对于缓存资源借调的合理性给予证明,进而,依据节点对于存储资源的需求程度,动态地执行缓存借调,将相对空闲的存储资源分配给需求程度更大的节点支配,换取过载节点缓存性能的提升。该机制减小了内容请求跳数,提高了缓存命中率,以少量额外的代价换取了内容请求开销的显著下降,提升了存储资源整体利用率,仿真结果验证了其有效性。  相似文献   

12.
To overcome the problems of the on-path caching schemes in the content centric networking,a coordinated caching scheme based on the node with the max betweenness value and edge node was designed.According to the topol-ogy characteristics,the popular content was identified at the node with the max betweenness value and tracked at the edge node.The on-path caching location was given by the popularity and the cache size.Simulation results show that,com-pared with the classical schemes,this scheme promotes the cache hit ratio and decreases the average hop ratio,thus en-hancing the efficiency of the cache system.  相似文献   

13.
In-network caching is one of the most important issues in content centric networking (CCN), which may extremely influence the performance of the caching system. Although much work has been done for in-network caching scheme design in CCN, most of them have not addressed the multiple network attribute parameters jointly during caching algorithm design. Hence, to fill this gap, a new in-network caching based on grey relational analysis (GRA) is proposed. The authors firstly define two newly metric parameters named request influence degree (RID) and cache replacement rate, respectively. The RID indicates the importance of one node along the content delivery path from the view of the interest packets arriving The cache replacement rate is used to denote the caching load of the node. Then combining hops a request traveling from the users and the node traffic, four network attribute parameters are considered during the in-network caching algorithm design. Based on these four network parameters, a GRA based in-network caching algorithm is proposed, which can significantly improve the performance of CCN. Finally, extensive simulation based on ndnSIM is demonstrated that the GRA-based caching scheme can achieve the lower load in the source server and the less average hops than the existing the betweeness (Betw) scheme and the ALWAYS scheme.  相似文献   

14.
In order to address the global optimization problem for traffic scheduling in named data networking,related works were analyzed,a method based on centralized control was proposed.The proposed method took network performance and communication overhead into account.In the proposed scheme,appropriate nodes would be selected as E-NDN nodes,then the controller calculated the corresponding multi-path forwarding policies and sent them to E-NDN nodes according to the in-network cache,the aggregation of Interest packets,and the traffic demands of popular contents to achieve global optimization.The evaluation results indicate that the proposed method can significantly reduce the maximum link utilization and improve network performance.Simultaneously,the proposed method will not cause a large optimization cost,and communication overhead between the controller and nodes will increase slightly.  相似文献   

15.
罗熹  安莹  王建新  刘耀 《电子与信息学报》2015,37(11):2790-2794
内容中心网络(CCN)是为了适应未来网络通信模式的转变,提供对可扩展和高效内容获取的原生支持而提出一种新型的网络体系架构,内容缓存机制是其研究的关键问题之一。现有机制在缓存节点的选择时往往过于集中,缓存负载分布严重不均,大大降低了网络资源利用率以及系统的缓存性能。该文提出一种基于缓存迁移的协作缓存机制,首先在缓存节点选择时考虑节点的中心性保证内容尽可能缓存在位置更重要的节点。同时,在缓存压力过大时,通过可用缓存空间大小、缓存替换率以及网络连接的稳定性等信息选择合适的邻居节点进行缓存内容的转移,充分利用邻居资源实现负载分担。仿真结果表明该机制能有效地改善缓存负载在节点上分布的均衡性,提高缓存命中率和缓存资源利用率并降低平均接入代价。  相似文献   

16.
Aiming at the problem of reducing the load of the backward link in the edge buffer and fog wireless access network technology,a multi-tier cooperative caching scheme in F-RAN was proposed to further reduce the backhaul traffic load.In particular,by considering the network topology,content popularity prediction and link capacity,the optimization problem was decomposed into knapsack subproblems in multi-tiers,and effective greedy algorithms were proposed to solve the corresponding subproblems.Simulation results show that the proposed multi-tier cooperative caching scheme can effectively reduce the backhaul traffic and achieve relatively high cache hit rate.  相似文献   

17.
吴海博  李俊  智江 《通信学报》2016,37(5):62-72
提出一种基于概率存储的启发式住处中心网络内容缓存方法(PCP)。主要思想是请求消息和数据消息在传输过程中统计必要信息,当数据消息返回时,沿途各缓存节点按照一定概率决策是否在本地缓存该内容。设计缓存概率时综合考虑内容热度和缓存放置收益,即内容热度越高,放置收益越大的内容被缓存的概率越高。实验结果表明,PCP在缓存服务率、缓存命中率、平均访问延迟率等方面,与现有方法相比具有显著优势,同时PCP开销较小。  相似文献   

18.
By overcoming the well-known challenges of the current internet, great expectations are focused on information-centric networking (ICN). ICN extensively uses universal in-network caching. However, developing an efficient caching scheme remains an open question. To overcome the useless caching and duplication caching of previous caching schemes, we propose an adaptive caching scheme—caching on demand (COD). By following the change in potential demand from the consumer and the temporal patterns of content popularity, COD allows content to be cached only by some necessary nodes instead of all nodes on the path from content provider to content consumer. At the same time, in accordance with trading off bandwidth for cache (bandwidth-for-cache), content can be pushed to the adjacent node with more cache capacity. We present a theoretical model to evaluate cache usage for COD. Finally, we evaluate COD through extensive experiments and a wide range of performance metrics. The experimental results under diverse setting demonstrate that COD can yield a steady improvement of network performance and caching efficiency compared with CEE, EgoBetw and Probcache. Notably, COD improves performance with negligible overhead.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号