共查询到19条相似文献,搜索用时 203 毫秒
1.
介绍了获取一个Web页面的过程,以及用来提高Web性能的几种技术——缓存、负荷分担、资源分布网络、请求机制和压缩机制等;比较了这几种技术对时延因素和资源因素的影响,最后对这几种技术之间的相互关系进行了讨论。 相似文献
2.
文章研究了基于TTL的Web缓存层次过滤效果,业务量性质对基于TTL的动态Web缓存系统的性能有重要影响。在层次缓存中,由于只有错失的请求才会被转发给下一级缓存,因而逐级对业务量存在过滤作用,业务量性质随之改变。文章利用仿真研究了基于TTL的动态Web缓存层次过滤对业务量的影响。重点考察了请求到达间隔模型及对象流行度分布的变化。 相似文献
3.
基于客户/服务器的两级语义数据缓存机制在OLAP环境中的应用 总被引:1,自引:0,他引:1
在联机分析处理(OLAP)环境中,为了提高多维查询的响应速度,服务器需要特殊的查询优化技术,比较流行的做法是,服务器动态地有选择地对查询结果进行缓存。本文在客户端也引入相同的缓存机制,这种方法能有效地降低服务器载荷;对于在数据仓库进行增量维护时,客户/服务器中两级缓存中语义数据的一致性问题及其对查询的影响进行了研究。 相似文献
4.
缓存替换机制是内容中心网络的重要研究问题之一,考虑到缓存空间的有限性,合理地对缓存内容进行置换,成为影响网络整体性能的关键因素。因此,设计了一种基于内容价值的缓存替换方案。该方案综合考虑了内容的动态流行度、缓存代价以及最近被请求的时间,构建了更实际的内容价值函数,并依据该内容价值函数,设计了有效的内容存储与置换方案。具体地,当缓存空间不足时,对已有缓存内容按照价值从小到大进行置换。仿真结果表明,相比于传统替换算法 LRU、LFU 和 FIFO,本文提出的方案有效地提升了网络节点的内容缓存命中率,降低了用户获取内容的平均跳数。 相似文献
5.
6.
对象缓存提供一种机制来保存内存中经常被访问的数据,减少对后台应用程序和数据库的调用,从而显著提高系统性能。对象缓存具有快速访问数据的优点。通过面向方法编程(AOP)实现对象缓存,具有动态添加和管理缓存的灵活性。文章对对象缓存技术、AOP在对象缓存中的应用进行理论研究,提供一个AOP对象缓存的例子,演示将缓存机制织入Web Service应用系统的步骤和过程,并对结果进行测试和分析。 相似文献
7.
针对内容中心网络(CCN, content centric networking)节点存储资源的有效利用和优化配给问题,在同质化缓存分配的基础上,提出了一种基于替换率的缓存空间动态借调机制。该机制从节点存储空间使用状态的动态差异性出发,首先对于缓存资源借调的合理性给予证明,进而,依据节点对于存储资源的需求程度,动态地执行缓存借调,将相对空闲的存储资源分配给需求程度更大的节点支配,换取过载节点缓存性能的提升。该机制减小了内容请求跳数,提高了缓存命中率,以少量额外的代价换取了内容请求开销的显著下降,提升了存储资源整体利用率,仿真结果验证了其有效性。 相似文献
8.
针对信息中心网络(ICN)内置缓存系统中的海量内容块流行度获取和存储资源高效利用问题,以最大化节省内容访问总代价为目标,建立针对内容块流行度的缓存收益优化模型,提出了一种基于收益感知的缓存机制。该机制利用缓存对请求流的过滤效应,在最大化单点缓存收益的同时潜在地实现节点间协作和多样化缓存;使用基于布隆过滤器的滑动窗口策略,在检测请求到达间隔时间的同时兼顾从源服务器获取内容的代价,捕获缓存收益高的内容块。分析表明,该方法能够大幅压缩获取内容流行度的存储空间开销;仿真结果表明,该方法能够较为准确地实现基于流行度的缓存收益感知,且在内容流行度动态变化的情况下,在带宽节省和缓存命中率方面更具优势。 相似文献
9.
将边缘缓存技术引入雾无线接入网,可以有效减少内容传输的冗余。然而,现有缓存策略很少考虑已缓存内容的动态特性。该文提出一种基于内容流行度和信息新鲜度的缓存更新算法,该算法充分考虑用户的移动性以及内容流行度的时空动态性,并引入信息年龄(AoI)实现内容的动态更新。首先,所提出算法根据用户的历史位置信息,使用双向长短期记忆网络(Bi-LSTM)预测下一时间段用户位置;其次,根据预测得到的用户位置,结合用户的偏好模型得到各位置区的内容流行度,进而在雾接入点进行内容缓存。然后,针对已缓存内容的信息年龄要求,结合内容流行度分布,通过动态设置缓存更新窗口以实现高时效、低时延的内容缓存。仿真结果表明,所提算法可以有效地提高内容缓存命中率,在保障信息的时效性的同时最大限度地减小缓存内容的平均服务时延。 相似文献
10.
内容中心网络(CCN)是为了适应未来网络通信模式的转变,提供对可扩展和高效内容获取的原生支持而提出一种新型的网络体系架构,内容缓存机制是其研究的关键问题之一。现有机制在缓存节点的选择时往往过于集中,缓存负载分布严重不均,大大降低了网络资源利用率以及系统的缓存性能。该文提出一种基于缓存迁移的协作缓存机制,首先在缓存节点选择时考虑节点的中心性保证内容尽可能缓存在位置更重要的节点。同时,在缓存压力过大时,通过可用缓存空间大小、缓存替换率以及网络连接的稳定性等信息选择合适的邻居节点进行缓存内容的转移,充分利用邻居资源实现负载分担。仿真结果表明该机制能有效地改善缓存负载在节点上分布的均衡性,提高缓存命中率和缓存资源利用率并降低平均接入代价。 相似文献
11.
随着Internet的飞速发展,Web流量迅速增加,高速缓存成为减少用户等待时间和减少网络冗余流量传输的首要技术.随着网上越来越多的图像、音频和视频内容的出现,终端用户对带宽的要求不断增长,卫星以其覆盖面广、带宽高的特点承载了越来越多的Internet业务.本文介绍高速缓存技术的原理和应用,并结合卫星Internet的特点引入一种结合高速缓存的卫星分发系统. 相似文献
12.
Navid Ehsan Mingyan Liu Roderick J. Ragland 《International Journal of Communication Systems》2003,16(6):513-534
Performance enhancing proxies (PEPs) are widely used to improve the performance of TCP over high delay‐bandwidth product links and links with high error probability. In this paper we analyse the performance of using TCP connection splitting in combination with web caching via traces obtained from a commercial satellite system. We examine the resulting performance gain under different scenarios, including the effect of caching, congestion, random loss and file sizes. We show, via analysing our measurements, that the performance gain from using splitting is highly sensitive to random losses and the number of simultaneous connections, and that such sensitivity is alleviated by caching. On the other hand, the use of a splitting proxy enhances the value of web caching in that cache hits result in much more significant performance improvement over cache misses when TCP splitting is used. We also compare the performance of using different versions of HTTP in such a system. Copyright © 2003 John Wiley & Sons, Ltd. 相似文献
13.
Abdullah Abonamah Akram Al‐Rawi Mohammad Minhaz 《International Journal of Communication Systems》2002,15(6):513-530
Network caching of objects has become a standard way of reducing network traffic and latency in the web. However, web caches exhibit poor performance with a hit rate of about 30%. A solution to improve this hit rate is to have a group of proxies form co‐operation where objects can be cached for later retrieval. A co‐operative cache system includes protocols for hierarchical and transversal caching. The drawback of such a system lies in the resulting network load due to the number of messages that need to be exchanged to locate an object. This paper proposes a new co‐operative web caching architecture, which unifies previous methods of web caching. Performance results shows that the architecture achieve up to 70% co‐operative hit rate and accesses the cached object in at most two hops. Moreover, the architecture is scalable with low traffic and database overhead. Copyright © 2002 John Wiley & Sons, Ltd. 相似文献
14.
Challenger J.R. Dantzig P. Arun Iyengar Squillante M.S. Li Zhang 《Networking, IEEE/ACM Transactions on》2004,12(2):233-246
We present architectures and algorithms for efficiently serving dynamic data at highly accessed Web sites together with the results of an analysis motivating our design and quantifying its performance benefits. This includes algorithms for keeping cached data consistent so that dynamic pages can be cached at the Web server and dynamic content can be served at the performance level of static content. We show that our system design is able to achieve cache hit ratios close to 100% for cached data which is almost never obsolete by more than a few seconds, if at all. Our architectures and algorithms provide more than an order of magnitude improvement in performance using an order of magnitude fewer servers over that obtained under conventional methods. 相似文献
15.
Web caching has been the solution of choice to web latency problems. The efficiency of a Web cache is strongly affected by the replacement algorithm used to decide which objects to evict once the cache is saturated. Numerous web cache replacement algorithms have appeared in the literature. Despite their diversity, a large number of them belong to a class known as stack‐based algorithms. These algorithms are evaluated mainly via trace‐driven simulation. The very few analytical models reported in the literature were targeted at one particular replacement algorithm, namely least recently used (LRU) or least frequently used (LFU). Further they provide a formula for the evaluation of the Hit Ratio only. The main contribution of this paper is an analytical model for the performance evaluation of any stack‐based web cache replacement algorithm. The model provides formulae for the prediction of the object Hit Ratio, the byte Hit Ratio, and the delay saving ratio. The model is validated against extensive discrete event trace‐driven simulations of the three popular stack‐based algorithms, LRU, LFU, and SIZE, using NLANR and DEC traces. Results show that the analytical model achieves very good accuracy. The mean error deviation between analytical and simulation results is at most 6% for LRU, 6% for the LFU, and 10% for the SIZE stack‐based algorithms. Copyright © 2009 John Wiley & Sons, Ltd. 相似文献
16.
17.
本文深入研究了在身份认证中维持用户状态信息的重要对象Session的工作原理,并依据现有的理论基础,从Web应用程序中身份认证面临的实际问题出发,提出了非正式注销存在的安全性问题。论文结合Session的工作过程和利用浏览器的缓存技术,提出具有实用性的解决方案,使Session在Web身份认证中的应用更加合理、有效,增加了身份认证的安全性。为了验证结论的有效性,将本文提出的解决方案应用于基于Web的网络考试系统中,证明了这种方案的适用性,达到本文的设计目的。 相似文献
18.
现有高速缓存替换算法大多无法有效识别数据的局部性特征,导致高速缓存内即将被访问到的数据可能被未来不会被访问到的数据所替换,造成高速缓存污染问题.末级高速缓存污染引发的性能损失随着处理器和存储器之间性能差距的扩大而不断增大,成为制约系统性能提升的重要瓶颈之一.本文针对末级高速缓存污染问题,在剖视分析访存密集型程序的页一级访存行为基础上,提出一种软件控制末级高速缓存插入策略.本方法通过控制和指导页一级数据插入位置,限制局部性差的数据页在末级高速缓存中的访问空间,达到降低末级高速缓存污染的目的.实验结果表明,相对于LRU和DIP策略,本文方法能够有效降低末级高速缓存失效率,提高程序性能. 相似文献