共查询到20条相似文献,搜索用时 62 毫秒
1.
2.
3.
4.
Web对象可预取性研究 总被引:1,自引:0,他引:1
目前的Web预取模型一般是基于预测算法来提前取得Web对象,缺乏对Web对象可预取性的研究.若在预取Web对象之前考虑该对象的可预取性,将减少不必要的预取,不仅可以提高预取算法的命中率,也可以减少网络流量和系统负载.详细讨论了Web对象的可预取性概念及相应的度量方法,并推导出在预取缓存交互的情况下,基于网络资源和系统负载计算预取阈值的公式,可用于Web对象的可预取性判断,指导预取控制,使得预取技术更加有效. 相似文献
5.
LinuX作为一个多任务、分时、通用的开源操作系统,越来越广泛地应用于各种商业和企业的服务器。为了提高系统的性能,LinuX采用预取技术将应用程序所需的数据提前加载到缓存中,减少应用程序的I/O等待时间。然而由于服务器系统负载的多样化,导致了预取算法遇到越来越多的挑战。该文主要从分析Linux-2.6.29张涛rc2内核源代码人手,对Linux预取算法的体系结构与内部机制进行了深入分析与研究,并提出了一些改进预取算法的方法.对于进一步提高Linux系统服务器的性能以及LinuX的推广与使用具有重要的意义。 相似文献
6.
一种基于智能体的Web文档预取模式 总被引:1,自引:2,他引:1
文章深入分析了用户对Internet资源的访问模式和web文档自身的更新模式,并提出了一个新的基于智能体的web文档预取系统结构。在这个系统结构基础上,通过用户存取日志及各种算法,发现特定用户感兴趣的主题,实现对兴趣文档的主动预取,从而提高分布式信息系统上信息的获取效率。 相似文献
7.
8.
9.
10.
缩短Web访问中的用户感知时间,是Web应用中的一个重要问题,服务器需要预测用户未来的HTTP请求和处理当前的网页以提高Web服务器的响应速度,为此提出了一种基于用户访问模式的Web预取算法.该算法根据Web日志信息分析了用户的访问模式,并计算出Web页面间的转移概率,以此作为对用户未来请求预取的依据.实验结果表明,该预取算法能有效提高预测精度和命中率,有效地缩短了用户的感知时间. 相似文献
11.
World Wide Web(WWW) services have grown to levels where significant delays are expected to happen.Technology like prefetching are likely to help users to personalize their needs ,reducing their waiting times. This paperfirstly describes the architecture of prefetching,then classifies them into three types: based on branch model,based ontree model and others and presents profoundly the basic ideas of some existing prefetching algorithms. Next,several models for controlling the prefetching are introduced. At last,the trend and course concerning the prefetching algo-rithms are concluded. 相似文献
12.
缓存技术能有效的节省网络带宽,减少用户的访问延迟.在分布式缓存系统中,一个值得研究的问题是如何根据用户的请求动态的进行缓存部署,使得系统的收益最大.描述了缓存部署问题并建立了优化模型,在此基础上提出一种新的协作缓存部署算法,该算法利用对象的热度、网络距离,以及系统中各节点接收的请求和系统缓存分布信息,依次对请求路径上的节点进行缓存部署决策,同时该算法将计算分布到请求路径的各个节点上进行.仿真结果表明,该算法具有比LRU和Graph算法更高的缓存命中率和更低的访问延迟. 相似文献
13.
In this paper, we address the problem of cache replacement for transcoding proxy caching. Transcoding proxy is a proxy that
has the functionality of transcoding a multimedia object into an appropriate format or resolution for each client. We first
propose an effective cache replacement algorithm for transcoding proxy. In general, when a new object is to be cached, cache
replacement algorithms evict some of the cached objects with the least profit to accommodate the new object. Our algorithm
takes into account of the inter-relationships among different versions of the same multimedia object, and selects the versions
to replace according to their aggregate profit which usually differs from simple summation of their individual profits as
assumed in the existing algorithms. It also considers cache consistency, which is not considered in the existing algorithms.
We then present a complexity analysis to show the efficiency of our algorithm. Finally, we give extensive simulation results
to compare the performance of our algorithm with some existing algorithms. The results show that our algorithm outperforms
others in terms of various performance metrics. 相似文献
14.
Load相关会导致流水线停顿,解决这个问题的一种办法是提前执行Load指令,以减少Load延迟,本文提出了一种易于实现的方案,模拟结果表明,这种方案对于定点程序能达到较高的Load地址猜测命中率。 相似文献
15.
Alexander Gendler Avi Mendelson Yitzhak Birk 《International journal of parallel programming》2006,34(2):171-188
Aggressive prefetching mechanisms improve performance of some important applications, but substantially increase bus traffic and “pressure” on cache tag arrays. They may even reduce performance of applications that are not memory bounded. We introduce a “feedback” mechanism, termed Prefetcher Assessment Buffer (PAB), which filters out requests that are unlikely to be useful. With this, applications that cannot benefit from aggressive prefetching will not suffer from their side-effects. The PAB is evaluated with different configurations, e.g., “all L1 accesses trigger prefetches” and “only misses to L1 trigger prefetches”. When compared with the non-selective concurrent use of multiple prefetchers, the PAB’s application to prefetching from main memory to the L2 cache can reduce the number of loads from main memory by up to 25% without losing performance. Application of more sophisticated techniques to prefetches between the L2- and L1-cache can increase IPC by 4% while reducing the traffic between the caches 8-fold. 相似文献
16.
17.
传统数据管理机制无法感知分布式cache布局的非一致访问延迟特性,导致多核处理器大容量cache失效率和命中延迟之间的矛盾日益加剧.此外,单独依靠数据迁移和盲目复制难以解决共享数据块的竞争访问与长延迟命中问题.基于瓦片式多核处理器分布式cache的虚拟共享域划分机制,提出并实现一种域间数据自适应迁移与复制机制,能够协同感知本地目标bank候选牺牲块状态和远程命中块的局部活跃程度,在多个虚拟共享域间对多核竞争访问的共享数据进行动态迁移和复制决策,综合权衡片上长延迟命中和cache容量有效利用率问题,降低平均存储访问延迟.最后,在全系统模拟器中实现虚拟共享域划分和域间共享数据自适应迁移-复制机制,并采用典型测试程序包SPLASH-2评估性能优化情况.实验表明,与传统固定共享域划分机制和同类优化机制相比,自适应迁移与复制机制在不同共享度下均可获得相应性能提升,面积开销可以忽略不计. 相似文献
18.
19.
20.
Runahead执行技术能够显著地提高计算机系统的存储级并行,而无需对处理器结构做出较大改动。但Runahead执行处理器要比传统处理器多执行很多指令,最多是正常执行指令数的三倍以上,大大增加了处理器的功耗。本文通过分析发现Runahead执行在预执行阶段会执行大量的无效指令,据此提出一种减少无效指令的方法来提高Runa-head执行处理器的效率。通过实验分析,在性能影响较小的情况下,该方法最多可以减少50%的Runahead执行处理器在预执行阶段执行的无效指令。 相似文献