共查询到20条相似文献,搜索用时 140 毫秒
2.
本文介绍一些实用技巧和技术,如果我们能正确地应用这些技术,就可以大大提高对数据的访问速度,解决网络通信重定向,编写出高效代理服务器系统。 相似文献
3.
本文介绍一些实用技巧和技术.如果我们能正确地应用这些技术.就可以大大提高数据的访问速度,解决网络通信重定向.为编写高效代理服务器的实现具有重要意义。 相似文献
4.
在许多具有一定规模的局域网或校园网中,都会设有代理服务器(Proxy Server)。通常,代理服务器是用于内联网的用户访问外部网的管道,它不仅可以提供企业级的文件缓存、复制和地址过滤等服务,充分利用局域网出口的有限带宽,加快内联网用户的访问速度;同时代理服务器也起到防火墙的作用,通过多穴主机的方式,隔离内联网与外联网,并且能提供监控网络和记录传输信息的功能。 相似文献
5.
IP紧缺是高速发展的网络面临的现实问题,我们该如何解决这一问题?将只有内部IP的计算机通过一台具有标准IP作为代理服务器的计算机连接到Internet上是解决此问题的一种绝妙手段代理服务器是数据的中转站,它可以将经过代理服务器的数据记录下来,为后继的数据分析和计费提供服务与帮助。另外,借助代理服务器软件(比如Squid)可以建立访问站点的缓存,从而让再次访问的用户能够直接从缓存中调用数据,加快访问速度,减少重复的网络数据流量。 相似文献
6.
在2009年第22期《跨越鸿沟,突破新型迅雷封锁》一文中,作者介绍了通过给迅雷设置代理突破封锁的方法。但目前从网上搜索到的代理服务器普遍不稳定,而且有速度限制。其实只要安装搜狗浏览器并开启全网加速功能,然后在迅雷中设置代理服务器为搜狗全网加速功能使用的代理服务器,就可以稳定、无速度限制地享用迅雷的高速下载了。 相似文献
7.
随着中国互联网业务的不断发展,网络代理的使用越来越普遍,但目前市场上主流的国外代理服务器产品并不能很好的适应国内各类企业的需求。本文结合实际需求分析代理服务器系统的基本原理,以达到改造或者设计实用网络代理程序的目的。 相似文献
8.
9.
10.
随着INTERNET/INTRANET在中国的迅速普及,办公室上网,中小企业上网用户日益增多。现在上网普遍采用的是共享帐号的方式,使用的方法是INTERNET共享器(如小型路由器)或软件共享上网。软件方式一般指在特定WWW服务器上加装代理服务器(PROXY SERVER),使客户浏览器程序与特定的代理服务器相连,然后由该代理服务器实现与INTERNET的实际连接。采用这种方式的优点很多:它使用起来配置方便,可以限制一些不良站点的访问,可以限制、管理LAN内 相似文献
11.
12.
在嵌入式处理器中,Cache的功耗所占的比重越来越大。为降低嵌入式系统中混合Cache的功耗,引入一种基于程序段的重构算法——PPBRA,并提出一种新的基于分类访问的可重构混合Cache结构,该方案能够根据不同程序段对Cache容量的需求,动态地分配混合Cache的指令路数和数据路数,还能够对混合Cache进行分类访问,过滤对不必要路的访问,从而实现降低混合Cache的功耗的目的。Mibench仿真结果表明,该方案在有效降低Cache功耗的同时,还能提高Cache的综合性能。 相似文献
13.
高速缓存Cache具有数据访问时间不确定和多进程资源共享两大特征,AES加密快速实现中使用了大量查表操作进行Cache访问,查表索引值会影响Cache命中与否,而查表的索引值和密钥存在密切关系。针对128位AES加密算法,利用间谍进程采集AES进程加密时Cache访问特征信息,通过对AES前两轮加密过程中查表索引值、明文和初始密钥之间关系进行分析,第一轮分析可获取64位密钥,第二轮分析可获取剩余密钥,最终成功获取AES全部密钥。 相似文献
14.
15.
16.
代理Web Cache性能分析 总被引:3,自引:0,他引:3
采用WebCache技术提高当前Internet性能已成为一个主流的研究领域,其功能原理就象处理器和文件系统中的多级高速缓存一样。大规模Web高速缓存系统已成为许多国家Internet基础设施的重要组成部分。该文从三个不同访问规模的代理WebCache的跟踪日志出发,分析了WebCache的用户访问模式、Cache命中率、Cache服务器处理延迟等统计特征,提出基于分布式共享RAM和外存储结合的两级协同WebCache集群技术,可以提供可扩展的高性能并行Web高速缓存服务。 相似文献
17.
18.
19.
随着处理器和存储器速度差距的不断拉大,访存指令尤其是频繁cache miss的指令成为影响性能的重要瓶颈。编译器由于无法得知访存指令动态执行的拍数,一般假定这些指令的延迟为cache命中或者cache miss的延迟,所以并不准确。我们引入cache profiling技术来收集访存指令运行时的cache miss或者命中的信息,利用这些信息来计算访存的延迟。乱序机器上硬件的指令调度对于发射窗口内的指令能进行很好的动态调度,编译器则对更长的范围内的指令调度更有优势。在reorder buffer中cache miss一旦发生,容易引起reorder buffer满,导致流水线阻塞。调度容易cache miss的指令。使其并行执行,从而隐藏cache miss的长延迟,就可以提高程序性能。因此,我们针对load指令,一方面修改频繁miss的指令的延迟,一方面修改调度策略,提高存储级并行度。实验证明,我们的调度对于bzip2有高达4.8%的提升,art有4%的提升,整体平均提高1.5%。 相似文献
20.
XML数据库的安全查询处理 总被引:1,自引:0,他引:1
当今XML数据库查询系统必须处理快速增长的数据量和大量的用户,如果使用细粒度级别的访问控制保护敏感XML数据,则查询效率会较低,因为当用户视图需要计算得出时,很难对XML文档的每个节点实施访问控制。提出一个安全的XML查询方案,它使用缓存存储查询结果和安全信息。用户查询重写为安全的系统查询,依据缓存是否命中,决定在缓存还是源XML文档上执行得到查询结果;提出一个新的缓存替换策略LSL,它基于安全级别对缓存更新。实验结果表明,该方案能显著地改进查询系统性能。 相似文献