首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 218 毫秒
1.
透明计算模式提出在用户端系统上不安装任何操作系统和应用程序,而在执行时通过网络从服务器上动态调用操作系统和应用程序在端系统上执行,从而使得用户可以在同一终端上选择支持该终端CPU指令结构的任何操作系统及应用程序犤1犦。论文对基于该模式的龙星(LX)网络计算机进行了功能测试和性能测试,包括客户机的启动时间、典型应用启动时间、文件移动时间等功能参数和响应时间、服务器CPU占用率、客户端CPU占用率、网络吞吐量等性能参数,并对测试结果进行了分析。  相似文献   

2.
网络磁盘设备(Network Block Device,NBD)是一种稳定、高效的开源网络存储软件,可被用于构建基于Linux平台的网络存储系统.网络存储系统一般较为复杂,包含的模块通常要兼有多种功能,而NBD只能完成普通数据的网络传输,缺少网络存储系统要求的集群化、扩展性、元数据操作等功能.该文描述如何扩展NBD,使之成为适合蓝鲸集群文件系统的网络存储软件.  相似文献   

3.
将任务管理器添加到任务栏中,做到随时查看CPU占用率,岂不更好?打开任务管理器窗口,进入"选项"选择"最小化时隐藏",单击"最小化"就可以在任务栏右侧看到其CPU占用状况了。其中鲜绿色越多表示占用率越多,查看具体的占用率把鼠标移到该图标上即可(见图)。  相似文献   

4.
在使用电脑的过程中经常会遇到CPU占用率过高、硬盘灯无故闪烁和无网络程序访问网络,ADSL的Modem灯却狂闪的情况。使用口位管理。上期我们对CPU、硬盘、网络数据进行管理,在本期将对虚拟内存和系统最佳原点进行分析。  相似文献   

5.
为了提升中央处理单元(CPU)和图形处理单元(GPU)协同检测网络入侵的性能,本文提出了一种具有数据包有效载荷长度约束的CPU/GPU混合模式匹配算法(LHPMA)。在分析CPU/GPU混合模式匹配算法(HPMA)的基础上,设计了长度约束分离算法(LBSA)对传入数据包进行提前分类。利用CPU中的预过滤缓冲区对较长数据包进行快速预过滤,结合全匹配缓冲区将较短数据包直接分配给GPU进行全模式匹配,通过减少有效载荷长度的多样性,提升了CPU/GPU协同检测网络入侵的性能。实验结果表明,LHPMA增强了HPMA的处理性能,充分发挥了GPU并行处理较短数据包的优势,并且LHPMA提高了网络入侵检测的吞吐量。  相似文献   

6.
最近,笔者接到弟弟打来的电话,说是电脑运行速度非常慢,玩网络游戏看电影都很卡。来到弟弟家,打开任务管理器查看,CPU占用率100%,关闭电影和游戏,CPU占用率恢复正常。笔者发现不管打开什么应用程序,CPU占用率马上飙升到100%。看情况像是中了病毒或木马,但仔细查看所有进程及启动选项,并未发现可疑情况,用杀毒软件检查后,也没有异常现象,而且系统进程的CPU占用率都正常。  相似文献   

7.
CPU替代DSP     
10月下旬,英特尔网络构建模块部(Intel Network BuildingBlock Division.NBD)总经理 Denis W.Aull 介绍了用 CPU 替代 DSP的英特尔 HMP(Host Media Processing)技术,并指出通信产业正走向模块化,而以前的纵向市场也将向水平横向市场发展。在板卡级产品上,英特尔认为将来的发展方向是 HMP,用 CPU替代以前的 DSP。英特尔认为,目前 CPU 的处理能力已经能够进行相应的媒体处理。英特尔已于9月份推出了 HMP 1.1版本。经过测试,单 CPU(P4/2GHz)在处理统一消息,即包括语音、数据等多种媒体时,其密度可以达到100路;在处理传真时,密度可以达到120路,如果是单台双 CPU,其处理传真的密度可以达到500路  相似文献   

8.
自多做了网络管理员之后,每天都和流量、负载、带宽、Load Average这些数据打交道。为了方便地得到直观的数据,经常都在头痛。首先头痛的是对流量的监测。为了解到网络的运行情况,我需要一套切实可行的系统,能够检测网络中我需要监测的网络设备所占用的网络带宽。甚至我希望可监测到我的服务器的运行情况——CPU占用率、磁盘剩余空间、内存使用情况、虚拟内存使用情况等等……  相似文献   

9.
硬件类     
《网友世界》2009,(11):90-90
CPU占有率也有被叫做CPU占用率、CPU使用率。是指外部设备工作时占用CPU资源的多少,例如磁盘、显示卡、声音卡等都牵涉到CPU占用率的问题。CPU占用用百分比表示,其值越小越好,这意味着CPU可以在外设工作的同时并行地处理其他问题。  相似文献   

10.
在使用电脑的过程中经常会遇到CPU占用率过高、硬盘灯无故闪烁和无网络程序访问网络,ADSL的Modem灯却狂闪的情况。使用Vista系统提供的"资源监视"功能可能对电脑进行全方位管理。上期我们对CPU、硬盘、网络数据进行管理,在本期将对虚拟内存和系统最佳原点进行分析。  相似文献   

11.
Network Attached Storage (NAS) has been gaining general acceptance, because it can be managed easily and files shared among many clients, which run different operating systems. The advent of Gigabit Ethernet and high speed transport protocols further facilitates the wide adoption of NAS. A distinct feature of NAS is that NAS involves both network I/O and file I/O. This paper analyzes the layered architecture of a typical NAS and the data flow, which travels through the layers. Several benchmarks are employed to explore the overhead involved in the layered NAS architecture and to identify system bottlenecks. The test results indicate that a Gigabit network is the system bottleneck due to the performance disparity between the storage stack and the network stack. The tests also demonstrate that the performance of NAS has lagged far behind that of the local storage subsystem, and the CPU utilization is not as high as imagined. The analysis in this paper gives three implications for the NAS, which adopts a Gigabit network: (1) The most effective method to alleviate the network bottleneck is increasing the physical network bandwidth or improving the utilization of network. For example, a more efficient network file system could boost the NAS performance. (2) It is unnecessary to employ specific hardware to increase the performance of the storage subsystem or the efficiency of the network stack because the hardware cannot contribute to the overall performance improvement. On the contrary, the hardware methods could have side effect on the throughput due to the small file accesses in NAS. (3) Adding more disk drives to an NAS when the aggregate performance reaches the saturation point can only contribute to storage capacity, but not performance. This paper aims to guide NAS designers or administrators to better understand and achieve a cost-effective NAS.  相似文献   

12.
为进一步减轻CPU的负担,有效增加系统性能,描述一种基于FPGA的TCP减负引擎系统的设计与实现。该TOE网卡将部分TCP协议软件处理下移到FPGA中实现,以硬件的方法实现报文分类和TCP流还原等流量处理功能。实验数据表明,使用TOE网卡可以大幅降低主机的CPU占用率。  相似文献   

13.
VxWorks操作系统下基于缓冲队列网络通信应用   总被引:3,自引:0,他引:3  
光电系统控制端与受控端间进行网络信息交换,要实现系统操作层的零死时间,关键是网络信息及时处理。系统信息接收、处理和发送在VxWorks实时操作系统下采用缓冲队列和多任务实现方法。方法实现了信息的流水线处理,降低了通信双方的时间相关性,同时提高CPU利用率和软件效率。  相似文献   

14.
基于OPNET的网络压力仿真   总被引:2,自引:1,他引:1       下载免费PDF全文
针对网络规划和优化过程中压力测试工具使用的不足,提出基于OPNET的网络压力仿真方法,建立包含不同网络负载的多个仿真场景,以对FFP服务的压力仿真为例,收集并对比这些场景中服务器和网络的吞吐量、时延及丢包率,分析各种网络运行数据,得出网络负载情况。结果表明,利用OPNET软件可以有效地进行网络压力仿真。  相似文献   

15.
针对服务器的网络性能,提出并实现一种基于Linux内核的改进方案——ONPK。该方案通过减少系统调用和数据复制、改写网卡驱动来实现网络性能的优化。实验结果证明,该方案能明显改善服务器的网络性能,在保持发送速度有所提高的情况下,CPU的使用率平均可降低11%。  相似文献   

16.
随着各类采集、监测应用的不断深化,有线电视网络的终端数量越来越多,实时性要求越来越高,无线网络已不堪重负。有线电视网络覆盖面较广,作为远程通信的主通道,其前景极为广阔。文章在主站系统上,采用Linux+EPoll多路复用技术,优化网络处理模块,明显地降低了CPU占用时间,提高了设备利用率。  相似文献   

17.
介绍一种基于带外虚拟化技术的网络存储系统,简称BW-VSDS,它具有以下特点:(1)采用两级带外虚拟化数据管理模型以充分发挥单个存储节点的I/O能力并释放存储网络的承载能力;(2)采用分布式数据存储管理协议以协同多个存储节点有效实现高级数据存储语义;(3)支持多种数据传输协议以适用于不同的应用环境.目前该系统已应用于视频监控、信息处理和企业办公等多个领域.  相似文献   

18.
基于IP SAN的网络存储技术主要使用iSCSI协议。iSCSI协议基于廉价的高速以太网技术。以太网最大传输单位MTU对于高速网络的性能有很大影响。为了提高性能,提出了9000B的Jumbo帧。该文旨在研究以太网帧MTU大小与iSCSI性能的关系。分别在使用普通MTU和Jumbo帧MTU两种情况下对iSCSI的性能进行了测试,对测试结果进行比较和分析,得出的结论是:增加以太网的MTU是改善iSCSI的性能的有效手段,它能降低CPU占用率,并提升读写带宽,在大块数据传输时这种改善尤为显著。  相似文献   

19.
随着网络应用的增长,网络数据流量在以翻番的速度增长,网络数据的采集和过滤作为实时性要求高的入侵检测系统的支撑系统,其数据处理能力直接影响入侵检测系统的效率。高处理能力和高编程性的网络处理器的出现,克服了基于传统CPU架构的数据采集和过滤系统的性能局限,在高速网络中实现了性能和灵活性的结合,达到了高速数据处理和检测规则的动态更新。在此架构基础上,通过多种方式能够提高数据处理效率,文章提出了在网络处理器实现的NIDS中集成优化规则集的方式实现高效数据过滤。  相似文献   

20.
Multiclass queuing network models of multiprogramming computer systems are frequently used to predict the performance of computing systems as a function of user workload and hardware configuration. This paper examines three different methods for incorporating operating system overhead in multiclass queuing network models. The goal of the resultant model is to provide an accurate account of the processing performance and the system CPU overhead of each of the several different types of jobs (batch, timesharing, transaction processing, etc.) that together make up the multiprogramming workload. The first method introduces an operating sysbtm workload consisting of a fixed number of jobs to represent system CPU overhead processing. The second method extends the jobs' CPU service requests to include explicitly the CPU overhead necessary for system processing. The third method employs a communicating set of user and system job classes so that the CPU overhead can be modeled by switching jobs from user to system class whenever they require system CPU service. The capabilities and accuracy of the three methods are assessed and compared against performance and overhead data measured on a Univac 1110 computer.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号