共查询到20条相似文献,搜索用时 203 毫秒
1.
基于Linux的SMP机群环境中并行I/O模型研究 总被引:1,自引:0,他引:1
提出了一个基于数据通路的波浪推进式并行I/O模型框架,并在基于Linux的SMP机群系统中,根据波浪推进式并行I/O模型框架对各个数据通路进行建模,具体分析了这个波浪推进式并行I/O模型,从思路上解决了刻画并行I/O性能的并行I/O模型问题。 相似文献
2.
云计算对网络的共性需求体现在无感知服务、资源动态适配、可靠性保障、虚拟化和安全性等方面,然而,虚拟化作为云计算数据中心的关键技术,就是最大化有限的物理资源提供有效的传输服务.为了解决高速网络I/O虚拟化在面临I/O密集的应用时导致的I/O性能降低问题,论文提出了网络I/O性能的优化方法:一种分层处理I/O调度的网络虚拟化模型,对云平台下的VM应用进行递进式的优化I/O策略.实验结果证明提出的模型能够提高网络I/O的性能并提高硬件资源的充分利用. 相似文献
3.
针对流媒体数据 ,结合网络磁盘阵列的工作特点 ,提出了一种并行流水生产者消费者模型 .该模型采用并行技术 ,通过截断 SCSI命令的 I/ O周期来流水重叠系统中多个数据请求的磁盘 I/ O操作和 CPU计算 ,最大限度地提高了系统的并行性 .测试结果表明 ,采用该模型的网络磁盘阵列系统性能得到了很大的提高 相似文献
4.
5.
基于嵌入式Linux的以太网接口设计与实现 总被引:3,自引:0,他引:3
介绍了一种基于嵌入式Linux 2.6.28内核的网络接口设计方案,采用工业级以太网控制器CS8900A成功实现了与嵌入式微处理器S3C2410的网络互连。首先整体分析了系统的架构和Linux网络驱动程序的体系结构,接着设计了硬件接口电路并描述了网卡驱动的具体移植过程,最后以一个应用程序测试了网卡驱动程序移植的成功性。该设计兼顾了CS8900A的MEM和I/O两种访问方式,为嵌入式系统接入以太网提供了一种有效的解决方案。 相似文献
6.
本文提出了一种网络计算环境下的I/O加速方法:iSCSI透明可靠多播(iTRM)。通过在iSCSI网络计算系统中设计双路径:共享数据的多播传送路径和iSCSI协议数据包传递路径,来加速网络计算数据加载性能。并且在iSCSI启动器端对多播数据进行丢包检测和请求重传,由iSCSI会话重传丢失的数据包来保证I/O数据的可靠性。扩展了iSCSI协议以支持多播会话通告,设计了一种基于数据感知实现I/O路由选择的透明多播监控代理。测试结果表明,基于iTRM的iSCSI网络计算系统显著提升了多个客户主机的并发I/O性能,并对客户主机数量的增加具有良好的系统扩容性。 相似文献
7.
8.
9.
10.
11.
地理栅格数据的并行访问方法研究 总被引:1,自引:0,他引:1
在海量地理栅格数据处理中,数据I/O性能是影响处理算法程序整体性能的关键。目前针对地理栅格数据
I/O优化问题的研究成果还很有限,通过对并行程序中的数据I/O模式进行深入分析,结合栅格数据逻辑模型和物理
模型的特点,提出了面向地理栅格数据的并行I/O框架;基于消息传递模型,实现了4种并行访问方法。实验证明,并
行访问方法优于传统的串行访问方法和分时多进程访问方法。该研究成果可以提高并行栅格处理程序的I/()访问效
率,进而提高其整体并行性能。 相似文献
12.
在OpenStack云平台中,一台物理服务器上可能同时运行着十几台虚拟机,这对于物理服务器的I/O性能要求是非常高的.因此,I/O虚拟化技术的效率对于整个OpenStack云平台的网络性能提升都有着至关重要的作用.为了提高系统整体的网络性能,在OpenStack云平台中引入SR-IOV技术成为了一种可选的方式.本文通过对比实验测试了SR-IOV技术对于OpenStack云平台上网络I/O性能的影响.最终对实验结果进行分析可知,在引入SR-IOV技术后,OpenStack云平台上的计算节点I/O虚拟化性能提升了大概50%. 相似文献
13.
网络存储技术为存储系统提供了更高的扩展性、可用性以及更好的灵活性,并且已经广泛应用到各种领域.但小I/O严重影响网络存储系统的性能,现有的一些方法缺少理论模型.通过排队理论建立聚集I/O传输的数学模型,然后在典型的IP网络存储(NAS)系统中,分别在NAS存储设备和客户两端设计了聚集模块,称之为CFS(chunk file system),实现双向聚集I/O.最后对CFS进行了实验,结果和理论分析基本吻合,说明聚集I/O传输能够改善网络存储整体性能. 相似文献
14.
针对Xen虚拟机系统执行网络I/O密集型负载时容易耗尽Domain0的CPU资源而过载和执行计算密集型负载时在客户域平均性能与数目之间存在线性规划的问题,提出了两个负载类型相关的性能模型。首先,通过分析Xen虚拟机系统处理网络I/O操作的CPU资源消耗规律,建立了CPU核共享和CPU核隔离两种情况下的客户域网络I/O操作请求次数计算模型;然后,通过分析多个相同客户域并行执行计算密集型负载的平均性能与一个相同客户域执行相同负载的性能表现之间的关系,建立了并行执行计算密集型负载的客户域平均性能分析模型。实验结果表明,两个性能模型能够有效地限制客户域提交的网络I/O操作请求次数以防止Xen虚拟机系统过载,并求解给定资源配置情况下执行计算密集型负载的Xen虚拟机系统客户域伸缩性数目。 相似文献
15.
Cremonesi P. Gennaro C. 《Parallel and Distributed Systems, IEEE Transactions on》2002,13(12):1320-1332
This paper introduces queuing network models for the performance analysis of SPMD applications executed on general-purpose parallel architectures such as MIMD and clusters of workstations. The models are based on the pattern of computation, communication, and I/O operations of typical parallel applications. Analysis of the models leads to the definition of speedup surfaces which capture the relative influence of processors and I/O parallelism and show the effects of different hardware and software components on the performance. Since the parameters of the models correspond to measurable program and hardware characteristics, the models can be used to anticipate the performance behavior of a parallel application as a function of the target architecture (i.e., number of processors, number of disks, I/O topology, etc). 相似文献
16.
《Journal of Parallel and Distributed Computing》2005,65(10):1190-1203
Network contention hotspots can limit network throughput for parallel disk I/O, even when the interconnection network appears to be sufficiently provisioned. We studied I/O hotspots in mesh networks as a function of the spatial layout of an application's compute nodes relative to the I/O nodes.Our analytical modeling and dynamic simulations show that when I/O nodes are configured on one side of a two-dimensional mesh, realizable I/O throughput is at best bounded by four times the network bandwidth per link. Maximal performance depends on the spatial layout of jobs, and cannot be further improved by adding I/O nodes.Applying these results, we devised a new parallel layout allocation strategy (PLAS) which minimizes I/O hotspots, and approaches the theoretical best case for parallel I/O throughput. Our I/O performance analysis and processor allocation strategy are applicable to a wide range of contemporary and emerging high-performance computing systems. 相似文献
17.
18.
Introduces queuing network models for the performance analysis of SPMD (single-program, multiple-data) applications executed on general-purpose parallel architectures such as MIMD (multiple-input, multiple data) and clusters of workstations. The models are based on the pattern of computation, communication and I/O operations of typical parallel applications. Analysis of the models leads to the definition of speedup surfaces which capture the relative influence of processors and I/O parallelism and show the effects of different hardware and software components on the performance. Since the parameters of the models correspond to measurable program and hardware characteristics, the models can be used to anticipate the performance behavior of a parallel application as a function of the target architecture (i.e. the number of processors, number of disks, I/O topology, etc.) 相似文献
19.
20.
The performance of model-based controller design relies heavily on the quality and suitability of the utilized process model. This contribution proposes a fuzzy network based nonlinear controller design methodology. Fuzzy networks are a model approach combining high approximation quality with high interpretability. The input/output (I/O) models commonly used for identification are transformed to fuzzy state-space models. Transferring and adjusting methods from linear state-space theory a control concept consisting of a fuzzy state controller and an adaptive set-point filter for nonlinear dynamic processes is deduced. The capability of the method is demonstrated for a hydraulic drive 相似文献