首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
校园网已逐步在大中专院校甚至中小学中普及,在教学、科研、办公自动化等方面起着十分关键性的作用。然而,有些院校由于忙于建设校园网,对其设计方案没有在其数据安全、稳定等方面多加考虑,使得在使用中出现一些问题,有的因出现故障而停止网络的运行,甚至将广大教师多年积累的教学资料丢失等。经过对这些院校的调查,发现大多数是因为在确定方案时由于时间紧迫和经费缺乏,在设计中忽略了数据的安全性等方面的考虑。因本校的校园使用了集群系统设计方案,其数据的安全性得以保证,虽然网络中也出现过硬件或软件等问题,但由于使用了该系统关键数据保存完好,没有丢失,安全性较好。所以本文向已建设校园或正准备建设校园的用户,推荐使用集群方案。  相似文献   

2.
何统洲  王卫东  黄浩 《计算机工程》2008,34(16):132-134
通过研究用户对热点对象的访问模式,优化传统的保障热点影片峰值服务的调度算法,设计一种对热点影片具有峰值服务保障能力的高性能视频服务器集群系统,论述系统体系结构和各模块的功能,给出软件实现的基本过程。实验表明,热点影片的并发量阈值设定在80~100之间较为合适。  相似文献   

3.
高性能集群系统架构研究   总被引:1,自引:0,他引:1  
为满足日益增长的计算能力的需求,分布式计算系统得到了广泛的研究和发展。文章叙述了高性能集群系统的原理,给出了高性能服务器集群系统解决方案,并实现了4结点的集群。  相似文献   

4.
《Internet》2002,(10):83-83
利用先进信息技术,加快电子银行的发展,促进我国银行的网络化、信息化、自动化是金融业的发展方向。在我国金融业发展的各个时期,面对不同变化的信息技术的发展,各种适应当时需要或解决局部问题的计算机系统层出不穷,但随着Internet的发展及越来越多的基于Internet的应用系统的使用,这些系统越来越不能适应变化的需求,因而将整个行业孤立的计算机系统有计划、有步骤的整合到统一开放的计算机系统架构中,成为一项艰巨的任务。  相似文献   

5.
社会经济的发展,使空间信息的数量和应用规模日益增大,单机系统难以承担如此巨大的负载,而单主机系统的处理能力受到硬件本身的限制不具备可扩充性,因而难以通过简单的提高单机系统性能的方式来达到目的。因此,采用集群系统是实现高性能GIS的关键因素。  相似文献   

6.
在核聚变研究领域中,高性能集群的应用十分广泛.一方面需要借助集群进行高性能计算模拟托克马克中粒子的运动状态,另一方面需要存储大量十分珍贵的放电数据以作后续的数据分析.随着位于中国科学技术大学的大型反场箍缩磁约束聚变实验装置“Keda Torus eXperiment”(KTX)的建设取得重要进展,KTX实验室对于高性能计算以及实验数据存储具有高度的需求.因此,部署了一个高性能集群并对存储做出了安全设计.根据IOzone的测试,GPFS文件系统的冗余性机制发挥了作用,数据的读写性能很稳定.  相似文献   

7.
高性能计算是解决大规模聚变模拟计算的有效途径.介绍如何基于集群技术构建聚变研究高性能计算系统,分析了系统的基本体系结构,从硬件和软件两个方面详细解析其高性价比的构建技术.最后,运用基准测试程序(LinPACK和NPB) 对这一系统进行测试,显示了该系统高效的并行计算性能.  相似文献   

8.
集群技术与集群系统   总被引:5,自引:0,他引:5  
一、集群发术产生的背景随着计算机应用的不断发展,人们提出各种各样更高的要求,正是这些要求推动着集群(Cluster)技术的产生和发展这些要求主要反映在以下几方面:不断增长的能力和投资保护人们只有在使用计算机的过程中,才能不断认识计算机,才会不断扩大计算机的应用,提出各种更高、更深层次的要求。因此,对计算机系统的要求,将随着应用的发展而越来越高。如果你建立系统时,系统的能力只能满足当前的需要,就会面临应用发展后怎么提高系统能力的问题。老机器淘汰,用新机器取代就会产生原有软硬件投资、应用开发的投资、培训的…  相似文献   

9.
基于MPICH2的高性能计算集群系统研究   总被引:4,自引:0,他引:4  
目前在高等学校和科研机构中对于高性能计算的需求很大,而商业的超级计算机性能虽高但价格昂贵,同时这些单位又都拥有大量普通的PC机和网络设备.为了利用现有硬件资源获取高性能计算能力,文中研究了在PC机和Linux环境下构建基于MPICH2的高性能计算集群系统的方法,搭建了一个拥有16个节点的系统并利用高性能Linpack基准测试方法进行了性能测试.测试结果表明,这种构建高性能计算集群系统的方法切实可行,是低成本获取高性能计算能力的良好途径.  相似文献   

10.
刀片服务器提供了强大的计算能力,但在其上构建多个服务环境时,过程繁琐且管理成本高昂。该文提出基于集中存储的Bladmin系统。该系统根据服务需求启动网络刀片,构建动态虚拟环境(VE),满足了服务对刀片竞争性的需求,实现了VE的快速构建与动态调整。实验结果表明,Bladmin需要的构建时间较少且可管理性较高。  相似文献   

11.
一个可靠的集群簇/网格监控系统   总被引:2,自引:0,他引:2  
魏文国  张凌  董守斌  梁正友 《计算机应用》2004,24(5):143-144,147
以开放源代码的Ganglia为基础设计和实现了一个具有更高可靠性的集群簇/网格监控系统,该系统能够抵御汇集节点和与之相连的线路的失效。并对可靠性的设计、定量分析与实现,性能的理论分析与实际测试作了论述。理论分析和实验都表明,系统的实现在几乎没有牺牲性能的情况下,取得了更高的可靠性。  相似文献   

12.
陈嵩 《福建电脑》2007,(4):59-60,71
本文通过介绍与集群系统的相关概念进一步对系统的调度策略做细化讨论,从集群的服务与进程方面进行不同策略之间比较、分析、总结,并对不同策略使用提出相应优点与不足之处.  相似文献   

13.
介绍了一个典型的基于层次结构的集群服务系统,着重讨论了其中有关应用与数据分离、数据处理分流、数据库连接预启等关键技术的解决方案.  相似文献   

14.
为解决目前集群文件服务系统中负载均衡算法的缺陷,充分考虑文件本身存在的差异,降低大文件分配到负载重的服务器上而造成负载失衡的可能性,避免频繁收集节点的负载信息造成大量额外的网络开销而降低系统吞吐量,提出了改进的负载均衡算法.该算法综合考虑文件负载量、服务器的硬件配置及其实时负载量,引入对上传文件大小和数量的计算,改变服务器负载量定时更新为定量更新.实验结果表明,该算法减少了客户的等待响应时间,提高了系统吞吐量,达到了良好的负载均衡.  相似文献   

15.
高能物理计算是典型的高性能计算的应用,运行时需要大量的CPU资源。如果系统的CPU资源利用率不高,会使得计算效率大大下降。传统的高能物理计算环境资源管理是静态的,很难同时满足突发、批处理、CPU密集型、数据密集型等不同类型的作业对于不同的物理资源的需求。文中基于Openstack构建的虚拟计算集群系统,实现以CPU核为粒度进行调度作业,根据当前的作业和虚拟资源情况,动态调度资源,大大提高了资源的利用率。首先介绍本系统的相关研究工作,包括KVM虚拟机的测试优化、高能物理作业在虚拟机上的性能测试及高能物理公共服务云IHEPCloud,这些工作进一步表明了高能物理实验的数据分析在虚拟机上的性能是完全可以被接受的;然后详细介绍了虚拟计算集群系统的设计与实现;最后给出虚拟机计算集群在高能物理计算中的实际应用情况,证明了虚拟计算集群系统能很好地满足高能物理的计算需求。  相似文献   

16.
主要讨论了Windows2000集群服务器的原理及其优越性,并对其硬件及软件特性进行介绍,最后给出了一个应用实例。  相似文献   

17.
集群作业管理系统对于集群的使用很重要,本文研究如何基于Jini技术构建集群作业管理系统-Jcluster。文章首先介绍Jini技术和该技术的特点,然后阐述了基于Jini技术的Jcluster的设计思想和系统结构,并在自强2000集群系统上实现。经过测试,证实了该系统的具有即插即用的特性和良好的健壮性、同时Jcluster实现了对资源的多级资源池管理。  相似文献   

18.
提出了基于角色的集群结构这一概念,将集群的内部划分为逻辑上的代理子集群、静态存储子集群、动态存储子集群和管理子集群,讨论了这种集群结构的应用优势,并描述了一个集群邮件系统的设计与实现。  相似文献   

19.
高性能计算是实现大规模并行计算的有效途径,本文论述了如何构建一个高性能集群,介绍了集群安装工具--Rocks,分析Rocks安装机制、特点以及Rocks如何管理集群,利用Rocks搭建了一个基于Linux的高性能集群平台,并在该平台上实现了量子化学软件Gaussian的应用,进一步测试了Rocks系统的性能。  相似文献   

20.
虚拟实验室是依赖于计算机网络环境下的实验环境,其设计与应用有助于教学创新.虚拟实验室的实现,最需要解决的是实现大量数据的高速计算,对计算机性能有很高的要求.集群系统有良好的性能可扩展性,随着CPU个数的增加,其性能几乎是线性变化的.MPI并行环境是一个廉价、开放、高效的并行计算系统,在Linux集群中利用MPI并行环境可以很好地实现虚拟实验室所需要的高效数据处理.本文主要介绍MPICH的构建方法,提供软件的配置过程,并进行性能测试,本系统可用于图形计算、数值计算等.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号