首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 171 毫秒
1.
网络文件系统(Network Filc System)由于其稳定、易用而得到了广泛的应用。为了提高NFS服务器端的I/O性能,提出一种在给定客户端访问序列的NFS服务器端伪随机序列预取(NPRP: NFS Pseudo Random Prefetch)机制。实验测试结果表明,NPRP机制对特定应用的NFS服务器的I/O带宽提升超过2倍。  相似文献   

2.
大数据环境下,磁盘数据库存在高并发I/O瓶颈,磁盘数据内存化是解决传统关系型磁盘数据库I/O瓶颈的有效方案。已有的内存化技术存在数据丢失、配置复杂等问题。基于内存数据库Redis,以典型开源关系型数据库MySQL为例,提出一种解决关系型数据库磁盘I/O瓶颈的轻量级内存化解决方案,实现MySQL的内存化存储。同时构建行式键值(RB-KVM)和分段列式键值交叉(PCB-KVCM)存储转换模型,实现异构数据库存储模型的转换和自动化数据迁移。通过分析对比,RB-KVM数据存取效率更高,而PCB-KVCM具有更高的内存利用率且在时间开销上优于RB-KVM。通过实际运行分析,该技术不仅提高了数据库在高并发场景下的吞吐能力,实现了海量热点数据的高效存取,在实际应用中也更加快捷,实施成本更低。  相似文献   

3.
NFS是集群系统中提供全局文件共享的主要手段,研究影响NFS带宽的因素对于优化集群系统的性能十分重要。该文针对集群系统中I/O特征建立了NFS的带宽模型,设计和实现了基于MPI开发的并行文件系统测试工具Mpbonnie,在集群系统中测试和分析了多种因素对NFS性能的影响。结果表明,除已知的存储和网络因素外,与NFS带宽关系密切的因素还包括客户端数量、服务器文件系统类型、读写方式和服务器处理能力等。  相似文献   

4.
随着计算机技术的深入发展与计算机网络的不断普及,异型机与异型网络的互联、共享资源已成为人们需要迫切解决的问题了。本文将通过对NFS概念和实现方法的讨论,来说明NetWare与UNIX之间如何通过NFS实现互联。 一、网络文件系统概述 为了实现网络上的文件服务,由SUN公司提出了网络文件系统(Network File System,NFS)的概念。它提供了异种机、异种操作系统之间的透明在线(On—Line)共享文件的手段。NFS允许使用本地操作系统的I/O调用方式访问远地文件,并且与文件存放的物理位置及使用何种操作系统无关。 从用户的角度看NFS,它是不可见的,用户可以运行一独占的程序并对独享文件进行I/O操作,而这时用户并不清  相似文献   

5.
张佳辰  刘晓光  王刚 《计算机应用》2018,38(5):1404-1409
近年来,各行业数据量增速提升,对承担数据存储任务的数据库系统进行性能优化的需求也越来越强烈。利用关系型数据库I/O密集型、服务器CPU相对空闲的特点,在数据库中引入数据压缩技术,节省了数据存储空间和I/O传输带宽。但当今主流数据库系统的压缩技术都是针对传统的存储和运行环境设计,并未考虑固态硬盘(SSD)等新型存储设备和云数据库等虚拟化运行环境对系统性能的影响,因此,以数据库压缩系统在不同存储环境的缓存优化作为切入点,对系统整体性能的影响进行分析,给出了数据库压缩系统性能的分析模型,并以MySQL为例进行具体分析,给出了对应的缓存优化措施。在内核虚拟机(KVM)和MySQL数据库测试平台上的性能评估结果表明,所提出的优化方法使得系统性能最高有超过40%的提升,在某些配置下获得了优于物理机的性能。  相似文献   

6.
随着工作站机群系统的迅猛发展,I/O瓶颈问题也日益严重。性能优良的机群文件系统对机群系统而言至关重要。吞吐率是指在单位时间内所处理的作业数,它是评价系统性能的一个重要指标。该文首先简要介绍了NFS和PVFS这两个比较有代表性的文件系统,然后比较了NFS和PVFS的吞吐率,给出了详细的测试数据。最后对NFS、PVFS吞吐率差异的产生原因和影响吞吐率的关键因素进行了较详细的分析,并给出了自己的结论。  相似文献   

7.
李洋 《电脑时空》2008,(11):132-132
NFS原理 网络文件系统比较复杂,包括很多组件,通过特殊的协议进行交互。不同的组件在操作系统当中都使用不同的配置文件以及状态文件。NFS分为服务器和客户机两部分,每个主机都有自己的内核级服务:外部数据表示、远程过程调用、I/O监控程序和锁监控程序。每个主机还有自己的用户级服务。内核级服务和用户级服务都依赖于主机的功能:NFS客户机或是NFS服务器。当然,还要依赖于每个主机使用的不同功能的配置文件。如果一台主机既是服务器又是客户机,那么它需要运行两部分服务。  相似文献   

8.
影响文件系统的因素有很多,该文从不同访问模式、多通道硬件配置、文件系统老化等方面设计试验,利用多种性能评测工具,对EXT3、XFS两种本地文件系统进行试验,分析这些因素对本地文件系统性能的影响以及作为NFS服务器端的文件系统时,对NFS性能的影响。在试验过程中,编写了测试文件系统元数据性能的Thput benchmark以及使文件系统能够快速老化的工具FastAging。通过分析试验结果总结出针对应用中不同的访问模式配置最优的文件系统的解决方案,使用户能够获得最大的I/O性能。  相似文献   

9.
传统的网络文件系统难以满足高性能计算系统的I/O 需求,并行网络文件系统——PNFS可以有效地解决传统网络文件系统在可扩展性、可用性和性能上存在的问题。首先对PNFS的体系结构进行了设计,实现了元数据服务器与存储服务器的分离,消除了由于集中服务器结构引发的I/O瓶颈问题。然后,对PNFS的原型系统进行了性能测试,并与相同环境下NFS的测试结果进行比较与分析,结果表明PNFS能够为客户端提供并行访问文件数据的能力,有着较高的I/O读写带宽和较低的访问延迟,同时实现了客户端I/O带宽与存储服务器规模之间的线性可扩展关系,能较好地满足高性能计算中的I/O需求。  相似文献   

10.
张媛  卢泽新  刘亚萍 《计算机工程》2007,33(10):274-276
传统的网络文件系统难以满足高性能计算系统的I/O 需求,基于对象存储的全局并行文件系统Lustre可以有效地解决传统文件系统在可扩展性、可用性和性能上存在的问题。该文介绍了Lustre文件系统的结构及其优势,对NFS over Lustre 进行了性能测试,并将测试结果与Lustre文件系统、NFS网络文件系统及本地磁盘Ext3文件系统的性能进行了比较分析,给出了性能差异的原因,提出了一种可行的解决方法。  相似文献   

11.
将数据挖掘集成到关系数据库中,可以使数据挖掘技术直接利用关系数据库中的数据生成挖掘模型.以决策树技术为研究实例,通过把决策树算法重新设计为基于SQL的汇总和查询分析操作,提出一种新的基于SQL的决策树算法.同时,通过理论分析表明,在L/O性能方面,文中算法比SPRINT算法要好.  相似文献   

12.
基于共享虚拟存储(shared virtual memory,SVM)PC机群的大规模并行地理图像处理原型系统ParGIP(parallel geographical image processing)采用Client-Server计算模型,通过软件分布式共享存储(software distributed shared memory,software DSM)中间层将PC机群组织成一个逻辑上共享的内存的并行计算平台,地理图像处理可以充分利用ParGIP提供的大共享内存和并行处理能力来提高性能,缩短处理周期,从而解决传统单机串行方式下地理图像处理中内存匮乏和计算能力不足的问题,ParGIP还进一步将机群中各个结点上分布的磁盘组织起来,提供地理影像库所需的海量存储空间和并行I/O能力,测试结果表明,ParGIP的8机并行I/O带宽达到102.6MB/s,典型的图像处理算法获得了接近线性的加速比。  相似文献   

13.
赵利伟  陈咸彰  诸葛晴凤 《计算机科学》2016,43(6):184-187, 207
连接操作是关系数据库系统中最基本、最昂贵的操作,对数据库性能有巨大的影响。由于连接表存放在文件系统中,因此文件系统的性能对连接操作的性能有决定性的影响。不同文件系统的连接操作性能测试对数据库研究有重要意义,但目前相关测试较少。首先对比分析了新型内存文件系统SIMFS(Sustainable In-Memory File System)的数据读写路径与磁盘文件系统EXT4(Fourth Extended File System)I/O路径等方面的差异;然后设计实验测试了不同文件系统对连接操作的影响,其中对SIMFS和EXT4分别设置了不同的数据读写块大小和I/O块大小等测试指标。实验表明,连接操作在SIMFS和EXT4上的性能优化、块大小影响、性能提升瓶颈、硬件约束等方面均存在明显差异。在实验结果比较分析的基础上,给出了针对新型内存文件系统连接操作的优化建议。  相似文献   

14.
The International Nucleotide Sequence Database Collaboration (INSDC) exchanges sequence data on a daily basis across its three member organizations in the USA, UK and Japan. This paper studies how this sequence database in MySQL can best take advantage of the increased transfer bandwidth of a Grid-optimized data communication protocol. Within the context of the UK Government Project Grid-oriented Storage (GOS) and the EC Project EuroAsiaGrid, GOS File System (GOS-FS) has been developed in our lab, which melds distributed file system technology with high performance data transfer techniques to meet the needs of WAN/Grid-based virtual organizations. A real-world test shows that the INSDC sequence database backing up operation, mysqldump, over the GOS-FS protocol beats those over the classic NFS protocol by 6 times over the link between Cambridge and Tokyo. Best of all, the multi-streamed GOS-FS protocol remains fully compatible with existing IP infrastructures.  相似文献   

15.
Database machines are special purpose backend architectures that are designed to support efficiently database management system operations. An important problem in the development of database machines has been that of increasing their performance. Earlier research on the performance evaluation of database machines has indicated that I/O operations constitute a principle performance bottleneck. This is increasingly the case with the advances in multiprocessing and a growth in the volume of data handled by a database machine. One possible strategy to improve the performance of such a system which handles huge volumes of data is to store the data in a compressed form. This can be achieved by introducing VLSI chips for data compression so that data can be compressed and decompressed “on-the-fly”. A set of hardware algorithms for data compression based on the Huffman coding scheme proposed in an earlier work is described. The main focus of this paper is the investigation conducted by the authors to study the effect of incorporating such hardware in a special purpose backend relational database machine. Detailed analytical models of a relational database machine and the analytical results that quantify the performance improvement due to compression hardware are presented.  相似文献   

16.
Cloud computing is currently being explored by the scientific community to assess its suitability for High Performance Computing (HPC) environments. In this novel paradigm, compute and storage resources, as well as applications, can be dynamically provisioned on a pay-per-use basis. This paper presents a thorough evaluation of the I/O storage subsystem using the Amazon EC2 Cluster Compute platform and the recent High I/O instance type, to determine its suitability for I/O-intensive applications. The evaluation has been carried out at different layers using representative benchmarks in order to evaluate the low-level cloud storage devices available in Amazon EC2, ephemeral disks and Elastic Block Store (EBS) volumes, both on local and distributed file systems. In addition, several I/O interfaces (POSIX, MPI-IO and HDF5) commonly used by scientific workloads have also been assessed. Furthermore, the scalability of a representative parallel I/O code has also been analyzed at the application level, taking into account both performance and cost metrics. The analysis of the experimental results has shown that available cloud storage devices can have different performance characteristics and usage constraints. Our comprehensive evaluation can help scientists to increase significantly (up to several times) the performance of I/O-intensive applications in Amazon EC2 cloud. An example of optimal configuration that can maximize I/O performance in this cloud is the use of a RAID 0 of 2 ephemeral disks, TCP with 9,000 bytes MTU, NFS async and MPI-IO on the High I/O instance type, which provides ephemeral disks backed by Solid State Drive (SSD) technology.  相似文献   

17.
VI-attached database storage   总被引:1,自引:0,他引:1  
This work presents a Vl-attached database storage architecture to improve database transaction rates. More specifically, we examine how Vl-based interconnects can be used to improve I/O path performance between a database server and a storage subsystem. To facilitate the interaction between client applications and a Vl-aware storage system, we design and implement a software layer called DSA, that is layered between applications and VI. DSA takes advantage of specific VI features and deals with many of its shortcomings. We provide and evaluate one kernel-level and two user-level implementations of DSA. These implementations trade transparency and generality for performance at different degrees and, unlike research prototypes, are designed to be suitable for real-world deployment. We have also investigated many design trade offs in the storage cluster. We present detailed measurements using a commercial database management system with both microbenchmarks and industrial database workloads on a mid-size, 4 CPU, and a large, 32 CPU, database server. We also compare the effectiveness of Vl-attached storage with an iSCSI configuration, and conclude that storage protocols implemented using DSA over VI have significant performance advantages. More generally, our results show that Vl-based interconnects and user-level communication can improve all aspects of the I/O path between the database system and the storage back-end. We also find that to make effective use of VI in I/O intensive environments, we need to provide substantial additional functionality than what is currently provided by VI. Finally, new storage APIs that help minimize kernel involvement in the I/O path are needed to fully exploit the benefits of Vl-based communication.  相似文献   

18.
基于关系型数据库的CA系统   总被引:3,自引:0,他引:3  
当PKI技术应用于企业或政府信息化时,它必须与其它业务系统集成。采用与业务系统相一致的关系型数据库,有利于不同系统的集成。当CA系统采用关系型数据库和浏览器/Web应用服务器/数据库服务器3层结构时,证书相关信息的查询可以通过HTTP协议简单实现,LDAP和OCSP引擎可以使系统与标准协议保持兼容。另外,在这种结构下,通过引入基于关系型数据库的角色、权限管理机制,可以大大简化CA/RA的管理,使系统的运行和维护更加容易。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号