首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 122 毫秒
1.
日志结构文件系统技术的研究   总被引:1,自引:0,他引:1  
介绍了一种新的磁盘管理技术-日志结构文件系统,把对文件的修改汇成日志条目顺序地写入磁盘,既加速了写文件的速度,又加速了崩溃恢复的速度,把整个磁盘作为日志,磁盘上包含有效的读取日志结构文件所需的索引信息,为了保持快速写所需的大的磁盘空闲快,将磁盘分成段,用一个清理工线程收集压缩分散到各个段中的有效信息,以一个日志结构文件系统的原型,即Sprite LFS为例,对日志文件系统设计和实现的各个阶段进行了分析,并与Unix的文件系统,即快速文件系统(FFS)进行了比较。  相似文献   

2.
刘德军 《数字社区&智能家居》2014,(20):4728-4729,4745
日志文件是记录系统操作事件的记录文件,操作系统有操作系统日志文件,数据库系统有数据库系统日志文件。系统日志文件是包含关于系统消息的文件,包括内核、服务、在系统上运行的应用程序等。不同的日志文件记载不同的信息。该文针对医院信息系统应用程序中产生的日志文件长时间积累导致磁盘空间满这一突出问题,提出特定的日志文件清除的解决方法。  相似文献   

3.
本文可以学到1管理员是如何解读FTP服务器的安全日志2FTP服务器的攻防实战3Serv-U下的FTP传输加密实战本文重要知识点1SSL加密信息2FTP本地安全隐患本文结构分析两个实际案例:一个是内网,一个是外网,两种情况下FTP服务器被侵入的原理和防御方法。  相似文献   

4.
随着MAC OS的广泛使用,MAC OS的取证技术得到了取证专家的高度重视。删除文件恢复技术一直是取证技术中的一项重要内容,HFS+文件系统作为目前MAC OS的主流文件系统,其删除文件的恢复技术更是数据恢复专家研究的重点。目前,HFS+删除文件的恢复主要是日志型数据的恢复,即基于日志中存储的B树中的叶子节点信息进行恢复。该方法具有快速、精确的特点。但是,该方法忽略了日志中存储的索引节点信息,因此恢复效果不是很理想。文章提出了一种快速、精确的HFS+删除文件的恢复技术,该技术不仅可以快速地恢复出被删除的文件,并且和现有的从日志中进行恢复的算法相比还可以恢复出更多的删除文件。  相似文献   

5.
孙敏 《网友世界》2009,(17):34-34
在平时使用电脑的过程中,查找某个特定的文件是经常遇到的事情.然而,现实中往往存在这样的情况,大概只是隐隐约约记得某个文档的大体或者局部信息,具体的文件名记不清了.这样查找起来就非常麻烦。借助“文件内容搜索工具”可以帮助我们快速地找到所需文件。  相似文献   

6.
针对GPS设备的轨迹恢复问题,由于传统的文件恢复方法依赖于系统元信息,一旦元信息受损、不可读或重新分配等原因就会恢复失败。借助文件雕复的思想提出一种基于NMEA 0183协议的GPS设备轨迹恢复方法,可以在系统元信息不可用的前提下恢复出GPS设备上的轨迹日志数据。首先利用轨迹数据的特征从镜像中定位到所有属于NMEA日志的数据块。再根据日志数据在时间和空间上的局部连续性以及日志的结构特征设计一个判别器,对所有已定位的数据块使用重组算法恢复出日志。最后再根据相应的格式对恢复出的日志进行解析,重构出被删除的行车轨迹。实验结果表明,在数据镜像完整、系统元信息不可用、日志文件高度分片、日志数据部分覆写的情况下恢复率能够保持在99%以上,并且能够兼容不同簇大小的文件系统。  相似文献   

7.
基于EXT4文件系统的数据恢复方法研究   总被引:1,自引:0,他引:1  
研究EXT4文件系统中删除文件的恢复方法对计算机取证工作有重要意义。文章研究了在EXT4文件系统中通过日志中的备份信息进行数据恢复的方法。采用了实例式研究方法,分析了EXT4文件系统中extent树的构成,分析了文件被删除之后extent树的变化,研究了通过inode编号定位inode结点所在数据块的方法,研究了通过日志恢复被删除文件的方法。文章得出的结论是在日志文件和删除数据未被完全覆盖的情况下,可以通过日志有效恢复EXT4文件系统中被删除的文件。文章的研究成果可以应用在公安机关的电子数据鉴定工作中,也可用于公安院校的《电子物证检验》课程教学。  相似文献   

8.
基于Ser-U的高校网络中心FTP服务器的配置和实现   总被引:2,自引:0,他引:2  
随着高校信息资源向电子化发展,在校园网和局域网络中架设FTP服务器,可以更方便教师和学生的文件上传和下载,可以更好解决教学资源共享和备份,本文阐述利用Serv-U软件建设高校FTP服务器。  相似文献   

9.
在嵌入式系统开发中,用户都希望能有一个日志文件能监控、记录系统的运行状况,在出现问题时能在日志文件中记录下相应的信息。该文提供了一种可行的日志文件的开发方法。在文章中,笔者提供了日志文件的总体开发思想、相应的数据结构,并指出的开发过程中一些需要注意的问题。  相似文献   

10.
在嵌入式系统开发中,用户都希望能有一个日志文件能监控、记录系统的运行状况,在出现问题时能在日志文件中记录下相应的信息。该文提供了一种可行的日志文件的开发方法。在文章中,笔者提供了日志文件的总体开发思想、相应的数据结构,并指出的开发过程中一些需要注意的问题。  相似文献   

11.
郑仕元  刘军 《计算机工程》2011,37(23):138-140
现有的日志文件保护技术大多集中于保护日志文件不被外来攻击者攻击,而无法抵御恶意的合法用户的攻击。为此,在分析日志技术安全需求的基础上,提出一种在不可信环境下的客户端日志保护机制,基于USB Key对日志文件进行加密和签名处理。给出日志文件的生成、存储及上传过程。安全性与性能分析结果证明了该机制的有效性。  相似文献   

12.
The structure of data in computer-based files is information which may not be explicit in the files themselves, but is incorporated in part in the computer software designed to process the files. If a computer-processable file of data is to be processed using a “system” other than the one used to generate the file initially, conversion of the file to another format is normally necessary. A format, called FILEMATCH, is presented which for structures encountered in earth science data, incorporates the structural information in the files themselves, thus providing a medium for interchange of files among a variety of software systems.  相似文献   

13.
File carving is a method that recovers files at unallocated space without any file information and used to recover data and execute a digital forensic investigation. In general, the file carving recovers files using the inherent header and footer in files or the entire file size determined in the file header. The largely used multimedia files, such as AVI, WAV, and MP3, can be exactly recovered using an internal format in files as they are continuously allocated. In the case of the NTFS, which is one of the most widely used file system, it supports an internal data compression function itself, but the NTFS compression function has not been considered in file carving. Thus, a large part of file carving tools cannot recover NTFS compressed files. Also, for carving the multimedia files compressed by the NTFS, a recovery method for such NTFS compressed files is required. In this study, we propose a carving method for multimedia files and represent a recovery plan for deleted NTFS compressed files. In addition, we propose a way to apply such a recovery method to the carving of multimedia files.  相似文献   

14.
1.引言随着计算机技术的发展,CPU的运算速度越来越快,但磁盘存储系统速度的提高却远远跟不上CPU速度的提高。这种差别导致在许多计算机系统中,存储系统成为系统性能的瓶颈。磁盘的存储容量和存取速度的发展是不平衡的。磁盘存储容量以每年一倍的速度发展,而磁盘的存取时间仅仅每年  相似文献   

15.
The access frequency of different files in file system is dissimilar. If file system can optimize the block lay-out of these hot files which are frequently accessed,the performance of file system will be improved. This paper pre-sents a high performance block layout mechanism Active Block Layout (ABL). ABL can record the access frequencyof every file in file system and actively optimize the block layout of these hot files by block duplicating. The duplicatedblocks can be placed in the special zone of track,which is called "Cooling Zone". ABL can automatically determine theplacing position and the copy count of the blocks which need to be duplicated. In order to reduce the overhead of blockduplication,this paper also presents a mechanism which uses the potential disk bandwidth to realize the block duplica-tion,and does not obviously degrade the performance of file system.  相似文献   

16.
Hadoop分布式文件系统(HDFS)通常用于大文件的存储和管理,当进行海量小文件的存储和计算时,会消耗大量的NameNode内存和访问时间,成为制约HDFS性能的一个重要因素.针对多模态医疗数据中海量小文件问题,提出一种基于双层哈希编码和HBase的海量小文件存储优化方法.在小文件合并时,使用可扩展哈希函数构建索引文件存储桶,使索引文件可以根据需要进行动态扩展,实现文件追加功能.在每个存储桶中,使用MWHC哈希函数存储每个文件索引信息在索引文件中的位置,当访问文件时,无须读取所有文件的索引信息,只需读取相应存储桶中的索引信息即可,从而能够在O(1)的时间复杂度内读取文件,提高文件查找效率.为了满足多模态医疗数据的存储需求,使用HBase存储文件索引信息,并设置标识列用于标识不同模态的医疗数据,便于对不同模态数据的存储管理,并提高文件的读取速度.为了进一步优化存储性能,建立了基于LRU的元数据预取机制,并采用LZ4压缩算法对合并文件进行压缩存储.通过对比文件存取性能、NameNode内存使用率,实验结果表明,所提出的算法与原始HDFS、HAR、MapFile、TypeStorage以及...  相似文献   

17.
为保护计算机磁盘上的敏感数据, 提出基于磁盘冗余空间的数据隐藏方法。该方法在分析磁盘分区策略和簇式文件系统的文件管理机制的基础上, 将分散的文件簇冗余空间有机组合以存储敏感数据, 并利用存储于分区策略冗余空间的数据结构来维护恢复原始数据所需数据。实验结果表明, 基于磁盘冗余空间的数据隐藏方法不占用文件系统有效空间, 具有隐蔽性高、系统开销小、隐藏容量与文件系统内部文件总量正相关, 以及抗干扰性易受到宿主文件稳定性影响等特点。此外, 当文件总量较大时, 隐藏容量将十分可观, 而通过选取稳定性强的文件作为宿主文件, 可提高该方法的抗干扰性。  相似文献   

18.
针对HDFS最初是为流式访问大文件而开发的,而对于大量小文件的存储效率不高问题,采用MapFile设计一个HDFS中存储小文件的方案.该方案的主要思想是在上传HDFS时增加一个文件类型判断模块,建立一个小文件队列,将小文件序列化存入一个MapFile容器,合并成大文件,并建立相应的索引文件,有效降低文件数目和提高访问效率.通过和现有的HadoopArchives(HARfiles)文件归档解决小文件问题的方案对比,实验结果表明,基于MapFile的存储小文件方案可以更为有效的提高小文件存储性能和减少HDFS文件系统的节点内存消耗.  相似文献   

19.
Previous research has provided evidence that a combination of static code metrics and software history metrics can be used to predict with surprising success which files in the next release of a large system will have the largest numbers of defects. In contrast, very little research exists to indicate whether information about individual developers can profitably be used to improve predictions. We investigate whether files in a large system that are modified by an individual developer consistently contain either more or fewer faults than the average of all files in the system. The goal of the investigation is to determine whether information about which particular developer modified a file is able to improve defect predictions. We also extend earlier research evaluating use of counts of the number of developers who modified a file as predictors of the file’s future faultiness. We analyze change reports filed for three large systems, each containing 18 releases, with a combined total of nearly 4 million LOC and over 11,000 files. A buggy file ratio is defined for programmers, measuring the proportion of faulty files in Release R out of all files modified by the programmer in Release R-1. We assess the consistency of the buggy file ratio across releases for individual programmers both visually and within the context of a fault prediction model. Buggy file ratios for individual programmers often varied widely across all the releases that they participated in. A prediction model that takes account of the history of faulty files that were changed by individual developers shows improvement over the standard negative binomial model of less than 0.13% according to one measure, and no improvement at all according to another measure. In contrast, augmenting a standard model with counts of cumulative developers changing files in prior releases produced up to a 2% improvement in the percentage of faults detected in the top 20% of predicted faulty files. The cumulative number of developers interacting with a file can be a useful variable for defect prediction. However, the study indicates that adding information to a model about which particular developer modified a file is not likely to improve defect predictions.  相似文献   

20.
在传统的分布式文件系统中用户无法判断文件的可信任性,针对此问题提出采用信任管理的分布式文件系统TrustFs,使用数字签名对文件的发布者进行认证,通过信任管理技术评估发布者的可信任度,从而达到帮助用户识别不安全文件的目的。TrustFs使用可堆叠文件系统的技术实现,可以移植到所有的Unix系统,并具有良好的扩展性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号