首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 343 毫秒
1.
连续数据保护(continuous data protection,CDP)是一种数据的连续时间点的保护技术,它能在故障瞬间完成任何时间点的故障恢复,起到业务的快速连续地运行的作用.与传统的数据保护技术相比,CDP可以提供更灵活的目标恢复点和更快的目标恢复时间.实现了一种名为SnapCDP的基于LVM(logical volume management)的CDP机制.SnapCDP是将CDP模块嵌入到LVM中来实现的.实验表明,SnapCDP可以利用较短的时间将数据恢复到用户设定的历史时间点.  相似文献   

2.
块级连续数据保护技术能够提供任意时刻的数据恢复,构建可靠数据存储环境,已成为现代存储系统重要的数据保护手段.数据的高可用性对数据恢复效率提出了更高的要求,针对传统块级连续数据保护机制数据恢复效率低的问题,结合数据块级写请求的集中分布特性和连续分布特性,提出了一种块级连续数据保护数据恢复机制——RM-LCDF. RM-LCDF采用去除无效写请求、多缓冲和逻辑块地址排序3种优化策略,对数据恢复过程进行优化.形式化分析及实验结果表明,RM-LCDF能够大幅度减少恢复过程中的I/O数据量,提高I/O并发度及写I/O吞吐率,进而有效提高恢复效率.  相似文献   

3.
一种快速灾难恢复方法   总被引:3,自引:0,他引:3  
提出并实现了一种在异地容灾系统中的快速灾难恢复方法。通过快速数据恢复和数据更新两步完成数据恢复,其中快速数据恢复采用差异拷贝恢复技术实现;数据更新采用对基于磁盘块的增量备份进行写重放来实现。该方法的实现使得灾难恢复的速度快、网络负载小、系统服务的丢失少。  相似文献   

4.
为了解决目前云备份系统恢复目标时间点不连续以及恢复粒度太粗的问题,将连续数据保护技术应用到云备份系统中,提出了一种支持连续数据保护的云备份系统。本系统能够提供秒级的连续恢复时间点,且数据块级别的备份层次能够屏蔽异构平台,具有更广泛的应用前景。系统以私有云为架构基础,部署在防火墙内部,对数据安全有很高的保障。  相似文献   

5.
设计并实现了一种Oracle数据库远程备份与恢复系统.系统基于C/S架构。客户端部署在生产服务器上.将备份数据传输到远程灾备服务器上实现远程备份功能。通过从灾备服务器上下载备份数据,在生产服务器上恢复,实现数据恢复。通过分段备份和提前传输到备份完成前,改进了数据备份过程中的传输机制。实验证明,本系统实现了Oracle备份与恢复核心功能,同时,提高了传输效率和节约了远程备份总时间。  相似文献   

6.
基于块的数据库系统连续数据保护   总被引:3,自引:0,他引:3  
数据保护是数据库系统管理的重要一环.在研究数据库系统连续数据保护技术基础上,提出一种基于块的数据库系统连续数据保护模型BCD,论述了它的基本原理与系统结构,并详细讨论了实现备份和恢复的关键技术,建立了一个基于Linux平台逻辑卷管理器的数据库连续数据保护原型系统.BCD基于块对数据库系统进行保护,为实现通用的多平台数据保护机制提供了可能,并且通过建立连续精细的备份,可以实现数据库系统任意时间点的精确即时恢复,提高了数据库系统的可靠性和可用性,为实现业务连续性提供了保证.  相似文献   

7.
一种持续数据保护系统的设计与实现   总被引:1,自引:0,他引:1  
随着数据增长速度的不断加快,数据可用性变得比以往任何时候都更加重要。持续数据保护是一套数据灾难恢复方法,它可以捕获或跟踪数据的变化,并将数据恢复到任意时间点。在改进数据压缩算法和系统架构的基础上设计并实现一个基于iSCSI的持续数据保护系统。对系统进行数据测试结果显示该系统很好地解决了传统持续数据保护系统中数据占用空间大、恢复时间慢、可靠性低的缺点,能很好地将数据恢复到任何时间点,并给出简要的分析。  相似文献   

8.
提出了一种在块级持续数据容灾系统中建立备份位表和恢复位表的方法,有效消除数据恢复过程中冗余读写操作,提高了数据恢复的效率。实验证明,采用位表的块级持续数据容灾系统可以快速地将被保护数据卷恢复到之前任意时刻的正确状态。  相似文献   

9.
连续数据保护技术是灾难备份与恢复领域近年来出现的新技术。针对安徽省烟草地市级子公司具有相同信息系统拓扑结构的特点,基于连续数据保护技术,设计了一种通用的异地灾难备份技术方案。该方案不仅能提供本地灾备功能,还具备异地灾备功能,且仅使用2M带宽就能实现远程数据复制。灾难发生时,能够保证对任意时间点数据的恢复。技术测试和方案在阜阳的应用实证,表明本方案是可行的。  相似文献   

10.
万莹  林奕  尤红桃 《计算机与现代化》2012,(12):189-192,196
连续数据保护技术是减少企业数据损毁的重要方法。由于每次需要对I/O进行备份,存储空间的容量成为限制CDP有效备份时间长度的主要因素。然而,对于大多数应用来说,其出现峰值写入的情况并不常见,存储资源浪费严重。本文以传统滑动窗口机制为基础,将其进行优化,实现基于I/O负载变化的窗口自动调整,有效地提高存储资源的利用率,使用户可以利用有限资源,在绝大多数情况下拥有更好的数据保护能力。实验表明该方案不仅提高了备份盘的利用率,而且减少了数据恢复的最大数据丢失量(Recovery Point Object,RPO)。  相似文献   

11.
连续数据保护是当前灾难恢复领域的新方向,它克服了传统数据备份和快照技术的缺陷,从新的角度对关键数据进行保护。首先对连续数据保护的工作过程进行了阐述,对其中存在的几类数据一致性问题进行了剖析,并结合当前国内外的连续数据保护技术中涉及的数据一致性保障措施进行了概括和归纳,分析其不足之处,并指出连续数据保护数据一致性保障技术的未来发展方向。  相似文献   

12.
分析当前块级持续数据保护中存在的问题,提出一种基于增量服务器的持续数据保护机制。在TRAP-4机制的基础上,改变日志链的生成方式及相关数据的压缩方法,定期对日志链的正确性进行验证,将持续性数据保护的主要工作转移到增量服务器上,从而减轻服务系统的工作负担。实验结果验证了该机制的有效性。  相似文献   

13.
移动通信数据的海量增加,对以前数据的查询显得束手无策.现在普遍采用的是把以前的数据整体备份到磁带或光盘上,文中提出一套切实可行的数据备份和整理方案,基于应用程序和过程、触发器机制把原始数据库数据转换到备份查询数据库中,既保证了数据库系统的运行性能,又不损失系统的历史数据,同时起到数据备份功能,在完整备份并删除相应旧的数据的基础上,又能对以前的数据进行查询和统计,延长数据的实际存活时间.  相似文献   

14.
随着数据在如今信息社会中的作用越来越重要,数据的保护变得必不可少。新兴的数据保护技术持续数据保护技术CDP(Continuous Data Protection)一出世就成为关注的焦点,它用低成本和低复杂性提供很好的恢复点对象RPO(Recovery Point Ob-jective)和恢复时间对象RTO(Recovery Time Objective),增强了数据保护能力,实现了数据的快速恢复,增强了业务的连续性,成为对传统数据保护技术的重大突破。对CDP技术进行介绍,分析出传统数据保护技术如备份、复制和快照技术的劣势,总结出CDP技术与传统数据保护技术相比具有的优势以及CDP是如何解决传统数据保护技术的缺陷。  相似文献   

15.
数据恢复是信息安全服务领域中的一项重要内容。虽然市面上已有大量的专门的数据备份恢复软件,但能成功做到数据完全恢复可用的也是寥寥无几。主要原因在于数据备份时只备份数据而没有备份与数据密切相关的特定参数设置,导致恢复后的数据不可用。本文介绍了一种带系统参数检测的自动数据恢复技术,通过恢复时进行参数检测,使得恢复后的数据具有更高的可靠性和可用性。  相似文献   

16.
赵帮  何倩  王勇  姚琳琳 《计算机应用》2012,32(7):1998-2002
针对当前网页防篡改系统普遍忽略备份恢复的缺陷,提出了一种网页防篡改系统模型,在此模型基础上设计了一个高效安全的网页防篡改异地备份恢复系统。此系统采用多版本控制技术管理备份网页数据,可以根据用户需求恢复不同时期不同版本备份数据。备份数据采用高效的LZMA压缩存储,有效提高了磁盘利用率,采用DES算法加密和文件传输协议(FTP)实现安全的远程存储及传输。最后,系统性能测试说明此系统在不影响Web服务器负载前提下能对Web服务器数据进行有效的备份和恢复,能保证单个被篡改的网页在100ms内恢复,是解决网页篡改问题的一个有效手段。  相似文献   

17.
海量数据持续数据保护技术研究及实现   总被引:2,自引:0,他引:2  
持续数据保护(continuous data protection,CDP)是一种在不影响主要业务系统运行的前提下,可以实现持续捕捉或跟踪目标系统所发生的任何改变,并且能够恢复到此前任意时间点的方法.提出了一种新的可扩展的海量数据持续数据保护技术;设计基于块级的海量数据持续数据保护技术的体系架构、关键技术.最后对系统性能进行了对比分析,并进行了总结和展望.  相似文献   

18.
通过分析传统容灾方案的不足,提出并实现了一种基于文件级的持续数据保护(CDP)系统.根据CDP三个属性,通过文件过滤驱动实时的跟踪和截获对文件的修改操作,并且对截获的内容以逆操作的形式记录到日志文件中,存放在非本地的存储设备里.当灾难发生时,可以根据日志文件快速恢复到过去的任意时间点,实现数据的恢复.  相似文献   

19.
Cloud backup has been an important issue ever since large quantities of valuable data have been stored on the personal computing devices. Data reduction techniques, such as deduplication, delta encoding, and Lempel-Ziv (LZ) compression, performed at the client side before data transfer can help ease cloud backup by saving network bandwidth and reducing cloud storage space. However, client-side data reduction in cloud backup services faces efficiency and privacy challenges. In this paper, we present Pangolin, a secure and efficient cloud backup service for personal data storage by exploiting application awareness. It can speedup backup operations by application-aware client-side data reduction technique, and mitigate data security risks by integrating selective encryption into data reduction for sensitive applications. Our experimental evaluation, based on a prototype implementation, shows that our scheme can improve data reduction efficiency over the state-of-the-art methods by shortening the backup window size to 33%-75%, and its security mechanism for' sensitive applications has negligible impact on backup window size.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号