共查询到19条相似文献,搜索用时 125 毫秒
1.
李向前 《数字社区&智能家居》2013,(1):5-7,14
针对在数据备份服务器中存在大量重复数据的问题,提出了一种基于重复数据删除技术的oracle数据库备份系统。系统首先生成临时备份文件,然后把临时文件划分成不重叠的块,通过哈希算法计算每个块的指纹值。在数据灾备中心建立hash表记录已存储数据块的指纹值。通过对比指纹值,检测重复数据。为了提高数据安全性,采用了一定的安全机制来防止信息泄露以及数据丢失。实验证明,该系统在实现远程备份的同时,有效地减少了备份的数据。 相似文献
2.
针对传统远程备份中大量冗余数据导致备份效率低下和存储空间浪费的问题,设计并实现了一个基于重复数据删除的远程备份系统。首先根据文件的内容用Rabin指纹将备份文件划分为变长的数据块,把每个数据块的相关信息发送到备份中心,在备份中心利用Google Bigtable及Leveldb的索引算法辅以布隆过滤器对数据块进行判重,最后只传输和存储不重复的数据块。实验结果表明,采用该系统备份相似的数据集能够有效删除其中的重复数据。对数据集进行增量备份,在增量数据变化不大时,相比Rsync备份有更少的网络流量。 相似文献
3.
设计并实现了一种Oracle数据库远程备份与恢复系统.系统基于C/S架构。客户端部署在生产服务器上.将备份数据传输到远程灾备服务器上实现远程备份功能。通过从灾备服务器上下载备份数据,在生产服务器上恢复,实现数据恢复。通过分段备份和提前传输到备份完成前,改进了数据备份过程中的传输机制。实验证明,本系统实现了Oracle备份与恢复核心功能,同时,提高了传输效率和节约了远程备份总时间。 相似文献
4.
吴瑞强 《电脑与微电子技术》2012,(9):55-58,66
概述数据灾备中心的建设规范,从核心基础设施及网络传输架构的设计等方面着手,整合和充分利用灾备中心、生产中心的资源,并以广东惠州社保异地灾备中心的建设为例。阐述构建数据及系统灾备中心需要考量的几个方面。 相似文献
5.
6.
7.
基于现有重复数据删除策略,提出了一种基于负载均衡的C/S双端延迟重复数据删除方法.利用基于类型的数据分块方法将数据块分成若干块;利用MD5提取指纹值,与客户端本地的索引表对比指纹,若相同则用指针取代该数据块,具有数据块指纹和数据类型的索引表一同发送至控制器;控制器在收到客户端的请求后,首先根据自己实时监控得到的各服务器的当前状态来选择最佳目标存储节点;服务器端根据数据类型查询不同的索引表以缩小查找范围.对提出的方法的重复数据删除率进行了实验验证,结果表明该机制具有较好的性能表现. 相似文献
8.
制药设备运行数据信息远程监控方法在远程维护设备正常运行方面非常重要,提出一种制药设备运行数据信息远程监控方法。采集和传输制药设备运行的数据信息,根据采集到的数据、制药设备运行数据集中的元素个数和设备类别集的分类数等条件确认制药设备类别隶属度矩阵,得到制药设备运行数据的远程监控值。远程监控到的设备状态和量纲变化不同,需对其值归一化处理,分别计算数据远程监控值越大越优型、越小越优型和中间型的远程监控量,获得远程监控量的告警值和良好值。并根据远程监控值对设备运行数据隶属度和聚类中心的迭代计算来确定制药设备运行数据信息的状态,将其与告警值和良好值进行对比,实现制药设备数据信息的远程监控。实验结果表明,提出方法在对制药设备运行数据信息远程监控时,能够准确的完成数据的远程监控,并且增强了远程监控的实时性。 相似文献
9.
10.
11.
12.
设计并实现了一种远程容灾系统。通过实时监控本地存储服务器上的数据变化,并将变化数据通过Internet发送到远程灾备服务器来实现数据的远程备份,通过将远程备份数据写回到本地存储服务器来实现灾难恢复,生产服务器的容灾数据存储于本地存储服务器中,通过iSCSI技术访问。该系统提供了多种数据同步与恢复策略,并提供了图形化Web配置管理平台,支持多种操作系统。 相似文献
13.
Although deduplication can reduce data volume for backup, it pauses the running system for the purpose of data consistency. This problem becomes severe when the target data are Virtual Machine Image (VMI), the volume of which can scale up to several gigabytes. In this paper, we propose an online framework for VM image backup and recovery, called VMBackup, which comprises three major components: (1) Similarity Retrieval that indexes chunks' fingerprints by its segment id for fast identification, (2) one‐level File‐Index that efficiently tracks file id to its content chunks in a correct order, and (3) Adjacent Storage model that places adjacent chunks of an image in the same disk partition to maximize chunk locality. The experimental results show that (1) the images of one OS serial and the same custom can share high percentage of duplicated contents, (2) variable‐length chunk partitioning is superior to fixed‐length chunk partitioning for deduplication, and (3) VMBackup, in our environment, can provide 8M/s backup throughput and 9.5M/s recovery throughput, which are only 15% and 4% less than storage systems without deduplication. Copyright © 2015 John Wiley & Sons, Ltd. 相似文献
14.
15.
16.
17.
日益增长的信息量必然发生大量的数据传输、存储和数据交换,数据安全成为影响整个信息系统的一个重要因素为了应付区域性灾害,如地震、海啸、战争等因素导致多个机房同时损毁,数据永久性丢失,其它如区域性的病毒泛滥、蓄意破坏、严重误操作等人为因素也可能导致同城备份中心失效。建立一套异地数据备份系统已经成为信息系统建设的必要组成部分,会成为保证数据安全的最后一道防线。本文详细阐述了某信息系统数据异地容灾的实现。 相似文献
18.
重复数据删除技术有效地提升了备份系统的备份效率,但重复数据的匹配开销也随之增加.针对该问题,设计并实现了一种基于重复数据删除的备份系统THBS,该系统提出了高精简的数据备份方法HAD(hierachical approach of data deduplication),依次从目录、文件、块、字节粒度分层多步,由粗及细地匹配删除重复数据,同时采用bloomfilter和倒排索引技术,以减少不必要的数据匹配与磁盘访问,提高匹配查找速度.通过两组真实数据集的实验发现,THBS在备份过程中节省了63.1%~96.7%的存储空间,比Scp和Rsync分别节约了71.3%~97.6%,41.2%~66.7%的网络带宽,累计备份时间分别为Scp和Rsync的75%~86%和91%~97%. 相似文献