共查询到20条相似文献,搜索用时 15 毫秒
1.
2.
基于现有重复数据删除策略,提出了一种基于负载均衡的C/S双端延迟重复数据删除方法.利用基于类型的数据分块方法将数据块分成若干块;利用MD5提取指纹值,与客户端本地的索引表对比指纹,若相同则用指针取代该数据块,具有数据块指纹和数据类型的索引表一同发送至控制器;控制器在收到客户端的请求后,首先根据自己实时监控得到的各服务器的当前状态来选择最佳目标存储节点;服务器端根据数据类型查询不同的索引表以缩小查找范围.对提出的方法的重复数据删除率进行了实验验证,结果表明该机制具有较好的性能表现. 相似文献
3.
针对广域网中网络备份系统存在备份速度低、网络带宽需求高和数据冗余等问题,提出并实现一种具有重复数据删除功能的网络文件备份系统。通过在客户端实现重复数据删除技术,对文件进行分块和在备份过程中去除重复数据块,减少客户端与服务期间需要传输的数据量,使得文件备份的速度获得较大提高,也较大地降低网络带宽要求,显著提高了网络备份系统的性能。此外,备份过程中客户端去除了重复的数据块使得服务器中存储的数据块都是唯一的,极大地降低了系统所需要的存储空间,同时,服务器端的数据块引用管理的设计很好地解决了空闲数据块耗费存储空间的问题。 相似文献
4.
5.
6.
7.
传统方法在删除重复数据时逻辑顺序较为混乱,导致重复数据消除效果欠佳.为解决上述问题,基于文件路径,对信息集群中重复数据消除方法展开研究.根据重复数据消除方法分块理念与文件系统中的目录名称,探析文件路径的重复数据消除原理.通过分块筛选存储数据完成数据对比,从而去除数据备份并用指向唯一的实例指针代替.在界定元数据信息的基础... 相似文献
8.
云存储系统的重复数据作为大量冗余数据的一种,对其有效及时地删除能保证云存储系统的稳定与运行。由于云存储系统中的干扰数据较多,信噪比较低,传统的重删算法会在分数阶Fourier域出现伪峰峰值,不能有效地对重复数据进行检测滤波和删除处理,因此提出一种改进的基于分数阶Fourier变换累积量检测的云存储系统重复数据删除算法。首先分析云存储系统重复数据删除机制体系架构,定义数据存储点的适应度函数,得到云存储节点的系统子集随机概率分布;采用经验约束函数对存储节点中的校验数据块分存,通过分数阶Fourier变换对云存储系统中的幅度调制分量进行残差信号滤波预处理。采用4阶累积量切片后置算子,把每个文件分为若干个块,针对每个文件块进行重删,进行重复数据检测后置滤波处理,实现存储资源上的重复数据检测及其删除。仿真实验表明,该算法能提高集群云存储系统计算资源的利用率,重复数据准确删除率较高,有效避免了数据信息流的干扰特征造成的误删和漏删,性能优越。 相似文献
9.
10.
11.
Eric Bassier 《办公自动化》2013,(7):55+52
应对数据增长的重磅武器过去几年,重复数据删除作为能够对抗数据资料大规模增长的武器,在数据中心中已获得广泛认可。IT部门几乎在任何事物中都能为重复数据删除找到一席之地,从主存储到长期数据保留,但是重复数据删除在数据中心里值得称道的职责却在于备份和灾难恢复(DR)。在这里,重复数据删除技术提供 相似文献
12.
支持策略隐藏的加密云存储访问控制机制 总被引:1,自引:1,他引:0
使用密码技术对云存储数据实施机密性保护和访问控制,是当前云计算安全研究的重要内容.选择加密(Selective Encryption)技术根据访问控制策略产生密钥推导图来分发密钥,在保证云存储数据机密性和细粒度访问控制的前提下,具有简化文件存储加密、系统密钥量少的优势.然而,已有选择加密方案需要完全或部分地公开访问控制策略,以用于密钥推导;该信息反映了用户/文件之间的授权访问关系,泄露用户隐私.基于现有的研究工作,本文提出了一个新的访问控制策略隐藏机制,在支持加密云存储数据的细粒度访问控制和高效密钥分发的前提下,能更好地隐藏访问控制策略信息;而且在密钥获取计算速度上有明显优势. 相似文献
13.
在大规模数据服务应用中,尤其是备份与共享系统中,服务器往往会面临大量的上行数据流,而对这些数据的处理需要进行频繁的写操作,由于服务器数据存储位置的随机性,在多用户多任务环境下磁盘性能大大降低.传统的缓存技术只是针对小范围数据的局部性进行优化,对于并行备份数据流的效果不好,因此提出一种数据缓冲方法,通过数据封装,对上行数据流进行整理,动态调整IO次序,实现异步的数据处理接口,提高了文件服务器的存储性能. 相似文献
14.
随着企业数据信息量的不断地增加,海量数据信息的存储和不断备份已经给企业的存储空间带来了巨大的存储压力;本文分析了当前主要的重复数据检测和删除技术,,并分析了其优缺点。并提出一种基于内容的重复数据删除策略。 相似文献
15.
16.
基于DES及其改进算法的文件加密系统 总被引:1,自引:0,他引:1
随着信息技术的飞速发展,信息安全问题已成为当今社会所面临的重要问题。数据加密标准(DES)因其较高的安全性而被广泛应用于各个行业领域,但是深入的研究证明该算法存在诸多不足。文中在已有的DES算法及其改正算法的基础上,提出了一种新的方法。该方法综合利用了三重DES算法与独立子密钥算法的优点,把原来的64位密钥扩展为128位,通过双重加密增强了加密强度,同时采用局部密钥独立的特性提升加密强度和效率。基于所提出的加密技术,设计并实现了一个加密系统,针对.word、.pdf、.mp3等格式的文件进行了测试,结果证明该系统可行且有效。 相似文献
17.
不管是权威机构,还是众厂商,都非常看好重复数据删除技术的前景。重复数据删除将成为降低数据存储成本的重要技术。在消除备份重复数据方面,它的效果尤其显著。这种将数据量减少数十倍的技术.对于降低数据存储成本具有极大价值。 相似文献
18.
收敛加密可以有效地解决数据加密和去重的矛盾,实现安全去重复,但是收敛加密仍然面临许多安全问题。针对传统的收敛加密容易遭受字典攻击的问题,提出基于Merkle哈希树的收敛加密方案实现数据去重复,通过执行额外的加密操作,加强数据的机密性,有效地避免字典攻击。为了克服传统的收敛加密方案的收敛密钥随着用户数量线性增长的问题,设计收敛密钥共享机制,进一步节省了收敛密钥的存储空间。 相似文献
19.
随着个人和企业用户产生的数据量越来越多,云存储的价格便宜、存储空间使用灵活等优势也越来越明显。随着大量的数据外包到云服务器端,用户一般采用加密方法实现对敏感数据的保护和使用限制,这使得传统的基于明文的搜索方案不再适用。如何在保护隐私的基础上实现高效的数据文件搜索是首要考虑的问题。在已有的加密数据搜索方案的基础上,分析中文所特有的模糊音和多义的特点,利用中文和英文实现关键词的同义词构建,并建立关键词的模糊音词和同义词集合,提出了基于关键词的加密云数据模糊搜索方案,实现了对中文模糊音和同义关键词的搜索并利用伪随机函数对私钥进行保护。最后通过安全性分析和系统实验验证了该方案具有较高的安全性、良好的实用性和较高的搜索成功率。 相似文献
20.
如何有效地对数据进行布局是大规模网络存储系统面临的重大挑战,需要公平、冗余、自适应、高可靠以及高可用的数据布局策略.根据大规模网络存储系统体系结构的发展,详细介绍了P2P系统、SAN存储系统以及对象存储系统的数据布局策略,最后总结和比较了各种布局策略的优缺点,并指出基于数据重要性以及访问热度的数据布局策略等是未来可能的研究方向. 相似文献