首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 140 毫秒
1.
云数据处理系统中广泛采用了多数据副本复制技术,以防止数据丢失,如果数据复制的份数或位置不当,就会引起数据的可用性小于用户期望的数据可用性或存储空间的浪费(如复制份数过多)。针对该问题,经研究提出了一种基于模糊预测的数据复制优化模型,该模型由模糊预测模块和复制优化模块组成。模糊预测模块以节点信息(CPU信息、节点带宽信息、内存信息和硬盘信息)作为输入,预测出节点的可用性;复制优化模块把节点的可用性和用户期望的数据可用性作为输入,计算出在满足用户期望情况下数据复制的份数和位置。提出的复制优化模型能根据云数据存储系统中数据节点可用性实现动态的优化数据复制,能获得较高的存储性价比。模拟实验中基于模糊预测的数据复制优化模型策略需要的存储空间分别是Hadoop策略的42.62%,42.84%,但文件的平均可用性可达到88.69%,90.54%,表明提出的基于模糊预测的复制模型实现了在节省存储空间的同时保证了文件可用性。  相似文献   

2.
针对当前Hadoop采用固定个数的数据复制来提高数据可用性方法的不足,建立了数据复制的数学模型,该模型根据数据节点失效率、数据访问延迟、数据节点的网络带宽、期望的数据可用性计算优化的数据复制个数,在Hadoop上实现了提出的数据复制优化方法,进行性能测试实验,实验结果表明该模型不仅可以改进数据可用性,而且提高了系统存储空间的利用率。  相似文献   

3.
魏秀然  王峰 《计算机工程》2021,47(8):124-130,139
针对云存储数据过程,结合协调器与遗传算法提出一种新的数据复制策略。在Hadoop分布式文件系统体系结构基础上构建一个用于复制管理的协调器,采用接收查询算法和遗传算法接收查询,并将其发送给合适的节点以满足用户期望的服务质量功能需求,同时考虑一个查询中数据块的物理位置以获得更好的复制参数。仿真结果表明,与目前典型的数据中心选择和动态数据复制策略以及逐步删除和添加数据副本策略相比,该数据复制策略不仅优化了系统的负荷分配,而且具有更高的可用性和更小的延迟。  相似文献   

4.
通过利用WSN应用环境工作负载先验知识,提出了一种无线传感器网络存储数据可用性优化框架.首先根据节点的查询负载将WSN网络分区,然后提出了基于法定票数的数据复制策略以优化能耗,并保证满足给定的最小数据可用性要求.最后,基于真实的Great Duck Island WSN实验工作负载假设,通过四种代表不同工作负载的查询集合进行实验,结果表明,该策略可以在能耗、数据可用性和节点可用性间实现高效平衡.  相似文献   

5.
针对云存储中的可靠性产生的担忧,提出一种云存储系统完善的数据存储保障机制,以保证系统的高可靠性和数据的高可用性。在处理与数据持久存储的相关的数据分片、数据分发、完整性检查以及冗余数据的维护中,引入基于纠删码的数据冗余机制,与传统的复制冗余方案相比,能够在获得相同的数据可用性时降低存储空间和网络带宽的开销多达50%以上。采用基于缓冲区的分段读入编码对纠删码算法进行优化后,提高了对文件分片与合并的平均编码速率。  相似文献   

6.
提出一种云环境下的访问热点负载均衡模型:基于节点的吞吐量与响应时间等主要参考指标,构建节点负载判定模块;文件在HDFS存储的过程中,将文件对应的数据块编号与存储路径相结合,设计存放在数据节点中的数据块到文件目录映射表;提出一种基于节点负载以及节点的存储空间的迁移源节点和目标节点选择方法;基于机架感知的机制,制定一种动态副本迁移方案。最后利用执行器下发指令给相应的数据节点,执行具体的迁移任务以及完善迁移后副本因子等参数信息的调整。通过迅速扩散副本的方式,来增加热点文件的副本数量,使得系统能够对外提供更大的吞吐量,缩短系统反应时间。   相似文献   

7.
王娟 《微型机与应用》2013,(20):70-72,76
交互性支持对P2P视频点播系统具有重要的意义,视频点播服务的大规模普及离不开用户交互性的支持。讨论了如何有效利用对等节点的带宽和存储资源来主动复制数据块,提出了一种基于云存储的数据复制策略CSPR。仿真实验结果表明,相比于现有的数据复制策略,CSPR可以显著提高用户进行随机搜索操作时的响应速度,并降低网络复制开销。  相似文献   

8.
基于DHT的P2P系统中高可用数据冗余机制   总被引:3,自引:0,他引:3  
在基于DHT的P2P系统中需要采用冗余机制以保证数据的高可用性.文中结合用户下载行为来衡量数据存储与共享系统中的不同冗余机制.此外,作者提出了一种混合式的数据冗余策略,它兼具传统的复制策略和分片冗余策略的优点.实验表明,复制策略虽然比分片冗余策略需要更多的存储空间,但当节点平均可用性高于47%时,更节省网络维护带宽.混合式冗余策略在各种网络环境中均能较传统冗余策略更节省网络带宽,并且冗余因子适中.  相似文献   

9.
石柯  董燕 《软件学报》2010,21(10):2677-2689
在移动自组网络中,节点的移动或是无线连接的中断会引起频繁的网络分割.因此,访问节点并获取相应的数据是相当困难的.通过理论和统计分析得到特定运动模型对应的网络分割模式,建立了网络分割模式与数据复制有效性之间的联系,推导出了理想复制方法在特定网络环境下能够获得的数据可用性的上限,也指出纯随机复制方法可提高数据可用性.基于上述分析,提出了一种新的数据复制方法RICMAN(replication in intermittently connected mobile ad hoc networks)来提高断续性连接移动自组网络的数据可用性.该方法将所需数据以副本的形式复制到一系列拓扑结构相对稳定和资源充足的特定节点上,为处于同一分区的节点提供数据服务.副本的分布和更新基于半概率性数据分发协议实现.此协议能够识别可能的跨越多个网络分区的运动节点,由这些节点传播数据及其更新,从而在断续性连接网络中最大化数据传输.为了保持副本的一致性,该方法使用一种弱一致性模型——最终一致性模型,以确保所有的更新最终在有限的延迟内传送到所有的副本处.仿真结果显示,RICMAN方法能够以较小的开销获取较高的数据可用性,经过优化后,数据可用性仅比理想上限低10%~15%.  相似文献   

10.
田田  罗军舟  宋爱波  伍之昂 《软件学报》2011,22(10):2372-2384
副本复制是数据网格中提高数据访问效率的有效方法,如何提高副本复制的效率是一个关键性问题.现有的复制策略大多基于文件访问历史选择高价值副本进行复制,但其针对的都是节点已经访问过的文件.通过对虚拟组织文件访问特性进行深入分析,引入隐性高价值文件概念,提出虚拟组织副本协作预取机制(cooperative replica prefetching mechanism,简称CoRPM),使得本地节点通过与虚拟组织中其他节点进行协作来获取隐性高价值文件副本.该机制首先给出了副本协作预取架构,各个虚拟组织节点上的文件预取模块以协作的方式为虚拟组织内节点提供文件预取服务;然后,在副本协作预取架构的基础上设计了副本协作预取流程,其核心算法包括以作业类型为中心的本地文件预取算法和预取文件选择算法.模拟实验结果表明,CoRPM与已有的基于文件访问历史的副本复制策略相结合,可以更加有效地降低数据访问延迟.  相似文献   

11.
云存储技术已经成为当前互联网中共享存储和数据服务的基础技术,云存储系统普遍利用数据复制来提高数据可用性,增强系统容错能力和改善系统性能。提出了一种云存储系统中基于分簇的数据复制策略,该策略包括产生数据复制的时机判断、复制副本数量的决定以及如何放置复制所产生的数据副本。在放置数据副本时,设计了一种基于分簇的负载均衡副本放置方法。相关的仿真实验表明,提出的基于分簇的负载均衡副本放置方法是可行的,并且具有良好的性能。  相似文献   

12.
文章根据读写频繁的云存储网络应用的数据存储特点,提出了一种新的数据备份方法,旨在最优化地利用已有的系统资源,为用户提供更好的用户体验。文章中的数据备份方法包括基于数据节点废弃度计算与用户访问预测的副本创建机制和基于存储平衡预测算法与副本健康度计算的负载调整机制。文章的数据备份方法与现有技术相比针对日益流行的社交类云存储网络应用进行了优化,将多种数据参数加权计算作为衡量数据节点优劣和副本文件价值的标准,在保证用户使用体验的前提下使各数据节点达到负载的均衡,并且避免了云服务器端将有限的计算资源浪费在频繁的副本调整过程中。  相似文献   

13.
Failures are normal rather than exceptional in the cloud computing environments. To improve system avai- lability, replicating the popular data to multiple suitable locations is an advisable choice, as users can access the data from a nearby site. This is, however, not the case for replicas which must have a fixed number of copies on several locations. How to decide a reasonable number and right locations for replicas has become a challenge in the cloud computing. In this paper, a dynamic data replication strategy is put forward with a brief survey of replication strategy suitable for distributed computing environments. It includes: 1) analyzing and modeling the relationship between system availability and the number of replicas; 2) evaluating and identifying the popular data and triggering a replication operation when the popularity data passes a dynamic threshold; 3) calculating a suitable number of copies to meet a reasonable system byte effective rate requirement and placing replicas among data nodes in a balanced way; 4) designing the dynamic data replication algorithm in a cloud. Experimental results demonstrate the efficiency and effectiveness of the improved system brought by the proposed strategy in a cloud.  相似文献   

14.
在云存储技术中,云存储系统的数据容错十分重要,直接关系到整个系统的可用性。当前多数分布式存储系统通过多副本来保证数据的可用性,然而,多副本存储方式也使得数据存储空间翻倍增加,为了降低存储空间,提高数据可用性,有些分布式存储系统开始采用纠错码技术来提高数据可用性和降低数据存储空间占用。通过对MooseFS分布式文件系统进行分析,提出了一种基于MooseFS的纠错码实现方法。通过数据存储效率测试,该方法能够保证常用的“热数据”按照多副本存储,不常用的“冷数据”按照纠错码方式存储,在保证可靠性的同时极大地降低了多副本方式空间占用量。  相似文献   

15.
黄冬梅  杜艳玲  贺琪  随宏运  李瑶 《计算机科学》2018,45(6):72-75, 104
数据的完整性和可靠性是保证其能被高效访问的关键,尤其是在云存储环境中,数据副本策略是影响系统性能和保障数据可用性的核心。从数据副本布局的角度,提出了基于多属性最优化的数据副本布局策略(Data Replica Layout Strategy based on Multiple Attribute Optimization,MAO-DRLS)。该策略根据数据的访问热度和存储节点的关键属性特点,为每个数据设置动态的副本数,并选择合适的节点对副本进行布局。实验表明,MAO-DRLS策略能够有效地提升数据副本的利用率,缩短系统的响应时间。  相似文献   

16.
摘要:云计算数据中心越来越庞大,硬件规模也日益增大,而且还会有大量的计算资源、存储资源会出现在云端,促使出现了一大批十万级、百万级、乃至千万级服务器的数据中心,且服务器还可以增量扩展与增量部署,高能耗问题已经日益凸显,严重制约到云计算数据中心的可持续性发展。本文提出了一种新型的云计算数据中心可扩展服务器节能优化策略——效能优化策略,能够基于全局角度来降低能源消耗,优化服务器选择过程,并且还可促使不同服务器之间实现负载均衡。仿真实验结果表明:基于能耗大小来看,本文提出的效能优化策略要比DVFS策略、无迁移策略所对应的能耗分别节约15.23%、24.33%;基于迁移数来看,本文提出的效能优化策略要比DVFS策略所对应的迁移次数减少2425次,总之,本文提出的效能优化策略总体而言要明显比DVFS策略、无迁移策略更优越。  相似文献   

17.
非结构化数据呈爆炸态势增长, 传统存储技术在吞吐能力可扩展性及易管理性等方面急需改进, 通过分析安保视频数据存储的问题, 设计一种云计算架构下的安保视频监控存储系统, 基于框架技术搭建了对等架构的云计算环境, 并对其中的云存储策略进行了设计和建模. 实现在廉价不可信节点上存储海量私有化只读视频数据, 并提供高效可靠地访问. 仿真结果显示, 系统的存储性能可靠度高且易于扩展, 可提供效能较高的视频云存储服务.  相似文献   

18.
Data replication is becoming a popular technology in many fields such as cloud storage, Data grids and P2P systems. By replicating files to other servers/nodes, we can reduce network traffic and file access time and increase data availability to react natural and man-made disasters. However, it does not mean that more replicas can always have a better system performance. Replicas indeed decrease read access time and provide better fault-tolerance, but if we consider write access, maintaining a large number of replications will result in a huge update overhead. Hence, a trade-off between read access time and write updating cost is needed. File popularity is an important factor in making decisions about data replication. To avoid data access fluctuations, historical file popularity can be used for selecting really popular files. In this research, a dynamic data replication strategy is proposed based on two ideas. The first one employs historical access records which are useful for picking up a file to replicate. The second one is a proactive deletion method, which is applied to control the replica number to reach an optimal balance between the read access time and the write update overhead. A unified cost model is used as a means to measure and compare the performance of our data replication algorithm and other existing algorithms. The results indicate that our new algorithm performs much better than those algorithms.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号