共查询到17条相似文献,搜索用时 78 毫秒
1.
一种基于数据相关性的优化数据一致性维护方法 总被引:3,自引:0,他引:3
针对数据一致性中的数据相关性问题,提出一种优化的数据一致性维护方法.在该方法中,数据对象按固定大小分块,并以数据块作为数据管理的基本单位;数据更新利用Bloom filter技术压缩表示,并进行双路径传播;发起方和协商方在一致性维护过程中,分别调用各自的协商算法检测和解决更新冲突;动态数据管理算法调节数据更新过程中的动态数据块变化,对数据块进行合并或分解.模拟测试结果表明,在选取适当范围内的分块大小时,该方法在一致性维护开销、动态性和鲁棒性方面均具有较好的性能.文中给出了选定适当分块大小的指导性方法. 相似文献
2.
一种基于关键属性的优化数据一致性维护方法 总被引:1,自引:0,他引:1
针对关键属性更新的易描述、更新项较小和弱相关性三个特点。提出一种基于关键属性的优化数据一致性维护方法.在该方法中,首先分离出用户提交的更新请求中关于关键属性的更新;然后采用基于延迟.覆盖的更新传播模型进行更新传播,即基于副本间的网络延迟选择具有最大和最小网络延迟的结点转发更新,并在传播过程中记录和综合考虑更新的确定传播和不确定传播两条路径;在对关键更新冲突分类的基础上,采用更新缓冲区和更新日志两层更新协商机制并结合最新写胜出和分而治之规则,优化关键更新冲突的发现和解决:更新日志信息是方法中各种策略开展的基础,讨论了更新日志中信息管理方法以及结点失效和网络划分发生时信息的维护方法.关键属性更新的优化处理使得不会产生因为关键属性更新的延迟而降低系统基于关键属性的资源定位效率,满足面向Internet的P2P系统的要求.模拟测试结果表明,该方法在一致性维护开销、资源定位开销与资源访问开销以及鲁棒性方面均具有较好的性能. 相似文献
3.
针对大量数据副本所带来的资源管理问题,提出一种基于有限编码的多副本分簇管理方法.在该方法中,根据单副本复制产生新副本的过程对副本分级和分簇,通过定义"副本级别+副本顺序"的编码规则对划分后的副本进行编码和组织,并依据编码规则对由于副本的动态调整(增加或撤消)而引起的簇的动态变化进行有效管理.通过该方法,在大量副本之间建立局域集中、广域对等的管理模式,再结合定义的"最小更新传播时间"可以降低大量副本的一致性维护开销.讨论了方法中编码规则与副本规模之间的关系,以及副本失效和恢复时的解决方法.性能测试结果表明,该方法能够有效组织大规模的数据副本,具有较好的可扩展性,对适度的结点失效不敏感,适合更新频繁的应用. 相似文献
4.
针对分布存储系统的本质特点,提出了基于数据分割的复制算法RSREPL。性能测试结果表明,与传统的复制算法相比,RSREPL能够提供更高的可用性、持久性和安全性,并且具有较低的系统开销。 相似文献
5.
以结构化的DHT P2P网络作为分布式平台,探讨一种P2P数据库的数据索引和定位机制。我们主要使用数据复制和分层索引机制来保证高效的实现资源定位,并且避免了Hash对数据语义的破坏,使系统有效的保持数据语义间的联系。 相似文献
6.
P2P(peer-to-peer)组织模式已经成为新一代互联网应用的重要形式,它为应用带来了更好的扩展性、容错性和高性能。P2P数据存储模式一直是业界所关注的热点,被认为是P2P最具前途的应用之一。设计了一种基于DHT(DistributedHashTable)路由的结构化P2P网络为架构的分布式数据存储模型,通过应用测试证明该模型能稳定运行。 相似文献
7.
8.
一种解决P2P网络路由热点问题的策略 总被引:2,自引:0,他引:2
提出了一种新的解决P2P网络路由热点问题的方法,它包括复制点选取策略和副本使用策略。复制点选取策略以节点的邻居节点为复制点选取对象,按照迭代算法,选取邻居节点中在线时间长、带宽大、网络延迟小的点作为放置副本复制点;副本使用策略提出一种重定向算法对热点进行流控,使得节点不会过载,副本被高效使用。实验采用Java语言模拟整个策略,实验结果表明该方法具有高效性,可靠性,值得在目前的P2P网络中加以推广。 相似文献
9.
以结构化的DHT P2P网络作为分布式平台,探讨一种P2P数据库的数据索引和定位机制.我们主要使用数据复制和分层索引机制来保证高效的实现资源定位,并且避免了Hash对数据语义的破坏,使系统有效的保持数据语义间的联系. 相似文献
10.
11.
由于纠删码具备高可用性和高存储空间有效性的特点,采用纠删码为大规模分布式存储系统提供数据持久性已成为事实标准.然而,纠删码的密集型更新操作将导致大量的数据传输和I/O开销.如何减少数据传输量,优化现有网络资源的利用率,以提高纠删码的更新效率,成为纠删码存储系统面临的重要挑战.然而,在多重服务质量(quality of service, QoS)指标下,目前对纠删码更新效率的优化研究很少.针对此问题,提出一种基于蚁群优化算法的多数据节点更新方案(ant colony optimization algorithm based multiple data nodes update scheme, ACOUS),采用2阶段数据更新方式以优化多数据节点更新过程.具体而言,基于多目标蚁群优化更新路由算法(multi-objective ant colony optimization update routing algorithm, MACOU)所构建的多目标更新树,2阶段数据更新方式能有效地进行数据增量收集和校验增量分发.大量的实验结果表明,在典型的数据中心网络拓扑结构下,与TA-Update方案相比,所提方案能够在保证算法收敛的前提下,以可忽略的计算开销为代价,将更新时延降低26%~37%. 相似文献
12.
针对分布式环境提出一种容错的文件数据复制与更新机制,其算法/协议建立在分布式算法理论的基础上,具有较强的容错性、故障恢复透明性和较高的效率,支持服务器同步和异步两种复制模式以及客户机启动与服务器启动两种工作方式。该机制可广泛应用于Internet分布式文件系统、分布式数据库、WEB镜像服务器以及分布式软件分发、群集服务器等应用中。 相似文献
13.
数据库的更新会引起数据库中的关联规则的更新,找出更新后的所有的频繁项目集,也就能生成更新后的关联规则,因此关联规则的更新就转化为频繁项目集的更新。UWEP算法 利用以前的挖掘结果来减少挖掘新的频繁项目集的开销,采用了一些优化技术来减少数据库的扫描次数和候选项目集的数量,但UWEP算法只能处理增加新事务的情况。本文提出 的UWEP2算法是UWEP算法的扩展,能处理数据库中事务的增加、删除、修改等情况。我们将它与另一种更新频繁项目集的算法FUP2比较,实验显示,UWEP2算法比FUP2算法生成的候选项目集要少,性能要高。 相似文献
14.
数据库复制是保持数据一致性、提高灾难应对能力和数据可访问性的途径。目前常用的复制工具大多采用异步方式,需要处理增量的问题。本文在Daffodil Replicator的基础上,针对数据库净增量复制技术做一些探讨和研究,提出利用窗口算法来平衡产生、传输和解析净增量数据的资源压力和时间代价,对该算法的时间复杂度做出估计,使用采样的方法来拟合时间函数曲线,确定最优情况。 相似文献
15.
本文根据许多实际应用场合下网络节点所表现出来的群组性移动特征,提出了一种基于簇中心预测的位置更新算法.它通过计算和估计簇中心的移动特性,并在此基础上预测各个节点的位置.只有当预测位置与实际位置的偏差超过一定范围时,才产生新的位置更新消息,由此可以极大地减少所需传送的位置更新消息.仿真结果表明,该算法下的位置消息大大少于常规的基于距离的算法. 相似文献
16.
LDAP的复制机制为政务资源整合中的数据复制问题提供了一种简单有效地解决方法。本文对LDAP的两种复制机制——单主机复制和多主机复制进行了分析研究,以政府部门的用户管理系统为例,采用多主机复制方式,研究其冲突解决方法和更新传播策略。 相似文献
17.
为实现数据仓库中数据的高效集成,针对数据偏斜分布现象,提出一种改进的数据流更新算法EH-JOIN。该算法对传统散列连接方法进行改进,利用索引将部分频繁使用的主数据存储在内存中,解决了高速数据流下的磁盘频繁访问问题。实验结果表明,与MESHJOIN算法和R-MESHJOIN算法相比,EH-JOIN算法的服务速率在磁盘存储关系集保持适当大小时分别提高了96%和81%,在内存大小不同时提高了57%和48%。 相似文献