首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 187 毫秒
1.
基于平衡划分的并行投影算法   总被引:2,自引:2,他引:0  
基于DL算法,提出并分析了平衡划分并行投影算法PROJECT-DL。在PROJECT-DL算法中,数据被平均划分并分配给所有处理机,因而每个处理机具有相同的工作负载。给出了网络并行计算环境下的实验结果,并与PROJECT-S、PROJECT-NS算法进行了对比。理论分析和实验结果表明,PROJECT-DL算法是一种高并行效率、高扩展性的并行投影算法。  相似文献   

2.
基于平衡划分的并行集合交算法   总被引:1,自引:1,他引:0  
对集合交运算,基于划分点定位算法提出并分析了一种新的并行算法INTERSECT-DL.在INTERSECT-DL算法中,数据被平衡地划分,分配给所有处理机,所以各处理机的工作负载相同.给出了在网络并行计算环境下的实验结果,并与INTERSECT-S、INTERSECT-NS算法进行了对比.理论分析和实验的结果都表明INTERSECT-DL算法具有很高的并行效率和扩展性.  相似文献   

3.
一种新的并行归并排序算法   总被引:5,自引:0,他引:5  
文章提出了一种新的并行归并排序算法。算法充分利用并行系统中各个处理机中数据排序后序列长度相等的特点,计算出归并段对中的一个元素和最后一个元素的位置,然后再从相应的位置进行归并排序。该算法可使排序后的数据分布完全达到平衡,具有较高的负载平衡性、可扩展性和排序稳定性。文章最后给出了基于PC集群的实验结果,并把该结果与PSRS算法作了比较。  相似文献   

4.
提出了一种新的并行并操作算法PUDL,充分利用DL子算法能精确定位多个划分点的特性,使得划分后各个处理机要处理的子关系大小相等.因而算法具有较高的负载平衡性、可扩展性.最后给出了基于PC集群的实验结果,并把该结果与UNION-S、UNION-NS算法作了比较.  相似文献   

5.
基于精确划分的思想提出了一种新的集合差并行算法DIFF—DL。利用DL子算法查找最终全局序列中等分位置上的划分点,将数据平均划分并分配给所有处理机,使每个处理机具有相同的工作负载。给出了网络并行计算环境下的实验结果,并与DIFF-S、DIFF-NS算法进行了对比。理论分析和实验的结果都表明,DIFF-DL算法具有很高的并行效率和扩展性,原因是划分类算法的性能和划分后区间数据量的平均程度正相关。  相似文献   

6.
串行算法并行化是发挥各种巨型机的效率的关键技术之一。“并行-优化-串行”归并向量算法(OSVM),是一种串行算法并行化的优化方法,它用O(N/p)时间把总长为N的两个有序序列归并或把总长为N的一个Bitonic序列排序。“并行-优化-串行”排序向量算法(POSVS)用O(NlogN)/p)时间在实际SIMD机上把N个数排序,这些是第1个满足以下两个条件的向量Optimal算法(加速比=O(p)),(1)它能在实际SIMD计算机上实现,处理机的台数p的范围很宽1≤N^1-ε,这里,ε是任意的小的正数。(2)它统一了3种不同类的合并算法:Batcher的Bitonic算法(最快但效率随参数变大而向于0),优化(Optimal)算法(效率为常数的算法)和最佳的串行算法。而且综合了3个算法的优点,“并行-优化-串行”(POS)方法是一个通用方法,它还可以应用到其它类型问题上。  相似文献   

7.
NOW系统上的并行快速排序算法   总被引:5,自引:0,他引:5  
介绍了在NOW系统上的并行快速排序算法的设计与实现,分析了影响算法性能的因素及改进方法,最后给出了该算法对字符串排序的并行效率为49.15%。  相似文献   

8.
并行归并排序算法   总被引:3,自引:0,他引:3  
构造效率为O(1)的并行算法是一个引人注目的问题。[1]和[2]分别提出了并行度为O(logn)和O(n^1/2)的、效率为O(1)的并行排序算法。本文提出一种新的并行排序算法,其效率为O(1),而并行步数小于[1]和[2]的算法的并行步数。经过改进后,在保持效率为O(1)的情况下,可进一步将并行度扩大到O(n^1/2log n)。  相似文献   

9.
并行双调排序算法的有效实现及性能分析   总被引:1,自引:0,他引:1  
排序是计算机中最常见的操作之一,双调排序是一个非常著名的排离算法,也是最早的并行排序算法,又调排离对排序算法的研究具有非常深远的影响,基于双调排序算法的基本思想,介绍了双调排序在分布存储的并行计算机环境下的一种有效实现方式,采用局部多对多通信替换全局通信,很好地解决了双调排序中的通信问题,算法的计算复杂度为⊙n/p(logn log^2p),其中n为待排序的关键字个数,p为处理器数,算法在二维网孔结构上通信时间复杂度达到了O(2.12132√p.n/p)其量级达到了理论上的下限,分析结果表明,双调排序算法也具有很好的通信性能和可扩展性。  相似文献   

10.
并行数据库的改进Hash划分方法及并行Join算法   总被引:3,自引:0,他引:3  
文中提出了Hash划分的改进方法--IH划分,IH划分为结点扩充时数据的重新划分提供了方便,在论述IH划分的基础上,给出了基于该数据划人垢并行Join算法,利用已有数据分布,文中提出的并行Join算法提高算法的效率。最后,从理论上对以上并行算法的计算复杂性进行了分析。  相似文献   

11.
We present a simple and general parallel sorting scheme, ZZ-sort, which can be used to derive a class of efficient in-place sorting algorithms on realistic parallel machine models. We prove a tight bound for the worst case performance of ZZ-sort. We also demonstrate the average performance of ZZ-sort by experimental results obtained on a MasPar parallel computer. Our experiments indicate that ZZ-sort can be incorporated into a distributed memory parallel computer system as a standard routine, and this routine is useful for space critical situations. Finally, we show that ZZ-sort can be used to convert a non-adaptive parallel sorting algorithm into an in-place and adaptive one by considering the problem of sorting an arbitrarily large input on fixed-size reconfigurable meshes.  相似文献   

12.
建立一个适用于整数序列排序的数据分配模型,在多核计算节点组成的异构机群上设计通信高效的整数序列并行算法。所提出的数据分配模型依据机群中各节点不同的计算能力、通信速率和存储容量,动态计算出调度分配给各节点的数据块的大小以平衡各个节点的负载。所设计的并行排序算法利用整数序列的特性,主节点采取两轮分发数据与接收结果的方法,从节点运用分桶打包方式返回有序的整数子序列给主节点,主节点采用桶映射方法将各个有序子序列直接整合成最终有序序列,以减少需要耗费较多通信时间的数据归并操作。分析与实验测试结果表明,给出的多核机群上的整数序列并行排序算法高效,具有良好的可扩展性。  相似文献   

13.
孙义欣 《计算机时代》2012,(1):27-28,30
对关键字数量远少于记录数量的排序问题进行了研究,提出了基于分治和递归策略的有效算法。经与选择排序算法比较,该算法在各种情况下的交换次数均明显少于经典的选择排序算法。  相似文献   

14.
提出了分页排序的概念和基于Quick Sorting的快速分页排序算法(Quick Page Sorting)以及基于Hinl缓存机制的算法实现技术。实验表明,在数万至数百万数据总量情况下,Quick Pagc Soring的速度比Quick Sorting快10倍左右,大大提高了应用系统的响应速度。  相似文献   

15.
With the popularity of parallel database machines based on the shared-nothing architecture, it has become important to find external sorting algorithms which lead to a load-balanced computation, i.e., balanced execution, communication and output. If during the course of the sorting algorithm each processor is equally loaded, parallelism is fully exploited. Similarly, balanced communication will not congest the network traffic. Since sorting can be used to support a number of other relational operations (joins, duplicate elimination, building indexes etc.) data skew produced by sorting can further lead to execution skew at later stages of these operations. In this paper we present a load-balanced parallel sorting algorithm for shared-nothing architectures. It is a multiple-input multiple-output algorithm with four stages, based on a generalization of Batcher's odd-even merge. At each stage then keys are evenly distributed among thep processors (i.e., there is no final sequential merge phase) and the distribution of keys between stages ensures against network congestion. There is no assumption made on the key distribution and the algorithm performs equally well in the presence of duplicate keys. Hence our approach always guarantees its performance, as long asn is greater thanp 3, which is the case of interest for sorting large relations. In addition, processors can be added incrementally. Recommended by: Patrick Valduriez  相似文献   

16.
本文提出一种可对任意分布的浮点数进行排序的快速排序方法,它基于浮点数的机内编码,具有速度快、实现简单、实用的特点。其时间复杂度为O(n),在对不同分布的随机浮点数进行的排序实验中,其速度是快速排序的数倍。同时,本算法思想还可用于双精度数、整数、字符串等类型数据的排序。  相似文献   

17.
THSORT:单机并行排序算法   总被引:3,自引:1,他引:3       下载免费PDF全文
施遥  张力  刘鹏 《软件学报》2003,14(2):159-165
排序是计算机事务处理的重要操作之一.前人已经就内部排序、外部排序和并行排序提出各种方法.从一种全新的视角研究了排序算法,提出一种在单机上实现的并行排序算法THSORT(Tsinghua SORT).它用多个进程分别控制不同的硬件部件,使输入、排序和输出能够同时进行,从而大大提高了硬件部件的并行性和运行效率.在带有双磁盘阵列的硬件平台上进行的测试表明,THSORT的性能达到了NTSORT(new technology SORT)的1倍左右,并成为2002年PennySort(Daytona类)世界排序纪录的保持者.  相似文献   

18.
一种基于和谐理论神经网络的分类算法   总被引:1,自引:0,他引:1  
文中从和谐理论神经网络派生一种新的神经网络模型,并以该模型为基础提出了一种新的并行分类算法。神经网络采用不完全连接方式,网络节点的连接数大大减少,具有计算功能简单便于硬件实现的优点。同时,文中提出的分类算法不同于大多数基于神经网络的分类算法,不需事先对待分类的数据进行任何形式的预处理,分类运算可在有限步长内自动完成,具有结构简单、透明度高、运算速度快等特点。  相似文献   

19.
Creating and rendering intermediate geometric primitives is one of the approaches to visualisze data sets in 3D space.Some algorithms have been developed to construct isosurface from uniformly distributed 3D data sets.These algorithms assume that the function value varies linearly along edges of each cell.But to irregular 3D data sets,this assumption is inapplicable.Moreover,the detth sorting of cells is more complicated for irregular data sets,which is indispensable for generating isosurface images or semitransparent isosurface images,if Z-buffer method is not adopted.In this paper,isosurface models based on the assumption that the function value has nonlinear distribution within a tetrahedron are proposed.The depth sorting algorithm and data structures are developed for the irregular data sets in which cells may be subdivided into tetrahedra.The implementation issues of this algorithm are discussed and experimental results are shown to illustrate potentials of this technique.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号