首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 61 毫秒
1.
基于四元三角格网(QTM)之间距离计算与比较的球面Voronoi图生成算法相对于扩张算法具有较高的精度,但由于需要计算并比较每个格网到所有种子点的距离,致使算法效率较低。针对这一问题,利用图形处理器(GPU)并行计算对算法进行实现,然后从GPU共享内存、常量内存、寄存器等三种内存的访问方面进行优化,最后用C++语言和统一计算设备架构(CUDA)开发了实验系统,对优化前后算法的效率进行对比。实验结果表明,不同内存的合理使用能在很大程度上提高算法的效率,且数据规模越大,所获得的加速比越高。  相似文献   

2.
基于GPU的并行优化技术*   总被引:4,自引:2,他引:2  
针对标准并行算法难以在图形处理器(GPU)上高效运行的问题,以累加和算法为例,基于Nvidia公司统一计算设备架构(CUDA)GPU介绍了指令优化、共享缓存冲突避免、解循环优化和线程过载优化四种优化方法。实验结果表明,并行优化能有效提高算法在GPU上的执行效率,优化后累加和算法的运算速度相比标准并行算法提高了约34倍,相比CPU串行实现提高了约70倍。  相似文献   

3.
为了得到片上电源线/地线网络(P/G网)快速而准确的求解算法,根据结构化供电网的局部性效应,重新分析了连续过松弛迭代法(SOR)和变向隐含迭代法(ADI)在P/G网中的求解效率及并行性,提出了利于GPU加速的并行算法:G_RBSOR和G_ADI.它们均采用规则的数据结构,以利于GPU并行读写数据,并采用合并归约来并行计算迭代结束标志位.为了避免GPU计算的数据冲突,G_RBSOR算法采用棋盘格方式对电路节点进行红黑分类,并对红黑节点进行交错松弛.实验结果表明,在不损失精度的前提下,与各自对应的CPU串行算法相比,G_RBSOR和G_ADI算法均取得了超过50倍的加速效果;与高效的P/G分析串行求解算法ICCG相比,也取得了超过5倍的加速效果.  相似文献   

4.
滤波是机载LiDAR点云数据处理中极为重要的步骤,也是时间消耗较大的环节。该文分析了基于TIN渐进加密滤波算法各个阶段的效率,针对其中最为耗时的点定位阶段,比较了使用不同点定位方法的滤波效率,提出了一种基于二级格网的逆向点定位方法。在不同层次的迭代滤波过程中,该方法将待判脚点以大小不同的格网进行组织,然后从各个三角形面片出发,判定三角形中包含的待判点。实验表明,该方法能很好地适应于机载LiDAR数据从大量三角形中快速定位大量待判点的问题,滤波效率得到明显优化。对研究基于TIN渐进加密的点云数据滤波效率提升有一定实用意义,也可为研究TIN快速构建算法提供参考。  相似文献   

5.
基于以三星的 Exynos5250处理器为核心的 Arndale Board 嵌入式开发平台,对集成于处理器上的 Mali T604嵌入式 GPU 的 GPGPU(General-Purpose computation on GPU)技术进行研究,并对不同运算规模的浮点矩阵乘法进行并行加速优化,提供实际测试结果。Linux 操作系统上的实验结果显示,基于 Mali GPU 的并行浮点矩阵乘法方案相对原始串行算法而言,效率显著提高,并且运算规模的增大可以显著提高并行性。  相似文献   

6.
在实际应用中由于规则网格DEM的数据量大而不便存储,而且某些分析计算也经常需要使用TIN模型的DEM,需要将网格DEM转成TIN模型的DEM。采用迭代搜索算法将网格转化为DTIN。在DTIN的生成算法中,对点的定位算法和空外接圆判断算法进行了改进和优化,从而提高了算法的整体执行效率。  相似文献   

7.
为克服交叉相关外推算法时间复杂度高、运算时间过长的缺点,提出一种基于GPU的快速并行化算法,应用于地闪落点的外推预测。首先分析串行的算法流程,然后对算法进行并行化分析设计,再针对AMD系列GPU硬件架构特点,运用OpenCL技术从主存与设备内存之间的数据传输、显存访问模式等方面对算法进一步优化。最后将地闪监测实况数据与本算法外推计算结果进行比对,分析不同精度下串行与并行算法的计算效率。实验结果表明,该算法充分利用GPU强大的并行计算能力,计算速度提高了近17倍。  相似文献   

8.
针对传统的规则格网(Grid)到不规则三角网(Triangulated Irregular Network,TIN)的转换算法无法很好的解决数据冗余的问题,提出如何在Grid到TIN的转换过程中,获取地形特征点,进而通过特征点生成冗余数据较少的TIN。通过基于特征点的转换方法,可以简单有效的实现Grid到TIN的变换,同时生成的TIN也能够最大限度的保留DEM中的地形特征。探讨Grid到TIN的转换方法,有助于解决三维GIS中不同地形数据格式的转换问题,促进三维GIS空间模型的研究发展,进一步增强三维GIS软件的可用性。  相似文献   

9.
利用GPU进行加速的归一化差分植被指数(Normalized Differential Vegetation Index,NDVI)提取算法通常采用GPU多线程并行模型,存在弱相关计算之间以及CPU与GPU之间数据传输耗时较多等问题,影响了加速效果的进一步提升。针对上述问题,根据NDVI提取算法的特性,文中提出了一种基于GPU多流并发并行模型的NDVI提取算法。通过CUDA流和Hyper-Q特性,GPU多流并发并行模型可以使数据传输与弱相关计算、弱相关计算与弱相关计算之间达到重叠,从而进一步提高算法并行度及GPU资源利用率。文中首先通过GPU多线程并行模型对NDVI提取算法进行优化,并对优化后的计算过程进行分解,找出包含数据传输及弱相关性计算的部分;其次,对数据传输和弱相关计算部分进行重构,并利用GPU多流并发并行模型进行优化,使弱相关计算之间、弱相关计算和数据传输之间达到重叠的效果;最后,以高分一号卫星拍摄的遥感影像作为实验数据,对两种基于GPU实现的NDVI提取算法进行实验验证。实验结果表明,与传统基于GPU多线程并行模型的NDVI提取算法相比,所提算法在影像大于12000*12000像素时平均取得了约1.5倍的加速,与串行提取算法相比取得了约260倍的加速,具有更好的加速效果和并行性。  相似文献   

10.
将三维重建中捆集调整算法用于优化重建结果,是非常关键的步骤,然而传统单核串行算法耗时量大不太适合大场景重建。对此,首先对捆集调整算法本身进行了改进;然后在此基础上提出了多核并行捆集调整算法并采用图像处理器(GPU)实现该算法。实验表明,所提出的多核并行捆集调整算法提高了算法优化参数的精度和处理速度。  相似文献   

11.
基于CAN总线实时应用的可靠调度性研究   总被引:1,自引:0,他引:1  
邓竹莎  雷航  罗淳  康涌泉 《计算机应用》2006,26(6):1301-1303
CAN总线是一种高级的串行通信协议,适用于各种分布式控制系统。在实时应用中,标准的CAN协议使用静态优先级算法,对传输信道的利用率比较低。对基于CAN总线通信的动态优先级调度算法进行研究后,提出了一种基于指数分配方式的MTS算法,在保证强实时性消息的同时兼顾了低优先级消息的公平性。  相似文献   

12.
VoIP认证与计费的设计与实现   总被引:1,自引:0,他引:1  
张书奎 《微机发展》2004,14(9):63-65,68
基于RADIUS的VoIP认证系统,采用分散受理、集中管理的接入认证管理体系,数据集中存放在认证中心(RADIUS服务器),用户身份认证由PC向网守发起,网守通过RADIUS协议向认证中心的认证服务器发起认证请求。这样,可以保证用户安全地使用网络资源,以确保用户身份的合法性。同时其落地话单经过处理,可进行计费及其它帐务处理。文中论述了RADIUS对VoIP的支持,提出了一个Gatekeeper与RADIUS结合的整体解决方案。  相似文献   

13.
心电信号是典型的强噪声下的非平稳微弱信号,减小噪声的干扰对心电信号的分析有着十分重要的意义,因此,有效的滤波方法一直是该领域学者关注的热点问题。本文在基于小波变换心电信号分析研究基础上,针对小波去噪时分解只作用于低频部分,从而忽略了高频区域中一部分有用信号的问题,提出了一种采用改进小波包理论实现心电信号去噪的方法,利用小波包在消除信号噪声方面具有更为精确的局部分析能力的特点,采用了‘db4’小波和"最优基"选择的方法,对心电信号进行消噪。以MIT-BIH心电数据库中心律失常数据仿真实验,得到了较理想的去噪效果。对比该方法与小波滤波去噪,发现基于小波包的心电信号去噪具有更优良的去噪性能。  相似文献   

14.
VCR智能无扰动特性的精确数值运算   总被引:3,自引:1,他引:2  
根据智能变进制(VCR)的变溢性、拓展性及申缩性有机结合的技术,提出一种新颖智能的、无数字扰动的精确数值运算.该运算结果值的精确位数.是可以任意或无限地确定的,它可以很好地解决了计算机数值分辨率即由CPU字长制约的有效数字位教不足而造成的数值精确计算PC(Precise Computing)的扰动性问题,例如对中国古代数学家祖冲之曾研究圆周密率π值实验数据(π=355/113)的除法精确计算.  相似文献   

15.
近年来,随着大数据业务的使用,系统在运行时会产生大量的数据信息与日志文件并保存在磁盘中。由于在系统规划初期,对系统分区大小规划预期不足,很难合理规划磁盘空间,造成后期系统运行中经常出现系统分区磁盘不足的问题。当发生此类告警时,通常的分区很难动态调整大小,通常采用暂停业务,更换磁盘,数据备份与恢复的方式,该方式操作困难,程序复杂,有数据丢失的风险。在Linux系统里使用LVM(逻辑卷)技术,支持在线空间扩容,可以在用户无感知的情况下扩展系统分区容量,达到合理利用磁盘空间的目的。本文介绍了LVM技术,并在Linux系统里将分区做成逻辑卷,达到合理利用磁盘空间的目的。  相似文献   

16.
深度强化学习是指利用深度神经网络的特征表示能力对强化学习的状态、动作、价值等函数进行拟合,以提升强化学习模型性能,广泛应用于电子游戏、机械控制、推荐系统、金融投资等领域。回顾深度强化学习方法的主要发展历程,根据当前研究目标对深度强化学习方法进行分类,分析与讨论高维状态动作空间任务上的算法收敛、复杂应用场景下的算法样本效率提高、奖励函数稀疏或无明确定义情况下的算法探索以及多任务场景下的算法泛化性能增强问题,总结与归纳4类深度强化学习方法的研究现状,同时针对深度强化学习技术的未来发展方向进行展望。  相似文献   

17.
地图匹配( MM)算法通过粒子滤波( PF)利用室内地图信息来抑制基于惯性传感器的室内定位系统的误差累计。利用区域生长( RG)算法结合当前步长和方向信息在地图上找到合理的落脚范围,并以此来判断粒子的有效性。这种方法能有效改善地图配准算法的实用性和计算复杂度。提出一种改进的零速度( ZV)检测算法能准确提取步伐信息,间接提升了零速度更新( ZUPT)算法和地图配准算法的精度。实验结果表明:该算法的定位误差小于1.0%,定位精度比单纯的航位推算( DR)算法平均提高了5.97%。  相似文献   

18.
该文提出了适应于大型计算机网络和通信网络及应用系统的综合系统管理与网络管理体系结构,研究了基于大型数据库和Web技术的网管、网络自动拓扑发现、策略描述与策略服务以及资源依赖性分析服务等关键技术。该文将这些关键技术应用到综合系统管理与网络管理原型系统的工程实践中,为最终研制高性能、可伸缩和实用的系统管理与网络管理产品提供强有力的技术支持。  相似文献   

19.
与说话人识别、连续语音识别相比,自动语言辨识是一个相对较新的研究,而且是一项较难的课题。与音素配位学相比较韵律是语言辨识的更有希望的一个语言辨识特征。论文介绍了一种基于伪音节结构CnV的自动语言辨识方法,该系统提取了辅音、元音构成的伪音节结构的MFCC和!MFCC特征参数,使用了与语言无关的GMM算法模型化该特征。经过对OGI-TS数据库中的英语、法语、汉语测试表明,元音、辅音特征信息在语言辨识中起到一定作用,伪音节结构模型也是语言辨识的有效模型之一。  相似文献   

20.
基于数据仓库的数据采掘技术应用   总被引:10,自引:0,他引:10  
本文首先分析了基于数据仓库的数据采掘的主要方法,技术和应用,然后通过实例讨论了数据采掘在股票分析与决策系统中的应用。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号