首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 46 毫秒
1.
在三维重建问题中,为了提高重建模型的精确度和完整性,需要增大三维重建的数据量,由此会增加重建的计算量和运行时间。针对该问题,对点云重建过程进行并行设计,降低耗时、提高三维重建的效率,提出在多核CPU、GPU架构和CPU/GPU异构环境下点云重建的并行算法,并在不同实验平台上对Kermit和hallFeng数据集进行了点云重建的并行实验。实验结果表明,相比于串行的点云重建算法,点云重建并行算法在保证重建精度的条件下,取得了较好的加速比,并且并行算法具有实验平台和数据规模的可扩展性。  相似文献   

2.
点云分割是逆向工程中模型重建的关键技术之一,然而在求取点云特征时非常耗时,通过OpenCL异构计算对其进行性能加速有着重要的现实意义。以散乱无序的点云为研究对象,通过OpenCL对点云分割算法加以改进。算法主要分为并行计算点云数据的特征值,并行计算点云数据的法向量和曲率3个步骤。在计算中,根据GPU的并行结构和硬件特点,优化了数据存储结构,提高了数据访问效率,降低了算法复杂度。实验结果表明,算法充分利用了OpenCL的并行处理能力,运行效率是基于CPU实现的16倍。  相似文献   

3.
CUDA是一种较为简便的利用GPU进行通用计算的技术。研究了GPU上基于CUDA的几种向量点积算法,比较、分析了每种算法的性能。实验表明,GPU上最快的算法比CPU上的算法快了约7倍。  相似文献   

4.
甘威  张素文  雷震  李怡凡 《计算机科学》2016,43(Z6):165-167
特征的检测和匹配在计算机视觉应用中是一个重要的组成部分,如图像匹配、物体识别和视频跟踪等。SIFT算法以其尺度不变性和旋转不变性在图像配准领域得到了广泛应用。传统的SIFT算法效率低,因此提出一种在移动智能终端上实现的高效方法。在Android平台利用OpenCL框架实现了移动智能终端的SIFT算法,通过计算任务的重新分配,优化SIFT算法在移动GPU上的并行实现。实验结果表明,移动平台的SIFT算法充分利用了GPU并行计算能力,大大提高了SIFT算法的执行效率,实现了高效的特征检测。  相似文献   

5.
随着网络带宽的不断增加,以及处理能力的限制,传统的网络入侵检测系统(Network Intrusion Detecting System,NIDS)面临挑战,如何提高NIDS的处理能力备受关注。通过专用设备提高检测速度,不但价格昂贵且无法大规模普及。通过对Linux网络协议栈的优化,以及常用入侵检测系统Snort的多线程化,结合了图形处理器(Graphic Processing Unit,GPU)的高性能并行计算能力,设计了一种高性能的软件入侵检测架构,突破现有NIDS使用普通CPU的计算瓶颈,以应对高速链路对入侵检测性能的要求。实验结果表明,高速网络中的数据包可以采用GPU来处理。  相似文献   

6.
文章提出了一种基于数学形态学的多目标的主点检测方法,介绍了形态学主点检测的原理,并且采用多尺度结构元素同时检测多个目标,提出了一种形态学的填充算法,给出了形态学主点检测的步骤。实验证明该方法能有效地检测出目标的主点,并能实现并行算法。  相似文献   

7.
基于多尺度下特征点的检测   总被引:2,自引:0,他引:2  
提出了一种在不同尺度空间下特征点提取的方法.该方法通过构造图像设高斯金字塔和高斯差分金字塔,进行极值检测,然后在极值点中去除低对比度的点并消除边界点的响应,得到关键点,最后计算关键点的方位和模的大小,从而得到特征点.利用该方法把取得的特征点对图像旋转、亮度变化、尺度缩放等情况下保持不变,此外对视角变化、仿射变换、噪声也保持一定的稳定性.给出了实验参数,并且对实验结果进行分析.  相似文献   

8.
声辐射力弹性成像是一种新的测量组织硬度的超声成像方法。不同于其他超声组织弹性成像方法,声辐射力弹性成像能够定量测量组织的弹性模量数值,并且具有对操作者经验依赖性低的特点。然而,由于成像算法数据处理量大,运算时间长,声辐射力弹性成像还无法进行准实时的二维成像。为了获得实时的二维声辐射力弹性图像,提出并实现了一种适合于在GPU上并行计算的声辐射力弹性成像算法。通过与运行在CPU上的原始声辐射力弹性成像算法进行对比,证明在GPU上实现的算法大幅度地提高了运算速度。在自制弹性仿体上,比较了基于GPU和CPU两种算法所成的二维弹性分布图像的质量,结果证明两者的图像质量没有明显差异。  相似文献   

9.
遥感多图像配准中自动提取特征点的并行算法   总被引:1,自引:0,他引:1  
遥感技术 图像配准 特征点 并行算法 图像处理 Forstner算子  相似文献   

10.
朱遵尚  刘肖琳 《计算机工程》2010,36(12):213-215
针对Harris角点检测精度和检测速度问题,利用现代图形处理器(GPU)对角点检测算法进行改进,提出一种基于GPU的快速亚像素Harris角点检测算法,该算法利用了GPU的并行处理能力和亚像素Harris角点检测算法的并行性特点。实验结果表明,对于分辨率为720×720的24 bit视频图像,该算法能够实现实时的亚像素级Harris角点检测。  相似文献   

11.
大尺度、高分辨率数字地形数据应用需求的增长,给计算密集型的累积汇流等数字地形分析算法带来了新的挑战。针对CPU/GPU(Graphics Processing Unit)异构计算平台的特点,提出了一种基于OpenCL(Open Computing Language)的多流向累积汇流算法的并行化策略,具有更好的平台独立性和可移植性,简化了CPU/GPU异构平台下的并行应用程序设计。累积汇流并行算法包括时空独立型的流量分配和空间依赖型的累积入流两个过程,均定义为OpenCL内核并交由OpenCL设备并行执行,其中累积入流过程借助流量转移矩阵由递归式转换为迭代式来实现并行计算。与基于流量转移矩阵的并行汇流算法相比,尽管基于单元入度矩阵的并行汇流算法可以降低迭代过程中的计算冗余,但需要采用具有较大延迟的原子操作以及需要更多的迭代次数,在有限的GPU计算资源下,两种算法性能差异不明显。实验结果表明,并行累积汇流算法在NVIDIA GeForce GT 650M GPU上获得了较好的加速比,加速性能随格网尺度增加而有所增加,其中流量分配获得了约50~70倍的加速比,累积入流获得了10~20倍的加速比,展示了利用OpenCL在GPU等并行计算设备上进行大规模数字地形分析的潜在优势。  相似文献   

12.
锥束计算机断层扫描(Cone-Beam Computed Tomography,CBCT)具有采集速度快和空间分辨率高等特点,被生物医学等领域广泛关注。然而通过CPU串行处理CBCT重建中海量投影数据非常耗时,难以满足实时性的需求。GPU的发展为CBCT重建的并行加速提供了条件。根据三角函数周期性的特点对FDK算法进行了改进,并利用GPU实现了12幅投影数据同时并行计算。实验结果表明,相比于传统基于CPU的重建算法,基于GPU的CBCT重建算法在保证图像质量的前提下,将重建速度提高了超过310倍。  相似文献   

13.
大尺度空间场景可视化中浮点精度问题研究   总被引:1,自引:0,他引:1       下载免费PDF全文
汪荣峰  廖学军 《计算机工程》2011,37(16):276-278
在具有极大数值范围的空间场景中实现可视化时,为避免图形处理器以32 bit单精度浮点表示所产生的“Wobbling”、“Pieces”等现象,提出分组分次绘制的解决方法.针对上述现象产生的原因,将场景中的对象分为大实体和小实体,根据空间场景的特征和对象之间的关系将场景中的对象分组,设计组内对象的绘制方法.实验结果表明,...  相似文献   

14.
王震  李仁发  李彦彪  田峥 《计算机工程》2014,(4):318-320,F0003
针对中英文混合文本的匹配准确性及大规模数据文本的匹配效率等问题,基于经典的线索化完全哈希特里树算法,提出一种并行化的中英文混合多模式文本匹配算法。采用拆分文本降低多模式匹配算法的串行度,进而在拆分出的小文本上并行地执行文本匹配。通过并行化预处理过程,设计新的存储结构。实验结果表明,该算法在保证结果正确的前提下,执行效率高于经典的串行匹配算法,当数据规模达到226个字符时,可以获得8倍以上的加速比。  相似文献   

15.
一种改进的Harris特征点检测算法   总被引:1,自引:0,他引:1       下载免费PDF全文
张永  纪东升 《计算机工程》2011,37(13):196-198,201
现有Harris特征点检测算法采用高斯滤波进行平滑,图像存在角点信息丢失与偏移的现象。为解决该问题,提出基于变分B样条滤波与快速局部窗口搜索相结合的Harris特征点检测算法,选择具有低通特性的B样条函数作为平滑函数构造滤波器,引入形态学滤波中的极大值滤波思想,利用快速局部窗口搜索算法进行特征点局部极值的提取,从而提高特征点提取的精度和速度。实验结果表明,改进算法具有特征点提取快速均匀、检测定位准确、抑噪性好的特点。  相似文献   

16.
基于支持向量机的入侵检测模型检测效率较低,为此,提出一种基于图形处理器(GPU)和特征选择的入侵检测模型。在入侵检测过程中,采用基于GPU的并行计算模型进行训练,并对样本的特征进行合理选择,从而提高检测效率。实验结果表明,在保证系统性能的情况下,该模型可以缩短训练时间。  相似文献   

17.
兰远东  刘宇芳  徐涛 《计算机工程》2012,38(13):145-147,151
为解决K-means 算法计算量大、收敛缓慢、运算耗时长等问题,给出一种新的K-means算法的并行实现方法。在通用计算图形处理器架构上,使用统一计算设备架构(CUDA)加速K-means算法。采用分批原则,更合理地运用CUDA提供的各种存储器,避免访问冲突,同时减少对数据集的访问次数,以提高算法效率。在大规模数据集中的实验结果表明,该算法具有较快的聚类速度。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号