共查询到20条相似文献,搜索用时 31 毫秒
1.
Giorgia Zucchelli 《电子设计技术》2012,19(3):57-58,62
近年来,使用GPU(通用图形处理器)进行科学计算已变得十分普遍。GPU最初设计用于图像密集型视频游戏产业中的图形渲染绘制,但近年来GPU不断发展,现可用于更广泛的用途。研究人员可对其进行程序设计以执行计算,用于数据分析、数据可视化,以及金融和生物建模等应用。 相似文献
2.
面对互联时代海量的信息数据,图形处理器凭借极强的并行计算处理能力,通过GPU+CPU的架构为现代无线接入网设备的信号处理,提供了一种理想的技术手段。文章设计了一款基于CUDA编程接口的GPU Trace模块,用于在GPU+CPU平台架构中跟踪记录GPU的运行信息。 相似文献
3.
根据GPU和CPU在硬件组成以及数据处理的区别引入了通用GPU计算的概念.通过计算流体粒子模拟的实际数学模型来详细介绍了通用GPU计算的实现方式,并且给出了具体程序的设计算法,最终使用计算数据测试验证通用GPU计算对与离散型大规模数据计算的高效性. 相似文献
4.
合成孔径雷达(SAR)成像算法能够通过图形处理器(GPU)加速来实现处理速度的显著提升。针对后向投影(BP)成像算法的GPU加速,分析了BP算法的并行化和并行处理方法,提出了一种适合GPU加速的BP成像方案;通过研究GPU设计中的多流异步执行技术、数据传输模式和计算速度与精度,进一步提出一种针对BP成像的GPU优化成像方案。通过仿真数据和实测数据在Tesla C2075上的测试结果表明,与GPU非优化方案的实现相比,该方案有了近一倍的速度提升。 相似文献
5.
6.
针对三维地形数据生成时间过长的问题,提出了一种基于集群和GPGPU技术的HPC(High Performance Computing)高性能计算方法,能够有效整合集群中多台计算机的CPU和GPU的处理能力.在三维地形数据生成过程中,该方法将地形数据进行二次细化,分别分配给GPU的每个任务管线,大幅度提高运算吞吐量,缩短三维地形数据的生成时间. 相似文献
7.
分析了KNN算法在GPU上实现并行计算的可能性,提出了通过使用CUDA实现KNN算法的方案,在研究了GPU对存储访问的机制后,通过设计合理的数据以及对算法的改进,避免存储体冲突的产生,提高了算法的健壮性。研究结果证明该方法在GPU上的并行运算速度明显要快于CPU,有着很好的加速比。 相似文献
8.
针对多天线信号合成系统对于宽带、高速、并行信号的实时合成需求,设计了基于图形处理单元(Graphics Processing Unit,GPU)的宽带信号时延差与相位差估计方法,对估计方法中的快速傅里叶变换(Fast Fourier Transform,FFT)、共轭相乘、累加平均等模块进行了相应的线程并行程序设计。为充分发挥GPU的并行运算能力,利用异步流并发的方式对估计方法进一步优化,从结构层面有效提高了数据的并行处理效率。对基于GPU的宽带信号时延差与相位差估计方法进行了实验验证,多次实验测试结果表明,数据量为512 000时,在保证估计正确性的基础上,该方法相比传统串行CPU估计方法约有125倍的加速比,采用该方法可实现对多天线信号参数的实时估计。 相似文献
9.
10.
11.
12.
随着图形处理器(GPU)性能的突飞猛进,以及GPU可编程特性的发展,人们开始将GPU应用到通用计算领域(GPGPU)。目前国内在这方面的研究还相对较少。使用改进的按频率划分(DIF)算法,结合相关研究的新进展,在GPU上实现了快速傅里叶变换(FFT),讨论和分析GPU在GPGPU中的应用技巧和技术原理,比较GPU与CPU在GPGPU设计中的差异以及性能表现。对GPGPU设计具有指导作用。 相似文献
13.
合成孔径雷达(SAR)的数据运算量不断增加,图形处理器(GPU)为其处理提供了新的运算平台.但是GPU显存小,不足以容纳大场景SAR数据.通过研究聚束SAR成像模式特点,提出了一种适合GPU加速的子孔径成像方案,降低了该算法对GPU显存的要求.在Tesla C2075上的实验结果表明,该方案能够取得良好的成像效果,与C... 相似文献
14.
15.
GIS栅格数据分析方法是在GIS数据处理有十分重要的地位。但是,利用CPU计算密集型栅格数据会让计算机显得力不从心。在过去的几年中,GPU处理数据的速度远远超过了CPU,由于这个原因,许多学者提出了,利用图形显示芯片(GPU)来为地理学,几何图形以及数据库运算服务。本文提出了一种基于GPU的通用框架来实现GIS栅格数据操作,并且进行了一个比较基于CPU算法和基于GPU算法运算速度的实验。实验结果表明,利用GPU操作空间栅格数据可以显著的提高运算速度,这意味着,在相同硬件条件下利用GPU来处理空间栅格数据可以大大降低成本。 相似文献
16.
基于GPU的虚拟内窥镜场景实时绘制算法 总被引:1,自引:0,他引:1
为满足影像引导手术(IGS)中高分辨率、海量数据的实时渲染,提出一种基于GPU的虚拟内窥镜场景实时绘制算法。该算法针对虚拟内窥镜渲染数据的特点(管腔数据占总数据比例小,5%左右),首先对图像进行自动分割,得到管腔组织的分割数据;仅将分割后的数据一次载入图像显存,利用光线投射算法进行渲染,并在多GPU负载方面做了优化。充分利用GPU渲染和并行计算的能力,实现了海量数据(1 024×1 024×1 024)的实时渲染。 相似文献
17.
18.
CUDA架构下的高清视频实时校正及显示系统 总被引:1,自引:1,他引:0
为了解决高清视频的畸变校正及显示的实时性问题 ,提出了一种CUDA架构下的并行加速方案。系统利用张正友标定方法获得摄像机的内部 参数和 畸变参数,并利用GPU的大规模并行计算能力加速校正过程。校正后,位于显存的图像数据 直接利用OPENGL驱动进行显示。针对不同架构GPU片上资源限制不同,设计了一种并行划分 参数自整定算法,保证了程序移植到不同GPU后能充分利用硬件资源, 实现最佳性能。实验结果表明,本文设计的系统对传统串行处理系统的综合加速比最高可达 39倍以上,对2596×1920分辨率视频下的处理帧率可达100F/s以上。 相似文献
19.
20.
针对软件无线电平台Open Air Interface(OAI)终端侧物理下行共享信道(Physical Downlink Shared Channel, PDSCH)中解扰模块和信道译码模块数据延时大的问题,提出了基于图形处理单元(Graphic Processing Unit, GPU)中统一计算设备架构的PDSCH优化方案,对传输块进行比特级和码块级数据划分,设计了多GPU下的并行解扰和并行信道译码,降低了数据延时,提高了下行峰值速率。实验结果表明,该优化方案基本维持了原有循环冗余校验码错误率,且在不同传输块大小下,解扰模块耗时最大降低92.1%,信道译码模块耗时最大降低83.7%,终端PDSCH耗时最大降低77.8%,下行峰值速率最大提高138.3%,有效提升了OAI平台性能。 相似文献