共查询到19条相似文献,搜索用时 46 毫秒
1.
合成孔径雷达(SAR)成像处理是一项需要进行大量计算的处理任务。图形处理器(GPU)具有数十倍于CPU的浮点计算能力以及传输带宽,而CUDA 技术的发展使得GPU 能够方便地进行通用计算。该文提出了一种在GPU上进行SAR 成像的高效方法。与一般GPU 处理方法相比,该方法使得处理过程中的CPU-GPU 往返数据传输由4 次减少到1 次,而且同时利用了工作站上的CPU 与GPU 计算资源。实验结果表明,该方法能够带来相对一般GPU 处理方法2.3 倍的处理效率提升,从而验证了该方法的有效性。 相似文献
2.
系统几何校正是星载SAR地面数据处理的基本环节,但高分辨率星载SAR数据量巨大,导致其计算时间很长,成为处理的瓶颈.为解决这一问题,文中提出了统一设备架构(CUDA)模型下的GPU+CPU系统几何校正方法,并根据算法特点对重采样步骤的并行计算结构进行优化改进.最后,利用真实卫星影像进行了验证实验,结果表明该步骤获得了10倍的加速比,且图像的定位精度没有发生明显改变,可以更好地满足高时效应用需求. 相似文献
3.
两种大距离徙动高分辨率星载SAR成像算法的性能比较 总被引:1,自引:0,他引:1
改进的CS算法和等效斜视的波数域算法是适用于大距离徙动高分辨率星栽SAR成像的两种算法。为了给算法的选择提供一些参考,本文对两种算法进行了性能分析和比较,给出了两种算法在成像精度、算法的适应性和运算量三个方面的特点,并利用大量的仿真实验验证了分析结果。 相似文献
4.
基于等效斜视距离模型的高分辨率星载SAR波数域成像算法 总被引:2,自引:0,他引:2
为了解决CS算法在距离压缩时无法使用带有误差的原始信号的问题,作者提出一种等效斜视的波数域算法.本文基于星载SAR等效斜视距离模型,利用Bamler提出的波数域算法推导方法[1],从原始回波信号模型入手,详细推导出基于等效斜视距离模型的高分辨率星载SAR波数域成像算法,并给出了该算法的实现步骤.该算法适用于大距离徙动高分辨率星载SAR的精确成像.文中利用点目标回波仿真数据验证了算法的有效性并给出了该算法成像的质量评估指标. 相似文献
5.
6.
合成孔径雷达(SAR)成像处理的运算量较大,在基于中央处理器(Central Processing Unit, CPU)的工作站或服务器上一般需要耗费较长的时间,无法满足实时性要求。借助于通用并行计算架构(CUDA)编程架构,该文提出一种基于图形处理器(GPU)的SAR 成像处理算法实现方案。该方案解决了GPU 显存不足以容纳一景SAR 数据时数据处理环节与内存/显存间数据传输环节的并行化问题,并能够支持多GPU 设备的并行处理,充分利用了GPU设备的计算资源。在NVIDIA K20C 和INTEL E5645 上的测试表明,与传统基于GPU 的SAR 成像处理算法相比,该方案能够达到数十倍的速度提升,显著降低了处理设备的功耗,提高了处理设备的便携性,能够达到每秒约36兆采样点的实时处理速度。 相似文献
7.
8.
9.
为了解决CS算法在距离压缩时无法使用带有误差的原始信号的问题,作者提出一种等效斜视的波数域算法.本文基于星载SAR等效斜视距离模型,利用Bamler提出的波数域算法推导方法,从原始回波信号模型入手,详细推导出基于等效斜视距离模型的高分辨率星载SAR波数域成像算法,并给出了该算法的实现步骤.该算法适用于大距离徙动高分辨率星载SAR的精确成像.文中利用点目标回波仿真数据验证了算法的有效性并给出了该算法成像的质量评估指标. 相似文献
10.
高分辨率星载P波段SAR系统由于工作频率低,相对带宽大,合成孔径时间长,电离层效应影响显著,对系统参数设计和选择提出了与常规星载SAR相比较高而独特的要求。为了获得高质量的P波段SAR图像,必须结合其特点对系统各项关键参数进行论证比较。提出了星载P波段SAR的系统分析流程,结合其特点分析了系统体制选择、工作频率和极化方式选择,给出了系统等效噪声系数、PRF、距离方位模糊、天线口径等关键参数的设计,仿真结果表明该文的结果在分辨率和观测带等关键指标上优于欧空局BIOMASS系统。论文的工作可为星载生物量观测P波段SAR系统的工程实现提供参考。 相似文献
11.
近几年图形处理器GPU的通用计算能力发展迅速,现在已经发展成为具有巨大并行运算能力的多核处理器,而CUDA架构的推出突破了传统GPU开发方式的束缚,把GPU巨大的通用计算能力解放了出来.本文利用GPU来加速AES算法,即利用GPU作为CPU的协处理器,将AES算法在GPU上实现,以提高计算的吞吐量.最后在GPU和CPU... 相似文献
12.
随着X线探测板数据采集速度的快速发展,研究者开始利用C臂机采集投影数据并重建断层图像,用于手术导航或者放射治疗.但是普通PC的重建速度慢,很难匹配硬件数据采集速度,限制了其在实时临床环境中的应用.本文提出一种基于CUDA(Compute Unified Device Architecture)架构的改进FDK算法,利用GPU(Graphic Porcessing Unit)显卡的并行计算能力实现了实时CT重建,并通过B样条插值提高重建图像的质量,在实时临床环境中具有很好的应用价值. 相似文献
13.
面对互联时代海量的信息数据,图形处理器凭借极强的并行计算处理能力,通过GPU+CPU的架构为现代无线接入网设备的信号处理,提供了一种理想的技术手段。文章设计了一款基于CUDA编程接口的GPU Trace模块,用于在GPU+CPU平台架构中跟踪记录GPU的运行信息。 相似文献
14.
提出了基于GPU-CPU流水线的雷达回波快速聚类方法.该方法利用GPU与CPU异步执行的特征,将聚类的各步骤组织成流水线,大大的挖掘了聚类全过程的的并行性.实验表明,引入这种GPU-CPU流水线机制后,该方法比一般策略的基于GPU的并行聚类算法性能有38%的提升,而相对于传统的CPU上的串行程序,获得了47x的加速比,满足了气象实时分析应用中的实时性要求. 相似文献
15.
基于GPU的人脸检测和特征点定位研究 总被引:1,自引:0,他引:1
人脸分析相关应用越来越广泛,但随着高清视频影像的广泛使用,传统的基于CPU设计实现的程序已难以满足时效性要求。本文基于GPU平台实现了人脸检测和特征点定位的并行化。首先为了加速人脸检测过程,使用Nvidia的CUDA计算范式,通过"窗口级并行"和"分类器级并行"两步实现基于Haar特征的Adaboost算法;然后在人脸检测的基础上,提出一种在常量时间内获得初始模型的方法,并行实现ASM算法。与OpenCV中基于CPU的方法相比,基于GPU的本方法有一定速率提升。 相似文献
16.
17.
18.
Satyendra Singh Yadav Paulo Alexandre Crisstomo Lopes Aleksandar Ilic Sarat Kumar Patra 《International Journal of Communication Systems》2019,32(4)
General purpose graphics processing units (GPGPUs) have gained much popularity in scientific computing to speedup computational intensive workloads. Resource allocation in terms of power and subcarriers assignment, in current wireless standards, is one of the challenging problems due to its high computational complexity requirement. The Hungarian algorithm (HA), which has been extensively applied to linear assignment problems (LAPs), has been seen to provide encouraging result in resource allocation for wireless communication systems. This paper presents a compute unified device architecture (CUDA) implementation of the HA on graphics processing unit (GPU) for this problem. HA has been implemented on a parallel architecture to solve the subcarrier assignment problem and maximize spectral efficiency. The proposed implementation is achieved by using the “Kuhn‐Munkres” algorithm with effective modifications, in order to fully exploit the capabilities of modern GPU devices. A cost matrix for maximum assignment has been defined leading to a low complexity matrix compression along with highly optimized CUDA reduction and parallel alternating path search process. All these optimizations lead to an efficient implementation with superior performance when compared with existing parallel implementations. 相似文献
19.
协议特征识别技术中用到了一种重要的LCS算法,它是一种字符串比对算法,提取出字符串中的最长连续公共子串。然而,通过理论分析和实验表明:这个查找过程是一个时间复杂度较高的运算过程,如果输入的数据分组比较大,那么运行的时间将会非常长,为此不得不控制输入数据分组的大小和数量,这严重限制了所采用样本集的大小。提出了基于GPU对LCS运算实现加速的方法。在此基础上搭建和配置了CUDA平台,在此平台下研究并实现了LCS算法的并行性。通过对LCS算法在CUDA下并行性的研究,有效地加快了LCS算法的运行速度。实验结果表明,GPU下LCS算法的运行效率比CPU有了显著的提高。 相似文献