首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 140 毫秒
1.
在SAR的回波数据的成像处理中,距离徙动是影响二维压缩成像聚焦效果的重要因素。因此距离徙动的校正是SAR成像过程中的关键。本文以机载正侧视点目标成像为例,对SAR回波中的距离徙动进行了分析,研究了3种插值方法:最近邻域近似法、拉格朗日插值法、sinc插值法在SAR成像中的应用。通过计算机仿真,分析了3种插值方法校正弯曲的效果,并对3种插值方法的运算量和成像结果进行了比较。结果表明要根据插值的精度和运算量的大小选择合适的插值方法。  相似文献   

2.
对于高分辨率宽测绘带机载SAR,载机平台运动误差导致的相位误差具有严重的距离向空变性,因此在距离向采用了分段相位梯度自聚焦(PGA)算法来提高聚焦性能。然而传统的基于CPU的处理平台已经不能完全满足大量回波数据和复杂算法的快速处理。论文中针对机载高分SAR,提出适用于机载高分SAR的改进的距离向空变PGA算法。基于CPU+GPU的协同架构,改进的自聚焦算法和惯导运动补偿都得到了最大的并行优化。实验结果显示,该改进方法在并行平台上能够达到48倍的加速比的提升。  相似文献   

3.
逆合成孔径雷达(inverse synthetic aperture radar,ISAR)是一种具有很高的成像分辨率的雷达,其成像过程是一项大数据量的高密度计算的处理任务。图形处理器(GPU)具有数十倍于CPU的浮点计算能力以及传输带宽,而CUDA 技术的发展使得多线程、单指令的GPU 架构能够方便快速地进行并行计算。提出了一种在cuda平台上用GPU进行非相参成像处理的高效方法,利用GPU 的并行特性,实现了成像处理过程的并行化,与一般GPU 处理方法相比,其处理速度可以达到实时成像的效果,运算速率明显提高。  相似文献   

4.
为了提高电力系统小干扰稳定全部特征值分析的计算速度,研究了QR算法中上Hessenberg约化算法的并行化方法。以分块的方式将约化算法中的浮点运算整合为高阶的基础线性代数子程序(BLAS)运算,实现了分块约化算法在中央处理器(CPU)/图形处理器(GPU)混合架构下的并行,并应用到大规模电力系统的小干扰稳定全部特征值分析中。仿真结果表明,相比于多核CPU并行,基于GPU的分块上Hessenberg约化算法取得了高达5倍的加速效果。包含所提方法的全部特征值分析的整体计算速度获得了显著的提升,提高了QR算法对于大规模电力系统仿真分析的适用性。  相似文献   

5.
首先,介绍了基于直流潮流模型的故障筛选算法;然后,基于GPU的软硬件架构特点,提出了在任务分配、PCIe总线数据交互、线程分配方式、内存访问模式4个方面GPU算法设计应遵循的通用准则;最后,对GPU加速的故障筛选算法进行了详细设计和优化,提出了一种匹配GPU编程架构的并行直流故障筛选算法。算例分析结果表明,所提算法计算9 241节点算例的绝对执行时间仅为188 ms,相对于6核心CPU算法取得了11倍加速;所提4个设计准则具有通用性,可被应用于其他电力系统算法的GPU加速。  相似文献   

6.
基于道路树分层的大电网潮流并行算法及其GPU优化实现   总被引:3,自引:0,他引:3  
针对大规模电网分析及能量管理系统对快速潮流计算的需求,提出了一种适于图形处理器(GPU)的基于道路树分层的稀疏矩阵直接分解算法,并结合该算法在GPU上实现了基于牛顿-拉夫逊法的潮流计算.为提高基于GPU的计算效率,首先在GPU上实现了潮流方程式右端项生成、雅可比矩阵生成、LU分解以及前推回代求解,减少了CPU和GPU之间的数据传输时间.其次,针对GPU中寄存器-缓存-显存多级存储架构,改进数据存储方式,减少了读取延迟.进一步,考虑GPU线程组织特点,优化任务分配,增加了计算并行度.最后,对比基于CPU的电力系统分析综合程序(PSASP)潮流计算模块,进行了数值仿真测试.结果表明,随着节点数的增加,所提出的程序计算优势越来越显著,算例规模达到43 602个节点时可获得5.172倍的加速比,验证了算法的有效性和实用性.  相似文献   

7.
随着电网规模不断扩大,负荷增长明显,快速、准确地进行大规模病态潮流求解具有重要的实用价值。将连续牛顿法(CNM)应用于大规模电力系统病态潮流求解中,将潮流方程的求解过程等效为常微分方程组积分计算过程。为了加速该计算过程,针对中央处理器(CPU)+图形处理器(GPU)协同计算架构,设计了基于GPU的不平衡功率快速计算方法,进而优化CNM算法并行实现所需软硬件配置,形成高效的大规模病态潮流求解方法。通过多个大规模病态潮流算例验证了所提CPU+GPU协同潮流计算方法的正确性和实用性。  相似文献   

8.
针对小波分解计算速度慢、实际工程应用少的问题,采用图形处理器(GPU)作为计算平台,提出一种基于计算统一设备架构(CUDA)的细粒度高速并行小波分解算法。通过分析小波Mallat算法的并行性,并考虑GPU单个处理单元计算能力相对较弱的特点及CUDA的多层式存储器结构、多层式线程组织结构和单指令流多线程流(SIMT)体系结构,采用数据分组及轻量级线程任务分解的方式,提出了适合CUDA程序设计模型的高速并行小波分解算法,并将其用于电力系统谐波分析。实验证明,该算法相对于CPU串行小波分解和Matlab engine小波分解的计算耗时,最高可分别达到26倍和65倍的速度提升,且算法具有线性加速能力。  相似文献   

9.
本文研究了线性调频连续波SAR的距离徙动算法成像.线性调频连续波SAR发射的信号周期较长,雷达在发射和接收信号期间不能再视为静止,STOP AND GO近似不能再视为有效.针对线性调频续波SAR的特点,在STOP AND GO近似成立的条件下,讨论距离徙动算法的实现过程.STOP AND GO近似失效时,通过补偿线性调频连续波SAR连续运动引入的多普勒频移,将此运动产生的多普勒频移转化成对距离的影响,对距离徙动算法提出了改进,并给出点目标的仿真验证.  相似文献   

10.
合成孔径雷达(SAR)成像处理需要较大的计算量,在基于中央处理器(CPU )平台开发的SAR成像系统上处理一般需要消耗很长时间,无法满足实时成像的要求。借助于计算统一设备架构(CUDA )编程模型,基于图形处理器(GPU )提出了一种适用于多模式SAR的实时成像方案。该方案通过数据分段处理技术解决了计算设备GPU显存容量不足的问题;通过分析成像处理任务的并行度,利用异步执行流处理技术减少数据处理对数据交互的等待时间;通过优化GPU内存访问机制并使用特殊函数单元(SFU )减少计算时钟周期。同时,该方案能够支持多GPU设备的并行处理,充分利用了GPU设备的计算资源。在NVIDIA GT 740M和INTEL Q6600上的实验结果表明,该方案与传统的基于CPU的单线程SAR成像技术相比,有了近150倍的速度提升,大大提高了SAR成像处理的计算效率,具有很好的工程应用前景。  相似文献   

11.
潮流计算是电力系统计算的基础,其核心是LU分解计算,因此电力系统潮流计算加速的关键在于LU分解加速。当前,基于中央处理器(CPU)的并行算法已经成熟,性能提升空间有限。图形处理器(GPU)作为协处理器,在科学计算方面具有强大的优越性,被广泛应用到电力系统潮流计算中。文中首先分析了GPU结构和并行运行架构,然后介绍了LU分解原理,并选择了合适的矩阵排序算法和稀疏矩阵存储模型,借助统一计算设备架构(CUDA)编程模型实现了基于GPU的单个LU分解和批量LU分解并行加速,最后在仿真设备上测试了5个不同的案例,对比分析其并行算法的加速效果。仿真测试结果表明,基于GPU的批量稀疏LU分解并行算法,平均可以获得25~50倍的加速效果。  相似文献   

12.
卷积神经网络-支持向量机(CNN-SVM)混合算法结合了CNN特征提取能力和SVM分类性能,在计算复杂度和解决小样本问题上具有一定优势,目前已在故障诊断、医学图像处理等领域得到了一定应用,同时,由于其计算复杂度较低,也引起了边缘计算领域的关注。针对边缘计算场景中对算法性能和功耗的要求,提出了一种面向FPGA平台的CNN-SVM算法优化与实现方法。首先,结合FPGA的架构特点,对CNN-SVM算法结构进行了硬件适应性优化,包括模型压缩和分类器核函数的选取。其次,采用了软硬件协同和高层次综合(HLS)设计方法,完成了CNN-SVM算法加速器的设计与实现。实验结果表明,在ZCU102上,加速器的FPS(frames per second)达到了18.33 K,计算速度为1.474 GMAC/s,相对于CPU平台四核Cortex-A57和Ryzen7 3700x分别实现了23.57和4.92倍加速,相对于Jetson Nano GPU和GTX750平台能耗比分别达到了33.24和50.27。  相似文献   

13.
为了解决全景视频生成系统中的速度瓶颈,讨论了一种基于显卡硬件加速的全景视频生成方法,该方法将显卡中的图形处理器(graphic processing unit,GPU)作为CPU的协处理器,充分发挥GPU强大的图形处理能力,协助CPU处理那些运算量巨大的图像处理任务,如白平衡和透视变换处理等,从而将CPU从繁重的图像处理工作中解放出来,并在很大程度上提高全景视频的生成效率,使之达到实时的生成效果。这一GPU协同处理的全景视频生成架构已在一台全景摄像机系统样机上实现,并能够实时地生成360°的全景视频,表明该全景视频生成架构在工程上具有可行性。  相似文献   

14.
Graphics processing unit (GPU) has been applied successfully in many computation and memory intensive realms due to its superior performances in float-pointing calculation, memory bandwidth and power consumption, and has great potential in power system applications. Contingency screening is a major time consuming part of contingency analysis. In the absence of relevant existing research, this paper is the first of its kind to propose a novel GPU-accelerated algorithm for direct current (DC) contingency screening. Adapting actively unique characteristics of GPU software and hardware, the proposed GPU algorithm is optimized from four aspects: data transmission, parallel task allocation, memory access, and CUDA (Compute Unified Device Architecture) stream. Case studies on a 3012-bus system and 8503-bus system have shown that the GPU-accelerated algorithm, in compared with its counterpart CPU implementation, can achieve about 20 and 50 times speedup respectively. This highly promising performance has demonstrated that carefully designed performance tuning in conjunction with GPU programing architecture is imperative for a GPU-accelerated algorithm. The presented performance tuning strategies can be applicable to other GPU applications in power systems.  相似文献   

15.
以求解无功优化问题的内嵌离散惩罚非线性原对偶内点法为基础,利用高性能图形处理器实现了线性修正方程的并行求解。将计算密集部分在图形处理器上实现,其余部分在CPU上执行,并且采用单精度和双精度两种模式进行对照。该算法充分利用了图形处理器强大的并行处理能力和极高的存储器带宽,可获得显著的加速效果。在IEEE 118节点系统和实际538、1133和2212节点系统的计算表明,采用单精度浮点运算的无功优化计算速度最快,加速效果最好,在2212节点系统上的加速比达到近30倍。  相似文献   

16.
基于测量不确定度的概念,以测点正常率最大(MNMR)为目标的电力系统抗差状态估计方法具有较好的不良数据辨识能力。然而,该模型求解困难,已有研究对该模型进行了近似等效,并采用现代内点法进行求解,但存在因近似而辨识效果降低的问题。为此,基于MNMR状态估计模型,采用杂交变异粒子群算法,提出一种基于图形处理器(GPU)并行加速的不良数据辨识算法。该算法不对MNMR模型进行近似等效,根据GPU并行计算架构特点,设计了粗粒度和细粒度结合的并行加速策略。算例结果表明,所提的算法对不良数据的误检率和漏检率较低,具有较好的不良数据辨识能力,且计算时间短,加速效率高,能够满足实际运行需求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号