首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 62 毫秒
1.
分析了线性反馈移位寄存器(LFSR)和猫映射的基本结构,给出了一种基于LFSR与猫映射的伪随机序列生成方法。该方法根据LFSR的计算结果产生相应的选择函数,通过选择函数确定当前迭代计算中猫映射的系数矩阵;应用选定的系数矩阵进行迭代计算产生相应的混沌序列,将其二值化后作为反馈值与LFSR的反馈值进行异或运算,运算结果作为LFSR的最终反馈值,实现对LFSR生成序列的随机扰动。通过实验对生成序列的性能进行了分析,结果表明,产生的混沌序列具有良好的随机性和安全性。  相似文献   

2.
序列设计在信息安全,无线通信等诸多领域中有着重要应用。在流密码系统中,要求产生的随机序列具有理想的随机复杂度度量如线性复杂度,k阶相关复杂度等。其中Legendre序列具有这些理想的随机性质。实用中序列的生成速度也是很重要的考虑因素。探讨了大素数周期的Legendre序列生成的相关算法,并运用统一计算设备架构平台(CUDA)对其进行优化以加快序列的生成速度。实验结果表明,运用CUDA进行序列的并行生成,序列的生成速度有数量级的提高。  相似文献   

3.
4.
吴盼望  张善从 《计算机工程》2012,38(18):265-267
针对传统线性移位寄存器生成的伪随机序列输出数据速率低以及每个循环周期内0和1的数目不相等的问题,提出一种改进型的寄存器序列结构,采用跃进型移位寄存器为基础保证较高的输出速率,增加类似于De Bruijn计数器的反馈保证01平衡。理论分析与仿真结果表明,改进后的寄存器序列结构同时克服了原有结构的2个缺点,适合于高速率应用场合。  相似文献   

5.
利用GPGPU(General Purpose GPU)强大的并行处理能力,基于NVIDIA CUDA框架对已有的稀疏磁共振(Sparse MRI)重建算法进行了并行化改造,使其能够适应实际应用的要求。稀疏磁共振成像的重建算法包含大量的浮点运算,计算耗时严重,难以应用于实际,必须对其进行加速和优化。实验结果显示,NVIDIA GTX275 GPU使运算时间从4分多钟缩短到3.4秒左右,与Intel Q8200 CPU相比,达到了76倍的加速。  相似文献   

6.
现今,m序列通常用线性反馈移位寄存器(LFSR)来产生,但产生的序列单一,且其串行的产生方式使得序列的产生速率随码序列周期的增大而成线性增大的趋势。文章分析了线性反馈寄存器的特征多项式,在电路中加入寄存器组,提出了一种改进型线性反馈移位寄存器结构。改进后的电路实现各级寄存器并行输出数据,克服了传统线性反馈移位寄存器产生m序列的速度受字长制约的限制,且电路可以重构特征多项式的系数因子产生多种序列。最后,以周期为15的m序列为例对电路进行了仿真和验证,实验结果表明序列产生速率提高了N/2倍(N为寄存器级数)。  相似文献   

7.
马超  卢玉贞 《计算机应用》2008,28(10):2704-2706
针对线性反馈移位寄存器产生的序列周期小,不适用于大数据量信息加密的缺点和单纯的混沌序列在有限精度下易出现小周期的问题,将二者结合,提出一种基于混沌的反馈移位寄存器设计方法,并对这一方法下产生的序列进行了大量的数据试验。分析结果证明,该法产生的二值序列密码具有优良的密码学特性,很适合用于数据加密。  相似文献   

8.
GPU可以快速有效的处理海量数据,因此在近些年成为图形图像数据处理领域的研究热点。针对现有GPU渲染中在处理含有大量相同或相似模型场景时存在资源利用率低下和带宽消耗过大的问题,在原有GPU渲染架构的基础上提出了一种基于CUDA的加速渲染方法。在该方法中,根据现有的GPU渲染模式构建对应的模型,通过模型找出其不足,从而引申出常量内存的概念;然后分析常量内存的特性以及对渲染产生的作用,从而引入基于常量内存控制的方法来实现渲染的加速,整个渲染过程可以通过渲染算法进行控制。实验结果表明,该方法对解决上述问题具有较好的效果,最终实现加速渲染。  相似文献   

9.
为解决目前已有的图像匹配算法不适用于对实时性要求很强的应用,提出了PLS(Partial Least Squares)与余弦定理相结合的并行化图像匹配算法。该算法在CUDA架构下,对图像矩阵分块,分块后每个小块图像存入共享存储器处理并提取每个小块图像特征,通过合并后图像特征采用余弦定理计算图像的相似度,从而找出匹配图像。实验表明,CUDA架构下可以实现图像的并行匹配,与CPU上串行匹配相比,时效性提高了百倍以上。  相似文献   

10.
随着FPGA计算能力的不断提高,使用FPGA进行计算加速的研究越来越多。在这些加速对象中,有许多应用都需要使用到随机数生成器。本文应用Leap Forward方法,提出了一种基于Galois类型线性反馈移位寄存器产生随机数的硬件结构。详细分析了该硬件结构中转换矩阵的特征,给出了提高工作速度和减小硬件面积的方法。应用该硬件结构,本文在Xilinx Vertex 6 FPGA上设计实现了16位输出的随机数产生器。实验结果显示,该随机数产生器仅使用了6个slices资源,工作速度可以达到951MHz,产生随机数的吞吐率可以达到15.2Gbps。文中使用K-S方法对所产生随机数的质量进行了检测,并给出了所产生的105个随机数的CDF曲线与理论CDF的比对结果。  相似文献   

11.
第一性原理计算软件在密度泛函理论的发展中起着重要作用。相比平面波方法,局域轨道法更适合处理大规模多体问题。随着问题规模的不断增大和计算机计算能力的提升,软件的并行加速成为一个重要课题,MPI(message passing interface)结合GPU(graphic processing unit)实现的异构并行是一个新的解决方案。基于局域轨道法的第一性原理计算软件MESIA(massive electronic simulation based on systematically improvable atomic bases)经过MPI+OpenMP+CUDA三级并行,单GPU取得了约15倍的加速比,同时表现出了良好的可扩展性。测试结果同时验证了使用GPU计算可以保证计算精度。  相似文献   

12.
多尺度Retinex图像增强算法增强效果明显,被广泛应用于图像和视频的增强处理中,但复杂的计算量限制了其在实时性应用中的推广,对于高清及多路视频的处理更是如此,因此研究其高速并行算法具有重要意义。本文以通用型GPU为基础,提出了一种基于CUDA的多尺度Retinex实时视频增强并行算法。根据算法各模块的耦合性将计算复杂的高斯滤波、对数空间差分及动态范围压缩等模块采用CUDA并行处理的方式实现,并利用视频序列之间的相似性降低多尺度Retinex算法的参数更新频率,以节省大量的计算耗时。实验结果表明所提算法能显著提高计算速度。  相似文献   

13.
为了提高重建图像的速度及质量,利用CUDA(compute unified device architecture)架构下GPU(graphic processing unit)的多核并行运算能力,将光线投射的几何变换、场景遍历和渲染三个步骤在可编程图像硬件中实现,降低模拟所需的时间;利用3D纹理、光线程基元的同步遍历机制及不透明度提前终止,在不影响成像质量的前提下,减少生成最终模拟效果所需的时间。实验结果表明,该算法不仅可以提高重建的速度,而且成像质量较好。  相似文献   

14.
时间序列大数据记录着复杂系统在时间和空间上大尺度的演化过程,详细描述了系统不同部分之间的相互作用和相互联系.提取时间序列大数据中潜在的低维因子对研究复杂系统的整体机制有着至关重要的作用.大数据的超高维和大尺度导致许多传统因子分析方法难以适应,先验知识缺乏更增加了研究难度.针对这一巨大挑战,提出了一种面向时间序列大数据的海量并行贝叶斯因子化分析方法(the massively parallel Bayesian factorization approach, G-BF).在缺失先验知识的情况下,通过贝叶斯算法导出因子矩阵,将算法映射至CUDA(compute unified device architecture)模型,以大规模并行的方式更新因子矩阵.该方法支持对任意维度张量的因子分解.实验结果表明:1)与通过GPU加速化的因子分解算法G-HALS(GPU-hierarchical alternative least square)相比,G-BF具有更好的运行性能,且随着数据规模的增加,其性能优越性更加明显;2)G-BF在数据处理规模、秩及维度方面都具有良好的可扩展性;3)将G-BF应用于现有子因子融合框架(hierarchical-parallel factor analysis, H-PARAFAC),可将“巨型”张量作为一个整体进行因子化分解(在2个节点上处理10\\+{11}个数据元素),其能力较常规方法高出2个数量级.  相似文献   

15.
CUDA下受体评分网格生成并行算法   总被引:1,自引:0,他引:1  
针对分子对接中生成评分网格需要花费很多的计算时间这一问题, 提出了一种基于统一计算设备架构(CUDA)的评分网格生成并行算法。该算法把传统计算方法中三维计算空间中的一维通过在图形处理单元(GPU)上进行并行处理, 使得总生成时间得到了降低, 提高了评分网格的生成效率。实验结果表明, 借助于GPU的浮点计算能力, 提出的并行算法对比传统的计算方法可以显著缩短评分网格的生成时间, 为评分网格的生成提供一种新的方式。  相似文献   

16.
近年来电子设计自动化(EDA)研究人员尝试利用图形处理器(graphic processing unit,GPU)提供的高性能计算能力对IC参数分析进行加速研究.为了利用GPU进行电源线/地线网络(power/ground network,P/G网)快速分析,设计了一种基于经典的连续过松弛(successive over-relaxation,SOR)算法的高效P/G网分析并行算法.基于GPU并行计算加速原理,此算法进行了如下改进:1)采用红-黑次序的松弛策略.将所有的节点分为红黑两类,红色节点的所有邻点只有黑色节点、黑色节点的所有邻点只有红色节点,红色节点与黑色节点交替松弛,保证了GPU并行计算中的数据一致性.对于具有N个节点的P/G网而言,一次红色节点或黑色节点松弛可以同时对N/2个节点进行松弛操作,即理论上可以同时启动N/2个并行线程.2)优化数据结构.实现了对数据空间的合并访问,以保证对GPU全局存储空间的最优访问.3)在共享存储器内通过并行归约对松弛标记进行快速统计,同时利用zero-copy技术进行松弛标记的快速拷贝,以快速决定是否继续松弛.大量的实验结果表明:与单线程的CPU程序相比,此算法的加速倍数随GPU所提供物理线程的数目增加而线性增加,可以获得最大242倍的加速效果,是目前EDA研究领域中加速效果最好的GPU算法.  相似文献   

17.
针对基于立体视觉的直升机旋翼桨叶挥舞角测量CPU串行算法耗时多、效率不高的问题,利用图像处理单元(GPU)并行计算的优势,提出一种基于CUDA统一计算设备构架的并行处理快速算法.首先,对算法中最耗时的图像去噪、阈值分割、连通域标记三部分进行并行化设计;然后,采用多层次并行策略将大量密集运算分配到不同的图像处理单元上并行执行,利用共享内存和共享寄存器加速数据访问;最后,进行多次测量实验,结果表明该方法执行效率明显高于CPU串行方法,可满足旋翼桨叶挥舞角快速测量的要求.  相似文献   

18.
基于GPU的并行优化技术*   总被引:2,自引:2,他引:2  
针对标准并行算法难以在图形处理器(GPU)上高效运行的问题,以累加和算法为例,基于Nvidia公司统一计算设备架构(CUDA)GPU介绍了指令优化、共享缓存冲突避免、解循环优化和线程过载优化四种优化方法。实验结果表明,并行优化能有效提高算法在GPU上的执行效率,优化后累加和算法的运算速度相比标准并行算法提高了约34倍,相比CPU串行实现提高了约70倍。  相似文献   

19.
带反馈的混沌并行GA及其在非线性约束优化中的应用   总被引:4,自引:0,他引:4  
基于生物系统中普遍存在"随机进化 反馈"现象,提出了带反馈机制的混沌并行遗传算法:混沌映射的嵌入保持演化群体良好的多样性,而反馈机制,即基于Baldwin效应的后天强化学习,克服纯粹随机演化,从而加速系统演化进程.通过基准复杂非线性约束优化问题及金融领域中基准的参数优化问题的数值实验,验证了文中算法的高效性、通用性及稳健性.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号