首页 | 本学科首页   官方微博 | 高级检索  
     

异或逻辑GPU算法的性能分析与优化
引用本文:丁大虎.异或逻辑GPU算法的性能分析与优化[J].电子测量技术,2014(3):47-50.
作者姓名:丁大虎
作者单位:北方民族大学网络信息技术中心银川,750021
摘    要:对机器学习领域内非线性机器学习中的异或逻辑问题进行了深入探讨和分析,并阐述了该算法相应的并行实现方法。之后,通过在主流的Nvidia GPU Kepler架构上进行实际测试以及性能分析工具的使用,确定了该类机器学习算法的主要性能瓶颈。在此基础上,对该算法的最主要的性能瓶颈仿函数进行了优化。从数学理论上推导出了仿函数等价的变换公式并给出了新的计算模式。运用新的计算方法可以大幅度的减少关键路径上的计算量,最终得到了3.5倍的性能提高。

关 键 词:机器学习  Nelder-Mead方法  异或逻辑  GPU并行计算

Performance analysis and optimization for XOR GPU algorithm
Ding Dahu.Performance analysis and optimization for XOR GPU algorithm[J].Electronic Measurement Technology,2014(3):47-50.
Authors:Ding Dahu
Affiliation:Ding Dahu(Beifang National University, Yinchuan 750021, China)
Abstract:The machine learning algorithm of nonlinear XOR method is explored and analyzed in this paper and then we present the related parallel implementations.After that,we identified the performance bottleneck by testing on the popular hardware of NVIDIA's GPU of Kepler architecture and applying performance analysis tools to this kind of machine learning algorithm.Based on analysis results,we optimized the kernel function which also is the major performance bottleneck.Furthermore,the new mathematic formula and computational model are developed so that it can reduce lots of computations in critical path compared with original algorithm.Finally,more than 3.5X speedup are gained by using our proposal.
Keywords:machine learning  Nelder-Mead method  XOR  GPU parallel computing
本文献已被 CNKI 维普 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号