首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 125 毫秒
1.
针对多尺度预报模式离散得到的非对称稀疏线性方程组的求解,通过利用GCR(k)算法的固有性质,消除GCR(k)算法的内积计算数据相关性,给出了一种改进的GCR(R)(IGCR(k))算法.同GCR(k)算法对比,IGCR(k)算法与GCR(k)算法有相同的收敛性,在基于MPI的分布式存储并行机群上进行并行计算时,同步开销次数减少为GCR(k)算法的一半.数值计算结果与理论分析表明改进的GCR(k)算法的性能要优于GCR(k)算法.  相似文献   

2.
探究了求解矩阵方程AX=B的广义共轭残量法(GCR)、正交极小化法(ORTHOMIN)、重开始的广义共轭残量法(GCR(k))、重开始的正交极小化法(ORTHOMIN(k))等四种算法的迭代思想,讨论了算法的收敛性和收敛速度;用数值实验比较四种算法的性能,得出了重开始的广义共轭残量法能更好地求解大规模矩阵方程的结论。  相似文献   

3.
广义共轭余差法是一种用于求解非对称线性方程组的有效算法。为减少算法中的全局通信,首创性地提出了“通信避免的广义共轭余差法”,避免了迭代过程中的全局通信,使算法中的全局通信总次数降低了一个数量级,同时减少了约50%的计算量(计算量的具体减少比例与计算规模相关)。大规模测试中(最大16?384进程),新算法最高达到了原算法3倍的运算速率。进一步分析表明,新算法在各种并行规模下的运算速率和可扩展性都优于原算法。在较小并行规模下,新算法的优势主要来源于计算量的减少。在较大并行规模下,新算法的优势主要来源于全局通信量的减少。  相似文献   

4.
局部加权最小二乘支持向量机回归模型(LocalWeighted Least Squares Support Vector Machines,LW-LSSVM)是一种在线学习模型,该类模型需要根据训练样本权重的调整不断重新进行训练.高效稳定的学习算法是LW-LSSVM模型取得成功应用的关键.分别采用最小残差法(MINRE)、共轭梯度法(CG)、零空间法和Cholesky分解算法求解WL-LSSVM模型.基准数据库上的数值实验表明最小残差法的计算时间最短,具有良好的数值稳定性.随后,应用基于MINRES的WL-LSSVM建立了高炉铁水硅含量的在线预测模型,仿真实验表明与LSSVM相比LW-LSSVM模型具有更高的预报精度和自适应性.  相似文献   

5.
张沛洲  王熙照  顾迪  赵士欣 《计算机应用》2015,35(10):2757-2760
极速学习机(ELM)由于具有较快的训练速度和较好的泛化能力而被广泛的应用到很多的领域,然而在计算数据样例个数较大的情况下,它的训练速度就会下降,甚至会出现程序报错,因此提出在ELM模型中用改进的共轭梯度算法代替广义逆的计算方法。实验结果表明,与求逆矩阵的ELM算法相比,在同等泛化精度的条件下,共轭梯度ELM有着更快的训练速度。通过研究发现:基于共轭梯度的极速学习机算法不需要计算一个大型矩阵的广义逆,而大部分广义逆的计算依赖于矩阵的奇异值分解(SVD),但这种奇异值分解对于阶数很高的矩阵具有很低的效率;因为已经证明共轭梯度算法可通过有限步迭代找到其解,所以基于共轭剃度的极速学习机有着较高的训练速度,而且也比较适用于处理大数据。  相似文献   

6.
一类本身具有预条件功能的ABS型共轭梯度算法   总被引:2,自引:0,他引:2  
1.引言对于大型线性方程组Ax=b,其中AERnxn是一个非奇异矩阵,x,bRnVoyevodin[7]提出了一类共轭梯度算法.该算法中含有两个作为参数的非奇异矩阵B;CRnxn,它们满足关系式CABC-1=aI+βBTAT,(1)其中aβR为纯量.设内积(x,y)=yTx为普通数量积,Voyevodin共轭梯度法如下:算法1.步0.设。0为精确解0”的一个初始近似,计算残差,。一*。。一b.若,。=0则停止;否则,置S。=,。,i二0,转步1.步1.计算。;+1。;一(,;,*,J八,;,**…  相似文献   

7.
二维经验模式分解(BEMD)方法把图像分解成一组称为固有模式函数(IMF)和残差,广泛应用在纹理图像的检索中。对BEMD检索纹理图像进行改进,使用快速自适应二维经验模式分解(FABEMD)对纹理图像进行分解,创新性地利用广义伽马分布密度函数来对FABEMD分解出来的IMF系数进行建模,并利用Kullback-Leibler距离来计算两张纹理图像的相似性。实验结果表明,算法快速有效。  相似文献   

8.
基于求线性矩阵方程约束解的修正共轭梯度法的思想方法,通过修改某些矩阵的结构,建立了求特殊类型的多矩阵变量线性矩阵方程的广义自反解的迭代算法,证明了迭代算法的收敛性,解决了给定矩阵在该矩阵方程的广义自反解集合中的最佳逼近计算问题.当矩阵方程相容时,该算法可以在有限步计算后得到其一组广义自反解;选取特殊的初始矩阵,能够求得其极小范数广义自反解.数值算例表明,迭代算法是有效的.  相似文献   

9.
共轭梯度法的GPU实现   总被引:1,自引:0,他引:1       下载免费PDF全文
夏健明  魏德敏 《计算机工程》2009,35(17):274-276
提出基于图形处理单元(GPU)实现矩阵与向量相乘的新算法,只需渲染四边形一次即可实现矩阵与向量乘法。并给出实现向量元素求和的新算法,与缩减算法不同,该算法不要求向量大小为2的幂。基于这2种算法使用OpenGL着色语言(GLSL)编程,用GPU实现求解线性方程组的共轭梯度法。与Krtiger算法相比,该方法所用计算时间更少。  相似文献   

10.
针对广义正交匹配追踪(GOMP)算法复杂度高、重构时间长的问题,提出了一种基于随机支撑挑选的GOMP(StoGOMP)算法。首先引入随机支撑挑选的策略,在每次迭代中随机生成一个概率值。然后通过比较此概率值与预设概率值的大小来决定候选支撑集的挑选方式:若此概率值小于预设概率值,则采用匹配计算方式;否则,采用随机选择方式。最后根据得到的候选支撑来更新残差。这种方式充分考虑了算法单次迭代复杂度和迭代次数之间的平衡,减少了算法的计算量。一维随机信号重构实验结果表明,在预设概率值为0.5、稀疏度为20时,StoGOMP算法相较GOMP算法达到100%重构成功率所需的采样数减少了9.5%。实际图像重构实验结果表明,所提出的算法具有与GOMP算法相当的重构精度,且在采样率为0.5时,所提算法的重构时间相较于原算法减少了27%以上,这说明StoGOMP算法能够有效减少信号的重构时间。  相似文献   

11.
We consider the iterative solution of large sparse linear systems of equations arising from elliptic and parabolic partial differential equations in two or three space dimensions. Specifically, we focus our attention on nonsymmetric systems of equations whose eigenvalues lie on both sides of the imaginary axis, or whose symmetric part is not positive definite. This system of equation is solved using a block Kaczmarz projection method with conjugate gradient acceleration. The algorithm has been designed with special emphasis on its suitability for multiprocessors. In the first part of the paper, we study the numerical properties of the algorithm and compare its performance with other algorithms such as the conjugate gradient method on the normal equations, and conjugate gradient-like schemes such as ORTHOMIN(k), GCR(k) and GMRES(k). We also study the effect of using various preconditioners with these methods. In the second part of the paper, we describe the implementation of our algorithm on the CRAY X-MP/48 multiprocessor, and study its behavior as the number of processors is increased.  相似文献   

12.
使用3D-LUT的黑色生成算法   总被引:1,自引:0,他引:1  
乔新亮  曾平 《计算机工程》2002,28(6):222-223,F003
针对高品质彩色打印的应用需求,提出一种改进的GCR黑色生成算法。首先提出生成打印样本集的改进方法,然后介绍了使用3D-LUT建立打印机模型时的关键问题,最后给了出传统方法和新方法的结果对比。相比传统GCR方法,新方法明显增大了低明度部分色域,提高了打印机色彩再现能力,减小了校正误差。  相似文献   

13.
The incompatibility of human service practitioners' work styles and those of computerized systems is one of the main reasons for underutilization of these systems. This conceptual paper presents the graphical case record (GCR) as a computerized interface, congruent with practitioner work style, supportive of professional treatment standards, and easy to use. It supports case explication; that is, the creation of information in a form meaningful to the specific user, enabling the latter visually and mentally to structure a case for a specific task. GCR effects case explication by providing a computerized environment that structures the professional procedural environment by establishing a unified means of communication. It enables practitioners to justify decisions and presents them with new, relevant, and contextual information. This is done by using software that integrates data from different media and provides tools to navigate freely, associatively, and simply within the case record.  相似文献   

14.
该文针对大陆、香港和台湾地区(简称大中华区)存在同一种语义但采用不同词语进行表达的语言现象进行分析。首先,我们抓取了维基百科以及简繁体新闻网站上的3 200 000万组大中华区平行句对,手工标注了一致性程度达到95%以上的10 000组大中华区平行词对齐语料库。同时,我们提出了一个基于word2vec的两阶段大中华区词对齐模型,该模型采用word2vec获取大中华区词语的向量表示形式,并融合了有效的余弦相似度计算方法以及后处理技术。实验结果表明我们提出的大中华区词对齐模型在以上两种不同文体的词对齐语料库上的F1值显著优于现有的GIZA++和基于HMM的基准模型。此外,我们在维基百科上利用该词对齐模型进一步生成了90 029组准确率达82.66%的大中华区词语三元组。
  相似文献   

15.
四色打印的灰度平衡方法研究   总被引:2,自引:0,他引:2  
基于色彩学理论,提出两种灰度平衡算法用于从三色到四色打印的转换,通过对样本数据的学习自动获取四色打印所需的灰度平衡关系,然后将这两种方法与传统的等量代替法进行了比较,最后,基于GCR思想,提出一种改进的颜色分离模型用于四色打印的底色去除处理,实验结果表明,与传统方法相比,该方法具有逼近精度高,学习能力强和所需测试的样本工作量少的优点,算法对不同的打印条件(墨水,纸张等)均具有较强的适应能力。  相似文献   

16.
Recently, Secure-Multiparty Computation (SMC) has been proposed as an approach to enable inter-domain network monitoring while protecting the data of individual ISPs. The SMC family includes many different techniques and variants, featuring different forms of “security”, i.e., against different types of attack (er), and with different levels of computation complexity and communication overhead. In the context of collaborative network monitoring, the rate and volume of network data to be (securely) processed is massive, and the number of participating players is large, therefore scalability is a primary requirement. To preserve scalability one must sacrifice other requirement, like verifiability and computational completeness that, however, are not critical in our context. In this paper we consider two possible schemes: the Shamir’s Secret Sharing (SSS), based on polynomial interpolation on prime fields, and the Globally-Constrained Randomization (GCR) scheme based on simple blinding. We address various system-level aspects and quantify the achievable performance of both schemes. A prototype version of GCR has been implemented as an extension of SEPIA, an open-source SMC library developed at ETH Zurich that supports SSS natively. We have performed a number of controlled experiments in distributed emulated scenarios for comparing SSS and GCR performance. Our results show that additions via GCR are faster than via SSS, that the relative performance gain increases when scaling up the data volume and/or number of participants, and when network conditions get worse. Furthermore, we analyze the performance degradation due to sudden node failures, and show that it can be satisfactorily controlled by containing the fault probability below a reasonable level.  相似文献   

17.
基于序信息系统的知识粗糙熵,在系统中引入属性重要性的概念,利用该测度能度量序信息系统中属性集的不确定性,基于此,提出序信息系统中基于知识粗糙熵的启发式约简算法。通过实例对该方法的有效性进行检验,结果显示该算法可以作为一种有效的数据挖掘工具,为序信息系统的知识发现提供理论基础。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号