共查询到19条相似文献,搜索用时 250 毫秒
1.
2.
研究了多种网络拓扑结构及稀疏网络下节点定位的鲁棒性问题. 联合考虑 1 跳邻居数目、邻居节点自身定位精度与测距误差, 引入节点相对定位误差和相对可信度概念, 提出了一种分布式基于加权多尺度分析技术的鲁棒节点定位算法. 该算法根据节点2跳局部网络连通度信息及邻居节点相对定位误差大小, 自适应选择综合性能好的邻居节点参与迭代优化, 并采用与节点相对可信度成正比的加权机制, 增加高可信度节点在定位计算中的贡献度. 实验数据显示, 该定位算法能够有效地抑制较大定位误差在网络内的扩散, 同基于高斯核加权的 dwMDS(G) 算法相比, 不仅迭代次数减半, 而且在网络连通度较低或拓扑不规则时, 可提高 5% 左右的定位精度. 相似文献
3.
基于量子行为粒子群优化算法的定位技术研究 总被引:1,自引:1,他引:0
针对无线传感器网络(WSNs)节点定位问题,阐述了WSNs的分布迭代式定位方法研究。这种方法将每次迭代后定位的节点作为其余未知节点的参考节点.同时将基于测距定位问题看成一个多维优化问题,并提出利用具有快速收敛能力的量子行为粒子群优化(QPSO)算法进行求解。最后将仿真实验结果与粒子群优化(PSO)算法进行比较,表明QPSO算法在优化性能上优于PSO算法,有效提高了节点定位精度,证明该方法的有效性。 相似文献
4.
《微型机与应用》2015,(23):58-61
针对无线传感器网络定位技术中DV-Hop算法在最后阶段计算待定位节点坐标时定位精度低的问题,提出了一种基于自适应步长萤火虫优化算法的改进DV-Hop算法(ASGSODV-Hop)。该算法将DV-Hop算法在估算节点坐标阶段所使用的最小二乘法用ASGSO算法代替,采用ASGSO智能算法的自适应迭代寻优对DV-Hop算法定位求解的问题建立特定的适应度函数并进行多次迭代计算实现优化,最终使待定位节点坐标与真实值更为接近。仿真结果表明,该算法的平均定位误差约为23.58%;相比于传统DV-Hop算法,ASGSODV-Hop算法可在无需附加通信开销的情况下使定位误差降低约46.49%,提高了节点的定位精度。 相似文献
5.
传感器节点的位置信息在无线传感器网络的监测活动等应用中起着至关重要的作用,而实现节点定位较好的方法是采用定位算法进行估计,因此定位算法的研究是目前热门的研究课题之一.本文主要研究分析了分布式加权多维标度定位算法,针对其不能适应网络连通度变化、网络拓扑不规则且收敛速度较慢等不足,提出了一种改进算法.该算法采用的加权机制与邻居选择机制综合考虑1跳邻居数目、节点自身定位精度与测距误差,并且引入最速下降法优化其目标代价函数.实验结果表明:在相同的实验环境下改进算法与原算法相比,在定位精度提高的情况下对不规则、大规模网络有很好的适应性且有更好的鲁棒性. 相似文献
6.
7.
8.
9.
为了减小无线传感器网络(WSN)节点定位中非视距传播误差产生的影响,提高节点定位精度,提出一种基于残差加权的牛顿迭代定位算法。先利用残差加权算法定位,得到未知节点的初步位置,再将该节点位置作为牛顿迭代定位算法的初始值进行迭代计算,最终得到更为精确的节点位置。仿真实验结果表明,该算法能有效地抑制非视距传播误差的影响,提高传感器网络节点定位的精度,且性能稳定。 相似文献
10.
鲁汶算法(LM)是基于模块度优化的复杂网络社区发现算法,有关模块度的现有研究中没有计算节点离开原属社区后模块度增益的方法。针对这一不足,基于模块度的定义和节点合并后模块度增益的计算方法,推导出了节点离开原属社区后模块度增益的计算方法,完善了该领域的理论研究。针对鲁汶算法对存储空间需求高的缺点,提出了基于孤立节点分离策略的改进鲁汶算法,该算法在每次迭代中将输入网络的孤立节点提前分离出去,只令其中的连通节点实际参与迭代过程,并在存储社区发现结果时将孤立节点和非孤立节点分开存储。基于真实网络的相关实验结果表明,采用孤立节点分离策略的改进方法,使算法对存储空间的需求减少了40%以上,并进一步缩短了算法的运行时间。因此,改进后的算法在处理真实网络时更具优势。 相似文献
11.
H.Abrishami MoghaddamAuthor Vitae Kh.Amiri ZadehAuthor Vitae 《Pattern recognition》2003,36(8):1695-1702
In this article, we introduce accelerated algorithms for linear discriminant analysis (LDA) and feature extraction from unimodal multiclass Gaussian data. Current adaptive methods based on the gradient descent optimization technique use a fixed or a monotonically decreasing step size in each iteration, which results in a slow convergence rate. Here, we use a variable step size, optimally computed in each iteration using the steepest descent method, in order to accelerate the convergence of the algorithm. Based on the new adaptive algorithm, we present a self-organizing neural network for adaptive computation of the square root of the inverse covariance matrix (Σ−1/2) and use it (i) in a network for optimal feature extraction from Gaussian data and (ii) in cascaded form with a principal component analysis network for LDA. Experimental results demonstrate fast convergence and high stability of the algorithm and justify its advantages for on-line pattern recognition applications with stationary and non-stationary input data. 相似文献
12.
Generation of Efficient Nested Loops from Polyhedra 总被引:1,自引:0,他引:1
Fabien Quilleré Sanjay Rajopadhye Doran Wilde 《International journal of parallel programming》2000,28(5):469-498
Automatic parallelization in the polyhedral model is based on affine transformations from an original computation domain (iteration space) to a target space-time domain, often with a different transformation for each variable. Code generation is an often ignored step in this process that has a significant impact on the quality of the final code. It involves making a trade-off between code size and control code simplification/optimization. Previous methods of doing code generation are based on loop splitting, however they have nonoptimal behavior when working on parameterized programs. We present a general parameterized method for code generation based on dual representation of polyhedra. Our algorithm uses a simple recursion on the dimensions of the domains, and enables fine control over the tradeoff between code size and control overhead. 相似文献
13.
为提高布谷鸟算法的收敛速度和求解精度,提出了一种基于自适应机制的改进布谷鸟算法。该算法在迭代初期和末期分别使用两种自适应策略来动态调整步长和发现概率,提高了算法的局部和全局寻优能力。利用10个标准测试函数对基本布谷鸟算法、所提出的改进算法以及其他智能优化方法进行了仿真对比验证,结果表明所提出的改进布谷鸟算法在求解精度、稳定性以及收敛速度上都具有一定优势。 相似文献
14.
为增强绯鲵鲣算法搜索的覆盖性及寻优的精准性以优化全局探索能力和局部开采能力,提出一种融合步长因子递减策略与混沌局部增强机制的改进绯鲵鲣优化算法(IYSGA)。首先,该改进算法在标准YSGA算法基础上,设计了一种动态的步长因子递变模式以实现绯鲵鲣算法高效全面的搜索,此策略有利于提高算法的搜索效率并扩大寻优范围;其次,混沌搜索机制则是借鉴Fuch映射理论优越的混沌特性与较好的局部收敛性能而构造的一种当前最优解的局部再开采方式,以完成对YSGA算法的局部搜索性能的改善。该耦合方法对YSGA的改进,有利于实现IYSGA算法全局探索与局部搜索能力间的多轮动态迭代平衡。最后,通过数值实验验证了IYSGA算法优越的并行迭代寻优性能与稳健性。 相似文献
15.
H. Abrishami Moghaddam Author Vitae M. Matinfar Author Vitae 《Pattern recognition》2005,38(4):473-483
We introduce and discuss new accelerated algorithms for linear discriminant analysis (LDA) in unimodal multiclass Gaussian data. These algorithms use a variable step size, optimally computed in each iteration using (i) the steepest descent, (ii) conjugate direction, and (iii) Newton-Raphson methods in order to accelerate the convergence of the algorithm. Current adaptive methods based on the gradient descent optimization technique use a fixed or a monotonically decreasing step size in each iteration, which results in a slow convergence rate. Furthermore, the convergence of these algorithms depends on appropriate choices of the step sizes. The new algorithms have the advantage of automatic optimal selection of the step size using the current data samples. Based on the new adaptive algorithms, we present self-organizing neural networks for adaptive computation of Σ-1/2 and use them in cascaded form with a PCA network for LDA. Experimental results demonstrate fast convergence and robustness of the new algorithms and justify their advantages for on-line pattern recognition applications with stationary and non-stationary multidimensional input data. 相似文献
16.
布谷鸟搜索(CS)算法是一种新型的群智能算法,结构简单且寻优能力较强,但存在勘探与开采不平衡以及易陷入局部极值的问题。提出一种多策略调和的布谷鸟搜索(MSRCS)算法,基于概率规则选择由自适应步长和改进解更新方法组成的调和策略对布谷鸟个体进行更新,其中自适应步长引导布谷鸟在更好的方向上寻优,3种改进的解更新方法分别从自身邻域、当前最优个体和随机位置3个角度对勘探和开采进行调和,从而提升全局搜索和局部搜索在迭代过程中的适应性。在CEC2013测试集的28个基准函数上的实验结果表明,MSRCS算法至少有12个测试函数优于原始CS及其7种改进算法且排名第一,在求解单峰、多峰和组合函数问题时寻优能力更强,同时相比于3种经典群智能优化算法具有更快的收敛速度和更高的解精度。 相似文献
17.
18.
在样本规模有限的情况下, 为了提高算法的鲁棒优化性能, 提出一种基于时变(随迭代次数变化) Sigmoid 函数的鲁棒粒子群优化算法. 采用拟蒙特卡罗积分方法近似估计有效目标函数, 以时变Sigmoid 函数为基础, 设计各代各样本规模的选取概率. 迭代前期, 样本规模期望值较小, 加快了算法探索速度; 迭代后期, 样本规模期望值较大, 提高了算法的开发精度. 标准测试函数仿真结果显示, 所提出方法具有较优的鲁棒优化性能.
相似文献19.
Using Perceptual Models to Improve Fidelity and Provide Resistance to Valumetric Scaling for Quantization Index Modulation Watermarking 总被引:3,自引:0,他引:3
Traditional quantization index modulation (QIM) methods are based on a fixed quantization step size, which may lead to poor fidelity in some areas of the content. A more serious limitation of the original QIM algorithm is its sensitivity to valumetric changes (e.g., changes in amplitude). In this paper, we first propose using Watson's perceptual model to adaptively select the quantization step size based on the calculated perceptual "slack". Experimental results on 1000 images indicate improvements in fidelity as well as improved robustness in high-noise regimes. Watson's perceptual model is then modified such that the slacks scale linearly with valumetric scaling, thereby providing a QIM algorithm that is theoretically invariant to valumetric scaling. In practice, scaling can still result in errors due to cropping and roundoff that are an indirect effect of scaling. Two new algorithms are proposed - the first based on traditional QIM and the second based on rational dither modulation. A comparison with other methods demonstrates improved performance over other recently proposed valumetric-invariant QIM algorithms, with only small degradations in fidelity 相似文献