首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 62 毫秒
1.
为了减小NLOS传播的影响,提出基于RBF网络的TDOA/AOA算法。利用RBF神经网络对NLOS传播的误差进行修正,使用TDOA/AOA算法进行定位。仿真结果表明该算法减小了NLOS传播的影响,在NLOS环境下有较高的定位精度,性能优于TDOA/AOA算法、Taylor算法、Chan算法和最小二乘(LS)算法。  相似文献   

2.
基于非视距传播(NLOS)环境下的几何结构单次反射统计信道模型,提出了到达时间差/电波到达角(TDOA/AOA)数据融合定位算法。利用TDOA定位算法和AOA定位算法分别估算移动台(MS)位置,然后利用数据融合方法确定MS位置。仿真结果表明,本文算法在NLOS环境下有较高的定位精度,性能优于TDOA定位算法和AOA定位算法。  相似文献   

3.
在CDMA的网络环境下,TDOA/AOA混合定位算法能够比Chan算法有较高的定位精度。然而随着AOA测量误差精度的下降,定位精度逐渐下降,甚至低于Chan算法的定位精度。本文在传统的TDOA/AOA混合定位算法加入校正因子,通过逐步迭代的方法,逐渐消除NLOS对TDOA测量值的影响,从而获得比传统TDOA/AOA混合定位算法更高的定位精度。仿真表明:在各种环境下,特别是非视距环境下该方法能够显著提高定位的精度,并且运算量增加较少。  相似文献   

4.
5.
在LOS环境下,Chan算法有着较好的定位精度,基于Chan算法的到达时间差/到达角(TDOA/AOA)算法比Chan算法有了进一步提高。但是在NLOS环境下,这些算法的精度都将大大下降,由于AOA的测量值有较大误差,TDOA/AOA方法的精度甚至低于Chan算法。并且这些算法的主要缺点是在第一次加权最小二乘法(WLS)中把移动台的横坐标、纵坐标与移动台到服务基站的距离作为三个相互独立的变量,忽略了三者之间的相关性,因此要进行第二次WLS才能得到定位结果,且最终的解为二值根。对误差的均值和方差进行了估计,修正了TDOA与AOA测量值,用Kalman滤波算法对AOA的值进行了估计,利用移动台坐标与AOA之间的关系将三个变量简化为一个,只需一次WLS即可求得唯一解,减少了计算量,消除了根的模糊性。仿真结果表明,该方法简单,计算量小,有较高的定位精度和较好的稳健性,性能优于Chan算法和基于Chan算法的TDOA/AOA算法。  相似文献   

6.
基于遗传算法的TDOA/AOA定位系统的最优布站算法   总被引:2,自引:0,他引:2       下载免费PDF全文
摘 要:推导了TDOA/AOA混合定位算法产生的定位误差的克拉美-罗下界,提出了利用遗传算法(GA)寻找规定平面区域内的TDOA/AOA定位系统最佳布站策略的方法,其所遵循的最佳布站原则是使得定位的目标空间的定位误差的克拉美-罗下界的平均值最小。文中对GA的站点位置编码和适应度函数的选择进行了研究,在此基础上提出了基于GA的寻优布站算法。并对基于GA的寻优布站算法在不同情况下进行了仿真实验。  相似文献   

7.
基于卡尔曼滤波的TDOA/AOA混合定位算法   总被引:1,自引:0,他引:1       下载免费PDF全文
提出了一种利用两次卡尔曼滤波实现非视距环境中TDOA/AOA混合定位方法。根据类正态分布密度曲线是最小二乘意义下对指数分布密度曲线的最优拟合的思想建立TDOA误差模型,先利用卡尔曼滤波对TOA测量值进行预处理以消除NLOS误差,再把经过预处理的TOA测量值输入到卡尔曼滤波器来实现TDOA/AOA混合定位。仿真结果表明,该方法的定位误差性能明显优于单纯的TDOA定位方法以及服从指数分布误差模型下的TDOA定位方法。  相似文献   

8.
黄波  李伟 《计算机仿真》2022,(3):481-484,489
室内定位复杂环境中存在LOS和NLOS场景相互切换问题,对定位算法的连续性和精度提出了更高的要求.针对上述问题,提出一种基于粒子滤波和最大似然的TDOA定位算法:首先不区分LOS和NLOS场景的采用近似最大似然TDOA算法,获取一个初步的定位结果;然后对初步获取的结果用粒子滤波进行纠正,以减少LOS和NLOS场景切换下...  相似文献   

9.
基于RBF神经网络的AOA定位算法   总被引:2,自引:0,他引:2  
基于几何结构的单次反射统计信道模型,提出了基于RBF神经网络的AOA定位算法。应用RBF神经网络对非视距传播(NLOS)误差进行修正,然后利用最小二乘(LS)算法进行定位。仿真结果表明:该算法减小了NLOS传播的影响,提高了系统的定位精度,性能优于LS算法。  相似文献   

10.
结合二维空间中基于波的干涉的角度测量算法和基于到达时间差的定位算法,提出一种适用于三维空间的无线传感器网络定位算法。算法先测量信标节点和待测节点间的角度和距离,然后精确计算出待测节点坐标。该算法复杂度较低,最少只需三个信标节点,采用分布式计算,定位精度高。仿真表明,算法能够较精确地计算三维空间中传感器节点的位置。  相似文献   

11.
针对不同噪声及信噪比条件下,传统进场声源定位精度低、计算复杂度高的问题,提出一种基于改进的时间到达差(TDOA)近场声源鲁棒定位方法。利用传统FIR维纳滤波器对含噪语音信号进行预处理,增强信噪比,并在频域计算TDOA值;采用空域收缩迭代最小二乘算法取代传统的LS算法进行拟合,计算近场声源位置信息。仿真结果表明,在不同噪声和信噪比条件下,该方法在降低运算量的同时,有效提升了定位精度。  相似文献   

12.
一种基于Bayesian的图像分类算法   总被引:1,自引:0,他引:1  
提出了一种基于Bayesian的图像分类算法,该算法首先从原始数字图像出发,通过分析图像的特征分布特点,对图像的局部区域扫描分析,然后抽取目标图像的特征元素,得到其颜色、纹理、形状等特征,最后利用Bayesian分类器来实现图像的快速自动分类.实验结果表明,该算法能够有效提取图像的局部特征,从而快速、准确地实现图像分类.  相似文献   

13.
简单贝叶斯算法在邮件过滤领域使用得比较普遍.该算法的优点是简单、对特征较为恒定的垃圾邮件较为有效,但其适应性较差.谨提出一种以贝叶斯公式为基础的自适应垃圾邮件过滤方法,它采用基于词熵的特征提取方法,在过滤过程中不断地进行自学习,具有较强的自适应能力.  相似文献   

14.
针对协方差矩阵自适应进化策略(CMA-ES)在求解某些问题时存在早熟收敛、精度不高等缺点,通过利用云模型良好的不确定性问题处理能力对CMA-ES的步长控制过程进行改进,得到一种基于云推理的改进CMA-ES算法。该算法通过建立步长控制的云推理模型,采用云模型的不确定性推理来实现步长的控制,避免了原算法采用确定的函数映射进行步长伸缩变化而忽视进化过程中不确定性的不足。最后通过测试函数验证了改进算法具有较高的寻优性能。  相似文献   

15.
Wi-Fi指纹匹配定位算法具有简单、快捷、方便、经济、易普及等诸多优点,但对位置指纹的匹配精度较低.对此,提出一种贝叶斯与加权K近邻算法相结合的贝叶斯概率优化算法,应用于Wi-Fi指纹匹配定位,在提高传统加权K近邻算法精度的同时,减少了贝叶斯概率匹配算法的平均运行时间.实验结果显示,该算法可以将1 m内的定位精度从原先...  相似文献   

16.
首先定义了贝叶斯网(BN)分解的相关概念,提出了基于遗传算法的BN分解算法(BDGA),给出了BDGA算法的编码和适应度函数的表示方法,设计了BDGA算法的选择、交叉、变异算子,并得到不同种群大小情况下四个贝叶斯网Medianus Ⅰ、MedianusⅡ、Sparse和Dense的分解结果.结果表明BDGA能有效搜索全局最优的BN分解结构,在和Kjaerulff综合的采用10种算法分解这四种贝叶斯网的结果相比,BDGA算法超过10种算法的9个,和模拟退火算法具有同样好的结果.BDGA算法能实现准确求解BN的分解结构,为实现BN的联合树结构上的推理奠定了基础.  相似文献   

17.
朴素贝叶斯分类器是一种应用广泛且简单有效的分类算法,但其条件独立性的"朴素贝叶斯假设"与现实存在差异,这种假设限制朴素贝叶斯分类器分类的准确率。为削弱这种假设,利用改进的蝙蝠算法优化朴素贝叶斯分类器。改进的蝙蝠算法引入禁忌搜索机制和随机扰动算子,避免其陷入局部最优解,加快收敛速度。改进的蝙蝠算法自动搜索每个属性的权值,通过给每个属性赋予不同的权值,在计算代价不大幅提高的情况下削弱了类独立性假设且增强了朴素贝叶斯分类器的准确率。实验结果表明,该算法与传统的朴素贝叶斯和文献[6]的新加权贝叶斯分类算法相比,其分类效果更加精准。  相似文献   

18.
在基于LoRa的室内定位研究中,提出一种基于LoRa指纹和支持向量回归(SVR)的室内定位算法。针对传统基于无线信号RSSI指纹和SVR室内定位算法定位精度不高问题,从两个方面进行改进:在指纹特征方面,增加LoRa测距指纹,提高指纹稳定性;在指纹数据库建立和在线定位过程中,分别采用高斯滤波和中位数滤波来对指纹进行预处理,消除指纹的粗大误差。实验结果显示:1 m以内的定位误差的累积概率为78.5%,3 m以内的定位误差的累积概率为90%。增加LoRa测距指纹之后定位精度相比之前提高了40%;增加了高斯滤波与中位数滤波预处理后定位精度较传统的支持向量回归算法提高了38%。两个方面改进之后定位精度总体提高63%,证明了该算法的两个改进是有效的。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号