首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 234 毫秒
1.
徐文杰  张贞凯 《电讯技术》2024,64(6):936-944
针对现有组合加权算法对定位区域边缘的目标定位时精度较低的问题,在现有组合加权算法的基础上提出了一种改进算法。首先,将基站分组,以到达时差算法得到目标位置的多个估计结果;其次,计算各估计结果之间距离值并排序,以滑动窗口法判断是否存在基站组出现异常定位估计;最后,当任意基站组的定位结果发生异常时,使用目标位置估计结果及其估计克拉美罗下界值设计两个加权步骤的权值,通过二步组合加权算法得到最终定位结果。仿真结果表明,所提算法有效减少了原组合加权算法对定位区域边缘的目标定位时的误差,当测量噪声标准差为0.8 m时,所提算法相较于原算法在正方形边缘区域定位均方根误差减小了0.35 m;在定位狭窄矩形区域时,所提算法平均定位均方根误差减小了0.11 m。  相似文献   

2.
针对利用单站接收多个外辐射源信号实现目标定位的问题,该文提出一种基于两步加权最小二乘的到达角度(DOA)、时差(TDOA)和频差(FDOA)联合定位代数解算法.首先,在第1步加权最小二乘估计中,通过引入辅助参数,将非线性的角度、时差和频差方程转化为伪线性形式,并利用加权最小二乘得到目标位置和速度的粗估计;而后在第2步加权最小二乘估计中利用辅助参数和目标位置参数之间的约束关系来构造另外一组线性方程,并再次利用加权最小二乘得到目标位置和速度的精确估计.推导了联合角度、时差和频差定位的克拉美罗界.理论分析和仿真结果表明,算法在观测误差较小时的定位误差可以达到克拉美罗界.  相似文献   

3.
本文提出一种基于目标临时位置估计的无线网络残差幂次方加权定位算法。这种算法能够运用分组定位,获取不通目标位置节点的估计位置,并获得估计各位置之间的差值,临时定位残差与传统残差加权定位算法之间区别,在于本文提出残差幂次方作为加权函数,仿真获得最优化加权函数。结果发现在LOS-SN低于2时,本文提出无线定位方法的精度较传统非视距定位误差远远较小,提高了60%的定位精度,并且降低了对LOS-SN的个数要求。  相似文献   

4.
赵勇胜  赵拥军  赵闯 《雷达学报》2016,5(3):302-311
针对利用单个观测站接收多个外辐射源信号从而实现对目标定位的单站无源相干定位问题, 该文提出了一种联合角度和时差的加权最小二乘定位算法。首先, 将角度和时差的观测方程线性化处理, 考虑方程中的各项误差, 将定位问题建立为加权最小二乘模型。然后利用迭代方法对模型求解。最后, 对算法的定位性能进行了理论分析。仿真结果表明, 不同于仅时差定位方法至少需要3个外辐射源才能定位, 联合角度和时差定位方法仅需一个外辐射源即可定位, 且在同样数量外辐射源条件下估计精度高于仅时差定位;算法的均方误差低于最小二乘算法, 在时差测量噪声较大时定位精度仍然能逼近克拉美罗界。此外, 对系统几何精度因子图的分析表明, 目标及辐射源的位置对定位精度也有重要影响。   相似文献   

5.
对三维空间中联合角度、时延和多普勒频率的分布式MIMO雷达运动目标定位问题进行了研究,提出了一种新的目标位置和速度估计代数解算法。通过借助方位角和俯仰角测量,对时延和多普勒频率方程进行线性化处理,然后通过加权最小二乘解算目标的位置和速度。与现有基于多步骤加权最小二乘思想的定位算法相比,该算法无需引入冗余参数,仅需一步加权最小二乘即可实现目标定位,避免了步间误差传递,减少了定位所需的发射/接收单元数量,并且考虑了发射/接收单元位置-速度误差的影响,提高了算法对发射/接收单元位置-速度误差的稳健性。理论分析证明,该算法的定位误差可以达到克拉美罗界。仿真结果验证了该算法的有效性,以及相比于现有算法的优越性。  相似文献   

6.
谢俊好  李波 《电子学报》2012,40(3):435-440
T/R-R高频地波雷达可以对海面目标超视距探测,探测距离高达几百公里,因此由雷达量测量对目标定位应考虑地球曲率影响.本文分别给出了球面定位算法及其定位精度公式.应用加权最小二乘算法可实现目标精确定位.仿真分析了平面定位偏差、加权最小二乘球面定位GDOP.结果表明球面定位算法可消除定位偏差,加权最小二乘球面定位可提高目标定位精度.  相似文献   

7.
针对多基外辐射源雷达定位中存在系统误差的问题,提出了一种基于到达角度(DOA)与到达时差(TDOA)的外辐射源雷达无源定位和系统误差校正算法。首先,该方法引入辅助变量对非线性的DOA 和TDOA 量测方程进行线性化,利用迭代加权最小二乘算法得到对目标位置和系统误差的联合估计;然后,利用辅助变量与目标位置的关联性,设计了一种关联最小二乘算法对初始估计值进行改进;最后,通过后验迭代估计进一步提高目标定位精度。仿真结果表明该算法能够有效地估计系统误差和目标状态。  相似文献   

8.
针对多雷达组网噪声化探测点迹融合定位问题,提出使用拟牛顿融合定位算法,利用变尺度(DFP)拟牛顿非线性方程求解原理,综合各组网雷达的探测误差特性,从最优化角度,研究解决了空域目标位置真值的快速数值近似计算问题。仿真结果表明:对比传统的方位精度加权算法、加权最小二乘迭代算法,文中提出的拟牛顿融合定位算法,定位精度高;即使与各组网雷达误差最小值进行严苛条件对比,拟牛顿融合定位算法精度也明显占有优势。  相似文献   

9.
针对利用单站接收多个外辐射源信号实现目标定位的问题,该文提出一种基于两步加权最小二乘的到达角度(DOA)、时差(TDOA)和频差(FDOA)联合定位代数解算法.首先,在第1步加权最小二乘估计中,通过引入辅助参数,将非线性的角度、时差和频差方程转化为伪线性形式,并利用加权最小二乘得到目标位置和速度的粗估计;而后在第2步加...  相似文献   

10.
双基地制导雷达目标定位的分坐标融合算法   总被引:1,自引:0,他引:1  
提出了一种用于研究双基地制导雷达目标定位的分坐标参数航迹融合算法。通过利用观 测到的距离和以及角度序列分别建立参数航迹模型间接得到了目标位置序列,有效提高了 目标定位精度。理论分析与仿真结果表明,该方法比简化加权最小二乘算法更具优越性。  相似文献   

11.
岳紫颖  何维 《电讯技术》2021,61(5):614-620
当前室内定位的主流方法是基于信道状态信息(Channel State Information,CSI)的AoA/ToF(Angle of Arrival/Time of Flight)联合定位,由于天线数量和带宽的限制,导致其特征参数存在误差.为此,结合CSI中细粒度和多样化的载波相位信息,提出了一种基于载波相位的室内...  相似文献   

12.

由于多径和非同源等因素的影响,传统基于蓝牙信号强度的室内定位方法的性能精度和稳定性都不高。针对基于蓝牙信号的复杂室内环境定位问题,该文提出基于低成本阵列天线的室内定位方法,该方法利用单通道轮采极化敏感阵列天线对蓝牙信号进行采样,然后结合暗室测量获得的准确阵列流形和极化快收敛稀疏贝叶斯学习(P-FCSBL)算法实现信源的角度估计,最后通过角度实现定位。该方法充分利用极化信息和角度信息来实现目标和多径信号的分离,同时对单信源的同时采样保证了估计的稳定性。最后通过实测数据处理验证了该方法的有效性。

  相似文献   

13.
基于信号到达角度(AOA)的定位算法是一种常见的无线传感器网络节点自定位算法,算法通信开销低,定位精度较高。由于各种原因,估测的多个节点位置可能存在不可靠位置,提出了一种改进的基于信号到达角的定位方法,通过过滤误差较大的估计位置,来提高定位的精度。仿真结果表明,本文提出的改进算法很好地提高了定位精度。  相似文献   

14.
目标定位经典算法有很多,但大多不能直接适用于MIMO雷达近场目标定位,而现存的单基地MIMO雷达近场目标定位算法很少.为了解决这个问题,提出了一种基于联合对角化的MIMO雷达近场多目标定位算法.该算法使用十字形收发阵列,利用接收信号的协方差矩阵构造新的矩阵,灵活运用联合对角化算法得到发射角和距离估计值,再利用谱峰搜索得...  相似文献   

15.
传统的动态目标定位算法需要采集、存储和处理大量数据,并不适用于能量受限的无线传感器网络。针对该缺陷,该文提出一种基于压缩感知的动态目标定位算法。该算法利用目标的运动规律设计稀疏表示基,从而将动态目标定位问题转化为稀疏信号恢复问题。针对传统观测矩阵难以实现的缺陷,该算法设计可实现且与稀疏表示基相关性低的稀疏观测矩阵,从而保证了算法的重构性能。该算法的特点是可利用较少的数据采集实现动态目标定位,从而大大延长无线传感器网络的寿命。仿真结果表明,该文所提出的基于压缩感知的动态目标定位算法具有较好的定位性能。  相似文献   

16.
为提高火炮武器的命中精度和攻击效果,提出了一种基于无源声探测的目标定位技术。系统通过传声器阵列采集目标声源发出的声信号,采用多个基阵定向结果对目标进行交汇定位,搭建了基于FPGA+DSP架构的基阵节点,对节点的软硬件进行了详细设计,并利用时延估计和定位算法解算出目标声源的三维坐标,实现对炮弹炸点的精确定位。最后模拟现场环境,设计完成了多次测试实验,验证了方位角估计理论的正确性及试验系统的可行性。实验数据表明,该方法具有较高的估计精度,可获得炸点的具体位置信息,具有一定的实用价值和应用前景。  相似文献   

17.
多基外辐射源雷达定位系统受系统偏差影响较大。该文针对多基外辐射源雷达到达角度(DOA)和到达时差(TDOA)联合定位系统,提出一种基于约束总体最小二乘(CTLS)的无源定位和误差校正算法。首先引入辅助变量,将DOA和TDOA非线性观测方程进行线性化处理。考虑伪线性化后定位方程中噪声矩阵各分量统计相关特性,将无源定位与误差校正联合优化问题建立为CTLS模型,并采用牛顿迭代方法对模型求解。在此基础上,考虑辅助变量与目标位置的关联性,设计关联最小二乘算法改进目标位置估计值,采用后验迭代方法进一步提高系统偏差估计精度。最后推导了算法的理论误差。仿真结果表明:该算法能够有效地估计目标位置和系统偏差。  相似文献   

18.
传统时差定位方法一般是在假设传感器位置信息准确已知的前提下进行的.然而在实际情形中,传感器位置信息往往含有随机误差,这些误差会严重影响对目标的定位精度.针对这一问题,提出了一种传感器位置误差情况下的多维标度时差定位算法.首先利用传感器位置和时差构造对称标量积矩阵,然后利用子空间理论建立关于目标位置的伪线性方程,最后通过设计加权矩阵来减少传感器位置误差对目标定位精度的影响.采用一阶小噪声扰动理论求出了目标位置估计的偏差及协方差矩阵,并通过仿真实验验证了该算法的有效性.  相似文献   

19.
Node localization is one of the most critical issues for wireless sensor networks, as many applications depend on the precise location of the sensor nodes. To attain precise location of nodes, an improved distance vector hop (IDV-Hop) algorithm using teaching learning based optimization (TLBO) has been proposed in this paper. In the proposed algorithm, hop sizes of the anchor nodes are modified by adding correction factor. The concept of collinearity is introduced to reduce location errors caused by anchor nodes which are collinear. For better positioning coverage, up-gradation of target nodes to assistant anchor nodes has been used in such a way that those target nodes are upgraded to assistant anchor nodes which have been localized in the first round of localization. For further improvement in localization accuracy, location of target nodes has been formulated as optimization problem and an efficient parameter free optimization technique viz. TLBO has been used. Simulation results show that the proposed algorithm is overall 47, 30 and 22% more accurate than DV-Hop, DV-Hop based on genetic algorithm (GADV-Hop) and IDV-Hop using particle swarm optimization algorithms respectively and achieves high positioning coverage with fast convergence.  相似文献   

20.
针对当前室外蜂窝网多基站定位需要基站之间时间同步、数据同步的要求,以及NLOS环境造成的非服务区基站的信号可测性问题,该文提出基于B-LM圆环模型的NLOS信息约束单基站定位算法。首先根据散射体、目标和基站间的几何位置关系以及NLOS多路径信息构建定位方程,然后将定位方程转化为最小二乘优化问题,之后基于LM算法海森矩阵修正思想和拟牛顿2阶偏导构造思想提出B-LM算法,保证算法收敛于最优解,以得到目标位置。仿真结果表明,所提单基站定位算法能在宏蜂窝NLOS环境实现较高的定位精度。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号