首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
针对基于接收信号强度(RSS)的可见光室内位置感知系统部署复杂、稳健性差、定位精度低的问题,提出一种基于卷积神经网络(CNN)视觉成像的可见光室内位置感知模型,并研究了光源布局方式。首先,基于环境光和普通发光二极管光源进行了可见光视觉成像位置感知模型的设计和搭建;然后,通过CNN预训练模型提取图像深度特征;在此基础上通过研究不同光源布局模型中定位精度与光源数量、光源间距之间的关系,优化基于CNN视觉成像的室内位置感知模型的定位精度模型。实验结果表明:与基于RSS的室内位置感知模型相比,当定位误差分别小于2.1 cm和3.9 cm时,所提模型的置信概率分别提高了10%和6.7%;同时,与矩形布局方式和三角布局方式相比,十字布局方式的定位精度分别提高了9.5%和16%。  相似文献   

2.
《信息技术》2019,(6):77-81
视觉位置识别技术通过将地点图像与数据库中的图像集进行匹配,根据配对图像标签中的位置信息得到定位结果。现有的视觉位置识别网络都是为了应对室外场景而构建和训练的,在室内场景中的识别性能较差。文中提出了一种基于深度学习的室内视觉位置识别卷积神经网络架构,并在室内场景识别数据集上对网络进行了训练,然后在本地室内数据集上对网络参数进行进一步的微调,较好地解决了室内环境中的位置识别问题。和现有的其它视觉位置识别网络相比,文中训练的网络在实际室内环境测试中最大有30%的识别精度提升。  相似文献   

3.
杨薇  邵建华  杜聪 《激光杂志》2022,43(1):113-118
针对可见光室内定位精度不高的问题,提出一种融合角度特征的卷积神经网络(Convolutional Neu-ral Network,CNN)可见光室内定位算法.首先在基于接收信号强度(Received signal strength,RSS)的基础上,考虑到LED(Lighting Emitting Diode,LED)...  相似文献   

4.
基于粒子群优化压缩感知的可见光定位算法   总被引:1,自引:0,他引:1  
目前,基于压缩感知的可见光定位采用线性最小二乘法重构信号,容易陷入局部最优解,且需要高密度的发光二极管布局。针对这些问题,提出了一种基于粒子群优化压缩感知的可见光定位算法。首先,建立一种基于重构接收信号强度残差的适应度函数;其次,将指纹定位的权重求解问题转换为稀疏矩阵的重构问题;最后,采用粒子群优化重构信号。仿真结果表明,所提算法的时间复杂度较低、鲁棒性好,即使在低密度的发光二极管布局下,定位误差依然很小。当信噪比为10 dB、网格间距为50 cm时,所提算法定位误差的平均值为3.67 cm,显著低于现有的10种同类算法。还详细分析了不同参数对所提算法定位误差的影响,所得结果可为实际可见光定位系统的设计提供有益的参考。  相似文献   

5.
刘杰 《电讯技术》2019,59(7):811-816
针对机载多传感器成像战场态势感知的问题,提出了一种合成孔径雷达(Synthetic Aperture Radar,SAR)与可见光图像压缩感知融合增强方法。该方法首先对SAR与可见光图像分别进行压缩感知测量,得到压缩测量值,然后通过基于局部权值的融合方法实现对压缩测量值的融合,再利用有序度最优分割法提取SAR图像的强散射目标,最后对融合测量值重建得到初步融合图像,初步融合图像通过目标对比度增强得到最终融合图像。对多组图像进行了仿真分析,视觉及数值结果表明该方法能显著增强融合图像的目标对比度,提升了图像纹理清晰度,较大程度降低了图像融合过程中的数据计算量。  相似文献   

6.
压缩感知是一种新的信号采样理论,突破了传统的Nyquist采样率须为信号最高频率的2倍以上的定理。对于稀疏信号,它能够以远低于Nyquist采样速率对信号进行采样,并通过重构算法恢复出原信号。提出了一种基于压缩感知的红外与可见光图像融合算法,对图像进行测量,并通过融合算法对测量值进行融合。仿真实验显示,压缩感知能较好地实现图像的融合。  相似文献   

7.
现有的红外与可见光图像融合算法往往将日间场景与夜间场景下的图像融合视为同一个问题,这种方式忽略了在日间场景与夜间场景下进行图像融合的差异性,使得算法融合性能受限。生物视觉系统强大的自适应特性能够在不同场景下最大限度地捕获输入视觉刺激中的有效信息,实现自适应的视觉信息处理,有可能为实现性能更为优异的红外与可见光图像融合算法带来新的思路启发。针对上述问题,该文提出一种视觉多通路机制启发的多场景感知红外与可见光图像融合框架。其中,受生物视觉多通路特性启发,该文框架中设计了分别感知日间场景信息与夜间场景信息的两条信息处理通路,源图像首先分别输入感知日间场景信息与感知夜间场景信息的融合网络得到两幅中间结果图像,而后再通过可学习的加权网络生成最终的融合图像。此外,该文设计了模拟生物视觉中广泛存在的中心-外周感受野结构的中心-外周卷积模块,并将其应用于所提出框架中。定性与定量实验结果表明,该文所提方法在主观上能够显著提升融合图像的图像质量,同时在客观评估指标上优于现有融合算法。  相似文献   

8.
9.
针对动态环境下基于接收信号强度的传统可见光定位方法定位精度低、稳定性差等问题,提出一种基于接收信号强度比的改进北方苍鹰算法(NGO)优化Elman神经网络(RNGO-Elman)的室内可见光定位系统。提出选择一个辅助参考点,将待测参考点与辅助参考点的接收信号强度比值和接收机的真实位置作为训练集数据,建立不受动态环境影响的指纹数据库。针对NGO算法收敛速度慢、容易陷入局部最优等问题,利用折射反向学习策略初始化种群,增加种群多样性,引入非线性权重因子来加快收敛速度,避免陷入局部最优。使用优化后的NGO算法来优化Elman神经网络的初始权值和阈值,构建RNGO-Elman动态定位预测模型。仿真结果表明,在4m×4m×3m的实验空间下,优化后的RNGO-Elman定位模型平均定位误差为1.34cm,定位精度相较于Elman定位算法、NGO-Elman定位算法分别提高了82%,21%。在LED发射功率波动时,基于RSSR的RNGO-Elman定位误差为1.29cm,1.38cm。所提可见光定位方法具有定位精度高、定位性能稳定等优点。  相似文献   

10.
基于通信的列车控制(CBTC)系统的列车定位功能在保障列车安全运行方面具有重要作用。为了提高列车定位的实时性和准确性,依据地铁隧道内LED光源固有的布置方式,提出了一种基于BP神经网络(BPNN)和可见光成像通信相结合的列车定位算法。首先,在光条纹码调制时将不同的特征变量引入身份识别(ID)信息中,使用BPNN对LED-ID信息分类识别,得到LED光源的位置信息,并通过惯性测量单元(IMU)获取相机成像时的姿态角;然后,结合图像传感器(IS)和LED光源之间的几何关系求出二者的相对位置,得到列车的位置坐标;最后,通过仿真实验验证了所提定位算法的有效性。研究结果表明:静态实验中的平均定位误差为2.31 cm,动态实验中的平均定位误差小于5 cm,而且所提定位算法仅需单个LED光源通信,平均定位时间为51.34 ms。所提方法提高了列车定位的实时性和精度,可以作为现有列车定位方法的补充。  相似文献   

11.
随着科学技术的不断进步,人们对室内定位服务提出了更高的要求.针对传统室内定位技术定位精度低、设备复杂且价格昂贵等问题,提出了一种基于极限学习机(ELM)神经网络的多发光二极管(LED)室内定位方法.首先,用每个参考点处LED的光功率以及光电探测器的位置坐标作为指纹数据,构建指纹数据库.然后,将指纹数据库引入ELM神经网...  相似文献   

12.
李霖  王红梅  李辰凯 《红外与激光工程》2022,51(12):20220125-1-20220125-20
红外与可见光图像融合技术充分利用不同传感器的优势,在融合图像中保留了原图像的互补信息以及冗余信息,提高了图像质量。近些年,随着深度学习方法的发展,许多研究者开始将该方法引入图像融合领域,并取得了丰硕的成果。根据不同的融合框架对基于深度学习的红外与可见光图像融合方法进行归类、分析、总结,并综述常用的评价指标以及数据集。另外,选择了一些不同类别且具有代表性的算法模型对不同场景图像进行融合,利用评价指标对比分析各算法的优缺点。最后,对基于深度学习的红外与可见光图像融合技术研究方向进行展望,总结红外与可见光融合技术,为未来研究工作奠定基础。  相似文献   

13.
张冬冬  王春平  付强 《激光与红外》2022,52(9):1288-1298
红外与可见光图像融合是图像融合领域的重要分支。将红外与可见光传感器获取的图像进行互补融合,融合后的图像既具有红外图像的整体信息又具有可见光图像的细节信息,并广泛应用于日常生活和军事领域。由于深度学习在计算机视觉和图像处理领域具有显著优势,因此将深度学习框架应用于红外与可见光图像融合领域成为近年来的研究热点。本文首先根据融合算法的特点及原理,对现有基于深度学习框架的融合算法进行分类概述,并详细介绍算法的研究进展;其次,对图像融合领域的评价指标进行介绍;再次,选取不同分类中的典型算法进行融合试验,利用六种评价指标对实验结果进行评价;最后,分析总结融合算法存在的缺陷,对红外与可见光图像融合算法的发展方向进行展望。  相似文献   

14.
现有的基于深度学习图像融合算法无法同时满足融合效果与运算效率,且在建模过程中大部分采用基于单一尺度的融合策略,无法很好地提取源图像中上下文信息。为此本文提出了一种基于信息感知与多尺度特征结合的端到端图像融合网络。该网络由编码器、融合策略和解码器组成。具体来说,通过编码器提取红外与可见光图像的多尺度特征,并设计特征增强融合模块来融合多个尺度的不同模态特征,最后设计了一个轻量级的解码器将不同尺度的低级细节与高级语义信息结合起来。此外,利用源图像的信息熵构造一个信息感知损失函数来指导融合网络的训练,从而生成具有丰富信息的融合图像。在TNO、MSRS数据集上对提出的融合框架进行了评估实验。结果表明:与现有的融合方法相比,该网络具有较高计算效率;同时在主观视觉评估和客观指标评价上都优于其它方法。  相似文献   

15.
张宇  付冬梅  李晓刚  陈超 《激光与红外》2008,38(12):1262-1265
红外图像包含物体的温度信息,但其存在对比性差、纹理弱等缺陷,限制了应用,目前基于融合的方法能有效改善红外图像的视觉效果,但局限于简单的直接融合,忽略了背景等因素所含噪声的影响及各部分细节信息。文章在这方面做了进一步的研究工作,改进了现有方法的融合规则,提出先将目标从背景中提取出来再以温度阈值及纹理特征为依据分层次分区域融合,从而在细节上极大地改进了目标的视觉效果,提高了效率。最后对融合效果进行了定量评价和比较。实验结果证明处理后的图像能够比原图像获得更丰富的视觉信息。  相似文献   

16.
图像配准是光学与SAR图像信息融合的基础。现有典型的配准方法大多依赖于特征点检测与匹配来实现,对不同场景区域的适用性较差,容易出现误匹配点多或有效同名点不足以致配准失效的情况。针对该问题,本文提出了一种强化位置感知的光学与SAR图像一体化配准方法,利用深度网络直接回归图像间的几何变换关系,在不依赖特征点检测与匹配的情况下,实现端到端的高精度配准。具体地,首先在骨干网络中利用融合坐标注意力的特征提取模块,捕获输入图像对中具有位置敏感性的细粒度特征;其次,融合骨干网络输出的多尺度特征,兼顾浅层特征的定位信息与高层特征的语义信息;最后提出联合位置偏差与图像相似性的损失函数优化配准结果。基于高分辨率光学与SAR图像配准公开数据集OS-Dataset的实验结果表明,与现有典型的OS-SIFT、RIFT2、DHN及DLKFM四种算法相比,所提方法对于城市、农田、河流、重复纹理及弱纹理等不同场景区域均具有良好的稳健性,在配准的目视效果以及定量的精度指标上均优于现有算法。其中平均角点误差小于3个像素的百分比与四种算法中精度最高的DLKFM相比提高了25%以上;配准速度与四种算法中最快的DHN基本相当,...  相似文献   

17.
18.
视觉跟踪系统中,高效的特征表达是决定跟踪鲁棒性的关键,而多线索融合是解决复杂跟踪问题的有效手段。该文首先提出一种基于多网络并行、自适应触发的感知深度神经网络;然后,建立一个基于深度学习的、多线索融合的分块目标模型。目标分块的实现成倍地减少了网络输入的维度,从而大幅降低了网络训练时的计算复杂度;在跟踪过程中,模型能够根据各子块的置信度动态调整权重,提高对目标姿态变化、光照变化、遮挡等复杂情况的适应性。在大量的测试数据上进行了实验,通过对跟踪结果进行定性和定量分析表明,所提出算法具有很强的鲁棒性,能够比较稳定地跟踪目标。  相似文献   

19.
针对基于神经网络的可见光室内定位技术存在训练速度慢、泛化能力弱而导致定位精度不高的问题,提出采用天牛须搜索(BAS)算法优化神经网络的可见光定位方法,搭建了 0.8 m×0.8 m×0.8 m的实测模型.该方法使用BAS算法优化神经网络的连接权重矩阵,拟合了室内无线信道参数,实现室内定位.仿真与实验结果表明:该方法仿真...  相似文献   

20.
李威  李忠民 《红外技术》2022,44(7):686-692
最近,多尺度特征提取被广泛应用于红外与可见光图像融合领域,但是大多数提取过程过于复杂,并且视觉效果不佳。为了提高融合结果的视觉保真度,本文提出一种基于边缘感知平滑锐化滤波器(Edge-Aware Smoothing-Sharpening Filter,EASSF)的多尺度图像融合模型。首先,提出一种基于EASSF的多尺度水平图像分解方法对源图像进行分解,得到水平方向上的多尺度纹理成分和基础成分;其次,采用最大值融合规则(Max-Fusion, MF)融合纹理成分,避免图像细节信息的丢失;然后,通过一种感知融合规则(Perceptual-Fusion, PF)融合基础成分,捕获显著性目标信息;最后,通过整合融合后的多尺度纹理成分和基础成分得到融合图像。实验通过分析感知融合系数,对比融合结果的客观数据得出红外与可见光图像融合在多尺度EASSF下较为合适的取值范围;在该取值范围内,本文提出的融合模型同一些较为经典和流行的融合方法相比,不仅解决了特征信息提取的复杂性,而且通过整合基础成分的显著性光谱信息,有效地保证了融合结果的视觉保真度。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号