共查询到20条相似文献,搜索用时 78 毫秒
1.
如何确定最优加权因子是加权航迹融合算法中一个值得深入研究的问题。通过提出多模型航迹质量(Track Quality with Multiple Model, TQMM)的概念,并给出一种带信息反馈的加权航迹融合算法,来解决多传感器跟踪同一目标时的权值最优分配问题。系统引入反馈机制,利用多模型航迹质量确定权值,能够精确地更新权值,从而实时有效地进行目标跟踪。仿真结果表明,与已有的加权融合算法相比,该算法具有更好的跟踪性能,特别是在融合系统传感器观测精度相差较大的情况下,算法的跟踪效果更为突出;并且,随着传感器数目的增加,系统的跟踪精度逐步提高,但当传感器增加到一定数目时,系统的融合精度并没有得到明显的改善。 相似文献
2.
3.
4.
5.
6.
7.
基于MapObjects的无人机遥感航迹实时显示算法研究 总被引:1,自引:0,他引:1
无人机航迹的实时显示是无人机遥感系统进行实时监测工作必不可少的功能之一。本文分析了Ma-pObjects控件动态层的特点,研究了基于MapObjects控件的动态数据显示常用算法,并指出该算法在无人机航迹实时动态显示应用上存在的问题。在此基础上提出了新的算法,详细阐述了该算法的核心思想及实现流程。最后在MapObjects控件和MS Visual Studio.Net开发环境下对相关实现细节进行了描述,并分析了该功能的性能状况。 相似文献
8.
基于TMDSP开发平台的实时视频编码系统设计与实现 总被引:1,自引:0,他引:1
本文在研究低比特率视频编码算法的基础上,以h.263协议为标准,以philips公司的TMDSP卡为开发平台,实现了一种视频编解码系统,经过测试系统在对qcif格式图像同时编码解码时,能达到每秒25帧以上,平均码率能控制在40kbps以下,该压缩卜能广泛应用于可视电话、图像监控、视频会议等多媒体应用中。 相似文献
9.
10.
11.
基于FPDE的红外与可见光图像融合算法 总被引:2,自引:2,他引:0
针对传统红外与可见光图像融合算法中存在的细节信息不够丰富, 边缘信息保留不够充分等问题, 文中提出了一种基于四阶偏微分方程(Fourth-order partial differential equation, FPDE)的改进的图像融合算法.算法首先采用FPDE将已配准的红外与可见光图像进行分解, 得到高频分量和低频分量; 然后, 对高频分量采用基于主成分分析(Principal component analysis, PCA)的融合规则来得到细节图像, 对低频分量采用基于期望值最大(Expectation maximization, EM)的融合规则来得到近似图像; 最后, 通过组合最终的高频分量和低频分量来重构得到最终的融合结果.实验是建立在标准的融合数据集上进行的, 并与传统的和最近的融合方法进行比较, 结果证明所提方法得到的融合图像比现有的融合方法能有效地综合红外与可见光图像中的重要信息, 有更好的视觉效果. 相似文献
12.
13.
14.
将红外图像与可见光图像融合在一起,可增强视觉效果,使人产生更完整的场景感知。基于二维经验模态分解(Bidimensional Empirical Mode Decomposition,BEMD)的图像融合方法运行时间较长,因此,文中提出了一种基于改进的二维经验模态分解的红外与可见光图像快速自适应融合方法,采用顺序统计滤波器和高斯滤波器直接生成均值包络曲面,从而加速图像的分解过程。首先,将可见光图像转化到HIS(Hue-Intensity-Saturation)颜色空间;然后,用改进的BEMD对强度分量I和红外图像进行分解,生成高频分量和低频分量,高频分量和低频分量分别采用自适应局部加权融合规则和算术平均融合规则;最后,将强度分量I与红外图像的融合结果图经过逆HIS变换到RGB颜色空间,从而得到融合图像。仿真实验表明,该融合算法不仅运行速度快,而且融合效果最佳,最大程度地保留了红外图像的边缘细节特征和可见光图像的光谱信息。 相似文献
15.
16.
现有红外与可见光图像融合规则仅依赖于图像对比度、方差、梯度等局部特征,缺少全局考虑,因此融合图像不能突出场景中的关键目标特征。针对以上问题,在基于非下采样轮廓波变换(NSCT)的图像融合框架下,提出利用图像全局视觉显著性来指导系数融合,对源图像中视觉显著的目标区域进行重点强调。实验结果分析表明,采用所提算法获得的融合图像中关键目标更加突出,背景比较真实;客观评价指标显示,采用该算法获得的融合图像明显优于传统方法的融合结果。 相似文献
17.
红外图像即使在低光照条件下,也能根据热辐射的差异将目标与背景区分开来,而可见光图像具有高空间分辨率的纹理细节,此外,红外和可见光图像都含有相应的语义信息.因此,红外与可见光图像融合,需要既保留红外图像的辐射信息,也保留可见光图像的纹理细节,同时,也要反映出二者的语义信息.而语义分割可以将图像转换为带有语义的掩膜,提取源图像的语义信息.提出了一种基于语义分割的红外和可见光图像融合方法,能够克服现有融合方法不能针对性地提取不同区域特有信息的缺点.使用生成式对抗神经网络,并针对源图像的不同区域设计了2种不同的损失函数,以提高融合图像的质量.首先通过语义分割得到含有红外图像目标区域语义信息的掩模,并利用掩模将红外和可见光图像分割为红外图像目标区域、红外图像背景区域、可见光图像目标区域和可见光图像背景区域;然后对目标区域和背景区域分别采用不同的损失函数得到目标区域和背景区域的融合图像;最后将2幅融合图像结合起来得到最终融合图像.实验表明,融合结果目标区域对比度更高,背景区域纹理细节更丰富,提出的方法取得了较好的融合效果. 相似文献
18.
19.
针对单一图像源下目标跟踪精度不高和当目标存在部分遮挡时目标跟踪丢失的问题,本文提出了一种结合红外图像和可见光图像特征进行融合的方法. 首先在进行目标跟踪时,提取可见光图像的颜色信息作为目标模型的参数,提取红外图像的灰度信息作为目标模型的参数,并分别得到目标位置及其子图. 然后再利用目标子图和目标模型分别进行Bhattacharyya系数的计算,根据权值函数来计算各自系数的权值,最后用Mean Shift算法对加权后的目标进行跟踪. 该方法充分利用了红外图像与可见光图像的优点,提高了目标跟踪的精度,解决了当目标存在部分遮挡时目标跟踪丢失的问题. 相似文献
20.
基于语义的视频检索要处理的两项关键技术就是解决视频低层特征和高层语义概念间的语义鸿沟以及有效的语义提取模型。文中通过对视频进行多层次语义分析,采用有效的语义对象分割方法提取视频中的语义对象,以语义对象为中间层,并融合图像、声音、文本的多模式视频特征,从而缩小语义鸿沟。其次,视频语义概念具有多粒度性,由于本体在表示概念及概念间联系时的优越性,文中提出基于本体的语义提取模型,在从图像、声音、文本中提取出的原子概念中,推理出更高层次的复合概念。最终运用该模型提取的视频语义就具有更丰富的语义层次和语义粒度,从而更接近人类思维中的高层语义概念。 相似文献