共查询到18条相似文献,搜索用时 62 毫秒
1.
2.
3.
4.
基于特征的自动图像配准算法 总被引:4,自引:0,他引:4
提出了一种基于特征的自动图像配准算法,它利用角点检测和相关运算在给定源图像和目标图像上自动寻找侯选匹配点,利用松驰过程确定对应特征点。算法在大多数情况下能自动完成。从实验结果看,该算法获得了理想的拼合效果。 相似文献
5.
异源图像配准中,由于图像的成像机理差异,图像像素强度关联和旋转畸变是不可避免的两大问题,针对图像像素强度关联问题,提出了基于辐射不变特征变换(radiation-variation insensitive feature transform,RIFT)的图像配准算法,对图像间像素关联差异小的图像对配准有良好的精度,但对旋转畸变图像会产生较多错误匹配。对于旋转畸变问题,传统的ORB(oriented fast and rotated brief)算法,对旋转图像的配准有一定的稳定性,但对于强度变化不明显的图像对,特征点检测质量较低,配准精度不理想。因此本文将相位一致性(phase consistency,PC)融合进ORB算法,利用相位信息代替传统的图像强度信息,再构造旋转不变性BRIEF特征描述子,对图像像素强度变化和旋转畸变均具有鲁棒性。用图像像素强度关联不明显的红外图像和可见光图像进行配准实验,本文算法针对不同旋转幅度的图像的配准精度较高,RMSE稳定在1.7~2.1,优于RIFT算法,在特征点检测数量、配准精度和效率等性能上均有良好性能。 相似文献
7.
8.
9.
10.
红外光与可见光处于不同波段,其图像间的相关性较小.传统的基于特征的图像配准方法(如利用角点、边缘点等),在特征点选择时容易造成误匹配,这是由于有时特征点间的距离比较近造成的.针对此问题,本文提出了一种基于图像轮廓特征的红外与可见光图像配准方法.首先通过设置目标过滤器来提取明显的轮廓,再利用部分Hausdorff距离对轮廓进行匹配,计算出匹配轮廓对的面积和质心,并以此作为配准依据来对两种不同的图像进行配准.然后通过实验证明该方法的配准精度更高且克服了特征点误匹配的难点,这就可以解决刚性变换中红外与可见光图像间的配准问题. 相似文献
11.
针对红外与可见光图像尺度差异大、图像较模糊,且图像中可提取的特征点数量不足以及特征分布不均匀易导致现有配准算法失效的情况,提出一种结合滚动引导滤波和相位信息的红外与可见光图像配准方法.利用滚动引导滤波构建尺度空间,在不增加耗时的前提下尽可能保持图像边缘信息;提出一种改进的Shitomasi角点检测算法,提取具有尺度不变性且分布均匀的强角点;在特征描述阶段,给出一种新的加权函数进行频率扩展,以得到更显著的相位一致性信息,实现更准确的图像特征描述.实验结果表明,该配准方法对存在9倍尺度差异的红外与可见光图像仍能实现准确配准,且对多组图像对的配准RMSE误差均保持在2像素之内. 相似文献
12.
针对红外图像与可见光图像的自动配准问题,提出了一种基于图像角点特征和透视变换模型的方法.首先采用自适应阈值对红外与可见光图像进行分割,然后利用Harris因子分别在分割后的红外和可见光图像上检测角点.通过分析角点邻域在原始图像上的相关性实现角点的粗匹配.接着通过RANSAC算法对角点进行细匹配,删除outliers,再... 相似文献
13.
多模态图像配准能提供比单模态图像配准更加丰富和全面的信息,红外与可见光图像配准作为一种常见的多模态配准类型,在电力、遥感、军事以及人脸识别等领域具有重要的应用价值。首先介绍了红外与可见光图像配准的相关技术并阐述了配准中存在的难点与挑战,然后详细分析和总结了基于区域、基于特征和基于深度学习3种红外与可见光图像配准方法,并分别阐述了不同配准方法的优缺点,之后概述了红外与可见光图像配准技术的实际应用,最后对红外与可见光图像配准未来的发展趋势进行讨论。 相似文献
14.
提出了一种新的红外与可见光图像的配准算法,该方法基于图像的小波变换与互信息最大化完成图像的配准过程.首先通过搜索小波模极大提取图像感兴趣区域(ROI),完成图像预处理,并采用仿射变换,建立图像变换模型;其次将低分辨率图像进行图像插值,计算灰度直方图,进行概率分布的估计;最后选择模拟退火法,逼近全局最优解.实验结果证明了此算法的有效性. 相似文献
15.
RONG Chuanzhen LIU Gaohang PING Zhuolin JIA Yongxing YUE Zhenjun XU Guanghui 《电子学报:英文版》2021,30(2):339-348
The ideal fused results of infrared and visible images, should contain the important infrared objects, and preserve the visible textural detail information as much as possible. The fused images are more consistent with human visual perception effect. For this purpose, a novel infrared and visible image fusion framework is proposed. Under the guidance of the model, the source images are decomposed into large-scale edge, small-scale textural detail and coarse-scale base level information. Among which, the large-scale edge information contains the main infrared features, on this basis, the infrared image is further segmented into the object, transition and background regions by OTSU multi-threshold segmentation algorithm. In the end, the fused weights for the decomposed sub-information are determined by the segmented results, so that, the infrared object information can be effectively injected into the fused image, and the important visible textural detail information can be preserved as much as possible in the fused image. Experimental results show that, the proposed method can not only highlight the infrared objects, but also preserve the visual information in the visible image as much as possible. The fused results are superior to the commonly used representative fusion methods, both in subjective perception and objective evaluation. 相似文献
16.
由于成像机理不同,红外图像以像素分布表征典型目标,而可见光图像以边缘和梯度描述纹理细节,现有的融合方法不能依据源图像特征自适应变化,造成融合结果不能同时保留红外目标特征与可见光纹理细节。为此,本文提出红外与可见光图像多特征自适应融合方法。首先,构建了多尺度密集连接网络,可以有效聚合所有不同尺度不同层级的中间特征,利于增强特征提取和特征重构能力。其次,设计了多特征自适应损失函数,采用VGG-16网络提取源图像的多尺度特征,以像素强度和梯度为测量准则,以特征保留度计算特征权重系数。多特征自适应损失函数监督网络训练,可以均衡提取源图像各自的特征信息,从而获得更优的融合效果。公开数据集的实验结果表明,该方法在主、客观评价方面均优于其他典型方法。 相似文献
17.
通过一种自适应算法对红外图像和可见光图像进行了融合,该方法能根据当前环境下的图像特性自适应地调整融合参数。分析了红外与可见光图像的特性,并对已有的小波融合算法进行仿真验证,最终提出了基于小波变换的自适应融合算法,并对其进行了测试。实验结果表明,该方法产生的融合图像更有利于人眼观察,且融合性能指标也有所提升。 相似文献
18.
目前主流的深度融合方法仅利用卷积运算来提取图像局部特征,但图像与卷积核之间的交互过程与内容无关,且不能有效建立特征长距离依赖关系,不可避免地造成图像上下文内容信息的丢失,限制了红外与可见光图像的融合性能。为此,本文提出了一种红外与可见光图像多尺度Transformer融合方法。以Swin Transformer为组件,架构了Conv Swin Transformer Block模块,利用卷积层增强图像全局特征的表征能力。构建了多尺度自注意力编码-解码网络,实现了图像全局特征提取与全局特征重构;设计了特征序列融合层,利用SoftMax操作计算特征序列的注意力权重系数,突出了源图像各自的显著特征,实现了端到端的红外与可见光图像融合。在TNO、Roadscene数据集上的实验结果表明,该方法在主观视觉描述和客观指标评价都优于其他典型的传统与深度学习融合方法。本方法结合自注意力机制,利用Transformer建立图像的长距离依赖关系,构建了图像全局特征融合模型,比其他深度学习融合方法具有更优的融合性能和更强的泛化能力。 相似文献