首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 171 毫秒
1.
张国山  张培崇  王欣博 《红外与激光工程》2018,47(2):203004-0203004(9)
场景外观剧烈变化引起的感知偏差和感知变异给视觉场景识别带来了很大的挑战。现有的利用卷积神经网络(CNN)的视觉场景识别方法大多数直接采用CNN特征的距离并设置阈值来衡量两幅图像之间的相似性,当场景外观剧烈变化时效果较差,为此提出了一种新的基于多层次特征差异图的视觉场景识别方法。首先,一个在场景侧重的数据集上预训练的CNN模型被用来对同一场景中感知变异的图像和不同场景中感知偏差的图像进行特征提取。然后,根据CNN不同层特征具有的不同特性,融合多层CNN特征构建多层次特征差异图来表征两幅图像之间的差异。最后,视觉场景识别被看作二分类问题,利用特征差异图训练一个新的CNN分类模型来判断两幅图像是否来自同一场景。实验结果表明,由多层CNN特征构建的特征差异图能很好地反映两幅图像之间的差异,文中提出的方法能有效地克服感知偏差和感知变异,在场景外观剧烈变化下取得很好的识别效果。  相似文献   

2.
为了有效、实时地对各种类型失真立体图像质量 进行评价,提出了一种基于极端学习(ELM) 和四元数小波交换(QWT)的无参考(NR)立体图像质量评价方法。首先利用SSI M密度立体匹 配模型生成相关的视差图、差异度可信图和右视图差异补偿图3D映射图;然后分别对左右视 图、视差图和差异度可信图进行 QWT,计算图像QWT第3相位系数相位幅值加权标准差和能量;再计算右视图 差异补偿图统 计特征熵和中值;最后将所提取的所有特征输入到基于核映射ELM 学习,预测失真立体图像 质量。在LIVE 3D图像质量评价数据库上的实验结果表明,本方法与人类主观质量评分具有较好的一致性 。在LIVE 3D图 像质量库I(Phase I)和库II(Phase II)上的斯皮尔曼相关系数(SROCC) 分别达到0.926和0.914  相似文献   

3.
高分辨率遥感图像内容复杂,提取特征来准确地表达图像内容是提高检索性能的关键。卷积神经网络(CNN)迁移学习能力强,其高层特征能够有效迁移到高分辨率遥感图像中。为了充分利用高层特征的优点,该文提出一种基于高层特征图组合及池化的方法来融合不同CNN中的高层特征。首先将高层特征作为特殊的卷积层特征,进而在不同输入尺寸下保留高层输出的特征图;然后将不同高层输出的特征图组合成一个更大的特征图,以综合不同CNN学习到的特征;接着采用最大池化的方法对组合特征图进行压缩,提取特征图中的显著特征;最后,采用主成分分析(PCA)来降低显著特征的冗余度。实验结果表明,与现有检索方法相比,该方法提取的特征在检索效率和准确率上都有优势。  相似文献   

4.
With the advances in understanding perceptual properties of the human visual system, perceptual video coding, which aims to incorporate human perceptual mechanisms into video coding for maximizing the perceptual coding efficiency, becomes an essential research topic. Since the newest video coding standard—high efficiency video coding (HEVC) does not fully consider the perceptual characteristic of the input video, a perceptual feature guided rate distortion optimization (RDO) method is presented to improve its perceptual coding performance in this paper. In the proposed method, for each coding tree unit, the spatial perceptual feature (i.e., gradient magnitude ratio) and the temporal perceptual feature (i.e., gradient magnitude similarity deviation ratio) are extracted by considering the spatial and temporal perceptual correlations. These perceptual features are then utilized to guide the RDO process by perceptually adjusting the corresponding Lagrangian multiplier. By incorporating the proposed method into the HEVC, extensive simulation results have demonstrated that the proposed approach can significantly improve the perceptual coding performance and obtain better visual quality of the reconstructed video, compared with the original RDO in HEVC.  相似文献   

5.
为实现在只有少量标记数据情况下的高质量的图像分类,本文提出了一种基于深度卷积神经网络的图上半监督极化SAR图像分类算法.该算法将极化SAR图像建模为无向图,并基于该无向图,定义了包含半监督项,卷积神经网络项和类标光滑项的能量函数.算法所采用的卷积神经网络提取抽象的数据驱动的极化特征.半监督项约束了有标记像素的类标在分类过程中保持不变.类标光滑项约束了像素间类标的光滑性.基于对PauliRGB图像进行超像素分割而产生的初始化类标图,交替迭代优化所定义的能量函数直至其收敛.在两幅真实极化SAR图像上的实验结果表明,该算法达到了优异的分类效果,其性能优于当前已有算法.  相似文献   

6.
由于浅层卷积神经网络(convolutional neural network,CNN)模型感受野的限制,无法捕获远距离特征,在高光谱图像 (hyperspectral image,HSI) 分类问题中无法充分利用图像空间-光谱信息,很难获得较高精度的分类结果。针对上述问题,本文提出了一种基于卷积神经网络与注意力机制的模型(model based on convolutional neural network and attention mechanism,CNNAM),该模型利用CA (coordinate attention)对图像通道数据进行位置编码,并利用以自注意力机制为核心架构的Transformer模块对其进行远距离特征提取以解决CNN感受野的限制问题。CNNAM在Indian Pines和Salinas两个数据集上得到的总体分类精度分别为97.63%和99.34%,对比于其他模型,本文提出的模型表现出更好的分类性能。另外,本文以是否结合CA为参考进行了消融实验,并证明了CA在CNNAM中发挥重要作用。实验证明将传统CNN与注意力机制相结合可以在HSI分类问题中获得更高的分类精度。  相似文献   

7.
8.
由于遥感影像具有数据量大、维数高和不确定性等特点,遥感影像的分类已经远远超出了人的分析和解译能力,为了达到理想的分类效果,提取深层次空间结构信息的需求越来越强烈。根据各类样本的均值和方差构造加权系数,对样本的自相关函数进行加权,提出1种新的自相关函数特征提取算法,以改善样本不足造成的分类精度较低问题;采用支持向量机方法,对新的样本数据进行训练与分类性能研究。实验结果表明分类精度提高,在一定程度上能够反映遥感影像的深层次空间结构信息,验证了此算法的有效性与可行性。  相似文献   

9.
针对合成孔径雷达(Synthetic Aperture Radar, SAR)图像目标分辨率差异大,多尺度SAR图像目标分类准确率不高的问题,提出了一种基于迁移学习和分块卷积神经网络(Convolutional Neural Network, CNN)的SAR图像目标分类算法。首先通过大量与目标域相近的源域数据对分块CNN的参数进行训练,得到不同尺度下的CNN特征提取网络;其次将CNN的卷积和池化层迁移到新的网络结构中,实现目标特征的提取;最后用超限学习机(Extreme Learning Machine, ELM)网络对提取的特征进行分类。实验数据采用美国MSTAR数据库以及多尺度SAR图像舰船目标数据集,实验结果表明,该方法对多尺度SAR图像的分类效果优于传统CNN。  相似文献   

10.
基于方块编码的图像纹理特征提取及检索算法   总被引:6,自引:4,他引:2  
针对灰度共生矩阵(GLCM)在提取纹理特征时存在的问题,提出一种基于方块编码(BTC)的图像纹理特征的检索算法。首先将图像分成互不重叠的子图像块,然后利用BTC的思想对这些图像块进行编码,进而定义图像的纹理基元并以此作为对图像的纹理描述,并提出采用一种改进的基于纹理基元的共生矩阵来获取纹理特征。实验结果表明,该方法既有效地利用了图像的纹理信息,又考虑了图像的空间和形状信息,具有较好的检索效果。  相似文献   

11.
针对难以准确有效地提取混合失真图像质量特征的问题,该文提出一种基于空间分布分析的图像质量评价方法。首先将图像进行亮度系数归一化处理,然后将图像进行分块,利用卷积神经网络(CNN)进行端对端的深度学习,采用多层次卷积核堆叠的方法获取图像的质量感知特征,并通过全连接层将特征映射到图像块的质量分数。再将块质量分数汇总获取质量池,通过对质量池中局部质量的空间分布情况进行分析,提取能够表征其空间分布情况的特征,然后采用神经网络建立局部质量到整体质量的映射模型,将图像的局部质量进行汇总。最后在MLIVE, MDID2013, MDID2016混合失真图像库中进行性能测试以及与相关的对比算法进行比较,验证了该算法的有效性。  相似文献   

12.
目前大部分图像去雾算法只在一种或几种均匀雾图数据集中有较好的表现,对于不同风格或非均匀雾图数据集去雾效果较差,同时算法在实际应用中会因模型泛化能力差导致模型场景受限。针对上述情况,该文提出一种基于迁移学习的卷积神经网络(CNN)用于解决去雾算法中非均匀雾图处理效果不佳和模型泛化能力差等问题。首先,该文使用ImageNet预训练的模型参数作为迁移学习模型的初始参数,以加速模型训练收敛速度。其次,主干网络模型由3个子网组成:残差特征子网络、局部特征提取子网络和整体特征提取子网络。3子网结合以保证模型可从整体和局部两个方面进行特征提取,在现实雾场景(浓雾、非均匀雾)中获得较好的去雾效果。该文在模型训练效率、去雾质量和雾图场景选择灵活性3个方面进行了研究和改进,为衡量模型性能,模型选择在去雾难度较大的非均匀雾图数据集NTIRE2020和NTIRE2021上进行定量与定性实验。实验结果证明3子网模型在图像主观和客观评价指标两个方面都取得了较好的效果。该文模型改善了算法泛化性能差和小数据集难以进行模型训练的问题,可将该文成果广泛应用于小规模数据集和多变场景图像的去雾工作中。  相似文献   

13.
李萌  刘畅 《雷达学报》2020,9(2):363-372
对于合成孔径雷达(SAR)图像,传统的超分辨重建方法对视觉特征的人为构造十分依赖,基于普通卷积神经网络(CNN)的超分辨重建方法对微小目标的重建能力较弱,对边缘轮廓的保真度较差。针对以上问题,该文提出一种基于特征复用的膨胀-残差卷积超分辨网络模型,同时引入感知损失,实现了精确的SAR图像4倍语义级超分辨。该方法为增加网络感受野,采用膨胀-残差卷积(DR-CNN)结构用于限制模型中特征图分辨率的严重损失,提高网络对微小细节的敏感度;为实现不同层级的特征最大化利用,将不同层级的特征图进行级联,形成一种特征复用结构(FRDR-CNN),以此大幅度提升特征提取模块的效率,进一步提升超分辨精度;针对SAR图像特殊的相干斑噪声干扰,引入感知损失,使得该方法在恢复图像边缘和精细的纹理信息方面具有优越表现。文中实验表明,与传统算法以及目前较为流行的几种全卷积神经网络超分辨重建算法相比,该文采用的FRDR-CNN模型在视觉上对小物体的超分辨重建能力更强,对边界等轮廓信息的重建更准确,客观指标中的峰值信噪比(PSNR)和结构相似性指数(SSIM)分别为33.5023 dB和0.5127,边缘保持系数(EPD-ROA)在水平和垂直方向上分别为0.4243和0.4373。   相似文献   

14.
15.
This paper presents a bilateral attention based generative adversarial network (BAGAN) for depth-image-based rendering (DIBR) 3D image watermarking to protect the image copyright. Convolutional block operations are employed to extract main image features for robust watermarking, but embedding watermark into some features will degrade image quality much. To relieve this kind of image distortion, the bilateral attention module (BAM) is utilized by mining correlations of the center view and the depth map to compute attention of the 3D image for guiding watermark to distribute over different image regions. Since a modality gap exists between the center view and the depth map, a cross-modal feature fusion module (CMFFM) is designed for BAM to bridge the cross-view gap. Because the depth map has lots of flat background information including many redundant features, to prune them, the depth redundancy elimination module (DREM) is used for cross-view feature fusion. In the decoder, two extractors with the same structure are built to recover watermark from the center view and the synthesized view, respectively. In addition, the discriminator is supposed to build a competitive relationship with the encoder to increase the image quality. The noise sub-network is used to train different image attacks for robustness. Extensive experimental results have demonstrated that the proposed BAGAN can obtain higher watermarking invisibility and robustness compared with existing DIBR 3D watermarking methods. Ablation experiments have also proven the effectiveness of DREM, CMFFM and BAM on BAGAN.  相似文献   

16.
针对传统的基于目标区域的图像检索算法中存在的"语义鸿沟"问题,以及基于全局特征的图像检索算法不能很好地处理多目标检索问题,提出了一种基于多目标区域的图像检索模型,并实现了一款高效的检索算法.首先借助于目标检测算法定位出图像中的目标,然后使用卷积神经网络(CNN)提取各个目标的特征,最后采用新提出的多目标区域相似度测量方法计算其与数据库图像的相似度并返回检索结果.实验表明,所提算法与现有的其他检索算法相比,在多目标图像检索任务上性能更佳.  相似文献   

17.
The development of objective image quality assessment (IQA) metrics aligned with human perception is of fundamental importance to numerous image-processing applications. Recently, human visual system (HVS)-based engineering algorithms have received widespread attention for their low computational complexity and good performance. In this paper, we propose a new IQA model by incorporating these available engineering principles. A local singular value decomposition (SVD) is first utilised as a structural projection tool to select local image distortion features, and then, both perceptual spatial pooling and neural networks (NN) are employed to combine feature vectors to predict a single perceptual quality score. Extensive experiments and cross-validations conducted with three publicly available IQA databases demonstrate the accuracy, consistency, robustness, and stability of the proposed approach compared to state-of-the-art IQA methods, such as Visual Information Fidelity (VIF), Visual Signal to Noise Ratio (VSNR), and Structural Similarity Index (SSIM).  相似文献   

18.
为了解决传统高光谱图像分类方法精度低、计算成本高及未能充分利用空-谱信息的问题,本文提出一种基于多维度并行卷积神经网络(multidimensional parallel convolutional neural network,3D-2D-1D PCNN)的高光谱图像分类方法。首先,该算法利用不同维度卷积神经网络(convolutional neural network,CNN)提取高光谱图像信息中的空-谱特征、空间特征及光谱特征;之后,采用相同并行卷积层将组合后的空-谱特征、空间特征及光谱特征进行特征融合;最后,通过线性分类器对高光谱图像信息进行精准分类。本文所提方法不仅可以提取高光谱图像中更深层次的空间特征和光谱特征信息,同时能够将光谱图像不同维度的特征进行融合,减小计算成本。在Indian Pines、Pavia Center和Pavia University数据集上对本文算法和4种传统算法进行对比实验,结果表明,本文算法均得到最优结果,分类精度分别达到了99.210%、99.755%和99.770%。  相似文献   

19.
通过模拟人类视觉系统(HVS)的双目视觉行为,提 出一种基于双目特征联合的无参考立 体图像质量评价(NR-SIQA)方法。首先分析立体视觉感知中的双目联合行为,提出 可应用于立体图像质量预 测的双目联合模型;然后采用学习和统计分析的方法,分别提取局部和全局特征并联合作 为感知特征; 最后采用机器学习算法,建立特征和质量的关系模型,并结合基于特征的双目联合模型预测 立体图像质量。实验结果表明,本文方法在对称立体图像库上的Pearson线性相关系数(PLCC)和Spearman等级系数(SRCC)高于0.93,在非对称库上高于0.87,优 于现有评价方法。  相似文献   

20.
This paper proposes a new object-based classification method for Polarimetric synthetic aperture radar (PolSAR) images, which considers scattering powers from an improved model-based polarimetric decomposition approach, as well as the spatial and textural features. With the decomposition, the scattering ambiguities between ori-ented buildings and vegetation are reduced. Furthermore, various contextual features are extracted from the ob ject and incorporated into the K-nearest neighbors (k-NN) based classification. To reduce the feature redundancy, a new Supervised locally linear embedding (S-LLE) dimen-sionality reduction method is introduced to map the high dimensional polarimetric signatures into the most compact low-dimensional structure for classification. Experimental results with Airborne synthetic aperture rada (AIRSAR) C-band PolSAR image demonstrate the superior perfor-mance to other methods.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号