首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 140 毫秒
1.
在研究了经典ITTI等视觉注意模型的理论基础上,结合海面SAR图像背景及目标特点,对传统视觉模型应用于海面SAR图像的缺陷进行分析总结,提出一种适用于海面SAR图像视觉注意模型设计算法。首先,模型借鉴经典ITTI模型的基本框架,选择并提取了能够较好描述SAR图像的纹理和形状特征,求取相应的特征显著图;其次,采用新的特征显著图整合机制替代经典模型的线性相加机制进行显著图融合得到总显著图;最后,综合各特征显著图下注意焦点的灰度特征,选择最佳的显著性表征,完成通过多尺度竞争策略对显著图的滤波及阈值分割实现显著区域的精确筛选,从而完成SAR图像的显著区域检测。实验采用Terra SAR-X等多幅卫星数据进行仿真实验,结果验证了模型良好的显著性检测效果,更符合实际高分辨率图像目标检测的应用需求。通过进一步与经典视觉模型对比分析,模型在改善了由斑点噪声和不均匀的海杂波背景对检测结果产生的虚警影响的同时,检测速度也较之提高了25%~45%。  相似文献   

2.
根据人眼视觉系统的基本特点,提出一种基于宽频调谐特征和谱残差分析的显著性目标检测算法。该方法通过在上下文信息中提取图像的宽频调谐特征,运用线性叠加融合宽频调谐特征子图得到初步特征图,然后利用多尺度方法构建多分辨率显著图谱子序列,最后利用谱残差分析融合位置特征对显著性子图进行操作运算得到最终的显著图。基于自然图像的显著性目标检测实验结果证明,该方法具有较好的实用性和较强的稳定性,能够获取较为精确的检测结果。  相似文献   

3.
在超宽带合成孔径雷达叶簇隐蔽目标检测中,传统的UWB SAR图像变化检测方法易受图像灰度值起伏和成像条件变化的影响,致使现有的变化检测算法的性能下降.本文根据人类视觉系统的生理结构和认知特点,提出了一种基于视觉注意机制的叶簇隐蔽目标变化检测算法.该方法使用视觉注意模型,将图像的多尺度特征信息融合为单幅视觉显著图像,并利用图像局部邻域信息和目标的空间相关特性对视觉显著图中视觉注意焦点进行分层筛选和变化检测.实验结果表明:本文中基于视觉注意机制的变化检测方法可以有效检测多时相UWB SAR图像中的叶簇隐蔽目标,较之传统的基于统计原理的变化检测方法,其检测速度更快,且对场景复杂的UWB SAR图像亦具有鲁棒性.  相似文献   

4.
基于区域特征融合的RGBD显著目标检测   总被引:2,自引:2,他引:0       下载免费PDF全文
杜杰  吴谨  朱磊 《液晶与显示》2016,31(1):117-123
为了对各类自然场景中的显著目标进行检测,本文提出了一种将图像的深度信息引入区域显著性计算的方法,用于目标检测。首先对图像进行多尺度分割得到若干区域,然后对区域多类特征学习构建回归随机森林,采用监督学习的方法赋予每个区域特征显著值,最后采用最小二乘法对多尺度的显著值融合,得到最终的显著图。实验结果表明,本文算法能较准确地定位RGBD图像库中每幅图的显著目标。  相似文献   

5.
一种基于视觉显著图的舰船红外图像目标检测方法   总被引:1,自引:0,他引:1  
马新星  沈同圣  徐健 《红外》2013,34(10):25-30
提出了一种基于视觉显著图的红外舰船目标定位方法,即通过改进的Itti模型生成视觉显著图,并基于视觉显著图分割出目标区域,从而实现目标检测。先用小波变换替代Itti模型中的高斯滤波来生成图像多尺度金字塔,然后用center—surround算子提取出多尺度的视觉差异特征,并对生成的视觉特征图进行合成,生成显著图。最后,利用阈值分割方法分割出目标区域,并对原始图像进行标记,从而实现目标检测。实验结果表明,与传统的Otsu阈值分割方法相比,该方法能够准确检测出目标区域。  相似文献   

6.
针对传统视觉注意机制在室内三原色(RGB)图像视觉显著物体检测中存在的运算复杂、检测精度低等缺点,提出了一种融合深度信息的室内RGB图像视觉显著物体快速检测方法。对室内RGB图像进行降采样和金字塔量化处理,从而降低图片的空间分辨率和计算复杂度。利用亮度、红绿以及黄蓝三通道的多特征视觉注意机制显著性检测模型以获得室内RGB图像的显著图。在显著图分析中提出显著区域生长策略,从而获得视觉显著区域的精确轮廓。融合深度信息获取视觉显著区域内显著物体数目以及显著物体相互之间的位置关系。通过室内场景实验,验证了方法的可行性和有效性。  相似文献   

7.
针对传统的恒虚警率(CFAR)算法应用于SAR图像弱目标检测存在虚警率高的问题,提出一种基于改进型Itti视觉显著性模型的新算法。该算法首先获取SAR图像的局部方差特征图、亮度频率特征图和全局对比度特征图,然后将特征图经高斯模糊和归一化后,将其非线性融合生成原始SAR图像尺度的显著图,最后从显著图中提取视觉显著性区域作为最终的检测结果。仿真结果表明,通过和改进型CFAR、相干CFAR和二维Otsu检测三种算法的检测性能对比,该算法在检测准确率和时间复杂度上均具有良好的性能。  相似文献   

8.
范佳佳 《信息技术》2014,(9):105-109
近年来,显著性检测与图像处理有着密不可分的关系,图像处理依赖于高质量的显著图才能得到较好的处理结果。因此为提高图像显著性检测的准确性,提出了一种新的基于条件随机场(CRF)的显著性融合算法。将显著性检测看做一个图像标注问题,运用多尺度对比,中央—周围直方图和颜色空间分布这三种不同的显著度计算得到显著图。通过CRF学习计算各个显著度的权重,采用最大似然估计方法获取模型参数估计,得到最优解。最后利用CRF检测测试图像。通过大量的实验结果表明,此算法可以对显著目标得到更加精确地检测。  相似文献   

9.
李博  张凌 《信息技术》2014,(4):60-65
视频动态目标检测与跟踪是智能化视频分析的基础,是实现智能监控的关键技术之一。基于人类视觉对运动的方向和速度非精确感知的特点,结合HR生物相关运动检测模型改进Itti Saliency算法,建立颜色、方向、亮度和运动四特征通道的特征图提取算法,对特征图进行跨尺度融合及归一化,从而提取视频图像中动态目标的视觉显著图。对视频序列图像的显著图逐一显示,便可实现对运动目标的跟踪。提出的运动感知模型,改善了对运动目标视觉显著性的检测效果,能够准确检测并跟踪监控视频中复杂背景、遮挡、多物体的动态目标。  相似文献   

10.
提出了视觉注意驱动的基于混沌分析的运动检测方法(MDSA).MDSA首先基于视觉注意机制提取图像的显著区域,而后对显著区域进行混沌分析以检测运动目标.算法技术路线为:首先根据场景图像提取多种视觉敏感的底层图像特征;然后根据特征综合理论将这些特征融合起来得到一幅反映场景图像中各个位置视觉显著性的显著图;而后对显著性水平最高的图像位置所在的显著区域运用混沌分析的方法进行运动检测;根据邻近优先和返回抑制原则提取下一最显著区域并进行运动检测,直至遍历所有的显著区域.本文对传统的显著区域提取方法进行了改进以减少计算量:以邻域标准差代替center-surround算子评估图像各位置的局部显著度,采用显著点聚类的方法代替尺度显著性准则提取显著区域;混沌分析首先判断各显著区域的联合直方图(JH)是否呈现混沌特征,而后依据分维数以一固定阈值对存在混沌的JH中各散点进行分类,最后将分类结果对应到显著区域从而实现运动分割.MDSA具有较好的运动分割效果和抗噪性能,对比实验和算法开销分析证明MDSA优于基于马塞克的运动检测方法(MDM).  相似文献   

11.
针对红外与可见光图像在融合后容易出现伪影,小目标轮廓不清晰等问题,提出一种基于多尺度特征与注意力模型相结合的红外与可见光图像融合算法。通过5次下采样提取源图像不同尺度的特征图,再将同一尺度的红外与可见光特征图输入到基于注意力模型的融合层,获得增强的融合特征图。最后把小尺度的融合特征图进行5次上采样,再与上采样后同一尺度的特征图相加,直到与源图像尺度一致,实现对特征图的多尺度融合。实验对比不同融合框架下融合图像的熵、标准差、互信息量、边缘保持度、小波特征互信息、视觉信息保真度以及融合效率,本文方法在多数指标上优于对比算法,且融合图像目标细节明显轮廓清晰。  相似文献   

12.
针对相位一致性图大部分特征值为零且易受噪声干扰,导致其构造的多模态图像特征描述子能力有限的问题,提出了一种累积结构特征图(Cumulative Structural Feature,CSF)构造及其特征描述子建立方法,通过增强图像结构来提高特征点描述子的辨识能力。首先,采用Log-Gabor奇对称滤波器提取多模态图像多个尺度和方向的边缘结构特征,通过特征信号平方和归一化构造CSF,增强图像的结构相似性,并直接在CSF上提取特征点;再利用多个尺度和方向的边缘结构信息构造方向特征图;最后,结合CSF和方向特征图建立特征描述子,提高描述子的辨识能力。六种场景的多模态图像匹配实验表明,与其他方法的最好结果相比,所提方法的平均正确匹配数量提升了27.07%,平均正确率提升了2.26%,且增强了对场景的适应能力。  相似文献   

13.
针对小尺寸JPEG压缩图像携带有效信息较少、中值滤波痕迹不明显的问题,提出一种基于多残差学习与注意力融合的图像中值滤波检测算法。该算法将多个高通滤波器与注意力模块相结合,获取带权值的多残差特征图作为特征提取层的输入,特征提取层采用分组卷积形式,对输入的多残差特征图进行多尺度特征提取,融合不同尺度的特征信息,同时采用密集连接方式,每一层卷积的输入来自前面所有卷积层的输出和。实验结果表明,针对小尺寸JPEG压缩图像的中值滤波检测,本文算法比现有算法具有更高的检测精度,且能更有效地检测与定位局部篡改区域。  相似文献   

14.
Crowd counting algorithms have recently incorporated attention mechanisms into convolutional neural networks (CNNs) to achieve significant progress. The channel attention model (CAM), as a popular attention mechanism, calculates a set of probability weights to select important channel-wise feature responses. However, most CAMs roughly assign a weight to the entire channel-wise map, which makes useful and useless information being treat indiscriminately, thereby limiting the representational capacity of networks. In this paper, we propose a multi-scale and spatial position-based channel attention network (MS-SPCANet), which integrates spatial position-based channel attention models (SPCAMs) with multiple scales into a CNN. SPCAM assigns different channel attention weights to different positions of channel-wise maps to capture more informative features. Furthermore, an adaptive loss, which uses adaptive coefficients to combine density map loss and headcount loss, is constructed to improve network performance in sparse crowd scenes. Experimental results on four public datasets verify the superiority of the scheme.  相似文献   

15.
Human visual system makes an extensive use of visual attention in order to select the most relevant information and speed-up the vision process. Inspired by visual attention, several computer models have been developed and many computer vision applications rely today on such models. However, the actual algorithms are not suitable to omnidirectional images, which contain a significant amount of geometrical distortion. In this paper, we present a novel computational approach that performs in spherical geometry and thus is suitable for omnidirectional images. Following one of the actual models of visual attention, the spherical saliency map is obtained by fusing together intensity, chromatic, and orientation spherical cue conspicuity maps that are themselves obtained through multiscale analysis on the sphere. Finally, the consecutive maxima in the spherical saliency map represent the spots of attention on the sphere. In the experimental part, the proposed method is then compared to the standard one using a synthetic image. Also, we provide examples of spots detection in real omnidirectional scenes which show its advantages. Finally, an experiment illustrates the homogeneity of the detected visual attention in omnidirectional images.  相似文献   

16.
针对低光照增强任务缺乏参考图像及现有算法存在的色彩失真、纹理丢失、细节模糊、真值图像获取难等问题,本文提出了一种基于Retinex理论与注意力机制的多尺度加权特征低光照图像增强算法。该算法通过基于Unet架构的特征提取模块对低光照图像进行多尺度的特征提取,生成高维度的多尺度特征图;建立注意力机制模块凸显对增强图像有利的不同尺度的特征信息,得到加权的高维特征图;最后反射估计模块中利用Retinex理论建立网络模型,通过高维特征图生成最终的增强图像。设计了一个端到端的网络架构并利用一组自正则损失函数对网络模型进行约束,摆脱了参考图像的约束,实现了无监督学习。最终实验结果表明本文算法在增强图像的对比度与清晰度的同时维持了较高的图像细节与纹理,具有良好的视觉效果,能够有效增强低光照图像,视觉质量得到较大改善;并与其他多种增强算法相比,客观指标PSNR和SSIM得到了提高。  相似文献   

17.
概率框架下多特征显著性检测算法   总被引:1,自引:0,他引:1       下载免费PDF全文
杨小冈  李维鹏  马玛双 《电子学报》2019,47(11):2378-2385
显著性检测是计算机视觉的一项基础问题,广泛地用于注视点预测、目标检测、场景分类等视觉任务当中.为提升多特征条件下图像的显著性检测精度,以显著图的联合概率分布为基础,结合先验知识,设计一种概率框架下的多特征显著性检测算法.首先分析了单一特征显著性检测的潜在缺陷,继而推导出多特征下显著图的联合概率分布;然后根据显著图的稀有性,稀疏性,紧凑性与中心先验推导出显著图的先验分布,并使用正态分布假设简化了显著图的条件分布;随后根据显著图的联合概率分布得到其极大后验估计,并基于多阈值假设构建了分布参数的有监督学习模型.数据集实验表明:相比于精度最高的单一特征显著性检测方法,多特征算法在有监督和启发式方法下的平均误差降低了6.98%和6.81%,平均F-measure提高了1.19%和1.16%;单幅图像的多特征融合耗时仅为11.8ms.算法精度较高,实时性好,且可根据不同任务选择所需的特征类别与先验信息,能够满足多特征显著性检测的性能要求.  相似文献   

18.
Saliency detection is widely used to pick out relevant parts of a scene as visual attention regions for various image/video applications. Since video is increasingly being captured, moved and stored in compressed form, there is a need for detecting video saliency directly in compressed domain. In this study, a compressed video saliency detection algorithm is proposed based on discrete cosine transformation (DCT) coefficients and motion information within a visual window. Firstly, DCT coefficients and motion information are extracted from H.264 video bitstream without full decoding. Due to a high quantization parameter setting in encoder, skip/intra is easily chosen as the best prediction mode, resulting in a large number of blocks with zero motion vector and no residual existing in video bitstream. To address these problems, the motion vectors of skip/intra coded blocks are calculated by interpolating its surroundings. In addition, a visual window is constructed to enhance the contrast of features and to avoid being affected by encoder. Secondly, after spatial and temporal saliency maps being generated by the normalized entropy, a motion importance factor is imposed to refine the temporal saliency map. Finally, a variance-like fusion method is proposed to dynamically combine these maps to yield the final video saliency map. Experimental results show that the proposed approach significantly outperforms other state-of-the-art video saliency detection models.  相似文献   

19.
In this paper we present a redundancy reduction based approach for computational bottom-up visual saliency estimation. In contrast to conventional methods, our approach determines the saliency by filtering out redundant contents instead of measuring their significance. To analyze the redundancy of self-repeating spatial structures, we propose a non-local self-similarity based procedure. The result redundancy coefficient is used to compensate the Shannon entropy, which is based on statistics of pixel intensities, to generate the bottom-up saliency map of the visual input. Experimental results on three publicly available databases demonstrate that the proposed model is highly consistent with the subjective visual attention.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号