共查询到18条相似文献,搜索用时 171 毫秒
1.
基于人类视觉感知理论,提出一个改进的Itti视觉注意模型用于图像检索。该改进视觉注意模型是在充分考虑纹理特征与视觉感知关系的基础上,构造一个粗糙度图,用作视觉注意模型的一个初级视觉特征。首先通过该改进视觉注意模型得到50个视觉特征图;然后分别对每个视觉特征图采用局部二值模式傅里叶直方图(LBP-HF)方法抽取其分布信息,从而获得每幅图像的高维特征;最后利用局部保持投影(LPP)方法进行维数约简,以获取具有图像间局部几何和鉴别信息的低维特征用于图像检索。实验结果表明,该算法能获得较好的检索效果。 相似文献
2.
一种动态场景中的视觉注意区域检测方法 总被引:1,自引:0,他引:1
利用心理学中有关视觉注意的研究成果,提出一种新的动态场景中的视觉注意区域检测算法.该算法利用视觉对场景的感知的特点,以特征点轨迹作为运动特征,计算特征点运动的显著性,并用运动显著的特征点作为"种子",结合空间分割方法产生运动显著图.为了兼顾静态场景,则利用颜色和亮度作为特征,以center-surround反差模型获得图像的静态显著图. 最后提出一种基于运动优先思想的方法将运动和空间显著图进行动态融合,生成视觉注意区域.与以往方法相比,该方法生成的视觉注意区域较为完整,并且具有更好的抗噪性.实验结果证明了该方法的有效性和稳定性. 相似文献
3.
为了有效地提取图像特征以提高图像检索性能,借鉴生物视觉信息处理过程中的提取图像特征,提出一种结合视觉感知与局部二值模式(LBP)傅里叶直方图的图像检索算法.首先根据视觉感知特点,用主分量图作为亮度初级视觉特征,将形状边缘信息融入视觉注意模型,获得改进的Itti视觉注意模型,并基于该改进视觉注意模型得到50个视觉特征图;... 相似文献
4.
5.
6.
视觉选择性注意模型的应用是当今认知信息处理领域的研究热点。根据人类视觉感知理论,在介绍具有代表性的视觉注意模型(Itti模型)的基础上,在特征提取的初级阶段引入新的低层视觉特征,形成一种新的引导注意的显著图,从而实现较为准确的目标检测。结果证明该方法在一定程度上避免了漏检测现象的发生,使得注意区域更能接近生物视觉系统的实际。 相似文献
7.
8.
为提高驾驶员视觉感知行为仿真的逼真性,注意力模型成为驾驶行为研究的重点。介绍了注意力的认知模型,根据注意力的双加工理论,建立了虚拟驾驶员视觉注意力模型,将视觉注意过程分为预注意和集中注意两个阶段,在预注意阶段,基于图像的相位谱信息建立了图像的特征显著图,实现注意的自下而上过程。使用RBF网络实现了预注意阶段的自下而上和自上而下两个过程的结合。在集中注意阶段,实现了注意力的聚焦效应。对视觉注意力模型进行了仿真实验,验证了模型的有效性,为虚拟驾驶员视觉感知行为建模与仿真提供了基础。 相似文献
9.
根据人类视觉感知理论,将自底向上和自顶向下的注意机制相结合,融入到交通标志检测中,提出一种基于视觉注意机制的交通标志检测方法。根据2种注意模型提取颜色、形状、亮度等多种特征,生成显著图,利用WTA网络找到感兴趣区域,即交通标志区域。实验结果表明,该方法能在复杂背景图像中准确定位交通标志。 相似文献
10.
无人机协同态势感知搜寻任务规划问题是当前无人机应用研究领域的关注重点。基于现实无人机搜寻任务统计的大数据概率搜寻热图,概括总结出区域定点搜寻、大范围机动搜寻和机动避让搜寻3类搜寻目标机动模式,采取大数据增量计算3类情形下的无人机协同搜索识别概率,基于果蝇优化算法对应构建了“效率优先”“中心辐散”和“向心辐合”搜索策略的无人机协同态势感知FOA搜寻模型,得到无人机协同搜索到搜寻机动目标的最高概率分别为66.82%、86.72%和81.48%,并利用博弈论思想对无人机协同搜索策略和搜寻机动目标对抗避让策略进行了辨析。该模型具有较强适应性,为无人机协同态势感知搜寻任务规划问题提供了一定技术支撑。 相似文献
11.
目的 立体视频能提供身临其境的逼真感而越来越受到人们的喜爱,而视觉显著性检测可以自动预测、定位和挖掘重要视觉信息,可以帮助机器对海量多媒体信息进行有效筛选。为了提高立体视频中的显著区域检测性能,提出了一种融合双目多维感知特性的立体视频显著性检测模型。方法 从立体视频的空域、深度以及时域3个不同维度出发进行显著性计算。首先,基于图像的空间特征利用贝叶斯模型计算2D图像显著图;接着,根据双目感知特征获取立体视频图像的深度显著图;然后,利用Lucas-Kanade光流法计算帧间局部区域的运动特征,获取时域显著图;最后,将3种不同维度的显著图采用一种基于全局-区域差异度大小的融合方法进行相互融合,获得最终的立体视频显著区域分布模型。结果 在不同类型的立体视频序列中的实验结果表明,本文模型获得了80%的准确率和72%的召回率,且保持了相对较低的计算复杂度,优于现有的显著性检测模型。结论 本文的显著性检测模型能有效地获取立体视频中的显著区域,可应用于立体视频/图像编码、立体视频/图像质量评价等领域。 相似文献
12.
13.
Xiao-Peng Hu Author Vitae Laura Dempere-Marco Author Vitae Author Vitae 《Pattern recognition》2008,41(11):3302-3312
This paper presents a computational method of feature evaluation for modeling saliency in visual scenes. This is highly relevant in visual search studies since visual saliency is at the basis of visual attention deployment. Visual saliency can also become important in computer vision applications as it can be used to reduce the computational requirements by permitting processing only in those regions of the scenes containing relevant information. The method is based on Bayesian theory to describe the interaction between top-down and bottom-up information. Unlike other approaches, it evaluates and selects visual features before saliency estimation. This can reduce the complexity and, potentially, improve the accuracy of the saliency computation. To this end, we present an algorithm for feature evaluation and selection. A two-color conjunction search experiment has been applied to illustrate the theoretical framework of the proposed model. The practical value of the method is demonstrated with video segmentation of instruments in a laparoscopic cholecystectomy operation. 相似文献
14.
提出一种基于视觉注意机制的运动目标跟踪方法。该方法借鉴人类的视觉注意机制的研究成果,建立视觉注意机制的计算模型,计算视频中各部分内容的视觉显著性。结合视觉显著性计算结果,提取视频图像中的显著性目标。利用颜色分布模型作为目标的特征表示模型,与视频中各显著目标进行特征匹配,实现目标的跟踪。在多个视频序列中进行实验,并给出相应的实验结果及分析。实验结果表明,提出的目标检测与跟踪算法是正确有效的。 相似文献
15.
目的 图像的显著性检测在计算机视觉中应用非常广泛,现有的方法通常在复杂背景区域下表现不佳,由于显著性检测的低层特征并不可靠,同时单一的特征也很难得到高质量的显著图。提出了一种通过增加特征的多样性来实现显著性检测的方法。方法 在高层先验知识的基础上,对背景先验特征和中心先验特征重新进行了定义,并考虑人眼视觉一般会对暖色调更为关注,从而加入颜色先验。另外在图像低层特征上使用目前较为流行的全局对比度和局部对比度特征,在特征融合时针对不同情况分别采取线性和非线性的一种新的融合策略,得到高质量的显著图。结果 在MSRA-1000和DUT-OMRON两个公开数据库进行对比验证,实验结果表明,基于多先验特征与综合对比度的图像显著性检测算法具有较高的查准率、召回率和F-measure值,相较于RBD算法均提高了1.5%以上,综合性能均优于目前的10种主流算法。结论 相较于基于低层特征和单一先验特征的算法,本文算法充分利用了图像信息,能在突出全局对比度的同时也保留较多的局部信息,达到均匀突出显著性区域的效果,有效地抑制复杂的背景区域,得到更加符合视觉感知的显著图。 相似文献
16.
经典的听觉注意计算模型主要针对声音强度、频率、时间等初级听觉特征进行研究,这些特征不能较好地模拟听觉注意指向性,必须寻求更高级的听觉特征来区分不同声音.根据听觉感知机制,本文基于声源方位特征和神经网络提出了一种双通路信息处理的自下而上听觉选择性注意计算模型.模型首先对双耳信号进行预处理和频谱分析;然后,将其分别送入where通路和what通路,其中where通路用于提取方位特征参数,并利用神经网络提取声源的局部方位特征,接着通过局部特征聚合和全局优化法得到方位特征显著图;最后,根据方位特征显著图提取主导方位并作用于what通路,采用时频掩蔽法分离出相应的主导音.仿真结果表明:该模型引入方位特征作为聚类线索,利用多级神经网络自动筛选出值得注意的声音对象,实时提取复杂声学环境中的主导音,较好地模拟了人类听觉的方位分类机制、注意选择机制和注意转移机制. 相似文献
17.
《Computer Vision and Image Understanding》2010,114(1):100-110
In this paper we present a computational model of dynamic visual attention on the sphere which combines static (intensity,chromaticity, orientation) and motion features in order to detect salient locations in omnidirectional image sequences while working directly in spherical coordinates. We build the motion pyramid on the sphere by applying block matching and varying the block size. The spherical motion conspicuity map is obtained by fusing together the spherical motion magnitude and phase conspicuities. Furthermore, we combine this map with the static spherical saliency map in order to obtain the dynamic saliency map on the sphere. Detection of the spots of attention based on the dynamic saliency map on the sphere is applied on a sequence of real spherical images. The effect of using only the spherical motion magnitude or phase for defining the spots of attention on the sphere is examined as well. Finally, we test the spherical versus Euclidean spots detection on the omnidirectional image sequence. 相似文献
18.
Satya M. Muddamsetty Désiré Sidibé Alain Trémeau Fabrice Mériaudeau 《Multimedia Tools and Applications》2018,77(5):5461-5474
Visual saliency is an important research topic in the field of computer vision due to its numerous possible applications. It helps to focus on regions of interest instead of processing the whole image or video data. Detecting visual saliency in still images has been widely addressed in literature with several formulations. However, visual saliency detection in videos has attracted little attention, and is a more challenging task due to additional temporal information. A common approach for obtaining a spatio-temporal saliency map is to combine a static saliency map and a dynamic saliency map. In our work, we model the dynamic textures in a dynamic scene with local binary patterns to compute the dynamic saliency map, and we use color features to compute the static saliency map. Both saliency maps are computed using a bio-inspired mechanism of human visual system with a discriminant formulation known as center surround saliency, and are fused in a proper way. The proposed model has been extensively evaluated with diverse publicly available datasets which contain several videos of dynamic scenes, and comparison with state-of-the art methods shows that it achieves competitive results. 相似文献