首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   23篇
  国内免费   2篇
  完全免费   15篇
  自动化技术   40篇
  2018年   2篇
  2017年   7篇
  2016年   10篇
  2015年   10篇
  2014年   3篇
  2013年   4篇
  2012年   3篇
  2007年   1篇
排序方式: 共有40条查询结果,搜索用时 78 毫秒
1.
深度卷积神经网络的显著性检测   总被引:3,自引:3,他引:0  
目的 显著性检测问题是近年来的研究热点之一,针对许多传统方法都存在着特征学习不足和鲁棒检测效果不好等问题,提出一种新的基于深度卷积神经网络的显著性检测模型.方法 首先,利用超像素的方法聚类相似特征的像素点,仿人脑视皮层细胞提取目标边缘,得到区域和边缘特征.然后,通过深度卷积神经网络学习图像的区域与边缘特征,获取相应的目标检测显著度置信图.最后,将深度卷积神经网络输出的置信度融入到条件随机场,求取能量最小化,实现显著性与非显著性判别,完成显著性检测任务.结果 在两个常用的视觉检测数据库上进行实验,本文算法的检测精度与当前最好的方法相比,在MSAR数据库上检测精度相对提升大约1.5%,在Berkeley数据库上提升效果更加明显,达到了5%.此外,无论是自然场景还是人工建筑场景、大目标与小目标,检测的效果都是最好的.结论 本文融合多特征的深度学习方法与单一浅层人工特征的方法相比更有优势,它避免了手工标定特征所带来的不确定性,具有更好的鲁棒性与普适性,从主观视觉愉悦度和客观检测准确度两方面说明了算法的有效性.  相似文献
2.
显著性检测指导的高光区域修复   总被引:2,自引:1,他引:1  
目的为解决传统的基于光照模型的高光修复算法无法很好地对高光区域存在饱和现象的单幅图像进行处理这一问题,提出一种显著性检测指导的高光区域修复算法。方法首先在亮度空间应用显著性模型,实现高光区域的自动检测和标记,之后运用改进的Exemplar-Based算法,综合利用图像的邻域和边缘信息,对标记的高光区域进行自适应修复,去除图像中的高光。结果分别对仿真及自然场景下的高光图像进行测试,实验结果表明,与原修复算法和传统高光去除算法相比,所提算法的修复效果更符合人眼视觉、修复后的图像质量更好。结论本文算法与Exemplar-Based算法及Tan方法相比,对高光区域存在饱和现象的单幅图像有较好的修复效果,并且有效地克服了传统高光去除算法受光照模型限制的缺点。  相似文献
3.
基于视觉注意机制的彩色图像显著性区域提取   总被引:1,自引:0,他引:1       下载免费PDF全文
孟琭 《计算机应用研究》2013,30(10):3159-3161
图像显著性区域提取是计算机视觉处理的重要步骤。结合人类视觉心理、生理模型, 提出一种基于视觉注意机制的彩色图像显著性区域提取模型。通过改进的分水岭算法对彩色图像进行预分割, 从而将原图像分成若干子区域, 在此基础上运用提出的区域化空间注意力模型对各个子区域进行显著图计算, 得到最终的显著性区域提取结果。实验结果表明, 提出的显著性区域提取算法可以很好地从彩色图像中得到与视觉注意机制相一致的结果, 且满足实时性要求, 与传统方法相比, 算法提取的区域更完整、更准确。  相似文献
4.
We address the problem of detecting irregularities in visual data, e.g., detecting suspicious behaviors in video sequences, or identifying salient patterns in images. The term “irregular” depends on the context in which the “regular” or “valid” are defined. Yet, it is not realistic to expect explicit definition of all possible valid configurations for a given context. We pose the problem of determining the validity of visual data as a process of constructing a puzzle: We try to compose a new observed image region or a new video segment (“the query”) using chunks of data (“pieces of puzzle”) extracted from previous visual examples (“the database”). Regions in the observed data which can be composed using large contiguous chunks of data from the database are considered very likely, whereas regions in the observed data which cannot be composed from the database (or can be composed, but only using small fragmented pieces) are regarded as unlikely/suspicious. The problem is posed as an inference process in a probabilistic graphical model. We show applications of this approach to identifying saliency in images and video, for detecting suspicious behaviors and for automatic visual inspection for quality assurance. Patent Pending  相似文献
5.
针对当前常见的显著性方法检测得到的显著性区域边界稀疏不明确、内部不均匀致密等问题,提出了一种基于条件随机场(Condition random field, CRF)和图像分割的显著性检测方法.该方法综合利用边界信息、局部信息以及全局信息,从图像中提取出多种显著性特征;在条件随机场框架下融合这些特征,通过显著性区域与背景区域的区域标注实现显著性区域的粗糙检测;结合区域标注结果和交互式图像分割方法实现显著性区域的精确检测.实验结果表明本文提出的方法能够清晰而准确地提取出图像中的显著性区域,有效提高显著性检测精度.  相似文献
6.
The human visual system (HSV) is quite adept at swiftly detecting objects of interest in complex visual scene. Simulating human visual system to detect visually salient regions of an image has been one of the active topics in computer vision. Inspired by random sampling based bagging ensemble learning method, an ensemble dictionary learning (EDL) framework for saliency detection is proposed in this paper. Instead of learning a universal dictionary requiring a large number of training samples to be collected from natural images, multiple over-complete dictionaries are independently learned with a small portion of randomly selected samples from the input image itself, resulting in more flexible multiple sparse representations for each of the image patches. To boost the distinctness of salient patch from background region, we present a reconstruction residual based method for dictionary atom reduction. Meanwhile, with the obtained multiple probabilistic saliency responses for each of the patches, the combination of them is finally carried out from the probabilistic perspective to achieve better predictive performance on saliency region. Experimental results on several open test datasets and some natural images demonstrate that the proposed EDL for saliency detection is much more competitive compared with some existing state-of-the-art algorithms.  相似文献
7.
In this article, we present a cognitive system based on artificial curiosity for high-level knowledge acquisition from visual patterns. The curiosity (perceptual curiosity and epistemic curiosity) is realized through combining perceptual saliency detection and Machine-Learning based approaches. The learning is accomplished by autonomous observation of visual patterns and by interaction with an expert (a human tutor) detaining semantic knowledge about the detected visual patterns. Experimental results validating the deployment of the investigated system have been obtained on the basis of a humanoid robot acquiring visually knowledge from its surrounding environment interacting with a human tutor. We show that our cognitive system allows the humanoid robot to discover the surrounding world in which it evolves, to learn new knowledge about it and describe it using human-like (natural) utterances.  相似文献
8.
针对现有的基于图像底层特征的显著性检测算法检测准确度不高的问题,提出了一种基于颜色和纹理特征的显著性检测算法。在RGB和Lab颜色空间上,同时考虑了图像的颜色对比度特征、纹理特征。运用二维信息熵作为衡量显著图的性能标准,选取最优的颜色通道,并且针对颜色及纹理的不同特点,给出了各自的显著性特征融合方法。在公开的数据库中与四种流行的算法实验对比,实验结果证明了算法的有效性。  相似文献
9.
针对基于感兴趣区域的有损视频压缩在低码率编码条件下容易产生明显的编码人工痕迹,提出一种基于注意力权重矩阵的四元傅里叶变换的视觉显著性视频编码模型。该方法引入人眼视觉注意力权重矩阵对不同区域图像四元数予以加权,该四元数由图像的亮度、色度和运动特征组成。图像视觉显著图可由其四元数特征的四元傅里叶相位谱获取。结合中心凹恰可觉察失真(FJND)模型将其应用于基于感兴趣区域视频编码,可提高视频编码质量。与五种流行的显著性检测算法在两个大型眼动跟踪数据库上进行对比实验,结果表明提出的算法显著性检测精度明显高于对比算法。此外,与最新的基于显著性视频编码方法在10段标准视频上进行编码视频的主观质量对比,该方法能提高低码率编码视频的主观视觉质量,且优于对比算法。  相似文献
10.
提出了一种利用人类视觉机制进行图像融合的算法。首先对源图像进行金字塔分解;接着对低频和高频分量采用不同的融合策略,低频分量依据最大显著性准则选择融合像素,高频分量利用相关性加权准则选择融合像素。初步融合后的低频和高频分量经金字塔重建获得最终融合结果。金字塔变换可提供多分辨率的图像表示,但不区分图像区域的重要性;而视觉显著性检测可定位图像最显著区域,但对噪声敏感;两算法的结合能取长补短,获得好的融合结果。实验表明,提出的方法优于已发表的其他基于金字塔变换的图像融合算法,适用于多聚焦图像、多波段图像和多光谱图像融合。  相似文献
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号