首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 265 毫秒
1.
采用与传统的利用特征匹配方法进行地物目标识别不同的思路,提出一种基于显著语义模型的机场与油库目标的识别方法.该方法在低层特征空间利用视觉关注模型将航拍图像分解成若干个视觉显著性子图,提取出目标可能存在的候选区域;对训练图像集构建基于SIFT局部特征的特征袋语义模型,并利用模型中的特征字典提取出显著性子图所包含的显著语义特征,以实现对机场和油库目标的快速检测识别.利用Google Earth构建了多种不同成像条件下的典型目标数据库,对文中方法的有效性进行验证.实验的结果表明,该方法比传统的特征匹配方法具有更好的识别性能和更高的运算效率,同时对于光照、视点和尺度变化等干扰具有较强的鲁棒性.  相似文献   

2.
针对RGB图像的实例分割任务在图像目标物体纹理相近但类别不同的区域可能出现分割错误的问题,引入Depth信息,结合RGB-D图像的三维几何结构特点,提出一种以双金字塔特征融合网络为框架的RGB-D实例分割方法.所提出的方法通过构建两种不同复杂度的金字塔深度卷积神经网络分别提取不同梯度分辨率大小的RGB特征及Depth特征,将对应分辨率大小的两种特征相加输入区域候选网络,以此改变输入区域候选网络层的共享特征,共享特征再经过分类、回归与掩码网络分支输出定位与分类结果,从而实现RGB-D图像的实例分割.实验结果表明,所提出的双金字塔特征融合网络模型能够完成RGB-D图像的实例分割任务,有效学习到深度图像与彩色图像之间的互补信息,与不包含Depth信息的Mask R-CNN相比,平均精度提高7.4%.  相似文献   

3.
海洋船舶目标识别在民用和军事领域有着重要的战略意义, 本文针对可见光图像和红外图像提出了一种 基于注意力机制的双流对称特征融合网络模型, 以提升复杂感知环境下船舶目标综合识别性能. 该模型利用双流对 称网络并行提取可见光和红外图像特征, 通过构建基于级联平均融合的多级融合层, 有效地利用可见光和红外两种 模态的互补信息获取更加全面的船舶特征描述. 同时将空间注意力机制引入特征融合模块, 增强融合特征图中关 键区域的响应, 进一步提升模型整体识别性能. 在VAIS实际数据集上进行系列实验证明了该模型的有效性, 其识别 精确度能达到87.24%, 综合性能显著优于现有方法.  相似文献   

4.
杨雪婷  张苏嘉 《计算机仿真》2021,38(12):160-163
采用目前方法识别图像中存在的灰度重叠区域时,没有构建图像的显著性图,存在识别精度低、查全率低和识别效率低的问题.提出梯度与视觉显著度下的图像灰度重叠区域识别方法,根据Gestalt前背景分离原则对图像中存在的梯度通道和颜色通道进行随机阈值化处理,获得对应的二进制布尔图,采用线性平均融合方法融合利用上述获取的二进制布尔图生成视觉注意图.通过分块区域分割技术识别显著性图中存在的空间位置信息,为图像灰度重叠区域的识别提供点云数据,在云计算模式中结合局部空间降噪方法消除噪声,定位去噪处理后显著性图空置区域中存在的特征点,提取灰度重叠区域的动态特征,建立对应的灰度直方图,最后利用云检测技术识别图像中存在的灰度重叠区域.仿真结果表明,所提方法的识别精度高、查全率高、识别效率高.  相似文献   

5.
基于知识的WWW图像中主体的识别   总被引:2,自引:0,他引:2  
图像主体识别在图像检索中具有重要意义。单纯利用图像分析识别图像主体相当困难。文章提出了利用WWW中的相关文本做提示,根据图像分析得到的图像主体视觉特征和图像主体知识库识别图像主体的方法,阐述了从WWW中提取图像主体名和视觉特征描述词的方法以及图像主体区域分割、视觉特征识别方法和结合图像主体知识库识别图像主体的方法。最后给出了初步的实验结果。  相似文献   

6.
为精确定位候选目标,提高目标识别效果,提出一种融合图像边界信息和深度信息的目标识别方法,该方法可以产生数量更少、定位更准确的图像候选目标。然后提取深度学习特征,通过支持向量机分类模型,实现目标识别。在两个常用数据集上进行对比实验显示,与Baseline和选择性搜索等方法相比,该方法显著地提高了目标识别的性能。  相似文献   

7.
为提高场景不断变化下车牌定位的准确性,文中提出应用深度学习定位的方法。基于最小生成树原理将图像转化成图论中的图,结合相似度进行选择搜索获取车牌候选区域。利用车牌长宽比条件对候选区域进行筛选,以减少数据的不平衡性。通过带平滑项的交叉熵损失函数以及Bootstrapping技术训练深度网络,并用该模型从候选区域中识别出车牌区域。实验表明,该方法在候选区域提取、网络训练阶段以及定位准确率方面均优于其他算法,测试集中准确率为97.6%。  相似文献   

8.
为了提高实时视频监控中火焰识别率和降低误识率,提出了一种基于多特征量对数回归模型的火焰快速识别算法。首先,根据火焰的色度特征进行图像分割,通过运动目标与参考图像差分运算获取火焰候选区域(CFR);然后提取候选区域的面积变化率、圆形度、尖角个数以及质心位移等特征量,建立火焰的对数回归快速识别模型;其次采用美国国家标准与技术研究院(NIST)、仁荷大学计算机视觉实验室(ICV)和基于计算机视觉的火灾探测(VisiFire)实验库以及自制蜡烛、纸燃烧火焰中的火焰和非火焰图像中的300幅进行参数学习;最后选取实验数据库中8段视频共11071幅图像进行识别算法检验。测试结果表明,所提算法的真正率(TPR)达到93%、真负率(TNR)达到98%,识别平均用时0.058 s/帧。所提算法识别速度快且识别率高,可以应用于嵌入式实时图像火焰识别。  相似文献   

9.
由于光照、尺寸形变等因素,在自然条件下实时准确地检测和识别多尺度交通标志一直具有挑战性.针对该问题,论文提出一个面向多尺度交通标志的快速识别算法.首先,论文采用了一种基于多通道融合的输入方式,解决原始图像直接输入导致局部边缘刻画不明显的问题;同时,论文研究了一种注意力机制与多尺度特征相结合的交通标志检测算法.通过FPN网络获取多尺度特征图,同时在每个尺度的特征图中通过RPN网络定位出候选目标区域,最后候选目标区域的上下文信息与提取的目标多尺度特征进行拼接,该方法对小尺度的交通标志检测效果显著;最后,论文构建了一个多辅支卷积神经网络,在保持精度情况下,加快了交通标志的识别速度.实验表明,论文的方法有效地降低了交通标志的漏检率,同时显著提升了多尺度交通标志识别的实时性和准确性.  相似文献   

10.
显著性目标检测是获取图像中视觉显著目标的任务,它是计算机视觉及相关研究领域的重要内容。当前在复杂的自然场景下基于深度学习的算法依然存在特征学习不足和检测错误率较高的问题,因此提出一种新颖的基于多特征融合的显著性目标检测算法。以HDHF(hybrid deep and handcrafted feature)模型的预测显著图作为特征,融合全局像素的深度特征。此外,利用显著性提名获取候选目标的位置,并在各候选目标中添加中心先验。在全卷积神经网络中,利用前向传播算法最终预测得到像素级的显著性目标。在四个包含多个显著性目标和复杂背景的图像数据集上进行验证,实验结果表明,该算法有效地提高了复杂场景下显著性目标的检测精度,尤其是在背景复杂的图像上具有较优的检测效果。  相似文献   

11.
一种基于CLMF的深度卷积神经网络模型   总被引:2,自引:0,他引:2  
针对传统人工特征提取模型难以满足复杂场景下目标识别的需求, 提出了一种基于CLMF的深度卷积神经网络(Convolutional neural networks with candidate location and multi-feature fusion, CLMF-CNN).该模型结合视觉显著性、多特征融合和CNN模型实现目标对象的识别. 首先, 利用加权Itti模型获取目标候选区; 然后, 利用CNN模型从颜色、亮度多特征角度提取目标对象的特征, 经过加权融合供目标识别; 最后, 与单一特征以及目前的流行算法进行对比实验, 结果表明本文模型不仅在同等条件下正确识别率得到了提高, 同时, 达到实时性要求.  相似文献   

12.
用于遥感图像人造目标识别的三维建模方法研究   总被引:2,自引:0,他引:2  
该文研究了用于遥感图像人造地物目标识别的三维建模方法,文中分析了识别任务的特点,比较了一般的建模方法,介绍了一种基于广义锥思想的几何表示方法,并利用面向对象的技术来表示模型内部数据及其操作。  相似文献   

13.
目的 对旅客行李进行安全检查是维护公共安全的措施之一,安检智能化是未来的发展方向。基于X光图像的安检因不同的安检机成像方式不同,同一类违禁品在不同设备上的X光图像在颜色分布上有很大差异,导致安检图像智能识别算法在训练与测试数据分布不同时,识别性能明显降低,同时X光行李图像中物品的混乱复杂增加了违禁品识别的难度。针对上述问题,本文提出一种区域增强和多特征融合模型。方法 首先,通过注意力机制的思想提取一种区域增强特征,消除颜色分布不同的影响,保留图像整体结构并增强违禁品区域信息。然后,采用多特征融合策略丰富特征信息,使模型适用于图像中物品混乱复杂情况。最后,提出一种三元损失函数优化特征融合。结果 在公开数据集SIXray数据集上进行整体识别性能和泛化性能的实验分析,即测试本文方法在相同和不同颜色分布样本上的性能。在整体识别性能方面,本文方法在平均精度均值(mean average precision,mAP)上相较于基础模型ResNet18和ResNet34分别提升了4.09%和2.26%,并优于一些其他识别方法。对于单类违禁品,本文方法在枪支和钳子类违禁品上的平均识别精度为94.25%和...  相似文献   

14.
一种飞机图像目标多特征信息融合识别方法   总被引:1,自引:0,他引:1  
提出了一种基于概率神经网络(Probabilistic neural networks, PNN)和DSmT推理 (Dezert-Smarandache theory)的飞机图像目标多特征融合识别算法. 针对提取的多个图像特征量,利用数据融合的思想对来自图像目标各个特征量提供的信息进行融合处理.首先,对图像进行二值化预处理,并提取Hu矩、归一化转动惯量、 仿射不变矩、轮廓离散化参数和奇异值特征5个特征量;其次, 针对DSmT理论中信度赋值构造困难的问题,利用PNN网络,构造目标识别率矩阵,通过目标识别率矩阵对证据源进行信度赋值;然后,用DSmT组合规则在决策级层进行融合,从而完成对飞机目标的识别;最后,在目标图像小畸变情形下, 将本文提出的图像多特征信息融合方法和单一特征方法进行了对比测试实验,结果表明本文方法在同等条件下正确识别率得到了很大提高,同时达到实时性要求,而且具有有效拒判能力和目标图像尺寸不敏感性. 即使在大畸变情况下,识别率也能达到89.3%.  相似文献   

15.
视觉显著性物体检测是对人类视觉和认知系统的模拟,而深度学习则是对人类大脑计算方式的模拟,将两者有机结合可以有效推动计算机视觉的发展。视觉显著性物体检测的任务是从图像中定位并提取具有明确轮廓的显著性物体实例。随着深度学习的发展,视觉显著性物体检测的精度和效率都得到巨大提升,但仍然面临改进主流算法性能、减少对像素级标注样本的依赖等主要挑战。针对上述挑战,本文从视觉显著性物体检测思想与深度学习方法融合策略的角度对相关论述进行分类总结。1)分析传统显著性物体检测方法带来的启示及其缺点,指出视觉显著性物体检测的核心思路为多层次特征的提取、融合与修整;2)从改进特征编码方式与信息传递结构、提升边缘定位精度、改善注意力机制、提升训练稳定性和控制噪声的角度对循环卷积神经网络、全卷积神经网络和生成对抗网络3种主流算法的性能提升进行分析,从优化弱监督样本处理模块的角度分析了减少对像素级标注样本依赖的方法;3)对协同显著性物体检测、多类别图像显著性物体检测以及未来的研究问题和方向进行介绍,并给出了可能的解决思路。  相似文献   

16.
17.
In this paper, a new artificial neural network model is proposed for visual object recognition, in which the bottom-up, sensory-driven pathway and top-down, expectation-driven pathway are fused in information processing and their corresponding weights are learned based on the fused neuron activities. During the supervised learning process, the target labels are applied to update the bottom-up synaptic weights of the neural network. Meanwhile, the hypotheses generated by the bottom-up pathway produce expectations on sensory inputs through the top-down pathway. The expectations are constrained by the real data from the sensory inputs, which can be used to update the top-down synaptic weights accordingly. To further improve the visual object recognition performance, the multi-scale histograms of oriented gradients (MS-HOG) method is proposed to extract local features of visual objects from images. Extensive experiments on different image datasets demonstrate the efficiency and robustness of the proposed neural network model with features extracted using the MS-HOG method on visual object recognition compared with other state-of-the-art methods.  相似文献   

18.
19.
城市遥感图像目标识别能够监测城市地物类型,是近年来的热点研究话题,然而,基于像元的传统方法不能充分利用高分辨率遥感图像的特征信息,基于对象的传统方法无法精确提取到对象.针对传统方法的不足,本文提出一种基于多特征空间及其优化的城市遥感图像目标识别方法,该方法以两种传统方法为前提,在联合像元特征与对象特征的基础上,补充VG...  相似文献   

20.
针对视频描述生成的文本质量不高与不够新颖的问题,本文提出一种基于特征强化与文本知识补充的编解码模型.在编码阶段,该模型通过局部与全局特征强化增强模型对视频中静态物体的细粒度特征提取,提高了对物体相似语义的分辨,并融合视觉语义与视频特征于长短期记忆网络(long short-term memory, LSTM);在解码阶段,为挖掘视频中不易被机器发现的隐含信息,截取视频部分帧并检测其中视觉目标,利用得到的视觉目标从外部知识语库提取知识用来补充描述文本的生成,以此产生出更新颖更自然的文本描述.在MSVD与MSR-VTT数据集上的实验结果表明,本文方法展现出良好的性能,并且生成的内容信息在一定程度上能够表现出新颖的隐含信息.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号