首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 140 毫秒
1.
复杂战场环境下的图像目标检测技术,是未来发展目标自动检测与跟踪一体化坦克火控系统需要解决的关键性问题.针对FasterR-CNN算法在小尺度坦克装甲车辆目标检测方面存在的问题,提出一种改进算法.首先采用尺度依赖区域建议网络(RPN),根据目标尺度分布情况在不同深度的卷积层上设置合理大小的滑动窗口,使RPN能够提取出更加精确的建议区域;其次提出一种选择性池化策略,根据尺度依赖RPN产生建议区域的大小选择合适深度的卷积层特征进行ROI池化,为后续的检测子网络保留足够的目标信息.在TankVOC4000图像库中从目标召回率、检测精度和速度等角度进行实验的结果表明,通过合理地利用多个层次上的卷积特征,文中算法对多种尺度的坦克装甲目标均取得了良好的检测效果,检测精度和速度均优于原Faster R-CNN算法,能够更好地满足实际应用需求.  相似文献   

2.
针对图像纹理细节等高频特征在基于卷积神经网络模型的特征提取过程中丢失,从而导致小目标检测效果较差的问题,提出一种多层频域特征融合的目标检测算法。算法以Faster R-CNN为基础框架,使用高频增强后的图像和对比度增强后的图像作为算法输入样本,提高了待检测图像质量;针对总像素面积较小的目标,更改RPN网络中的锚点尺度,并利用多尺度卷积特征融合的方法,融合来自不同特征层的特征,解决了小目标在深层特征图中特征信息丢失的问题。实验结果表明,所提算法在DAGM 2007数据集上具有良好的性能,平均精度均值mAP达到了97.9%,在PASCAL VOC 2007测试集上对小目标的mAP也明显优于原始Faster R-CNN的。  相似文献   

3.
针对Faster R-CNN算法对多目标、小目标检测精度不高的问题,本文提出一种基于Faster R-CNN的多任务增强裂缝图像检测(Multitask Enhanced Dam Crack Image Detection Based on Faster R-CNN, ME-Faster R-CNN)方法。同时提出一种基于K-means的多源自适应平衡TrAdaBoost的迁移学习方法(multi-source adaptive balance TrAdaBoost based on K-means, K-MABtrA)辅助网络训练,解决样本不足问题。ME-Faster R-CNN将图片输入ResNet-50网络提取特征;然后将所得特征图输入多任务增强RPN模型,同时改善RPN模型的锚盒尺寸和大小以提高检测识别精度,生成候选区域;最后将特征图和候选区域发送到检测处理网络。K-MABtrA方法利用K-means聚类删除与目标源差别较大的图像,再在多元自适应平衡TrAdaBoost迁移学习方法下训练模型。实验结果表明:将ME-Faster R-CNN在K-MABtrA迁移学习的条件下应用于小数据集大坝裂缝图像集的平均IoU为82.52%,平均精度mAP值为80.02%,与相同参数设置下的Faster R-CNN检测算法相比,平均IoU和mAP值分别提高了1.06%和1.56%。  相似文献   

4.
针对井下光照不均匀、行人特征与背景的相似度高等导致基于计算机视觉的行人检测技术在井下应用面临很大挑战的问题,提出采用Faster区域卷积神经网络(RCNN)进行煤矿井下行人检测。Faster RCNN行人检测算法采用区域建议网络(RPN)生成候选区域,RPN与Fast RCNN共享卷积层,以提高网络训练和检测速度;在图像特征提取过程中采用动态自适应池化方法对不同池化域进行自适应池化操作,提高了检测准确性。实验结果表明,该算法对于不同环境下图像中的行人均具有较好的检测效果。  相似文献   

5.
针对SSD算法在检测全景视频图像车辆目标时存在准确率低、漏检率高的问题,构建了一种改进的SSD网络,命名为R-SSD,并提出了一种基于R-SSD的全景视频图像中车辆目标检测算法。在原SSD网络之前增加了一个RPN*网络,目的在于过滤负样本先验框并粗略调整先验框的位置和大小,为后续回归提供好的初始条件。在原SSD和RPN*网络之间构建了传输转换模块,实现两个网络间的特征融合,并增加低层特征信息,从而提高目标的检测效果。在同时兼顾了RPN*网络和SSD*网络损失函数的基础上提出了新的损失函数,应用了二分类和多分类的方法,使回归操作更加精确。将采集的全景视频图像数据分为训练集和测试集,通过对比实验,表明提出的R-SSD算法检测精度可达90.78%,明显优于SSD算法,可较好地解决全景目标车辆检测中误检率较高、漏检率较高等问题。  相似文献   

6.
针对远距离及小尺寸行人难以检测,极易受到复杂背景的干扰,且分辨率低、有效信息少等问题,提出一种在复杂背景下结合Faster R-CNN检测远距离及小尺寸行人的改进算法.运用混合高斯模型,解决复杂背景干扰的问题,及时去除视频的背景信息,提取视频图像的前景.为进一步解决分辨率低且有效信息少的问题,采用双线性二次插值方法增强图像的分辨率,采用多尺度特征融合弥补有效信息的不足.实验结果表明,不同场景下行人检测精度均有所提升,其中远距离及小尺寸行人的检测精度提升更为明显.  相似文献   

7.
图像篡改检测不同于目标检测,篡改检测更加关注篡改伪像这一目标而非图像内容本身,需要学习更加丰富的特征.为提高图像篡改检测区域选取性能,提出一种将特征金字塔网络(feature pyramid networks, FPN)模型与级联区域卷积神经网络(cascade region-convolutional neural networks, Cascade R-CNN)模型相结合的FCR-CNN模型.首先将FPN模型提取的多尺度篡改特征输入到区域建议网络(region proposal network, RPN),然后由RPN输出篡改分类分数和区域建议框,最后将区域建议框输入到3阶段Cascade R-CNN进行检测.此外,系统地对FCR-CNN模型的损失函数进行了分析.基于CASIA, Columbia和NC2016数据集,与其他算法进行对比实验,结果表明, FCR-CNN模型能够有效地检测与定位篡改区域;其中,在CASIA数据集上,其与FPN模型和Cascade R-CNN模型相比, F1分数分别提高了6.0%和7.5%.  相似文献   

8.
RCNN网络与全卷积网络框架等技术使得目标检测技术能够快速发展。RCNN网络与全卷积网络框架不仅训练速度快,推断速度也十分的迅速,此外还具有良好的鲁棒性以及灵活性。在人工智能领域的发展中,提高目标检测效率的关键在于好的技术,以及得到更加有效的、深层的特征表示,通过使用深层网络的多层结构来简洁地表达复杂函数。本文用到的目标检测方法先要用区域建议网络得到建议位置再进行检测,因为Fast R-CNN和R-CNN等目标检测算法已经在运行时间方面有了很大的提高,所以计算区域建议成为目标检测的一个计算瓶颈。本文通过在算法中加入特征融合技术,将每一卷积层提取的特征进行融合,使用区域建议网络来进行候选区域提取。区域建议网络和检测网络共享全图的卷积特征,从而很大程度地缩短候选区域的提取时间,提高目标检测的精度。  相似文献   

9.
目的 在传统车辆目标检测问题中,需要针对不同图像场景选择适合的特征。为此提出一种基于快速区域卷积神经网络(Fast R-CNN)的场景图像车辆目标发现方法,避免传统车辆目标检测问题中需要设计手工特征的问题。方法 该方法基于深度学习卷积神经网络思想。首先使用待检测车辆图像定义视觉任务。利用选择性搜索算法获得样本图像的候选区域,将候选区域坐标与视觉任务示例图像一起输入网络学习。示例图像经过深度卷积神经网络中的卷积层,池化层计算,最终得到深度卷积特征。在输入时没有规定示例图像的规格,此时得到的卷积特征规格不定。然后,基于Fast R-CNN网络结构,通过感兴趣区域池化层规格化特征,最后将特征输入不同的全连接分支,并行回归计算特征分类,以及检测框坐标值。经过多次迭代训练,最后得到与指定视觉任务强相关的目标检测模型,具有训练好的权重参数。在新的场景图像中,可以通过该目标检测模型检测给定类型的车辆目标。结果 首先确定视觉任务包含公交车,小汽车两类,背景场景是城市道路。利用与视觉任务强相关的测试样本集对目标检测模型进行测试,实验表明,当测试样本场景与视觉任务相关度越高,且样本中车辆目标的形变越小,得到的车辆目标检测模型对车辆目标检测具有良好的检测效果。结论 本文提出的车辆目标检测方法,利用卷积神经网络提取卷积特征代替传统手工特征提取过程,通过Fast R-CNN对由示例图像组成定义的视觉任务训练得到了效果良好的车辆目标检测模型。该模型可以对与视觉任务强相关新场景图像进行效果良好的车辆目标检测。本文结合深度学习卷积神经网络思想,利用卷积特征替代传统手工特征,避免了传统检测问题中特征选择问题。深层卷积特征具有更好的表达能力。基于Fast R-CNN网络,最终通过多次迭代训练得到车辆检测模型。该检测模型对本文规定的视觉任务有良好的检测效果。本文为解决车辆目标检测问题提供了更加泛化和简洁的解决思路。  相似文献   

10.
针对通用目标检测算法在检测航空影像目标所表现的性能缺陷,提出一种改进Mask R-CNN算法用于航空影像的目标检测。该算法增加图像融合网络,将可见光图像与红外图像进行融合,消除目标被阴影遮蔽对检测造成的影响;同时改进了特征金字塔结构,使特征提取过程中的高层语义特征和低层定位信息得到充分融合,各尺度目标的检测精度得到提升;为解决小目标检测精度低和定位难度高的问题,该算法采用新型区域建议网络SD-RPN,在不同深度的卷积层设置合理大小的滑动窗口,用以检测不同尺度类型目标,使建议区域更加精准。实验结果表明,相比较主流检测算法,该算法在VEDAI数据集上表现出色,检测精度提升较大,尤其是小目标检测的精度提升显著。  相似文献   

11.
目的 在城市交通检测中,智能视频的广泛应用使得人工智能技术及计算机视觉先进技术对视频中的前景目标检索、识别、特征提取、行为分析等成为视觉研究的热点,但由于复杂场景中动态背景具有不连续的特点,使得少部分的前景目标图像信息丢失,从而造成漏检、误判。方法 本文提出一种RPCA(鲁棒主成分分析)优化方法,为了快速筛选与追踪前景目标,以基于帧差欧氏距离方法设计显著性目标帧号快速提取算法,确定关键帧邻域内为检测范围,对经过稀疏低秩模型初筛选的前景目标图像进行前景目标种子并行识别和优化连接,去除前景目标图像中的动态背景,同时将MASK(掩膜)图像中的前景目标分为规则类和非规则类两种,对非规则类前景目标如行人、动物等出现的断层分离现象设计前景目标区域纵向种子生长算法,对规则类前景目标如汽车轮船等设计区域内前景目标种子横纵双向连接以消除空洞、缺失的影响。结果 本文前景目标提取在富有挑战性干扰因素的复杂场景下体现出较高的鲁棒性,在数据库4组经典视频和山西太长高速公路2组视频中,动态背景有水流流动、树叶摇曳、摄像头轻微抖动、光照阴影,并从应用效果、前景目标定位的准确性以及前景目标检测的完整性3个角度对实验结果进行了分析,本文显著性前景目标提取算法取得了90.1%的平均准确率,88.7%的平均召回率以及89.4%的平均F值,均优于其他同类算法。结论 本文以快速定位显著性前景目标为前提,提出对稀疏低秩模型初筛选的图像进行并行种子识别和优化连接算法,实验数据的定性与定量分析结果表明,本文算法能够更快速地将前景目标与动态背景分离,并减小前景目标与背景之间的粘连情况,更有效地保留了原始图像中前景目标的结构信息。  相似文献   

12.
针对传统目标检测算法在环境多变、背景复杂、目标聚集、小目标过多的航空遥感影像目标检测上效果不理想的问题, 本文提出了一种基于注意力机制及生成对抗网络的遥感影像目标检测模型Attention-GAN-Mask R-CNN. 该模型将注意力、生成对抗网络和Mask R-CNN结合起来, 用以解决遥感影像目标检测中存在的问题. 实验结果表明, 在复杂的遥感影像数据集中, 该方法提升了目标检测的效率和准确率.  相似文献   

13.
高山  毕笃彦  魏娜 《计算机应用》2009,29(6):1669-1672
提出了一种基于抽样一致性(SACON)的背景模型。采用七种典型视频序列进行了实验,SACON背景模型较目前常用五种背景模型具有较高的准确性,适用于复杂场景下的目标检测与跟踪。应用于人体检测与跟踪时,将目标作为非刚性物体进行处理,结合颜色和空域信息建立一种新的目标外观模型。实验证明,该方法能较准确的描述人体特征,即使在有遮挡、颜色相近及小目标等情况下也均能准确的对人体目标进行检测和跟踪。  相似文献   

14.
目的 航空遥感图像中多为尺寸小、方向错乱和背景复杂的目标。传统的目标检测算法由于模型的特征提取网络对输入图像进行多次下采样,分辨率大幅降低,容易造成目标特征信息丢失,而且不同尺度的特征图未能有效融合,检测目标之间存在的相似特征不能有效关联,不仅时间复杂度高,而且提取的特征信息不足,导致目标漏检率和误检率偏高。为了提升算法对航空遥感图像目标的检测准确率,本文提出一种基于并行高分辨率结构结合长短期记忆网络(long short-term memory,LSTM)的目标检测算法。方法 首先,构建并行高分辨率网络结构,由高分辨率子网络作为第1阶段,分辨率从高到低逐步增加子网络,将多个子网并行连接,构建子网时对不同分辨率的特征图反复融合,以增强目标特征表达;其次,对各个子网提取的特征图进行双线性插值上采样,并拼接通道特征;最后,使用双向LSTM整合通道特征信息,完成多尺度检测。结果 将本文提出的检测算法在COCO (common objects in context)2017数据集、KITTI (Karlsruhe Institute of Technology and Toyota Technological Institute at Chicago)车辆检测和UCAS-AOD (University of Chinese Academy of Sciences-Aerial Object Detection)航空遥感数据集上进行实验验证,平均检测准确率(mean average precision,mAP)分别为41.6%、69.4%和69.3%。在COCO 2017、KITTI和VCAS-AOD数据集上,本文算法与SSD513算法相比,平均检测准确率分别提升10.46%、7.3%、8.8%。结论 本文方法有效提高了航空遥感图像中目标的平均检测准确率。  相似文献   

15.
This paper explores a robust region-based general framework for discriminating between background and foreground objects within a complex video sequence. The proposed framework works under difficult conditions such as dynamic background and nominally moving camera. The originality of this work lies essentially in our use of the semantic information provided by the regions while simultaneously identifying novel objects (foreground) and non-novel ones (background). The information of background regions is exploited to make moving objects detection more efficient, and vice-versa. In fact, an initial panoramic background is modeled using region-based mosaicing in order to be sufficiently robust to noise from lighting effects and shadowing by foreground objects. After the elimination of the camera movement using motion compensation, the resulting panoramic image should essentially contain the background and the ghost-like traces of the moving objects. Then, while comparing the panoramic image of the background with the individual frames, a simple median-based background subtraction permits a rough identification of foreground objects. Joint background-foreground validation, based on region segmentation, is then used for a further examination of individual foreground pixels intended to eliminate false positives and to localize shadow effects. Thus, we first obtain a foreground mask from a slow-adapting algorithm, and then validate foreground pixels (moving visual objects + shadows) by a simple moving object model built by using both background and foreground regions. The tests realized on various well-known challenging real videos (across a variety of domains) show clearly the robustness of the suggested solution. This solution, which is relatively computationally inexpensive, can be used under difficult conditions such as dynamic background, nominally moving camera and shadows. In addition to the visual evaluation, spatial-based evaluation statistics, given hand-labeled ground truth, has been used as a performance measure of moving visual objects detection.  相似文献   

16.
尹丽华  康亮  朱文华 《计算机应用》2022,42(8):2564-2570
为剔除复杂运动前景对视频稳像精度的干扰,同时结合时空显著性在运动目标检测上的独特优势,提出一种融入时空显著性的高精度视频稳像算法。该算法一方面通过时空显著性检测技术识别出运动目标并对其进行剔除;另一方面,采用多网格的运动路径进行运动补偿。具体包括:SURF特征点提取和匹配、时空显著性目标检测、网格划分与运动矢量计算、运动轨迹生成、多路径平滑、运动补偿等环节。实验结果表明,相较于传统的稳像算法,所提算法在稳定度(Stability)指标方面表现突出。对于有大范围运动前景干扰的视频,所提算法比RTVSM(Robust Traffic Video Stabilization Method assisted by foreground feature trajectories)的Stability指标提高了约9.6%;对于有多运动前景干扰的视频,所提算法比Bundled-paths算法的Stability指标提高了约5.8%,充分说明了所提算法对于复杂场景的稳像优势。  相似文献   

17.
针对视频合成孔径雷达(video synthetic aperture radar,VideoSAR)数据进行地面运动目标检测的问题,本文提出了一种基于单高斯背景模型的VideoSAR动目标阴影检测方法.该方法使用一个时间维度的滑窗对视频序列进行处理:首先使用RED20深度神经网络模型抑制VideoSAR图像的斑点噪声...  相似文献   

18.
在无人机场景下,目标检测存在样本数量不足、成像视角不同的问题,导致检测精度低。提出一种结合改进特征金字塔网络(FPN)与关联网络的Faster R-CNN目标检测算法。通过在传统FPN结构中以自下而上的特征融合方式提取特征图的语义信息和位置信息,最大程度地保留特征图的多尺度信息。同时利用候选区域之间的形状特征和位置特征构造区域之间的关联特征,并与深度特征相融合进行分类回归,从而充分提取特征图的整体信息,实现目标检测。在PASCAL VOC 2007和NWPU VHR-10数据集上的实验结果表明,相比FPN+Faster R-CNN算法,该算法的交并比和平均检测精度分别提高了10和2.7个百分点,具有较优的目标检测性能。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号