首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 234 毫秒
1.
针对当前行人检测过程中存在速度慢、精确率不高以及高复杂度运算的问题,提出一种兼顾轻量化与检测精确率的卷积神经网络算法(ECG-YOLO)。该算法采用EfficientNetv2与坐标注意力(coordinate attention, CA)模块重新设计主干网络,提升网络的检测速度及精度。设计参数量和计算量更小的GhostConv模块以降低特征通道融合过程中的计算量。加入自适应Gamma校正算法减少复杂场景下光照等因素的影响。改进后的算法在NVIDIA TX2开发板上测试,检测精度达91%以上,较原算法提高了1.7%,参数量和计算量分别为原算法的40.8%和36.3%,具有较好的检测精度与实时性。  相似文献   

2.
针对合成孔径雷达图像噪声大,成像特征不明显,尤其在面对海陆边界、港口码头、近岸岩礁等复杂场景,通常的检测算 法对 SAR 图像目标特征提取困难,导致检测精度不高,出现误检漏检等问题。 在 YOLOv5 的基础上设计了一种旋转的目标检 测方法,提出了多分支注意力模块可以跨维度的信息融合,能更好地提取 SAR 图像目标中的位置信息和语义信息,以提高检测 精度。 此外,由于旋转目标检测会产生边界不连续问题影响边界框的回归,因此,利用了圆形平滑标签的方法将角度参数从回 归问题转为分类问题,由此提高了精度。 最后在 HRSID、SSDD+数据集上进行了实验,精度分别达到 84. 98%和 90. 13%,比原始 的 YOLOv5 算法分别提升了 1. 29%和 2. 57%,实验结果证明所提算法的有效性。  相似文献   

3.
针对现有算法在SAR图像舰船目标检测场景中难以提取模糊目标特征的问题,提出一种基于特征重用金字塔的舰船目标检测算法。所提算法以YOLOV4-tiny为主体,首先将线性因子引入到K-means算法中整合初始锚框,加强网络对多尺度目标的适应性;其次在主干CSPDarknet53-tiny中添加注意力机制来抑制干扰信息,减弱复杂背景的影响;最后利用特征重用机制强化特征金字塔,提升网络对模糊目标特征的提取能力。实验结果表明,相较于YOLOV4-tiny网络,改进后的算法在SSDD数据集上的平均检测精度提升11.79%,证明了改进后算法在舰船检测中的有效性。  相似文献   

4.
基于多尺度形态学和Kalman滤波的基波分量提取   总被引:1,自引:0,他引:1       下载免费PDF全文
针对Kalman滤波在提取基波分量时存在暂态噪声抑制能力差和噪声统计特性不精确的缺点,提出了一种新的基波分量提取算法。采用改进的数学形态滤波器对采集信号进行多尺度分析得到平滑信号和细节信号,改进的滤波器使用不同形状的结构元素,有效地提高噪声抑制能力。利用平滑信号更新Kalman滤波器的观测值,减少故障信号暂态噪声的干扰,提高了滤波算法的收敛速度;利用细节信号实时在线计算测量噪声的方差,提高了滤波算法的收敛精度。在Matlab/Simulink环境下搭建仿真模型对算法进行验证与测试,仿真结果证实了算法的可行性和有效性。  相似文献   

5.
针对复杂电网环境下电能质量扰动特征冗余、分类精度低的问题,经过多层卷积神经网络逐层获取电能质量扰动信号低维到高维特征信息,引入特征注意力机制构建多特征融合层消除特征冗余,提升扰动信号关键特征关注度,并加强扰动信号的局部特征与全局特征的提取,提高模型泛化能力进而提高扰动分类精度,据此提出基于多特征融合注意力网络的电能质量扰动识别方法。仿真结果显示,所提方法不仅在单一扰动、复合扰动下能有效辨识电能质量扰动,而且能有效克服噪声干扰对模型的影响,相比主流扰动分类方法提取的特征辨识度更高、模型抗噪性更强。  相似文献   

6.
在物体杂乱放置非遮挡和遮挡构成的复杂场景下,针对位姿实时、准确和稳定地估计的问题,提出了混合坐标注意力与改进空间金字塔池化融合的目标位姿估计算法。搭建了由坐标特征、通道特征和空间特征组成的混合坐标注意力残差模块,有效提高了关键点估计的准确率。改进了空间金字塔池化网络,并通过颈部位置的多尺度特征细化方法,获得边缘姿态及空间位置的高精确估计。将所制作的遮挡数据集,进一步验证所提出算法性能和泛化能力。在公开LineMod及Partial Occlusion遮挡数据集上,所提算法与基于组特征注意力(SA)算法相比ADD指标分别提高2.26%和2.57%,5cm5°指标分别提高5.16%和4.1%,达到了30 fps实时处理速度,为遮挡等复杂场景下的物体位姿估计提供一个有效的方法。  相似文献   

7.
针对传统云检测方法对特殊场景识别效果较差而造成的边缘信息丢失和薄云、碎云误判等问题,提出了一种基于多尺度特征融合与混合注意力的高精度云检测MSHA-DeepLab算法。首先,在原始DeepLabV3+算法的基础上引入注意力模块,提高重要特征权重,增强网络对局部特征的感受能力。其次,使用深度可分离卷积提取不同尺度的语义信息,减少网络参数量。最后,进行逐级上采样和特征融合,减少特征信息丢失。选择多种方法与改进算法对比,使用不同场景、不同波段组合的数据集进行测试。结果表明,改进后算法的精确率达到了86.376 9%,召回率达到了85.895 9%,特异性达到了96.915 6%,交并比达到了82.846 7%,精确度达到了94.600 8%,相比原始算法和其他方法有明显提高。验证了提出算法能在不同条件下实现高精度的云检测。  相似文献   

8.
针对点云在噪声、遮挡及相似特征多个干扰条件下容易产生错误配准的问题,提出一种基于多特征的关键点提取算法和自适应尺度的融合特征的点云配准方法。在关键点提取时,同时计算多个特征,使关键点更具描述性和鲁棒性。特征描述时,在自适应尺度的基础上使用FPFH和RoPs特征两种特征分别进行初始配准和错误点对剔除,最终各自得到多个相似的转换矩阵。完成上述求解后,将两者得到的矩阵组成集合进行聚类并对矩阵数最多的类取平均值处理作为最终的结果以完成特征的融合。实验研究表明,在忽略极少数无法具体化的错误配准点的情况下,真实场景下所提算法的RMSE、ATI和ERR分别为0.46 mm, 1和0.37;使用数据集测试得到的正确率为99.3%,均表明该算法的精度和鲁棒性较高。  相似文献   

9.
为了解决当前红外与可见光图像融合算法中易出现场景信息缺失、目标区域细节模糊、融合图像不自然等问题,提出一 种用于红外与可见光图像融合的注意力残差密集融合网络(ARDFusion)。 本文整体架构是一种自编码器网络,首先,利用存在 最大池化层的编码器对源图像进行多尺度特征提取,然后,利用注意力残差密集融合网络分别对多个尺度的特征图进行融合, 网络中的残差密集块可以连续存储特征并且最大程度地保留各层特征信息,注意力机制可以突出目标信息并获取更多与目标、 场景有关的细节信息。 最后,将融合后的特征输入到解码器中,通过上采样和卷积层对特征进行重构,得到融合图像。 本文提 出了一种用于红外与可见光图像融合的注意力残差密集融合网络,实验结果表明,较已有文献的其他典型融合算法,具有较好 的融合效果,能够更好地保留可见光图像中的光谱特性且红外目标显著,并在主观评价和客观评价方面都取得了较好的融合 性能。  相似文献   

10.
当前的研究中密集场景行人检测精度较低,为提高检测精度,提出一种基于YOLOv5网络的改进方法V-YOLO,采用加权双向特征金字塔网络(bi-directional feature pyramid network, BiFPN)改进原始网络中的路径聚合网络(path aggregation network, PANet),加强多尺度特征的融合能力,提高对行人目标的检测能力。为了保留更多的特征信息,提高主干网络的特征提取能力,添加残差结构VBlock;引入SKNet(select kernel networks)注意力机制,动态融合不同感受野的特征图,提高对不同行人特征的利用率。使用CrowdHuman数据集进行训练和测试,实验结果表明,所提出算法比原始网络的精确度、召回率和平均精度值分别提高1.8%、2.3%和2.6%,验证了所提出算法能有效的提高密集场景下行人目标检测的准确率。  相似文献   

11.
为提高算法对车辆检测的准确性,解决原有算法在复杂交通场景下对车辆检测效果不佳的问题,提出一种基于注意力机制和改进密集连接网络结构的车辆检测方法。首先在过渡层中使用SoftPool整合密集块之间的特征信息;其次通过轻量化通道注意力机制加强有效通道特征的表达,将其作为Darknet-53的深层特征提取层;引入CIOU损失作为模型的边界框位置预测损失项,使用深度可分离卷积缩减模型体积;与原算法相比mAP值提高2.6%,模型体积缩减为原来的42%,实验证明本算法在复杂交通场景下具有良好的检测性能。  相似文献   

12.
针对航拍图像小目标占比多、背景复杂、存在检测精度低的问题。提出一种基于感受野增强与并行坐标注意力的航拍小目标检测算法,设计一种感受野增强模块,使用不同大小的空洞卷积扩大感受野范围并融合有效通道注意力机制来提高网络的特征提取能力;改进特征融合结构来提高算法对小目标的检测能力;设计一种并行坐标注意力模块用以提高航拍密集小目标检测以及抗背景干扰能力。采用不同输入分辨率在VisDrone数据集上进行实验,实验结果表明,所提算法的mAP0.5相较于YOLOv5算法提高了5.4%,mAP0.5:0.95提高了4.2%,在输入分辨率1 536×1 536下的mAP0.5可达54.9%,可以实现较好的小目标检测效果。  相似文献   

13.
为了提高 CenterNet 无锚框目标检测网络的目标检测能力,提出一种基于注意力特征融合和多尺度特征提取网络的改 进 CenterNet 目标检测网络。 首先,为了提升网络对多尺度目标的表达能力,设计了自适应多尺度特征提取网络,利用空洞卷积 对特征图进行重采样获取多尺度特征信息,并在空间维度上进行融合;其次,为了更好地融合语义和尺度不一致的特征,提出了 一种基于通道局部注意力的特征融合模块,自适应地学习浅层特征和深层特征之间的融合权重,保留不同感受域的关键特征信 息。 最后,通过在 VOC 2007 测试集上对本文算法进行验证,实验结果表明,最终算法的检测精度达到 80. 94%,相较于基线算法 CenterNet 提升了 3. 82%,有效提升了无锚框目标检测算法的最终性能  相似文献   

14.
针对目标检测算法模型在交通标志检测上容易出现错检和漏检等问题,提出一种融合前景注意力的轻量级交通标志检测网络YOLOT。首先引入SiLU激活函数,提升模型检测的准确率;其次设计了一种基于鬼影模块的轻量级骨干网络,有效提取目标物特征;接着引入前景注意力感知模块,抑制背景噪声;然后改进路径聚合网络,加入残差结构,充分学习底层特征信息;最后使用VariFocalLoss和GIoU,分别计算目标的分类损失和目标间的相似度,使目标的分类和定位更加准确。在多个数据集上进行了大量实验,结果表明,本文方法的精度优于目前最先进方法,在CCTSDB数据集上进行消融实验,最终精度达到98.50%,与基线模型相比,准确率提升1.32%,同时模型仅4.7 MB,实时检测帧率达到44 FPS。  相似文献   

15.
Early detection of overtaking vehicles is an important task for vision-based driver assistance systems. Techniques utilizing image motion are likely to suffer from spurious image structures caused by shadows and illumination changes, let alone the aperture problem. To achieve reliable detection of overtaking vehicles, the authors have developed a robust detection method, which integrates dynamic scene modeling, hypothesis testing, and robust information fusion. A robust fusion algorithm, based on variable bandwidth density fusion and multiscale mean shift, is introduced to obtain reliable motion estimation against various image noise. To further reduce detection error, the authors model the dynamics of road scenes and exploit useful constraints induced by the temporal coherence in vehicle overtaking. The proposed solution is integrated into a monocular vision system onboard for obstacle detection. Test results have shown superior performance achieved by the new method  相似文献   

16.
针对监控图像中电厂雨排口出现的废弃油污泄漏问题,提出一种基于改进Faster区域卷积神经网络(Faster R-CNN)的电厂雨排口污染物泄漏检测算法。改进Faster R-CNN检测算法首先使用ResNet-50作为主干网络,在此基础上构建多尺度特征图金字塔结构(FPN),实现高层语义和低层语义之间的信息融合,提高了检测精度;其次采用CIoU损失和DIoU-NMS方法,提高Faster R-CNN中边框回归的准确度;最后引入Focal Loss损失函数,解决了区域建议网络(RPN)生成的锚点冗余导致R-CNN阶段出现正负样本不均衡问题。实验结果表明,此改进算法在真实样本中表现良好,平均准确率达到90.2%,与原Faster R-CNN算法相比较,准确率提高,误报率和漏报率明显下降,可有效应用于实际生产环境中。  相似文献   

17.
在无基准图的无人机返航过程中,实时图和航路点的景象匹配是无人机返航成功的关键。为提高景象匹配的实时性和鲁棒性,提出了基于加速分割检测特征(FAST)角点检测和快速视网膜关键点(FREAK)描述符的无人机景象匹配算法。首先,针对FAST角点检测方法的无尺度不变性、特征点数量冗余的缺点进行了改进;接着,对FREAK二进制描述符进行简化,以提高匹配速度;然后,采用K近邻比值法和RANSAC方法进行特征的初匹配和精匹配,并建立定位模型,从而获得航路点与无人机当前位置的实际距离和方位信息;最后,对算法的各项性能做实验验证。所提出的算法定位方向偏差在1°以内,像面距离偏差稳定在0.6 pixel,运行时间0.43 s,远小于尺度不变特征转换(SIFT)和加速鲁棒特征(SURF)算法的处理时间。在尺度变换和噪声等条件变化的情况下,相比SIFT和SURF等算法,所提算法取得了较好的正确匹配率,具有更好的鲁棒性。实验结果表明所提出的算法鲁棒性好,运算速度快,尤其在视角变换方面表现优秀,更适合无人机视觉辅助导航。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号