首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 10 毫秒
1.
传统的依赖视频监控的人员行为管理方式费时且易产生疏漏,难以适用复杂的生产制造环境,为了实现更加有效的人员行为管理,针对生产车间工作人员行为识别与智能监控问题,提出一种基于人体骨架信息的生产行为识别方法。基于三维深度视觉传感器采集人体骨架关节位置数据,用标准化重构方法对骨架关节数据进行归一化处理,合成人体行为的时空特征RGB图像。在此基础上构建深度卷积神经网络模型,进行时空域的生产行为识别。最后通过CUDA GPU加速环境下面向MSR-Action3D数据集和自建验证数据集NJUST3D进行实验验证,说明所提方法具有较高的准确率和实用价值。  相似文献   

2.
鉴于基于视频的人体行为识别中的视频流数据过于庞大,3D卷积核参数设置过多,存在训练时间较长,调参困难等问题,以3D卷积神经网络为基础,提出一种将3D卷积核拆分成空间域和时间域两种卷积核的神经网络结构。两种卷积核分别形成两个数据流进行交互,同时引入残差网络以优化网络结构,减少参数设置。将所提方法应用于两个行为识别数据集KTH和UCF101上进行训练验证,其行为识别准确率分别为96.2%和90.7%。结果表明,较改进前的神经网络框架,所提方法在保证动作识别准确度的前提下,训练速度提高了7.5%~7.8%。该方法可以有效降低深度学习进行行为识别的硬件要求,提高模型训练效率,并可以广泛应用于智能机器人领域。  相似文献   

3.
构建多尺度深度卷积神经网络行为识别模型   总被引:3,自引:0,他引:3  
为了减化传统人体行为识别方法中的特征提取过程,提高所提取特征的泛化性能,本文提出了一种基于深度卷积神经网络和多尺度信息的人体行为识别方法。该方法以深度视频为研究对象,通过构建基于卷积神经网络的深度结构,并融合粗粒度的全局行为模式与细粒度的局部手部动作等多尺度信息来研究人体行为的识别。MSRDailyActivity3D数据集上的实验得出该数据集上第11~16种行为的平均识别准确率为98%,所有行为的平均识别准确率为60.625%。结果表明,本方法能对人体行为进行有效识别,基本能准确识别运动较为明显的人体行为,对仅有手部局部运动的行为的识别准确率有所下降。  相似文献   

4.
针对传统的计算机磨粒识别方法对相似度高的严重滑动磨粒和疲劳磨粒存在识别过程复杂、识别准确率低等问题,提出利用卷积神经网络(Convolution Neural Network,CNN)自动提取铁谱磨粒图像的特征,再将提取到的特征传入全局平均池化层和新的全连接层进行训练分类的铁谱磨粒智能识别方法。试验显示,基于卷积神经网络模型Inception-v3+1FCL和迁移学习方法可以有效地对严重滑动磨粒和疲劳磨粒进行分类识别,准确率高达89. 35%。  相似文献   

5.
为监测电网系统中机房柜门开关状态,避免产生安全隐患和财产损失,提出了一种基于卷积神经网络的机房柜门开关状态识别方法。该方法以ZFNet卷积模型作为基础网络,通过引入数据扩充防止过拟合现象产生,并使用迁移学习及批标准化方法加快网络收敛速度,提升了识别精度。以电网系统机房中的机柜门开关状态图像作为分类对象进行实验。实验结果表明,该方法能避免人工提取特征的局限性,识别精度满足实际监控要求。  相似文献   

6.
由于视频中的手工特征和主观情感之间的直接相关性很小,识别视频序列中的面部表情是一项很有挑战性的任务,为了克服这个缺陷,有效提高视频中的人脸表情识别性能。本方法采用两个深度卷积神经网络,即空间卷积神经网络和时间卷积神经网络,用于视频中的时空表情特征学习。其中,空间卷积神经网络用于提取视频中每一帧静态的表情图像的空间信息特征,而时间卷积神经网络用于从视频中多帧表情图像的光流信息中提取动态信息特征。然后,将这两个深度卷积神经网络学习到的时空特征进行基于深度信念网络(DBN)的特征层融合,输入到支持向量机实现视频中的人脸表情分类任务。在公共的RML和BAUM-1s视频情感数据集的测试结果表明,该方法分别取得了71.06%和52.18%的正确识别率,明显优于现有文献报导的结果。多模深度卷积神经网络的人脸表情识别方法能提高视频中人脸表情的识别性能。  相似文献   

7.
深度学习善于从海量的数据中挖掘越来越抽象的特征并具有良好的泛化能力,受到了越来越多的研究人员的关注,而卷积神经网络(Convolutional Neural Network,CNN)则是其深度学习中一种经典而广泛应用的结构,在计算机视觉、目标检测、自然语言处理、语音识别等领域成效卓越。在详细分析机械系统故障诊断的现状和需求的基础上,首先介绍了CNN的典型结构,然后从数据输入类型、网络结构设计、迁移学习等方面对CNN在机械故障领域的应用进行了归纳总结,研究CNN应用的深层次特征提取与可视化等问题,最后,分析机械故障诊断中存在的困难,并展望了CNN在机械故障诊断领域应用中待研究解决的若干问题。  相似文献   

8.
基于增强迁移卷积神经网络的机械智能故障诊断   总被引:1,自引:1,他引:0  
现有的基于深度迁移学习的智能诊断方法通常对源域和目标域特征对齐来减少两者分布差异,没有考虑源域类别决策边界对目标域特征匹配的影响,针对此不足,提出了一种增强迁移卷积神经网络(Enhanced transfer convolutional neural network,ETCNN)来改进机械设备在变工况下的诊断精度和泛化...  相似文献   

9.
增值税发票信息在金融领域至关重要,自动识别发票信息可以节约人工成本和时间成本.因此,文中提出设计一种基于改进LeNet-5卷积神经网络的发票自动识别方法,将改进LeNet-5卷积神经网络算法应用于发票识别后,经验证表明,应用改进LeNet-5卷积神经网络算法的发票信息识别率得到了提高.  相似文献   

10.
基于四元数时空卷积神经网络的人体行为识别   总被引:1,自引:0,他引:1       下载免费PDF全文
孟勃  刘雪君  王晓霖 《仪器仪表学报》2017,38(11):2643-2650
传统卷积神经网络(CNN)只适用于灰度图像或彩色图像分通道的特征提取,忽视了通道间的空间依赖性,破坏了真实环境的颜色特征,从而影响人体行为识别的准确率。为了解决上述问题,提出一种基于四元数时空卷积神经网络(QST-CNN)的人体行为识别方法。首先,采用码本算法预处理样本集所有图像,提取图像中人体运动的关键区域;然后将彩色图像的四元数矩阵形式作为网络的输入,并将CNN的空间卷积层扩展为四元数空间卷积层,将彩色图像的红、绿、蓝通道看作一个整体进行动作空间特征的提取,并在时间卷积层提取相邻帧的动态信息;最后,比较QST-CNN、灰度单通道CNN(Gray-CNN)和RGB 3通道CNN(3Channel-CNN)3种方法的识别率。实验结果表明,所提方法优于其他流行方法,在Weizmann和UCF sports数据集分别取得了85.34%和80.2%的识别率。  相似文献   

11.
通过对正电子探测成像技术获得的γ光子图像进行分类识别,有利于后续有针对性地快速获取图像所包含的有效信息。在MatConvNet上利用迁移学习的方法搭建深度卷积神经网络,通过对其参数的调整进一步提高网络分类识别的性能。为了验证网络性能,设计了10组不同形状的管材模型,利用仿真得到的扫描时间为1s的γ光子图像样本集对网络进行训练后,将其应用于扫描时间为0.1 s的γ光子图像样本进行分类识别,发现分类准确率在图像质量偏差、扫描时间为0.1 s的γ光子图像样本上仍然达到了94.72%。可见所搭建的深度卷积神经网络对γ光子图像具有很好的分类识别性能。  相似文献   

12.
研究了打车软件信息提醒方式和操作方式对驾驶员驾驶行为的影响。利用模拟驾驶仪生成虚拟驾驶场景,包括跟车、变道以及危机驾驶工况以提供真实可控的试验环境,并通过APP Inventor软件制作试验所用打车软件以保证打车订单的内容与发生时间可控;针对分心事故高发群体招募志愿者,按照试验流程进行试验并记录驾驶员行为、接近速度、最小跟车时距等数据;利用方差分析(ANOVA)和事后检验分析方法(Post Hoc)进行数据分析,并通过可靠度评价模型评价对比各工况下的驾驶安全性。对18名志愿者的驾驶表现数据进行了统计学分析,结果表明:可靠度模型显示提醒方式对可靠度的影响明显,可靠度由高到低是文字提醒、语音提醒、综合提醒,最安全的提醒和操控模式为“文字提醒+声控操作”。  相似文献   

13.
针对传统故障识别方法不仅过分依赖专家经验对故障特征进行提取且识别准确率不高的问题,在深度学习理论基础上,提出了一种将一维卷积神经网络与SVM分类器相结合的改进深度卷积神经网络,实现调压器“端到端”的故障识别。首先,介绍了传统卷积神经网络结构;其次,将改进后的一维卷积神经网络与SVM相结合,提出了基于1-MsCNN-SVM算法的调压器故障识别模型,并对模型的组成部分进行了介绍;然后,通过对比实验确定了模型的卷积核长度和卷积层组数;最后,为验证模型的有效性,基于燃气调压器故障数据集,开展了燃气调压器故障识别研究。研究结果表明,改进后的1-MsCNN-SVM算法故障识别准确率高达99.20%,模型具有较好的分类准确率。  相似文献   

14.
该文针对IT系统集成机柜建立了一套基于卷积神经网络的柜内设备智能识别系统。设计基于图像处理和深度学习的识别算法以实现机柜内设备安装位置的检测识别。建立设备图像数据集对YOLO模型进行训练,得到合适的加权系数,使模型损失函数值最小;将训练好的模型对实际环境中的机柜进行检测并与其他经典方法进行对比。实验结果显示,该系统检测的准确率和实时性都优于其他算法,准确率最高达到93.9%。对于建立基于机器视觉的设备识别和控制系统有重要意义,可以在一定程度是上取代人工识别和操作。  相似文献   

15.
行星齿轮箱作为机械设备的重要传动部件,其运行的好坏直接影响到整个设备的运行状况.通过引入批量归一化层和丢弃层对卷积神经网络模型进行改进,提出了基于改进卷积神经网络的齿轮箱故障诊断模型.搭建齿轮箱实验平台,使用该模型对齿轮箱的振动信号进行故障识别.实验结果表明:该模型能够有效地对齿轮箱不同的故障类型进行识别分类,分类准确...  相似文献   

16.
视觉里程计利用视频信息来估计相机运动的位姿参数,实现对智能体的定位。传统视觉里程计方法需要特征提取、特征匹配/跟踪、外点剔除、运动估计、优化等流程,解算非常复杂,因此,提出了基于卷积神经网络的方法来实现端对端的单目视觉里程计。借助卷积神经网络对彩色图片自动学习提取图像帧间变化的全局特征,将用于分类的卷积神经网络转化为帧间时序特征网络,通过三层全连接层输出相机的帧间相对位姿参数。在KITTI数据集上的实验结果表明,提出的Deep-CNN-VO模型可以较准确地估计车辆的运动轨迹,证明了方法的可行性。在简化了复杂模型的基础上,与传统的视觉里程计系统相比,该模型的精度也有所提高。  相似文献   

17.
利用卷积神经网络的自动驾驶场景语义分割   总被引:1,自引:0,他引:1  
图像语义分割是现代自动驾驶系统的一个必要部分,因为对汽车周围场景的准确理解是导航和动作规划的关键。为提高自动驾驶场景的图像语义分割准确率,且考虑到当下流行的基于卷积神经网络的语义分割模型(DeepLab v3+)无法有效地利用注意力信息,导致分割边界粗糙等问题,提出一种融合底层像素信息与通道、空间信息的语义分割神经网络。在卷积神经网络中插入注意力模块,提取出图像语义级别的信息,通过学习图像的位置信息和通道信息得到更加丰富的特征;从卷积神经网络输出的各类别得分值计算出单点势能,且从初步分割图和原图得到成对势能,以便全连接条件随机场对图像的全部像素进行建模,并且优化图像的局部细节;全连接条件随机场通过迭代得到语义分割的最终结果。在CityScapes数据集上进行了测试,与DeepLab v3+相比较,改进后的模型分别提高了均交并比和均像素精度等关键指标1.07%和3.34%。它能够更加精细地分割目标,较好地解决分割边界粗糙,有效地抑制边界区域分割的过度平滑和不合理孤岛等问题。  相似文献   

18.
作为计算机视觉中的基本视觉识别问题,目标检测在过去的几十年中得到了广泛地研究。目标检测旨在给定图像中找到具有准确定位的特定对象,并为每个对象分配一个对应的标签。近年来,深度卷积神经网络DCNN(Deep Convolutional Neural Networks)凭借其特征学习和迁移学习的强大能力在图像分类方面取得了一系列突破,在目标检测方面,它越来越受到人们的重视。因此,如何将CNN应用于目标检测并获得更好的性能是一项重要的研究。首先回顾和介绍了几类经典的目标检测算法;然后将深度学习算法的产生过程作为切入点,以系统的方式全面概述了各种目标检测方法;最后针对目标检测和深度学习算法面临的重大挑战,讨论了一些未来的方向,以促进深度学习对目标检测的研究。  相似文献   

19.
针对在传统的道路目标识别中,需要进行手工提取特征,模型的泛化能力差。使用深度学习的技术,提出了使用深度卷积神经网络(SSD)解决道路目标问题。该方法首先对图像特征进行自动提取,在基础网络后添加不同尺寸的特征图,然后对多尺寸的特征图做卷积滤波,得到目标坐标值和目标的类别。实验中,在SSD模型中增加了特征图的检测层数,增大原图像尺寸,调试相应的参数,经过多次迭代,最终得到目标模型。实验采用行车记录仪采集的图像,在图像中标定出车辆、行人和骑行的人三类,实验表明,检测目标尺寸越小,检测难度越大,检测效果越差,SSD模型对目标检测的平均准确率均值提高了0.082。提出的道路目标检测方法与传统目标识别算法相比,省去了手工特征提取,减少了工作量,提高了模型的泛化能力。  相似文献   

20.
刘红军  魏旭阳 《机电工程》2021,38(5):587-591,622
为充分发挥深度学习识别二维图像在滚动轴承故障检测方面的优势,提出了一种格拉姆角差场(GADF)结合改进卷积神经网络(CNN)的智能故障诊断模型.首先,将一维时序振动信号通过格拉姆角差场转化为二维图像,提取了图像特征,并输入了改进后的CNN模型;其次,改进的CNN模型采用全局池化层替代了传统的全连接层,有效地解决了传统C...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号