首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   3篇
  免费   0篇
  国内免费   8篇
自动化技术   11篇
  2020年   1篇
  2019年   2篇
  2018年   1篇
  2017年   4篇
  2016年   2篇
  2015年   1篇
排序方式: 共有11条查询结果,搜索用时 15 毫秒
1.
基于残差量化卷积神经网络的人脸识别方法   总被引:1,自引:0,他引:1  
针对大规模人脸识别问题,基于残差学习的超深卷积神经网络模型能取得比其他方法更高的识别精度,然而模型中存在的海量浮点参数需要占用大量的计算和存储资源,无法满足资源受限的场合需求.针对这一问题,本文设计了一种基于网络参数量化的超深残差网络模型.具体在Face-ResNet模型的基础上,增加了批归一化层和dropout层,加深了网络层次,对网络模型参数进行了二值量化,在模型识别精度损失极小的情况下,大幅压缩了模型大小并提升了计算效率.通过理论分析与实验验证了本文设计方法的有效性.  相似文献   
2.
基于深度学习的图像检索系统   总被引:2,自引:0,他引:2  
基于内容的图像检索系统关键的技术是有效图像特征的获取和相似度匹配策略.在过去,基于内容的图像检索系统主要使用低级的可视化特征,无法得到满意的检索结果,所以尽管在基于内容的图像检索上花费了很大的努力,但是基于内容的图像检索依旧是计算机视觉领域中的一个挑战.在基于内容的图像检索系统中,存在的最大的问题是“语义鸿沟”,即机器从低级的可视化特征得到的相似性和人从高级的语义特征得到的相似性之间的不同.传统的基于内容的图像检索系统,只是在低级的可视化特征上学习图像的特征,无法有效的解决“语义鸿沟”.近些年,深度学习技术的快速发展给我们提供了希望.深度学习源于人工神经网络的研究,深度学习通过组合低级的特征形成更加抽象的高层表示属性类别或者特征,以发现数据的分布规律,这是其他算法无法实现的.受深度学习在计算机视觉、语音识别、自然语言处理、图像与视频分析、多媒体等诸多领域取得巨大成功的启发,本文将深度学习技术用于基于内容的图像检索,以解决基于内容的图像检索系统中的“语义鸿沟”问题.  相似文献   
3.
智能视频监控技术在公共安全、交通管理、智慧城市等方面有着广泛的运用前景,需求日益增长。随着摄像头安装的数量越来越多,采集的图像数据量越来越大,靠单台计算机处理已经远远不能满足需求了。分布式计算的兴起与发展为解决大规模的数据处理问题提供了很好的途径。使用一种基于Spark Streaming的视频/图像流处理的测试平台,阐述了平台的构成和工作流程,深入研究各个参数对集群性能的影响,创新性地提出了CPU时间占用率作为性能评估指标,与总的处理时间结合,更为全面反映集群性能和资源利用率。  相似文献   
4.
针对常规基于肤色检测的AdaBoost算法的不足, 提出了一种改进的AdaBoost人脸检测算法,算法包括人体肤色模型、人脸运动检测模型、改进的背景提取方法、针对人脸区域的光照增强方法。算法综合利用了人体肤色信息和人脸运动信息,能有效缩小搜索范围。实验结果表明,该方法与常规基于肤色检测的AdaBoost方法相比,在保证检测性能的基础上,有效提高了检测速度。  相似文献   
5.
视频监控技术在交通管理、公共安全、智慧城市等方面有着广泛的应用前景,且向着智能识别、实时处理、大数据分析的方向发展. 本文针对大规模实时视频监控提出了新的解决方案. 基于Spark streaming流式计算、分布式存储及OLAP框架,使多路视频处理在可扩展性、容错性及数据多维聚合分析上具有明显的优势. 系统根据视频处理算法划分为单机处理与分布式处理. 并将视频图像处理与数据分析耦合,利用Kafka消息队列与Spark streaming完成对多路视频输出数据的进一步操作. 结合分布式存储方案,并利用OLAP框架实现对海量数据实时多维聚合分析与高效实时查询.  相似文献   
6.
针对传统行人跟踪算法得到运动轨迹与真实轨迹差异巨大的问题,提出一种基于三维模型的粒子滤波行人跟踪算法.该方法利用摄像机标定信息和图像帧信息建立行人的三维模型,解决图像中目标尺度的变化问题,并得到目标的真实运动轨迹.同时该方法利用双指数预测模型对粒子滤波算法进行优化,以解决短时遮挡问题,同时降低运算复杂度.实验表明,基于三维模型的粒子滤波行人跟踪算法能够较准确地建立行人三维模型,对比标准粒子滤波和KPF算法,能够对行人进行有效跟踪,对短时遮挡和尺度变化有较强的鲁棒性.  相似文献   
7.
徐锐  冯瑞 《计算机系统应用》2020,29(10):133-140
为了提高卷积神经网络在人体姿势估计任务上的精度,提出了一种基于均方损失函数(Mean Squared Error,MSE)的改进损失函数来处理网络学习中回归热点图的前景(高斯核)和背景之间像素点不均衡问题,根据前景与背景不同像素点值对损失函数赋予不同权重,并将其命名为聚焦均方损失函数(Focus Mean Squared Error,FMSE).与均方损失函数相比,我们提出的聚焦均方损失函数可以有效地减少前景和背景之间像素点不均衡对网络性能的影响,帮助网络定位关键点的空间位置,提升了网络性能,并使得训练阶段中损失函数收敛速度更快.并在公开数据集上进行实验,以验证我们所提出的聚焦均方损失函数的有效性.  相似文献   
8.
近年来,深度学习方法被广泛用来解决车辆检测问题并取得了显著的成果,然而,当车辆尺寸较小时,当前深度学习算法的检测丢失率仍然很高.为了解决这个问题,本文提出了一种基于组合目标框提取结构的扩张全卷积神经网络(Dilated Fully Convolutional Network with Grouped Proposals,DFCN-GP).具体提出了一种结合低层特征和高层特征的组合网络模型用于生成目标框,其中低层特征对小目标更加敏感.此外,为保留更多的细节信息,基于扩张卷积思想,增加了网络最后一层卷积层的大小和感受野,用于目标框的提取和车辆检测.通过控制变量的对比试验,对基于组合方式的目标框提取网络和扩张卷积层的有效性进行了验证.本文提出的算法模型在公开数据集UA-DETRAC上性能优异.  相似文献   
9.
为了提高卷积神经网络在目标检测的精度,本文提出了一种基于改进损失函数的YOLOv3网络.该网络模型应用一种新的损失函数Tan-Squared Error (TSE),将原有的平方和损失(Sum Squared Error,SSE)函数进行转化,能更好地计算连续变量的损失;TSE能有效减低Sigmoid函数梯度消失的影响,使模型收敛更加快速.在VOC数据集上的实验结果表明,与原网络模型的表现相比,利用TSE有效提高了检测精度,且收敛更加快速.  相似文献   
10.
Digital images are normally taken by focusing on an object, resulting in defocused background regions. A popular approach to produce an all-in-focus image without defocused regions is to capture several input images at varying focus settings, and then fuse them into an image using offline image processing software. This paper describes an all-in-focus imaging method that can operate on digital cameras. The proposed method consists of an automatic focus-bracketing algorithm that determines at which focuses to capture images and an image-fusion algorithm that computes a high-quality all-in-focus image. While most previous methods use the focus measure calculated independently for each input image, the proposed method calculates the relative focus measure between a pair of input images. We note that a well-focused region in an image shows better contrast, sharpness, and details than the corresponding region that is defocused in another image. Based on the observation that the average filtered version of a well-focused region in an image shows a higher correlation to the corresponding defocused region in another image than the original well-focused version, a new focus measure is proposed. Experimental results of various sample image sequences show the superiority of the proposed measure in terms of both objective and subjective evaluation and the proposed method allows the user to capture all-in-focus images directly on their digital camera without using offline image processing software.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号