首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 515 毫秒
1.
快速的人脸轮廓检测及姿态估计算法   总被引:1,自引:0,他引:1  
提出一种基于人脸特征区域划分的人脸轮廓检测方法和快速人脸姿态估计方法.该方法根据特征点在人脸的分布情况将人脸划分为9个区域.对于每个选定的区域,首先检测出其初始轮廓线,然后用三次多项式对其进行曲线拟合处理,最后把不同区域的轮廓线连接起来得到完整的人脸轮廓.此外,为了快速、准确地估计出人脸的姿态,本文从人脸的对称性出发,提出了进行人脸姿态估计的面积模型和近似平面模型.实验表明,本文所提出的轮廓检测方法对于复杂背景中具有不同姿态的人脸图像可以得到较满意的检测结果.和其它检测方法相比,本文方法具有模型简单、计算速度快等优点.  相似文献   

2.
提出一种基于面积比的人脸姿态估计方法,先分析人脸姿态发生变化时特征点之间形成的三角形的面积变化,再应用BP神经网络对位置参数和人脸姿态参数的关系进行学习,从而对人脸姿态进行估计,最后将该方法应用于虚拟环境的漫游中。实验结果表明,采用该方法对人脸转动进行估计,采用的特征点比较少,具有较高的识别率和稳定性。  相似文献   

3.
提出了一种基于三维模型的人脸姿态估计方法。首先根据人脸特征点重建出稀疏的三维人脸模型,然后基于三维模型采用线性回归的方法对人脸姿态进行初步估计,确定姿态范围,再对估计结果进行修正,从而对人脸姿态进行精确估计。实验表明,该方法具有较好的估计效果,提高了姿态估计精度。  相似文献   

4.
提出基于正射投影模型的人脸姿态参数估计算法.从图像获取特征点,计算这些点到正面姿态参考模型特征点的最佳姿态变换参数,算法只需获取4个特征点就能确定图像人脸姿态.同时基于该模型提出新的人脸图像姿态拟合方法,以最小化SSD为目标函数,迭代法求姿态参数.该方法的优势是人脸姿态估计并不依赖于特征点检测,给定初始姿态就能找到模型到图像的最佳姿态拟合.模拟图像和真实图像的姿态估计实验结果显示,拟合算法的迭代过程能迅速收敛,并且该算法可有效用于姿态跟踪.  相似文献   

5.
提出基于整体信息和基于局部信息的人脸姿态估计方法,并对两种方法进行比较分析。基于边缘统计特征的人脸姿态估计算法先利用人脸整体信息,提取边缘统计特征,再使用线性回归算法建立特征与姿态间的对应关系。基于特征定位的人脸姿态估计是一种基于局部信息的算法,该算法先使用数理形态学运算精确定位鼻孔,再根据鼻孔与眼睛的位置关系进行人脸姿态估计。实验结果表明,本文的算法具有准确度高,计算速度快的优点。  相似文献   

6.
基于神经网络设计一种在坐姿状态下由人脸中的关键点在空间中的相对位置的变化估计头部姿态,以及肩部关键点在空间中的相对位置变化估计肩部姿态的方法,并将头部姿态分为6种,肩部姿态分为2种。利用SDM算法对人脸关键点进行标记;标记出人脸关键点后利用的POSIT算法对头部姿态角度估计,计算出头部欧拉角并设定阈值对头部姿态进行分类;利用OpenPose算法对人体肩部关键点进行标定,利用左肩和右肩关键点的连线夹角进行肩部姿态的估计。通过实验证明:该方法的头部以及肩部姿态检测性良好,姿态估计准确率高。  相似文献   

7.
人脸检测方法综述*   总被引:20,自引:1,他引:19  
人脸图像处理包括人脸检测、人脸识别、人脸跟踪、姿态估计和表情识别等。为了构造自动处理人脸图像的信息系统,首先需要鲁棒、有效的人脸检测算法。分析了有关人脸检测问题的研究方法,并对其进行了分类和评价。从基于知识的方法、特征不变方法、模板匹配方法和基于外观的方法等四个方面介绍了相关的算法和理论,分析了各种方法的优缺点,并提出了关于人脸检测问题的进一步研究方向。  相似文献   

8.
摘 要:实时的头部姿态估计在人机交互和人脸分析应用中起着至关重要的作用,但准确 的头部姿态估计方法依然具有一定的挑战性。为了提高头部姿态估计的准确性和鲁棒性,将基 于几何的方法与基于学习的方法相结合进行头部姿态估计。在人脸检测和人脸对齐的基础上, 提取彩色图像几何特征和深度图像的局部区域深度特征,再结合深度块的法线和曲率特征,构 成特征向量组;然后使用随机森林的方法进行训练;最后,所有决策树进行投票,对得到的头 部姿态高斯分布估计进行阈值过滤,进一步提高模型预测的准确度。实验结果表明,该方法与 现有的头部姿态估计方法相比,具有更高的准确度及鲁棒性。  相似文献   

9.
针对人脸姿态估计往往存在姿态解不稳定和不能唯一确定人脸三维空间姿态的缺陷,准确提取人脸特征点及进行相应特征点深度值估计后,以人脸的多个特征点建立人脸模型,并利用人脸特征点近似估计人脸姿态,通过改进的BFGS(Broyden-Fletch-er-Goldfarb-Shanno)算法精确估计三维人脸空间姿态。实验结果表明,该方法不仅可以获得稳定和唯一的3D人脸空间姿态,而且与同类方法比较具有良好的姿态估计精度。  相似文献   

10.
在分析已有的人脸姿态估计方法基础上,提出了一种基于主动表观模型(AAM)和T型结构的人脸3D姿态估计方法。对多姿态的人脸样本进行训练,得到多姿态的AAM模板集;利用训练得到的多姿态的AAM模板集进行最佳模板匹配,并对人脸的特征点进行精确定位;用人脸的双眼和嘴部构建T型模型,进行人脸3D姿态的参数估计。实验结果表明,该方法能适应较大的姿态旋转角度,并具有良好的姿态估计精度。  相似文献   

11.
伍鹏瑛    张建明    彭建    陆朝铨   《智能系统学报》2019,14(2):306-315
针对真实场景下的行人检测方法存在漏检、误检率高,以及小尺寸目标检测精度低等问题,提出了一种基于改进SSD网络的行人检测模型(PDIS)。PDIS通过引出更底层的输出特征图改进了原始SSD网络模型,并采用卷积神经网络不同层输出的抽象特征对行人目标分别做检测,融合多层检测结果,提升了小目标行人的检测性能。此外,针对数据集样本多样性能有效地提升检测算法的泛化能力,本文采集了不同光照、姿态、遮挡等复杂场景下的行人图像,对背景比较复杂的INRIA行人数据集进行了扩充,在扩增的行人数据集上训练的PDIS模型,提高了在真实场景下的行人检测精度。实验表明:PDIS在INRIA测试集上测试结果达到93.8%的准确率,漏检率低至7.4%。  相似文献   

12.
针对视频序列,Codebook背景建模算法能检测出其中的运动物体,但却无法识别行人.而大部分基于支持向量机(SVM)训练的行人分类器,需要通过滑动窗口遍历图像检测行人.为加快行人检测的速度,提出将传统的行人分类器融入到Codebook背景建模算法中,通过背景建模算法为行人检测提供候选区域,减少搜索范围,降低了行人误检率;并根据行人的特点,构建临时块模型定期将满足条件的前景区域更新到背景模型中,解决了Codebook背景建模算法不能应对光照突变的问题.实验结果表明:所提算法能应对光照突变所带来的干扰,实现视频行人实时检测.  相似文献   

13.
目标检测大量应用于监控系统的行人检测以及人脸识别,是当前深度学习的研究热点.监督学习利用人工标注大量数据集训练出针对特定场景的行人检测器.但是人工标注方法费时费力,本文针对监督学习需要人工标注数据集的缺点,研究了一种半自动标注行人的方法.针对静止的单目摄像机拍摄的监控视频,利用光流信息提供的初始前景可能性,以及跨越时间的视觉相似性来迭代地更新初始的前景可能性,分割出运动的行人,根据分割的前景对象,提出了一种半自动标注行人的方法.实验结果显示,本文的方法可以为行人检测系统提供大量数据集,且效率上明显优于传统人工标注的方法.  相似文献   

14.
在近年来社会公共安全受到广泛关注的情况下,如何利用监控视频对异常行人进行监督,预防危险事件的发生成为了一个热门课题.异常行人是指与普通行人在外观上有明显异常性区别的人,例如用头盔大面积遮挡面部或低头躲避摄像头,考虑到异常行人的特征主要集中在头面部,本文提出一种基于多任务卷积神经网络和单类支持向量机的针对头面部特征的异常行人快速检测方法.首先进行头面部区域的检测,然后使用多任务卷积神经网络提取头面部区域的特征,之后使用单类支持向量机判断是正常行人还是异常行人.此外,本文还针对卷积神经网络设计了一种卷积核拆分方法,加快了特征提取的速度,最终实验表明,本文提出的算法能够快速有效的检测出监控视频中的异常行人.  相似文献   

15.
目的 行人检测是目标检测中的一个基准问题,在自动驾驶等场景有着较大的实用价值,在路径规划和智能避障方面发挥着重要作用。受限于现实的算法功耗和运行效率,在自动驾驶场景下行人检测存在检测速度不佳、遮挡行人检测精度不足和小尺度行人漏检率高等问题,在保证实时性的前提下设计一种适合行人检测的算法,是一项挑战性的工作。方法 本文旨在解决自动驾驶场景中耗时长、行人遮挡和小尺度行人检测结果精度低的问题,提出了一种尺度注意力并行检测算法(scale-aware and efficient object detection,Scale-aware EfficientDet):在特征提取与检测中使用了EfficientDet的主干网络,保证算法效率和功耗的平衡;在行人遮挡方面,为了提高模型对遮挡现象的检测精度,引入了可以增强行人与其他物体之间特征差异的损失函数;在提高小目标行人检测精度方面,采用scale-aware双路网络算法来增加对小目标行人的检测精度。结果 本文选择Caltech行人数据集作为对比数据集,选取YOLO(you only look once)、YOLOv3、SA-FastRCNN(scale-aware fast region-based convolutional neural network)等算法进行对比,在运行效率方面,本文算法在连续输入单帧图像的情况下达到了35帧/s,多图像输入时达到了70帧/s的工作效率;在模型精度测试中,本文算法也略胜一筹。本文算法应用于2020年中国智能汽车大赛中,在安全避障环节皆获得满分。结论 本文设计的尺度感知的行人检测算法,在EfficientDet高性能检测器的基础上,通过结合损失函数、scale-aware双路子网络的改进,进一步提升了本文检测器的鲁棒性。  相似文献   

16.
从视觉场景中可靠地检测小目标行人对象是构建未来人工智能视觉系统的重要基础。由于运动小目标的视感尺寸小且纹理特征模糊,导致现有的传统行人目标检测方法难以应对。针对该问题,基于蝗虫视觉系统的神经结构特性,借助人类大脑内侧颞叶(MTL)情景记忆认知机理,提出一种适用于运动小目标行人检测的人工视觉神经网络(STPDNN)模型。所提出的神经网络包括两部分:突触前和突触后子网络。其中,突触前网络模拟蝗虫视觉系统加工处理视觉信号的神经机理,获得表征目标对象低阶特征的视觉运动线索;突触后网络从低阶视觉信号中提取出行人目标的情景记忆高阶信息,以实现对运动目标的偏好性响应。系统性的实验结果表明,提出的STPDNN可有效检测视觉场景中的运动小目标行人对象。该研究工作涉及生物视神经机理启发的行人目标动态视觉信息加工处理,可为智能视频监控中的行人检测识别与运动行为分析提供新思想、新方法。  相似文献   

17.
孙卓金  胡士强 《计算机应用》2011,31(12):3388-3391
现代视频监控系统需要获取大范围场景中感兴趣目标的清晰图像,这在目标距离较远并且不断移动时单纯采用摄像机调焦方式通常有一定的困难。为了获取宽范围监控场景中远距离行人的主要面部特征,采用广角静止—窄视场运动双摄像机协同工作方式可以同时获得远距离目标的全局和细节信息。首先采用改进的Codebook背景减法从广角摄像机中检测运动目标,然后指引运动摄像机近距离跟踪观察;若行人停止运动,则利用运动摄像机对其进行放大,然后从中检测人脸,并将人脸置于视野中心放大得到清晰图像。当行人再次运动时,广角相机将初始位置再次传递给运动摄像机,由其再对行人进行跟踪。通过实验室内和室外真实场景的实验表明,广角相机的检测算法具有一定的鲁棒性,运动相机能跟踪放大行人人脸图像,算法运行速度满足实时性要求。  相似文献   

18.
根据行人运动的特点和行人在图像中位置与身高的对应关系,提出了一种结合运动特征与位置估计的行人检测算法。提取运动特征和聚合通道特征(ACF),将提取的特征放到Real Adaboost分类器里进行训练,并对行人可能存在的位置建立评估模型;在检测阶段,通过分类器确定行人的候选区域,然后采用非极大值抑制算法去除重叠窗口,最后对行人候选区域应用位置评估模型进一步判断,以此排除可能的非行人目标。实验采用Caltech数据集对算法进行仿真,该算法的平均对数漏检率为27.12%,与ACF算法的相比降低了5.9个百分点。实验表明运动特征在视频检测中能够与静态特征进行信息互补,同时行人的位置估计在摄像机固定的情况下,具有一定的判断能力。  相似文献   

19.
传统基于HOG特征的行人检测方法存在检测速度慢的问题。为此,提出一种基于边缘对称性和HOG的行人检测方法。利用对称差分提取输入窗口的垂直边缘,根据垂直边缘的对称性快速检测出行人候选区,采用HOG特征和线性支持向量机对行人候选区进行验证。实验结果表明,该方法在保持传统方法检测率的同时,能提高检测速度。  相似文献   

20.
Pedestrian detection is a critical problem in the field of computer vision. Although most existing algorithms are able to detect pedestrians well in controlled environments, it is often difficult to achieve accurate pedestrian detection from video sequences alone, especially in pedestrian-intensive scenes wherein pedestrians may cause mutual occlusion and thus incomplete detection. To surmount these difficulties, this paper presents pedestrian detection algorithm based on video sequences and laser point cloud. First, laser point cloud is interpreted and classified to separate pedestrian data and vehicle data. Then a fusion of video image data and laser point cloud data is achieved by calibration. The region of interest after fusion is determined using feature information contained in video image and three-dimensional information of laser point cloud to remove false detection of pedestrian and thus to achieve pedestrian detection in intensive scenes. Experimental verification and analysis in video sequences demonstrate that fusion of two data improves the performance of pedestrian detection and has better detection results.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号