首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 328 毫秒
1.
为提高运动目标的检测效果和指导性,提出一种基于灰度直方图分析的运动目标特征检测算法。采用视觉成像技术进行运动目标图像采集和视觉特征分析,提取运动目标的动态视觉特征量。根据运动目标边缘差分变换和空间位置关系进行运动图像的特征分离,提取运动目标图像的边缘轮廓特征量。采用统计形状模型进行运动目标图像的二值化分离,构建运动目标图像的灰度直方图。根据灰度直方图中的统计信息进行目标特征检测和动态特征提取,实现运动目标图像的视觉检测和动态识别,有效提取运动目标的关键特征,实现目标特征检测。仿真结果表明,采用该方法进行运动目标图像的特征检测性能较好,对运动目标的动态识别能力较强。  相似文献   

2.
机器视觉技术在工件分拣中的应用   总被引:1,自引:0,他引:1  
研究了机器视觉技术在工业分拣问题中的应用,介绍开发过程中使用的主要图像处理算法.利用VisualC++编程软件建立图像处理的算法库,实现对规则几何工件的识别和定位.分析视觉算法库中的摄像机模型,并且求解出摄像机内外参数、畸变参数、旋转和平移向量.然后对图像序列进行图像预处理、Hough圆检测、角点提取和轮廓识别等运算分析.提出计算多目标中心的算法和一种角点特征结合轮廓特征识别算法.仿真结果表明,该视觉算法可以有效解决规则几何工件的分拣问题,并且能准确地计算工件中心,周长,面积和边缘,以达到分拣的目的.  相似文献   

3.
李建锋 《计算机工程与设计》2011,32(4):1398-1400,1405
提出一种仿生物视觉算法模型的彩色人脸图像识别方法——视觉交叉皮层时间序列人脸特征提取算法。将彩色人脸图像从RGB空间转换至HSI空间,对HSI空间的各个图像分量分别提取时间序列,将各个分量的时间序列连接形成整体的人脸图像特征。该序列对不同人脸图像具有较高的区分度,而对于不同角度的相同人脸图像却表现出一致性。用第一范式距离作为判据进行人脸图像识别,并与PCAI、CA以及基本的PCNN进行比较,实验结果表明,提出的方法识别速度明显高于比较的几种方法,识别准确率可以达到86.73%。  相似文献   

4.
由于传统瑕疵图像识别算法存在识别时间长、准确率较低的问题,研究基于机器视觉的零件加工瑕疵图像识别算法。使用最小误差法分割图像阈值,获取并处理瑕疵零件图像;提取瑕疵图像的全局特征与局部特征,经多维向量特征值排序后得到零件加工瑕疵的最终特征;利用形态学细化法提取图像边缘轮廓,结合机器视觉细化边缘像素,实现瑕疵图像识别。测试结果表明:使用机器视觉识别零件加工瑕疵图像算法,当图像数量增加到1000张时,图像识别平均所用时间为78.3 s,平均准确率则为95.817%,可以提高零件加工瑕疵图像识别的准确率。  相似文献   

5.
由于传统健美操跳跃动作特征提取方法存在动作方位角度识别准确率低、特征提取率低和特征提取效率低的问题,提出基于机器视觉的健美操跳跃动作特征提取方法。通过机器视觉获取健美操视频,提取健美操视频的熵值序列和音乐特征,融合以上特征提取健美操动作关键帧,利用高斯混合模型对关键帧进行处理,消除健美操关键帧的背景;采用阈值识别算法识别健美操跳跃动作,结合Harris3D算子建立健美操跳跃动作序列势函数,在此基础上,利用AdaBoost算法提取健美操跳跃动作特征。实验结果表明,所提方法的动作方位角度识别准确率高、特征提取率高、提取效率高。  相似文献   

6.
针对当前方法提取的多帧图像目标特征精度较差,导致多帧图像特征目标跟踪准确率较低、跟踪时间较长的问题,提出了基于视觉传达的多帧图像特征目标跟踪方法。采用稀疏表示方法采集多帧图像目标特征,利用高斯分布构建图像运动模型,小波分析多帧图像灰度及细节特征,根据灰度投影法提取多帧图像目标特征,并匹配多帧图像特征点,获取多帧图像轮廓轨迹追踪目标,运用图像运动目标状态模型,求解前景轮廓的目标函数权重,实现多帧图像特征目标跟踪。实验结果表明,所提方法提取的多帧图像目标特征精度较好,能够有效降低多帧图像特征目标跟踪时间,提高多帧图像特征目标跟踪准确率。  相似文献   

7.
人眼的视觉系统是已知最复杂最精确的目标识别系统;针对现有浅层学习模型提取SAR图像目标特征效果不理想、普适性不强及目标识别精度不高等问题,参考人眼视觉系统的分层特征提取机制提出了一种深层特征提取目标识别算法;算法首先提出一种针对SAR图像的预处理方法,在特征提取阶段应用多层稀疏自动编码器,通过逐层减少神经元数目使编码器学习得到输入数据的压缩表示,从而提取得到更抽象更鲁棒的目标特征;采用MSTAR数据库3个目标进行实验,试验结果表明,算法能很好地对MSTAR目标进行特征提取和识别,类比原有的方法有较高的识别准确率,达到96.7%。具有较强的实用性。  相似文献   

8.
复杂背景下蚜虫目标识别方法研究   总被引:2,自引:0,他引:2       下载免费PDF全文
为提高蚜虫种间识别的准确率,提出了一种基于双树复小波变换(DT-CWT)和支持向量机(Libsvm)的蚜虫图像种间识别方法。该方法首先对图像进行预处理;其次应用DT-CWT对选定的三种农作物蚜虫图像样本进行特征提取,以确定Libsvm训练模型中的训练参数;最后用Libsvm分类器对蚜虫图像进行种间识别。实验对比了Gabor小波变换和传统上基于灰度共生矩阵的特征提取算法,结果表明该方法具有更高的准确率和较低的时间复杂度,为蚜虫的种内识别提供条件。  相似文献   

9.
讨论了基于马尔可夫随机场(MRF)模型的融合颜色和边缘信息的嘴唇特征提取方法.首先进行嘴唇区域检测,再结合嘴唇形状特点建立了基于MRF的嘴唇图像分割模型,构造相应的能量函数,并采用改进的最高置信度优先(HCF)算法求解能量函数的最优解,得到图像标记场,进而提取出嘴唇轮廓.结合人脸结构信息,提出了融合鼻孔角度信息的嘴唇特征点提取方法.实验结果表明,此算法具有良好的鲁棒性.  相似文献   

10.
针对虹膜图像采集过程中存在光照、干扰等因素,为进一步提高虹膜图像识别的准确率,提出一种基于组合特征提取的优化极限学习机(ELM)模型来提高虹膜图像识别的精度。模型考虑了特征提取和分类器优化两者均起着重要作用,利用灰度共生矩阵(GLCM)和多通道2D Gabor滤波器特征提取后进行特征融合,得到更丰富的特征信息,并设计改进了蜂群算法(IABC)优化ELM模型作为分类器。同时设计的线性加权多目标函数综合考虑分类精度和网络结构,从而有效提高了虹膜识别的准确率。实验表明提出的模型通过结合两种特征提取方法,能提取出更丰富的可区分特征,并且结合优化分类器得到了很高的分类准确率,是一种有效的虹膜识别模型。  相似文献   

11.
蔡天旺  付胜 《测控技术》2021,40(7):40-45
电路板红外图像具有分辨率低、对比度低、信噪比低、视觉效果模糊的特点,目前的图像配准算法用于电路板红外图像配准时,运算时间长且匹配准确度低.针对电路板红外图像的特点,梳理了图像配准方面的国内外研究现状,分析了SIFT算法的基本原理,对原有的SIFT算法进行了修改.对特征点的提取方式进行了改进,减少了不必要的特征点;改进了特征点的描述符,降低了特征向量的维数;在特征点匹配的时候加入了分层阈值.对改进的算法进行了一系列的测试,针对三对电路板的红外图像进行配准,实验结果表明,相比于传统的SIFT算法,改进的SIFT算法在进行电路板红外图像配准的时候,匹配的准确率和运算时间得到了很大的提升,为电路板红外图像的配准提供了新的方法.  相似文献   

12.
在视觉SLAM中,特征点的提取和准确的特征匹配对机器人的位姿推断具有重要作用。针对传统ORB算法特征点分布不均匀,容易出现簇集的问题和Qtree_ORB算法特征点过均匀等问题,提出了一种基于四叉树改进的ORB特征提取算法。对每层图像金字塔进行自适应网格划分,采用自适应阈值来进行特征点提取;根据每层图像金字塔所提取特征点数目对四叉树的划分深度进行限制,减少冗余特征点;设定最小阈值来减少低质量特征点的提取;在Mikolajczyk数据集上对改进算法的均匀度和匹配性能进行测试,在TUM数据集上对改进算法在ORB-SALM2系统中的精度进行测试。结果表明改进算法能够有效提高其均匀度,并且保持着较高的匹配精度;在ORB-SLAM2测试中,改进算法能有效改进SLAM系统的轨迹精度和漂移程度。  相似文献   

13.
为提高不同光照、不同角度条件下的纹理识别精度,提出了一种利用多级小波分解和多尺度旋转不变LBP融合的纹理提取算法。算法在传统的LBP特征提取基础上,采用多尺度的旋转不变LBP算子分别对多级小波逼近图像提取直方图序列特征向量,与各级小波能量进行加权融合,获取更多的纹理信息,对光照和角度的变化有更高的鲁棒性。仿真结果表明,相对传统的LBP特征提取算法,改进的算法具有更高的纹理识别率。  相似文献   

14.
为了解决唇语识别中唇部特征提取和时序关系识别存在的问题,提出了一种双向长短时记忆网络(BiLSTM)和注意力机制(Attention Mechanism)相结合的深度学习模型。首先将唇部20个关键点得到的唇部不同位置的高度和宽度作为唇部的特征,使用BiLSTM对唇部特征序列进行时序编码,然后利用注意力机制来发掘不同时刻唇部时序特征对于整体唇语识别的不同权重,最后利用Softmax进行分类。在公开的唇语识别数据集GRID和MIRACL-VC上与传统的唇语识别模型进行实验对比。在GRID数据集上准确率至少提高了13.4%,在MIRACL-VC单词数据集上准确率至少提高了15.3%,短语数据集上准确率至少提高了9.2%。同时还与其他编码模型进行了实验对比,实验结果表明该模型能有效地提高唇语识别的准确率。  相似文献   

15.
S.L. Wang  W.H. Lau  S.H. Leung   《Pattern recognition》2004,37(12):4477-2387
Visual information from lip shapes and movements helps improve the accuracy and robustness of a speech recognition system. In this paper, a new region-based lip contour extraction algorithm that combines the merits of the point-based model and the parametric model is presented. Our algorithm uses a 16-point lip model to describe the lip contour. Given a robust probability map of the color lip image generated by the FCMS (fuzzy clustering method incorporating shape function) algorithm, a region-based cost function that maximizes the joint probability of the lip and non-lip region can be established. Then an iterative point-driven optimization procedure has been developed to fit the lip model to the probability map. In each iteration, the adjustment of the 16 lip points is governed by three pieces of quadratic curves that constrain the points to form a physical lip shape. Experiments show that the proposed approach provides satisfactory results for 5000 unadorned lip images of over 20 individuals. A real-time lip contour extraction system has also been implemented.  相似文献   

16.
针对图像间因具有旋转及光线强度差异等现象而导致的拼接效果不佳及拼接速度慢的问题,提出一种基于特征点的配准算法;在特征点提取阶段,尺度不变的特征变换方法 (SIFT)具有对图像尺度缩放、旋转、放射变换以及亮度变化保持不变的优点,文章采用了改进的SIFT特征点提取算法;在特征点匹配阶段,采用改进的RANSAC算法对特征点匹配对提纯;最后用加权平均法实现拼接图像的融合;实验证明,该算法有效提高了图像拼接的效率和准确性,拼接精度可以达到亚像素级。  相似文献   

17.
传统慢特征分析(SFA)方法提取的慢变特征不能揭示自然图像的视觉空间拓扑结构。基于此,提出基于视觉选择性的离变焦图像序列慢变特征提取算法。以myTICA方法替代源SFA算法的PCA方法,提取能够反映自然图像离变焦图像序列的视觉空间基的种类、每类元素数量、类内与类间拓扑结构不变性的Gabor特征,并建立与该序列对应的不变性特征森林;利用蒙特卡洛马尔可夫(MCMC)算法替代源SFA算法的多项式扩张方法,实现Gabor类内的元素扩展;利用自定义的近似正交剪枝算法实现不变性特征森林的优化,顺次解决元素法的采样丢失与森林优化问题;利用自定义响应度计算规则实现特征匹配。实验结果表明:该算法正确可行,具有较好的抗噪能力;在实验阈值为0.4时,算法获得识别率为99.96%,说明该算法具有较强的分类能力。  相似文献   

18.
This work is dedicated to develop an algorithm for the visual quality recognition of nonwoven materials, in which image analysis and neural network are involved in feature extraction and pattern recognition stage, respectively. During the feature extraction stage, each image is decomposed into four levels using the 9-7 bi-orthogonal wavelet base. Then the wavelet coefficients in each subband are independently modeled by the generalized Gaussian density (GGD) model to calculate the scale and shape parameters with maximum likelihood (ML) estimator as texture features. While for the recognition stage, the robust Bayesian neural network is employed to classify the 625 nonwoven samples into five visual quality grades, i.e., 125 samples for each grade. Finally, we carry out the outlier detection of the training set using the outlier probability and select the most suitable model structure and parameters from 40 Bayesian neural networks using the Occam's razor. When 18 relevant textural features are extracted for each sample based on the GGD model, the average recognition accuracy of the test set arranges from 88% to 98.4% according to the different number of the hidden neurons in the Bayesian neural network.  相似文献   

19.
Lip contour extraction from color images using a deformable model   总被引:2,自引:0,他引:2  
The use of visual information from lip movements can improve the accuracy and robustness of a speech recognition system. In this paper, a region-based lip contour extraction algorithm based on deformable model is proposed. The algorithm employs a stochastic cost function to partition a color lip image into lip and non-lip regions such that the joint probability of the two regions is maximized. Given a discrete probability map generated by spatial fuzzy clustering, we show how the optimization of the cost function can be done in the continuous setting. The region-based approach makes the algorithm more tolerant to noise and artifacts in the image. It also allows larger region of attraction, thus making the algorithm less sensitive to initial parameter settings. The algorithm works on unadorned lips and accurate extraction of lip contour is possible.  相似文献   

20.
图像描述(Image captioning)是一个融合了计算机视觉和自然语言处理这两个领域的研究方向,本文为图像描述设计了一种新颖的显著性特征提取机制(Salient feature extraction mechanism,SFEM),能够在语言模型预测每一个单词之前快速地向语言模型提供最有价值的视觉特征来指导单词预测,有效解决了现有方法对视觉特征选择不准确以及时间性能不理想的问题.SFEM包含全局显著性特征提取器和即时显著性特征提取器这两个部分:全局显著性特征提取器能够从多个局部视觉向量中提取出显著性视觉特征,并整合这些特征到全局显著性视觉向量中;即时显著性特征提取器能够根据语言模型的需要,从全局显著性视觉向量中提取出预测每一个单词所需的显著性视觉特征.本文在MS COCO(Microsoft common objects in context)数据集上对SFEM进行了评估,实验结果表明SFEM能够显著提升基准模型(baseline)生成图像描述的准确性,并且SFEM在生成图像描述的准确性方面明显优于广泛使用的空间注意力模型,在时间性能上也大幅领先空间注意力模型.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号