首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 203 毫秒
1.
传统独立元分析(Independent Component Analysis,ICA)用于人脸识别首先是将人脸图像矩阵转换成向量求白化矩阵,然后利用快速固定点算法求分离矩阵,获得人脸图像独立基子空间,从而实现人脸识别.二维主元分析(Two-dimensional Principle Component Analysis,2DPCA)无须将人脸图像矩阵转换成向量,直接利用二维人脸图像矩阵求协方差矩阵,其特征值与特征向量的计算得到简化.本文结合2DPCA与ICA算法的特点,提出2DPCA-ICA人脸识别算法.该方法通过2DPCA算法计算白化矩阵;接着利用ICA算法获得人脸图像的独立元;然后构造独立基子空间;最后依据测试样本在独立基子空间上的投影特征实现人脸识别.基于ORL与Yale人脸数据库的实验结果表明,2DPCA-ICA算法正确识别率与识别效率均高于PCA-ICA算法与2DPCA算法,是一种有效的人脸识别方法.  相似文献   

2.
针对传统二维主成分分析(two-dimensional principal component analysis, 2DPCA)算法应用于焊缝表面缺陷识别中存在重构性能及鲁棒性较弱等问题,本文将最大化投影距离和最小化重构误差引入到目标函数中,提出了一种基于F范数的非贪婪二维主成分分析算法(non-greedy 2DPCA with F-norm, NG-2DPCA-F),该算法具有良好的鲁棒性和较低的重构误差。为了进一步提取图像的结构信息和求解出维数更小的特征矩阵,进而提出一种基于F范数的非贪婪双向二维主成分分析算法(non-greedy bilateral 2DPCA with F-norm, NG-B2DPCA-F)。最后,以含有不同噪声块的焊缝表面图像数据集进行实验,结果表明,本文所提算法在平均重构误差、重构图像与分类识别实验中均表现出良好的鲁棒性能。  相似文献   

3.
从最优化的角度出发,提出了一种基于分块小波变换和二维主成分分析法(2DPCA)的人脸特征提取与识别算法。该方法首先对人脸图像进行分块小波变换,并对各分块的高、低频分量进行组合处理,然后对小波系数特征应用2DPCA方法进行变换并将分块特征进行融合得到人脸鉴别特征,最后在ORL人脸库上应用支持向量机(SVM)对该特征进行分类识别。试验结果表明,该算法能有效地提高人脸识别性能,具有较短的识别时间和较高的识别准确率,优于传统的人脸识别方法。  相似文献   

4.
为了提高人脸识别的准确率,且考虑到训练样本的平均值不一定是训练样本分布中心,提出了改进的双向2DPCA人脸识别方法。首先,应用样本中间值代替样本的平均值来重建图像的总体散布矩阵,求解图像总体散布矩阵得到行列两个方向的最优投影向量,然后把人脸图像向这两个方向变换得到人脸识别特征矩阵,最后应用支持向量机进行分类识别。在ORL人脸库和Yale人脸库上对该算法进行实验研究,表明此方法在识别性能上优于普通的二维主成分分析和普通的双向二维主成分分析算法。  相似文献   

5.
流形学习方法可以有效地发现存在于高维图像空间的低维子流形并进行维数约简,但它是一种非监督学习方法,其鉴别能力反而不如传统的维数约简方法,而且流形学习方法大多没有明晰的投影矩阵,很难直接对新样本进行维数约简.针对这两个问题,提出一种新的有监督的核局部线性嵌入算法(SKLLE,supervised kernel local linear embedding).该算法通过非线性核映射将人脸样本投影到高维核特征空间,然后将人脸局部流形的结构信息和样本的类别信息进行有效地结合进行维数约简,提取低维鉴别流形特征用于分类.SKLLE算法不仅能发现嵌入于高维人脸图像的低维子流形,而且增强了局部类间的联系,同时对新样本有较好的泛化性,实验结果表明该算法能有效的提高人脸性别识别的性能.  相似文献   

6.
张瑞平 《电子技术》2012,(3):23-24,22
二维主成分分析方法是直接利用二维图像来构建方差矩阵的。为了充分利用样本类别信息,文章以类间散布矩阵特征向量作为投影方向进行特征抽取。首先用2DPCA先作一次横向压缩,对抽取出的特征矩阵再用2DPCA作一次纵向压缩。与传统二维主成分算法比较,极大压缩了特征的维数,加快了分类速度,提高了识别率。用ORL人脸数据库进行了实验验证,证明了本方法的可行性。  相似文献   

7.
刘明珠  武琪  李昌 《电视技术》2016,40(1):122-126
主成分分析法(PCA)是人脸识别传统方法之一,是模式识别中一种普遍的线性组合算法.传统PCA算法因光照等外界因素和计算量较大等问题导致识别率较低.为了抑制这些缺点,主要研究基于PCA人脸识别算法改进的二维主成分分析法(2DPCA)和在2DPCA算法的基础上进行第二次特征提取的2DDPCA算法,并对PCA,2DPCA,2DDPCA这3种人脸识别算法在ORL和Yale人脸数据库上进行实验.实验主要从两方面进行分析,特征向量的维数、训练样本数与识别率的关系以及3种方法分别在数据库的时间对比.实验结果表明,提出的2DDPCA算法在不明显降低识别率的基础上,能有效提高识别速率,重建性能好.  相似文献   

8.
针对现有的人脸识别算法由于光照、表情、姿态、面部遮挡等变化而严重影响识别性能的问题,提出了基于字典学习优化判别性降维的鲁棒人脸识别算法。首先,利用经典的特征提取算法PCA初始化降维投影矩阵;然后,计算字典和系数,通过联合降维与字典学习使得投影矩阵和字典更好地相互拟合;最后,利用迭代算法输出字典和投影矩阵,并利用经l2-范数正则化的分类器完成人脸的识别。在扩展YaleB、AR及一个户外人脸数据库上的实验验证了本文算法的有效性及鲁棒性,实验结果表明,相比几种线性表示算法,本文算法在处理鲁棒人脸识别时取得了更高的识别率。  相似文献   

9.
《现代电子技术》2019,(2):133-137
针对维吾尔族人脸在遮挡和非均匀光照下导致其识别率低的问题,提出Gabor和非负矩阵在频域内融合识别的算法。首先对复杂场景中维吾尔族人脸进行预处理;然后对有遮挡的维吾尔族人脸图像进行多尺度、多方向Gabor局部特征提取,并同时在频域中对实部和虚部分别进行稀疏非负矩阵分解算法提取特征,由于局部提取的特征维数较高,因此进一步做2DPCA降维处理;最后通过支持向量机分类方法对有遮挡和非均匀光照的维吾尔族人脸进行分类识别。实验结果表明,文中识别算法对遮挡和非均匀光照时在Yale、ORL、维吾尔族人脸数据库有较强的识别效果,在识别率和鲁棒性方面有明显提高。  相似文献   

10.
向英杰  杨桄  张俭峰  王琪 《红外技术》2017,39(12):1107-1113
二维主成分方法计算时间少,降维效果好,被成功应用到高光谱图像降维中.基于二维主成分方法,为挖掘高光谱图像的非线性信息,实现了分段行-列核2DPCA方法的降维,并对比分析了行-列2DPCA方法、分段行-列2DPCA方法和行-列核2DPCA方法的降维效果.利用相关性将高光谱图像划分为5个子空间,通过转换数据结构来实现行和列的核2DPCA变换,最后将行和列结果进行融合得到降维结果.降维结果表明,在较高信息保持率情况下,分段行-列核2DPCA方法具有最高的图像清晰度和边缘强度.不同地物像元像素折线图表明,分段行-列核2DPCA方法能更好地区分不同地物,可以很好地应用于地物分类和目标识别.  相似文献   

11.
基于小波域Curvelet变换的湍流图像去噪算法   总被引:1,自引:1,他引:0       下载免费PDF全文
王珺楠  邱欢  张丽娟  李阳  刘颖 《液晶与显示》2017,32(11):905-913
为了提高湍流图像的空间分辨率,提出了一种基于小波域Curvelet变换(wavelet domain Curvelet transform,WDCT)的湍流图像去噪算法。该算法根据湍流退化图像噪声的统计特性,结合贝叶斯萎缩方法优化阈值选择。首先,对含噪湍流图像进行单层二维离散小波变换,接着提取高频系数并对它作快速离散Curvelet变换,最后根据贝叶斯准则估计阈值T,改进阈值的自适应选取方法,获得最优阈值,最后给出湍流图像去噪实现过程。为验证本文算法,根据客观评价标准峰值信噪比(peak signal to noise ratio,PSNR)和均方根误差(mean square error,MSE),对模拟图像和实测湍流图像进行去噪实验。与DWT-NABayesShrink算法、UWT算法相比,视觉效果更好,PSNR值分别提高7.27%和4.92%,MSE值分别降低26.3%和23.1%。本文算法得到较清晰的目标图像,对湍流退化图像去噪有一定的应用价值。  相似文献   

12.
基于微分搜索的高光谱图像非线性解混算法   总被引:2,自引:0,他引:2       下载免费PDF全文
陈雷  郭艳菊  葛宝臻 《电子学报》2017,45(2):337-345
针对线性混合模型在实际高光谱图像解混过程中的局限性,提出一种新的基于微分搜索的非线性高光谱图像解混算法.在广义双线性模型的基础上采用重构误差作为解混的目标函数,将非线性解混问题转化为最优化问题.将目标函数中的待求参数映射为微分搜索过程中的位置变量,利用微分搜索算法对目标函数进行优化求解.在求解过程中,通过执行搜索范围控制等机制满足高光谱图像解混的约束要求,进而求得丰度系数和非线性参数,实现非线性高光谱图像解混.仿真数据和真实遥感数据实验结果表明,所提出的非线性解混算法可以有效克服线性模型下解混算法的局限性,避免了由于使用梯度类优化方法而易陷入局部收敛的问题,较之其它高光谱图像解混算法具有更好的解混精度.  相似文献   

13.
魏雪峰  刘晓 《激光技术》2013,37(4):519-522
为了提高图像分割的质量,采用2维最大熵最佳阈值方法,首先通过灰度区域确定该域像素的2维随机向量,在准则函数下求得到2维最大熵最佳阈值;接着通过递推优化对2维最大熵最佳阈值计算数据优化处理,减少重复性数据计算量;最后通过分割图像区域与原目标空间位置的互信息量最大准则,把误分割误差函数作为检测分割标准,给出了算法流程;并仿真出了不同算法的图像分割结果。结果表明,该算法得到图像分割的精度较高,没有背景与噪声的残留,保留了图像信息,执行速度快、分割效果视觉好、误分割误差最小。这对提升图像分割效率是有帮助的。  相似文献   

14.
Optimal CT scanning plan for long-bone 3-D reconstruction   总被引:1,自引:0,他引:1  
Digital computed tomographic (CT) data are widely used in three-dimensional (3-D) construction of bone geometry and density features for 3-D modelling purposes. During in vivo CT data acquisition the number of scans must be limited in order to protect patients from the risks related to X-ray absorption. The aim of this work is to automatically define, given a finite number of CT slices, the scanning plan which returns the optimal 3-D reconstruction of a bone segment from in vivo acquired CT images. An optimization algorithm based on a Discard-Insert-Exchange technique has been developed. In the proposed method the optimal scanning sequence is searched by minimizing the overall reconstruction error of a two-dimensional (2-D) prescanning image: an anterior-posterior (AP) X-ray projection of the bone segment. This approach has been validated in vitro on 3 different femurs. The 3-D reconstruction errors obtained through the optimization of the scanning plan on the 3-D prescanning images and on the corresponding 3-D data sets have been compared. 2-D and 3-D data sets have been reconstructed by linear interpolation along the longitudinal axis. Results show that direct 3-D optimization yields root mean square reconstruction errors which are only 4%-7% lower than the 2-D-optimized plan, thus proving that 2-D-optimization provides a good suboptimal scanning plan for 3-D reconstruction. Further on, 3-D reconstruction errors given by the optimized scanning plan and a standard radiological protocol for long bones have been compared. Results show that the optimized plan yields 20%-50% lower 3-D reconstruction errors  相似文献   

15.
Real time magnetic resonance imaging (MRI) is rapidly gaining importance in interventional therapies. An accurate motion estimation is required for mobile targets and can be conveniently addressed using an image registration algorithm. Since the adaptation of the control parameters of the algorithm depends on the application (targeted organ, location of the tumor, slice orientation, etc.), typically an individual calibration is required. However, the assessment of the estimated motion accuracy is difficult since the real target motion is unknown. In this paper, existing criteria based only on anatomical image similarity are demonstrated to be inadequate. A new criterion is introduced, which is based on the local magnetic field distribution. The proposed criterion was used to assess, during a preparative calibration step, the optimal configuration of an image registration algorithm derived from the Horn and Schunck method. The accuracy of the proposed method was evaluated in a moving phantom experiment, which allows the comparison with the known motion pattern and to an established criterion based on anatomical images. The usefulness of the method for the calibration of optical-flow based algorithms was also demonstrated in vivo under conditions similar to thermo-ablation for the abdomen of twelve volunteers. In average over all volunteers, a resulting displacement error of 1.5 mm was obtained (largest observed error equal to 4-5 mm) using a criterion based on anatomical image similarity. A better average accuracy of 1 mm was achieved using the proposed criterion (largest observed error equal to 2 mm). In both kidney and liver, the proposed criterion was shown to provide motion field accuracy in the range of the best achievable.  相似文献   

16.
张怀柱  向长波  宋建中  乔双   《电子器件》2008,31(2):661-664
为了确定图像分割的最佳阈值,提出了一种基于自适应遗传算法的图像分割方法.自适应遗传算法能够在保证种群多样性的同时保证算法的收敛性,克服了基本遗传算法的收敛性差、易早熟问题.以二维Fisher准则作为图像分割的评价标准,利用自适应遗传算法对其进行优化,得到最佳分割阈值.实验结果表明,与基本遗传算法相比,该算法不仅能够保证图像分割的精度,而且分割速度提高了约30%.  相似文献   

17.
18.
A true three-dimensional cone-beam reconstruction (TTCR) algorithm for direct volume image reconstruction from 2-D cone-beam projections is developed for the complete sphere geometry. The algorithm is derived from the parallel-beam true three-dimensional reconstruction (TTR) algorithm and is based on the modified filtered backprojection technique, which uses a set of 2-D space-invariant filters. The proposed algorithm proved to be superior in spatial resolution to the parallel-beam TTR algorithm and to offer better computational efficiency.  相似文献   

19.
崔治  邓曙光  肖卫初 《激光技术》2015,39(5):669-673
为了更好地实现3维激光扫描图像的去噪,提出一种融合直方图结构相似度(HSSIM)和残差比阈值的改进稀疏去噪算法。利用初始化过完备字典进行稀疏分解,以相似因子代替重构误差作为保真项,利用残差比阈值作为正交匹配追踪算法的迭代终止条件对图像进行去噪,获得了去噪后图像的峰值信噪比及HSSIM指标。结果表明,与基于db2小波变换、多尺度曲波变换和离散余弦变换的去噪方法相比,该算法能获得更好的峰值信噪比和HSSIM数据。在有效去除图像噪声的同时还能更有效地保留图像的细节特征。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号