首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 375 毫秒
1.
为了有效地对图像缺失数据进行恢复, 提出一种迭代张量高阶奇异值分解(HOSVD)图像缺失数据恢复方法。该方法首先利用拉格朗日乘子方法将张量核范数目标函数进行子问题分解操作, 简化了求解过程, 然后迭代地采用张量高阶奇异值分解阈值方法进行子问题求解, 最终得到恢复后的图像缺失数据。将矩阵奇异值阈值算法进行扩展而得的HOSVD阈值方法充分利用了图像内部和图像与图像之间的多重约束关系, 大大提高了恢复精度。模拟实验和真实图像实验结果显示该方法具有良好的缺失数据的恢复性能。  相似文献   

2.
融合多尺度分块局部二值模式和张量高阶奇异值分解提出一种人脸识别算法.优选不同尺度的MB-LBP算子组合提取图像纹理特征,构造人脸图像的3阶张量模型;利用HOOI算法进行张量高阶奇异值分解;基于HOSVD分解结果采用最邻近算法设计识别分类器.运用Yale数据库和自制数据库进行算法对比实验,验证算法的有效性,实验结果表明,基于Yale数据库,提出算法与LBP深度置信网络算法的识别精度一样高,均为98.667%;基于自制人脸数据库,该算法识别精度为100%.综上提出算法是一种有效的、可行的识别算法.  相似文献   

3.
融合朋友关系和标签信息的张量分解推荐算法   总被引:1,自引:0,他引:1  
针对大众标注网站项目推荐系统中存在数据矩阵稀疏性影响推荐效果的问题,考虑矩阵奇异值分解(SVD)能有效地平滑数据矩阵中的数据,以及朋友圈能够反映出一个人的兴趣爱好,提出了一种融合朋友关系和标签信息的张量分解推荐算法。首先,利用高阶奇异值分解(HOSVD)方法对用户-项目-标签三元组信息进行潜在语义分析和多路降维,分析用户、项目、标签三者间关系;然后,再结合用户朋友关系、朋友间相似度,修正张量分解结果,建立三阶张量模型,从而实现推荐。该模型方法在两个真实数据集上进行了实验,结果表明,所提算法与高阶奇异值分解的方法比较,在推荐的召回率和精确度指标上分别提高了2.5%和4%,因此,所提算法进一步验证了结合朋友关系能够提高推荐的准确率,并扩展了张量分解模型,实现用户个性化推荐。  相似文献   

4.
将基于凸优化的低秩矩阵恢复(LRMR)理论用于背景建模,当背景不稳定时,这种方法提取运动目标的效果不佳。由于矩阵的数据表示形式破坏了视频在时间和空间上的原始结构,本文采用张量表征视频的高维结构特性,提出了一种基于迭代张量高阶奇异值分解(HOSVD)的运动目标提取方法。本文用高阶奇异值分解代替LRMR中的矩阵奇异值分解(SVD),利用增广拉格朗日乘子法重建出三维视频张量的背景部分和运动目标部分,并进一步对运动目标部分进行形态学开闭运算。实验结果证明,相比常用方法, 本文方法错分率更低,能更准确完整地提取运动目标。  相似文献   

5.
研究了奇异值分解在图像压缩中的应用,把共轭梯度法和截断奇异值分解的正则化方法应用于图像恢复中,实验结果表明,这几种数学方法对图像压缩和恢复效果显著。  相似文献   

6.
张量是一种数据组织形式,它的实质是高维数组。很多数据都可以被组织成张量的形式。可以考虑将人脸图像组织成张量的形式。人脸识别过程中最重要的一个环节是特征提取, 后续的匹配识别过程是建立在它的基础上。TTr1SVD是一种新型的张量分解算法,可以认为该算法是矩阵SVD在张量领域的扩展。实际数据库里的图片的图像模态往往是最大的,结合TTr1SVD算法,得到张量的高阶奇异值分解,改变图片的组织形式,可以加速人脸特征的提取。本文基于TTr1SVD的高阶奇异值分解算法,实现人脸特征的提取和识别,并且保持了较好的准确性。实验结果表明,该算法比传统的使用Tensor Toolbox的高阶奇异值分解算法更加灵活高效。  相似文献   

7.
对大规模网络流量的异常检测是很重要的。主成分分析(PCA)方法基于对原有数据进行简化,在异常检测中得到了广泛应用。对高维数据应用高阶奇异值分解(HOSVD)和高阶正交迭代分解(HOOI)方法,仿真结果表明使用高阶方法进行异常检测提高了检测性能。  相似文献   

8.
随着互联网的飞速发展,产生大量的图像信息。为了减小存储并提高图像质量,故提出了一种基于奇异值分解和Contourlet变化结合的有损图像压缩算法。该算法先对图像进行奇异值分解,根据奇异值对图像信号的贡献,选取适当的奇异值,来实现图像压缩,再对图像进行Contourlet 变换和量化,实现图像二级压缩。将该算法和图像奇异值分解直接压缩算法、Contourlet变换压缩算法进行实验比较,试验结果表明,该算法比图像奇异值分解直接压缩算法、Contourlet变换压缩算法有更好的性能,在同样的压缩比的情况下能获得更高的峰值信噪比和SSIM。  相似文献   

9.
针对三元组数据内在关联性复杂的特点,提出了基于平行因子分解(PARAFAC)的协同聚类推荐算法。该算法利用PARAFAC算法对张量进行分解,挖掘多维数据实体之间的相关联系和潜在主题。首先,利用PARAFAC分解算法对三元组张量数据进行聚类;然后,基于协同聚类算法提出了三种不同方案的推荐模型,并通过实验对三种方案进行了比较,得到了最优的推荐模型;最后,将提出的协同聚类模型与基于高阶奇异值分解(HOSVD)的推荐模型进行比较。在last.fm数据集上,PARAFAC协同聚类算法比HOSVD张量分解算法在召回率和精确度上平均提高了9.8个百分点和3.7个百分点,在delicious数据集上平均提高了11.6个百分点和3.9个百分点。实验结果表明所提算法能更有效地挖掘出张量中的潜在信息和内在联系,实现高准确率和高召回率的推荐。  相似文献   

10.
低秩张量填充旨在基于不同张量分解模型恢复缺失数据,由于在挖掘一些高阶数据结构的具有明显的优势,低秩张量环模型已经被广泛应用于张量填充问题。先前的研究已经提出很多关于张量核范数的定义。然而,它们不能很好地近似张量真实的秩,也不能在优化环节利用低秩特性。因此,基于很好近似张量秩的截断平衡展开核范数,提出一种基于截断平衡展开核范数的鲁棒张量环填充模型。在算法优化部分,利用以前提出的矩阵奇异值分解和交替方向乘子法。实验证明,在图像恢复和视频的背景建模问题上,效果比其他算法好。  相似文献   

11.
In this paper, we propose a new approach for 3D face verification based on tensor representation. Face challenges, such as illumination, expression and pose, are modeled as a multilinear algebra problem where facial images are represented as high order tensors. Particularly, to account for head pose variations, several pose scans are generated from a single depth image using Euler transformation. Multi-bloc local phase quantization (MB-LPQ) histogram features are extracted from depth face images and arranged as a third order tensor. The dimensionality of the tensor is reduced based on the higher-order singular value decomposition (HOSVD). HOSVD projects the input tensor in a new subspace in which the dimension of each tensor mode is reduced. To discriminate faces of different persons, we utilize the Enhanced Fisher Model (EFM). Experimental evaluations on CASIA-3D database, which contains large head pose variations, demonstrate the effectiveness of the proposed approach. A verification rate of 98.60% is obtained.  相似文献   

12.
This paper proposes a new method to estimate the crowd density based on the combination of higher-order singular value decomposition (HOSVD) and support vector machine (SVM). We first construct a higher-order tensor with all the images in the training set, and apply HOSVD to obtain a small set of orthonormal basis tensors that can span the principal subspace for all the training images. The coordinate, which best describes an image under this set of orthonormal basis tensors, is computed as the density character vector. Furthermore, a multi-class SVM classifier is designed to classify the extracted density character vectors into different density levels. Compared with traditional methods, we can make significant improvements to crowd density estimation. The experimental results show that the accuracy of our method achieves 96.33%, in which the misclassified images are all concentrated in their neighboring categories.  相似文献   

13.
In this paper we present two algorithms for handwritten digit classification based on the higher order singular value decomposition (HOSVD). The first algorithm uses HOSVD for construction of the class models and achieves classification results with error rate lower than 6%. The second algorithm uses the HOSVD for tensor approximation simultaneously in two modes. Classification results for the second algorithm are almost down at 5% even though the approximation reduces the original training data with more than 98% before the construction of the class models. The actual classification in the test phase for both algorithms is conducted by solving a series least squares problems. Considering computational amount for the test presented the second algorithm is twice as efficient as the first one.  相似文献   

14.
We clarify the mathematical equivalence between low-dimensional singular value decomposition and low-order tensor principal component analysis for two- and three-dimensional images. Furthermore, we show that the two- and three-dimensional discrete cosine transforms are, respectively, acceptable approximations to two- and three-dimensional singular value decomposition and classical principal component analysis. Moreover, for the practical computation in two-dimensional singular value decomposition, we introduce the marginal eigenvector method, which was proposed for image compression. For three-dimensional singular value decomposition, we also show an iterative algorithm. To evaluate the performances of the marginal eigenvector method and two-dimensional discrete cosine transform for dimension reduction, we compute recognition rates for six datasets of two-dimensional image patterns. To evaluate the performances of the iterative algorithm and three-dimensional discrete cosine transform for dimension reduction, we compute recognition rates for datasets of gait patterns and human organs. For two- and three-dimensional images, the two- and three-dimensional discrete cosine transforms give almost the same recognition rates as the marginal eigenvector method and iterative algorithm, respectively.  相似文献   

15.
基于表情分解-扭曲变形的人工表情合成算法   总被引:1,自引:0,他引:1       下载免费PDF全文
为了能快速有效地生成任意强度的人脸表情图像,提出了一种鲁棒的可以生成带任意强度表情图像的人工表情合成算法,该算法首先通过施加高阶奇异值分解(HOSVD)来把训练集分解为个人、表情和特征3个子空间,并把它们映射到表情子空间中,用来合成任意人脸正面照片的任意强度、任意表情的图像;在生成图像时,不采用通常所使用的线性组合基图像生成法,而是对源图像进行扭曲变形,这不仅能使训练数据和计算量大为减少,还可以生成任意尺寸、任意背景、任意光照、任意色彩或任意姿势的表情图像,且通过二次插值,还可以得到任意强度的表情图像。实验证明,该算法效率较高,且生成的图像效果很好。  相似文献   

16.
针对常规波束形成无法充分发挥矢量阵抗干扰性能的问题,提出了基于信号子空间投影的波束形成方法.对声矢量阵接收信号进行三阶张量建模,利用高阶奇异值分解得到信号子空间,并将阵列流形矢量投影于其上,从而得到相应的空间谱计算方法.计算机仿真试验验证了该方法的有效性.  相似文献   

17.
提出了基于流形的表情分解算法。首先,运用保局投影将图像投影到低维的表情流形子空间,再在流形子空间里对它们进行高阶奇异值分解,最后在个人子空间和表情子空间里完成人脸和表情识别。该算法用流形学习解决了高阶奇异值分解中的图像特征值提取问题,用高阶奇异值分解解决了流形表情识别中个人模式影响表情识别的问题。是一种流形学习与高阶奇异值分解优势互补的算法。在CMU-AMP和JAFFE人脸库上的实验表明,该算法对人脸和表情识别都十分有效。  相似文献   

18.
本文为了改善动态MR图像重建质量,提出了一种结合张量奇异值分解和全变分稀疏模型(TV)的动态核磁共振图像重建算法。算法对动态MR图像进行了低秩约束规范和稀疏约束规范,分别使用了张量奇异值分解阈值方法和全变分稀疏变化基方法求解。实验结果和重建视觉效果表明,在相同采样率下本文算法与单独使用全变分方法,k-t SLR方法,单独使用张量奇异值分解方法相比重建质量更优,在峰值信噪比(PSNR),均方差(MSE)和结构相似性度量(SSIM)的评价指标上有所提高,对图像去噪去模糊重建有具体的应用价值。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号