共查询到18条相似文献,搜索用时 78 毫秒
1.
2.
Sobel算子作为一种经典有效的边缘检测算子,在图像分割等图像处理技术中得到了广泛的应用。该算子在提取图像边缘的速度上具有明显的优势,但也存在对噪声敏感、出现伪边缘或者过度平滑图像等缺点。为了解决这些问题,提出了一种优化的边缘检测方案。该方案将加权核范数最小化(WNNM)图像去噪算法与Sobel边缘检测算法相结合,首先采用加权核范数最小化图像去噪算法的优良去噪性能,去除图像中一些敏感的噪声。经过该方法滤波后的图像,大大提高Sobel算子检测的准确度。该算法采用低秩图像去噪算法对传统的边缘检测算法进行改进。实验结果表明,该优化算法在处理含噪图像时能获得较好的检测效果,并且随着噪声强度的增加,该算法的优势更加明显;在高噪声水平下能够获得清晰连续的边缘信息,从而验证了算法的有效性。 相似文献
3.
在复杂动态背景下,鲁棒主成分分析模型(RPCA)容易将背景中动态背景误判为前景运动目标,导致运动目标检测精度不高。为解决该问题,提出一种基于非凸加权核范数的时空低秩RPCA算法。使用非凸加权核范数替代传统的核范数进行低秩约束,在观测矩阵上通过拉普拉斯特征映射得到时空图拉普拉斯矩阵,将得到的时空图拉普拉斯矩阵嵌入低秩背景矩阵以保持背景对噪声和离群值的鲁棒性。实验结果表明,所提模型在复杂场景中能较准确检测出运动目标。 相似文献
4.
目的 高光谱图像复原是高光谱领域中一个重要的预处理步骤,能够有效去除成像条件所带来的不利影响,提升后续处理任务的精度。张量核范数被广泛应用于高光谱复原问题中,得到了较好的结果。然而,在张量核范数的定义中,它对张量所有奇异值使用相同的阈值进行收缩,未充分考虑高光谱的物理意义,得到了次优的结果。为了提升高光谱图像复原的精度,本文提出了基于频率加权张量核范数的高光谱复原算法。方法 在张量的频率域内,对清晰的高光谱图像添加噪声,图像信息在低频部分变化较小,而在高频部分变化巨大。基于这样的物理意义,定义了一种频率加权张量核范数来逼近张量秩函数,提出了频率域权重的自适应确定方法,让其能减少对低频部分的收缩,同时加大高频部分惩罚。然后将其应用于高光谱图像复原和去噪问题中,并基于交替方向乘子法设计了相应最小化问题的快速求解算法。结果 在4个高光谱数据集上与相关方法进行对比仿真实验,高采样率条件下在Washington DC Mall数据集上,相比性能第2的模型,本文模型复原结果的PSNR (peak signal-to-noise ratio)提升了1.76 dB;在Stuff数据集上,PSNR值提升了2.91 dB。高噪声条件下,在Pavia数据集上相比性能第2的模型,本文模型去噪结果的PSNR提升了8.61 dB;在Indian数据集上,PSNR值提升了10.77 dB。结论 本文模型可以更好地探索高光谱图像的低秩特性,使复原的图像在保持主体信息的同时,复原出更多图像纹理细节。 相似文献
5.
聚焦于非凸的低秩逼近模型,提出了一类定义在矩阵奇异值上的非凸函数g,实际上很多著名的非凸函数都满足g函数的条件。将g函数引入带权核范数最小化模型得到更一般的模型,可以很好地解决模型中的权重选择问题。将该模型应用于图像去噪领域,并针对该模型给出收敛的求解算法。仿真实验表明, 相对其他先进的算法所提方法更具优势。 相似文献
6.
结合人体运动数据的低秩性、噪声稀疏性和时序稳定性,将人体运动捕获数据恢复问题建模为低秩矩阵填充问题.不同于传统方法采用核范数作为矩阵秩函数的凸松弛,引入了非凸的矩阵Capped核范数(CaNN).首先,建立基于CaNN正则化的人体运动捕获数据恢复模型;其次,利用交替方向乘子法,结合截断参数自适应学习与(逆)离散余弦傅里叶变换对模型进行快速求解;最后,在CMU数据集和HDM05数据集上,将CaNN模型与经典的TSMC,TrNN,IRNN-Lp和TSPN模型进行对比实验.恢复误差和视觉效果比较结果表明,CaNN能够有效地对失真数据进行恢复,且恢复后的运动序列与真实运动序列逼近度较高. 相似文献
7.
8.
目的 扩散加权成像技术是一种能够检测活体组织内水分子扩散运动的无创方法,其对数据的准确度要求较高且对噪声较为敏感。扩散加权图像的自相似性程度高,纹理细节较多且纹理和结构具有重复出现的特性。而获取图像的过程中受到不可避免的噪声干扰会破坏图像的数据准确度,因此对扩散加权图像进行降噪是十分必要的。方法 根据扩散加权图像的特点,提出将加权核范数降噪算法应用于扩散加权图像的降噪。加权核范数降噪算法由于能够利用图像的自相似性,通过对图像中的相似块进行处理从而实现对图像的降噪,该算法能够保存图像中大量的纹理细节信息。结果 通过模拟数据实验和真实数据实验,将加权核范数降噪算法与传统的扩散加权图像降噪算法如各向异性算法进行比较,结果表明,加权核范数降噪算法相较于其他算法得到的峰值信噪比至少高出20 dB,结构相似性值也至少高出其他算法0.20.5,再将降噪后的图像进行神经纤维跟踪处理,得到的神经纤维平均长度较其他算法至少要长0.20.8且纤维更为平滑。结论 加权核范数降噪算法不仅能够更好地减少扩散加权图像中的噪声,同时也能够最大限度地保存扩散加权图像的纹理细节,降噪效果理想,提高了数据的准确度及有效性。 相似文献
9.
10.
针对过完备字典直接对图像进行稀疏表示不能很好地剔除高频噪声的影响,压缩感知后图像重构质量不高的问题,提出了基于截断核范数低秩分解的自适应字典学习算法。该算法首先利用截断核范数正则化低秩分解模型对图像矩阵低秩分解得到低秩部分和稀疏部分,其中低秩部分保留了图像的主要信息,稀疏部分主要包含高频噪声及部分物体轮廓信息;然后对图像低秩部分进行分块,依据图像块纹理复杂度对图像块进行分类;最后使用K奇异值分解(K-single value decomposition, K-SVD)字典学习算法,针对不同类别训练出多个不同大小的过完备字典。仿真结果表明,本文所提算法能够对图像进行较好的稀疏表示,并在很好地保持图像块特征一致性的同时显著提升图像重构质量。 相似文献
11.
Sparse representation has been widely used in signal processing, pattern recognition and computer vision etc. Excellent achievements have been made in both theoretical researches and practical applications. However, there are two limitations on the application of classification. One is that sufficient training samples are required for each class, and the other is that samples should be uncorrupted. In order to alleviate above problems, a sparse and dense hybrid representation (SDR) framework has been proposed, where the training dictionary is decomposed into a class-specific dictionary and a non-class-specific dictionary. SDR puts constraint on the coefficients of class-specific dictionary. Nevertheless, it over-emphasizes the sparsity and overlooks the correlation information in class-specific dictionary, which may lead to poor classification results. To overcome this disadvantage, an adaptive sparse and dense hybrid representation with nonconvex optimization (ASDR-NO) is proposed in this paper. The trace norm is adopted in class-specific dictionary, which is different from general approaches. By doing so, the dictionary structure becomes adaptive and the representationability of the dictionary will be improved. Meanwhile, a nonconvex surrogate is used to approximate the rank function in dictionary decomposition in order to avoid a suboptimal solution of the original rank minimization, which can be solved by iteratively reweighted nuclear norm (IRNN) algorithm. Extensive experiments conducted on benchmark data sets have verified the effectiveness and advancement of the proposed algorithm compared with the state-of-the-art sparse representation methods. 相似文献
12.
针对低秩与稀疏方法一般将前景看作背景中存在的异常像素点,从而使得在复杂场景中前景检测精确度下降的问题,提出一种结合加权Schatten-p范数与3D全变分(3D-TV)的前景检测模型。该模型首先将观测数据三分为低秩背景、运动前景和动态干扰;然后利用3D全变分来约束运动前景,并加强对前景目标时空连续性的先验考虑,有效抑制了不连续动态背景异常点的随机扰动;最后利用加权Schatten-p范数约束视频背景的低秩性能,去除噪声干扰。实验结果表明,与鲁棒主成分分析(RPCA)、高阶RPCA(HoRPCA)和张量RPCA(TRPCA)等模型相比,所提模型的综合衡量指标F-measure值是最高的,查全率与查准率也处于最优或次优状态。由此可知,所提模型在动态背景、恶劣天气等复杂场景中能有效提高运动目标的提取精确度,且提取的前景目标视觉效果较好。 相似文献
13.
采用运动点团模式对鱼眼视频序列中的目标检测方法进行了研究和探讨。运动点团模式的运动目标检测分为三个层次,每个层次对应一个具体的检测算法,即基于像素层的背景提取和更新、运动点团层的点团检测和判定及运动目标层的目标标记和跟踪。对三个算法的原理进行了探讨,并结合鱼眼图像的特点进行了算法改进和优化。实验结果表明,以运动点团作为中间检测过程的方法能有效对圆形鱼眼视频序列中的多个运动目标进行检测,特别是图像边缘的大畸变、低分辨率目标,相比传统的检测方法具有更好的检测稳定性和准确性,在大范围智能视频监控中具备很好的实际应用价值。 相似文献
14.
针对高维度矩阵的低秩恢复问题中核范数与l1范数过惩罚导致的结果偏差,提出一种矩阵恢复方法。使用准范数代替低秩恢复问题中常用的核范数约束,使用零范数代替l1范数约束。对于准范数的求解问题,采用与准范数等价的Frobenius/核混合范数进行替代,提出基于交替近似的线性最小化方法对目标函数进行求解。在合成数据与真实数据上的实验结果表明,该算法在主观视觉效果与客观数值比较上都能获得更好的结果。 相似文献
15.
16.
针对传统的低秩稀疏分解模型不能直接应用到单幅图像进行目标检测,且忽略了目标像素的空间结构性导致检测精度不高等问题,提出一种基于低秩和结构化稀疏的单幅大雾图像小目标检测算法。首先,对原始大雾图像进行预处理得到由局部子图像构成的大雾补片图像,将小目标检测问题转化为低秩和稀疏分解问题。然后,考虑到目标像素间的空间结构关系,在对大雾补片图像进行矩阵分解时,引入结构化稀疏诱导范数对目标进行约束。最后,将矩阵分解得到的补片图像进行后处理得到背景图像和目标图像。通过对单幅大雾图像实验仿真表明,所提算法确保了小目标检测的完整性并且提高了检测精度。 相似文献
17.
车载LFMCW雷达多运动目标探测算法研究 总被引:1,自引:0,他引:1
针对传统的线性调频连续波(LFMCW)雷达在进行运动多目标配对的局限性,提出结合变周期LFMCW作为发射信号波形,采用质心凝聚处理进行多目标配对的新方法,有效提高了处理算法的实时性,合理设置凝聚中心宽度阈值,可实现目标的准确配对和距离速度去耦合,测试结果显示:配对误差均控制在5%以内. 相似文献
18.
Dawei ZHANG Peng WANG Yongfeng DONG Linhao LI Xin LI 《Frontiers of Computer Science》2024,18(2):182306
Moving target detection is one of the most basic tasks in computer vision. In conventional wisdom, the problem is solved by iterative optimization under either Matrix Decomposition (MD) or Matrix Factorization (MF) framework. MD utilizes foreground information to facilitate background recovery. MF uses noise-based weights to fine-tune the background. So both noise and foreground information contribute to the recovery of the background. To jointly exploit their advantages, inspired by two framework complementary characteristics, we propose to simultaneously exploit the advantages of these two optimizing approaches in a unified framework called Joint Matrix Decomposition and Factorization (JMDF). To improve background extraction, a fuzzy factorization is designed. The fuzzy membership of the background/foreground association is calculated during the factorization process to distinguish their contributions of both to background estimation. To describe the spatio-temporal continuity of foreground more accurately, we propose to incorporate the first order temporal difference into the group sparsity constraint adaptively. The temporal constraint is adjusted adaptively. Both foreground and the background are jointly estimated through an effective alternate optimization process, and the noise can be modeled with the specific probability distribution. The experimental results of vast real videos illustrate the effectiveness of our method. Compared with the current state-of-the-art technology, our method can usually form the clearer background and extract the more accurate foreground. Anti-noise experiments show the noise robustness of our method. 相似文献