共查询到17条相似文献,搜索用时 78 毫秒
1.
2.
数字图像取证中,目前的重采样检测算法都是检测图像中是否存在插值过程引入的周期性,而周期性的判定一般通过在频域的幅度谱中寻找峰值来进行,进而通过峰值的位置来计算重采样因子。但是由于重采样过程中的频率混叠问题导致了重采样因子不能完全确定。针对这个问题,本文提出一种时域中计算重采样因子的方法。重采样图像中每个像素行(或列)和相邻行(或列)的冗余性大小不同,并且冗余性大小呈现出周期性的分布。通过检测此特征就可以实现对重采样的取证,并且确定重采样因子。实验显示,在未压缩的图像中算法可以正确地估计出所有重采样因子,在压缩图像中本文的算法较之前的算法也有明显的优势。 相似文献
3.
基于图像纹理复杂度和奇异值分解的重采样检测 总被引:1,自引:0,他引:1
针对图像篡改时可能会经历重采样操作,而重采样过程中的插值步骤会对重采样图像像素引入一定的线性相关性的问题,提出一种重采样检测算法.采用奇异值分解度量像素间的线性相关性,针对纹理复杂程度不同的子像素块分析插值处理对其线性相关性的影响;以零奇异值个数和奇异值均值作为分类特征,结合SVM进行重采样检测.实验结果表明,该算法能够实现对重采样图像和原始图像的准确分类. 相似文献
4.
在图像篡改中常使用几何变换、JPEG(Joint Photographic Experts Group)压缩以及模糊操作,其特性是图像伪作检测的依据。首先定义兼顾重采样和JPEG压缩特性的块度量因子,将待测图像重叠分块计算块度量因子,利用其值的不一致性来检测定位篡改区域。实验结果表明,与现有针对性单一的检测方法相比,该方法可以检测更多篡改组合模式下的篡改操作并能有效定位出篡改区域,且对于有损JPEG压缩具有较好的鲁棒性。其次,提出一种检测模糊痕迹的方法。利用一定的模糊核对待测图像进行再次模糊,计算模糊前后两图像的像素差值,根据差值图像值的不同分类完成模糊篡改区域的定位。实验结果表明,该方法能实现对不同模糊方式的盲检测,且对JPEG压缩的抵抗能力较好,同时与现有基于分块检测的方法相比,大大降低了计算复杂度且能检测出较细小的模糊痕迹。 相似文献
5.
6.
7.
数字图像被动盲取证是指在不依赖任何预签名提取或预嵌入信息的前提下,对图像的真伪和来源进行鉴别和取证。图像在经篡改操作时,为了消除图像在拼接边缘产生的畸变,篡改者通常会采用后处理消除伪造痕迹,其中,模糊操作是最常用的手法之一。提出一种人工模糊痕迹检测方法。将经过模糊操作后图像像素之间存在的高度相关性进行模型化表示;采用EM算法估算出图像中每个像素属于上述模型的后验概率;根据所得后验概率的大小进行模糊操作检测。实验结果表明,该算法能够有效地检测出篡改图像中的人工模糊痕迹,并对不同模糊类型、有损JPEG压缩以及全局缩放操作均具有较好的鲁棒性。 相似文献
8.
利用篡改后JPEG图像量化表不一致的特性,提出一种针对JPEG图像的篡改盲检测新方法。通过智能选取若干图像块,迭代估计出待测图像的原始量化表,大致定位出篡改区域。然后用估计出的原始量化表对篡改区域再进行一次JPEG压缩,由压缩前后图像像素值的差值最终确定篡改位置。实验结果表明,提出的估计量化表算法复杂度小,精度高。检测算法能有效地检测出多种篡改类型的JPEG图像,且对篡改区域和未篡改区域压缩因子相差较小的JPEG合成类篡改,检测正确率更高。 相似文献
9.
图像编辑工具的普及导致JPEG图像越来越容易被篡改,其中重采样操作方法通过几何变换能够使伪造的图像更加逼真,因此对JPEG图像进行重采样检测至关重要。传统的光谱分析法依据差分图像相邻极值的间隔遵循几何分布,以及在直方图上的峰值呈现周期性,通过峰值分析对下采样因子进行估计,但由于图像纹理统计特征的周期性干扰了直方图的提取,导致检测准确性较低。提出一种用于JPEG预压缩图像降尺度因子检测的纹理免疫块效应分析算法,利用快速导向滤波对图像进行预处理,并去除图像的纹理和噪声。使用Canny算子对滤波后的图像进行边缘检测,以减轻周期性边缘的干扰,对图像进行交叉差分,从而凸显块效应,提高JPEG图像降尺度因子估计的准确性。在此基础上,结合极大似然估计和谱分析得出降尺度因子的估计值,减小估计误差。实验结果表明,该算法能有效削弱图像纹理对重采样估计的影响,具有较强的纹理免疫能力。 相似文献
10.
数字图像在进行拼接篡改时,为了不留下视觉上的明显篡改痕迹,往往会对篡改的区域进行缩放、旋转等重采样操作。针对这一现象,本文提出一种新的基于重采样检测的JPEG图像拼接篡改取证算法,该算法通过对JPEG图像局部区域二阶导数进行Radon变换,并求其自协方差后进行快速傅里叶变换,在频域中消除JPEG压缩的影响,最后判断该局部区域是否经过重采样操作,以作为判断被检测的JPEG图像是否经过拼接篡改的证据。实验结果表明,本文算法对于经过包括缩放和旋转等重采样操作后拼接成的JPEG图像有较好的篡改取证效果。 相似文献
11.
数字图像的盲取证技术由于不依赖任何预嵌入的信息来鉴别图像真实性和完整性的优势,正逐步成为数字媒体安全领域新的研究热点。由于JPEG图像是目前最流行的图像格式,并且块效应是JPEG图像与生俱来的本质特征,因此如何更加有效地利用块效应特征对JPEG图像的真伪进行盲取证研究具有非常重要的现实意义和应用价值。首先对目前国内外利用JPEG图像编码特性的盲取证方法进行归类分析;然后重点针对利用块效应特征的JPEG图像盲取证技术展开讨论,详细介绍并总结了基于块效应测度和基于块效应网格提取的两类盲取证算法的核心思想和局限性;最后提出了存在的问题及未来的研究方向。 相似文献
12.
针对图像中的重采样篡改操作导致的离散余弦变换(DCT)系数之间相关性的变化,提出了一种新的图像重采样篡改检测方法。首先,提取Markov特征,利用高阶统计量分析重采样图像中离散余弦变换系数之间的关系;然后,将图像所在的笛卡儿坐标映射到伪极坐标(Pseudo-Polar)轴上提取图像的光滑度作为纹理特征,利用纹理特征检测图像的重采样操作;最后,将提取的两类特征输入到支持向量机(SVM)中训练和分类,从而检测出图像中的重采样篡改操作。实验结果表明:所提方法可以检测出图像中的重采样篡改操作,并具有较好的检测率,且对于一定范围内的加噪处理也具有鲁棒性。 相似文献
13.
14.
数字图像取证技术是一门不依赖任何图像先验知识而对图像来源和内容真实性进行认证的新兴技术。重采样检测是数字图像取证的一个重要分支,已成为当前的研究热点。详细分析对比了两类图像重采样盲检测算法:基于期望值最大化的重采样检测和基于差分周期特性的重采样检测,并对当前应用和后续研究进行相关论述。 相似文献
15.
魏为民 《计算机工程与应用》2010,46(34):164-166
数字图像被动认证技术是一门不依赖数字水印或者签名等图像先验知识而对图像来源和内容真实性进行认证的新兴技术,JPEG图像篡改的盲检测已成为当前被动认证的研究热点。详细分析了三种基于JPEG压缩的盲检测算法:JPEG压缩历史检测和量化表的估计,块效应不一致性的篡改区域检测,JPEG二次压缩的检测,系统阐明了现有算法的基本特征和优缺点,最后展望了未来的研究方向。 相似文献
16.
17.
本文提出了一种用于图像认证和篡改检测的稳健图像摘要。该算法利用Zernike矩的幅度和修正后的相位旋转不变性生成图像摘要(图像Hash)。图像Hash之间的相似性用汉明距离度量。仿真结果表明该方法对大部分内容不变的图像操作具有鲁棒性。不同图像对Hash之间的汉明距离远大于阈值,因此该方法可用于图像认证。同时该方法还可以检测图像篡改并可以定位图像篡改的位置。 相似文献