首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 406 毫秒
1.
一种基于视觉特性的图像摘要算法   总被引:8,自引:1,他引:8  
为了使图像摘要具有更高的鲁棒性。提出了一种基于视觉特性的图像摘要算法,该算法通过增大人眼敏感的频域系数在计算图像Hash时的权重以使得图像Hash更好地体现视觉特征,并提高鲁棒性。算法首先将原始图像的分块DCT系数乘以若干由密钥控制生成的伪随机矩阵,再对计算的结果进行基于分块的Watson人眼视觉特性处理,最后进行量化判决以产生固定长度的图像Hash序列。实验结果表明,该算法与末采用视觉特性的算法相比,高了对JPEG压缩和高斯漩波的鲁棒性、图像摘要序列由密钥控制生成,因而具有安全性。  相似文献   

2.
基于秘密共享的感知鲁棒图像Hash算法   总被引:1,自引:0,他引:1  
数字图像在经过保持图像主要内容不变的操作后虽数字表示会发生变化,但其视觉感知效果不变,对应的图像Hash值也应不变,传统密码学中的Hash函数因其对数据每个比特变化的敏感性而不适合直接应用于图像Hash的计算.针对这一问题,提出一种有效的感知鲁棒图像Hash算法,并可应用于图像检索和图像认证等领域.首先通过图像缩放和基于整体变分的非线性滤波等操作对输入图像进行正则化预处理;接着在DCT域提取图像分块与其邻域的低频系数符号关系特征矩阵,该特征可反映图像局部视觉内容的分布特性;最后利用秘密共享机制对提取出的特征矩阵进行压缩得到依赖于密钥的二进制序列,置乱后即作为最终的图像Hash值.实验结果表明,该算法对常见保持图像内容不变的操作,如JPEG压缩、高斯低通滤波及图像缩放等具有较好的感知鲁棒性,同时对于视觉显著不同的图像具有极低的冲突概率.  相似文献   

3.
通过小波变换、伪随机分块以及奇异值分解,提出了一种安全的、鲁棒性较强的图像Hash方法。小波变换后将低频子带伪随机分割成相互重叠的子图像块,这样可以更好地获得图像的主要信息,块的重叠可以获得比分块更小的篡改区域的信息;伪随机分块和伪随机置乱,使得攻击者在不知道密钥的情况下无法伪造Hash,增强了Hash的安全性。实验表明,该方法对JPEG压缩、中值滤波、添加噪音、扭曲、图像缩放以及轻微的几何变换等内容保持不变的操作具有较好的鲁棒性,对于内容不同和局部篡改的操作具有一定的敏感性。  相似文献   

4.
为了实现图像认证,提出了基于混沌理论的图像hash算法。算法首先将原始图像经过置乱得到加密图像,然后对差值矩阵进行调制,量化,得到固定长度的图像Hash序列,算法讨论了图像的缩放和JPEG压缩对图像Hash序列的影响,当阈值为0.1时,对以上提到的攻击方法进行了实验,结果表明图像对这两种攻击具有一定的鲁棒性。  相似文献   

5.
邓绍江  王方晓  张岱固  王瑜 《计算机应用》2008,28(11):2804-2807
研究了基于图像灰度级压缩的直方图差值量化(DQH)技术,并结合混沌系统,提出了一种新的感知图像Hashing算法。算法首先利用混沌系统把压缩后的图像中各个灰度级的出现概率调制成一个固定长度的中间Hash序列;然后将中间Hash序列经过差值量化和二值量化得到最终的图像Hash序列。仿真结果表明,该算法对JPEG压缩、低通滤波、图像缩放和旋转等操作有良好的鲁棒性,而且混沌系统的引入使算法具有较强的安全性。  相似文献   

6.
基于角点检测的稳健图像摘要   总被引:2,自引:0,他引:2       下载免费PDF全文
图像摘要(Hash)是将数字图像映射为一串短的数,在图像认证、图像内容检索、数字水印等方面有广泛应用。提出了应用Harris角点检测和奇异值分解的图像Hash算法,首先在图像中选取对灰度变化和旋转稳健的Harris角点,对这些稳健特征点周围图像块的奇异值进行量化以实现数据压缩,经编码产生图像Hash。该算法建立在稳健特征点检测基础上,结合了特征点的位置和周围图像信息,得到的Hash对视觉可接受的几何变换、亮度和对比度变化、JPEG压缩具有良好的稳健性,而大幅度扰动或篡改则会改变Hash值。密钥的使用保证了Hash的安全性。  相似文献   

7.
针对低照明度重构图像分辨率不高、重构时间长的问题,提出了基于小波域分块压缩感知算法的图像重构系统。建立低照明度图像采样模型,采用图像的景深自适应调节方法进行小波域分块压缩感知和信息融合处理。利用多尺度的Retinex算法进行小波域分块压缩感知和信息提取,提取图像的信息熵特征量。采取图像自适应增强方法进行低照度图像增强处理,使用物联网技术进行低照明度图像的三维信息重构,结合细节增强方法进行低照度图像增强处理,完成重构系统设计,实现透射率图的轮廓检测和特征重构。仿真结果表明,采用该方法进行低照明度图像重构的分辨率较高,边缘感知能力较好,且重构耗时较短,实际应用效率较高。  相似文献   

8.
王晓洁 《微计算机信息》2005,17(33):108-109
本文给出了一种基于归一化化转动惯量(Normalized Moment Inertia,NMI)的JPEG图像快速检索方法,其特点是直接在压缩域中利用DCT系数进行块分类,每一类分块形成一个二值索引图,统计该索引图的NMI值作为该类的一个特征,所有类的NMI特征构成了图像的一个特征序列,以此进行图像检索.本方法不需要完全解压缩,降低了计算复杂度,对图像的平移,旋转和尺度变换有较好的鲁棒性.试验结果表明这种图像检索方法具有良好的检索性能.  相似文献   

9.
张问银  吴尽昭 《计算机工程》2005,31(10):148-149,184
给出了一种基于归一化转动惯量(Normalized Moment Inertia,NMI)的JPEG图像快速检索方法,其特点是直接在压缩域中DCT系数进行块分类,每一类分块形成一个直值索引图,统计该索引图的NMI值作为该类的一个特征,所有类的NMI特征构成了图像的一个特征序列,以此进行图像检索。本方法不需要完全解压缩,降低了计算复杂度,对图像的平移,旋转和尺度变换有较好的鲁棒性,试验结果表明这种图像检索方法具有良好的检索性能。  相似文献   

10.
图像置乱效果盲评价的灰色块分析方法   总被引:1,自引:0,他引:1       下载免费PDF全文
为有效评价图像的置乱程度,设计了一种基于灰色块分析的图像置乱效果评价方法。该方法首先分析置乱图像的特点,归纳理想状态下置乱图像的特征,并构造其特征序列作为参考序列;然后将置乱图像分块,并计算各子块图像的方差,形成小样本方差序列,对该序列进行预处理后作为比较序列。最后,利用灰色关联分析理论计算两类序列之间的关联程度,得到图像置乱效果的性能指标。实验显示,用该方法评判图像置乱度不仅计算简单、运行速度快,而且不需要原图像的参与,就能得到更加客观、正确的评价结果。  相似文献   

11.
一种基于小波系数边信息的鲁棒水印算法   总被引:1,自引:1,他引:0  
胡青 《计算机应用研究》2010,27(10):3866-3868
为了实施图像的版权保护,提出了一种基于小波系数幅值关系的盲水印算法。原始图像通过三级小波分解得到小波系数,算法在密钥的控制下,伪随机地选择中频子带中两块共8个系数组成一组。通过小幅度量化来加强每组数据中两块系数幅值的大小关系特征,利用这组系数的特征作为边信息和水印信息生成密钥、嵌入水印。保存密钥,并在密钥的控制下提取水印。实验结果表明,该算法不仅能有效抵抗JPEG压缩、低通滤波、高斯噪声和几何攻击,而且水印图像的PSNR可以保持在50 dB以上。  相似文献   

12.
用于图像Hash的视觉相似度客观评价测度   总被引:2,自引:0,他引:2       下载免费PDF全文
由于评价图像Hash性能时,要求对两幅图像是否在感知上相似做出判断,因此针对这一需求,提出了一种衡量感知相似程度的评价测度。该测度的确定是先对图像进行低通滤波,再进行图像重叠分块;然后运用相关系数检测法计算每一对分块的相似程度,并对相似系数归一化,再分别计算若干个最小和最大的归一化相似系数的乘积;最后用最小相似系数乘积与最大相似系数乘积的比值作为感知相似性的测度。实验结果表明,该测度不仅可有效反映图像视觉质量的变化,而且能较好地区分两幅图像是否存在重要的视觉差异,其对感知相似进行评价的性能优于峰值信噪比。  相似文献   

13.
In this paper, a robust hash technique for image content authentication using histogram is proposed. The histogram based hash techniques reported in the literature are robust against Content Preserving Manipulations as well as incidental distortion. The major drawback of these techniques is that, they are not sensitive to Content Changing Manipulations and also un-altered histogram image modifications. To overcome these drawbacks, we present a novel hash technique which divides the image into non-overlapped blocks and distributes histogram bins of the image block into larger containers based on the Partial Sum of pixel count of histogram bins. An intermediate hash is produced by computing the ratio of pixel count between two neighbouring containers. The intermediate image hash is obtained by concatenating intermediate hashes of image blocks. Finally, the intermediate image hash is normalized and randomly permuted with a secret key to produce a robust and secure hash. The results shows that, the proposed method performs better when compared to the existing methods against the Content Preserving manipulations. Besides, the proposed method is more sensitive to Content Changing manipulations as well as un-altered histogram image modifications. The performance results on image authentication indicate that, the proposed method has high discriminative capability and strong robustness.  相似文献   

14.
提出了一种基于分块DCT系数及其统计特征的人脸识别算法。对图像进行分块,对每一块进行DCT变换,选择低频部分的系数作为识别的特征,将每一块分解为一幅低通滤波图和一个包含DCT高频系数的反L型块;分别对这两块求其均值、方差和熵这三个统计特征;利用支持向量机(SVM)和最近邻分类器对这些特征进行分类识别。在ORL、Yale人脸数据库上的仿真实验表明,使用基于分块DCT系数及其统计特征可达到较高的识别率。  相似文献   

15.
大量多媒体应用的发展使得数字图像很容易地被非法操作和篡改,提出一种基于 图像正则化和视觉特性的图像指纹算法,可以有效地实现图像的认证和识别。首先对图像进行 正则化预处理,消除几何形变对图像的影响,然后对图像进行分块DCT 变换,利用Watson 视 觉模型对DCT 系数进行处理,增大人眼敏感的频域系数在计算图像特征时的权重,经过量化形 成最终的指纹序列。在图像指纹序列生成过程中,加入密钥控制,提高了指纹的安全性。实验 结果表明,该方法的冲突概率在10–7 数量级,对JPEG 压缩、旋转、缩放等操作具有较好的稳 健性。  相似文献   

16.
Perceptual hash functions are important for video authentication based on digital signature verifying the originality and integrity of videos. They derive hashes from the perceptual contents of the videos and are robust against the common content-preserving operations on the videos. The advancements in the field of scalable video coding call for efficient hash functions that are also robust against the temporal, spatial and bit rate scalability features of the these coding schemes. This paper presents a new algorithm to extract hashes of scalably coded videos using the 3D discrete wavelet transform. A hash of a video is computed at the group-of-frames level from the spatio-temporal low-pass bands of the wavelet-transformed groups-of-frames. For each group-of-frames, the spatio-temporal low-pass band is divided into perceptual blocks and a hash is derived from the cumulative averages of their averages. Experimental results demonstrate the robustness of the hash function against the scalability features and the common content-preserving operations as well as the sensitivity to the various types of content differences. Two critical properties of the hash function, diffusion and confusion, are also examined.  相似文献   

17.
This paper proposes a blind watermarking algorithm based on the significant difference of wavelet coefficient quantization for copyright protection. Every seven nonoverlap wavelet coefficients of the host image are grouped into a block. The largest two coefficients in a block are called significant coefficients in this paper and their difference is called significant difference. We quantized the local maximum wavelet coefficient in a block by comparing the significant difference value in a block with the average significant difference value in all blocks. The maximum wavelet coefficients are so quantized that their significant difference between watermark bit 0 and watermark bit 1 exhibits a large energy difference which can be used for watermark extraction. During the extraction, an adaptive threshold value is designed to extract the watermark from the watermarked image under different attacks. We compare the adaptive threshold value to the significant difference which was quantized in a block to determine the watermark bit. The experimental results show that the proposed method is quite effective against JPEG compression, low-pass filtering, and Gaussian noise; the PSNR value of a watermarked image is greater than 40 dB.   相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号