首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 453 毫秒
1.
系列单错完整性指示码及其性能分析   总被引:2,自引:0,他引:2  
实现细粒度的取证副本完整性检验是计算机取证的新需求,但是为每个取证对象生成一个独立Hash数据的完整性检验方法会产生大量的Hash检验数据,给Hash检验数据的存储与网络传输带来不利影响.在完整性指示编码思想的指导下,引入了能提高Hash检验数据抗篡改能力的平行分组关系设计需求--将Hash检验数据分组,其中任一组Hash数据均可从某一粒度完全指示全部数据的完整性.基于方阵与超方体的空间位置关系提出了平行分组式单错指示码,可实现几十倍、几百倍的压缩.分析了该类指示码在不同参数下的性能.结论表明该类指示码具有实用价值.  相似文献   

2.
细粒度数据完整性检验可以避免因偶然的错误或个别的篡改而造成数据整体失效的灾难性后果,有效提高了电子证据的可靠性。本文设计了一种具有容错能力的电子证据分散存储方法,其思想是在保证电子证据完整性的前提下,提高其容错能力。该方法通过CRS算法将电子证据分散为(p+q)个数据分块,然后发送到多个存储节点,采用完整性指示码,用少量Hash准确指示错误数据的分布位置。在只出现不多于q个数据分块错误时,能快速进行完整性检验并恢复原始数据;在出现(q+e)(0相似文献   

3.
有限域上高效的细粒度数据完整性检验方法   总被引:1,自引:0,他引:1  
陈龙  王国胤 《计算机学报》2011,34(5):847-855
基于交叉检验思想的细粒度数据完整性检验方法在实现完整性检验的同时可以对少数错误进行准确和高效的隔离,从而避免因偶然错误或个别篡改造成整体数据失效的灾难性后果.针对需要隔离多个错误时现有方案效率不高的问题,提出了多维结构下基于有限域均匀划分的完整性交叉检验方法,相应地构造了高效的多错完整性指示编码.该方法将完整性检验Ha...  相似文献   

4.
赵亚杰  陈龙 《计算机工程与设计》2012,33(11):4091-4094,4148
手机取证过程中的多种动态性因素都会导致前后两次内存镜像不一致,从而影响获取证据的真实性和可采性。分析了手机内存中的数据变化规律,引入细粒度完整性检验方法对手机内存镜像中的数据对象按照细粒度分别进行完整性检验。结合各种案例选取不同数据对象作为证据的需求,将手机内存镜像数据划分为不同粒度的数据对象。该方法可以有效地隔离不同数据对象,使得在内存镜像变化难以避免的情况下,验证了取证镜像过程的可靠性,证明目标数据对象的完整性,从而保证作为证据的数据对象能够被法庭接受。  相似文献   

5.
在云存储服务中,为使用户可以随时验证存储在云存储服务器上数据的完整性,提出一种基于同态标签的动态数据完整性验证方法。通过引入同态标签和用户随机选择待检测数据块,可以无限次验证数据是否完好无损,并支持数据动态更新;可信第三方的引入解决了云用户与云存储服务供应商因数据完整性问题产生的纠纷,实现数据完整性的公开验证;然后给出该方法的正确性和安全性分析,以及该方法的性能分析;最后通过实验验证了该方法是高效可行的。  相似文献   

6.
在云存储服务中,为了让用户可以验证存储在云存储服务器上数据的完整性,提出一种支持动态更新和公开验证的云存储数据完整性检测方法.通过引入双线性对和用户随机选择待检测数据块可以无限次验证数据完整性是否完好无损;可信第三方的引入解决了云用户与云存储供应商在数据完整性问题上产生的纠纷,实现数据完整性的公开验证;然后给出该方法的正确性、安全性以及性能分析,最后通过实验验证了该方法是高效可行的.  相似文献   

7.
在云存储服务中,为了使用户能够方便快捷知道其所存在云端服务器上数据的完整性,提出了一种细粒度云存储数据完整性检测方法。将文件分割成文件子块继而分割成基本块,通过引入双线性对和用户随机选择待检测数据块能无限次检测数据的完整性,此外通过可信第三方的引入解决云用户和云供应商纠纷,实现云存储数据的公开验证性。然后给出了所提出方法的正确性和安全性分析,通过实验证明了该方法能较好地检测云存储数据的完整性。  相似文献   

8.
在云存储服务中,为了使用户能够方便快捷知道其所存在云端服务器上数据的完整性,提出了一种细粒度云存储数据完整性检测方法。将文件分割成文件子块继而分割成基本块,通过引入双线性对和用户随机选择待检测数据块能无限次检测数据的完整性,此外通过可信第三方的引入解决云用户和云供应商纠纷,实现云存储数据的公开验证性。然后给出了所提出方法的正确性和安全性分析,通过实验证明了该方法能较好地检测云存储数据的完整性。  相似文献   

9.
提出一种用TPM实现可信Hash树的方法.Hash树具有保护少量信息即可度量大量数据的性质,而TPM为保护Hash树的少量信息提供了基础.在TPM和访问TPM的进程不被攻击的前提下,基于TPM的完整性度量机制,可以保证Hash树的可信.本文称这种基于TPM实现的Hash树为T_Hash树.以T_Hash树为基础,针对完整性度量请求集中于待度量数据某个局部的应用场景,我们设计了TF_Hash树和TFC_Hash树.分析证明:这三种Hash树能够发现对它们的非法篡改行为,是可信的Hash树.实验表明:在特定的应用环境,TF_Hash树有比T_Hash树更好的效率,而TFC_Hash树的性能较TF_Hash树也有进一步的提升.  相似文献   

10.
数据库服务外包是近几年兴起的一种新的数据库应用模式.外包数据库模型中数据的完整性检测是为了防止外包数据库提供商内部和外部人员对数据库内容篡改,保证查询者获得正确查询结果的一种手段.现有的完整性检测方法都是针对关系型数据库中的结构化数据,对于文本这种非结构化数据目前还没有成型的解决方案.为了完善外包数据库模型中数据完整性检测技术,提出了一种基于数字指纹的文本数据的完整性检测方案,该方案不仅可以检测文本数据的完整性,还可以对被篡改数据的位置进行精确定位;提出了两种指纹管理方案,对两种方案的安全性进行了分析;最后通过理论分析和实验验证了该文本数据完整性检测方案的准确性和有效性.  相似文献   

11.
现有基于深度学习的哈希图像检索方法通常使用全连接作为哈希编码层,并行输出每一位哈希编码,这种方法将哈希编码都视为图像的信息编码,忽略了编码过程中哈希码各个比特位之间的关联性与整段编码的冗余性,导致网络编码性能受限.因此,本文基于编码校验的原理,提出了串行哈希编码的深度哈希方法——串行哈希编码网络(serial hashing network, SHNet).与传统的哈希编码方法不同, SHNet将哈希编码网络层结构设计为串行方式,在生成哈希码过程中对串行生成的前部分哈希编码进行校验,从而充分利用编码的关联性与冗余性生成信息量更为丰富、更加紧凑、判别力更强的哈希码.采用mAP作为检索性能评价标准,将本文所提方法与目前主流哈希方法进行比较,实验结果表明本文在不同哈希编码长度下的m AP值在3个数据集CIFAR-10、Image Net、NUS-WIDE上都优于目前主流深度哈希算法,证明了其有效性.  相似文献   

12.
针对跨模态哈希检索方法中存在标签语义利用不充分,从而导致哈希码判别能力弱、检索精度低的问题,提出了一种语义相似性保持的判别式跨模态哈希方法.该方法将异构模态的特征数据投影到一个公共子空间,并结合多标签核判别分析方法将标签语义中的判别信息和潜在关联嵌入到公共子空间中;通过最小化公共子空间与哈希码之间的量化误差提高哈希码的判别能力;此外,利用标签构建语义相似性矩阵,并将语义相似性保留到所学的哈希码中,进一步提升哈希码的检索精度.在LabelMe、MIRFlickr-25k、NUS-WIDE三个基准数据集上进行了大量实验,其结果验证了该方法的有效性.  相似文献   

13.
任亚博  张健  刘以农  张伟 《计算机应用》2014,34(12):3618-3620
针对误码条件下的BCH码盲识别问题,提出了一种低复杂度的算法。现有的对BCH码的识别方法多采用通用的线性分组码识别方法,不能同时适用于码长较长、误码率较高时的情况。该算法基于BCH码是汉明码的子空间,通过汉明码的校验矩阵校验BCH码。识别内容包括码长、码字起点和生成多项式。仿真结果表明:对码长为1023的BCH码,在误码率0.5%的条件下,仍能正确识别。  相似文献   

14.
目的 基于深度学习的图像哈希检索是图像检索领域的热点研究问题。现有的深度哈希方法忽略了深度图像特征在深度哈希函数训练中的指导作用,并且由于采用松弛优化,不能有效处理二进制量化误差较大导致的生成次优哈希码的问题。对此,提出一种自监督的深度离散哈希方法(self-supervised deep discrete hashing,SSDDH)。方法 利用卷积神经网络提取的深度特征矩阵和图像标签矩阵,计算得到二进制哈希码并作为自监督信息指导深度哈希函数的训练。构造成对损失函数,同时保持连续哈希码之间相似性以及连续哈希码与二进制哈希码之间的相似性,并利用离散优化算法求解得到哈希码,有效降低二进制量化误差。结果 将本文方法在3个公共数据集上进行测试,并与其他哈希算法进行实验对比。在CIFAR-10、NUS-WIDE(web image dataset from National University of Singapore)和Flickr数据集上,本文方法的检索精度均为最高,本文方法的准确率比次优算法DPSH(deep pairwise-supervised hashing)分别高3%、3%和1%。结论 本文提出的基于自监督的深度离散哈希的图像检索方法能有效利用深度特征信息和图像标签信息,并指导深度哈希函数的训练,且能有效减少二进制量化误差。实验结果表明,SSDDH在平均准确率上优于其他同类算法,可以有效完成图像检索任务。  相似文献   

15.
针对现阶段深度跨模态哈希检索算法无法较好地检索训练数据类别以外的数据及松弛哈希码离散化约束造成的次优解等问题,提出自适应深度跨模态增量哈希检索算法,保持训练数据的哈希码不变,直接学习新类别数据的哈希码。同时,将哈希码映射到潜在子空间中保持多模态数据之间的相似性和非相似性,并提出离散约束保持的跨模态优化算法来求解最优哈希码。此外,针对目前深度哈希算法缺乏有效的复杂度评估方法,提出基于神经网络神经元更新操作的复杂度分析方法,比较深度哈希算法的复杂度。公共数据集上的实验结果显示,所提算法的训练时间低于对比算法,同时检索精度高于对比算法。  相似文献   

16.
在水声通信中,有些情况下系统中要求误码率非常低,仅仅靠信道编码的方法不能满足通信质量要求。循环冗余校验码(CRC)是一种性能良好的循环码,非常适用于检错系统,低密度校验码(LDPC)性能接近香农极限的信道编码之一,其译码复杂度远远小于Turbo码。为了满足低误码率的要求,提出了一种将LDPC码和自动重发请求(ARQ)结合应用的方法,在CRC校验之后进行信道编码,在保证通信质量的前提下尽量减小发送信息的冗余度。仿真结果表明,该方法可以将误码率降低到10-9以下。  相似文献   

17.
杨粟  欧阳智  杜逆索 《计算机应用》2021,41(7):1902-1907
针对传统无监督哈希图像检索模型中存在图像数据之间的语义信息学习不足,以及哈希编码长度每换一次模型就需重新训练的问题,提出一种用于大规模图像数据集检索的无监督搜索框架——基于相关度距离的无监督并行哈希图像检索模型。首先,使用卷积神经网络(CNN)学习图像的高维特征连续变量;然后,使用相关度距离衡量特征变量构建伪标签矩阵,并将哈希函数与深度学习相结合;最后,在哈希码生成时使用并行方式逐步逼近原始视觉特征,达到一次训练生成多长度哈希码的目的。实验结果表明,该模型在FLICKR25K数据集上对16 bit、32 bit、48 bit和64 bit的4种不同哈希码的平均精度均值(mAP)分别为0.726、0.736、0.738和0.738,与SSDH模型相比分别提升了9.4、8.2、6.2、7.3个百分点;而在训练时间方面,该模型与SSDH模型相比减少6.6 h。所提模型在大规模图像检索时能够有效缩短训练时间、提升检索精度。  相似文献   

18.
由于不同模态数据之间的异构性以及语义鸿沟等特点,给跨模态数据分析带来巨大的挑战.本文提出了一个新颖的相似度保持跨模态哈希检索算法.利用模态内数据相似性结构使得模态内相似的数据具有相似的残差,从而保证学习到的哈希码能够保持模态内数据的局部结构.同时利用模态间数据的标签,使得来自于不同模态同时具有相同标签的数据对应的哈希码能够紧密聚集在一起.为了进一步提高哈希码的鉴别能力,算法引入线性回归使得投影后的哈希码能够逼近样本的二值标签.在三个公开的不同跨模态检索数据集上的实验结果显示本文算法有较高的平均查准率.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号