共查询到16条相似文献,搜索用时 187 毫秒
1.
细粒度数据完整性检验可以减小因偶然的错误或个别的篡改而造成的数据失效的灾难性影响,成为支持电子证据保全的重要手段.但为每份小粒度数据生成一个独立的完整性检验Hash数据会产生大量的Hash数据,且Hash数据属于随机性数据无法压缩,给Hash数据存储及网络传输带来较大影响.介绍了实现Hash数据压缩的基本思想,提出了基于纠错码--Horiguchi-Morita编码的数据完整性检验方法,分析了该方法的基本性能,基于该方法设计了电子证据的网络化存储模式,可防止合谋篡改. 相似文献
2.
现实应用可根据需要采用不同粒度完整性检验方案,在较细的粒度上检验海量数据的完整性将生成大量Hash数据。比较了完整性指示码与纠错码的不同,简要分析了数据对象出错数概率分布的可压缩性,提出了完整性指示码的编码收益度量方法,便于对完整性检验方案进行统一度量,使不同的完整性检验方案可在某一出错数概率分布下进行综合比较。实例分析表明了细粒度完整性检验新方法的特定优势,编码收益度量方法对应用方案的选择有指导作用。 相似文献
3.
本文构造了纠单个符号错误,同时又能检测所有单向错误(1—sEC/AUED)的差错控制码;设计了在微处理器和存储器子系统之间基于1—sEC/AUED码的容错数据接口;它是一种高效、高可靠性的数据接口。在容错范围内,该接口实现:当“差错指示”指示输出正确时,保证输出数据一定正确;否则,当数据发生错误,或接口电路本身引发数据发生错误时,“差错指示”一定给出出错信息。 相似文献
4.
上 线性码c的汉明重量谱为序列 ,其中,dr是c的r维子码的最小支撑重量。第VI类5维q元线性码的汉明重量谱,按照新的必要条件可以分成6个子类。运用有限射影几何方法研究VI-2类的5维q元线性码的汉明重量谱,确定VI-2类5维q元线性码的几乎所有汉明重量谱。 相似文献
5.
云数据存储是未来数据存储的发展方向,但云数据远程存储使用户面临巨大的安全威胁。文章首先研究云存储架构及云数据安全存储问题,其次,分析云数据保护模型,设计云数据完整性校验机制,该机制基于Hash算法,随机化抽取数据块,最后,分析验证该机制系统开销小,置信度高,能够实现云数据完整性校验。 相似文献
6.
描述了一种新的基于射影空间的视频增强方法,通过图像间对极几何约束以及基础矩阵关系,实现三维图形对象和视频叠加。该方法采用了Pinhole像机模型和射影几何约束条件方便地实现虚拟物体的重投影,而且不需要像机的标定参数和环境对象的3D位置,克服了仿射空间近似所带来的视觉误差和使用限制。 相似文献
7.
8.
9.
10.
一种基于虚拟平面的立体视觉的重建方法 总被引:2,自引:0,他引:2
该文分析了在立体视觉系统下未定标图像间的对极几何关系,通过证明虚拟平面的平面射影坐标与立体射影坐标的关系,提出了一种在射影几何意义下进行立体视觉重建的几何方法,在计算转移矩阵及重建点的立体视觉时,采用精确的非线性算法,提高了算法的精度。 相似文献
11.
The Hamming weight hierarchy of a linear [n,k;q] code c over GF(q)is the sequence(d1,d2,…,dk),where dr is the smallest support weight of an r-dimensional subcode of c.According to some new necessary conditions,the VI class Hamming weight hierarchies of q -ary linear codes of dimension 5 can be divided into six subclasses. By using the finite projective geometry method, VI-2 subclass and determine were researched almost all weight hierarchies of the VI-2 subclass of weight hierarchies of q -ary linear codes with dimension 5. 相似文献
12.
13.
14.
为通过构建高速的中文索引结构来提高Off-line模式的串匹配速度,提出了一种基于Bigram二级哈希的中文索引结构。该索引采用中文GB2312编码处理中文汉字,以中文Bigram项作为词汇项,并实现了基于二级哈希的词汇表存储结构。实验数据显示,本文索引结构虽然占用存储空间为词索引的2倍多,但其匹配速度是词索引的4倍多。结果表明本文索引在中文匹配中具有速度优势。 相似文献
15.
Tai-Kuo Woo 《Electronics letters》2000,36(19):1632-1633
A new code design method for quasi-synchronous CDMA is proposed. The proposed scheme, based on the theory of finite projective planes, has the following advantages: orthogonality; low cross-correlation for both the quasi-synchronous mode and asynchronous mode; and low auto-correlation. Numerical autocorrelation and cross-correlation results are provided for both the proposed code design and the Walsh functions 相似文献
16.
Projective-plane iteratively decodable block codes for WDM high-speed long-haul transmission systems 总被引:1,自引:0,他引:1
Low-density parity-check (LDPC) codes are excellent candidates for optical network applications due to their inherent low complexity of both encoders and decoders. A cyclic or quasi-cyclic form of finite geometry LDPC codes simplifies the encoding procedure. In addition, the complexity of an iterative decoder for such codes, namely the min-sum algorithm, is lower than the complexity of a turbo or Reed-Solomon decoder. In fact, simple hard-decoding algorithms such as the bit-flipping algorithm perform very well on codes from projective planes. In this paper, the authors consider LDPC codes from affine planes, projective planes, oval designs, and unitals. The bit-error-rate (BER) performance of these codes is significantly better than that of any other known foward-error correction techniques for optical communications. A coding gain of 9-10 dB at a BER of 10/sup -9/, depending on the code rate, demonstrated here is the best result reported so far. In order to assess the performance of the proposed coding schemes, a very realistic simulation model is used that takes into account in a natural way all major impairments in long-haul optical transmission such as amplified spontaneous emission noise, pulse distortion due to fiber nonlinearities, chromatic dispersion, crosstalk effects, and intersymbol interference. This approach gives a much better estimate of the code's performance than the commonly used additive white Gaussian noise channel model. 相似文献