共查询到18条相似文献,搜索用时 140 毫秒
1.
2.
提出了一种基于对偶码的RS码盲识别方法.建立接收序列的矩阵模型,通过统计该矩阵模型对应的低重量向量的数量,估计RS码的码长和分组起点.通过计算对偶码,估计校验矩阵、生成多项式、本原多项式等参数.实验表明在较高的误码率条件下也能达到较好的识别效果. 相似文献
3.
4.
现有的一些信道编码识别方法通常是基于矩阵化简来进行的识别,容错性能一般。提出了一种秩统计和码根特征的识别方法,解决了对循环码的盲识别问题。理论分析及仿真实验表明在较高误码率条件下,利用秩统计和码根特征对循环码进行识别,效果较好。 相似文献
5.
该文提出一种新的RS (Reed Solomon)码盲识别方法。该方法利用RS码等效二进制准循环码的代数结构,将截获到的二进制码序列映射为环上的线性码,应用中国剩余定理(Chinese Remainder Theorem, CRT)将环上的线性码进行直和分解,计算不同码长下所有本原多项式对应分量码在相应码空间的归一化维数,通过寻找归一化维数的最小值,实现对RS码码长和本原多项式的识别;最后通过对码字进行因式分解识别RS码的生成多项式。该方法具有使用数据量少,运算量低等方面的特点。仿真结果表明,能完成在较高误码率的情况下对RS码的快速盲识别。 相似文献
6.
7.
针对现有RS码识别算法需要对码字符号在不同域之间进行转化,且容错性能较差的问题,该文提出一种直接利用软判决序列完成RS码识别算法。算法首先从RS码定义出发,给出了RS码校验关系从GF(2m)到GF(2)上的等价转换方式,从而避免了不同域下复杂的符号转化;其次引入了能够衡量校验关系成立大小的平均校验符合度概念,然后基于其统计特性以及极大极小判决准则,遍历可能的码长以及对应的m级本原多项式,进行初始码根校验匹配,从而完成码长以及本原多项式识别;最后利用识别出的码长以及本原多项式,构建本原多项式下GF(2m),进行连续码根匹配判决,最终完成码生成多项式识别。仿真结果表明:推导的平均校验符合度统计特性与实际情况一致,算法能在低信噪比下有效完成参数识别;同时该算法具有较好的低信噪比适应能力,在信噪比为6 dB条件下,工程中常见的RS码识别率均能达到90%以上。与现有算法相比,该文算法性能明显好于硬判决算法,且比传统算法提升1 dB以上性能。 相似文献
8.
9.
10.
现代数字通信中常常进行信道编码识别处理.目前RS(Reed-Solomon,RS)码盲识别需对高阶域下所有谱分量进行求取,计算较为复杂,因此提出了一种基于二元域等效的识别方法.首先根据有限域性质将RS码等效为二元域上的线性分组码,然后建立码长、信息分组长度、生成多项式和本原多项式的关联模型.通过遍历各阶本原多项式,并验证二元线性分组码的校验向量,完成各参数的联合识别.仿真结果和理论分析表明,该方法在提升抗误码性能的同时有效减少了计算量,可用于智能通信和通信侦察等系统中. 相似文献
11.
基于码重信息熵低码率线性分组码的盲识别 总被引:1,自引:0,他引:1
为解决较高误码条件下的低码率二进制线性分组码的盲识别问题,论文提出了基于码重分布信息熵的码长识别方法,而且,它还通过优化传统的矩阵化简方法求解生成矩阵,从而实现对低码率二进制线性分组码的盲识别。理论分析及仿真验证均表明:该方法能实现低码率线性分组码较正确的识别。论文最后进一步对不同码长线性分组码在不同误码率条件下进行了多次仿真,仿真结果验证了该识别方法具有较好的容错性能。 相似文献
12.
基于概率逼近的本原BCH码编码参数的盲识别方法 总被引:2,自引:0,他引:2
针对本原BCH码编码参数的盲识别问题,该文提出了一种基于概率逼近的盲识别方法。首先,利用Gauss分布和Poisson分布逼近随机码字的根概率特性,确定了搜索BCH码长的门限;然后,通过分析本原域元素的检错能力及同构对域的影响,应用临近域对的方法确定编码域,提高了其识别能力;最后,给出识别生成多项式时的共轭根系表,从而减少了计算量。仿真结果表明,在较高的误码率下,该方法能快速地识别出BCH码编码所采用的编码参数。 相似文献
13.
Code compression is a key element in high-speed digital data transport. A major compression is performed by converting the fixed-length codes to variable-length codes through a (semi-)entropy coding scheme. Huffman coding is shown to be a very efficient coding scheme. To speed up the process of search for a symbol in a Huffman tree and to reduce the memory size we have proposed a tree clustering algorithm to avoid high sparsity of the tree. The method is shown to be extremely efficient in memory requirement, and fast in searching for the symbol. For an experimental video data with Huffman codes extended up to 13 bits in length, the entire memory space is shown to be 122 words, compared to 213=8192 words in a normal situation 相似文献
14.
Cheng J. Huang T.-K. Weidmann C. 《IEEE transactions on information theory / Professional Technical Group on Information Theory》2007,53(5):1884-1895
In this correspondence, we consider one-to-one encodings for a discrete memoryless source, which are "one-shot" encodings associating a distinct codeword with each source symbol. Such encodings could be employed when only a single source symbol rather than a sequence of source symbols needs to be transmitted. For example, such a situation can arise when the last message must be acknowledged before the next message can be transmitted. We consider two slightly different types of one-to-one encodings (depending on whether the empty codeword is used or not) and obtain lower and upper bounds on the expected length of optimal one-to-one codes. We first give an extension of a known tight lower bound on the expected length of optimal one-to-one codes for the case that the the size of the source alphabet is finite and partial information about the source symbol probabilities is available. As expected, our lower bound is no less than the previously known lower bound obtained without side information about the source symbol probabilities. We then consider the case that the source entropy is available and derive arbitrarily tight lower bounds on the expected length of optimal one-to-one codes. We also derive arbitrarily tight lower bounds for the case that the source entropy and the probability of the most likely source symbol are available. Finally, given that the probability of the most likely source symbol is available, we obtain an upper bound on the expected length of optimal one-to-one codes. Our upper bound is tighter than the best upper bound known in the literature 相似文献
15.
低码率二进制线性分组码的盲识别 总被引:5,自引:0,他引:5
针对信息截获领域中的低码率二进制分组码的盲识别问题,提出了根据码重分布距离估计码长的方法,进而通过改进传统的矩阵化简方法获得生成矩阵,实现了对低码率二进制线性分组码的盲识别。理论推算和数据仿真都表明,本算法在较高误码率的情况下,也可以得到很好的识别效果。 相似文献
16.
针对高误码率情况下(n,1,m)卷积码的盲识别问题,该文提出一种新的基于改进Walsh-Hadamard变换(Walsh-Hadamard Transform, WHT)的方法。首先将原问题等效为多路1/2码率卷积码的盲识别问题,并建立关于其生成多项式系数的线性方程组。然后分析了现有基于WHT的方法直接求解该方程组所存在的不足,重新建立更稳健的判决门限,同时通过缩小解的取值范围降低计算量,进而在求得正确解向量的同时完成对码长的识别。最后,将多路等效1/2码率卷积码的生成多项式按一定条件组合,得到(n,1,m)卷积码的生成多项式矩阵。仿真结果验证了所提方法的有效性,且性能优于传统方法。 相似文献
17.
18.
针对目前极化码参数盲识别问题,该文提出一种基于零空间矩阵匹配的极化码参数盲识别算法。由于极化码生成矩阵的构造是确定的,其生成矩阵都是满秩的方阵,该算法首先利用极化码编码中信道可靠性估计删除生成矩阵中冻结位码字对应的行,再找出该矩阵在二元域中的零空间矩阵作为该码长下的监督矩阵,用不同长度码长的监督矩阵与待检测的码字迭代相乘,根据乘积结果中“1”的比例来判断码字的码长、信息位个数和位置分布。仿真结果表明,针对200组码长64,信息位个数30的极化码,在最大误比特率不超过0.06时,识别率能保持在80%以上。 相似文献