首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 218 毫秒
1.
基于动态聚类的文档碎纸片自动拼接算法   总被引:1,自引:0,他引:1  
针对碎纸机三种碎纸模式进行拼接复原,提出了一种基于动态聚类的文档碎纸片自动拼接算法,定义了匹配度矩阵计算两块碎片最合理的拼接方式,设计了一种基于碎纸片特征向量的动态聚类行聚类算法进行行初步聚类,根据文字特征线及计算出的行距对初步聚类进行了调整修正,确定最终的行分类及行间顺序,根据提出的动态四邻近匹配算法,匹配出复原结果。实验表明,该方法实现简单,成功率高,能快速得到碎纸片的三种碎纸模式的拼接复原结果。  相似文献   

2.
对于切碎英文文档自动拼接还原中无法利用碎纸片几何形状特征的问题, 提出一种基于灰度值矩阵的文档碎片拼接方法。利用碎片图像的特征向量消除同行字母处于不同高度的负影响, 提取其特征位置作为动态聚类的分类标准,依据文本行特征进行动态聚类和类间排序。设计了一种基于原图像碎片边界矩阵的四邻拼接算法进行逐一高效地拼接还原。仿真结果表明, 该方法准确率较高且操作简便, 对规则碎片拼接还原具有良好的实际意义。  相似文献   

3.
由于碎纸机的使用,伴随出现了对碎纸拼接的需要。为了使得拼接更加简便、快捷,本文采用以线性代数中相关矩阵为核心的碎纸拼接算法,对单面打印的规则型碎纸进行自动拼接复原。首先将图像信息转化为像素矩阵,然后根据文字的形状特征以及连续性,计算所有碎片的边缘像素矩阵的相关度,从而得到一个相关矩阵。通过对相关矩阵中每一列的相关度进行比较,得到相关度最高的一张碎片进行拼接。经过实例研究验证后,该算法简洁可行,比较精确。  相似文献   

4.
碎纸自动拼接算法是计算机图形图像应用的一个热点领域。对于碎纸拼接主要由计算机图像预处理、图形图像特征提取和图像匹配三个过程组成。针对中文内容碎纸和英文内容碎纸的区别,给出了两种不同的图像特征提取方法。首先建立聚类模型对碎纸图像中提取的图像特征值进行K-mean聚类得到属于同一行的碎片集合;然后建立旅行商优化数学模型,以拼接方案特征值误差平方和最小为目标函数,实现同一行碎片集合的排序,形成完整一行的图像;最后利用优化数学模型实现不同行图像的排序。实验结果显示:该拼接算法可以给出准确的拼接方案,且求解迅速,无需进行人工干预,实现真正的全自动拼接。  相似文献   

5.
张耀丹 《软件》2014,(2):65-66
随着科学技术的发展,人们试图开发碎纸片的自动拼接技术来提高效率。来自同一页纵切破碎纸片,为求出拼接算法应将各图片的特征转化为数字形式,如此将两侧的像素值提取出来进行匹配。本文首先利用灰度矩阵提取出边缘像素的位置,然后阈值分割并进行列向量特征匹配,最后根据确定的算法得出两两碎片的相似度函数并形成"环",循环后从"环"切开得出碎片的完整拼接结果。实验结果表明,该算法简单可行,可以达到规则碎纸片完整拼接的目的。  相似文献   

6.
本文提出了借助于计算机把碎纸机破碎纸片拼接成初始状态的完整模型。首先从各张碎纸片的像素出发,求出每张图片左右两侧边缘的像素分布,将每张图像的像素转化为相应的矩阵。建立优化模型依次从左向右拼接碎纸片,以前一张碎纸片右侧像素点与后一张碎纸片左侧像素点的匹配差异值最小为目标函数,依次穷举未排序的碎纸片,由此得出碎纸片的排列顺序和复原图。  相似文献   

7.
针对切碎中文文档的自动拼接复原中无法利用碎纸片形状特征的问题,提出一种基于内容信息丰富度的拼接算法.首先分析了基于汉字内容的碎纸片特征表达方式;在此基础上,提出从横纵2个方面进行碎纸片特征匹配度估计的方法;最后采用信息丰富度确定拼接次序,逐一高效地完成碎纸片的拼接.基于不同碎纸片数量的匹配实验结果表明,相对于传统方法,横纵特征匹配度估计方法分别提高了约4.73%,3.76%的准确度;自动拼接复原实验结果表明,相对于传统算法,基于信息丰富度拼接算法的错误率下降约18%,并大大降低了时间复杂度.  相似文献   

8.
陈稳稳  黄磊 《网友世界》2013,(24):13-13
图像拼接(Image Mosaic)是一个日益流行的研究领域,他已经成为照相绘图学、计寄机视觉、图像处理和计寄机图形学研究中的热点。图像拼接解决的问题一般是通过对齐一系列空间重叠的图像,构成一个无缝的、高清晰的图像,它具有比单个图像更高的分辨率和更大的视野。在司法物证鉴定、历史书籍复原等很多领域要用到文字碎片的拼接复原,目前,对于碎纸片的拼接复原,大都采用人工拼接的方式进行。这种方法寅然准确度较高,但是效率较低,尤其是面对大量碎片的拼接复原时,效率低下的问题显得尤为明显。如果能引入计寄机辅助图像拼接技术,必能大大提高工作效率,减少工作时间。文章针对给出题目提出的数据和附件中给出的数据,进行了严密地分析,建立了数学模型,给出的求解方法,得出了结果。 问题1:对于碎纸机既纵切又横切的情形,给出的中、英文印刷文字双面打印文件的碎纸机碎片数据,设计相应的碎纸片拼接复原模型或寄法,如果复原过程需要人工干预,写出干预方式及干预的时间节点。问题2:编写程序实现计寄机还原,要求复原结果以图片形式及表格形式表达,分析并总结双面打印碎纸机碎片还原和单面的区别,写出实验报告。  相似文献   

9.
图像碎纸片的拼接与复原在司法物证复原和军事情报获取等领域有着重要的应用。根据图像碎片的特点建立了集成相似度的计算模型,设计了一种“双排扣”拼接方法来提高一次拼接的准确性;根据贪心准则设计了一种向四周扩展和绕回的图像碎纸片有效拼接算法,并根据图像碎纸片拼接特点制定了人工干预准则,实现了可视化的人机交互拼接系统。最后,通过实验验证了该方法在解决图像碎纸片拼接问题上的有效性。  相似文献   

10.
基于文字特征的文档碎纸片半自动拼接   总被引:4,自引:0,他引:4       下载免费PDF全文
分析了基于几何特征的碎纸片自动拼接方法的缺点,研究了碎纸片内文字行特征、表格特征特点,以及碎纸片内文字行特征、表格线特征的获取方法,提出了基于碎片文字行特征或表格特征的碎片半自动拼接算法。根据算法研制了C语言计算机程序,用该程序对一实际例子进行了拼接试验,试验结果表明该方法效果良好。  相似文献   

11.

In this paper, a hybrid whale optimization algorithm based on the Lévy flight strategy (LWOA) and lateral inhibition (LI) is proposed to solve the underwater image matching problem in an unmanned underwater vehicle (UUV) vision system. The proposed image matching technique is called the LI-LWOA. The whale optimization algorithm (WOA) simulates encircling prey, bubble-net attacking and searching for prey to obtain the global optimal solution. The algorithm not only can balance the exploration and exploitation but also has high calculation accuracy. The Lévy flight strategy can expand the search space to avoid premature convergence and enhance the global search ability. In addition, the lateral inhibition mechanism is applied to conduct image preprocessing, which enhances the intensity gradient and image characters, and improves the image matching accuracy. The LI-LWOA achieves the complementary advantages of the LWOA and lateral inhibition to improve the image matching accuracy and enhance the robustness. To verify the overall optimization performance of the LI-LWOA, a series of underwater image matching experiments that seek to maximize the fitness value are performed, and the matching results are compared with those of other algorithms. The experimental results show that the LI-LWOA has better fitness, higher matching accuracy and stronger robustness. In addition, the proposed algorithm is a more effective and feasible method for solving the underwater image matching problem.

  相似文献   

12.
目的 非刚性物体进行匹配时,往往需要对图像中存在的非刚性形变目标进行快速精确的配准,进而实现对图像的后续处理和分析,实现快速而准确的非刚体匹配显得尤为重要。针对传统特征点匹配方法在非刚性物体匹配中准确性差的问题,本文提出了一种基于DAISY算子和有约束Patch-Match的非刚体密集匹配算法。方法 首先对参考图像和待匹配图像生成DAISY特征描述子,其次对两幅图像进行超像素分割,形成相互邻接但没有重叠的超像素块结构,并以其为单元,计算初始位置上对应每一个像素的DAISY特征算子聚合代价。然后,采用Patch-Match算法对整幅图像进行传播和变异,在变异过程中,通过图像预处理和分析得到的先验知识对位置标签的变异窗口进行局部空间约束,使得每个像素的位置标签在该空间范围内随机更新,计算新的聚合代价,保留代价较小的位置标签,重复迭代此过程,直到聚合代价不发生变化或者达到最大迭代次数为止。结果 实验选取了标准数据集、10幅分别由TFDS(the trucking fault dynamic image detection system)线阵列相机和框幅式相机采集的包含非刚体的图像进行匹配,均取得了较好的匹配效果,经验证,本文方法的匹配精度为86%,误匹配点的平均匹配误差为5个像素左右,是传统基于SIFT特征光流匹配方法误差的一半,并且本文采用的DAISY算子在特征提取速度上是Dense SIFT(dense scale invariant feature transform)特征提取算法的2~3倍,大大提升了图像匹配的效率。结论 本文提出了一种非刚体密集匹配算法,针对非刚体变化的不确定性采用密集特征点进行最优化搜索匹配。本文算法对包含小范围非刚性变化的图像匹配上具有较好的适应性,且匹配精度高,视觉效果好,鲁棒性强。  相似文献   

13.
为了解决基于RGB颜色模型的强噪声彩色图像空域恢复方法的丢失细节问题,依据分解彩色图像得到的三个分量在相关处理后可合成为彩色图像的理论,采用图像的基于像素点的空域处理理论,研究了受强噪声污染的彩色图像的点处理恢复方法。设计了基于RGB颜色模型的彩色图像分量的点处理恢复算法,给出了根据噪声强度调用该算法依次恢复R分量、G分量和B分量的过程。实验结果表明,与经典的空域滤波器比较,基于像素点的空域处理具有保持图像细节的优点,适用于解决基于RGB颜色模型的强噪声彩色图像的恢复问题。  相似文献   

14.
目的 立体匹配是计算机双目视觉的重要研究方向,主要分为全局匹配算法与局部匹配算法两类。传统的局部立体匹配算法计算复杂度低,可以满足实时性的需要,但是未能充分利用图像的边缘纹理信息,因此在非遮挡、视差不连续区域的匹配精度欠佳。为此,提出了融合边缘保持与改进代价聚合的立体匹配。方法 首先利用图像的边缘空间信息构建权重矩阵,与灰度差绝对值和梯度代价进行加权融合,形成新的代价计算方式,同时将边缘区域像素点的权重信息与引导滤波的正则化项相结合,并在多分辨率尺度的框架下进行代价聚合。所得结果经过视差计算,得到初始视差图,再通过左右一致性检测、加权中值滤波等视差优化步骤获得最终的视差图。结果 在Middlebury立体匹配平台上进行实验,结果表明,融合边缘权重信息对边缘处像素点的代价量进行了更加有效地区分,能够提升算法在各区域的匹配精度。其中,未加入视差优化步骤的21组扩展图像对的平均误匹配率较改进前减少3.48%,峰值信噪比提升3.57 dB,在标准4幅图中venus上经过视差优化后非遮挡区域的误匹配率仅为0.18%。结论 融合边缘保持的多尺度立体匹配算法有效提升了图像在边缘纹理处的匹配精度,进一步降低了非遮挡区域与视差不连续区域的误匹配率。  相似文献   

15.
对图像进行全局的特征点检测耗时较长,而且全局特征稳定性不好,这就造成算法的运行速度慢和匹配准确率低,达不到令人满意的匹配效果.在尺度不变特征变换(SIFT)的基础上,通过引入稀疏结构的概念,提出了一种基于稀疏结构的图像特征匹配算法(SSM).通过稀疏度函数获得像素点的稀疏度值,筛选出稀疏度高的像素点所在的区域,并对该区域进行SIFT特征点检测,通过最佳描述子实现特征匹配.将SSM算法与几种经典算法相比,实验结果表明,本文算法在特征匹配速度和匹配准确率上相比于原算法都有较明显的提高,能够用于目标实时跟踪、图像检索和全景图像拼接等领域.  相似文献   

16.
目的 光谱解混是高光谱遥感图像处理的核心技术。当图像不满足纯像元假设条件时,传统算法难以适用,基于(单形体)体积最小化方法提供了一种有效的解决途径。然而这是一个复杂的约束最优化问题,更由于图像噪声等不确定性因素的存在,导致算法容易陷入局部解。方法 引入一种群智能优化技术-差分进化算法(DE),借助其较强的全局搜索能力以及优越的处理高维度问题的能力,并通过对问题编码,提出了一种体积最小化的差分进化(VolMin-DE)光谱解混算法。结果 模拟数据和真实数据实验的结果表明,与现有算法相比,该算法在15端元时精度(光谱角距离)可提高7.8%,当端元数目少于15个时,其精度普遍可以提高15%以上,特别是10端元时精度可以提高41.3%;在20~50 dB的噪声范围内,精度变化在1.9~3.2(单位:角度)之间,传统算法在2.2~3.5之间,表明该算法具有相对较好的噪声鲁棒性。结论 本文算法适用于具有纯像元以及不存在纯像元(建议最大纯度不低于0.8)这两种情况的高光谱遥感图像,并可在原始光谱维度进行光谱解混,从而避免降维所带来的累计误差,因此具有更好的适应范围和应用前景。  相似文献   

17.
周泩朴  耿国华  李康  王飘 《计算机科学》2018,45(Z11):180-184, 207
针对增量式运动恢复结构算法在多视图几何三维重建算法中运行效率低的问题,提出了一种基于AKAZE算法的多视图几何三维重建方法。首先对利用摄像机获得的目标图像使用AKAZE算法检测特征并匹配,并使用随机抽取一致性算法和三视图约束剔除弱匹配图像。然后根据匹配图间的相对位姿参数,通过最小二乘法解算全局旋转参数,并利用三视图约束关系求解全局位移参数。最后进行一次光束法平差优化。实验结果表明,该算法在改善重建效果的基础上提高了处理效率,能够满足快速处理的需求。  相似文献   

18.
A computer-vision based system was used to obtain images of shredded cheese. The images were processed by morphological transformation algorithms such as dilation and erosion to smooth the image edge contours. The smoothed image was skeletonized. Cheese shred lengths were determined from skeletonized images using syntactic methods. This method was successful in recognizing individual shreds even when shreds were touching or overlapping. Shred lengths calculated from the processed images compared very well with those measured manually.  相似文献   

19.
融入邻域作用的高斯混合分割模型及简化求解   总被引:1,自引:0,他引:1       下载免费PDF全文
目的 基于高斯混合模型(GMM)的图像分割方法易受噪声影响,为此采用马尔可夫随机场(MRF)将像素邻域关系引入GMM,提高算法抗噪性。针对融入邻域作用的高斯混合分割模型结构复杂、参数估计困难,难以获得全局最优分割解等问题,提出一种融入邻域作用的高斯混合分割模型及其简化求解方法。方法 首先,构建融入邻域作用的GMM。为了提高GMM的抗噪性,采用MRF建模混合模型权重系数的先验分布。然后,利用贝叶斯理论建立图像分割模型,即品质函数;由于品质函数中参数较多(包括权重系数,均值,协方差)、函数结构复杂,导致参数求解困难。因此,将品质函数中的均值和协方差定义为权重系数的函数,由此简化模型结构并方便其求解;虽然品质函数中仅包含参数权重系数,但结构比较复杂,难以求得参数的解析式。最后,采用非线性共轭梯度法(CGM)求解参数,该方法仅需利用品质函数值和参数梯度值,降低了参数求解的复杂性,并且收敛快,可以得到全局最优解。结果 为了有效而准确地验证提出的分割方法,分别采用本文算法和对比算法对合成图像和高分辨率遥感图像进行分割实验,并定性和定量地评价和分析了实验结果。实验结果表明本文方法的有效抗噪性,并得到很好的分割结果。从参数估计结果可以看出,本文算法有效简化了模型参数,并获得全局最优解。结论 提出一种融入邻域作用的高斯混合分割模型及其简化求解方法,实验结果表明,本文算法提高了算法的抗噪性,有效地简化了模型参数,并得到全局最优参数解。本文算法对具有噪声的高分辨率遥感影像广泛适用。  相似文献   

20.
粒子群优化算法是基于群体智能理论的全局优化算法,它通过种群中粒子间的合作与竞争,对解空间进行智能搜索,从而发现最优解。其优势在于操作简单,容易实现。文中对一种新的算法PSO-BP进行了研究,该充分发挥了粒子群算法的全局寻优能力和BP算法的局部搜索优势,并与BP算法一起对44像素的英文字母进行识别比较。实验表明,将粒子群算法用于神经网络的优化,收敛速度更快,预测精度更高,而且算法简单,且对更高像素的英文字母识别同样适用。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号