首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 96 毫秒
1.
一种新的去除视觉文本图像椒盐噪声的算法   总被引:3,自引:1,他引:3       下载免费PDF全文
针对视觉文本图像,在获取、处理、传输中产生的椒盐噪声,提出一种基于文字笔画特性消除椒盐噪声的新算法。该算法智能判断被处理像素及其邻域内的像素点是否为噪声,从而有效地把文字目标和椒盐噪声加以区分。实验结果显示,相比传统的去噪和平滑算法,该方法能准确地抑制噪声,同时避免了对文字笔画的影响,减少了对后继识别的干扰。  相似文献   

2.
视觉文档图像的几何校正   总被引:2,自引:0,他引:2  
田学东  马兴杰  韩磊  刘海博 《计算机应用》2007,27(12):3045-3047
在以数码相机等数字设备拍摄文档资料时,所拍摄的图像经常会产生各种各样的几何变形,这种变形可能会导致识别软件中的版面分析和切分算法失效,从而使文档图像无法被识别。为了使普通的识别软件能够对数码相机等拍摄的文档图像进行识别,有必要对其进行几何校正。根据几何变形产生的原因对其进行了分类,并针对不同种类的变形提出了相应的校正算法。实验结果证明该分类方法和相应校正算法都有较好的效果。  相似文献   

3.
周先博  王敏 《计算机仿真》2021,38(3):157-160
为了解决广角图像背景区内容复杂导致的视觉效果差问题,提出一种考虑视觉相似性的广角图像背景区域分层增强方法.首先根据视觉习惯将对图像亮度进行调整,通过相似性像素取值计算出符合人眼需求的相似性曲线,使最初图像转换至模糊域中,并求解得出模糊特征平面,再运用分段函数实现灰度映射增强,同时将增强后的图像空间像素分层映射到对应模糊...  相似文献   

4.
文档图像中书写线的检测与去除   总被引:2,自引:0,他引:2  
采用快速的Hough变换检测文档图像中的书写线,从图像中抽取少量特征点,将其分成两个子集,每次从两个子集中各取一个上点计算变换窨内的对应参数,当变换空间的累加值达到预先设定的阈值就认为已成功书写线,使Hough变换的速度大大加快,具有很强的实用价值,根据书写线与字符笔画的位置关系去除书写线,对书写线和相交的区域依据书写线的宽度和相交情形确定不同的结构元素,进行数学形态学的开运算,去除书写线的同时,较好地保持了字符笔画,实验结果表明,对信封图像上书写线的检测和去除有满意的处理效果。  相似文献   

5.
可保留图像细节的直方图修正法   总被引:6,自引:0,他引:6       下载免费PDF全文
针对图像经直方图修正(Histogram Modification,HM)后因部分灰度级被合并而导致细节丢失的问题,提出了两种可保留图像细节的直方图修正方法:一种是扩展灰度范围的HM方法,另一种为局部灰度修正HM方法。对多幅不同类型图像进行处理后的实验结果表明,这两种方法不仅可有效保留图像细节信息,而且算法简洁,计算量小。  相似文献   

6.
有效去除图像中脉冲噪声的新型滤波算法   总被引:24,自引:1,他引:24  
提出一种基于局部极值噪声检测的迭代中值滤波算法.该算法集中了minrnax算法与PSM算法各自的优势,并将两种算法有机地结合起来.经过实验仿真并与其他滤波算法进行比较表明,该算法可以有效地去除图像中的脉冲噪声,尤其是在噪声密度非常大的情况下表现了很好的性能。  相似文献   

7.
条带噪声的存在不但妨碍高光谱图像的目视判读,而且制约高光谱遥感的定量应用。针对小波变换法条带噪声去除过程中遇到的条带噪声和图像有用信息难以有效分离的问题,根据小波变换的方向性和数学显微镜特性,提出了一种新的基于小波变换的条带噪声去除方法。这种方法首先对含有条带噪声的图像进行一定层数的小波分解;然后对每一层分解得到的与条带噪声分布方向相同的子图像再进行一定层数的小波分解,从而实现条带噪声和图像有用信息的有效分离,将含有条带噪声的子图像置零;最后利用小波反变换得到去除条带噪声的图像。以欧洲空间局PROBA卫星上搭载的CHRIS高光谱数据为例,采用相关系数(R)、结构相似度(SSIM)和峰值信噪比(PSNR)3个定量指标,对比分析了新方法与矩匹配法、傅立叶滤波法和小波阈值法的条带噪声去除效果。结果表明新方法去噪后的图像具有最高的R、SSIM和PSNR,新方法能够有效地去除高光谱图像中的条带噪声,同时较好地保留了原始图像的有用信息。
  相似文献   

8.
该文对传统的高斯图像噪声的实现从高斯特性和噪声率等方面提出了两种改进方法,并给出按改进方法和传统方法产生的高斯噪声图像的直方图。改进方法较传统方法有高斯特性更准确,噪声率(图像中受噪声影响的像素数与总像素数之比)可调,“白”性不变等特点,更适于成为图像处理研究的噪声源。  相似文献   

9.
一种基于误差传递的图像噪声去除方法   总被引:1,自引:0,他引:1  
为了滤除图像在彩集过程中受到干扰引起的噪声和增强图像的有用信息,提出了一种基于误差传递原理的图像噪声去除方法。该方法在计算复杂度、执行时间、二值化效果等方面均有较好表现,对于图像特征主要包含在图像的几何特征中的实时图像处理系统,取得了很好的实际效果。  相似文献   

10.
1.引言图像低层的物理视觉特征与人的高层认识之间不存在明显的直接联系,这就是视觉信息处理中的“语义鸿沟,这使得基于图像全局特征的检索结果与人的主观感觉大相径庭。要缓解“语义鸿沟”问题,一个直接的方法是在低层的视觉特征和高层的主观语义之间建立多个中间处理过程,使得两者能够有个渐进的过渡。这种分而治之的策略,需要保证每一步处理结果都要更加有利于主观语义的辨认,同时这些处理  相似文献   

11.
传统灰度图像直方图均衡模型在处理薄雾条件下的降质图像时,会出现概率较低的灰度级合并,总的灰度级有所损失问题,因此导致图像细节丢失,灰度分辨率下降,针对这一问题提出了改进的灰度图像直方图均衡模型,采取去除原始图像实际没有占有的灰度级,只对不为0的灰度级进行直方图均衡,从而保证总的灰度级数不减少,可以在一定程度上解决灰度级保持的问题。实验表明该直方图均衡模型可以对薄雾条件下降质图像处理取得较好的增强效果。  相似文献   

12.
CLAHE和细节放大相结合的档案图像增强方法   总被引:1,自引:0,他引:1       下载免费PDF全文
图像增强可提高扫描档案图像的质量,关系到档案图像信息系统的生命。运用CLAHE可以进行全局对比度拉伸,运用Lee滤波器可进行局部细节放大,将两者结合可形成放大细节的CLAHE方法。对结合的方法从两方面进行改进,一是引入噪声抑制措施,使得Lee滤波器只放大图像细节而不放大噪声;二是制定柔性细节放大机制,使得细节放大更加符合人类视觉习惯。改进后的方法既能提高全局对比度,又能有效放大局部细节。实验表明,提出的方法对包含文本、图形和图像的扫描档案具有较好的增强效果,且能够满足国家行业规范要求和实际应用需要。  相似文献   

13.
集装箱X光图像增强技术   总被引:1,自引:0,他引:1  
由于集装箱自身的构造特点以及X光扫描机的信息采集误差,使得集装箱X光图像有很强的竖纹噪声。为提高X光图像中感兴趣区域的清晰度并抑制不感兴趣信息,提出了一种以有限对比适应性直方图均等化为基础的改进方法:对原始图像进行有限对比适应的直方图均等化处理,进行图像增强,并对处理后的图像进行中值滤波,以减少箱体的竖纹噪声,得到图像的低频信息,然后,对原图像进行拉普拉斯滤波处理,得到图像的相对高频信息。最后,将处理后的两幅图像加权相加,作为增强后的目标图像。实验证明,该方法能有效削减竖纹噪声,很好地保存图像的目标信息,便于对集装箱X光图像进一步研究。  相似文献   

14.
基于形态学的文档图像径向校正算法   总被引:1,自引:0,他引:1  
常骏  苗立刚 《计算机应用》2010,30(4):950-952
手持相机拍摄的文档图像存在不同程度的镜头失真。根据文档图像的文本行信息,提出了一种基于数学形态学的镜头校正算法。首先利用自适应阈值方法分割文档图像,并通过形态学闭运算把连通体聚类为文本行。然后利用二次多项式模型拟合文本行的中心线,并建立径向失真校正的目标函数。该目标函数把中心线对应的曲线映射为直线,从而求出文档图像的镜头失真参数。实验结果表明,该校正算法可以有效地校正文档图像各种程度的径向失真。  相似文献   

15.
针对扭曲中文文本图像文字识别率不理想这一问题,提出一种基于连通域的文本图像快速扭曲校正方法。根据汉字结构特征合并连通域,实现切分文字;利用就近聚合文字的方法定位文本行,按行垂直校正每个文字位置,获得被校正的图像。实验结果表明,该方法校正速度快,对严重扭曲的中文文本图像能取得较好的校正效果,校正后图像的OCR识别率明显提高。  相似文献   

16.
The requirement of detection and identification of tables from document images is crucial to any document image analysis and digital library system. In this paper we report a very simple but extremely powerful approach to detect tables present in document pages. The algorithm relies on the observation that the tables have distinct columns which implies that gaps between the fields are substantially larger than the gaps between the words in text lines. This deceptively simple observation has led to the design of a simple but powerful table detection system with low computation cost. Moreover, mathematical foundation of the approach is also established including formation of a regular expression for ease of implementation.  相似文献   

17.
As sharing documents through the World Wide Web has been recently and constantly increasing, the need for creating hyperdocuments to make them accessible and retrievable via the internet, in formats such as HTML and SGML/XML, has also been rapidly rising. Nevertheless, only a few works have been done on the conversion of paper documents into hyperdocuments. Moreover, most of these studies have concentrated on the direct conversion of single-column document images that include only text and image objects. In this paper, we propose two methods for converting complex multi-column document images into HTML documents, and a method for generating a structured table of contents page based on the logical structure analysis of the document image. Experiments with various kinds of multi-column document images show that, by using the proposed methods, their corresponding HTML documents can be generated in the same visual layout as that of the document images, and their structured table of contents page can be also produced with the hierarchically ordered section titles hyperlinked to the contents.  相似文献   

18.
Historical document images suffer from several kinds of degradation affecting their readability and increase their sizes when digitizing. Indeed, preserving the old document heritage requires an important storage infrastructures, while this space could be significantly reduced if one manages to safeguard these documents without their considerable amount of artifacts which increasing their entropy. We present in this work a new and more advantageous solution for the document image compression technology dedicated to National Archives and Libraries. The aim of this work is to propose a novel historical document compression scheme judiciously combined with a novel automatic enhancement scheme, both based on PDE-Analysis applied in an innovative way, to face this challenging issue without affecting the look and feel of the historical document image. Throughout experiment, the proposal is fairly evaluated on overall DIBCO datasets and some historical documents collected from the web by means of objective measures and perceptual judgment against the most used enhancement algorithms, the most robust compression standards such as JPEG-XR and the most used sequential compression–enhancement combinations techniques to proof the robustness of the proposed collaborative approach against classic sequential approaches.  相似文献   

19.
This study presents a new method, namely the multi-plane segmentation approach, for segmenting and extracting textual objects from various real-life complex document images. The proposed multi-plane segmentation approach first decomposes the document image into distinct object planes to extract and separate homogeneous objects including textual regions of interest, non-text objects such as graphics and pictures, and background textures. This process consists of two stages—localized histogram multilevel thresholding and multi-plane region matching and assembling. Then a text extraction procedure is applied on the resultant planes to detect and extract textual objects with different characteristics in the respective planes. The proposed approach processes document images regionally and adaptively according to their respective local features. Hence detailed characteristics of the extracted textual objects, particularly small characters with thin strokes, as well as gradational illuminations of characters, can be well-preserved. Moreover, this way also allows background objects with uneven, gradational, and sharp variations in contrast, illumination, and texture to be handled easily and well. Experimental results on real-life complex document images demonstrate that the proposed approach is effective in extracting textual objects with various illuminations, sizes, and font styles from various types of complex document images.  相似文献   

20.
基于改进Hough变换的文本图像倾斜校正方法   总被引:2,自引:0,他引:2  
文本图像在扫描输入时产生的倾斜现象会对后续的页面分割及光学字符识别(OCR)处理产生很大的影响,而传统的标准Hough变换虽然具有对噪声不敏感,不依赖于直线连续性的优点,但由于计算量偏大,速度慢,在实用时有较大的局限性。提出一种基于改进的Hough变换的文本图像倾斜校正方法,通过在变分辨率图像中采用不同的文本方向提取算法,及选择合理投票门限等改进Hough变换的措施,减小了由图像区域及文字笔画粗细所产生的对倾角判定的不利影响,并使用基于偏移值的方法实现页面倾斜的快速校正。实验结果表明,该算法实现了大范围高精度的文本图像倾角的快速检测,具有较强的实用性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号