首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 125 毫秒
1.
一种有效的新闻视频主题字幕检测方法   总被引:1,自引:0,他引:1       下载免费PDF全文
提出一种新的有效的新闻视频主题字幕检测方法。利用像素的空间量化亮度值计算局部帧差变化,以便检测新闻视频字幕的出现帧和消失帧,并建立4条规则来进一步区分主题字幕和非主题字幕,然后对同一主题字幕所在帧利用多帧结合的方法生成两个候选的主题字幕文字检测帧,选择其中之一进行文字区域的定位和提取;最后用投影法分割字符,并对投影法产生的错误分割字符的常见情况,提出相应的解决方法。实验结果表明了该方法的有效性。  相似文献   

2.
视频字幕检测和提取是视频理解的关键技术之一。文中提出一种两阶段的字幕检测和提取算法,将字幕帧和字幕区域分开检测,从而提高检测效率和准确率。第一阶段进行字幕帧检测:首先,根据帧间差算法进行运动检测,对字幕进行初步判断,得到二值化图像序列;然后,根据普通字幕和滚动字幕的动态特征对该序列进行二次筛选,得到字幕帧。第二阶段对字幕帧进行字幕区域检测和提取:首先,利用Sobel边缘检测算法初检文字区域;然后,利用高度约束等剔除背景,并根据宽高比区分出纵向字幕和横向字幕,从而得到字幕帧中的所有字幕,即静止字幕、普通字幕、滚动字幕。该方法减少了需要检测的帧数,将字幕检测效率提高了约11%。实验对比结果证明, 相比单一使用帧间差和边缘检测的方法,该方法在F值上提升约9%。  相似文献   

3.
一种快速新闻视频标题字幕探测与定位方法*   总被引:1,自引:0,他引:1  
新闻视频字幕包含有丰富的语义信息,尤其是标题字幕,对新闻视频高层语义内容的分析和理解具有 重要作用。利用标题字幕的时空分布特征,提出了一个新闻视频标题字幕的快速探测与定位方法。首先利用标 题字幕持续多帧出现的特点降低所需处理的帧数,然后基于标题字幕的边缘特征和位置特征,标记帧图像的候 选字幕块,对帧序列中的图像进行统计分析,探测出视频中标题字幕的位置及出现消失时间。实验结果表明所 提方法简单有效,能够快速、鲁棒地探测并定位新闻视频中的标题字幕。  相似文献   

4.
提出一种综合运用文字边缘特征、颜色信息以及视频时空特性的字幕提取方法。通过边缘检测获取字幕位置进而得到文字颜色,采用全局混合高斯模型对颜色建模,建模完成后直接利用模型从视频文字变化帧中提取文字颜色层。在判断字幕是否变化时,提出了“与”掩码图的方法。实验结果表明,对于复杂背景下包含1~2种颜色字幕颜色的视频,该方法具有良好的提取效果。  相似文献   

5.
由于视频中固化的字幕影响了不同语种间视频的交流和处理,为此提出了一种基于CEMA算法和纹理修复技术的自动检测与去除视频内字幕的方法。首先,运用CEMA算法检测出视频中的字幕,然后,结合纹理修复技术,将检测出来的字幕从原图中去除,同时,恢复原图中被字幕所遮挡的背景区域。实验结果表明,该方法能较好地检测和去除视频图像内的字幕。  相似文献   

6.
为实现新闻视频图像中标注文本的快速检测与定位,提出了一种有效的字幕定位方法。该方法通过灰度差分统计对视频帧中文字区域进行行定位,再利用行定位信息得到的子图像在垂直方向的投影进行列定位,最后对预处理结果进行过滤和合并得到文字区域定位的精确结果。实验结果表明:该方法效果良好,不受文字大小影响,不受图像背景复杂度限制,方便快捷。  相似文献   

7.
介绍了一种基于面向对象的Visual C++语言,在Windows MFC平台下开发出的视频字幕自动提取系统。该系统应用垂直、水平、对角方向的边缘检测算子检测出3个方向的字幕边缘信息,然后运用形态学对每个方向的边缘图像进行处理,最终运用与融合提取出字幕区域。实验结果验证,该系统性能稳定,字幕定位较精准。  相似文献   

8.
提出一种视频字幕的检测与定位算法.利用视频字幕在时间上的冗余特性,以镜头为基本处理单元,采用监视-跟踪模型和扩展QSDD(PQSDD)度量来定位字幕的起始帧和终止帧,利用起始帧和终止帧确定起始字幕转换帧对和终止字幕转换帧对;对各帧对的差值图像利用边缘特性分别进行字幕定位,并提出一种基于背景复杂度的自适应阈值选取算法实现对边缘图像的二值化;最后时两幅差值图像定位出的字幕区域做逻辑与运算和连通区域分析得到最终的字幕区域.实验结果表明本文算法具有较高的检测速度和定位精度.  相似文献   

9.
基于角点检测和自适应阈值的新闻字幕检测   总被引:3,自引:2,他引:1       下载免费PDF全文
张洋  朱明 《计算机工程》2009,35(13):186-187
目前用于提取新闻视频帧中字幕的方法准确率和检测速度普遍较低,尤其对于分辨率和对比度较小的标题文字,检测效果很差。针对上述问题,提出一种基于角点检测和自适应阈值的字幕检测方法。该方法利用角点检测确定标题帧中的文字区域并进行灰度变换,利用自适应阈值的方法对其进行二值化,得到OCR可识别的文字图片。实验表明,该方法可以快速有效地提取出分辨率和对比度较小的新闻视频标题字幕。  相似文献   

10.
王祖辉  姜维 《计算机工程》2009,35(13):188-189,
目前用于提取新闻视频帧中字幕的方法准确率和检测速度普遍较低,尤其对于分辨率和对比度较小的标题文字,检测效果很差.针对上述问题,提出一种基于角点检测和自适应阈值的字幕检测方法.该方法利用角点检测确定标题帧中的文字区域并进行灰度变换,利用自适应阈值的方法对其进行二值化,得到OCR可识别的文字图片.实验表明,该方法可以快速有效地提取出分辨率和对比度较小的新闻视频标题字幕.  相似文献   

11.
简要介绍了现有视频字幕的检测提取方法及独立成分分析的基本理论和算法,探讨了独立成分分析在视频图像序列处理方面的应用,提出了一种基于独立成分分析的新的视频字幕检测提取方法。仿真实验结果表明,在图像背景复杂、图像分辨率低以及字幕字体、大小、颜色多变这些传统检测提取方法或多或少都存在困难的条件下,该方法都具有良好的视频字幕检测提取能力。  相似文献   

12.
沈任道  黎绍发  江焯林 《计算机工程》2009,35(9):214-216,219
针对大多数视频文本边缘丰富且颜色单一、水平排列的特点,通过基于dcriche边缘的方法迅速确定视频图像中可能包含文本的区域,使用基于颜色的方法从中提取精确的二值文本图像.实验结果表明,该文本提取方法适用于背景复杂的视频图像,且与单纯基于颜色的算法相比,在速度和提取效果方面更具优越性.  相似文献   

13.
一种基于学习的视频字幕验证方法   总被引:1,自引:0,他引:1       下载免费PDF全文
视频字幕验证是字幕检测中的重要环节,其目的在于提高检测准确率。当前的验证方法多是依据经验规则。这些方法在图像背景复杂、图像分辨率低以及字幕字体、大小、颜色多变这些条件下,适应性差。为提高验证方法的适应性和准确性,通过将2维主成分分析(2DPCA)应用到视频字幕验证中,提出了一种基于2DPCA和支撑向量机(SVM)的视频字幕验证方法。该方法分训练和判别两个步骤,即首先采用2DPCA方法提取视频图像块特征,然后通过训练SVM对图像块进行验证和分类。实验结果表明.在图像背景复杂、图像分辨率低以及字幕字体、大小、颜色多变这些传统验证方法或多或少都存在困难的条件下,该方法不仅具有良好的视频字幕验证能力,而且也能明显降低算法的运行耗时。  相似文献   

14.
基于多帧图像的视频文字跟踪和分割算法   总被引:8,自引:2,他引:6  
视频中文字的提取是视频语义理解和检索的重要信息来源.针对视频中的静止文字时间和空间上的冗余特性,以文字区域的边缘位图为特征对检测结果作精化,并提出了基于二分搜索法的快速文字跟踪算法,实现了对文字对象快速有效的定位.在分割阶段,除了采用传统的灰度融合图像进行文字区域增强方法,还结合边缘位图对文字区域进行进一步的背景过滤.实验表明,文字的检测精度和分割质量都有很大提高.  相似文献   

15.
基于词组学习的视频文本检测方法   总被引:2,自引:1,他引:1       下载免费PDF全文
朱成军  蒲菊华  薛玲  熊璋 《计算机工程》2008,34(13):185-187
提出一种以词组作为模式识别对象的中英文视频文本检测算法,其根据视频中文本的笔画结构特点和聚集特性构造一个18维的特征向量,利用支持向量机将视频帧分为文本和非文本区域,通过多分辨率模型检测不同尺寸的文本,采用扩张-收缩的后处理过程校准文本区域位置。实验结果表明,该算法的检测准确率达93.17%,误检率仅为0.73%。  相似文献   

16.
视频中的文字探测   总被引:12,自引:0,他引:12  
视频中出现的文字往往包含大量的信息 ,是视频分析的重要语义线索 ,探测并识别出来的文字可以为基于内容的视频检索提供索引 .本文简要介绍了目前现有的一些文字探测的方法 ,结合视频中出现的文字的特点 ,提出了一种较为高效的视频文字探测方法 ,该方法在一般图像质量的条件下对中、英文文字都有较好的探测效果 .文章给出了实验结果并对相关问题进行了讨论  相似文献   

17.
Video text detection and segmentation for optical character recognition   总被引:1,自引:0,他引:1  
In this paper, we present approaches to detecting and segmenting text in videos. The proposed video-text-detection technique is capable of adaptively applying appropriate operators for video frames of different modalities by classifying the background complexities. Effective operators such as the repeated shifting operations are applied for the noise removal of images with high edge density. Meanwhile, a text-enhancement technique is used to highlight the text regions of low-contrast images. A coarse-to-fine projection technique is then employed to extract text lines from video frames. Experimental results indicate that the proposed text-detection approach is superior to the machine-learning-based (such as SVM and neural network), multiresolution-based, and DCT-based approaches in terms of detection and false-alarm rates. Besides text detection, a technique for text segmentation is also proposed based on adaptive thresholding. A commercial OCR package is then used to recognize the segmented foreground text. A satisfactory character-recognition rate is reported in our experiments.Published online: 14 December 2004  相似文献   

18.
In video indexing and summarization, videotext is the very compact and accurate information. Most videotext detection and extraction methods only deal with the static videotext on video frames. Few methods can handle motion videotext efficiently since motion videotext is hardly extracted well. In this paper, we propose a two-directional videotext extractor, called 2DVTE. It is developed as an integrated system to detect, localize and extract the scrolling videotexts. First, the detection method is carried out by edge information to classify regions into text and non-text regions. Second, referring to the localization on scrolling videotext, we propose the two-dimensional projection profile method with horizontal and vertical edge map information. Considering the characteristics of Chinese text, the vertical edge map is used to localize the possible text region and horizontal edge map is used to refine the text region. Third, the extraction method consists of dual mode adaptive thresholding and multi-seed filling algorithm. In the dual mode adaptive thresholding, it produces the non-rectangle pattern to divide the background and foreground more precisely. Referring to the multi-seed filling algorithm, it is based on the consideration of the minimum and maximum length and four directions of the stroke while the previous method only considers the minimum length and two directions of the stroke. With this multi-seed exploitation on strokes, precise seeds are obtained to produce more sophisticated videotext. Considering high throughput and the low complexity issue, we can achieve a real-time system on detecting, localizing, and extracting the scrolling videotexts with only one frame usage instead of multi-frame integration in other literatures. According to the experiment results on various video sequences, all of the horizontal and vertical scrolling videotexts can be extracted precisely. We also make comparisons with other methods. In our analysis, the performance of our algorithm is superior to other existing methods in speed and quality.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号