首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 171 毫秒
1.
一种快速新闻视频标题字幕探测与定位方法*   总被引:1,自引:0,他引:1  
新闻视频字幕包含有丰富的语义信息,尤其是标题字幕,对新闻视频高层语义内容的分析和理解具有 重要作用。利用标题字幕的时空分布特征,提出了一个新闻视频标题字幕的快速探测与定位方法。首先利用标 题字幕持续多帧出现的特点降低所需处理的帧数,然后基于标题字幕的边缘特征和位置特征,标记帧图像的候 选字幕块,对帧序列中的图像进行统计分析,探测出视频中标题字幕的位置及出现消失时间。实验结果表明所 提方法简单有效,能够快速、鲁棒地探测并定位新闻视频中的标题字幕。  相似文献   

2.
新闻视频帧中的字幕探测   总被引:12,自引:0,他引:12  
谢毓湘  栾悉道  吴玲达  老松杨 《计算机工程》2004,30(20):167-168,176
提出了一种新闻视频中的字幕探测方法,该方法主要针对新闻视频中的编辑字幕(如标题字幕)进行探测,包括灰度变换、边缘检测、字幕区域探测、字幕区域合并与过滤以及二值化等步骤。该算法具有简单、高效,对阈值的设定不敏感等特点,对大多数新闻视频中的字幕都具有较好的效果。  相似文献   

3.
视频中滚动字幕通常表达一段完整信息,对其进行检测与跟踪是字幕识别与应用的重要前提.通过分析视频中滚动字幕的特征,在Sobel边缘检测的基础上,提出规则和统计结合的字幕检测方法及垂直边缘特征最小差平方和的字幕跟踪方法.从视频全局角度出发,对相邻帧的边缘图像进行差分,选取水平边缘特征并根据规则检测字幕区域的候选边界,通过统计边界出现频数,定位滚动字幕区域;计算相邻滚动字幕条在不同偏移值下垂直边缘特征差平方和,取其最小值作为相邻字幕的偏移量,从而实现字幕的跟踪.实验结果显示,该文方法从含有多种字幕类型的视频中检测出滚动字幕的准确率可达96.61%、字幕跟踪的准确率达99.43%,充分说明文中方法的有效性.  相似文献   

4.
新闻视频条目分割是新闻视频检索和浏览中重要的底层支持技术,本文提出了一种融合主持人模板匹配和主题字幕帧检测的多模态新闻视频条目分割算法。先用基于主持人模板的算法进行第一次分割,再用基于改进的字幕检测方法进行第二次分割,最后将两次分割的结果融合并去除重复的分割点。实验证明,该算法对新闻视频条目分割具有较好的效果。  相似文献   

5.
视频已广泛应用于各个领域,所以对视频字幕的处理具有重要的意义。提出一种新的数字视频字幕检测及恢复算法。首先进行边缘检测,通过分析图像的边缘密度在水平和垂直方向的投影,得到字幕的粗略区域;再利用水平集方法进一步确定字幕的具体位置;最后用Criminisi算法对检测到的字幕进行恢复。通过对不同类型的视频素材进行实验验证,结果表明该方法能够达到理想效果。  相似文献   

6.
探测出新闻故事的边界,将对新闻视频的结构化分析以及新闻视频的语义理解产生积极的作用.通过对新闻视频的结构进行分析,提出了一种融合镜头、播音员、标题字幕、静音等多种特征的新闻故事探测方法.该方法避免了依赖单特征探测新闻故事边界的不足,实验证明,该方法可以获得平均96%的故事边界探准率,能够较好地完成新闻故事边界探测的任务.  相似文献   

7.
由于视频中固化的字幕影响了不同语种间视频的交流和处理,为此提出了一种基于CEMA算法和纹理修复技术的自动检测与去除视频内字幕的方法。首先,运用CEMA算法检测出视频中的字幕,然后,结合纹理修复技术,将检测出来的字幕从原图中去除,同时,恢复原图中被字幕所遮挡的背景区域。实验结果表明,该方法能较好地检测和去除视频图像内的字幕。  相似文献   

8.
提出一种视频字幕的检测与定位算法.利用视频字幕在时间上的冗余特性,以镜头为基本处理单元,采用监视-跟踪模型和扩展QSDD(PQSDD)度量来定位字幕的起始帧和终止帧,利用起始帧和终止帧确定起始字幕转换帧对和终止字幕转换帧对;对各帧对的差值图像利用边缘特性分别进行字幕定位,并提出一种基于背景复杂度的自适应阈值选取算法实现对边缘图像的二值化;最后时两幅差值图像定位出的字幕区域做逻辑与运算和连通区域分析得到最终的字幕区域.实验结果表明本文算法具有较高的检测速度和定位精度.  相似文献   

9.
为了在视频图像中进行字幕信息的实时提取,提出了一套简捷而有效的方法。首先进行文字事件检测,然后进行边缘检测、阈值计算和边缘尺寸限制,最后依据文字像素密度范围进一步滤去非文字区域的视频字幕,提出的叠加水平和垂直方向边缘的方法,加强了检测到的文字的边缘;对边缘进行尺寸限制过滤掉了不符合文字尺寸的边缘。应用投影法最终确定视频字幕所在区域。最后,利用OCR识别技术对提取出来的文字区域进行识别,完成视频中文字的提取。以上方法的结合保证了提出算法的正确率和鲁棒性。  相似文献   

10.
视频字幕检测和提取是视频理解的关键技术之一。文中提出一种两阶段的字幕检测和提取算法,将字幕帧和字幕区域分开检测,从而提高检测效率和准确率。第一阶段进行字幕帧检测:首先,根据帧间差算法进行运动检测,对字幕进行初步判断,得到二值化图像序列;然后,根据普通字幕和滚动字幕的动态特征对该序列进行二次筛选,得到字幕帧。第二阶段对字幕帧进行字幕区域检测和提取:首先,利用Sobel边缘检测算法初检文字区域;然后,利用高度约束等剔除背景,并根据宽高比区分出纵向字幕和横向字幕,从而得到字幕帧中的所有字幕,即静止字幕、普通字幕、滚动字幕。该方法减少了需要检测的帧数,将字幕检测效率提高了约11%。实验对比结果证明, 相比单一使用帧间差和边缘检测的方法,该方法在F值上提升约9%。  相似文献   

11.
新闻视频的标题是对新闻内容的重要释意,是新闻编辑和新闻检索的重要依据之一,文中提出了一种基于形态学操作的新闻视频标题检测定位方法,该方法在边缘图像预处理和滤波去噪的基础上进行有序的闭运算、开运算、腐蚀等多种形态学运算,最后采用象素密度分类方法有针对性地对视频帧下三分之一部分检测和定位标题区域,通过对央视、凤凰卫视、湖南卫视等具有代表性的新闻视频进行实验取得了较高的召回率和准确率,证明了该方法的优越性.  相似文献   

12.
为实现新闻视频图像中标注文本的快速检测与定位,提出了一种有效的字幕定位方法。该方法通过灰度差分统计对视频帧中文字区域进行行定位,再利用行定位信息得到的子图像在垂直方向的投影进行列定位,最后对预处理结果进行过滤和合并得到文字区域定位的精确结果。实验结果表明:该方法效果良好,不受文字大小影响,不受图像背景复杂度限制,方便快捷。  相似文献   

13.
基于角点检测和自适应阈值的新闻字幕检测   总被引:3,自引:2,他引:1       下载免费PDF全文
张洋  朱明 《计算机工程》2009,35(13):186-187
目前用于提取新闻视频帧中字幕的方法准确率和检测速度普遍较低,尤其对于分辨率和对比度较小的标题文字,检测效果很差。针对上述问题,提出一种基于角点检测和自适应阈值的字幕检测方法。该方法利用角点检测确定标题帧中的文字区域并进行灰度变换,利用自适应阈值的方法对其进行二值化,得到OCR可识别的文字图片。实验表明,该方法可以快速有效地提取出分辨率和对比度较小的新闻视频标题字幕。  相似文献   

14.
一种压缩域上的快速标题文字探测算法及其应用   总被引:1,自引:0,他引:1  
王伟强  高文  高文 《计算机学报》2001,24(6):620-626
提出了一种在MPEG压缩流上基于模型的快速标题文字探测算法。对标题文字叠加模型的分析表明,视频流各分量值在标题文字区将属于特定的 范围区间。基于该特征,该文给出了一种利用色度分量统计特征在压缩域上检测标题的快速算法,并对算法的加速以及模型建立方法进行了讨论,该技术被成功地应用到自动创建图片目录,实现了用户通过极少目的图片对一天新闻节目内容的快速浏览。实验结果表明算法不仅具有理想的正确率96.6%与查全率100%,而且具有超实时的探测速度。  相似文献   

15.
基于视频的字幕检索与提取   总被引:2,自引:0,他引:2  
在许多视频流如新闻节目、VCD中均含有字幕,这些字幕含有丰富的语义信息。本文针对字幕的独有特性,提出了基于视频的字幕检索和提取方法,实验结果令人满意。另外这种方法对于日文、韩文等其它语言字幕的检索也有一定的参考价值。  相似文献   

16.

Extraction of news text captions aims at a digital understanding of what is happening in a specific region during a certain period that helps in better communication between different nations because we can easily translate the plain text from one language to another. Moving text captions causes blurry effects that are a significant cause of text quality impairments in the news channels. Most of the existing text caption detection models do not address this problem in a way that captures the different dynamic motion of captions, gathers a full news story among several frames in the sequence, resolves the blurring effect of text motion, offers a language-independent model, or provides it as an end-to-end solution for the community to use. We process the frames coming in sequence and extract edge features using either the Hough transform or our color-based technique. We verify text existence using a Convolutional Neural Network (CNN) text detection pre-trained model. We analyze the caption motion status using hybrid pre-trained Recurrent Neural Network (RNN) of Long Short-Term Memory (LSTM) type model and correlation-based model. In case the motion is determined to be horizontal rotation, there are two problems. First, it means that text keeps rotating with no stop resulting in a high blurring effect that affects the text quality and consequently resulting in low character recognition accuracy. Second, there are successive news stories which are separated by the channel logo or long spaces. We managed to solve the first problem by deblurring the text image using either Bicubic Spline Interpolation (BSI) technique or the Denoising Autoencoder Neural Network (DANN). We solved the second problem using a Point Feature Matching (PFM) technique to match the existing channel logo with the channels’ logo database (ground truth). We evaluate our framework using Abbyy® SDK as a standalone tool used for text recognition supporting different languages.

  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号