首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 15 毫秒
1.
近年来许多基于通用目标检测框架的文本检测方法相继被提出,这些方法往往是直接预测文本的整个边界框,受网络感受野的限制而难以有效检测长文本。为改进长文本难以有效检测的问题,提出了基于短边顶点回归网络的文本检测方法。该方法将文本区域划分为3类区域,即两条短边附近的区域及中间区域,采用分离再组合的方式检测文本,不再直接预测文本的整个边界框。首先,在一个融合多层特征的残差网络上预测分割3类文本区域,同时还将在每个短边区域的像素点处预测与之邻近的一条短边的两个顶点。然后,在后处理过程中,利用文本中间区域与短边区域相邻的关系将文本两类短边区域进行组合,两类短边区域预测的短边顶点将随之结合,便能产生完整精确的文本检测结果。在一个长文本检测数据集和公开的MSRA-TD 500,ICDAR 2015及ICDAR 2013自然场景文本检测数据集上进行测试比较,该方法的精度与速度超过目前绝大部分方法。实验结果表明,该方法在文本检测,尤其是长文本检测,具有一定的优越性。  相似文献   

2.
为了提升低质场景文本图像的文字检测和识别性能,提出一种基于Transformer的字符级场景文本检测算法。依据场景文本行中的字符顺序,设计基于Transformer的编码-解码结构,能够输出每个字符检测框的坐标以及排序预测。根据匈牙利算法的思想,设计了基于字符检测框坐标及排序损失的损失函数,以提高匹配检测结果的准确性。在3个字符级标注的场景文本数据集上的场景字符检测、场景字符识别的相关实验结果表明,所提算法能够取得较好的性能,在多个评价指标上均优于对比算法。  相似文献   

3.
基于N-Gram的文本去重方法研究   总被引:1,自引:0,他引:1  
中文文本去重是自然语言处理研究的一个重要方向。该文提出了一种基于N-Gram项和特征映射的文本去重方法。该方法提取N-Gram项的序列作为文本特征,将N-Gram项映射成哈希值,通过查找哈希值来判定文本是否重复。利用哈希数值查找代替字符串匹配,为实现快速的去重方法提供了一种新的可行的方法。实验表明,该算法对于普通网页文本去重能取得很好的效果。  相似文献   

4.
不同的文本类型具有不同的语言表达形式,文本类型理论有助于客观地分析文本的功能,从而采取适当的翻译策略.从文本类型理论入手,通过对旅游文本汉英翻译的实例分析,探讨文本类型的划分及文本功能的确定对旅游文本的翻译策略和方法上的指导作用.  相似文献   

5.
介绍了文本分类技术和文本倾向性分类技术,并基于文本倾向性分类技术分析了图书评论中的信息,研究如何将机器学习方法应用在图书评论的倾向性分类中,提出了一种图书评价模型构建的解决方法.  相似文献   

6.
阐述了中文文本自动分类技术在法制领域中对描述案情的法律文本自动分类的改进及应用,并初步构建了一个中文法律案情文本分类系统.该系统在Visual C 环境上编程实现,通过对测试集中文本实验结果的分析,表明该方法具有一定的分类功能.  相似文献   

7.
以实地拍摄的湖北省博物馆和大英博物馆文物文本图片为辅佐语料,运用Werlich文本语法理论构建了适用于湖北省博物馆文本英译的平行文本比较模式。在对比分析中英文博物馆文本在内部构成方面的异同之处后,对湖北省博物馆文本英译提出了建议。  相似文献   

8.
FRM是一种阅读教学法,其义指四种文本资源,即文本符号解码、文本意义推理、文本环境应用和文本信息分析资源。FRM可为阅读提供怎样阅读,同时也识别阅读材料和阅读训练的模式。将FRM应用于英语阅读教学很有意义,它使教师能够合理设计他们的阅读计划,同时也使阅读困难的学生从四资源中得到阅读训练的帮助。  相似文献   

9.
为了能有效分割版面复杂的文本图像,提出了一种新的文本图像分割算法。该算法先采用Hough变换来进行文本倾斜的检测和校正,再根据本文提出的投影直方图法自适应地确定文本行的间距,之后应用偏微分方程方法对文本图像进行分割。最后通过实例阐明了该算法的有效性。  相似文献   

10.
由于web文本挖掘信息量大,且缺乏结构化、组织的规整性,目前几乎多数的互联网查询工具都面临匹配的查准率低、给出的查询结果大量冗余,但是查全率却不高的问题。就Web文本挖掘的相关问题进行分析,在分析web挖掘和其研究方向的基础上,重点对于web文本挖掘进行探讨。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号