一种联合文本和图像信息的行人检测方法 |
| |
作者姓名: | 周炫余 刘娟 卢笑 邵鹏 罗飞 |
| |
作者单位: | 1. 武汉大学软件国家重点实验室, 湖北武汉 430072;
2. 武汉大学计算机学院, 湖北武汉 430072;
3. 湖南大学电气与信息工程学院, 湖南长沙 410082 |
| |
基金项目: | 国家自然科学基金(61272274),国家自然科学基金青年项目(61402340),湖北省自然科学基金(2014CFB194) |
| |
摘 要: | 针对纯视觉行人检测方法存在的误检、漏检率高,遮挡目标以及小尺度目标检测精度低等问题,提出一种联合文本和图像信息的行人检测方法.该方法首先利用图像分析的方法初步获取图像目标的候选框,其次通过文本分析的方法获取文本中有关图像目标的实体表达,并提出一种基于马尔科夫随机场的模型用于推断图像候选框与文本实体表达之间的共指关系(Coreference Relation),以此达到联合图像和文本信息以辅助机器视觉提高交通场景下行人检测精度的目的.在增加了图像文本描述的加州理工大学行人检测数据集上进行的测评结果表明,该方法不仅可以在图像信息的基础上联合文本信息提高交通场景中的行人检测精度,也能在文本信息的基础上联合图像信息提高文本中的指代消解(Anaphora Resolution)精度.
|
关 键 词: | 行人检测 马尔科夫随机场 文本-图像信息联合 共指关系 指代消解 |
收稿时间: | 2015-12-10 |
本文献已被 万方数据 等数据库收录! |
| 点击此处可从《电子学报》浏览原始摘要信息 |
|
点击此处可从《电子学报》下载全文 |
|