首页 | 本学科首页   官方微博 | 高级检索  
     

耦合保持投影哈希跨模态检索
引用本文:闵康凌,张国宾,王磊,李丹萍.耦合保持投影哈希跨模态检索[J].中国图象图形学报,2021,26(7):1558-1567.
作者姓名:闵康凌  张国宾  王磊  李丹萍
作者单位:西安电子科技大学电子工程学院, 西安 710071;上海交通大学海洋智能装备与系统教育部重点实验室, 上海 200240;中国电子科技集团公司第27研究所, 郑州 450047;西安电子科技大学通信工程学院, 西安 710071
基金项目:国家重点研发计划项目(2016YFE0207000);国家自然科学基金项目(61203137,61401328);陕西省自然科学基础研究计划项目(2014JQ8306,2015JM6279)
摘    要:目的 基于哈希的跨模态检索方法因其检索速度快、消耗存储空间小等优势受到了广泛关注。但是由于这类算法大都将不同模态数据直接映射至共同的汉明空间,因此难以克服不同模态数据的特征表示及特征维度的较大差异性,也很难在汉明空间中同时保持原有数据的结构信息。针对上述问题,本文提出了耦合保持投影哈希跨模态检索算法。方法 为了解决跨模态数据间的异构性,先将不同模态的数据投影至各自子空间来减少模态“鸿沟”,并在子空间学习中引入图模型来保持数据间的结构一致性;为了构建不同模态之间的语义关联,再将子空间特征映射至汉明空间以得到一致的哈希码;最后引入类标约束来提升哈希码的判别性。结果 实验在3个数据集上与主流的方法进行了比较,在Wikipedia数据集中,相比于性能第2的算法,在任务图像检索文本(I to T)和任务文本检索图像(T to I)上的平均检索精度(mean average precision,mAP)值分别提升了6%和3%左右;在MIRFlickr数据集中,相比于性能第2的算法,优势分别为2%和5%左右;在Pascal Sentence数据集中,优势分别为10%和7%左右。结论 本文方法可适用于两个模态数据之间的相互检索任务,由于引入了耦合投影和图模型模块,有效提升了跨模态检索的精度。

关 键 词:跨模态检索  哈希  结构保持  图模型  耦合投影  子空间学习
收稿时间:2020/8/28 0:00:00
修稿时间:2021/2/2 0:00:00

Structure-preserving hashing with coupled projections for cross-modal retrieval
Min Kangling,Zhang Guobin,Wang Lei,Li Danping.Structure-preserving hashing with coupled projections for cross-modal retrieval[J].Journal of Image and Graphics,2021,26(7):1558-1567.
Authors:Min Kangling  Zhang Guobin  Wang Lei  Li Danping
Affiliation:School of Electronic Engineering, Xidian University, Xi''an 710071, China;Key Laboratory of Marine Intelligent Equipment and System of Ministry of Education, Shanghai Jiao Tong University, Shanghai 200240, China;The 27th Research Institute, China Electronics Technology Group Corporation, Zhengzhou 450047, China; School of Telecommunications Engineering, Xidian University, Xi''an 710071, China
Abstract:
Keywords:cross-modal retrieval  hashing  structure-preserving  graph model  coupled projections  subspace learning
点击此处可从《中国图象图形学报》浏览原始摘要信息
点击此处可从《中国图象图形学报》下载免费的PDF全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号