首页 | 本学科首页   官方微博 | 高级检索  
     

基于Gist特征与CNN的场景分类方法
引用本文:梁雪琦.基于Gist特征与CNN的场景分类方法[J].电视技术,2016,40(11):7-11.
作者姓名:梁雪琦
作者单位:太原理工大学信息工程学院,山西晋中,030600
基金项目:国家自然科学基金项目(面上项目,重点项目,重大项目);山西省自然科学基金; 山西省回国留学人员科研资助项目;
摘    要:针对大多数场景分类方法只能学习浅层特征,忽略图像之间的相关结构信息,提出一种基于Gist特征与卷积神经网络结合的场景图像分类方法.其中Gist特征用于提取场景图像的全局特征,并将其作为深度学习模型的输入,通过逐层训练卷积神经网络,提取更高层次的特征,并用训练好的卷积神经网络进行分类.实验在O&T室外场景图像数据集和MNIST手写体数据集上考察了batchsize、卷积核对分类结果的影响,并与DBN,NN,SVM和CART作为分类器的分类结果进行比较,充分说明了本文方法的有效性.

关 键 词:Gist特征  特征提取  卷积神经网络  场景分类
收稿时间:4/6/2016 12:00:00 AM
修稿时间:2016/5/12 0:00:00
本文献已被 万方数据 等数据库收录!
点击此处可从《电视技术》浏览原始摘要信息
点击此处可从《电视技术》下载全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号