基于Gist特征与CNN的场景分类方法 |
| |
引用本文: | 梁雪琦.基于Gist特征与CNN的场景分类方法[J].电视技术,2016,40(11):7-11. |
| |
作者姓名: | 梁雪琦 |
| |
作者单位: | 太原理工大学信息工程学院,山西晋中,030600 |
| |
基金项目: | 国家自然科学基金项目(面上项目,重点项目,重大项目);山西省自然科学基金; 山西省回国留学人员科研资助项目; |
| |
摘 要: | 针对大多数场景分类方法只能学习浅层特征,忽略图像之间的相关结构信息,提出一种基于Gist特征与卷积神经网络结合的场景图像分类方法.其中Gist特征用于提取场景图像的全局特征,并将其作为深度学习模型的输入,通过逐层训练卷积神经网络,提取更高层次的特征,并用训练好的卷积神经网络进行分类.实验在O&T室外场景图像数据集和MNIST手写体数据集上考察了batchsize、卷积核对分类结果的影响,并与DBN,NN,SVM和CART作为分类器的分类结果进行比较,充分说明了本文方法的有效性.
|
关 键 词: | Gist特征 特征提取 卷积神经网络 场景分类 |
收稿时间: | 4/6/2016 12:00:00 AM |
修稿时间: | 2016/5/12 0:00:00 |
本文献已被 万方数据 等数据库收录! |
| 点击此处可从《电视技术》浏览原始摘要信息 |
|
点击此处可从《电视技术》下载全文 |
|