首页 | 本学科首页   官方微博 | 高级检索  
     

深度学习中的自编码器的表达能力研究
引用本文:王雅思,姚鸿勋,孙晓帅,许鹏飞,赵思成.深度学习中的自编码器的表达能力研究[J].计算机科学,2015,42(9):56-60, 65.
作者姓名:王雅思  姚鸿勋  孙晓帅  许鹏飞  赵思成
作者单位:哈尔滨工业大学计算机科学与技术学院 哈尔滨150001,哈尔滨工业大学计算机科学与技术学院 哈尔滨150001,哈尔滨工业大学计算机科学与技术学院 哈尔滨150001,哈尔滨工业大学计算机科学与技术学院 哈尔滨150001,哈尔滨工业大学计算机科学与技术学院 哈尔滨150001
基金项目:本文受国家自然基金项目(61472103),国家自然基金重点项目(61133003)资助
摘    要:近年来,深度学习框架和非监督学习方法越来越流行,吸引了很多机器学习和人工智能领域研究者的兴趣。从深度学习中的“构造模块”入手,主要研究自编码器的表达能力,尤其是自编码器在数据降维方面的能力及其表达能力的稳定性。从深度学习的基础方法入手,旨在更好地理解深度学习。第一,自编码器和限制玻尔兹曼机是深度学习方法中的两种“构造模块”,它们都可用作表达转换的途径,也可看作相对较新的非线性降维方法。第二,重点探究了对于视觉特征的理解,自编码器是否是一个好的表达转换途径。主要评估了单层自编码器的表达能力,并与传统方法PCA进行比较。基于原始像素和局部描述子的实验验证了自编码器的降维作用、自编码器表达能力的稳定性以及提出的基于自编码器的转换策略的有效性。最后,讨论了下一步的研究方向。

关 键 词:深度学习  表达转换  数据降维  单层自编码器

Representation Ability Research of Auto-encoders in Deep Learning
WANG Ya-si,YAO Hong-xun,SUN Xiao-shuai,XU Peng-fei and ZHAO Si-cheng.Representation Ability Research of Auto-encoders in Deep Learning[J].Computer Science,2015,42(9):56-60, 65.
Authors:WANG Ya-si  YAO Hong-xun  SUN Xiao-shuai  XU Peng-fei and ZHAO Si-cheng
Affiliation:School of Computer Science and Technology,Harbin Institute of Technology,Harbin 150001,China,School of Computer Science and Technology,Harbin Institute of Technology,Harbin 150001,China,School of Computer Science and Technology,Harbin Institute of Technology,Harbin 150001,China,School of Computer Science and Technology,Harbin Institute of Technology,Harbin 150001,China and School of Computer Science and Technology,Harbin Institute of Technology,Harbin 150001,China
Abstract:
Keywords:Deep learning  Representation transformation  Dimensionality reduction  Single-layer auto-encoder
本文献已被 万方数据 等数据库收录!
点击此处可从《计算机科学》浏览原始摘要信息
点击此处可从《计算机科学》下载全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号