首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 609 毫秒
1.
《软件学报》2015,(2):448
为及时反映我国在大数据机器学习方面的研究进展,《软件学报》将出版大数据时代的机器学习研究专刊,收录该领域近期取得的原创性高水平研究成果,进一步促进该领域的发展,专刊将突出大数据背景下机器学习的几个研究热点,包括表示学习(如何构建有效表示)、在线机器学习(如何处理动态数据)、并行与分布式学习(如何进行高效学习)、弱监督学习(如何利用复杂语义)以及在特定领域的应用等,专刊预录用论文需  相似文献   

2.
《软件学报》2014,(11):2732
为及时反映我国在大数据机器学习方面的研究进展。《软件学报》将出版大数据时代的机器学习研究专刊,收录该领域近期取得的原创性高水平研究成果,进一步促进该领域的发展.专刊将突出大数据背景下机器学习的几个研究热点,包括表示学习(如何构建有效表示)、在线机器学习(如何处理动态数据)、并行与分布式学习(如何进行高效学习)、弱监督学习(如何利用复杂语义)以及在特定领域的应用等.专刊预录用论文需  相似文献   

3.
《软件学报》2015,(1):178
为及时反映我国在大数据机器学习方面的研究进展,《软件学报》将出版大数据时代的机器学习研究专刊,收录该领域近期取得的原创性高水平研究成果,进一步促进该领域的发展.专刊将突出大数据背景下机器学习的几个研究热点,包括表示学习(如何构建有效表示)、在线机器学习(如何处理动态数据)、并行与分布  相似文献   

4.
平行学习——机器学习的一个新型理论框架   总被引:2,自引:0,他引:2  
本文提出了一种新的机器学习理论框架.该框架结合了现有多种机器学习理论框架的优点,并针对如何使用软件定义的人工系统从大数据提取有效数据,如何结合预测学习和集成学习,以及如何利用默顿定律进行指示学习等目前机器学习领域面临的重要问题进行了特别设计.  相似文献   

5.
人工智能和量子物理是上世纪发展起来的两个截然不同但又影响深远的学科.近年来,它们在数据科学方面的结合引起了学术界的高度关注,形成了量子机器学习这个新兴领域.利用量子态的叠加性,量子机器学习有望通过量子并行解决目前机器学习中数据量大,训练过程慢的困难,并有望从量子物理的角度提出新的学习模型.目前该领域的研究还处于探索阶段,涵盖内容虽然广泛,但还缺乏系统的梳理.本文将从数据和算法角度总结量子机器学习与经典机器学习的不同,以及其中涉及的关键加速技巧,针对数据结构(数字型、模拟型),计算技巧(相位估计、Grover搜索、内积计算),基础算法(求解线性系统、主成分分析、梯度算法),学习模型(支持向量机、近邻法、感知器、玻尔兹曼机)等4个方面对现有研究成果进行综述,并建议一些可能的研究方向,供本领域的研究人员参考.  相似文献   

6.
李群机器学习十年研究进展   总被引:2,自引:0,他引:2  
该文主要从3个方面介绍李群机器学习近年来的研究进展。首先,该文将解释为什么采用李群结构进行数据或特征描述,以此阐明李群机器学习与传统机器学习方法的区别,并且通过李群在人工智能领域的广泛应用来说明李群表示的普遍性。其次,该文概述了李群机器学习自提出以来的主要学习算法,着重强调最近的一些研究进展。最后,针对目前的研究现状,该文给出李群机器学习未来的一些研究方向。  相似文献   

7.
近年来,机器学习,尤其是深度神经网络方法促进了金融文本挖掘研究的发展,在金融科技(Fintech)领域起着越来越重要的作用.如何从金融大数据中提取有价值的信息已经成为学术界和工业界一个非常有挑战的研究.由于深度神经网络需要大量标注数据,但是金融领域缺乏训练数据,因此,将深度学习应用于金融大数据挖掘并没有取得很好效果.为了更好地解决该问题,利用自监督学习和多任务学习等深度学习领域最新的思想和技术,提出了基于BERT模型架构的开源金融预训练语言模型F-BERT.F-BERT是一种针对特定领域(金融文本数据)的预训练语言模型,它通过在大型金融语料库上进行无监督训练得到.基于BERT架构,F-BERT可以有效地自动将知识从金融大数据中提取出并记忆在模型中,而无需进行特定于金融任务的模型结构修改,从而可以直接将其应用于下游各种金融领域任务,包括股票涨跌预测、金融情绪分类、金融智能客服等.在金融关系提取、金融情绪分类、金融智能问答任务上的大量实验表明了F-BERT模型的有效性和鲁棒性.同时,F-BERT在这3个有代表性的金融文本挖掘任务上均取得了很高的模型准确率,进一步验证了模型的性能.  相似文献   

8.
在线学习算法综述   总被引:1,自引:0,他引:1  
随着信息技术的迅猛发展,尤其是互联网行业的广泛应用,越来越多的领域出现了对海量、高速到达的数据实时处理需求。如何从浩瀚的“数据海洋”中挖掘有用的知识变得尤为重要。传统批处理模式的机器学习算法在面临 大数据时变得力不从心,而在线学习通过流式计算框架,在内存中直接对数据实时运算,为大数据的学习提供了有力的工具,这类在线学习框架有望应对大数据背景下机器学习任务面临的困境与挑战。本文总结了经典和目前主流的在线学习算法,主要包括:(1)在线线性学习算法;(2)基于核的在线学习算法;(3)其他经典的在线学习算法;(4)在线学习算法的优化理论。本文介绍在线学习与深度学习结合方法的研究现状,探讨在线学习算法研究中的关键问题与应用场景,最后展望了在线学习下一步的研究方向。  相似文献   

9.
深度学习方法的提出使得机器学习研究领域得到了巨大突破,但是却需要大量的人工标注数据来辅助完成.在实际问题中,受限于人力成本,许多应用需要对从未见过的实例类别进行推理判断.为此,零样本学习(zero-shot learning,ZSL)应运而生.图作为一种表示事物之间联系的自然数据结构,目前在零样本学习中受到了越来越多的...  相似文献   

10.
深度学习认知计算综述   总被引:14,自引:8,他引:6  
随着大数据和智能时代的到来,机器学习的研究重心已开始从感知领域转移到认知计算(Cognitive computing,CC)领域,如何提升对大规模数据的认知能力已成为智能科学与技术的一大研究热点,最近的深度学习有望开启大数据认知计算领域的研究新热潮.本文总结了近年来大数据环境下基于深度学习的认知计算研究进展,分别从深度学习数据表示、认知模型、深度学习并行计算及其应用等方面进行了前沿概况、比较和分析,对面向大数据的深度学习认知计算的挑战和发展趋势进行了总结、思考与展望.  相似文献   

11.
深度学习研究进展   总被引:6,自引:4,他引:2  
深度学习(Deep Learning)是一个近几年备受关注的研究领域,在机器学习中起着重要的作用.如果说浅层学习是机器学习的一次浪潮,那么深度学习作为机器学习的一个新领域,将掀起机器学习的又一次浪潮.深度学习通过建立、模拟人脑的分层结构来实现对外部输入的数据进行从低级到高级的特征提取,从而能够解释外部数据.首先介绍了深度学习的由来,分析了浅层学习存在的弊端;其次列举了深度学习的经典方法,主要以监督学习和无监督学习来展开介绍;然后对深度学习的最新研究进展及其应用进行了综述;最后总结了深度学习发展所面临的问题.  相似文献   

12.
基于半监督流形学习的人脸识别方法   总被引:1,自引:0,他引:1  
黄鸿  李见为  冯海亮 《计算机科学》2008,35(12):220-223
如何有效地将流形学习(Manifold learning,ML)和半监督学习(Semi-supervised learning,SSL)方法进行结合是近年来模式识别和机器学习领域研究的热点问题.提出一种基于半监督流形学习(Semi-supervised manifold learning,SSML)的人脸识别方法,它在部分有标签信息的人脸数据的情况下,通过利用人脸数据本身的非线性流形结构信息和部分标签信息来调整点与点之间的距离形成距离矩阵,而后基于被调整的距离矩阵进行线性近邻重建来实现维数约简,提取低维鉴别特征用于人脸识别.基于公开的人脸数据库上的实验结果表明,该方法能有效地提高人脸识别的性能.  相似文献   

13.
深度学习的昨天、今天和明天   总被引:17,自引:0,他引:17  
机器学习是人工智能领域的一个重要学科.自从20世纪80年代以来,机器学习在算法、理论和应用等方面都获得巨大成功.2006年以来,机器学习领域中一个叫“深度学习”的课题开始受到学术界广泛关注,到今天已经成为互联网大数据和人工智能的一个热潮.深度学习通过建立类似于人脑的分层模型结构,对输入数据逐级提取从底层到高层的特征,从而能很好地建立从底层信号到高层语义的映射关系.近年来,谷歌、微软、IBM、百度等拥有大数据的高科技公司相继投入大量资源进行深度学习技术研发,在语音、图像、自然语言、在线广告等领域取得显著进展.从对实际应用的贡献来说,深度学习可能是机器学习领域最近这十年来最成功的研究方向.将对深度学习发展的过去和现在做一个全景式的介绍,并讨论深度学习所面临的挑战,以及将来的可能方向.  相似文献   

14.
近年来,由于互联网的高速发展和大数据时代的来临,人工智能随之大热,而推动人工智能迅猛发展的正是深度学习的崛起.大数据时代需要迫切解决的问题是如何将极为复杂繁多的数据进行有效的分析使用,进而充分挖掘利用数据的价值并造福人类.深度学习作为一种实现机器学习的技术,正是解决这一问题的重要法宝,它在处理数据过程中发挥着重要作用并且改变了传统的机器学习方法,已被广泛应用于语音识别、图像识别和自然语言处理等研究领域.如何有效加速深度学习的计算能力一直是科研研究的重点.FPGA凭借其强大的并行计算能力和低功耗等优势成为GPU在加速深度学习领域的有力竞争者.从深度学习的几种典型模型出发,在FPGA加速技术现有特点的基础上从针对神经网络模型的加速器、针对具体问题的加速器、针对优化策略的加速器和针对硬件模板的加速器四方面概括总结了FPGA加速深度学习的研究现状,然后对比了不同加速技术和模型的性能,最后对未来可能发展的方向进行了展望.  相似文献   

15.
概念分解(CF)算法是一种有效的图像表示算法,目前已经广泛应用于维数约简、特征提取、数据挖掘等机器学习领域中.然而,传统CF算法不能利用有效的标签信息,也不能学习数据的稀疏表示.为此,将局部坐标约束和数据有限的标签信息融入到CF模型中,提出了一种带有局部坐标约束的半监督的概念分解(SLCF)算法.SLCF算法利用局部坐...  相似文献   

16.
一种异构直推式迁移学习算法   总被引:1,自引:1,他引:0  
杨柳  景丽萍  于剑 《软件学报》2015,26(11):2762-2780
目标领域已有类别标注的数据较少时会影响学习性能,而与之相关的其他源领域中存在一些已标注数据.迁移学习针对这一情况,提出将与目标领域不同但相关的源领域上学习到的知识应用到目标领域.在实际应用中,例如文本-图像、跨语言迁移学习等,源领域和目标领域的特征空间是不相同的,这就是异构迁移学习.关注的重点是利用源领域中已标注的数据来提高目标领域中未标注数据的学习性能,这种情况是异构直推式迁移学习.因为源领域和目标领域的特征空间不同,异构迁移学习的一个关键问题是学习从源领域到目标领域的映射函数.提出采用无监督匹配源领域和目标领域的特征空间的方法来学习映射函数.学到的映射函数可以把源领域中的数据在目标领域中重新表示.这样,重表示之后的已标注源领域数据可以被迁移到目标领域中.因此,可以采用标准的机器学习方法(例如支持向量机方法)来训练分类器,以对目标领域中未标注的数据进行类别预测.给出一个概率解释以说明其对数据中的一些噪声是具有鲁棒性的.同时还推导了一个样本复杂度的边界,也就是寻找映射函数时需要的样本数.在4个实际的数据库上的实验结果,展示了该方法的有效性.  相似文献   

17.
李艺颖 《网友世界》2013,(16):32-32
深度学习(Deep Learing)作为一种基于人工神经网络的无监督学习方法,是近年来兴起的一种新的混合机器学习模型,现成为人工智能领域中炙手可热的研究技术。深度学习带来了机器学习的一个新浪潮,受到学术界和工业界的广泛重视,并带来大数据的深度学习时代。本文结合大数据时代的具体需求,详细阐述了深度学习的发展和应用,突出了其在人工智能领域的重要地位。  相似文献   

18.
小样本学习研究综述   总被引:1,自引:0,他引:1  
小样本学习旨在通过少量样本学习到解决问题的模型.近年来,在大数据训练模型的趋势下,机器学习和深度学习在许多领域中取得了成功.但是在现实世界中的很多应用场景中,样本量很少或者标注样本很少,而对大量无标签样本进行标注工作将会耗费很大的人力.所以,如何用少量样本进行学习就成为目前人们需要关注的问题.系统地梳理了当前小样本学习...  相似文献   

19.
异质网络特征表示学习技术在各类机器学习任务中发挥了重要的作用。然而目前针对该研究领域的综述却很少。本文对异质网络特征表示学习领域的最新研究进展作系统性的综述。首先,基于“编码器-解码器”的框架,将现有模型分为六类;然后,对每类模型进行系统性地概览、描述和分析,总结每一类模型的优势和缺陷;最后,总结全文并讨论了该领域的开放性问题。  相似文献   

20.
一种不确定性条件下的自主式知识学习模型   总被引:27,自引:0,他引:27       下载免费PDF全文
王国胤  何晓 《软件学报》2003,14(6):1096-1102
在没有领域先验知识条件下的不确定知识主动式学习是机器学习领域中的一个难题.通过研究决策表和决策规则的不确定性,建立基于粗集表示、度量和处理不确定性信息和知识的理论,并且结合Skowron的缺省规则获取算法,提出一种不确定性条件下的数据自主式学习模型和方法,以解决这一问题.通过仿真实验,验证了该自主式学习方法的有效性.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号