首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 93 毫秒
1.
开放环境下机器学习面临类别集可变、非独立同分布、噪声干扰等诸多问题,容易导致传统封闭环境机器学习系统性能急剧下降.因此,面向开放环境的机器学习方法是当前人工智能研究的前沿热点之一.文中主要从泛化、优化、鲁棒性和效能度量四个方面介绍开放环境机器学习理论研究现状和重要进展.在泛化理论中,具体介绍开放类别集检测、迁移学习与元学习、稀疏学习等泛化分析成果.在优化理论中,具体介绍随机与稀疏优化、在线与持续优化、分布式与联邦优化等理论分析研究成果.在鲁棒性理论中,具体介绍对抗样本、随机噪声、噪声标签等干扰下鲁棒学习理论研究成果.在效能度量中,具体介绍面向开放环境机器学习一些重要性能评价准则.最后,展望开放环境机器学习理论的未来研究趋势.  相似文献   

2.
基于Rough集方法的数据约简与机器学习   总被引:2,自引:0,他引:2  
用一种新的增加属性值的方法进行数据约简,并把这种方法用于机器学习和机器研究,提出了完全分明,分明度等新概念,使数据约简和机器学习完全统一。  相似文献   

3.
《信息与电脑》2019,(21):68-69
大数据分析的方法有很多,借助机器学习模型对大数据进行挖掘优化是现今较为有效的方法。基于此,笔者提出基于机器学习模型的大数据挖掘优化算法,以机器学习技术为基础,建立分布式挖掘模型,通过计算数据相异度,完成数据挖掘中心的优化。实验结果表明,本设计算法在总计算量和预测准确度上均胜于传统算法,证明了方法的有效性和实用性。  相似文献   

4.
传统的雷电数据预测方法往往采用单一最优机器学习算法,较少考虑气象数据的时空变化等现象。针对该现象,提出一种基于集成策略的多机器学习短时雷电预报算法。首先,对气象数据进行属性约简,降低数据维度;其次,在数据集上训练多种异构机器学习分类器,并基于预测质量筛选最优基分类器;最后,通过对最优基分类器训练权重,并结合集成策略产生最终分类器。实验表明,该方法优于传统单最优方法,其平均预测准确率提高了9.5%。  相似文献   

5.
论机器学习     
随着计算机和网络技术的高速发展,特别是在这个大数据时代,人们对计算机系统的要求越来越高。以往大部分智能计算机系统都普遍缺少自我学习的功能,如遇到错误时不能自动校正;不会通过经验改进自身的功能;不会自动获取所需的知识。一个不具有学习能力的智能系统算不上是真正的智能系统,所以机器学习在现今是一项十分重要的技术。  相似文献   

6.
随着保险行业的蓬勃发展,保险欺诈问题也显得日趋严重。车险欺诈一直是保险欺诈的“重灾区”,对保险行业的发展至关重要。因此,车险欺诈检测技术一直是国内外学者研究的热点问题。鉴于我国在机动车辆保险欺诈检测技术方相对滞后,而国外的研究成果又较少对我国车险业务数据进行有效建模与分析,首次针对机器学习模型应用在车险欺诈检测的研究工作进行了文献调研,对二十多年来的研究工作进行系统化的归纳与总结。通过引入车险欺诈流程的简介,对专家系统与智能理赔系统在车险欺诈检测的流程进行了叙述;依次从国外和国内的角度介绍了机器学习模型应用在车险欺诈检测的具体研究进展,并进行了宏观的对比;基于国内某车险公司提供近5年来高质量的车险数据选取具有代表性的机器学习模型进行建模,并进行了全面的测试与分析;探讨了车险欺诈检测技术未来的研究方向。  相似文献   

7.
李群机器学习十年研究进展   总被引:2,自引:0,他引:2  
该文主要从3个方面介绍李群机器学习近年来的研究进展。首先,该文将解释为什么采用李群结构进行数据或特征描述,以此阐明李群机器学习与传统机器学习方法的区别,并且通过李群在人工智能领域的广泛应用来说明李群表示的普遍性。其次,该文概述了李群机器学习自提出以来的主要学习算法,着重强调最近的一些研究进展。最后,针对目前的研究现状,该文给出李群机器学习未来的一些研究方向。  相似文献   

8.
机器学习需要有大量的背景数据作为训练集,而大数据技术正好给机器学习带来了这样的大量数据训练集。结合机器学习和大数据技术,为了实现高效的大数据机器学习而设计的大数据机器学习系统面临着诸多的技术问题。大数据机器学习系统成为大数据技术和机器学习领域研究的重要课题。本文介绍了大数据机器学习系统应该具有的概念、特征及相关典型的大数据机器学习系统。  相似文献   

9.
基于认知的流形学习方法概要   总被引:1,自引:0,他引:1  
周谆  杨炳儒 《计算机科学》2009,36(5):234-237
流形学习是一种新出现的机器学习方法,近年来引起越来越多的计算机科学工作者和认知科学工作者的重视.为了加深对流形学习的认识和理解,从流形与流形学习的基本概念入手,追溯它的发展历程.针对目前的几种主要的流形算法,分析它们各自的优势和不足,然后引用LLE的应用示例.说明流形学习较之于传统的线性降维方法如PCA等,能够有效地发现非线性高维数据的本质维数,可以有效地进行维数约简和数据分析.最后对流形学习未来的研究方向做出展望,以期进一步拓展流形学习的应用领域.  相似文献   

10.
并行计算技术广泛用于对一些特定问题进行更进一步的优化,从而突破性地降低算法的时间消耗。近年来,随着大数据和人工智能的快速发展,在进行大规模深度学习模型的训练时,时间消耗成为一个重要的考虑因素。在模型的训练过程中,由于各个样本之间互不相关的性质,使得模型的训练过程可以利用并行技术来很好地优化。本文以最基础的线性回归作为模型的任务,测试了并行化方法在深度学习模型中的可行性,并对比了不同节点下的性能提升幅度。本文所提出的并行训练方法的时间复杂度为■,根据该时间复杂度,可以合理地根据待解决问题的规模来选择合适的并行化策略。  相似文献   

11.
极限学习机综述   总被引:3,自引:0,他引:3  
极限学习机是一种单隐层前向网络的训练算法,主要特点是训练速度极快,而且可以达到很高的泛化性能。回顾了极限学习机的发展历程,分析了极限学习机的数学模型,详细介绍了极限学习机的各种改进算法,并列举了极限学习机在识别、预测和医学诊断领域的应用。最后总结预测了极限学习机的改进方向。  相似文献   

12.
大数据背景下,机器学习和数据分析是利用大数据为人类服务的重要手段。本文阐述了机器学习算法的使用 步骤、特征维度的提取方法、特征模型建立的理论支撑,以及模型融合所占的权重。针对当前大数据下机器学习算法的关键技 术,对其发展前景进行了展望。  相似文献   

13.
Data visualization plays a crucial role in identifying interesting patterns in exploratory data analysis. Its use is, however, made difficult by the large number of possible data projections showing different attribute subsets that must be evaluated by the data analyst. In this paper, we introduce a method called VizRank, which is applied on classified data to automatically select the most useful data projections. VizRank can be used with any visualization method that maps attribute values to points in a two-dimensional visualization space. It assesses possible data projections and ranks them by their ability to visually discriminate between classes. The quality of class separation is estimated by computing the predictive accuracy of k-nearest neighbor classifier on the data set consisting of x and y positions of the projected data points and their class information. The paper introduces the method and presents experimental results which show that VizRank's ranking of projections highly agrees with subjective rankings by data analysts. The practical use of VizRank is also demonstrated by an application in the field of functional genomics.  相似文献   

14.
神经机器翻译前沿综述   总被引:3,自引:0,他引:3  
机器翻译是指通过计算机将源语言句子翻译到与之语义等价的目标语言句子的过程,是自然语言处理领域的一个重要研究方向。神经机器翻译仅需使用神经网络就能实现从源语言到目标语言的端到端翻译,目前已成为机器翻译研究的主流方向。该文选取了近期神经机器翻译的几个主要研究领域,包括同声传译、多模态机器翻译、非自回归模型、篇章翻译、领域自适应、多语言翻译和模型训练,并对这些领域的前沿研究进展做简要介绍。  相似文献   

15.
多标记学习不同于传统的监督学习,它是为了解决客观世界中多义性对象的建模问题而提出的一种学习框架。在该框架下,一个示例可以同时隶属于多个标记。经过十多年的发展,机器学习界已经出现了大量关于多标记学习的研究成果,并得到了广泛的应用。本文对多标记学习问题进行系统而详细的阐述,给出多标记学习的问题定义和评价指标,重点介绍多标记学习算法,并提出多标记学习进一步的研究方向。   相似文献   

16.
卫星在研制和应用的各个环节产生了庞大的特征和相关性复杂的遥测数据,人工判读或使用专家策略进行分析均无法充分梳理出这些数据的相关性并进一步挖掘和应用它们的价值;利用Python强大的机器学习生态环境和算法,能够实现对卫星遥测数据的分析和建模;以星载铷钟遥测数据为样本,提出了对卫星遥测数据进行算法分析和建立模型的方法,为实现对铷钟的健康状态进行实时评估、预报、精准控制奠定了基础;除遥测数据外,该方法亦可用于分析卫星其它数据,为卫星研制和应用过程中利用机器学习技术提高智化能水平提供了参考。  相似文献   

17.
互联网的飞速发展催生了很多新型网络应用,其中包括实时多媒体流服务、远程云服务等.现有尽力而为的路由转发算法难以满足这些应用所带来的多样化的网络服务质量需求.随着近些年将机器学习方法应用于游戏、计算机视觉、自然语言处理获得了巨大的成功,很多人尝试基于机器学习方法去设计智能路由算法.相比于传统数学模型驱动的分布式路由算法而言,基于机器学习的路由算法通常是数据驱动的,这使得其能够适应动态变化的网络环境以及多样的性能评价指标优化需求.基于机器学习的数据驱动智能路由算法目前已经展示出了巨大的潜力,未来很有希望成为下一代互联网的重要组成部分.然而现有对于智能路由的研究仍然处于初步阶段.首先介绍了现有数据驱动智能路由算法的相关研究,展现了这些方法的核心思想和应用场景并分析了这些工作的优势与不足.分析表明,现有基于机器学习的智能路由算法研究主要针对算法原理,这些路由算法距离真实环境下部署仍然很遥远.因此接下来分析了不同的真实场景智能路由算法训练和部署方案并提出了2种合理的训练部署框架以使得智能路由算法能够低成本、高可靠性地在真实场景被部署.最后分析了基于机器学习的智能路由算法未来发展中所面临的机遇与挑战并给出了未来的研究方向.  相似文献   

18.
贝叶斯机器学习前沿进展综述   总被引:5,自引:0,他引:5  
随着大数据的快速发展,以概率统计为基础的机器学习在近年来受到工业界和学术界的极大关注,并在视觉、语音、自然语言、生物等领域获得很多重要的成功应用,其中贝叶斯方法在过去20多年也得到了快速发展,成为非常重要的一类机器学习方法.总结了贝叶斯方法在机器学习中的最新进展,具体内容包括贝叶斯机器学习的基础理论与方法、非参数贝叶斯方法及常用的推理方法、正则化贝叶斯方法等. 最后,还针对大规模贝叶斯学习问题进行了简要的介绍和展望,对其发展趋势作了总结和展望.  相似文献   

19.
关注根据自然语言描述生成相关代码片段的代码生成(code generation)任务.在软件开发过程中,开发人员常常会面临两种情形.一种是通用功能的实现,需要开发人员编写大量重复且技术含量较低的代码;另一种是依赖于特定任务要求,需要开发人员查询文档或使用其他工具才能完成的代码编写工作.代码生成作为最直接辅助开发人员完成编码的工作受到学术界和工业界的广泛关注.让机器理解用户需求,自行完成程序编写也一直是软件工程领域重点关注的问题之一.近年来,随着深度学习在软件工程领域任务中的不断发展,尤其是预训练模型的引入使得代码生成任务取得了十分优异的性能.系统梳理当前基于深度学习的代码生成相关工作,并将目前基于深度学习的代码生成方法分为3类:基于代码特征的方法、结合检索的方法以及结合后处理的方法.第1类是指使用深度学习算法利用代码特征进行代码生成的方法,第2类和第3类方法依托于第1类方法进行改进.依次对每一类方法的已有研究成果进行系统的梳理、分析与总结.除此之外,汇总并分析已有的代码生成工作中常用的语料库与评估方法,以便于后续研究进行实验设计.最后,对代码生成方法研究进展进行总结,并针对未来值得关注...  相似文献   

20.
随着网络技术的迅速发展和新型应用的不断出现,网络数据的急剧增加导致网络管理变得极其复杂.传统网络中的设备多种多样,配置复杂,难于管理,而软件定义网络(software defined networking, SDN)这种新型网络架构的出现给网络管理带来了曙光,该架构摆脱了硬件设备对网络的限制,使网络具有灵活、可编程性等优点.一个好的路由机制影响着整个网络的性能,软件定义网络的集中控制特性给机器学习在路由机制方面的应用带来了新的研究方向.首先论述了SDN路由优化的现状,然后从监督学习和强化学习2个方面概述了近年来机器学习在SDN路由方面的研究,最后为了满足不同应用的服务质量(quality of service, QoS)以及不同用户的体验质量(quality of experience, QoE),提出了数据驱动认知路由的发展趋势.通过赋予网络节点感知、记忆、查找、决策、推理、解释等认知行为,加快寻路过程,优化路由选择,完善网络管理.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号