首页 | 本学科首页   官方微博 | 高级检索  
     

前言
作者姓名:郑庆华
作者单位:西安交通大学
摘    要:以深度学习为代表的人工智能取得突破性进展,然而海量的参数与复杂的处理机制,使得人类很难追溯与理解推理过程,导致这类端到端的黑箱学习方法不可解释,造成"知其然,不知其所以然".由此引发人们对算法可信性、公平性产生质疑,甚至造成伦理、法律等问题,影响了黑箱人工智能方法在无人驾驶、精准医疗、智能交通等高风险决策工程中的大规模应用.可解释性问题是打开黑箱人工智能方法、构建新一代人工智能理论的关键问题之一.可解释智能学习方法既要给出结果,同时也能提供计算推理过程所形成的证据链.

本文献已被 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号