首页 | 本学科首页   官方微博 | 高级检索  
     

针对强人工智能安全风险的技术应对策略
摘    要:未来进入强人工智能(AGI)时代,人类可能面临重大安全风险。本文归纳了AGI与传统人工智能的区别,从模型的不可解释性、算法及硬件的不可靠性、自主意识的不可控性三方面研判了AGI安全风险的来源,从能力、动机、行为3个维度提出了针对AGI的安全风险评估体系。为应对安全风险,从理论及技术研究、应用两个层面分别探讨相应风险的防御策略:在理论技术研究阶段,完善理论基础验证,实现模型可解释性,严格限制AGI底层价值取向,促进技术标准化;在应用阶段,预防人为造成的安全问题,对AGI进行动机选择,为AGI赋予人类价值观。此外,建议加强国际合作,培养强AI研究人才,为迎接未知的强AI时代做好充分准备。

本文献已被 CNKI 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号