首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   8篇
  免费   4篇
  国内免费   1篇
建筑科学   1篇
无线电   2篇
一般工业技术   1篇
冶金工业   1篇
自动化技术   8篇
  2024年   3篇
  2023年   10篇
排序方式: 共有13条查询结果,搜索用时 31 毫秒
1.
To effectively utilize artificial intelligence (AI)-based technologies such as ChatGPT and realize their novel ethical issues, individuals must have a variety of knowledge and skills about AI. Such knowledge and skills have led to the emergence of AI literacy. Despite the importance of AI literacy in everyday life, little is known about its determinants. To better understand the determinants of AI literacy, we attempted to build a research model relying on previous research and different theoretical frameworks. The model incorporated digital divide, cognitive absorption, and computational thinking. As a major finding from the current study, computational thinking was found to be a significant determinant of AI literacy, which facilitate using, recognizing, and evaluating AI-based technologies. Moreover, we found out that individuals with physical access to information and communication technologies (ICTs) are more expected to use and recognize AI. Also, motivation and skills in using ICTs enable individuals to better evaluate the outcomes of AI-based technologies. The findings also showed that convenient access to ICTs contributes to a deep involvement with AI-based technologies in the use. Further, individuals with higher motivation and skills to use AI technologies are likely to have a pleasant experience after using these technologies.  相似文献   
2.
刘伟  何瑞麟 《智能安全》2023,2(2):92-102
深入探讨了智能的演化过程和ChatGPT的实现效果,以及人工智能通用性提高和长期发展方向。从自然界中智能的诞生过程开始,介绍了人工智能的发展历程和现状,分析了ChatGPT作为一种具有强大泛化能力的深度神经网络模型在人工智能领域中的重要意义。还探讨了人工智能通用性提高对世界的潜在影响,介绍了一些新兴应用领域。通过阅读本文,读者可以更好地理解人工智能技术的发展趋势和未来方向。  相似文献   
3.
超大预训练模型(Pre-trained model, PTM)是人工智能领域近年来迅速崛起的研究方向, 在自然语言处理(Natural language processing, NLP)和计算机视觉等多种任务中达到了有史以来的最佳性能, 促进了人工智能生成内容(Artificial intelligence-generated content, AIGC)的发展和落地. ChatGPT作为当下最火热的PTM, 更是以优异的表现获得各界的广泛关注. 本文围绕ChatGPT展开. 首先概括PTM的基本思想并对其发展历程进行梳理; 接着, 详细探讨ChatGPT的技术细节, 并以平行智能的视角阐述ChatGPT; 最后, 从技术、范式以及应用等多个方面对PTM的发展趋势进行展望.  相似文献   
4.
From AlphaGo to ChatGPT,the field of AI has launched a series of remarkable achievements in recent years.Analyzing,comparing,and summarizing these achievements at the paradigm level is important for future AI innovation,but has not received sufficient attention.In this paper,we give an overview and perspective on machine learning paradigms.First,we propose a paradigm taxonomy with three levels and seven dimensions from a knowledge perspective.Accordingly,we give an overview on three basic and tw...  相似文献   
5.
ChatGPT, an artificial intelligence generated content (AIGC) model developed by OpenAI, has attracted worldwide attention for its capability of dealing with challenging language understanding and generation tasks in the form of conversations. This paper briefly provides an overview on the history, status quo and potential future development of ChatGPT, helping to provide an entry point to think about ChatGPT. Specifically, from the limited open-accessed resources, we conclude the core techniques of ChatGPT, mainly including large-scale language models, in-context learning, reinforcement learning from human feedback and the key technical steps for developing ChatGPT. We further analyze the pros and cons of ChatGPT and we rethink the duality of ChatGPT in various fields. Although it has been widely acknowledged that ChatGPT brings plenty of opportunities for various fields, mankind should still treat and use ChatGPT properly to avoid the potential threat, e.g., academic integrity and safety challenge. Finally, we discuss several open problems as the potential development of ChatGPT.   相似文献   
6.

ChatGPT为代表的大模型在文字生成、语义理解等任务上表现卓越,引起了工业界和学术界的广泛关注. 大模型的参数量在3年内增长数万倍,且仍呈现增长的趋势. 首先分析了大模型训练的存储挑战,指出大模型训练的存储需求大,且具有独特的计算模式、访存模式、数据特征,这使得针对互联网、大数据等应用的传统存储技术在处理大模型训练任务时效率低下,且容错开销大. 然后分别阐述了针对大模型训练的3类存储加速技术与2类存储容错技术. 针对大模型训练的存储加速技术包括:1)基于大模型计算模式的分布式显存管理技术,依据大模型计算任务的划分模式和计算任务间的依赖关系,设计模型数据在分布式集群中的划分、存储和传输策略;2)大模型训练访存感知的异构存储技术,借助大模型训练中的访存模式可预测的特性,设计异构设备中的数据预取和传输策略;3)大模型数据缩减技术,针对大模型数据的特征,对模型训练过程中的数据进行缩减. 针对大模型训练的存储容错技术包括:1)参数检查点技术,将大模型参数存储至持久化存储介质;2)冗余计算技术,在多张GPU中重复计算相同版本的参数. 最后给出了总结和展望.

  相似文献   
7.

以大模型在材料科学中的应用为着眼点,首先综述了大模型,介绍了大模型的基本概念、发展过程、技术分类与特点等内容;其次从通用领域大模型和垂直领域大模型两个角度,总结了大模型的应用,列举分析了不同种类大模型的应用场景和功能. 再次,结合材料科学领域中的具体需求研究现状,调研并综述了语言大模型、视觉大模型和多模态大模型在材料科学中的应用情况,以自然语言处理和计算机视觉中的具体任务为切入,参考典型应用案例,综合提示工程策略和零样本知识迁移学习,厘清了当前将大模型应用至材料科学的研究范式和制约因素,并利用改进SAM视觉大模型在四种材料显微图像数据上进行了验证性图像分割与关键结构提取实验,结果表明SAM带来的零样本分割能力对于材料微结构的精准高效表征具有巨大应用潜力. 最后,提出了大模型相关技术、方法在材料科学中的未来研究机遇,从单模态到综合性多模态的大模型研发与调优,评估了可行性及技术难点.

  相似文献   
8.

在人工智能领域,ChatGPT作为一种重要的技术突破,引起了广泛的关注. 本文将探讨ChatGPT在人工智能发展中的地位及其对未来AI的影响. 首先,介绍了ChatGPT所展现出的优秀对话生成能力,使其几乎可以胜任所有自然语言处理任务,并将作为数据生成器、知识挖掘工具、模型调度员、自然交互界面在各种场景得到应用. 接着,分析了其在事实错误、毒害内容生成、安全性、公平性、可解释性、数据隐私等方面的局限,并讨论了作为辅助人类工具的ChatGPT明确能力边界和提高能力范围的重要性. 然后,从概念经典表示对“真”定义进行了分析,并从概念三指不等价的角度阐释性了ChatGPT无法区分真假的原因. 在论述AI未来时,从拓展应用、克服局限、探索理论分析了中短期技术趋势,并从感知、认知、情感、行为智能四个层面的关系讨论了长期发展路径. 最后,探讨了ChatGPT作为认知智能的代表,对包括认知成本、教育要求、图灵测试认识、学术界的机遇与挑战、信息茧房、能源环境问题和生产力提升等方面可能产生的影响.

  相似文献   
9.
10.
通过回顾深度学习、语言模型、语义表示和预训练技术的发展历程,全面解析了ChatGPT的技术渊源和演进路线。在语言模型方面,从早期的N-gram统计方法逐步演进到神经网络语言模型,通过对机器翻译技术的研究和影响也催生了Transformer的出现,继而又推动了神经网络语言模型的发展。在语义表示和预训练技术发展方面,从早期的TF-IDF、pLSA和LDA等统计方法发展到Word2Vec等基于神经网络的词向量表示,继而发展到ELMo、BERT和GPT-2等预训练语言模型,预训练框架日益成熟,为模型提供了丰富的语义知识。GPT-3的出现揭示了大语言模型的潜力,但依然存在幻觉问题,如生成不可控、知识谬误及逻辑推理能力差等。为了缓解这些问题,ChatGPT通过指令学习、监督微调、基于人类反馈的强化学习等方式在GPT-3.5上进一步与人类进行对齐学习,效果不断提升。ChatGPT等大模型的出现,标志着该领域技术进入新的发展阶段,为人机交互以及通用人工智能的发展开辟了新的可能。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号