首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
将神经网络与逻辑推理统一到面向对象理论中,建立了同时具备神经网络和专家系统特性、融合连接机制和符号机制的智能神经元模型。提出了一种新的程序设计语言——智能神经网络程序语言(NIPL),实现了神经计算、逻辑推理和数值计算的统一。定义了NIPL的语法,设计并实现了智能神经网络程序设计语言NIPL编译器,从而为开发智能神经网络应用系统提供了有效的手段。  相似文献   

2.
为解决传统数据管理与储存问题,在Java语言基础上,设计出来的继电保护大数据管理系统,可实现自动化管控,解决结构化、半结构化与非结构化的继电保护大数据管理系统.  相似文献   

3.
本文主要讨论了智能写作环境的发展趋势,分析了三种写作语言,结合现实情况.提出了面向对象数据库和人工智能语言的结合,给出实现智能教学系统可行的写作环境—Visual Basic、Prolog,Access数据库三者的松耦合。  相似文献   

4.
5.
大语言模型ChatGPT因其高度通用化和智能化的表现受到广泛社会关注,其引发的技术革命也正逐渐延伸为一场社会革命.在此背景下,基于ChatGPT背后大语言模型技术的演进路线与特征,探索大语言模型技术对社会的潜在机遇与挑战,成为当下社会的重要议题.首先回顾大语言模型技术发展,将其演进总结为3个发展阶段并论述关键技术特征,然后基于技术与社会互动视角分别探讨大语言模型技术引发的社会机遇:个人通用信息助理、科学研究新范式、产业基础设施、国家治理能力现代化有力工具,以及面临的潜在挑战:信息污染问题、社会权力分配问题、伦理和法制问题、意识形态安全问题.最后,对大语言模型技术发展及其与社会发展关系的未来展开一定思考与讨论.  相似文献   

6.
大语言模型因其出色的文本理解和生成能力,被广泛应用于自然语言处理领域并取得了显著成果,为社会各界带来了巨大的便利。然而,大语言模型自身仍存在明显的安全问题,严重影响其应用的可信性与可靠性,是安全学者需广泛关注的问题。文中针对大语言模型自身的安全问题,首先从基于大语言模型的恶意应用问题切入,阐述提示注入攻击及其相应的防御方法;其次,介绍大语言模型幻觉带来的可信问题,对幻觉问题的量化评估、幻觉来源和缓解技术是当前研究的重点;然后,大语言模型隐私安全问题强调了个人及企业数据的保护问题,一旦在进行人机交互时泄露商业秘密和个人敏感信息,将可能引发严重的安全风险,当前研究主要通过可信执行环境和隐私计算技术来进行风险规避;最后,提示泄露问题关注攻击者如何窃取有价值的提示词进行获利或通过个性化提示词泄露个人隐私。提升大语言模型的安全性需要综合考虑模型隐私保护、可解释性研究以及模型分布的稳定性与鲁棒性等问题。  相似文献   

7.
智能对象语言CLOS的分布实现   总被引:1,自引:0,他引:1  
CLOS系统是一个嵌入Common Lisp的面向对象标准语言。文中结合所提出的类分方法,通过引入同步或异步通信协议和RPC并发控制,详细介绍了一个新的分布CLOS系统ParCLOS。  相似文献   

8.
CourseTalk是我们在IBM-AT及其兼容机上实现的一个智能计算机辅助教学写作环境,它提供了文本、图形、录像、教学策略等的编辑功能,同时,还能适时地获取知识,并根据知识进行教学。本文扼要地介绍了系统的性能指标、总体结构及实现原理。  相似文献   

9.
张烨  聂一鸣 《智能安全》2023,2(4):100-112
大语言模型一般指包含百亿个以上参数的预训练语言模型,通过在大规模语料库上进行训练,大语言模型不仅在自然语言处理问题上表现出色,而且在各个垂直领域中也展现出强大的能力,成为当前人工智能领域的热点研究内容之一。首先,介绍了仅编码器结构、编码器-解码器结构、仅解码器结构大语言模型的发展历程,重点关注相关预训练、适配微调等关键技术。然后,分析了大语言模型在医疗、编程、数据生成等领域的应用现状,以及因模型规模不断扩大而产生的计算资源、模型可解释性等方面的问题。最后,从智能安全的角度出发,探讨了大语言模型强大的文本理解、处理与生成能力在提升网络、交通等领域安全性方面的应用潜力。  相似文献   

10.
11.
基于本校实际军训、体育训练等现实情况的需求,设计了一款基于军训、体育训练的专业性知识和训练的在线答题系统。该答题系统针对当代大学生的军体融合训练理论知识,现阶段国内没有系统的知识库,为了便于统计该类理论知识,通过网络技术手段,使用爬虫技术,从互联网上获取资源,分类整理作为答题知识库,进而设计一款智能答题系统。该答题系统利用爬虫技术在互联网上获取军体融合训练常规知识,常用训练技能、器材知识、体育动作标准等资源形成知识库,通过对知识库自动识别或人工鉴定两种方式生成题型题库;在题型库成功组建的基础上,设计一款智能出题系统;在使用答题系统时,可以选择多种答题方式包括限时答题、闯关答题、随机答题等方式,针对答题过程中屡次出现的错误点,系统具有记忆功能,根据答题熟悉情况,选择不同难度的题目,便于深刻记忆。  相似文献   

12.
虽然以ChatGPT为代表的自然语言生成(NLG)大语言模型在自然语言处理中的大多数任务中取得了良好的表现, 但其在序列识别任务, 如命名实体识别任务中的表现暂且不如基于BERT的深度学习模型. 针对这一点, 本文探究性的通过将现有的中文命名实体识别问题改造成机器阅读理解问题, 提出并设计了基于情境学习和模型微调的新方法, 使NLG语言模型在识别命名实体达到了更好的效果, 并且该方法不同于其他方法需要改变基层模型的预训练参数. 同时, 由于命名实体是模型生成的结果而不是对原始数据的分类, 不存在边界问题. 为了验证新框架在命名实体识别任务上的有效性, 本文在多个中文命名实体识别数据集上进行了实验. 其中, 在Resume和Weibo数据集上的F1分数分别达到了96.04%和67.87%, 相较于SOTA模型分别提高了0.4和2.7个百分点, 从而验证了新框架能有效利用NLG语言模型在文本生成上的优势完成命名实体识别任务.  相似文献   

13.

大语言模型(large language models,LLMs)所展现的处理各种自然语言处理(natural language processing,NLP)任务的能力引发了广泛关注. 然而,它们在处理现实中各种复杂场景时的鲁棒性尚未得到充分探索,这对于评估模型的稳定性和可靠性尤为重要. 因此,使用涵盖了9个常见NLP任务的15个数据集(约147000个原始测试样本)和来自TextFlint的61种鲁棒的文本变形方法分析GPT-3和GPT-3.5系列模型在原始数据集上的性能,以及其在不同任务和文本变形级别(字符、词和句子)上的鲁棒性. 研究结果表明,GPT模型虽然在情感分析、语义匹配等分类任务和阅读理解任务中表现出良好的性能,但其处理信息抽取任务的能力仍较为欠缺,比如其对关系抽取任务中各种关系类型存在严重混淆,甚至出现“幻觉”现象. 在鲁棒性评估实验中,GPT模型在任务层面和变形层面的鲁棒性都较弱,其中,在分类任务和句子级别的变形中鲁棒性缺乏更为显著. 此外,探究了模型迭代过程中性能和鲁棒性的变化,以及提示中的演示数量和演示内容对模型性能和鲁棒性的影响. 结果表明,随着模型的迭代以及上下文学习的加入,模型的性能稳步提升,但是鲁棒性依然亟待提升. 这些发现从任务类型、变形种类、提示内容等方面揭示了GPT模型还无法完全胜任常见的NLP任务,并且模型存在的鲁棒性问题难以通过提升模型性能或改变提示内容等方式解决. 通过对gpt-3.5-turbo的更新版本、gpt-4模型,以及开源模型LLaMA2-7B和LLaMA2-13B的性能和鲁棒性表现进行对比,进一步验证了实验结论. 鉴于此,未来的大模型研究应当提升模型在信息提取以及语义理解等方面的能力,并且应当在模型训练或微调阶段考虑提升其鲁棒性.

  相似文献   

14.
能源大数据量级的不断增加给能源大数据智能监管带来了极大的困难。为此提出能源大数据智能监管系统,搭建能源大数据架构单元,设计采集单元和访问接口单元,完成系统硬件设计。通过处理计算能源大数据信息,追踪控制能源数据源头,设计全景态势可视化呈现,实现能源大数据智能监管系统的软件运行。经实验证明系统能源大数据的压缩率高、数据态势预测误差小,具有一定应用性。  相似文献   

15.
基于多Agent智能网络教学系统设计与实现   总被引:1,自引:0,他引:1  
针对传统网络教学系统缺乏智能性问题,本文在实现基于XML扩展Agent通信语言基础上,提出并实现了一种基于多Agent智能网络教学系统模型.实际应用说明该系统具有智能性,能提供适应用户的个性化教学服务,激发学生的主观能动性,改善教学效果.  相似文献   

16.
智能通信信息队列加密传输系统在应用过程中存在加密传输效率低的问题,为此,提出大数据下智能通信信息队列加密传输系统设计.硬件部分,设计计算机,拥有数据处理及数据融合两个选项;设计计算机电子干扰器,依据电子对抗原理利用干扰器阻断携带机密信息的辐射电磁;设计加密IC卡,采用3DES加密标准;设计显示器,传输智能通信信息队列数...  相似文献   

17.

近年来,大语言模型(large language model,LLM)在一系列下游任务中得到了广泛应用,并在多个领域表现出了卓越的文本理解、生成与推理能力. 然而,越狱攻击正成为大语言模型的新兴威胁. 越狱攻击能够绕过大语言模型的安全机制,削弱价值观对齐的影响,诱使经过对齐的大语言模型产生有害输出. 越狱攻击带来的滥用、劫持、泄露等问题已对基于大语言模型的对话系统与应用程序造成了严重威胁. 对近年的越狱攻击研究进行了系统梳理,并基于攻击原理将其分为基于人工设计的攻击、基于模型生成的攻击与基于对抗性优化的攻击3类. 详细总结了相关研究的基本原理、实施方法与研究结论,全面回顾了大语言模型越狱攻击的发展历程,为后续的研究提供了有效参考. 对现有的安全措施进行了简略回顾,从内部防御与外部防御2个角度介绍了能够缓解越狱攻击并提高大语言模型生成内容安全性的相关技术,并对不同方法的利弊进行了罗列与比较. 在上述工作的基础上,对大语言模型越狱攻击领域的现存问题与前沿方向进行探讨,并结合多模态、模型编辑、多智能体等方向进行研究展望.

  相似文献   

18.
陈君璐 《物联网技术》2024,(5):144-146+150
智能交通管理系统(Intelligent Transportation Management System,ITMS)是一个涉及交通规划、交通控制、道路安全等多方面的复杂系统。以智能交通发展的现状为输入,分析当前智能交通领域面临的问题,输出包括场景理解、事件推理、场景构建等任务,构建基于多模态大型语言模型的新兴交通应用;从交通数据分析、交通预测、智能交通控制、道路安全分析、智能出行推荐等角度探讨大型语言模型(Large Language Model,LLM)未来在智能交通管理领域的应用,更好地发力智能交通领域,促进行业交流,推动行业变革。  相似文献   

19.
在WINDOWS95下的应用软件中有一种按扭智能提示功能,即当我们将鼠标移至某一图符按扭处,并静止一会儿,系统即会给出该图符按扭的功能提示,WINDOWS称之为智能按扭感知技术。这种技术会给初学者带来极大的方便,同时又不会对熟练操作者带来不便,因而受到用户的欢迎。本文介绍如何用C语言在DOS下实现这种按扭的智能感知技术,为基于DOS的应用程序提供这种友好的用户界面。 要实现按扭的智能感知技术,应用程序需要掌握二个重要信息:一是要随时了解当前鼠标的位置,即  相似文献   

20.
关系抽取是一项基础且重要的任务,旨在从非结构化文本中提取出实体之间的关系。最近研究证明,大型语言模型(LLM)和基础模型相结合可以改进许多自然语言处理(NLP)任务的性能。这些模型利用深度学习和预训练模型的语言表示能力,能够自动学习关系的语义特征。有效利用大模型来解决实体重叠和信息交互差等问题仍是一个挑战。针对以上问题,提出基于大语言模型的关系抽取算法。对大型语言模型Meta AI(LLa MA)进行微调训练,使其更加适应关系抽取的任务,在提取关系的基础上,使用自注意力机制增强实体对之间关联程度,增强关系和实体之间的信息共享,接着使用平均池化泛化到整个句子中。针对实体对设计一个过滤矩阵,并引入词性信息进行语义增强,根据过滤矩阵中实体对的相关性过滤掉无效的三元组。实验结果表明,该算法在纽约时报(NYT)和Web NLG公开数据集上的F1值结果分别为93.1%、90.4%。在微调之后的LLa MA模型作为编码器的情况下,所提算法在准确率和F1值指标上均优于基线模型,验证了算法的有效性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号