首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   82篇
  免费   5篇
  国内免费   23篇
综合类   2篇
无线电   1篇
自动化技术   107篇
  2022年   1篇
  2021年   3篇
  2020年   1篇
  2018年   2篇
  2017年   3篇
  2016年   3篇
  2015年   2篇
  2014年   7篇
  2013年   5篇
  2012年   7篇
  2011年   10篇
  2010年   6篇
  2009年   4篇
  2008年   4篇
  2007年   4篇
  2006年   5篇
  2005年   6篇
  2004年   5篇
  2003年   9篇
  2002年   6篇
  2001年   4篇
  2000年   6篇
  1999年   1篇
  1997年   1篇
  1996年   4篇
  1992年   1篇
排序方式: 共有110条查询结果,搜索用时 8 毫秒
91.
基于ARM的GPRS远程终端设计与实现   总被引:9,自引:7,他引:9  
简要介绍了GPRS技术的特点及其在工业远程监控系统中的优势,给出基于ARM7TDMI-S处理器的GPRS远程终端的设计方案和实现要点。在设计中充分考虑了软件结构的可扩展性,在软件实现上注意避免了同类产品中出现的缺点,该终端提供了灵活便捷的用户界面和多协议支持。  相似文献   
92.
基于局部化原理和概率模型的LVQ改进算法   总被引:3,自引:0,他引:3  
利用局部化原理和概率模型的优化方法,提出一种LVQ改进算法——基于局部化原理和概率模型的LVQ算法(Localization principle and Probability based LVQ,LoPLVQ).与传统LVQ算法相比,不仅缩短训练时间,而且具有较高的识别率.实验结果表明改进算法可用来解决大规模的模式识别问题.  相似文献   
93.
故障诊断系统中深浅知识集成表示方法的研究   总被引:11,自引:0,他引:11  
传统的故障智能诊断系统大都只是基于专家经验,但是,由于现代设备的复杂性,使其往得不到准确的结果,这时必须借助于与诊断对象有关的原理性知识,本文基于设备的层次性理论,提出了一种深浅知识集成表示模型,并采用面向对象表示和产生式规则相结合的方法予以实现,深浅知识的有效结合,不仅可以提高故障诊断的准确性,而且诊断推理的效率也得以提高。  相似文献   
94.
一种提高中文搜索引擎检索质量的HTML解析方法   总被引:15,自引:1,他引:15  
中文搜索引擎经常会返回大量的无关项或者不含具体信息的间接项,产生这类问题的一个原因是网页中存在着大量与主题无关的文字。对使用关键字检索方法的搜索引擎来说,想在检索或者后处理阶段解决这类问题不仅要付出一定代价,而且在大多数情况下是不可能的。在这篇论文中,我们提出了网页噪声的概念,并针对中文网页的特点,实现了一种对网页自动分块并去噪的HTML解析方法,从而达到在预处理阶段消除潜在无关项和间接项的目的。实验结果表明,该方法能够在不占用查询时间的前提下100%地消除中文搜索引擎隐藏的间接项,以及大约11%的无法过滤或隐藏的无关项或间接项,从而大幅度提高检索结果的查准率。  相似文献   
95.
基于统计分词的中文网页分类   总被引:9,自引:3,他引:9  
本文将基于统计的二元分词方法应用于中文网页分类,实现了在事先没有词表的情况下通过统计构造二字词词表,从而根据网页中的文本进行分词,进而进行网页的分类。因特网上不同类型和来源的文本内容用词风格和类型存在相当的差别,新词不断出现,而且易于获得大量的同类型文本作为训练语料。这些都为实现统计分词提供了条件。本文通过试验测试了统计分词构造二字词表用于中文网页分类的效果。试验表明,在统计阈值选择合适的时候,通过构建的词表进行分词进而进行网页分类,能有效地提高网页分类的分类精度。此外,本文还分析了单字和分词对于文本分类的不同影响及其原因。  相似文献   
96.
基于Web-Log Mining的Web文档聚类   总被引:22,自引:0,他引:22  
苏中  马少平  杨强  张宏江 《软件学报》2002,13(1):99-104
速度和效果是聚类算法面临的两大问题.DBSCAN(density based spatial clustering of applications with noise)是典型的基于密度的一种聚类方法,对于大型数据库的聚类实验显示了它在速度上的优越性.提出了一种基于密度的递归聚类算法(recursive density based clustering algorithm,简称RDBC),此算法可以智能地、动态地修改其密度参数.RDBC是基于DBSCAN的一种改进算法,其运算复杂度和DBSCAN相同.通过在Web文档上的聚类实验,结果表明,RDBC不但保留了DBSCAN高速度的优点,而且聚类效果大大优于DBSCAN.  相似文献   
97.
该文介绍THUIR团队在“2018机器阅读理解技术竞赛”中的模型设计与实验结果。针对多文档机器阅读理解任务,设计了基于自注意力机制的多任务深度阅读理解模型T-Reader,在所有105支参赛队伍中取得了第八名的成绩。除文本信息外,提取了问题与段落精准匹配等特征作为模型输入;在模型的段落匹配阶段,采用跨段落的文档级自注意力机制,通过循环神经网络实现了跨文档的问题级信息交互;在答案范围预测阶段,通过进行段落排序引入强化学习的方法提升模型性能。  相似文献   
98.
基于词词同现概率的拼音汉字自动转换方法   总被引:1,自引:0,他引:1  
本文对大规模汉语语料库进行了词词同现概率统计,建立了汉语二元Markov模型,给出了拼音转换为汉字的形式化描述及其Markov模型,运用动态规则方法实现了拼音到汉字的转换,取得了较好的结果。初步测试,对社科类文稿,转换正确率达到了96%。  相似文献   
99.
网络信息的爆炸式增长,使得当前任何搜索引擎都只可能索引到Web上一小部分数据,而其中又充斥着大量的低质量信息.如何在用户查询无关的条件下找到Web上高质量的关键资源,是Web信息检索面临的挑战.基于大规模网页统计的方法发现,多种网页非内容特征可以用于关键资源页面的定位,利用决策树学习方法对这些特征进行综合,即可以实现用户查询无关的关键资源页面定位.在文本信息检索会议(TREC)标准评测平台上进行的超过19G文本数据规模的实验表明,这种定位方法能够利用20%左右的页面覆盖超过70%的Web关键信息;在仅为全部页面24%的关键资源集合上的检索结果,比在整个页面集合上的检索有超过60%的性能提高.这说明使用较少的索引量获取较高的检索性能是完全可能的.  相似文献   
100.
基于目的分析的作弊页面分类   总被引:3,自引:1,他引:3  
随着互联网的飞速发展,因网络作弊而产生的垃圾页面越来越多,严重影响了搜索引擎的检索效率和用户体验。反作弊已经成为搜索引擎所面临的最重要挑战之一。但目前的反作弊研究大都是基于页面内容或链接特征的,没有一个通用可行的识别方法。本文主要基于作弊目的的分析,给出作弊页面另一种体系的分类,为基于目的的作弊页面识别起到良好的导向作用。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号