首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   82篇
  免费   5篇
  国内免费   23篇
综合类   2篇
无线电   1篇
自动化技术   107篇
  2022年   1篇
  2021年   3篇
  2020年   1篇
  2018年   2篇
  2017年   3篇
  2016年   3篇
  2015年   2篇
  2014年   7篇
  2013年   5篇
  2012年   7篇
  2011年   10篇
  2010年   6篇
  2009年   4篇
  2008年   4篇
  2007年   4篇
  2006年   5篇
  2005年   6篇
  2004年   5篇
  2003年   9篇
  2002年   6篇
  2001年   4篇
  2000年   6篇
  1999年   1篇
  1997年   1篇
  1996年   4篇
  1992年   1篇
排序方式: 共有110条查询结果,搜索用时 15 毫秒
101.
基于词词同现概率的拼音汉字自动转换方法   总被引:1,自引:0,他引:1  
本文对大规模汉语语料库进行了词词同现概率统计,建立了汉语二元Markov模型,给出了拼音转换为汉字的形式化描述及其Markov模型,运用动态规则方法实现了拼音到汉字的转换,取得了较好的结果。初步测试,对社科类文稿,转换正确率达到了96%。  相似文献   
102.
基于平均检索精度的图像特征融合方法   总被引:1,自引:0,他引:1  
在基于内容的图像检索中,不同图像特征反映了图像不同侧面的内在特性,如何有效地组织和利用这些特征从而提高系统的检索性能是一个值得研究的课题.首先提出了特征互补率的定义,通过计算互补矩阵有指导地选择融合特征集.实验结果表明,互补矩阵能够很好地估计特征之间的补充能力.同时提出了基于平均检索精度的特征线性融合方法,并在一个包含12000张异质图像的大型图像库上与当前图像检索中最常用的几种方法进行了对比实验,结果表明这种方法具有更高的精度.  相似文献   
103.
市场分析与预测的一种文字报告生成方法与实现*   总被引:1,自引:0,他引:1  
郑彤  马少平  陆玉昌 《软件学报》1996,7(Z1):480-484
市场分析与预测系统是一种为企业决策者提供市场信息的决策支持系统.本文对一种市场分析与预测系统的总体结构进行了讨论,并在此基础上提出和实现了基于模板的文字报告生成方法.  相似文献   
104.
基于大规模日志分析的搜索引擎用户行为分析   总被引:18,自引:0,他引:18  
用户行为分析是网络信息检索技术得以前进的重要基石,也是能够在商用搜索引擎中发挥重要作用的各种算法的基本出发点之一。为了更好的理解中文搜索用户的检索行为,本文对搜狗搜索引擎在一个月内的近5 000万条查询日志进行了分析。我们从独立查询词分布、同一session内的用户查询习惯及用户是否使用高级检索功能等方面对用户行为进行了分析。分析结论对于改进中文搜索引擎的检索算法和更准确的评测检索效果都有较好的指导意义。  相似文献   
105.
故障诊断系统中深浅知识集成表示方法的研究   总被引:11,自引:0,他引:11  
传统的故障智能诊断系统大都只是基于专家经验,但是,由于现代设备的复杂性,使其往得不到准确的结果,这时必须借助于与诊断对象有关的原理性知识,本文基于设备的层次性理论,提出了一种深浅知识集成表示模型,并采用面向对象表示和产生式规则相结合的方法予以实现,深浅知识的有效结合,不仅可以提高故障诊断的准确性,而且诊断推理的效率也得以提高。  相似文献   
106.
基于局部化原理和概率模型的LVQ改进算法   总被引:3,自引:0,他引:3  
利用局部化原理和概率模型的优化方法,提出一种LVQ改进算法——基于局部化原理和概率模型的LVQ算法(Localization principle and Probability based LVQ,LoPLVQ).与传统LVQ算法相比,不仅缩短训练时间,而且具有较高的识别率.实验结果表明改进算法可用来解决大规模的模式识别问题.  相似文献   
107.
一种提高中文搜索引擎检索质量的HTML解析方法   总被引:15,自引:1,他引:15  
中文搜索引擎经常会返回大量的无关项或者不含具体信息的间接项,产生这类问题的一个原因是网页中存在着大量与主题无关的文字。对使用关键字检索方法的搜索引擎来说,想在检索或者后处理阶段解决这类问题不仅要付出一定代价,而且在大多数情况下是不可能的。在这篇论文中,我们提出了网页噪声的概念,并针对中文网页的特点,实现了一种对网页自动分块并去噪的HTML解析方法,从而达到在预处理阶段消除潜在无关项和间接项的目的。实验结果表明,该方法能够在不占用查询时间的前提下100%地消除中文搜索引擎隐藏的间接项,以及大约11%的无法过滤或隐藏的无关项或间接项,从而大幅度提高检索结果的查准率。  相似文献   
108.
基于目的分析的作弊页面分类   总被引:3,自引:1,他引:3  
随着互联网的飞速发展,因网络作弊而产生的垃圾页面越来越多,严重影响了搜索引擎的检索效率和用户体验。反作弊已经成为搜索引擎所面临的最重要挑战之一。但目前的反作弊研究大都是基于页面内容或链接特征的,没有一个通用可行的识别方法。本文主要基于作弊目的的分析,给出作弊页面另一种体系的分类,为基于目的的作弊页面识别起到良好的导向作用。  相似文献   
109.
网络信息的爆炸式增长,使得当前任何搜索引擎都只可能索引到Web上一小部分数据,而其中又充斥着大量的低质量信息.如何在用户查询无关的条件下找到Web上高质量的关键资源,是Web信息检索面临的挑战.基于大规模网页统计的方法发现,多种网页非内容特征可以用于关键资源页面的定位,利用决策树学习方法对这些特征进行综合,即可以实现用户查询无关的关键资源页面定位.在文本信息检索会议(TREC)标准评测平台上进行的超过19G文本数据规模的实验表明,这种定位方法能够利用20%左右的页面覆盖超过70%的Web关键信息;在仅为全部页面24%的关键资源集合上的检索结果,比在整个页面集合上的检索有超过60%的性能提高.这说明使用较少的索引量获取较高的检索性能是完全可能的.  相似文献   
110.
基于Web-Log Mining的Web文档聚类   总被引:22,自引:0,他引:22  
苏中  马少平  杨强  张宏江 《软件学报》2002,13(1):99-104
速度和效果是聚类算法面临的两大问题.DBSCAN(density based spatial clustering of applications with noise)是典型的基于密度的一种聚类方法,对于大型数据库的聚类实验显示了它在速度上的优越性.提出了一种基于密度的递归聚类算法(recursive density based clustering algorithm,简称RDBC),此算法可以智能地、动态地修改其密度参数.RDBC是基于DBSCAN的一种改进算法,其运算复杂度和DBSCAN相同.通过在Web文档上的聚类实验,结果表明,RDBC不但保留了DBSCAN高速度的优点,而且聚类效果大大优于DBSCAN.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号