全文获取类型
收费全文 | 2273篇 |
免费 | 245篇 |
国内免费 | 342篇 |
专业分类
电工技术 | 36篇 |
综合类 | 314篇 |
化学工业 | 18篇 |
金属工艺 | 20篇 |
机械仪表 | 28篇 |
建筑科学 | 19篇 |
矿业工程 | 12篇 |
能源动力 | 1篇 |
轻工业 | 32篇 |
水利工程 | 4篇 |
石油天然气 | 5篇 |
武器工业 | 2篇 |
无线电 | 227篇 |
一般工业技术 | 52篇 |
冶金工业 | 497篇 |
原子能技术 | 2篇 |
自动化技术 | 1591篇 |
出版年
2024年 | 5篇 |
2023年 | 24篇 |
2022年 | 70篇 |
2021年 | 73篇 |
2020年 | 121篇 |
2019年 | 113篇 |
2018年 | 86篇 |
2017年 | 84篇 |
2016年 | 90篇 |
2015年 | 94篇 |
2014年 | 112篇 |
2013年 | 88篇 |
2012年 | 155篇 |
2011年 | 162篇 |
2010年 | 147篇 |
2009年 | 135篇 |
2008年 | 166篇 |
2007年 | 155篇 |
2006年 | 159篇 |
2005年 | 130篇 |
2004年 | 107篇 |
2003年 | 100篇 |
2002年 | 109篇 |
2001年 | 76篇 |
2000年 | 57篇 |
1999年 | 26篇 |
1998年 | 19篇 |
1997年 | 24篇 |
1996年 | 8篇 |
1995年 | 13篇 |
1994年 | 11篇 |
1993年 | 8篇 |
1992年 | 13篇 |
1991年 | 6篇 |
1990年 | 8篇 |
1989年 | 9篇 |
1988年 | 5篇 |
1986年 | 11篇 |
1985年 | 6篇 |
1984年 | 6篇 |
1982年 | 4篇 |
1965年 | 4篇 |
1964年 | 6篇 |
1963年 | 5篇 |
1962年 | 4篇 |
1961年 | 8篇 |
1959年 | 3篇 |
1957年 | 3篇 |
1955年 | 5篇 |
1954年 | 6篇 |
排序方式: 共有2860条查询结果,搜索用时 0 毫秒
51.
52.
一种面向非平衡数据的邻居词特征选择方法 总被引:1,自引:0,他引:1
在非平衡数据情况下,由于传统特征选择方法,如信息增益(Information Gain,IG)和相关系数(Correlation Coefficient,CC),或者不考虑负特征对分类的作用,或者不能显式地均衡正负特征比例,导致特征选择的结果下降.本文提出一种新的特征选择方法(Positive-Negative feature selection,PN),用于邻居词的选择,实现了文本中术语的自动抽取.本文提出的PN特征选择方法和CC特征选择方法相比,考虑了负特征;和IG特征选择方法相比,从特征t出现在正(负)训练文本的文本数占所有出现特征t的训练文本数比例的角度,分别显式地均衡了正特征和负特征的比例.通过计算特征t后面所跟的不同(非)领域概念个数占总(非)领域概念个数比值分别考察正、负特征t的重要性,解决了IG特征选择方法正特征偏置问题.实验结果表明,本文提出的PN特征选择方法优越于IG特征选择方法和CC特征选择. 相似文献
53.
谢俊 《数字社区&智能家居》2009,(36)
介绍了在Delphi环境下基于OLE技术和WORD对象模型实现通用题库中试题和试卷编辑、浏览的基本原理,并在此基础上给出了具体的实现过程。 相似文献
54.
流行的Segmenter分词算法是开放的java源代码,它是一个很好的分词工具。但是,在全文检索系统中对分词有特殊的要求,例如歧义包客、专业词典等。所以在这里将Segmenter词典和算法都进行了改选,建立了树状词典,在匹配算法中使用了歧义包容法则、分支处理、动态规划和词库预载入。以适应电子商务案例全文检索系统。 相似文献
55.
王宇杰 《数字社区&智能家居》2009,(14)
文章分析了目前的交通信息系统的建模方法及其存在的问题,结合GML3.1、GML模式和线性参考方法,研究了使用GML对公共交通数据模型的几何和拓扑关系建模的方法。以城市公共交通模型为开发实例,给出了基于GML的郑州市公共交通的建模方案和具体实现方法,并使用XSLT技术将最终结果可视化。 相似文献
56.
车光宏 《数字社区&智能家居》2009,(33)
该文介绍了将Access数据库中的图文混编内容导出到Word文档的方法,并给出了用Visual Basic 6.0实现的程序实例。 相似文献
57.
中文智能信息检索中的关键是自然语言处理技术,汉语自动分词技术是中文自然语言处理的基础.基于机械匹配的分词方法简洁、实用,但该方法切分精度不高且无法有效克服切分歧义.针对机械匹配最大匹配算法的应用进行了改进,并将相似串应用于教学资源自然语义查询. 相似文献
58.
59.
When students use computers as learning tools, the whole process of learning, and, indeed, the learners themselves, are transformed. This article illustrates some techniques that foster transformative learning in computer-assisted first-year literature classes: first, a lesson plan on A Valediction: Forbidding Mourning that uses Microsoft Word functions, including format painter, tables, and annotation to explore meaning in context; second, a plan for learners to use subconference options in the Daedalus Interactive Writing Environment to analyze Oedipus Rex; finally, a demonstration of how students engage in a meta-reflection process as they explore Barn Burning with Freelance Graphics.Marguerite Jamieson is an English instructor at Anne Arundel Community College in Arnold, Maryland, and a doctoral student at George Mason University. Her research interests include forming bridges between adult learning theory and contemporary literary theory — especially drawing on transformational learning theory and the work of Mikhail Bakhtin and Lev Vygotsky.Rebecca Kajs holds a doctorate in English from Texas Woman's University with a concentration in rhetoric. For ten years, she taught the use of heuristic tools for reading analysis at the University of Texas at Arlington. She is currently an associate professor of English and Philosophy at Anne Arundel Community College.Anne Agee holds a doctorate in rhetoric from The Catholic University of America. A professor of English and formerly director of the Humanities Computer Center at Anne Arundel Community College, she is currently the college's Coordinator of Instructional Technology. Dr. Agee and Professor Jamieson have collaborated in a study of the learning environment in a computer classroom, the results of which were published in the Fall 1995 issue of Teaching/Learning Conversations. Dr. Agee has also published Using [Daedalus] InterChange as a Teachers' Journal in the Fall 1995 issue of Wings. 相似文献
60.
中文分词是中文信息处理的基础。基于二元统计的HMM中文分词算法表现良好,但也存在易将包含常用介、副词的词进行误拆分的问题。改进的分词算法运用逆向最大匹配的思想,在计算粗分集权重的过程中,考虑了分词的词长及词序对正确切分的有利影响。该算法首先计算出二元统计粗分模型有向边的权值,然后根据词长修定权值,最后运用最短路径法求出分词结果。实验结果表明,该算法有效的解决了过分拆分的问题,分词效果良好。 相似文献