首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   2256篇
  免费   245篇
  国内免费   326篇
电工技术   36篇
综合类   307篇
化学工业   18篇
金属工艺   19篇
机械仪表   25篇
建筑科学   19篇
矿业工程   12篇
轻工业   32篇
水利工程   4篇
石油天然气   5篇
武器工业   2篇
无线电   223篇
一般工业技术   53篇
冶金工业   494篇
原子能技术   2篇
自动化技术   1576篇
  2023年   26篇
  2022年   70篇
  2021年   77篇
  2020年   117篇
  2019年   114篇
  2018年   83篇
  2017年   71篇
  2016年   76篇
  2015年   93篇
  2014年   112篇
  2013年   84篇
  2012年   155篇
  2011年   161篇
  2010年   147篇
  2009年   135篇
  2008年   166篇
  2007年   156篇
  2006年   158篇
  2005年   132篇
  2004年   107篇
  2003年   101篇
  2002年   110篇
  2001年   75篇
  2000年   58篇
  1999年   24篇
  1998年   18篇
  1997年   25篇
  1996年   8篇
  1995年   13篇
  1994年   12篇
  1993年   9篇
  1992年   13篇
  1991年   6篇
  1990年   8篇
  1989年   9篇
  1988年   5篇
  1987年   3篇
  1986年   11篇
  1985年   6篇
  1984年   6篇
  1982年   4篇
  1975年   3篇
  1965年   4篇
  1964年   6篇
  1963年   5篇
  1962年   4篇
  1961年   8篇
  1957年   3篇
  1955年   5篇
  1954年   6篇
排序方式: 共有2827条查询结果,搜索用时 16 毫秒
1.
引入句法依存信息到原方面术语,提出一种新的方面术语表示方法,利用Glove词向量表示单词以及单词与单词之间的依存关系,构造出包含句法依存信息的依存关系邻接矩阵和依存关系表示矩阵,利用图卷积神经网络和多头注意力机制将句法依存信息融入到方面术语中,使得方面术语表达与上下文结构高度相关。将改进后的方面词术语表示替换到现有模型后,模型泛化能力得到有效提升。对比试验和分析结果表明:该方法具有有效性和泛化性。  相似文献   
2.
杨楠  李亚平 《计算机应用》2019,39(6):1701-1706
对于用户泛化和模糊的查询,将Web搜索引擎返回的列表内容聚类处理,便于用户有效查找感兴趣的内容。由于返回的列表由称为片段(snippet)的短文本组成,而传统的单词频率-逆文档频率(TF-IDF)特征选择模型不能适用于稀疏的短文本,使得聚类性能下降。一个有效的方法就是通过一个外部的知识库对短文本进行扩展。受到基于神经网络词表示方法的启发,提出了通过词嵌入技术的Word2Vec模型对短文本扩展,即采用Word2Vec模型的TopN个最相似的单词用于对片段(snippet)的扩展,扩展文档使得TF-IDF模型特征选择得到聚类性能的提高。同时考虑到通用性单词造成的噪声引入,对扩展文档的TF-IDF矩阵进行了词频权重修正。实验在两个公开数据集ODP239和SearchSnippets上完成,将所提方法和纯snippet无扩展的方法、基于Wordnet的特征扩展方法和基于Wikipedia的特征扩展方法进行了对比。实验结果表明,所提方法在聚类性能方面优于对比方法。  相似文献   
3.
双语词嵌入通常采用从源语言空间到目标语言空间映射,通过源语言映射嵌入到目标语言空间的最小距离线性变换实现跨语言词嵌入。然而大型的平行语料难以获得,词嵌入的准确率难以提高。针对语料数量不对等、双语语料稀缺情况下的跨语言词嵌入问题,该文提出一种基于小字典不对等语料的跨语言词嵌入方法,首先对单语词向量进行归一化,对小字典词对正交最优线性变换求得梯度下降初始值,然后通过对大型源语言(英语)语料进行聚类,借助小字典找到与每一聚类簇相对应的源语言词,取聚类得到的每一簇词向量均值和源语言与目标语言对应的词向量均值,建立新的双语词向量对应关系,将新建立的双语词向量扩展到小字典中,使得小字典得以泛化和扩展。最后,利用泛化扩展后的字典对跨语言词嵌入映射模型进行梯度下降求得最优值。在英语—意大利语、德语和芬兰语上进行了实验验证,实验结果证明该文方法可以在跨语言词嵌入中减少梯度下降迭代次数,减少训练时间,同时在跨语言词嵌入上表现出较好的正确率。  相似文献   
4.
针对金融领域中智能客服的句子相似度计算方法进行了研究。利用基于词性的分词纠正模型减少中文歧义词、金融相关词汇的分词错误;通过词向量方法和循环神经网络分别提取词语级和句子级的语义特征,并且得到句子向量;用融合层计算出句子向量间的差异特征;对差异特征进行降维和归一化得到句子相似度计算结果。实验结果表明,该方法具有较高的准确率和[F1]值。  相似文献   
5.
中文与英文不同,词与词之间没有类似空格的天然分隔符,致使中文分词成为中文信息处理中的难题。地质矿产文本中含有大量未登录地质专业术语,现阶段仍无效果较好的分词方法。本文探讨了一种基于双语料库条件随机场模型的方法对地质矿产文本进行分词,并与通用领域分词方法、单语料库条件随机场模型分词方法进行对比实验。实验表明,本文提出的方法在开放测试下分词效果明显优于其他方法,准确率为94.80%,召回率为92.68%,F-值为93.73%。本文对地质矿产文本进行了中文分词研究,既能够很好地识别未登录地质专业术语,又保证了普通词汇的识别率,为对地质领域的自然语言处理工作奠定了基础。  相似文献   
6.
One of the major issues in the process of machine translation is the problem of choosing the proper translation for a multi‐sense word referred to as word sense disambiguation (WSD). Two commonly used approaches to this problem are statistical and example‐based methods. In statistical methods, ambiguity resolution is mostly carried out by making use of some statistics extracted from previously translated documents or dual corpora of source and target languages. Example‐based methods follow a similar approach as they also make use of bilingual corpora. However, they perform the task of matching at run‐time (i.e. online matching). In this paper, by looking at the WSD problem from a different viewpoint, we propose a system, which consists of two main parts. The first part includes a data mining algorithm, which runs offline and extracts some useful knowledge about the co‐occurrences of the words. In this algorithm, each sentence is imagined as a transaction in Market Basket Data Analysis problem, and the words included in a sentence play the role of purchased items. The second part of the system is an expert system whose knowledge base consists of the set of association rules generated by the first part. Moreover, in order to deduce the correct senses of the words, we introduce an efficient algorithm based on forward chaining in order to be used in the inference engine of the proposed expert system. The encouraging performance of the system in terms of precision and recall as well as its efficiency will be analysed and discussed through a set of experiments.  相似文献   
7.
针对基于规则和统计的传统中文简历解析方法效率低、成本高、泛化能力差的缺点,提出一种基于特征融合的中文简历解析方法,即级联Word2Vec生成的词向量和用BLSTM(Bidirectional Long Short-Term Memory)建模字序列生成的词向量,然后再结合BLSTM和CRF(Conditional Random Fields)对中文简历进行解析(BLSTM-CRF)。为了提高中文简历解析的效率,级联包含字序列信息的词向量和用Word2Vec生成的词向量,融合成一个新的词向量表示;再由BLSTM强大的学习能力融合词的上下文信息,输出所有可能标签序列的分值给CRF层;再由CRF引入标签之间约束关系求解最优序列。利用梯度下降算法训练神经网络,使用预先训练的词向量和Dropout优化神经网络,最终完成对中文简历的解析工作。实验结果表明,所提的特征融合方法优于传统的简历解析方法。  相似文献   
8.
在使用词嵌入法进行词转向量时,两个反义词会转换成相近的向量。如果这两个词是情感词,将会导致词的情感信息的丢失,这在情感分析任务中是不合理的。为了解决这个问题,提出了一种在词嵌入的基础上增加情感向量来获取情感信息的方法。首先利用情感词典资源构建情感向量,将其与词嵌入法得到的词向量融合在一起;然后采用双向长短期记忆(BiLSTM)网络获取文本的特征;最后对文本的情感进行分类。在4个数据集上分别对该方法与未融合情感向量的方法进行了实验。实验结果表明所提方法分类准确度与F1值都高于未融合方法,说明了加入情感向量有助于提高情感分析的性能。  相似文献   
9.
该文基于70年跨度的历时报刊语料库,使用九种统计方法计算了词语历年的使用情况,并通过对稳定性、覆盖度和时间区分性能的考察筛选获得了规模为3 013词的历时稳态词候选词集。该词集中动词与名词各占约三分之一(其余为形容词、副词与虚词),平均词长约1.7字,前密后疏地分布于历时语料库总频序表的前7 609位,覆盖了总语料的近九成。该部分词语中包含大量构造句子结构的核心词语。它们塑造了稳态词在词长和词类上的特性。稳态词的提取可以加深对语言生活底层与基础词汇的认识,对汉语教学、中文信息处理和语言规划都具有重要意义。  相似文献   
10.
阐述了论文题目、摘要、关键词、正文的作用和参考文献的编写方法.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号