首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   8617篇
  免费   1317篇
  国内免费   990篇
电工技术   298篇
综合类   969篇
化学工业   160篇
金属工艺   139篇
机械仪表   442篇
建筑科学   399篇
矿业工程   103篇
能源动力   32篇
轻工业   214篇
水利工程   49篇
石油天然气   64篇
武器工业   69篇
无线电   1055篇
一般工业技术   811篇
冶金工业   1539篇
原子能技术   20篇
自动化技术   4561篇
  2024年   30篇
  2023年   195篇
  2022年   314篇
  2021年   376篇
  2020年   423篇
  2019年   370篇
  2018年   327篇
  2017年   296篇
  2016年   382篇
  2015年   356篇
  2014年   480篇
  2013年   481篇
  2012年   598篇
  2011年   657篇
  2010年   598篇
  2009年   575篇
  2008年   594篇
  2007年   595篇
  2006年   542篇
  2005年   473篇
  2004年   410篇
  2003年   337篇
  2002年   324篇
  2001年   267篇
  2000年   177篇
  1999年   106篇
  1998年   69篇
  1997年   65篇
  1996年   52篇
  1995年   39篇
  1994年   38篇
  1993年   25篇
  1992年   27篇
  1991年   19篇
  1990年   20篇
  1989年   21篇
  1988年   13篇
  1986年   14篇
  1985年   20篇
  1984年   18篇
  1966年   10篇
  1965年   12篇
  1964年   21篇
  1963年   12篇
  1962年   10篇
  1961年   14篇
  1958年   12篇
  1956年   10篇
  1955年   19篇
  1954年   13篇
排序方式: 共有10000条查询结果,搜索用时 31 毫秒
1.
引入句法依存信息到原方面术语,提出一种新的方面术语表示方法,利用Glove词向量表示单词以及单词与单词之间的依存关系,构造出包含句法依存信息的依存关系邻接矩阵和依存关系表示矩阵,利用图卷积神经网络和多头注意力机制将句法依存信息融入到方面术语中,使得方面术语表达与上下文结构高度相关。将改进后的方面词术语表示替换到现有模型后,模型泛化能力得到有效提升。对比试验和分析结果表明:该方法具有有效性和泛化性。  相似文献   
2.
This paper presents a novel No-Reference Video Quality Assessment (NR-VQA) model that utilizes proposed 3D steerable wavelet transform-based Natural Video Statistics (NVS) features as well as human perceptual features. Additionally, we proposed a novel two-stage regression scheme that significantly improves the overall performance of quality estimation. In the first stage, transform-based NVS and human perceptual features are separately passed through the proposed hybrid regression scheme: Support Vector Regression (SVR) followed by Polynomial curve fitting. The two visual quality scores predicted from the first stage are then used as features for the similar second stage. This predicts the final quality scores of distorted videos by achieving score level fusion. Extensive experiments were conducted using five authentic and four synthetic distortion databases. Experimental results demonstrate that the proposed method outperforms other published state-of-the-art benchmark methods on synthetic distortion databases and is among the top performers on authentic distortion databases. The source code is available at https://github.com/anishVNIT/two-stage-vqa.  相似文献   
3.
杨楠  李亚平 《计算机应用》2019,39(6):1701-1706
对于用户泛化和模糊的查询,将Web搜索引擎返回的列表内容聚类处理,便于用户有效查找感兴趣的内容。由于返回的列表由称为片段(snippet)的短文本组成,而传统的单词频率-逆文档频率(TF-IDF)特征选择模型不能适用于稀疏的短文本,使得聚类性能下降。一个有效的方法就是通过一个外部的知识库对短文本进行扩展。受到基于神经网络词表示方法的启发,提出了通过词嵌入技术的Word2Vec模型对短文本扩展,即采用Word2Vec模型的TopN个最相似的单词用于对片段(snippet)的扩展,扩展文档使得TF-IDF模型特征选择得到聚类性能的提高。同时考虑到通用性单词造成的噪声引入,对扩展文档的TF-IDF矩阵进行了词频权重修正。实验在两个公开数据集ODP239和SearchSnippets上完成,将所提方法和纯snippet无扩展的方法、基于Wordnet的特征扩展方法和基于Wikipedia的特征扩展方法进行了对比。实验结果表明,所提方法在聚类性能方面优于对比方法。  相似文献   
4.
The efficiency of training visual attention in the central and peripheral visual field was investigated by means of a visual detection task that was performed in a naturalistic visual environment including numerous, time-varying visual distractors. We investigated the minimum number of repetitions of the training required to obtain the top performance and whether intra-day training improved performance as efficiently as inter-day training. Additionally, our research aimed to find out whether exposure to a demanding task such as a microsurgical intervention may cancel out the effects of training.

Results showed that performance in visual attention peaked within three (for tasks in the central visual field) to seven (for tasks in the periphery) days subsequent to training. Intra-day training had no significant effect on performance. When attention training was administered after exposure to stress, improvement of attentional performance was more pronounced than when training was completed before the exposure. Our findings support the implementation of training in situ at work for more efficient results.

Practitioner Summary: Visual attention is important in an increasing number of workplaces, such as with surveillance, inspection, or driving. This study shows that it is possible to train visual attention efficiently within three to seven days. Because our study was executed in a naturalistic environment, training results are more likely to reflect the effects in the real workplace.  相似文献   

5.
双语词嵌入通常采用从源语言空间到目标语言空间映射,通过源语言映射嵌入到目标语言空间的最小距离线性变换实现跨语言词嵌入。然而大型的平行语料难以获得,词嵌入的准确率难以提高。针对语料数量不对等、双语语料稀缺情况下的跨语言词嵌入问题,该文提出一种基于小字典不对等语料的跨语言词嵌入方法,首先对单语词向量进行归一化,对小字典词对正交最优线性变换求得梯度下降初始值,然后通过对大型源语言(英语)语料进行聚类,借助小字典找到与每一聚类簇相对应的源语言词,取聚类得到的每一簇词向量均值和源语言与目标语言对应的词向量均值,建立新的双语词向量对应关系,将新建立的双语词向量扩展到小字典中,使得小字典得以泛化和扩展。最后,利用泛化扩展后的字典对跨语言词嵌入映射模型进行梯度下降求得最优值。在英语—意大利语、德语和芬兰语上进行了实验验证,实验结果证明该文方法可以在跨语言词嵌入中减少梯度下降迭代次数,减少训练时间,同时在跨语言词嵌入上表现出较好的正确率。  相似文献   
6.
针对金融领域中智能客服的句子相似度计算方法进行了研究。利用基于词性的分词纠正模型减少中文歧义词、金融相关词汇的分词错误;通过词向量方法和循环神经网络分别提取词语级和句子级的语义特征,并且得到句子向量;用融合层计算出句子向量间的差异特征;对差异特征进行降维和归一化得到句子相似度计算结果。实验结果表明,该方法具有较高的准确率和[F1]值。  相似文献   
7.
视觉里程计利用视频信息来估计相机运动的位姿参数,实现对智能体的定位。传统视觉里程计方法需要特征提取、特征匹配/跟踪、外点剔除、运动估计、优化等流程,解算非常复杂,因此,提出了基于卷积神经网络的方法来实现端对端的单目视觉里程计。借助卷积神经网络对彩色图片自动学习提取图像帧间变化的全局特征,将用于分类的卷积神经网络转化为帧间时序特征网络,通过三层全连接层输出相机的帧间相对位姿参数。在KITTI数据集上的实验结果表明,提出的Deep-CNN-VO模型可以较准确地估计车辆的运动轨迹,证明了方法的可行性。在简化了复杂模型的基础上,与传统的视觉里程计系统相比,该模型的精度也有所提高。  相似文献   
8.
目的建立了乙酰丙酮-目视判读法快速测定白酒中甲醇的方法。方法采用乙酰丙酮法,白酒中甲醇经高锰酸钾氧化,草酸还原过量高猛酸钾后,在沸水浴中与乙酰丙酮发生反应,并对分析条件进行了探讨优化,对酒精度影响和干扰因素进行了深入研究并提出了解决办法。结果对优化后的分析条件进行了多个实验室间验证。本快速检验方法灵敏度为100%,特异性为≥94%,假阴性为0%,假阳性率为≤6.0%,相对准确度≥98.5%,满足要求。结论该方法灵敏、准确、快速,适用于白酒中甲醇的含量的现场快速检测。  相似文献   
9.
沈奕君  李磊  陈国庆 《丝绸》2020,57(1):50-54
在舞台表演中,舞台灯光对人物服饰色彩的视觉体验有很大影响。文章基于光源、布料光谱信息和CIE-1931色度模型,模拟出计算面料色彩推测公式。并选取三种不同色调的LED光源作为舞台灯光,分别对七种面料进行色彩分析,发现深长春花蓝色、中蓝色面料在三种灯光下的色相变化不明显,与太阳光下呈现色彩接近;丁香紫色和兰花紫色面料与灯光色彩倾向一致;金黄色、橙红色和兰花紫色三种颜色在蓝光强烈情况下的色彩视认性更强。最后,结合舞台色彩的视认性和色彩的意象,为舞台服装设计与灯光设计在视觉色感的选择提供帮助。  相似文献   
10.
设计了基于机器视觉的机车齿轮毂全自动双轴拧紧机,根据拧紧工艺和扭矩控制原理实现对螺栓拧紧力矩的控制;通过丝杠变径机构,实现不同规格齿轮毂螺栓拧紧;利用机器视觉实现螺栓位置的识别以及初始位置的确定;讨论了自动拧紧机控制系统的硬件组成和软件系统配置,并介绍了防错、防漏功能的设计流程。螺栓自动拧紧机可提高装配精度和操作效率,降低工人的劳动强度。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号