全文获取类型
收费全文 | 2429篇 |
免费 | 226篇 |
国内免费 | 321篇 |
专业分类
电工技术 | 66篇 |
技术理论 | 2篇 |
综合类 | 583篇 |
化学工业 | 48篇 |
金属工艺 | 14篇 |
机械仪表 | 31篇 |
建筑科学 | 276篇 |
矿业工程 | 28篇 |
能源动力 | 5篇 |
轻工业 | 59篇 |
水利工程 | 12篇 |
石油天然气 | 21篇 |
武器工业 | 5篇 |
无线电 | 190篇 |
一般工业技术 | 74篇 |
冶金工业 | 96篇 |
原子能技术 | 2篇 |
自动化技术 | 1464篇 |
出版年
2024年 | 1篇 |
2023年 | 80篇 |
2022年 | 97篇 |
2021年 | 129篇 |
2020年 | 181篇 |
2019年 | 237篇 |
2018年 | 148篇 |
2017年 | 128篇 |
2016年 | 132篇 |
2015年 | 149篇 |
2014年 | 193篇 |
2013年 | 161篇 |
2012年 | 137篇 |
2011年 | 228篇 |
2010年 | 119篇 |
2009年 | 119篇 |
2008年 | 144篇 |
2007年 | 111篇 |
2006年 | 76篇 |
2005年 | 52篇 |
2004年 | 74篇 |
2003年 | 48篇 |
2002年 | 60篇 |
2001年 | 39篇 |
2000年 | 31篇 |
1999年 | 21篇 |
1998年 | 18篇 |
1997年 | 6篇 |
1996年 | 3篇 |
1995年 | 6篇 |
1994年 | 10篇 |
1993年 | 8篇 |
1992年 | 4篇 |
1991年 | 5篇 |
1990年 | 9篇 |
1989年 | 2篇 |
1988年 | 1篇 |
1986年 | 9篇 |
排序方式: 共有2976条查询结果,搜索用时 15 毫秒
1.
机器译文自动评价是机器翻译中的一个重要任务。针对目前译文自动评价中完全忽略源语言句子信息,仅利用人工参考译文度量翻译质量的不足,该文提出了引入源语言句子信息的机器译文自动评价方法: 从机器译文与其源语言句子组成的二元组中提取描述翻译质量的质量向量,并将其与基于语境词向量的译文自动评价方法利用深度神经网络进行融合。在WMT-19译文自动评价任务数据集上的实验结果表明,该文所提出的方法能有效增强机器译文自动评价与人工评价的相关性。深入的实验分析进一步揭示了源语言句子信息在译文自动评价中发挥着重要作用。 相似文献
2.
针对文本分类任务中标注数量少的问题,提出了一种基于词共现与图卷积相结合的半监督文本分类方法。模型使用词共现方法统计语料库中单词的词共现信息,过滤词共现信息建立一个包含单词节点和文档节点的大型图结构的文本图,将文本图中邻接矩阵和关于节点的特征矩阵输入到结合注意力机制的图卷积神经网络中实现了对文本的分类。实验结果表明,与目前多种文本分类算法相比,该方法在经典数据集20NG、Ohsumed和MR上均取得了更好的效果。 相似文献
3.
语义槽填充是对话系统中一项非常重要的任务,旨在为输入句子的每个单词标注正确的标签,其性能的好坏极大地影响着后续的对话管理模块。目前,使用深度学习方法解决该任务时,一般利用随机词向量或者预训练词向量作为模型的初始化词向量。但是,随机词向量存在不具备语义和语法信息的缺点;预训练词向量存在“一词一义”的缺点,无法为模型提供具备上下文依赖的词向量。针对该问题,提出了一种基于预训练模型BERT和长短期记忆网络的深度学习模型。该模型使用基于Transformer的双向编码表征模型(Bidirectional Encoder Representations from Transformers,BERT)产生具备上下文依赖的词向量,并将其作为双向长短期记忆网络(Bidirectional Long Short-Term Memory,BiLSTM)的输入,最后利用Softmax函数和条件随机场进行解码。将预训练模型BERT和BiLSTM网络作为整体进行训练,达到了提升语义槽填充任务性能的目的。在MIT Restaurant Corpus,MIT Movie Corpus和MIT Movie trivial Corpus 3个数据集上,所提模型得出了良好的结果,最大F1值分别为78.74%,87.60%和71.54%。实验结果表明,所提模型显著提升了语义槽填充任务的F1值。 相似文献
4.
引入句法依存信息到原方面术语,提出一种新的方面术语表示方法,利用Glove词向量表示单词以及单词与单词之间的依存关系,构造出包含句法依存信息的依存关系邻接矩阵和依存关系表示矩阵,利用图卷积神经网络和多头注意力机制将句法依存信息融入到方面术语中,使得方面术语表达与上下文结构高度相关。将改进后的方面词术语表示替换到现有模型后,模型泛化能力得到有效提升。对比试验和分析结果表明:该方法具有有效性和泛化性。 相似文献
5.
一种基于改进词袋模型的视觉SLAM算法 总被引:1,自引:0,他引:1
针对室内环境中视觉同时定位与建图(simultaneous localization and mapping,SLAM)精度不高和实用性较差等问题,采用深度相机作为传感器,提出一种基于改进词袋模型的视觉SLAM算法.该算法通过增加节点距离的方式,对传统的词袋模型进行改进,采用octree方法转化点云,生成可用于导航的八叉树图,并进行改进前后词袋模型对比实验、数据集精度实验和实验室实测.结果表明,改进后的词袋模型相似度计算能力和区分度更强,SLAM算法在环境有回环和相机运动较慢的情况下,效果较好,可满足室内同时定位与建图及后续导航需求. 相似文献
6.
采取TF-IDF、LDA、位置权重指派与MMR相结合的方式,对不同的句子分配不同的权重.结合Word Embedding模型,分析了在BERT、RoBERTa-wwm-ext等模型测试的分类效果. 相似文献
7.
以华能丹东电厂引进的大型斜温层储热罐为例,详细介绍了储热罐的原理、结构及实际应用情况。面对国内能源结构的深入调整,碳达峰、碳中和目标日益临近,火电调峰将成为常态,储热罐的应用及其与火电机组的有效配合,不但实现了热电解耦,有效增加了供热负荷,还为火电机组灵活性调峰创造了先机。实践表明,经过国产化及优化,储热罐有效蓄热量设计值5 040。0GJ,实测值5 324.7GJ,斜温层厚度设计值1.500m,实测值0.850m,丹东电厂通过储热罐的应用,在保证供暖的情况下,单机负荷率由20% 继续下降至12.85%(45MW),并保持连续运行,创造了火电机组深度调峰的典范,验证了斜温层储热罐在火电厂深度调峰中的保低负荷供热以及顶尖峰压低谷的作用,为火电灵活性改造技术提供了切实可行的方案参考。 相似文献
8.
GloVe模型是一种广泛使用的词向量表示学习的模型。许多研究发现,学习得到的词向量维数越大,性能越好;但维数越大,模型学习耗时越长。事实上,GloVe模型中,耗时主要表现在两方面,一是统计词对共现矩阵,二是训练学习词向量表示。该文在利用GloVe模型统计语料中词对共现时,基于对称或非对称窗口得到两个共现矩阵,然后分别学习得到较低维度的词向量表示,再拼接得到较高维度的词向量表示。从计算的复杂度来看,该文方法并不会产生多的计算量,但显然统计共现矩阵和训练学习可通过并行方式实现,能够显著提高计算效率。在使用大规模语料的实验中,以对称和非对称窗口分别统计得到共现矩阵,分别学习得到300维词向量表示,再使用拼接方式得到600维词向量表示。与GloVe模型对称和非对称的600维的词向量相比,在中文和英文的词语推断任务上,显著地提高了预测的准确率,在词语聚类任务上,有较好的聚类效果,验证了该文方法的有效性。 相似文献
9.
安全生产事故的分析对应急管理能力提升具有重要意义.通过对安全生产案例的语义分析,利用Word2Vec词嵌入技术和聚类模型,选用CBOW+负采样技术实现词向量,并结合安全生产事故案例分类的数据特点,通过基于半监督学习的聚类模型算法,根据事故性质的认定特点,提出了一种优化初始聚类中心的算法,并利用K-means聚类算法实现安全事故文本案例的分类.实验表明该方法较好实现安全生产的事故案例分类,并对安全生产事故的多个维度分析具有很好借鉴意义. 相似文献
10.
基于全监督学习的文本分类算法需要使用大量的标签数据,而文本数据的标注任务耗时耗力且标注难度较大。针对上述问题,提出了一种基于LOTClass模型的弱监督中文短文本分类算法。首先,使用少量的标签数据构建类别种子词表;其次,使用类别种子词表指导训练中文伪标签生成模型,并使用该模型生成大量伪标签数据;最后,利用优质伪标签数据训练一个中文短文本分类模型。在THUCNews新闻标题数据集和论文标题数据集上进行实验,结果表明,该算法在仅使用少量标签数据的情况下,其性能优于主流的半监督分类算法,同时不逊于一般的全监督分类算法,为无标签数据分类任务提供了一种较好的解决方案。 相似文献