收费全文 | 24260篇 |
免费 | 4588篇 |
国内免费 | 2470篇 |
电工技术 | 4201篇 |
技术理论 | 2篇 |
综合类 | 3081篇 |
化学工业 | 610篇 |
金属工艺 | 399篇 |
机械仪表 | 1772篇 |
建筑科学 | 443篇 |
矿业工程 | 404篇 |
能源动力 | 424篇 |
轻工业 | 465篇 |
水利工程 | 262篇 |
石油天然气 | 306篇 |
武器工业 | 302篇 |
无线电 | 3393篇 |
一般工业技术 | 1422篇 |
冶金工业 | 911篇 |
原子能技术 | 63篇 |
自动化技术 | 12858篇 |
2024年 | 350篇 |
2023年 | 430篇 |
2022年 | 749篇 |
2021年 | 926篇 |
2020年 | 908篇 |
2019年 | 887篇 |
2018年 | 833篇 |
2017年 | 988篇 |
2016年 | 1224篇 |
2015年 | 1309篇 |
2014年 | 1657篇 |
2013年 | 1510篇 |
2012年 | 2009篇 |
2011年 | 2074篇 |
2010年 | 1667篇 |
2009年 | 1737篇 |
2008年 | 1804篇 |
2007年 | 1929篇 |
2006年 | 1666篇 |
2005年 | 1300篇 |
2004年 | 962篇 |
2003年 | 734篇 |
2002年 | 642篇 |
2001年 | 478篇 |
2000年 | 453篇 |
1999年 | 280篇 |
1998年 | 224篇 |
1997年 | 237篇 |
1996年 | 181篇 |
1995年 | 181篇 |
1994年 | 161篇 |
1993年 | 117篇 |
1992年 | 136篇 |
1991年 | 99篇 |
1990年 | 84篇 |
1989年 | 78篇 |
1988年 | 49篇 |
1987年 | 26篇 |
1986年 | 36篇 |
1985年 | 33篇 |
1984年 | 29篇 |
1983年 | 12篇 |
1982年 | 22篇 |
1980年 | 10篇 |
1979年 | 7篇 |
1976年 | 6篇 |
1975年 | 8篇 |
1964年 | 7篇 |
1961年 | 8篇 |
1954年 | 7篇 |
近年来,基于机器学习(ML)的频谱感知技术为认知无线电系统提供了新型的频谱状态监测解决方案。利用蜂窝认知无线电网络(CCRN)中的次级用户设备(SUE)所能提供的大量频谱观测数据,该文提出了一种基于主用户(PU)传输模式分类的频谱感知方案。首先,基于多种典型的ML算法,对于网络中的多个主用户发射机(PUT)的传输模式进行分类辨识,在网络整体层面上确定所有PUT的联合工作状态。然后,网络中的SUE根据其所处地理位置或者频谱观测数据,判断其在当前已判定的PUT发射模式下接入授权频谱的可能性。由于PUT在网络中的实际位置可能事先已知或者无法提前确定,该文给出了3种不同的处理方法。理论推导与实验结果表明,所提方案与传统的能量检测方案相比,不仅改善了频谱感知性能,还增加了蜂窝认知网络对于授权频谱的动态访问机会。该方案可以作为蜂窝认知无线电网络中的一种高效实用的频谱感知解决方案。
相似文献为了在单级射流流体推力矢量控制基础上获得更大的流体矢量偏转角,提出一种基于双级二次流射流的流体式推力矢量喷管,利用双级二次流造成的压强差使主流在第一次偏转的基础上再次发生偏转。采用CFD仿真确定模型二次流管道开口大小及入射角度,通过仿真、烟流显示及测压实验分析单级二次流射流、双级二次流射流控制状态下主流矢量偏转对应的流动控制机制,并通过后期处理得到流动控制规律。结果表明:通过双级二次流作用可以使主流产生两次偏转,从而显著增大主流矢量偏转角度;当两级二次流控制缝输出流量与主流体积流量比均为0.021时,可以获得12.5°的最大向上主流矢量偏转角。
相似文献为了解决在实际应用过程中很难获取到原始视频信息的问题,提出了一种无参考的视频多方法评估融合(video multimethod assessment fusion, VMAF)预测模型. 首先,采用一种基于多模双线性池化的卷积神经网络结构建立视频帧级的无参考VMAF预测模型,用于对失真视频帧的VMAF分数进行预测;其次,采用3种不同的时间池化方法对失真视频帧的VMAF预测分数分别进行聚合,将结果融合后得到一个质量特征向量;最后,采用nu-支持向量回归(nu support vector regression, NuSVR)的方法建立质量特征向量与视频VMAF分数之间的映射关系模型. 该模型不需要原始视频信息就可以预测失真视频的VMAF分数,具有应用价值. 实验结果表明,提出的模型可以获得较高的预测精度.
相似文献视频-文本检索作为一项被广泛应用于现实生活中的多模态检索技术受到越来越多的研究者的关注. 近来, 大部分视频文本工作通过利用大规模预训练模型中所学到的视觉与语言之间的匹配关系来提升文本视频间跨模态检索效果. 然而, 这些方法忽略了视频、文本数据都是由一个个事件组合而成. 倘若能捕捉视频事件与文本事件之间的细粒度相似性关系, 将能帮助模型计算出更准确的文本与视频之间的语义相似性关系, 进而提升文本视频间跨模态检索效果. 因此, 提出了一种基于CLIP生成多事件表示的视频文本检索方法(CLIP based multi-event representation generation for video-text retrieval, CLIPMERG). 首先, 通过利用大规模图文预训练模型CLIP的视频编码器(ViT)以及文本编码器(Tansformer)分别将视频、文本数据转换成视频帧token序列以及文本的单词token序列;然后, 通过视频事件生成器(文本事件生成器)将视频帧token序列(单词token序列)转换成