全文获取类型
收费全文 | 191376篇 |
免费 | 9855篇 |
国内免费 | 10100篇 |
专业分类
电工技术 | 10918篇 |
技术理论 | 7篇 |
综合类 | 11969篇 |
化学工业 | 3169篇 |
金属工艺 | 1076篇 |
机械仪表 | 5348篇 |
建筑科学 | 8551篇 |
矿业工程 | 2943篇 |
能源动力 | 832篇 |
轻工业 | 5087篇 |
水利工程 | 1943篇 |
石油天然气 | 1622篇 |
武器工业 | 945篇 |
无线电 | 67453篇 |
一般工业技术 | 6534篇 |
冶金工业 | 1816篇 |
原子能技术 | 233篇 |
自动化技术 | 80885篇 |
出版年
2024年 | 955篇 |
2023年 | 3663篇 |
2022年 | 4138篇 |
2021年 | 4953篇 |
2020年 | 4363篇 |
2019年 | 5206篇 |
2018年 | 2605篇 |
2017年 | 4078篇 |
2016年 | 4648篇 |
2015年 | 5823篇 |
2014年 | 14175篇 |
2013年 | 11505篇 |
2012年 | 13523篇 |
2011年 | 14066篇 |
2010年 | 13680篇 |
2009年 | 15196篇 |
2008年 | 15100篇 |
2007年 | 11801篇 |
2006年 | 10303篇 |
2005年 | 10601篇 |
2004年 | 9263篇 |
2003年 | 7777篇 |
2002年 | 5909篇 |
2001年 | 4494篇 |
2000年 | 3250篇 |
1999年 | 2203篇 |
1998年 | 1743篇 |
1997年 | 1458篇 |
1996年 | 1100篇 |
1995年 | 848篇 |
1994年 | 713篇 |
1993年 | 518篇 |
1992年 | 440篇 |
1991年 | 360篇 |
1990年 | 385篇 |
1989年 | 386篇 |
1988年 | 50篇 |
1987年 | 15篇 |
1986年 | 16篇 |
1985年 | 8篇 |
1984年 | 6篇 |
1983年 | 1篇 |
1980年 | 1篇 |
1979年 | 1篇 |
1959年 | 1篇 |
1951年 | 3篇 |
排序方式: 共有10000条查询结果,搜索用时 15 毫秒
91.
92.
93.
94.
95.
作为磨矿过程的主要生产质量指标, 磨矿粒度是实现磨矿过程闭环优化控制的关键.将磨矿粒度控制在一定范围内能够提高选别作业的精矿品位和有用矿物的回收率, 并减少有用矿物的金属流失.由于经济和技术上的限制, 磨矿粒度的实时测量难以实现.因此, 磨矿粒度的在线估计显得尤为重要.然而, 目前我国所处理的铁矿石大多数为性质不稳定的赤铁矿, 其矿浆颗粒存在磁团聚现象, 所采集的数据存在大量异常值, 使得利用数据建立的磨矿粒度模型存在较大误差.同时, 传统前馈神经网络在磨矿粒度数据建模过程中存在收敛速度慢、易于陷入局部最小值等缺点, 且单一模型泛化性能较差, 现有的集成学习在异常值干扰下性能严重下降.因此, 本文在改进的随机向量函数链接网络(random vector functional link networks, RVFLN)的基础上, 将Bagging算法与自适应加权数据融合技术相结合, 提出一种基于鲁棒随机向量函数链接网络的集成建模方法, 用于磨矿粒度集成建模.所提方法首先通过基准回归问题进行了实验研究, 然后采用磨矿工业实际数据进行验证, 表明其有效性. 相似文献
96.
97.
现有互联网因其原始设计不足已在服务质量、资源利用率、管控能力等诸多方面暴露出严重弊端,难以支撑起"互联网+"新业态高速发展对通信网络与服务日趋复杂化、多元化的需求.因此,如何设计全新的互联网已成为信息领域最为迫切与核心的研究内容之一,受到学术界与产业界的高度重视.本文基于前期"标识网络"与"智慧标识网络"研究,创造性提出"智融标识网络"体系及其关键机制,通过全网多空间、多维度资源的智慧融合,实现个性化服务的按需供给与灵活化组网的有效支撑,为不同行业与用户提供高效的差异化、定制化通信网络服务,以普遍适用于高铁网络、工业互联网、车联网等各类迥异应用情景. 相似文献
98.
强化学习问题中,同一状态下不同动作所对应的状态-动作值存在差距过小的现象,Q-Learning算法采用MAX进行动作选择时会出现过估计问题,且结合了Q-Learning的深度Q网络(Deep Q Net)同样存在过估计问题。为了缓解深度Q网络中存在的过估计问题,提出一种基于优势学习的深度Q网络,通过优势学习的方法构造一个更正项,利用目标值网络对更正项进行建模,同时与深度Q网络的评估函数进行求和作为新的评估函数。当选择的动作是最优动作时,更正项为零,不对评估函数的值进行改动,当选择的动作不是最优动作时,更正项的值为负,降低了非最优动作的评估值。和传统的深度Q网络相比,基于优势学习的深度Q网络在Playing Atari 2600的控制问题breakout、seaquest、phoenix、amidar中取得了更高的平均奖赏值,在krull、seaquest中取得了更加稳定的策略。 相似文献