首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   3762篇
  免费   334篇
  国内免费   443篇
电工技术   204篇
综合类   1056篇
化学工业   69篇
金属工艺   34篇
机械仪表   175篇
建筑科学   248篇
矿业工程   147篇
能源动力   37篇
轻工业   81篇
水利工程   98篇
石油天然气   41篇
武器工业   49篇
无线电   573篇
一般工业技术   302篇
冶金工业   34篇
原子能技术   11篇
自动化技术   1380篇
  2024年   31篇
  2023年   108篇
  2022年   87篇
  2021年   125篇
  2020年   91篇
  2019年   111篇
  2018年   73篇
  2017年   90篇
  2016年   101篇
  2015年   122篇
  2014年   212篇
  2013年   201篇
  2012年   181篇
  2011年   217篇
  2010年   263篇
  2009年   220篇
  2008年   335篇
  2007年   363篇
  2006年   153篇
  2005年   175篇
  2004年   175篇
  2003年   131篇
  2002年   108篇
  2001年   105篇
  2000年   103篇
  1999年   94篇
  1998年   89篇
  1997年   89篇
  1996年   82篇
  1995年   71篇
  1994年   67篇
  1993年   37篇
  1992年   41篇
  1991年   26篇
  1990年   31篇
  1989年   16篇
  1988年   4篇
  1987年   6篇
  1986年   4篇
  1984年   1篇
排序方式: 共有4539条查询结果,搜索用时 46 毫秒
991.
收敛连续函数列的极限可以是不连续的,这在理论与应用土均造成许多障碍,例如,它使在积分号下取极限的条件变得十分苛刻,一般要求函数列一致收敛,因此研究连续函数列的极限仍为连续函数的这一类收敛性在理论与应用上都是十分有意义的.本文研究了拓扑空间中一种函数列的收敛性——仿强收敛性.证明了函数列是仿强收敛的充分必要条件.  相似文献   
992.
本文将Enedunya,Sylvanus A.N的关于修正型的 Hermite插值过程Q_n[f(t);x]进行了扩展,得到其逼近(-∞,+∞)上的有界或无界函数的收敛阶及其导数逼近的收敛阶。  相似文献   
993.
本文就二阶方程的第一边值问题,采取连续分片二次多项式空间,建立步长不等式,给出超收敛一种估计方法,得到差值误差估计:‖u—u_I‖_1=0(h~3),从而得出节点p_i上的GALERKIN解的超收敛估计:‖u—u~h‖_1=0(h~3)。  相似文献   
994.
995.
PSO算法寻优性能优劣受速度更新公式影响,过快的收敛速度可能使算法错过全局最优解;过慢的收敛速度可能会使算法陷于局部最优解。针对该问题,文中提出了一种基于改进压缩因子的PSO优化算法,即FPSO。通过引入压缩因子方程,改进了速度迭代公式,减少了因学习因子设置不当对算法造成的影响。新的调节机制既保证了PSO算法的收敛性能,也削弱了速度边界对算法的影响。最后,选取5个经典函数对算法性能进行测试。测试结果表明,与传统PSO算法相比,文中算法提高了全局收敛能力,缩短了收敛时间。  相似文献   
996.
997.
998.
针对原有人工势场法(artificial potential field,APF)在局部路径规划时的避障效果不良问题,提出一种APF-PSO的改进算法改善原算法优化路径规划的效果。将速度势场引入位置势场中使AGV(automated guided vehicle)动态避开不同速度的移动障碍物;当算法陷入局部最小值时,采取PSO(particle swarm optimization)算法,并对其惯性权重因子和学习因子做出调整,通过三次样条曲线插值来平滑路径,使得AGV找到最短路径。结果表明APF-PSO改进算法可根据障碍物速度不同动态避障,解决了APF算法运算中避障效果不良问题。  相似文献   
999.
窦勇敢    袁晓彤   《智能系统学报》2022,17(3):488-495
联邦学习是一种分布式机器学习范式,中央服务器通过协作大量远程设备训练一个最优的全局模型。目前联邦学习主要存在系统异构性和数据异构性这两个关键挑战。本文主要针对异构性导致的全局模型收敛慢甚至无法收敛的问题,提出基于隐式随机梯度下降优化的联邦学习算法。与传统联邦学习更新方式不同,本文利用本地上传的模型参数近似求出平均全局梯度,同时避免求解一阶导数,通过梯度下降来更新全局模型参数,使全局模型能够在较少的通信轮数下达到更快更稳定的收敛结果。在实验中,模拟了不同等级的异构环境,本文提出的算法比FedProx和FedAvg均表现出更快更稳定的收敛结果。在相同收敛结果的前提下,本文的方法在高度异构的合成数据集上比FedProx通信轮数减少近50%,显著提升了联邦学习的稳定性和鲁棒性。  相似文献   
1000.
沙林秀  聂凡  高倩  孟号 《计算机应用》2022,42(7):2139-2145
针对群智能优化算法在优化过程中容易陷入局部最优、种群多样性低以及高维函数优化困难的问题,提出一种基于布朗运动与梯度信息的交替优化算法(AOABG)。首先,采用全局、局部搜索交替的寻优策略,即在有变优趋势的范围内切换为局部搜索,有变劣趋势的范围内切换为全局搜索;然后,局部搜索引入基于梯度信息的均匀分布概率的随机游走,全局搜索引入基于最优解位置的布朗运动的随机游走。将所提出的AOABG与近三年的哈里斯鹰优化算法(HHO)、麻雀搜索算法(SSA)、特种部队算法(SFA)在10个测试函数上对比。当测试函数维数为2、10时,AOABG在10个测试函数上的100次最终优化结果的均值与均方差均优于HHO、SSA与SFA。当测试函数为30维时,除了HHO在Levy函数上的表现优于AOABG(两者优化结果均值处于同一数量级)外,AOABG在其他9个测试函数上表现最好,与上述算法相比,优化结果均值提升了4.64%~94.89%。实验结果表明,AOABG在高维函数优化中收敛速度更快、稳定性更好、精度更高。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号