首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   22830篇
  免费   2745篇
  国内免费   2151篇
电工技术   2749篇
综合类   2149篇
化学工业   259篇
金属工艺   907篇
机械仪表   2312篇
建筑科学   704篇
矿业工程   313篇
能源动力   466篇
轻工业   368篇
水利工程   162篇
石油天然气   243篇
武器工业   976篇
无线电   6728篇
一般工业技术   1264篇
冶金工业   358篇
原子能技术   100篇
自动化技术   7668篇
  2024年   173篇
  2023年   649篇
  2022年   689篇
  2021年   869篇
  2020年   761篇
  2019年   1073篇
  2018年   532篇
  2017年   776篇
  2016年   928篇
  2015年   1129篇
  2014年   1635篇
  2013年   1453篇
  2012年   1791篇
  2011年   1668篇
  2010年   1584篇
  2009年   1634篇
  2008年   1697篇
  2007年   1412篇
  2006年   1131篇
  2005年   1001篇
  2004年   809篇
  2003年   687篇
  2002年   640篇
  2001年   456篇
  2000年   360篇
  1999年   312篇
  1998年   310篇
  1997年   272篇
  1996年   214篇
  1995年   197篇
  1994年   179篇
  1993年   155篇
  1992年   129篇
  1991年   126篇
  1990年   129篇
  1989年   117篇
  1988年   24篇
  1987年   11篇
  1986年   5篇
  1985年   3篇
  1984年   3篇
  1983年   1篇
  1982年   1篇
  1981年   1篇
排序方式: 共有10000条查询结果,搜索用时 15 毫秒
1.
2.
《门窗》2019,(17)
随着我国经济和社会的逐渐发展,我国对于施工过程中的工程造价跟踪审计问题也越来越重视。其在施工阶段是一项非常重要的工作,本文通过对于多个工程项目在施工阶段的工程造价跟踪审计工作进行调查分析。进而总结出在审计工作过程中所需要注意的几个施工重点问题,希望可以给管理工作者提供一些借鉴。  相似文献   
3.
为了提高移动设备上眼动跟踪的精度和效率、降低硬件成本,提出基于注视点回忆的眼动数据感知计算方法.首先利用人的短时记忆特性建立注视点回忆和自我报告机制,要求用户点击移动设备屏幕来提交注视点位置数据;然后基于支持向量回归方法建立注视点数据误差补偿模型,对用户回忆和提交的注视点数据进行校正,进一步提高数据精度.为了验证数据误差补偿模型的效果,设计并开展了用户实验,结果表明,使用数据误差补偿模型后,对于不同类型的测试任务和测试图片,注视点回忆数据精度提高15%~40%.  相似文献   
4.
5.
乔双虎  朱赓宏 《硅谷》2015,(4):20-21
为解决燃煤供暖既污染环境又浪费能源的实际问题,利用太阳能能量丰富、清洁无公害的特点,设计了一个全天为房间供暖的太阳能多功能供暖系统。该系统主要以太阳能为主,电为辅给地暖不间断的供应能量,而在这个过程中,太阳能跟踪、室温控制、温度和水位监测等功能的完美结合,保证了系统高效、正常的运行。  相似文献   
6.
7.
8.
9.
为了实现手部功能障碍患者在抓握康复训练中手部状态的数字化,提出采用抓握状态模型对手部状态进行识别,并通过实验分析模型的适用性与鲁棒性。首先,提出一种手部抓握状态模型,抓握对象,手部抓握类型以及手部抓握状态判定的流程。然后,采用Leap Motion对5名受试者抓握ARAT(Action Research Arm Test)标准物时的动作进行跟踪,分析抓握状态模型的适用性。最后,通过实验中抓握状态模型参数的离散度分析抓握对象尺寸、手部差异和抓握角度对抓握状态模型稳定性的影响。实验结果表明:实验中抓握状态模型参数的平均相对标准偏差为0.637,且该抓握状态模型具有良好的适用性和鲁棒性。采用基于机器视觉的抓握状态模型对手部状态识别基本满足对手部运动跟踪精度高、处理速度快等要求。  相似文献   
10.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号