首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   23791篇
  免费   2890篇
  国内免费   2301篇
电工技术   2825篇
综合类   2315篇
化学工业   274篇
金属工艺   913篇
机械仪表   2403篇
建筑科学   733篇
矿业工程   326篇
能源动力   473篇
轻工业   373篇
水利工程   180篇
石油天然气   248篇
武器工业   1063篇
无线电   6967篇
一般工业技术   1311篇
冶金工业   367篇
原子能技术   105篇
自动化技术   8106篇
  2024年   173篇
  2023年   669篇
  2022年   716篇
  2021年   906篇
  2020年   777篇
  2019年   1106篇
  2018年   574篇
  2017年   815篇
  2016年   977篇
  2015年   1177篇
  2014年   1699篇
  2013年   1511篇
  2012年   1871篇
  2011年   1747篇
  2010年   1669篇
  2009年   1686篇
  2008年   1801篇
  2007年   1507篇
  2006年   1187篇
  2005年   1062篇
  2004年   856篇
  2003年   723篇
  2002年   661篇
  2001年   482篇
  2000年   373篇
  1999年   322篇
  1998年   316篇
  1997年   282篇
  1996年   221篇
  1995年   201篇
  1994年   190篇
  1993年   159篇
  1992年   132篇
  1991年   132篇
  1990年   132篇
  1989年   119篇
  1988年   25篇
  1987年   12篇
  1986年   5篇
  1985年   3篇
  1984年   3篇
  1983年   1篇
  1982年   1篇
  1981年   1篇
排序方式: 共有10000条查询结果,搜索用时 0 毫秒
1.
2.
《门窗》2019,(17)
随着我国经济和社会的逐渐发展,我国对于施工过程中的工程造价跟踪审计问题也越来越重视。其在施工阶段是一项非常重要的工作,本文通过对于多个工程项目在施工阶段的工程造价跟踪审计工作进行调查分析。进而总结出在审计工作过程中所需要注意的几个施工重点问题,希望可以给管理工作者提供一些借鉴。  相似文献   
3.
为了提高移动设备上眼动跟踪的精度和效率、降低硬件成本,提出基于注视点回忆的眼动数据感知计算方法.首先利用人的短时记忆特性建立注视点回忆和自我报告机制,要求用户点击移动设备屏幕来提交注视点位置数据;然后基于支持向量回归方法建立注视点数据误差补偿模型,对用户回忆和提交的注视点数据进行校正,进一步提高数据精度.为了验证数据误差补偿模型的效果,设计并开展了用户实验,结果表明,使用数据误差补偿模型后,对于不同类型的测试任务和测试图片,注视点回忆数据精度提高15%~40%.  相似文献   
4.
5.
乔双虎  朱赓宏 《硅谷》2015,(4):20-21
为解决燃煤供暖既污染环境又浪费能源的实际问题,利用太阳能能量丰富、清洁无公害的特点,设计了一个全天为房间供暖的太阳能多功能供暖系统。该系统主要以太阳能为主,电为辅给地暖不间断的供应能量,而在这个过程中,太阳能跟踪、室温控制、温度和水位监测等功能的完美结合,保证了系统高效、正常的运行。  相似文献   
6.
7.
8.
9.
为了实现手部功能障碍患者在抓握康复训练中手部状态的数字化,提出采用抓握状态模型对手部状态进行识别,并通过实验分析模型的适用性与鲁棒性。首先,提出一种手部抓握状态模型,抓握对象,手部抓握类型以及手部抓握状态判定的流程。然后,采用Leap Motion对5名受试者抓握ARAT(Action Research Arm Test)标准物时的动作进行跟踪,分析抓握状态模型的适用性。最后,通过实验中抓握状态模型参数的离散度分析抓握对象尺寸、手部差异和抓握角度对抓握状态模型稳定性的影响。实验结果表明:实验中抓握状态模型参数的平均相对标准偏差为0.637,且该抓握状态模型具有良好的适用性和鲁棒性。采用基于机器视觉的抓握状态模型对手部状态识别基本满足对手部运动跟踪精度高、处理速度快等要求。  相似文献   
10.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号