全文获取类型
收费全文 | 84713篇 |
免费 | 11026篇 |
国内免费 | 7379篇 |
专业分类
电工技术 | 3647篇 |
技术理论 | 3篇 |
综合类 | 7027篇 |
化学工业 | 1270篇 |
金属工艺 | 864篇 |
机械仪表 | 4704篇 |
建筑科学 | 4983篇 |
矿业工程 | 1381篇 |
能源动力 | 392篇 |
轻工业 | 3128篇 |
水利工程 | 1299篇 |
石油天然气 | 720篇 |
武器工业 | 1314篇 |
无线电 | 29200篇 |
一般工业技术 | 4377篇 |
冶金工业 | 584篇 |
原子能技术 | 351篇 |
自动化技术 | 37874篇 |
出版年
2024年 | 159篇 |
2023年 | 3762篇 |
2022年 | 3559篇 |
2021年 | 4176篇 |
2020年 | 4161篇 |
2019年 | 4507篇 |
2018年 | 1936篇 |
2017年 | 2633篇 |
2016年 | 2882篇 |
2015年 | 3482篇 |
2014年 | 6137篇 |
2013年 | 5186篇 |
2012年 | 6515篇 |
2011年 | 6805篇 |
2010年 | 6319篇 |
2009年 | 5760篇 |
2008年 | 6225篇 |
2007年 | 5392篇 |
2006年 | 4314篇 |
2005年 | 4200篇 |
2004年 | 3632篇 |
2003年 | 2748篇 |
2002年 | 2076篇 |
2001年 | 1545篇 |
2000年 | 1190篇 |
1999年 | 740篇 |
1998年 | 602篇 |
1997年 | 478篇 |
1996年 | 397篇 |
1995年 | 345篇 |
1994年 | 306篇 |
1993年 | 215篇 |
1992年 | 200篇 |
1991年 | 184篇 |
1990年 | 187篇 |
1989年 | 119篇 |
1988年 | 8篇 |
1987年 | 3篇 |
1986年 | 28篇 |
1985年 | 1篇 |
1984年 | 2篇 |
1959年 | 2篇 |
排序方式: 共有10000条查询结果,搜索用时 46 毫秒
1.
针对眼底血管图像具有形状多样、分叉较多、曲度复杂的特点,提出了一种多尺度融合视网膜血管分割算法.该算法基于U-Net模型进行改进,首先在编码和解码部分使用短跳跃连接模块将网络浅层和深层的特征信息进行融合,通过增加浅层特征的权重,更多地保留了血管的边缘和细微结构信息.其次在编码部分采用空洞卷积构建空洞空间金字塔池化模块代替传统卷积块,来扩大算法的感受野,从而在不增加网络参数的同时进行多尺度特征融合,提取更丰富的空间信息.通过在DRIVE数据集上进行验证,实验结果表明:本算法的准确率和AUC值分别达到0.9572、0.9811,与U-Net等其他基于深度学习的算法相比分割效果更优,从而验证本算法在视网膜血管分割中更加有效. 相似文献
2.
针对目前工业CT图像转换为3D打印G代码方法效率低的问题,提出一种基于邻层数据匹配的工业CT图像直接转换成G代码的方法。首先采用Canny算子提取工业CT图像的轮廓,然后处理轮廓分叉问题,实现邻层间几何信息数据匹配,其次进行邻层间轮廓插值以满足3D打印层间厚度要求,从而避免"阶梯效应",最后通过填充编码得到用于3D打印的G代码。使用本文提出的方法,轮毂CT图像转换为G代码的时间为10.5 s,耗时远小于其他间接转换方法;3D打印出的轮毂无"阶梯效应",平均尺寸误差率为0.25%。实验结果表明,该方法不涉及中间格式,转换效率高,转换误差与传统方法相当,适用于具有复杂内腔结构的零件。 相似文献
3.
介绍了用于角度测量的绝对式光电旋转编码器的编码理论研究概况,具体包括反射式格雷码、矩阵码、m序列码和单码道格雷码的绝对位置编码方法和编码特征。绝对位置编码的发展过程是以唯一性和单变性为基础特性,以单码道性为最终目标进行编码矩阵列数的缩减。目前,编码类型的发展经历了n条码道的反射式格雷码、n/3条码道矩阵码、2条码道的m序列码以及1条码道的单码道格雷码,已经达到单码道的最终目标。由于单码道格雷码编码理论尚不完善,仍依赖搜索获得编码,因此其快速构造方法是未来绝对位置编码理论的发展方向。最后,对近几年发展起来的基于图像传感器的非编码测量方法进行了介绍和展望,该方法是对传统测量方法的颠覆,有望成为光电式旋转编码器的另一个发展方向。 相似文献
4.
针对单一彩色相机对低辨识度目标识别准确率低的问题,提出了一种利用彩色相机和红外热成像仪同时检测自动驾驶目标的方案。为了同时提取彩色图像的颜色特征与红外图像的温度特征,在单模态YOLOv3网络基础上改进网络结构得到双模态YOLOv3神经网络,并设计四种特征融合对比实验以确定最佳融合方案;建立双模态数据集同步采集系统,采集彩色图像与红外图像对并用于双模态网络的训练与测试;使用未经网络训练的验证集得到4种双模态特征融合模型的平均精度值与损失值。实验结果表明,在训练30次后,该双模态网络模型的平均精度值最高可达59.42%。 相似文献
5.
针对现有医学图像处理方法在人体复杂结构组织器官分割中的不足,提出复用低层特征信息的Mask R-CNN网络。该网络可对特定组织器官识别时同时进行分割,为了提高包含较多细节信息的低层特征层的利用率,将低层的特征信息添加到高层的特征中,使低层与高层特性优劣互补,将原始图像首次长宽压缩两次后的特征层定义为C1层,而后分别通过复用C1层和复用依次卷积的C1层这两种方法实现。并将主干网络进行了精简,以加快网络的训练速度,降低识别和分割的时间。以下颌骨作为应用对象,自建包含1?064张下颌骨CT图片的数据集,按9∶1的比例划分为训练集和验证集进行训练,使得复用依次卷积C1层的Mask R-CNN网络的训练损失降至2.8%,验证损失降至6.6%,表明该网络在下颌骨的识别和分割上具有很高的准确率。 相似文献
6.
王乙儒 《电脑编程技巧与维护》2021,(12):34-36,51
多模态情感分析作为近年来的研究热点,比单模态情感分析具有更高的稳定性和准确率.介绍了多模态情感分析研究背景,分别对基于文本的、基于音频的和基于视频的单模态情感算法分析进行了阐述,又讲解了多模态的3种融合方法:特征级融合、决策级融合和混合融合以及相关算法,并分析了多模态情感分析存在的问题. 相似文献
7.
图像配准是医学影像处理与智能分析领域中的重要环节和关键技术.传统的图像配准算法由于复杂性较高、计算代价较大等问题,无法实现配准的实时性要求.随着深度学习方法的发展,基于学习的图像配准方法也取得显著效果.文中系统总结基于深度学习的医学图像配准方法.具体地,将方法归为3类:监督学习,无监督学习和对偶监督/弱监督学习.在此基础上,分析和讨论各自优缺点.进一步,着重讨论近年来提出的正则化方法,特别是基于微分同胚表示的正则和基于多尺度的正则.最后,根据当前医学图像配准方法的发展趋势,展望基于深度学习的医学图像配准方法. 相似文献
8.
针对人群计数方法中存在的尺度变化和多层级特征融合不佳的问题,基于U-Net的编码器-解码器网络结构,提出一种自适应特征融合网络,来进行精准的人群计数。提出自适应特征融合模块,根据解码器分支的需要,高效地聚合编码器分支提取的高层语义信息和底层的边缘信息;提出自适应上下文信息提取器,从不同感受野下提取多尺度的上下文信息并自适应加权融合,提高网络对于人头尺度变化的鲁棒性。在ShanghaiTech、UCF-CC-50和UCG-QNRF上的实验表明,与目前主流的人群计数算法相比,该算法具有更强的准确性和鲁棒性。 相似文献
9.
基于深度学习的视频超分辨率方法主要关注视频帧内和帧间的时空关系,但以往的方法在视频帧的特征对齐和融合方面存在运动信息估计不精确、特征融合不充分等问题。针对这些问题,采用反向投影原理并结合多种注意力机制和融合策略构建了一个基于注意力融合网络(AFN)的视频超分辨率模型。首先,在特征提取阶段,为了处理相邻帧和参考帧之间的多种运动,采用反向投影结构来获取运动信息的误差反馈;然后,使用时间、空间和通道注意力融合模块来进行多维度的特征挖掘和融合;最后,在重建阶段,将得到的高维特征经过卷积重建出高分辨率的视频帧。通过学习视频帧内和帧间特征的不同权重,充分挖掘了视频帧之间的相关关系,并利用迭代网络结构采取渐进的方式由粗到精地处理提取到的特征。在两个公开的基准数据集上的实验结果表明,AFN能够有效处理包含多种运动和遮挡的视频,与一些主流方法相比在量化指标上提升较大,如对于4倍重建任务,AFN产生的视频帧的峰值信噪比(PSNR)在Vid4数据集上比帧循环视频超分辨率网络(FRVSR)产生的视频帧的PSNR提高了13.2%,在SPMCS数据集上比动态上采样滤波视频超分辨率网络(VSR-DUF)产生的视频帧的PSNR提高了15.3%。 相似文献
10.
针对传统滚动轴承故障诊断方法过于依赖先验知识和专家经验,以及单一信号对某些故障识别率偏低的问题,提出一种变工况下基于信息融合的地铁牵引电机轴承故障诊断方法.首先搭建滚动轴承试验与多信息采集系统;其次对地铁牵引电机轴承进行缺陷预制并采集轴承试验过程中的声发射和振动信号;然后用小波包分解对原始信号进行处理并提取特征,再用卷积神经网络对归一化后的特征信息进行融合;最后建立二维卷积神经网络模型,对不同工况下的地铁牵引电机轴承故障进行智能诊断.试验结果表明:变工况下基于信息融合的地铁牵引电机轴承故障智能诊断方法,可在载荷和转速变化的情况下准确识别轴承的故障类型,当神经网络训练集与测试集涵盖工况相同时,准确度可达100%. 相似文献