全文获取类型
收费全文 | 764篇 |
免费 | 378篇 |
国内免费 | 549篇 |
专业分类
电工技术 | 75篇 |
综合类 | 43篇 |
化学工业 | 7篇 |
金属工艺 | 7篇 |
机械仪表 | 36篇 |
建筑科学 | 12篇 |
矿业工程 | 4篇 |
能源动力 | 12篇 |
轻工业 | 7篇 |
水利工程 | 4篇 |
石油天然气 | 3篇 |
无线电 | 229篇 |
一般工业技术 | 77篇 |
冶金工业 | 1篇 |
原子能技术 | 1篇 |
自动化技术 | 1173篇 |
出版年
2024年 | 62篇 |
2023年 | 158篇 |
2022年 | 285篇 |
2021年 | 339篇 |
2020年 | 314篇 |
2019年 | 208篇 |
2018年 | 99篇 |
2017年 | 60篇 |
2016年 | 37篇 |
2015年 | 3篇 |
2014年 | 6篇 |
2013年 | 5篇 |
2012年 | 4篇 |
2011年 | 10篇 |
2010年 | 8篇 |
2009年 | 11篇 |
2008年 | 12篇 |
2007年 | 9篇 |
2006年 | 9篇 |
2005年 | 17篇 |
2004年 | 5篇 |
2003年 | 8篇 |
2002年 | 1篇 |
2001年 | 3篇 |
1999年 | 1篇 |
1998年 | 6篇 |
1997年 | 5篇 |
1996年 | 1篇 |
1992年 | 1篇 |
1990年 | 1篇 |
1986年 | 3篇 |
排序方式: 共有1691条查询结果,搜索用时 15 毫秒
21.
基于卷积神经网络(CNN)的深度模型在图像识别与分类领域应用广泛,但在全局特征控制、概念层次特征不变性提取和变量之间的因果关系确定方面仍存在不足,使得深度模型缺乏灵活性、适应性及泛化性。基于因果干预和不变性,提出一种基于CNN深度模型的定向修剪和网络结构优化方法。通过对模型输入进行基于不变性的干预调制,根据生成的调制图片序列分析预训练网络卷积子结构的输出分布,筛选和定向修剪噪声敏感子结构。构建基于类间区分度的目标函数,借助经济学领域中的资本资产定价模型构建网络的层间连接,生成在单分类任务下能增大类间区分度的网络拓扑结构,逐层优化构建概念层次的稳定特征。在ImageNet-2012数据集上的实验结果表明,优化后的深度模型相比于ResNet50基线预训练模型的分类准确率约提升了5个百分点,并大幅降低了训练集规模。 相似文献
22.
深度卷积神经网络能够解决复杂的计算机视觉问题,被广泛应用于图像识别任务中。在基于深度卷积神经网络的图像识别过程中,增加网络的深度和宽度能够产生丰富的特征信息,使用多尺度分割方法能够有效减少冗余的特征信息。然而,增加网络的深度和进行多尺度分割都会影响识别速度。如何在保证精度的同时提高识别速度,成为设计高效网络的关键问题。通过增加网络宽度的方法对ResNet残差网络进行改进,在保证精度的基础上提升识别速度。使用ResNet-D中的残差结构并减少网络长度,得到长度只有7层的残差网络,同时对HS-ResNet中的多尺度分割方法进行优化,只保留最后一次连接合并操作,得到图像识别残差网络SSRNet。在CIFAR 10和CIFAR 100数据集上的实验结果显示,SSRNet速度最高较ResNet网络提升7倍多,同时错误率最高下降8.81%,表明缩短网络长度可大幅加快图像识别速度,同时结合多尺度分割方法能够有效提升识别精度。 相似文献
23.
对视频图像使用传统的单幅图像加密算法,容易出现算法耗时长、效率低等问题。为提高视频图像加密效率,通过使用细胞神经网络(CNN)超混沌系统和Logistic混沌映射,提出一种单帧逐一加密和多帧组合加密相结合的算法。根据视频帧使用SHA-256生成Logistic初值,经过Logistic映射迭代得到Logistic混沌序列,利用生成的混沌序列对视频帧逐帧扩散。将视频帧以二进制的形式组合成一个矩阵,把根据组合矩阵产生的初值代入CNN超混沌系统,利用得到的混沌序列对组合矩阵进行置乱,视频所有帧各像素点扩散、置乱一步完成,从而缩短加密时间。在此基础上,将组合矩阵重新分解为单帧图像,得到最终加密的视频图像。实验结果表明,在算法中使用高维超混沌系统安全性更高,能够有效缩短加密视频图像的耗时,且能抵抗统计攻击、差分攻击和暴力攻击,具有较好的安全性。 相似文献
24.
传统的自注意力机制可以在保留原始特征的基础上突出文本的关键特征,得到更准确的文本特征向量表示,但忽视了输入序列中各位置的文本向量对输出结果的贡献度不同,导致在权重分配上存在偏离实际的情况,而双向门控循环单元(BiGRU)网络在对全局信息的捕捉上具有优势,但未考虑到文本间存在的局部依赖关系。针对上述问题,提出一种基于改进自注意力机制的BiGRU和多通道卷积神经网络(CNN)文本分类模型SAttBiGRU-MCNN。通过BiGRU对文本序列的全局信息进行捕捉,得到文本的上下文语义信息,利用优化的多通道CNN提取局部特征,弥补BiGRU忽视局部特征的不足,在此基础上对传统的自注意力机制进行改进,引入位置权重参数,根据文本向量训练的位置,对计算得到的自注意力权重概率值进行重新分配,并采用softmax得到样本标签的分类结果。在两个标准数据集上的实验结果表明,该模型准确率分别达到98.95%和88.1%,相比FastText、CNN、RCNN等分类模型,最高提升了8.99、7.31个百分点,同时精确率、召回率和F1值都有较好表现,取得了更好的文本分类效果。 相似文献
25.
Oznur Ozaltin Orhan Coskun Ozgur Yeniay Abdulhamit Subasi 《International journal of imaging systems and technology》2023,33(1):69-91
Classification of brain hemorrhage computed tomography (CT) images provides a better diagnostic implementation for emergency patients. Attentively, each brain CT image must be examined by doctors. This situation is time-consuming, exhausting, and sometimes leads to making errors. Hence, we aim to find the best algorithm owing to a requirement for automatic classification of CT images to detect brain hemorrhage. In this study, we developed OzNet hybrid algorithm, which is a novel convolution neural networks (CNN) algorithm. Although OzNet achieves high classification performance, we combine it with Neighborhood Component Analysis (NCA) and many classifiers: Artificial neural networks (ANN), Adaboost, Bagging, Decision Tree, K-Nearest Neighbor (K-NN), Linear Discriminant Analysis (LDA), Naïve Bayes and Support Vector Machines (SVM). In addition, Oznet is utilized for feature extraction, where 4096 features are extracted from the fully connected layer. These features are reduced to have significant and informative features with minimum loss by NCA. Eventually, we use these classifiers to classify these significant features. Finally, experimental results display that OzNet-NCA-ANN excellent classifier model and achieves 100% accuracy with created Dataset 2 from Brain Hemorrhage CT images. 相似文献
26.
近年来,深度学习中的卷积神经网络已经广泛运用于图像识别领域,它不仅显著提升了识别准确率,同时在特征提取速度方面也优于许多传统方法。本文针对高速公路环境下的车型识别问题,引入卷积神经网络(CNNs)理论,设计相应特征提取算法,并结合SVM分类器构建识别系统。通过对高速公路上主要三种车型(小车、客车、货车)的分类实验显示,本文方法在识别精度及速度上均取得较显著的提高。 相似文献
27.
28.
29.
针对传统遥感图像处理中的时间成本和人工成本高、效率低等问题,以提高遥感高光谱图像分类中的处理速度、精度,降低参数量为目标,提出改进的2DCNN模型En-De-2CP-2DCNN.首先,使用1DCNN、2DCNN与3DCNN在Pavia University HSI数据集上分别进行分类实验,对比分析各自优缺点.其次,在保持较快的处理速度和不增加模型参数量的前提下,选择2DCNN为基础模型,参考SegNet的Encoder-Decoder结构,融入双卷积池化思想进行基础模型改进,同时优化学习策略.结果表明:En-De-2CP-2DCNN模型F1为99.96%,达到3DCNN的同等水平(99.36%),较改进前(97.28%)提高2.68个百分点;处理速度(5 s/epoch)和1DCNN位于同一量级,快于3DCNN(96 s/epoch);参数量(2.01 MB)较改进前降低了1.54 MB,虽高于3DCNN(316 KB),但远低于1DCNN(19.21 MB).En-De-2CP-2DCNN模型在处理速度和参数量方面的改进,有利于进一步实现移动端的轻量化部署. 相似文献
30.
应用当前较新颖且分类性能靠前的卷积神经网络Xception作为基础网络结构,尝试采用多尺度的深度可分离卷积来提升模型特征信息的丰富度,在模型中嵌入SE-Net模块增强有用特征通道,减弱无用特征通道. 实验结果表明:提出的多尺度SE-Xception模型在2种噪声程度不同的服装数据集中均取得不错表现;ACS数据集的平均分类准确率为78.34%,分别高于VGG-16、ResNet-50和Xception模型8.52%、4.81%、3.69%;验证了多尺度SE-Xception模型具有更好的特征提取能力,能够提取到更多的服装信息,从而提高服装图像分类效果,一定程度上解决了特征尺度单一、信息丰富度低的问题. 相似文献