全文获取类型
收费全文 | 11643篇 |
免费 | 3055篇 |
国内免费 | 2162篇 |
专业分类
电工技术 | 337篇 |
综合类 | 1418篇 |
化学工业 | 60篇 |
金属工艺 | 107篇 |
机械仪表 | 715篇 |
建筑科学 | 138篇 |
矿业工程 | 61篇 |
能源动力 | 34篇 |
轻工业 | 212篇 |
水利工程 | 48篇 |
石油天然气 | 58篇 |
武器工业 | 62篇 |
无线电 | 2103篇 |
一般工业技术 | 694篇 |
冶金工业 | 348篇 |
原子能技术 | 14篇 |
自动化技术 | 10451篇 |
出版年
2024年 | 74篇 |
2023年 | 334篇 |
2022年 | 584篇 |
2021年 | 639篇 |
2020年 | 638篇 |
2019年 | 460篇 |
2018年 | 400篇 |
2017年 | 506篇 |
2016年 | 574篇 |
2015年 | 648篇 |
2014年 | 849篇 |
2013年 | 780篇 |
2012年 | 1076篇 |
2011年 | 1141篇 |
2010年 | 1031篇 |
2009年 | 1028篇 |
2008年 | 1076篇 |
2007年 | 1059篇 |
2006年 | 812篇 |
2005年 | 761篇 |
2004年 | 551篇 |
2003年 | 438篇 |
2002年 | 290篇 |
2001年 | 235篇 |
2000年 | 168篇 |
1999年 | 127篇 |
1998年 | 102篇 |
1997年 | 67篇 |
1996年 | 54篇 |
1995年 | 50篇 |
1994年 | 47篇 |
1993年 | 33篇 |
1992年 | 30篇 |
1991年 | 22篇 |
1990年 | 14篇 |
1989年 | 20篇 |
1988年 | 14篇 |
1987年 | 9篇 |
1986年 | 18篇 |
1985年 | 25篇 |
1984年 | 8篇 |
1983年 | 13篇 |
1982年 | 6篇 |
1981年 | 5篇 |
1980年 | 4篇 |
1976年 | 3篇 |
1964年 | 7篇 |
1962年 | 3篇 |
1961年 | 3篇 |
1960年 | 5篇 |
排序方式: 共有10000条查询结果,搜索用时 15 毫秒
1.
为了提升脑胶质瘤分割精度,提出一种结合注意力机制的3D卷积神经网络算法。输入3个不同尺度的图像块,经过9个卷积层和1个分类层后得到3个不同的分类结果,将分类结果与注意力学习到的权重相乘并逐体素相加得到输出。此外该算法采用了一种混合Dice损失函数与Focal损失函数的超参数损失函数。实验表明,该算法的Dice系数在整体区域、核心区域以及增强区域分别达到了95.31%、80.12%、82.25%。与已有的一种脑胶质瘤分割算法deepmedic相比,整体区域、核心区域以及增强区域的Dice系数分别提升了3%、2%、6%。在脑胶质瘤分割方面,具有重要的临床意义。 相似文献
2.
针对利用深度学习方法对街道图像进行深度估计,提出采用语义分割的方法解决深度图出现边界模糊等问题;估计深度通过左右视角图生成视差图进行无监督的训练。在网络模型中添加语义分割层,采取多个空洞卷积并行的结构增加感受野,同时减少了图像下采样的次数,降低了由于下采样带来的信息损失,使得的结果更加准确。这也是在深度估计中首次与空洞卷积相结合增加准确率。通过对KITTI街道数据集进行训练,与现有结果相比,除了增加检测准确性,降低错误率之外,使得效果图中的物体更加清晰,并且在效果图中还保留了一些原模型中被忽视掉的细节信息,将原始图像更加完整的表现出来。 相似文献
3.
针对连续查询位置服务中构造匿名区域未考虑语义位置信息导致敏感隐私泄露问题,通过设计[(K,θ)]-隐私模型,提出一种路网环境下面向连续查询的敏感语义位置隐私保护方案。该方案利用Voronoi图将城市路网预先划分为独立的Voronoi单元,依据用户的移动路径和移动速度,选择具有相似特性的其他[K-1]个用户,构建匿名用户集;利用匿名用户集用户设定的敏感语义位置类型和语义安全阈值,以及用户所处语义位置的Voronoi单元,构建满足[(K,θ)]-隐私模型的语义安全匿名区域,可以同时防止连续查询追踪攻击和语义推断攻击。实验结果表明,与SCPA算法相比,该方案在隐私保护程度上提升约15%,系统开销上降低约20%。 相似文献
4.
在铁路运煤装车过程中为了快速、准确地识别车号,提出一种基于机器视觉的运煤车车号识别技术。将连通区域提取与投影分割法结合,实现车号的粗定位、细分割,并对图像中的断裂字符进行二次分割,构建了基于BP神经网络的分类模型进行车号识别,提升了煤炭装车的效率和精度。 相似文献
5.
Deep learning has gained a significant popularity in recent years thanks to its tremendous success across a wide range of relevant fields of applications, including medical image analysis domain in particular. Although convolutional neural networks (CNNs) based medical applications have been providing powerful solutions and revolutionizing medicine, efficiently training of CNNs models is a tedious and challenging task. It is a computationally intensive process taking long time and rare system resources, which represents a significant hindrance to scientific research progress. In order to address this challenge, we propose in this article, R2D2, a scalable intuitive deep learning toolkit for medical imaging semantic segmentation. To the best of our knowledge, the present work is the first that aims to tackle this issue by offering a novel distributed versions of two well-known and widely used CNN segmentation architectures [ie, fully convolutional network (FCN) and U-Net]. We introduce the design and the core building blocks of R2D2. We further present and analyze its experimental evaluation results on two different concrete medical imaging segmentation use cases. R2D2 achieves up to 17.5× and 10.4× speedup than single-node based training of U-Net and FCN, respectively, with a negligible, though still unexpected segmentation accuracy loss. R2D2 offers not only an empirical evidence and investigates in-depth the latest published works but also it facilitates and significantly reduces the effort required by researchers to quickly prototype and easily discover cutting-edge CNN configurations and architectures. 相似文献
6.
在视频语义检测中,有标记样本不足会严重影响检测的性能,而且伪标签样本中的噪声也会导致集成学习基分类器性能提升不足。为此,提出一种伪标签置信选择的半监督集成学习算法。首先,在三个不同的特征空间上训练出三个基分类器,得到基分类器的标签矢量;然后,引入加权融合样本所属某个类别的最大概率与次大概率的误差和样本所属某个类别的最大概率与样本所属其他各类别的平均概率的误差,作为基分类器的标签置信度,并融合标签矢量和标签置信度得到样本的伪标签和集成置信度;接着,选择集成置信度高的样本加入到有标签的样本集,迭代训练基分类器;最后,采用训练好的基分类器集成协作检测视频语义概念。该算法在实验数据集UCF11上的平均准确率到达了83.48%,与Co-KNN-SVM算法相比,平均准确率提高了3.48个百分点。该算法选择的伪标签能体现样本所属类别与其他类别的总体差异性,又能体现所属类别的唯一性,可减少利用伪标签样本的风险,有效提高视频语义概念检测的准确率。 相似文献
7.
考虑到不同句子对判断文档情感倾向的重要程度不同,因而区分文档的关键句和细节句将有助于提高情感分类的性能。同时,考虑到Title和上下文信息,提出了一种基于Title和加权TextRank抽取关键句的情感分析方法SKTT,实现了高效的情感分析。根据文档Title的情感权重计算Title贡献度,考虑到标点和语义规则对情感倾向的影响;根据加权TextRank算法思想,在文档正文中构建了一个情感句有向图来提取关键句;计算所有关键句的情感倾向进行情感分类。在4个领域上进行实验,实验结果表明,该SKTT方法性能明显优于Baseline,具有高效性。 相似文献
8.
目的 在视觉引导的工业机器人自动拾取研究中,关键技术难点之一是机器人抓取目标区域的识别问题。特别是金属零件,其表面的反光、随意摆放时相互遮挡等非结构化因素都给抓取区域的识别带来巨大的挑战。因此,本文提出一种结合深度学习和支持向量机的抓取区域识别方法。方法 分别提取抓取区域的方向梯度直方图(HOG)和局部二进制模式(LBP)特征,利用主成分分析法(PCA)对融合后的特征进行降维,以此来训练支持向量机(SVM)分类器。通过训练Mask R-CNN(regions with convolutional neural network)神经网络完成抓取区域的初步分割。然后利用SVM对Mask R-CNN识别的抓取区域进行二次分类,完成对干扰区域的剔除。最后计算掩码完成实例分割,以此达到对抓取区域的精确识别。结果 对于随机摆放的铜质金属零件,本文算法与单一的Mask R-CNN及多特征融合的SVM算法就识别准确率、错检率、漏检率3个指标进行了比较,结果表明本文算法在识别准确率上较Mask R-CNN和SVM算法分别提高了7%和25%,同时有效降低了错检率与漏检率。结论 本文算法结合了Mask R-CNN与SVM两种方法,对于反光和遮挡情况具有一定的鲁棒性,同时有效地提升了目标识别的准确率。 相似文献
9.
10.
Lijun Xu Hong Liu Enmin Song Renchao Jin Chih-Cheng Hung 《International journal of imaging systems and technology》2019,29(2):97-109
The segmentation of specific tissues in an MR brain image for quantitative analysis can assist the disease diagnosis and medical research. Therefore, a robust and accurate method for automatic segmentation is necessary. Atlas-based-method is a common and effective method of automatic segmentation where an atlas refers to a pair of image consist of an intensity image and its corresponding label image. Apart from the general multi-atlas-based methods, which propagate labels through the single atlas then fuse them, we proposed a hybrid atlas forest based on confidence-weighted probability matrix to consider the atlases set as a whole and treat each voxel differently. In the framework, we first register the atlas to the image space of target and calculate the confidence of voxels in the registered atlas. Then, a confidence-weighted probability matrix is generated and it augments to the intensity image of the atlas or target for providing spatial information of the target tissue. Third, a hybrid atlas forest is trained to gather the features and correlation information among the atlases in the dataset. Finally, the segmentation of the target tissues is predicted by the trained hybrid atlas forest. The segment performance and the components efficiency of the proposed method are evaluated on the two public datasets. Based on the experiment results and quantitative comparisons, our method can gather spatial information and correlation among the atlases to obtain an accurate segmentation. 相似文献