首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   39839篇
  免费   9390篇
  国内免费   5668篇
电工技术   1425篇
技术理论   2篇
综合类   5392篇
化学工业   814篇
金属工艺   706篇
机械仪表   3369篇
建筑科学   1102篇
矿业工程   474篇
能源动力   253篇
轻工业   989篇
水利工程   275篇
石油天然气   420篇
武器工业   515篇
无线电   10430篇
一般工业技术   3429篇
冶金工业   705篇
原子能技术   203篇
自动化技术   24394篇
  2024年   92篇
  2023年   869篇
  2022年   1536篇
  2021年   1895篇
  2020年   1760篇
  2019年   1363篇
  2018年   1192篇
  2017年   1474篇
  2016年   1581篇
  2015年   2059篇
  2014年   2786篇
  2013年   2577篇
  2012年   3603篇
  2011年   3629篇
  2010年   3210篇
  2009年   3199篇
  2008年   3385篇
  2007年   3538篇
  2006年   2850篇
  2005年   2522篇
  2004年   1980篇
  2003年   1534篇
  2002年   1200篇
  2001年   966篇
  2000年   713篇
  1999年   551篇
  1998年   461篇
  1997年   419篇
  1996年   330篇
  1995年   263篇
  1994年   235篇
  1993年   196篇
  1992年   162篇
  1991年   120篇
  1990年   115篇
  1989年   85篇
  1988年   71篇
  1987年   47篇
  1986年   59篇
  1985年   56篇
  1984年   38篇
  1983年   37篇
  1982年   26篇
  1981年   17篇
  1980年   9篇
  1979年   6篇
  1965年   7篇
  1964年   10篇
  1960年   9篇
  1959年   8篇
排序方式: 共有10000条查询结果,搜索用时 15 毫秒
1.
针对目前工业CT图像转换为3D打印G代码方法效率低的问题,提出一种基于邻层数据匹配的工业CT图像直接转换成G代码的方法。首先采用Canny算子提取工业CT图像的轮廓,然后处理轮廓分叉问题,实现邻层间几何信息数据匹配,其次进行邻层间轮廓插值以满足3D打印层间厚度要求,从而避免"阶梯效应",最后通过填充编码得到用于3D打印的G代码。使用本文提出的方法,轮毂CT图像转换为G代码的时间为10.5 s,耗时远小于其他间接转换方法;3D打印出的轮毂无"阶梯效应",平均尺寸误差率为0.25%。实验结果表明,该方法不涉及中间格式,转换效率高,转换误差与传统方法相当,适用于具有复杂内腔结构的零件。  相似文献   
2.
Micro-milling is an extensively used micro-machining process for producing high precision 3D components from varied materials. However, tool wear in micro-tools is a big concern, as component accuracy directly depends on it. Also, size effects limit the monitoring by the naked eye, but it can be compensated by implying a proper wear monitoring mechanism. Various direct and indirect methods have earlier been used for monitoring purposes, and considering the needs of the fourth industrial revolution, one of the direct methods, machine vision, when combined with image processing algorithms, can play a more prominent role. Current work focuses on creating a wear monitoring algorithm based on fuzzy c-means clustering technique directly implied on acquired colour micro-tool images. The proposed algorithm has three steps: the first step is Region of Interest (ROI) extraction, where the background is removed, orientation correction is done, and ROI on each tooth is extracted from micro-tool colour images. The second uses the fuzzy c-means technique on ROI to cluster them, from which wear cluster is chosen and morphologically enhanced. The last step performs pixel level measurement and results in numerical wear width. Overall, quantitative results at each step are correlation coefficient of 99 % after image registration, segmentation accuracy of 92 % and wear measurement accuracy of 97 %. A comparison is also made between the proposed algorithm, k-means clustering and RGB thresholding technique, where the proposed algorithm outshines. Lastly, the wear measurement error of the proposed algorithm is less than 5 %, indicating its repeatable, reliable, and robust nature.  相似文献   
3.
卷积神经网络是一种具有强大特征提取能力的深度神经网络,其在众多领域得到了广泛应用。但是,研究表明卷积神经网络易受对抗样本攻击。不同于传统的以梯度迭代生成对抗扰动的方法,提出了一种基于颜色模型的语义对抗样本生成方法,利用人类视觉和卷积模型在识别物体中表现出的形状偏好特性,通过颜色模型的扰动变换来生成对抗样本。在样本生成过程中其不需要目标模型的网络参数、损失函数或者相关结构信息,仅依靠颜色模型的变换和通道信息的随机扰动,所以这是一种可以完成黑盒攻击的对抗样本。  相似文献   
4.
针对现有医学图像处理方法在人体复杂结构组织器官分割中的不足,提出复用低层特征信息的Mask R-CNN网络。该网络可对特定组织器官识别时同时进行分割,为了提高包含较多细节信息的低层特征层的利用率,将低层的特征信息添加到高层的特征中,使低层与高层特性优劣互补,将原始图像首次长宽压缩两次后的特征层定义为C1层,而后分别通过复用C1层和复用依次卷积的C1层这两种方法实现。并将主干网络进行了精简,以加快网络的训练速度,降低识别和分割的时间。以下颌骨作为应用对象,自建包含1?064张下颌骨CT图片的数据集,按9∶1的比例划分为训练集和验证集进行训练,使得复用依次卷积C1层的Mask R-CNN网络的训练损失降至2.8%,验证损失降至6.6%,表明该网络在下颌骨的识别和分割上具有很高的准确率。  相似文献   
5.
张凯悦  张鸿 《计算机应用》2021,41(10):3010-3016
针对已有的航运监控图像识别模型C3D里中级表征学习能力有限,有效特征的提取容易受到噪声的干扰,且特征的提取忽视了整体特征与局部特征之间关系的问题,提出了一种新的基于注意力机制网络的航运监控图像识别模型。该模型基于卷积神经网络(CNN)框架,首先,通过特征提取器提取图像的浅层次特征;然后,基于CNN对不同区域激活特征的不同响应强度,生成注意力信息并实现对局部判别性特征的提取;最后,使用多分支的CNN结构融合局部判别性特征和图像全局纹理特征,从而利用局部判别性特征和图像全局纹理特征的交互关系提升CNN学习中级表征的能力。实验结果表明,所提出的模型在航运图像数据集上的识别准确率达到91.8%,相较于目前的C3D模型提高了7.2个百分点,相较于判别滤波器组卷积神经网络(DFL-CNN)模型提高了0.6个百分点。可见所提模型能够准确判断船舶的状态,可以有效应用于航运监控项目。  相似文献   
6.
Recently, single image super-resolution (SISR) has been widely applied in the fields of underwater robot vision and obtained remarkable performance. However, most current methods generally suffered from the problem of a heavy burden on computational resources with large model sizes, which limited their real-world underwater robotic applications. In this paper, we introduce and tackle the super resolution (SR) problem for underwater robot vision and provide an efficient solution for near real-time applications. We present a novel lightweight multi-stage information distillation network, named MSIDN, for better balancing performance against applicability, which aggregates the local distilled features from different stages for more powerful feature representation. Moreover, a novel recursive residual feature distillation (RRFD) module is constructed to progressively extract useful features with a modest number of parameters in each stage. We also propose a channel interaction & distillation (CI&D) module that employs channel split operation on the preceding features to produce two-part features and utilizes the inter channel-wise interaction information between them to generate the distilled features, which can effectively extract the useful information of current stage without extra parameters. Besides, we present USR-2K dataset, a collection of over 1.6K samples for large-scale underwater image SR training, and a testset with an additional 400 samples for benchmark evaluation. Extensive experiments on several standard benchmark datasets show that the proposed MSIDN can provide state-of-the-art or even better performance in both quantitative and qualitative measurements.  相似文献   
7.
针对现有紫外成像仪中紫外光与可见光图像配准实时性差,精度不高等问题,提出一种基于卷积神经网络(Convolutional Neural Networks,CNN)与小波融合(Wavelet Fusion,WF)的紫外光与可见光图像配准融合方法,并将其应用于高灵敏紫外成像仪中.首先,结合刚体变换和卷积神经网络对采集到的图像数据进行参数模型预训练,通过自主挖掘图像特征寻找到最优空间变换参数,实现紫外光图像与可见光图像的精确配准;其次,利用二维小波分解与重构算法实现紫外光与可见光图像的融合.实验结果表明,所提方法的紫外光图像与可见光图像配准速度快,叠加精度高,且具有良好的稳定性.  相似文献   
8.
图像描述是计算机视觉、自然语言处理与机器学习的交叉领域多模态信息处理任务,需要算法能够有效地处理图像和语言两种不同模态的信息。由于异构语义鸿沟的存在,该任务具有较大的挑战性。目前主流的研究仍集中在基于英文的图像描述任务,对图像中文描述的研究相对较少。图像视觉信息在图像描述算法中没有得到足够的重视,算法模型的性能更多地取决于语言模型。针对以上两个方面的研究不足,该文提出了基于多层次选择性视觉语义属性特征的图像中文描述生成算法。该算法结合目标检测和注意力机制,充分考虑了图像高层视觉语义所对应的中文属性信息,抽取不同尺度和层次的属性上下文表示。为了验证该文算法的有效性,在目前规模最大的AI Challenger 2017图像中文描述数据集以及Flick8k-CN图像中文描述数据集上进行了测试。实验结果表明,该算法能够有效地实现视觉-语义关联,生成文字表述较为准确、内容丰富的描述语句。较现阶段主流图像描述算法在中文语句上的性能表现,该文算法在各项评价指标上均有约3%~30%的较大幅度提升。为了便于后续研究复现,该文的相关源代码和模型已在开源网站Github上公开。  相似文献   
9.
FPGA因具有较好的并行处理能力和灵活性,使其在卷积神经网络硬件加速计算中得到广泛的应用,但是传统的FPGA图像卷积实现中存在模块化设计以及空间开销较大的问题.本文提出了一种面向硬件加速的通用图像卷积开发平台.通过模块化设计,极大提高针对不同卷积核实现图像卷积开发的灵活性;另外通过图像批次处理技术,充分利用数据重复性实现内存共享,较好地降低了存储空间的开销.实验结果表明,本文设计的平台在模块化设计方面提供了更好的可重配置架构,非常适于实验教学应用;在存储空间需求方面,当并行度提高时,BRAM的复杂度只是线性增加,这对于功耗的降低具有优势.  相似文献   
10.
刘子龙  王晨 《计算机应用研究》2021,38(12):3796-3800
主流的目标跟踪算法只使用可见光(RGB)图像进行跟踪任务,当跟踪场景的光照条件较差时,表征颜色和纹理特征的可见光图像会严重限制跟踪器的跟踪性能.针对单一模态目标信息存在缺失的问题,在Siam-FC网络模型以及红外—可见光图像融合思想的基础上提出了双模态权值自更新孪生网络目标跟踪方法.根据红外图像可以采集运动目标热信息的特点,有效利用了红外和可见光图像在目标跟踪领域的互补优势;使用较浅的特征提取网络AlexNet即可提取到运动目标具有鲁棒性的特征,在保证跟踪精度的同时提高了跟踪模型的跟踪速度.在公开数据集OTB2015和红外—可见光数据集RGB-T210进行实验,结果表明提出的目标跟踪算法在各种跟踪场景下都取得了较好的跟踪效果.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号