首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   1197篇
  免费   245篇
  国内免费   227篇
电工技术   103篇
综合类   155篇
化学工业   30篇
金属工艺   6篇
机械仪表   70篇
建筑科学   14篇
矿业工程   2篇
能源动力   32篇
轻工业   10篇
水利工程   13篇
石油天然气   6篇
武器工业   12篇
无线电   304篇
一般工业技术   57篇
冶金工业   6篇
原子能技术   2篇
自动化技术   847篇
  2024年   15篇
  2023年   68篇
  2022年   69篇
  2021年   92篇
  2020年   69篇
  2019年   84篇
  2018年   46篇
  2017年   55篇
  2016年   48篇
  2015年   75篇
  2014年   104篇
  2013年   96篇
  2012年   111篇
  2011年   114篇
  2010年   98篇
  2009年   104篇
  2008年   106篇
  2007年   85篇
  2006年   62篇
  2005年   44篇
  2004年   30篇
  2003年   32篇
  2002年   15篇
  2001年   11篇
  2000年   14篇
  1999年   7篇
  1998年   6篇
  1997年   1篇
  1995年   1篇
  1994年   4篇
  1993年   1篇
  1992年   1篇
  1991年   1篇
排序方式: 共有1669条查询结果,搜索用时 15 毫秒
41.
小波互信息及其在心电分析中的应用   总被引:1,自引:0,他引:1  
为探究信号小波成分中的有用信息,提出了从小波变换(WT)系数和多层小波分解(WD)成分的延时互信息(MI)得出信号分析指标的新方法.以年轻(21~34岁)与年老(68~81岁)二组健康人心电图(ECG)为实验数据,用Symlets 4为母小波对ECG进行WT和WD,计算出MI与心率周期对应的极大值(LM)和表示该波峰形态特征的波形宽度(WW)等多个特征指标.结果表明,在尺度a=12时的WT系数及第3层细节的LM都是年轻组明显小于年老组(P<0.001),第2层近似和第3层细节的WW都是年轻组明显大于年老组(P<0.001).ECG的延时互信息可揭示出心率变异性随年龄而减少.  相似文献   
42.
基于互信息的N维多模医学图像配准   总被引:1,自引:0,他引:1       下载免费PDF全文
目前多模医学图像配准都定位在两幅图像配准的研究,很少涉及N维(3维及3维以上)图像的配准.当用扩展的N维互信息测度(E-NMIM)进行多个图像配准时,不能保证互信息(MI)值的非负性,并且运算速度慢,达不到临床要求.本文提出一种新的N维互信息测度(N-NMIM),不仅保证了MI值的非负性,而且在[1,2]有界范围内,也提高了配准的速度.通过腰椎部位的CT,T1加权的MRI和T2加权的MRI图像进行实验,验证了这种配准方法的有效性.  相似文献   
43.
广义Jensen-Schur测度在医学图像配准中的应用   总被引:1,自引:1,他引:0  
使用互信息或归一化互信息测度进行医学图像配准时,由于噪声、模态、插值等影响,测度函数存在许多局部极值,收敛范围较窄,有可能导致误配准。为了克服上述缺点,定义了广义Jensen-Schur测度,利用巴特沃思函数对自变量值的非线性压缩功能,成功地消除了PV插值伪极值点。从测度曲线光滑性、抗噪鲁棒性、收敛性能方面,对四种新构造的广义Jensen-Schur测度、互信息和归一化互信息进行了比较和分析。实验结果表明,新构造的JS22和JS23测度在以上三个方面的性能都优于其他测度。  相似文献   
44.
基于混合策略的高精度长术语自动抽取   总被引:1,自引:0,他引:1  
在目前的术语自动抽取中,双字词的精度已经达到了90.36%,但是三字以上的词的抽取精度只有66.63%,多字词的抽取成为了术语自动抽取的一个难点。该文提出了NC-value参数和互信息相结合的混合策略来识别三字以上的长术语的方法。该方法充分发挥了NC-value参数在利用词语上下文信息和互信息参数在词语结合强度两方面的优势,两者相互约束和配合,更有利于找到准确的长术语边界。采用生物信息领域Yapex语料进行实验,结果表明,三字以上长术语抽取正确率和召回率分别达到88.5%和76.6%,F测量值达到82.2%,稍高于其他方法的结果。  相似文献   
45.
提出了一种基于归一化互信息相似性判据,并采用模糊自适应粒子群优化算(particle swam optimization,PSO)作为搜索策略的图像自动配准方法.由于互信息方法不能解决图像缩放的问题,该方法在计算图像互信息之前,先对图像进行尺寸相同化操作;同时针对互信息方法中目标函数易陷入局部极值及搜索速度慢的问题,该方法采用归一化互信息作为相似性准则,并提出以模糊自适应PSO算法作为优化策略来提高配准速度和精度的方法.实验表明,采用归一化互信息作为配准测度,可提高配准的鲁棒性,而且,引入了模糊推理机之后,配准效率得到大幅提高,用该方法对具有仿射变换的图像进行配准能得到快速、精确的配准结果,证明了该算法的可行性和有效性.  相似文献   
46.
基于互信息的配准方法以其自动化程度高和配准精度高的优点被广泛应用在图像配准中。文中针对红外与可见光图像配准中采用传统的互信息,仅考虑图像像素的灰度信息,而没有考虑图像像素之间空间信息的情况,提出了一种基于邻域信息的互信息配准算法。该算法充分利用图像像素之间的空间信息,在互信息计算中图像中每个像素的灰度值由其邻域像素的灰度值按照距离分配不同的权值共同得到。实验表明该算法使配准曲线更加光滑,配准过程中极值更易找出,提高了配准精度和抗噪能力。  相似文献   
47.
为了准确、可靠地配准多模态医学图像,提出了一种基于互信息的全局优化配准算法。该算法首先提取出目标物体的外轮廓面,再用迭代最近点方法初步对齐图像;然后用确定性的全局优化方法—Dividing Rectangles搜索归一化互信息的全局最优解。该算法利用图像的特征信息,为Dividing Rectangles方法提供了一个较好的初始配准位置,并充分利用了Dividing Rectangles方法在小范围内的高效搜索能力。实验结果表明,对于3维人体脑部数据,该算法配准精度高、速度快,而且有效地避免了配准过程中出现的局部极值。  相似文献   
48.
卷积神经网络(CNN)在计算和存储上存在大量开销,为了使CNN能够在算力和存储能力较弱的嵌入式等端设备上进行部署和运行,提出一种基于中间图特征提取的卷积核双标准剪枝方法。在卷积层后插入中间图互信息特征提取框架,分析卷积核的特征提取能力,结合批量归一化层的缩放因子对卷积核的综合重要性进行评估,获取更为稀疏的CNN模型。针对全连接层存在大量冗余节点的问题,提出一种基于节点相似度与K-means++聚类的全连接层剪枝方法,聚类相似度较高的节点,并对剪枝后的连接层权重进行融合,在一定程度上弥补因剪枝所造成的精度损失。在CIFAR10和CIFAR100数据集上的实验结果表明,使用该剪枝方法对ResNet56网络进行剪枝,在损失0.19%分类精度的情况下能够剪掉48.2%的参数量以及46.7%的浮点运算量,对于VGG16网络,能够剪掉94.5%的参数量以及64.4%的浮点运算量,分类精度仅下降0.01%。与VCNNP、PF等剪枝方法相比,所提剪枝方法能够在保持模型准确率几乎不变的情况下,对CNN的参数量和计算量进行更大比例的裁剪。  相似文献   
49.
现有的多视图聚类算法往往缺乏对各视图可靠度的评估和对视图进行加权的能力,而一些具备视图加权的多视图聚类算法则通常依赖于特定目标函数的迭代优化,其目标函数的适用性及部分敏感超参数调优的合理性均对实际应用有显著影响。针对这些问题,提出一种基于视图互信息加权的多视图集成聚类(MEC-VMIW)算法,主要过程可分为两个阶段,即视图互加权阶段与多视图集成聚类阶段。在视图互信息加权阶段,对数据集进行多次随机降采样,以降低评估加权过程的问题规模,进而构建多视图降采样聚类集合,根据不同视图的聚类结果之间的多轮互评得到视图可靠度评估,并据此对视图进行加权;在多视图集成聚类阶段,对各个视图数据构建基聚类集合,并将多个基聚类集合加权建模至二部图结构,利用高效二部图分割算法得到最终多视图聚类结果。在若干个多视图数据集上的实验结果验证了所提出的多视图集成聚类算法的鲁棒聚类性能。  相似文献   
50.
针对图数据的表示学习在推荐系统、链接预测等图下游任务已展现出重要的研究价值。然而目前主流的方法存在一些缺陷:图卷积网络的固定传播模式限制节点表示的语义表达能力,以及编码器-解码器结构中的正则化重建阻碍学习节点间的差异化特征,这些都可能导致节点表示不能很好适应图下游任务。为此,基于互信息最大化理论提出一种多级特征增强的图表示学习模型,能以无监督的方式生成高质量的节点表示。模型使用提取器保留节点原始属性中的差异化特征,利用注意力聚合器维持编码空间中节点分布的局部相关性和全局差异性,应用深度图信息最大化策略统一全局编码规则。实验结果证明,在几个基准图数据集上该模型在直推式学习和归纳式学习下的编码表现均超过了所有的主流对比基线。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号