全文获取类型
收费全文 | 21455篇 |
免费 | 1593篇 |
国内免费 | 1522篇 |
专业分类
电工技术 | 1341篇 |
综合类 | 1927篇 |
化学工业 | 2868篇 |
金属工艺 | 1141篇 |
机械仪表 | 1012篇 |
建筑科学 | 2126篇 |
矿业工程 | 1026篇 |
能源动力 | 390篇 |
轻工业 | 1436篇 |
水利工程 | 804篇 |
石油天然气 | 1986篇 |
武器工业 | 315篇 |
无线电 | 2169篇 |
一般工业技术 | 2179篇 |
冶金工业 | 789篇 |
原子能技术 | 723篇 |
自动化技术 | 2338篇 |
出版年
2024年 | 244篇 |
2023年 | 651篇 |
2022年 | 928篇 |
2021年 | 938篇 |
2020年 | 810篇 |
2019年 | 779篇 |
2018年 | 456篇 |
2017年 | 645篇 |
2016年 | 733篇 |
2015年 | 755篇 |
2014年 | 1368篇 |
2013年 | 1160篇 |
2012年 | 1280篇 |
2011年 | 1310篇 |
2010年 | 1191篇 |
2009年 | 1184篇 |
2008年 | 1438篇 |
2007年 | 1136篇 |
2006年 | 958篇 |
2005年 | 961篇 |
2004年 | 899篇 |
2003年 | 698篇 |
2002年 | 554篇 |
2001年 | 527篇 |
2000年 | 336篇 |
1999年 | 351篇 |
1998年 | 336篇 |
1997年 | 315篇 |
1996年 | 296篇 |
1995年 | 258篇 |
1994年 | 232篇 |
1993年 | 180篇 |
1992年 | 188篇 |
1991年 | 125篇 |
1990年 | 120篇 |
1989年 | 136篇 |
1988年 | 22篇 |
1987年 | 17篇 |
1986年 | 15篇 |
1985年 | 10篇 |
1984年 | 7篇 |
1983年 | 5篇 |
1982年 | 2篇 |
1981年 | 5篇 |
1980年 | 1篇 |
1979年 | 2篇 |
1976年 | 1篇 |
1959年 | 3篇 |
1951年 | 4篇 |
排序方式: 共有10000条查询结果,搜索用时 15 毫秒
881.
目的 行人检测是指使用矩形框和置信度找出图像或者视频中的所有行人。传统的图像行人检测方法对于姿态各异或者相互遮挡的行人无能为力。深度神经网络(deep neural networks,DNN)在目标检测领域表现出色,然而依然难以解决行人检测中一些问题。本文提出一种融合密度和精细分数的行人检测方法DC-CSP(density map and classifier modules with center and scale prediction)。方法 首先,在CSP(center and scale prediction)网络的基础上添加密度图模块(density map module,DMM)和分类器模块(classifier module,CM),得到DC-CSP网络;然后,针对置信度不精确问题,利用不同模块对分数预测结果的互补性质,设计阶段分数融合(stage score fusion,SSF)规则对检测分数进行更新,使得行人置信度上升、背景置信度下降;最后,基于NMS(non-maximum suppression),利用估计的行人密度图,设计改进的自适应NMS(improved adaptive NMS,IAN)后处理方法,能够进一步改善检测结果,对相互遮挡行人提高交并比(intersection over union,IOU)阈值从而减少漏检,对单个行人降低IOU阈值从而减少错检。结果 在公开数据集Citypersons和Caltech上进行定量和定性分析。定量分析中,与其他方法相比,本文方法在Citypersons数据集的Reasonable、Heavy、Partial以及Bare子集上,对数平均漏检率分别下降了0.8%、1.3%、1.0%和0.8%,在Caltech数据集的Reasonable和All子集上分别下降了0.3%和0.7%;在定性分析中,可视化结果表明,本文方法在一定程度上解决了各种不同场景下存在的相互遮挡行人漏检、单个行人错检以及置信度不精确等一系列问题。此外,消融实验证明了所设计模块及其对应规则的有效性。结论 本文方法使用联合多个模块的卷积神经网络(convolutional neural network,CNN),针对密度特征、分类特征分别设计IAN方法和SSF规则,在一定程度上解决了相互遮挡行人漏检、单个行人错检以及置信度不精确的问题,在多个数据集上证明了方法的有效性和鲁棒性。 相似文献
882.
一种基于最小生成树的多目标进化算法 总被引:5,自引:1,他引:5
怎样保证朝Pareto最优解的方向搜索和如何获得均匀分布且范围广泛的非支配解是多目标进化算法(MOEA)设计时的两个关键问题,它们很大程度上取决于适应度赋值和外部种群维护这两个重要部分.提出了一种基于最小生成树的多目标进化算法(MST_MOEA).在考虑了个体间支配关系的基础上,利用个体与非支配集的距离和不同等级个体的树聚集密度来对适应度赋值;在外部种群的非支配解个数超过规定的种群规模时,用树的度数和树聚集密度对其进行修剪.将其应用于不同维数下9个测试函数,并与NSGA-II,SPEA2进行对比,结果证实了算法良好的收敛性和分布性. 相似文献
883.
为了解决分簇路由协议中簇头由于管理簇内数据和传输簇间数据导致簇头消耗过多能量而缩短网络生存周期的问题,提出了一种基于簇间冗余路径和簇内节点密度的分簇路由协议;首先,加入能量因素以改进簇头选举方式,提出了一种基于节点密度和基站距离的非均匀分簇方法以减少靠近基站和节点密集区的簇头负载,采用节点存储多条从簇头到基站的冗余路径以增强路径的可靠性;仿真实验证明基于冗余路径和节点密度的分簇路由,能实现网络区域的非均匀分簇、最大程度地均衡节点负载,且较其它方法具有较长的网络生命期和较多的信息传输量. 相似文献
884.
885.
针对脱机手写体汉字特点,给出一种采用模糊支持向量机粗分类的方法。根据小波分解像素密度特征,利用模糊支持向量机对汉字进行粗分类。细分类识别提取外围特征,同时融合小波多网格特征,采用一对多算法进行细识别。仿真实验表明,该方法有较高识别率。 相似文献
886.
由于存在大量服从高斯分布的样本数据,采用高斯混合模型(Gaussian Mixture Models,GMM)对这些样本数据进行聚类分析,可以得到比较准确的聚类结果.通常采用EM算法(Expectation Maximization Algorithm)对GMM的参数进行迭代式估计.但传统EM算法存在两点不足:对初始聚类中心的取值比较敏感;迭代式参数估计的迭代终止条件是相邻两次估计参数的距离小于给定的阈值,这不能保证算法收敛于参数的最优值.为了弥补上述不足,提出采用密度峰值聚类(Density Peaks Clustering,DPC)来初始化EM算法,以提高算法的鲁棒性,采用相对熵作为EM算法的迭代终止条件,实现对GMM算法参数值的优化选取.在人工数据集及UCI数据集上的对比实验表明,所提算法不但提高了EM算法的鲁棒性,而且其聚类结果优于传统算法.尤其在服从高斯分布的数据集上的实验结果显示,所提算法大幅提高了聚类精度. 相似文献
887.
K-means算法的聚类效果与初始聚类中心的选择以及数据中的孤立点有很大关联,具有很强的不确定性。针对这个缺点,提出了一种优化初始聚类中心选择的K-means算法。该算法考虑数据集的分布情况,将样本点分为孤立点、低密度点和核心点,之后剔除孤立点与低密度点,在核心点中选取初始聚类中心,孤立点不参与聚类过程中各类样本均值的计算。按照距离最近原则将孤立点分配到相应类中完成整个算法。实验结果表明,改进的K-means算法能提高聚类的准确率,减少迭代次数,得到更好的聚类结果。 相似文献
888.
《计算机应用与软件》2016,(10)
K-means算法的初始聚类中心是随机选取的,不同的初始中心输入会得出不同的聚类结果。针对K-means算法存在的问题,提出一种融合K-means算法与聚类的快速搜索和发现密度峰算法的聚类算法(K-CBFSAFODP)。该算法是这样考虑的:类簇中心被具有较低局部密度的邻居点包围,且与具有更高密度的任何点都有相对较大的距离,以此来刻画聚类中心;再运用K-means算法进行迭代聚类,弥补了K-means聚类中心随机选取导致容易陷入局部最优的缺点;并且引入了熵值法用来计算距离,从而实现优化聚类。在UCI数据集和人工模拟数据集上的实验表明,融合算法不仅能得到较好的聚类结果,而且聚类很稳定,同时也有较快的收敛速度,证实了该融合算法的可行性。 相似文献
889.
面向不同数据分布的多维直方图算法COCA-Hist 总被引:1,自引:0,他引:1
基于代价的RDBMS优化器需要对含有范围查询的合取谓词的结果集基数进行准确的估计,多维直方图对多维数据分布进行模拟,避免在估计结果集基数时采用数据独立性假设,造成估计误差过大,进而导致选择非优化的查询执行计划.在不同的数据分布情况下,传统的多维直方图(如MHist-2)效果有很大不同.数据相关系数和值域密度、值域参数是准确刻画多维数据分布的有效指标,文中提出了根据不同的指标采用不同的动态优化的多维直方图算法COCA-Hist,可以大大改善传统多维直方图在平均情况下的准确性.通过分析传统的多维直方图的最坏情况,COCA-Hist的改进算法可以改进传统的多维直方图在最坏情况下的准确性.实验比较了COCA-Hist和传统的多维直方图MHist-2以及GENHist和STHoles的准确性和时间效率.实验显示无论在平均情况下还是在最坏情况下COCA-Hist的改进算法均优于传统的MHist-2直方图,并且COCA-Hist的准确性和创建时间均比GENHist有极大的改善,在准确性方面COCA-Hist较优于STHoles,而在空间预算有限时STHoles的创建时间比COCA-Hist高两个数量级. 相似文献
890.
目的 针对复杂高光谱数据在不同地物规模和光谱特征上的差异,致使背景特征难以准确描述,导致异常检测算法检测效果不理想的问题,提出一种基于相对密度分析建立背景模型的高光谱遥感异常检测算法。方法 该算法借助最大相对密度分析的思想,通过统计与待测像元相似像元的数目作为其相对相似性分布密度,在像元光谱特征相似性分布密度的驱动下,自动搜索聚类中心并实现自适应聚类。为了避免不同背景地物受类别规模差异的影响,设计迭代筛选方法不断提取具有相对最大分布密度的类作为背景地物类别。当迭代终止时即可获得关于背景地物的统计模型,最后采用经典的马氏距离实现异常检测。结果 仿真实验采用两组常用的数据HyMap和HYDICE,与经典算法如基于聚类分析的异常检测算法(CBAD)、局部RX算法(LRX)和基于空间边缘特征变化的异常检测算法(2DCAD)等进行比较,并采用受试者工作特性曲线(ROC)和ROC曲线下面积(AUC)作为评价标准对实验结果进行分析。从实验数据中可以看到,本文算法在ROC曲线整体上表现优于其他算法,在HyMap下AUC值比同类算法至少高出5.6%,HYDICE下AUC值比同类算法至少高出13.6%。另外,对于不同数据,本文算法最终表现较为稳定,鲁棒性较好。结论 实验结果表明该算法无需构建分类面以及设定类别数目,在每次迭代中根据数据本身特征自适应地获取当前规模下背景显著性强的像元。另外,本文建立背景模型的方法适用于不同复杂场景下的高光谱数据,可以获得对背景的准确描述,有助于改善高光谱数据异常检测中对异常目标显著性衡量的准确性。 相似文献