全文获取类型
收费全文 | 11773篇 |
免费 | 2804篇 |
国内免费 | 2582篇 |
专业分类
电工技术 | 1102篇 |
技术理论 | 3篇 |
综合类 | 1415篇 |
化学工业 | 247篇 |
金属工艺 | 106篇 |
机械仪表 | 545篇 |
建筑科学 | 274篇 |
矿业工程 | 159篇 |
能源动力 | 169篇 |
轻工业 | 216篇 |
水利工程 | 156篇 |
石油天然气 | 138篇 |
武器工业 | 87篇 |
无线电 | 1672篇 |
一般工业技术 | 708篇 |
冶金工业 | 212篇 |
原子能技术 | 18篇 |
自动化技术 | 9932篇 |
出版年
2024年 | 120篇 |
2023年 | 330篇 |
2022年 | 553篇 |
2021年 | 594篇 |
2020年 | 684篇 |
2019年 | 591篇 |
2018年 | 622篇 |
2017年 | 656篇 |
2016年 | 730篇 |
2015年 | 785篇 |
2014年 | 921篇 |
2013年 | 960篇 |
2012年 | 1165篇 |
2011年 | 1192篇 |
2010年 | 1008篇 |
2009年 | 982篇 |
2008年 | 1032篇 |
2007年 | 1054篇 |
2006年 | 721篇 |
2005年 | 595篇 |
2004年 | 460篇 |
2003年 | 334篇 |
2002年 | 261篇 |
2001年 | 192篇 |
2000年 | 151篇 |
1999年 | 115篇 |
1998年 | 82篇 |
1997年 | 51篇 |
1996年 | 44篇 |
1995年 | 30篇 |
1994年 | 21篇 |
1993年 | 16篇 |
1992年 | 9篇 |
1991年 | 9篇 |
1990年 | 11篇 |
1989年 | 11篇 |
1988年 | 5篇 |
1987年 | 6篇 |
1986年 | 3篇 |
1985年 | 11篇 |
1984年 | 9篇 |
1983年 | 5篇 |
1982年 | 3篇 |
1981年 | 3篇 |
1980年 | 4篇 |
1979年 | 4篇 |
1978年 | 2篇 |
1977年 | 3篇 |
1976年 | 2篇 |
1974年 | 3篇 |
排序方式: 共有10000条查询结果,搜索用时 15 毫秒
971.
为了提高K-medoids算法的精度和稳定性,并解决K-medoids算法的聚类数目需要人工给定和对初始聚类中心点敏感的问题,提出了基于密度权重Canopy的改进K-medoids算法。该算法首先计算数据集中每个样本点的密度值,选择密度值最大的样本点作为第1个聚类中心,并从数据集中删除这个密度簇;然后通过计算剩下样本点的权重,选择出其他聚类中心;最后将密度权重Canopy作为K-medoids的预处理过程,其结果作为K-medoids算法的聚类数目和初始聚类中心。UCI真实数据集和人工模拟数据集上的仿真实验表明,该算法具有较高的精度和较好的稳定性。 相似文献
972.
CFSFDP是基于密度的新型聚类算法,可聚类非球形数据集,具有聚类速度快、实现简单等优点。然而该算法在指定全局密度阈值dc时未考虑数据空间分布特性,导致聚类质量下降,且无法对多密度峰值的数据集准确聚类。针对以上缺点,提出基于网格分区的CFSFDP(简称GbCFSFDP)聚类算法。该算法利用网格分区方法将数据集进行分区,并对各分区进行局部聚类,避免使用全局dc,然后进行子类合并,实现对数据密度与类间距分布不均匀及多密度峰值的数据集准确聚类。两个典型数据集的仿真实验表明,GbCFSFDP算法比CFSFDP算法具有更加精确的聚类效果。 相似文献
973.
推荐系统是根据用户的历史信息对未知信息进行预测.用户项目评分矩阵的稀疏性是目前推荐系统面临的主要瓶颈之一.跨域推荐系统是解决数据稀疏性问题的一种有效方法.本文提出了基于有效特征子集选取的高效推荐算法(FSERA),FSERA是提取辅助域的子集信息,来扩展目标域数据,从而对目标域进行协同过滤推荐.本文采用K-means聚类算法将辅助域的数据进行提取来降低冗余和噪声,获取了辅助域的有效子集,不仅降低了算法复杂度,而且扩展了目标域数据,提高了推荐精度.实验表明,此方法比传统的方法有更高的推荐精度. 相似文献
974.
针对类属型数据聚类中对象间距离函数定义的困难问题,提出一种基于贝叶斯概率估计的类属数据聚类算法。首先,提出一种属性加权的概率模型,在这个模型中每个类属属性被赋予一个反映其重要性的权重;其次,经过贝叶斯公式的变换,定义了基于最大似然估计的聚类优化目标函数,并提出了一种基于划分的聚类算法,该算法不再依赖于对象间的距离,而是根据对象与数据集划分间的加权似然进行聚类;第三,推导了计算属性权重的表达式,得出了类属型属性权重与其符号分布的信息熵成反比的结论。在实际数据和合成数据集上进行了实验,结果表明,与基于距离的现有聚类算法相比,所提算法提高了聚类精度,特别是在生物信息学数据上取得了5%~48%的提升幅度,并可以获得有实际意义的属性加权结果。 相似文献
975.
CFSFDP(Clustering by Fast Search and Find of Density Peaks)是一种新的基于密度的聚类算法。该算法可以对非球形分布的数据聚类,有待调节参数少、聚类速度快等优点。但是对于类簇间密度相差较大的数据,该算法容易遗漏密度较小的类簇而影响聚类的准确率。针对这一问题,提出了基于密度比例峰值聚类算法即R-CFSFDP。该算法将密度比例引入到CFSFDP中,通过计算样本数据的密度比峰值来提高数据中密度较小类簇的辨识度,进而提升整体聚类的准确率。基于9个常用测试数据集(2个人工合成数据集,7个UCI数据集)的聚类实验结果表明,对于类簇间密度相差较大和类簇形状复杂的数据聚类问题,R-CFSFDP能够使得类簇中心更加清晰、易确定,聚类结果更好。 相似文献
976.
推荐系统在电子商务中应用广泛,协同过滤是推荐系统中应用最为成功的推荐技术之一。随着电子商务系统数据不断增加,用户-项目评分矩阵稀疏性问题日趋明显,成为推荐系统的瓶颈。本文提出基于LDA的协同过滤改进算法,提升稀疏评分矩阵下的推荐质量。首先,根据用户与项目评分矩阵,建立LDA模型,得到用户-项目概率矩阵,作为协同过滤的原始数据;然后根据属性对项目聚类,对用户-项目概率矩阵进行裁剪;最后,考虑上下文信息,在传统协同过滤相似度计算基础上,通过引入时间因子函数改进相似度计算公式。在Movie Lens数据集上的实验结果表明,本文提出模型的MAE指标优于传统协同过滤算法。 相似文献
977.
978.
Clustering problems are applicable to several areas of science. Approaches and algorithms are as varied as the applications. From a graph theory perspective, clustering can be generated by partitioning an input graph into a vertex-disjoint union of cliques (clusters) through addition and deletion of edges. Finding the minimum number of edges additions and deletions required to cluster data that can be represented as graphs is a well-known problem in combinatorial optimization, often referred to as cluster editing problem. However, many real-world clustering applications are characterized by overlapping clusters, that is, clusters that are non-disjoint. In these situations cluster editing cannot be applied to these problems. Literature concerning a relaxation of the cluster editing, where clusters can overlap, is scarce. In this work, we propose the overlapping cluster editing problem, a variation of the cluster editing where the goal is to partition a graph, also by editing edges, into maximal cliques that are not necessarily disjoint. In addition, we also present three slightly different versions of a hybrid heuristic to solve this problem. Each hybrid heuristic is based on coupling two metaheuristicsthat, together, generate a set of clusters; and one of three mixed-integer linear programming models, also introduced in this paper, that uses these clusters as input. The objective with the metaheuristics is to limit the solution exploration space in the models’ resolution, therefore reducing its computational time.Tests results show that the all proposed hybrid heuristic versions are able to generate good-quality overlapping cluster editing solutions. In particular, one version of the hybrid heuristic achieved, at a low computational cost, the best results in 51 of 112 randomly-generated graphs. Although the other two hybrid heuristic versions have harder to solve models, they obtained reasonable results in medium-sized randomly-generated graphs. In addition, the hybrid heuristic achieved good results identifying labeled overlapping clusters in a supervised data set experiment. Furthermore, we also show that, with our new problem definition, clustering a vertex in more than one cluster can reduce the edges editing cost. 相似文献
979.
Present study proposes a fast, accurate and automated segmentation approach of mammographic images using kernel based fuzzy c-means (FCM) clustering technique. This approach exploits the significant regional features of mammograms which address the properties of different breast densities. The proposed segmentation approach captures those regional features using appropriate kernel and hence apply fuzzy clustering technique for segmenting the masses. This study also introduces kernel based FCM (KFCM) approach in a folded way to process a combination of significant features simultaneously. Suitable choice of kernel size also assists to collect all possible variations of regional features with minimum blocking effect in the output results. Performances of the proposed methodology are analyzed qualitatively and quantitatively in compare to other clustering-based segmentation techniques. Since the proposed approach is able to resolve uncertain and imprecise characteristics of mammograms, it performs superior to other techniques. Convergence time of the proposed method is also assessed and compared with other conventional clustering techniques. Kernel based approach of the proposed segmentation technique reduces the number of data points for clustering and hence convergence speed improves over the conventional algorithms. This study also shows a variation of convergence speed of the proposed segmentation method with different image sizes. 相似文献
980.
Taoufik Bdiri Nizar Bouguila 《Expert systems with applications》2012,39(2):1869-1882
In this work we present an unsupervised algorithm for learning finite mixture models from multivariate positive data. Indeed, this kind of data appears naturally in many applications, yet it has not been adequately addressed in the past. This mixture model is based on the inverted Dirichlet distribution, which offers a good representation and modeling of positive non-Gaussian data. The proposed approach for estimating the parameters of an inverted Dirichlet mixture is based on the maximum likelihood (ML) using Newton Raphson method. We also develop an approach, based on the minimum message length (MML) criterion, to select the optimal number of clusters to represent the data using such a mixture. Experimental results are presented using artificial histograms and real data sets. The challenging problem of software modules classification is investigated within the proposed statistical framework, also. 相似文献