首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   9424篇
  免费   2356篇
  国内免费   2212篇
电工技术   897篇
技术理论   2篇
综合类   1135篇
化学工业   167篇
金属工艺   86篇
机械仪表   420篇
建筑科学   137篇
矿业工程   131篇
能源动力   135篇
轻工业   188篇
水利工程   111篇
石油天然气   106篇
武器工业   69篇
无线电   1450篇
一般工业技术   420篇
冶金工业   95篇
原子能技术   16篇
自动化技术   8427篇
  2024年   97篇
  2023年   271篇
  2022年   450篇
  2021年   512篇
  2020年   575篇
  2019年   505篇
  2018年   528篇
  2017年   560篇
  2016年   611篇
  2015年   658篇
  2014年   769篇
  2013年   741篇
  2012年   975篇
  2011年   1036篇
  2010年   857篇
  2009年   801篇
  2008年   851篇
  2007年   875篇
  2006年   572篇
  2005年   443篇
  2004年   331篇
  2003年   233篇
  2002年   186篇
  2001年   122篇
  2000年   91篇
  1999年   79篇
  1998年   44篇
  1997年   34篇
  1996年   32篇
  1995年   27篇
  1994年   18篇
  1993年   14篇
  1992年   7篇
  1991年   9篇
  1990年   10篇
  1989年   10篇
  1988年   5篇
  1987年   5篇
  1986年   3篇
  1985年   8篇
  1984年   9篇
  1983年   5篇
  1982年   2篇
  1981年   3篇
  1980年   3篇
  1979年   4篇
  1978年   2篇
  1977年   3篇
  1976年   2篇
  1974年   2篇
排序方式: 共有10000条查询结果,搜索用时 0 毫秒
991.
基于聚类的股票波动分析及其应用   总被引:1,自引:0,他引:1  
Markowitz提出的“期望均值收益-收益方差“规则(M-V),模型要求选择差异性较大的资产进行组合,从而在给定收益率水平下,降低组合的风险。在M-V模型的基础上,采用了数据挖掘中聚类的方法,定义出一种衡量时间序列样本之间相似性程度的指标,这个指标反应了股票间波动行情趋势的异同。在此基础上对资产价格序列性进行聚类分析,与单纯M-V模型相比,在给定的收益率水平下降低了资产组合的风险。采用上证指数中若干股票进行实验验证表明,在给定的收益率下,采用基于密度的层次聚类方法的股票组合可以得到比随机组合更小的风险水平。  相似文献   
992.
针对图像分割中K均值算法全局搜索能力差、初始聚类中心选择敏感的问题,提出了一种将自适应人类优化算法与K均值算法相结合的聚类算法.该算法利用自适应人类学习优化算法初始化聚类中心,提高K均值算法的稳健性.结果表明,该算法聚类得到的标准差相比传统K均值算法和基于粒子群K均值(PSO-Kmeans)算法分别小两个数量级和一个数量级,同时图像分割得到的PSNR值均较高,具有算法收敛速度更快,聚类质量更好,图像分割效果更好,适应性更强的优点.  相似文献   
993.
为了更好地实现图像的去噪效果,提出了一种改进的基于K-SVD(Singular Value Decomposition)字典学习的图像去噪算法。首先,将输入的含噪信号进行K均值聚类分解,将得到的图像块进行稀疏贝叶斯学习和噪声的更新,当迭代到一定次数时继续使用正交匹配追踪(Orthogonal Matching Pursuit,OMP)算法对图像块进行稀疏编码,然后在完成稀疏编码的基础上通过奇异值分解来逐列更新字典,反复迭代至得到过完备字典以实现稀疏表示,最后对处理过的图像进行重构,得到去噪后的图像。实验结果表明,本文的改进算法相对于传统的K-SVD字典的图像去噪能够在保留图像边缘和细节信息的同时,更有效地去除图像中的噪声,具有更好的视觉效果。  相似文献   
994.
和导航中应用广泛。文本聚类作为一种无监督学习算法,其依据是聚类假设:同类的文档相似程度大,不同类的文档相似程度小。文中主要研究汉语文本聚类算法在新闻标题类文本中的应用。首先对采集到的若干条新闻标题进行分词和特征提取,将分词后的文本转化为词条矩阵;然后使用TF-IDF技术处理词条矩阵,得到基于分词权重的新的词条矩阵,对新的词条矩阵进行奇异值分解,得到主成分得分矩阵,提取主成分分析文本特征并根据主成分得分矩阵进行K-均值和分层聚类分析;最后将聚类结果用词云图的形式展示出来并评价聚类效果的好坏。实证显示,对词条矩阵的奇异值分解能降低向量空间的维数,提高聚类的精度和运算速度。  相似文献   
995.
通过计算机实现对文本主题合理提取、组合的过程,很多学者对此有着不同的研究.通过空间向量模型、文本聚类、遗传算法等成熟的技术尝试一种新的文本摘要方法.实验中通过空间向量模型的技术将文本表示成向量形式,通过聚类算法计算文本各种聚类的可能性,利用遗传算法全局寻优的特点对聚类结果进行计算、组合得到最优的文本摘要划分,最后通过实验,并让专家对实验结果进行打分证明方法的有效性.  相似文献   
996.
一种人工免疫算法优化的高有效性模糊聚类图像分割   总被引:1,自引:0,他引:1  
刘云龙  林宝军 《控制与决策》2010,25(11):1679-1683
针对传统模糊聚类初值敏感、易陷入局部最优的缺陷,将具有良好勘探和开采能力的人工免疫算法用于模糊聚类的优化并提出了相应的图像分割算法.利用改进的Hausdorff距离提出一种新的抗体浓度评价算子并定义了相应的免疫算子,简化了免疫操作,增强了算法自适应寻优能力.采用最近提出的一种有效性函数作为聚类适应度函数,以人工免疫算法寻优,从而自适应地确定聚类数日与中心,实现自动图像分割.仿真实验表明,该算法可以实现图像的自动高有效性分割.  相似文献   
997.
二分K均值聚类算法在二分聚类过程中的初始质心选取速度方面存在不足。为此,提出以极大距离点作为二分聚类初始质心的思想,提升算法的运行速度。研究如何在群集系统中进行快速聚类,根据二分K均值聚类算法的特性,采用数据并行的思想和均匀划分的策略,对算法进行并行化处理。实验结果表明,改进后的算法能获得比较理想的加速比和较高的使用效率。  相似文献   
998.
计算机辅助诊断通过对乳腺磁共振成像( MRI)中肿块区域的自动分割和测量为医生提供定量的诊断依据。对分割过程中不同阶段的多种算法进行实验对比,以此探索更具稳定性和准确性的分割方案:空间模糊C均值( sFCM)聚类算法在肿块的初始定位中具有抗噪声能力和稳定性强的优点,而GVF snake模型在精细分割中对局部轮廓具有较好的收敛性;结合两种算法,并运用MRI序列帧间灰度分布相似、肿块位置/形状相近的原理,最终提高整个序列的分割精度与稳定性。  相似文献   
999.
Cloud storage is essential for managing user data to store and retrieve from the distributed data centre. The storage service is distributed as pay a service for accessing the size to collect the data. Due to the massive amount of data stored in the data centre containing similar information and file structures remaining in multi-copy, duplication leads to increase storage space. The potential deduplication system doesn’t make efficient data reduction because of inaccuracy in finding similar data analysis. It creates a complex nature to increase the storage consumption under cost. To resolve this problem, this paper proposes an efficient storage reduction called Hash-Indexing Block-based Deduplication (HIBD) based on Segmented Bind Linkage (SBL) Methods for reducing storage in a cloud environment. Initially, preprocessing is done using the sparse augmentation technique. Further, the preprocessed files are segmented into blocks to make Hash-Index. The block of the contents is compared with other files through Semantic Content Source Deduplication (SCSD), which identifies the similar content presence between the file. Based on the content presence count, the Distance Vector Weightage Correlation (DVWC) estimates the document similarity weight, and related files are grouped into a cluster. Finally, the segmented bind linkage compares the document to find duplicate content in the cluster using similarity weight based on the coefficient match case. This implementation helps identify the data redundancy efficiently and reduces the service cost in distributed cloud storage.  相似文献   
1000.
针对分类研究中采用单一类型数据造成的结果失真, 提出了综合考虑产品属性和销售时间序列的两阶段优化聚类算法。分别采用基于属性的相似性排序及时间序列的分层优化聚类实现产品单独聚类, 然后基于初始聚类结果及参数化的动态相对权重提出考虑噪声数据处理的分层聚类方法实现产品综合优化分类。企业实例应用研究表明综合聚类模型及两阶段算法在聚类精度及时间复杂度上具有明显的优势, 相对权重的动态参数化设置有效解决了不同产品间个性化特征的差异表示。通用数据集的仿真进一步验证了算法在解决混合属性产品聚类问题时的优越性及广泛适用性。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号