全文获取类型
收费全文 | 403篇 |
免费 | 10篇 |
国内免费 | 15篇 |
专业分类
电工技术 | 81篇 |
综合类 | 41篇 |
化学工业 | 47篇 |
金属工艺 | 8篇 |
机械仪表 | 15篇 |
建筑科学 | 19篇 |
矿业工程 | 18篇 |
能源动力 | 17篇 |
轻工业 | 24篇 |
水利工程 | 12篇 |
石油天然气 | 19篇 |
武器工业 | 1篇 |
无线电 | 36篇 |
一般工业技术 | 31篇 |
冶金工业 | 5篇 |
原子能技术 | 8篇 |
自动化技术 | 46篇 |
出版年
2024年 | 3篇 |
2023年 | 11篇 |
2022年 | 6篇 |
2021年 | 8篇 |
2020年 | 5篇 |
2019年 | 16篇 |
2018年 | 19篇 |
2017年 | 7篇 |
2016年 | 6篇 |
2015年 | 14篇 |
2014年 | 15篇 |
2013年 | 21篇 |
2012年 | 27篇 |
2011年 | 33篇 |
2010年 | 20篇 |
2009年 | 25篇 |
2008年 | 28篇 |
2007年 | 25篇 |
2006年 | 16篇 |
2005年 | 24篇 |
2004年 | 19篇 |
2003年 | 24篇 |
2002年 | 14篇 |
2001年 | 7篇 |
2000年 | 1篇 |
1999年 | 4篇 |
1998年 | 2篇 |
1997年 | 1篇 |
1996年 | 5篇 |
1995年 | 3篇 |
1993年 | 7篇 |
1992年 | 1篇 |
1990年 | 2篇 |
1989年 | 1篇 |
1987年 | 2篇 |
1985年 | 3篇 |
1984年 | 1篇 |
1983年 | 1篇 |
1976年 | 1篇 |
排序方式: 共有428条查询结果,搜索用时 15 毫秒
81.
针对乳腺癌淋巴结转移的人工检测精度低、耗时长的问题,提出了一种基于残差网络结构,使用八度卷积(Octave Convolution)方法设计卷积层的一种神经网络检测模型。以残差网络中卷积层为基础,首先对卷积层中输入和输出的特征向量进行高低分频,并缩减低频通道的宽和高为高频的一半。然后通过对减半后的低频向量进行上采样,实现与高频向量之间的卷积操作;通过对高频向量的平均池化,实现与减半低频向量的卷积操作。最后将高频向量之间、高频与低频向量之间的卷积相加,得到高频输出;将低频向量之间、低频与高频向量之间的卷积相加,得到低频输出。这样就构建出了Octave卷积层,将残差网络中所有卷积层完全替换为Octave卷积层就搭建出了检测模型。理论上,Octave卷积层中卷积的运算量减少了75%,有效加速了模型的训练。在最大内存为13 GB,可用磁盘大小为4.9 GB的云端服务器上,用PCam数据集进行测试,得到模型的识别精度为95.06%,内存占用8.7 GB,磁盘占用356.4 MB,平均单次训练用时4 min 42 s。与ResNet50相比,所提模型的精度下降了0.69%,内存节省0.6 GB,磁盘节约105.9 MB,单次训练用时缩短了1 min。实验结果表明,所提模型具有较高的识别精度,较短的训练用时和较少的内存消耗,使得模型在大数据的背景下,降低了对算力资源的要求,具有一定的实际应用价值。 相似文献
82.
83.
目的 以词袋模型为基础的拷贝图像检索方法是当前最有效的方法。然而,由于局部特征量化存在信息损失,导致视觉词汇区别能力不足和视觉词汇误匹配增加,从而影响了拷贝图像检索效果。针对视觉词汇的误匹配问题,提出一种基于近邻上下文的拷贝图像检索方法。该方法通过局部特征的上下文关系消除视觉词汇歧义,提高视觉词汇的区分度,进而提高拷贝图像的检索效果。方法 首先,以距离和尺度关系选择图像中某局部特征点周围的特征点作为该特征点的上下文,选取的上下文中的局部特征点称为近邻特征点;再以近邻特征点的信息以及与该局部特征的关系为该局部特征构建上下文描述子;然后,通过计算上下文描述子的相似性对局部特征匹配对进行验证;最后,以正确匹配特征点的个数衡量图像间的相似性,并以此相似性选取若干候选图像作为返回结果。结果 在Copydays图像库进行实验,与Baseline方法进行比较。在干扰图像规模为100 k时,相对于Baseline方法,mAP提高了63%。当干扰图像规模从100 k增加到1 M时,Baseline的mAP值下降9%,而本文方法下降3%。结论 本文拷贝图像检索方法对图像编辑操作,如旋转、图像叠加、尺度变换以及裁剪有较高的鲁棒性。该方法可以有效地应用到图像防伪、图像去重等领域。 相似文献
84.
基于N-Gram的文本去重方法研究 总被引:1,自引:0,他引:1
中文文本去重是自然语言处理研究的一个重要方向。该文提出了一种基于N-Gram项和特征映射的文本去重方法。该方法提取N-Gram项的序列作为文本特征,将N-Gram项映射成哈希值,通过查找哈希值来判定文本是否重复。利用哈希数值查找代替字符串匹配,为实现快速的去重方法提供了一种新的可行的方法。实验表明,该算法对于普通网页文本去重能取得很好的效果。 相似文献
85.
一种新的基于蚁群和凝聚的混合聚类算法 总被引:2,自引:0,他引:2
在经典蚁群算法和经典聚合算法的基础上,该文在改进蚁群算法的同时提出了一种新的基于蚁群和凝聚的混合聚类算法。该算法首先在蚂蚁放置物体时采用紧凑算法,其次对于可被蚂蚁负载的物体采用基于评估函数的调度算法,最后将凝聚算法融入蚁群算法的迭代过程。实验通过与其它聚类算法比较表明,该算法在继承了蚁群算法固有优点的同时,提高了时间效率,获得了较好的结果。 相似文献
86.
87.
88.
89.
90.
针对目前互联网图像内容过滤系统识别率低的情况,提出了一种基于YCgCr空间的不良图像肤色检测方法。首先检测图像中可能存在的人脸区域,利用人脸肤色像素来检测获得人体肤色,其次对不含人脸图像,则利用离线构建的肤色模型来实现肤色检测。实验结果证明,在不同光照以及复杂背景下,该算法能够较好地提高不良图像的肤色检测率和背景检测率。 相似文献