全文获取类型
收费全文 | 50篇 |
免费 | 1篇 |
国内免费 | 4篇 |
专业分类
综合类 | 7篇 |
化学工业 | 1篇 |
金属工艺 | 1篇 |
机械仪表 | 1篇 |
建筑科学 | 8篇 |
轻工业 | 1篇 |
水利工程 | 2篇 |
武器工业 | 3篇 |
无线电 | 7篇 |
一般工业技术 | 2篇 |
冶金工业 | 1篇 |
自动化技术 | 21篇 |
出版年
2023年 | 1篇 |
2021年 | 3篇 |
2020年 | 2篇 |
2019年 | 3篇 |
2018年 | 2篇 |
2017年 | 2篇 |
2016年 | 3篇 |
2015年 | 2篇 |
2014年 | 3篇 |
2013年 | 1篇 |
2012年 | 2篇 |
2011年 | 3篇 |
2010年 | 3篇 |
2009年 | 3篇 |
2008年 | 7篇 |
2007年 | 1篇 |
2005年 | 1篇 |
2003年 | 2篇 |
2001年 | 1篇 |
1996年 | 1篇 |
1995年 | 2篇 |
1994年 | 2篇 |
1993年 | 1篇 |
1991年 | 2篇 |
1990年 | 1篇 |
1989年 | 1篇 |
排序方式: 共有55条查询结果,搜索用时 15 毫秒
1.
面向文本数据建模时,交叉验证方法是特征选择及模型比较任务中的常用方法。许多研究表明,文本数据模型的性能估计对交叉验证的数据切分方式较为敏感,不合理的切分方式可能会导致不稳定的性能估计值,使得实验结果可复现性差。该文试图论证基于多次重复(m次)的2折交叉验证,通过引入对训练集、验证集分布差异的约束,所构造的正则化m×2交叉验证方法(简记为m×2 BCV)可以改善模型的性能指标的估计,适宜于模型比较。该文首先针对文本数据引入训练集与验证集分布差异的卡方度量,基于该度量构建数据切分的正则化条件,以最大化模型性能指标的信噪比为目标,给出了满足正则化条件的m×2 BCV的数据切分优化算法。最后,以自然语言处理中汉语框架语义角色标注任务为例,验证了基于m×2 BCV方法的有效性。 相似文献
2.
该文以字为基本标注单位,构建了一种汉语基本块识别的神经网络学习模型。模型联合分词任务的神经网络学习模型与基本块识别任务模型,将分词任务模型中学习得到的隐层特征融入基本块识别的模型中,两模型相互交替优化学习模型参数,并实现了以整句似然函数(而非单字似然函数)作为优化目标的算法。实验结果表明:1)以整句似然函数为优化目标的基本块识别的F值比单字似然情形要高出1.33%,特别是在多字块识别中,其召回率比单字似然情形要高出4.68%;2)融合分词任务模型中的隐层特征的汉语基本块识别模型的结果比不做融合的模型要高出2.17%,说明融合分词隐层特征的交替联合学习方法是有效的。 相似文献
3.
目前,国家住房制度的改革把住宅变成了高消费商品,高投入增强了人们对住房质量的期望。分户验收制度正是基于多一道防线保证工程质量,减少由此产生的纠纷而制定的。结合我国目前形式,阐述了分户验收制度的意义和必要性,并简要介绍了分户验收的组织程序和实施要点。 相似文献
4.
5.
在总结传统的石灰法处理钛白酸性废水存在问题的基础上,进行了非石灰法处理钛白酸性废水的探索,该处理方法最终的泥渣量仅为石灰法的1/4~1/3;大分子量阳离子有机高分子絮凝剂对其有较好的沉降效果,相应的最佳投加剂量为1.25 mg/L,且分子量对沉降作用的影响强于其电荷对沉降作用的影响. 相似文献
6.
7.
汉语的基本块识别是汉语句法语义自动分析中的重要任务之一。传统的方法大多数直接将汉语基本块识别任务转化成词层面的一个序列标注问题,采用CRF模型来处理。虽然,在许多评测中得到最好的结果,但基于词为标注单位,在实用中受限于自动分词系统以及汉语词特征的稀疏性。为此,该文给出了一种以字为标注单位,以字为原始输入层,来构建汉语的基本块识别的深层神经网络模型,并通过无监督方法,学习到字的C&W和word2vec两种分布表征,将其作为深层神经网络模型的字的表示层的初始输入参数来强化模型参数的训练。实验结果表明,使用五层神经网络模型,以[-3,3]窗口的字的word2vec分布表征,其准确率、召回率和F值分别达到80.74%,73.80%和77.12%,这比基于字的CRF高出约5%。这表明深层神经网络模型在汉语的基本块识别中是有作用的。 相似文献
8.
9.
GloVe模型是一种广泛使用的词向量表示学习的模型。许多研究发现,学习得到的词向量维数越大,性能越好;但维数越大,模型学习耗时越长。事实上,GloVe模型中,耗时主要表现在两方面,一是统计词对共现矩阵,二是训练学习词向量表示。该文在利用GloVe模型统计语料中词对共现时,基于对称或非对称窗口得到两个共现矩阵,然后分别学习得到较低维度的词向量表示,再拼接得到较高维度的词向量表示。从计算的复杂度来看,该文方法并不会产生多的计算量,但显然统计共现矩阵和训练学习可通过并行方式实现,能够显著提高计算效率。在使用大规模语料的实验中,以对称和非对称窗口分别统计得到共现矩阵,分别学习得到300维词向量表示,再使用拼接方式得到600维词向量表示。与GloVe模型对称和非对称的600维的词向量相比,在中文和英文的词语推断任务上,显著地提高了预测的准确率,在词语聚类任务上,有较好的聚类效果,验证了该文方法的有效性。 相似文献
10.
通常给定超参数的若干取值选取性能最大的为最优组合(称为直接选优法),但是此方法的稳健性差。为此,提出了一种基于稳健设计的超参数调优方法(称为稳健调优法)。具体地,以SGNS算法中的超参数调优为例,在词语推断任务上实验并得出:经方差分析得到SGNS算法中的七个超参数中的五个对算法预测性能有显著影响,确定为主控因子,其余两个确定为噪声因子,且主控因子中有三个对性能估计的方差有显著影响,因此,调优中仅从期望最大来直接选优是不合理的;稳健调优法与直接选优法两者在预测性能上没有显著差异,但稳健调优法对噪声因子具有较好的稳健性。稳健调优法对一般的深度神经网络的调参有实际的借鉴意义。 相似文献