首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   50篇
  免费   1篇
  国内免费   4篇
综合类   7篇
化学工业   1篇
金属工艺   1篇
机械仪表   1篇
建筑科学   8篇
轻工业   1篇
水利工程   2篇
武器工业   3篇
无线电   7篇
一般工业技术   2篇
冶金工业   1篇
自动化技术   21篇
  2023年   1篇
  2021年   3篇
  2020年   2篇
  2019年   3篇
  2018年   2篇
  2017年   2篇
  2016年   3篇
  2015年   2篇
  2014年   3篇
  2013年   1篇
  2012年   2篇
  2011年   3篇
  2010年   3篇
  2009年   3篇
  2008年   7篇
  2007年   1篇
  2005年   1篇
  2003年   2篇
  2001年   1篇
  1996年   1篇
  1995年   2篇
  1994年   2篇
  1993年   1篇
  1991年   2篇
  1990年   1篇
  1989年   1篇
排序方式: 共有55条查询结果,搜索用时 15 毫秒
1.
面向文本数据建模时,交叉验证方法是特征选择及模型比较任务中的常用方法。许多研究表明,文本数据模型的性能估计对交叉验证的数据切分方式较为敏感,不合理的切分方式可能会导致不稳定的性能估计值,使得实验结果可复现性差。该文试图论证基于多次重复(m次)的2折交叉验证,通过引入对训练集、验证集分布差异的约束,所构造的正则化m×2交叉验证方法(简记为m×2 BCV)可以改善模型的性能指标的估计,适宜于模型比较。该文首先针对文本数据引入训练集与验证集分布差异的卡方度量,基于该度量构建数据切分的正则化条件,以最大化模型性能指标的信噪比为目标,给出了满足正则化条件的m×2 BCV的数据切分优化算法。最后,以自然语言处理中汉语框架语义角色标注任务为例,验证了基于m×2 BCV方法的有效性。  相似文献   
2.
该文以字为基本标注单位,构建了一种汉语基本块识别的神经网络学习模型。模型联合分词任务的神经网络学习模型与基本块识别任务模型,将分词任务模型中学习得到的隐层特征融入基本块识别的模型中,两模型相互交替优化学习模型参数,并实现了以整句似然函数(而非单字似然函数)作为优化目标的算法。实验结果表明:1)以整句似然函数为优化目标的基本块识别的F值比单字似然情形要高出1.33%,特别是在多字块识别中,其召回率比单字似然情形要高出4.68%;2)融合分词任务模型中的隐层特征的汉语基本块识别模型的结果比不做融合的模型要高出2.17%,说明融合分词隐层特征的交替联合学习方法是有效的。  相似文献   
3.
目前,国家住房制度的改革把住宅变成了高消费商品,高投入增强了人们对住房质量的期望。分户验收制度正是基于多一道防线保证工程质量,减少由此产生的纠纷而制定的。结合我国目前形式,阐述了分户验收制度的意义和必要性,并简要介绍了分户验收的组织程序和实施要点。  相似文献   
4.
针对基于分布的中文词表示构造过程中的参数选择问题进行了系统性的研究。选择了六种参数进行对比实验,在中文语义相似度任务上对不同参数设置下得到的中文词表示的质量进行了评估。实验结果表明,通过选择合适的参数,基于分布的词表示在中文语义相似度任务上能够得到较高的性能,而且,这种高维的词分布表示的质量甚至优于目前流行的基于神经网络(Skip-gram)或矩阵分解(GloVe)得到的低维的词表示。  相似文献   
5.
在总结传统的石灰法处理钛白酸性废水存在问题的基础上,进行了非石灰法处理钛白酸性废水的探索,该处理方法最终的泥渣量仅为石灰法的1/4~1/3;大分子量阳离子有机高分子絮凝剂对其有较好的沉降效果,相应的最佳投加剂量为1.25 mg/L,且分子量对沉降作用的影响强于其电荷对沉降作用的影响.  相似文献   
6.
F.A.P.Tooley等人曾用一块ZnSe干涉滤光片作光双稳器件构成了单门光学全加器,由于是用一个光双稳器件构成全加器,双稳器件的反射光和透射光都得到了应用,所以结构简单,但因信号输入采用斜入射方式,故不利于集成和级联。本文实验中,信号的输入采用正入射方式,故这种方案具有结构简单,便于集成和级联的双重优点。实验装置如图1所示。图中:Ar~+——氩离子激光,波长丸=514.5nm;M——光强调制器;A——光强衰减器;P——  相似文献   
7.
汉语的基本块识别是汉语句法语义自动分析中的重要任务之一。传统的方法大多数直接将汉语基本块识别任务转化成词层面的一个序列标注问题,采用CRF模型来处理。虽然,在许多评测中得到最好的结果,但基于词为标注单位,在实用中受限于自动分词系统以及汉语词特征的稀疏性。为此,该文给出了一种以字为标注单位,以字为原始输入层,来构建汉语的基本块识别的深层神经网络模型,并通过无监督方法,学习到字的C&W和word2vec两种分布表征,将其作为深层神经网络模型的字的表示层的初始输入参数来强化模型参数的训练。实验结果表明,使用五层神经网络模型,以[-3,3]窗口的字的word2vec分布表征,其准确率、召回率和F值分别达到80.74%,73.80%和77.12%,这比基于字的CRF高出约5%。这表明深层神经网络模型在汉语的基本块识别中是有作用的。  相似文献   
8.
C_(60)对ps光脉冲的限幅效应   总被引:9,自引:1,他引:8  
研究了C60甲苯溶液对ps光脉冲的限幅效应,证明了光限幅效应是单重态激发态吸收的结果;同三重态激发态吸收光限幅效应相比,单重态激发态吸收光限幅具有限幅能量低、响应速度快等优点。实验结果与理论拟合结果基本符合。  相似文献   
9.
GloVe模型是一种广泛使用的词向量表示学习的模型。许多研究发现,学习得到的词向量维数越大,性能越好;但维数越大,模型学习耗时越长。事实上,GloVe模型中,耗时主要表现在两方面,一是统计词对共现矩阵,二是训练学习词向量表示。该文在利用GloVe模型统计语料中词对共现时,基于对称或非对称窗口得到两个共现矩阵,然后分别学习得到较低维度的词向量表示,再拼接得到较高维度的词向量表示。从计算的复杂度来看,该文方法并不会产生多的计算量,但显然统计共现矩阵和训练学习可通过并行方式实现,能够显著提高计算效率。在使用大规模语料的实验中,以对称和非对称窗口分别统计得到共现矩阵,分别学习得到300维词向量表示,再使用拼接方式得到600维词向量表示。与GloVe模型对称和非对称的600维的词向量相比,在中文和英文的词语推断任务上,显著地提高了预测的准确率,在词语聚类任务上,有较好的聚类效果,验证了该文方法的有效性。  相似文献   
10.
通常给定超参数的若干取值选取性能最大的为最优组合(称为直接选优法),但是此方法的稳健性差。为此,提出了一种基于稳健设计的超参数调优方法(称为稳健调优法)。具体地,以SGNS算法中的超参数调优为例,在词语推断任务上实验并得出:经方差分析得到SGNS算法中的七个超参数中的五个对算法预测性能有显著影响,确定为主控因子,其余两个确定为噪声因子,且主控因子中有三个对性能估计的方差有显著影响,因此,调优中仅从期望最大来直接选优是不合理的;稳健调优法与直接选优法两者在预测性能上没有显著差异,但稳健调优法对噪声因子具有较好的稳健性。稳健调优法对一般的深度神经网络的调参有实际的借鉴意义。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号