首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   19篇
  免费   3篇
  国内免费   2篇
化学工业   8篇
金属工艺   1篇
能源动力   1篇
石油天然气   2篇
武器工业   1篇
无线电   2篇
一般工业技术   2篇
冶金工业   6篇
自动化技术   1篇
  2023年   1篇
  2022年   1篇
  2021年   1篇
  2018年   1篇
  2017年   1篇
  2014年   3篇
  2013年   2篇
  2011年   2篇
  2010年   2篇
  2009年   1篇
  2008年   6篇
  1984年   2篇
  1982年   1篇
排序方式: 共有24条查询结果,搜索用时 171 毫秒
21.
作文课历来是小学语文教学的难点.不少学生害怕写作文,提起作文就像是"老鼠见了猫",还有不少学生对作文"敬而远之".学生长此下去,不仅影响到作文水平的提高,而且制约了语文综合素养的发展.  相似文献   
22.
近年来,互联网飞速发展,社交网络逐渐改变了人们的生活方式,而企业与个人之间的交际也更加频繁,但隐藏在社交网络中的安全隐患将会给企业造成巨大的损失。未来,企业应当采取相应的措施来保证信息安全,降低其在网络环境中的安全风险。  相似文献   
23.
强酸型魔芋葡甘聚糖基离子交换树脂的性能   总被引:1,自引:0,他引:1  
以交联魔芋葡甘聚糖颗粒为原料,采用先羟丙基化再磺化的方法制备了强酸性魔芋葡甘聚糖基离子交换树脂。红外和扫描电镜检测结果表明,该树脂为蜂窝状多孔微球,色泽好,粒度均匀。该树脂的骨架密度为0.2172 g/mL,平均孔容量为2.7446 mL/g,树脂空隙率为37.20%;交换容量为0.1445 mmol/g,对Pb2+的吸附量为0.2056 mmol/g。  相似文献   
24.
预训练语言模型的作用是在大规模无监督语料上基于特定预训练任务获取语义表征能力,故在下游任务中仅需少量语料微调模型且效果较传统机器学习模型(如CNN、RNN、LSTM等)更优。常见的预训练语言模型如BERT、Electra、GPT等均是基于传统Attention机制搭建。研究表明,引入Query-Value计算的QV-Attention机制效果较Attention机制有所提升。该文模型QV-Electra将QV-Attention引入预训练模型Electra,该模型在保留Electra预训练模型参数的同时仅通过添加0.1%参数获得性能提升。实验结果表明,QV-Electra模型在同等时间的情况下,相较于传统模型以及同等参数规模预训练模型能取得更好的分类效果。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号