全文获取类型
收费全文 | 48篇 |
免费 | 8篇 |
国内免费 | 21篇 |
专业分类
综合类 | 7篇 |
化学工业 | 12篇 |
金属工艺 | 1篇 |
机械仪表 | 7篇 |
建筑科学 | 7篇 |
轻工业 | 2篇 |
水利工程 | 4篇 |
一般工业技术 | 4篇 |
冶金工业 | 1篇 |
自动化技术 | 32篇 |
出版年
2024年 | 1篇 |
2023年 | 1篇 |
2022年 | 6篇 |
2021年 | 6篇 |
2020年 | 2篇 |
2019年 | 4篇 |
2018年 | 5篇 |
2017年 | 3篇 |
2016年 | 1篇 |
2015年 | 5篇 |
2014年 | 2篇 |
2012年 | 6篇 |
2011年 | 3篇 |
2010年 | 3篇 |
2007年 | 3篇 |
2005年 | 3篇 |
2004年 | 3篇 |
2003年 | 4篇 |
2002年 | 4篇 |
2000年 | 1篇 |
1999年 | 1篇 |
1997年 | 6篇 |
1993年 | 3篇 |
1991年 | 1篇 |
排序方式: 共有77条查询结果,搜索用时 0 毫秒
1.
通过对典型振冲挤密法施工方法的研究,分析了该方法的加固机理,指出它可提高地基承载力、减少沉降和不均匀沉降,且能达到地基抗地震、抗液化能力的效果。 相似文献
2.
根据卫生部药政发(94)第530号文精神及卫生部(93)S-59号新生物制品批件要求,由广州市卫生防疫站、中国药品生物制品检定所等单位对卫生部生物制品总公司协作组、长春等5个生研所试生产的吸附精制百白破混合制剂(APDT)进行了回期临床反应观察。旨在通过本次大规模的婴幼儿人群接种反应观察,了解该制剂有无严重异常反应发生及其发生率,以便对该制剂的安全性作出进一步评价,为该制剂获取正式生产文号以及在全国范围内推广应用提供新的科学依据。观察于1995年4月开始,到1996年8月底为止,为期1年4个月,在广州市8个区(市)中进行… 相似文献
3.
为了解由卫生部生物制品总公司协作组和长春生物制品研究所等单位研制的吸附精制百白破混合制剂(aPDT)的免疫持久性和加强免疫的时间,在浙江省余杭县选择了3~5月龄健康婴幼儿,按随机双盲分成两组,分别注射aPDT和吸附全菌体百白破混合制剂(aPDT)进行比较。每组IOO人左右,先进行基础免疫,臀部肌肉注射3次,每次0.sml,间隔4周,基免后回年再加强注射1次,剂量为0.sml。于全程基免前后1月以及1年后加强注射前后卫月和1年分别取手指末端血检测百日咳凝集素、抗PT、抗FHA及白喉、破伤风血凝抗体。结果证明:1.aPDT与wPDT… 相似文献
4.
目的 为了解洪涝灾害对钩端螺旋体 (钩体 )病流行菌型的影响 ,在我国钩体病流行比较严重的省市地区进行菌株分离观察。方法 采用经典的显微镜凝集试验和交叉凝集素吸收试验进行血清学分类比较。结果 6省市的 2 8株钩体菌株分属 7个血清群 9个血清型 ,其中发现 2个新的血清型 ,暂定为贺岩型和沅江型 ,代表菌分别为L2 31株和沅江 2 7株。结论 对流行区的 2 8株钩体菌株进行了血清学分类 ,为钩体病的诊断提供了新的依据。 相似文献
5.
6.
缝纫泡沫夹芯复合材料中的纤维柱在拔出过程中的破坏行为复杂导致结构承载性能难以预测。采用真空辅助树脂注射(VARI)工艺制备了缝纫泡沫夹芯复合材料,并使用层间拉伸试验(ITT)研究了缝纫泡沫夹芯复合材料中含有单根缝线纤维柱细观试件的破坏过程。讨论了不同破坏现象对缝线纤维柱拔出摩擦过程的影响,并分析了缝纫泡沫夹芯复合材料的破坏模式。分析了缝线粗细的变化对试件破坏过程中关键的力、位移等参数及能量吸收性能的影响。研究了由于成型工艺所导致的缺胶现象对缝纫泡沫夹芯复合材料性能的影响。结果表明:缝纫泡沫夹芯复合材料的能量吸收性能、关键位移参数及最大载荷都随着缝线变粗而增大。但是缝纫泡沫夹芯复合材料的破坏模式对其也有一定的影响,导致了变化趋势的波动;缺胶缝纫泡沫夹芯复合材料由于缺陷的存在,最大破坏载荷和能量吸收性能均有所下降。 相似文献
7.
秦进 《计算机工程与应用》2015,51(12):53-54
借助Lyapunov函数稳定性理论研究了简化Lorenz混沌系统的全局吸引集,得到了它的界估计。通过了计算机模拟,数值模拟验证了计算理论的可行性。 相似文献
8.
推荐模型通常使用用户的历史行为来获得用户偏好表示,以产生推荐。大多数方法学习到的用户表示会把不同的偏好因素纠缠在一起,而解耦学习的方法可以用于分解用户的行为特征。为此,文中提出了一个基于变分自编码器的框架DSVAECF,用于从用户历史行为中分解静态和动态偏好因素。首先,DSVAECF模型的两个编码器分别使用多层感知机和循环神经网络对用户行为进行历史行为建模,以此得到用户的静态和动态偏好表示;然后,将拼接的静态和动态偏好表示视为用户偏好的解耦表示,并将其输入解码器来捕获用户的决策,并重构出用户行为。在模型训练阶段,一方面最大化重构的用户行为与真实用户行为之间的互信息来学习模型参数;另一方面通过最小化解耦表示与其先验分布间的差异来保留模型的生成能力。在Amazon和MovieLens两个数据集上的实验结果表明,与基准方法相比,DSVAECF在归一化折损累计增益、精确率和召回率上都有显著的提升,拥有更好的推荐性能。 相似文献
9.
现有的内在奖励随着agent不断探索环境而逐渐消失,导致了agent无法利用内在奖励信号去指引agent寻找最优策略。为了解决这个问题,提出了一种基于内在奖励的技能获取和组合方法。该方法首先在agent与环境交互过程中寻找积极状态,在积极状态中筛选子目标;其次从初始状态到达子目标,子目标到达终止状态所产生的一条轨迹中发现技能,对技能中出现一个或者两个以上的子目标进行组合;最后用初始状态到子目标的距离和初始状态到子目标的累积奖励值对技能进行评估。该方法在Mujoco环境中取得了较高的平均奖励值,尤其是在外在奖励延迟的情况下,也能取得较好的平均奖励值。说明该方法提出的子目标和技能可以有效地解决内在奖励消失后,agent无法利用内在奖励信号学习最优策略的问题。 相似文献
10.
强化学习问题中,同一状态下不同动作所对应的状态-动作值存在差距过小的现象,Q-Learning算法采用MAX进行动作选择时会出现过估计问题,且结合了Q-Learning的深度Q网络(Deep Q Net)同样存在过估计问题。为了缓解深度Q网络中存在的过估计问题,提出一种基于优势学习的深度Q网络,通过优势学习的方法构造一个更正项,利用目标值网络对更正项进行建模,同时与深度Q网络的评估函数进行求和作为新的评估函数。当选择的动作是最优动作时,更正项为零,不对评估函数的值进行改动,当选择的动作不是最优动作时,更正项的值为负,降低了非最优动作的评估值。和传统的深度Q网络相比,基于优势学习的深度Q网络在Playing Atari 2600的控制问题breakout、seaquest、phoenix、amidar中取得了更高的平均奖赏值,在krull、seaquest中取得了更加稳定的策略。 相似文献