全文获取类型
收费全文 | 56篇 |
免费 | 12篇 |
国内免费 | 8篇 |
专业分类
综合类 | 1篇 |
金属工艺 | 1篇 |
能源动力 | 1篇 |
无线电 | 14篇 |
冶金工业 | 18篇 |
自动化技术 | 41篇 |
出版年
2024年 | 1篇 |
2023年 | 3篇 |
2022年 | 3篇 |
2021年 | 7篇 |
2020年 | 4篇 |
2019年 | 11篇 |
2017年 | 4篇 |
2016年 | 1篇 |
2015年 | 3篇 |
2014年 | 5篇 |
2013年 | 9篇 |
2012年 | 1篇 |
2011年 | 5篇 |
2009年 | 1篇 |
1997年 | 1篇 |
1996年 | 1篇 |
1995年 | 1篇 |
1994年 | 1篇 |
1993年 | 5篇 |
1992年 | 1篇 |
1991年 | 3篇 |
1990年 | 1篇 |
1989年 | 3篇 |
1987年 | 1篇 |
排序方式: 共有76条查询结果,搜索用时 15 毫秒
2.
一、企业情报工作面临的挑战形势目前,企业情报信息工作,面临着严峻的挑战。这种挑战主要来自以下几个方面: 首先,全球性的新技术革命的兴起和横向纵向发展,特别是随着电子计算机的普遍应用,必将导致新的信息革命的到来,出现空前的知识“爆炸”的势态。在这种形势下,情报人员怎样从千头万绪的情报 相似文献
3.
根据现代企业管理体制的要求,企业信息机构是企业管理运行机构的重要组成部分,但由于我国企业传统管理观念的惯性作用,至今仍有相当一部分厂长(经理)往往只满足于抓硬件(设备、物质材料等)而忽视抓软件(信息、文献资料等)。为此,本文就信息在现代企业中的地位和作用,信息与企业的关系,以及现阶段企业信息工作的状况作了分析,并就企业信息工作的性质、目标、特点、内容作了阐述,还就企业信息管理系统网络作了探讨。本文旨在向我有色工业系统的企业家们呼吁:要高度重视信息工作,把信息工作纳入现代管理之列,充分利用信息,使自己的决策更加科学化、民主化。 相似文献
4.
提出一种基于强化学习的生成对抗网络(Reinforcement learning-based Generative Adversarial Networks,Re-GAN)能耗预测方法.该算法将强化学习与生成对抗网络相结合,将GAN(Generative Adversarial Nets)中的生成器以及判别器分别构建为强化学习中Agent(生成器)以及奖赏函数.在训练过程中,将当前的真实能耗序列作为Agent的输入状态,构建一组固定长度的生成序列,结合判别器及蒙特卡洛搜索方法进一步构建当前序列的奖赏函数,并以此作为真实样本序列后续第一个能耗值的奖赏.在此基础之上,构建关于奖赏的目标函数,并求解最优参数.最后使用所提算法对唐宁街综合大楼公开的建筑能耗数据进行预测试验,实验结果表明,所提算法比多层感知机、门控循环神经网络和卷积神经网络具有更高的预测精度. 相似文献
5.
针对深度确定性策略梯度算法(DDPG)收敛速度比较慢,训练不稳定,方差过大,样本应用效率低的问题,提出了一种基于随机方差减小梯度方法的深度确定性策略梯度算法(SVR-DDPG)。该算法通过利用随机方差减小梯度技术(SVRG)提出一种新的创新优化策略,将之运用到DDPG算法之中,在DDPG算法的参数更新过程中,加入了随机方差减小梯度技术,利用该方法的更新方式,使得估计的梯度方差有一个不断减小的上界,令方差不断缩小,从而在小的随机训练子集的基础上找到更加精确的梯度方向,以此来解决了由近似梯度估计误差引发的问题,加快了算法的收敛速度。将SVR-DDPG算法以及DDPG算法应用于Pendulum和Mountain Car问题,实验结果表明,SVR-DDPG算法具有比原算法更快的收敛速度,更好的稳定性,以此证明了算法的有效性。 相似文献
6.
为解决传统遗传算法早熟收敛和收敛速度慢的问题,提出一种基于强化学习的多策略选择遗传算法MPSGA。通过使用不同的选择策略将整个种群划分为3个子种群并分别进化,能提高种群的多样性,有效避免遗传算法的早熟收敛问题。将种群的多样性和算法的运行机制相结合,根据种群多样性的变化运用强化学习算法动态地优化各子种群间的比例参数,从而将种群多样性保持在合适的范围,一定程度上解决了收敛速度和全局收敛性之间的矛盾。实验结果表明,该算法在收敛精度和搜索效率上都表现出较好的性能。 相似文献
7.
本文提出一种可用于建筑能耗预测的基于KNN分类器的DQN算法——K-DQN.其在利用马尔科夫决策过程对建筑能耗进行建模时,针对大规模动作空间问题,将原始动作空间缩减进而提高算法的预测精度及收敛速率.首先, K-DQN将原始动作空间平均划分为多个子动作空间,并将每个子动作空间对应的状态分为一类,以此构建KNN分类器.其次,利用KNN分类器,将不同类别相同次序动作进行统一表示,以实现动作空间的缩减.最后,K-DQN将状态类别概率与原始状态相结合,在构建新状态的同时,帮助确定缩减动作空间内每一动作的具体含义,从而确保算法的收敛性.实验结果表明,文章提出的K-DQN算法可以获得优于DDPG、DQN算法的能耗预测精度,且降低了网络训练时间. 相似文献
8.
针对连续状态空间下的强化学习算法初始性能差及收敛速度慢的问题,提出利用自适应势函数塑造奖赏机制来改进强化学习算法。该机制通过额外的奖赏信号自适应地将模型知识传递给学习器,可以有效提高算法的初始性能及收敛速度。鉴于径向基函数(RBF)网络的优良性能及存在的问题,提出利用自适应归一化RBF(ANRBF)网络作为势函数来塑造奖赏。基于ANRBF网络提出了梯度下降(GD)版的强化学习算法——ANRBF-GD-Sarsa(λ)。从理论上分析了ANRBF-GD-Sarsa(λ)算法的收敛性,并通过实验验证了ANRBF-GD-Sarsa(λ)算法具有较好的初始性能及收敛速度。 相似文献
9.
本文较详细地介绍了国内外信息产业的现状与发展趋势,并就我国今后如何发展信息产业提出自己的设想与建议,并希望有识之士为信息产业的兴起作出应有的贡献。 相似文献
10.
蛋白质结构预测问题一直是生物信息学中的重要问题。基于疏水极性模型的蛋白质二维结构预测问题是一个典型的NP难问题。目前疏水极性模型优化的方法有贪心算法、粒子群算法、遗传算法、蚁群算法和蒙特卡罗模拟方法等,但这些方法成功收敛的鲁棒性不高,容易陷入局部最优。由此提出一种基于强化学习的HP模型优化方法,利用其连续马尔可夫最优决策与最大化全局累计回报的特点,在全状态空间中,构建基于能量函数的奖赏函数,引入刚性重叠检测规则,充分挖掘生物序列中的全局进化关系,从而进行有效与稳定的预测。以3条经典论文序列和5条Uniref50序列为实验对象,与贪心算法和粒子群算法分别进行了鲁棒性、收敛性与运行时间的比较。贪心算法只能在62.5%的序列上进行收敛,该文方法能在5万次训练后稳定的在所有序列上达到了收敛。与粒子群算法相比,两者都能找到最低能量结构,但该文的运行时间较粒子群算法降低了63.9%。 相似文献