首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 62 毫秒
1.
本文给出了终止段未知的离散动态规划问题的解法和算法,并且结合经济问题实例阐述了这类问题的实际应用以及解法.  相似文献   

2.
卢志文 《福建电脑》2005,(2):76-76,73
运用动态规划的思想,为企业的资源分配问题构建了模型,并给出了该模型用VB编制的递归调用函数。  相似文献   

3.
基于动态规划的资源分配算法   总被引:1,自引:0,他引:1  
运用动态规划的思想 ,为企业的资源分配问题构建了模型 ,并给出了该模型用VB编制的递归调用函数。  相似文献   

4.
贾驰  王相海 《计算机科学》2004,31(11):208-210
动态规划算法对许多实际问题是灵活和有效的。本文首先对一类找钱问题进行了分析和讨论,然后给出了谊问题的一种动态规划解法,最后对所给算法的复杂性进行了分析。实验结果验证了所提出算法的有效性。  相似文献   

5.
本文在非常一般的情况下,讨论了著名的策略问题伪币问题,设计了解此问题的动态规划算法,并进一步对动态规划算法进行分析,给出了在一般情况下,伪币问题最优值的解析表达式,以及达到最优值的简洁的最优称量算法。  相似文献   

6.
1 引言目标规划是一类十分实用的重要模型,与一般多目标最优化模型不同,这类模型并不是考虑对各个目标进行极小化或极大化,而是希望在约束条件限制下,每一个目标都尽可能地接近于事先给定的各自对应的目标值。由于这类模型在处理问题时具有比较灵活、简便的特点,因而在工程技术和管理中应用非常广泛。本文研究逼近目标规划模型:  相似文献   

7.
研究建立了分散组织结构下多目标分散决策的目标规划模型,根据随机神经网络--玻尔兹曼机的基本原理,提出了求解该问题的一种新方法。示例的仿真结果表明该方法是非常有效的。  相似文献   

8.
一个激励学习Agent通过学习一个从状态到动作映射的最优策略来解决策问题。激励学习方法是Agent利用试验与环境交互以改进自身的行为。Markov决策过程(MDP)模型是解决激励学习问题的通用方法,而动态规划方法是Agent在具有Markov环境下与策略相关的值函数学习算法。但由于Agent在学习的过程中,需要记忆全部的值函数,这个记忆容量随着状态空间的增加会变得非常巨大。文章提出了一种基于动态规划方法的激励学习遗忘算法,这个算法是通过将记忆心理学中有关遗忘的基本原理引入到值函数的激励学习中,导出了一类用动态规划方法解决激励学习问题的比较好的方法,即Forget-DP算法。  相似文献   

9.
动态非线性约束优化是一类复杂的动态优化问题,其求解的困难主要在于如何处理问题的约束及时间(环境)变量。给出了一类定义在离散时间(环境)空间上的动态非线性约束优化问题的新解法,从问题的约束条件出发构造了一个新的动态熵函数,利用此函数将原优化问题转化成了两个目标的动态优化问题。进一步设计了新的杂交算子和带局部搜索的变异算子,提出了一种新的多目标优化求解进化算法。通过对两个动态非线性约束优化问题的计算仿真,表明该算法是有效的。  相似文献   

10.
多段图问题是一类特殊的单源最短路径问题。在串行动态规划算法的两种实现方法的基础上,根据图中顶点的编号,提出两种在集群环境下进行任务分割的并行化求解方法,并使用MPI进行实现。实验结果表明,所提出的算法具有较高的加速比和较低的通信复杂度、时间复杂度。算法不限于某种结构的集群,通用性强。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号