共查询到20条相似文献,搜索用时 46 毫秒
1.
2.
提出了一种新的微小卫星系统任务规划方法,解决微小卫星任务遥控时资源受限的问题;通过GQM建模将卫星调度任务进行度量元素量化,量化过程中兼顾公平性和合理性,并以任务完成度和卫星功耗作为目标进行评估;通过1000次卫星过顶仿真,40项建模任务的平均完成度达到0.63,每次过顶卫星功耗方差不超过40,证明新方法较传统方法在平稳功耗条件下任务完成度得到有效提升,具有良好的实用性和指导性,适用于自动任务规划和调度的自主运行地面站系统。 相似文献
3.
4.
对地观测区域目标分割与优选问题是多星协同观测区域目标规划过程中的一个重要环节。采用卫星或遥感器侧摆能力的区域目标动态分割算法,并结合贪婪优化算法对分割结果进行优化规划,在规划过程中依据建立的全球网格参考系统可以方便、高效地计算目标覆盖率,进行实时效能评估以对分割方式进行反馈调整,保证区域目标分割结果最优。依据提出的算法设计了包含三颗对地卫星和一个区域观测目标的应用场景进行实例仿真,并得出了较为理想的仿真结果。 相似文献
5.
针对对地观测卫星任务规划,分析了单个资源失效与多个高优先级任务动态插入情况下已有任务规划方案的动态调整问题。以最大化规划方案任务权值总和为优化目标,提出了基于任务替换的启发式动态调整算法,包括选择替换任务的五种启发式策略:最大灵活度、最小冲突集、最小争议部分、区间剪枝以及任务剪枝策略。分析了影响动态调整算法运行效率的两个关键因素:冲突任务集与动态搜索深度。采用任务重规划率、规划权值变化率与算法运行时间三项指标考察算法效果,通过仿真实验验证了算法的可行性和有效性。 相似文献
6.
7.
8.
9.
针对敏捷凝视卫星密集点目标观测规划问题,提出一种快速观测任务聚类策略和启发式蚁群优化算法.首先,针对敏捷凝视卫星视场范围特点,提出基于顶点度的团划分算法,解决密集点观测任务聚类问题,形成系列团观测目标,有效提高观测效率;其次,为得到最优团目标观测序列,考虑目标可见时间窗口约束以及卫星敏捷机动能力约束,构建基于多目标观测收益和姿态机动能耗的性能指标,实现能量高效的任务规划;再次,为克服传统蚁群算法易陷入局部极小值和收敛较慢的缺点,设计一种同时考虑目标点优先级、目标可见时间窗口、目标之间卫星姿态转换时间等因素的启发式蚁群算法;最后,选取大规模密集地面目标验证所提出算法的可行性和高效性. 相似文献
10.
传统的数学模型方法是解决复杂卫星任务规划问题的一种途径,但其抽象性给建模人员带来很大难度。PDDL(Planning Domain Definition Language)可以针对卫星任务规划问题建立清晰有效的模型,并能把模型的知识转化成计算机易于接受的形式。用PDDL描述对地观测卫星的任务规划问题,分析了卫星执行任务时涉及的约束、相关活动和所需的资源,建立任务规划模型的域文件(domain file)和问题(problem file)文件,并针对所建模型提出求解模型的算法流程,最后通过一个算例验证模型和算法是有效地。 相似文献
11.
In this paper, we propose a clique-based sparse reinforcement learning (RL) algorithm for solving cooperative tasks. The aim is to accelerate the learning speed of the original sparse RL algorithm and to make it applicable for tasks decomposed in a more general manner. First, a transition function is estimated and used to update the Q-value function, which greatly reduces the learning time. Second, it is more reasonable to divide agents into cliques, each of which is only responsible for a specific subtask. In this way, the global Q-value function is decomposed into the sum of several simpler local Q-value functions. Such decomposition is expressed by a factor graph and exploited by the general maxplus algorithm to obtain the greedy joint action. Experimental results show that the proposed approach outperforms others with better performance. 相似文献
12.
图着色问题(graph coloring problem,GCP)是一个经典的组合优化问题,已广泛应用于数学、计算机科学和生物科学等多个领域。由于图着色问题的NP难特性,目前还没有多项式时间内的精确算法求解该问题,为了给出求解该问题的高效算法,需要对现有算法进行梳理。主要分为智能优化算法、启发式算法、强化学习算法等,从算法原理、改进思路、性能和精度等方面进行对比分析,归纳出算法的优缺点,并指出GCP的研究方向和算法设计路径,对于相关问题的研究有指导意义。 相似文献
13.
14.
为了在连续和动态的环境中处理智能体不断变化的需求,我们通过利用强化学习来研究多机器人推箱子问题,得到了一种智能体可以不需要其它智能体任何信息的情况下完成协作任务的方法。强化学习可以应用于合作和非合作场合,对于存在噪声干扰和通讯困难的情况,强化学习具有其它人工智能方法不可比拟的优越性。 相似文献
15.
Multiagent learning provides a promising paradigm to study how autonomous agents learn to achieve coordinated behavior in multiagent systems. In multiagent learning, the concurrency of multiple distributed learning processes makes the environment nonstationary for each individual learner. Developing an efficient learning approach to coordinate agents’ behavior in this dynamic environment is a difficult problem especially when agents do not know the domain structure and at the same time have only local observability of the environment. In this paper, a coordinated learning approach is proposed to enable agents to learn where and how to coordinate their behavior in loosely coupled multiagent systems where the sparse interactions of agents constrain coordination to some specific parts of the environment. In the proposed approach, an agent first collects statistical information to detect those states where coordination is most necessary by considering not only the potential contributions from all the domain states but also the direct causes of the miscoordination in a conflicting state. The agent then learns to coordinate its behavior with others through its local observability of the environment according to different scenarios of state transitions. To handle the uncertainties caused by agents’ local observability, an optimistic estimation mechanism is introduced to guide the learning process of the agents. Empirical studies show that the proposed approach can achieve a better performance by improving the average agent reward compared with an uncoordinated learning approach and by reducing the computational complexity significantly compared with a centralized learning approach. Copyright © 2012 John Wiley & Sons, Ltd. 相似文献
16.
知识推理作为知识图谱补全中的一项重要任务,受到了学术界的广泛关注。为了提高模型的推理效果和可解释性,将强化学习与知识推理的结合是一种可行的解决方法。基于强化学习的知识推理方法将知识图谱研究的问题建模成路径或序列决策问题,能够更好地利用实体、关系等语义信息来提高推理效果和可解释性。首先,对知识图谱和知识推理的基本概念进行了叙述,阐述了近年来的研究进展。随后,从单层强化学习知识推理和双层强化学习知识推理两个角度,对基于强化学习的知识推理相关研究进行了分析与对比。最后,对知识推理如何应用于知识问答、智能推荐、医疗和交通等领域进行了探讨,并对基于强化学习的知识推理的未来研究方向进行了展望。 相似文献
17.
结合强化学习技术讨论了单移动Agent学习的过程,然后扩展到多移动Agent学习领域,提出一个多移动Agent学习算法MMAL(MultiMobileAgentLearning)。算法充分考虑了移动Agent学习的特点,使得移动Agent能够在不确定和有冲突目标的上下文中进行决策,解决在学习过程中Agent对移动时机的选择,并且能够大大降低计算代价。目的是使Agent能在随机动态的环境中进行自主、协作的学习。最后,通过仿真试验表明这种学习算法是一种高效、快速的学习方法。 相似文献
18.
19.
强化学习是提高机器人完成任务效率的有效方法,目前比较流行的学习方法一般采用累积折扣回报方法,但平均值回报在某些方面更适于多机器人协作。累积折扣回报方法在机器人动作层次上可以提高性能,但在多机器人任务层次上却不会得到很好的协作效果,而采用平均回报值的方法,就可以改变这种状态。本文把基于平均值回报的蒙特卡罗学习应用于多机器人合作中,得到很好的学习效果,实际机器人实验结果表明,采用平均值回报的方法优于累积折扣回报方法。 相似文献