首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   3篇
  免费   0篇
武器工业   3篇
  2022年   1篇
  2021年   2篇
排序方式: 共有3条查询结果,搜索用时 15 毫秒
1
1.
针对高超声速飞行器协同饱和打击需求,提出一种基于深度Q-学习网络(DQN)算法的深度强化学习横程机动再入协同制导方法。解耦设计高超声速飞行器横纵制导方法,基于高精度的纵程解析解,解析计算纵向升阻比得到倾侧角模值。抽象横向制导倾侧反转逻辑为马尔可夫决策问题,引入强化学习思想,设计一种基于DQN算法的横向智能机动决策器,构建智能体离线学习-在 线调用模式,计算倾侧角剖面的符号变化。以典型高超声速飞行器CAV-H为对象,基于数学分析MATLAB平台通过弹道仿真对该制导方法进行验证。仿真结果表明:新制导方法制导精度高,任务适应性强,可以在线使用,能够严格满足飞行时间约束和能量管理需求;相比于基于三维解析解的再入协同制导方法,新制导方法可以更大程度发挥飞行器的横向机动能力,具备更高的突防潜力。  相似文献   
2.
马也  范文慧  常天庆 《兵工学报》2022,43(6):1415-1425
兵力部署与任务分配是无人集群防御作战的重要过程,有效利用集群中有限的兵力并发挥出最高的作战效能对提高无人集群的作战胜率至关重要,进行高效的作战任务分配能够协调集群一致性并更好完成作战任务。针对无人集群防御作战中的关键作战方案,研究无人集群防御作战的兵力部署及协同任务分配优化问题。构建基于智能体技术的无人集群防御作战模型,量化无人集群兵力部署所需的关键参数,对作战区域与兵力进行规划,设计目标函数。提出一种自适应遗传算法,解决无人集群的兵力部署问题。算法可根据实时运行情况动态调整目标函数、交叉率和变异率,保证适应度值较高个体的传承并避免算法出现局部最优。进行防御作战仿真,为验证无人集群兵力部署的效果,提出一种基于深度Q网络的深度强化学习改进算法,解决无人集群任务分配问题,对部署好的无人集群进行任务分配并作战。该算法能够自适应调整Q值,避免算法因过度估计造成无法收敛至最优解。防御作战实验结果表明,所提出的无人集群兵力部署及协同任务分配方法可有效提高防御作战的成功率,实现无人集群的自主协同及智能对抗。  相似文献   
3.
巡飞弹突防控制决策(LMPCD)问题是“多域战”作战概念背景下的重要研究方向。针对该问题,建立基于马尔可夫决策过程的LMPCD模型。拟合LMPCD函数与飞行状态-动作值函数,构建基于演员-评论家方法的LMPCD框架,给出基于深度确定性策略梯度算法的深度强化学习模型求解方法,生成巡飞弹突防控制最优决策网络。通过1 000次巡飞弹突防仿真测试,结果表明,巡飞弹执行任务成功率为82.1%,平均决策时间为1.48 ms,验证了LMPCD模型及其求解过程的有效性。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号