首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   5篇
  免费   0篇
综合类   1篇
建筑科学   1篇
武器工业   1篇
自动化技术   2篇
  2018年   1篇
  2016年   1篇
  2015年   1篇
  2013年   1篇
  2008年   1篇
排序方式: 共有5条查询结果,搜索用时 461 毫秒
1
1.
研究了红蓝攻防对抗中的射击策略优化问题,即研究红方面对多个蓝方目标,如何射击能获得最大收益的问题。基于以往研究的局限性,为平衡红方射击收益和自身存活概率,引入和拓展Gittins指数应用于射击决策问题,考虑了蓝方目标退出战斗的可能性,以红方在自身被摧毁之前最大化杀伤蓝方目标的收益(或数量)为目标,对指数射击策略的最优性进行了讨论,拓展了定理1、定理2,给出推论1. 为进行比较,引入近视策略、完全策略和循环策略3种截然不同的射击策略,并给出近视策略最优性定理3. 实例设置了两个射击场景,在4种射击策略下计算红方的收益情况、杀伤目标情况和自身被摧毁情况,验证了指数射击策略的最优性。  相似文献   
2.
李龙跃 《数字社区&智能家居》2013,(27):6089-6090,6098
使用WiFi上网是当今大学生广泛使用的上网方式,而国内众多高校校园网采用的锐捷认证方式限制了路由器的使用。该文提供了一种改造无线路由器,使其突破校园网络限制,实现锐捷认证并共享无线网络的途径,为大学生上网提供方便。  相似文献   
3.
一种新的深度卷积神经网络的SLU函数   总被引:1,自引:0,他引:1  
修正线性单元(rectified linear unit,ReLU)是深度卷积神经网络常用的激活函数,但当输入为负数时,ReLU的输出为零,造成了零梯度问题;且当输入为正数时,ReLU的输出保持输入不变,使得ReLU函数的平均值恒大于零,引起了偏移现象,从而限制了深度卷积神经网络的学习速率和学习效果.针对ReLU函数的零梯度问题和偏移现象,根据"输出均值接近零的激活函数能够提升神经网络学习性能"原理对其进行改进,提出SLU(softplus linear unit)函数.首先,对负数输入部分进行softplus处理,使得负数输入时SLU函数的输出为负,从而输出平均值更接近于零,减缓了偏移现象;其次,为保证梯度平稳,对SLU的参数进行约束,并固定正数部分的参数;最后,根据SLU对正数部分的处理调整负数部分的参数,确保激活函数在零点处连续可导,信息得以双向传播.设计深度自编码模型在数据集MINST上进行无监督学习,设计网中网卷积神经网络模型在数据集CIFAR-10上进行监督学习.实验结果表明,与ReLU及其相关改进单元相比,基于SLU函数的神经网络模型具有更好的特征学习能力和更高的学习精度.  相似文献   
4.
软土地基土质呈流塑状,压缩性高、灵敏度强。软土地基的基坑支护工程一旦有失误,将会造成重大安全事故的发生,造成经济损失及工期延误。本文对基坑支护施工措施的成功经验进行介绍,旨在不断总结学习经验,推动软土地基基坑支护技术发展完善。  相似文献   
5.
针对现有协同模糊C均值算法(CFC)的协同系数不能充分描述数据子集间协同关系的问题,提出K-近邻估计协同系数的协同模糊C均值算法[(βK-CFC)]。用模糊C均值算法(FCM)求出各数据子集的隶属度和聚类中心;其次设定近邻数,求出子集在各聚类中心处的密度,形成密度矩阵;根据密度矩阵的相关性设定变化的协同系数;最后用变化的协同系数进行协同聚类。实验证明K-近邻估计协同系数的协同模糊C均值算法[(βK-CFC)]能够充分描述数据子集间的协同关系,聚类性能较好。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号