排序方式: 共有15条查询结果,搜索用时 15 毫秒
11.
针对间隔织物立体织机现有开口机构不能完全满足大间距间隔织物组织结构变换频繁、开口动程大、提综力大的要求,设计了一套伺服电机开口机构;建立了电子开口机构驱动臂转角与综框位移的数学模型,在Matlab中对摆动臂的压力角进行对比仿真,选出最优摆动臂角度;在Adams中建立三维模型并进行仿真分析,得出综框运动曲线;利用ANSYS Workbench软件对关键部件摆动臂的刚度及强度进行有限元分析,运用响应面法对其进行多参数优化,建立电子开口机构刚柔耦合动力学模型并进行仿真。结果表明:优化后摆动臂变形减少30.3%,质量增加了3.85%,开口过程中摆动臂受到载荷发生变形,综框实际位移为78.05 mm。该机构满足大间距间隔织物组织结构变换频繁、开口动程大、提综力大的要求。 相似文献
12.
AdaBoost 是一种重要的集成学习元算法,算法最核心的特性“Boosting”也是解决代价敏感学习问题的有效方法.然而,各种代价敏感Boosting 算法,如AdaCost、AdaC 系列算法、CSB 系列算法等采用启发式策略,向AdaBoost 算法的加权投票因子计算公式或权值调整策略中加入代价参数,迫使算法聚焦于高代价样本.然而,这些启发式策略没有经过理论分析的验证,对原算法的调整破坏了AdaBoost 算法最重要的Boosting 特性。AdaBoost算法收敛于贝叶斯决策,与之相比,这些代价敏感Boosting 并不能收敛到代价敏感的贝叶斯决策.针对这一问题,研究严格遵循Boosting 理论框架的代价敏感Boosting 算法.首先,对分类间隔的指数损失函数以及Logit 损失函数进行代价敏感改造,可以证明新的损失函数具有代价意义下的Fisher 一致性,在理想情况下,优化这些损失函数最终收敛到代价敏感贝叶斯决策;其次,在Boosting 框架下使用函数空间梯度下降方法优化新的损失函数得到算法AsyB以及AsyBL.二维高斯人工数据上的实验结果表明,与现有代价敏感Boosting 算法相比,AsyB 和AsyBL 算法能够有效逼近代价敏感贝叶斯决策;UCI 数据集上的测试结果也进一步验证了AsyB 以及AsyBL 算法能够生成有更低错分类代价的代价敏感分类器,并且错分类代价随迭代呈指数下降. 相似文献
13.
针对传统集成学习方法直接应用于单类分类器效果不理想的问题,该文首先证明了集成学习方法能够提升单类分类器的性能,同时证明了若基分类器集不经选择会导致集成后性能下降;接着指出了经典集成方法直接应用于单类分类器集成时存在基分类器多样性严重不足的问题,并提出了一种能够提高多样性的基单类分类器混合生成策略;最后从集成损失构成的角度拆分集成单类分类器的损失函数,针对性地构造了集成单类分类器修剪策略并提出一种基于混合多样性生成和修剪的单类分类器集成算法,简称为PHD-EOC。在UCI标准数据集和恶意程序行为检测数据集上的实验结果表明,PHD-EOC算法兼顾多样性与单类分类性能,在各种单类分类器评价指标上均较经典集成学习方法有更好的表现,并降低了决策阶段的时间复杂度。 相似文献
14.
15.