首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 187 毫秒
1.
基于NDO的ROV变深自适应终端滑模控制器设计   总被引:1,自引:0,他引:1  

针对ROV的深度控制问题, 提出基于非线性干扰观测器的自适应终端滑模控制方法. 详细叙述了控制器的设计过程, 并利用Lyapunov 稳定性判据, 验证了存在模型参数不确定性和外干扰时, 系统的全局渐近稳定性和跟踪误差的收敛性. 仿真实验表明, 所提出的控制器不仅能够很好地估计并克服外干扰和模型不确定性等因素, 具有很好的鲁棒性能, 而且还可以实现在任意规定时刻变深运动的快速收敛.

  相似文献   

2.
马玮骏  冯径  沈晔  徐四林 《计算机工程》2012,38(10):257-259
为建立分布式存储系统中高效可靠的故障检测机制,提出一种基于混合状态的捎带故障检测自适应算法——MSP-AFD。建立面向分布式存储系统的故障检测框架,基于负载预测的方式计算检测时延,自适应调整超时参数。实验结果表明,MSP-AFD算法的故障检测性能较优。  相似文献   

3.
研究基于自适应事件触发机制和量化的时滞系统分布式滤波问题,设计自适应事件触发机制,此触发机制不仅取决于滤波器自身最新释放数据和当前估计值,还取决于自身和邻居节点最新释放数据的误差。相较于固定参数事件触发,自适应事件触发参数根据滤波性能动态变化。考虑传感器精度和网络传输带宽优先,在数据传输前进行量化处理。构造Lyapunov函数并给出滤波误差系统均方指数稳定且满足l2-l性能指标的充分条件,设计带有数据量化的离散时滞系统分布式l2-l滤波器,并通过线性矩阵不等式方法求解滤波器参数。仿真实例说明设计的滤波器能够降低数据量化带来的影响,且自适应事件触发机制相较于固定参数事件触发,在保证滤波性能前提下能够降低数据传输频率,节约网络通信资源。  相似文献   

4.
氨基酸含量是影响蛋白质耐热性的主要因素,为了提高以氨基酸含量为特征向量的蛋白质耐热性预测的精度和预测模型的性能,提出了一种基于机器学习蚁群算法(ACO)优化支持向量机(SVM)参数的蛋白质耐热性预测方法。建立了SVM参数优化模型,探讨了基于网格划分策略的连续蚁群算法,通过对SVM的惩罚因子和径向基核函数的全局搜索,筛选出最优参数,使SVM的蛋白质耐热性预测率最优。结果表明:采用未优化的SVM建立的预测模型的蛋白质耐热性总预测率相对较低,约为76.5%,采用遗传算法优化预测模型参数后的预测率约为86.6%,采用ACO优化预测模型参数后预测率达到87.8%。采用ACO优化的SVM模型参数的寻优速度快,预测结果准确。  相似文献   

5.
提出一种GPU集群下用户服务质量QoS感知的深度学习研发平台上的动态任务调度方法.采用离线评估模块对深度学习任务进行离线评测并构建计算性能预测模型.在线调度模块基于性能预测模型,结合任务的预期QoS,共同开展任务放置和任务执行顺序的调度.在一个分布式GPU集群实例上的实验表明,该方法相比其他基准策略能够实现更高的QoS保证率和集群资源利用率.  相似文献   

6.
乔伟豪  朱凤增  彭力 《控制与决策》2022,37(4):1074-1080
研究一类基于自适应事件触发机制的时滞系统分布式滤波问题.自适应事件触发条件由滤波器自身最新释放数据、当前时刻估计值及邻居节点最新释放数据共同决定.此事件触发机制采用阈值自适应调节方案,阈值参数在保证滤波器性能的前提下根据滤波误差动态变化,最大程度上节约网络通信资源.首先,给出滤波误差系统均方指数稳定的充分条件;其次,构造一个Lyapunov函数来分析滤波误差系统满足l2-l∞的性能指标;再次,设计离散时滞系统分布式l2-l滤波器,并通过线性矩阵不等式方法求解滤波器参数;最后,通过仿真实例说明滤波器能够降低系统时滞带来的影响,且在保证滤波性能前提下减少通信次数,节约网络资源.  相似文献   

7.
为了对地区电网220 kV线损率进行有效的评估,提出了一种基于自适应量子粒子群算法(AQPSO)优化的最小二乘支持向量机(LSSVM)的线损率预测模型。AQPSO在QPSO的基础上引入了遗传算法中的交叉与变异机制以扩大种群多样性,避免算法陷入局部最优。利用AQPSO搜索最佳的LSSVM参数并获取线损率预测结果,通过训练集对预测模型进行训练,然后使用测试集进行实验。最后选择地区电网23条220 kV线路的真实数据进行分析和预测,实验结果表明,文章所提出的AQPSO-LSSVM模型能够更有效地对线损率进行准确预测。  相似文献   

8.
为了提高网络流量预测精度,提出一种基于相空间重构双参数联合估计的网络流量预测模型.首先采用极限学习机作为网络流量预测算法,然后预测结果优劣指选择相空间重构参数,最后建立单步、多步的网络流量预测模型,并通过仿真实验对其性能进行分析.结果表明,论文模型可以准确获得最优相空间重构参数,显著提高网络流量的预测精度,预测结果明显优于对比模型.  相似文献   

9.
杨亮  陈勇  刘治 《控制与决策》2019,34(11):2485-2490
针对机械臂系统惯性参数及运动学参数不能准确测量进而影响轨迹跟踪性能的问题,提出一种任务空间自适应轨迹跟踪控制方法,通过定义关节角速度参考误差,并将任务空间的轨迹跟踪误差及运动学参数误差反馈给控制器,以改善系统稳定性,设计电机参数传输矩阵及电机参数自适应率,以抵消电机发热引起参数漂移对跟踪性能影响,并给出了稳定性证明.实验结果表明,该方法能够较好地克服电机参数漂移对跟踪控制性能的影响.  相似文献   

10.
基于LSSVM的混沌时间序列的多步预测   总被引:17,自引:1,他引:17       下载免费PDF全文
江田汉  束炯 《控制与决策》2006,21(1):77-0080
结合相空间重构理论和统计学习理论,实现混沌时间序列的多步预测.采用擞熵率法求得最优嵌入维数和时延参数,重构系统相空间,用最小二乘支持向量机建立渑沌时间序列的多步预测模型,并与径向基函数网络预测模型比较.结果表明,所建立的模型能够捕捉到原混沌系统的动力学特征.前者的归一化均方根预测误差远小于径向基函数网络预测模型的预测误差,泛化能力较强.其预测效果较好.  相似文献   

11.
为提升服务质量,数据中心需要确保在规定的截止时间前完成用户作业,因此必须根据实时的系统资源对作业进行有效的调度。提出了一种作业调度算法,根据预测的作业执行时间进行批作业调度,以最小化批作业的完成时间。作业执行时间预测模型基于长短期记忆LSTM网络,根据用户作业类型、作业量、作业需要的CPU核数和内存数量,以及作业需要的资源在系统总资源中的占比,对用户作业的执行时间进行预测。预测结果用于判断集群是否有能力按时完成用户作业,同时为合理安排各作业的执行顺序提供依据。通过实验确定了影响LSTM时间预测模型性能的各超参数取值,如迭代次数、学习率和网络层数等。实验表明,与SVR模型、ARIMA模型和BP模型相比,基于LSTM的作业执行时间预测模型的决定系数R2分别有2.97%,2.34%和5.66%的提升效果,且预测的平均误差仅为0.78%。  相似文献   

12.
传统基于用户预估的执行时间通常准确性较差。结合分类和基于实例的学习方法,综合使用模板相似和数值相似方法,在历史调度数据中获取当前作业的相似作业,并使用其历史信息预测当前作业执行时间。使用调度历史中的用户名、分组名、队列名、应用名、用户请求处理器数、用户请求(预估)执行时间和用户请求内存量等属性进行训练和预测,算法中涉及的参数使用遗传算法确定。数值实验表明,相较于已有文献,本方法在使用更少参数的前提下得到了与文献结果中相近的低估率,并获得了更低的平均绝对误差。在HPC2N04和HPC2N05日志数据集上,平均绝对误差分别降低了43%和77%。研究了使用在线预测替换用户估计对作业调度的影响,对结果进行了初步分析并指出了今后的改进方向。  相似文献   

13.
单人负责多台机器的单一工序作业车间场景中,工人由于重复操作机器而产生学习效应.针对考虑依赖工件位置学习效应的单人单工序作业车间最小化最大完工时间的调度问题,建立一种混合整数规划模型.为解决该问题,设计一个考虑学习效应的贪婪算子,利用该算子构造两种贪婪算法,并提出一种基于贪婪的模拟退火算法.为衡量混合整数规划模型、贪婪算法和基于贪婪的模拟退火算法的性能,设计两种规模问题的数据实验.通过实验得出:现代混合整数规划模型求解器可以解决机器数量和工件总数量乘积小于75的小规模问题;基于贪婪的模拟退火算法求解此问题具有有效性,适用于各种规模的问题;间隔插入贪婪算法解决此问题速度较快,效果良好,可以应用于需要快速求解的场景.  相似文献   

14.
为提升Hadoop集群在异构环境下处理硬实时作业的性能,提出一种基于历史进度自动调整作业优先级的调度算法(HAPS)。该算法实时监控作业进度信息,对作业进度率进行指数平滑预测,计算作业剩余执行时间,动态估算作业空闲时间。并据此实时更新作业队列中作业的优先级顺序,优先调度空闲时间小的作业。实验结果表明,HAPS有效地提高了异构环境下硬实时作业的执行成功率。  相似文献   

15.
新兴分布式计算框架ApacheFlink支持在集群上执行大规模的迭代程序,但其默认的静态资源分配机制导致无法进行合理的资源配置来使迭代作业按时完成.针对这一问题,应该依靠用户来主动表达性能约束而不是被动地进行资源保留,故提出了一种基于运行时间预测的动态资源分配策略RABORP (resource allocation based on runtimeprediction),来为具有明确运行时限的Flink迭代作业制定动态资源分配计划并实施.其主要思想是:通过预测各个迭代超步的运行时间,然后根据预测结果在迭代作业提交时和超步间的同步屏障处分别进行资源的初始分配和动态调整,以保证可使用最小资源集,使迭代作业在用户规定的运行时限内完成.通过在不同数据集下执行多种典型的Flink迭代作业进行了相关对比实验,实验结果表明,所建立的运行时间预测模型能够对各个超步的运行时间进行准确预测,而且在单作业和多作业场景下,采用所提出的动态资源分配策略相比于目前最先进算法在各项性能指标上都有所提升.  相似文献   

16.
为了打破传统电机检测技术分析效率低、同步性差的局限,提出基于多参数评价的高速永磁电机动态性能评估模型。采用了热卡填充填补缺失值完成预处理,设计灰色关联度模型(GRA)得到各类属性列之间关联度,利用了贪心并查集思想得到降维后的4列电机属性参数,建立了一个4-5-1的三层神经网络结构。通过改变贪心算法得到的期望属性组数到5组并增加神经网络的参数设置,实现了电机测试数据分析模型的优化改进。在允许相对误差0.05的范围内,永磁同步电机(TB-416G-30-5型)运行效率预测准确度从90%提高到94%,试验表明:优化的灰色BP神经网络模型能有效适用于预测电机运行效率,在电机制造的智慧生产及机器学习在电机评估方面的应用有重要意义。  相似文献   

17.
We present a single-machine problem with the unequal release times under learning effect and deteriorating jobs when the objective is minimizing the makespan. In this study, we introduced a scheduling model with unequal release times in which both job deterioration and learning exist simultaneously. By the effects of learning and deterioration, we mean that the processing time of a job is defined by increasing function of its execution start time and position in the sequence. A branch-and-bound algorithm incorporating with several dominance properties and lower bounds is developed to derive the optimal solution. A heuristic algorithm is proposed to obtain a near-optimal solution. The computational experiments show that the branch-and-bound algorithm can solve instances up to 30 jobs, and the average error percentage of the proposed heuristic is less than 0.16%.  相似文献   

18.
This paper considers a parallel machine earliness/tardiness (ET) scheduling problem with different penalties under the effects of position based learning and linear and nonlinear deterioration. The problem has common due-date for all jobs, and effects of learning and deterioration are considered simultaneously. By the effects of learning we mean that the job processing time decreases along the sequence of partly similar jobs, and by the effects of deterioration we mean slowing performance or time increases along the sequence of jobs. This study shows that optimal solution for ET scheduling problem under effects of learning and deterioration is V-shape schedule under certain agreeable conditions. Furthermore, we design a mathematical model for the problem under study and algorithm and lower bound procedure to solve larger test problems. The algorithm can solve problems of 1000 jobs and four machines within 3 s on average. The performance of the algorithm is evaluated using results of the mathematical model.  相似文献   

19.

MapReduce framework is an effective method for big data parallel processing. Enhancing the performance of MapReduce clusters, along with reducing their job execution time, is a fundamental challenge to this approach. In fact, one is faced with two challenges here: how to maximize the execution overlap between jobs and how to create an optimum job scheduling. Accordingly, one of the most critical challenges to achieving these goals is developing a precise model to estimate the job execution time due to the large number and high volume of the submitted jobs, limited consumable resources, and the need for proper Hadoop configuration. This paper presents a model based on MapReduce phases for predicting the execution time of jobs in a heterogeneous cluster. Moreover, a novel heuristic method is designed, which significantly reduces the makespan of the jobs. In this method, first by providing the job profiling tool, we obtain the execution details of the MapReduce phases through log analysis. Then, using machine learning methods and statistical analysis, we propose a relevant model to predict runtime. Finally, another tool called job submission and monitoring tool is used for calculating makespan. Different experiments were conducted on the benchmarks under identical conditions for all jobs. The results show that the average makespan speedup for the proposed method was higher than an unoptimized case.

  相似文献   

20.
In recent years, the demand for real-time data processing has been increasing, and various stream processing systems have emerged. When the amount of data input to the stream processing system fluctuates, the computing resources required by the stream processing job will also change. The resources used by stream processing jobs need to be adjusted according to load changes, avoiding the waste of computing resources. At present, existing works adjust stream processing jobs based on the assumption that there is a linear relationship between the operator parallelism and operator resource consumption (e.g., throughput), which makes a significant deviation when the operator parallelism increases. This paper proposes a nonlinear model to represent operator performance. We divide the operator performance into three stages, the Non-competition stage, the Non-full competition stage, and the Full competition stage. Using our proposed performance model, given the parallelism of the operator, we can accurately predict the CPU utilization and operator throughput. Evaluated with actual experiments, the prediction error of our model is below 5%. We also propose a quick accurate auto-scaling (QAAS) method that uses the operator performance model to implement the auto-scaling of the operator parallelism of the Flink job. Compared to previous work, QAAS is able to maintain stable job performance under load changes, minimizing the number of job adjustments and reducing data backlogs by 50%.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号