首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 0 毫秒
1.
这些年来。笑傲职场。IT行业的精英前辈们。他们认为最有用的N本书/N个网站/N门课程/N句话……都是什么呢?《计算机应用文摘》为你遍寻IT职场N种武器。功力.要好好修炼。高手。一定是我们。  相似文献   

2.
Hello,大家好!我是一名刚进入职场几个月的小白选手,可能是我RP爆发,本来英语水平普普的我居然进了一家外企(散花)!不过,刚开始,我几乎是从头开始练习、运用我那可怜巴巴的英语,到现在,勉强还算可以吧,终于可以胜任了,哈哈!最近,也在网上和一些朋友讨论工作后怎么能捡起英语,希望我的经验能对大家有效哦!  相似文献   

3.
廖嘉亮 《程序员》2007,(2):16-19
婚姻有七年之痒,相爱的两个人从相识、相恋,彼此承诺相伴永远到共同步入婚姻殿堂,却总是在相伴生活了七、八个年头的时候,男人或女人,蓦然产生一种心痒难耐,想要突破这种左手握右手的平淡生活,想要再次追求那种仿若一道闪电划开夜空照亮世界的惊心动魄的感觉。而说不上是有心还是无意,这时候总是会有一个如玛丽莲·梦露一般的白裙尤物闯进你的视线,让你觉得现在的生活简直狗屎般不如,马上就想擦擦鞋,追上去,抓住那也许是人生最后的焰火。  相似文献   

4.
随着国家大力发展新能源汽车的政策,电动汽车和充电基础设施规模不断扩大,如何科学地规划充电网点成为亟待解决的问题.本文根据分期规划的原则,采用基于注意力机制的长短期记忆网络进行充电需求预测,使用量子粒子群优化算法进行近期充电网点选址定容,然后根据Voronoi图来划分远期充电站服务区域,从而建立了充电网点精准规划模型.通...  相似文献   

5.
针对鲸鱼优化算法(WOA)存在的收敛速度慢、收敛精度低和易陷入局部最优等问题,提出了采用非线性收敛因子、协同a的惯性权重、时变独立搜索概率和免疫记忆改进的鲸鱼优化算法(IWTWOA);应用非线性收敛因子、协同a的惯性权重和时变独立搜索概率改进WOA迭代模型,平衡了算法的全局搜索和局部搜索能力,有效避免了陷入局部最优的问题;引入免疫算法的免疫记忆机制,提高了算法收敛速度;选取了15个基准测试函数进行性能测试,结果表明IWTWOA算法在稳定性、计算精度和收敛速度上均有所提高;最终将其应用在路径规划问题中,获得了较好的结果.  相似文献   

6.
针对基于规则的运动规划算法需要预先定义规则和基于深度学习的方法没有利用时间特征的问题,提出一种基于深度级联神经网络的运动规划模型。该模型将卷积神经网络(CNN)和长短期记忆网络(LSTM)这两种经典的深度学习模型进行融合并构成一种新的级联神经网络,分别提取输入图像的空间和时间特征,并用以拟合输入序列图像与输出运动参数之间的非线性关系,从而完成从输入序列图像到运动参数的端到端的规划。实验利用模拟驾驶环境的数据进行训练和测试,结果显示所提模型在乡村路、高速路、隧道和山路四种道路中均方根误差(RMSE)不超过0.017,且预测结果的稳定度优于未使用级联网络的算法一个数量级。结果表明,所提模型能有效地学习人类的驾驶行为,并且能够克服累积误差的影响,适应多种不同场景下的路况,具有较好的鲁棒性。  相似文献   

7.
一个激励学习Agent通过学习一个从状态到动作映射的最优策略来解决策问题。激励学习方法是Agent利用试验与环境交互以改进自身的行为。Markov决策过程(MDP)模型是解决激励学习问题的通用方法,而动态规划方法是Agent在具有Markov环境下与策略相关的值函数学习算法。但由于Agent在学习的过程中,需要记忆全部的值函数,这个记忆容量随着状态空间的增加会变得非常巨大。文章提出了一种基于动态规划方法的激励学习遗忘算法,这个算法是通过将记忆心理学中有关遗忘的基本原理引入到值函数的激励学习中,导出了一类用动态规划方法解决激励学习问题的比较好的方法,即Forget-DP算法。  相似文献   

8.
利用强化学习训练机器人局部路径规划模型存在算法收敛速度慢、易陷入死锁区域导致目标不可达等问题。对传统近端策略优化(PPO)算法进行改进,引入长短期记忆(LSTM)神经网络并设计虚拟目标点法,提出LSTM-PPO算法。将PPO神经网络结构中的全连接层替换为LSTM记忆单元,控制样本信息的记忆和遗忘程度,优先学习奖励值高的样本,从而更快地累积奖励优化模型。在此基础上,加入虚拟目标点,通过雷达传感器收集的环境信息判断机器人陷入死锁区域时弃用目标点给予机器人的引导,使机器人走出陷阱区域并趋向目标点,减少在死锁区域不必要的训练。分别在特殊障碍物场景和混合障碍物场景中对LSTM-PPO算法进行仿真验证,结果表明,与传统PPO算法和改进算法SDAS-PPO相比,该算法在两种场景训练中均能最快到达奖励峰值,可加快模型收敛速度,减少冗余路段,优化路径平滑度并缩短路径长度。  相似文献   

9.
针对快速扩展随机树(rapid-exploration random trees,RRT)算法难以有效解决多场景环境下的机械臂快速运动规划问题,提出一种融合长短时记忆机制的快速运动规划算法.首先,采用高斯混合模型(Gaussian mixture models,GMM)在规划的初始阶段通过随机采样构建环境的场景模型,并利用该模型进行碰撞检测,以提高运动规划效率;然后,根据人类的记忆机制原理,对多场景的不同GMM按照即时记忆、短期记忆和长期记忆进行存储,并通过场景匹配算法实现不同场景GMM的快速自适应提取,提高对变化环境的适应能力;最后,通过在Matlab以及ROS仿真环境下6自由度柔性机械臂的运动规划仿真实验对所提出的算法进行验证.实验结果表明,所提出算法可以快速提取场景的记忆信息,有效提高多场景环境下的运动规划效率,具有较强的适应性.  相似文献   

10.
为提高移动机器人在多目标点环境中路径规划的效率与准确性,针对标准鲸鱼优化算法存在的搜索精度不足和收敛速度较慢的问题,本文提出一种改进鲸鱼优化算法。首先,引入自适应搜索控制系数,以提高算法平衡全局搜索和局部搜索的能力。其次,提出一种记忆库列表策略,通过增加记忆库列表存储最优解并进行维护更新,提高算法所得解的质量并降低陷入局部最优的概率。然后通过使用A*算法计算出目标点之间的距离矩阵,并将其输入到改进的鲸鱼优化算法得出最优遍历顺序。最后,在简单和复杂的栅格地图中分别对不同算法进行仿真对比实验。研究结果表明,随着场景复杂度的增加,本文算法相较于标准鲸鱼优化算法在三个场景中所得出的最小路径长度分别减少6.58%、22.71%和25.63%。因此,改进算法在解决多目标点路径规划问题中具有较高的效率和准确性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号