摘要:Q-learning是一种经典的增强学习算法,简单易用且不需要环境模型;广泛应用于移动机器人路径规划。但在状态空间和动作空间较大时,经典的Q-learning算法存在学习效率低、收敛速度慢,容易陷入局部最优解等问题。通过引入神经网络模型,利用地图信息计算状态势值,从而优化了设计奖励函数。合理奖励函数为Q(λ)-learning算法提供了先验知识,避免训练中的盲目搜索,同时奖励函数激励避免了陷入局部最优解。仿真试验表明,改进的路径规划方法在收敛速度方面有很大的提升,训练得到的路径为全局最优。
注:因版权方要求,不能公开全文,如需全文,请咨询杂志社。
自动化与仪表杂志, 月刊,本刊重视学术导向,坚持科学性、学术性、先进性、创新性,刊载内容涉及的栏目:专题研究与综述、控制系统与智能制造、人工智能与机器人、检测技术与数据处理、仪表与自动化装置、系统建模、仿真与分析、创新与实践等。于1981年经新闻总署批准的正规刊物。