Q(λ)学习相关论文
研究基于行为的移动机器人控制方法.将模糊神经网络与强化学习理论相结合,构成模糊强化系统.它既可获取模糊规则的结论部分和模糊......
针对强化学习(RL)中状态空间过大所引起的学习时间过长或算法难于收敛等问题,提出了一种基于矢量量化(VQ)技术的表格型强化学习方法——......
通过分析经典的Q(λ)学习算法所存在的经验利用率低、收敛速度慢的问题,根据当前和多步的经验知识样本建立了状态-动作对值函数的最小......
单步Q学习在火电占优、机组时延较大的自动发电控制(AGC)功率指令动态优化分配中的应用表现出收敛速度慢等不足而影响最优策略的获取......
提出了一种自适应状态集结因子化SARSA(λ)强化学习算法,在学习的过程中利用Bellman余留数进行状态集结,通过集结,大大减少了状态......
强化学习是机器学习中一个重要的研究领域。它强调在与环境的交互中学习,通过环境对不同行为的评价性反馈信号来改变强化学习系统的......
为弥补传统最优潮流计算中缺少对电力网络的碳排放优化控制,文中利用基于潮流计算结果的碳流模型,提出了一种基于半马尔可夫决策过......
长距离、大功率联络线的出现,使到发电机群间形成了弱的耦合关系。同时,为了改善发电机机端电压的稳定性以及系统稳定性而采用的高......
研究了基于强化学习(RL)的模糊逻辑控制器(FLC)设计方法,并将该控制器作为反应式自主移动机器人的控制系统。在缺乏专家知识的情况下,将......
针对传统最优潮流算法对复杂多目标函数的不适应性以及常规算法难以满足大规模电网计算实时性的要求,本文中提出一种新颖的基于复......
电气化铁路绝缘子智能冲洗的关键在于绝缘子跟踪、定位,通过对现有冲洗研究的分析,提出一种基于最小二乘支持向量机(LS-SVM)和Q(λ......