论文部分内容阅读
微电网技术的发展与创新已经被列为我国建设坚强型的智能电网主要内容,成为智能电网建设的基本要素之一。现代电力系统中存在着诸多不稳定因素,实际运行工况时刻都在发生变化,且由于电力系统具有复杂非线性的特点,传统方法往往是采用系统辨识或工程经验的途径,其应用效果往往受到实际环境的限制。显然这并不能满足建设坚强型智能电网的要求。为解决这一问题,国内外众多学者一直在寻求一种新型自学习优化算法。因此,本文引入了强化学习算法RL (Reinforcement Learning),该方法属于马尔可夫决策过程MDP (Markov Decision Process)的一个独立分支,其主要特点是只需对当前控制效果的评价信息做出反应,具有更高的控制实时性和鲁棒性。首先,本文阐述了微电网的研究背景、意义及研究现状。基于MATLAB/SIMULINK仿真平台搭建含有风力发电、光伏发电、小水电、燃气轮机、储能、电动汽车、负荷的微电网负荷频率模型。指出在微电网模型下的低碳清洁电源可看作”多智能体系统”,从而将强化学习理论中基于随机最优控制技术的Q-学习方法和基于多步回溯的Q(λ)学习方法引入到微电网的研究领域中。其次,本文将区域互联电网中的自动发电控制(Automatic Generation Control, AGC)原理引入微电网,并将AGC分为上层AGC控制器和下层AGC控制器。上层AGC控制器是一个调度端控制器,它通过对系统频率的采样自动发出功率指令。下层AGC为基于强化学习算法的智能优化分配因子控制器。通过对下层AGC控制器采用不同的算法进行仿真。结果表明,相对于可调容量比例分配的PROP方法、基于折扣报酬模型的Q学习算法,Q(λ)学习控制器具有更快速的收敛特性和良好的动态性能,能有效实现分配策略的在线自学习和动态优化决策,能增强电力系统的鲁棒性和适应性。最后,本文将节能发电调度的实时控制引入微电网模型。本文提出通过AGC系统总功率指令的动态优化分配实现节能发电调度。在经典Q学习的基础上引入了多步回溯Q(λ)算法,研究在保证微电网的频率和电压稳定的基础上尽可能利用低碳清洁能源的最优控制策略。经仿真表明,基于强化学习算法的节能优化分配控制器比经典的PROP控制器节能40%以上,具有良好的节能效益与经济效益。本论文的研究得到国家自然科学基金项目(50807016,51177051),中央高校基本科研业务费(2012ZZ0020),清华大学国家重点实验室开放项目(SKLD10KM01)资助。