找到 2 条结果 · IEEE Transactions on Power Systems
基于模仿专家经验的可解释深度强化学习在电动汽车智能充电中的应用
Interpretable Deep Reinforcement Learning With Imitative Expert Experience for Smart Charging of Electric Vehicles
Shuangqi Li · Alexis Pengfei Zhao · Chenghong Gu · Siqi Bu 等6人 · IEEE Transactions on Power Systems · 2024年7月
深度强化学习(DRL)因计算效率高,有望实现复杂系统的在线优化控制,但其可解释性与可靠性限制了在智能电网能量管理中的工程应用。本文首次提出一种新颖的模仿学习框架,用于解决电网连接电动汽车(GEV)充电管理中的高效计算问题。通过基于车网互动(V2G)成本效益分析的先验优化模型生成最优策略,并构建专家经验池以配置学习环境。设计双Actor-Imitator网络结构,实现专家知识向强化学习模型的有效迁移,提升训练效率与调度性能。实验结果表明,该方法在英国某示范微网中有效提升了V2G经济效益并缓解了电池...
解读: 该可解释深度强化学习技术对阳光电源充电桩产品线及储能系统具有重要应用价值。文章提出的模仿学习框架可直接应用于阳光电源V2G充电桩的智能调度算法,通过专家经验池加速DRL训练,提升充电策略的可靠性与可解释性,解决传统黑盒AI在电网能量管理中的工程化难题。该方法可集成至iSolarCloud云平台,实现...
面向异常事件的在线时空集成学习负荷预测方法
Online Spatiotemporal Ensemble Learning for Load Forecasting Against Anomalous Events
Yaqi Zeng · Pengfei Zhao · Di Cao · Zhe Chen 等5人 · IEEE Transactions on Power Systems · 2025年11月 · Vol.41
本文提出一种在线时空集成学习框架,通过融合区域间空间相关性与时间动态性,快速适应疫情等异常事件引发的负荷模式突变;采用在线互补学习网络提取时空特征,并结合指数梯度下降与强化学习优化凸组合权重。
解读: 该研究对阳光电源iSolarCloud智能运维平台及PowerTitan/ST系列储能系统在负荷侧协同调度中具有直接应用价值。其在线自适应预测能力可提升光储充一体化系统的日前-日内负荷与新能源出力联合预测精度,优化PCS功率指令生成与BMS充放电策略。建议将该算法集成至iSolarCloud边缘AI...