找到 13 条结果 · IEEE Transactions on Sustainable Energy
评估结合中间储能的电转X系统中基于网格惩罚的强化学习在可再生能源管理中的应用
Assessing Grid Penalized Reinforcement Learning for Renewable Energy Management of Power-to-X Integrated With Intermediate Storage
Jeongdong Kim · Jonggeol Na · Joseph Sang-Il Kwon · Seongbin Ga 等6人 · IEEE Transactions on Sustainable Energy · 2025年6月
本研究通过详细案例与对比分析,探讨了在可再生能源与电价不确定性下,基于深度强化学习(DRL)的电转X(PtX)系统规划策略。提出一种融合混合储能系统的DRL小时级规划模型,采用网格惩罚奖励函数以抑制电网电力过度使用,并考虑可再生能源出力与电价的时间不确定性。利用法国国家实际数据,将该模型与规则基线模型在不同时空不确定性下进行比较。结果表明,DRL模型在全国范围内实现月利润提升1360.12%,尽管可再生能源渗透率略低,但通过提高电网惩罚强度可有效缩小渗透率差距并维持高盈利性。该研究首次量化揭示了...
解读: 该DRL驱动的可再生能源管理技术对阳光电源PowerTitan储能系统和ST系列储能变流器具有重要应用价值。研究提出的网格惩罚强化学习策略可直接应用于储能系统的能量管理系统(EMS),通过动态优化充放电策略,在电价波动和新能源出力不确定性下实现经济性最优。混合储能系统的小时级规划模型可集成至iSol...
基于深度强化学习的移动式风力发电机分配以增强配电系统韧性
Deep Reinforcement Learning-Based Allocation of Mobile Wind Turbines for Enhancing Resilience in Power Distribution Systems
Ruotan Zhang · Jinshun Su · Payman Dehghanian · Mohannad Alhazmi 等5人 · IEEE Transactions on Sustainable Energy · 2025年6月
风能资源的广泛应用在应对气候变化中展现出显著优势。移动式风力发电机(MWT)可通过运输系统灵活部署,作为应急电源参与配电系统(PDS)灾后恢复,提升系统韧性。本文提出一种基于多智能体深度强化学习(MADRL)的MWT调度框架,采用深度Q网络(DQL)与双深度Q网络(DDQL)进行训练与对比,并引入动作限制机制以抑制风电波动影响。在锡乌福尔斯交通系统与四个IEEE 33节点配电系统耦合的案例中验证了该方法在提升灾后服务恢复能力方面的有效性。
解读: 该研究的MWT调度与深度强化学习方法对阳光电源储能产品线具有重要参考价值。首先,MADRL框架可优化ST系列储能变流器的调度策略,提升PowerTitan系统在极端天气下的应急响应能力。其次,动作限制机制的设计思路可用于改进储能PCS的功率波动抑制算法。研究中的分布式协同控制方案也可集成到iSola...
基于安全运行机制的主动配电网人机协同强化学习电压/无功控制方法
Human-in-the-loop Reinforcement Learning Method for Volt/Var Control in Active Distribution Network with Safe Operation Mechanism
Yuechuan Tao · Zhao Yang Dong · Jing Qiu · Shuying Lai 等6人 · IEEE Transactions on Sustainable Energy · 2025年6月
针对分布式能源接入带来的主动配电网运行复杂性,传统调压方法难以应对。本文提出一种融合人类经验的人机协同深度强化学习(HITL-DRL)框架,并引入安全约束裁剪的近端策略优化(SC-PPO)算法以保障学习过程的安全性。通过人类示范、反馈与对抗设置三种干预策略,提升学习效率与可解释性。仿真表明,该方法在IEEE 33节点系统中相较传统DRL算法具有更快的收敛速度与更强的鲁棒性,电压越限率降低73.4%,决策时间小于1毫秒,接近最优解性能,具备实时应用潜力。
解读: 该人机协同强化学习电压/无功控制技术对阳光电源配电网侧储能系统具有重要应用价值。SC-PPO算法的安全约束机制可直接应用于PowerTitan储能系统的电压调节策略,保障分布式光伏并网场景下的安全运行。毫秒级决策响应能力契合ST系列储能变流器的实时控制需求,73.4%的电压越限率降低可显著提升含高比...
基于深度强化学习的考虑网络重构的多时间尺度电压/无功控制
Deep Reinforcement Learning Based Multi-Timescale Volt/Var Control in Distribution Networks Considering Network Reconfiguration
Hexiang Peng · Kai Liao · Jianwei Yang · Bo Pang 等5人 · IEEE Transactions on Sustainable Energy · 2025年5月
针对配电网中不同响应特性的设备带来的多时间尺度电压/无功控制(VVC)难题,本文提出一种新型双层数据驱动的多时间尺度VVC方法。该方法将光伏等连续型设备的短时间尺度控制与电容器组及网络重构等离散型设备的长时间尺度控制相协调,构建双层部分可观测马尔可夫决策过程(POMDP)模型。内层采用TD3算法控制连续变量,外层利用DDQN算法处理离散动作与网络重构。通过统一奖励信号并传递内层动作为外层状态实现协同训练,并引入图神经网络(GNN)识别代表性拓扑以缩减重构空间,抑制过度探索。在IEEE 33节点和...
解读: 该多时间尺度Volt/Var控制技术对阳光电源配电侧产品具有重要应用价值。在SG系列光伏逆变器中,可利用TD3算法实现连续无功功率的快速调节,优化现有MPPT算法与无功控制的协同;在ST系列储能变流器及PowerTitan大型储能系统中,可通过DDQN算法协调储能充放电与电容器组的离散控制决策。该方...
基于图元强化学习的高比例光伏接入智能配电网自主电压调节
Autonomous Voltage Regulation for Smart Distribution Network With High-Proportion PVs: A Graph Meta-Reinforcement Learning Approach
Leijiao Ge · Jingjing Li · Luyang Hou · Jingang Lai · IEEE Transactions on Sustainable Energy · 2025年5月
高比例分布式光伏接入的智能配电网常面临严峻的电压质量问题。深度强化学习(DRL)无需显式建模即可实现优化控制,但在应用于此类系统时易受环境不稳定和智能体学习不均衡等问题影响。本文将电压控制建模为部分可观测马尔可夫决策过程,提出一种基于图卷积网络的多智能体元强化学习算法,融合元学习以提升智能体对他人行为的预测能力,缓解环境非稳性;通过引入自关注机制与值分解方法改善学习不均衡。在IEEE 33、141和322节点系统上的实验验证了所提方法的有效性,并优于五种主流多智能体DRL及模型预测控制方法。
解读: 该图元强化学习电压调节技术对阳光电源SG系列光伏逆变器和ST储能系统具有重要应用价值。可直接应用于分布式光伏并网场景的智能电压控制:1)通过多智能体协同优化,提升SG逆变器在高渗透率光伏配电网中的无功调节能力,解决传统MPC建模复杂、计算负荷高的问题;2)结合ST储能变流器的有功-无功协调控制,实现...
基于元强化学习的自适应可解释储能控制应对动态场景
Meta Reinforcement Learning Based Adaptive and Interpretable Energy Storage Control Meets Dynamic Scenarios
Yibing Dang · Jiangjiao Xu · Fan Yang · Changjun Jiang 等5人 · IEEE Transactions on Sustainable Energy · 2025年4月
随着可再生能源的广泛应用,储能系统在能量调度与经济套利中发挥关键作用。传统强化学习方法因泛化能力有限,在高动态环境下易出现性能下降。本文提出一种基于元强化学习的储能控制框架,包含离线训练与在线适应阶段,通过双循环更新机制和多任务学习获得高泛化性的初始参数,并结合Shapley值方法增强决策可解释性。实验表明,该模型在多种动态微网场景下适应性强,性能较传统方法提升20%至50%,且调度决策特征贡献分析符合人类直觉。
解读: 该元强化学习储能控制技术对阳光电源ST系列储能变流器和PowerTitan大型储能系统具有重要应用价值。其自适应双循环更新机制可显著提升储能系统在光伏出力波动、负荷变化等动态场景下的调度性能,相比传统方法提升20%-50%的经济效益直接增强产品市场竞争力。Shapley值可解释性分析可集成至iSol...
基于深度强化学习的多模态对抗攻击下鲁棒光伏功率预测
Robust Photovoltaic Power Forecasting Against Multi-Modal Adversarial Attack via Deep Reinforcement Learning
Jingxuan Liu · Haixiang Zang · Lilin Cheng · Tao Ding 等6人 · IEEE Transactions on Sustainable Energy · 2025年3月
随着深度学习与多模态外部数据在光伏功率预测中的广泛应用,网络攻击尤其是虚假数据注入可能严重误导预测结果,威胁电网安全经济运行。现有研究尚未充分关注多模态协同攻击的影响,且难以应对隐蔽性攻击。为此,本文提出一种新型鲁棒预测框架,通过构建充分利用多模态相关性的对抗攻击模拟潜在虚假数据注入,并采用深度确定性策略梯度算法动态调整各模态权重,以抑制数据污染并保留有效信息。 actor与环境模块预训练以提升收敛性与泛化能力。实验表明,在输入扰动低于5%时,所提方法均绝对误差仅增加0.053 kW,显著优于无...
解读: 该多模态鲁棒预测技术对阳光电源iSolarCloud云平台和PowerTitan储能系统具有重要应用价值。针对光伏电站面临的网络安全威胁,可将深度强化学习的动态权重调整机制集成到智能运维平台中,增强气象数据、历史功率等多源信息融合的抗攻击能力。对于ST系列储能变流器的功率预测模块,该方法可有效抵御虚...
基于深度强化学习的风光水储混合能源系统长短周期协调调度
Long-Term and Short-Term Coordinated Scheduling for Wind-PV-Hydro-Storage Hybrid Energy System Based on Deep Reinforcement Learning
Huaiyuan Zhang · Kai Liao · Jianwei Yang · Zhe Yin 等5人 · IEEE Transactions on Sustainable Energy · 2025年1月
针对多时间尺度调度复杂的风光水储混合能源系统,传统长期调度策略常削弱短期调节能力,导致资源浪费与电力短缺。本文提出一种将短期运行特性嵌入长期调度规则的协同框架,将长期调度建模为马尔可夫决策过程,并在每一步耦合基于优化模型生成的短期发电计划。通过融合数据驱动与模型驱动方法,利用深度强化学习简化长期决策,结合混合整数线性规划确保短期约束满足。实证表明,该方法使弃电率由11.67%降至0.63%,切负荷率从3.3%降至0.69%,显著优于传统方法。
解读: 该深度强化学习协调调度技术对阳光电源PowerTitan储能系统和iSolarCloud云平台具有重要应用价值。研究提出的长短周期协同框架可直接集成到ST系列储能变流器的能量管理系统中,通过MDP建模和DRL算法优化多时间尺度调度决策,显著降低弃电率(11.67%→0.63%)和切负荷率(3.3%→...
基于混合惩罚函数增强型D3QN算法的微网低碳经济能量管理方法
Low Carbon Economic Energy Management Method in a Microgrid Based on Enhanced D3QN Algorithm With Mixed Penalty Function
Chanjuan Zhao · Yunlong Li · Qian Zhang · Lina Ren · IEEE Transactions on Sustainable Energy · 2025年1月
本文提出一种融合混合惩罚函数的增强型 Dueling Double Deep Q Network 算法(EN-D3QN-MPF),用于微网能量管理。构建包含光伏、风力发电、储能系统、电动汽车充电站、温控负荷及价格响应负荷的新型微网模型。通过结合混合惩罚函数与D3QN强化学习,动态平衡奖励权重,实现微网低碳经济运行与用户充电满意度的协同优化。基于中国东部2019年实测数据的仿真结果表明,所提方法在能量管理性能上优于遗传算法、粒子群算法、Dueling DQN、DDQN及D3QN。
解读: 该EN-D3QN-MPF算法对阳光电源微网能量管理系统具有重要应用价值。可直接应用于PowerTitan储能系统的智能调度模块,结合ST系列储能变流器实现多时间尺度的功率优化。算法融合的混合惩罚函数机制可嵌入iSolarCloud平台,协同优化SG系列光伏逆变器出力、储能充放电策略与充电桩负荷管理,...
基于SPP拓扑的海上风电场直流集电系统布局优化
DC Collector System Layout Optimization for Offshore Wind Farm With SPP Topology
Chunyang Pan · Shuli Wen · Miao Zhu · Jianjun Ma 等5人 · IEEE Transactions on Sustainable Energy · 2024年12月
随着全球海上风电的快速发展,风电场规模不断扩大,提升整体经济性至关重要。现有研究多集中于直流串并联(SP)拓扑,成本较高。本文提出一种基于分层强化学习(HRL)的优化框架,采用先进的直流串-并-并(SPP)拓扑以提升经济性。该框架通过分层开环多旅行商问题(HOMTSP)建模SPP结构,并将集电系统布局优化(CSLO)分解为子问题,采用分层双Q学习(DQL)求解,结合拓扑引导机制修正交叉线路。基于真实风电场GIS数据与机组连接方案的案例研究表明,所提方法较直流SP和交流双端环状拓扑显著提升经济性。
解读: 该研究的SPP拓扑优化方法对阳光电源的海上风电和储能产品线具有重要参考价值。首先,优化后的直流集电系统布局可直接应用于我司ST系列储能变流器的集成设计,提升大型储能电站的经济性。其次,文中的分层强化学习框架可用于优化PowerTitan储能系统的拓扑结构和功率分配策略。此外,该方法也可迁移应用到SG...
受脑启发的协作式自动发电控制与大规模电动汽车集成
Brain-Inspired Collaborative Automatic Generation Control With Large-Scale Electric Vehicles Integration
Zhihong Liu · Lei Xi · Yue Quan · Chen Cheng 等5人 · IEEE Transactions on Sustainable Energy · 2024年10月
分布式能源、负荷与储能设备具有间歇性和强随机性,接入电网后易引发显著的频率波动。现有基于多智能体协同神经网络的控制算法易遭遇灾难性遗忘问题,难以在强随机扰动下实现最优控制。本文提出一种基于正交权重修正策略网络更新的近端受脑启发策略优化(PBPO)算法,赋予网络类脑上下文感知能力,从而加速多区域协同控制的收敛速度,有效抑制电网严重随机扰动引起的频率波动。通过大规模电动汽车接入场景下的两个负荷频率控制模型仿真验证,所提PBPO算法在收敛速度、频率稳定性及控制性能方面均优于多种强化学习算法。
解读: 该脑启发协同控制技术对阳光电源储能与充电桩产品具有重要应用价值。针对PowerTitan大型储能系统参与电网AGC调频场景,PBPO算法的抗遗忘特性可显著提升多储能站点协同响应能力,解决ST系列储能变流器在强随机扰动下的频率稳定问题。对于新能源汽车业务,该算法可优化大规模充电桩V2G协同控制策略,实...
基于模型优化的残差深度强化学习在逆变器型电压-无功控制中的应用
Residual Deep Reinforcement Learning With Model-Based Optimization for Inverter-Based Volt-Var Control
Qiong Liu · Ye Guo · Lirong Deng · Haotian Liu 等6人 · IEEE Transactions on Sustainable Energy · 2024年9月
提出一种基于近似模型驱动优化的残差深度强化学习(RDRL)方法,用于主动配电网中的逆变器型电压-无功控制(IB-VVC)。通过改进的马尔可夫决策过程统一建模模型驱动与RDRL方法,RDRL在模型基策略动作基础上学习残差动作。该方法继承了近似模型优化的控制能力,并通过残差策略学习增强策略优化性能。由于实际中获取的近似模型通常较为可靠,模型优化所得动作接近最优,从而缩小残差动作搜索空间,提升评论器逼近精度并降低执行器搜索难度。仿真结果表明,RDRL在学习过程中显著提升优化性能,并在69节点和141节...
解读: 该残差深度强化学习方法对阳光电源ST系列储能变流器和PowerTitan大型储能系统的电压-无功控制具有重要应用价值。技术可直接应用于:1)ST系列储能变流器的智能VVC控制策略,通过残差学习优化逆变器无功输出,提升电网电压支撑能力;2)PowerTitan储能系统的多机协调控制,在iSolarCl...
基于物理信息强化学习的可再生能源实时最优潮流控制
Physics-Informed Reinforcement Learning for Real-Time Optimal Power Flow With Renewable Energy Resources
Zhuorui Wu · Meng Zhang · Song Gao · Zheng-Guang Wu 等5人 · IEEE Transactions on Sustainable Energy · 2024年8月
针对可再生能源大规模接入带来的强不确定性,电力系统调度对实时性提出了更高要求。为实现实时环境下经济且可行的发电运行,本文提出一种基于约束强化学习(CRL)的物理信息强化学习(PIRL)方法用于最优潮流(OPF)求解。该方法设计了基于潮流方程的物理信息执行器,确保生成满足等式约束的发电方案,并通过在策略梯度中引入不等式约束来修正不可行动作。特别地,与传统CRL中使用网络逼近不同,所提方法可直接基于执行器输出精确计算约束相关成本。在IEEE 118节点系统上的仿真结果表明,该方法在获得相近发电成本的...
解读: 该物理信息强化学习技术对阳光电源储能与光伏并网系统具有重要应用价值。针对PowerTitan大型储能系统和SG系列光伏逆变器的实时功率调度,该方法可嵌入iSolarCloud云平台,实现毫秒级最优潮流计算,显著优于传统优化算法。其约束强化学习框架可直接应用于储能变流器的多目标协调控制,在满足电网安全...