找到 97 条结果

排序:
光伏发电技术 光伏逆变器 光储一体化 多物理场耦合 ★ 5.0

多时间尺度深度强化学习光储配电网电压优化

Multi-time Scale Deep Reinforcement Learning for Voltage Optimization in Photovoltaic-Storage Distribution Networks

黄冬梅 · 余京朋 · 崔承刚 · 董倩文 等6人 · 中国电机工程学报 · 2025年17月 · Vol.45

针对分布式光伏接入导致的配电网电压越限问题,提出一种基于多时间尺度深度强化学习的电压优化策略。该方法结合无模型深度强化学习,综合考虑多种离散与连续调压设备、光伏逆变器及储能的动作时域特性,通过事件触发机制限制储能动作次数与荷电状态变化,以最小化电压偏移与网损为目标,实现多时间尺度协同优化。仿真结果表明,所提方法在IEEE 33节点系统中显著降低电压偏移至0.0166 pu和平均网损至141.2 kW,同时将有载调压变压器与电容器组动作次数分别控制在6次与3次,储能15分钟内荷电状态变化低于30%...

解读: 该多时间尺度深度强化学习电压优化技术对阳光电源光储协同控制具有重要应用价值。可直接应用于SG系列光伏逆变器的无功调压功能与ST系列储能变流器的协同控制策略,通过事件触发机制优化储能动作频次,有效延长PowerTitan储能系统寿命。该方法将储能SOC变化控制在30%以内、动作频次降至10%以下的成果...

储能系统技术 储能系统 户用光伏 用户侧储能 ★ 5.0

基于MILP-TD3的用户侧储能系统优化运行

Optimal Operation of User-side Energy Storage Systems Based on MILP-TD3

陈景文单茜 · 中国电机工程学报 · 2025年13月 · Vol.45

深度强化学习(DRL)在用户侧储能调控中应用广泛,但智能体常难以严格满足运行约束,影响系统安全性。为此,提出一种混合整数线性规划与双延迟深度确定性策略梯度结合的MILP-TD3方法。构建以运行成本最小为目标、计及电池退化成本的实时优化模型,并将功率平衡约束嵌入马尔科夫决策过程。通过将TD3的动作价值函数转化为MILP公式,确保智能体严格执行约束。算例结果表明,该方法平均日运行成本较传统TD3降低25.34%,单次决策平均耗时0.024秒,满足实时性与安全性要求。

解读: 该MILP-TD3方法对阳光电源ST系列储能变流器和PowerTitan储能系统的智能调度具有重要应用价值。通过将约束嵌入强化学习决策过程,可直接集成到iSolarCloud云平台的能量管理系统中,提升用户侧储能的实时优化能力。该方法考虑电池退化成本的建模思路,可优化ST储能系统的全生命周期经济性,...

储能系统技术 储能系统 SiC器件 跟网型GFL ★ 5.0

跟网型逆变器鲁棒稳定性分析:集成参数不确定性和区间时延的PI控制器整定

Robust Stability Analysis of Grid-Following Inverters

Nima Mahdian Dehkordi · Ali Rezaei · Mohsen Hamzeh · IEEE Journal of Emerging and Selected Topics in Power Electronics · 2025年9月

针对跟网型逆变器面临区间参数不确定性和未知有界时延问题,提出新型鲁棒稳定性分析框架。不同于经典鲁棒控制策略(H∞、μ综合、滑模控制)导致高阶或非线性控制器难以实时调谐,以及无模型方法(强化学习、数据驱动)缺乏稳定性保证,该方法采用时延相关准则结合值集和零点排除原理。该方法简单、系统、非保守,无需复杂调谐即可完全确定PI稳定增益。仿真和实验验证了实际鲁棒性和逆变器控制适用性。

解读: 该鲁棒稳定性分析框架对阳光电源跟网型逆变器控制参数整定有重要应用价值。时延相关准则和参数不确定性集成方法可应用于ST储能变流器和SG光伏逆变器的GFL控制器设计,提高在电网参数变化和通信延迟条件下的稳定性。简化的PI增益确定方法便于工程实现,优于复杂鲁棒控制策略。该技术对阳光电源逆变器在弱电网和高比...

储能系统技术 储能系统 DC-DC变换器 DAB ★ 5.0

DAB DC-DC变换器六控制自由度调制方案及深度强化学习效率增强

Six Control Degrees of Freedom Modulation Scheme for DAB DC-DC Converters

Zhichen Feng · Huiqing Wen · Xu Han · Guangyu Wang 等6人 · IEEE Journal of Emerging and Selected Topics in Power Electronics · 2025年9月

通过增加控制自由度(DoF)可提高双有源桥(DAB)变换器转换效率。提出六控制自由度(6-DoF)调制进一步提升DAB变换器效率。采用频域分析直接推导变换器运行表达式,包括传输功率、电感电流和均方根(RMS)电流。提出6-DoF深度强化学习(DRL-6DoF)优化方案,采用深度确定性策略梯度(DDPG)算法求解最小功率损耗最优解。训练后的DDPG代理可在各种运行工况下输出控制变量最优值。采用DRL-6DoF控制方案,因低RMS电流和优异ZVS性能进一步提升DAB变换器效率。特别在重载工况下,因可...

解读: 该六自由度深度强化学习DAB优化技术对阳光电源储能变流器的DAB变换器效率提升有重要应用价值。DDPG算法优化可应用于ST储能系统的DC-DC变换级,实现全工况高效运行。可变开关频率和低RMS电流技术对阳光电源DAB拓扑产品的重载效率优化有借鉴意义。该技术对PowerTitan大型储能系统的智能控制...

储能系统技术 储能系统 DAB 强化学习 ★ 5.0

三相双有源桥变换器效率优化的无模型深度强化学习框架

A Model-Free Deep Reinforcement Learning Framework for Efficiency Optimization of Three-Phase Dual Active Bridge Converters

Zhihao Chen · Zhen Li · Sijia Huang · Haoyu Chen 等5人 · IEEE Journal of Emerging and Selected Topics in Power Electronics · 2025年9月

针对三相双有源桥(3p-DAB)变换器效率优化面临的挑战,现有数学推导和人工智能方法依赖复杂耗时的解析或数据驱动建模增加开发复杂度。提出基于深度强化学习的无模型优化框架,通过系统交互直接学习策略而无需电气参数显式建模,显著减少开发时间并确保优化性能。参数敏感性分析验证不同变换器条件下的强泛化性。开发深度确定性策略梯度算法退化变体用于3p-DAB单步决策优化,配合AI驱动占空比控制策略提升效率。与先进数学分析和数据驱动方法的综合对比验证了所提方法的有效性。

解读: 该深度强化学习DAB优化技术对阳光电源智能变换器开发有重要创新价值。无模型优化框架可应用于ST储能变流器的DAB模块效率优化,减少建模工作量并加快产品开发周期。深度确定性策略梯度算法对PowerTitan大型储能系统的多模块协调控制有借鉴意义,可实现自适应效率优化。该技术对阳光电源AI驱动的iSol...

储能系统技术 储能系统 调峰调频 深度学习 ★ 5.0

基于序的异构智能体强化学习方法用于配电网与输电网协调的负荷频率控制

Order-based Heterogeneous Agents Reinforcement Learning Method with the Coordination of Distribution Network and Transmission Network for Load Frequency Control

Shixuan Yu · Xiaodong Zheng · Tianzhuo Shi · Ruilin Chen 等6人 · IEEE Transactions on Power Systems · 2025年8月

随着大规模分布式能源(DERs)持续接入配电网(DN),DN已具备参与负荷频率控制(LFC)的能力。本文提出一种基于序的异构智能体软演员-评论家方法(OHASAC),以解决异构可控DERs间的协调问题。通过神经网络估计异构智能体的最优更新顺序,并将最优LFC问题建模为考虑DN与输电网(TN)协调的局部可观测马尔可夫博弈。模型涵盖变辐照条件下电池储能系统(BESS)与光伏(PV)的协同调频。仿真结果表明,该方法在DN-TN协同环境中能有效管理多种分布式电源,兼具优良的泛化性与可扩展性。

解读: 该异构智能体协同控制技术对阳光电源PowerTitan储能系统与SG系列光伏逆变器的协同调频具有重要应用价值。OHASAC方法可优化ST储能变流器在变辐照条件下的BESS-PV协同响应策略,提升配电侧分布式资源参与电网LFC的能力。基于序的智能体更新机制可集成至iSolarCloud平台,实现多站点...

储能系统技术 强化学习 ★ 5.0

基于深度强化学习的含储能船舶的海岛-海上渔排能源运输策略研究

Energy Transportation Strategy for Island-Marine Fish Farm System with Energy Storage Vessels Based on Deep Reinforcement Learning

朱振山陈豪陈炜龙黄缨惠 · 中国电机工程学报 · 2025年7月 · Vol.45

针对海上渔排与风光资源富余岛屿间的能源交互问题,提出一种包含全电船舶的能源运输策略,并构建考虑移动式储能电池组状态细分的混合动作空间马尔可夫决策过程模型。采用基于多批次前向传播的参数化双深度Q网络求解,通过解耦离散与连续动作提升训练稳定性与收敛性能。仿真结果表明,该方法能有效实现多节点间能量调配,在大规模场景下优于传统深度强化学习方法,具备更强灵活性与优化能力。

解读: 该深度强化学习能源调度技术对阳光电源移动储能业务具有重要应用价值。研究中的混合动作空间MDP模型和参数化双深度Q网络可直接应用于PowerTitan移动储能系统的智能调度,优化多场景间能量转运策略。其电池状态细分建模方法可增强ST系列储能变流器的SOC管理精度,提升电池全生命周期效益。该技术与iSo...

储能系统技术 储能系统 强化学习 ★ 5.0

评估结合中间储能的电转X系统中基于网格惩罚的强化学习在可再生能源管理中的应用

Assessing Grid Penalized Reinforcement Learning for Renewable Energy Management of Power-to-X Integrated With Intermediate Storage

Jeongdong Kim · Jonggeol Na · Joseph Sang-Il Kwon · Seongbin Ga 等6人 · IEEE Transactions on Sustainable Energy · 2025年6月

本研究通过详细案例与对比分析,探讨了在可再生能源与电价不确定性下,基于深度强化学习(DRL)的电转X(PtX)系统规划策略。提出一种融合混合储能系统的DRL小时级规划模型,采用网格惩罚奖励函数以抑制电网电力过度使用,并考虑可再生能源出力与电价的时间不确定性。利用法国国家实际数据,将该模型与规则基线模型在不同时空不确定性下进行比较。结果表明,DRL模型在全国范围内实现月利润提升1360.12%,尽管可再生能源渗透率略低,但通过提高电网惩罚强度可有效缩小渗透率差距并维持高盈利性。该研究首次量化揭示了...

解读: 该DRL驱动的可再生能源管理技术对阳光电源PowerTitan储能系统和ST系列储能变流器具有重要应用价值。研究提出的网格惩罚强化学习策略可直接应用于储能系统的能量管理系统(EMS),通过动态优化充放电策略,在电价波动和新能源出力不确定性下实现经济性最优。混合储能系统的小时级规划模型可集成至iSol...

风电变流技术 储能系统 强化学习 ★ 5.0

基于深度强化学习的移动式风力发电机分配以增强配电系统韧性

Deep Reinforcement Learning-Based Allocation of Mobile Wind Turbines for Enhancing Resilience in Power Distribution Systems

Ruotan Zhang · Jinshun Su · Payman Dehghanian · Mohannad Alhazmi 等5人 · IEEE Transactions on Sustainable Energy · 2025年6月

风能资源的广泛应用在应对气候变化中展现出显著优势。移动式风力发电机(MWT)可通过运输系统灵活部署,作为应急电源参与配电系统(PDS)灾后恢复,提升系统韧性。本文提出一种基于多智能体深度强化学习(MADRL)的MWT调度框架,采用深度Q网络(DQL)与双深度Q网络(DDQL)进行训练与对比,并引入动作限制机制以抑制风电波动影响。在锡乌福尔斯交通系统与四个IEEE 33节点配电系统耦合的案例中验证了该方法在提升灾后服务恢复能力方面的有效性。

解读: 该研究的MWT调度与深度强化学习方法对阳光电源储能产品线具有重要参考价值。首先,MADRL框架可优化ST系列储能变流器的调度策略,提升PowerTitan系统在极端天气下的应急响应能力。其次,动作限制机制的设计思路可用于改进储能PCS的功率波动抑制算法。研究中的分布式协同控制方案也可集成到iSola...

电动汽车驱动 强化学习 ★ 5.0

基于混合注意力深度强化学习的健康感知集成热管理策略

Health-Conscious Integrated Thermal Management Strategy Using Hybrid Attention Deep Reinforcement Learning for Battery Electric Vehicles

Changcheng Wu · Jiankun Peng · Dawei Pi · Xin Guo 等6人 · IEEE Transactions on Power Electronics · 2025年6月

有效的热管理策略(TMS)可以延长纯电动汽车(BEV)的续航里程,并在高温环境下提高车内热舒适性。考虑到集成热管理系统(ITMS)的发展趋势以及动力电池在纯电动汽车中的关键作用,本文建立了一个嵌入电池健康意识的集成热管理系统模型。为进一步挖掘所提出的集成热管理系统的温度控制和节能潜力,采用双延迟深度确定性策略梯度算法(TD3)设计了一种学习型热管理策略。鉴于集成热管理系统内复杂的状态信息,引入了一种混合注意力机制对原始TD3算法进行优化,使TD3智能体能够辨别各种状态信息的相对重要性,从而提高其...

解读: 从阳光电源的业务布局来看,这项基于混合注意力深度强化学习的电动汽车热管理技术具有显著的战略价值。该研究将电池健康意识嵌入集成热管理系统,通过TD3算法实现了电池健康退化降低22.50%、能量损失减少35.33%的效果,这与我司在储能系统和电动汽车动力解决方案领域的核心诉求高度契合。 从技术迁移角度...

储能系统技术 储能系统 强化学习 ★ 5.0

基于安全运行机制的主动配电网人机协同强化学习电压/无功控制方法

Human-in-the-loop Reinforcement Learning Method for Volt/Var Control in Active Distribution Network with Safe Operation Mechanism

Yuechuan Tao · Zhao Yang Dong · Jing Qiu · Shuying Lai 等6人 · IEEE Transactions on Sustainable Energy · 2025年6月

针对分布式能源接入带来的主动配电网运行复杂性,传统调压方法难以应对。本文提出一种融合人类经验的人机协同深度强化学习(HITL-DRL)框架,并引入安全约束裁剪的近端策略优化(SC-PPO)算法以保障学习过程的安全性。通过人类示范、反馈与对抗设置三种干预策略,提升学习效率与可解释性。仿真表明,该方法在IEEE 33节点系统中相较传统DRL算法具有更快的收敛速度与更强的鲁棒性,电压越限率降低73.4%,决策时间小于1毫秒,接近最优解性能,具备实时应用潜力。

解读: 该人机协同强化学习电压/无功控制技术对阳光电源配电网侧储能系统具有重要应用价值。SC-PPO算法的安全约束机制可直接应用于PowerTitan储能系统的电压调节策略,保障分布式光伏并网场景下的安全运行。毫秒级决策响应能力契合ST系列储能变流器的实时控制需求,73.4%的电压越限率降低可显著提升含高比...

储能系统技术 储能系统 SiC器件 强化学习 ★ 5.0

知识增强的群体深度强化学习用于大规模电网实时网络约束经济调度

Knowledge-Augmented Population-Based Deep Reinforcement Learning for Real-Time Network-Constrained Economic Dispatch of Large-Scale Power Grid

Yixi Chen · Jizhong Zhu · Hanjiang Dong · Cong Zeng 等5人 · IEEE Transactions on Power Systems · 2025年6月

近年来,深度强化学习(DRL)因其在在线前瞻决策和应对不确定性方面的优势,被广泛应用于实时网络约束经济调度(NCED)。然而,传统DRL方法在计算效率与并行性方面存在局限,难以适应大规模电网环境。为此,本文提出一种新型知识增强的群体深度强化学习(PDRL)方法。PDRL通过扰动代理参数生成种群进行探索,并聚合个体结果构建代理梯度以更新模型,具有高效探索能力与高并行性。结合电网物理知识,提出序贯安全投影(S2P)技术,显著提升决策安全性并降低训练难度。在39节点、500节点和2383节点系统上的仿...

解读: 该知识增强群体深度强化学习技术对阳光电源PowerTitan大型储能系统及iSolarCloud云平台具有重要应用价值。在储能侧,PDRL的高并行性与序贯安全投影技术可优化ST系列储能变流器的实时调度策略,确保大规模储能电站在电网约束下实现经济最优充放电决策,提升电网友好性。在光伏侧,该方法可集成至...

光伏发电技术 储能系统 深度学习 强化学习 ★ 5.0

基于深度强化学习的考虑网络重构的多时间尺度电压/无功控制

Deep Reinforcement Learning Based Multi-Timescale Volt/Var Control in Distribution Networks Considering Network Reconfiguration

Hexiang Peng · Kai Liao · Jianwei Yang · Bo Pang 等5人 · IEEE Transactions on Sustainable Energy · 2025年5月

针对配电网中不同响应特性的设备带来的多时间尺度电压/无功控制(VVC)难题,本文提出一种新型双层数据驱动的多时间尺度VVC方法。该方法将光伏等连续型设备的短时间尺度控制与电容器组及网络重构等离散型设备的长时间尺度控制相协调,构建双层部分可观测马尔可夫决策过程(POMDP)模型。内层采用TD3算法控制连续变量,外层利用DDQN算法处理离散动作与网络重构。通过统一奖励信号并传递内层动作为外层状态实现协同训练,并引入图神经网络(GNN)识别代表性拓扑以缩减重构空间,抑制过度探索。在IEEE 33节点和...

解读: 该多时间尺度Volt/Var控制技术对阳光电源配电侧产品具有重要应用价值。在SG系列光伏逆变器中,可利用TD3算法实现连续无功功率的快速调节,优化现有MPPT算法与无功控制的协同;在ST系列储能变流器及PowerTitan大型储能系统中,可通过DDQN算法协调储能充放电与电容器组的离散控制决策。该方...

储能系统技术 储能系统 SiC器件 深度学习 ★ 5.0

基于软Actor-Critic算法的强化学习控制器改进交错并联DC-DC升压变换器电压调节

Improving Voltage Regulation of Interleaved DC-DC Boost Converter via Soft Actor-Critic Algorithm Based Reinforcement Learning Controller

Jian Ye · Di Zhao · Xuewei Pan · Sinan Li 等6人 · IEEE Journal of Emerging and Selected Topics in Power Electronics · 2025年5月

本文提出采用基于软Actor-Critic(SAC)算法的强化学习(RL)控制器作为三相交错并联DC-DC升压变换器的唯一主控制器,以提升输出电压的动态性能。阐述了最大熵学习的优势及SAC算法原理,给出了神经网络结构与奖励函数的设计方案。SAC智能体经离线训练后,在工作点处进行稳定性分析,并在物理平台上部署测试。与现有方法的对比表明,该方法显著提升了变换器的电压控制能力,且对参数、参考值及负载变化具有强鲁棒性。

解读: 该SAC强化学习控制技术对阳光电源DC-DC变换器产品具有重要应用价值。在ST系列储能变流器中,交错并联Boost拓扑广泛用于电池侧DC-DC升压环节,该方法可显著提升电压动态响应速度和参数鲁棒性,优化储能系统功率爬坡能力。在车载OBC充电机中,面对电池SOC变化和负载突变工况,SAC算法的最大熵学...

功率器件技术 SiC器件 强化学习 ★ 5.0

一种物理信息辅助的深度强化学习方法用于大规模TSV阵列的信号与电源完整性优化

A Physics-Assisted Deep Reinforcement Learning Methodology for Signal and Power Integrity Optimization of Large-Scale TSV Arrays

Bingheng Li · Ling Zhang · Hanzhi Ma · Li Jiang 等6人 · IEEE Transactions on Components, Packaging and Manufacturing Technology · 2025年5月

高带宽内存(HBM)中硅通孔(TSV)阵列的信号完整性(SI)和电源完整性(PI)优化对于提高系统可靠性至关重要。然而,以往的研究大多侧重于单独的 SI 或 PI 优化,尚未实现具有良好收敛性的 SI/PI 优化。基于 TSV 阵列 SI/PI 优化的物理机制,本文提出了一种新颖的物理辅助深度强化学习(DRL)方法。开发了一种分治策略来处理大规模 TSV 阵列。利用物理机制设计 DRL 方法的细节,从而将不同的优化场景(SI 优化、PI 优化和 SI/PI 协同优化)统一到一个单一的过程中,设计...

解读: 从阳光电源的业务视角来看,这项基于物理辅助深度强化学习的硅通孔(TSV)阵列信号与电源完整性优化技术,对我们的高功率密度产品开发具有重要参考价值。 在光伏逆变器和储能变流器领域,功率半导体模块的集成度不断提升,多芯片封装和3D集成技术正成为提高功率密度的关键路径。该论文针对高带宽存储器中TSV阵列...

储能系统技术 强化学习 ★ 5.0

基于斯塔克尔伯格博弈的软演员评论家-深度强化学习方法用于锂离子电池及冷却系统的快速充电管理

Fast Charging Management of a Lithium-Ion Battery and Cooling System: A Stackelberg Game-Based Soft Actor Critic−Deep Reinforcement Learning Method

Hongrong Yang · Quanyi Chen · Xiaoying Shi · Yinliang Xu 等5人 · IEEE Transactions on Industrial Electronics · 2025年5月

本文提出了一种针对锂离子电池和冷却系统的快速充电管理策略,旨在解决在多种物理约束条件下实现快速充电,同时将冷却能耗和电池老化降至最低的难题。将电池与冷却系统之间的复杂耦合关系构建为基于斯塔克尔伯格博弈的双层优化框架,以反映充电和冷却过程的顺序交互。为此,开发了一种基于斯塔克尔伯格博弈的软演员 - 评论家深度强化学习方法,并对其收敛性进行了严格证明,确保了该方法的可靠性。大量实验结果验证了该方法的有效性,表明其优于现有先进策略,包括单智能体深度强化学习、贝叶斯方法以及恒流 - 恒压(CCCV) -...

解读: 从阳光电源的业务视角来看,这项基于Stackelberg博弈和深度强化学习的快充管理技术具有重要的战略价值。该技术通过将电池充电与热管理系统的耦合关系建模为双层优化框架,实现了充电速度、能耗控制和电池寿命之间的动态平衡,这与我司储能系统的核心技术需求高度契合。 在储能业务层面,该技术可直接应用于我...

光伏发电技术 储能系统 模型预测控制MPC 强化学习 ★ 5.0

基于图元强化学习的高比例光伏接入智能配电网自主电压调节

Autonomous Voltage Regulation for Smart Distribution Network With High-Proportion PVs: A Graph Meta-Reinforcement Learning Approach

Leijiao Ge · Jingjing Li · Luyang Hou · Jingang Lai · IEEE Transactions on Sustainable Energy · 2025年5月

高比例分布式光伏接入的智能配电网常面临严峻的电压质量问题。深度强化学习(DRL)无需显式建模即可实现优化控制,但在应用于此类系统时易受环境不稳定和智能体学习不均衡等问题影响。本文将电压控制建模为部分可观测马尔可夫决策过程,提出一种基于图卷积网络的多智能体元强化学习算法,融合元学习以提升智能体对他人行为的预测能力,缓解环境非稳性;通过引入自关注机制与值分解方法改善学习不均衡。在IEEE 33、141和322节点系统上的实验验证了所提方法的有效性,并优于五种主流多智能体DRL及模型预测控制方法。

解读: 该图元强化学习电压调节技术对阳光电源SG系列光伏逆变器和ST储能系统具有重要应用价值。可直接应用于分布式光伏并网场景的智能电压控制:1)通过多智能体协同优化,提升SG逆变器在高渗透率光伏配电网中的无功调节能力,解决传统MPC建模复杂、计算负荷高的问题;2)结合ST储能变流器的有功-无功协调控制,实现...

光伏发电技术 三相逆变器 强化学习 ★ 5.0

基于多智能体深度强化学习的配电网三相不平衡在线治理方法

Online Three-Phase Imbalance Mitigation Method for Distribution Networks Based on Multi-Agent Deep Reinforcement Learning

李彬贤 · 李佳勇 · 海征 · 万灿 等7人 · 中国电机工程学报 · 2025年5月 · Vol.45

随着分布式电源渗透率提升,配电网三相不平衡问题日益严重。针对该问题,以分布式光伏为调控手段,提出一种基于多智能体深度强化学习的在线治理方法。通过地理分区构建多智能体协同架构,采用多智能体注意力动作-评价(MAAC)算法实现光伏控制策略的集中训练与分布式执行,利用实时观测数据在线生成控制指令。基于改进IEEE 123节点系统的仿真结果表明,所提方法能有效降低三相不平衡度,优于四种典型方法,具备良好的协同性与应用前景。

解读: 该多智能体深度强化学习三相不平衡治理技术对阳光电源SG系列光伏逆变器和ST储能变流器具有重要应用价值。可直接集成到三相逆变器的控制算法中,通过MAAC算法实现分布式光伏集群的协同控制,动态调节各相输出功率以平衡负载。该方法与阳光电源iSolarCloud云平台结合,可实现在线实时优化,提升配电网电能...

储能系统技术 微电网 强化学习 ★ 5.0

基于多智能体深度强化学习的含电池更换站的微电网群交易能源管理

Multiagent Deep Reinforcement Learning for Transactive Energy Management of MMGs Incorporating Battery Swapping Stations

Ting Cai · You Zhang · Yuxin Wu · Haoyuan Yan 等5人 · IEEE Transactions on Industrial Informatics · 2025年4月

微电网(MGs)与换电站(BSSs)之间的最优能源管理可带来显著的经济效益。然而,由于分布式可再生能源和新兴负荷的时空不确定性以及信息不完整,现有研究在制定微电网与换电站之间的最优交互策略方面面临挑战。本文采用混合多智能体深度强化学习方法解决多微电网与多换电站之间的能源交易问题,以实现运营成本最小化。具体而言,引入了一个分层的交易能源管理社区,在考虑不同利益相关者利益的情况下,促进多微电网与换电站之间的能源交换。该问题被建模为部分可观测马尔可夫博弈。所提出的混合算法将多智能体近端策略优化算法(M...

解读: 从阳光电源的业务角度看,这项基于多智能体深度强化学习的能源交易管理技术,与公司在储能系统和综合能源解决方案领域的战略布局高度契合。该技术通过MAPPO-DDQN混合算法实现多微网与换电站间的优化能源调度,平均降低13.71%的微网运营成本并提升14.62%的换电站收益,这为阳光电源的储能系统集成和能...

控制与算法 模型预测控制MPC 强化学习 ★ 5.0

计算高效的长时域预测控制在电力变换器中的应用:一种强化学习方法

Computationally Efficient Long-Horizon Predictive Control for Power Converter: A Reinforcement Learning Approach

Yihao Wan · Yang Zhang · Qianwen Xu · IEEE Transactions on Industrial Electronics · 2025年4月

长预测时域有限控制集模型预测控制(FCS - MPC)在闭环稳定性、谐波失真和开关频率方面表现出卓越的性能。然而,对于传统的穷举法,实际实施时的计算负担会随着预测时域的增加呈指数级增长。传统方法包括将其重新表述为整数最小二乘(ILS)问题,以及采用基于人工神经网络(ANN)的有监督模仿学习技术,以减轻长预测时域带来的计算负担问题。在本文中,通过将强化学习(RL)框架与长预测时域相结合,开发了一种新型自主控制器用于变流器控制。通过这种方式,RL智能体通过与变流器系统进行交互,自主学习最优开关策略。...

解读: 从阳光电源的业务视角来看,这项基于强化学习的长预测时域模型预测控制技术具有重要的战略价值。该技术针对功率变换器控制中的核心痛点——长预测时域带来的计算复杂度问题,提出了创新性解决方案,这与我们在光伏逆变器和储能变流器产品中追求高性能控制的需求高度契合。 技术价值方面,长预测时域控制能够显著改善闭环...

第 1 / 5 页