找到 20 条结果 · Applied Energy

排序:
储能系统技术 储能系统 SiC器件 深度学习 ★ 5.0

利用物理信息神经网络构建代理模型辅助强化学习优化智能电网能源管理

Optimizing energy management of smart grid using reinforcement learning aided by surrogate models built using physics-informed neural networks

Julen Cestero · Carmine Delle Femine · Kenji S. Muroa · Marco Quartulli 等5人 · Applied Energy · 2025年1月 · Vol.401

摘要 在智能电网场景下优化能源管理面临重大挑战,主要源于现实世界系统的复杂性以及各组件之间错综复杂的相互作用。强化学习(Reinforcement Learning, RL)正逐渐成为解决智能电网中最优潮流(Optimal Power Flow, OPF)问题的一种有效方案。然而,RL需要在给定环境中进行强制性的反复迭代才能获得最优策略,这意味着必须从一个很可能代价高昂的模拟器中获取样本,从而导致样本效率低下问题。在本研究中,我们通过使用基于物理信息神经网络(Physics-Informed N...

解读: 该研究采用物理信息神经网络(PINN)构建代理模型加速强化学习训练,对阳光电源ST系列储能变流器和PowerTitan系统的能量管理优化具有重要价值。通过PINN代理模型可将训练速度提升50%,能显著加快储能系统最优潮流控制策略的开发周期。该方法可应用于iSolarCloud平台的智能调度算法优化,...

风电变流技术 强化学习 ★ 5.0

基于多智能体强化学习的混合风电-氢能电站日前交易与功率控制

Day-ahead trading and power control for hybrid wind-hydrogen plants with multi-agent reinforcement learning

Stijn Allya · Timothy Verstraeten · Ann Nowéb · Jan Helsen · Applied Energy · 2025年1月 · Vol.401

摘要 海上风电场及混合风电-氢能电站在多个收益来源中获取收入,而每个来源均存在不确定性与权衡关系,因此最大化其整体盈利能力具有挑战性。由于电力通常在实际发电前进行交易,天气预报在电力交易策略中起着关键作用。此外,其他市场参与者交易与控制策略会影响公共电网的平衡,从而影响通过电网调频所能获得的收益。同时,电解槽的运行状态可能影响当前及近期的氢气生产潜力。为应对上述挑战,本文提出一种新颖的多智能体强化学习(MARL)方法,包含两个专门设计的强化学习(RL)智能体:一个负责日前电力市场交易,另一个负责...

解读: 该多智能体强化学习技术对阳光电源风储氢一体化系统具有重要应用价值。可应用于ST系列储能变流器与电解制氢设备的协同优化控制:日前交易智能体优化PowerTitan储能系统的电力市场竞价策略,实时控制智能体动态调节风电并网与电解槽功率分配。结合iSolarCloud平台的气象预测与市场数据,该MARL架...

储能系统技术 模型预测控制MPC 机器学习 强化学习 ★ 5.0

家庭电池储能系统在配电网中控制的机器学习与MPC方法比较

Comparison of machine learning and MPC methods for control of home battery storage systems in distribution grids

Felicitas Mueller · Stevende Jongh · Claudio A.Cañizares · Thomas Leibfried 等5人 · Applied Energy · 2025年1月 · Vol.400

本文在主动配电网的影响及其交互作用背景下,提出并比较了采用传统优化技术与最先进的机器学习方法实现的家庭能源管理系统控制策略。首先介绍了基于模型预测控制算法的模型驱动方法,并将其在不同预测精度条件下与基于模仿学习和强化学习的无模型方法进行对比。以一种实用的、当前最先进的启发式规则控制器作为基准。通过目标函数值、电网约束违反情况以及计算时间等指标进行了深入比较。讨论了将这些家庭能源管理系统应用于一个包含13个连接住户的真实德国低压基准电网时的结果,每个住户均配备光伏发电、电池储能系统及电力负荷。结果...

解读: 该研究对阳光电源ST系列储能变流器和PowerTitan系统的能量管理优化具有重要参考价值。文章对比了MPC模型预测控制与机器学习方法在家庭储能系统中的应用效果,验证了模仿学习在计算效率与性能间的最佳平衡。建议将此技术融入iSolarCloud平台的智能控制算法,通过强化学习优化多户储能系统的协同调...

储能系统技术 储能系统 户用光伏 强化学习 ★ 5.0

基于贝叶斯鲁棒强化学习的高性能住宅建筑中空调与储能系统协同控制方法研究

Bayesian robust reinforcement learning for coordinated air conditioning and energy storage system control in high-performance residential buildings under forecast uncertainty

Luning Suna · Zehuan Hua · Mitsufusa Nitt · Shimpei Ohsugi 等7人 · Applied Energy · 2025年1月 · Vol.400

摘要 在高性能住宅建筑中,通常采用单台设备集中供冷供热的方式以在低负荷条件下提高能源效率。然而,该策略在冬季常导致频繁化霜,降低热舒适性并增加用电量。尽管强化学习在建筑能源控制方面展现出良好前景,尤其是在将天气和电价预测纳入状态变量时,但其性能在预测存在误差的情况下往往显著下降。为解决这一问题,本研究提出一种贝叶斯鲁棒强化学习方法,用于空调与电池系统的联合控制。该方法集成了一种基于物理机制的化霜评估模块,用于动态估算结霜条件下的供暖性能。在训练过程中,引入基于先验知识构建的结构化扰动以模拟真实的...

解读: 该贝叶斯鲁棒强化学习技术对阳光电源户用储能系统(如ST系列PCS)与空调协同控制具有重要应用价值。研究通过物理驱动的除霜评估模块和KL散度正则化,在预测误差下仍可降低8.2%电费,验证了算法鲁棒性。可启发iSolarCloud平台集成该算法,实现储能系统与家用空调的智能联动:利用建筑热惯性预判除霜风...

储能系统技术 储能系统 强化学习 ★ 5.0

基于鲁棒深度强化学习的不完全可观测配电网逆变器电压无功控制

Robust deep reinforcement learning for inverter-based volt-var control in partially observable distribution networks

Qiong Liua · Ye Guoa · Tong Xub · Applied Energy · 2025年1月 · Vol.399

摘要 基于逆变器的电压无功控制在主动配电网(ADN)中调节电压和最小化功率损耗方面发挥着关键作用。然而,将深度强化学习(DRL)应用于该任务面临的一个主要挑战是ADN中量测设备部署有限,导致系统状态不完全可观测以及奖励信号未知的问题。为解决这些问题,本文提出了一种具有保守评论家(conservative critic)和代理奖励(surrogate reward)的鲁棒DRL方法。该保守评论家利用分位数回归技术,基于不完全可观测的状态估计出保守的状态-动作值函数,从而有助于训练出更具鲁棒性的策...

解读: 该鲁棒深度强化学习方法对阳光电源ST系列储能变流器及SG系列光伏逆变器的Volt-Var控制具有重要应用价值。通过保守critic和代理奖励机制,可在配电网测点有限(仅10%节点可测)条件下实现电压调节和网损优化,契合实际工程部署约束。该技术可增强PowerTitan储能系统在部分可观测环境下的自适...

储能系统技术 储能系统 电池管理系统BMS DAB ★ 5.0

基于强化学习的结构健康监测物联网传感器网络自适应电池管理

Reinforcement learning for adaptive battery management of structural health monitoring IoT sensor network

Tahsin Afroz Hoque Nishat · Jong-Hyun Jeong · Hongki Jo · Shenghao Xi 等5人 · Applied Energy · 2025年1月 · Vol.390

摘要 由电池供电的无线传感器网络(WSN)为结构健康监测(SHM)提供了一种经济且易于部署的解决方案。然而,由于传感器网络中电池损耗不均、更换电池时面临后勤规划困难,以及维持SHM所需的服务质量(QoS)等问题,其长期运行的可行性面临挑战。系统层面的电池健康管理策略对于延长WSN的寿命和可靠性至关重要,尤其是在考虑到更换电池所需的昂贵维护行程的情况下。本研究提出了一种基于强化学习(RL)的框架,旨在在保持SHM服务质量的同时,主动在系统层面上管理电池老化问题。该框架聚焦于成组电池更换,以减轻后勤...

解读: 该强化学习电池管理技术对阳光电源储能系统具有重要应用价值。文中针对无线传感网络的系统级电池健康管理策略,可直接应用于ST系列PCS和PowerTitan储能系统的BMS优化。通过RL算法实现电池组均衡老化、延长系统寿命的思路,与阳光电源大规模储能电站面临的电池一致性管理挑战高度契合。特别是其考虑光伏...

储能系统技术 储能系统 强化学习 ★ 5.0

基于深度强化学习的可再生能源与储能系统在多电力市场中最大化收益策略

Deep reinforcement learning-based strategy for maximizing returns from renewable energy and energy storage systems in multi-electricity markets

Javier Cardo-Miota · Hector Beltran · Emilio Pérez · Shafi Khadem 等5人 · Applied Energy · 2025年1月 · Vol.388

摘要 可再生能源(RES)与储能系统(ESS)的集成在优化其参与电力市场的过程中带来了挑战与机遇。本研究提出了一种新方法,利用深度强化学习(RL)算法为共址配置的可再生能源与电池储能系统(BESS)开发最优投标策略,实现同时参与电能量市场和辅助服务(AS)市场的多市场运作。所提出的方法采用马尔可夫决策过程(MDP)框架,根据市场状况和技术约束动态管理BESS的使用。作为强化学习智能体,采用了名为双延迟深度确定性(TD3)策略梯度算法的Actor-Critic方法。数据驱动的训练过程有助于模型学习...

解读: 该深度强化学习多市场竞价策略对阳光电源ST系列储能变流器及PowerTitan系统具有重要应用价值。研究中TD3算法实现的动态BESS调度与我司储能系统的智能能量管理高度契合,可集成至iSolarCloud平台实现日前市场与辅助服务的联合优化。案例中光储协同参与调频备用服务的模式,可直接应用于我司1...

光伏发电技术 强化学习 ★ 5.0

解锁建筑一体化光伏与电池

BIPVB)系统深度强化学习中的预测洞察力与可解释性

Yuan Gao · Zehuan Hu · Shun Yamat · Junichiro Otomo 等9人 · Applied Energy · 2025年1月 · Vol.384

摘要 可再生能源的部署以及智能能源管理策略的实施对于建筑能源系统(BES)的脱碳至关重要。尽管数据驱动的深度强化学习(DRL)在优化BES方面已取得近期进展,但仍存在显著挑战,例如缺乏针对时间序列数据观测空间的研究以及模型可解释性的不足。本文首次将未来预测信息引入DRL算法中,以构建时间序列数据的观测空间,并采用门控循环单元(GRU)和Transformer网络与DRL算法相结合,用于建筑一体化光伏与电池(BIPVB)系统的运行控制。此外,通过将前沿的Shapley加性解释(SHAP)技术与所开...

解读: 该深度强化学习优化技术对阳光电源光储一体化系统具有重要应用价值。研究中的GRU/Transformer时序预测与DRL决策框架可直接应用于ST系列储能变流器的智能调度策略,结合电价预测信息实现成本降低10%以上。SHAP可解释性分析方法可增强iSolarCloud平台的AI决策透明度,为PowerT...

储能系统技术 强化学习 ★ 5.0

点对点太阳能与储能交易:一种基于网络化多智能体强化学习的方法

Peer-to-peer energy trading of solar and energy storage: A networked multiagent reinforcement learning approach

Chen Feng · Andrew L.Liu · Applied Energy · 2025年1月 · Vol.383

摘要 利用分布式可再生能源,特别是太阳能和储能系统,通过点对点(P2P)能源交易在本地配电网中运行,长期以来被视为提升能源系统韧性与可持续性的一种解决方案。然而,消费者和产消者(即拥有光伏系统和/或储能设备的用户)缺乏参与重复性P2P交易所需的专业知识,而可再生能源边际成本为零的特点也给公平市场价格的确定带来了挑战。为解决这些问题,本文提出多智能体强化学习(MARL)框架,以帮助自动化消费者对其光伏系统和储能资源的投标与管理行为,该框架基于一种采用供需比(supply–demand ratio)...

解读: 该多智能体强化学习框架对阳光电源ST系列储能变流器和SG光伏逆变器的协同控制具有重要价值。可将MARL算法集成到iSolarCloud平台,实现分布式光储资产的自主竞价与能量管理优化。特别是供需比清算机制与物理网络约束的结合,为PowerTitan储能系统在虚拟电厂场景下的P2P交易提供可行路径,提...

风电变流技术 储能系统 强化学习 ★ 5.0

风电场在中长期滚动交易中的策略性投标:一种双层多智能体深度强化学习方法

Strategic bidding of wind farms in medium-to-long-term rolling transactions: A bi-level multi-agent deep reinforcement learning approach

Yi Zheng · Jian Wang · Chengmin Wang · Chunyi Huang 等6人 · Applied Energy · 2025年1月 · Vol.383

摘要 随着可再生能源在电力市场中渗透率的不断提高,边际电价受到抑制,给风电生产商的盈利能力带来了挑战。为此,有效的中长期(MLT)滚动交易能够对冲现货市场价格风险,提升盈利水平。然而,传统的投标方法往往难以捕捉风电出力及交易动态在较长时间跨度内的复杂不确定性。本文提出了一种专为优化风电中长期滚动交易而设计的双层多智能体深度强化学习(DRL)方法。该方法创新性地将Black–Scholes模型与Hamiltonian函数相结合,构建了一个最优决策框架,能够在短期投标效率与长期战略定位之间实现平衡。...

解读: 该深度强化学习竞价策略对阳光电源储能系统(ST系列PCS、PowerTitan)具有重要应用价值。通过双层多智能体优化框架,可提升风储联合系统在中长期电力市场的收益能力,有效对冲现货价格风险。其时空建模技术可集成至iSolarCloud平台,实现储能参与市场交易的智能决策,优化充放电策略。结合阳光电...

光伏发电技术 DAB 可靠性分析 强化学习 ★ 5.0

基于多智能体强化学习的社区共享储能-光伏系统用于电动汽车负荷管理

Community shared ES-PV system for managing electric vehicle loads via multi-agent reinforcement learning

Baligen Talihati · Shiyi Fu · Bowen Zhang · Yuqing Zhao 等6人 · Applied Energy · 2025年1月 · Vol.380

摘要 在全球能源转型背景下,电动汽车(EV)的快速增长已成为不可逆转的趋势。然而,大规模电动汽车的接入对电力系统的稳定性与可靠性带来了严峻挑战。本研究提出通过社区共享的储能与光伏发电(ES-PV)系统来缓解电动汽车负荷带来的压力。在多智能体强化学习(MARL)框架下,多个决策智能体协同工作,共同管理社区内的各类变量与系统,包括储能系统的充放电策略、智能电动汽车充电策略以及ES-PV系统的电价策略。通过MARL实现的协调与优化,使上述策略能够应对各变量之间的相互依赖关系及动态变化,从而提升整体系统...

解读: 该多智能体强化学习框架对阳光电源社区能源解决方案具有重要价值。研究验证了光储系统可承载38.68%电动车负荷,与公司ST系列储能变流器、SG光伏逆变器及充电桩产品形成协同。多智能体协同优化储能充放电、智能充电及电价策略的思路,可融入iSolarCloud平台,提升社区微网的GFM控制性能。光伏自消纳...

储能系统技术 储能系统 调峰调频 强化学习 ★ 5.0

受章鱼启发的互联电网协同负荷频率控制:一种多智能体深度元强化学习方法

Bionic cooperative load frequency control in interconnected grids: A multi-agent deep Meta reinforcement learning approach

Jiawen Li · Jichao Dai · Haoyang Cui · Applied Energy · 2025年1月 · Vol.379

摘要 在基于性能的调频市场环境下运行的互联电网中,缺乏协调的频率控制策略以及联络线中的功率波动可能加剧电网运营商之间的利益冲突,导致频率波动更加频繁且严重。为应对这些挑战并提升电网稳定性,本文提出了受章鱼启发的协同负荷频率控制(Squid-Inspired Cooperative Load Frequency Control, SC-LFC)方法。该方法模仿章鱼中观察到的分布式神经决策机制,将每个区域内的各个机组视为独立的智能体。在实时应用中,各机组独立采集本地频率与状态信息,从而避免因区域间通...

解读: 该仿生协同负荷频率控制技术对阳光电源ST系列储能变流器及PowerTitan系统具有重要应用价值。多智能体深度元强化学习算法可集成至储能系统的调频控制策略,使每个储能单元作为独立智能体实时响应电网频率波动,避免通信延迟导致的协调失效。结合阳光电源GFM/VSG控制技术,可显著提升多区域互联电网中储能...

光伏发电技术 强化学习 ★ 5.0

基于鲁棒深度强化学习的考虑输电网电压波动的多馈线配电网分布式电压控制

Distributed voltage control for multi-feeder distribution networks considering transmission network voltage fluctuation based on robust deep reinforcement learning

Zhi Wu · Yiqi Li · Xiao Zhang · Shu Zheng 等5人 · Applied Energy · 2025年1月 · Vol.379

摘要 在多馈线配电网中,区域间光伏出力与负荷需求的功率平衡问题更加复杂。为解决上述问题,本文提出一种基于鲁棒深度强化学习的多智能体分布式电压控制策略,以降低电压偏差。将整个多馈线配电网划分为主智能体和多个子智能体,建立了一种考虑输电网电压波动及其对应功率波动的多智能体分布式电压控制模型。主智能体基于子智能体上传的信息,将输电网电压波动及相应功率波动的不确定性建模为对系统状态的扰动,并采用鲁棒深度强化学习方法确定有载调压变压器分接头的位置。进一步地,各子智能体利用二阶锥松弛技术调节每条馈线上逆变器...

解读: 该多馈线分布式电压控制技术对阳光电源ST系列储能变流器和SG系列光伏逆变器具有重要应用价值。论文提出的主从代理架构可应用于iSolarCloud平台,实现毫秒级电压调节决策。鲁棒深度强化学习方法可增强PowerTitan储能系统应对电网电压波动的能力,二阶锥松弛技术优化逆变器无功输出与阳光电源现有M...

储能系统技术 储能系统 强化学习 ★ 5.0

基于对抗性模仿强化学习的混合储能电动汽车能量管理

Imitation reinforcement learning energy management for electric vehicles with hybrid energy storage system

Weirong Liu · Pengfei Yao · Yue Wu · Lijun Duan 等6人 · Applied Energy · 2025年1月 · Vol.378

深度强化学习已成为电动汽车能量管理的一种有前景的方法。然而,深度强化学习依赖大量试错训练才能获得近似最优性能。为此,本文提出一种面向混合储能系统的电动汽车对抗性模仿强化学习能量管理策略,以最小化电池容量损耗成本。首先,利用动态规划在多种标准驾驶条件下生成专家知识,用于引导强化学习的探索过程,该专家知识表示为最优功率分配映射。其次,在早期模仿阶段,通过对抗网络使强化学习智能体的动作快速逼近最优功率分配映射。再次,根据对抗网络中判别器的输出设计动态模仿权重,促使智能体在在线驾驶条件下逐步过渡到自主探...

解读: 该对抗模仿强化学习策略对阳光电源混合储能系统具有重要应用价值。可应用于ST系列PCS的电池-超级电容混合储能优化,通过专家知识引导的强化学习加速训练42.6%,降低电池容量损耗成本5.1%-12.4%。技术可集成至iSolarCloud平台实现在线工况自适应功率分配,延长PowerTitan储能系统...

智能化与AI应用 微电网 强化学习 ★ 5.0

基于个性化联邦强化学习的多微电网协同优化调度低碳经济方法

Cooperative optimal dispatch of multi-microgrids for low carbon economy based on personalized federated reinforcement learning

Ting Yang · Zheming Xu · Shijie Ji · Guoliang Liu 等6人 · Applied Energy · 2025年1月 · Vol.378

摘要 互联多微电网(MMG)系统的协同优化调度为大规模可再生能源资源的高效利用提供了广阔前景和重要机遇。此类系统有助于实现能源资源的最优配置,并提升运行成本的经济性。然而,在协同优化调度过程中,异构微电网(MG)实体之间利益诉求的差异导致数据共享受阻,并引发隐私泄露问题。此外,多能耦合关系与高维决策过程进一步加剧了该问题的复杂性,可能导致优化过程难以收敛以及能源管理精度下降。同时,新建微电网缺乏运行数据与调度经验,制约了其调度任务的快速“冷启动”能力。为弥补上述研究空白,本文提出一种基于聚类的个...

解读: 该联邦强化学习多微网协同调度技术对阳光电源ST储能系统和iSolarCloud平台具有重要应用价值。可应用于PowerTitan储能集群的分布式优化调度,在保护各微网数据隐私前提下实现碳-电联合交易优化,降低综合成本5.78%、碳排放8.43%。其冷启动迁移策略可加速新建微网接入速度提升42.83%...

储能系统技术 储能系统 强化学习 ★ 5.0

用于海上风电场维护调度的深度强化学习集成方法

A deep reinforcement learning ensemble for maintenance scheduling in offshore wind farms

Namkyoung Lee · Joohyun Wooc · Sungryul Kimbd · Applied Energy · 2025年1月 · Vol.377

摘要 海上风能作为可持续发电的核心组成部分,随着风电场规模扩大以实现成本效益,其运行面临的挑战日益加剧,其中包括必须应对由尾流效应和天气波动引起的功率波动问题。本研究提出了一种基于领域知识的深度Q网络(DQN)框架,旨在优化维护资源的分配以及维护任务的战略选择,相较于默认风况条件,发电量提升了11.1%。通过引入多种尾流模型以提高决策精度,将维护调度问题建模为马尔可夫决策过程(MDPs),以应对维护调度中的复杂性。一个显著的创新点是引入卷积层,有效加快了算法的收敛速度。结果表明,所提出的模型在提...

解读: 该深度强化学习运维调度技术对阳光电源海上风储系统具有重要应用价值。可集成至iSolarCloud平台,结合ST系列储能变流器和PowerTitan系统,通过DQN算法优化风电场功率波动补偿策略。其马尔可夫决策模型可应用于大规模储能电站的预测性维护调度,卷积神经网络加速收益与阳光GFM控制快速响应特性...

智能化与AI应用 多物理场耦合 热仿真 强化学习 ★ 4.0

耦合计算流体动力学与深度强化学习的点吸收式波浪能转换装置在不规则波浪环境中的锁定控制

Latching control of a point absorber wave energy converter in irregular wave environments coupling computational fluid dynamics and deep reinforcement learning

Hao Qin · Haowen Sua · Zhixuan Wen · Hongjian Liangb · Applied Energy · 2025年1月 · Vol.396

摘要 本文提出了一种新颖的锁定控制模型,该模型耦合计算流体动力学(CFD)与深度强化学习(DRL),以提升点吸收式波浪能转换装置(WEC)的波浪能量捕获性能。首先,构建了一个数值波浪水槽(NWF)以生成不可预测的不规则波浪,并基于CFD模拟WEC与波浪之间的双向耦合作用,从而为DRL输入构建非线性的环境状态空间。同时,设计了一种基于软演员-评论家(Soft Actor-Critic, SAC)算法的训练方法,无需显式参数调节,实现非预测性的锁定控制智能体。其次,利用CFD-DRL耦合模型,在并行...

解读: 该CFD-DRL耦合控制技术对阳光电源储能系统具有重要借鉴价值。论文中SAC算法实现的非预测性控制策略,可应用于ST系列PCS的能量管理优化,通过深度强化学习应对电网波动的非线性特性,类似波浪能转换器应对不规则波浪。多物理场耦合仿真方法可增强PowerTitan储能系统的热管理与功率控制协同优化。该...

氢能与燃料电池 强化学习 ★ 4.0

基于深度强化学习的氢燃料电池列车能量与热管理协同优化策略

Collaborative optimization strategy of hydrogen fuel cell train energy and thermal management system based on deep reinforcement learning

Kangrui Jiang · Zhongbei Tian · Tao Wen · Kejian Song 等6人 · Applied Energy · 2025年1月 · Vol.393

摘要 轨道交通脱碳已成为轨道交通行业未来发展的主要方向。氢燃料电池(HFC)列车因其零碳排放和较低的改造成本,成为具有竞争力的潜在解决方案。然而,由于氢气在储存、运输和利用方面面临的挑战,其成本较高,仍是制约HFC列车商业化的主要因素。温度对HFC的能量转换效率和寿命具有显著影响,其热管理要求比内燃机更为严格。现有的HFC列车能量管理系统(EMS)通常忽略了HFC温度变化对能量转换效率的影响,难以根据环境动态条件实现能量与热管理的实时平衡控制。为解决这一问题,本文提出一种基于深度强化学习(DRL...

解读: 该深度强化学习能量-热管理协同优化技术对阳光电源氢能及储能系统具有重要借鉴价值。其MDP建模与双深度Q学习算法可应用于ST系列PCS的多能源协调控制,实现电池SOC动态平衡与温控优化。该方法在充电站EV Solutions中可优化充电功率分配,降低设备热应力;在PowerTitan储能系统中可提升变...

电动汽车驱动 模型预测控制MPC 强化学习 ★ 4.0

基于强化学习与多目标模型预测控制的热电联产机组灵活经济运行双层优化策略

A bi-level optimization strategy for flexible and economic operation of the CHP units based on reinforcement learning and multi-objective MPC

Keyan Zhu · Guangming Zhang · Chen Zhu · Yuguang Niu 等5人 · Applied Energy · 2025年1月 · Vol.391

摘要 提升热电联产(CHP)机组的综合性能对于消纳可再生能源和实现节能减排具有重要意义。为此,本文提出一种基于强化学习(RL)与多目标模型预测控制(MOMPC)的双层优化策略,以提升CHP机组的灵活性与经济运行性能。首先,构建了CHP机组模型,并将其各类参数纳入MOMPC的滚动优化过程中,作为下层跟随者以求解基础控制问题。其次,提出了一种融合双延迟深度确定性策略梯度(TD3)算法与MOMPC的双层优化策略(TD3-MOMPC),将TD3智能体设定为上层领导者;通过分解复杂的灵活性需求与CHP机组...

解读: 该双层优化策略对阳光电源储能系统(ST系列PCS/PowerTitan)具有重要应用价值。TD3强化学习与多目标MPC结合的架构可借鉴至储能参与调频调峰场景:上层TD3智能体动态调整MPC权重和预测时域,下层MPC执行功率控制,实现灵活性与经济性平衡。该方法可优化储能系统在新能源消纳中的充放电策略,...

电动汽车驱动 储能系统 强化学习 ★ 4.0

基于联邦强化学习的多连接混合动力汽车集成热能与能量隐私保护管理

Privacy-preserving integrated thermal and energy management of multi connected hybrid electric vehicles with federated reinforcement learning

Arash Khalatbarisoltani · Jie Han · Muhammad Saee · Cong-zhi Liu 等5人 · Applied Energy · 2025年1月 · Vol.385

摘要 深度强化学习(DRL)算法在针对预定义驾驶循环下开发单个混合动力电动汽车(HEV)最优能量管理策略(EMS)方面已展现出优异的性能。然而,在该研究领域中,热负荷及热管理(TM)的影响常被忽视。此外,HEV可能面临未见过的驾驶模式,从而影响EMS的整体性能。连接型HEV(C-HEV)提供了有前景的解决方案,但仍存在隐私、安全和通信负载等问题。本文提出一种基于联邦强化学习(FRL)的新型集成热能与能量管理(ITEM)方法,旨在实现多个C-HEV之间的通用化策略。该框架能够在拓展多环境学习能力的...

解读: 该联邦强化学习架构对阳光电源充电桩及储能系统具有重要价值。其隐私保护的分布式学习机制可应用于iSolarCloud平台,实现多站点充电桩协同优化而无需上传敏感数据。热管理与能量管理集成策略可迁移至ST系列PCS的温控优化,通过多储能站点联合学习提升功率变换效率和电池热管理性能。云端-边缘协同架构与阳...