找到 4 条结果 · IEEE Access

排序:
储能系统技术 储能系统 可靠性分析 强化学习 ★ 5.0

数字孪生与TD3算法实现车联网中电动汽车能量管理优化

Digital Twin and TD3-Enabled Optimization of xEV Energy Management in Vehicle-to-Grid Networks

Irum Saba · Abdulraheem H. Alobaidi · Sultan Alghamdi · Muhammad Tariq · IEEE Access · 2025年5月

电动汽车快速普及需优化储能系统管理以提升性能、寿命和可靠性。传统ESS管理方法在实时状态估计、能量优化和预测性维护方面存在困难,导致电池利用和可持续性效率低下。本文提出先进ESS框架,集成数字孪生DT技术和双延迟深度确定性策略梯度TD3算法(源自DDPG的最先进强化学习方法)。该集成实现关键ESS状态(SOC、SOH、SOE和RUL)的精确实时估计,增强预测性维护和运营效率。所提框架促进主动电池健康监控,生成潜在故障早期预警,通过DT驱动ESS控制实现智能电池更换。通过动态调整ESS控制策略,T...

解读: 该数字孪生技术对阳光电源新能源汽车业务具有重要价值。阳光OBC车载充电机和BMS系统需要精准的电池状态估计和智能能量管理。该研究的DT-TD3框架可集成到阳光车辆能量管理系统,实现99.8%的高精度SOC/SOH估计,优化充电策略和电池寿命管理。在V2G车网互动场景下,该技术可预测电池健康状态,智能...

光伏发电技术 储能系统 SiC器件 MPPT ★ 5.0

新型SEPIC衍生半桥式PFC变换器用于电池充电应用

New SEPIC Derived Semi-Bridgeless PFC Converter for Battery Charging Application

Sampson E. Nwachukwu · Komla A. Folly · Kehinde O. Awodele · IEEE Access · 2025年4月

本文提出交直流半桥双开关SEPIC变换器,专为电池充电设计。通过改进结构显著降低交流输入电流总谐波畸变率,提升功率因数。变换器工作在断续导通模式以实现低电流THD,同时大幅减小电感尺寸。采用两个功率开关实现功率因数校正,主要创新在于通过电感电容能量平衡原理设计电路结构,确保低THD和单位功率因数。阻断二极管消除输入电感环流,提升效率。100W/53V原型测试显示电流THD为2.1%、单位功率因数、额定工况效率92.4%。

解读: 该PFC变换器技术与阳光电源OBC车载充电机设计理念一致。阳光OBC产品追求高功率因数、低THD和高效率,该半桥SEPIC拓扑无需额外PFC控制算法即可实现2.1% THD,优于传统方案。该技术可应用于阳光下一代OBC产品,减小电感体积,提升功率密度,在800V高压快充平台上实现更紧凑的设计和更高的...

电动汽车驱动 储能系统 充电桩 微电网 ★ 5.0

基于无模型深度强化学习的微电网能量管理

Energy Management in Microgrids Using Model-Free Deep Reinforcement Learning Approach

Odia A. Talab · Isa Avci · IEEE Access · 2025年1月

随着智能电网技术的发展,微电网在整合风能、太阳能等可再生能源方面发挥着关键作用。然而,可再生能源的间歇性及电动汽车与快充站负荷的增长,给微电网运行的稳定性与效率带来挑战。本文提出一种无模型的实时能量管理策略,无需传统不确定性建模即可应对源荷双重不确定性。将问题建模为马尔可夫决策过程,并采用基于Actor-Critic架构的深度确定性策略梯度算法实现动态优化。仿真结果表明,该方法总成本降至51.8770 €ct/kWh,较Dueling DQN和DQN分别降低3.19%和4%,验证了其在现代微电网...

解读: 该无模型深度强化学习能量管理技术对阳光电源微电网解决方案具有重要应用价值。可直接应用于PowerTitan储能系统与ST系列储能变流器的能量调度优化,通过DDPG算法实现光伏-储能-充电桩的实时协同控制,无需复杂的不确定性建模即可应对源荷波动。该方法可集成至iSolarCloud云平台,提升微电网E...

储能系统技术 储能系统 强化学习 ★ 4.0

基于竞争深度Q网络的移动边缘计算部分卸载与资源分配深度强化学习

Deep Reinforcement Learning With Dueling DQN for Partial Computation Offloading

Ehzaz Mustafa · Junaid Shuja · Faisal Rehman · Abdallah Namoun 等6人 · IEEE Access · 2025年5月

计算卸载将IoT设备资源密集型任务转移到强大边缘服务器,最小化延迟并降低计算负载。深度强化学习广泛用于优化卸载决策,但现有研究存在两大不足:未全面优化状态空间,且Q学习和DQN在大动作空间中难以辨别最优动作。本文提出多分支竞争深度Q网络MBDDQN,解决高维状态-动作空间和动态环境长期成本优化挑战。竞争DQN缓解同步卸载和资源分配决策复杂性,每个分支独立控制决策变量子集,随IoT设备增加高效扩展,避免组合爆炸。实施LSTM网络和独特优势-价值层增强短期动作选择和长期成本估计,提升模型时序学习能力...

解读: 该多分支强化学习技术可应用于阳光电源储能系统的智能调度优化。阳光ST储能变流器在电网侧和工商业场景面临多目标优化挑战,需同时考虑能耗、响应延迟和功率分配。该MBDDQN算法的自适应权重机制可集成到阳光EMS能量管理系统,实现储能系统在削峰填谷、调频调峰和需求响应等多场景下的动态优化。结合阳光iSol...