The objective of this article is to minimize the cost of energy purcha的简体中文翻译

The objective of this article is to

The objective of this article is to minimize the cost of energy purchased on a real-time basis for a storage-integrated photovoltaic (PV) system installed in a microgrid. Under non-linear storage charging/discharging characteristics, as well as uncertain solar energy generation, demands, and market prices, it is a complex task. It requires a proper level of tradeoff between storing too much and too little energy in the battery: future excess PV energy is lost in the former case, and demand is exposed to future high electricity prices in the latter case. We propose a reinforcement learning approach to deal with a non-stationary environment and non-linear storage characteristics. To make this approach applicable, a novel formulation of the decision problem is presented, which focuses on the optimization of grid energy purchases rather than on direct storage control. This limits the complexity of the state and action space, making it possible to achieve satisfactory learning speed and avoid stability issues. Then the Q-learning algorithm combined with a dense deep neural network for function representation is used to learn an optimal decision policy. The algorithm incorporates enhancements that were found to improve learning speed and stability by prior work, such as experience replay, target network, and increasing discount factor. Extensive simulation results performed on real data confirm that our approach is effective and outperforms rule-based heuristics.
0/5000
源语言: -
目标语言: -
结果 (简体中文) 1: [复制]
复制成功!
本文的目的是最大程度地减少安装在微电网中的集成光伏存储(PV)系统的实时能源购买成本。在非线性存储充电/放电特性以及不确定的太阳能发电,需求和市场价格的情况下,这是一项复杂的任务。这需要在电池中存储过多和过少的能量之间进行适当的权衡:在前一种情况下,未来的多余PV能量会损失,而在后一种情况下,需求会受到未来高电价的影响。我们提出一种强化学习方法来应对非平稳环境和非线性存储特征。为了使这种方法适用,提出了决策问题的新颖表达,它着重于优化电网能源购买,而不是直接存储控制。这限制了状态和动作空间的复杂性,从而有可能实现令人满意的学习速度并避免出现稳定性问题。然后将Q学习算法与密集的深层神经网络相结合来进行功能表示,以学习最优决策策略。该算法合并了一些增强功能,这些增强功能可以通过先前的工作来提高学习速度和稳定性,例如体验重播,目标网络和增加的折扣系数。对真实数据进行的大量仿真结果证实了我们的方法是有效的,并且优于基于规则的启发式算法。可以达到令人满意的学习速度并避免出现稳定性问题。然后将Q学习算法与密集的深层神经网络相结合来进行功能表示,以学习最优决策策略。该算法合并了一些增强功能,这些增强功能可以通过先前的工作来提高学习速度和稳定性,例如体验重播,目标网络和增加的折扣系数。对真实数据进行的大量仿真结果证实了我们的方法是有效的,并且优于基于规则的启发式算法。可以达到令人满意的学习速度并避免出现稳定性问题。然后将Q学习算法与密集的深层神经网络相结合来进行功能表示,以学习最优决策策略。该算法合并了一些增强功能,这些增强功能可以通过先前的工作来提高学习速度和稳定性,例如体验重播,目标网络和增加的折扣系数。对真实数据进行的大量仿真结果证实了我们的方法是有效的,并且优于基于规则的启发式算法。并增加折扣率。对真实数据进行的大量仿真结果证实了我们的方法是有效的,并且优于基于规则的启发式算法。并增加折扣率。对真实数据进行的大量仿真结果证实了我们的方法是有效的,并且优于基于规则的启发式算法。
正在翻译中..
结果 (简体中文) 2:[复制]
复制成功!
本文的目的是最大限度地降低在微电网中安装的存储集成光伏 (PV) 系统实时购买的能源成本。在非线性存储充电/放电特性以及太阳能发电、需求和市场价格不确定的情况下,这是一项复杂的任务。它要求在电池中储存过多和能量过少之间的适当权衡:未来过剩的光伏能源在上一种情况下丢失,而需求在后一种情况下暴露在未来的高电价下。我们提出了一种强化学习方法,用于处理非静止环境和非线性存储特性。为使这种方法适用,提出了决策问题的新表述,重点是电网能源采购的优化,而不是直接存储控制。这限制了状态和行动空间的复杂性,使得实现令人满意的学习速度和避免稳定性问题成为可能。然后,利用Q学习算法与密集的深度神经网络进行函数表示相结合,学习最佳决策策略。该算法包含了通过先前工作(如体验重播、目标网络和增加折扣系数)提高学习速度和稳定性的增强功能。对真实数据执行的广泛仿真结果证实,我们的方法是有效的,并且优于基于规则的启发式方法。
正在翻译中..
结果 (简体中文) 3:[复制]
复制成功!
本文的目标是最小化安装在微电网中的存储集成光伏(PV)系统的实时能源购买成本。在非线性储能充放电特性以及太阳能发电量、需求和市场价格不确定的情况下,这是一项复杂的任务。它需要在电池中储存太多和太少的能量之间进行适当的权衡:在前一种情况下,未来过剩的光伏能源将损失,而在后一种情况下,需求将面临未来高电价的影响。我们提出了一种强化学习方法来处理非平稳环境和非线性存储特性。为了使该方法适用,本文提出了一种新的决策问题的形式,它的重点是优化电网能源购买,而不是直接存储控制。这限制了状态空间和动作空间的复杂性,使得获得令人满意的学习速度和避免稳定性问题成为可能。然后利用Q学习算法结合稠密深层神经网络进行函数表示,学习最优决策策略。该算法结合了先前工作中发现的提高学习速度和稳定性的增强功能,如经验回放、目标网络和增加折扣因子。在实际数据上的大量仿真结果证实了我们的方法是有效的,并且优于基于规则的启发式算法。<br>
正在翻译中..
 
其它语言
本翻译工具支持: 世界语, 丹麦语, 乌克兰语, 乌兹别克语, 乌尔都语, 亚美尼亚语, 伊博语, 俄语, 保加利亚语, 信德语, 修纳语, 僧伽罗语, 克林贡语, 克罗地亚语, 冰岛语, 加利西亚语, 加泰罗尼亚语, 匈牙利语, 南非祖鲁语, 南非科萨语, 卡纳达语, 卢旺达语, 卢森堡语, 印地语, 印尼巽他语, 印尼爪哇语, 印尼语, 古吉拉特语, 吉尔吉斯语, 哈萨克语, 土库曼语, 土耳其语, 塔吉克语, 塞尔维亚语, 塞索托语, 夏威夷语, 奥利亚语, 威尔士语, 孟加拉语, 宿务语, 尼泊尔语, 巴斯克语, 布尔语(南非荷兰语), 希伯来语, 希腊语, 库尔德语, 弗里西语, 德语, 意大利语, 意第绪语, 拉丁语, 拉脱维亚语, 挪威语, 捷克语, 斯洛伐克语, 斯洛文尼亚语, 斯瓦希里语, 旁遮普语, 日语, 普什图语, 格鲁吉亚语, 毛利语, 法语, 波兰语, 波斯尼亚语, 波斯语, 泰卢固语, 泰米尔语, 泰语, 海地克里奥尔语, 爱尔兰语, 爱沙尼亚语, 瑞典语, 白俄罗斯语, 科西嘉语, 立陶宛语, 简体中文, 索马里语, 繁体中文, 约鲁巴语, 维吾尔语, 缅甸语, 罗马尼亚语, 老挝语, 自动识别, 芬兰语, 苏格兰盖尔语, 苗语, 英语, 荷兰语, 菲律宾语, 萨摩亚语, 葡萄牙语, 蒙古语, 西班牙语, 豪萨语, 越南语, 阿塞拜疆语, 阿姆哈拉语, 阿尔巴尼亚语, 阿拉伯语, 鞑靼语, 韩语, 马其顿语, 马尔加什语, 马拉地语, 马拉雅拉姆语, 马来语, 马耳他语, 高棉语, 齐切瓦语, 等语言的翻译.

Copyright ©2024 I Love Translation. All reserved.

E-mail: