CN114298429A - 一种配电网动案辅助决策方法、***、装置和存储介质 - Google Patents
一种配电网动案辅助决策方法、***、装置和存储介质 Download PDFInfo
- Publication number
- CN114298429A CN114298429A CN202111661200.8A CN202111661200A CN114298429A CN 114298429 A CN114298429 A CN 114298429A CN 202111661200 A CN202111661200 A CN 202111661200A CN 114298429 A CN114298429 A CN 114298429A
- Authority
- CN
- China
- Prior art keywords
- power distribution
- distribution network
- decision
- model
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000009826 distribution Methods 0.000 title claims abstract description 133
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000003860 storage Methods 0.000 title claims abstract description 11
- 230000002787 reinforcement Effects 0.000 claims abstract description 37
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 27
- 230000008569 process Effects 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 15
- 230000009471 action Effects 0.000 claims description 38
- 238000013528 artificial neural network Methods 0.000 claims description 26
- 238000004590 computer program Methods 0.000 claims description 14
- 238000010248 power generation Methods 0.000 claims description 10
- 230000003993 interaction Effects 0.000 claims description 6
- 230000007246 mechanism Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000002068 genetic effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000004140 cleaning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000002285 radioactive effect Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000001351 cycling effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Landscapes
- Supply And Distribution Of Alternating Current (AREA)
Abstract
本发明公开了一种配电网动案辅助决策方法、***、装置和存储介质,方法包括步骤:获取配电网在线运行数据;将所述配电网在线运行数据输入预设的配电网动案辅助决策模型中;所述配电网动案辅助决策模型输出令配电网安全未定运行的网络结构;所述配电网动案辅助决策模型基于DQN强化学习算法训练形成。对于在线配电网只需输入其对应的状态,就可以重构配电网的拓扑结构,又因为判断过程无需对整个配电网所有重构方案全部计算,计算量小,所耗用的时间较短,因而基于强化学习方法的配电网动案辅助决策方法具有运算速度快、效率高等优点。
Description
技术领域
本发明属于电网运行安全技术领域,具体涉及一种配电网动案辅助决策方法、***、装置和存储介质。
背景技术
随着城市配电网技术的迅速发展,配电网建设逐步进入高可靠性阶段。根据统计,在用户停电事故中四分之三以上都是由配电网出现故障导致。同时,随着分布式可再生能源(DRG)的普及,配电网面临着供需关系的变化。如何保证配电网的安全、经济运行变得越来越重要。配电网重构(Distribution network reconfiguration,DNR)通过控制连接开关的开/关状态来调整配电网的拓扑结构,可以减少网络损耗,提高配电网的电压质量,保证电网安全稳定运行。
传统的使用网络重构进行配电网调度优化方法,主要有暴力搜索算法和遗传算法等启发式算法。但配电网的网络拓扑结构复杂、分布相对分散、设备种类繁多、设备运行状态易受外部因素影响等特点,使采用传统方法进行网络重构时计算量大,相应的造成了所耗用时间较长,导致最终的重构效率偏低。
发明内容
本发明的目的在于提供一种配电网动案辅助决策方法、***、装置和存储介质,以解决现有技术中,传统遗传算法等启发式方法因计算时间过长而导致的决策效率低,决策不及时等问题。
为了实现上述目的,本发明采用如下技术方案:
本发明的第一方面,提供了一种基于深度神经网络的配电网动案辅助决策方法,包括如下步骤:
获取配电网在线运行数据;
将所述配电网在线运行数据输入预设的配电网动案辅助决策模型中;所述配电网动案辅助决策模型输出令配电网安全未定运行的网络结构;
其中,所述配电网动案辅助决策模型基于DQN强化学习算法训练形成。
可选的,所述配电网在线运行数据包括实时或者预测的开关状态、风机发电、光伏发电和负荷大小。
可选的,所述配电网动案辅助决策模型的获取方式如下:
获取配电网历史运行数据;
设置ε-greedy策略选取动作;
基于所述配电网历史运行数据建立配电网***环境模型,并构建智能体的深度强化学习模型;
基于预设置的ε-greedy策略,利用配电网***环境模型和深度强化学习模型进行离线训练和学习,得到满足误差要求的配电网动案辅助决策模型。
可选的,获取配电网历史运行数据后,对所述配电网历史运行数据进行预处理,将配电网历史运行数据转化为适合强化学习算法的原始样本集。
可选的,利用配电网***环境模型和深度强化学习模型进行离线训练和学习,具体包括:
配电网***环境模型每执行一次深度强化学习模型给出的动作,会返回新的***状态并计算相应的奖励值;而深度强化学习模型根据当前状态,以输出能够最大化奖励期望值的控制动作为目标,在与配电网***环境模型交互过程中不断学习并改进动作策略。
可选的,建立配电网***环境模型包括:设置智能体状态空间、动作空间以及智能体奖励/惩罚机制。
可选的,构建智能体的深度强化学习模型时,使用两个神经网络,一个真实网络产生当前Q值,另外一个目标网络Q target,两个神经网络初始权重和参数相同、参数更新速度不同。
本发明的第二方面,提供了一种用于所述基于深度神经网络的配电网动案辅助决策方法的***,包括:
数据获取模块,用于获取配电网在线运行数据;
预测模块,用于将所述配电网在线运行数据输入预设的配电网动案辅助决策模型中;所述配电网动案辅助决策模型输出令配电网安全未定运行的网络结构。
本发明的第三方面,提供了一种计算机装置,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现所述的基于深度神经网络的配电网动案辅助决策方法。
本发明的第四方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时,实现所述的基于深度神经网络的配电网动案辅助决策方法。
本发明的有益效果如下:
(A)本发明提供的基于神经网络的配电网动案辅助决策方法,利用人工智能算法解决配电网动案辅助决策的思路是:首先将配电网风险预警问题转化成马尔科夫决策过程,选取配电网的网络结构、发电量及负荷量等作为状态,将所有可调用线路开关的开闭作为动作,将确保电网的辐射性及安全稳定运行作为奖励,再利用DON强化学习算法训练配电网辅助决策模型。这样对于在线配电网只需输入其对应的状态,就可以重构配电网的拓扑结构,又因为判断过程无需对整个配电网所有重构方案全部计算,计算量小,所耗用的时间较短,因而基于强化学习方法的配电网动案辅助决策方法具有运算速度快、效率高等优点。
(B)本发明采用的DQN算法即为强化学习领域中应用广泛,且性能优异的算法,它融合了深度神经网络和Q-learning的强化学习算法,与传统的Q-learning算法相比,它拥有深层次的神经网络,储存的动作也更多,可以很好解决“维数灾”的问题,适合用来决策各种离散动作。
附图说明
构成本申请的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明实施例配电网动案辅助决策方法流程图;
图2为本发明实施例中强化学习智能体与环境交互的过程结构图;
图3为本发明实施例中DQN强化学习算法训练过程结构图;
图4为本发明实施例中马尔科夫决策过程(MDP)流程图;
图5为本发明实施例中DQN强化学习算法神经网络构成图。
具体实施方式
下面将参考附图并结合实施例来详细说明本发明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
以下详细说明均是示例性的说明,旨在对本发明提供进一步的详细说明。除非另有指明,本发明所采用的所有技术术语与本申请所属领域的一般技术人员的通常理解的含义相同。本发明所使用的术语仅是为了描述具体实施方式,而并非意图限制根据本发明的示例性实施方式。
本发明实施例提供了一种配电网动案辅助决策方法、***、装置和存储介质,解决目前传统遗传算法等启发式方法因计算时间过长而导致的决策效率低,决策不及时等问题。
如图1所示,本发明的第一方面,提供了一种基于深度神经网络的配电网动案辅助决策方法,使用强化学习算法模型自主学习配电网辅助决策过程,训练完成的模型可以根据当前配电网状态立刻做出决策,维持配电网的稳定运行,包括下述步骤:
步骤1:数据获取和预处理,选取某地区配电网历史运行数据作为数据源,将配电网辅助决策所涉及的配电网历史运行数据转化为适合强化学习算法的原始样本集。
具体来说,配电网历史运行数据包括:能够模拟配电***的数据(对应于RL中的“环境”)和各种输入数据(对应于RL中“状态”的部分,如风机数量、光伏发电数量、负载数量和开关操作频率等)。
本发明中数据预处理过程主要由下列步骤构成:
步骤11:配电***中的WT、PV和负载数量分别记为NWT,NPV和ND,则所需数据包括分布式可再生能源设备发电量数据集:
负载数据集:
步骤12:同时记录每个开关最后一次操作与当前时刻之间的时间间隔:
当时间间隔小于预设值时,在预设值范围内使该开关不动作。在前置时间到达TSW之后,该值不会进一步增加,足够表明开关没有过度使用。因此,SWtr不是预先准备好的,而是(在给它赋了一个初始值之后)从代理的动作中提取出来。
具体的,数据清理指的是消除缺失数据和错误测量(零值或负值)数据等问题数据,选择线性连接最接近的有效数据来执行。
步骤14:将规范化数据被分成训练集和测试集。
具体的,在普通的强化学习中,状态是通过智能体与环境的交互来更新的,不依赖于特殊的外部数据。本实施例中状态取决于对应于环境的配电***和分布式可再生能源***发电,并且负载数据会根据天气等外部条件而变化。如果不执行数据分离,DQN可能会在训练数据集中过度使用,从而可能导致配置失败。因此,本实施例中指定了一个测试集来验证DQN学习在相对恶劣的情况下是否正确执行。
步骤2:设置ε-greedy策略选取动作;
具体的,在强化学习中,代理的动作选择称为策略。强化学习的目的就是确定获得最高奖励的最佳策略。在训练之前,DQN随机初始化了权重和偏差值,因此最初并不能确定输出一个最高奖励的动作。所以代理采取随机行动来“探索”哪一个可以获得高回报,而不是一开始就依赖DQN的输出。所以本实施例用直观、简单的ε-greedy作为一种探索策略。
智能体以概率ε选择对应状态下Q值最大的动作,同时以1-ε的概率随机选择动作at,以保证能够在动作空间里尽可能的探索,ε-greedy公式如下所示:
在ε-greedy策略中,ε值越大,收敛越快,也越容易陷入局部最优。因此在本实施例中,在探索前期,智能体尚缺乏有效信息,以较大的概率在动作空间里探索,随着不断学习,其积累的经验知识趋于精确,逐渐减小ε。
步骤3:使用预处理后的数据建立配电网***环境模型,并构建智能体的深度强化学习模型。设置相应的状态空间、动作空间及奖励(惩罚)函数,利用DQN强化学习模型和模拟环境进行离线训练和学习,得到满足误差要求的配电网动案辅助决策模型。
图2为强化学习智能体与***环境交互过程。***环境每执行一次智能体给出的动作(action),会返回新的***状态(state)并计算相应的奖励值(reward);而智能体根据当前状态,以输出能够最大化奖励期望值的控制动作为目标,在与实际环境交互过程中不断学习并改进动作策略。
作为应用于本发明的示例,深度Q网络(deep Q network,DQN)通过神经网络拟合动作价值函数,在有限的状态与环境交互过程中学习到所有状态-动作对的Q值,从而学习到最优策略。
图3为DQN算法训练过程,步骤3具体包括下列步骤:
步骤31:构建配电网***环境模型;
配电网***环境模型是同智能体进行交互的电力***环境,即对于强化学习智能体给出的每一个动作,都可以计算出在此策略下是否存在风险,并反馈奖励函数,更新策略,不断迭代至学习到最优策略。
本实施例中,将环境形式化为马尔可夫决策过程(Markov decision process,MDP)。MD P可以被定义为一个元组(,A,P,R,γ),分别代表状态空间,动作空间,状态转移概率,回报函数和折扣因子。代理从环境中观察到状态st∈S,并在时间步长t采取行动at∈A,代理以概率P(st+1|st,at)到达新的状态st+1,同时接收奖励r(st,at,st+1)。其状态转化过程如图4所示。
步骤32:智能体动作空间
随机动作由一个包含0(打开开关)和1(关闭开关)的数组组成。当从DQN中提取动作时,输出层排列成数组形式,然后把想要关闭的开关用1替换,剩余的元素用0替换。然后将确定的动作输入到测试***,以实现打开或关闭每个开关,并通过将开关状态与存储的前一个动作的状态进行比较来更新SWtr。
步骤33:智能体奖励(惩罚)机制
智能体在时间周期内通过持续学习最大化其累计回报,在本申请中代理的主要目的是保持网络的辐射性。此外,重新配置的网络满足一般的电力网络约束;
作为本发明的一种示例,对于给定的发电量和负载量,将线路流量或总线电压保持在一定范围内。DQN模型的奖励(惩罚)机制为:
给定状态s和动作a,每个时间步长中的总奖励rt可以表示如下:
其中,L=网络中线路数量;Ii=第i行线路的载流量(百分比);α=线路超载惩罚权重;B=网络中总母线数;Vj=第j条线路电压标幺值;β=母线电压惩罚权重;γ=开关使用过度惩罚权重。
如果重新配置的网络是辐射形的,那么每个时间步都给代理一个特定的奖赏:rinit;否则,它将获得消极奖励(即惩罚),失败rfail,同时模拟情节将立即终止。
如果重新配置的网络是放射性的,当网络违反线路容量或母线电压约束时,智能体会根据违反的程度和每一次违反对应的权重因子对pline和pbus进行惩罚。
pline的计算方法是假设配电网线路的容量百分比为1,并将权重系数α乘以每条违规线路i。同样,pbus是计算假设稳定母线电压在0.95–1.05的范围内,并将权重系数β乘以每条违规母线j。此外,惩罚期psw阻止了分段开关的频繁运行。本实施例中使用切换记录来识别从开关最后一次动作起已经过去了多少时间,当swtr,k<TSW,psw通过权重因子γ乘以swtr,k和TSW之间的差来计算。在其他的一些实施例中,任何使用该模型的人都可以根据所应用的配电网环境调整惩罚权重因子。
步骤34:DQN算法流程;
本实施例中,通过DQN把Q-table更新转化为一函数拟合问题,通过拟合一个函数来代替Q-table产生Q值,使得相近的状态得到相近的输出动作深度神经网络对复杂特征的提取有很好效果,所以将DeepLearning与Reinforcement Learning结合,产生DQN算法。DQN强化学习算法神经网络构成如图5所示。
DQN算法的另一部分创新在于,通过experience replay(经验池)的方法来解决相关性及非静态分布问题。将时刻t的智能体的经验(st,at,rt,st+1)存储在大小为N的重放记忆D中。然后随机抽取样本形成一定规模的小批处理,并进行参数学习。由于记忆的限制和需要利用最新的数据进行训练这两个原因,使得经验池的大小是有限的。使用这种方法,可以减少与环境互动次数,提高数据效率,可以消除训练样本间相关性造成的偏差,提高泛化性能;使用两个神经网络,一个真实网络产生当前Q值,另外一个目标网络Qtarget,两个网络初始权重和参数都相同,但参数更新速度不同,用来减少数据的相关性。
具体算法流程如下:
(1)初始化回放记忆单元D,可容纳的数据条数为N;
(2)初始化真实Q网络,随机生成权重ω;
(3)以同样的结构和参数生成目标Q网络,权重ω′=ω;
(4)循环遍历,每次事件episode=1,2,…,M(其中M为总天数);
(6)循环遍历每个事件的每一步step=1,2,…,T;(以15min为间隔,将一天分成96个点,T=96)
(7)用∈-greedy策略生成动作at:以∈概率选择一个随机的动作at;如果小概率事件没发生,则用贪婪策略选择当前值函数最大的那个动作;
(8)在配电网仿真环境中执行开关动作;
(9)如果重新配置的网络是放射性的;
(11)否则rt=rfail;
(12)接收奖励rt及新的状态st+1;
(13)将转换结果(st,at,rt,st+1)存入D中;
(14)从D中均匀随机采样一个转换样本数据(sj,aj,rj,sj+1);
(15)判断是否是一个事件的终止状态,若是终止状态则奖励为rj;否则利用TD目标网络参数ω计算TD回报为:rj+γmaxa′Q(s′,a′,ω′);
(16)执行梯度下降算法更新网络参数;
(17)更新动作值函数逼近的网络参数θ=θ+Δθ;
(18)每隔C步更新目标Q网络;
(19)结束每次事件的循环;
(20)结束事件间的循环。
经过上述几个步骤的训练学习之后,形成基于强化学习算法的配电网动案辅助决策模型,从而实现对配电网网络结构的准确调控。
步骤4:直接使用配电网在线运行数据,利用配电网动案辅助决策模型在线进行配电网辅助决策。具体包括下列步骤:
步骤41:将配电网在线运行数据作为状态输入到配电网动案辅助决策模型;
作为本发明的一种示例,配电网在线运行数据为实时或者预测的开关状态、风机发电、光伏发电和负荷大小。
步骤42:配电网动案辅助决策模型直接输出令配电网安全稳定运行的网络结构。
本领域内的技术人员应明白,本申请的实施例可提供为方法、***、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
由技术常识可知,本发明可以通过其它的不脱离其精神实质或必要特征的实施方案来实现。因此,上述公开的实施方案,就各方面而言,都只是举例说明,并不是仅有的。所有在本发明范围内或在等同于本发明的范围内的改变均被本发明包含。
Claims (10)
1.一种基于深度神经网络的配电网动案辅助决策方法,其特征在于,包括如下步骤:
获取配电网在线运行数据;
将所述配电网在线运行数据输入预设的配电网动案辅助决策模型中;所述配电网动案辅助决策模型输出令配电网安全未定运行的网络结构;
其中,所述配电网动案辅助决策模型基于DQN强化学习算法训练形成。
2.根据权利要求1所述的基于深度神经网络的配电网动案辅助决策方法,其特征在于,所述配电网在线运行数据包括实时或者预测的开关状态、风机发电、光伏发电和负荷大小。
3.根据权利要求1所述的基于深度神经网络的配电网动案辅助决策方法,其特征在于,所述配电网动案辅助决策模型的获取方式如下:
获取配电网历史运行数据;
设置ε-greedy策略选取动作;
基于所述配电网历史运行数据建立配电网***环境模型,并构建智能体的深度强化学习模型;
基于预设置的ε-greedy策略,利用配电网***环境模型和深度强化学习模型进行离线训练和学习,得到满足误差要求的配电网动案辅助决策模型。
4.根据权利要求3所述的基于深度神经网络的配电网动案辅助决策方法,其特征在于,获取配电网历史运行数据后,对所述配电网历史运行数据进行预处理,将配电网历史运行数据转化为适合强化学习算法的原始样本集。
5.根据权利要求3所述的基于深度神经网络的配电网动案辅助决策方法,其特征在于,利用配电网***环境模型和深度强化学习模型进行离线训练和学习,具体包括:
配电网***环境模型每执行一次深度强化学习模型给出的动作,会返回新的***状态并计算相应的奖励值;而深度强化学习模型根据当前状态,以输出能够最大化奖励期望值的控制动作为目标,在与配电网***环境模型交互过程中不断学习并改进动作策略。
6.根据权利要求3所述的基于深度神经网络的配电网动案辅助决策方法,其特征在于,建立配电网***环境模型包括:设置智能体状态空间、动作空间以及智能体奖励/惩罚机制。
7.根据权利要求3所述的基于深度神经网络的配电网动案辅助决策方法,其特征在于,构建智能体的深度强化学习模型时,使用两个神经网络,一个真实网络产生当前Q值,另外一个目标网络Q target,两个神经网络初始权重和参数相同、参数更新速度不同。
8.一种用于所述基于深度神经网络的配电网动案辅助决策方法的***,其特征在于,包括:
数据获取模块,用于获取配电网在线运行数据;
预测模块,用于将所述配电网在线运行数据输入预设的配电网动案辅助决策模型中;所述配电网动案辅助决策模型输出令配电网安全未定运行的网络结构。
9.一种计算机装置,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的基于深度神经网络的配电网动案辅助决策方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如权利要求1至7任一项所述的基于深度神经网络的配电网动案辅助决策方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111661200.8A CN114298429A (zh) | 2021-12-30 | 2021-12-30 | 一种配电网动案辅助决策方法、***、装置和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111661200.8A CN114298429A (zh) | 2021-12-30 | 2021-12-30 | 一种配电网动案辅助决策方法、***、装置和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114298429A true CN114298429A (zh) | 2022-04-08 |
Family
ID=80974083
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111661200.8A Pending CN114298429A (zh) | 2021-12-30 | 2021-12-30 | 一种配电网动案辅助决策方法、***、装置和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114298429A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114662982A (zh) * | 2022-04-15 | 2022-06-24 | 四川大学 | 一种基于机器学习的城市配电网多级动态重构方法 |
-
2021
- 2021-12-30 CN CN202111661200.8A patent/CN114298429A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114662982A (zh) * | 2022-04-15 | 2022-06-24 | 四川大学 | 一种基于机器学习的城市配电网多级动态重构方法 |
CN114662982B (zh) * | 2022-04-15 | 2023-07-14 | 四川大学 | 一种基于机器学习的城市配电网多级动态重构方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | Coordinated load frequency control of multi-area integrated energy system using multi-agent deep reinforcement learning | |
CN112615379A (zh) | 基于分布式多智能体强化学习的电网多断面功率自动控制方法 | |
Bose | Artificial intelligence techniques: How can it solve problems in power electronics?: An advancing frontier | |
Levent et al. | Energy management for microgrids: a reinforcement learning approach | |
CN113935463A (zh) | 一种基于人工智能控制方法的微电网控制器 | |
CN112491094B (zh) | 一种混合驱动的微电网能量管理方法、***及装置 | |
CN111917134B (zh) | 一种基于数据驱动的配电网动态自主重构方法及*** | |
CN112947672B (zh) | 一种光伏电池最大功率点跟踪方法及装置 | |
CN116914751B (zh) | 一种智能配电控制*** | |
El Bourakadi et al. | Multi-agent system based sequential energy management strategy for Micro-Grid using optimal weighted regularized extreme learning machine and decision tree | |
CN113872213B (zh) | 一种配电网电压自主优化控制方法及装置 | |
Sun et al. | Hybrid reinforcement learning for power transmission network self-healing considering wind power | |
CN115588998A (zh) | 一种基于图强化学习的配电网电压无功优化方法 | |
CN114298429A (zh) | 一种配电网动案辅助决策方法、***、装置和存储介质 | |
CN116451880B (zh) | 一种基于混合学习的分布式能源优化调度方法及装置 | |
CN117767433A (zh) | 基于数字孪生的实时县域能源互联网调度方法及*** | |
CN112182835A (zh) | 一种考虑风电不确定性和储能调节的电力***可靠性评估方法及*** | |
CN115133540B (zh) | 一种配电网无模型的实时电压控制方法 | |
Yundra et al. | Hybrid Model Combined Fuzzy Multi-Objective Decision Making with Feed Forward Neural Network (F-MODM-FFNN) For Very Short-Term Load Forecasting Based on Weather Data. | |
Anoop et al. | Short term load forecasting using fuzzy logic control | |
CN115333152A (zh) | 一种配电网电压分布式实时控制方法 | |
Liu et al. | Deep reinforcement learning for real-time economic energy management of microgrid system considering uncertainties | |
Kang et al. | Power flow coordination optimization control method for power system with DG based on DRL | |
CN117477607B (zh) | 一种含智能软开关的配电网三相不平衡治理方法及*** | |
CN114219045A (zh) | 配电网风险动态提前预警方法、***、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |