CN110308655A - 一种基于a3c算法的伺服***补偿方法 - Google Patents

一种基于a3c算法的伺服***补偿方法 Download PDF

Info

Publication number
CN110308655A
CN110308655A CN201910587449.5A CN201910587449A CN110308655A CN 110308655 A CN110308655 A CN 110308655A CN 201910587449 A CN201910587449 A CN 201910587449A CN 110308655 A CN110308655 A CN 110308655A
Authority
CN
China
Prior art keywords
algorithm
servo
compensation
gradient
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910587449.5A
Other languages
English (en)
Other versions
CN110308655B (zh
Inventor
张庆
魏晓晗
王紫琦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhongshan Mltor Cnc Technology Co ltd
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Priority to CN201910587449.5A priority Critical patent/CN110308655B/zh
Publication of CN110308655A publication Critical patent/CN110308655A/zh
Application granted granted Critical
Publication of CN110308655B publication Critical patent/CN110308655B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/042Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Feedback Control In General (AREA)

Abstract

一种基于A3C算法的伺服***补偿方法,针对伺服***特点即运行存在时滞性,欠阻尼***存在超调的问题,首先在PID环节中设计补偿环节;然后设置A3C并行计算worker数量,设置更新间隔,根据缩短调节时间、减小超调量的控制需求建立评价指标,利用评价指标设计A3C算法奖励函数,并根据控制补偿环节确定A3C算法动作参数,确定算法迭代终止条件;最后,对A3C算法进行梯度裁剪,控制梯度变化范围,运行A3C算法,确定最优补偿参数;本发明利用伺服***上升具有延迟性的过程,在PID环节之后施加补偿,通过A3C学习算法得到最优化补偿参数,提高***响应速度,同时减小超调量,保证***稳定性。

Description

一种基于A3C算法的伺服***补偿方法
技术领域
本发明属于机电一体化与自动控制技术领域,具体涉及一种基于A3C算法的伺服***补偿方法。
背景技术
随着现代控制与智能控制理论以及机电一体化技术的不断深入发展,工业机器人参与数控生产线迅猛发展,广泛应用于航空航天、电子产品、汽车、金属加工等各个行业。在这一过程中,由于高功率密度、高效率等特性,伺服***得到了广泛的应用,尤其是在高精度工业生产领域,以伺服***为依托的工业机器人、数控生产线等技术取得了长足的进步。
伺服***现已成为工业机器人与数控生产线的核心,然而,由于伺服***具有强耦合、非线性、鲁棒性差的特性,加之PID控制器的有差控制特性,难以满足跟踪性能和抗扰性能的要求,伺服***在可靠性、调节速度、控制精度等方面仍存在不足,在实际工作中,可能导致生产效率降低、产品质量下降。通过对现有控制策略施加补偿,并通过机器学习对补偿参数进行寻优将显著改善这一问题,尤其对于对伺服***有高精度、高速度要求的应用领域具有重要的影响。然而在伺服***补偿领域,补偿策略优化方法发展滞后,难以获得最优补偿参数,制约了伺服***补的应用效果。因此,实现伺服***补偿优化成为亟待解决的问题。
异步优势演员-评论家算法(Asynchronous Advantage Actor-criticAlgorithm),以下简称为A3C(Mnih,V.et al.Asynchronous methods for deepreinforcement learning,https://arxiv.org/abs/1602.01783),是深度强化学习领域新一代算法,目的在于解决贯序决策问题。算法的基础是演员-评论家强化学习算法(Actor-Critic Algorithm),包括Actor和Critic两个网络,Actor是一个以策略为基础的网络,通过奖惩信息来进行调节不同状态下采取各种动作的概率;Critic是一个以值为基础的学习网络,可以计算每一步的奖惩值。二者相结合,Actor来选择动作,Critic告诉Actor选择的动作是否合适。在这一过程中,Actor不断迭代,得到每一个状态下选择每一动作的合理概率,Critic也不断迭代,不断完善每个状态下选择每一个动作的奖励值。A3C算法创建多个并行的环境,每个并行环境同时运行Actor-Critic,让多个拥有副结构的agent同时在这些并行环境上更新主结构中的参数。并行中的agent互不干扰,而主结构的参数更新通过副结构上传各并行agent的更新梯度实现,具有不连续性,所以相对于Actor-Critic算法,A3C算法中数据之间的相关性降低,收敛性显著提高。A3C算法在策略寻优方面体现出了非凡的性能,现阶段被广泛应用于金融、自动控制、游戏等行业,并取得了良好的效果。但在伺服***补偿与性能优化领域,A3C算法尚未得到应用。
发明内容
为了克服上述现有技术缺点,本发明目的在于提供一种基于A3C算法的伺服***补偿方法,利用伺服***上升具有延迟性的过程,在PID环节之后施加补偿,通过A3C学习算法得到最优化补偿参数,提高***响应速度,同时减小超调量,保证***稳定性。
为实现上述目的,本发明采取的技术解决方案是:
一种基于A3C算法的伺服***补偿方法,针对伺服***特点即运行存在时滞性,欠阻尼***存在超调的问题,首先在PID环节中设计补偿环节;然后设置A3C并行计算worker数量,设置更新间隔,根据缩短调节时间、减小超调量的控制需求建立评价指标,利用评价指标设计A3C算法奖励函数,并根据控制补偿环节确定A3C算法动作参数,确定算法迭代终止条件;最后,对A3C算法进行梯度裁剪,控制梯度变化范围,运行A3C算法,确定最优补偿参数。
一种基于A3C算法的伺服***补偿方法,包括以下步骤:
步骤1)通过Simulink仿真模型对伺服***进行建模,伺服***仿真模型应包括控制器、被控对象、执行、检测、比较、补偿六个环节,其中检测环节包括位置、速度、电流、扭矩信号的检测;运行伺服***仿真模型,从检测环节中获取伺服***位置、速度、扭矩、电流响应信号时域波形;
步骤2)从位置、扭矩、电流时域响应波形中计算伺服***调节时间ts、超调量σ%、效率指标η三个时间响应性能指标,效率指标η为电流与扭矩有效值之比,将上述三个时间响应性能指标作为算法评价指标,设置评价指标向量即状态向量St
St={σ%,tsps}
其中,
ts=t'98%
其中,c(tp)为伺服***位置时域响应最大偏离值,c(∞)为伺服***位置时域响应终值,t'98%为伺服***位置时域响应稳定至终值的98%所用的时间,Trms为伺服***扭矩时域响应有效值,Irms为伺服***电流时域响应有效值;
对状态向量中各元素进行归一化处理,处理过程如下:
其中,σmin%为样本最小超调量,取值为0,σmax%为样本最大超调,tsmin为样本最小调节时间,tsmax为最大调节时间,ηsmin为样本最小效率指标,ηsmax为样本最大效率指标,所有样本指标均通过伺服***多次运行采样得到;
将归一化后的向量作为Actor网络的输入向量;
步骤3)设置补偿函数形式为线性函数,函数形式为
其中,td为补偿截止时间,根据补偿评价指标在补偿环节中设置补偿截止时间td,补偿截止时间td应小于调节时间ts;选择补偿放大增益K作为算法输出动作,作为Actor网络的输出;状态向量st与动作K作为Critic网络的输入;同时根据所选择指标设计A3C算法奖励函数R(st,a)
步骤4)根据计算机硬件信息确定A3C并行计算池worker数目,即所使用CPU核心数,worker数目应少于计算机总核心数;设置梯度汇总与更新参数,包括步长tu与折扣系数γ,由于应用中为连续选择动作形式,步长tu=1,折扣系数γ=1;
步骤5)根据输入状态及动作分别设计Actor-Critic算法中Actor与Critic参数化网络参数φ(s),选择RBF神经网络作为参数化手段,于[0,1]中等间隔设置神经网络中心,随机配置初始Actor网络权值参数θ与Critic网络权值参数w;根据所设计神经网络中心、网络权值参数配置网络,根据需求配置算法学习率α,设置α=0.001,参数更新方式如下
dθ←dθ+▽θ′logπ(aisi;θ')(R-V(si;θv'))
其中,π(aisi;θ')为策略函数,V(si;θv')为Critic网络输出,R为奖励函数,为价值梯度,用来更新Critic网络参数梯度,▽θ′logπ(aisi;θ')为策略梯度,用来更新Actor网络参数;
步骤6)设计算法终止条件,设置算法最大迭代次数T作为终止条件,设置梯度裁剪阈值以消除梯度***问题,梯度裁剪过程为:
其中,||g||为梯度向量g的二范数,θ为梯度裁剪阈值;
步骤7)运行A3C算法进行迭代,观察运行结果,如果价值函数R在最后20回合的变化ΔR10≤5,则认为算法收敛;如果算法收敛,则说明算法配置成功;如果算法不收敛,则将迭代步数加大50%,重复步骤6)-7),运行补偿后的伺服***验证补偿结果。
所述的步骤2)中的伺服***为永磁同步电机伺服***,包含位置、速度、电流三环PID控制,其中补偿加在PID输出后,补偿信号为幂函数方式。
本发明的有益效果为
1.本发明对伺服***进行补偿,缩短伺服***调节时间,提高稳定性,在不引入超调的前提下提高瞬态能量转化效率,同时减小超调,使得补偿后的伺服***动态性能得到显著提高。
2.本发明通过强化学习的手段对伺服***进行补偿,有利于寻找到最优化参数,优化伺服***运行状态,显著提高伺服***瞬态性能,延长使用寿命。
附图说明
图1是本发明方法的流程图。
图2是本发明实施例1伺服***补偿方法的示意图。
图3是本发明实施例1伺服***补偿Simulink模型。
图4是本发明实施例1的位置补偿之前位置响应时域波形图。
图5是本发明实施例1的位置补偿之后位置响应时域波形图。
图6是本发明实施例1的位置补偿前后响应时域波形对比图。
图7是本发明实施例1的位置补偿价值函数波形图。
具体实施方式
以下结合附图和实施例对本发明进一步的详细说明。
实施例1,参照图1,一种基于A3C算法的伺服***补偿方法,包括以下步骤:
步骤1)选取Simulink伺服***模型为以永磁同步电机为执行器的伺服***模型,根据图1所示方法流程设计伺服***补偿方法如图2所示,设置位置参考为1000,运行初始状态下的永磁同步电机模型,获取电机位置、速度信号时间幅值序列{st},{Vs},{t=1,2,…,N},N为采样点数,本实施例中N=10k;通过时域响应信号得到取电机调节时间ts、超调量σ%、电流与扭矩有效值之比即效率指标η等时间响应性能指标;
步骤2)本实施例目的在于减小超调,提高调节速度,并提高电机效率,所以选择超调量σ%、调节时间ts、电流与扭矩有效值之比即效率指标η作为评价指标;对评价指标进行简化,最终得到状态向量St
St={σ%,tsps}
其中,
其中,c(tp)为伺服***位置时域响应最大偏离值,c(∞)为伺服***位置时域响应终值,t'98%为伺服***位置时域响应稳定至终值的98%所用的时间,Trms为伺服***扭矩时域响应有效值,Irms为伺服***电流时域响应有效值;
对状态向量中各元素进行归一化处理,使其处于[0,1]区间,便于后续神经网络计算;
处理过程如下:
其中,σmin%为样本最小超调量,取值为0,σmax%为样本最大超调,tsmin为样本最小调节时间,tsmax为最大调节时间,ηsmin为样本最小效率指标,ηsmax为样本最大效率指标,所有样本指标均通过伺服***多次运行采样得到;
将归一化后的向量作为Actor网络的输入向量;
本实施例中,补偿前的±2%调节时间为tsp=2.9131s,超调量σ%为0,效率指标为0.2350;将状态向量作为Actor网络的Sta,本实施例中设置评价指标EIndex(St)=St
步骤3)设置补偿函数形式为线性函数,函数形式为
其中,td为补偿截止时间,根据调节时间ts确定补偿函数的补偿截止时间td,补偿截止时间应小于调节时间以避免引入额外的超调;本实施例中设置补偿截止时间td=2s;补偿增益K作为Actor网络产生的动作At,将St与At组合,作为Critic网络的输入Stc
Stc={σ%,tsps,At}
设置参考奖励Rref={σ0%,tsp0s0},即时奖励函数为R=Rref-EIndex(St);
步骤4)根据计算机硬件信息确定A3C并行计算池worker数目,本实施例中设置并行计算池worker数目为15;设置梯度汇总与更新参数,包括步长tu与折扣系数γ,由于应用中为连续选择动作形式,步长tu=1,折扣系数γ=1;
步骤5)根据输入状态及动作分别设计Actor-Critic算法中Actor与Critic参数化网络参数φ(s),选用RBF神经网络作为用于近似的神经网络,于[0,1]中等间隔设置神经网络中心,配置网络参数,本实施例中随机配置初始Actor网络参数θ与Critic网络参数w,本实施例中配置学习率α=0.001;
步骤6)设计算法终止条件,设置算法最大迭代次数T作为终止条件,设置梯度裁剪阈值以消除梯度***问题,梯度裁剪过程为:
其中,||g||为梯度向量g的二范数,θ为梯度裁剪阈值,本实施例中设置θ=10;
步骤7)运行A3C算法进行迭代,观察运行结果,如果价值函数R在最后20回合的变化ΔR10≤5,则认为算法收敛;如果算法收敛,则说明算法配置成功;如果算法不收敛,则将迭代步数加大50%,重复步骤6)-7),运行补偿后的伺服***验证补偿结果。
本实施例价值函数R在最后10回合的变化ΔR10≤1.5,认为算法收敛。
参照图3,本实施例采用以永磁同步电机为执行器的伺服***,由PID控制器、逆变器、永磁同步电机、监测***几个部分组成;其中,永磁同步电机极数为8,预设位置参考为1000,初始补偿增益为0。
参照图4,补偿前的±2%调节时间为tsp=2.9131s,超调量σ%为0,效率指标为0.2350。
参照图5,补偿后的±2%调节时间为tsp=2.5575s,超调量σ%为0,效率指标为0.2548。
参照图6,补偿之后在没有引入超调的前提下,σ=1%的上升时间缩短12.20%,效率指标提高8.4%。
参照图7,A3C算法在大约220回合价值函数收敛至最大值,最大价值函数值约为43.7,最优补偿增益为K=53.5645。

Claims (3)

1.一种基于A3C算法的伺服***补偿方法,针对伺服***特点即运行存在时滞性,欠阻尼***存在超调的问题,其特征在于:首先在PID环节中设计补偿环节;然后设置A3C并行计算worker数量,设置更新间隔,根据缩短调节时间、减小超调量的控制需求建立评价指标,利用评价指标设计A3C算法奖励函数,并根据控制补偿环节确定A3C算法动作参数,确定算法迭代终止条件;最后,对A3C算法进行梯度裁剪,控制梯度变化范围,运行A3C算法,确定最优补偿参数。
2.一种基于A3C算法的伺服***补偿方法,其特征在于,包括以下步骤:
步骤1)通过Simulink仿真模型对伺服***进行建模,伺服***仿真模型应包括控制器、被控对象、执行、检测、比较、补偿六个环节,其中检测环节包括位置、速度、电流、扭矩信号的检测;运行伺服***仿真模型,从检测环节中获取伺服***位置、速度、扭矩、电流响应信号时域波形;
步骤2)从位置、扭矩、电流时域响应波形中计算伺服***调节时间ts、超调量σ%、效率指标η三个时间响应性能指标,效率指标η为电流与扭矩有效值之比,将上述三个时间响应性能指标作为算法评价指标,设置评价指标向量即状态向量St
St={σ%,tsps}
其中,
ts=t'98%
其中,c(tp)为伺服***位置时域响应最大偏离值,c(∞)为伺服***位置时域响应终值,t'98%为伺服***位置时域响应稳定至终值的98%所用的时间,Trms为伺服***扭矩时域响应有效值,Irms为伺服***电流时域响应有效值;
对状态向量中各元素进行归一化处理,处理过程如下:
其中,σmin%为样本最小超调量,取值为0,σmax%为样本最大超调,tsmin为样本最小调节时间,tsmax为最大调节时间,ηsmin为样本最小效率指标,ηsmax为样本最大效率指标,所有样本指标均通过伺服***多次运行采样得到;
将归一化后的向量St a作为Actor网络的输入向量;
步骤3)设置补偿函数形式为线性函数,函数形式为
其中,td为补偿截止时间,根据补偿评价指标在补偿环节中设置补偿截止时间td,补偿截止时间td应小于调节时间ts;选择补偿放大增益K作为算法输出动作,作为Actor网络的输出;状态向量st与动作K作为Critic网络的输入;同时根据所选择指标设计A3C算法奖励函数R(st,a)
步骤4)根据计算机硬件信息确定A3C并行计算池worker数目,即所使用CPU核心数,worker数目应少于计算机总核心数;设置梯度汇总与更新参数,包括步长tu与折扣系数γ,由于应用中为连续选择动作形式,步长tu=1,折扣系数γ=1;
步骤5)根据输入状态及动作分别设计Actor-Critic算法中Actor与Critic参数化网络参数φ(s),选择RBF神经网络作为参数化手段,于[0,1]中等间隔设置神经网络中心,随机配置初始Actor网络权值参数θ与Critic网络权值参数w;根据所设计神经网络中心、网络权值参数配置网络,根据需求配置算法学习率α,设置α=0.001,参数更新方式如下
其中,π(ai|si;θ')为策略函数,V(si;θ’v)为Critic网络输出,R为奖励函数,为价值梯度,用来更新Critic网络参数梯度,为策略梯度,用来更新Actor网络参数;
步骤6)设计算法终止条件,设置算法最大迭代次数T作为终止条件,设置梯度裁剪阈值以消除梯度***问题,梯度裁剪过程为:
其中,||g||为梯度向量g的二范数,θ为梯度裁剪阈值;
步骤7)运行A3C算法进行迭代,观察运行结果,如果价值函数R在最后20回合的变化ΔR10≤5,则认为算法收敛;如果算法收敛,则说明算法配置成功;如果算法不收敛,则将迭代步数加大50%,重复步骤6)-7),运行补偿后的伺服***验证补偿结果。
3.根据权利要求2所述的一种基于A3C算法的伺服***补偿方法,其特征在于:所述的步骤2)中的伺服***为永磁同步电机伺服***,包含位置、速度、电流三环PID控制,其中补偿加在PID输出后,补偿信号为幂函数方式。
CN201910587449.5A 2019-07-02 2019-07-02 一种基于a3c算法的伺服***补偿方法 Active CN110308655B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910587449.5A CN110308655B (zh) 2019-07-02 2019-07-02 一种基于a3c算法的伺服***补偿方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910587449.5A CN110308655B (zh) 2019-07-02 2019-07-02 一种基于a3c算法的伺服***补偿方法

Publications (2)

Publication Number Publication Date
CN110308655A true CN110308655A (zh) 2019-10-08
CN110308655B CN110308655B (zh) 2020-10-23

Family

ID=68078137

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910587449.5A Active CN110308655B (zh) 2019-07-02 2019-07-02 一种基于a3c算法的伺服***补偿方法

Country Status (1)

Country Link
CN (1) CN110308655B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112817240A (zh) * 2020-12-30 2021-05-18 西安交通大学 一种基于深度强化学习算法的离心压缩机调控方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252799A (ja) * 2007-03-30 2008-10-16 Kyocera Kinseki Corp 圧電デバイス
CN108008627A (zh) * 2017-12-13 2018-05-08 中国石油大学(华东) 一种并行优化的强化学习自适应pid控制方法
CN109682392A (zh) * 2018-12-28 2019-04-26 山东大学 基于深度强化学习的视觉导航方法及***

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109193075B (zh) * 2018-09-28 2020-06-05 合肥工业大学 基于强化学习的纯电动汽车动力电池冷却***控制方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252799A (ja) * 2007-03-30 2008-10-16 Kyocera Kinseki Corp 圧電デバイス
CN108008627A (zh) * 2017-12-13 2018-05-08 中国石油大学(华东) 一种并行优化的强化学习自适应pid控制方法
CN109682392A (zh) * 2018-12-28 2019-04-26 山东大学 基于深度强化学习的视觉导航方法及***

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
段友祥: "基于异步优势执行器评价器的自适应PID控制", 《计算机测量与控制》 *
段友祥等: "基于异步优势执行器评价器学习的自适应PID控制设计", 《信息与控制》 *
陈学松等: "基于执行器-评价器学习的自适应PID控制", 《控制理论与应用》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112817240A (zh) * 2020-12-30 2021-05-18 西安交通大学 一种基于深度强化学习算法的离心压缩机调控方法
CN112817240B (zh) * 2020-12-30 2022-03-22 西安交通大学 一种基于深度强化学习算法的离心压缩机调控方法

Also Published As

Publication number Publication date
CN110308655B (zh) 2020-10-23

Similar Documents

Publication Publication Date Title
CN104834215A (zh) 一种变异粒子群优化的bp神经网络pid控制算法
CN113489014B (zh) 一种快速灵活全纯嵌入式电力***最优潮流评估方法
CN113641722A (zh) 一种基于变体lstm的长期时间序列数据预测方法
CN110895772A (zh) 基于灰色关联分析与SA-PSO-Elman算法结合的售电量预测方法
CN110488759A (zh) 一种基于Actor-Critic算法的数控机床进给控制补偿方法
WO2018145498A1 (zh) 基于强化学习算法的双馈感应风力发电机自校正控制方法
CN111897324A (zh) 基于fa-ladrc的无人船艇航向控制***
CN113988358A (zh) 基于迁移强化学习的碳排放指数预测与治理方法
CN110308655A (zh) 一种基于a3c算法的伺服***补偿方法
CN114722693A (zh) 一种水轮机调节***二型模糊控制参数的优化方法
CN112564557B (zh) 一种永磁同步电机的控制方法、装置、设备及存储介质
CN106681133A (zh) 一种水电机组模型改进型子空间闭环辨识方法
Xie et al. Optimal speed–torque control of asynchronous motor for electric cars in the field-weakening region based on voltage vector optimization
CN106599541B (zh) 一种动态电力负荷模型的结构和参数在线辨识方法
CN105720574A (zh) 基于spsa的电力***单区域负荷频率的数据驱动控制方法
CN111240201A (zh) 一种扰动抑制控制方法
CN110970936B (zh) 一种深度调峰机组一次调频性能计算方法
CN110850710A (zh) 基于无模型自适应控制的水电机组控制优化方法
CN111474936A (zh) 一种基于rbf神经网络的船舶运动智能控制器
Xie et al. Data-driven based method for power system time-varying composite load modeling
LU505155B1 (en) Design method of damping controller based on power system, controller and power system
CN112165086A (zh) 一种主动配电网在线优化***
Sepeeh et al. Motor Speed Control Based on Enhanced Indirect-Field-Oriented Control Using Convolutional Neural Network
CN115837899B (zh) 动车组制动***的多模型自适应故障补偿控制方法及***
CN117614270B (zh) 基于神经网络的Buck变换器导通模式切换控制方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220511

Address after: 528437 101, No.43 Keji West Road, Torch Development Zone, Zhongshan City, Guangdong Province

Patentee after: ZHONGSHAN MLTOR CNC TECHNOLOGY Co.,Ltd.

Address before: Beilin District Xianning West Road 710049, Shaanxi city of Xi'an province No. 28

Patentee before: XI'AN JIAOTONG University