CN116451117A - 一种基于联邦学习的电力数据异常检测方法 - Google Patents
一种基于联邦学习的电力数据异常检测方法 Download PDFInfo
- Publication number
- CN116451117A CN116451117A CN202310377836.2A CN202310377836A CN116451117A CN 116451117 A CN116451117 A CN 116451117A CN 202310377836 A CN202310377836 A CN 202310377836A CN 116451117 A CN116451117 A CN 116451117A
- Authority
- CN
- China
- Prior art keywords
- model
- time
- parameters
- data
- local
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 39
- 230000004927 fusion Effects 0.000 claims abstract description 44
- 230000006870 function Effects 0.000 claims abstract description 39
- 238000000034 method Methods 0.000 claims abstract description 31
- 230000008569 process Effects 0.000 claims abstract description 19
- 230000002776 aggregation Effects 0.000 claims abstract description 16
- 238000004220 aggregation Methods 0.000 claims abstract description 16
- 239000002356 single layer Substances 0.000 claims abstract description 14
- 230000007246 mechanism Effects 0.000 claims abstract description 12
- 238000007781 pre-processing Methods 0.000 claims abstract description 11
- 238000012549 training Methods 0.000 claims abstract description 10
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 8
- 239000010410 layer Substances 0.000 claims description 63
- 210000002569 neuron Anatomy 0.000 claims description 15
- 230000002159 abnormal effect Effects 0.000 claims description 13
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 238000010606 normalization Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 9
- 230000005251 gamma ray Effects 0.000 claims description 9
- 230000005856 abnormality Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 7
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 3
- 230000004931 aggregating effect Effects 0.000 claims description 3
- 230000001364 causal effect Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims 1
- 239000000284 extract Substances 0.000 abstract description 2
- 238000012544 monitoring process Methods 0.000 description 19
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 241000282414 Homo sapiens Species 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 239000000779 smoke Substances 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0499—Feedforward networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y04—INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
- Y04S—SYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
- Y04S10/00—Systems supporting electrical power generation, transmission or distribution
- Y04S10/50—Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于联邦学习的电力数据异常检测方法,步骤如下:(1)故障检测数据预处理:建立多维时间序列客户端;数据预处理;构建时间窗口;(2)基于时域卷积神经网络、自注意力机制,建立本地模型:模型输入初始化;单层融合编码器运算;解码运算;构建模型损失函数;进行异常评分;更新局部模型参数;(3)服务器端采用联邦学习模型实现联合训练:构建模型损失函数;更新局部模型参数;通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型。本发明能够同时考虑到数据局部依赖性和数据全局依赖性,能够更好的提取时间序列中的时序重构信息,从而提高多维时间序列异常检测的有效性。
Description
技术领域
本发明涉及数据识别技术、电力***及其自动化领域,特别是一种基于联邦学习的电力数据异常检测方法。
背景技术
电力***实时运行数据具备反映电力***当前运行状态与未来发展趋势的潜在能力。对于传统的电力异常侦测方法而言,其必须经由搜集电器的历史电力信息以建立参考电力信息样本。然而,为了建立准确的参考电力信息样本,传统的电力异常侦测方法所搜集的历史电力信息必须考虑季节、时间、温度对于各别电器的影响,致使电器的历史电力信息的搜集过程冗长且繁琐。
随着电力***智能化的迅速发展,电力***中嵌入各类传感器的规模不断扩大,这使得感知层采集的数据种类更加细化,待处理的数据急剧增加。据不完全统计,单个城市每天采集的电网业务数据就可达到PB级。总体上看,电力***实时运行数据具备数据采集装置多、采集频率高﹑数据规模大﹑数据类型复杂等特点。其采集的数据为典型的时间序列数据。充分利用电力时序数据,采用适当的技术进行异常检测以及时发现电力***中存在的故障,可以为电力***高效、安全运行提供决策和辅助支持。
与本发明较为接近的现有技术包括申请号为20130416182.6的专利,该申请公开了《一种电力异常波动检测和预测计算方法》,其基于突变点分析和隐马尔可夫模型集成算法电力能耗进行实时检测,且能够预测计算未来时刻的电力能耗区间的合理区间范围;申请号为202110976109.9的专利公开了《一种基于电力扰动数据的配电网异常事件识别方法及***》,其提取电力扰动数据四个及以上特征,通过特征之间的对比实现了对异常事件的快速识别、分类和溯源;申请号为201910604895.2的专利公开了《一种基于机器学习的大规模电力异常数据检测方法及***》,其利用多层感知机神经网络模型,实现了对异常数据的有效检测。上述专利讨论了造成电力数据异常的原因,包括各类事件引起的电量波动、数据量急剧增加、数据传递和处理速度加快等,并针对电压电流、功率因数、开关信号等不同类型的数据提出了检测方法,但现有的故障检测方法都是直接利用获取的数据进行检测,未进行不同企业间的联合学习。
另外,无监督多维时间序列异常检测方法大致可以分为两类:基于重构的异常检测方法和基于预测的异常检测方法。基于重构的异常检测方法无法同时有效学习到指标度量间表示和时间依赖性,导致对于多维时序数据的重构不够充分,重构误差作为异常评分的效果不显著;基于预测的异常检测方法,由于复杂多维时间序列的不可预测性,导致其异常检测误报率偏高。
因此,亟需一种新的电力数据异常检测方法,以克服现有技术中存在的缺陷。
发明内容
发明目的:本发明的目的是提供一种基于联邦学习的电力数据异常检测方法,通过在时域卷积网络中引入自注意力机制同时捕获数据局部特征和全局特征,并构建信息融合模块对这俩种特征进行信息融合,客户端数据学习完后上传参数到服务器端,服务器端再分发模型到各个本地端,捕获更加充分的时序重构信息,从而实现更有效的多维时间序列异常检测。
技术方案:本发明所述的一种基于联邦学习的电力数据异常检测方法,包括以下步骤:
(1)故障检测数据预处理:建立多维时间序列客户端;数据预处理;构建时间窗口。
(1.1)建立多维时间序列客户端。
一个多维时间序列是等时间间隔采样多维时间变量形成的长度为T的时间戳序列,X=(x1,x2,…,xt);时间观测点xt是在时间戳t下获取的多维数据,xt∈Rm,t∈{1,2,…,T},m为数据的维度,所述多维数据都从不同层面反映了设备状态信息;在客户端中,给定一个时间序列X,需要给出对应的异常标签序列,至此,多维时间序列异常检测的客户端建立完成。
(1.2)数据预处理。
对于客户端的多维时间序列数据采用最大值最小值标准化,将数据映射到[0,1]之间,标准化函数如下:
其中,xt是t时刻的收集到的配电站的相关特征参数,xmax是收集到的样本参数中的最大值,xmin是是收集到的样本参数中的最小值,是t时刻收集到的配电站的相关特征参数标准化结果,α是为了避免分母为0而设置的一个很小的常向量。
(1.3)构建时间窗口。
考虑到时间观测点xt和历史时间点的依赖关系,构建一个长度为N的时间窗口:
wt=(xt-N+1,xt-N+2,...,xt) (2)
式中,xt是t时刻的收集到的配电站的相关特征参数,xt-N+1为该时间窗口的起始位置。
为了避免短时序窗口对模型序列正常模式重构的影响,对于t<N的时间观测点xt,由于没有足够的信息判断其异常程度,将其视为正常时间点,将多维时间序列X转化为滑动窗口序列W为模型输入。
(2)基于时域卷积神经网络、自注意力机制,建立本地模型:模型输入初始化;单层融合编码器运算;解码运算;构建模型损失函数;进行异常评分;更新局部模型参数。
(2.1)模型输入初始化。
多层融合编码器的堆积有利于学习到更深层次的潜在时间序列关联性;假定存在L层的融合编码器,输入长度为N的时间序列窗口w∈Rm,对于第l层的计算过程以及模型初始输入用方程形式化如下:
式中,分别为融合编码器的2个输入,表示第l+1层融合编码器的输入,其中l∈{1,2,…,L},dmodel表示特征空间向量的维,/>是/>经过融合编码器处理后的值,FusionEncoder代表融合编码器,LayerNorm函数代表归一化,/>是融合编码器输入解码器前馈网络的值,Convld代表卷积操作,FeedForward代表前馈网络。
(2.2)单层融合编码器运算。
将时间滑动窗口W作为模型的2个相同输入Z1、Z2,此时,对于融合编码器而言分别存在2个输入和2个输出;通过时域卷积神经网络和自注意力机制进行矩阵乘法获取每个时间点相较于其他时间点的注意力权重;由公式(3)得到第l层编码器的输入,进而通过时域卷积网络和自注意力进行信息提取,并通过十字绣单元进行提取特征的信息融合;具体公式如(4)所示:
式中,Q、K、V分别代表自注意力计算中的查询、键值以及值,由自注意力模块的输入Z2和3个线性变换矩阵WQ、WK、WV进行线性变换得到;M代表自注意力矩阵;Softmax函数代表归一化处理,TemporalBlock函数代表时域卷积操作;I1是时域卷积在添加自注意力矩阵信息后的隐层表示,I2是时域卷积在添加自注意力模块处理后的隐层表示,O1和O2是Z1和Z2经过单层融合编码器的结果;γ11、γ12、γ21、γ22为权重参数。
(2.3)解码运算。
解码器由2个解码部分分别对第L层融合编码器最后输出的2个隐层特征进行解码;第1个解码部分为反时域卷积层,通过采用转置卷积替换时域卷积残差块中的膨胀因果卷积实现,第2个解码部分由单层的前馈神经网络层以及函数sigmoid组成;十字绣单元对侧重提取局部数据依赖和侧重提取全局数据关联的2种特征表示进行信息融合。
(2.4)构建模型损失函数。
重构误差损失,模型损失函数为:
α×||w-C1||+β×||w-C2|| (5)
式中,α和β为超参数,且α+β=1,,C1和C2是解码器的最后输出结果。
(2.5)进行异常评分。
通过公式(5)计算异常评分,评分越高代表该时间点异常的可能性越大。
(2.6)更新局部模型参数。
由公式(5)能够得出第k个参与方的损失函数,进而根据Adam优化器更新各局部模型的模型参数θ,具体如公式(6)所示,公式(7)为参数更新公式。
式中,m为梯度的一阶矩估计即梯度的均值,v为梯度的二阶矩估计即梯度的有偏方差,g为梯度,t表示当前学习的迭代次数,⊙是一种同位元素相乘的乘法;γ1,γ2∈[0,1)是一组超参数/>和/>是修正后的梯度的均值和有偏方差;η为学习率;通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型。
(3)服务器端采用联邦学习模型实现联合训练:构建模型损失函数;更新局部模型参数;通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型。
(3.1)构建模型损失函数。
重构误差损失,模型损失函数为:
式中,μ和为超参数,且/>在模型测试阶段,通过模型获取输入w的重构表示D1和D2。
(3.2)更新局部模型参数。
由公式(8)能够得出第k个参与方的损失函数,进而根据Adam优化器更新各局部模型的模型参数θ,具体如公式(9)所示;公式(10)为参数更新公式。
式中,m为梯度的一阶矩估计即梯度的均值,v为梯度的二阶矩估计即梯度的有偏方差,g为梯度,t表示当前学习的迭代次数,⊙是一种同位元素相乘的乘法;γ1,γ2∈[0,1)是一组超参数/>和/>是修正后的梯度的均值和有偏方差;η为学习率;通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型。
(3.3)通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型。
在可信的服务器端聚合上述步骤中生成的局部模型参数,将局部模型相关层的参数作为特征,通过一个Resnet残差神经网络来提取特征,进而自适应的生成全局模型对应层参数;Resnet的输入层神经元个数与局部模型对应层的神经元个数一致,输出层的神经元个数为U,对应着全局模型相关层神经元个数,局部模型本地训练迭代次数为localep,通信次数为R;局部模型利用本地数据充分训练之后客户端将模型参数上传至终端服务器,当各层的局部模型参数达到一定数量时开始训练Resnet来提取特征从而生成全局模型,即如公式(11)所示:
其中ResNet(·)表示ResNet网络;为全局神经网络参数,l表示层数。
一种计算机存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述的一种基于联邦学习的电力数据异常检测方法。
一种计算机设备,包括储存器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述的一种基于联邦学习的电力数据异常检测方法。
有益效果:与现有技术相比,本发明具有如下优点:本发明能够同时考虑到数据局部依赖性和数据全局依赖性从而提高多维时间序列异常检测的有效性,联邦学习算法的引入既使用大数据提高了模型的预测效果又保护了数据隐私。
附图说明
图1为时间窗口示意图;
图2为本地模型示意图;
图3为单层融合编码器示意图;
图4为基于ResNet的联邦学习框架示意图;
图5为本发明所述方法的步骤流程图。
具体实施方式
下面结合附图对本发明的技术方案作进一步说明。
本发明基于现有的联邦学***均算法,而在本发明中,具体涉及的是ResNet残差网络算法,ResNet残差网络能够解决网络退化的能力以及由于网络的加深从而带来的一些梯度问题。
如图5所示,一种基于联邦学习的电力数据异常检测方法,步骤如下:
S1、故障预测数据预处理
S1.1、建立多维时间序列客户端。一个多维时间序列可以视作是等时间间隔采样多维时间变量形成的长度为T的时间戳序列,X=(x1,x2,…,xt)。一个时间观测点xt都是在时间戳t下获取的多维数据,xt∈Rm,t∈{1,2,…,T},m为总维度数。本文设置m等于21,所述多维数据都从不同层面反映了设备状态信息,比如x1为高压电压监测、x2为高压电流监测、x3为高压温度监测、x4为高压湿度监测、x5为高压烟雾监测、x6为高压通讯监测、x7为高压断路器监测、x8为高压搭接头监测、x9为高压螺丝位置监测、x10为高压保险丝监测;x11为低压电压检测、x12为低压电流监测、x13为低压温度监测、x14为低压湿度监测、x15为低压烟雾监测、x16为低压通讯监测、x17为低压通讯监测断路器监测、x18为低压电容监测、x19为低压螺丝位置监测、x20为低压刀闸位置监测等。多维时间序列异常检测用于确定一个时间观测点xt是否为异常,给定一个时间序列X,需要给出对应的异常标签序列Y=(y1,y2,…,yT),yt∈{0,1},yt为0表示时刻t下的时间点为正常,yt为1表示t时刻下的时间点为异常。
S1.2、数据预处理。本发明收集数据在步骤S1.1划分数据集,一般而言,当输入端数据接近于“0”平均值时,深度学习算法的学习效率最佳。对于收集的数据采用最大值最小值标准化,将数据映射到[0,1]之间,标准化函数如下:
其中,xt是t时刻的收集到的配电站的相关特征参数,xmax是收集到的样本参数中的最大值,xmin是是收集到的样本参数中的最小值,是t时刻收集到的配电站的相关特征参数标准化结果,α是为了避免分母为0而设置的一个很小的常向量。
S1.3、构建时间窗口。考虑到时间观测点xt和历史时间点的依赖关系,如图1所示构建一个长度为N的时间窗口:
wt=(xt-N+1,xt-N+2,...,xt) (2)
为了避免短时序窗口对模型序列正常模式重构的影响,对于t<N的时间观测点xt,由于没有足够的信息判断其异常程度,将其视为正常时间点,将多维时间序列X转化为滑动窗口序列W为模型输入。当时间序列窗口过小时,输入时间序列无法很好表征局部的上下文信息,但是当时间序列窗口过大的时候,细微的局部异常更加容易隐藏在大量的正常时间点之中,反而使得异常检测效果下降,多次实验表明当时间序列窗口大小为100左右时模型在各个性能指标上都表现最优,
S2、基于时域卷积神经网络、自注意力机制,建立本地模型。
本地模型如图2所示。基于步骤S1数据预处理之后,在步骤S2中本发明需要对数据进行特征提取。对于电力***实时运行数据,特征提取需要进行卷积操作,普通的卷积神经网络,感受野比较小,不适合本发明需要处理的参数,且无法同时捕获多维时间序列在局部性和全局性上的信息依赖,本实施例选择在时域卷积网络中加入自注意力机制。通过融合编码器的时域卷积模块以及自注意力模块分别捕获多维时间序列在局部性上以及全局性上的数据依赖,并采用十字绣单元进行提取特征的融合丰富。多层融合编码器的堆叠有利于学习到更深层次的潜在时间序列关联性。
S2.1、模型输入初始化。
多层融合编码器的堆积有利于学习到更深层次的潜在时间序列关联性。假定存在L层的融合编码器,单层模型如图3所示,输入长度为N的时间序列窗口w∈Rm,对于第l层的计算过程以及模型初始输入可以方程形式化如下:
分别为融合编码器的2个输入,表示第l+1层融合编码器的输入,其中l∈{1,2,…,L},dmodel表示特征空间向量的维,/>是/>经过融合编码器处理后的值,FusionEncoder代表融合编码器,LayerNorm函数代表归一化,/>是融合编码器输入解码器前馈网络的值,Convld代表卷积操作,FeedForward代表前馈网络。
S2.2、单层融合编码器运算。深度学习注意力机制是受到认知科学中人类对信息处理机制的启发而产生,由于信息处理能力的局限,需要选择性的关注完整信息中的某一部分,同时忽略其他部分信息,此机制大大提高了人类对信息的处理能力效率。为了获取多维时间序列在局部性和全局性上的信息依赖,本发明将时间滑动窗口W作为模型的2个相同输入Z1、Z2,此时,对于融合编码器而言分别存在2个输入和2个输出。通过时域卷积神经网络和自注意力机制进行矩阵乘法获取每个时间点相较于其他时间点的注意力权重。由公式(3)得到第l层编码器的输入,进而通过时域卷积网络和自注意力进行信息提取,并通过十字绣单元进行提取特征的信息融合。具体公式如(4)所示。
其中Q,K,V分别代表自注意力计算中的查询、键值以及值,由自注意力模块的输入Z2和3个线性变换矩阵WQ,WK,WV进行线性变换得到。M代表自注意力矩阵。Softmax函数代表归一化处理,TemporalBlock函数代表时域卷积操作。I1是时域卷积在添加自注意力矩阵信息后的隐层表示,I2是时域卷积在添加自注意力模块处理后的隐层表示,O1和O2是Z1和Z2经过单层融合编码器的结果。γ11,γ12,γ21,γ22为权重参数。
S2.3、解码运算。解码器由2个解码部分分别对第L层融合编
码器最后输出的2个隐层特征进行解码。第1个解码部分为反时域卷积层,通过采用转置卷积替换时域卷积残差块中的膨胀因果卷积实现,第2个解码部分由单层的前馈神经网络层以及函数sigmoid组成。十字绣单元能够对侧重提取局部数据依赖和侧重提取全局数据关联的2种特征表示进行信息融合。
S2.4、构建模型损失函数。重构误差损失,模型损失函数为
α×||w-C1||+β×||w-C2|| (5)
α和β为可以设置的超参数,且α+β=1,此处将α和β分别设置为0.5和0.5,C1和C2是解码器的最后输出结果
S2.5、进行异常评分。通过(5)计算异常评分,评分越高代表该时间点异常的可能性越大。
S2.6、更新局部模型参数。由公式(5)可以得出第k个参与方的损失函数,进而根据Adam优化器更新各局部模型的模型参数θ,具体如公式(6)所示。公式(7)为参数更新公式。
其中m为梯度的一阶矩估计即梯度的均值,v为梯度的二阶矩估计即梯度的有偏方差,g为梯度,t表示当前学习的迭代次数,⊙是一种同位元素相乘的乘法。γ1,γ2∈[0,1)是一组超参数/>和/>是修正后的梯度的均值和有偏方差。η为学习率。通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型。具体如步骤S2.2所示。
S3、服务器端采用联邦学习模型实现联合训练。
聚合全局模型。终端服务器聚合步骤S2.1中上传的各局部模型参数,不同于传统的联邦平均聚合算法,仅仅对局部模型参数进行平均化处理。本发明使用一种基于ResNet残差网络的聚合模块,如图4所示,来聚合客户端模型参数生成全局模型,这种聚合模块能够自动化的聚合客户端参数,而不需要额外建立聚合规则。
S3.1、构建模型损失函数。重构误差损失,模型损失函数为
μ和为超参数,且/>在模型测试阶段,通过模型获取输入w的重构表示D1和D2。
S3.2、更新局部模型参数。由公式(8)可以得出第k个参与方的损失函数,进而根据Adam优化器更新各局部模型的模型参数θ,具体如公式(9)所示。公式(10)为参数更新公式。
其中m为梯度的一阶矩估计即梯度的均值,v为梯度的二阶矩估计即梯度的有偏方差,g为梯度,t表示当前学习的迭代次数,⊙是一种同位元素相乘的乘法。γ1,γ2∈[0,1)是一组超参数/>和/>是修正后的梯度的均值和有偏方差。η为学习率。通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型。具体如步骤S2.2所示。
S3.3、通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型。在可信的服务器端聚合上述步骤中生成的局部模型参数,将局部模型相关层的参数作为特征,通过一个Resnet残差神经网络来提取特征,进而自适应的生成全局模型对应层参数,如图4所示。Resnet的输入层神经元个数与局部模型对应层的神经元个数一致,输出层的神经元个数为U,对应着全局模型相关层神经元个数,局部模型本地训练迭代次数为localep,通信次数为R。局部模型利用本地数据充分训练之后客户端将模型参数上传至终端服务器,当各层的局部模型参数达到一定数量时开始训练Resnet来提取特征从而生成全局模型,即如公式(8)所示:
其中ResNet(·)表示本发明中的ResNet网络。为全局神经网络参数,l表示层数。通过实现本框架,能够同时考虑到数据局部依赖性和数据全局依赖性从而提高多维时间序列异常检测的有效性。
本实例最终达到的效果,实验按照数据集的原始划分得到训练集和测试集,挑选训练集中的25%作为验证集。根据7种多维时间序列异常检测方法在4个多维时间序列数据集上的对比实验结果显示,该算法在4个数据集上的其余性能指标都优于目前最流行的多维时间序列异常检测方法,证明该算法帮助模型学习到了更好的时间依赖和度量间依赖以及数据局部和数据全局特征。
Claims (6)
1.一种基于联邦学习的电力数据异常检测方法,其特征在于,包括以下步骤:
(1)故障检测数据预处理:建立多维时间序列客户端;数据预处理;构建时间窗口;
(2)基于时域卷积神经网络、自注意力机制,建立本地模型:模型输入初始化;单层融合编码器运算;解码运算;构建模型损失函数;进行异常评分;更新局部模型参数;
(3)服务器端采用联邦学习模型实现联合训练:构建模型损失函数;更新局部模型参数;通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型。
2.根据权利要求1所述的一种基于联邦学习的电力数据异常检测方法,其特征在于,所述步骤(1)具体为:
(1.1)建立多维时间序列客户端;
一个多维时间序列是等时间间隔采样多维时间变量形成的长度为T的时间戳序列,X=(x1,x2,...,xt);时间观测点xt是在时间戳t下获取的多维数据,xt∈Rm,t∈{1,2,...,T},m为数据的维度,所述多维数据都从不同层面反映了设备状态信息;在客户端中,给定一个时间序列X,需要给出对应的异常标签序列,至此,多维时间序列异常检测的客户端建立完成;
(1.2)数据预处理;
对于客户端的多维时间序列数据采用最大值最小值标准化,将数据映射到[0,1]之间,标准化函数如下:
其中,xt是t时刻的收集到的配电站的相关特征参数,xmax是收集到的样本参数中的最大值,xmin是是收集到的样本参数中的最小值,是t时刻收集到的配电站的相关特征参数标准化结果,α是为了避免分母为0而设置的一个很小的常向量;
(1.3)构建时间窗口;
考虑到时间观测点xt和历史时间点的依赖关系,构建一个长度为N的时间窗口:
wt=(xt-N+1,xt-N+2,…,xt) (2)
式中,xt是t时刻的收集到的配电站的相关特征参数,xt-N+1为该时间窗口的起始位置;
为了避免短时序窗口对模型序列正常模式重构的影响,对于t<N的时间观测点xt,由于没有足够的信息判断其异常程度,将其视为正常时间点,将多维时间序列X转化为滑动窗口序列W为模型输入。
3.根据权利要求1所述的一种基于联邦学习的电力数据异常检测方法,其特征在于,所述步骤(2)具体为:
(2.1)模型输入初始化;
多层融合编码器的堆积有利于学习到更深层次的潜在时间序列关联性;假定存在L层的融合编码器,输入长度为N的时间序列窗口w∈Rm,对于第l层的计算过程以及模型初始输入用方程形式化如下:
式中,分别为融合编码器的2个输入,表示第l+1层融合编码器的输入,其中l∈{1,2,…,L},dmodel表示特征空间向量的维,/>是/>经过融合编码器处理后的值,FusionEncoder代表融合编码器,LayerNorm函数代表归一化,/>是融合编码器输入解码器前馈网络的值,Convld代表卷积操作,FeedForward代表前馈网络;
(2.2)单层融合编码器运算;
将时间滑动窗口W作为模型的2个相同输入Z1、Z2,此时,对于融合编码器而言分别存在2个输入和2个输出;通过时域卷积神经网络和自注意力机制进行矩阵乘法获取每个时间点相较于其他时间点的注意力权重;由公式(3)得到第l层编码器的输入,进而通过时域卷积网络和自注意力进行信息提取,并通过十字绣单元进行提取特征的信息融合;具体公式如(4)所示:
式中,Q、K、V分别代表自注意力计算中的查询、键值以及值,由自注意力模块的输入Z2和3个线性变换矩阵WQ、WK、WV进行线性变换得到;M代表自注意力矩阵;Softmax函数代表归一化处理,TemporalBlock函数代表时域卷积操作;I1是时域卷积在添加自注意力矩阵信息后的隐层表示,I2是时域卷积在添加自注意力模块处理后的隐层表示,O1和O2是Z1和Z2经过单层融合编码器的结果;γ11、γ12、γ21、γ22为权重参数;
(2.3)解码运算;
解码器由2个解码部分分别对第L层融合编码器最后输出的2个隐层特征进行解码;第1个解码部分为反时域卷积层,通过采用转置卷积替换时域卷积残差块中的膨胀因果卷积实现,第2个解码部分由单层的前馈神经网络层以及函数sigmoid组成;十字绣单元对侧重提取局部数据依赖和侧重提取全局数据关联的2种特征表示进行信息融合;
(2.4)构建模型损失函数;
重构误差损失,模型损失函数为:
α×||w-C1||+β×||w-C2|| (5)式中,α和β为超参数,且α+β=1,,C1和C2是解码器的最后输出结果;
(2.5)进行异常评分;
通过公式(5)计算异常评分,评分越高代表该时间点异常的可能性越大;
(2.6)更新局部模型参数;
由公式(5)能够得出第k个参与方的损失函数,进而根据Adam优化器更新各局部模型的模型参数θ,具体如公式(6)所示,公式(7)为参数更新公式;
式中,m为梯度的一阶矩估计即梯度的均值,v为梯度的二阶矩估计即梯度的有偏方差,g为梯度,t表示当前学习的迭代次数,⊙是一种同位元素相乘的乘法;γ1,γ2∈[0,1)是一组超参数/>和/>是修正后的梯度的均值和有偏方差;η为学习率;通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型。
4.根据权利要求1所述的一种基于联邦学习的电力数据异常检测方法,其特征在于,所述步骤(3)具体为:
(3.1)构建模型损失函数;
重构误差损失,模型损失函数为:
式中,μ和为超参数,且/>在模型测试阶段,通过模型获取输入w的重构表示D1和D2;
(3.2)更新局部模型参数;
由公式(8)能够得出第k个参与方的损失函数,进而根据Adam优化器更新各局部模型的模型参数θ,具体如公式(9)所示;公式(10)为参数更新公式;
式中,m为梯度的一阶矩估计即梯度的均值,v为梯度的二阶矩估计即梯度的有偏方差,g为梯度,t表示当前学习的迭代次数,⊙是一种同位元素相乘的乘法;γ1,γ2∈[0,1)是一组超参数/>和/>是修正后的梯度的均值和有偏方差;η为学习率;通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型;
(3.3)通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型;
在可信的服务器端聚合上述步骤中生成的局部模型参数,将局部模型相关层的参数作为特征,通过一个Resnet残差神经网络来提取特征,进而自适应的生成全局模型对应层参数;Resnet的输入层神经元个数与局部模型对应层的神经元个数一致,输出层的神经元个数为U,对应着全局模型相关层神经元个数,局部模型本地训练迭代次数为localep,通信次数为R;局部模型利用本地数据充分训练之后客户端将模型参数上传至终端服务器,当各层的局部模型参数达到一定数量时开始训练Resnet来提取特征从而生成全局模型,即如公式(11)所示:
其中ResNet(·)表示ResNet网络;为全局神经网络参数,l表示层数。
5.一种计算机存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1-4中任一项所述的一种基于联邦学习的电力数据异常检测方法。
6.一种计算机设备,包括储存器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-4中任一项所述的一种基于联邦学习的电力数据异常检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310377836.2A CN116451117A (zh) | 2023-04-10 | 2023-04-10 | 一种基于联邦学习的电力数据异常检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310377836.2A CN116451117A (zh) | 2023-04-10 | 2023-04-10 | 一种基于联邦学习的电力数据异常检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116451117A true CN116451117A (zh) | 2023-07-18 |
Family
ID=87119583
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310377836.2A Pending CN116451117A (zh) | 2023-04-10 | 2023-04-10 | 一种基于联邦学习的电力数据异常检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116451117A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117233615A (zh) * | 2023-11-10 | 2023-12-15 | 中油绿电新能源有限公司 | 基于对比学习网络的电池充电过程异常检测方法及装置 |
CN117648215A (zh) * | 2024-01-26 | 2024-03-05 | 国网山东省电力公司营销服务中心(计量中心) | 一种用电信息采集***异常溯源方法及*** |
CN117744012A (zh) * | 2024-02-19 | 2024-03-22 | 北京智芯微电子科技有限公司 | 基于融合终端的防止异常用电的方法、装置及电子设备 |
CN117972621A (zh) * | 2024-04-02 | 2024-05-03 | 河北科迪新能源科技有限公司 | 一种基于人工智能的反窃电智能预警方法及*** |
-
2023
- 2023-04-10 CN CN202310377836.2A patent/CN116451117A/zh active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117233615A (zh) * | 2023-11-10 | 2023-12-15 | 中油绿电新能源有限公司 | 基于对比学习网络的电池充电过程异常检测方法及装置 |
CN117233615B (zh) * | 2023-11-10 | 2024-02-06 | 中油绿电新能源有限公司 | 基于对比学习网络的电池充电过程异常检测方法及装置 |
CN117648215A (zh) * | 2024-01-26 | 2024-03-05 | 国网山东省电力公司营销服务中心(计量中心) | 一种用电信息采集***异常溯源方法及*** |
CN117648215B (zh) * | 2024-01-26 | 2024-05-24 | 国网山东省电力公司营销服务中心(计量中心) | 一种用电信息采集***异常溯源方法及*** |
CN117744012A (zh) * | 2024-02-19 | 2024-03-22 | 北京智芯微电子科技有限公司 | 基于融合终端的防止异常用电的方法、装置及电子设备 |
CN117744012B (zh) * | 2024-02-19 | 2024-05-17 | 北京智芯微电子科技有限公司 | 基于融合终端的防止异常用电的方法、装置及电子设备 |
CN117972621A (zh) * | 2024-04-02 | 2024-05-03 | 河北科迪新能源科技有限公司 | 一种基于人工智能的反窃电智能预警方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111914873B (zh) | 一种两阶段云服务器无监督异常预测方法 | |
Angelis et al. | NILM applications: Literature review of learning approaches, recent developments and challenges | |
Chen et al. | Anomaly detection and critical SCADA parameters identification for wind turbines based on LSTM-AE neural network | |
US20220397874A1 (en) | Non-Intrusive Load Decomposition Method Based on Informer Model Coding Structure | |
CN116451117A (zh) | 一种基于联邦学习的电力数据异常检测方法 | |
CN115018021B (zh) | 基于图结构与异常注意力机制的机房异常检测方法及装置 | |
Zhang et al. | Remaining useful life estimation using CNN-XGB with extended time window | |
Jin et al. | Position encoding based convolutional neural networks for machine remaining useful life prediction | |
Yan et al. | Big-data-driven based intelligent prognostics scheme in industry 4.0 environment | |
CN111160626B (zh) | 一种基于分解融合的电力负荷时间序列控制方法 | |
He et al. | MTAD‐TF: Multivariate Time Series Anomaly Detection Using the Combination of Temporal Pattern and Feature Pattern | |
CN115983087B (zh) | 一种注意力机制与lstm结合检测时序数据异常方法及终端机 | |
CN113780060A (zh) | 一种基于多模态深度学习的高压开关柜态势感知方法 | |
CN114266301A (zh) | 基于图卷积神经网络的电力设备故障智能预测方法 | |
CN114970774A (zh) | 一种智能变压器故障预测方法和装置 | |
Chen et al. | Convolution-graph attention network with sensor embeddings for remaining useful life prediction of turbofan engines | |
Dai et al. | Fault Diagnosis of Data‐Driven Photovoltaic Power Generation System Based on Deep Reinforcement Learning | |
Wang et al. | Evsense: A robust and scalable approach to non-intrusive ev charging detection | |
Jiang et al. | A timeseries supervised learning framework for fault prediction in chiller systems | |
CN117540333A (zh) | 基于时空信息融合的多传感器数据异常检测方法和装置 | |
CN117172375A (zh) | 一种机械装备剩余使用寿命预测方法、存储介质 | |
Pamir et al. | Electricity theft detection for energy optimization using deep learning models | |
Zhang et al. | Power Network Smart Meter Data Driven Cross-Task Transfer Learning for Resident Characteristics Estimation | |
Shen et al. | Long-term multivariate time series forecasting in data centers based on multi-factor separation evolutionary spatial–temporal graph neural networks | |
Lin | Intelligent fault diagnosis of consumer electronics sensor in IoE via transformer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |