CN110597799B - 一种时序数据缺失值自动填补方法、***和设备 - Google Patents

一种时序数据缺失值自动填补方法、***和设备 Download PDF

Info

Publication number
CN110597799B
CN110597799B CN201910878109.8A CN201910878109A CN110597799B CN 110597799 B CN110597799 B CN 110597799B CN 201910878109 A CN201910878109 A CN 201910878109A CN 110597799 B CN110597799 B CN 110597799B
Authority
CN
China
Prior art keywords
data
model
time sequence
missing
missing values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910878109.8A
Other languages
English (en)
Other versions
CN110597799A (zh
Inventor
刘建志
高冲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inesa R&d Center
Original Assignee
Inesa R&d Center
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Inesa R&d Center filed Critical Inesa R&d Center
Priority to CN201910878109.8A priority Critical patent/CN110597799B/zh
Publication of CN110597799A publication Critical patent/CN110597799A/zh
Application granted granted Critical
Publication of CN110597799B publication Critical patent/CN110597799B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/21Design, administration or maintenance of databases
    • G06F16/215Improving data quality; Data cleansing, e.g. de-duplication, removing invalid entries or correcting typographical errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明提供一种时序数据缺失值自动填补方法、***和设备,通过随机掩码和神经网络分解的技术,在将时序数据分解为不同模式的叠加的同时,实现了自动提取特征,从而构造了一种更加准确有效的端到端时序数据缺失值填补方法,包括数据准备、模型训练和模型使用三个步骤,数据准备步骤获取原始时序数据进行数据的预处理,根据给定的缺失率构造随机掩码,将新生成的随机掩码和相对应的原始数据作为新的数据集;模型训练步骤利用数据准备步骤生成的新数据集进行模型训练,以构建基于神经网络分解的模型;模型使用步骤针对有缺失值的时序数据构造对应的掩码,使用上述经过训练的模型进行时序数据缺失值的填补。

Description

一种时序数据缺失值自动填补方法、***和设备
技术领域
本发明涉及机器学习技术领域,具体涉及一种时序数据缺失值自动填补方法、***和设备。
背景技术
随着深度学习和神经网络的发展,时序数据的分析处理也越来越受到人们的关注。如气象、医疗、交通、水务等。然而这些实际的时间序列数据由于各种原因不可避免的会产生缺失值,为了更好的分析和利用这些数据,必须先进行缺失值处理和填补。时序数据的缺失值往往与其它值具有非线性和动态的相关性,传统的填补方法如零填补,均值补充及EM算法等并不能有效的处理这种非线性和动态相关性。而一些基于LSTM模型的方法则是将缺失值填补视为一个预测问题,一方面为了模型预测的准确性,需要大量的先验知识来进行手工特征的提取。另一方面,时序数据本身往往具有一些直接或者隐藏的模式,而前面的方法往往忽略了这些模式,当然也无法利用这些模式来获得更准确更有效的缺失值填补效果。因此亟待踢出一种新的端到端的、能够自动特征提取和充分利用隐藏模式的时序数据缺失值填补方法。
发明内容
本发明的目的是本发明提出了一种基于随机掩码和神经网络分解的时序数据缺失值自动填补方法,***和设备,目的在于分解时序数据,寻找时序数据的隐藏模式,自动的提取特征,实现更加准确射有效的端到端时序数据缺失值填补方法。
为了达到上述目的,本发明一方面提供一种时序数据缺失值自动填补方法,包括:
数据准备,获取的没有缺失值的原始时序数据以进行数据的预处理,然后根据给定的缺失率构造随机掩码,将新生成的随机掩码和相对应的原始数据作为新的数据集,用来进行模型的训练;
模型训练,利用数据准备步骤生成的新数据集进行模型训练,以构建基于神经网络分解的时序数据缺失值自动填补的模型;
模型使用,针对有缺失值的时序数据构造对应的掩码,使用上述经过训练的模型,来进行时序数据缺失值的填补。
所述数据预处理后,从原始时序数据中得到数据集合,其中{Xi}(i∈1,2…m)其中Xi∈Rk为k维向量。
进一步的,根据给定的缺失率{pj}(pj∈(0,0.35))构造随机掩码{Mij},新的数据集由原始数据和其对应的某一个随机掩码组成一个数据,即{(Xi,Mij)}(i∈1,2…m,j∈D)。
进一步的,所述基于神经网络分解的模型包括输入层,所述输入层接收新构造的数据集(Xi,Mij)进入模型进行训练。
进一步的,所述基于神经网络分解的模型包括嵌入层,所述嵌入层将数据集(Xi,Mij)进行逐元素的乘法计算以屏蔽构造缺失值,使得通过掩码标识的缺失值不参与到模型学习过程中。
进一步的,所述基于神经网络分解的模型包括中间层,所述中间层将嵌入层中通过非缺失值学习到的特征扩展至缺失值。
进一步的,所述基于神经网络分解的模型包括分解层,所述分解层通过激活函数来将学习到的特征进行分解,所述激活函数包括sin激活函数和linear激活函数,所述sin激活函数用以获得正弦分量,linear激活函数用以获得线性分量。
进一步的,所述基于神经网络分解的模型包括输出层,所述输出层通过将分阶层中的各个线性分类进行逐元素的加法计算,得到输出X_out
进一步的,根据不同构造方式的掩码My,进行缺失值q的填补,其中需要填补的数据为Y,使用进过训练的模型进行缺失值的填补,将Y和构造的掩码My输入到模型中,得到输出Y_out,最终将Y中的缺失部分用Y_out的对应位置的数据进行填补。
另一方面,本发明还提供一种时序数据缺失值自动填补***,包括:
数据准备模块,获取的没有缺失值的原始时序数据以进行数据的预处理,然后根据给定的缺失率构造随机掩码,将新生成的随机掩码和相对应的原始数据作为新的数据集,用来进行模型的训练;
模型训练模块,利用数据准备步骤生成的新数据集进行模型训练,以构建基于神经网络分解的时序数据缺失值自动填补的模型;
模型使用模块,针对有缺失值的时序数据构造对应的掩码,使用上述经过训练的模型,来进行时序数据缺失值的填补。
另一方面,本发明还提供一种时序数据缺失值自动填补装置,包括:
处理器;
用以存储处理器可执行计算机程序指令的存储器;
其中,所述计算机程序指令被处理器执行时实现权利要求1至9中任意一项所述的方法。
本发明通过随机掩码和神经网络分解的技术,在将时序数据分解为不同模式的叠加的同时,实现了自动提取特征,从而构造了一种更加准确有效的端到端时序数据缺失值填补方法。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一个实施例的时序数据缺失值自动填补方法的方法流程图;
图2是本发明一个实施例的神经网络分解模型的架构图;
图3为本发明一个实施例的时序数据缺失值自动填补***的***架构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面参照附图描述根据本发明实施例提出的一种用水模式挖掘和匹配的方法,***和设备,首先将参照附图描述根据本发明实施例提出的用水模式挖掘方法。
图1是本发明一个实施例的时序数据缺失值自动填补方法的方法流程图。
如图1所示,该时序数据缺失值自动填补方法包括:
步骤S101,数据准备。
具体的,在本发明的一个实施例中,数据准备步骤是对获取的没有缺失值的原始数据,进行必要的预处理过程。然后根据给定的缺失率,构造随机掩码。新生成的随机掩码和相对应的原始数据将作为新的数据集,用来进行模型的训练。
步骤S102,模型训练。
具体的,在本发明的一个实施例中,模型训练步骤包括构建基于神经网络分解的模型,并且利用数据准备阶段生成的新数据集进行模型训练。
步骤S103,模型使用。
具体的,在本发明的一个实施例中,模型使用步骤针对有缺失值的时序数据以构造对应的掩码,并且使用上面阶段训练得到的模型,来进行缺失值填补。
具体的,在本发明的一个实施例中,所述数据预处理后,从原始时序数据中得到数据集合,其中{Xi}(i∈1,2…m)其中Xi∈Rk为k维向量。
进一步的,根据给定的缺失率{pj}(pj∈(0,0.35))构造随机掩码{Mij}。缺失率定义为缺失值数据点占总的数据点比率。对于给定的pj,对于每一个Xi,认为其ceil(m*pj)个数据点是缺失的。ceil代表向上取整数。随机掩码Mij则是与Xi相同维度的向量,随机选择其ceil(m*pj)个位置为设为0,其它位置设为1。
进一步的,新的数据集由原始数据和其对应的某一个随机掩码组成一个数据,即{(Xi,Mij)}(i∈1,2…m,j∈D),其中D根据不同随机掩码策略可以有不同的选择范围。
图2是本发明一个实施例的神经网络分解模型的架构图。
如图2所示,本发明一个实施例的神经网络分解模型包括输入层1、嵌入层2、中间层3、分解层4和输出层5。其中
Figure BDA0002205007930000061
代表逐元素的乘法。
Figure BDA0002205007930000062
代表逐元素加。
Figure BDA0002205007930000063
代表神经网络层,即全连接层和激活层的组合。其中左侧∑代表全连接层。右侧
Figure BDA0002205007930000064
代表激活层。
具体的,在一个实施例中,模型训练过程中输入层1的X,M分别表示新构造的数据集中(Xi,Mij)。嵌入层2中通过
Figure BDA0002205007930000065
操作来屏蔽构造的缺失值,使得通过掩码标识的缺失值不参与到模型学习过程中。掩码只在嵌入层2中起作用。
具体的,在一个实施例中,中间层3的作用则是将嵌入层中通过非缺失值学习到的特征扩展至缺失值,是一个特征值填补和再学习的过程。
具体的,在一个实施例中,分解层中通过不同的激活函数来将前面学到的特征进行分解,典型的如正弦分量通过sin激活函数获得,线性分量通过linear激活函数获得。可以根据不同的场景来组合和扩展不同的激活函数达到获得更多分量的效果。
具体的,在一个实施例中,输出层通过
Figure BDA0002205007930000066
将分解层中的各个分量进行逐元素加法,得到输出X_out
具体的,在一个实施例中,模型期望通过学习,能够自动填补缺失值,输出X_out的期望结果是与X尽量相同。因此损失函数可以定义为F(X_out,X).其中典型的损失函数为MSE(mean squared error)。
通过上面的步骤来训练模型。而在使用模型进行缺失值填补的时候,掩码需要不同的构造方式。假设含有缺失值,需要填补的数据为Y∈Rk为k维向量。其中有q个缺失值,构造掩码My。My是k维向量,其中有q个位置为0,其他位置为1。q个为0的位置对应Y中存在缺失的的位置。将Y和构造的掩码My输入到模型中,得到输出Y_out。最终将Y中的缺失部分用Y_out的对应位置的数据进行填补。
图3为本发明一种时序数据缺失值自动填补***的***架构图。
如图3所示,本发明一个实施例的时序数据缺失值自动填补***,包括:
数据准备模块201,获取的没有缺失值的原始时序数据以进行数据的预处理,然后根据给定的缺失率构造随机掩码,将新生成的随机掩码和相对应的原始数据作为新的数据集,用来进行模型的训练;
模型训练模块202,利用数据准备步骤生成的新数据集进行模型训练,以构建基于神经网络分解的时序数据缺失值自动填补的模型;
模型使用模块203,针对有缺失值的时序数据构造对应的掩码,使用上述经过训练的模型,来进行时序数据缺失值的填补。
具体的,本发明的还提出一种电子设备,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为上述方法。
电子设备可以被提供为终端、服务器或其它形态的设备。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言-诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言-诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或终端上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)-连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种时序数据缺失值自动填补方法,其特征在于,包括:
数据准备,获取的没有缺失值的原始时序数据以进行数据的预处理,然后根据给定的缺失率构造随机掩码,将新生成的随机掩码和相对应的原始数据作为新的数据集,用来进行模型的训练;
所述数据预处理后,从原始时序数据中得到数据集合,其中{Xi}(i∈1,2…m)其中Xi∈Rk为k维向量;
模型训练,利用数据准备步骤生成的新数据集进行模型训练,以构建基于神经网络分解的模型;
所述基于神经网络分解的模型包括输入层,所述输入层接收新构造的数据集(Xi,Mij)进入模型进行训练;
所述基于神经网络分解的模型包括嵌入层,所述嵌入层将数据集(Xi,Mij)进行逐元素的乘法计算以屏蔽构造缺失值,使得通过掩码标识的缺失值不参与到模型学习过程中;
所述基于神经网络分解的模型包括中间层,所述中间层将嵌入层中通过非缺失值学习到的特征扩展至缺失值;
所述基于神经网络分解的模型包括分解层,所述分解层通过激活函数来将学习到的特征进行分解,所述激活函数包括sin激活函数和linear激活函数,所述sin激活函数用以获得正弦分量,linear激活函数用以获得线性分量;
所述基于神经网络分解的模型包括输出层,所述输出层通过将分阶层中的各个线性分类进行逐元素的加法计算,得到输出X_out;根据不同构造方式的掩码My,进行缺失值q的填补,其中需要填补的数据为Y,使用进过训练的模型进行缺失值的填补,将Y和构造的掩码My输入到模型中,得到输出Y_out,最终将Y中的缺失部分用Y_out的对应位置的数据进行填补;
模型使用,针对有缺失值的时序数据构造对应的掩码,使用上述经过训练的模型,来进行时序数据缺失值的填补。
2.如权利要求1所述的一种时序数据缺失值自动填补方法,其特征在于,
根据给定的缺失率{pj}(pj∈(0,0.35))构造随机掩码{Mij},新的数据集由原始数据和其对应的某一个随机掩码组成一个数据,即{(Xi,Mij)}(i∈1,2…m,j∈D)。
3.如权利要求1所述方法的一种时序数据缺失值自动填补***,其特征在于,包括:
数据准备模块,获取的没有缺失值的原始时序数据以进行数据的预处理,然后根据给定的缺失率构造随机掩码,将新生成的随机掩码和相对应的原始数据作为新的数据集,用来进行模型的训练;
模型训练模块,利用数据准备步骤生成的新数据集进行模型训练,以构建基于神经网络分解的时序数据缺失值自动填补的模型;
模型使用模块,针对有缺失值的时序数据构造对应的掩码,使用上述经过训练的模型,来进行时序数据缺失值的填补。
4.一种时序数据缺失值自动填补装置,其特征在于,包括:
处理器;
用以存储处理器可执行计算机程序指令的存储器;
其中,所述计算机程序指令被处理器执行时实现权利要求1至2中任意一项所述的方法。
CN201910878109.8A 2019-09-17 2019-09-17 一种时序数据缺失值自动填补方法、***和设备 Active CN110597799B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910878109.8A CN110597799B (zh) 2019-09-17 2019-09-17 一种时序数据缺失值自动填补方法、***和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910878109.8A CN110597799B (zh) 2019-09-17 2019-09-17 一种时序数据缺失值自动填补方法、***和设备

Publications (2)

Publication Number Publication Date
CN110597799A CN110597799A (zh) 2019-12-20
CN110597799B true CN110597799B (zh) 2023-01-24

Family

ID=68860551

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910878109.8A Active CN110597799B (zh) 2019-09-17 2019-09-17 一种时序数据缺失值自动填补方法、***和设备

Country Status (1)

Country Link
CN (1) CN110597799B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111563077B (zh) * 2020-05-12 2023-04-25 国网山东省电力公司泰安供电公司 一种电网电压数据缺失填补方法、***、终端及存储介质
CN112101482B (zh) * 2020-10-26 2022-05-06 西安交通大学 一种对有缺失卫星数据进行参数异常模式检测的方法
CN112215238B (zh) * 2020-10-29 2022-06-07 支付宝(杭州)信息技术有限公司 一种通用特征提取模型构建方法、***及装置
CN112527862A (zh) * 2020-12-10 2021-03-19 国网河北省电力有限公司雄安新区供电公司 一种时间序列数据的处理方法及装置
CN113486433A (zh) * 2020-12-31 2021-10-08 上海东方低碳科技产业股份有限公司 用于净零能耗建筑的能耗缺数的计算方法以及填充***
CN114826988A (zh) * 2021-01-29 2022-07-29 中国电信股份有限公司 时序数据的异常检测和参数填补的方法及装置
CN113591954B (zh) * 2021-07-20 2023-10-27 哈尔滨工程大学 一种工业***中缺失的时序数据的填充方法
CN114153829B (zh) * 2021-11-30 2023-01-20 中国电力工程顾问集团华东电力设计院有限公司 用于能源大数据的跨时空双向数据缺失值填充方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108090558A (zh) * 2018-01-03 2018-05-29 华南理工大学 一种基于长短期记忆网络的时间序列缺失值自动填补方法
CN109815223A (zh) * 2019-01-21 2019-05-28 北京科技大学 一种针对工业监测数据缺失的补全方法及补全装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11443178B2 (en) * 2017-12-15 2022-09-13 Interntional Business Machines Corporation Deep neural network hardening framework
US11257483B2 (en) * 2019-03-29 2022-02-22 Intel Corporation On-device neural network adaptation with binary mask learning for language understanding systems

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108090558A (zh) * 2018-01-03 2018-05-29 华南理工大学 一种基于长短期记忆网络的时间序列缺失值自动填补方法
CN109815223A (zh) * 2019-01-21 2019-05-28 北京科技大学 一种针对工业监测数据缺失的补全方法及补全装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于统计相关的缺失值数据处理研究;张松兰等;《统计与决策》;20160630(第12期);全文 *
顺序敏感的多源感知数据填补技术;马茜等;《软件学报》;20160915(第09期);全文 *

Also Published As

Publication number Publication date
CN110597799A (zh) 2019-12-20

Similar Documents

Publication Publication Date Title
CN110597799B (zh) 一种时序数据缺失值自动填补方法、***和设备
CN110023963A (zh) 使用神经网络处理文本序列
CN110704588A (zh) 基于长短期记忆网络的多轮对话语义分析方法和***
CN111428848B (zh) 基于自编码器和3阶图卷积的分子智能设计方法
CN112396613A (zh) 图像分割方法、装置、计算机设备及存储介质
CN113011529B (zh) 文本分类模型的训练方法、装置、设备及可读存储介质
CN112861518B (zh) 文本纠错方法、装置和存储介质及电子装置
CN112418292A (zh) 一种图像质量评价的方法、装置、计算机设备及存储介质
CN113783874A (zh) 基于安全知识图谱的网络安全态势评估方法及***
CN112765370B (zh) 知识图谱的实体对齐方法、装置、计算机设备和存储介质
CN113487024A (zh) 交替序列生成模型训练方法、从文本中抽取图的方法
CN110580158A (zh) 一种代码生成方法、装置、存储介质及电子设备
CN112463989A (zh) 一种基于知识图谱的信息获取方法及***
Yuan et al. Clifford algebra method for network expression, computation, and algorithm construction
CN111241843B (zh) 基于复合神经网络的语义关系推断***和方法
CN113641791A (zh) 专家推荐方法、电子设备及存储介质
CN117744882A (zh) 一种企业***数量预测方法、装置、设备及存储介质
Rebenda et al. Differential Transform Algorithm for Functional Differential Equations with Time‐Dependent Delays
CN117009539A (zh) 知识图谱的实体对齐方法、装置、设备及存储介质
CN116977502A (zh) 运动重定向方法、装置、电子设备及计算机可读存储介质
CN115408535A (zh) 事故知识图谱构建方法、装置、存储介质及电子设备
CN115545085A (zh) 微弱故障电流的故障类型识别方法、装置、设备和介质
Bosma et al. Estimating solar and wind power production using computer vision deep learning techniques on weather maps
Lin et al. Integrating ANFIS and Qt Framework to Develop a Mobile‐Based Typhoon Rainfall Forecasting System
CN115146292A (zh) 一种树模型构建方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant