CN110866672B - 数据处理方法、装置、终端及介质 - Google Patents
数据处理方法、装置、终端及介质 Download PDFInfo
- Publication number
- CN110866672B CN110866672B CN201910960852.8A CN201910960852A CN110866672B CN 110866672 B CN110866672 B CN 110866672B CN 201910960852 A CN201910960852 A CN 201910960852A CN 110866672 B CN110866672 B CN 110866672B
- Authority
- CN
- China
- Prior art keywords
- data
- analysis result
- analyzed
- network model
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title abstract description 13
- 238000004458 analytical method Methods 0.000 claims abstract description 294
- 238000003062 neural network model Methods 0.000 claims abstract description 107
- 238000012544 monitoring process Methods 0.000 claims abstract description 100
- 238000000034 method Methods 0.000 claims abstract description 30
- 238000012545 processing Methods 0.000 claims description 40
- 125000004122 cyclic group Chemical group 0.000 claims description 37
- 238000001514 detection method Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 6
- 230000000306 recurrent effect Effects 0.000 claims description 3
- 238000007405 data analysis Methods 0.000 abstract description 5
- 238000012549 training Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 210000002569 neuron Anatomy 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 230000004913 activation Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 230000008030 elimination Effects 0.000 description 4
- 238000003379 elimination reaction Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000002779 inactivation Effects 0.000 description 3
- 230000014759 maintenance of location Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06393—Score-carding, benchmarking or key performance indicator [KPI] analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Human Resources & Organizations (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Development Economics (AREA)
- Educational Administration (AREA)
- Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Strategic Management (AREA)
- Game Theory and Decision Science (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明实施例公开了一种数据处理方法、装置、终端和介质,其中,该方法包括:获取待分析数据,将待分析数据输入至长短时序记忆网络模型中,以获取针对待分析数据的第一分析结果,检测第一预测数据对应的监测指标参数是否与待分析数据的监测指标参数相匹配;若否,则将待分析数据输入至深度神经网络模型中,以获取针对待分析数据的第二分析结果,计算第一分析结果与第二分析结果之间的相似度;若相似度大于预设相似度,则根据第一分析结果和第二分析结果确定针对待分析数据的目标分析结果。通过实施上述方法,可以结合多个分析模型对数据进行综合分析处理,提升数据分析结果的准确性。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种数据处理方法、装置、终端及介质。
背景技术
宏观经济指标是衡量国民经济发展的重要依据,比如国内生产总值、一般公共预算支出等。精准的经济指标预测可以有效协助政府决策,具有重大现实意义。
目前对各类经济指标的预测主要是基于线性方法的预测,这类方法对应的预测模型都是业务规则模型。即根据业务人员的经验公式,结合传统的经济计量模型,对经济指标做短周期数据预测,常见的算法有趋势外推模型、分布式滞后模型、季节协整模型等。这类方法的优点是原理简单,可解释性强,逻辑容易自洽。但缺点也很明显:如完全依赖业务规则经验,不易发现指标间的衍生关系,即预测准确率较低。因此,如何更精确的预测宏观经济指标,成为亟待解决的问题。
发明内容
本申请实施例提供一种数据处理方法、装置、终端及介质,可以结合多个分析模型对数据进行综合分析处理,提升数据分析结果的准确性。
第一方面,本发明实施例提供了一种数据处理方法,所述方法包括:
获取待分析数据;
将所述待分析数据输入至长短时序记忆网络模型中,以获取针对所述待分析数据的第一分析结果,所述第一分析结果由所述长短时序记忆网络模型对所述待分析数据处理得到,所述第一分析结果中包括基于所述待分析数据进行分析得到的第一预测数据以及所述第一预测数据对应的监测指标参数,所述监测指标参数包括平均值、方差和平均增长率中的至少一种;
检测所述监测指标参数是否与所述待分析数据的监测指标参数相匹配;
若否,则将所述待分析数据输入至深度神经网络模型中,以获取针对所述待分析数据的第二分析结果,所述第二分析结果由所述深度神经网络模型对所述待分析数据处理得到,所述第二分析结果中包括基于所述待分析数据进行分析得到的第二预测数据以及所述第二预测数据对应的监测指标参数;
计算所述第一分析结果与所述第二分析结果之间的相似度;
若所述相似度大于预设相似度,则根据所述第一分析结果和所述第二分析结果确定针对所述待分析数据的目标分析结果。
第二方面,本发明实施例提供了一种数据处理装置,所述装置包括:
获取模块,用于获取待分析数据;
输入模块,用于将所述待分析数据输入至长短时序记忆网络模型中,以获取针对所述待分析数据的第一分析结果,所述第一分析结果由所述长短时序记忆网络模型对所述待分析数据处理得到,所述第一分析结果中包括基于所述待分析数据进行分析得到的第一预测数据以及所述第一预测数据对应的监测指标参数,所述监测指标参数包括平均值、方差和平均增长率中的至少一种;
检测模块,用于检测所述监测指标参数是否与所述待分析数据的监测指标参数相匹配;
所述输入模块,还用于若否,则将所述待分析数据输入至深度神经网络模型中,以获取针对所述待分析数据的第二分析结果,所述第二分析结果由所述深度神经网络模型对所述待分析数据处理得到,所述第二分析结果中包括基于所述待分析数据进行分析得到的第二预测数据以及所述第二预测数据对应的监测指标参数;
计算模块,用于计算所述第一分析结果与所述第二分析结果之间的相似度;
若所述相似度大于预设相似度,则根据所述第一分析结果和所述第二分析结果确定针对所述待分析数据的目标分析结果。
第三方面,本发明实施例提供了一种终端,包括处理器、输入设备、输出设备和存储器,所述处理器、输入设备、输出设备和存储器相互连接,其中,所述存储器用于存储计算机程序,所述计算机程序包括程序指令,所述处理器被配置用于调用所述程序指令,执行第一方面所述的方法。
第四方面,本发明实施例提供了一种计算机可读存储介质,其特征在于,所述计算机存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时使所述处理器执行第一方面所述的方法。
本发明实施例中,终端获取待分析数据,并将待分析数据输入至长短时序记忆网络模型中,以获取针对待分析数据的第一分析结果,终端检测第一预测数据对应的监测指标参数是否与待分析数据的监测指标参数相匹配;若否,则将待分析数据输入至深度神经网络模型中,以获取针对待分析数据的第二分析结果,终端计算第一分析结果与第二分析结果之间的相似度;若相似度大于预设相似度,则终端根据第一分析结果和第二分析结果确定针对待分析数据的目标分析结果。通过实施上述方法,可以结合多个分析模型对数据进行综合分析处理,提升数据分析结果的准确性。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种数据处理方法的流程示意图;
图2是本发明实施例提供的另一种数据处理方法的流程示意图;
图3是本发明实施例提供的一种长短时序记忆网络模型的结构示意图;
图4是本发明实施例提供的一种深度神经网络模型的结构示意图;
图5是本发明实施例提供的一种循环神经网络模型的结构示意图;
图6是本发明实施例提供的一种数据处理装置的结构示意图;
图7是本发明实施例提供的一种终端的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供的数据处理方法实现于终端,所述终端包括智能手机、平板电脑、数字音视频播放器、电子阅读器、手持游戏机或车载电子设备等电子设备。
图1是本发明实施例中一种数据处理方法的流程示意图。如图1所示,本实施例中的数据处理方法的流程可以包括:
S101、终端获取待分析数据。
本发明实施例中,待分析数据具体可以为宏观经济指标数据,如国内生产总值、一般公共预算支出等,或者,也可以为其他具有时序特性的数据,如汇率变化数据、股票变化数据、期货涨跌数据等。
具体实现中,终端可以获取目标时间段内的宏观经济指标数据,并将其作为待分析数据,目标时间段可以是近一年、近一月、近一周等,具体可以由用户预先设定。需要说明的是,终端获取待分析数据的具体方式可以为从预置数据库中获取,其中,该预置数据库中记录了相应的宏观经济指标数据,或者,终端也可以直接接收用户输入的数据,并将用户输入的数据作为待分析数据。
S102、终端将待分析数据输入至长短时序记忆网络模型中,以获取针对待分析数据的第一分析结果。
本发明实施例中,终端获取到待分析数据之后,可以将待分析数据输入至训练完成的长短时序记忆网络模型中,使得训练完成的长短时序记忆网络模型对待分析数据进行处理,得到第一分析结果,第一分析结果中包括基于待分析数据进行分析得到的第一预测数据以及第一预测数据对应的监测指标参数,监测指标参数包括平均值、方差和平均增长率中的至少一种。
举例说明,待分析数据为2015年-2018年的国内生产总值数据,具体为69、74、82、90(万亿),终端将待分析数据输入至长短时序记忆网络模型,长短时序记忆网络模型基于内置的算法对终端输入的数据进行处理,得到第一预测数据,该第一预测数据具体可以为2019年-2022年的国内生产总值预测数据,具体为100、110、121、133(万亿),进一步的,终端根据上述第一预测数据计算得到对应的监测指标参数,得到平均值为116,方差为151.5,平均增长率为10%。终端将上述第一预测数据以及第一预测数据对应的监测指标参数进行组合得到第一分析结果。
具体实现中,因长短时序记忆网络模型对待分析数据的输入格式存在要求,终端需在获取到待分析数据之后,对待分析数据进行预处理,然后将预处理后的待分析数据输入至长短时序记忆网络模型中,其中,预处理的方式包括数据规范化、冗余消除、纠错等。数据规范化具体用于将待分析数据转换为模型可以接收的数据,冗余消除具体用于清除待分析数据中重复的部分,纠错具体用于清除待分析数据中不符合常理的数据,终端将预处理之后的待分析数据输入至长短时序记忆网络模型中。
需要说明的是,终端将待分析数据输入至长短时序记忆网络模型之前,还需要对长短时序记忆网络模型进行训练,以使得训练完成的长短时序记忆网络模型输出需要的分析结果,其中,针对长短时序记忆网络模型的具体训练方式可以分为以下步骤:1、配置长短时序记忆网络模型中的参数,参数具体可以包括随机失活保留概率、全连接层激活函数,数据时序长度、学习速率、强制最大迭代次数、学习率衰减比例、学习率衰减开始的迭代回合数、截断梯度阈值、权值初始化方式、正则化项系数、优化器、停止训练的误差项阈值、训练集文件的比例、随机种子、隐藏层神经元个数、隐藏层激活函数等。2、采用样本数据对参数配置完成的长短时序记忆网络模型进行训练,得到训练完成的长短时序记忆网络模型。具体的,样本数据可以为历史经济数据,具体可以包括前n天的经济数据以及后m天的经济数据,预先选取历史经济数据中前n天的经济数据作为预测数据,并将上述预测数据输入至参数配置完成的长短时序记忆网络模型中,得到m个输出数据,校验上述m个输出数据与后m天的经济数据之间的差距。通过上述方式,对长短时序记忆网络模型进行多轮迭代,通过梯度下降类(如自适应动量及均方根反向传播)算法来更新长短时序记忆网络模型中的参数。通过多轮多维度交叉测试验证,当m个输出数据与后m天的经济数据的差距小于预设阈值时,将此时的长短时序记忆网络模型确定为训练完成的长短时序记忆网络模型,其中,m和n为正整数,具体可以由用户预先设置。如图3所示,为一种长短时序记忆网络模型的结构示意图,由图3可知,长短时序记忆网络中具体包括多个神经元细胞H,每个细胞H中包含遗忘门、输入门和输出门,遗忘门用于结合上一时刻的输出值,与当前时刻的样本特征值,通过sigmoid函数输出一个概率值,概率值越接近0,表示上一时刻的信息舍弃得越多;概率值越接近1,表示上一时刻信息保留得越多。通过这个概率值来度量当前时刻要遗忘多少历史信息。输入门用于结合上一时刻的输出值,与当前时刻的样本特征值,通过sigmoid函数输出一个概率值,概率值越接近0,表示当前时刻的信息舍弃得越多;概率值越接近1,表示当前时刻信息保留得越多。通过这个概率值来度量当前时刻的样本特征值输入比例多大。通过遗忘门和输入门,共同决定了当前神经元的状态信息。输出门用于结合上一时刻的输出值,与当前时刻的样本特征值,通过sigmoid函数输出一个概率值,概率值越接近0,表示当前神经元的状态信息舍弃越多;概率值越接近1,表示当前神经元的状态信息输出越多,通过这个概率值来度量当前神经元的状态信息输出比例。I表示长短时序记忆网络模型的输入端,O表示长短时序记忆网络模型的输出端,X(ti)用于表示模型的输入数据,0≤i≤n。在一种实施场景中,长短时序记忆网络模型用于预测增值税数据,输入端I输入的X(ti)具体表示不同时间段的实际增值税数据,长短时序记忆网络模型中输入门、遗忘门和输出门对接收到的增值税数据进行运算,得到对于增值税数据的预测数据,并在输出端O进行输出。
S103、终端检测第一预测数据对应的监测指标参数是否与待分析数据的监测指标参数相匹配。
本发明实施例中,终端将待分析数据输入至长短时序记忆网络模型中,并获取到针对待分析数据的第一分析结果之后,将检测第一预测数据对应的监测指标参数是否与待分析数据的监测指标参数相匹配。
在一种实现方式中,监测指标参数包括平均值,终端检测第一预测数据对应的监测指标参数是否与待分析数据的监测指标参数相匹配的具体方式为,终端计算第一预测数据的平均值与待分析数据的平均值之间的第一差值;若第一差值小于第一预设差值,终端确定第一预测数据对应的监测指标参数与待分析数据的监测指标参数相匹配。
在一种实现方式中,监测指标参数包括方差,终端检测第一预测数据对应的监测指标参数是否与待分析数据的监测指标参数相匹配的具体方式为,终端计算第一预测数据的方差与待分析数据的方差之间的第二差值;若第二差值小于第二预设差值,终端确定第一预测数据对应的监测指标参数与待分析数据的监测指标参数相匹配。
在一种实现方式中,监测指标参数包括平均增长率,终端检测第一预测数据对应的监测指标参数是否与待分析数据的监测指标参数相匹配的具体方式为,终端计算第一预测数据的平均增长率与待分析数据的平均增长率之间的第三差值;若第三差值小于第三预设差值,终端确定第一预测数据对应的监测指标参数与待分析数据的监测指标参数相匹配。
在一种实现方式中,监测指标参数包括平均值、方差和平均增长率,终端检测第一预测数据对应的监测指标参数是否与待分析数据的监测指标参数相匹配的具体方式为,终端计算第一预测数据的平均值与待分析数据的平均值之间的第一差值;若第一差值小于第一预设差值,则终端计算第一预测数据的方差与待分析数据的方差之间的第二差值;若第二差值小于第二预设差值,则终端计算第一预测数据的平均增长率与待分析数据的平均增长率之间的第三差值;若第三差值小于第三预设差值,则终端确定第一预测数据对应的监测指标参数与待分析数据的监测指标参数相匹配。
举例说明,终端根据第一预测数据计算得到监测指标参数中平均值为116,方差为151.5,平均增长率为10%,第一预设差值为70,第二预设差值为30,第三预设差值为10%。若待分析数据的平均值为80,方差为130,平均增长率为12%,则终端确定第一预测数据对应的监测指标参数与待分析数据的监测指标参数相匹配,若待分析数据的平均值为30,因第一预测数据的平均值与待分析数据的平均值之间的第一差值大于第一预设差值,则终端确定第一预测数据对应的监测指标参数与待分析数据的监测指标参数不匹配。
进一步的,若终端确定第一预测数据对应的监测指标参数与待分析数据的监测指标参数相匹配,则终端可以直接将第一分析结果确定为针对待分析数据的目标分析结果;若第一预测数据对应的监测指标参数与待分析数据的监测指标参数不匹配,则终端执行步骤S104。
S104、若否,则终端将待分析数据输入至深度神经网络模型中,以获取针对待分析数据的第二分析结果。
本发明实施例中,若第一预测数据对应的监测指标参数与待分析数据的监测指标参数不匹配,则终端将待分析数据输入至训练完成的深度神经网络模型中,使得训练完成的深度神经网络模型对待分析数据进行处理,得到第二分析结果,第二分析结果中包括基于待分析数据进行分析得到的第二预测数据以及第二预测数据对应的监测指标参数。
具体实现中,因深度神经网络模型对待分析数据的输入格式存在要求,终端需在获取到待分析数据之后,对待分析数据进行预处理,然后将预处理后的待分析数据输入至深度神经网络模型中,其中,预处理的方式包括数据规范化、冗余消除、纠错等。
需要说明的是,终端将待分析数据输入至深度神经网络模型之前,还需要对深度神经网络模型进行训练,以使得训练完成的深度神经网络模型输出需要的分析结果,其中,针对深度神经网络模型的具体训练方式可以分为以下步骤:1、配置深度神经网络模型中的参数。模型参数具体可以包括随机失活保留概率、全连接层激活函数,数据时序长度、学***均值或方差等体现。如差距为欧式距离,则当m个数据与实际的后m天的增值税数据之间的欧式距离小于预设欧式距离时,将此时隐含层中的参数作为训练完成的深度神经网络模型中隐含层中参数。
S105、终端计算第一分析结果与第二分析结果之间的相似度。
本发明实施例中,终端获取到针对待分析数据的第二分析结果之后,将检测计算第一分析结果与第二分析结果之间的相似度。
在一种实现方式中,相似度的具体计算方式可以为,终端计算第一分析结果中的第一预测数据与第二分析结果中的第二预测数据之间的欧式距离,并根据距离与相似度的对应关系确定欧式距离对应的目标相似度;终端将目标相似度确定为第一分析结果与第二分析结果之间的相似度。其中,距离与相似度的对应关系具体可以为,若距离小于第一预设距离,则确定相似度为第一预设相似度,若距离介于第一预设距离与第二预设距离之间,则确定相似度为第二预设相似度,若距离大于第二预设距离,则确定相似度为第三预设相似度,其中,第一预设距离、第二预设距离、第一预设相似度、第二预设相似度和第三预设相似度可以由用户预先设置。或者,相似度也可以有距离的倒数所确定,即距离越大,相似度越小。
在一种实现方式中,相似度也可以由第一预测数据对应的监测指标参数与第二预测数据中的监测指标参数所确定,具体的,终端可以计算第一预测数据的平均值与待分析数据的平均值之间的第一差值,并根据第一差值与相似度的对应关系确定第一分析结果与第二分析结果之间的相似度,或者,终端也可以计算第一预测数据的方差与待分析数据的方差之间的第二差值,并根据第二差值与相似度的对应关系确定第一分析结果与第二分析结果之间的相似度,或者,终端也可以计算第一预测数据的平均增长率与待分析数据的平均增长率之间的第三差值,并根据第三差值与相似度的对应关系确定第一分析结果与第二分析结果之间的相似度。或者,终端也可以对第一差值、第二差值和第三差值进行求和处理,得到目标差值,并根据目标差值与相似度的对应关系确定第一分析结果与第二分析结果之间的相似度。
S106、若相似度大于预设相似度,则终端根据第一分析结果和第二分析结果确定针对待分析数据的目标分析结果。
本发明实施例中,终端计算得到第一分析结果与第二分析结果之间的相似度之后,将检测该相似度是否大于预设相似度,若相似度大于预设相似度,则终端根据第一分析结果和第二分析结果确定针对待分析数据的目标分析结果。
具体的,终端获取长短时序记忆网络模型对应的第一加权系数和深度神经网络模型对应的第二加权系数,采用第一加权系数对第一分析结果进行加权处理,得到第一加权结果;采用第二加权系数对第二分析结果进行加权处理,得到第二加权结果;终端对第一加权结果和第二加权结果进行求和处理,得到目标分析结果。长短时序记忆网络模型对应的第一加权系数具体可以由长短时序记忆网络模型对应的第一分析准确率所确定,深度神经网络模型对应的第二加权系数具体可以由深度神经网络模型对应的第二分析准确率所确定,其中,第一分析准确率或第二分析准确率中准确率的具体计算方式可以为,终端获取模型分析次数和分析正确次数,将该分析正确次数与分析次数的比值确定为准确率,准确率越高,其对应的加权系数越大。例如,若第一分析准确率和第二分析准确率分别为90%和80%,则对应的第一加权系数和第二加权系数为0.6和0.4,若第一分析准确率和第二分析准确率分别为90%和90%,则对应的第一加权系数和第二加权系数为0.5和0.5。
本发明实施例中,终端获取待分析数据,并将待分析数据输入至长短时序记忆网络模型中,以获取针对待分析数据的第一分析结果,终端检测第一预测数据对应的监测指标参数是否与待分析数据的监测指标参数相匹配;若否,则终端将待分析数据输入至深度神经网络模型中,以获取针对待分析数据的第二分析结果,终端计算第一分析结果与第二分析结果之间的相似度;若相似度大于预设相似度,则终端根据第一分析结果和第二分析结果确定针对待分析数据的目标分析结果。通过实施上述方法,可以结合多个分析模型对数据进行综合分析处理,提升数据分析结果的准确性。
图2是本发明实施例中另一种数据处理方法的流程示意图。如图所示本实施例中的数据处理方法的流程可以包括:
S201、终端获取待分析数据。
本发明实施例中,待分析数据具体可以为宏观进行指标数据,如国内生产总值、一般公共预算支出等,或者,也可以为其他具有时序特性的数据,如汇率变化数据、股票变化数据、期货涨跌数据等。
S202、终端将待分析数据输入至长短时序记忆网络模型中,以获取针对待分析数据的第一分析结果。
本发明实施例中,第一分析结果中包括基于待分析数据进行分析得到的第一预测数据以及第一预测数据对应的监测指标参数,监测指标参数包括平均值、方差和平均增长率中的至少一种。
S203、终端检测第一预测数据对应的监测指标参数是否与待分析数据的监测指标参数相匹配。
S204、若否,则终端将待分析数据输入至深度神经网络模型中,以获取针对待分析数据的第二分析结果。
本发明实施例中,若第一预测数据对应的监测指标参数与待分析数据的监测指标参数不匹配,则终端将待分析数据输入至训练完成的深度神经网络模型中,使得训练完成的深度神经网络模型对待分析数据进行处理,得到第二分析结果,第二分析结果中包括基于待分析数据进行分析得到的第二预测数据以及第二预测数据对应的监测指标参数。
S205、终端计算第一分析结果与第二分析结果之间的相似度。
本发明实施例中,终端获取到针对待分析数据的第二分析结果之后,将检测计算第一分析结果与第二分析结果之间的相似度。
S206、若第一分析结果与第二分析结果的相似度小于预设相似度,则终端将待分析数据输入至循环神经网络模型,以获取针对待分析数据的第三分析结果。
本发明实施例中,若第一分析结果与第二分析结果的相似度小于预设相似度,则终端将待分析数据输入至训练完成的循环神经网络模型中,使得训练完成的循环神经网络模型对待分析数据进行处理,得到第三分析结果,第三分析结果中包括基于待分析数据进行分析得到的第三预测数据以及第三预测数据对应的监测指标参数。
具体实现中,因循环神经网络模型对待分析数据的输入格式存在要求,终端需在获取到待分析数据之后,对待分析数据进行预处理,然后将预处理后的待分析数据输入至循环神经网络模型中,其中,预处理的方式包括数据规范化、冗余消除、纠错等。
需要说明的是,终端将待分析数据输入至循环神经网络模型之前,需要对循环神经网络模型进行训练,以使得训练完成的循环神经网络模型输出需要的分析结果,其中,针对循环神经网络模型的具体训练方式可以分为以下步骤:1、配置循环神经网络模型中的参数。参数具体可以包括随机失活保留概率、全连接层激活函数,数据时序长度、学***均值或方差等体现。
S207、终端根据第一分析结果、第二分析结果和第三分析结果确定针对待分析数据的目标分析结果。
本发明实施例中,终端获取到第一分析结果、第二分析结果和第三分析结果之后,将根据第一分析结果、第二分析结果和第三分析结果确定针对待分析数据的目标分析结果。
具体实现中,终端获取长短时序记忆网络模型对应的第一加权系数、深度神经网络模型对应的第二加权系数和循环神经网络模型对应的第三加权系数;采用第一加权系数对第一分析结果进行加权处理,得到第一加权结果;采用第二加权系数对第二分析结果进行加权处理,得到第二加权结果;采用第三加权系数对第三分析结果进行加权处理,得到第三加权结果;终端对第一加权结果、第二加权结果和第三加权结果进行求和处理,得到目标分析结果。其中,终端获取第一加权系数、第二加权系数和第三加权系数的具体方式可以为,终端获取长短时序记忆网络模型对应的第一分析准确率,并根据准确率与加权系数的对应关系确定第一分析准确率对应的第一加权系数;终端获取深度神经网络模型对应的第二分析准确率,并根据准确率与加权系数的对应关系确定第二分析准确率对应的第二加权系数;终端获取循环神经网络模型对应的第三分析准确率,并根据准确率与加权系数的对应关系确定第三分析准确率对应的第三加权系数。
本发明实施例中,终端获取待分析数据,并将待分析数据输入至长短时序记忆网络模型中,以获取针对待分析数据的第一分析结果,终端检测第一预测数据对应的监测指标参数是否与待分析数据的监测指标参数相匹配;若否,则将待分析数据输入至深度神经网络模型中,以获取针对待分析数据的第二分析结果,终端计算第一分析结果与第二分析结果之间的相似度;若相似度小于预设相似度,则则终端将待分析数据输入至循环神经网络模型,以获取针对待分析数据的第三分析结果,并根据第一分析结果、第二分析结果和第三分析结果确定针对待分析数据的目标分析结果。通过实施上述方法,可以结合多个分析模型对数据进行综合分析处理,提升数据分析结果的准确性。
下面将结合附图6对本发明实施例提供的数据处理装置进行详细介绍。需要说明的是,附图6所示的数据处理装置,用于执行本发明图1-图2所示实施例的方法,为了便于说明,仅示出了与本发明实施例相关的部分,具体技术细节未揭示的,经参照本发明图1-图2所示的实施例。
请参见图6,为本发明提供的一种数据处理装置的结构示意图,该数据处理装置60可包括:获取模块601、输入模块602、检测模块603、计算模块604、确定模块605。
获取模块601,用于获取待分析数据;
输入模块602,用于将所述待分析数据输入至长短时序记忆网络模型中,以获取针对所述待分析数据的第一分析结果,所述第一分析结果由所述长短时序记忆网络模型对所述待分析数据处理得到,所述第一分析结果中包括基于所述待分析数据进行分析得到的第一预测数据以及所述第一预测数据对应的监测指标参数,所述监测指标参数包括平均值、方差和平均增长率中的至少一种;
检测模块603,用于检测所述监测指标参数是否与所述待分析数据的监测指标参数相匹配;
所述输入模块602,还用于若否,则将所述待分析数据输入至深度神经网络模型中,以获取针对所述待分析数据的第二分析结果,所述第二分析结果由所述深度神经网络模型对所述待分析数据处理得到,所述第二分析结果中包括基于所述待分析数据进行分析得到的第二预测数据以及所述第二预测数据对应的监测指标参数;
计算模块604,用于计算所述第一分析结果与所述第二分析结果之间的相似度;
确定模块605,用于若所述相似度大于预设相似度,则根据所述第一分析结果和所述第二分析结果确定针对所述待分析数据的目标分析结果。
在一种实现方式中,所述检测模块603,具体用于:
计算所述第一预测数据的平均值与所述待分析数据的平均值之间的第一差值;
若所述第一差值小于第一预设差值,则计算所述第一预测数据的方差与所述待分析数据的方差之间的第二差值;
若所述第二差值小于第二预设差值,则计算所述第一预测数据的平均增长率与所述待分析数据的平均增长率之间的第三差值;
若所述第三差值小于第三预设差值,则确定所述第一预测数据对应的监测指标参数与所述待分析数据的监测指标参数相匹配。
在一种实现方式中,所述计算模块604,具体用于:
计算所述第一分析结果中的第一预测数据与所述第二分析结果中的第二预测数据之间的欧式距离;
根据距离与相似度的对应关系确定所述欧式距离对应的目标相似度;
将所述目标相似度确定为所述第一分析结果与所述第二分析结果之间的相似度。
在一种实现方式中,所述确定模块605,具体用于:
获取所述长短时序记忆网络模型对应的第一加权系数和所述深度神经网络模型对应的第二加权系数;
采用所述第一加权系数对所述第一分析结果进行加权处理,得到第一加权结果;
采用所述第二加权系数对所述第二分析结果进行加权处理,得到第二加权结果;
对所述第一加权结果和所述第二加权结果进行求和处理,得到针对所述待分析数据的目标分析结果。
在一种实现方式中,所述确定模块605,还用于:
若所述第一分析结果与所述第二分析结果的相似度小于预设相似度,则将所述待分析数据输入至循环神经网络模型中,以获取针对所述待分析数据的第三分析结果,所述第三分析结果由所述循环神经网络模型对所述待分析数据处理得到,所述第三分析结果中包括基于所述待分析数据进行分析得到的第三预测数据以及所述第三预测数据对应的监测指标参数;
根据所述第一分析结果、所述第二分析结果和所述第三分析结果确定针对所述待分析数据的目标分析结果。
在一种实现方式中,所述确定模块605,具体用于:
获取所述长短时序记忆网络模型对应的第一加权系数、所述深度神经网络模型对应的第二加权系数和所述循环神经网络模型对应的第三加权系数;
采用所述第一加权系数对所述第一分析结果进行加权处理,得到第一加权结果;
采用所述第二加权系数对所述第二分析结果进行加权处理,得到第二加权结果;
采用所述第三加权系数对所述第三分析结果进行加权处理,得到第三加权结果;
对所述第一加权结果、所述第二加权结果和所述第三加权结果进行求和处理,得到针对所述待分析数据的目标分析结果。
在一种实现方式中,所述确定模块605,还用于:
获取所述长短时序记忆网络模型对应的第一分析准确率,并根据准确率与加权系数的对应关系确定所述第一分析准确率对应的第一加权系数;
获取所述深度神经网络模型对应的第二分析准确率,并根据准确率与加权系数的对应关系确定所述第二分析准确率对应的第二加权系数;
获取所述循环神经网络模型对应的第三分析准确率,并根据准确率与加权系数的对应关系确定所述第三分析准确率对应的第三加权系数。
本发明实施例中,获取模块601获取待分析数据,输入模块602将待分析数据输入至长短时序记忆网络模型中,以获取针对待分析数据的第一分析结果,检测模块603检测第一预测数据对应的监测指标参数是否与待分析数据的监测指标参数相匹配;若否,则输入模块602将待分析数据输入至深度神经网络模型中,以获取针对待分析数据的第二分析结果,计算模块604计算第一分析结果与第二分析结果之间的相似度;若相似度大于预设相似度,则确定模块605根据第一分析结果和第二分析结果确定针对待分析数据的目标分析结果。
请参见图7,为本发明实施例提供了一种终端的结构示意图。如图7所示,该终端包括:至少一个处理器701,输入设备703,输出设备704,存储器705,至少一个通信总线702。其中,通信总线702用于实现这些组件之间的连接通信。其中,输入设备703可以是控制面板或者麦克风等,输出设备704可以是显示屏等。其中,存储器705可以是高速RAM存储器,也可以是非不稳定的存储器(non-voIatiIe memory),例如至少一个磁盘存储器。存储器705可选的还可以是至少一个位于远离前述处理器701的存储装置。其中处理器701可以结合图6所描述的装置,存储器705中存储一组程序代码,且处理器701,输入设备703,输出设备704调用存储器705中存储的程序代码,用于执行以下操作:
输入设备703,用于获取待分析数据;
处理器701,用于将所述待分析数据输入至长短时序记忆网络模型中,以获取针对所述待分析数据的第一分析结果,所述第一分析结果由所述长短时序记忆网络模型对所述待分析数据处理得到,所述第一分析结果中包括基于所述待分析数据进行分析得到的第一预测数据以及所述第一预测数据对应的监测指标参数,所述监测指标参数包括平均值、方差和平均增长率中的至少一种;
处理器701,用于检测所述监测指标参数是否与所述待分析数据的监测指标参数相匹配;
处理器701,用于若否,则将所述待分析数据输入至深度神经网络模型中,以获取针对所述待分析数据的第二分析结果,所述第二分析结果由所述深度神经网络模型对所述待分析数据处理得到,所述第二分析结果中包括基于所述待分析数据进行分析得到的第二预测数据以及所述第二预测数据对应的监测指标参数;
处理器701,用于计算所述第一分析结果与所述第二分析结果之间的相似度;
处理器701,用于若所述相似度大于预设相似度,则根据所述第一分析结果和所述第二分析结果确定针对所述待分析数据的目标分析结果。
在一种实现方式中,处理器701,具体用于:
计算所述第一预测数据的平均值与所述待分析数据的平均值之间的第一差值;
若所述第一差值小于第一预设差值,则计算所述第一预测数据的方差与所述待分析数据的方差之间的第二差值;
若所述第二差值小于第二预设差值,则计算所述第一预测数据的平均增长率与所述待分析数据的平均增长率之间的第三差值;
若所述第三差值小于第三预设差值,则确定所述第一预测数据对应的监测指标参数与所述待分析数据的监测指标参数相匹配。
在一种实现方式中,处理器701,具体用于:
计算所述第一分析结果中的第一预测数据与所述第二分析结果中的第二预测数据之间的欧式距离;
根据距离与相似度的对应关系确定所述欧式距离对应的目标相似度;
将所述目标相似度确定为所述第一分析结果与所述第二分析结果之间的相似度。
在一种实现方式中,处理器701,具体用于:
获取所述长短时序记忆网络模型对应的第一加权系数和所述深度神经网络模型对应的第二加权系数;
采用所述第一加权系数对所述第一分析结果进行加权处理,得到第一加权结果;
采用所述第二加权系数对所述第二分析结果进行加权处理,得到第二加权结果;
对所述第一加权结果和所述第二加权结果进行求和处理,得到针对所述待分析数据的目标分析结果。
在一种实现方式中,处理器701,具体用于:
若所述第一分析结果与所述第二分析结果的相似度小于预设相似度,则将所述待分析数据输入至循环神经网络模型中,以获取针对所述待分析数据的第三分析结果,所述第三分析结果由所述循环神经网络模型对所述待分析数据处理得到,所述第三分析结果中包括基于所述待分析数据进行分析得到的第三预测数据以及所述第三预测数据对应的监测指标参数;
根据所述第一分析结果、所述第二分析结果和所述第三分析结果确定针对所述待分析数据的目标分析结果。
在一种实现方式中,处理器701,具体用于:
获取所述长短时序记忆网络模型对应的第一加权系数、所述深度神经网络模型对应的第二加权系数和所述循环神经网络模型对应的第三加权系数;
采用所述第一加权系数对所述第一分析结果进行加权处理,得到第一加权结果;
采用所述第二加权系数对所述第二分析结果进行加权处理,得到第二加权结果;
采用所述第三加权系数对所述第三分析结果进行加权处理,得到第三加权结果;
对所述第一加权结果、所述第二加权结果和所述第三加权结果进行求和处理,得到针对所述待分析数据的目标分析结果。
在一种实现方式中,处理器701,具体用于:
获取所述长短时序记忆网络模型对应的第一分析准确率,并根据准确率与加权系数的对应关系确定所述第一分析准确率对应的第一加权系数;
获取所述深度神经网络模型对应的第二分析准确率,并根据准确率与加权系数的对应关系确定所述第二分析准确率对应的第二加权系数;
获取所述循环神经网络模型对应的第三分析准确率,并根据准确率与加权系数的对应关系确定所述第三分析准确率对应的第三加权系数。
本发明实施例中,输入设备703获取待分析数据,处理器701将待分析数据输入至长短时序记忆网络模型中,以获取针对待分析数据的第一分析结果,处理器701检测第一预测数据对应的监测指标参数是否与待分析数据的监测指标参数相匹配;若否,则处理器701将待分析数据输入至深度神经网络模型中,以获取针对待分析数据的第二分析结果,处理器701计算第一分析结果与第二分析结果之间的相似度;若相似度大于预设相似度,则处理器701根据第一分析结果和第二分析结果确定针对待分析数据的目标分析结果。
本发明实施例中所述模块,可以通过通用集成电路,例如CPU(CentraIProcessing Unit,中央处理器),或通过ASIC(AppIication Specific IntegratedCircuit,专用集成电路)来实现。
应当理解,在本发明实施例中,所称处理器701可以是中央处理模块(CentraIProcessing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(DigitaISignaI Processor,DSP)、专用集成电路(AppIication Specific Integrated Circuit,ASIC)、现成可编程门阵列(FieId-ProgrammabIe Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
总线702可以是工业标准体系结构(Industry Standard Architecture,ISA)总线、外部设备互联(PeripheraI Component,PCI)总线或扩展工业标准体系结构(EItendedIndustry Standard Architecture,EISA)总线等,该总线702可以分为地址总线、数据总线、控制总线等,为便于表示,图7仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于计算机存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的计算机存储介质可为磁碟、光盘、只读存储记忆体(Read-OnIy Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所揭露的仅为本发明较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。
Claims (8)
1.一种数据处理方法,其特征在于,所述方法包括:
获取待分析数据;
将所述待分析数据输入至长短时序记忆网络模型中,以获取针对所述待分析数据的第一分析结果,所述第一分析结果由所述长短时序记忆网络模型对所述待分析数据处理得到,所述第一分析结果中包括基于所述待分析数据进行分析得到的第一预测数据以及所述第一预测数据对应的监测指标参数,所述监测指标参数包括平均值、方差和平均增长率中的至少一种;
检测所述监测指标参数是否与所述待分析数据的监测指标参数相匹配:依次计算所述第一预测数据的平均值与所述待分析数据的平均值之间的第一差值,所述第一预测数据的方差与所述待分析数据的方差之间的第二差值,所述第一预测数据的平均增长率与所述待分析数据的平均增长率之间的第三差值,并依次比较所述第一差值与第一预设差值,所述第二差值和第二预设差值,所述第三差值和第三预设差值,若第一差值,第二差值,第三差值存在一项或多项没有小于对应的预设第一差值,预设第二差值,预设第三差值,则数据监测指标参数与所述待分析数据的监测指标参数不相匹配;
若检测结果为不匹配,则将所述待分析数据输入至深度神经网络模型中,以获取针对所述待分析数据的第二分析结果,所述第二分析结果由所述深度神经网络模型对所述待分析数据处理得到,所述第二分析结果中包括基于所述待分析数据进行分析得到的第二预测数据以及所述第二预测数据对应的监测指标参数;
计算所述第一分析结果与所述第二分析结果之间的相似度;
若所述第一分析结果与所述第二分析结果的相似度小于预设相似度,则将所述待分析数据输入至循环神经网络模型中,以获取针对所述待分析数据的第三分析结果,所述第三分析结果由所述循环神经网络模型对所述待分析数据处理得到,所述第三分析结果中包括基于所述待分析数据进行分析得到的第三预测数据以及所述第三预测数据对应的监测指标参数;
根据所述第一分析结果、所述第二分析结果和所述第三分析结果确定针对所述待分析数据的目标分析结果。
2.根据权利要求1所述的方法,其特征在于,计算所述第一分析结果与所述第二分析结果之间的相似度,包括:
计算所述第一分析结果中的第一预测数据与所述第二分析结果中的第二预测数据之间的欧式距离;
根据距离与相似度的对应关系确定所述欧式距离对应的目标相似度;
将所述目标相似度确定为所述第一分析结果与所述第二分析结果之间的相似度。
3.根据权利要求1所述的方法,其特征在于,根据所述第一分析结果和所述第二分析结果确定针对所述待分析数据的目标分析结果,包括:
获取所述长短时序记忆网络模型对应的第一加权系数和所述深度神经网络模型对应的第二加权系数;
采用所述第一加权系数对所述第一分析结果进行加权处理,得到第一加权结果;
采用所述第二加权系数对所述第二分析结果进行加权处理,得到第二加权结果;
对所述第一加权结果和所述第二加权结果进行求和处理,得到针对所述待分析数据的目标分析结果。
4.根据权利要求1所述的方法,其特征在于,根据所述第一分析结果、所述第二分析结果和所述第三分析结果确定针对所述待分析数据的目标分析结果,包括:
获取所述长短时序记忆网络模型对应的第一加权系数、所述深度神经网络模型对应的第二加权系数和所述循环神经网络模型对应的第三加权系数;
采用所述第一加权系数对所述第一分析结果进行加权处理,得到第一加权结果;
采用所述第二加权系数对所述第二分析结果进行加权处理,得到第二加权结果;
采用所述第三加权系数对所述第三分析结果进行加权处理,得到第三加权结果;
对所述第一加权结果、所述第二加权结果和所述第三加权结果进行求和处理,得到针对所述待分析数据的目标分析结果。
5.根据权利要求4所述的方法,其特征在于,获取所述长短时序记忆网络模型对应的第一加权系数、所述深度神经网络模型对应的第二加权系数和所述循环神经网络模型对应的第三加权系数,包括:
获取所述长短时序记忆网络模型对应的第一分析准确率,并根据准确率与加权系数的对应关系确定所述第一分析准确率对应的第一加权系数;
获取所述深度神经网络模型对应的第二分析准确率,并根据准确率与加权系数的对应关系确定所述第二分析准确率对应的第二加权系数;
获取所述循环神经网络模型对应的第三分析准确率,并根据准确率与加权系数的对应关系确定所述第三分析准确率对应的第三加权系数。
6.一种数据处理装置,其特征在于,所述装置包括:
获取模块,用于获取待分析数据;
输入模块,用于将所述待分析数据输入至长短时序记忆网络模型中,以获取针对所述待分析数据的第一分析结果,所述第一分析结果由所述长短时序记忆网络模型对所述待分析数据处理得到,所述第一分析结果中包括基于所述待分析数据进行分析得到的第一预测数据以及所述第一预测数据对应的监测指标参数,所述监测指标参数包括平均值、方差和平均增长率中的至少一种;
检测模块,用于检测所述监测指标参数是否与所述待分析数据的监测指标参数相匹配;
所述输入模块,还用于若否,则将所述待分析数据输入至深度神经网络模型中,以获取针对所述待分析数据的第二分析结果,所述第二分析结果由所述深度神经网络模型对所述待分析数据处理得到,所述第二分析结果中包括基于所述待分析数据进行分析得到的第二预测数据以及所述第二预测数据对应的监测指标参数;
计算模块,用于计算所述第一分析结果与所述第二分析结果之间的相似度;
所述检测模块,还用于检测所述相似度是否与所述待分析数据的检测指标参数相匹配;
所述输入模块,还用于若否,则将所述待分析数据输入至循环神经网络模型中,以获取针对所述待分析数据的第三分析结果,所述第三分析结果有所述循环神经网络模型对所述待分析数据处理得到,所述待分析结果中包括基于所述得分析数据分析得到的第三预测数据以及所述第三预测数据对应的检测指标参数;
确定模块,用于则根据所述第一分析结果,所述第二分析结果和第三分析结果确定针对所述待分析数据的目标分析结果。
7.一种终端,其特征在于,包括处理器、输入设备、输出设备和存储器,所述处理器、输入设备、输出设备和存储器相互连接,其中,所述存储器用于存储计算机程序,所述计算机程序包括程序指令,所述处理器被配置用于调用所述程序指令,执行如权利要求1-5任一项所述的方法。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时使所述处理器执行如权利要求1-5任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910960852.8A CN110866672B (zh) | 2019-10-10 | 2019-10-10 | 数据处理方法、装置、终端及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910960852.8A CN110866672B (zh) | 2019-10-10 | 2019-10-10 | 数据处理方法、装置、终端及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110866672A CN110866672A (zh) | 2020-03-06 |
CN110866672B true CN110866672B (zh) | 2024-06-25 |
Family
ID=69652823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910960852.8A Active CN110866672B (zh) | 2019-10-10 | 2019-10-10 | 数据处理方法、装置、终端及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110866672B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111507212A (zh) * | 2020-04-03 | 2020-08-07 | 咪咕文化科技有限公司 | 视频焦点区域提取方法、装置、设备及存储介质 |
CN114610965A (zh) * | 2022-02-08 | 2022-06-10 | 深圳前海微众银行股份有限公司 | 一种数据处理方法、装置、设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107590569A (zh) * | 2017-09-25 | 2018-01-16 | 山东浪潮云服务信息科技有限公司 | 一种数据预测方法及装置 |
JP2022085163A (ja) * | 2020-11-27 | 2022-06-08 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング | データ分析装置及びデータ分析方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102073785B (zh) * | 2010-11-26 | 2013-02-27 | 哈尔滨工程大学 | 基于广义动态模糊神经网络的燃气日负荷组合预报方法 |
KR101917006B1 (ko) * | 2016-11-30 | 2018-11-08 | 에스케이 주식회사 | 머신 러닝 기반 반도체 제조 수율 예측 시스템 및 방법 |
CN108108520B (zh) * | 2017-11-29 | 2019-05-03 | 海南电网有限责任公司电力科学研究院 | 一种基于神经网络集成的输电线路雷害风险预测方法 |
CN108399248A (zh) * | 2018-03-02 | 2018-08-14 | 郑州云海信息技术有限公司 | 一种时序数据预测方法、装置及设备 |
CN108416479A (zh) * | 2018-03-20 | 2018-08-17 | 易联众信息技术股份有限公司 | 一种基于gdp的决策方案数据分析模型的构建方法 |
CN108763277B (zh) * | 2018-04-10 | 2023-04-18 | 平安科技(深圳)有限公司 | 一种数据分析方法、计算机可读存储介质及终端设备 |
CN110297179A (zh) * | 2018-05-11 | 2019-10-01 | 宫文峰 | 基于集成深度学习的柴油发电机故障预测与监测***装置 |
CN110110796B (zh) * | 2019-05-13 | 2020-12-18 | 哈尔滨工程大学 | 一种基于深度学习的海上船舶时序数据的分析方法 |
-
2019
- 2019-10-10 CN CN201910960852.8A patent/CN110866672B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107590569A (zh) * | 2017-09-25 | 2018-01-16 | 山东浪潮云服务信息科技有限公司 | 一种数据预测方法及装置 |
JP2022085163A (ja) * | 2020-11-27 | 2022-06-08 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング | データ分析装置及びデータ分析方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110866672A (zh) | 2020-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116757534B (zh) | 一种基于神经训练网络的智能冰箱可靠性分析方法 | |
CN111563706A (zh) | 一种基于lstm网络的多变量物流货运量预测方法 | |
CN103544392B (zh) | 基于深度学习的医学气体识别方法 | |
CN115018021B (zh) | 基于图结构与异常注意力机制的机房异常检测方法及装置 | |
CN107506868B (zh) | 一种短时电力负荷预测的方法及装置 | |
CN111625516B (zh) | 检测数据状态的方法、装置、计算机设备和存储介质 | |
CN112633412B (zh) | 异常用电检测方法、设备及存储介质 | |
Cai et al. | Anomaly detection of earthquake precursor data using long short-term memory networks | |
CN112699998B (zh) | 一种时间序列预测方法、装置、电子设备及可读存储介质 | |
CN110866672B (zh) | 数据处理方法、装置、终端及介质 | |
US20220367057A1 (en) | Missing medical diagnosis data imputation method and apparatus, electronic device and medium | |
CN116821809A (zh) | 基于人工智能的生命体征数据采集*** | |
CN115510748A (zh) | 基于变分模态分解和cnn-gru的滑坡位移预测方法 | |
CN112949947A (zh) | 一种基于卷积长短期记忆网络的电力故障预警方法及*** | |
CN116740586A (zh) | 冰雹识别方法、装置、电子设备及计算机可读存储介质 | |
CN116610973A (zh) | 一种传感器故障监测及失效信息重构方法及*** | |
CN109493975B (zh) | 基于xgboost模型的慢性病复发预测方法、装置和计算机设备 | |
CN116826739A (zh) | 基于单变量时序的超短期农业电力负荷预测方法及装置 | |
CN109187898B (zh) | 水产养殖环境中水质氨氮含量的软测量方法及装置 | |
CN115759343A (zh) | 一种基于e-lstm的用户电量预测方法和装置 | |
CN112800813B (zh) | 一种目标识别方法及装置 | |
Zhao et al. | Financial time series data prediction by combination model Adaboost-KNN-LSTM | |
CN113011657A (zh) | 进行台风水位预测的方法、装置、电子设备及存储介质 | |
CN117851953B (zh) | 用水异常检测方法、装置、电子设备及存储介质 | |
CN117990187B (zh) | 基于人工智能的地下水水位动态监测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |