CN111461328A - 一种神经网络的训练方法及电子设备 - Google Patents

一种神经网络的训练方法及电子设备 Download PDF

Info

Publication number
CN111461328A
CN111461328A CN202010259862.1A CN202010259862A CN111461328A CN 111461328 A CN111461328 A CN 111461328A CN 202010259862 A CN202010259862 A CN 202010259862A CN 111461328 A CN111461328 A CN 111461328A
Authority
CN
China
Prior art keywords
prediction result
sample data
prediction
preset
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010259862.1A
Other languages
English (en)
Other versions
CN111461328B (zh
Inventor
陈志熙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Starfire Technology Co ltd
Original Assignee
Nanjing Starfire Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Starfire Technology Co ltd filed Critical Nanjing Starfire Technology Co ltd
Priority to CN202010259862.1A priority Critical patent/CN111461328B/zh
Publication of CN111461328A publication Critical patent/CN111461328A/zh
Application granted granted Critical
Publication of CN111461328B publication Critical patent/CN111461328B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请提供一种神经网络的训练方法,包括:将任务信息输入预设学习模型得到样本数据,其中,任务信息用于指示需要获取的样本的特点;利用预测模型对样本数据进行处理得到预测结果,在预测结果满足预定条件时,确定所述预设学习模型完成训练,利用本申请提供神经网络的训练方法,能够良好的指导神经网络进行自主学习,效率高,训练的精确度好。

Description

一种神经网络的训练方法及电子设备
技术领域
本申请人工智能技术领域,尤其涉及一种神经网络的训练方法及电子设备。
背景技术
人工智能技术领域中,可以利用神经网络实现各种功能,例如,利用神经网络来完成某种信号处理或图像的识别等,在使用神经网络处理用户的目标任务时,一般需要先对神经网络进行训练,以使得该神经网络的处理效果达到用户的需求标准,这种训练过程中往往需要人工大量的筛选样本数据,训练过程的效率低,效果差,影响神经网络的精确度。
发明内容
有鉴于此,本申请解决的技术问题之一在于提供一种神经网络的训练方法及电子设备,能够指导神经网络进行自主学习。
本申请实施例提供一种神经网络的训练方法,包括:将任务信息输入预设学习模型得到样本数据,所述任务信息用于指示需要获取的样本的特点;
预测模型根据所述样本数据进行处理得到预测结果;
在所述预测结果满足预定条件时,确定所述预设学习模型完成训练。
可选的,在本申请的一个实施例中,在所述预测结果满足预定条件时,确定所述预设学习模型完成训练,包括:
在所述预测结果与上一次预测结果的差小于或等于预设差值时,确定所述预设学习模型完成训练。
可选的,在本申请的一个实施例中,所述神经网络的训练方法还包括:
在所述预测结果不满足所述预定条件时,将所述预测结果与上一次预测结果的差与所述任务信息输入所述预设学习模型获取新的所述样本数据;
将新的所述样本数据输入所述预测模型,得到新的预测结果。
可选的,在本申请的一个实施例中,所述预测结果不满足所述预定条件时,将所述预测结果与上一次预测结果的差与所述任务信息输入所述预设学习模型获取新的所述样本数据,将新的所述样本数据输入所述预测模型,得到新的预测结果,还包括:
在所述预测结果与上一次预测结果的差大于预设差值时,确定所述预测结果不满足所述预定条件。
可选的,在本申请的一个实施例中,预测模型根据所述样本数据得到预测结果,包括:
构建所述样本数据的知识图谱;
将所述知识图谱输入所述预测模型得到所述预测结果。
本申请实施例还提供一种神经网络的训练***,包括:学习模块和预测模块,
所述学习模块,用于将任务信息输入预设学习模型得到样本数据;
所述预测模块,用于利用预测模型对所述样本数据得到预测结果,在所述预测结果满足预定条件时,确定所述预设学习模型完成训练;
可选的,在本申请的一个实施例中,所述预测模块,还用于在所述预测结果与上一次预测结果的差小于或等于预设差值时,确定所述预设学习模型完成训练。
可选的,在本申请的一个实施例中,所述预测模块,在所述预测结果不满足所述预定条件时,将所述预测结果与上一次预测结果的差与所述任务信息输入所述预设学习模型获取新的所述样本数据;
将新的所述样本数据输入所述预测模型,得到新的预测结果。
可选的,在本申请的一个实施例中,所述预测模块,还用在所述预测结果与上一次预测结果的差大于预设差值时,确定所述预测结果不满足所述预定条件。
可选的,在本申请的一个实施例中,所述神经网络的训练***还包括知识图谱构建模块,所述知识图谱构建模块用于构建所述样本数据的知识图谱;
所述预测模块,还用于将所述知识图谱输入所述预测模型得到所述预测结果。
本申请实施例提供一种神经网络的训练方法及***,包括:利用预设学习模型获取样本数据,预测模型根据样本数据得到预测结果,在所述预测结果满足预定条件时,确定所述预设学习模型完成训练,利用本申请提供神经网络的训练方法,能够有效的指导神经网络进行自主学习,效率高,精确度好。
附图说明
图1为本申请实施例提供的一种神经网络的训练方法流程图;
图2为本申请实施例提供的一种神经网络的训练方法流程图;
图3为本申请实施例提供的一种电子设备的结构示意图;
图4为本申请实施例提供的一种电子设备的硬件结构图。
具体实施方式
为了使本领域的人员更好地理解本申请实施例中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,所描述的实施例仅是本申请实施例一部分实施例,而不是全部的实施例。基于本申请实施例中的实施例,本领域普通技术人员所获得的所有其他实施例,都应当属于本申请实施例保护的范围。
下面结合本申请施例附图进一步说明本申请实施例具体实现。
实施例一、
如图1所示,图1为本申请实施例提供的一种神经网络训练方法的流程图,包括:
S101、将任务信息输入预设学习模型得到样本数据,其中,任务信息用于指示需要获取的样本的特点;
在本申请实施例中,将任务信息输入预设学习模型得到样本数据,包括:利用预设学习模型,根据训练的目标任务的描述确定需要学习的数据,例如,预设学习模型能够根据任务信息中包含的训练目标任务相关的数据的表头数据,通过互联网/传感器/仿真软件等工具确定该目标任务的详细数据,并将该详细数据确定为该训练目标任务的样本数据,当然,这些样本数据也可以是通过人工筛选的方式确定的样本数据,本实施例此处只是对利用预设学习模型获取样本数的方式进行举例说明,并不代表本申请局限于此;
在本实施例中,该预设学习模型为一种基于深度学习的深度学习模型,该预设学习模型是可以学习目标任务信息相关的各种数据和目标任务内容的映射关系的神经网络,例如,对该预设学习模型输入一个目标任务的表头数据,可以输出一批关于该目标任务的样本数据和样本数据的详细参数,从而有效提高训练的速度,减少学习的数据量。
S102、利用预测模型对所述样本数据进行处理得到预测结果;
在本实施例的一种实现方式中,该预测模型为基于图神经网络(Graph NeuralNetworks,简称GNN)的神经网络模型,图神经网络模型能够较好的进行模式识别和数据挖掘。
可选的,在本实施例的一种实现方式中,样本数据可以是利用预设学习模型直接得到的数据,也可以通过将训练的目标任务的相关信息预设学习模型得到的和样本数据相关的数据信息,再根据该数据信息通过互联网/传感器/仿真软件等工具得到的数据集合,确定为样本数据;
将确定的样本数据输入预测模型得到预测结果。
可选的,在本申请实施例的一种实现方式中,利用预测模型对所述样本数据进行处理得到预测结果,还包括:
构建样本数据的知识图谱;
将知识图谱输入预测模型,得到预测结果。
可选的,构建样本数据的知识图谱,包括:将样本数据中的数据确定成为知识图谱中的节点,根据知识节点构建该样本数据的知识图谱。
其中,知识图谱的边为样本数据中数据之间的关系,知识图谱这种有向属性图,每个节点都包含有若干个属性和属性值,知识图谱采用容易识别的字符串来标识样本数据,能够容易地被计算机识别和处理,从而提高预测模型的预测效率。
S103、在预测结果满足预定条件时,确定预设学习模型完成训练。
可选的,在本申请实施例中,在预测结果满足预定条件时,确定预设学习模型完成训练,包括:在预测结果与上一次预测结果的差小于或等于预设差值时,确定预设学习模型完成训练。
在本实施例的一种实现方式中,预设差值可以是一个数值,预设差值的数值的大小可以是预先设定的,也可以是根据目标任务或者其他方式设定的,当然,本申请实施例此处只是列举一个示例对预设差值进行说明,并不代表本申请局限于此;
在本申请实施例中,预设差值设定的越小越好,设定的越小,预测结果与上一次预测结果的差值越小,说明预设学习模型获取的样本数据密度越大,使得根据样本数据获得的预测结果趋于一致,最终预设学习模型的训练的精准度也就越好。
可选的,在本申请实施例中,该神经网络的训练方法还包括:在预测结果不满足预定条件时,将预测结果与上一次预测结果的差与该次训练的任务信息输入预设学习模型,获取新的样本数据;
将新的所述样本数据输入所述预测模型,得到新的预测结果。
在预测结果不满足预定条件时,说明预设模型获取的样本数据的密度较低,数据分散而不够全面,导致预测模型根据当前的样本数据所得到的预测结果和实际数据之间的误差较大,需要继续利用合适的样本数据提高当前样本数据的数据密度,并利用提高数据密度之后的数据重新作为样本数据,对神经网络继续进行训练,以使得神经网络获得充分的足够全面的样本数据之后的的训练结果具有较好的精准度。
可选的,在本申请实施例的一种实现方式中,利用预设学习模型获取新的样本数据,还包括:
根据上一次预测结果与上一次预测结果对应的样本数据,确定新的样本数据,例如,预设学习模型可以根据上一次的预测结果,确定当前的预设学习模型需要学习的数据,从而将确定的需要学习的数据添加到上一次样本数据中,作为新的样本数据;在本实施例的另一种实现方式中,也可以通过预设学习模型根据当前样本数据的预测结果,使用互联网/传感器/仿真软件等工具对当前的样本数据进行更新,以获取新的样本数据,当然,本实施例此处只是列举两种利用预设学习模型根据上一次预测结果与上一次预测结果对应的样本数据,确定新的样本数据的实现方式,并不代表本申请局限于此,预设学习模型也可以通过其他方式获取的新的样本数据。其中,通过上一次预测结果与上一次预测结果对应的样本数据,确定新的样本数据的实现方式,能够使得预设学习模型更加精准的获取其所需要学习的数据,以减少神经网络在训练过程中需要获取的样本数据的总量,使得神经网络在保证训练精准度的同时,提高神经网络的训练效率。
可选的,在本实施例的一种实现方式中,在预测结果不满足预定条件时,利用预设学习模型获取新的样本数据,将预测结果与新的样本数据输入预测模型得到新的预测结果,包括;
在预测结果与上一次预测结果的差大于预设差值时,利用预设学习模型获取新的样本数据,将预测结果与新的样本数据输入预测模型得到新的预测结果;
在本实施例的实现方式中,利用设定的预设差值来确定预设学习模型获取新的样本数据,从而确定神经网络需要继续进行训练学习,可以简化根据预测结果确定神经网络是否完成训练的确定过程,提高神经网络训练的效率。其中,该预设差值可以是一个数值,该数值可以是人工设置的,也可以是通过其他方式确定的,本申请对此不作限制。
本实施例提供了一种神经网络的训练方法,包括:将任务信息输入预设学习模型得到样本数据,其中,任务信息用于指示需要获取的样本的特点;利用预测模型对样本数据进行处理得到预测结果,在预测结果满足预定条件时,确定所述预设学习模型完成训练,利用本申请提供神经网络的训练方法,能够良好的指导神经网络进行自主学习,效率高,训练的精确度好。
实施例二、
基于实施例一所述的神经网络的训练方法,本实施例列举一个实际的应用场景,如一种预测天线性能的神经网络的训练过程进行说明对实施例一所阐述的神经网络的训练方法进行说明。
在实际生活中,对天线性能进行测量的时候,会涉及到和被测天线的大量的测试点,如果对天线的每一个点都一一进行测试,那么必然会导致测试过程所需要的工作量非常巨大,测试的效率低,成本高,然而通过利用神经网络获取被测天线少数的测试点的测试数据,预测天线的全部性能,可以有效的降低测试的工作量,提高测试效率,减少测试成本。
在本实施例中,如图2所示,图2为本申请实施例提供的一种神经网络的训练方法的流程图,该方法包括以下步骤:
S201、将天线性能的仿真测试数据输入预设学习模型,得到天线性能的样本数据。
可选的,在本实施例关于得到天线性能的样本数据的一种实现方式中,预设学***值E(f,x,y,z),从而根据该频率(f)、位置(x,y,z)和对应的电平值E(f,x,y,z),确定天线性能的样本数据。
利用预测模型对天线性能的样本数据进行处理得到预测结果:
在本实施例的一种实现方式中,利用预测模型对天线性能的样本数据进行处理得到预测结果,还包括:
S202、根据天线性能的样本数据,建立该样本数据的知识图谱。
可选的,在本实施例的一种实现方式中,根据天线性能的样本数数据,建立该样本数据的知识图谱,包括;
利用天线性能的样本数据中的频率(f)、位置(x,y,z)和电平值E(f,x,y,z)作为知识图谱中的节点的属性,即节点V=(E,f,x,y,z),构建样本数据的知识图谱。
在预测结果满足预定条件时,确定该预测天线性能的神经网络完成训练。
S203、利用预测模型,根据当前样本数据的知识图谱,确定天线性能的预测结果。
在本实施例的一种实现方式中,当天线性能的预测结果满足预定条件时,确定预测天线性能的神经网络完成训练,包括:
S204、利用预设学习模型,根据样本数据确定的预测结果,确定一批新的样本数据。
在本实施例的一种实现方式中,确定一批新的样本数据,包括,根据当前天线性能样本数据确定的预测结果,预设学***值E(f,x,y,z),根据这一批新的测试点的频率(f)、位置(x,y,z)和电平值E(f,x,y,z),以及之前的样本数据中频率(f)、位置(x,y,z)和电平值E(f,x,y,z)的数据,作为该天线性能新的样本数据。
S205、构建新样本数据的知识图谱。
S206、利用预测模型,根据新样本数据的知识图谱,得到天线性能的新的预测结果;其中,新的预测结果包含天线其余频率(f)、位置(x,y,z)和对应的电平值E(f,x,y,z)。
S207、比较当前预测结果和前一次预测结果的差异;
S208、确定差异是否满足预定条件。
S209、如果满足预定条件,训练完成;如果不满足预定条件,跳转到S204,直至利用预设学习模型更新后的样本数据确定的预测结果和前一次样本数据的预测结果之间的差异满足预定条件,确定该预测天线性能的神经网络的训练完成为止。
在本实施例的一种实现方式中,当差异满足预定条件时,确定该预测天线性能的神经网络学习的数据已经达到足够的数据密度,训练完成的神经网络预测的精度高,可以结束当前的训练。
在差异不满足预定条件时,说明预设学习模型当前学习的样本数据密度较低,预测的天线性能和实际性能存在较大误差,需要继续更新样本数据,利用预设学习模型和预测模型继续进行训练,已到达精准度高的的训练效果。
其中,可选的,在本实施例的一种实现方式中,该天线预测的预定条件可以设置为一个预设差值,该预设差值可以是一个数字,该数字可以是人工设置的,也可以是通过其他方式确定的,将该预定条件设定为一个数值,能够简化确定新的样本数据的预测结果和前一次样本数据的预测结果两者之间的差异的过程,从而提高神经网络训练的效率。
实施例三、
基于本申请实施例一提供的一种神经网络的训练方法,本申请实施例三提供一种用于神经网络训练的电子设备,如图3所示,图3为本申请实施例提供的一种电子设备的结构示意图,包括:学习模块301和预测模块302,
学习模块301,用于将任务信息输入预设学习模型得到样本数据;
预测模块302,用于利用样本数据得到预测结果,在预测结果满足预定条件时,确定预设学习模型完成训练;
可选的,在本实施例的一种实现方式中,预测模块302还用于在预测结果与上一次预测结果的差小于或等于预设差值时,确定预设学习模型完成训练。
可选的,在本实施例的一种实现方式中,预测模块302,还用于在预测结果不满足所述预定条件时,将预测结果与上一次预测结果的差与任务信息输入所述预设学习模型获取新的样本数据,将新的样本数据输入预测模型,得到新的预测结果。
可选的,在本实施例的一种实现方式中,预测模型302,在预测结果与上一次预测结果的差大于该预设差值时,确定所述预测结果不满足所述预定条件。
可选的,在本申请的一个实施例中,该电子设备还包括知识图谱构建模块303,知识图谱构建模块303用于构建样本数据的知识图谱;
预测模块302,还用于将样本数据的知识图谱输入预测模型,得到样本数据的预测结果。
实施例四、
基于以上实施例的描述,本实施例还提供一种存储介质,如图4所示,图4为本申请实施例提供的一种电子设备的硬件结构图,该电子设备的硬件还包括:
一个或多个处理器401;
存储介质402,该存储介质402配置为存储一个或可读程序412;
当一个或多个程序412被一个或多个处理器401执行,使得一个或多个处理器实现如上述任意一个实施例中的神经网络的训练方法。
该硬件还包括通信接口403和通信总线404;
其中,处理器401、存储介质402和通信接口403通过通信总线404完成相互之间的通信;
其中,处理器401可以具体配置为:利用预设学习模型获取样本数据,预测模型根据样本数据得到预测结果,在预测结果满足预定条件时,确定预设学习模型完成训练。
本申请实施例的神经网络训练的电子设备以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机(例如iPhone)、多媒体手机、功能性手机,以及低端手机等。
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等,例如iPad。
(3)便携式娱乐设备:这类设备可以显示和播放多媒体内容。该类设备包括:音频、视频播放器(例如iPod),掌上游戏机,电子书,以及智能玩具和便携式车载导航设备。
(4)其他具有数据交互功能的电子设备。
至此,已经对本主题的特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作可以按照不同的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序,以实现期望的结果。在某些实施方式中,多任务处理和并行处理可以是有利的。
上述实施例阐明的***、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本申请的实施例可提供为方法、***、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、***或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定事务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行事务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于***实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (10)

1.一种神经网络的训练方法,其特征在于,包括:
将任务信息输入预设学习模型得到样本数据,所述任务信息用于指示需要获取的样本的特点;
利用预测模型对所述样本数据进行处理得到预测结果;
在所述预测结果满足预定条件时,确定所述预设学习模型完成训练。
2.根据权利要求1所述的神经网络的训练方法,其特征在于,所述在所述预测结果满足预定条件时,确定所述预设学习模型完成训练,包括:
在所述预测结果与上一次预测结果的差小于或等于所述预设差值时,确定所述预设学习模型完成训练。
3.根据权利要求1所述的神经网络的训练方法,其特征在于,所述方法还包括:
在所述预测结果不满足所述预定条件时,将所述预测结果与上一次预测结果的差与所述任务信息输入所述预设学习模型获取新的所述样本数据;
将新的所述样本数据输入所述预测模型,得到新的预测结果。
4.根据权利要求4所述的神经网络的训练方法,其特征在于,所述方法还包括:
在所述预测结果与上一次预测结果的差大于所述预设差值时,确定所述预测结果不满足所述预定条件。
5.根据权利要求1所述的神经网络的训练方法,其特征在于,预测模型根据所述样本数据得到预测结果,包括:
构建所述样本数据的知识图谱;
将所述知识图谱输入所述预测模型得到所述预测结果。
6.一种电子设备,其特征在于,包括:学习模块和预测模块,
所述学习模块,用于将任务信息输入预设学习模型得到样本数据;
所述预测模块,用于利用预测模型对所述样本数据进行处理得到预测结果,在所述预测结果满足预定条件时,确定所述预设学习模型完成训练。
7.根据权利要求6所述的电子设备,其特征在于,
所述预测模块,在所述预测结果与上一次预测结果的差小于或等于所述预设差值时,确定所述预设学习模型完成训练。
8.根据权利要求6所述的电子设备,其特征在于,
所述预测模块,还用于在所述预测结果不满足所述预定条件时,将所述预测结果与上一次预测结果的差与所述任务信息输入所述预设学习模型获取新的所述样本数据;
将新的所述样本数据输入所述预测模型,得到新的预测结果。
9.根据权利要求6所述的电子设备,其特征在于,
所述预测模块,还用于在所述预测结果与上一次预测结果的差大于所述预设差值时,确定所述预测结果不满足所述预定条件。
10.根据权利要求6所述的电子设备,其特征在于,
还包括知识图谱构建模块,所述知识图谱构建模块用于构建所述样本数据的知识图谱;
所述预测模块,还用于将所述知识图谱输入所述预测模型得到所述预测结果。
CN202010259862.1A 2020-04-03 2020-04-03 一种神经网络的训练方法 Active CN111461328B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010259862.1A CN111461328B (zh) 2020-04-03 2020-04-03 一种神经网络的训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010259862.1A CN111461328B (zh) 2020-04-03 2020-04-03 一种神经网络的训练方法

Publications (2)

Publication Number Publication Date
CN111461328A true CN111461328A (zh) 2020-07-28
CN111461328B CN111461328B (zh) 2024-04-30

Family

ID=71681642

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010259862.1A Active CN111461328B (zh) 2020-04-03 2020-04-03 一种神经网络的训练方法

Country Status (1)

Country Link
CN (1) CN111461328B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113515896A (zh) * 2021-08-06 2021-10-19 红云红河烟草(集团)有限责任公司 用于卷烟实时数采的数据缺失值填充方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108898218A (zh) * 2018-05-24 2018-11-27 阿里巴巴集团控股有限公司 一种神经网络模型的训练方法、装置、及计算机设备
CN109325508A (zh) * 2017-07-31 2019-02-12 阿里巴巴集团控股有限公司 知识表示、机器学习模型训练、预测方法、装置以及电子设备
CN110163201A (zh) * 2019-03-01 2019-08-23 腾讯科技(深圳)有限公司 图像测试方法和装置、存储介质及电子装置
CN110210654A (zh) * 2019-05-20 2019-09-06 南京星火技术有限公司 产品模型设计***及方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109325508A (zh) * 2017-07-31 2019-02-12 阿里巴巴集团控股有限公司 知识表示、机器学习模型训练、预测方法、装置以及电子设备
CN108898218A (zh) * 2018-05-24 2018-11-27 阿里巴巴集团控股有限公司 一种神经网络模型的训练方法、装置、及计算机设备
CN110163201A (zh) * 2019-03-01 2019-08-23 腾讯科技(深圳)有限公司 图像测试方法和装置、存储介质及电子装置
CN110210654A (zh) * 2019-05-20 2019-09-06 南京星火技术有限公司 产品模型设计***及方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113515896A (zh) * 2021-08-06 2021-10-19 红云红河烟草(集团)有限责任公司 用于卷烟实时数采的数据缺失值填充方法
CN113515896B (zh) * 2021-08-06 2022-08-09 红云红河烟草(集团)有限责任公司 用于卷烟实时数采的数据缺失值填充方法

Also Published As

Publication number Publication date
CN111461328B (zh) 2024-04-30

Similar Documents

Publication Publication Date Title
CN109976998B (zh) 一种软件缺陷预测方法、装置和电子设备
CN105869022B (zh) 一种应用流行度预测方法和装置
CN109376419B (zh) 一种数据模型的生成方法、装置、电子设备及可读介质
CN111611390B (zh) 一种数据处理方法及装置
CN110069997B (zh) 场景分类方法、装置及电子设备
CN107943571B (zh) 后台应用管控方法、装置、存储介质及电子设备
CN114049530A (zh) 混合精度神经网络量化方法、装置及设备
CN116894188A (zh) 业务标签集更新方法、装置、介质及电子设备
CN111461328B (zh) 一种神经网络的训练方法
CN113392018B (zh) 流量分发方法、装置、存储介质及电子设备
CN110020333A (zh) 数据分析方法及装置、电子设备、存储介质
CN116246787B (zh) 一种非复发死亡的风险预测方法和装置
CN111612158B (zh) 模型部署方法、装置、设备和存储介质
CN109977925B (zh) 表情确定方法、装置及电子设备
CN111476291A (zh) 数据处理方法,装置及存储介质
CN108416426B (zh) 数据处理方法、装置及计算机可读存储介质
CN113961765B (zh) 基于神经网络模型的搜索方法、装置、设备和介质
CN109429282B (zh) 一种频点配置方法及装置
CN113282535B (zh) 量化处理方法和装置、量化处理芯片
CN111582456B (zh) 用于生成网络模型信息的方法、装置、设备和介质
CN108229572A (zh) 一种参数寻优方法及计算设备
CN108055638A (zh) 获取目标位置的方法、装置、计算机可读介质及设备
CN113592557A (zh) 广告投放结果的归因方法、装置、存储介质及电子设备
CN112329943A (zh) 组合指标的甄选方法、装置、计算机设备及介质
CN115618962B (zh) 一种模型训练的方法、业务风控的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant