CN112541579A - 模型训练方法、贫困程度信息识别方法、装置和存储介质 - Google Patents

模型训练方法、贫困程度信息识别方法、装置和存储介质 Download PDF

Info

Publication number
CN112541579A
CN112541579A CN202011540120.2A CN202011540120A CN112541579A CN 112541579 A CN112541579 A CN 112541579A CN 202011540120 A CN202011540120 A CN 202011540120A CN 112541579 A CN112541579 A CN 112541579A
Authority
CN
China
Prior art keywords
artificial intelligence
neural network
intelligence model
training
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011540120.2A
Other languages
English (en)
Other versions
CN112541579B (zh
Inventor
奚宇航
蔡庆秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Beiming Digital Technology Co ltd
Original Assignee
Beijing Beiming Digital Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Beiming Digital Technology Co ltd filed Critical Beijing Beiming Digital Technology Co ltd
Priority to CN202011540120.2A priority Critical patent/CN112541579B/zh
Publication of CN112541579A publication Critical patent/CN112541579A/zh
Application granted granted Critical
Publication of CN112541579B publication Critical patent/CN112541579B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Educational Administration (AREA)
  • Strategic Management (AREA)
  • Educational Technology (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Probability & Statistics with Applications (AREA)
  • Development Economics (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种人工智能模型训练方法、贫困程度信息识别方法、计算机装置和存储介质,人工智能模型训练方法包括获取多个神经网络、特征数据和标签值,执行多轮训练测试过程,直至满足终止条件,确定样本权重集合及各神经网络分别相应的权重,以各神经网络按照相应的权重组合成人工智能模型等步骤。本发明具有识别学生数据所属于的贫困程度信息的能力,通过根据前一次序的神经网络的训练结果来调整后一次序的神经网络训练所用的特征数据的权重集合,能够使得在前次序的神经网络的训练结果能够传递到在后次序的神经网络的训练过程中,最终获得的人工智能模型具有强分类性能。本发明广泛应用于计算机技术领域。

Description

模型训练方法、贫困程度信息识别方法、装置和存储介质
技术领域
本发明涉及计算机技术领域,尤其是一种人工智能模型训练方法、贫困程度信息识别方法、计算机装置和存储介质。
背景技术
在社会扶贫和校园扶贫等领域,存在从人群中确定符合贫困标准的人员个体的需求。现有技术中,通过人工调查考察各人员个体的信息,以主观标准确定人员个体是否属于贫困个体,因此现有技术对贫困个体的识别效率低,而且由于主观性强,容易受到作弊因素的干扰,造成对贫困个体的识别结果不准确。
发明内容
针对上述至少一个技术问题,本发明的目的在于提供一种人工智能模型训练方法、贫困程度信息识别方法、计算机装置和存储介质。
一方面,本发明实施例包括一种人工智能模型训练方法,包括:
获取多个神经网络;各所述神经网络之间具有次序关系;
获取多个特征数据以及所述特征数据对应的标签值;所述特征数据提取自学生数据,所述标签值包括用于描述所述学生对应的贫困程度信息;
确定权重集合;所述权重集合的元素为各所述特征数据分别对应的权重;
执行多轮训练测试过程,直至满足终止条件;在一轮所述训练测试过程中,以所述特征数据和所述权重集合作为输入,以所述特征数据对应的标签值作为期望输出,按照次序关系依次训练各所述神经网络,在完成各所述神经网络的训练后测试各所述神经网络,其中,在完成前一次序的所述神经网络的训练后,根据前一次序的所述神经网络的分类不正确情况更新所述权重集合,经过更新的所述权重集合作为后一次序的所述神经网络的输入;
确定各所述神经网络分别相应的权重;
以各所述神经网络按照相应的权重组合成所述人工智能模型。
进一步地,所述以各所述神经网络按照相应的权重组合成所述人工智能模型,包括:
以各所述神经网络的输出作为所述人工智能模型的输入,
以各所述神经网络相应的权重,确定各所述神经网络的输出的加权和;
以所述加权和作为所述人工智能模型的输出。
进一步地,所述执行多轮训练测试过程,直至满足终止条件,包括:
执行一轮所述训练测试过程后,当确定满足所述终止条件,则终止执行所述训练测试过程;当确定不满足所述终止条件,对部分或全部所述神经网络进行参数调整、神经元数量调整和/或隐藏层调整,执行下一轮所述训练测试过程。
进一步地,所述终止条件包括:
人工智能模型的交差验证的测试误差平均值小于或等于期望阈值。
进一步地,所述根据前一次序的所述神经网络的分类不正确情况更新所述权重集合,包括:
当前一次序的所述神经网络对所述特征数据的分类不正确,调增该所述特征数据对应的权重;
当前一次序的所述神经网络对所述特征数据的分类正确,调减该所述特征数据对应的权重。
进一步地,所述人工智能模型训练方法还包括:
对各所述特征数据进行整合、清洗、标准化、词嵌入处理和过采样;
对各所述标签值进行独热编码。
进一步地,所述获取多个神经网络,包括:
建立输入层;
建立多个隐藏层;每个所述隐藏层中,神经元数量为100个,激活函数为ELU函数,每个所述隐藏层后面附加丢弃层,所述丢弃层的丢弃概率初始值为0.01;
建立输出层;每个所述输出层中,神经元数量为样本类别数量,激活函数为Softmax函数;
以所述输入层、隐藏层和输出层组建所述神经网络;
以交叉熵损失函数作为所述神经网络的损失函数,设置权重衰减,权重衰减超参数初始值设为3,使用随机梯度下降更新参数,动量法作为优化,动量超参数初设为0.5,学习率初设为0.002,批处理大小初设为400,处理次数值初设为10次。
另一方面,本发明实施例还包括一种贫困程度信息识别方法,包括:
获取学生数据;
将所述学生数据输入到训练好的人工智能模型;
获取所述人工智能模型的输出结果;
根据所述人工智能模型的输出结果,确定所述学生个体对应的贫困程度信息。
另一方面,本发明实施例还包括一种计算机装置,包括存储器和处理器,所述存储器用于存储至少一个程序,所述处理器用于加载所述至少一个程序以执行实施例所述人工智能模型训练方法和/或贫困程度信息识别方法。
另一方面,本发明实施例还包括一种存储介质,其中存储有处理器可执行的程序,所述处理器可执行的程序在由处理器执行时用于执行实施例所述人工智能模型训练方法和/或贫困程度信息识别方法。
本发明的有益效果是:实施例中的人工智能模型训练方法,通过对各神经网络的训练,使得各神经网络分别具有识别学生个体所属于的贫困程度信息的能力,而在对各神经网络的训练过程中,通过根据前一次序的神经网络的训练结果来调整后一次序的神经网络训练所用的特征数据的权重集合,能够使得在前次序的神经网络的训练结果能够传递到在后次序的神经网络的训练过程中,最终获得的人工智能模型具有强分类性能,即使使用质量较差的特征数据进行训练也能不会导致训练结果按照相同比例下降。
实施例中的贫困程度信息识别方法,通过使用经过本实施例训练方法训练得到的人工智能模型,可以利用人工智能模型的强分类性能识别学生个体对应的贫困程度信息,从而确定学生个体对应的个体的贫困程度等级。在此过程中,由于避免了部分人工参与的过程,因此可以提高识别效率,且降低作弊的可能性,并且人工智能模型的强分类性能能够提供较高的识别准确率。
附图说明
图1为实施例中人工智能模型训练方法的流程图;
图2和图3为实施例中人工智能模型训练方法的原理图;
图4为实施例中贫困程度信息识别方法的流程图。
具体实施方式
本实施例中,使用经过训练测试的人工智能模型来识别贫困程度信息。在使用人工智能模型之前,对人工智能模型之前进行训练。参照图1,对人工智能模型训练主要包括以下步骤:
P1.获取多个神经网络;各神经网络之间具有次序关系;
P2.获取多个特征数据以及特征数据对应的标签值;特征数据提取自学生数据,标签值包括用于描述学生对应的贫困程度信息;
P3.确定权重集合;权重集合的元素为各特征数据分别对应的权重;
P4.执行多轮训练测试过程,直至满足终止条件;在一轮训练测试过程中,以特征数据和权重集合作为输入,以特征数据对应的标签值作为期望输出,按照次序关系依次训练各神经网络,在完成各神经网络的训练后测试各神经网络,其中,在完成前一次序的神经网络的训练后,根据前一次序的神经网络的分类不正确情况更新权重集合,经过更新的权重集合作为后一次序的神经网络的输入;
P5.确定各神经网络分别相应的权重;
P6.以各神经网络按照相应的权重组合成人工智能模型。
本实施例中,所要训练的人工智能模型的结构以及对人工智能模型进行训练的原理如图2所示。人工智能模型包括T个神经网络,这T个神经网络之间具有次序关系,本实施例中,神经网络的次序以其序号表明。这T个神经网络分别以权重1、权重2……权重T组合在一起,即每个神经网络的输出分别以相应的权重调整后所得到的和作为人工智能模型的输出。
步骤P1中,通过以下步骤来获取神经网络:
P101.建立输入层;
P102.建立多个隐藏层;
P103.建立输出层;P104.以输入层、隐藏层和输出层组建神经网络;
P105.以交叉熵损失函数作为神经网络的损失函数,设置权重衰减。
本实施例中,通过执行一次步骤P101-P105,可以获得一个神经网络,当多次执行步骤P101-P105,可以获得多个神经网络。每个神经网络的参数为:每个隐藏层中,神经元数量为100个,激活函数为ELU函数,每个隐藏层后面附加丢弃层,丢弃层的丢弃概率初始值为0.01;每个输出层中,神经元数量为样本类别数量,激活函数为Softmax函数;权重衰减超参数初始值设为3,使用随机梯度下降更新参数,动量法作为优化,动量超参数初设为0.5,学习率初设为0.002,批处理大小初设为400,处理次数值初设为10次。
本实施例中,所获取的学生数据是学生在一段时间内的行为特征。例如,当需要将人工智能模型应用于贫困学生的识别,则所获取的学生数据可以是学生在过去1年内的校园卡消费数据、成绩数据、宿舍门禁数据、图书馆门禁数据、图书借阅数据及其它基本信息。
本实施例中。通过对学生数据进行特征提取,可以提取出以下特征:
(1)针对校园卡消费数据构建特征,包括但不限于:
a.食堂、超市、开水间、用电等12种消费方式的非节假日和节假日的总消费金额、最大消费金额、消费次数。
b.节假日和非节假日的平均早中午餐时间。
(2)针对成绩数据构建特征,包括但不限于:
a.学生成绩排名。
b.学生在各自性别的排名。
(3)针对宿舍门禁数据构建特征,包括但不限于:
a.非节假日和节假日的早中晚进出宿舍的次数。
b.非节假日和节假日的每天最早离开宿舍的平均时间、最晚回到宿舍的平均时间。
c.非节假日和节假日在宿舍的天数和停留时间。
(4)针对图书馆门禁数据构建特征,包括但不限于:
a.非节假日和节假日进出图书馆的次数。
b.非节假日和节假日进出图书馆的天数。
c.非节假日和节假日在图书馆的停留时间。
(5)针对图书借阅数据构建特征,包括但不限于:
a.借阅考研、编程类、托福、数学类等10类书籍的非节假日和节假日的借阅次数和借阅时长。
(6)针对学生基本信息构建特征,包括但不限于:
a.学生性别、籍贯、高考成绩排名、户口类型、兴趣爱好、身高、体重、年龄。
本实施例中,根据对个体的调查,可以确定该个体的真实财务状况,从而确定该个体的标签值,其中标签值包括用于描述学生数据对应的贫困程度信息,例如学生的贫困等级等。
在获得学生数据和标签值后,还可以对学生数据进行整合、清洗、标准化、词嵌入处理和过采样,对标签值进行独热编码,从而实现对学生数据和标签值的预处理。
步骤P3中,参照图2,为即将输入到神经网络1的各特征数据分别设定初始权重X11、X12、X1n
本实施例中,步骤P4的原理如图3所示。步骤P4中,执行k轮训练测试过程。在执行完一轮训练测试过程后,检测是否满足终止条件,如果满足终止条件,则终止执行训练测试过程,如果不满足终止条件,那么对人工智能模型中的对部分或全部神经网络进行参数调整、神经元数量调整和/或隐藏层调整,在调整后再执行下一轮训练测试过程,直到满足终止条件为止。
参照图3,在一轮训练测试过程中,先训练神经网络1,具体地,以特征数据和权重集合作为神经网络1的输入,以特征数据对应的标签值作为神经网络1的期望输出。在训练完神经网络1后,根据神经网络1的分类不正确情况更新权重集合,具体地,如果神经网络1对一个特征数据的分类不正确,那么就调增该特征数据对应的权重,如果神经网络1对一个特征数据的分类正确,那么就调减该特征数据对应的权重,这样可以使得神经网络1分类错的训练样本在后续对神经网络2的训练中获得更大关注,而神经网络1分类对的训练样本在后续对神经网络2的训练中则相应地减小关注以节约计算资源。在完成对神经网络1的训练后,权重集合被更新为X21、X22、X2n。以特征数据与经过更新的权重集合作为神经网络2的输入,以特征数据对应的标签值作为神经网络2的期望输出,以训练神经网络2。在训练完神经网络2后,接着更新权重集合,并训练神经网络3,依照类似步骤最终训练完全部的神经网络。在一轮完成对T个神经网络的训练后,使用所有特征数据中未被用来训练的特征数据来对各神经网络进行测试。
本实施例中,执行完一轮训练测试过程后,计算各神经网络各自的训练误差和测试误差,然后参照图2,将神经网络1的训练误差按照权重1加权、将神经网络2的训练误差按照权重2加权……将神经网络T的训练误差按照权重T加权,确定训练误差平均值;将神经网络1的测试误差按照权重1加权、将神经网络2的测试误差按照权重2加权……将神经网络T的测试误差按照权重T加权,确定测试误差平均值。本实施例中,所计算的测试误差为Macro-F1Score。本实施例中一共完成k轮的训练测试过程。当人工智能模型的交差验证的测试误差平均值小于或等于期望阈值,则不再执行训练测试过程。
本实施例中,各神经网络的输出作为人工智能模型的输入,各神经网络的输出按照相应权重加权后的和作为人工智能模型的输出,各神经网络所形成的整体成为人工智能模型。
本实施例中,通过对各神经网络的训练,使得各神经网络分别具有识别学生数据所属于的个体的贫困程度信息的能力,而在对各神经网络的训练过程中,通过根据前一次序的神经网络的训练结果来调整后一次序的神经网络训练所用的特征数据的权重集合,能够使得在前次序的神经网络的训练结果能够传递到在后次序的神经网络的训练过程中,最终获得的人工智能模型具有强分类性能,即使使用质量较差的特征数据进行训练也能不会导致训练结果按照相同比例下降。具体对每个神经网络的结构和参数设置,例如设置丢弃层和权重衰减等手段能够有效应对过拟合问题。
本实施例中,在完成对人工智能模型的训练过程后,可以使用人工智能模型来执行贫困程度信息识别方法。参照图4,贫困程度信息识别方法包括以下步骤:
S1.获取学生数据;
S2.将学生数据输入到人工智能模型;
S3.获取人工智能模型的输出结果;
S4.根据人工智能模型的输出结果,确定学生个体对应的贫困程度信息。
本实施例中,所述S1的学生数据是与所述P2的学生数据同一类型或结构的数据,例如本实施例中的所述P2的学生数据是学生在过去1年内的校园卡消费数据、成绩数据、宿舍门禁数据、图书馆门禁数据、图书借阅数据及其它基本信息,那么所述S1的学生数据也可以是具有相同结构但是不同数值的数据。
通过使用经过本实施例训练方法训练得到的人工智能模型,可以利用人工智能模型的强分类性能识别学生数据对应的贫困程度信息,从而确定学生数据对应的个体的贫困程度等级。在此过程中,由于避免了部分人工参与的过程,因此可以提高识别效率,且降低作弊的可能性,并且人工智能模型的强分类性能能够提供较高的识别准确率。
本实施例中,一种计算机装置,包括存储器和处理器,所述存储器用于存储至少一个程序,所述处理器用于加载所述至少一个程序以执行实施例中的人工智能模型训练方法,实现与实施例所述的相同的技术效果。
本实施例中,一种存储介质,其中存储有处理器可执行的程序,所述处理器可执行的程序在由处理器执行时用于执行实施例中的人工智能模型训练方法,实现与实施例所述的相同的技术效果。
需要说明的是,如无特殊说明,当某一特征被称为“固定”、“连接”在另一个特征,它可以直接固定、连接在另一个特征上,也可以间接地固定、连接在另一个特征上。此外,本公开中所使用的上、下、左、右等描述仅仅是相对于附图中本公开各组成部分的相互位置关系来说的。在本公开中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。此外,除非另有定义,本实施例所使用的所有的技术和科学术语与本技术领域的技术人员通常理解的含义相同。本实施例说明书中所使用的术语只是为了描述具体的实施例,而不是为了限制本发明。本实施例所使用的术语“和/或”包括一个或多个相关的所列项目的任意的组合。
应当理解,尽管在本公开可能采用术语第一、第二、第三等来描述各种元件,但这些元件不应限于这些术语。这些术语仅用来将同一类型的元件彼此区分开。例如,在不脱离本公开范围的情况下,第一元件也可以被称为第二元件,类似地,第二元件也可以被称为第一元件。本实施例所提供的任何以及所有实例或示例性语言(“例如”、“如”等)的使用仅意图更好地说明本发明的实施例,并且除非另外要求,否则不会对本发明的范围施加限制。
应当认识到,本发明的实施例可以由计算机硬件、硬件和软件的组合、或者通过存储在非暂时性计算机可读存储器中的计算机指令来实现或实施。所述方法可以使用标准编程技术-包括配置有计算机程序的非暂时性计算机可读存储介质在计算机程序中实现,其中如此配置的存储介质使得计算机以特定和预定义的方式操作——根据在具体实施例中描述的方法和附图。每个程序可以以高级过程或面向对象的编程语言来实现以与计算机***通信。然而,若需要,该程序可以以汇编或机器语言实现。在任何情况下,该语言可以是编译或解释的语言。此外,为此目的该程序能够在编程的专用集成电路上运行。
此外,可按任何合适的顺序来执行本实施例描述的过程的操作,除非本实施例另外指示或以其他方式明显地与上下文矛盾。本实施例描述的过程(或变型和/或其组合)可在配置有可执行指令的一个或多个计算机***的控制下执行,并且可作为共同地在一个或多个处理器上执行的代码(例如,可执行指令、一个或多个计算机程序或一个或多个应用)、由硬件或其组合来实现。所述计算机程序包括可由一个或多个处理器执行的多个指令。
进一步,所述方法可以在可操作地连接至合适的任何类型的计算平台中实现,包括但不限于个人电脑、迷你计算机、主框架、工作站、网络或分布式计算环境、单独的或集成的计算机平台、或者与带电粒子工具或其它成像装置通信等等。本发明的各方面可以以存储在非暂时性存储介质或设备上的机器可读代码来实现,无论是可移动的还是集成至计算平台,如硬盘、光学读取和/或写入存储介质、RAM、ROM等,使得其可由可编程计算机读取,当存储介质或设备由计算机读取时可用于配置和操作计算机以执行在此所描述的过程。此外,机器可读代码,或其部分可以通过有线或无线网络传输。当此类媒体包括结合微处理器或其他数据处理器实现上文所述步骤的指令或程序时,本实施例所述的发明包括这些和其他不同类型的非暂时性计算机可读存储介质。当根据本发明所述的方法和技术编程时,本发明还包括计算机本身。
计算机程序能够应用于输入数据以执行本实施例所述的功能,从而转换输入数据以生成存储至非易失性存储器的输出数据。输出信息还可以应用于一个或多个输出设备如显示器。在本发明优选的实施例中,转换的数据表示物理和有形的对象,包括显示器上产生的物理和有形对象的特定视觉描绘。
以上所述,只是本发明的较佳实施例而已,本发明并不局限于上述实施方式,只要其以相同的手段达到本发明的技术效果,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。在本发明的保护范围内其技术方案和/或实施方式可以有各种不同的修改和变化。

Claims (10)

1.一种人工智能模型训练方法,其特征在于,包括:
获取多个神经网络;各所述神经网络之间具有次序关系;
获取多个特征数据以及所述特征数据对应的标签值;所述特征数据提取自学生数据,所述标签值包括用于描述所述学生数据对应的贫困程度信息;
确定权重集合;所述权重集合的元素为各所述特征数据分别对应的权重;
执行多轮训练测试过程,直至满足终止条件;在一轮所述训练测试过程中,以所述特征数据和所述权重集合作为输入,以所述特征数据对应的标签值作为期望输出,按照次序关系依次训练各所述神经网络,在完成各所述神经网络的训练后测试各所述神经网络,其中,在完成前一次序的所述神经网络的训练后,根据前一次序的所述神经网络的分类不正确情况更新所述权重集合,经过更新的所述权重集合作为后一次序的所述神经网络的输入;
确定各所述神经网络分别相应的权重;
以各所述神经网络按照相应的权重组合成所述人工智能模型。
2.根据权利要求1所述的人工智能模型训练方法,其特征在于,所述以各所述神经网络按照相应的权重组合成所述人工智能模型,包括:
以各所述神经网络的输出作为所述人工智能模型的输入,
以各所述神经网络相应的权重,确定各所述神经网络的输出的加权和;
以所述加权和作为所述人工智能模型的输出。
3.根据权利要求1所述的人工智能模型训练方法,其特征在于,所述执行多轮训练测试过程,直至满足终止条件,包括:
执行一轮所述训练测试过程后,当确定满足所述终止条件,则终止执行所述训练测试过程;当确定不满足所述终止条件,对部分或全部所述神经网络进行参数调整、神经元数量调整和/或隐藏层调整,执行下一轮所述训练测试过程。
4.根据权利要求1-3任一项所述的人工智能模型训练方法,其特征在于,所述终止条件包括:
人工智能模型的交差验证的测试误差平均值小于或等于期望阈值。
5.根据权利要求1所述的人工智能模型训练方法,其特征在于,所述根据前一次序的所述神经网络的分类不正确情况更新所述权重集合,包括:
当前一次序的所述神经网络对所述特征数据的分类不正确,调增该所述特征数据对应的权重;
当前一次序的所述神经网络对所述特征数据的分类正确,调减该所述特征数据对应的权重。
6.根据权利要求1所述的人工智能模型训练方法,其特征在于,所述人工智能模型训练方法还包括:
对各所述特征数据进行整合、清洗、标准化、词嵌入处理和过采样;
对各所述标签值进行独热编码。
7.根据权利要求1所述的人工智能模型训练方法,其特征在于,所述获取多个神经网络,包括:
建立输入层;
建立多个隐藏层;每个所述隐藏层中,神经元数量为100个,激活函数为ELU函数,每个所述隐藏层后面附加丢弃层,所述丢弃层的丢弃概率初始值为0.01;
建立输出层;每个所述输出层中,神经元数量为样本类别数量,激活函数为Softmax函数;
以所述输入层、隐藏层和输出层组建所述神经网络;
以交叉熵损失函数作为所述神经网络的损失函数,设置权重衰减,权重衰减超参数初始值设为3,使用随机梯度下降更新参数,动量法作为优化,动量超参数初设为0.5,学习率初设为0.002,批处理大小初设为400,处理次数值初设为10次。
8.一种贫困程度信息识别方法,其特征在于,包括:
获取学生数据;
将所述学生数据输入到人工智能模型;所述人工智能模型由权利要求1-7各项产生;
获取所述人工智能模型的输出结果;
根据所述人工智能模型的输出结果,确定所述学生个体对应的贫困程度信息。
9.一种计算机装置,其特征在于,包括存储器和处理器,所述存储器用于存储至少一个程序,所述处理器用于加载所述至少一个程序以执行权利要求1-7任一项所述的人工智能模型训练方法和/或权利要求8所述的贫困程度信息识别方法。
10.一种存储介质,其中存储有处理器可执行的程序,其特征在于,所述处理器可执行的程序在由处理器执行时用于执行权利要求1-7任一项所述的人工智能模型训练方法和/或权利要求8所述的贫困程度信息识别方法。
CN202011540120.2A 2020-12-23 2020-12-23 模型训练方法、贫困程度信息识别方法、装置和存储介质 Active CN112541579B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011540120.2A CN112541579B (zh) 2020-12-23 2020-12-23 模型训练方法、贫困程度信息识别方法、装置和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011540120.2A CN112541579B (zh) 2020-12-23 2020-12-23 模型训练方法、贫困程度信息识别方法、装置和存储介质

Publications (2)

Publication Number Publication Date
CN112541579A true CN112541579A (zh) 2021-03-23
CN112541579B CN112541579B (zh) 2023-08-08

Family

ID=75017740

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011540120.2A Active CN112541579B (zh) 2020-12-23 2020-12-23 模型训练方法、贫困程度信息识别方法、装置和存储介质

Country Status (1)

Country Link
CN (1) CN112541579B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7035287B1 (ja) * 2021-06-23 2022-03-15 中国科学院西北生態環境資源研究院 マルチソースデータに基づく貧困地域の貧困原因の分析方法
WO2022259089A1 (en) * 2021-06-07 2022-12-15 International Business Machines Corporation Bias reduction during artifical intelligence module training

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106951568A (zh) * 2017-04-07 2017-07-14 中南大学 基于数据挖掘的学生贫困状态预测方法
CN107480774A (zh) * 2017-08-11 2017-12-15 山东师范大学 基于集成学习的动态神经网络模型训练方法和装置
CN108960273A (zh) * 2018-05-03 2018-12-07 淮阴工学院 一种基于深度学习的贫困生认定方法
CN109472345A (zh) * 2018-09-28 2019-03-15 深圳百诺名医汇网络技术有限公司 一种权重更新方法、装置、计算机设备和存储介质
CN110097142A (zh) * 2019-05-15 2019-08-06 杭州华网信息技术有限公司 针对学生序列化行为的贫困生预测方法
CN110516861A (zh) * 2019-08-19 2019-11-29 北京桃花岛信息技术有限公司 一种基于拓扑扩张网络模型的学生贫困程度预测方法
CN111415099A (zh) * 2020-03-30 2020-07-14 西北大学 一种基于多分类BP-Adaboost的贫困生认定方法
CN111598182A (zh) * 2020-05-22 2020-08-28 北京市商汤科技开发有限公司 训练神经网络及图像识别的方法、装置、设备及介质
US20200387789A1 (en) * 2019-06-06 2020-12-10 Riskfuel Analytics Inc. Neural network training
CN112102135A (zh) * 2020-09-10 2020-12-18 重庆商务职业学院 基于lstm神经网络的高校贫困生精准资助模型

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106951568A (zh) * 2017-04-07 2017-07-14 中南大学 基于数据挖掘的学生贫困状态预测方法
CN107480774A (zh) * 2017-08-11 2017-12-15 山东师范大学 基于集成学习的动态神经网络模型训练方法和装置
CN108960273A (zh) * 2018-05-03 2018-12-07 淮阴工学院 一种基于深度学习的贫困生认定方法
CN109472345A (zh) * 2018-09-28 2019-03-15 深圳百诺名医汇网络技术有限公司 一种权重更新方法、装置、计算机设备和存储介质
CN110097142A (zh) * 2019-05-15 2019-08-06 杭州华网信息技术有限公司 针对学生序列化行为的贫困生预测方法
US20200387789A1 (en) * 2019-06-06 2020-12-10 Riskfuel Analytics Inc. Neural network training
CN110516861A (zh) * 2019-08-19 2019-11-29 北京桃花岛信息技术有限公司 一种基于拓扑扩张网络模型的学生贫困程度预测方法
CN111415099A (zh) * 2020-03-30 2020-07-14 西北大学 一种基于多分类BP-Adaboost的贫困生认定方法
CN111598182A (zh) * 2020-05-22 2020-08-28 北京市商汤科技开发有限公司 训练神经网络及图像识别的方法、装置、设备及介质
CN112102135A (zh) * 2020-09-10 2020-12-18 重庆商务职业学院 基于lstm神经网络的高校贫困生精准资助模型

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
沈掌泉,孔繁胜: "基于个体选择的动态权重神经网络集成方法研究", 计算机工程与应用 *
陈文宇;刘井波;孙世新;: "层次分析的神经网络集成方法", 电子科技大学学报 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022259089A1 (en) * 2021-06-07 2022-12-15 International Business Machines Corporation Bias reduction during artifical intelligence module training
JP7035287B1 (ja) * 2021-06-23 2022-03-15 中国科学院西北生態環境資源研究院 マルチソースデータに基づく貧困地域の貧困原因の分析方法

Also Published As

Publication number Publication date
CN112541579B (zh) 2023-08-08

Similar Documents

Publication Publication Date Title
CN111444952B (zh) 样本识别模型的生成方法、装置、计算机设备和存储介质
CN108985929B (zh) 训练方法、业务数据分类处理方法及装置、电子设备
CN111401433A (zh) 用户信息获取方法、装置、电子设备及存储介质
CN112541458B (zh) 基于元学习的域自适应的人脸识别方法、***、装置
CN111444951B (zh) 样本识别模型的生成方法、装置、计算机设备和存储介质
CN110826453A (zh) 一种通过提取人体关节点坐标的行为识别方法
KR102285665B1 (ko) 학습 커리큘럼 제공 방법, 시스템 및 장치
CN112541579A (zh) 模型训练方法、贫困程度信息识别方法、装置和存储介质
Domashova et al. Selecting an optimal architecture of neural network using genetic algorithm
CN113761259A (zh) 一种图像处理方法、装置以及计算机设备
CN112560948B (zh) 数据偏差下的眼底图分类方法及成像方法
CN112801805A (zh) 基于深度自监督神经网络的医保小卡欺诈检测方法及***
CN111709790B (zh) 一种日前市场异常电价辨识方法、装置、设备和存储介质
CN111881822A (zh) 基于人脸识别的门禁方法、装置、设备及存储介质
CN113343106A (zh) 学生智能推荐方法及***
CN116340793A (zh) 一种数据处理方法、装置、设备以及可读存储介质
CN113704637A (zh) 基于人工智能的对象推荐方法、装置、存储介质
CN113935413A (zh) 一种基于卷积神经网的配网录波文件波形识别方法
Ekong et al. A Machine Learning Approach for Prediction of Students’ Admissibility for Post-Secondary Education using Artificial Neural Network
CN115760127A (zh) 一种基于规则注意力机制的交易欺诈检测方法及***
Jeny et al. Passnet-Country Identification by Classifying Passport Cover Using Deep Convolutional Neural Networks
Minowa et al. Convolutional neural network applied to tree species identification based on leaf images
CN112685654B (zh) 学生识别方法及装置、计算设备及可读计算机存储介质
CN114358186A (zh) 一种数据处理方法、装置及计算机可读存储介质
CN113781056A (zh) 预测用户欺诈行为的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant