CN110889489A - 神经网络的训练方法、图像识别方法及其装置 - Google Patents

神经网络的训练方法、图像识别方法及其装置 Download PDF

Info

Publication number
CN110889489A
CN110889489A CN201911088011.9A CN201911088011A CN110889489A CN 110889489 A CN110889489 A CN 110889489A CN 201911088011 A CN201911088011 A CN 201911088011A CN 110889489 A CN110889489 A CN 110889489A
Authority
CN
China
Prior art keywords
training
network
neural network
classification
standard
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911088011.9A
Other languages
English (en)
Inventor
过群
鲁骁
孟二利
王斌
纪鸿旭
史亮
齐保元
陈宇鹏
王铄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Mobile Software Co Ltd
Original Assignee
Beijing Xiaomi Mobile Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Mobile Software Co Ltd filed Critical Beijing Xiaomi Mobile Software Co Ltd
Priority to CN201911088011.9A priority Critical patent/CN110889489A/zh
Publication of CN110889489A publication Critical patent/CN110889489A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本公开是关于一种神经网络的训练方法、图像识别方法及其装置。其中神经网络的训练方法,神经网络包括特征提取网络和分类网络,方法包括:超参数确定步骤及网络训练步骤;其中,超参数确定步骤包括:设置分类网络的超参数;基于训练样本集训练分类网络,其中训练样本集包括多个样本和样本对应的标准分类;及,判断分类网络是否达到第一训练标准,若达到第一训练标准,保存分类网络并执行网络训练步骤;若未达到第一训练标准,则返回重新设置分类网络的超参数;网络训练步骤包括:基于训练样本集训练神经网络。通过少量样本确定神经网络的超参数,再训练,在保证神经网络准确率基础上,降低训练样本标注数据量的需求,提升调优速度。

Description

神经网络的训练方法、图像识别方法及其装置
技术领域
本公开涉及智能识别领域,尤其涉及神经网络的训练方法、图像识别方法及其装置。
背景技术
随着人工智能技术的发展,诸多领域中都通过人工智能进行目标的检测和识别,实现了自动监控、检测,尤其需要长期监控的场景中,降低了人工成本,提高了效率和准确率。
智能识别主要是通过神经网络来进行识别,而神经网络的训练目前以深度学习为主。一般使用大规模的带有标注的训练样本作为训练集,应用合适的神经网络来训练分类器,具有较好的准确度与泛化能力。但是在没有符合业务的大规模公开标注数据集的情况下,获取训练样本以及标注的成本高,训练速度慢,寻找合适网络超参数的开发周期长,且需要在模型复杂度与准确度之间作出权衡。
发明内容
为克服相关技术中存在的问题,本公开的第一方面,提供一种神经网络的训练方法,神经网络包括特征提取网络和分类网络,方法包括:超参数确定步骤及网络训练步骤;其中,超参数确定步骤包括:设置分类网络的超参数;基于训练样本集训练分类网络,其中训练样本集包括多个样本和样本对应的标准分类;及,判断分类网络是否达到第一训练标准,若达到第一训练标准,保存分类网络并执行网络训练步骤;若未达到第一训练标准,则返回重新设置分类网络的超参数;网络训练步骤包括:基于训练样本集训练神经网络。
在一实施例中,网络训练步骤还包括:判断神经网络是否达到第二训练标准,若达到第二训练标准,保存神经网络;若未达到第二训练标准,则返回超参数确定步骤。
在一实施例中,基于训练样本集训练分类网络,包括:通过特征提取网络对多个样本进行特征提取,得到多个第一样本特征;通过分类网络对第一样本特征进行分类得到第一分类结果,将第一分类结果与标准分类计算损失得到第一损失,基于第一损失调整分类网络的第一内参数。
在一实施例中,基于第一损失调整分类网络的第一内参数,还包括:设置第一学习率,用于确定调整第一内参数的幅度。
在一实施例中,基于训练样本集训练神经网络,包括:通过特征提取网络对多个样本进行特征提取,得到多个第二样本特征;通过分类网络对第二样本特征进行分类得到第二分类结果,将第二分类结果与标准分类计算损失得到第二损失,基于第二损失调整第一内参数及特征提取网络的第二内参数。
在一实施例中,基于第二损失调整第一内参数及特征提取网络的第二内参数,还包括:设置第二学习率,用于确定调整第一内参数及第二内参数的幅度。
在一实施例中,第二学习率小于第一学习率。
在一实施例中,特征提取网络为已经过预训练的网络。
在一实施例中,基于训练样本集训练神经网络,包括:对样本进行数据增强,得到噪音样本,基于噪音样本和标准分类,训练神经网络。
根据本公开实施例的第二方面,提供一种图像识别方法,方法包括:获取图像;通过神经网络,对图像进行识别,其中神经网络通过第一方面的神经网络的训练方法训练得到;输出识别结果。
根据本公开实施例的第三方面,提供一种神经网络的训练装置,神经网络包括特征提取网络和分类网络,装置包括:超参数确定模块及网络训练模块;其中,超参数确定模块包括:超参数设置单元,用于设置分类网络的超参数;初训练单元,用于基于训练样本集训练分类网络,其中训练样本集包括多个样本和样本对应的标准分类;及,第一判断单元,用于判断分类网络是否达到第一训练标准,若达到第一训练标准,保存分类网络并网络训练模块执行训练;若未达到第一训练标准,则返回超参数设置单元重新设置分类网络的超参数;网络训练模块包括:训练单元,用于基于训练样本集训练神经网络。
在一实施例中,网络训练模块还包括:第二判断单元,用于判断神经网络是否达到第二训练标准,若达到第二训练标准,保存神经网络;若未达到第二训练标准,则返回超参数确定模块的超参数设置单元重新设置分类网络的超参数。
在一实施例中,初训练单元还用于:通过特征提取网络对多个样本进行特征提取,得到多个第一样本特征;通过分类网络对第一样本特征进行分类得到第一分类结果,将第一分类结果与标准分类计算损失得到第一损失,基于第一损失调整分类网络的第一内参数。
在一实施例中,初训练单元还用于:设置第一学习率,用于确定调整第一内参数的幅度。
在一实施例中,训练单元还用于:通过特征提取网络对多个样本进行特征提取,得到多个第二样本特征;通过分类网络对第二样本特征进行分类得到第二分类结果,将第二分类结果与标准分类计算损失得到第二损失,基于第二损失调整第一内参数及特征提取网络的第二内参数。
在一实施例中,训练单元还用于:设置第二学习率,用于确定调整第一内参数及第二内参数的幅度。
在一实施例中,第二学习率小于第一学习率。
在一实施例中,特征提取网络为已经过预训练的网络。
在一实施例中,训练单元还用于:对样本进行数据增强,得到噪音样本,基于噪音样本和标准分类,训练神经网络。
根据本公开实施例的第四方面,提供一种图像识别装置,包括:接收单元,用于获取图像;识别单元,用于通过神经网络,对图像进行识别,其中神经网络通过第一方面的神经网络的训练方法训练得到;输出单元,用于输出识别结果。
根据本公开实施例的第五方面,提供一种电子设备,包括:存储器,用于存储指令;以及处理器,用于调用存储器存储的指令执行第一方面的神经网络的训练或第二方面的图像识别方法。
根据本公开实施例的第六方面,提供一种计算机可读存储介质,存储有指令,指令被处理器执行时,执行第一方面的神经网络的训练或第二方面的图像识别方法。
本公开的实施例提供的技术方案可以包括以下有益效果:通过少量样本先确定神经网络的超参数,然后再对神经网络进行训练,能够在保证神经网络准确率基础上,大幅降低对特定目标训练样本标注数据量的需求,从而降低数据成本,提升模型调优速度,减少所需的时间与计算资源。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是根据一示例性实施例示出的一种神经网络的训练方法的流程示意图。
图2是根据一示例性实施例示出的一种分类网络结构示意图。
图3是根据一示例性实施例示出的另一种神经网络的训练方法的流程示意图。
图4是根据一示例性实施例示出的一种图像识别方法的流程示意图。
图5是根据一示例性实施例示出的一种神经网络的训练装置的示意框图。
图6是根据一示例性实施例示出的另一种神经网络的训练装置的示意框图。
图7是根据一示例性实施例示出的一种图像识别装置的示意框图。
图8是根据一示例性实施例示出的一种装置的示意框图。
图9是根据一示例性实施例示出的一种电子装置的示意框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
为了能够在训练样本数少的情况下保证训练效果,本公开实施例提供了一种神经网络的训练方法10,其中神经网络包括特征提取网络和分类网络,其中特征提取网络可以采用通过预训练的深度可分离卷积神经网络Xception,参见图1,一种神经网络的训练方法10,包括超参数确定步骤S11及网络训练步骤S12,以下对各个步骤进行详细说明:
超参数确定步骤S11用于通过少量的训练样本输入,测试设置的超参数是否合适,再根据结果,调整超参数直至合适。其中包括步骤S111-S113:
S111,设置分类网络的超参数。
其中超参数为神经网络在训练前设置的参数,决定了网络的结构、层数等,超参数可以包括网络深度、内参数数量、学习率、层数等。
图2示出了一种分类网络的结构模型示意图,参见图2,在一实施例中,分类网络可以通过超参数设置其层数,以及具体层的结构等,图2中,分类网络为三层的全连接神经网络,其中前两个隐层的神经元数量分别为256,128,激活函数为Relu,最后一个输出层的激活函数为Softmax,训练时在每个全连接层之前使用dropout或者批量归一化方法,以防止过拟合。
S112,基于训练样本集训练分类网络,其中训练样本集包括多个样本和样本对应的标准分类。
其中,训练样本集是可以是事先获取的,并且由于本公开的方式能够降低样本所需数量,该训练样本集可以是以往训练样本数量的1/20。根据具体需要,训练样本可以是图片、音频、视频等形式,训练用的训练样本需要经过标识,具有标准分类,用于与神经网络的输出进行比对,可以是通过人工标识也可以通过其他模型进行识别后再通过人工校对。
在一实施例中,S112可以包括:通过特征提取网络对多个样本进行特征提取,得到多个第一样本特征;通过分类网络对第一样本特征进行分类得到第一分类结果,将第一分类结果与标准分类计算损失得到第一损失,基于第一损失调整分类网络的第一内参数。其中,获取的样本可以预处理再输入特征提取网络,如经过归一化处理,将图片统一为299*299*3的jpeg格式,进一步可以通过图像预处理工具keras.preprocessing.image.ImageDataGenerator类,将图片数据转化为形为[229,229,3]的numpy数组,并使用numpy自带的save方法保存为npy格式,便于输入网络。再通过神经网络汇总的特征提取网络进行特征提取,得到样本特征,可以是一特征向量。其中损失可以通过损失函数计算,如在二元分类中,可以采用铰链损失函数(hinge loss function)、交叉熵损失函数(cross-entropy lossfunction)、指数损失函数(exponential loss function)等。
在一例中,基于第一损失调整分类网络的第一内参数,还包括:设置第一学习率,用于确定调整第一内参数的幅度。其中,学习率(learning rate)通过控制调整的服务,控制网络模型的学习进度,学习率大,则学习速度快,但容易出现振荡,适合在学习训练的初期。同时,在一具体实施例中,可以使用的Adam优化器,并且在超参数确定步骤S11中,第一学习率可以设置高一些,如0.01,用于快速的学习训练,从而高效的调整超参数。
S113,判断分类网络是否达到第一训练标准,若达到第一训练标准,保存分类网络并执行网络训练步骤;若未达到第一训练标准,则返回重新设置分类网络的超参数。
对分类网络输出的结果进行判断,如果训练效果达到预期,则代表选择的超参数符合标准,保存该超参数的且训练完的分类网络,用以后续对神经网络整体的训练。如果训练未达到预期,则说明超参数选择不当,可以根据实际结果,重新选择超参数,并重新训练。其中,第一训练标准可以是通过分类模型对测试集中的样本进行识别并输出结果,根据测试集的结果进行判断是否符合第一训练标准。例如,获取训练样本前,将获取的原始样本随机按照8:1:1的比例划分为训练集、验证集与测试集,其中训练样本属于训练集,用于对分类网络进行训练;验证集用于判断是否完成训练,在每一次迭代(epoch)结束时使用验证集进行评估,如果在连续3次迭代中,训练集上的分类网络预测准确率均高于验证集,则此次训练停止,否则在模型收敛后停止;最后通过测试集的样本对分类网络进行测试,判断测试结果是否达到预期。样本也可以按照其他比例划分为训练集、验证集与测试集,如7:2:1等,原则上保证训练集的数量最大,以保证训练的效果。
通过超参数确定步骤S11能够通过少量的样本,以及相对少量的计算成本,即可确定合适的分类网络的超参数。
网络训练步骤S12用于对神经网络进行训练,将调试好超参数的分类网络与特征提取网络拼接,如将特征提取网络Xception与分类网络拼接形成完整的神经网络,Xception-L网络,通过输入训练样本,进行训练,调整神经网络中的参数,达到识别的要求。其中,网络训练步骤S12包括:
S121,基于训练样本集训练神经网络。
通过输入训练样本,先经过特征提取网络进行特征提取,将得到的特征输入已经确定超参数的分类网络,再通过分类网络输出特征,与标准分类进行比对,根据结果对神经网络的参数进行调整,及包括特征提取网络的参数以及分类网络的参数。
在一实施例中,如图3所示,网络训练步骤S12还可以包括:S122,判断神经网络是否达到第二训练标准,若达到第二训练标准,保存神经网络;若未达到第二训练标准,则返回超参数确定步骤。对神经网络输出的结果进行判断,如果训练效果达到预期,则说明神经网络完成训练,可以用于实际分类,保存该神经网络。如果训练结果未达到预期,则说明超参数选择仍然不合适,可以根据实际结果,重新选择超参数,并重新训练。与训练分类网络原理相同的,其中,第二训练标准可以是通过神经网络对测试集中的样本进行识别并输出结果,根据测试集的结果进行判断是否符合第二训练标准。例如,获取训练样本前,将获取的原始样本随机按照8:1:1的比例划分为训练集、验证集与测试集,其中训练样本属于训练集,用于对神经网络进行训练;验证集用于判断是否完成训练,在每一次迭代(epoch)结束时使用验证集进行评估,如果在连续5次迭代中,训练集上的神经网络预测准确率均高于验证集,则此次训练停止,否则在神经网络收敛后停止;最后通过测试集的样本对神经网络进行测试,判断测试结果是否达到预期。
在一例中,S121可以包括:通过特征提取网络对多个样本进行特征提取,得到多个第二样本特征;通过分类网络对第二样本特征进行分类得到第二分类结果,将第二分类结果与标准分类计算损失得到第二损失,基于第二损失调整第一内参数及特征提取网络的第二内参数。基于与训练分类网络同样的原理,其中损失可以通过损失函数计算,如在二元分类中,可以采用铰链损失函数(hinge loss function)、交叉熵损失函数(cross-entropyloss function)、指数损失函数(exponential loss function)等。
在一例中,基于第二损失调整神经网络的第二内参数,还包括:设置第二学习率,用于确定调整第二内参数的幅度。通过设置第二学习率来确定神经网络的学习进度和精度。
在一例中,第二学习率小于第一学习率。由于需要保证神经网络的训练质量,保证完成训练后的神经网络对分类识别的准确性,因此第二学习率可以选择更小的范围,在一具体实施例中,可以使用的SGD优化器,学习率采用0.005,降低训练速度但保证了精度。
在一例中,S121还包括:对样本进行数据增强,得到噪音样本,基于噪音样本和标准分类,训练神经网络。为了进一步提高训练效果,增强神经网络的鲁棒性,对样本进行数据增强,增加噪音。如,对图片样本进行翻转、旋转、剪裁、拉伸、添加高斯噪音等。使得训练完成的神经网络能够对抗实际检测目标的噪音,提高准确率。
通过上述任一实施例的神经网络训练方法,能在训练样本较少的情况下,保证神经网络的训练质量,并且通过先确定超参数的方式,能够提高训练的效率。
基于同一个发明构思,本公开还提供一种图像识别方法20,参见图4,图像识别方法20包括:S21获取图像;S22通过神经网络,对图像进行识别,其中神经网络通过前述任一项实施例的神经网络的训练方法10训练得到;S23输出识别结果。
基于同一个发明构思,图5示出了一种神经网络的训练装置100,如图5所示,神经网络包括特征提取网络和分类网络,神经网络的训练装置100包括:超参数确定模块110及网络训练模块120;其中,超参数确定模块110包括:超参数设置单元111,用于设置分类网络的超参数;初训练单元112,用于基于训练样本集训练分类网络,其中训练样本集包括多个样本和样本对应的标准分类;及,第一判断单元113,用于判断分类网络是否达到第一训练标准,若达到第一训练标准,保存分类网络并网络训练模块执行训练;若未达到第一训练标准,则返回超参数设置单元重新设置分类网络的超参数;网络训练模块120包括:训练单元121,用于基于训练样本集训练神经网络。
在一实施例中,如图6所示,网络训练模块120还包括:第二判断单元122,用于判断神经网络是否达到第二训练标准,若达到第二训练标准,保存神经网络;若未达到第二训练标准,则返回超参数确定模块的超参数设置单元重新设置分类网络的超参数。
在一实施例中,初训练单元112还用于:通过特征提取网络对多个样本进行特征提取,得到多个第一样本特征;通过分类网络对第一样本特征进行分类得到第一分类结果,将第一分类结果与标准分类计算损失得到第一损失,基于第一损失调整分类网络的第一内参数。
在一实施例中,初训练单元112还用于:设置第一学习率,用于确定调整第一内参数的幅度。
在一实施例中,训练单元121还用于:通过特征提取网络对多个样本进行特征提取,得到多个第二样本特征;通过分类网络对第二样本特征进行分类得到第二分类结果,将第二分类结果与标准分类计算损失得到第二损失,基于第二损失调整第一内参数及特征提取网络的第二内参数。
在一实施例中,训练单元121还用于:设置第二学习率,用于确定调整第一内参数及第二内参数的幅度。
在一实施例中,第二学习率小于第一学习率。
在一实施例中,特征提取网络为已经过预训练的网络。
在一实施例中,训练单元121还用于:对样本进行数据增强,得到噪音样本,基于噪音样本和标准分类,训练神经网络。
关于上述实施例中的神经网络的训练装置100,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
基于同一个发明构思,图7示出了一种图像识别装置200,如图7所示,图像识别装置200包括,接收单元210,用于获取图像;识别单元220,用于通过神经网络,对图像进行识别,其中神经网络通过前述任一实施例的神经网络的训练方法10训练得到;输出单元230,用于输出识别结果。
关于上述实施例中的图像识别装置200,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图8是根据一示例性实施例示出的前述任一实施例装置的示意框图。例如,装置300可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图8,装置300可以包括以下一个或多个组件:处理组件302,存储器304,电力组件306,多媒体组件308,音频组件310,输入/输出(I/O)的接口312,传感器组件314,以及通信组件316。
处理组件302通常控制装置300的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件302可以包括一个或多个处理器320来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件302可以包括一个或多个模块,便于处理组件302和其他组件之间的交互。例如,处理组件302可以包括多媒体模块,以方便多媒体组件308和处理组件302之间的交互。
存储器304被配置为存储各种类型的数据以支持在装置300的操作。这些数据的示例包括用于在装置300上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器304可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件306为装置300的各种组件提供电力。电力组件306可以包括电源管理***,一个或多个电源,及其他与为装置300生成、管理和分配电力相关联的组件。
多媒体组件308包括在所述装置300和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件308包括一个前置摄像头和/或后置摄像头。当设备300处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜***或具有焦距和光学变焦能力。
音频组件310被配置为输出和/或输入音频信号。例如,音频组件310包括一个麦克风(MIC),当装置300处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器304或经由通信组件316发送。在一些实施例中,音频组件310还包括一个扬声器,用于输出音频信号。
I/O接口312为处理组件302和***接口模块之间提供接口,上述***接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件314包括一个或多个传感器,用于为装置300提供各个方面的状态评估。例如,传感器组件314可以检测到装置300的打开/关闭状态,组件的相对定位,例如所述组件为装置300的显示器和小键盘,传感器组件314还可以检测装置300或装置300一个组件的位置改变,用户与装置300接触的存在或不存在,装置300方位或加速/减速和装置300的温度变化。传感器组件314可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件314还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件314还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件316被配置为便于装置300和其他设备之间有线或无线方式的通信。装置300可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件316经由广播信道接收来自外部广播管理***的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件316还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置300可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的计算机可读存储介质,例如包括指令的存储器304,上述指令可由装置300的处理器320执行以完成上述方法。例如,所述计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
图9是根据一示例性实施例示出的一种电子装置400的框图。例如,装置400可以被提供为一服务器。参照图9,装置400包括处理组件422,其进一步包括一个或多个处理器,以及由存储器432所代表的存储器资源,用于存储可由处理组件422的执行的指令,例如应用程序。存储器432中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件422被配置为执行指令,以执行上述方法。
装置400还可以包括一个电源组件426被配置为执行装置300的电源管理,一个有线或无线网络接口450被配置为将装置400连接到网络,和一个输入输出(I/O)接口458。装置400可以操作基于存储在存储器432的操作***,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。

Claims (22)

1.一种神经网络的训练方法,其特征在于,所述神经网络包括特征提取网络和分类网络,所述方法包括:超参数确定步骤及网络训练步骤;
其中,所述超参数确定步骤包括:
设置所述分类网络的超参数;
基于训练样本集训练所述分类网络,其中所述训练样本集包括多个样本和所述样本对应的标准分类;及,
判断所述分类网络是否达到第一训练标准,若达到所述第一训练标准,保存所述分类网络并执行所述网络训练步骤;若未达到所述第一训练标准,则返回重新设置所述分类网络的所述超参数;
所述网络训练步骤包括:
基于所述训练样本集训练所述神经网络。
2.根据权利要求1所述的神经网络的训练方法,其特征在于,所述网络训练步骤还包括:
判断所述神经网络是否达到第二训练标准,若达到所述第二训练标准,保存所述神经网络;若未达到所述第二训练标准,则返回所述超参数确定步骤。
3.根据权利要求1所述的神经网络的训练方法,其特征在于,所述基于训练样本集训练所述分类网络,包括:
通过所述特征提取网络对所述多个样本进行特征提取,得到多个第一样本特征;
通过所述分类网络对所述第一样本特征进行分类得到第一分类结果,将所述第一分类结果与所述标准分类计算损失得到第一损失,基于所述第一损失调整所述分类网络的第一内参数。
4.根据权利要求3所述的神经网络的训练方法,其特征在于,所述基于所述第一损失调整所述分类网络的第一内参数,还包括:设置第一学习率,用于确定调整所述第一内参数的幅度。
5.根据权利要求4所述的神经网络的训练方法,其特征在于,所述基于所述训练样本集训练所述神经网络,包括:
通过所述特征提取网络对所述多个样本进行特征提取,得到多个第二样本特征;
通过所述分类网络对所述第二样本特征进行分类得到第二分类结果,将所述第二分类结果与所述标准分类计算损失得到第二损失,基于所述第二损失调整所述第一内参数及所述特征提取网络的第二内参数。
6.根据权利要求5所述的神经网络的训练方法,其特征在于,所述基于所述第二损失调整所述第一内参数及所述特征提取网络的第二内参数,还包括:设置第二学习率,用于确定调整所述第一内参数及所述第二内参数的幅度。
7.根据权利要求6所述的神经网络的训练方法,其特征在于,所述第二学习率小于所述第一学习率。
8.根据权利要求1所述的神经网络的训练方法,其特征在于,所述特征提取网络为已经过预训练的网络。
9.根据权利要求1所述的神经网络的训练方法,其特征在于,所述基于所述训练样本集训练所述神经网络,包括:对所述样本进行数据增强,得到噪音样本,基于所述噪音样本和所述标准分类,训练所述神经网络。
10.一种图像识别方法,其特征在于,所述方法包括:
获取图像;
通过神经网络,对所述图像进行识别,其中所述神经网络通过权利要求1-9任一项所述的神经网络的训练方法训练得到;
输出识别结果。
11.一种神经网络的训练装置,其特征在于,所述神经网络包括特征提取网络和分类网络,所述装置包括:超参数确定模块及网络训练模块;
其中,所述超参数确定模块包括:
超参数设置单元,用于设置所述分类网络的超参数;
初训练单元,用于基于训练样本集训练所述分类网络,其中所述训练样本集包括多个样本和所述样本对应的标准分类;及,
第一判断单元,用于判断所述分类网络是否达到第一训练标准,若达到所述第一训练标准,保存所述分类网络并所述网络训练模块执行训练;若未达到所述第一训练标准,则返回超参数设置单元重新设置所述分类网络的所述超参数;
所述网络训练模块包括:
训练单元,用于基于所述训练样本集训练所述神经网络。
12.根据权利要求11所述的神经网络的训练装置,其特征在于,所述网络训练模块还包括:
第二判断单元,用于判断所述神经网络是否达到第二训练标准,若达到所述第二训练标准,保存所述神经网络;若未达到所述第二训练标准,则返回所述超参数确定模块的所述超参数设置单元重新设置所述分类网络的所述超参数。
13.根据权利要求11所述的神经网络的训练装置,其特征在于,所述初训练单元还用于:
通过所述特征提取网络对所述多个样本进行特征提取,得到多个第一样本特征;
通过所述分类网络对所述第一样本特征进行分类得到第一分类结果,将所述第一分类结果与所述标准分类计算损失得到第一损失,基于所述第一损失调整所述分类网络的第一内参数。
14.根据权利要求13所述的神经网络的训练装置,其特征在于,所述初训练单元还用于:设置第一学习率,用于确定调整所述第一内参数的幅度。
15.根据权利要求14所述的神经网络的训练装置,其特征在于,所述训练单元还用于:
通过所述特征提取网络对所述多个样本进行特征提取,得到多个第二样本特征;
通过所述分类网络对所述第二样本特征进行分类得到第二分类结果,将所述第二分类结果与所述标准分类计算损失得到第二损失,基于所述第二损失调整所述第一内参数及所述特征提取网络的第二内参数。
16.根据权利要求15所述的神经网络的训练装置,其特征在于,所述训练单元还用于:设置第二学习率,用于确定调整所述第一内参数及所述第二内参数的幅度。
17.根据权利要求16所述的神经网络的训练装置,其特征在于,所述第二学习率小于所述第一学习率。
18.根据权利要求11所述的神经网络的训练装置,其特征在于,所述特征提取网络为已经过预训练的网络。
19.根据权利要求11所述的神经网络的训练装置,其特征在于,所述训练单元还用于:对所述样本进行数据增强,得到噪音样本,基于所述噪音样本和所述标准分类,训练所述神经网络。
20.一种图像识别装置,其特征在于,所述装置包括:
接收单元,用于获取图像;
识别单元,用于通过神经网络,对所述图像进行识别,其中所述神经网络通过权利要求1-9任一项所述的神经网络的训练方法训练得到;
输出单元,用于输出识别结果。
21.一种电子装置,其特征在于,包括:
存储器,用于存储指令;以及
处理器,用于调用所述存储器存储的指令执行如权利要求1至9中任一项所述的神经网络的训练方法或如权利要求10所述的图像识别方法。
22.一种计算机可读存储介质,其特征在于,存储有指令,所述指令被处理器执行时,执行如权利要求1至9中任一项所述的神经网络的训练方法或如权利要求10所述的图像识别方法。
CN201911088011.9A 2019-11-08 2019-11-08 神经网络的训练方法、图像识别方法及其装置 Pending CN110889489A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911088011.9A CN110889489A (zh) 2019-11-08 2019-11-08 神经网络的训练方法、图像识别方法及其装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911088011.9A CN110889489A (zh) 2019-11-08 2019-11-08 神经网络的训练方法、图像识别方法及其装置

Publications (1)

Publication Number Publication Date
CN110889489A true CN110889489A (zh) 2020-03-17

Family

ID=69747140

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911088011.9A Pending CN110889489A (zh) 2019-11-08 2019-11-08 神经网络的训练方法、图像识别方法及其装置

Country Status (1)

Country Link
CN (1) CN110889489A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112598063A (zh) * 2020-12-25 2021-04-02 深圳市商汤科技有限公司 神经网络生成方法及装置、电子设备和存储介质
CN113569992A (zh) * 2021-08-26 2021-10-29 中国电子信息产业集团有限公司第六研究所 异常数据识别方法及装置、电子设备和存储介质
CN113762327A (zh) * 2020-06-05 2021-12-07 宏达国际电子股份有限公司 机器学习方法、机器学习***以及非暂态电脑可读取媒体
CN113792770A (zh) * 2021-08-31 2021-12-14 南京信息工程大学 一种基于属性描述的零样本滚动轴承故障诊断方法及***
CN115114467A (zh) * 2021-03-17 2022-09-27 腾讯科技(深圳)有限公司 图片神经网络模型的训练方法以及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107862695A (zh) * 2017-12-06 2018-03-30 电子科技大学 一种基于全卷积神经网络的改进型图像分割训练方法
CN109447958A (zh) * 2018-10-17 2019-03-08 腾讯科技(深圳)有限公司 图像处理方法、装置、存储介质及计算机设备
CN109658412A (zh) * 2018-11-30 2019-04-19 湖南视比特机器人有限公司 一种面向拆垛分拣的包装箱快速识别分割方法
CN109767427A (zh) * 2018-12-25 2019-05-17 北京交通大学 列车轨道扣件缺陷的检测方法
CN109815801A (zh) * 2018-12-18 2019-05-28 北京英索科技发展有限公司 基于深度学习的人脸识别方法及装置
CN109871883A (zh) * 2019-01-24 2019-06-11 北京市商汤科技开发有限公司 神经网络训练方法及装置、电子设备和存储介质
CN109961034A (zh) * 2019-03-18 2019-07-02 西安电子科技大学 基于卷积门控循环神经单元的视频目标检测方法
CN110163220A (zh) * 2019-04-26 2019-08-23 腾讯科技(深圳)有限公司 图片特征提取模型训练方法、装置和计算机设备
CN110152938A (zh) * 2019-04-02 2019-08-23 华中科技大学 一种元器件点胶轨迹提取方法及自动控制机器人***

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107862695A (zh) * 2017-12-06 2018-03-30 电子科技大学 一种基于全卷积神经网络的改进型图像分割训练方法
CN109447958A (zh) * 2018-10-17 2019-03-08 腾讯科技(深圳)有限公司 图像处理方法、装置、存储介质及计算机设备
CN109658412A (zh) * 2018-11-30 2019-04-19 湖南视比特机器人有限公司 一种面向拆垛分拣的包装箱快速识别分割方法
CN109815801A (zh) * 2018-12-18 2019-05-28 北京英索科技发展有限公司 基于深度学习的人脸识别方法及装置
CN109767427A (zh) * 2018-12-25 2019-05-17 北京交通大学 列车轨道扣件缺陷的检测方法
CN109871883A (zh) * 2019-01-24 2019-06-11 北京市商汤科技开发有限公司 神经网络训练方法及装置、电子设备和存储介质
CN109961034A (zh) * 2019-03-18 2019-07-02 西安电子科技大学 基于卷积门控循环神经单元的视频目标检测方法
CN110152938A (zh) * 2019-04-02 2019-08-23 华中科技大学 一种元器件点胶轨迹提取方法及自动控制机器人***
CN110163220A (zh) * 2019-04-26 2019-08-23 腾讯科技(深圳)有限公司 图片特征提取模型训练方法、装置和计算机设备

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113762327A (zh) * 2020-06-05 2021-12-07 宏达国际电子股份有限公司 机器学习方法、机器学习***以及非暂态电脑可读取媒体
CN112598063A (zh) * 2020-12-25 2021-04-02 深圳市商汤科技有限公司 神经网络生成方法及装置、电子设备和存储介质
CN115114467A (zh) * 2021-03-17 2022-09-27 腾讯科技(深圳)有限公司 图片神经网络模型的训练方法以及装置
CN115114467B (zh) * 2021-03-17 2024-05-14 腾讯科技(深圳)有限公司 图片神经网络模型的训练方法以及装置
CN113569992A (zh) * 2021-08-26 2021-10-29 中国电子信息产业集团有限公司第六研究所 异常数据识别方法及装置、电子设备和存储介质
CN113569992B (zh) * 2021-08-26 2024-01-09 中国电子信息产业集团有限公司第六研究所 异常数据识别方法及装置、电子设备和存储介质
CN113792770A (zh) * 2021-08-31 2021-12-14 南京信息工程大学 一种基于属性描述的零样本滚动轴承故障诊断方法及***

Similar Documents

Publication Publication Date Title
CN108256555B (zh) 图像内容识别方法、装置及终端
CN109871896B (zh) 数据分类方法、装置、电子设备及存储介质
CN110889489A (zh) 神经网络的训练方法、图像识别方法及其装置
EP3855360A1 (en) Method and device for training image recognition model, and storage medium
CN111160448B (zh) 一种图像分类模型的训练方法及装置
CN109360197B (zh) 图像的处理方法、装置、电子设备及存储介质
EP3923202A1 (en) Method and device for data processing, and storage medium
CN109961094B (zh) 样本获取方法、装置、电子设备及可读存储介质
CN111210844B (zh) 语音情感识别模型的确定方法、装置、设备及存储介质
CN104077597B (zh) 图像分类方法及装置
CN112150457A (zh) 视频检测方法、装置及计算机可读存储介质
CN109819288A (zh) 广告投放视频的确定方法、装置、电子设备及存储介质
CN110633470A (zh) 命名实体识别方法、装置及存储介质
CN116863286B (zh) 一种双流目标检测方法及其模型搭建方法
CN112464083A (zh) 模型训练方法、作品推送方法、装置、电子设备及存储介质
CN111753917A (zh) 数据处理方法、装置及存储介质
CN111814538A (zh) 目标对象的类别识别方法、装置、电子设备及存储介质
CN112259122B (zh) 音频类型识别方法、装置及存储介质
CN112884040B (zh) 训练样本数据的优化方法、***、存储介质及电子设备
CN107480773B (zh) 训练卷积神经网络模型的方法、装置及存储介质
CN109784537A (zh) 广告点击率的预估方法、装置及服务器和存储介质
CN111400443B (zh) 信息处理方法、装置及存储介质
CN111209429A (zh) 用于度量语音数据库覆盖性的无监督模型训练方法及装置
CN109102812B (zh) 一种声纹识别方法、***及电子设备
CN112801116B (zh) 图像的特征提取方法及装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination