CN111178446A - 一种基于神经网络的目标分类模型的优化方法、装置 - Google Patents
一种基于神经网络的目标分类模型的优化方法、装置 Download PDFInfo
- Publication number
- CN111178446A CN111178446A CN201911420340.9A CN201911420340A CN111178446A CN 111178446 A CN111178446 A CN 111178446A CN 201911420340 A CN201911420340 A CN 201911420340A CN 111178446 A CN111178446 A CN 111178446A
- Authority
- CN
- China
- Prior art keywords
- classification model
- partial parameters
- updating
- target
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于神经网络的目标分类模型的优化方法、装置。该方法包括:构建基于神经网络的目标分类模型,对目标分类模型进行训练,利用训练好的目标分类模型实现目标图像的分类;当出现新的目标图像,该新的目标图像为针对目标新情况对应的图像且仍可分类到原分类体系中,判断目标分类模型对所述新的目标图像的分类识别结果,若目标分类模型无法对新的目标图像进行正确分类,则根据新的目标图像选取部分参数,对部分参数进行调整,经训练得到能够将新的目标图像正确分类的目标分类模型。上述方案可以在保证目标分类模型性能的基础上使其能够适应新的场景,且训练速度获得极大的提高,在20分钟左右即可完成模型训练。
Description
技术领域
本发明涉及机器视觉技术领域,具体涉及一种基于神经网络的目标分类模型的优化方法、装置、电子设备和可读存储介质。
背景技术
随着深度学习的发展,人工智能(AI)在智能制造领域的作用越来越大,在很多实际工程部署当中,人工智能在质量把控、缺陷类型检测等方面起到了巨大的作用。
而随着基于深度学习的人工智能发展,人工智能模型越来越大,训练越来越难。往往在单块图形处理器(GPU)上进行一次模型训练需要三小时及以上的时间。但是在实际生产的缺陷检测应用当中,以小时为单位的模型更新速度难以适应生产线某些突发需求,如当前批次的产品和之前产品的数据分布不同,产生了较多的漏检,而模型不能快速适应这种变化。这种需求变化需要模型在很短时间内快速适应,而当前的模型训练至少需要1-2小时,远不能满足需求。因此,需要设计一种实现快速训练模型优化方案。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的一种基于神经网络的目标分类模型的优化方法、装置、电子设备和可读存储介质。
依据本发明的一个方面,提供了一种基于神经网络的目标分类模型的优化方法,该方法包括:
构建基于神经网络的目标分类模型,对目标分类模型进行训练,利用训练好的目标分类模型实现目标图像的分类;
当出现新的目标图像,新的目标图像为针对目标新情况对应的图像且仍可分类到原分类体系中,判断目标分类模型对新的目标图像的识别结果,若目标分类模型无法对新的目标图像进行正确分类,则根据新的目标图像选取部分参数,对部分参数进行调整,经训练得到能够将新的目标图像正确分类的目标分类模型。
可选的,则根据新的目标图像选取部分参数,对参数进行调整,得到能够将新的目标图像正确分类的目标分类模型包括如下的一种或两种:
选取对新的目标图像分类的标签值,根据目标分类模型中损失函数的类别调整标签值;
对新的目标图像的数据样本进行误差计算,获取目标分类模型中各参数的梯度值,根据梯度值的大小选取部分参数,然后更新部分参数。
可选的,选取对新的目标图像分类的标签值,根据目标分类模型中损失函数的类别调整标签值包括:
若目标分类模型中的损失函数为focal_loss函数,则将主类别标签值设置为第一数值范围内的第一值,次类别标签值为0;
若损失函数为除focal_loss函数外的其他损失函数,则将主类别标签值设置为第二数值范围内的第二值,次类别标签值为1与第二值的差值相对于次类别标签个数的平均值;
其中第一数值范围和第二数值范围均为(0.5-1)的子集。
可选的,对新的目标图像的数据样本进行误差计算,获取目标分类模型中各参数的梯度值,根据梯度值的大小选取部分参数,然后更新部分参数包括:
选取梯度值大于预设阈值的部分参数或梯度值降序排列时从高到低的预设比例范围内的部分参数,对该部分参数进行包括如下的任一种或几种方式的更新:
仅对全连接层中的部分参数进行更新;
对全连接层和1*1卷积层中的部分参数进行更新;
对全连接层和全部尺寸卷积层的部分参数进行更新。
可选的,选取梯度值降序排列时从高到低的预设比例范围内的部分参数还包括:
反向传播时将各参数的梯度值从高到低降序排列,选取5%-10%范围的梯度值对应的部分参数,对该部分参数进行更新;
设置小于预设阈值的学习率,以防止目标分类模型过拟合。
可选的,该方法还包括:
在目标分类模型的主分类首次输出确定性检出结果时或者输出确定性检出结果的次数大于预定次数时,即停止利用新的目标图像对目标分类模型的训练。
可选的,所述经训练得到能够将新的目标图像正确分类的目标分类模型还包括:
利用包括新的目标图像的全数据集对所述目标分类模型进行训练,当该训练得到的目标分类模型分类的正确率没有达到预设阈值时,对所述目标分类模型的所述部分参数进行更新。
可选的,所述根据新的目标图像选取部分参数,对所述部分参数进行调整为:
仅对全连接层中的所述部分参数进行更新;
则所述对所述目标分类模型的所述部分参数进行更新包括:
若所述目标分类模型分类的正确率没有达到预设阈值,则对全连接层和1*1卷积层中的所述部分参数进行更新,然后对所述目标分类模型利用所述验证集进行验证;
若所述目标分类模型分类的正确率仍然没有达到预设阈值,则对全连接层和全部尺寸卷积层的所述部分参数进行更新,直到满足正确率条件停止对所述部分参数进行更新;或者,
所述根据新的目标图像选取部分参数,对所述部分参数进行调整为:
仅对全连接层中的所述部分参数进行更新;和
对全连接层和1*1卷积层中的所述部分参数进行更新;
则所述对所述目标分类模型的所述部分参数进行更新包括:
若所述目标分类模型分类的正确率没有达到预设阈值,对全连接层和全部尺寸卷积层的所述部分参数进行更新,直到满足正确率条件停止对所述部分参数进行更新。
依据本发明的另一个方面,提供了一种基于神经网络的目标分类模型的优化装置,该装置包括:
模型运行单元,适于构建基于神经网络的目标分类模型,对目标分类模型进行训练,利用训练好的目标分类模型实现目标的分类;
模型优化单元,适于当出现新的目标图像,新的目标图像为针对目标新情况对应的图像但仍可分类到原分类体系中,判断目标分类模型对新的目标图像的识别结果,若目标分类模型无法对新的目标图像进行正确分类,则根据新的目标图像选取部分参数,对参数进行调整,得到能够将新的目标图像正确分类的目标分类模型。
可选的,模型优化单元适于:根据新的目标图像选取部分参数,对部分参数进行调整为:
仅对全连接层中的部分参数进行更新;
则对目标分类模型的部分参数进行更新包括:
若目标分类模型分类的正确率没有达到预设阈值,则对全连接层和1*1卷积层中的部分参数进行更新,然后对目标分类模型利用验证集进行验证;
若目标分类模型分类的正确率仍然没有达到预设阈值,则对全连接层和全部尺寸卷积层的部分参数进行更新,直到满足正确率条件停止对部分参数进行更新;或者,
模型优化单元还适于:
根据新的目标图像选取部分参数,对部分参数进行调整为:
仅对全连接层中的部分参数进行更新;和
对全连接层和1*1卷积层中的部分参数进行更新;
则对目标分类模型的部分参数进行更新包括:
若目标分类模型分类的正确率没有达到预设阈值,对全连接层和全部尺寸卷积层的部分参数进行更新,直到满足正确率条件停止对部分参数进行更新。
依据本发明的又一方面,提供了一种电子设备,包括:处理器;以及被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器执行如上述任一所述的方法。
依据本发明的再一方面,提供了一种计算机可读存储介质,其中,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序当被处理器执行时,实现如上述任一所述的方法。
由上述可知,本发明的技术方案,可以获得以下的技术效果:
可以保持当前的目标分类模型当前的分类检测性能,同时把一些新出现的情况或场景且容易被漏检的图像正确分到对应的类别当中;
在调整优化模型过程中可以保留大部分参数,只改动少量参数让模型能够适应新的图像数据;
上述模型训练和优化方法可以在保证原模型的性能的基础上使得模型能够适应新的场景,同时速度较快,在20分钟左右即可完成模型训练,与之前的模型训练相比,大大优化了模型训练的速度。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了根据本发明一个实施例的基于神经网络的目标分类模型的优化方法的流程示意图;
图2示出了根据本发明一个实施例的基于神经网络的目标分类模型的优化装置的结构示意图;
图3示出了根据本发明一个实施例的电子设备的结构示意图;
图4示出了根据本发明一个实施例的计算机可读存储介质的结构示意图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
图1示出了根据本发明一个实施例的基于神经网络的目标分类模型的优化方法的流程示意图;该方法包括:
步骤S110,构建基于神经网络的目标分类模型,对目标分类模型进行训练,利用训练好的目标分类模型实现目标图像的分类。
本发明的该实施例公开了一种基于神经网络的目标分类模型的优化调整方法,可以用于智能制造生产线中对缺陷产品进行检测并对产品缺陷类型识别,并且也可以用于其他目标分类检测中,比如车辆等物体的检测与类型识别。
本发明主要实现的是对现有的目标分类模型进行调整优化,在步骤S110描述了模型形成过程,包括基于神经网络的目标分类模型构建、训练以及实现对目标图像分类等程序。
步骤S120,当出现新的目标图像,新的目标图像为针对目标新情况对应的图像且仍可分类到原分类体系中,判断目标分类模型对新的目标图像的识别结果,若目标分类模型无法对新的目标图像进行正确分类,则根据新的目标图像选取部分参数,对部分参数进行调整,经训练得到能够将新的目标图像正确分类的目标分类模型。
根据本发明的目标,该实施例设计了一种能够对所述目标分类模型进行优化的方案,当出现新情况的目标图像时,则根据该目标图像选取部分参数,该部分参数可以是模型的参数,也可以是对图像进行预处理时涉及到的参数,且该部分参数是根据新的目标图像进行选取的,能够对正确分类或识别上述新的目标图像产生较大影响、差异明显,对其调整就能够实现模型对该新的目标图像的正确分类,同时不需要改变其他大部分的参数。
综上,该实施例公开的优化方案,能够解决当前某条生产线上有已经过验证的模型正在运行,突然出现了一些新的异常问题且当前的模型无法判别的情况。在生产线无法停止运行的情况下,该优化方案能够保证模型能够快速迭代,准确判别其中的异常的产品缺陷类型,满足生产线的新需求,并且通过该方案,可以保留当前模型的大部分参数,只改动少量参数使得模型能够适应新的目标图像数据。
在一个实施例中,根据新的目标图像选取部分参数,对参数进行调整,得到能够将新的目标图像正确分类的目标分类模型包括如下的一种或两种:
其中的一种方式为,选取对新的目标图像分类的标签值,根据目标分类模型中损失函数的类别调整标签值。
通常情况下,把正确的分类编码为1,错误的分类编码为0,但在该实施例的快速训练当中,不宜直接用0、1作为目标进行拟合,因为容易使得模型过拟合,在该实施例中,经试验确定,根据目标分类模型中损失函数的类别不同而设置不同的取值区间的标签值,该目标分类模型能够容纳新的目标图像数据,使得该目标分类模型能够对新出现的目标图像进行正确的识别和分类。
另一种方式为,对新的目标图像的数据样本进行误差计算,获取目标分类模型中各参数的梯度值,根据梯度值的大小选取部分参数,然后更新部分参数。
误差计算是深度学***均,也就是损失函数的平均;目标函数(ObjectFunction)是最终优化的函数,等于经验风险+结构风险;风险函数(RiskFunction)是损失函数的期望。在误差计算中要防止过拟合(Over-Fitting)的问题,过拟合是指过度拟合训练集,导致在真正预测时效果会很不理想,过拟合的解决方式之一是正则化(Regularization),它是通过降低复杂模型的复杂度来防止过拟合的规则。
在该实施例中,为了快速获得训练结果,误差计算的目的在于获得新的目标图像中与目标分类模型中对应的各参数的梯度值,具体地,该误差计算可通过Sobel算子、Laplacian算子、Canny边缘检测等算法实现,当然,误差计算并不限于上述算法。在获得上述的梯度值后,就可以根据梯度值的大小选取部分对新的目标图像正确检测影响较大的参数进行调节。
在一个实施例中,选取对新的目标图像分类的标签值,根据目标分类模型中损失函数的类别调整标签值包括:
若目标分类模型中的损失函数为focal_loss函数,则将主类别标签值设置为第一数值范围内的第一值,次类别标签值为0。
若损失函数为除focal_loss函数外的其他损失函数,则将主类别标签值设置为第二数值范围内的第二值,次类别标签值为1与第二值的差值相对于次类别标签个数的平均值;其中第一数值范围和第二数值范围均为(0.5-1)的子集。
一个具体情况下,主类别标签值即正确类别标签值,次类别标签值即错误类别标签值。假设目标分类模型要把输入数据分为5类,而当前的输入图像为第1类,传统方案会把模型训练的目标设为[1,0,0,0,0]。
为了防止过拟合,在该实施例中,如果目标分类模型使用focal_loss损失函数,可以设置正确的主类别标签为0.5-1之间的范围内的数值,优选为0.6-0.8,此时,次类别标签值即错误标签设为0,如把目标设为[0.6,0,0,0,0]。
如果采用除focal_loss函数外的其他损失函数,比如传统的loss函数,如交叉熵和平方差,可以把正确类别标签值设置为0.6-0.8,错误标签为剩下的平分,正确标签和错误标签总计为1。比如正确标签选0.6时,剩下的0.4的数量平分给剩余的错误标签,如设置为[0.6,0.1,0.1,0.1,0.1]。
在一个实施例中,对新的目标图像的数据样本进行误差计算,获取目标分类模型中各参数的梯度值,根据梯度值的大小选取部分参数,然后更新部分参数包括:
选取梯度值大于预设阈值的部分参数或梯度值降序排列时从高到低的预设比例范围内的部分参数,对该部分参数进行包括如下的任一种或几种方式的更新:
方式一、仅对全连接层中的部分参数进行更新;
方式二、对全连接层和1*1卷积层中的部分参数进行更新;
方式三、对全连接层和全部寸寸的卷积层的部分参数进行更新。
通常情况下,利用数据集对模型的所有参数进行训练,或者选取固定的层,将这一层的所有的参数进行训练。这种做法改变的参数较多,给模型带来的变动较大。
由于本发明针对的场景是:有已经部署在生产线上的模型,由于突发或者出现了一种新的情况,比如一种新的产品缺陷的出现导致现有的模型无法将其正确归类识别。因此在保持原有的模型能力的基础上,让模型能够处理该新的情况,即需要保持模型的原有的能力,又需要模型能够适应新的情况。
在这种情况下,直接修改模型的所有参数,或者修改的参数过多,容易使得模型的输出整体变得混乱,导致模型无法保持原有的能力。所以,需要挑选部分参数进行修改,在少量修改的情况下,使得模型能够适应新的需求即可。
方式一:只更新全连接层。
具体选取参数的方式为:选取反向传播时的梯度值最大的5%-10%的参数进行参数更新,选取的层为:全连接层。
即只选取全连接层的参数中梯度值从高到低的前5%-10%的参数进行更新。即,需要计算全连接层的参数的梯度值,将梯度值进行排序,选取最大的一部分进行更新。
需要说明的是,上述反向传播时的梯度值的计算一般服从链式法则:
即如果要求取参数u(n)对参数u(j)的导数,由于u(n)和u(j)具有层级关系,则需要根据所述层级路径对各层级分别求导数,即需要迭代求取u(лk)对u(лk-1)的导数。比如,x经过参数w1和b1得到y1,y1再通过w2和b2得到y2,要求y2对w1的导数,可以求y2对y1然后y1对w1的导数,根据求导数的结果最终确定参数的梯度值。
另外,上述的参数选择是结合卷积神经网络的性质作出的。在一个图像神经网络中,一般可以把神经网络分为两个部分:特征提取部分和根据特征进行目标回归或分类的部分。在全连接层之前的部分一般是特征提取部分,而全连接层是目标回归部分。
通常情况下,基于深度学习的特征提取所提取的特征足够满足分类任务需求,因此,将目标回归部分(也就是全连接层)进行调整即可满足特定需求。
本实施例在快速训练时,优先采用方式一对模型中全连接层的参数进行调整,在验证阶段可采用包括新的目标图像的验证集对模型进行训练,从而较快速地获得能够容纳新情况的目标分类模型。
方式二:更新全连接层和1*1卷积层
倘若只更新全连接层的参数不能使得模型满足新的目标图像的需求,则需要进行1*1卷积层的更新。优选的,具体选取参数的和方式一中相似,比如选取1*1卷积层中反向传播梯度值最大的5%-10%的参数进行参数更新。
这是因为1*1卷积层是卷积神经网络特征提取的一部分,除了1*1卷积层之外,特征提取部分还会包括3*3卷积核,5*5卷积核,inception核等。通常来说,3*3卷积核或者更大的尺寸的卷积核起到的作用是将图片提取出特征值。而1*1卷积核起到的作用是将特征值进行组合,修改1*1卷积核的作用,在于增强某些特征,而遏制另一部分特征。
如果全连接层效果不佳,很有可能是因为对应的特征没有被提出来。那么,修改1*1卷积层,增强某些特征的强度,有助于提取出对应的特征,并进行相应的目标回归。
方式三:更新全连接层、1*1卷积层和所有其他卷积层。
一般前两个方式训练出来的模型可以满足实际需求。如果获得的模型仍无法满足分类正确率的要求,可以尝试对其他的3*3、5*5或者更大尺寸的卷积核进行训练。
对于卷积核,应以单一卷积核内所有参数的梯度的绝对值和为基准,对同层的卷积核进行排序,并选取反向传播时梯度的绝对值最大的5%卷积核进行参数更新。
当然,根据经验以及新出现的图像的突发情况,如果预测仅进行全连接层参数的更新不能满足要求,也可以直接对全连接层和1*1卷积层或全连接层和全部尺寸的卷积层进行训练和参数更新,从而获得较好的综合效益。
在一个优选的实施例中,选取梯度值降序排列时从高到低的预设比例范围内的部分参数还包括:
反向传播时将各参数的梯度值从高到低降序排列,选取5%-10%范围的梯度值对应的部分参数,对该部分参数进行更新;设置小于预设阈值的学习率,以防止目标分类模型过拟合。
比如,可选取全连接层的各参数的梯度值最大的5%-10%对应的部分参数,对该部分参数在进行模型训练过程中进行更新。另外,在参数更新时也可以将学习率设为10-4量级,防止训练时出现过拟合的情况。并且,参数越多,要求使用的学习率越小。由于对卷积核进行修改很容易导致网络不稳定梯度消失,优选地,学习率最好在10-5量级,如学习率可设置为5*10-5。
在一个实施例中,该方法还包括:在目标分类模型的主分类首次输出确定性检出结果时或者输出确定性检出结果的次数大于预定次数时,即停止利用新的目标图像对目标分类模型的训练。
在该实施例中,为了提高利用新的目标图像对模型训练的速度,当目标分类模型的主分类的输出概率大于0.5,此时即为确定性的检出结果,或者出现确定性的检出结果的次数大于预定次数时,比如出现大于5次的检出的概率大于0.5的情况,即可停止针对性的快速训练,从而节约了快速训练的时间。例如,模型要把输入数据分为5类,而当前的输入图片为第1类。当第一类的输出大于0.5的时候即视为针对性训练完成。
针对性训练完成时,本实施例得到了能够容纳特例(即能够将新的目标图像正确分类的目标分类模型)的更新后的模型,为了进一步提高分类效果,
在一个实施例中,经训练得到能够将新的目标图像正确分类的目标分类模型还包括:利用包括新的目标图像的全数据集对所述目标分类模型进行训练,当该训练得到的目标分类模型分类的正确率没有达到预设阈值时,对所述目标分类模型的所述部分参数进行更新。
在该实施例中,在针对性训练完成之后,还需要利用包括新的目标图像的全数据集进行训练,保证模型对所有分类的拟合效果,因为全数据集中的数据涵盖主分类以及主分类之外的其他分类。一般进行一轮全数据集训练即可。
且待模型利用全数据集训练完成后,当该训练得到的目标分类模型分类的正确率没有达到预设阈值时,还需要对目标分类模型的部分参数进行再次的更新,以获得最终合格的目标分类模型。
在一个实施例中,根据新的目标图像选取部分参数,对部分参数进行调整为:仅对全连接层中的所述部分参数进行调整,因为仅对全连接层中的部分参数进行调整是最快速且易于实现的方式。
此时,若目标分类模型分类的正确率没有达到预设阈值,说明仅调整全连接层的上述部分参数是不够的,则可以对全连接层和1*1卷积层中的部分参数进行更新,更新完成后,对目标分类模型利用验证集进行验证看是否能够满足停止训练的条件。
若目标分类模型分类的正确率仍然没有达到预设阈值,则对全连接层和全部尺寸卷积层的上述部分参数进行更新,直到满足正确率条件停止对部分参数进行更新。
当然,也可以选择其他的方式,比如在根据新的目标图像选取部分参数,对所述部分参数进行调整的步骤中,同时进行对全连接层中的部分参数进行更新,以及对全连接层和1*1卷积层中的部分参数进行更新,若不能满足预设阈值条件,即若目标分类模型分类的正确率没有达到预设阈值,对全连接层和全部尺寸卷积层的上述部分参数进行更新,直到满足正确率条件停止对所述部分参数进行更新。
图2示出了根据本发明一个实施例的基于神经网络的目标分类模型的优化装置的结构示意图;该装置包括:
模型运行单元210,适于构建基于神经网络的目标分类模型,对所述目标分类模型进行训练,利用训练好的目标分类模型实现目标的分类。
本发明的该实施例公开了一种基于神经网络的目标分类模型的优化调整装置,可以用于智能制造生产线中对缺陷产品进行检测并对产品缺陷类型识别,并且也可以用于其他目标分类检测中,比如车辆等物体的检测与类型识别。
由于本发明主要实现的是对现有的目标分类模型进行调整优化,因此,在模型运行单元210描述了现有的模型运行状态,包括基于神经网络的目标分类模型构建、训练以及实现对目标图像分类等情形。
模型优化单元220,适于当出现新的目标图像,新的目标图像为针对目标新情况对应的图像但仍可分类到原分类体系中,判断目标分类模型对新的目标图像的识别结果,若目标分类模型无法对新的目标图像进行正确分类,则根据新的目标图像选取部分参数,对参数进行调整,得到能够将新的目标图像正确分类的目标分类模型。
当出现新情况的目标图像时,则根据该目标图像选取部分参数,该部分参数可以是模型的参数,也可以是对图像进行预处理时涉及到的参数,且该部分参数是根据新的目标图像进行选取的,能够对正确分类或识别上述新的目标图像产生较大影响、差异明显,对其调整就能够实现模型对该新的目标图像的正确分类,同时不改变其他大部分的参数。
综上,该实施例公开的优化方案,能够解决当前某条生产线上有已经过验证的模型正在运行,突然出现了一些新的异常问题且当前的模型无法判别的情况。在生产线无法停止运行的情况下,该优化方案能够保证模型能够快速迭代,准确判别其中的异常的产品缺陷类型,满足生产线的新需求,并且通过该方案,可以保留当前模型的大部分参数,只改动少量参数使得模型能够适应新的目标图像数据。
在一个实施例中,模型优化单元220包括如下的一种或两种方式:
一种方式为,选取对新的目标图像分类的标签值,根据目标分类模型中损失函数的类别调整标签值。
另一种方式为,对新的目标图像的数据样本进行误差计算,获取目标分类模型中各参数的梯度值,根据梯度值的大小选取部分参数,然后更新部分参数。
在一个实施例中,模型优化单元220适于:
若目标分类模型中的损失函数为focal_loss函数,则将主类别标签值设置为第一数值范围内的第一值,次类别标签值为0;
若损失函数为除focal_loss函数外的其他损失函数,则将主类别标签值设置为第二数值范围内的第二值,次类别标签值为1与第二值的差值相对于次类别标签个数的平均值;
其中第一数值范围和第二数值范围均为(0.5-1)的子集。
在一个实施例中,所述模型优化单元220还适于:
选取对新的目标图像分类的标签值,根据目标分类模型中损失函数的类别调整标签值。
对新的目标图像的数据样本进行误差计算,获取目标分类模型中各参数的梯度值,根据梯度值的大小选取部分参数,然后更新部分参数。
在一个实施例中,选取对新的目标图像分类的标签值,根据目标分类模型中损失函数的类别调整标签值包括:若目标分类模型中的损失函数为focal_loss函数,则将主类别标签值设置为第一数值范围内的第一值,次类别标签值为0。若损失函数为除focal_loss函数外的其他损失函数,则将主类别标签值设置为第二数值范围内的第二值,次类别标签值为1与第二值的差值相对于次类别标签个数的平均值;其中第一数值范围和第二数值范围均为(0.5-1)的子集。
在一个实施例中,对新的目标图像的数据样本进行误差计算,获取目标分类模型中各参数的梯度值,根据梯度值的大小选取部分参数,然后更新部分参数包括:选取梯度值大于预设阈值的部分参数或梯度值降序排列时从高到低的预设比例范围内的部分参数,对该部分参数进行包括如下的任一种或几种方式的更新:仅对全连接层中的部分参数进行更新;对全连接层和1*1卷积层中的部分参数进行更新;对全连接层和全部寸寸的卷积层的部分参数进行更新。
在一个优选的实施例中,选取梯度值降序排列时从高到低的预设比例范围内的部分参数还包括:
反向传播时将各参数的梯度值从高到低降序排列,选取5%-10%范围的梯度值对应的部分参数,对该部分参数进行更新;
设置小于预设阈值的学习率,以防止目标分类模型过拟合。
在一个实施例中,该装置还包括:训练停止判断单元,适于:在目标分类模型的主分类首次输出确定性检出结果时或者输出确定性检出结果的次数大于预定次数时,即停止利用新的目标图像对目标分类模型的训练。
在一个实施例中,模型优化单元220还适于:利用包括新的目标图像的全数据集对所述目标分类模型进行训练,当该训练得到的目标分类模型分类的正确率没有达到预设阈值时,对所述目标分类模型的所述部分参数进行更新。
在一个实施例中,所述模型优化单元220还适于:根据新的目标图像选取部分参数,对部分参数进行调整为:
仅对全连接层中的部分参数进行更新;
则对所述目标分类模型的部分参数进行更新包括:
若目标分类模型分类的正确率没有达到预设阈值,则对全连接层和1*1卷积层中的部分参数进行更新,然后对目标分类模型利用验证集进行验证;
若目标分类模型分类的正确率仍然没有达到预设阈值,则对全连接层和全部尺寸卷积层的部分参数进行更新,直到满足正确率条件停止对部分参数进行更新;或者,
所述模型优化单元220还适于:
根据新的目标图像选取部分参数,对部分参数进行调整为:
仅对全连接层中的所述部分参数进行更新;和
对全连接层和1*1卷积层中的部分参数进行更新;
则对所述目标分类模型的部分参数进行更新包括:
若目标分类模型分类的正确率没有达到预设阈值,对全连接层和全部尺寸卷积层的部分参数进行更新,直到满足正确率条件停止对部分参数进行更新。
综上所述,本发明公开的基于神经网络的目标分类模型的优化方案包括:构建基于神经网络的目标分类模型,对目标分类模型进行训练,利用训练好的目标分类模型实现目标图像的分类;当出现新的目标图像,该新的目标图像为针对目标新情况对应的图像且仍可分类到原分类体系中,判断目标分类模型对所述新的目标图像的分类识别结果,若目标分类模型无法对新的目标图像进行正确分类,则根据新的目标图像选取部分参数,对部分参数进行调整,经训练得到能够将新的目标图像正确分类的目标分类模型。上述方案可以在保证目标分类模型性能的基础上使其能够适应新的场景,且训练速度获得极大的提高,在20分钟左右即可完成模型训练。
需要说明的是:
在此提供的算法和显示不与任何特定计算机、虚拟装置或者其它设备固有相关。各种通用装置也可以与基于在此的示教一起使用。根据上面的描述,构造这类装置所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的基于神经网络的目标分类模型的优化装置中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
例如,图3示出了根据本发明一个实施例的电子设备的结构示意图。该电子设备300包括处理器310和被安排成存储计算机可执行指令(计算机可读程序代码)的存储器320。存储器320可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。存储器320具有存储用于执行上述方法中的任何方法步骤的计算机可读程序代码331的存储空间330。例如,用于存储计算机可读程序代码的存储空间330可以包括分别用于实现上面的方法中的各种步骤的各个计算机可读程序代码331。计算机可读程序代码331可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。这些计算机程序产品包括诸如硬盘,紧致盘(CD)、存储卡或者软盘之类的程序代码载体。这样的计算机程序产品通常为例如图4所述的计算机可读存储介质。图4示出了根据本发明一个实施例的一种计算机可读存储介质的结构示意图。该计算机可读存储介质400存储有用于执行根据本发明的方法步骤的计算机可读程序代码331,可以被电子设备300的处理器310读取,当计算机可读程序代码331由电子设备300运行时,导致该电子设备300执行上面所描述的方法中的各个步骤,具体来说,该计算机可读存储介质存储的计算机可读程序代码331可以执行上述任一实施例中示出的方法。计算机可读程序代码331可以以适当形式进行压缩。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
Claims (10)
1.一种基于神经网络的目标分类模型的优化方法,其特征在于,所述方法包括:
构建基于神经网络的所述目标分类模型,对所述目标分类模型进行训练,利用训练好的目标分类模型实现目标图像的分类;
当出现新的目标图像,所述新的目标图像为针对目标新情况对应的图像且仍可分类到原分类体系中,判断所述目标分类模型对所述新的目标图像的识别结果,若所述目标分类模型无法对新的目标图像进行正确分类,则根据新的目标图像选取部分参数,对所述部分参数进行调整,经训练得到能够将新的目标图像正确分类的目标分类模型。
2.如权利要求1所述的方法,其特征在于,所述则根据新的目标图像选取部分参数,对所述参数进行调整,得到能够将新的目标图像正确分类的目标分类模型包括如下的一种或两种:
选取对所述新的目标图像分类的标签值,根据所述目标分类模型中损失函数的类别调整所述标签值;
对新的目标图像的数据样本进行误差计算,获取所述目标分类模型中各参数的梯度值,根据所述梯度值的大小选取部分参数,然后更新所述部分参数。
3.如权利要求2所述的方法,其特征在于,所述选取对所述新的目标图像分类的标签值,根据所述目标分类模型中损失函数的类别调整所述标签值包括:
若所述目标分类模型中的损失函数为focal_loss函数,则将主类别标签值设置为第一数值范围内的第一值,次类别标签值为0;
若损失函数为除focal_loss函数外的其他损失函数,则将主类别标签值设置为第二数值范围内的第二值,次类别标签值为1与所述第二值的差值相对于次类别标签个数的平均值;
其中所述第一数值范围和第二数值范围均为(0.5-1)的子集。
4.如权利要求1所述的方法,其特征在于,所述对新的目标图像的数据样本进行误差计算,获取所述目标分类模型中各参数的梯度值,根据所述梯度值的大小选取部分参数,然后更新所述部分参数包括:
选取梯度值大于预设阈值的部分参数或梯度值降序排列时从高到低的预设比例范围内的部分参数,对该部分参数进行包括如下的任一种或几种方式的更新:
仅对全连接层中的所述部分参数进行更新;
对全连接层和1*1卷积层中的所述部分参数进行更新;
对全连接层和全部尺寸卷积层的所述部分参数进行更新。
5.如权利要求4所述的方法,其特征在于,所述选取梯度值降序排列时从高到低的预设比例范围内的部分参数还包括:
反向传播时将各参数的梯度值从高到低降序排列,选取5%-10%范围的梯度值对应的部分参数,对该部分参数进行更新;
设置小于预设阈值的学习率,以防止所述目标分类模型过拟合。
6.如权利要求1-5任一项所述的方法,其特征在于,所述方法还包括:
在所述目标分类模型的主分类首次输出确定性检出结果时或者输出确定性检出结果的次数大于预定次数时,即停止利用所述新的目标图像对所述目标分类模型的训练。
7.如权利要求6所述的方法,其特征在于,所述经训练得到能够将新的目标图像正确分类的目标分类模型还包括:
利用包括新的目标图像的全数据集对所述目标分类模型进行训练,当该训练得到的目标分类模型分类的正确率没有达到预设阈值时,对所述目标分类模型的所述部分参数进行更新。
8.如权利要求7所述的方法,其特征在于,
所述根据新的目标图像选取部分参数,对所述部分参数进行调整为:
仅对全连接层中的所述部分参数进行更新;
则所述对所述目标分类模型的所述部分参数进行更新包括:
若所述目标分类模型分类的正确率没有达到预设阈值,则对全连接层和1*1卷积层中的所述部分参数进行更新,然后对所述目标分类模型利用所述验证集进行验证;
若所述目标分类模型分类的正确率仍然没有达到预设阈值,则对全连接层和全部尺寸卷积层的所述部分参数进行更新,直到满足正确率条件停止对所述部分参数进行更新;或者,
所述根据新的目标图像选取部分参数,对所述部分参数进行调整为:
仅对全连接层中的所述部分参数进行更新;和
对全连接层和1*1卷积层中的所述部分参数进行更新;
则所述对所述目标分类模型的所述部分参数进行更新包括:
若所述目标分类模型分类的正确率没有达到预设阈值,对全连接层和全部尺寸卷积层的所述部分参数进行更新,直到满足正确率条件停止对所述部分参数进行更新。
9.一种基于神经网络的目标分类模型的优化装置,其特征在于,所述装置包括:
模型运行单元,适于构建基于神经网络的所述目标分类模型,对所述目标分类模型进行训练,利用训练好的目标分类模型实现目标的分类;
模型优化单元,适于当出现新的目标图像,所述新的目标图像为针对目标新情况对应的图像但仍可分类到原分类体系中,判断所述目标分类模型对所述新的目标图像的识别结果,若所述目标分类模型无法对新的目标图像进行正确分类,则根据新的目标图像选取部分参数,对所述参数进行调整,得到能够将新的目标图像正确分类的目标分类模型。
10.如权利要求9所述的装置,其特征在于,所述模型优化单元适于:
所述根据新的目标图像选取部分参数,对所述部分参数进行调整为:
仅对全连接层中的所述部分参数进行更新;
则所述对所述目标分类模型的所述部分参数进行更新包括:
若所述目标分类模型分类的正确率没有达到预设阈值,则对全连接层和1*1卷积层中的所述部分参数进行更新,然后对所述目标分类模型利用所述验证集进行验证;
若所述目标分类模型分类的正确率仍然没有达到预设阈值,则对全连接层和全部尺寸卷积层的所述部分参数进行更新,直到满足正确率条件停止对所述部分参数进行更新;或者,
所述模型优化单元还适于:
所述根据新的目标图像选取部分参数,对所述部分参数进行调整为:
仅对全连接层中的所述部分参数进行更新;和
对全连接层和1*1卷积层中的所述部分参数进行更新;
则所述对所述目标分类模型的所述部分参数进行更新包括:
若所述目标分类模型分类的正确率没有达到预设阈值,对全连接层和全部尺寸卷积层的所述部分参数进行更新,直到满足正确率条件停止对所述部分参数进行更新。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911420340.9A CN111178446B (zh) | 2019-12-31 | 2019-12-31 | 一种基于神经网络的目标分类模型的优化方法、装置 |
PCT/CN2020/125346 WO2021135607A1 (zh) | 2019-12-31 | 2020-10-30 | 一种基于神经网络的目标分类模型的优化方法、装置 |
US17/309,308 US11748975B2 (en) | 2019-12-31 | 2020-10-30 | Method and device for optimizing object-class model based on neural network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911420340.9A CN111178446B (zh) | 2019-12-31 | 2019-12-31 | 一种基于神经网络的目标分类模型的优化方法、装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111178446A true CN111178446A (zh) | 2020-05-19 |
CN111178446B CN111178446B (zh) | 2023-08-04 |
Family
ID=70647536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911420340.9A Active CN111178446B (zh) | 2019-12-31 | 2019-12-31 | 一种基于神经网络的目标分类模型的优化方法、装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11748975B2 (zh) |
CN (1) | CN111178446B (zh) |
WO (1) | WO2021135607A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112419269A (zh) * | 2020-11-23 | 2021-02-26 | 成都圭目机器人有限公司 | 一种提高道面病害分割效果的改进型Focal Loss函数的构建方法及应用 |
WO2021135607A1 (zh) * | 2019-12-31 | 2021-07-08 | 歌尔股份有限公司 | 一种基于神经网络的目标分类模型的优化方法、装置 |
CN113743459A (zh) * | 2021-07-29 | 2021-12-03 | 深圳云天励飞技术股份有限公司 | 目标检测方法、装置、电子设备及存储介质 |
CN116258197A (zh) * | 2023-05-16 | 2023-06-13 | 之江实验室 | 基于参数计算和通信调度的分布式训练加速方法和*** |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116597288B (zh) * | 2023-07-18 | 2023-09-12 | 江西格如灵科技股份有限公司 | 一种注视点渲染方法、***、计算机及可读存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007198968A (ja) * | 2006-01-27 | 2007-08-09 | Hitachi High-Technologies Corp | 画像分類方法及び画像分類装置 |
US20170220904A1 (en) * | 2015-04-02 | 2017-08-03 | Tencent Technology (Shenzhen) Company Limited | Training method and apparatus for convolutional neural network model |
US20170243114A1 (en) * | 2016-02-19 | 2017-08-24 | International Business Machines Corporation | Adaptation of model for recognition processing |
CN108304936A (zh) * | 2017-07-12 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 机器学习模型训练方法和装置、表情图像分类方法和装置 |
CN108564097A (zh) * | 2017-12-05 | 2018-09-21 | 华南理工大学 | 一种基于深度卷积神经网络的多尺度目标检测方法 |
CN109614907A (zh) * | 2018-11-28 | 2019-04-12 | 安徽大学 | 基于特征强化引导卷积神经网络的行人再识别方法及装置 |
US20190362490A1 (en) * | 2018-05-25 | 2019-11-28 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for inspecting corrosion defect of ladle |
US20190377949A1 (en) * | 2018-06-08 | 2019-12-12 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Image Processing Method, Electronic Device and Computer Readable Storage Medium |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10417524B2 (en) * | 2017-02-16 | 2019-09-17 | Mitsubishi Electric Research Laboratories, Inc. | Deep active learning method for civil infrastructure defect detection |
US11354565B2 (en) * | 2017-03-15 | 2022-06-07 | Salesforce.Com, Inc. | Probability-based guider |
KR102481885B1 (ko) * | 2017-09-08 | 2022-12-28 | 삼성전자주식회사 | 클래스 인식을 위한 뉴럴 네트워크 학습 방법 및 디바이스 |
CN108805258B (zh) | 2018-05-23 | 2021-10-12 | 北京图森智途科技有限公司 | 一种神经网络训练方法及其装置、计算机服务器 |
CN110210560B (zh) | 2019-05-31 | 2021-11-30 | 北京市商汤科技开发有限公司 | 分类网络的增量训练方法、分类方法及装置、设备及介质 |
CN110211123B (zh) * | 2019-06-14 | 2021-06-01 | 北京文安智能技术股份有限公司 | 一种深度学习神经网络的优化方法、装置及*** |
CN110321964B (zh) * | 2019-07-10 | 2020-03-03 | 重庆电子工程职业学院 | 图像识别模型更新方法及相关装置 |
CN110472681A (zh) | 2019-08-09 | 2019-11-19 | 北京市商汤科技开发有限公司 | 基于知识蒸馏的神经网络训练方案和图像处理方案 |
CN111178446B (zh) * | 2019-12-31 | 2023-08-04 | 歌尔股份有限公司 | 一种基于神经网络的目标分类模型的优化方法、装置 |
-
2019
- 2019-12-31 CN CN201911420340.9A patent/CN111178446B/zh active Active
-
2020
- 2020-10-30 WO PCT/CN2020/125346 patent/WO2021135607A1/zh active Application Filing
- 2020-10-30 US US17/309,308 patent/US11748975B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007198968A (ja) * | 2006-01-27 | 2007-08-09 | Hitachi High-Technologies Corp | 画像分類方法及び画像分類装置 |
US20170220904A1 (en) * | 2015-04-02 | 2017-08-03 | Tencent Technology (Shenzhen) Company Limited | Training method and apparatus for convolutional neural network model |
US20170243114A1 (en) * | 2016-02-19 | 2017-08-24 | International Business Machines Corporation | Adaptation of model for recognition processing |
CN108304936A (zh) * | 2017-07-12 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 机器学习模型训练方法和装置、表情图像分类方法和装置 |
CN108564097A (zh) * | 2017-12-05 | 2018-09-21 | 华南理工大学 | 一种基于深度卷积神经网络的多尺度目标检测方法 |
US20190362490A1 (en) * | 2018-05-25 | 2019-11-28 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for inspecting corrosion defect of ladle |
US20190377949A1 (en) * | 2018-06-08 | 2019-12-12 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Image Processing Method, Electronic Device and Computer Readable Storage Medium |
CN109614907A (zh) * | 2018-11-28 | 2019-04-12 | 安徽大学 | 基于特征强化引导卷积神经网络的行人再识别方法及装置 |
Non-Patent Citations (1)
Title |
---|
舒忠;: "基于深度学习的图像样本标签赋值校正算法实现", no. 1 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021135607A1 (zh) * | 2019-12-31 | 2021-07-08 | 歌尔股份有限公司 | 一种基于神经网络的目标分类模型的优化方法、装置 |
US11748975B2 (en) | 2019-12-31 | 2023-09-05 | Goertek Inc. | Method and device for optimizing object-class model based on neural network |
CN112419269A (zh) * | 2020-11-23 | 2021-02-26 | 成都圭目机器人有限公司 | 一种提高道面病害分割效果的改进型Focal Loss函数的构建方法及应用 |
CN112419269B (zh) * | 2020-11-23 | 2023-05-26 | 成都圭目机器人有限公司 | 一种道面病害分割的方法 |
CN113743459A (zh) * | 2021-07-29 | 2021-12-03 | 深圳云天励飞技术股份有限公司 | 目标检测方法、装置、电子设备及存储介质 |
CN113743459B (zh) * | 2021-07-29 | 2024-04-02 | 深圳云天励飞技术股份有限公司 | 目标检测方法、装置、电子设备及存储介质 |
CN116258197A (zh) * | 2023-05-16 | 2023-06-13 | 之江实验室 | 基于参数计算和通信调度的分布式训练加速方法和*** |
CN116258197B (zh) * | 2023-05-16 | 2023-09-08 | 之江实验室 | 基于参数计算和通信调度的分布式训练加速方法和*** |
Also Published As
Publication number | Publication date |
---|---|
US20220309765A1 (en) | 2022-09-29 |
CN111178446B (zh) | 2023-08-04 |
WO2021135607A1 (zh) | 2021-07-08 |
US11748975B2 (en) | 2023-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111178446B (zh) | 一种基于神经网络的目标分类模型的优化方法、装置 | |
CN110060237B (zh) | 一种故障检测方法、装置、设备及*** | |
US11087452B2 (en) | False alarm reduction system for automatic manufacturing quality control | |
CN110619618A (zh) | 一种表面缺陷检测方法、装置及电子设备 | |
CN111932489A (zh) | 焊缝缺陷检测方法、***、存储介质、计算机设备、终端 | |
CN110852983A (zh) | 用于检测半导体装置中的缺陷的方法 | |
KR20180036709A (ko) | 미디어 분류 | |
CN110688925A (zh) | 基于深度学习的级联目标识别方法及*** | |
CN109840883B (zh) | 一种训练物体识别神经网络的方法、装置及计算设备 | |
CN111814852B (zh) | 图像检测方法、装置、电子设备和计算机可读存储介质 | |
CN112184667A (zh) | 缺陷检测、修复方法、装置以及存储介质 | |
CA3166581A1 (en) | Method and system for training inspection equipment for automatic defect classification | |
CN111753839A (zh) | 一种文本检测方法和装置 | |
JP2021174456A (ja) | 異常判定方法及び異常判定装置 | |
CN111652208A (zh) | 用户界面组件的识别方法、装置、电子设备及存储介质 | |
CN110927167A (zh) | 一种禽蛋检测方法、装置、电子设备及存储介质 | |
CN116385430A (zh) | 一种机器视觉瑕疵检测方法、装置、介质及设备 | |
CN115100614A (zh) | 车辆感知***的评估方法、装置、车辆及存储介质 | |
CN116310563A (zh) | 一种贵金属库存的管理方法及*** | |
CN117372424B (zh) | 一种缺陷检测方法、装置、设备及存储介质 | |
CN114387230A (zh) | 一种基于重验证检测的pcb板缺陷检测方法 | |
CN113807541B (zh) | 决策***的公平性修复方法、***、设备及存储介质 | |
CN113627538B (zh) | 训练非对称生成对抗网络产生图像的方法及电子装置 | |
CN113592859A (zh) | 一种基于深度学习的用于显示面板缺陷的分类方法 | |
CN113870342A (zh) | 外观缺陷检测方法、智能终端以及存储装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |