CN113627422A - 一种图像分类方法及其相关设备 - Google Patents

一种图像分类方法及其相关设备 Download PDF

Info

Publication number
CN113627422A
CN113627422A CN202110745619.5A CN202110745619A CN113627422A CN 113627422 A CN113627422 A CN 113627422A CN 202110745619 A CN202110745619 A CN 202110745619A CN 113627422 A CN113627422 A CN 113627422A
Authority
CN
China
Prior art keywords
image
classification result
feature
classified
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110745619.5A
Other languages
English (en)
Inventor
李傲雪
李震国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN202110745619.5A priority Critical patent/CN113627422A/zh
Publication of CN113627422A publication Critical patent/CN113627422A/zh
Priority to PCT/CN2022/101015 priority patent/WO2023274052A1/zh
Priority to EP22831866.3A priority patent/EP4350575A1/en
Priority to US18/400,930 priority patent/US20240185568A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请提供一种图像分类方法及其相关设备,应用于人工智能领域,可准确识别出属于新类别的图像,不会将属于新类别的图像误判为属于基础类别的图像,从而提高图像分类的准确率。本申请的方法包括:获取参考图像的第一特征和待分类图像的第二特征;根据第一特征和第二特征,生成第三特征;根据第一特征生成第一分类结果,第一分类结果用于确定参考图像的类别;根据第三特征生成第二分类结果;根据第一分类结果和第二分类结果,生成第三分类结果,第三分类结果用于确定待分类图像的类别。

Description

一种图像分类方法及其相关设备
技术领域
本申请涉及人工智能(artificial intelligence,AI)技术领域,尤其涉及一种图像分类方法及其相关设备。
背景技术
图像物体检测是计算机视觉的重要任务之一,在自动驾驶、工业视觉等领域都有重要应用。对于某类物体(例如,工业机器、电网设备等等)的检测任务,获取这类物体的图像所需付出的成本巨大,故通常只能获取较为少量的图像。因此,小样本物体检测技术应运而生。
小样本物体检测技术所使用的神经网络模型包含两个分支,其中一个分支的输入为参考图像(也可称为支持图像),另一个分支的输入为待分类图像(也可称为查询图像)。该模型对待分类图像进行分类时,通常会输入大量属于基础类别的参考图像,以及少量属于新类别的参考图像,在这些参考图像的作用下,该模型可检测出待分类图像的类别为基础类别或新类别。
在图像分类过程中,属于基础类别的参考图像的数量与属于新类别的参考图像的数量差异很大,模型容易忽略新类别的参考图像所造成的影响,当待分类图像的类别实际上为新类别时,模型容易将其误判断为基础类别,导致图像分类的准确率不高。
发明内容
本申请实施例提供了一种图像分类方法及其相关设备,可准确识别出属于新类别的图像,不会将属于新类别的图像误判为属于基础类别的图像,从而提高图像分类的准确率。
本申请实施例的第一方面提供了一种图像分类方法,该方法通过图像分类模型实现,该方法包括:
当需要确定待分类图像的类别时,可先获取与待分类图像相关的参考图像。
得到待分类图像和参考图像后,可将参考图像和待分类图像输入至图像分类模型,以通过图像分类模型获取参考图像的第一特征和待分类图像的第二特征。
接着,通过图像分类模型根据参考图像的第一特征和待分类图像的第二特征,生成待分类图像的第三特征。
然后,通过图像分类模型根据参考图像的第一特征生成参考图像的第一分类结果,并根据待分类图像的第三特征生成待分类图像的第二分类结果。其中,第一分类结果可以认为是参考图像的最终分类结果(即图像分类模型的其中一个输出),故基于第一分类结果可确定参考图像的类别,第二分类结果可以认为是待分类图像的初步分类结果,本申请并不利用该结果来确定待分类图像的类别。
最后,通过图像分类模型根据参考图像的第一分类结果和待分类图像的第二分类结果,生成第三分类结果(即图像分类模型的另一个输出),第三分类结果可以认为是待分类图像的最终分类结果,故基于第三分类结果可确定待分类图像的类别。
从上述方法可以看出:在将参考图像和待分类图像输入至图像分类模型后,图像分类模型可实现以下步骤:获取参考图像的第一特征和待分类图像的第二特征。接着,根据第一特征和第二特征,生成第三特征。然后,根据第一特征生成第一分类结果,第一分类结果可用于确定参考图像的类别,并根据第三特征生成第二分类结果。最后,根据第一分类结果和第二分类结果生成第三分类结果。得到第三分类结果,可基于该结果确定待分类图像的类别。可见,图像分类模型生成待分类图像的第三分类结果的过程中,融入了参考图像的第一分类结果,相当于图像分类模型着重关注到参考图像的类别信息,无论参考图像的类别属于新类别还是属于基础类别,模型均能注意到参考图像的类别在待分类图像的分类过程中所造成的影响,故模型不会将新类别拟合到基础类别上,即待分类图像为属于新类别的图像时,图像分类模型可准确判断待分类图像的类别为新类别中的某一类别,而不会将待分类图像的类别误判为基础类别中的某一类别,从而提高图像分类的准确率。
在一种可能的实现方式中,根据第一分类结果和第二分类结果,生成第三分类结果包括:将第一分类结果和第二分类结果进行相加处理,得到第四分类结果;将第一分类结果与图像分类模型的模型参数进行相加处理,得到第五分类结果;将第五分类结果与预置的权重参数进行相乘处理,得到第六分类结果;将第四分类结果与第六分类结果进行相减处理,得到第三分类结果。前述实现方式中,利用参考图像的第一分类结果对待分类图像的第二分类结果进行调整(即将二者进行相加),可得到待分类图像的第四分类结果。然而,若参考图像的类别和待分类图像的类别相同,参考图像的第一分类结果对待分类图像的第二分类结果的调整作用则是正面的,若参考图像的类别和待分类图像的类别不相同,参考图像的第一分类结果对待分类图像的第二分类结果的调整作用则是负面的。为了使待分类图像的最终分类结果足够准确,需要平衡这两种情况所带来的影响。具体地,得到待分类图像的第四分类结果后,可进行一系列的处理:将参考图像的第一分类结果与图像分类模型的模型参数进行相加处理,得到参考图像的第五分类结果;将参考图像的第五分类结果与预置的权重参数进行相乘处理,得到参考图像的第六分类结果;将待分类图像的第四分类结果与参考图像的第六分类结果进行相减处理,得到待分类图像的第三分类结果。如此一来,待分类图像的第三分类结果具备足够的准确性,可以认为是待分类图像的最终分类结果,故基于第三分类结果可确定待分类图像的类别。
在一种可能的实现方式中,根据第一分类结果和第二分类结果,生成第三分类结果包括:图像分类模型直接将参考图像的第一分类结果和待分类图像的第二分类结果进行相加,以得到待分类图像的第三分类结果,待分类图像的第三分类结果可以认为是待分类图像的最终分类结果,故基于第三分类结果可确定待分类图像的类别。
在一种可能的实现方式中,根据第一特征生成第一分类结果包括:根据参考图像的第一特征计算参考图像属于各个类别的概率,得到参考图像的第一分类结果,由于参考图像的第一分类结果包含参考图像属于各个类别的概率(即参考图像呈现的目标物体属于各个类别的概率),故可根据第一分类结果可确定参考图像的类别。进一步地,第一分类结果还可包含目标物体在参考图像中的位置信息。
根据第三特征生成第二分类结果包括:根据待分类图像的第三特征计算待分类图像属于各个类别的概率,得到待分类图像的第二分类结果。由于待分类图像的第二分类结果包含待分类图像属于各个类别的概率(即待分类图像呈现的目标物体属于各个类别的概率),故第二分类结果可用于确定待分类图像的类别(但本申请实施例并不利用第二分类结果来确定待分类图像的类别)。进一步地,第二分类结果还可包含目标物体在待分类图像中的位置信息。
在一种可能的实现方式中,根据第一特征和第二特征,生成第三特征,包括:对参考图像的第一特征和待分类图像的第二特征进行特征融合处理,得到待分类图像的第三特征。
在一种可能的实现方式中,特征融合处理包括相加处理、相乘处理、相减处理、级联处理和级联卷积处理中的至少一个。
在一种可能的实现方式中,获取参考图像的第一特征和待分类图像的第二特征包括:对参考图像进行特征提取处理,得到参考图像的第一特征;对待分类图像进行特征提取处理,得到待分类图像的第二特征。
本申请实施例的第二方面提供了一种模型训练方法,该方法包括:获取参考图像和待分类图像;将参考图像和待分类图像输入至待训练模型,得到待分类图像的第三分类结果,待训练模型用于:获取参考图像的第一特征和待分类图像的第二特征;根据第一特征和第二特征,生成第三特征;根据第一特征生成第一分类结果;根据第三特征生成第二分类结果;根据第一分类结果和第二分类结果,生成第三分类结果;根据第一分类结果确定参考图像的第一预测类别,并根据第三分类结果确定待分类图像的第二预测类别;根据参考图像的第一真实类别、第一预测类别,待分类图像的第二真实类别以及第二预测类别,获取目标损失,目标损失用于指示第一真实类别与第一预测类别之间的差异,以及第二真实类别与第二预测类别之间的差异;根据目标损失对待训练模型的模型参数进行更新,直至满足模型训练条件,得到图像分类模型。
基于上述方法所得到的图像分类模型,具备利用参考图像对待分类图像进行分类的能力。在图像分类的过程中,图像分类模型可着重关注到参考图像的类别信息,无论参考图像的类别是新类别还是基础类别,模型均能注意到参考图像的类别在待分类图像的分类过程中所造成的影响,故模型不会将新类别拟合到基础类别上,即待分类图像为属于新类别的图像时,图像分类模型可准确判断待分类图像的类别为新类别中的某一类别,而不会将待分类图像的类别误判为基础类别中的某一类别,从而提高图像分类的准确率。
在一种可能的实现方式中,根据参考图像的第一真实类别、第一预测类别,待分类图像的第二真实类别以及第二预测类别,获取目标损失包括:根据参考图像的第一真实类别以及第一预测类别,获取第一子损失,第一子损失用于指示第一真实类别与第一预测类别之间的差异;根据待分类图像的第二真实类别以及第二预测类别,获取第二子损失,第二子损失用于指示第二真实类别与第二预测类别之间的差异;将第一子损失和第二子损失进行相加处理,得到目标损失。
在一种可能的实现方式中,待训练模型用于将第一分类结果和第二分类结果进行相加处理,得到第三分类结果。
在一种可能的实现方式中,待训练模型用于:根据第一特征计算参考图像属于各个类别的概率,得到第一分类结果;根据第三特征计算待分类图像属于各个类别的概率,得到第二分类结果。
在一种可能的实现方式中,待训练模型用于对第一特征和第二特征进行特征融合处理,得到第三特征。
在一种可能的实现方式中,特征融合处理包括相加处理、相乘处理、相减处理、级联处理和级联卷积处理中的至少一个。
在一种可能的实现方式中,待训练模型用于:对参考图像进行特征提取处理,得到第一特征;对待分类图像进行特征提取处理,得到第二特征。
本申请实施例的第三方面提供了一种图像分类装置,该装置包括:特征提取模块,用于获取参考图像的第一特征和待分类图像的第二特征;特征融合模块,用于根据第一特征和第二特征,生成第三特征;第一分类模块,用于根据第一特征生成第一分类结果,第一分类结果用于确定参考图像的类别;第二分类模块,用于根据第三特征生成第二分类结果;分类结果调整模块,用于根据第一分类结果和第二分类结果,生成第三分类结果,第三分类结果用于确定待分类图像的类别。
从上述装置可以看出:在将参考图像和待分类图像输入至图像分类模型后,图像分类模型可实现以下步骤:获取参考图像的第一特征和待分类图像的第二特征。接着,根据第一特征和第二特征,生成第三特征。然后,根据第一特征生成第一分类结果,第一分类结果可用于确定参考图像的类别,并根据第三特征生成第二分类结果。最后,根据第一分类结果和第二分类结果生成第三分类结果。得到第三分类结果,可基于该结果确定待分类图像的类别。可见,图像分类模型生成待分类图像的第三分类结果的过程中,融入了参考图像的第一分类结果,相当于图像分类模型着重关注到参考图像的类别信息,无论参考图像的类别是新类别还是基础类别,模型均能注意到参考图像的类别在待分类图像的分类过程中所造成的影响,故模型不会将新类别拟合到基础类别上,即待分类图像为属于新类别的图像时,图像分类模型可准确判断待分类图像的类别为新类别中的某一类别,而不会将待分类图像的类别误判为基础类别中的某一类别,从而提高图像分类的准确率。
在一种可能的实现方式中,分类结果调整模块,用于将第一分类结果和第二分类结果进行相加处理,得到第三分类结果。
在一种可能的实现方式中,分类结果调整模块,用于:将第一分类结果和第二分类结果进行相加处理,得到第四分类结果;将第一分类结果与图像分类模型的模型参数进行相加处理,得到第五分类结果;将第五分类结果与预置的权重参数进行相乘处理,得到第六分类结果;将第四分类结果与第六分类结果进行相减处理,得到第三分类结果。
在一种可能的实现方式中,第一分类模块,用于根据第一特征计算参考图像属于各个类别的概率,得到第一分类结果;第二分类模块,用于根据第三特征计算待分类图像属于各个类别的概率,得到第二分类结果。
在一种可能的实现方式中,特征融合模块,用于对第一特征和第二特征进行特征融合处理,得到第三特征。
在一种可能的实现方式中,特征融合处理包括相加处理、相乘处理、相减处理、级联处理和级联卷积处理中的至少一个。
在一种可能的实现方式中,特征提取模块包括第一特征提取模块和第二特征提取模块,其中,第一特征提取模块用于对参考图像进行特征提取处理,得到第一特征;第二特征提取模块用于对待分类图像进行特征提取处理,得到第二特征。
本申请实施例的第四方面提供了一种模型训练装置,该装置包括:获取模块,用于获取参考图像和待分类图像;处理模块,用于将参考图像和待分类图像输入至待训练模型,得到待分类图像的第三分类结果,待训练模型用于:获取参考图像的第一特征和待分类图像的第二特征;根据第一特征和第二特征,生成第三特征;根据第一特征生成第一分类结果;根据第三特征生成第二分类结果;根据第一分类结果和第二分类结果,生成第三分类结果;确定模块,用于根据第一分类结果确定参考图像的第一预测类别,并根据第三分类结果确定待分类图像的第二预测类别;计算模块,用于根据参考图像的第一真实类别、第一预测类别,待分类图像的第二真实类别以及第二预测类别,获取目标损失,目标损失用于指示第一真实类别与第一预测类别之间的差异,以及第二真实类别与第二预测类别之间的差异;更新模块,用于根据目标损失对待训练模型的模型参数进行更新,直至满足模型训练条件,得到图像分类模型。
基于上述装置所得到的图像分类模型,具备利用参考图像对待分类图像进行分类的能力。在图像分类的过程中,图像分类模型可着重关注到参考图像的类别信息,无论参考图像的类别是新类别还是基础类别,模型均能注意到参考图像的类别在待分类图像的分类过程中所造成的影响,故模型不会将新类别拟合到基础类别上,即待分类图像为属于新类别的图像时,图像分类模型可准确判断待分类图像的类别为新类别中的某一类别,而不会将待分类图像的类别误判为基础类别中的某一类别,从而提高图像分类的准确率。
在一种可能的实现方式中,计算模块,用于根据参考图像的第一真实类别以及第一预测类别,获取第一子损失,第一子损失用于指示第一真实类别与第一预测类别之间的差异;根据待分类图像的第二真实类别以及第二预测类别,获取第二子损失,第二子损失用于指示第二真实类别与第二预测类别之间的差异;将第一子损失和第二子损失进行相加处理,得到目标损失。
在一种可能的实现方式中,待训练模型用于将第一分类结果和第二分类结果进行相加处理,得到第三分类结果。
在一种可能的实现方式中,待训练模型用于:根据第一特征计算参考图像属于各个类别的概率,得到第一分类结果;根据第三特征计算待分类图像属于各个类别的概率,得到第二分类结果。
在一种可能的实现方式中,待训练模型用于对第一特征和第二特征进行特征融合处理,得到第三特征。
在一种可能的实现方式中,特征融合处理包括相加处理、相乘处理、相减处理、级联处理和级联卷积处理中的至少一个。
在一种可能的实现方式中,待训练模型用于:对参考图像进行特征提取处理,得到第一特征;对待分类图像进行特征提取处理,得到第二特征。
本申请实施例的第五方面提供了一种图像分类装置,该装置包括存储器和处理器;存储器存储有代码,处理器被配置为执行代码,当代码被执行时,图像分类装置执行如第一方面或第一方面中任意一种可能的实现方式所述的方法。
本申请实施例的第六方面提供了一种模型训练装置,该装置包括存储器和处理器;存储器存储有代码,处理器被配置为执行代码,当代码被执行时,模型训练装置执行如第二方面或第二方面中任意一种可能的实现方式所述的方法。
本申请实施例的第七方面提供了一种电路***,该电路***包括处理电路,该处理电路配置为执行如第一方面、第一方面中任意一种可能的实现方式、第二方面或第二方面中任意一种可能的实现方式所述的方法。
本申请实施例的第八方面提供了一种芯片***,该芯片***包括处理器,用于调用存储器中存储的计算机程序或计算机指令,以使得该处理器执行如第一方面、第一方面中任意一种可能的实现方式、第二方面或第二方面中任意一种可能的实现方式所述的方法。
在一种可能的实现方式中,该处理器通过接口与存储器耦合。
在一种可能的实现方式中,该芯片***还包括存储器,该存储器中存储有计算机程序或计算机指令。
本申请实施例的第九方面提供了一种计算机存储介质,该计算机存储介质存储有计算机程序,该程序在由计算机执行时,使得计算机实施如第一方面、第一方面中任意一种可能的实现方式、第二方面或第二方面中任意一种可能的实现方式所述的方法。
本申请实施例的第十方面提供了一种计算机程序产品,该计算机程序产品存储有指令,该指令在由计算机执行时,使得计算机实施如第一方面、第一方面中任意一种可能的实现方式、第二方面或第二方面中任意一种可能的实现方式所述的方法。
本申请实施例中,在将参考图像和待分类图像输入至图像分类模型后,图像分类模型可实现以下步骤:获取参考图像的第一特征和待分类图像的第二特征。接着,根据第一特征和第二特征,生成第三特征。然后,根据第一特征生成第一分类结果,第一分类结果可用于确定参考图像的类别,并根据第三特征生成第二分类结果。最后,根据第一分类结果和第二分类结果生成第三分类结果。得到第三分类结果,可基于该结果确定待分类图像的类别。可见,图像分类模型生成待分类图像的第三分类结果的过程中,融入了参考图像的第一分类结果,相当于图像分类模型着重关注到参考图像的类别信息,无论参考图像的类别是新类别还是基础类别,模型均能注意到参考图像的类别在待分类图像的分类过程中所造成的影响,故模型不会将新类别拟合到基础类别上,即待分类图像为属于新类别的图像时,图像分类模型可准确判断待分类图像的类别为新类别中的某一类别,而不会将待分类图像的类别误判为基础类别中的某一类别,从而提高图像分类的准确率。
附图说明
图1为人工智能主体框架的一种结构示意图;
图2a为本申请实施例提供的图像处理***的一个结构示意图;
图2b为本申请实施例提供的图像处理***的另一结构示意图;
图2c为本申请实施例提供的图像处理的相关设备的一个示意图;
图3为本申请实施例提供的***100架构的一个示意图;
图4为本申请实施例提供的图像分类方法的一个流程示意图;
图5为本申请实施例提供的图像分类模型的一个结构示意图;
图6为本申请实施例提供的因果图的一个示意图;
图7为本申请实施例提供的模型训练方法的一个流程示意图;
图8为本申请实施例提供的图像分类装置的一个结构示意图;
图9为本申请实施例提供的模型训练装置的一个结构示意图;
图10为本申请实施例提供的执行设备的一个结构示意图;
图11为本申请实施例提供的训练设备的一个结构示意图;
图12为本申请实施例提供的芯片的一个结构示意图。
具体实施方式
本申请实施例提供了一种图像分类方法及其相关设备,可准确识别出属于新类别的图像,不会将属于新类别的图像误判为属于基础类别的图像,从而提高图像分类的准确率。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的术语在适当情况下可以互换,这仅仅是描述本申请的实施例中对相同属性的对象在描述时所采用的区分方式。此外,术语“包括”和“具有”并他们的任何变形,意图在于覆盖不排他的包含,以便包含一系列单元的过程、方法、***、产品或设备不必限于那些单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它单元。
对图像进行物体检测是计算机视觉的重要任务之一,在自动驾驶、工业视觉等领域都有重要应用。对于某类物体(例如,工业机器、电网设备等等)的检测任务,获取这类物体的图像所需付出的成本巨大,故通常只能获取较为少量的图像。因此,小样本物体检测技术应运而生。
图像物体检测技术所使用的神经网络模型包含两个分支,其中一个分支的输入为参考图像(也可称为支持图像),另一个分支的输入为待分类图像(也可称为查询图像)。在该模型的训练过程中,参考图像通常包含大量属于基础类别的图像,以及少量属于新类别的图像。通过参考图像和待分类图像对该模型进行联合训练,可使得训练后的模型具备检测图像是否属于基础类别或新类别的能力。例如,基础类别可以为常见的交通工具,包含汽车、自行车、摩托车等等,新类别为少见的交通工具,包含飞机、高铁等等。
前述训练过程中,由于使用的基础类别的图像的数量很多,而新类别的图像的数量很少,会使得训练后的模型在进行图像分类时,容易将属于新类别的图像误判为基础类别的图像,导致图像分类效果不佳。依旧如上述例子,由于模型的训练过程中用了大量的汽车图像、自行车图像和摩托车图像,且仅用了少量的飞机图像。那么,在将某张飞机图像输入至训练后的模型进行分类时,模型容易将该图像的类别误判为汽车、自行车、摩托车中的一种。
为了解决上述问题,本申请提供了一种图像分类方法,该方法可结合人工智能(artificial intelligence,AI)技术实现。AI技术是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能的技术学科,AI技术通过感知环境、获取知识并使用知识获得最佳结果。换句话说,人工智能技术是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。利用人工智能进行图像处理是人工智能常见的一个应用方式。
首先对人工智能***总体工作流程进行描述,请参见图1,图1为人工智能主体框架的一种结构示意图,下面从“智能信息链”(水平轴)和“IT价值链”(垂直轴)两个维度对上述人工智能主题框架进行阐述。其中,“智能信息链”反映从数据的获取到处理的一列过程。举例来说,可以是智能信息感知、智能信息表示与形成、智能推理、智能决策、智能执行与输出的一般过程。在这个过程中,数据经历了“数据—信息—知识—智慧”的凝练过程。“IT价值链”从人智能的底层基础设施、信息(提供和处理技术实现)到***的产业生态过程,反映人工智能为信息技术产业带来的价值。
(1)基础设施
基础设施为人工智能***提供计算能力支持,实现与外部世界的沟通,并通过基础平台实现支撑。通过传感器与外部沟通;计算能力由智能芯片(CPU、NPU、GPU、ASIC、FPGA等硬件加速芯片)提供;基础平台包括分布式计算框架及网络等相关的平台保障和支持,可以包括云存储和计算、互联互通网络等。举例来说,传感器和外部沟通获取数据,这些数据提供给基础平台提供的分布式计算***中的智能芯片进行计算。
(2)数据
基础设施的上一层的数据用于表示人工智能领域的数据来源。数据涉及到图形、图像、语音、文本,还涉及到传统设备的物联网数据,包括已有***的业务数据以及力、位移、液位、温度、湿度等感知数据。
(3)数据处理
数据处理通常包括数据训练,机器学习,深度学习,搜索,推理,决策等方式。
其中,机器学习和深度学习可以对数据进行符号化和形式化的智能信息建模、抽取、预处理、训练等。
推理是指在计算机或智能***中,模拟人类的智能推理方式,依据推理控制策略,利用形式化的信息进行机器思维和求解问题的过程,典型的功能是搜索与匹配。
决策是指智能信息经过推理后进行决策的过程,通常提供分类、排序、预测等功能。
(4)通用能力
对数据经过上面提到的数据处理后,进一步基于数据处理的结果可以形成一些通用的能力,比如可以是算法或者一个通用***,例如,翻译,文本的分析,计算机视觉的处理,语音识别,图像的识别等等。
(5)智能产品及行业应用
智能产品及行业应用指人工智能***在各领域的产品和应用,是对人工智能整体解决方案的封装,将智能信息决策产品化、实现落地应用,其应用领域主要包括:智能终端、智能交通、智能医疗、自动驾驶、智慧城市等。
接下来介绍几种本申请的应用场景。
图2a为本申请实施例提供的图像处理***的一个结构示意图,该图像处理***包括用户设备以及数据处理设备。其中,用户设备包括手机、个人电脑或者信息处理中心等智能终端。用户设备为图像处理的发起端,作为图像处理请求的发起方,通常由用户通过用户设备发起请求。
上述数据处理设备可以是云服务器、网络服务器、应用服务器以及管理服务器等具有数据处理功能的设备或服务器。数据处理设备通过交互接口接收来自智能终端的图像处理请求,再通过存储数据的存储器以及数据处理的处理器环节进行机器学习,深度学习,搜索,推理,决策等方式的图像处理。数据处理设备中的存储器可以是一个统称,包括本地存储以及存储历史数据的数据库,数据库可以在数据处理设备上,也可以在其它网络服务器上。
在图2a所示的图像处理***中,用户设备可以接收用户的指令,例如用户设备可以获取用户输入/选择的一张图像,然后向数据处理设备发起请求,使得数据处理设备针对用户设备得到的该图像执行图像处理应用(例如,图像物体检测等等),从而得到针对该图像的对应的处理结果。示例性的,用户设备可以获取用户输入的一张图像,然后向数据处理设备发起图像物体检测请求,使得数据处理设备对该图像进行分类,从而得到图像所属的类别,即图像呈现的物体所属的类别。
在图2a中,数据处理设备可以执行本申请实施例的图像处理方法。
图2b为本申请实施例提供的图像处理***的另一结构示意图,在图2b中,用户设备直接作为数据处理设备,该用户设备能够直接获取来自用户的输入并直接由用户设备本身的硬件进行处理,具体过程与图2a相似,可参考上面的描述,在此不再赘述。
在图2b所示的图像处理***中,用户设备可以接收用户的指令,例如用户设备可以获取用户在用户设备中所选择的一张图像,然后再由用户设备自身针对该图像执行图像处理应用(例如图像目标检测等),从而得到针对该图像的对应的处理结果。
在图2b中,用户设备自身就可以执行本申请实施例的图像处理方法。
图2c为本申请实施例提供的图像处理的相关设备的一个示意图。
上述图2a和图2b中的用户设备具体可以是图2c中的本地设备301或者本地设备302,图2a中的数据处理设备具体可以是图2c中的执行设备210,其中,数据存储***250可以存储执行设备210的待处理数据,数据存储***250可以集成在执行设备210上,也可以设置在云上或其它网络服务器上。
图2a和图2b中的处理器可以通过神经网络模型或者其它模型(例如,基于支持向量机的模型)进行数据训练/机器学习/深度学习,并利用数据最终训练或者学习得到的模型针对图像执行图像处理应用,从而得到相应的处理结果。
图3为本申请实施例提供的***100架构的一个示意图,在图3中,执行设备110配置输入/输出(input/output,I/O)接口112,用于与外部设备进行数据交互,用户可以通过客户设备140向I/O接口112输入数据,所述输入数据在本申请实施例中可以包括:各个待调度任务、可调用资源以及其他参数。
在执行设备110对输入数据进行预处理,或者在执行设备110的计算模块111执行计算等相关的处理(比如进行本申请中神经网络的功能实现)过程中,执行设备110可以调用数据存储***150中的数据、代码等以用于相应的处理,也可以将相应处理得到的数据、指令等存入数据存储***150中。
最后,I/O接口112将处理结果返回给客户设备140,从而提供给用户。
值得说明的是,训练设备120可以针对不同的目标或称不同的任务,基于不同的训练数据生成相应的目标模型/规则,该相应的目标模型/规则即可以用于实现上述目标或完成上述任务,从而为用户提供所需的结果。其中,训练数据可以存储在数据库130中,且来自于数据采集设备160采集的训练样本。
在图3中所示情况下,用户可以手动给定输入数据,该手动给定可以通过I/O接口112提供的界面进行操作。另一种情况下,客户设备140可以自动地向I/O接口112发送输入数据,如果要求客户设备140自动发送输入数据需要获得用户的授权,则用户可以在客户设备140中设置相应权限。用户可以在客户设备140查看执行设备110输出的结果,具体的呈现形式可以是显示、声音、动作等具体方式。客户设备140也可以作为数据采集端,采集如图所示输入I/O接口112的输入数据及输出I/O接口112的输出结果作为新的样本数据,并存入数据库130。当然,也可以不经过客户设备140进行采集,而是由I/O接口112直接将如图所示输入I/O接口112的输入数据及输出I/O接口112的输出结果,作为新的样本数据存入数据库130。
值得注意的是,图3仅是本申请实施例提供的一种***架构的示意图,图中所示设备、器件、模块等之间的位置关系不构成任何限制,例如,在图3中,数据存储***150相对执行设备110是外部存储器,在其它情况下,也可以将数据存储***150置于执行设备110中。如图3所示,可以根据训练设备120训练得到神经网络。
本申请实施例还提供的一种芯片,该芯片包括神经网络处理器NPU。该芯片可以被设置在如图3所示的执行设备110中,用以完成计算模块111的计算工作。该芯片也可以被设置在如图3所示的训练设备120中,用以完成训练设备120的训练工作并输出目标模型/规则。
神经网络处理器NPU,NPU作为协处理器挂载到主中央处理器(centralprocessing unit,CPU)(host CPU)上,由主CPU分配任务。NPU的核心部分为运算电路,控制器控制运算电路提取存储器(权重存储器或输入存储器)中的数据并进行运算。
在一些实现中,运算电路内部包括多个处理单元(process engine,PE)。在一些实现中,运算电路是二维脉动阵列。运算电路还可以是一维脉动阵列或者能够执行例如乘法和加法这样的数学运算的其它电子线路。在一些实现中,运算电路是通用的矩阵处理器。
举例来说,假设有输入矩阵A,权重矩阵B,输出矩阵C。运算电路从权重存储器中取矩阵B相应的数据,并缓存在运算电路中每一个PE上。运算电路从输入存储器中取矩阵A数据与矩阵B进行矩阵运算,得到的矩阵的部分结果或最终结果,保存在累加器(accumulator)中。
向量计算单元可以对运算电路的输出做进一步处理,如向量乘,向量加,指数运算,对数运算,大小比较等等。例如,向量计算单元可以用于神经网络中非卷积/非FC层的网络计算,如池化(pooling),批归一化(batch normalization),局部响应归一化(localresponse normalization)等。
在一些实现种,向量计算单元能将经处理的输出的向量存储到统一缓存器。例如,向量计算单元可以将非线性函数应用到运算电路的输出,例如累加值的向量,用以生成激活值。在一些实现中,向量计算单元生成归一化的值、合并值,或二者均有。在一些实现中,处理过的输出的向量能够用作到运算电路的激活输入,例如用于在神经网络中的后续层中的使用。
统一存储器用于存放输入数据以及输出数据。
权重数据直接通过存储单元访问控制器(direct memory access controller,DMAC)将外部存储器中的输入数据搬运到输入存储器和/或统一存储器、将外部存储器中的权重数据存入权重存储器,以及将统一存储器中的数据存入外部存储器。
总线接口单元(bus interface unit,BIU),用于通过总线实现主CPU、DMAC和取指存储器之间进行交互。
与控制器连接的取指存储器(instruction fetch buffer),用于存储控制器使用的指令;
控制器,用于调用指存储器中缓存的指令,实现控制该运算加速器的工作过程。
一般地,统一存储器,输入存储器,权重存储器以及取指存储器均为片上(On-Chip)存储器,外部存储器为该NPU外部的存储器,该外部存储器可以为双倍数据率同步动态随机存储器(double data rate synchronous dynamic random access memory,DDRSDRAM)、高带宽存储器(high bandwidth memory,HBM)或其他可读可写的存储器。
由于本申请实施例涉及大量神经网络的应用,为了便于理解,下面先对本申请实施例涉及的相关术语及神经网络等相关概念进行介绍。
(1)神经网络
神经网络可以是由神经单元组成的,神经单元可以是指以xs和截距1为输入的运算单元,该运算单元的输出可以为:
Figure BDA0003142604720000111
其中,s=1、2、……n,n为大于1的自然数,Ws为xs的权重,b为神经单元的偏置。f为神经单元的激活函数(activation functions),用于将非线性特性引入神经网络中,来将神经单元中的输入信号转换为输出信号。该激活函数的输出信号可以作为下一层卷积层的输入。激活函数可以是sigmoid函数。神经网络是将许多个上述单一的神经单元联结在一起形成的网络,即一个神经单元的输出可以是另一个神经单元的输入。每个神经单元的输入可以与前一层的局部接受域相连,来提取局部接受域的特征,局部接受域可以是由若干个神经单元组成的区域。
神经网络中的每一层的工作可以用数学表达式y=a(Wx+b)来描述:从物理层面神经网络中的每一层的工作可以理解为通过五种对输入空间(输入向量的集合)的操作,完成输入空间到输出空间的变换(即矩阵的行空间到列空间),这五种操作包括:1、升维/降维;2、放大/缩小;3、旋转;4、平移;5、“弯曲”。其中1、2、3的操作由Wx完成,4的操作由+b完成,5的操作则由a()来实现。这里之所以用“空间”二字来表述是因为被分类的对象并不是单个事物,而是一类事物,空间是指这类事物所有个体的集合。其中,W是权重向量,该向量中的每一个值表示该层神经网络中的一个神经元的权重值。该向量W决定着上文所述的输入空间到输出空间的空间变换,即每一层的权重W控制着如何变换空间。训练神经网络的目的,也就是最终得到训练好的神经网络的所有层的权重矩阵(由很多层的向量W形成的权重矩阵)。因此,神经网络的训练过程本质上就是学习控制空间变换的方式,更具体的就是学习权重矩阵。
因为希望神经网络的输出尽可能的接近真正想要预测的值,所以可以通过比较当前网络的预测值和真正想要的目标值,再根据两者之间的差异情况来更新每一层神经网络的权重向量(当然,在第一次更新之前通常会有初始化的过程,即为神经网络中的各层预先配置参数),比如,如果网络的预测值高了,就调整权重向量让它预测低一些,不断的调整,直到神经网络能够预测出真正想要的目标值。因此,就需要预先定义“如何比较预测值和目标值之间的差异”,这便是损失函数(loss function)或目标函数(objective function),它们是用于衡量预测值和目标值的差异的重要方程。其中,以损失函数举例,损失函数的输出值(loss)越高表示差异越大,那么神经网络的训练就变成了尽可能缩小这个loss的过程。
(2)反向传播算法
神经网络可以采用误差反向传播(back propagation,BP)算法在训练过程中修正初始的神经网络模型中参数的大小,使得神经网络模型的重建误差损失越来越小。具体地,前向传递输入信号直至输出会产生误差损失,通过反向传播误差损失信息来更新初始的神经网络模型中参数,从而使误差损失收敛。反向传播算法是以误差损失为主导的反向传播运动,旨在得到最优的神经网络模型的参数,例如权重矩阵。
下面从神经网络的训练侧和神经网络的应用侧对本申请提供的方法进行描述。
本申请实施例提供的模型训练方法,涉及图像的处理,具体可以应用于数据训练、机器学习、深度学习等数据处理方法,对训练数据(如本申请中的参考图像、待分类图像)进行符号化和形式化的智能信息建模、抽取、预处理、训练等,最终得到训练好的神经网络(如本申请中的图像分类模型);并且,本申请实施例提供的图像处理方法可以运用上述训练好的神经网络,将输入数据(如本申请中的参考图像、待分类图像)输入到所述训练好的神经网络中,得到输出数据(如本申请中参考图像的第一分类结果、待分类图像的第三分类结果等等)。需要说明的是,本申请实施例提供的模型训练方法和图像处理方法是基于同一个构思产生的发明,也可以理解为一个***中的两个部分,或一个整体流程的两个阶段:如模型训练阶段和模型应用阶段。
图4为本申请实施例提供的图像分类方法的一个流程示意图,该方法可利用图像分类模型对参考图像和待分类图像进行处理,从而确定待分类图像的类别,即待分类图像所呈现的物体所属的类别。其中,图像分类模型的结构如图5所示(图5为本申请实施例提供的图像分类模型的一个结构示意图),图像分类模型包含两个分支,其中一个分支包含第一特征提取模块以及第一分类模块,另一分支包含第二特征提取模块、特征融合模块、第二分类模块以及分类结果调整模块,下文将结合图4和图5,对本申请提供的图像分类方法进行具体介绍,该方法包括:
401、获取参考图像的第一特征和待分类图像的第二特征。
当需要确定待分类图像的类别时,可先获取与待分类图像相关的参考图像。需要说明的是,参考图像的数量一般大于待分类图像的数量,不同参考图像的类别通常是不同的(即不同的参考图像呈现有不同类别的物体),属于基础类别的参考图像的数量通常较多,属于新类别的参考图像的数量通常较少,待分类图像所属的类别通常为多个参考图像所属的类别的其中一个。例如,如图5所示,多个参考图像可分别为呈现汽车的图像、呈现飞机的图像等等,待分类图像可为呈现飞机的图像,其中,汽车类别为基础类别中的一种,飞机类别为新类别中的一种,基础类别还可包括图5未示出的自行车类别、摩托车类别等等,新类别还可包括图5未示出的高铁类别等等。
然后,将参考图像输入图像分类模型的第一特征提取模块,以通过第一特征提取模块可对参考图像进行特征提取处理,得到参考图像的第一特征。同样地,将待分类图像输入图像分类模型的第二特征提取模块,以通过第二特征提取模块对待分类图像进行特征提取处理,得到待分类图像的第二特征。
具体地,可将多个参考图像输入第一特征提取模块Es。对于任意一个参考图像Si(即第i个参考图像),第一特征提取模块Es可对参考图像Si进行特征提取处理,得到参考图像Si的第一特征Es(Si)。同样地,可将待分类图像Q输入第二特征提取模块Eq,第二特征提取模块Eq可将待分类图像分成多个子图像块。对于任意一个子图像块Qj(即第j个图像块),第二特征提取模块Eq可对其进行特征提取,得到待分类图像Q的子图像块Qj的第二特征Eq(Qj)。
402、根据第一特征和第二特征,生成第三特征。
第一特征提取模块得到参考图像的第一特征后,可将参考图像的第一特征发送至特征融合模块。同样地,第二特征提取模块得到待分类图像的第二特征后,可将待分类图像的第二特征输入到特征融合模块。如此一来,特征融合模块可对第一特征和第二特征进行特征融合处理,从而待分类图像的第三特征。其中,特征融合处理可包括相加处理、相乘处理、相减处理、级联处理和级联卷积处理中的至少一个。
具体地,第一特征提取模块Es可将所有参考图像的第一特征输入至特征融合模块T,第二特征提取模块Eq可将待分类图像的所有子图像块的第二特征输入至特征融合模块T。因此,特征融合模块T可将所有参考图像的第一特征以及待分类图像的所有子图像块的第二特征进行特征融合,得到多个第三特征。例如,特征融合模块T可对参考图像Si的第一特征Es(Si)以及子图像块Qj的第二特征Eq(Qj)进行特征融合,得到第三特征T(Si,Qj)。那么,第三特征T(Si,Qj)可以认为是待分类图像Q的子图像块Qj在参考图像Si的作用下,所得的第三特征。此外,还可得到待分类图像Q的子图像块Qj在其余参考图像的作用下所得到的第三特征。因此,待分类图像Q的子图像块Qj在各个参考图像的作用下所得到的第三特征,可以认为是待分类图像Q的子图像块Qj的第三特征。如此一来,则可以得到待分类图像Q中各个子图像块的第三特征(即待分类图像Q的第三特征)。
403、根据第一特征生成第一分类结果,第一分类结果用于确定参考图像的类别。
第一特征提取模块得到参考图像的第一特征后,还可将参考图像的第一特征输入至第一分类模块。那么,第一分类模块可根据参考图像的第一特征计算参考图像属于各个类别的概率,得到第一分类结果(即参考图像的最终分类结果)。由于第一分类结果包含参考图像属于各个类别的概率(即参考图像呈现的目标物体属于各个类别的概率),故可根据第一分类结果可确定参考图像的类别。此外,第一分类结果还可包含目标物体在参考图像中的位置信息(例如,二维坐标等等)。
例如,设参考图像为呈现自行车的图像,第一分类模块得到该图像的第一特征后,可根据该图像的第一特征计算该图像属于汽车、飞机、火车、自行车等各个类别的概率,得到该图像的第一分类结果,该分类结果包含该图像属于汽车类别的概率、该图像属于飞机类别的概率、该图像属于火车类别的概率、该图像属于自行车类别的概率等等,故基于这些概率的大小,可确定该图像所属的类别(一般地,该分类结果中,该图像属于自行车的概率是最大的,故可确定该图像属于自行车类别)。此外,该分类结果还可包含自行车在该图像中的二维坐标。
具体地,第一特征提取模块Es可将所有参考图像的第一特征输入至第一分类模块Ps。对于任意一个参考图像Si的第一特征Es(Si),第一分类模块Ps可对其进行计算,得到参考图像Si的第一分类结果
Figure BDA0003142604720000141
其中,
Figure BDA0003142604720000142
为参考图像Si的目标物体在参考图像Si中的坐标,
Figure BDA0003142604720000143
为参考图像Si属于各个类别的概率(即参考图像Si的类别概率分布)。那么,从
Figure BDA0003142604720000144
中确定参考图像Si属于某个类别的概率最大后,则可确定参考图像Si属于该类别。
404、根据第三特征生成第二分类结果。
特征融合模块得到待分类图像的第三特征后,可将第三特征发送至第二分类模块。那么,第二分类模块可根据待分类图像的第三特征计算待分类图像属于各个类别的概率,得到第二分类结果。由于第二分类结果包含待分类图像属于各个类别的概率(即待分类图像呈现的目标物体属于各个类别的概率),故第二分类结果可用于确定待分类图像的类别(但本申请实施例并不利用第二分类结果来确定待分类图像的类别,此处先不做展开)。此外,第二分类结果还可包含目标物体在待分类图像中的位置信息(例如,二维坐标等等)。
例如,设待分类图像为呈现飞机的图像,第二分类模块得到该图像的第三特征后,可根据该图像的第三特征计算该图像属于汽车、飞机、火车、自行车等各个类别的概率,得到该图像的第二分类结果,该分类结果包含该图像属于汽车类别的概率、该图像属于飞机类别的概率、该图像属于火车类别的概率、该图像属于自行车类别的概率等等,故该分类结果可用于确定该图像所属的类别(但本申请实施例并不这么操作,此处先不做展开)。此外,该分类结果还可包含飞机在该图像中的二维坐标。
具体地,特征融合模块T可将所有子图像块的第三特征发送至第二分类模块Pq,对于任意一个子图像块Qj在参考图像Si的作用下所得到的第三特征T(Si,Qj),第二分类模块Pq可对其进行计算,得到子图像块Qj在参考图像Si的作用下的第二分类结果
Figure BDA0003142604720000145
为子图像块Qj在待分类图像Q中的坐标,
Figure BDA0003142604720000146
为子图像块Qj属于各个类别的概率。那么,可以得到子图像块Qj在各个参考图像的作用下的第二分类结果(即子图像块Qj的第二分类结果)。同样地,也可以得到其余图像块在各个参考图像的作用下的第二分类结果(即其余图像块的第二分类结果)。得到所有图像块的第二分类结果后,相当于得到待分类图像Q的第二分类结果。
然而,相关技术在模型的训练过程中,用于训练的参考图像中,由于基础类别(例如,汽车、自行车等等)的图像较多,而新类别(例如,飞机等等)的图像较少,基于这些参考图像所训练得到的模型,容易在图像分类过程中,将新类别拟合到基础类别上,即模型在对属于新类别的待分类图像进行分类时,容易将待分类图像误判为属于基础类别的图像。因此,如果直接用待分类图像的第二分类结果,来确定待分类图像的类别,是不够准确的,故需要对待分类图像的第二分类结果进行调整。
405、根据第一分类结果和第二分类结果,生成第三分类结果,第三分类结果用于确定待分类图像的类别。
第一分类模块得到参考图像的第一分类结果后,可将参考图像的第一分类结果发送至分类结果调整模块。同样地,第二分类模块得到待分类图像的第二分类结果后,可将待分类图像的第二分类结果发送至分类结果调整模块。那么,分类结果调整模块可利用参考图像的第一分类结果对待分类图像的第二分类结果进行调整,以得到待分类图像的第三分类结果(即待分类图像的最终分类结果),此后,可以基于待分类图像的第三分类结果确定待分类图像的类别。分类结果调整模块可通过多种方式调整第二分类结果,下文将分别进行介绍:
在一种可能的实现方式中,分类结果调整模块将参考图像的第一分类结果和待分类图像的第二分类结果进行相加处理,得到待分类图像的第三分类结果。
具体地,对于子图像块Qj在参考图像Si的作用下的第二分类结果
Figure BDA0003142604720000151
可将其与参考图像Si的第一分类结果
Figure BDA0003142604720000152
相加,可得到子图像块Qj在参考图像Si的作用下的第三分类结果
Figure BDA0003142604720000153
即:
Figure BDA0003142604720000154
通过上述公式,可得到子图像块Qj在各个参考图像的作用下的第三分类结果,基于这些分类结果,可以确定子图像块Qj的类别。以此类推,则可以得到每个子图像块在各个参考图像的作用下的第三分类结果(相当于得到所有子图像块的第三分类结果,即待分类图像Q的第三分类结果),如此一来,则可以确定待分类图像Q中每个子图像块的类别。由于待分类图像Q呈现的目标物体分布在子图像块上,当大部分子图像块的类别为同一类别时,这些子图像块的类别即为待分类图像Q的类别(即待分类图像Q呈现的目标物体的类别),且这些子图像块在待分类图像Q的坐标即为目标物体在待分类图像Q中的坐标。
在另一种可能的实现方式中,分类结果调整模块可先将参考图像的第一分类结果和待分类图像的第二分类结果进行相加处理,得到待分类图像的第四分类结果。然后,分类结果调整模块将参考图像的第一分类结果与图像分类模型的模型参数进行相加处理,得到参考图像的第五分类结果。接着,分类结果调整模块将参考图像的第五分类结果与预置的权重参数进行相乘处理,得到参考图像的第六分类结果。最后,分类结果调整模块将待分类图像的第四分类结果与参考图像的第六分类结果进行相减处理,得到待分类图像的第三分类结果。
具体地,对于子图像块Qj在参考图像Si的作用下的第二分类结果
Figure BDA0003142604720000161
可将其与参考图像Si的第一分类结果
Figure BDA0003142604720000162
相加,可得到子图像块Qj在参考图像Si的作用下的第四分类结果
Figure BDA0003142604720000163
值得注意的是,当参考图像Si的类别与待分类图像Q的类别相同时,参考图像Si的第一分类结果
Figure BDA0003142604720000164
对子图像块Qj在参考图像Si的作用下的第二分类结果
Figure BDA0003142604720000165
的调整作用是正面的。当参考图像Si的类别与待分类图像Q的类别不相同时,参考图像Si的第一分类结果
Figure BDA0003142604720000166
对子图像块Qj在参考图像Si的作用下的第二分类结果
Figure BDA0003142604720000167
的调整作用是负面的。可见,为了使最终分类结果足够准确,需要平衡这两种情况所带来的影响。
下文将结合图6对上述平衡过程进行介绍,图6为本申请实施例提供的因果图的一个示意图。如图6所示,将图像分类模型转化为因果图,其中,S表示参考图像的特征,Q表示待分类图像的特征,F表示参考图像和待分类图像的融合特征,P为待分类图像的最终分类结果。其中,S→P表示S为P的因,P为S的果。
设s、p和f分别为S、Q和F的有效值(通过对图像进行计算得到),s*、p*和f*分别为S、Q和F的无效值(即将S、Q和F均设为0)。通过计算各个变量为有效值和无效值时,对最终分类结果的差别,可以分析各个变量对最终分类结果的因果作用。
S对P的全部因果作用(total effect,TE),可以记为:
TE=Ps,q,f-Ps*,q*,f* (3)
上式中,Ps,q,f为S、Q和F均为有效值时,所得到的最终分类结果。Ps*,q*,f*为S、Q和F均为无效值时,所得到的最终分类结果。
S对P的直接因果作用(natural direct effect,NDE)可以记为:
NDE=Ps,q*,f*-Ps*,q*,f* (4)
上式中,Ps,q*,f*为S为有效值,且Q和F均为无效值时,所得到的最终分类结果。那么,S对P的间接因果作用(total indirect effect,TIE),即:
TIE=TE-NDE=Ps,q,f-Ps,q*,f* (5)
由于S对P的TE等于S对P的TIE与S对P的NDE之和,那么,基于TE和Ps,q,f之间的关系(即公式(5)),可以得到:
NDE+TIE+Ps*,q*,f*=Ps,q,f (6)
为了削弱S对P的NDE对最终分类结果的影响,可以适当将NDE减小,得到新的最终分类结果:
Figure BDA0003142604720000168
式中,α通常大于0且小于1,其具体取值可根据实际需求进行设置。
Figure BDA0003142604720000169
为新的最终分类结果。如此一来,将公式(4)和公式(5)代入公式(7)可得:
Figure BDA0003142604720000171
得到公式(8)后,可将子图像块Qj在参考图像Si的作用下的第四分类结果
Figure BDA0003142604720000172
作为原始的最终分类结果(即代入公式(8)中的Ps,q,f)。相应的,Ps,q*,f*
Figure BDA0003142604720000173
Figure BDA0003142604720000174
A为已训练的图像分类模型中,特征融合模块和分类结果调整模块的模型参数(可以认为是一个常量)。Ps*,q*,f*为B,B为整个已训练的图像分类模型的模型参数(也是一个常量)。那么,可得到相应新的最终分类结果(即子图像块Qj在参考图像Si的作用下的第三分类结果):
Figure BDA0003142604720000175
基于公式(9)可得到子图像块Qj在参考图像Si的作用下的第三分类结果,以此类推,则可得到子图像块Qj在所有参考图像的作用下的第三分类结果(相当于得到子图像块Qj的第三分类结果),基于这些分类结果,可确定子图像块Qj的类别。同样地,也就可以得到每个子图像块在所有参考图像的作用下的第三分类结果(相当于得到每个子图像块的第三分类结果,即待分类图像Q的第三分类结果),如此一来,则可以确定待分类图像Q中每个子图像块的类别。由于待分类图像Q呈现的目标物体分布在子图像块上,当大部分子图像块的类别为同一类别时,这些子图像块的类别即为待分类图像Q的类别(即待分类图像Q呈现的目标物体的类别),且这些子图像块在待分类图像Q的坐标即为目标物体在待分类图像Q中的坐标。
需要说明的是,在公式(9)中,(1-α)等同于前述预置的权重参数,A-B等同于前述图像分类模型的模型参数,
Figure BDA0003142604720000176
以及
Figure BDA0003142604720000177
等同于前述参考图像的第五分类结果,
Figure BDA0003142604720000178
以及
Figure BDA0003142604720000179
等同于前述参考图像的第六分类结果。
此外,可将本申请实施例提供的图像分类模型与相关技术的图像分类模型进行比较。具体地,可利用相同的测试样本(包含参考图像和待分类图像),输入至本申请实施例提供的图像分类模型与相关技术的图像分类模型进行测试,得到的结果如表1至表4所示。其中,第一测试样本中属于新类别的参考图像有10张,第二测试样本中属于新类别的参考图像有30张,且第一测试样本和第二测试样本中属于基础类别的参考图像远大于30张。
在表1和表3中,示意出六种条件下的平均精确率,六个条件分别为:交并比从0.5到0.95(步长为0.05)、交并比等于0.5、交并比等于0.75、检测大尺度物体(包含的像素较多)、检测中尺度物体(包含的像素适中)和检测小尺度物体(包含的像素较少)。其中,交并比表示待分类图像中目标物体的预测位置(即包含目标物体的预测检测框)与真实位置(即包含目标物体的真实检测框)之间的比值。在表2和表4中,示意出六种条件下的平均召回率,六个条件分别为:设置一个检测框、设置10个检测框、设置100个检测框、检测大尺度物体、检测中尺度物体和检测小尺度物体。表1至表4分别为:
表1
Figure BDA0003142604720000181
表2
Figure BDA0003142604720000182
表3
Figure BDA0003142604720000191
表4
Figure BDA0003142604720000192
可见,本申请实施例提供的模型的性能明显优于相关技术的模型的性能。
本申请实施例中,在将参考图像和待分类图像输入至图像分类模型后,图像分类模型可实现以下步骤:获取参考图像的第一特征和待分类图像的第二特征。接着,根据第一特征和第二特征,生成第三特征。然后,根据第一特征生成第一分类结果,第一分类结果可用于确定参考图像的类别,并根据第三特征生成第二分类结果。最后,根据第一分类结果和第二分类结果生成第三分类结果。得到第三分类结果,可基于该结果确定待分类图像的类别。可见,图像分类模型生成待分类图像的第三分类结果的过程中,融入了参考图像的第一分类结果,相当于图像分类模型着重关注到参考图像的类别信息,无论参考图像的类别是新类别还是基础类别,模型均能注意到参考图像的类别,在待分类图像的分类过程中所造成的影响,故模型不会将新类别拟合到基础类别上,即待分类图像为属于新类别的图像时,图像分类模型可准确判断待分类图像的类别为新类别中的某一类别,而不会将待分类图像的类别误判为基础类别中的某一类别,从而提高图像分类的准确率。
以上是对本申请实施例提供的图像分类方法所进行的详细说明,以下将对本申请实施例提供的模型训练方法进行介绍。图7为本申请实施例提供的模型训练方法的一个流程示意图。如图7所示,该方法包括:
701、获取参考图像和待分类图像。
在需要对待训练模型进行训练时,可获取一批训练样本,即用于训练的参考图像和待分类图像。其中,待训练模型包含两个分支,其中一个分支包含第一特征提取模块以及第一分类模块,另一分支包含第二特征提取模块、特征融合模块、第二分类模块以及分类结果调整模块。值得注意的是,参考图像的第一真实类别以及待分类图像的第二真实类别是已知的。关于参考图像和待分类图像的介绍,可参考图4所示实施例中步骤401的相关说明部分,此处不再赘述。
702、将参考图像和待分类图像输入至待训练模型,得到待分类图像的第三分类结果,待训练模型用于:获取参考图像的第一特征和待分类图像的第二特征;根据第一特征和第二特征,生成第三特征;根据第一特征生成第一分类结果;根据第三特征生成第二分类结果;根据第一分类结果和第二分类结果,生成第三分类结果。
得到参考图像和待分类图像后,可将参考图像输入至第一特征模块,以通过第一特征提取模块可对参考图像进行特征提取处理,得到参考图像的第一特征。同样地,将待分类图像输入至第二特征模块,以通过第二特征提取模块对待分类图像进行特征提取处理,得到待分类图像的第二特征。
第一特征提取模块得到参考图像的第一特征后,可将参考图像的第一特征发送至特征融合模块。同样地,第二特征提取模块得到待分类图像的第二特征后,可将待分类图像的第二特征输入到特征融合模块。如此一来,特征融合模块可对第一特征和第二特征进行特征融合处理,从而待分类图像的第三特征。
第一特征提取模块得到参考图像的第一特征后,还可将参考图像的第一特征输入至第一分类模块。那么,第一分类模块可根据参考图像的第一特征计算参考图像属于各个类别的概率,得到第一分类结果。
特征融合模块得到待分类图像的第三特征后,可将第三特征发送至第二分类模块。那么,第二分类模块可根据待分类图像的第三特征计算待分类图像属于各个类别的概率,得到第二分类结果。
第一分类模块得到参考图像的第一分类结果后,可将参考图像的第一分类结果发送至分类结果调整模块。同样地,第二分类模块得到待分类图像的第二分类结果后,可将待分类图像的第二分类结果发送至分类结果调整模块。那么,分类结果调整模块可利用参考图像的第一分类结果对待分类图像的第二分类结果进行调整,以得到待分类图像的第三分类结果。具体地,分类结果调整模块可通过多种方式获取第三分类结果:
在一种可能的实现方式中,分类结果调整模块将参考图像的第一分类结果与待分类图像的第二分类结果进行相加处理,得到待分类图像的第三分类结果。
应理解,在对模型的训练过程中,可不用平衡参考图像的第一分类结果对待分类图像的第二分类结果所带来的正面影响和负面影响,但在模型的实际应用过程中(即图4所示实施例中)可平衡两种影响。
关于待训练模型获取参考图像的第一分类结果和待分类图像的第三分类结果的过程,可参考前述图4所示实施例中步骤401至步骤405的相关说明部分,此处不再赘述。
703、根据第一分类结果确定参考图像的第一预测类别,并根据第三分类结果确定待分类图像的第二预测类别。
通过待训练模型得到参考图像的第一分类结果和待分类图像的第三分类结果后,可根据参考图像的第一分类结果确定参考图像的第一预测类别,并根据待分类图像的第三分类结果确定待分类图像的第二预测类别。
704、根据参考图像的第一真实类别、第一预测类别,待分类图像的第二真实类别以及第二预测类别,获取目标损失,目标损失用于指示第一真实类别与第一预测类别之间的差异,以及第二真实类别与第二预测类别之间的差异。
得到参考图像的第一预测类别和待分类图像的第二预测类别后,可根据参考图像的第一真实类别、第一预测类别,待分类图像的第二真实类别以及第二预测类别进行计算,以得到目标损失。具体的,可通过多种方式获取目标损失:
在一种可能的实现方式中,通过第一目标函数对参考图像的第一预测类别以及第一真实类别进行计算,从而得到第一子损失,第一子损失用于指示第一真实类别与第一预测类别之间的差异,并通过第二目标函数对待分类图像的第二预测类别以及第二真实类别进行计算,从而得到第二子损失,第二子损失用于指示第二真实类别与第二预测类别之间的差异。得到第一子损失和第二子损失后,将第一子损失和第二子损失进行相加,得到目标损失。
705、根据目标损失对待训练模型的模型参数进行更新,直至满足模型训练条件,得到图像分类模型。
得到目标损失后,可基于目标损失对待训练模型的模型参数进行更新,并利用下一批训练样本对更新参数后的待训练模型进行训练(即重新执行步骤702至步骤705),直至满足模型训练条件(例如,目标损失达到收敛等等),可得到图像分类模型。
本申请实施例训练得到的图像分类模型,具备利用参考图像对待分类图像进行分类的能力。在图像分类的过程中,图像分类模型可着重关注到参考图像的类别信息,无论参考图像的类别是新类别还是基础类别,模型均能注意到参考图像的类别在待分类图像的分类过程中所造成的影响,故模型不会将新类别拟合到基础类别上,即待分类图像为属于新类别的图像时,图像分类模型可准确判断待分类图像的类别为新类别中的某一类别,而不会将待分类图像的类别误判为基础类别中的某一类别,从而提高图像分类的准确率。
以上是对本申请实施例提供的模型训练方法所进行的详细说明,以下将对本申请实施例提供的图像分类装置和模型训练装置分别进行介绍。图8为本申请实施例提供的图像分类装置的一个结构示意图。如图8所示,该装置包括:
特征提取模块801,用于获取参考图像的第一特征和待分类图像的第二特征;
特征融合模块802,用于根据第一特征和第二特征,生成第三特征;
第一分类模块803,用于根据第一特征生成第一分类结果,第一分类结果用于确定参考图像的类别;
第二分类模块804,用于根据第三特征生成第二分类结果;
分类结果调整模块805,用于根据第一分类结果和第二分类结果,生成第三分类结果,第三分类结果用于确定待分类图像的类别。
在一种可能的实现方式中,分类结果调整模块805,用于将第一分类结果和第二分类结果进行相加处理,得到第三分类结果。
在一种可能的实现方式中,分类结果调整模块805,用于:将第一分类结果和第二分类结果进行相加处理,得到第四分类结果;将第一分类结果与图像分类模型的模型参数进行相加处理,得到第五分类结果;将第五分类结果与预置的权重参数进行相乘处理,得到第六分类结果;将第四分类结果与第六分类结果进行相减处理,得到第三分类结果。
在一种可能的实现方式中,第一分类模块803,用于根据第一特征计算参考图像属于各个类别的概率,得到第一分类结果;第二分类模块804,用于根据第三特征计算待分类图像属于各个类别的概率,得到第二分类结果。
在一种可能的实现方式中,特征融合模块802,用于对第一特征和第二特征进行特征融合处理,得到第三特征。
在一种可能的实现方式中,特征融合处理包括相加处理、相乘处理、相减处理、级联处理和级联卷积处理中的至少一个。
在一种可能的实现方式中,特征提取模块801包括第一特征提取模块和第二特征提取模块,其中,第一特征提取模块用于对参考图像进行特征提取处理,得到第一特征;第二特征提取模块用于对待分类图像进行特征提取处理,得到第二特征。
图9为本申请实施例提供的模型训练装置的一个结构示意图。如图9所示,该装置包括:
获取模块901,用于获取参考图像和待分类图像;
处理模块902,用于将参考图像和待分类图像输入至待训练模型,得到待分类图像的第三分类结果,待训练模型用于:获取参考图像的第一特征和待分类图像的第二特征;根据第一特征和第二特征,生成第三特征;根据第一特征生成第一分类结果;根据第三特征生成第二分类结果;根据第一分类结果和第二分类结果,生成第三分类结果;
确定模块903,用于根据第一分类结果确定参考图像的第一预测类别,并根据第三分类结果确定待分类图像的第二预测类别;
计算模块904,用于根据参考图像的第一真实类别、第一预测类别,待分类图像的第二真实类别以及第二预测类别,获取目标损失,目标损失用于指示第一真实类别与第一预测类别之间的差异,以及第二真实类别与第二预测类别之间的差异;
更新模块905,用于根据目标损失对待训练模型的模型参数进行更新,直至满足模型训练条件,得到图像分类模型。
在一种可能的实现方式中,计算模块904,用于根据参考图像的第一真实类别以及第一预测类别,获取第一子损失,第一子损失用于指示第一真实类别与第一预测类别之间的差异;根据待分类图像的第二真实类别以及第二预测类别,获取第二子损失,第二子损失用于指示第二真实类别与第二预测类别之间的差异;将第一子损失和第二子损失进行相加处理,得到目标损失。
在一种可能的实现方式中,待训练模型用于将第一分类结果和第二分类结果进行相加处理,得到第三分类结果。
在一种可能的实现方式中,待训练模型用于:根据第一特征计算参考图像属于各个类别的概率,得到第一分类结果;根据第三特征计算待分类图像属于各个类别的概率,得到第二分类结果。
在一种可能的实现方式中,待训练模型用于对第一特征和第二特征进行特征融合处理,得到第三特征。
在一种可能的实现方式中,特征融合处理包括相加处理、相乘处理、相减处理、级联处理和级联卷积处理中的至少一个。
在一种可能的实现方式中,待训练模型用于:对参考图像进行特征提取处理,得到第一特征;对待分类图像进行特征提取处理,得到第二特征。
需要说明的是,上述装置各模块/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其带来的技术效果与本申请方法实施例相同,具体内容可参考本申请实施例前述所示的方法实施例中的叙述,此处不再赘述。
本申请实施例还涉及一种执行设备,图10为本申请实施例提供的执行设备的一个结构示意图。如图10所示,执行设备1000具体可以表现为手机、平板、笔记本电脑、智能穿戴设备、服务器等,此处不做限定。其中,执行设备1000上可部署有图8对应实施例中所描述的图像分类装置,用于实现图4对应实施例中图像分类的功能。具体的,执行设备1000包括:接收器1001、发射器1002、处理器1003和存储器1004(其中执行设备1000中的处理器1003的数量可以一个或多个,图10中以一个处理器为例),其中,处理器1003可以包括应用处理器10031和通信处理器10032。在本申请的一些实施例中,接收器1001、发射器1002、处理器1003和存储器1004可通过总线或其它方式连接。
存储器1004可以包括只读存储器和随机存取存储器,并向处理器1003提供指令和数据。存储器1004的一部分还可以包括非易失性随机存取存储器(non-volatile randomaccess memory,NVRAM)。存储器1004存储有处理器和操作指令、可执行模块或者数据结构,或者它们的子集,或者它们的扩展集,其中,操作指令可包括各种操作指令,用于实现各种操作。
处理器1003控制执行设备的操作。具体的应用中,执行设备的各个组件通过总线***耦合在一起,其中总线***除包括数据总线之外,还可以包括电源总线、控制总线和状态信号总线等。但是为了清楚说明起见,在图中将各种总线都称为总线***。
上述本申请实施例揭示的方法可以应用于处理器1003中,或者由处理器1003实现。处理器1003可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器1003中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器1003可以是通用处理器、数字信号处理器(digital signal processing,DSP)、微处理器或微控制器,还可进一步包括专用集成电路(application specific integratedcircuit,ASIC)、现场可编程门阵列(field-programmable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。该处理器1003可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器1004,处理器1003读取存储器1004中的信息,结合其硬件完成上述方法的步骤。
接收器1001可用于接收输入的数字或字符信息,以及产生与执行设备的相关设置以及功能控制有关的信号输入。发射器1002可用于通过第一接口输出数字或字符信息;发射器1002还可用于通过第一接口向磁盘组发送指令,以修改磁盘组中的数据;发射器1002还可以包括显示屏等显示设备。
本申请实施例中,在一种情况下,处理器1003,用于通过图4对应实施例中的图像分类模型,对图像进行图像物体检测。
本申请实施例还涉及一种训练设备,图11为本申请实施例提供的训练设备的一个结构示意图。如图11所示,训练设备1100由一个或多个服务器实现,训练设备1100可因配置或性能不同而产生比较大的差异,可以包括一个或一个以***处理器(centralprocessing units,CPU)1114(例如,一个或一个以上处理器)和存储器1132,一个或一个以上存储应用程序1142或数据1144的存储介质1130(例如一个或一个以上海量存储设备)。其中,存储器1132和存储介质1130可以是短暂存储或持久存储。存储在存储介质1130的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对训练设备中的一系列指令操作。更进一步地,中央处理器1114可以设置为与存储介质1130通信,在训练设备1100上执行存储介质1130中的一系列指令操作。
训练设备1100还可以包括一个或一个以上电源1126,一个或一个以上有线或无线网络接口1150,一个或一个以上输入输出接口1158;或,一个或一个以上操作***1141,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
具体的,训练设备可以执行图7对应实施例中的模型训练方法。
本申请实施例还涉及一种计算机存储介质,该计算机可读存储介质中存储有用于进行信号处理的程序,当其在计算机上运行时,使得计算机执行如前述执行设备所执行的步骤,或者,使得计算机执行如前述训练设备所执行的步骤。
本申请实施例还涉及一种计算机程序产品,该计算机程序产品存储有指令,该指令在由计算机执行时使得计算机执行如前述执行设备所执行的步骤,或者,使得计算机执行如前述训练设备所执行的步骤。
本申请实施例提供的执行设备、训练设备或终端设备具体可以为芯片,芯片包括:处理单元和通信单元,所述处理单元例如可以是处理器,所述通信单元例如可以是输入/输出接口、管脚或电路等。该处理单元可执行存储单元存储的计算机执行指令,以使执行设备内的芯片执行上述实施例描述的数据处理方法,或者,以使训练设备内的芯片执行上述实施例描述的数据处理方法。可选地,所述存储单元为所述芯片内的存储单元,如寄存器、缓存等,所述存储单元还可以是所述无线接入设备端内的位于所述芯片外部的存储单元,如只读存储器(read-only memory,ROM)或可存储静态信息和指令的其他类型的静态存储设备,随机存取存储器(random access memory,RAM)等。
具体的,请参阅图12,图12为本申请实施例提供的芯片的一个结构示意图,所述芯片可以表现为神经网络处理器NPU 1200,NPU 1200作为协处理器挂载到主CPU(Host CPU)上,由Host CPU分配任务。NPU的核心部分为运算电路1203,通过控制器1204控制运算电路1203提取存储器中的矩阵数据并进行乘法运算。
在一些实现中,运算电路1203内部包括多个处理单元(Process Engine,PE)。在一些实现中,运算电路1203是二维脉动阵列。运算电路1203还可以是一维脉动阵列或者能够执行例如乘法和加法这样的数学运算的其它电子线路。在一些实现中,运算电路1203是通用的矩阵处理器。
举例来说,假设有输入矩阵A,权重矩阵B,输出矩阵C。运算电路从权重存储器1202中取矩阵B相应的数据,并缓存在运算电路中每一个PE上。运算电路从输入存储器1201中取矩阵A数据与矩阵B进行矩阵运算,得到的矩阵的部分结果或最终结果,保存在累加器(accumulator)1208中。
统一存储器1206用于存放输入数据以及输出数据。权重数据直接通过存储单元访问控制器(Direct Memory Access Controller,DMAC)1205,DMAC被搬运到权重存储器1202中。输入数据也通过DMAC被搬运到统一存储器1206中。
BIU为Bus Interface Unit即,总线接口单元1213,用于AXI总线与DMAC和取指存储器(Instruction Fetch Buffer,IFB)1209的交互。
总线接口单元1213(Bus Interface Unit,简称BIU),用于取指存储器1209从外部存储器获取指令,还用于存储单元访问控制器1205从外部存储器获取输入矩阵A或者权重矩阵B的原数据。
DMAC主要用于将外部存储器DDR中的输入数据搬运到统一存储器1206或将权重数据搬运到权重存储器1202中或将输入数据数据搬运到输入存储器1201中。
向量计算单元1207包括多个运算处理单元,在需要的情况下,对运算电路1203的输出做进一步处理,如向量乘,向量加,指数运算,对数运算,大小比较等等。主要用于神经网络中非卷积/全连接层网络计算,如Batch Normalization(批归一化),像素级求和,对预测标签平面进行上采样等。
在一些实现中,向量计算单元1207能将经处理的输出的向量存储到统一存储器1206。例如,向量计算单元1207可以将线性函数;或,非线性函数应用到运算电路1203的输出,例如对卷积层提取的预测标签平面进行线性插值,再例如累加值的向量,用以生成激活值。在一些实现中,向量计算单元1207生成归一化的值、像素级求和的值,或二者均有。在一些实现中,处理过的输出的向量能够用作到运算电路1203的激活输入,例如用于在神经网络中的后续层中的使用。
控制器1204连接的取指存储器(instruction fetch buffer)1209,用于存储控制器1204使用的指令;
统一存储器1206,输入存储器1201,权重存储器1202以及取指存储器1209均为On-Chip存储器。外部存储器私有于该NPU硬件架构。
其中,上述任一处提到的处理器,可以是一个通用中央处理器,微处理器,ASIC,或一个或多个用于控制上述程序执行的集成电路。
另外需说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本申请提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件的方式来实现,当然也可以通过专用硬件包括专用集成电路、专用CPU、专用存储器、专用元器件等来实现。一般情况下,凡由计算机程序完成的功能都可以很容易地用相应的硬件来实现,而且,用来实现同一功能的具体硬件结构也可以是多种多样的,例如模拟电路、数字电路或专用电路等。但是,对本申请而言更多情况下软件程序实现是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在可读取的存储介质中,如计算机的软盘、U盘、移动硬盘、ROM、RAM、磁碟或者光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,训练设备,或者网络设备等)执行本申请各个实施例所述的方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。
所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、训练设备或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、训练设备或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存储的任何可用介质或者是包含一个或多个可用介质集成的训练设备、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘(Solid State Disk,SSD))等。

Claims (19)

1.一种图像分类方法,其特征在于,所述方法通过图像分类模型实现,所述方法包括:
获取参考图像的第一特征和待分类图像的第二特征;
根据所述第一特征和所述第二特征,生成第三特征;
根据所述第一特征生成第一分类结果,所述第一分类结果用于确定所述参考图像的类别;
根据所述第三特征生成第二分类结果;
根据所述第一分类结果和所述第二分类结果,生成第三分类结果,所述第三分类结果用于确定所述待分类图像的类别。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一分类结果和所述第二分类结果,生成第三分类结果包括:
将所述第一分类结果和所述第二分类结果进行相加处理,得到所述第三分类结果。
3.根据权利要求1所述的方法,其特征在于,所述根据所述第一分类结果和所述第二分类结果,生成第三分类结果包括:
将所述第一分类结果和所述第二分类结果进行相加处理,得到第四分类结果;
将所述第一分类结果与所述图像分类模型的模型参数进行相加处理,得到第五分类结果;
将所述第五分类结果与预置的权重参数进行相乘处理,得到第六分类结果;
将所述第四分类结果与所述第六分类结果进行相减处理,得到第三分类结果。
4.根据权利要求1至3任意一项所述的方法,其特征在于,所述根据所述第一特征生成第一分类结果包括:
根据所述第一特征计算所述参考图像属于各个类别的概率,得到第一分类结果;
所述根据所述第三特征生成第二分类结果包括:
根据所述第三特征计算所述待分类图像属于各个类别的概率,得到第二分类结果。
5.根据权利要求1至4任意一项所述的方法,其特征在于,所述根据所述第一特征和所述第二特征,生成第三特征,包括:
对所述第一特征和所述第二特征进行特征融合处理,得到所述第三特征。
6.根据权利要求5所述的方法,其特征在于,所述特征融合处理包括相加处理、相乘处理、相减处理、级联处理和级联卷积处理中的至少一个。
7.根据权利要求1至6任意一项所述的方法,其特征在于,所述获取参考图像的第一特征和待分类图像的第二特征包括:
对参考图像进行特征提取处理,得到第一特征;
对待分类图像进行特征提取处理,得到第二特征。
8.一种模型训练方法,其特征在于,所述方法包括:
获取参考图像和待分类图像;
将所述参考图像和所述待分类图像输入至待训练模型,得到所述待分类图像的第三分类结果,所述待训练模型用于:获取参考图像的第一特征和待分类图像的第二特征;根据所述第一特征和所述第二特征,生成第三特征;根据所述第一特征生成第一分类结果;根据所述第三特征生成第二分类结果;根据所述第一分类结果和所述第二分类结果,生成第三分类结果;
根据所述第一分类结果确定所述参考图像的第一预测类别,并根据所述第三分类结果确定所述待分类图像的第二预测类别;
根据所述参考图像的第一真实类别、所述第一预测类别,所述待分类图像的第二真实类别以及所述第二预测类别,获取目标损失,所述目标损失用于指示所述第一真实类别与所述第一预测类别之间的差异,以及所述第二真实类别与所述第二预测类别之间的差异;
根据所述目标损失对所述待训练模型的模型参数进行更新,直至满足模型训练条件,得到图像分类模型。
9.根据权利要求8所述的方法,其特征在于,所述根据所述参考图像的第一真实类别、所述第一预测类别,所述待分类图像的第二真实类别以及所述第二预测类别,获取目标损失包括:
根据所述参考图像的第一真实类别以及所述第一预测类别,获取第一子损失,所述第一子损失用于指示所述第一真实类别与所述第一预测类别之间的差异;
根据所述待分类图像的第二真实类别以及所述第二预测类别,获取第二子损失,所述第二子损失用于指示所述第二真实类别与所述第二预测类别之间的差异;
将所述第一子损失和所述第二子损失进行相加处理,得到目标损失。
10.根据权利要求9所述的方法,其特征在于,所述待训练模型用于将所述第一分类结果和所述第二分类结果进行相加处理,得到所述第三分类结果。
11.根据权利要求8至10任意一项所述的方法,其特征在于,所述待训练模型用于:
根据所述第一特征计算所述参考图像属于各个类别的概率,得到第一分类结果;
根据所述第三特征计算所述待分类图像属于各个类别的概率,得到第二分类结果。
12.根据权利要求8至11任意一项所述的方法,其特征在于,所述待训练模型用于对所述第一特征和所述第二特征进行特征融合处理,得到所述第三特征。
13.根据权利要求12所述的方法,其特征在于,所述特征融合处理包括相加处理、相乘处理、相减处理、级联处理和级联卷积处理中的至少一个。
14.根据权利要求8至13任意一项所述的方法,其特征在于,所述待训练模型用于:
对参考图像进行特征提取处理,得到第一特征;
对待分类图像进行特征提取处理,得到第二特征。
15.一种图像分类装置,其特征在于,所述装置包括:
特征提取模块,用于获取参考图像的第一特征和待分类图像的第二特征;
特征融合模块,用于根据所述第一特征和所述第二特征,生成第三特征;
第一分类模块,用于根据所述第一特征生成第一分类结果,所述第一分类结果用于确定所述参考图像的类别;
第二分类模块,用于根据所述第三特征生成第二分类结果;
分类结果调整模块,用于根据所述第一分类结果和所述第二分类结果,生成第三分类结果,所述第三分类结果用于确定所述待分类图像的类别。
16.一种模型训练装置,其特征在于,所述装置包括:
获取模块,用于获取参考图像和待分类图像;
处理模块,用于将所述参考图像和所述待分类图像输入至待训练模型,得到所述待分类图像的第三分类结果,所述待训练模型用于:获取参考图像的第一特征和待分类图像的第二特征;根据所述第一特征和所述第二特征,生成第三特征;根据所述第一特征生成第一分类结果;根据所述第三特征生成第二分类结果;根据所述第一分类结果和所述第二分类结果,生成第三分类结果;
确定模块,用于根据所述第一分类结果确定所述参考图像的第一预测类别,并根据所述第三分类结果确定所述待分类图像的第二预测类别;
计算模块,用于根据所述参考图像的第一真实类别、所述第一预测类别,所述待分类图像的第二真实类别以及所述第二预测类别,获取目标损失,所述目标损失用于指示所述第一真实类别与所述第一预测类别之间的差异,以及所述第二真实类别与所述第二预测类别之间的差异;
更新模块,用于根据所述目标损失对所述待训练模型的模型参数进行更新,直至满足模型训练条件,得到图像分类模型。
17.一种图像分类装置,其特征在于,所述装置包括存储器和处理器;所述存储器存储有代码,所述处理器被配置为执行所述代码,当所述代码被执行时,所述图像处理装置执行如权利要求1至14任一所述的方法。
18.一种计算机存储介质,其特征在于,所述计算机存储介质存储有一个或多个指令,所述指令在由一个或多个计算机执行时使得所述一个或多个计算机实施权利要求1至14任一所述的方法。
19.一种计算机程序产品,其特征在于,所述计算机程序产品存储有指令,所述指令在由计算机执行时,使得所述计算机实施权利要求1至14任意一项所述的方法。
CN202110745619.5A 2021-06-30 2021-06-30 一种图像分类方法及其相关设备 Pending CN113627422A (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202110745619.5A CN113627422A (zh) 2021-06-30 2021-06-30 一种图像分类方法及其相关设备
PCT/CN2022/101015 WO2023274052A1 (zh) 2021-06-30 2022-06-24 一种图像分类方法及其相关设备
EP22831866.3A EP4350575A1 (en) 2021-06-30 2022-06-24 Image classification method and related device thereof
US18/400,930 US20240185568A1 (en) 2021-06-30 2023-12-29 Image Classification Method and Related Device Thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110745619.5A CN113627422A (zh) 2021-06-30 2021-06-30 一种图像分类方法及其相关设备

Publications (1)

Publication Number Publication Date
CN113627422A true CN113627422A (zh) 2021-11-09

Family

ID=78378943

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110745619.5A Pending CN113627422A (zh) 2021-06-30 2021-06-30 一种图像分类方法及其相关设备

Country Status (4)

Country Link
US (1) US20240185568A1 (zh)
EP (1) EP4350575A1 (zh)
CN (1) CN113627422A (zh)
WO (1) WO2023274052A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114463584A (zh) * 2022-01-29 2022-05-10 北京百度网讯科技有限公司 图像处理、模型训练方法、装置、设备、存储介质及程序
CN114882273A (zh) * 2022-04-24 2022-08-09 电子科技大学 应用于狭小空间的视觉识别方法、装置、设备和存储介质
WO2023274052A1 (zh) * 2021-06-30 2023-01-05 华为技术有限公司 一种图像分类方法及其相关设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108460389B (zh) * 2017-02-20 2021-12-03 阿里巴巴集团控股有限公司 一种识别图像中对象的类型预测方法、装置及电子设备
US10769766B1 (en) * 2018-05-31 2020-09-08 Amazon Technologies, Inc. Regularized multi-label classification from partially labeled training data
CN110276411B (zh) * 2019-06-28 2022-11-18 腾讯科技(深圳)有限公司 图像分类方法、装置、设备、存储介质和医疗电子设备
CN113627422A (zh) * 2021-06-30 2021-11-09 华为技术有限公司 一种图像分类方法及其相关设备

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023274052A1 (zh) * 2021-06-30 2023-01-05 华为技术有限公司 一种图像分类方法及其相关设备
CN114463584A (zh) * 2022-01-29 2022-05-10 北京百度网讯科技有限公司 图像处理、模型训练方法、装置、设备、存储介质及程序
CN114882273A (zh) * 2022-04-24 2022-08-09 电子科技大学 应用于狭小空间的视觉识别方法、装置、设备和存储介质
CN114882273B (zh) * 2022-04-24 2023-04-18 电子科技大学 应用于狭小空间的视觉识别方法、装置、设备和存储介质

Also Published As

Publication number Publication date
US20240185568A1 (en) 2024-06-06
EP4350575A1 (en) 2024-04-10
WO2023274052A1 (zh) 2023-01-05

Similar Documents

Publication Publication Date Title
CN112418392A (zh) 一种神经网络构建方法以及装置
CN112070207A (zh) 一种模型训练方法及装置
CN113627422A (zh) 一种图像分类方法及其相关设备
CN113065633B (zh) 一种模型训练方法及其相关联设备
CN113240079A (zh) 一种模型训练方法及装置
CN112580720A (zh) 一种模型训练方法及装置
US20240135174A1 (en) Data processing method, and neural network model training method and apparatus
CN114241597A (zh) 一种姿态识别方法及其相关设备
CN115238909A (zh) 一种基于联邦学习的数据价值评估方法及其相关设备
CN113627163A (zh) 一种注意力模型、特征提取方法及相关装置
CN114169393A (zh) 一种图像分类方法及其相关设备
CN116739154A (zh) 一种故障预测方法及其相关设备
CN117056589A (zh) 一种物品推荐方法及其相关设备
CN115795025A (zh) 一种摘要生成方法及其相关设备
CN115623242A (zh) 一种视频处理方法及其相关设备
CN116312489A (zh) 一种模型训练方法及其相关设备
CN115292583A (zh) 一种项目推荐方法及其相关设备
CN115565104A (zh) 一种动作预测方法及其相关设备
CN114707643A (zh) 一种模型切分方法及其相关设备
CN114707070A (zh) 一种用户行为预测方法及其相关设备
CN115879524A (zh) 一种模型训练方法及其相关设备
CN113065638A (zh) 一种神经网络压缩方法及其相关设备
CN115712828A (zh) 一种图像分类方法及其相关设备
WO2024061123A1 (zh) 一种图像处理方法及其相关设备
CN113989188A (zh) 一种物体检测方法及其相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination