CN115063585A - 一种无监督语义分割模型的训练方法及相关装置 - Google Patents

一种无监督语义分割模型的训练方法及相关装置 Download PDF

Info

Publication number
CN115063585A
CN115063585A CN202210603032.5A CN202210603032A CN115063585A CN 115063585 A CN115063585 A CN 115063585A CN 202210603032 A CN202210603032 A CN 202210603032A CN 115063585 A CN115063585 A CN 115063585A
Authority
CN
China
Prior art keywords
image
semantic segmentation
model
loss function
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210603032.5A
Other languages
English (en)
Inventor
朱艺
刘健庄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN202210603032.5A priority Critical patent/CN115063585A/zh
Publication of CN115063585A publication Critical patent/CN115063585A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种无监督语义分割模型的训练方法,应用于人工智能技术领域。本方案中,基于图像中的对象所属的类别集合对图像的特征图聚类,得到图像中各个对象所对应的图像区域。通过在对图像特征进行聚类的过程中,基于图像中的对象所属的类别集合来进行聚类,能够在聚类过程中引入语义信息,提高聚类的准确性,从而保证聚类后得到的多个图像区域的分割准确性。然后,通过多模态模型对图像区域和类别集合的文本进行匹配,获得各个图像区域对应的类别,从而为图像引入含有语义信息的伪标注。最后,基于含有语义信息的伪标注对语义分割模型进行训练,能够使得语义分割模型在训练过程中学习到语义信息,提高训练得到的语义分割模型的精度。

Description

一种无监督语义分割模型的训练方法及相关装置
技术领域
本申请涉及人工智能技术领域,尤其涉及一种无监督语义分割模型的训练方法及相关装置。
背景技术
语义分割是计算机视觉领域的一种识别任务,具有广泛的应用场景,例如自动驾驶、增强现实、智慧医疗等等场景。通过往语义分割模型输入一个图像,语义分割模型能够对图像中的每个像素都标记一个语义类别,从而实现图像中不同对象的分割。现有的语义分割模型在训练过程中往往依赖于大量的标注图像。然而,获取大规模的标注图像需要耗费巨大的时间成本和经济成本。因此,如何以更少的标注代价,从无标注的图像数据中挖掘信息来训练语义分割模型显得尤为重要。
为了降低标注成本,无监督的语义分割模型训练方法应运而生。无监督的语义分割模型训练方法,能够借助不同形式的先验知识,给无标注的图像数据生成伪标注,再训练语义分割模型。
在相关技术中,由于图像中标注信息的缺失,无监督的语义分割模型训练方法主要依靠挖掘图像的底层视觉信息,如颜色、轮廓、局部上下文等信息的相似性,来生成用于训练的伪标注。然而,基于底层视觉信息所生成的伪标注缺乏高层语义信息,从而导致基于伪标注训练得到的语义分割模型的语义分割精度较差。
发明内容
本申请提供了一种无监督语义分割模型的训练方法,能够使得语义分割模型在训练过程中学习到语义信息,提高训练得到的语义分割模型的精度。
本申请第一方面提供一种无监督语义分割模型的训练方法,包括:获取训练数据集中的第一图像的特征图,并根据所述第一图像的类别集合对所述特征图进行聚类,得到所述特征图中的多个特征区域,其中所述类别集合用于指示所述第一图像中的多个对象的类别,所述多个特征区域中的每个特征区域对应于所述类别集合中的一个类别。
然后,确定所述第一图像中与所述多个特征区域对应的多个图像区域,并将所述多个图像区域和描述所述类别集合的多个文本输入多模态模型,得到输出结果,所述输出结果用于指示所述多个图像区域中每个图像区域对应的类别,其中所述多模态模型用于执行图像和文本的匹配。
其次,将所述第一图像输入待训练的语义分割模型,得到第一语义分割结果。
最后,根据第一损失函数,对所述语义分割模型进行训练,以更新所述语义分割模型,其中所述第一损失函数是基于所述输出结果和所述第一语义分割结果构建的。
本方案中,基于图像中的对象所属的类别集合对图像的特征图聚类,得到图像中各个对象所对应的图像区域。通过在对图像特征进行聚类的过程中,基于图像中的对象所属的类别集合来进行聚类,能够在聚类过程中引入语义信息,提高聚类的准确性,从而保证聚类后得到的多个图像区域的分割准确性。然后,通过多模态模型对图像区域和类别集合的文本进行匹配,获得各个图像区域对应的类别,从而为图像引入含有语义信息的伪标注。最后,基于含有语义信息的伪标注对语义分割模型进行训练,能够使得语义分割模型在训练过程中学习到语义信息,提高训练得到的语义分割模型的精度。
在一种可能的实现方式中,所述多模态模型用于提取所述多个图像区域对应的多个图像特征以及所述多个文本对应的多个文本特征,并计算所述多个图像特征中的每个图像特征与所述多个文本特征之间的相似度,以得到所述多个图像区域中每个图像区域对应的类别;
其中,第一图像区域对应的类别为与第一图像特征相似度最高的文本特征所对应的类别,所述第一图像区域为所述多个图像区域中的任意一个图像区域,所述第一图像特征为所述多个图像特征中与所述第一图像区域对应的图像特征。
在一种可能的实现方式中,所述训练数据集包括多个图像和多个类别标签,所述多个图像包括所述第一图像,所述多个类别标签用于指示所述多个图像中的对象的类别。所述方法还包括:将所述第一图像和所述多个类别标签输入所述多模态模型,得到第一图像的特征分别与所述多个类别标签中每个类别标签的特征之间的多个相似度;根据所述多个相似度,确定所述第一图像的类别集合,其中所述类别集合包括多个目标类别,所述多个目标类别的特征与所述第一图像的特征之间的相似度均大于或等于预设阈值。
本方案中,基于多模态模型对第一图像以及训练数据集的多个类别标签进行处理,能够确定第一图像的类别集合,从而使得后续能够基于图像中的对象所属的类别集合来进行聚类,实现在聚类过程中引入语义信息,提高聚类的准确性。
在一种可能的实现方式中,所述方法还包括:基于所述第一语义分割结果,获取第一掩膜图像和第二掩膜图像,所述第一掩膜图像仅包括所述第一语义分割结果中所指示的目标对象的图像,所述第二掩膜图像仅包括所述第一语义分割结果中除所述目标对象以外的图像,所述目标对象为所述第一语义分割结果中任意一个类别的对象;将所述第一掩膜图像、所述第二掩膜图像以及所述目标对象对应的类别文本输入所述多模态模型,得到所述第一掩膜图像的特征与所述类别文本的特征之间的第一相似度,以及所述第一掩膜图像的特征与所述第二掩膜图像的特征之间的第二相似度;根据所述第一损失函数和第二损失函数,对所述语义分割模型进行训练,其中所述第二损失函数是基于所述第一相似度和所述第二相似度得到的。
本方案中,引入了第二损失函数,该第二损失函数能够表征语义分割模型所得到的语义分割结果中目标对象与类别文本之间的差异以及目标对象与其他对象之间的差异。在第一损失函数的基础上,进一步基于第二损失函数对语义分割模型进行训练,能够引导语义分割模型学习更加精确地进行区域分割,从而提高语义分割模型的分割精度。
在一种可能的实现方式中,所述第一相似度与所述第二损失函数具有负相关的关系,所述第二相似度与所述第二损失函数具有正相关的关系。
在一种可能的实现方式中,所述方法还包括:将所述第一图像输入降噪模型,得到第二语义分割结果,所述降噪模型的结构与所述语义分割模型的结构相同,且所述降噪模型的网络参数与所述语义分割模型的网络参数不同;所述根据第一损失函数,对所述语义分割模型进行训练,包括:根据所述第一损失函数和第三损失函数,对所述语义分割模型进行训练,所述第三损失函数是基于所述第一语义分割结果和所述第二语义分割结果得到的。
本方案中,通过在语义分割模型的训练过程中引入与语义分割模型结构相同的降噪模型,能够有效地抑制语义分割模型在训练过程中所发生的的训练震荡,提升语义分割模型的训练稳定性,以便于高效地实现语义分割模型的训练。
在一种可能的实现方式中,所述方法还包括:将所述第一图像输入降噪模型,得到第二语义分割结果,所述降噪模型的结构与所述语义分割模型的结构相同,且所述降噪模型的网络参数与所述语义分割模型的网络参数不同;所述根据所述第一损失函数和第二损失函数,对所述语义分割模型进行训练,包括:根据所述第一损失函数、所述第二损失函数和第三损失函数,对所述语义分割模型进行训练,所述第三损失函数是基于所述第一语义分割结果和所述第二语义分割结果得到的。
在一种可能的实现方式中,所述降噪模型的网络参数是基于所述语义分割模型的网络参数以及所述降噪模型在上一轮迭代训练过程中的网络参数得到的。
本申请第二方面提供一种语义分割方法,包括:获取待处理图像;将所述待处理图像输入语义分割模型,得到第一语义分割结果;其中,所述语义分割模型是基于第一损失函数训练得到的,所述第一损失函数是基于输出结果和第二语义分割结果得到的,所述第二语义分割结果是将训练数据集中的第一图像输入所述语义分割结果模型后得到的,所述输出结果是将多个图像区域和描述类别集合的多个文本输入多模态模型后得到的,所述输出结果用于指示所述多个图像区域中每个图像区域对应的类别,所述多模态模型用于执行图像和文本的匹配,所述多个图像区域为所述第一图像中与多个特征区域对应的图像区域,所述多个特征区域是根据所述第一图像的所述类别集合对所述第一图像的特征图进行聚类后得到的,所述类别集合用于指示所述第一图像中的多个对象的类别,所述多个特征区域中的每个特征区域对应于所述类别集合中的一个类别。
在一种可能的实现方式中,所述多模态模型用于提取所述多个图像区域对应的多个图像特征以及所述多个文本对应的多个文本特征,并计算所述多个图像特征中的每个图像特征与所述多个文本特征之间的相似度,以得到所述多个图像区域中每个图像区域对应的类别;其中,第一图像区域对应的类别为与第一图像特征相似度最高的文本特征所对应的类别,所述第一图像区域为所述多个图像区域中的任意一个图像区域,所述第一图像特征为所述多个图像特征中与所述第一图像区域对应的图像特征。
在一种可能的实现方式中,所述训练数据集包括多个图像和多个类别标签,所述多个图像包括所述第一图像,所述多个类别标签用于指示所述多个图像中的对象的类别;所述第一图像的类别集合是根据多个相似度得到的,所述类别集合包括多个目标类别,所述多个目标类别的特征与所述第一图像的特征之间的相似度均大于或等于预设阈值,所述多个相似度为第一图像的特征分别与所述多个类别标签中每个类别标签的特征之间的多个相似度,所述多个相似度是将所述第一图像和所述多个类别标签输入所述多模态模型后得到的。
在一种可能的实现方式中,所述语义分割模型是基于所述第一损失函数和第二损失函数训练得到的,所述第二损失函数是基于第一相似度和第二相似度得到的,所述第一相似度为第一掩膜图像的特征与类别文本的特征之间的相似度,所述第二相似度为所述第一掩膜图像的特征与第二掩膜图像的特征之间的相似度,所述第一相似度和所述第二相似度是将所述第一掩膜图像、所述第二掩膜图像以及目标对象对应的类别文本输入所述多模态模型得到的,所述第一掩膜图像和所述第二掩膜图像是基于所述第二语义分割结果得到的,所述第一掩膜图像仅包括所述第二语义分割结果中所指示的目标对象的图像,所述第二掩膜图像仅包括所述第二语义分割结果中除所述目标对象以外的图像,所述目标对象为所述第一语义分割结果中任意一个类别的对象。
在一种可能的实现方式中,所述第一相似度与所述第二损失函数具有负相关的关系,所述第二相似度与所述第二损失函数具有正相关的关系。
在一种可能的实现方式中,所述语义分割模型是基于所述第一损失函数和第三损失函数训练得到的,所述第三损失函数是基于所述第二语义分割结果和第三语义分割结果得到的,所述第三语义分割结果是将所述第一图像输入所述降噪模型后得到的,所述降噪模型的结构与所述语义分割模型的结构相同,且所述降噪模型的网络参数与所述语义分割模型的网络参数不同。
在一种可能的实现方式中,所述语义分割模型是基于所述第一损失函数、所述第二损失函数和第三损失函数训练得到的,所述第三损失函数是基于所述第二语义分割结果和第三语义分割结果得到的,所述第三语义分割结果是将所述第一图像输入所述降噪模型后得到的,所述降噪模型的结构与所述语义分割模型的结构相同,且所述降噪模型的网络参数与所述语义分割模型的网络参数不同。
在一种可能的实现方式中,所述降噪模型的网络参数是基于所述语义分割模型的网络参数以及所述降噪模型在上一轮迭代训练过程中的网络参数得到的。
本申请第三方面提供一种无监督语义分割模型的训练装置,包括:获取模块,用于获取训练数据集中的第一图像的特征图,并根据所述第一图像的类别集合对所述特征图进行聚类,得到所述特征图中的多个特征区域,其中所述类别集合用于指示所述第一图像中的多个对象的类别,所述多个特征区域中的每个特征区域对应于所述类别集合中的一个类别;处理模块,用于确定所述第一图像中与所述多个特征区域对应的多个图像区域;所述处理模块,还用于将所述多个图像区域和描述所述类别集合的多个文本输入多模态模型,得到输出结果,所述输出结果用于指示所述多个图像区域中每个图像区域对应的类别,其中所述多模态模型用于执行图像和文本的匹配;所述处理模块,还用于将所述第一图像输入语义分割模型,得到第一语义分割结果;训练模块,用于根据第一损失函数,对所述语义分割模型进行训练,以更新所述语义分割模型,其中所述第一损失函数是基于所述输出结果和所述第一语义分割结果构建的。
在一种可能的实现方式中,所述多模态模型用于提取所述多个图像区域对应的多个图像特征以及所述多个文本对应的多个文本特征,并计算所述多个图像特征中的每个图像特征与所述多个文本特征之间的相似度,以得到所述多个图像区域中每个图像区域对应的类别;其中,第一图像区域对应的类别为与第一图像特征相似度最高的文本特征所对应的类别,所述第一图像区域为所述多个图像区域中的任意一个图像区域,所述第一图像特征为所述多个图像特征中与所述第一图像区域对应的图像特征。
在一种可能的实现方式中,所述训练数据集包括多个图像和多个类别标签,所述多个图像包括所述第一图像,所述多个类别标签用于指示所述多个图像中的对象的类别;所述处理模块,还用于:将所述第一图像和所述多个类别标签输入所述多模态模型,得到第一图像的特征分别与所述多个类别标签中每个类别标签的特征之间的多个相似度;根据所述多个相似度,确定所述第一图像的类别集合,其中所述类别集合包括多个目标类别,所述多个目标类别的特征与所述第一图像的特征之间的相似度均大于或等于预设阈值。
在一种可能的实现方式中,所述处理模块,还用于基于所述第一语义分割结果,获取第一掩膜图像和第二掩膜图像,所述第一掩膜图像仅包括所述第一语义分割结果中所指示的目标对象的图像,所述第二掩膜图像仅包括所述第一语义分割结果中除所述目标对象以外的图像,所述目标对象为所述第一语义分割结果中任意一个类别的对象;所述处理模块,还用于将所述第一掩膜图像、所述第二掩膜图像以及所述目标对象对应的类别文本输入所述多模态模型,得到所述第一掩膜图像的特征与所述类别文本的特征之间的第一相似度,以及所述第一掩膜图像的特征与所述第二掩膜图像的特征之间的第二相似度;所述训练模块,具体用于根据所述第一损失函数和第二损失函数,对所述语义分割模型进行训练,其中所述第二损失函数是基于所述第一相似度和所述第二相似度得到的。
在一种可能的实现方式中,所述第一相似度与所述第二损失函数具有负相关的关系,所述第二相似度与所述第二损失函数具有正相关的关系。
在一种可能的实现方式中,所述处理模块,还用于将所述第一图像输入降噪模型,得到第二语义分割结果,所述降噪模型的结构与所述语义分割模型的结构相同,且所述降噪模型的网络参数与所述语义分割模型的网络参数不同;所述训练模块,具体用于根据所述第一损失函数和第三损失函数,对所述语义分割模型进行训练,所述第三损失函数是基于所述第一语义分割结果和所述第二语义分割结果得到的。
在一种可能的实现方式中,所述处理模块,还用于将所述第一图像输入降噪模型,得到第二语义分割结果,所述降噪模型的结构与所述语义分割模型的结构相同,且所述降噪模型的网络参数与所述语义分割模型的网络参数不同;所述训练模块,具体用于根据所述第一损失函数、所述第二损失函数和第三损失函数,对所述语义分割模型进行训练,所述第三损失函数是基于所述第一语义分割结果和所述第二语义分割结果得到的。
在一种可能的实现方式中,所述降噪模型的网络参数是基于所述语义分割模型的网络参数以及所述降噪模型在上一轮迭代训练过程中的网络参数得到的。
本申请第四方面提供一种语义分割装置,包括:获取模块,用于获取待处理图像;处理模块,用于将所述待处理图像输入语义分割模型,得到第一语义分割结果;其中,所述语义分割模型是基于第一损失函数训练得到的,所述第一损失函数是基于输出结果和第二语义分割结果得到的,所述第二语义分割结果是将训练数据集中的第一图像输入所述语义分割结果模型后得到的,所述输出结果是将多个图像区域和描述类别集合的多个文本输入多模态模型后得到的,所述输出结果用于指示所述多个图像区域中每个图像区域对应的类别,所述多模态模型用于执行图像和文本的匹配,所述多个图像区域为所述第一图像中与多个特征区域对应的图像区域,所述多个特征区域是根据所述第一图像的所述类别集合对所述第一图像的特征图进行聚类后得到的,所述类别集合用于指示所述第一图像中的多个对象的类别,所述多个特征区域中的每个特征区域对应于所述类别集合中的一个类别。
在一种可能的实现方式中,所述多模态模型用于提取所述多个图像区域对应的多个图像特征以及所述多个文本对应的多个文本特征,并计算所述多个图像特征中的每个图像特征与所述多个文本特征之间的相似度,以得到所述多个图像区域中每个图像区域对应的类别;其中,第一图像区域对应的类别为与第一图像特征相似度最高的文本特征所对应的类别,所述第一图像区域为所述多个图像区域中的任意一个图像区域,所述第一图像特征为所述多个图像特征中与所述第一图像区域对应的图像特征。
在一种可能的实现方式中,所述训练数据集包括多个图像和多个类别标签,所述多个图像包括所述第一图像,所述多个类别标签用于指示所述多个图像中的对象的类别;所述第一图像的类别集合是根据多个相似度得到的,所述类别集合包括多个目标类别,所述多个目标类别的特征与所述第一图像的特征之间的相似度均大于或等于预设阈值,所述多个相似度为第一图像的特征分别与所述多个类别标签中每个类别标签的特征之间的多个相似度,所述多个相似度是将所述第一图像和所述多个类别标签输入所述多模态模型后得到的。
在一种可能的实现方式中,所述语义分割模型是基于所述第一损失函数和第二损失函数训练得到的,所述第二损失函数是基于第一相似度和第二相似度得到的,所述第一相似度为第一掩膜图像的特征与类别文本的特征之间的相似度,所述第二相似度为所述第一掩膜图像的特征与第二掩膜图像的特征之间的相似度,所述第一相似度和所述第二相似度是将所述第一掩膜图像、所述第二掩膜图像以及目标对象对应的类别文本输入所述多模态模型得到的,所述第一掩膜图像和所述第二掩膜图像是基于所述第二语义分割结果得到的,所述第一掩膜图像仅包括所述第二语义分割结果中所指示的目标对象的图像,所述第二掩膜图像仅包括所述第二语义分割结果中除所述目标对象以外的图像,所述目标对象为所述第一语义分割结果中任意一个类别的对象。
在一种可能的实现方式中,所述第一相似度与所述第二损失函数具有负相关的关系,所述第二相似度与所述第二损失函数具有正相关的关系。
在一种可能的实现方式中,所述语义分割模型是基于所述第一损失函数和第三损失函数训练得到的,所述第三损失函数是基于所述第二语义分割结果和第三语义分割结果得到的,所述第三语义分割结果是将所述第一图像输入所述降噪模型后得到的,所述降噪模型的结构与所述语义分割模型的结构相同,且所述降噪模型的网络参数与所述语义分割模型的网络参数不同。
在一种可能的实现方式中,所述语义分割模型是基于所述第一损失函数、所述第二损失函数和第三损失函数训练得到的,所述第三损失函数是基于所述第二语义分割结果和第三语义分割结果得到的,所述第三语义分割结果是将所述第一图像输入所述降噪模型后得到的,所述降噪模型的结构与所述语义分割模型的结构相同,且所述降噪模型的网络参数与所述语义分割模型的网络参数不同。
在一种可能的实现方式中,所述降噪模型的网络参数是基于所述语义分割模型的网络参数以及所述降噪模型在上一轮迭代训练过程中的网络参数得到的。
本申请第五方面提供了一种训练设备,可以包括处理器,处理器和存储器耦合,存储器存储有程序指令,当存储器存储的程序指令被处理器执行时实现上述第一方面所述的方法。
本申请第六方面提供了一种执行设备,可以包括处理器,处理器和存储器耦合,存储器存储有程序指令,当存储器存储的程序指令被处理器执行时实现上述第二方面所述的方法。
本申请第七方面提供了一种计算机程序产品,当其在计算机上运行时,使得计算机执行上述第一方面或第二方面所述的方法。
本申请第八方面提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,当所述程序在计算机上运行时,使得计算机执行上述第一方面或第二方面所述的方法。
本申请第九方面提供了一种电路***,所述电路***包括处理电路,所述处理电路配置为执行上述第一方面或第二方面所述的方法。
本申请第十方面提供了一种芯片***,该芯片***包括处理器,用于实现上述各个方面中所涉及的功能,例如,发送或处理上述方法中所涉及的数据和/或信息。在一种可能的设计中,所述芯片***还包括存储器,所述存储器,用于保存服务器或通信设备必要的程序指令和数据。该芯片***,可以由芯片构成,也可以包括芯片和其他分立器件。
对于本申请实施例第五方面至第十方面的各种可能实现方式的具体实现步骤,以及每种可能实现方式所带来的有益效果,均可以参考第一方面至第二方面中各种可能的实现方式中的描述,此处不再一一赘述。
附图说明
图1为人工智能主体框架的一种结构示意图;
图2为相关技术中的语义分割模型在训练过程中所需的图像和标注的示意图;
图3为本申请实施例提供的一种图像标注的耗时对比示意图;
图4为本申请实施例提供的一种无监督语义分割模型的训练方法的流程示意图;
图5为本申请实施例提供的一种掩膜图像的示意图;
图6为本申请实施例提供的一种训练框架的示意图;
图7为本申请实施例提供的一种无监督语义分割模型的训练过程示意图;
图8为本申请实施例提供的一种语义模型的工作流程示意图;
图9为本申请实施例提供的一种掩膜模型的工作流程示意图;
图10为本申请实施例提供的一种基于开集来训练语义分割模型的示意图;
图11为本申请实施例提供的一种语义分割模型在训练过程中的优化示意图;
图12为本申请实施例提供的一种语义分割模型在不同场景下的语义分割效果示意图;
图13为本申请实施例提供的一种无监督语义分割模型的训练装置的结构示意图;
图14为本申请实施例提供的一种语义分割装置的结构示意图;
图15为本申请实施例提供的执行设备的一种结构示意图;
图16为本申请实施例提供的训练设备一种结构示意图;
图17为本申请实施例提供的芯片的一种结构示意图。
具体实施方式
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的术语在适当情况下可以互换,这仅仅是描述本申请的实施例中对相同属性的对象在描述时所采用的区分方式。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,以便包含一系列单元的过程、方法、***、产品或设备不必限于那些单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它单元。
下面结合附图,对本申请的实施例进行描述。本领域普通技术人员可知,随着技术的发展和新场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
首先对人工智能***总体工作流程进行描述,请参见图1,图1为人工智能主体框架的一种结构示意图,下面从“智能信息链”(水平轴)和“IT价值链”(垂直轴)两个维度对上述人工智能主题框架进行阐述。其中,“智能信息链”反映从数据的获取到处理的一列过程。举例来说,可以是智能信息感知、智能信息表示与形成、智能推理、智能决策、智能执行与输出的一般过程。在这个过程中,数据经历了“数据—信息—知识—智慧”的凝练过程。“IT价值链”从人智能的底层基础设施、信息(提供和处理技术实现)到***的产业生态过程,反映人工智能为信息技术产业带来的价值。
(1)基础设施
基础设施为人工智能***提供计算能力支持,实现与外部世界的沟通,并通过基础平台实现支撑。通过传感器与外部沟通;计算能力由智能芯片提供,该智能芯片具体可以采用中央处理器(central processing unit,CPU)、嵌入式神经网络处理器(neural-network processing unit,NPU)、图形处理器(graphics processing unit,GPU)、专用集成电路(application specific integrated circuit,ASIC)或现场可编程门阵列(fieldprogrammable gate array,FPGA)等硬件加速芯片;基础平台包括分布式计算框架及网络等相关的平台保障和支持,可以包括云存储和计算、互联互通网络等。举例来说,传感器和外部沟通获取数据,这些数据提供给基础平台提供的分布式计算***中的智能芯片进行计算。
(2)数据
基础设施的上一层的数据用于表示人工智能领域的数据来源。数据涉及到图形、图像、语音、文本,还涉及到传统设备的物联网数据,包括已有***的业务数据以及力、位移、液位、温度、湿度等感知数据。
(3)数据处理
数据处理通常包括数据训练,机器学习,深度学习,搜索,推理,决策等方式。
其中,机器学习和深度学习可以对数据进行符号化和形式化的智能信息建模、抽取、预处理、训练等。
推理是指在计算机或智能***中,模拟人类的智能推理方式,依据推理控制策略,利用形式化的信息进行机器思维和求解问题的过程,典型的功能是搜索与匹配。
决策是指智能信息经过推理后进行决策的过程,通常提供分类、排序、预测等功能。
(4)通用能力
对数据经过上面提到的数据处理后,进一步基于数据处理的结果可以形成一些通用的能力,比如可以是算法或者一个通用***,例如,翻译,文本的分析,计算机视觉的处理,语音识别,图像的识别等等。
(5)智能产品及行业应用
智能产品及行业应用指人工智能***在各领域的产品和应用,是对人工智能整体解决方案的封装,将智能信息决策产品化、实现落地应用,其应用领域主要包括:智能终端、智能制造、智能交通、智能家居、智能医疗、智能安防、自动驾驶、智慧城市等。
目前,语义分割任务是人工智能领域中的研究热点且具有广泛的应用场景。为了获得分割精度高的语义分割模型,相关技术中通常需要采用大量的人工标注图像对语义分割模型进行训练。
可以参阅图2,图2为相关技术中的语义分割模型在训练过程中所需的图像和标注的示意图。如图2所述,为获得准确的训练数据,通常需要人工对图像进行像素级标注,即人工对图像中的每一个像素进行类别的标注。此外,由于语义分割模型在训练过程中需要大量的标注图像作为训练数据,因此获取大规模的像素级标注图像作为训练数据往往需要耗费巨大的时间成本和经济成本。在这种情况下,如何以更少的标注代价,从无标注的图像数据中挖掘信息来训练语义分割模型显得尤为重要。
相关技术中提供了一种无监督语义分割模型的训练方法,具体步骤如下。
步骤1,首先基于一个预先准备的图像数据集以及该图像数据集的显著性掩码标注,预训练得到一个显著性检测模型。该显著性检测模型对于一个输入图像,能够输出输入图像中目标区域的掩膜,但不区分目标区域的类别。
步骤2,对于一张用于训练语义分割模型的图像,基于预训练的显著性检测模型提取该图像的掩膜,得到图像掩膜。在图像掩膜中,值为1的像素代表目标物体的像素,值为0的像素代表非目标物体的像素。
步骤3,将步骤2中所生成的图像掩膜作为伪标注,对语义分割模型进行训练,以使得语义分割模型在训练过程中学习输入图像的像素特征。
步骤4,对语义分割模型所输出的分割图像提取像素特征,并将这些像素特征进行聚类。聚类后,属于同一个聚类的像素对应相同的语义类标签。
步骤5,为了将聚类后的像素和语义标签进行一一对应,需要借助一个有语义分割标注的图像集(以下简称标注图像集)。具体地,先对有语义分割标注的图像集中的图像进行聚类,并计算分割图像的聚类特征和标注图像集中图像的聚类特征之间的相似度,从而将相似度高的聚类特征关联。由于标注图像集中的图像带有像素级语义标签,因此关联后的聚类特征都能够对应到一个语义类别,从而获取到语义分割模型输出的分割图像的标注结果。这样一来,基于上述的步骤1-5则能够以无监督的形式预测出图像的语义分割结果。
由于图像中标注信息的缺失,相关技术中是基于底层视觉信息(如颜色、轮廓、局部上下文等信息)的相似性来对图像像素进行聚类,再借助于辅助标注集合来预测聚类后的图像像素的语义类别。
然而,底层视觉信息存在一定的局限性,基于底层视觉信息的相似性聚类得到的区域难以准确地覆盖图像中各个对象所对应的目标区域,因此相关技术的语义分割效果较差。另外,由于底层视觉信息和高层语义信息之间存在鸿沟,因此基于由底层视觉信息所生成的伪标注来训练语义分割模型,会阻碍语义分割模型对语义信息的学习,导致语义分割模型无法从语义信息的角度来执行语义分割,进一步影响了语义分割效果。并且,由于相关技术中需要依赖一个带标注的数据集合来对语义分割模型生成的聚类结果生成语义标签,使得语义分割模型无法直接有效地学习语义分割的信息;且引入的带标注的数据集合与训练阶段的训练集合包括不同的图像数据,容易使得语义分割结果引入新的误差。
总的来说,基于相关技术中无监督的语义分割模型训练方法所得到的语义分割模型的语义分割效果较差,难以满足当前的语义分割要求。
基于此,本申请实施例提供了一种无监督语义分割模型的训练方法,基于图像中的对象所属的类别集合对图像的特征图聚类,得到图像中各个对象所对应的图像区域。通过在对图像特征进行聚类的过程中,基于图像中的对象所属的类别集合来进行聚类,能够在聚类过程中引入语义信息,提高聚类的准确性,从而保证聚类后得到的多个图像区域的分割准确性。然后,通过多模态模型对图像区域和类别集合的文本进行匹配,从而获得各个图像区域对应的类别,从而为图像引入含有语义信息的伪标注。最后,基于含有语义信息的伪标注对语义分割模型进行训练,能够使得语义分割模型在训练过程中学习到语义信息,提高训练得到的语义分割模型的精度。
为了便于理解,以下先对本申请实施例所涉及技术术语进行解释。
(1)无监督学习(unsupervised learning)
无监督学习是一种机器学习方法,从未标注的数据中学习,挖掘数据中存在的共性,从而自动地对数据进行分类或分群。无监督学习不是响应反馈,而是根据每个新数据中是否存在某种共性来识别数据中的共性并做出反应。
(2)多模态模型(cross-modal model)
多模态模型是指能够同时处理多种不同模态的数据(例如图像、文本、语音等数据),并利用不同模态的数据以及这些数据之间的交互,来执行处理任务的模型。例如,通过在大规模数据上进行学习,多模态模型能够挖掘不同模态数据之间的语义对应关系,例如将文本中的“狗”和图像中“狗”的样子联系起来。
(3)知识蒸馏
知识蒸馏是迁移学习中的一种方法。知识蒸馏是通过采用预先训练好的模型的输出作为监督信号去训练另外一个网络。简单来说,知识蒸馏就是以预先训练好的网络作为教师网络,以待训练的网络作为学生网络,通过老师网络的指导,对学生网络进行训练,以使得学生网络可以具有和老师网络相同或相似的数据处理能力。通常,教师网络可以为复杂的网络模型,学生网络则可以为简单的网络模型;通过知识蒸馏,能够将复杂的网络模型所学习到的特征表示知识传递给简单的网络模型。
(4)预训练模型
预训练模型是一个已经训练好的保存下来的网络,该网络已经在一个大型的数据集上进行训练。
(5)语言–图像对比预训练(Contrastive Language–Image Pre-training,CLIP)模型
CLIP模型是使用预先收集的大量图像文本对(大约4亿对图像文本对)训练得到的,拥有非常强大的图像-文本配对能力。CLIP模型的工作原理是通过图像编码器和文本编码器分别将图像和文本进行编码,并计算图像编码和文本编码之间的相似度,从而确定图像所对应的文本。
以下将介绍本申请实施例所提供的图无监督语义分割模型的训练方法所应用的场景。
本申请实施例所提供的无监督语义分割模型的训练方法可以应用于人工智能领域的图像处理领域中。具体的,本申请实施例的无监督语义分割模型的训练方法可以应用于图像标注、智能家居、道路交通以及智慧安防等应用场景中,下面对本申请实施例的具体应用场景进行举例说明。
应用场景一:图像标注。
基于本申请实施例所提供的无监督语义分割模型的训练方法,能够训练得到精度较高的语义分割模型,从而构建一个交互式自动标注平台,来辅助人工对图像进行标注,进而提升图像标注效率。
在传统的图像标注过程中,需要人工标注出图像中的目标对象周围的角点,即目标对象的外包围多边形上的转折点,从而形成一个闭合的不规则形状,该闭合的不规则形状内的像素即为目标对象的像素。基于本申请实施例中的无监督语义分割模型的训练方法所得到的语义分割模型,能够代替人工对图像进行对象的识别与分割,从而实现对图像的标注。
示例性地,可以参阅图3,图3为本申请实施例提供的一种图像标注的耗时对比示意图。如图3所述,基于本申请实施例中的无监督语义分割模型的训练方法所得到的语义分割模型对图像执行无监督语义分割,得到图像中飞机的标注结果,且无监督语义分割过程的耗时为0.13秒。此外,在得到图像中飞机的标注结果后,由人工对飞机的标注结果在细节处进行校正,耗时2秒。然而,在传统的图像标注过程中,人工对图像中的飞机进行标注需要耗时70秒左右。显然,相较于传统的图像标注过程,基于本申请实施例中的无监督语义分割模型的训练方法所得到的语义分割模型能够代替人工实现图像的标注,有效地提升图像标注的效率。
应用场景二:智能家居。
在智能家居领域,各种各样的智能家具在工作过程中往往需要识别家庭中的不同对象。例如,在扫地机器人的工作过程中,扫地机器人需要识别家庭中的不同物体,以执行清扫和避障等操作。通过在扫地机器人中部署基于本申请实施例中的无监督语义分割模型的训练方法所得到的语义分割模型,能够使得扫地机器人轻松识别家庭中可能出现的各种物体,从而有效地执行清扫和避障操作。
应用场景二:道路交通。
在道路交通领域,自动驾驶车辆或城市交通摄像头往往会采集道路上的图像,并对采集到的图像执行行人、车辆等对象的识别,以便于执行后续的任务。通过在自动驾驶车辆或城市交通摄像头中部署基于本申请实施例中的无监督语义分割模型的训练方法所得到的语义分割模型,能够使得自动驾驶车辆或城市交通摄像头识别道路中可能出现的行人或车辆,从而有效地执行自动驾驶或道路通行规划。
本申请实施例所提供的无监督语义分割模型的训练方法可以应用于电子设备上。示例性地,该电子设备例如可以是服务器、智能手机、个人电脑、笔记本电脑、平板电脑、智慧电视、移动互联网设备(mobile internet device,MID)、可穿戴设备、虚拟现实(virtualreality,VR)设备、增强现实(augmented reality,AR)设备、智慧城市(smart city)中的无线终端、智慧家庭(smart home)中的无线终端等。
以上介绍了本申请实施例提供的无监督语义分割模型的训练方法所应用的场景和设备,以下将详细介绍本申请实施例所提供的无监督语义分割模型的训练方法的执行流程。可以参阅图4,图4为本申请实施例提供的一种无监督语义分割模型的训练方法的流程示意图。如图4所示,该无监督语义分割模型的训练方法应用于训练设备,且该方法包括以下的步骤401-405。
步骤401,获取训练数据集中的第一图像的特征图,并根据所述第一图像的类别集合对所述特征图进行聚类,得到所述特征图中的多个特征区域,其中所述类别集合用于指示所述第一图像中的多个对象的类别,所述多个特征区域中的每个特征区域对应于所述类别集合中的一个类别。
本实施例中,在基于训练数据集中的第一图像对语义分割模型进行训练的过程中,训练设备通过特征提取模型来获取第一图像的特征图。其中,特征提取模型例如可以为卷积神经网络结构、循环神经网络结构或残差神经网络结构等结构的图像处理模型,能够对第一图像进行处理,以得到第一图像的特征图。示例性地,该特征提取模型例如可以为无标签自蒸馏(self-distillation with no labels,DINO)模型。DINO模型是在ImageNet数据集上通过自监督学习训练得到的模型,DINO模型的特点是能够输出高分辨率的特征图,尤其适用于分割任务。
在得到第一图像的特征图后,训练设备根据第一图像的类别集合对所述特征图进行聚类,即将特征图中的特征进行分类并将相似的特征归为同一类,得到特征图中的多个特征区域。示例性地,训练设备可以是基于K-means聚类算法来对特征图进行聚类。
在特征图的多个特征区域中,同一个特征区域中的特征彼此相似,且不同特征区域中的特征彼此相异。此外,第一图像的类别集合指示了第一图像中的各个对象的类别,例如第一图像的类别集合可以为{小鸟、树枝、草地},即指示了第一图像中的对象的类别包括有:小鸟、树枝、草地。由于特征图的多个特征区域是根据第一图像的类别集合聚类得到的,因此聚类后得到的多个特征区域中每个特征区域均对应于类别集合中的一个类别。并且,聚类后得到的多个特征区域的类别数量与类别集合的类别数量是相同的。例如,假设类别集合中包括四个类别,那么训练设备则设定特征图需要被划分为四个类别的特征区域,从而基于聚类算法对特征图进行聚类,得到分别对应于四个类别的多个特征区域。
需要说明的是,对于聚类后得到的多个特征区域,每个特征区域可以包括特征图中一块连续的区域,或者是特征图中多块不连续的区域,本实施例并不对特征区域的表现形式进行限定。
可选的,第一图像的类别集合可以是人为预先指定的,也可以是通过其他方式得到的。例如,通过对第一图像进行识别,得到第一图像的类别集合。
步骤402,确定所述第一图像中与所述多个特征区域对应的多个图像区域。
本申请实施例中,由于第一图像的特征图是对第一图像执行特征提取得到的,第一图像与第一图像的特征图之间存在转换关系。因此,基于第一图像与第一图像的特征图之间的转换关系,能够确定第一图像的特征图中的每个特征区域在第一图像中所对应的图像区域。这样,训练设备能够基于特征图中的多个特征区域,确定第一图像中与该多个特征区域一一对应的多个图像区域。
步骤403,将所述多个图像区域和描述所述类别集合的多个文本输入多模态模型,得到输出结果,所述输出结果用于指示所述多个图像区域中每个图像区域对应的类别,其中所述多模态模型用于执行图像和文本的匹配。
本实施例中,多模态模型的输入为多个图像区域和描述第一图像的类别集合的多个文本。在多模态模型的工作过程中,多模态模型分别将每个图像区域与各个文本进行匹配,从而确定与每个图像区域最匹配的文本,进而确定各个图像区域所对应的类别即为与其最匹配的文本所描述的类别。示例性地,多模态模型例如可以为CLIP模型。
例如,假设第一图像中的多个图像区域分别为:图像区域1、图像区域2和图像区域3,描述第一图像的类别集合的多个文本分别为:文本1、文本2和文本3。那么,多模态模型则分别计算图像区域1与三个文本之间的匹配程度、图像区域2与三个文本之间的匹配程度以及图像区域3与三个文本之间的匹配程度,最终得到这三个图像区域最匹配的文本。比如,在图像区域1最匹配的文本为文本2的情况下,图像区域1对应的类别即为文本2所描述的类别;类似地,在图像区域2最匹配的文本为文本3的情况下,图像区域2对应的类别即为文本3所描述的类别。
具体地,所述多模态模型用于提取所述多个图像区域对应的多个图像特征以及所述多个文本对应的多个文本特征,并计算所述多个图像特征中的每个图像特征与所述多个文本特征之间的相似度,以得到所述多个图像区域中每个图像区域对应的类别。其中,第一图像区域对应的类别为与第一图像特征相似度最高的文本特征所对应的类别,所述第一图像区域为所述多个图像区域中的任意一个图像区域,所述第一图像特征为所述多个图像特征中与所述第一图像区域对应的图像特征。
也就是说,在将多个图像区域和多个文本输入多模态模型之后,多模态模型分别提取得到多个图像区域对应的图像特征以及多个文本所对应的文本特征,并计算每个图像特征与各个文本特征之间的相似度,从而确定图像区域与文本之间的相似度。图像区域与文本之间的相似度越高,则代表图像区域与文本越匹配。对于某一个图像区域而言,通过选择与该图像区域相似度最高的文本,即可确定与该图像区域最匹配的文本。
可选的,描述第一图像的类别集合的多个文本例如可以为“一张鸟的照片(aphoto of a bird)”、“一张树枝的照片”或者“一张树叶的照片”。即,描述第一图像的类别集合的文本可以是由关键词(鸟、树枝或树叶)以及其他与关键词相关的词语所构成,描述其他词语的作用主要是为了使得文本是一个完整的句子,以有助于多模态模型获取关键词对应的特征。
步骤404,将所述第一图像输入语义分割模型,得到第一语义分割结果。
本实施例中,语义分割模型为待训练的模型,该语义分割模型能够对输入的图像执行语义分割,从而得到对应的语义分割结果。示例性地,语义分割模型例如可以为基于卷积神经网络结构的Deeplabv3模型,或者是基于Transformer结构的Segmenter模型,本申请实施例并不对语义分割模型的具体结构做限定。
步骤405,根据第一损失函数,对所述语义分割模型进行训练,以更新所述语义分割模型,其中所述第一损失函数是基于所述输出结果和所述第一语义分割结果构建的。
本实施例中,由于多模态模型的输出结果能够指示第一图像的多个图像区域中每个图像区域对应的类别,而第一语义分割结果也能够指示语义分割模型在第一图像中划分得到的各个图像区域对应的类别。因此,训练设备可以基于多模态模型的输出结果以及语义分割模型得到的第一语义分割结果,构建得到第一损失函数,该第一损失函数指示了输出结果与第一语义分割结果之间的差异。其中,输出结果与第一语义分割结果之间的差异越大,第一损失函数的值越大;输出结果与第一语义分割结果之间的差异越小,第一损失函数的值越小。
可以理解的是,上述的步骤401-405描述了训练设备基于训练数据集中的第一图像对语义分割模型进行训练的过程。在实际应用中,训练数据集中包括大量的图像,训练设备可以是基于训练数据集中对语义分割模型执行多轮迭代训练,直至达到收敛条件,从而得到训练好的语义分割模型。
本实施例中,训练设备基于第一图像中的对象所属的类别集合对第一图像的特征图聚类,得到第一图像中各个对象所对应的图像区域。通过在对图像特征进行聚类的过程中,基于图像中的对象所属的类别集合来进行聚类,能够在聚类过程中引入语义信息,提高聚类的准确性,从而保证聚类后得到的多个图像区域的分割准确性。此外,训练设备还通过多模态模型对图像区域和类别集合的文本进行匹配,从而获得各个图像区域对应的类别,从而为图像引入含有语义信息的伪标注。最后,基于含有语义信息的伪标注对语义分割模型进行训练,能够使得语义分割模型在训练过程中学习到语义信息,提高训练得到的语义分割模型的精度。
为了便于理解,以下将介绍基于多模态模型获取第一图像的类别集合的过程。
可选的,用于训练语义分割模型的训练数据集中包括多个图像和多个类别标签。所述多个图像包括所述第一图像,所述多个类别标签用于指示所述多个图像中的对象的类别。也就是说,该多个类别标签能够指示训练数据集中的所有图像可能包括的类别。对于训练数据集中的任意一个图像,该图像中的所有对象的类别均能够从多个类别标签中找到。例如,假设训练数据集为一个与农场相关的图像集,那么训练数据集中的多个类别标签例如可以包括:鸡、鸭、牛、羊、猪、狗、马以及栅栏等类别标签。
在上述的步骤401之前,训练设备可以将第一图像和训练集中的多个类别标签输入多模态模型,得到第一图像的特征分别与所述多个类别标签中每个类别标签的特征之间的多个相似度。然后,训练设备根据多模态模型所输出的多个相似度,确定第一图像的类别集合。其中,第一图像的类别集合包括多个目标类别,所述多个目标类别的特征与所述第一图像的特征之间的相似度均大于或等于预设阈值。也就是说,在通过多模态模型得到第一图像的特征与每个类别标签的特征之间的相似度之后,训练设备选择出大于或等于预设阈值的相似度,并将这些相似度所对应的类别标签确定为第一图像的类别集合中的目标类别。此外,该预设阈值可以是根据实际应用以及所选择的相似度计算方式来进行设置或调整,本实施例对此不进行限定。
例如,假设预设阈值为0.5,训练数据集对应的多个类别标签包括鸡、鸭、牛、羊、猪以及狗,且第一图像的特征与多个类别标签中各个类别标签的特征之间的相似度分别为0.7、0.8、0.2、0.15、0.3、0.35。那么,训练设备可以确定大于预设阈值的相似度为0.7和0.8,即第一图像对应的类别集合为鸡和鸭。
本方案中,基于多模态模型对第一图像以及训练数据集的多个类别标签进行处理,能够确定第一图像的类别集合,从而使得后续能够基于图像中的对象所属的类别集合来进行聚类,实现在聚类过程中引入语义信息,提高聚类的准确性。
以上介绍了基于多模态模型得到的伪标注和语义分割模型的语义分割结果之间的第一损失函数来训练语义分割模型的过程,在一些可能的实现方式中,训练设备还可以基于第一损失函数以及其他的损失函数来对语义分割模型进行训练,以提高训练得到的语义分割模型的语义分割精度。
实现方式一:训练设备基于第一损失函数和第二损失函数对语义分割模型进行训练。
首先,训练设备基于所述第一语义分割结果,获取第一掩膜图像和第二掩膜图像,所述第一掩膜图像仅包括所述第一语义分割结果中所指示的目标对象的图像,所述第二掩膜图像仅包括所述第一语义分割结果中除所述目标对象以外的图像,所述目标对象为所述第一语义分割结果中任意一个类别的对象。
由于语义分割模型所输出的第一语义分割结果中标注了第一图像中各个对象所在的图像区域以及各个对象所对应的类别,因此训练设备能够第一语义分割结果中所指示的目标对象所在的图像区域,确定第一掩膜图像和第二掩膜图像。其中,第一掩膜图像例如可以为与第一图像相同大小的图像,且第一掩膜图像中仅包括目标对象的图像,而不包括目标对象之外的其他对象的图像。相反的,第二掩膜图像例如也可以为与第一图像相同大小的图像,且第二掩膜图像仅包括目标对象之外的其他对象的图像,而不包括目标对象的图像。
示例性地,可以参阅图5,图5为本申请实施例提供的一种掩膜图像的示意图。如图5所述,第一图像中的对象包括鸟、树枝和树干,第一语义分割结果将第一图像中的各个对象所在的图像进行了划分。假设目标对象为鸟,则基于第一语义分割结果得到的第一掩膜图像中仅包括第一图像中鸟的图像,且第一掩膜图像中除了鸟所在的区域以外的其他区域均以特定值的像素(即黑色像素)来表示。第二掩膜图像则仅包括第一图像中除鸟以外的其他对象的图像,且第一掩膜图像中鸟所在的区域均以特定值的像素来表示。
然后,训练设备将所述第一掩膜图像、所述第二掩膜图像以及所述目标对象对应的类别文本输入所述多模态模型,得到所述第一掩膜图像的特征与所述类别文本的特征之间的第一相似度,以及所述第一掩膜图像的特征与所述第二掩膜图像的特征之间的第二相似度。
其中,由于第一掩膜图像是仅包括目标对象的图像,因此第一掩膜图像的特征与类别文本的特征之间的第一相似度越高,则代表第一掩膜图像中的内容越接近目标对象的类别,即第一掩膜图像中除目标对象以外的其他内容越少。由于第二掩膜图像是仅包括除目标对象以外其他对象的图像,因此第一掩膜图像的特征与第二掩膜图像的特征之间的第二相似度越低,则代表第一掩膜图像与第二掩膜图像之间的差异越大,即第二掩膜图像中与目标对象相关的内容越少。
最后,训练设备根据第一相似度和第二相似度计算得到第二损失函数,并根据第一损失函数和第二损失函数,对所述语义分割模型进行训练。
本实施例中,由于第一相似度越高,代表第一掩膜图像中除目标对象以外的其他内容越少,即语义分割模型的分割精度越高;第二相似度越越低,代表第二掩膜图像中与目标对象相关的内容越少,即语义分割模型的分割精度越高。因此,基于第一相似度和第二相似度所表示的内容以及语义分割模型的训练目标,可以设计得到第二损失函数。
可选的,所述第一相似度与所述第二损失函数具有负相关的关系,所述第二相似度与所述第二损失函数具有正相关的关系。即,第一相似度与所述第二损失函数的大小变化方向不相同,第二损失函数的值随着第一相似度的增大而减小,第二损失函数的值随着第一相似度的减小而增大。第二相似度与所述第二损失函数的大小变化方向不相同,第二损失函数的值随着第一相似度的增大而增大,第二损失函数的值随着第一相似度的减小而减小。也就是说,在训练目标是第二损失函数尽可能小的情况下,第一相似度的值需要尽可能大,且第二相似度的值则需要尽可能小。
总的来说,第一相似度越高,代表语义分割模型的分割精度越高,由第一相似度得到的第二损失函数也越低;第二相似度越低,代表语义分割模型的分割精度越高,由第二相似度得到的第二损失函数也越低。由于语义分割模型的训练目标是第二损失函数尽可能地低,因此基于第二损失函数的约束,可以使得语义分割模型更加精准地对图像中的对象进行分割。
需要说明的是,以上介绍了基于第一语义分割结果中的某一个对象(即目标对象)所对应的两个掩膜图像,计算得到与这两个掩膜图像相关的两个相似度。在实际应用中,训练设备还可以是获取第一语义分割结果中各个对象所对应的两个掩膜图像,并计算与各个对象所对应的两个掩膜图像相关的两个相似度,即计算得到第一语义分割结果中各个对象相关的相似度。然后,训练设备基于第一语义分割结果中各个对象相关的相似度来计算得到第二损失函数。
本方案中,引入了第二损失函数,该第二损失函数能够表征语义分割模型所得到的语义分割结果中目标对象与类别文本之间的差异以及目标对象与其他对象之间的差异。在第一损失函数的基础上,进一步基于第二损失函数对语义分割模型进行训练,能够引导语义分割模型学习更加精确地进行区域分割,从而提高语义分割模型的分割精度。
实现方式二:训练设备基于第一损失函数和第三损失函数对语义分割模型进行训练。
具体地,训练设备将第一图像输入降噪模型,得到第二语义分割结果。其中,降噪模型的结构与所述语义分割模型的结构相同,且所述降噪模型的网络参数与所述语义分割模型的网络参数不同。例如,降噪模型与语义分割模型均为卷积神经网络结构,或降噪模型与语义分割模型均为Transformer结构。
然后,训练设备根据第一语义分割结果和第二语义分割结果得到第三损失函数,并基于所述第一损失函数和第三损失函数,对所述语义分割模型进行训练。
可选的,所述降噪模型的网络参数是基于所述语义分割模型的网络参数以及所述降噪模型在上一轮迭代训练过程中的网络参数得到的。也就是说,在训练过程中,相较于语义分割模型中网络参数的快速更新,降噪模型中网络参数的更新存在一定的滞后性,降噪模型中网络参数的更新会更加缓慢且更贴近以前的训练过程中的网络参数。
本方案中,通过在语义分割模型的训练过程中引入与语义分割模型结构相同的降噪模型,能够有效地抑制语义分割模型在训练过程中所发生的的训练震荡,提升语义分割模型的训练稳定性,以便于高效地实现语义分割模型的训练。
实现方式三:训练设备基于第一损失函数、第二损失函数和第三损失函数对语义分割模型进行训练。
具体地,训练设备在基于上述的实现方式一得到第二损失函数,以及基于上述的实现方式二得到第三损失函数后,训练设备基于第一损失函数、第二损失函数和第三损失函数对语义分割模型进行训练。
以上介绍了本申请实施例提供的一种无监督语义分割模型的训练方法的实现过程,以下将结合具体例子详细介绍该无监督语义分割模型的训练方法。
本实施例中,以三个模型作为教师网络,通过知识蒸馏的方式对作为学生网络的待训练的语义分割模型进行训练,从而得到训练好的语义分割模型。
示例性地,可以参阅图6,图6为本申请实施例提供的一种训练框架的示意图。如图6所示,在该训练框架中,语义模型、掩膜模型和降噪模型为教师网络,待训练的语义分割模型则为学生网络。其中,语义模型和掩膜模型是基于多模态预训练模型得到的,降噪模型则是基于语义分割模型得到的。
具体地,语义模型的输入包括输入图像和输入图像可能的类别,语义模型的输出则为基于输入图像所生成的伪标注,即对输入图像执行语义分割所得到的结果。基于语义模型的输出与语义分割模型的输出,能够构建如上述实施例所述的第一损失函数。
掩膜模型的输入为学生网络的预测结果(即学生网络预测得到的语义分割结果),掩膜模型的输出为多个相似度,该多个相似度包括学生网络的预测结果中目标区域和非目标区域之间的相似度、目标区域和目标区域对应的类别文本之间的相似度。基于掩膜模型的输出与语义分割模型的输出,能够构建如上述实施例所述的第二损失函数。
降噪模型的输入包括输入图像,降噪模型的输出则为基于输入图像所生成的预测结果(即降噪模型预测得到的语义分割结果)。基于降噪模型的输出与语义分割模型的输出,能够构建如上述实施例所述的第三损失函数。
可以参阅图7,图7为本申请实施例提供的一种无监督语义分割模型的训练过程示意图。其中,作为学生网络的语义分割模型采用Vision Transformer模型,且语义分割模型的主干(backbone)网络为ViT-B/16结构。语义模型则采用CLIP模型和DINO模型。
以下将结合图7分别对各个模型的工作过程进行详细介绍。
首先,介绍用于生成伪标注的语义模型。该语义模型用于基于预训练大模型(例如CLIP模型和DINO模型)的泛化识别能力,提取、聚合以及分类像素级特征,从而获取像素级语义知识,生成伪标注。
具体地,可以参阅图8,图8为本申请实施例提供的一种语义模型的工作流程示意图。
如图8所示,对于训练数据集中的某个输入图像,该输入图像中可能包括多个不同类别的对象,因此语义模型中基于CLIP模型来预测输入图像中的对象的类别集合。
具体地,训练设备先获取训练数据集的标签集合,该标签集合指示了训练数据集中的任意一个输入图像可能包括的类别,例如标签集合中的类别标签包括:人、狗、猫、瓶子等标签。然后,训练设备将标签集合和输入图像输入至CLIP模型,由CLIP模型来提取类别标签的特征以及输入图像的特征,并计算各个类别标签的特征与输入图像的特征之间的相似度。基于预先设定的阈值τ,确定与输入图像的特征之间的相似度大于阈值τ的类别标签的特征,从而将这些特征所对应的类别标签确定为输入图像的类别,得到输入图像对应的类别集合。如图8所示,输入图像对应的类别集合C={person,dog},即输入图像对应的类别集合包括人和狗。
此外,训练设备还通过语义模型中的DINO模型对输入图像执行特征提取,得到输入图像的特征图。其中,由于DINO模型的特点,基于DINO模型能够提取得到分辨率较高的特征图,从而实现提取输入图像的像素级特征。其次,基于输入图像对应的类别集合确定聚类中心数,并基于k-means聚类方法对输入图像的特征图进行聚类,得到多个特征区域(如图8中所示的Group 0、Group 1以及Group 2)。在聚类得到多个特征区域的情况下,基于多个特征区域在图像中的位置,从第一图像中提取得到与多个特征区域对应的多个图像区域。
在得到多个图像区域后,将多个图像区域和输入图像的类别集合对应的多个类别文本输入至CLIP模型中,由CLIP模型提取各个图像区域的特征以及各个类别文本的特征,并计算每个图像区域的特征与各个类别文本的特征之间的相似度,实现图像区域与类别文本的匹配,得到各个图像区域对应的类别,即得到输入图像对应的伪标注。通过基于伪标注P与待训练的语义分割模型的预测结果S之间的第一损失函数LST,语义分割模型能够无监督地学习语义分割。
示例性地,第一损失函数例如可以如公式1所示。
LST(P,S)=-EP[logS] 公式1
其中,LST表示第一损失函数,P表示伪标注,S表示语义分割模型的预测结果。
上文介绍了基于包括CLIP模型和DINO模型的语义模型来生成伪标注,以辅助语义分割模型实现无监督地学习语义分割的过程。以下将介绍基于掩膜模型来引导语义分割模型学习更加精确地分割区域的过程。
可以参阅图9,图9为本申请实施例提供的一种掩膜模型的工作流程示意图。如图9所示,对于图像中的目标对象--摩托车(motorbike),由于缺乏准确的伪标注,语义分割模型学习到的掩膜无法准确覆盖motorbike的目标区域。对于语义分割模型输出的预测结果S,预测结果S的每个通道对应一个类别的分割结果。对于一个可能的类别c,预测结果S对应的预测掩膜为Sc。这样,对于预测掩膜为Sc,可以划分得到正负样本区域,正样本区域
Figure BDA0003670389830000191
(即上述实施例中的第一掩膜图像)对应当前类别的前景,负样本区域
Figure BDA0003670389830000192
(即上述实施例中的第二掩膜图像)对应背景。示例性地,正样本区域
Figure BDA0003670389830000193
和负样本区域
Figure BDA0003670389830000194
可以如以下的公式2和公式3所示。
Figure BDA0003670389830000195
Figure BDA0003670389830000196
其中,σ(·)表示sigmoid激活函数,∈p,∈n为预设参数,∈p,∈n的取值例如可以为0.65和0.4,η为预设参数,η的取值例如可以为0.03。
然后,基于掩膜模型中的CLIP模型,对正样本区域
Figure BDA0003670389830000197
和负样本区域
Figure BDA0003670389830000198
分别提取图像特征
Figure BDA0003670389830000199
和图像特征
Figure BDA00036703898300001910
再对当前类别c的标签提取文本特征lc。在第二损失函数的设计过程中,为了让前景区域只包含对应类别的目标区域,正样本区域的图像特征
Figure BDA00036703898300001911
需要尽可能地靠近类别c的文本特征lc,来抑制前景中的非当前类区域(false positive)。为了让背景区域不要包含类别c的目标区域,负样本区域的图像特征
Figure BDA00036703898300001912
需要尽可能地远离正样本区域的图像特征
Figure BDA00036703898300001913
来抑制背景中的当前类区域(false negative)。示例性地,第二损失函数可以是如公式4所示。
Figure BDA00036703898300001914
其中,LMT(S,L)表示第二损失函数,C表示预测结果S的类别集合,c表示预测结果S的类别集合中的一个类别,
Figure BDA00036703898300001915
表示类别c的图像中的正样本区域的图像特征,lc表示类别c的文本特征,
Figure BDA00036703898300001916
表示类别c的图像中的负样本区域的图像特征。
上文介绍了基于掩膜模型来引导语义分割模型学习更加精确地分割区域的过程,以下将介绍对训练过程执行降噪,以提高语义分割模型在训练过程中的稳定性的过程。
由于语义模型所生成的伪标注P中包含的噪声信息会使得模型训练震荡,因此本实施例引入一个降噪模型,用于提升训练稳定性。降噪模型和语义分割模型具有相同的结构,在前向传播时输出一个预测结果T作为辅助监督信息,与模型预测计算第三损失函数LDT。通过第三损失函数LDT来约束语义分割模型的学习,抑制训练震荡。示例性地,第三损失函数LDT如公式5所示。
LDT(T,S)=-ET[logS] 公式5
其中,LDT(T,S)表示第三损失函数,T表示降噪模型的预测结果,S表示语义分割模型的预测结果。
此外,降噪模型的网络参数与语义分割模型的网络参数并不相同。降噪模型的网络参数是使用指数移动平均策略进行更新的。示例性地,假设语义分割模型的网络参数为θ,降噪模型在当前训练过程中的网络参数为φ1,降噪模型在上一轮迭代训练过程中的网络参数为φ0,那么降噪模型的参数更新公式例如可以为以下的公式6。
φ1=λφ0+(1-λθ) 公式6
其中,λ为降噪因子,取值范围为[0,1]。示例性地,λ的取值例如可以为0.9。
在基于上述的三个教师网络模型得到第一损失函数、第二损失函数和第三损失函数之后,即可根据这三个损失函数对语义分割模型进行训练,直至达到收敛条件,得到训练好的语义分割模型。
可选的,在语义分割模型的训练过程中,语义分割模型的训练数据集可以是闭集(close-set)或者是开集(open-set)的,具体如下文所介绍。
闭集:训练数据集是预先定义好且不会发生变化的。语义分割模型在多个教师网络模型的引导下完成训练后,可直接用于推理。在推理阶段,将一个图像输入语义分割模型后,语义分割模型能够预测该图像的语义分割结果,无需任何后处理。
开集:训练数据集是动态变化的。示例性地,可以参阅图10,图10为本申请实施例提供的一种基于开集来训练语义分割模型的示意图。如图10所示,在第t轮训练迭代过程中,语义分割模型基于预先定义好的训练数据集以及训练数据集中的类别标签进行训练,得到语义分割结果,该语义分割结果中能够识别出图像中的狗。在第t轮训练迭代完成后,训练数据集发生了变化(即新增了部分训练数据),且训练数据集中的类别标签也发生了变化。因此,基于新增的训练数据对语义分割模型执行第t+1轮训练迭代,得到更新后的语义分割模型。其中,更新后的语义分割模型能够识别得到图像中的狗和树木。
简单来说,在训练数据集为开集的情况下,新类别的训练数据加入会触发多个教师网络模型重新从新类别的训练数据中挖掘相关知识,用于辅助语义分割模型的增量学习。这样,语义分割模型在新标签集经过微调之后,即可用于推理,实现分割新的类别。
经过验证,本申请实施例提供的无监督语义分割模型的训练方法带来的效果如下文所介绍。
在公开数据集PASCAL VOC 2012上,对比非学习的方法(如CLIP Baseline和DINOBasline)、自监督学习的方法(如MoCov2)和无监督学习的方法(如MaskCon),本申请实施例提供的无监督语义分割模型的训练方法(以下简称SegCLIP)取得了最佳效果,如表1所示。
表1
Figure BDA0003670389830000211
由表1可知,在不使用人工标注用于训练的情况下,本申请实施例方法训练出的模型准确率最高。
其中,CLIP Baseline和DINO Baseline是指直接使用预训练模型CLIP或DINO提取像素级特征聚类,再与类别标签的语言编码计算相似性预测其类别标签,从而得到语义分割结果。
2.MoCo v2是一种自监督表征学习方法,可用于提取像素级特征来。这些特征聚类后有两种方式(K-Means和Retrieval)来获取类别标签,从而得到语义分割结果。
KMeans方法是指对测试集(test set)图像提取像素级特征并进行聚类,然后再取一个带像素级标注的辅助数据集合(support set),提取像素特征并聚类,每个聚类的类别标签是其所包含像素的标签。对test set和support set上的聚类中心两两计算相似度,为test set的每个聚类选择相似度最高的support set中的聚类的类别标签,这样test set每个聚类中的像素都有了语义类别标签,从而可以得到语义分割结果。
Retrieval方法是指对test set图片提取像素级特征后进行聚类,每个聚类中的像素构成一个掩膜,将这些像素的特征的平均值作为掩膜的特征。同样地,对support set也提取掩膜特征,因为support set有像素级标注,其掩膜已有类别标签。用test set的掩膜特征在support set中检索到的最近邻掩膜作为预测,从而生成语义分割结果。
MaskCon是已有的精度最高的一个无监督语义分割方法,它需要依赖显著性预训练模型来学习像素间的相关性,测试时,通过上述的KMeans和Retrieval方法可使掩膜获得语义标签。
在表1中,评测指标mIoU为交并比(mean Intersection over Union),是指真实值和预测值的交集和并集之比。评测指标pix.acc为像素准确度(pixel accuray),是指预测正确的像素占总像素的比例。
此外,本实施例还提供了消融实验来验证本实施例中所提出的不同教师网络模型的有效性。具体地,消融实验的结果如表2所示。
表2
语义模型 掩膜模型 降噪模型 mIoU(%)
38.3
47.5
48.7
49.2
51.1
1,语义模型。
本实施例所提供的方法中,语义模型是一种从预训练模型中获取像素级语义知识,作为伪标注来训练语义分割模型的模块。为了尽可能地消融掉语义模型的功能,本实施例另外构建一个模型,放弃挖掘像素级语义信息,其生成的伪标注只包含两个类别,即前景和背景。如表2所示,对比含有语义知识的伪标注,无语义信息的模型的精度下降9.2%(从47.5%到38.3%)。
2,掩膜模型。
如表2所示,去掉掩膜模型后,训练得到的语义分割模型的精度下降1.9%(从51.1%到49.2%),说明掩膜模型能够提升语义分割的准确度。
3,降噪模型。
如表2所示,去掉降噪模型后,训练得到的语义分割模型的精度下降2.4%(从51.1%到48.7%),说明本实施例所提供的降噪模块在无监督语义分割框架下十分有效,能够带来一定的性能提升。
可以参阅图11,图11为本申请实施例提供的一种语义分割模型在训练过程中的优化示意图。如图11所示,随着训练的执行,在初始伪标注并不准确的情况下,最终语义分割模型能够学习到更加准确的分割结果。
可以参阅图12,图12为本申请实施例提供的一种语义分割模型在不同场景下的语义分割效果示意图。如图12所示,基于本申请实施例所提供的方法训练得到的语义分割模型在复杂的场景下的也能够得到准确的语义分割结果。
A.像素缺失(Missing pixels):第1列,待分割目标为牛,由于颜色的区别,其初始伪标注并不精确,经过模型训练,语义分割模型最终能够预测准确的掩膜。
B.冗余像素(Redundant pixels):第2列中,初始的分割结果中包含了冗余的像素被错误地标为椅子,经过模型训练,语义分割模型最终得到的较为准确的chair掩膜。
C.混杂像素(Cluttered pixels):第3列中,猫和狗类别因为距离较近且毛色纹理相似,其像素容易混杂在一起,而经过模型训练,语义分割模型最终得到较为准确的结果。
D.错误标签(Wrong labels):第4列中,在初始伪标注中,车被错分成牛,经过模型训练,语义分割模型最终得到正确的标签。
E.失效掩膜(Failed mask):第5列中,初始伪标注失效了,而经过模型训练后,语义分割模型依然能够准确预测。
以上介绍了本申请实施例所提供的一种无监督语义分割模型的训练方法,以下将介绍本申请实施例提供的一种语义分割方法。
具体地,本申请实施例提供的一种语义分割方法包括:获取待处理图像,并将所述待处理图像输入语义分割模型,得到第一语义分割结果。
其中,所述语义分割模型是基于第一损失函数训练得到的,所述第一损失函数是基于输出结果和第二语义分割结果得到的,所述第二语义分割结果是将训练数据集中的第一图像输入所述语义分割结果模型后得到的,所述输出结果是将多个图像区域和描述类别集合的多个文本输入多模态模型后得到的,所述输出结果用于指示所述多个图像区域中每个图像区域对应的类别,所述多模态模型用于执行图像和文本的匹配,所述多个图像区域为所述第一图像中与多个特征区域对应的图像区域,所述多个特征区域是根据所述第一图像的所述类别集合对所述第一图像的特征图进行聚类后得到的,所述类别集合用于指示所述第一图像中的多个对象的类别,所述多个特征区域中的每个特征区域对应于所述类别集合中的一个类别。
具体来说,该语义分割模型可以为基于上述实施例所述的无监督语义分割模型的训练方法训练得到的,具体训练过程可以参考上述实施例的介绍,在此不做赘述。
在一种可能的实现方式中,所述多模态模型用于提取所述多个图像区域对应的多个图像特征以及所述多个文本对应的多个文本特征,并计算所述多个图像特征中的每个图像特征与所述多个文本特征之间的相似度,以得到所述多个图像区域中每个图像区域对应的类别;其中,第一图像区域对应的类别为与第一图像特征相似度最高的文本特征所对应的类别,所述第一图像区域为所述多个图像区域中的任意一个图像区域,所述第一图像特征为所述多个图像特征中与所述第一图像区域对应的图像特征。
在一种可能的实现方式中,所述训练数据集包括多个图像和多个类别标签,所述多个图像包括所述第一图像,所述多个类别标签用于指示所述多个图像中的对象的类别;所述第一图像的类别集合是根据多个相似度得到的,所述类别集合包括多个目标类别,所述多个目标类别的特征与所述第一图像的特征之间的相似度均大于或等于预设阈值,所述多个相似度为第一图像的特征分别与所述多个类别标签中每个类别标签的特征之间的多个相似度,所述多个相似度是将所述第一图像和所述多个类别标签输入所述多模态模型后得到的。
在一种可能的实现方式中,所述语义分割模型是基于所述第一损失函数和第二损失函数训练得到的,所述第二损失函数是基于第一相似度和第二相似度得到的,所述第一相似度为第一掩膜图像的特征与类别文本的特征之间的相似度,所述第二相似度为所述第一掩膜图像的特征与第二掩膜图像的特征之间的相似度,所述第一相似度和所述第二相似度是将所述第一掩膜图像、所述第二掩膜图像以及目标对象对应的类别文本输入所述多模态模型得到的,所述第一掩膜图像和所述第二掩膜图像是基于所述第二语义分割结果得到的,所述第一掩膜图像仅包括所述第二语义分割结果中所指示的目标对象的图像,所述第二掩膜图像仅包括所述第二语义分割结果中除所述目标对象以外的图像,所述目标对象为所述第一语义分割结果中任意一个类别的对象。
在一种可能的实现方式中,所述第一相似度与所述第二损失函数具有负相关的关系,所述第二相似度与所述第二损失函数具有正相关的关系。
在一种可能的实现方式中,所述语义分割模型是基于所述第一损失函数和第三损失函数训练得到的,所述第三损失函数是基于所述第二语义分割结果和第三语义分割结果得到的,所述第三语义分割结果是将所述第一图像输入所述降噪模型后得到的,所述降噪模型的结构与所述语义分割模型的结构相同,且所述降噪模型的网络参数与所述语义分割模型的网络参数不同。
在一种可能的实现方式中,所述语义分割模型是基于所述第一损失函数、所述第二损失函数和第三损失函数训练得到的,所述第三损失函数是基于所述第二语义分割结果和第三语义分割结果得到的,所述第三语义分割结果是将所述第一图像输入所述降噪模型后得到的,所述降噪模型的结构与所述语义分割模型的结构相同,且所述降噪模型的网络参数与所述语义分割模型的网络参数不同。
在一种可能的实现方式中,所述降噪模型的网络参数是基于所述语义分割模型的网络参数以及所述降噪模型在上一轮迭代训练过程中的网络参数得到的。
以上介绍了本申请实施例提供的模型训练方法和语义分割方法,为便于理解,以下将介绍执行上述的模型训练方法和语义分割方法的设备。
可以参阅图13,图13为本申请实施例提供的一种无监督语义分割模型的训练装置的结构示意图。如图13所示,无监督语义分割模型的训练装置1300,包括:获取模块1301、处理模块1302和训练模块1303。
获取模块1301,用于获取训练数据集中的第一图像的特征图,并根据所述第一图像的类别集合对所述特征图进行聚类,得到所述特征图中的多个特征区域,其中所述类别集合用于指示所述第一图像中的多个对象的类别,所述多个特征区域中的每个特征区域对应于所述类别集合中的一个类别;处理模块1302,用于确定所述第一图像中与所述多个特征区域对应的多个图像区域;所述处理模块1302,还用于将所述多个图像区域和描述所述类别集合的多个文本输入多模态模型,得到输出结果,所述输出结果用于指示所述多个图像区域中每个图像区域对应的类别,其中所述多模态模型用于执行图像和文本的匹配;所述处理模块1302,还用于将所述第一图像输入语义分割模型,得到第一语义分割结果;训练模块1303,用于根据第一损失函数,对所述语义分割模型进行训练,以更新所述语义分割模型,其中所述第一损失函数是基于所述输出结果和所述第一语义分割结果构建的。
在一种可能的实现方式中,所述多模态模型用于提取所述多个图像区域对应的多个图像特征以及所述多个文本对应的多个文本特征,并计算所述多个图像特征中的每个图像特征与所述多个文本特征之间的相似度,以得到所述多个图像区域中每个图像区域对应的类别;其中,第一图像区域对应的类别为与第一图像特征相似度最高的文本特征所对应的类别,所述第一图像区域为所述多个图像区域中的任意一个图像区域,所述第一图像特征为所述多个图像特征中与所述第一图像区域对应的图像特征。
在一种可能的实现方式中,所述训练数据集包括多个图像和多个类别标签,所述多个图像包括所述第一图像,所述多个类别标签用于指示所述多个图像中的对象的类别;所述处理模块1302,还用于:将所述第一图像和所述多个类别标签输入所述多模态模型,得到第一图像的特征分别与所述多个类别标签中每个类别标签的特征之间的多个相似度;根据所述多个相似度,确定所述第一图像的类别集合,其中所述类别集合包括多个目标类别,所述多个目标类别的特征与所述第一图像的特征之间的相似度均大于或等于预设阈值。
在一种可能的实现方式中,所述处理模块1302,还用于基于所述第一语义分割结果,获取第一掩膜图像和第二掩膜图像,所述第一掩膜图像仅包括所述第一语义分割结果中所指示的目标对象的图像,所述第二掩膜图像仅包括所述第一语义分割结果中除所述目标对象以外的图像,所述目标对象为所述第一语义分割结果中任意一个类别的对象;所述处理模块1302,还用于将所述第一掩膜图像、所述第二掩膜图像以及所述目标对象对应的类别文本输入所述多模态模型,得到所述第一掩膜图像的特征与所述类别文本的特征之间的第一相似度,以及所述第一掩膜图像的特征与所述第二掩膜图像的特征之间的第二相似度;所述训练模块1303,具体用于根据所述第一损失函数和第二损失函数,对所述语义分割模型进行训练,其中所述第二损失函数是基于所述第一相似度和所述第二相似度得到的。
在一种可能的实现方式中,所述第一相似度与所述第二损失函数具有负相关的关系,所述第二相似度与所述第二损失函数具有正相关的关系。
在一种可能的实现方式中,所述处理模块1302,还用于将所述第一图像输入降噪模型,得到第二语义分割结果,所述降噪模型的结构与所述语义分割模型的结构相同,且所述降噪模型的网络参数与所述语义分割模型的网络参数不同;所述训练模块1303,具体用于根据所述第一损失函数和第三损失函数,对所述语义分割模型进行训练,所述第三损失函数是基于所述第一语义分割结果和所述第二语义分割结果得到的。
在一种可能的实现方式中,所述处理模块1302,还用于将所述第一图像输入降噪模型,得到第二语义分割结果,所述降噪模型的结构与所述语义分割模型的结构相同,且所述降噪模型的网络参数与所述语义分割模型的网络参数不同;所述训练模块1303,具体用于根据所述第一损失函数、所述第二损失函数和第三损失函数,对所述语义分割模型进行训练,所述第三损失函数是基于所述第一语义分割结果和所述第二语义分割结果得到的。
在一种可能的实现方式中,所述降噪模型的网络参数是基于所述语义分割模型的网络参数以及所述降噪模型在上一轮迭代训练过程中的网络参数得到的。
可以参阅图14,图14为本申请实施例提供的一种语义分割装置的结构示意图。如图14所示,语义分割装置1400,包括:获取模块1401和处理模块1402。获取模块1401,用于获取待处理图像;处理模块1402,用于将所述待处理图像输入语义分割模型,得到第一语义分割结果;其中,所述语义分割模型是基于第一损失函数训练得到的,所述第一损失函数是基于输出结果和第二语义分割结果得到的,所述第二语义分割结果是将训练数据集中的第一图像输入所述语义分割结果模型后得到的,所述输出结果是将多个图像区域和描述类别集合的多个文本输入多模态模型后得到的,所述输出结果用于指示所述多个图像区域中每个图像区域对应的类别,所述多模态模型用于执行图像和文本的匹配,所述多个图像区域为所述第一图像中与多个特征区域对应的图像区域,所述多个特征区域是根据所述第一图像的所述类别集合对所述第一图像的特征图进行聚类后得到的,所述类别集合用于指示所述第一图像中的多个对象的类别,所述多个特征区域中的每个特征区域对应于所述类别集合中的一个类别。
在一种可能的实现方式中,所述多模态模型用于提取所述多个图像区域对应的多个图像特征以及所述多个文本对应的多个文本特征,并计算所述多个图像特征中的每个图像特征与所述多个文本特征之间的相似度,以得到所述多个图像区域中每个图像区域对应的类别;其中,第一图像区域对应的类别为与第一图像特征相似度最高的文本特征所对应的类别,所述第一图像区域为所述多个图像区域中的任意一个图像区域,所述第一图像特征为所述多个图像特征中与所述第一图像区域对应的图像特征。
在一种可能的实现方式中,所述训练数据集包括多个图像和多个类别标签,所述多个图像包括所述第一图像,所述多个类别标签用于指示所述多个图像中的对象的类别;所述第一图像的类别集合是根据多个相似度得到的,所述类别集合包括多个目标类别,所述多个目标类别的特征与所述第一图像的特征之间的相似度均大于或等于预设阈值,所述多个相似度为第一图像的特征分别与所述多个类别标签中每个类别标签的特征之间的多个相似度,所述多个相似度是将所述第一图像和所述多个类别标签输入所述多模态模型后得到的。
在一种可能的实现方式中,所述语义分割模型是基于所述第一损失函数和第二损失函数训练得到的,所述第二损失函数是基于第一相似度和第二相似度得到的,所述第一相似度为第一掩膜图像的特征与类别文本的特征之间的相似度,所述第二相似度为所述第一掩膜图像的特征与第二掩膜图像的特征之间的相似度,所述第一相似度和所述第二相似度是将所述第一掩膜图像、所述第二掩膜图像以及目标对象对应的类别文本输入所述多模态模型得到的,所述第一掩膜图像和所述第二掩膜图像是基于所述第二语义分割结果得到的,所述第一掩膜图像仅包括所述第二语义分割结果中所指示的目标对象的图像,所述第二掩膜图像仅包括所述第二语义分割结果中除所述目标对象以外的图像,所述目标对象为所述第一语义分割结果中任意一个类别的对象。
在一种可能的实现方式中,所述第一相似度与所述第二损失函数具有负相关的关系,所述第二相似度与所述第二损失函数具有正相关的关系。
在一种可能的实现方式中,所述语义分割模型是基于所述第一损失函数和第三损失函数训练得到的,所述第三损失函数是基于所述第二语义分割结果和第三语义分割结果得到的,所述第三语义分割结果是将所述第一图像输入所述降噪模型后得到的,所述降噪模型的结构与所述语义分割模型的结构相同,且所述降噪模型的网络参数与所述语义分割模型的网络参数不同。
在一种可能的实现方式中,所述语义分割模型是基于所述第一损失函数、所述第二损失函数和第三损失函数训练得到的,所述第三损失函数是基于所述第二语义分割结果和第三语义分割结果得到的,所述第三语义分割结果是将所述第一图像输入所述降噪模型后得到的,所述降噪模型的结构与所述语义分割模型的结构相同,且所述降噪模型的网络参数与所述语义分割模型的网络参数不同。
在一种可能的实现方式中,所述降噪模型的网络参数是基于所述语义分割模型的网络参数以及所述降噪模型在上一轮迭代训练过程中的网络参数得到的。
接下来介绍本申请实施例提供的一种执行设备,请参阅图15,图15为本申请实施例提供的执行设备的一种结构示意图,执行设备1500具体可以表现为服务器、智能手机、平板电脑、个人电脑或笔记本电脑等,此处不做限定。具体的,执行设备1500包括:接收器1501、发射器1502、处理器1503和存储器1504(其中执行设备1500中的处理器1503的数量可以一个或多个,图15中以一个处理器为例),其中,处理器1503可以包括应用处理器15031和通信处理器15032。在本申请的一些实施例中,接收器1501、发射器1502、处理器1503和存储器1504可通过总线或其它方式连接。
存储器1504可以包括只读存储器和随机存取存储器,并向处理器1503提供指令和数据。存储器1504的一部分还可以包括非易失性随机存取存储器(non-volatile randomaccess memory,NVRAM)。存储器1504存储有处理器和操作指令、可执行模块或者数据结构,或者它们的子集,或者它们的扩展集,其中,操作指令可包括各种操作指令,用于实现各种操作。
处理器1503控制执行设备的操作。具体的应用中,执行设备的各个组件通过总线***耦合在一起,其中总线***除包括数据总线之外,还可以包括电源总线、控制总线和状态信号总线等。但是为了清楚说明起见,在图中将各种总线都称为总线***。
上述本申请实施例揭示的方法可以应用于处理器1503中,或者由处理器1503实现。处理器1503可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器1503中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器1503可以是通用处理器、数字信号处理器(digital signal processing,DSP)、微处理器或微控制器,还可进一步包括专用集成电路(application specific integratedcircuit,ASIC)、现场可编程门阵列(field-programmable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。该处理器1503可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器1504,处理器1503读取存储器1504中的信息,结合其硬件完成上述方法的步骤。
接收器1501可用于接收输入的数字或字符信息,以及产生与执行设备的相关设置以及功能控制有关的信号输入。发射器1502可用于通过第一接口输出数字或字符信息;发射器1502还可用于通过第一接口向磁盘组发送指令,以修改磁盘组中的数据;发射器1502还可以包括显示屏等显示设备。
本申请实施例还提供了一种训练设备,请参阅图16,图16为本申请实施例提供的训练设备一种结构示意图,具体的,训练设备1600由一个或多个服务器实现,训练设备1600可因配置或性能不同而产生比较大的差异,可以包括一个或一个以***处理器(centralprocessing units,CPU)1622(例如,一个或一个以上处理器)和存储器1632,一个或一个以上存储应用程序1642或数据1644的存储介质1630(例如一个或一个以上海量存储设备)。其中,存储器1632和存储介质1630可以是短暂存储或持久存储。存储在存储介质1630的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对训练设备中的一系列指令操作。更进一步地,中央处理器1622可以设置为与存储介质1630通信,在训练设备1600上执行存储介质1630中的一系列指令操作。
训练设备1600还可以包括一个或一个以上电源1626,一个或一个以上有线或无线网络接口1650,一个或一个以上输入输出接口1658,和/或,一个或一个以上操作***1641,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
本申请实施例中还提供一种包括计算机程序产品,当其在计算机上运行时,使得计算机执行如前述图4至图12所示实施例描述的方法。
本申请实施例中还提供一种计算机可读存储介质,该计算机可读存储介质中存储有用于进行信号处理的程序,当其在计算机上运行时,使得计算机执行如前述图6至图16所示实施例描述的方法。
本申请实施例提供的图像处理装置、模型训练装置、执行设备以及训练设备具体可以包括芯片,该芯片包括:处理单元和通信单元,所述处理单元例如可以是处理器,所述通信单元例如可以是输入/输出接口、管脚或电路等。该处理单元可执行存储单元存储的计算机执行指令,以使芯片执行上述图4至图12所示实施例描述的方法。可选地,所述存储单元为所述芯片内的存储单元,如寄存器、缓存等,所述存储单元还可以是所述无线接入设备端内的位于所述芯片外部的存储单元,如只读存储器(read-only memory,ROM)或可存储静态信息和指令的其他类型的静态存储设备,随机存取存储器(random access memory,RAM)等。
具体的,请参阅图17,图17为本申请实施例提供的芯片的一种结构示意图,所述芯片可以表现为神经网络处理器NPU 170,NPU 170作为协处理器挂载到主CPU(Host CPU)上,由Host CPU分配任务。NPU的核心部分为运算电路1703,通过控制器1704控制运算电路1703提取存储器中的矩阵数据并进行乘法运算。
在一些实现中,运算电路1703内部包括多个处理单元(Process Engine,PE)。在一些实现中,运算电路1703是二维脉动阵列。运算电路1703还可以是一维脉动阵列或者能够执行例如乘法和加法这样的数学运算的其它电子线路。在一些实现中,运算电路1703是通用的矩阵处理器。
举例来说,假设有输入矩阵A,权重矩阵B,输出矩阵C。运算电路从权重存储器1702中取矩阵B相应的数据,并缓存在运算电路中每一个PE上。运算电路从输入存储器1701中取矩阵A数据与矩阵B进行矩阵运算,得到的矩阵的部分结果或最终结果,保存在累加器(accumulator)1708中。
统一存储器1706用于存放输入数据以及输出数据。权重数据直接通过存储单元访问控制器(Direct Memory Access Controller,DMAC)1705,DMAC被搬运到权重存储器1702中。输入数据也通过DMAC被搬运到统一存储器1706中。
BIU为Bus Interface Unit即,总线接口单元1710,用于AXI总线与DMAC和取指存储器(Instruction Fetch Buffer,IFB)1709的交互。
总线接口单元1710(Bus Interface Unit,简称BIU),用于取指存储器1709从外部存储器获取指令,还用于存储单元访问控制器1705从外部存储器获取输入矩阵A或者权重矩阵B的原数据。
DMAC主要用于将外部存储器DDR中的输入数据搬运到统一存储器1706或将权重数据搬运到权重存储器1702中或将输入数据数据搬运到输入存储器1701中。
向量计算单元1707包括多个运算处理单元,在需要的情况下,对运算电路的输出做进一步处理,如向量乘,向量加,指数运算,对数运算,大小比较等等。主要用于神经网络中非卷积/全连接层网络计算,如Batch Normalization(批归一化),像素级求和,对特征平面进行上采样等。
在一些实现中,向量计算单元1707能将经处理的输出的向量存储到统一存储器1706。例如,向量计算单元1707可以将线性函数和/或非线性函数应用到运算电路1703的输出,例如对卷积层提取的特征平面进行线性插值,再例如累加值的向量,用以生成激活值。在一些实现中,向量计算单元1707生成归一化的值、像素级求和的值,或二者均有。在一些实现中,处理过的输出的向量能够用作到运算电路1703的激活输入,例如用于在神经网络中的后续层中的使用。
控制器1704连接的取指存储器(instruction fetch buffer)1709,用于存储控制器1704使用的指令;
统一存储器1706,输入存储器1701,权重存储器1702以及取指存储器1709均为On-Chip存储器。外部存储器私有于该NPU硬件架构。
其中,上述任一处提到的处理器,可以是一个通用中央处理器,微处理器,ASIC,或一个或多个用于控制上述第一方面方法的程序执行的集成电路。
另外需说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本申请提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件的方式来实现,当然也可以通过专用硬件包括专用集成电路、专用CPU、专用存储器、专用元器件等来实现。一般情况下,凡由计算机程序完成的功能都可以很容易地用相应的硬件来实现,而且,用来实现同一功能的具体硬件结构也可以是多种多样的,例如模拟电路、数字电路或专用电路等。但是,对本申请而言更多情况下软件程序实现是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在可读取的存储介质中,如计算机的软盘、U盘、移动硬盘、ROM、RAM、磁碟或者光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,训练设备,或者网络设备等)执行本申请各个实施例所述的方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。
所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、训练设备或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、训练设备或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存储的任何可用介质或者是包含一个或多个可用介质集成的训练设备、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘(Solid State Disk,SSD))等。

Claims (29)

1.一种无监督语义分割模型的训练方法,其特征在于,包括:
获取训练数据集中的第一图像的特征图,并根据所述第一图像的类别集合对所述特征图进行聚类,得到所述特征图中的多个特征区域,其中所述类别集合用于指示所述第一图像中的多个对象的类别,所述多个特征区域中的每个特征区域对应于所述类别集合中的一个类别;
确定所述第一图像中与所述多个特征区域对应的多个图像区域;
将所述多个图像区域和描述所述类别集合的多个文本输入多模态模型,得到输出结果,所述输出结果用于指示所述多个图像区域中每个图像区域对应的类别,其中所述多模态模型用于执行图像和文本的匹配;
将所述第一图像输入语义分割模型,得到第一语义分割结果;
根据第一损失函数,对所述语义分割模型进行训练,以更新所述语义分割模型,其中所述第一损失函数是基于所述输出结果和所述第一语义分割结果构建的。
2.根据权利要求1所述的方法,其特征在于,所述多模态模型用于提取所述多个图像区域对应的多个图像特征以及所述多个文本对应的多个文本特征,并计算所述多个图像特征中的每个图像特征与所述多个文本特征之间的相似度,以得到所述多个图像区域中每个图像区域对应的类别;
其中,第一图像区域对应的类别为与第一图像特征相似度最高的文本特征所对应的类别,所述第一图像区域为所述多个图像区域中的任意一个图像区域,所述第一图像特征为所述多个图像特征中与所述第一图像区域对应的图像特征。
3.根据权利要求1或2所述的方法,其特征在于,所述训练数据集包括多个图像和多个类别标签,所述多个图像包括所述第一图像,所述多个类别标签用于指示所述多个图像中的对象的类别;
所述方法还包括:
将所述第一图像和所述多个类别标签输入所述多模态模型,得到第一图像的特征分别与所述多个类别标签中每个类别标签的特征之间的多个相似度;
根据所述多个相似度,确定所述第一图像的类别集合,其中所述类别集合包括多个目标类别,所述多个目标类别的特征与所述第一图像的特征之间的相似度均大于或等于预设阈值。
4.根据权利要求1-3任意一项所述的方法,其特征在于,所述方法还包括:
基于所述第一语义分割结果,获取第一掩膜图像和第二掩膜图像,所述第一掩膜图像仅包括所述第一语义分割结果中所指示的目标对象的图像,所述第二掩膜图像仅包括所述第一语义分割结果中除所述目标对象以外的图像,所述目标对象为所述第一语义分割结果中任意一个类别的对象;
将所述第一掩膜图像、所述第二掩膜图像以及所述目标对象对应的类别文本输入所述多模态模型,得到所述第一掩膜图像的特征与所述类别文本的特征之间的第一相似度,以及所述第一掩膜图像的特征与所述第二掩膜图像的特征之间的第二相似度;
所述根据第一损失函数,对所述语义分割模型进行训练,包括:
根据所述第一损失函数和第二损失函数,对所述语义分割模型进行训练,其中所述第二损失函数是基于所述第一相似度和所述第二相似度得到的。
5.根据权利要求4所述的方法,其特征在于,所述第一相似度与所述第二损失函数具有负相关的关系,所述第二相似度与所述第二损失函数具有正相关的关系。
6.根据权利要求1-3任意一项所述的方法,其特征在于,所述方法还包括:
将所述第一图像输入降噪模型,得到第二语义分割结果,所述降噪模型的结构与所述语义分割模型的结构相同,且所述降噪模型的网络参数与所述语义分割模型的网络参数不同;
所述根据第一损失函数,对所述语义分割模型进行训练,包括:
根据所述第一损失函数和第三损失函数,对所述语义分割模型进行训练,所述第三损失函数是基于所述第一语义分割结果和所述第二语义分割结果得到的。
7.根据权利要求4或5所述的方法,其特征在于,所述方法还包括:
将所述第一图像输入降噪模型,得到第二语义分割结果,所述降噪模型的结构与所述语义分割模型的结构相同,且所述降噪模型的网络参数与所述语义分割模型的网络参数不同;
所述根据所述第一损失函数和第二损失函数,对所述语义分割模型进行训练,包括:
根据所述第一损失函数、所述第二损失函数和第三损失函数,对所述语义分割模型进行训练,所述第三损失函数是基于所述第一语义分割结果和所述第二语义分割结果得到的。
8.根据权利要求6或7所述的方法,其特征在于,所述降噪模型的网络参数是基于所述语义分割模型的网络参数以及所述降噪模型在上一轮迭代训练过程中的网络参数得到的。
9.一种语义分割方法,其特征在于,包括:
获取待处理图像;
将所述待处理图像输入语义分割模型,得到第一语义分割结果;
其中,所述语义分割模型是基于第一损失函数训练得到的,所述第一损失函数是基于输出结果和第二语义分割结果得到的,所述第二语义分割结果是将训练数据集中的第一图像输入所述语义分割结果模型后得到的,所述输出结果是将多个图像区域和描述类别集合的多个文本输入多模态模型后得到的,所述输出结果用于指示所述多个图像区域中每个图像区域对应的类别,所述多模态模型用于执行图像和文本的匹配,所述多个图像区域为所述第一图像中与多个特征区域对应的图像区域,所述多个特征区域是根据所述第一图像的所述类别集合对所述第一图像的特征图进行聚类后得到的,所述类别集合用于指示所述第一图像中的多个对象的类别,所述多个特征区域中的每个特征区域对应于所述类别集合中的一个类别。
10.根据权利要求9所述的方法,其特征在于,所述多模态模型用于提取所述多个图像区域对应的多个图像特征以及所述多个文本对应的多个文本特征,并计算所述多个图像特征中的每个图像特征与所述多个文本特征之间的相似度,以得到所述多个图像区域中每个图像区域对应的类别;
其中,第一图像区域对应的类别为与第一图像特征相似度最高的文本特征所对应的类别,所述第一图像区域为所述多个图像区域中的任意一个图像区域,所述第一图像特征为所述多个图像特征中与所述第一图像区域对应的图像特征。
11.根据权利要求9或10所述的方法,其特征在于,所述训练数据集包括多个图像和多个类别标签,所述多个图像包括所述第一图像,所述多个类别标签用于指示所述多个图像中的对象的类别;
所述第一图像的类别集合是根据多个相似度得到的,所述类别集合包括多个目标类别,所述多个目标类别的特征与所述第一图像的特征之间的相似度均大于或等于预设阈值,所述多个相似度为第一图像的特征分别与所述多个类别标签中每个类别标签的特征之间的多个相似度,所述多个相似度是将所述第一图像和所述多个类别标签输入所述多模态模型后得到的。
12.根据权利要求9-11任意一项所述的方法,其特征在于,
所述语义分割模型是基于所述第一损失函数和第二损失函数训练得到的,所述第二损失函数是基于第一相似度和第二相似度得到的,所述第一相似度为第一掩膜图像的特征与类别文本的特征之间的相似度,所述第二相似度为所述第一掩膜图像的特征与第二掩膜图像的特征之间的相似度,所述第一相似度和所述第二相似度是将所述第一掩膜图像、所述第二掩膜图像以及目标对象对应的类别文本输入所述多模态模型得到的,所述第一掩膜图像和所述第二掩膜图像是基于所述第二语义分割结果得到的,所述第一掩膜图像仅包括所述第二语义分割结果中所指示的目标对象的图像,所述第二掩膜图像仅包括所述第二语义分割结果中除所述目标对象以外的图像,所述目标对象为所述第一语义分割结果中任意一个类别的对象。
13.根据权利要求12所述的方法,其特征在于,所述第一相似度与所述第二损失函数具有负相关的关系,所述第二相似度与所述第二损失函数具有正相关的关系。
14.根据权利要求9-11任意一项所述的方法,其特征在于,
所述语义分割模型是基于所述第一损失函数和第三损失函数训练得到的,所述第三损失函数是基于所述第二语义分割结果和第三语义分割结果得到的,所述第三语义分割结果是将所述第一图像输入所述降噪模型后得到的,所述降噪模型的结构与所述语义分割模型的结构相同,且所述降噪模型的网络参数与所述语义分割模型的网络参数不同。
15.根据权利要求12或13所述的方法,其特征在于,
所述语义分割模型是基于所述第一损失函数、所述第二损失函数和第三损失函数训练得到的,所述第三损失函数是基于所述第二语义分割结果和第三语义分割结果得到的,所述第三语义分割结果是将所述第一图像输入所述降噪模型后得到的,所述降噪模型的结构与所述语义分割模型的结构相同,且所述降噪模型的网络参数与所述语义分割模型的网络参数不同。
16.根据权利要求14或15所述的方法,其特征在于,所述降噪模型的网络参数是基于所述语义分割模型的网络参数以及所述降噪模型在上一轮迭代训练过程中的网络参数得到的。
17.一种无监督语义分割模型的训练装置,其特征在于,包括:
获取模块,用于获取训练数据集中的第一图像的特征图,并根据所述第一图像的类别集合对所述特征图进行聚类,得到所述特征图中的多个特征区域,其中所述类别集合用于指示所述第一图像中的多个对象的类别,所述多个特征区域中的每个特征区域对应于所述类别集合中的一个类别;
处理模块,用于确定所述第一图像中与所述多个特征区域对应的多个图像区域;
所述处理模块,还用于将所述多个图像区域和描述所述类别集合的多个文本输入多模态模型,得到输出结果,所述输出结果用于指示所述多个图像区域中每个图像区域对应的类别,其中所述多模态模型用于执行图像和文本的匹配;
所述处理模块,还用于将所述第一图像输入语义分割模型,得到第一语义分割结果;
训练模块,用于根据第一损失函数,对所述语义分割模型进行训练,以更新所述语义分割模型,其中所述第一损失函数是基于所述输出结果和所述第一语义分割结果构建的。
18.根据权利要求17所述的装置,其特征在于,所述多模态模型用于提取所述多个图像区域对应的多个图像特征以及所述多个文本对应的多个文本特征,并计算所述多个图像特征中的每个图像特征与所述多个文本特征之间的相似度,以得到所述多个图像区域中每个图像区域对应的类别;
其中,第一图像区域对应的类别为与第一图像特征相似度最高的文本特征所对应的类别,所述第一图像区域为所述多个图像区域中的任意一个图像区域,所述第一图像特征为所述多个图像特征中与所述第一图像区域对应的图像特征。
19.根据权利要求17或18所述的装置,其特征在于,所述训练数据集包括多个图像和多个类别标签,所述多个图像包括所述第一图像,所述多个类别标签用于指示所述多个图像中的对象的类别;
所述处理模块,还用于:将所述第一图像和所述多个类别标签输入所述多模态模型,得到第一图像的特征分别与所述多个类别标签中每个类别标签的特征之间的多个相似度;根据所述多个相似度,确定所述第一图像的类别集合,其中所述类别集合包括多个目标类别,所述多个目标类别的特征与所述第一图像的特征之间的相似度均大于或等于预设阈值。
20.根据权利要求17-19任意一项所述的装置,其特征在于,
所述处理模块,还用于基于所述第一语义分割结果,获取第一掩膜图像和第二掩膜图像,所述第一掩膜图像仅包括所述第一语义分割结果中所指示的目标对象的图像,所述第二掩膜图像仅包括所述第一语义分割结果中除所述目标对象以外的图像,所述目标对象为所述第一语义分割结果中任意一个类别的对象;
所述处理模块,还用于将所述第一掩膜图像、所述第二掩膜图像以及所述目标对象对应的类别文本输入所述多模态模型,得到所述第一掩膜图像的特征与所述类别文本的特征之间的第一相似度,以及所述第一掩膜图像的特征与所述第二掩膜图像的特征之间的第二相似度;
所述训练模块,具体用于根据所述第一损失函数和第二损失函数,对所述语义分割模型进行训练,其中所述第二损失函数是基于所述第一相似度和所述第二相似度得到的。
21.根据权利要求20所述的装置,其特征在于,所述第一相似度与所述第二损失函数具有负相关的关系,所述第二相似度与所述第二损失函数具有正相关的关系。
22.根据权利要求17-19任意一项所述的装置,其特征在于,
所述处理模块,还用于将所述第一图像输入降噪模型,得到第二语义分割结果,所述降噪模型的结构与所述语义分割模型的结构相同,且所述降噪模型的网络参数与所述语义分割模型的网络参数不同;
所述训练模块,具体用于根据所述第一损失函数和第三损失函数,对所述语义分割模型进行训练,所述第三损失函数是基于所述第一语义分割结果和所述第二语义分割结果得到的。
23.根据权利要求20或21所述的装置,其特征在于,
所述处理模块,还用于将所述第一图像输入降噪模型,得到第二语义分割结果,所述降噪模型的结构与所述语义分割模型的结构相同,且所述降噪模型的网络参数与所述语义分割模型的网络参数不同;
所述训练模块,具体用于根据所述第一损失函数、所述第二损失函数和第三损失函数,对所述语义分割模型进行训练,所述第三损失函数是基于所述第一语义分割结果和所述第二语义分割结果得到的。
24.根据权利要求22或23所述的装置,其特征在于,所述降噪模型的网络参数是基于所述语义分割模型的网络参数以及所述降噪模型在上一轮迭代训练过程中的网络参数得到的。
25.一种语义分割装置,其特征在于,包括:
获取模块,用于获取待处理图像;
处理模块,用于将所述待处理图像输入语义分割模型,得到第一语义分割结果;
其中,所述语义分割模型是基于第一损失函数训练得到的,所述第一损失函数是基于输出结果和第二语义分割结果得到的,所述第二语义分割结果是将训练数据集中的第一图像输入所述语义分割结果模型后得到的,所述输出结果是将多个图像区域和描述类别集合的多个文本输入多模态模型后得到的,所述输出结果用于指示所述多个图像区域中每个图像区域对应的类别,所述多模态模型用于执行图像和文本的匹配,所述多个图像区域为所述第一图像中与多个特征区域对应的图像区域,所述多个特征区域是根据所述第一图像的所述类别集合对所述第一图像的特征图进行聚类后得到的,所述类别集合用于指示所述第一图像中的多个对象的类别,所述多个特征区域中的每个特征区域对应于所述类别集合中的一个类别。
26.一种训练设备,其特征在于,包括处理器和存储器,所述处理器与所述存储器耦合,
所述存储器,用于存储程序;
所述处理器,用于执行所述存储器中的程序,使得所述训练设备执行如权利要求1至8中任一项所述的方法。
27.一种执行设备,其特征在于,包括处理器和存储器,所述处理器与所述存储器耦合,
所述存储器,用于存储程序;
所述处理器,用于执行所述存储器中的程序,使得所述执行设备执行如权利要求9至16中任意一项所述的方法。
28.一种计算机程序产品,其特征在于,当所述计算机程序在计算机上运行时,使得计算机执行如权利要求1至16中任意一项所述的方法。
29.一种计算机可读存储介质,其特征在于,包括程序,当所述程序在计算机上运行时,使得计算机执行如权利要求1至16中任意一项所述的方法。
CN202210603032.5A 2022-05-30 2022-05-30 一种无监督语义分割模型的训练方法及相关装置 Pending CN115063585A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210603032.5A CN115063585A (zh) 2022-05-30 2022-05-30 一种无监督语义分割模型的训练方法及相关装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210603032.5A CN115063585A (zh) 2022-05-30 2022-05-30 一种无监督语义分割模型的训练方法及相关装置

Publications (1)

Publication Number Publication Date
CN115063585A true CN115063585A (zh) 2022-09-16

Family

ID=83199198

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210603032.5A Pending CN115063585A (zh) 2022-05-30 2022-05-30 一种无监督语义分割模型的训练方法及相关装置

Country Status (1)

Country Link
CN (1) CN115063585A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116756574A (zh) * 2023-08-16 2023-09-15 腾讯科技(深圳)有限公司 多模态预训练模型的训练方法、使用方法、装置和设备
CN117541768A (zh) * 2024-01-09 2024-02-09 中数智科(杭州)科技有限公司 一种轨道车辆箱体锁孔状态检测方法
CN118015431A (zh) * 2024-04-03 2024-05-10 阿里巴巴(中国)有限公司 图像处理方法、设备、存储介质和程序产品

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116756574A (zh) * 2023-08-16 2023-09-15 腾讯科技(深圳)有限公司 多模态预训练模型的训练方法、使用方法、装置和设备
CN116756574B (zh) * 2023-08-16 2023-11-21 腾讯科技(深圳)有限公司 多模态预训练模型的训练方法、使用方法、装置和设备
CN117541768A (zh) * 2024-01-09 2024-02-09 中数智科(杭州)科技有限公司 一种轨道车辆箱体锁孔状态检测方法
CN117541768B (zh) * 2024-01-09 2024-04-26 中数智科(杭州)科技有限公司 一种轨道车辆箱体锁孔状态检测方法
CN118015431A (zh) * 2024-04-03 2024-05-10 阿里巴巴(中国)有限公司 图像处理方法、设备、存储介质和程序产品

Similar Documents

Publication Publication Date Title
CN111797893B (zh) 一种神经网络的训练方法、图像分类***及相关设备
CN112183577A (zh) 一种半监督学习模型的训练方法、图像处理方法及设备
CN107851191B (zh) 用于图像中的对象检测的基于上下文的先验
US20190147602A1 (en) Hybrid and self-aware long-term object tracking
CN113807399B (zh) 一种神经网络训练方法、检测方法以及装置
CN111950596A (zh) 一种用于神经网络的训练方法以及相关设备
CN113011568B (zh) 一种模型的训练方法、数据处理方法及设备
CN110222718B (zh) 图像处理的方法及装置
CN115063585A (zh) 一种无监督语义分割模型的训练方法及相关装置
CN114912612A (zh) 鸟类识别方法、装置、计算机设备及存储介质
CN111931764A (zh) 一种目标检测方法、目标检测框架及相关设备
CN113095475A (zh) 一种神经网络的训练方法、图像处理方法以及相关设备
US11270425B2 (en) Coordinate estimation on n-spheres with spherical regression
CN113516227B (zh) 一种基于联邦学习的神经网络训练方法及设备
CN113191241A (zh) 一种模型训练方法及相关设备
CN111931002A (zh) 一种匹配方法以及相关设备
CN111738403A (zh) 一种神经网络的优化方法及相关设备
WO2021190433A1 (zh) 更新物体识别模型的方法和装置
CN112364912B (zh) 信息分类方法、装置、设备及存储介质
CN111414915A (zh) 一种文字识别方法以及相关设备
WO2023125628A1 (zh) 神经网络模型优化方法、装置及计算设备
CN113361549A (zh) 一种模型更新方法以及相关装置
CN114140841A (zh) 点云数据的处理方法、神经网络的训练方法以及相关设备
CN113065634B (zh) 一种图像处理方法、神经网络的训练方法以及相关设备
CN115620122A (zh) 神经网络模型的训练方法、图像重识别方法及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination