CN106529565A - 目标识别模型训练和目标识别方法及装置、计算设备 - Google Patents
目标识别模型训练和目标识别方法及装置、计算设备 Download PDFInfo
- Publication number
- CN106529565A CN106529565A CN201610849633.9A CN201610849633A CN106529565A CN 106529565 A CN106529565 A CN 106529565A CN 201610849633 A CN201610849633 A CN 201610849633A CN 106529565 A CN106529565 A CN 106529565A
- Authority
- CN
- China
- Prior art keywords
- local candidate
- model
- candidate region
- training
- target recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2134—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种目标识别模型训练和目标识别方法及装置、计算设备,属于计算机视觉技术领域,其中方法包括:将针对所述训练图像选定的多个局部候选区域输入至所述目标识别模型,得到所述目标识别模型输出的多个局部候选区域分类的初步结果;依据所述弱监督信息和所述多个局部候选区域分类的初步结果,进行局部候选区域融合;根据所述多个局部候选区域分类的初步结果和局部候选区域融合的结果对所述目标识别模型的参数进行修正;迭代执行以上所述训练步骤直至所述目标识别模型的训练结果满足预定收敛条件。本发明方案既有像素级别的直接监督,又可以端到端的优化语义分割模型,又能够根据对局部候选区域的判断改善目标识别的结果。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种目标识别模型训练和目标识别方法及装置、计算设备。
背景技术
目标识别是计算机视觉领域的一个经典问题,目的为预测输入图像给定物体的位置。一个好的目标识别方案依赖于每一个像素点的物体类别,实现精确、稠密的图像像素级别理解。目标识别问题因为要标注图中所有的物***置,通常非常耗时。根据常用方法的实践经验,如果要获得一张400*600像素大小的精确的目标识别标注,通常需要耗时5-8分钟。因此数据标注速度和质量成为制约该问题获得大数据支持、得到更近一步发展的重要问题。
发明内容
本发明实施例提供一种目标识别模型训练和目标识别方案。
根据本发明实施例的一个方面,提供了一种目标识别模型训练方法,所述方法采用多个预先标注有弱监督信息的训练图像对目标识别模型进行训练,针对于每一个训练图像,训练步骤包括:
将针对所述训练图像选定的多个局部候选区域输入至所述目标识别模型,得到所述目标识别模型输出的多个局部候选区域分类的初步结果;
依据所述弱监督信息和所述多个局部候选区域分类的初步结果,进行局部候选区域融合;
根据所述多个局部候选区域分类的初步结果和局部候选区域融合的结果对所述目标识别模型的参数进行修正;
迭代执行以上所述训练步骤直至所述目标识别模型的训练结果满足预定收敛条件。
可选地,所述弱监督信息包含:物体类别信息。
可选地,在所述将针对所述训练图像选定的多个局部候选区域输入至所述目标识别模型之前,所述方法还包括:对所述训练图像进行超像素分割处理,将进行超像素分割处理得到的若干图像块进行聚类,得到多个局部候选区域。
可选地,所述方法还包括:将所述训练图像输入至语义分割模型,得到所述训练图像的语义分割的初步结果;所述依据所述弱监督信息和所述多个局部候选区域分类的初步结果,进行局部候选区域融合具体为:依据所述弱监督信息和所述多个局部候选区域分类的初步结果,进行局部候选区域融合,得到所述训练图像的语义分割的校正结果;所述根据所述多个局部候选区域分类的初步结果和局部候选区域融合的结果对所述目标识别模型的参数进行修正进一步包括:依据所述语义分割的初步结果和所述语义分割的校正结果,对所述语义分割模型的模型参数进行修正;共享经修正的所述语义分割模型的输出结果,对所述目标识别模型的参数进行修正。
可选地,所述将针对所述训练图像选定的多个局部候选区域输入至所述目标识别模型,得到所述目标识别模型输出的多个局部候选区域分类的初步结果还包括:利用交叉熵损失函数,将所述多个局部候选区域按照物体类别进行分类;对每个局部候选区域属于物体类别的概率进行预测,得到每个局部候选区域的物体类别概率预测值;
所述对目标识别模型的参数进行修正进一步包括:对所述交叉熵损失函数的参数进行修正。
可选地,所述训练步骤还包括:依据所述弱监督信息,对用于预测所述训练图像的图像类别的函数进行训练。
可选地,所述依据所述弱监督信息和所述多个局部候选区域分类的初步结果,进行局部候选区域融合,得到所述训练图像的语义分割的校正结果进一步包括:从所述多个局部候选区域内选择出属于同一物体类别的局部候选区域;针对属于同一物体类别的局部候选区域,进行融合处理,并采用聚类算法将融合后的图像区域划分为近物体区域、近背景区域和歧义区域;将近物体区域和近背景区域作为种子,采用分割算法对所述歧义区域进行分割,得到所述训练图像的语义分割的校正结果。
可选地,所述针对属于同一物体类别的局部候选区域,进行融合处理进一步包括:依据局部候选区域的物体类别概率预测值从高至低的顺序,从针对属于同一物体类别的局部候选区域中挑选出预设数量的局部候选区域,进行融合处理;或者,从针对属于同一物体类别的局部候选区域中挑选出物体类别概率预测值高于预设阈值的局部候选区域,进行融合处理。
可选地,所述将针对所述训练图像选定的多个局部候选区域输入至所述目标识别模型,得到所述目标识别模型输出的多个局部候选区域分类的初步结果还包括:利用交叉熵损失函数,将所述多个局部候选区域按照物体类别进行分类;对每个局部候选区域属于物体类别的概率进行预测,得到每个局部候选区域的物体类别概率预测值;
所述训练步骤还包括:依据所述训练图像的语义分割的初步结果和每个局部候选区域的物体类别概率预测值,对所述多个局部候选区域进行筛选;
所述依据所述弱监督信息和所述多个局部候选区域分类的初步结果,进行局部候选区域融合,得到所述训练图像的语义分割的校正结果进一步包括:依据所述弱监督信息和所述多个局部候选区域分类的初步结果,对经筛选得到的局部候选区域进行融合,获得所述训练图像的语义分割的校正结果。
可选地,所述依据所述训练图像的语义分割的初步结果和每个局部候选区域的物体类别概率预测值,对所述多个局部候选区域进行筛选进一步包括:计算所述局部候选区域的分割掩膜与所述训练图像的语义分割的初步结果的交并比;根据所述局部候选区域的交并比与交并比阈值的比较结果、以及所述局部候选区域的物体类别预测值与预测值阈值的比较结果,对所述多个局部候选区域进行筛选。
可选地,所述根据局部候选区域的交并比与交并比阈值的比较结果、以及所述局部候选区域的物体类别预测值与预测值阈值的比较结果,对所述多个局部候选区域进行筛选进一步包括:响应于所述局部候选区域的交并比大于或等于第一交并比阈值,所述局部候选区域的物体类别预测值大于或等于第一预测值阈值,将所述局部候选区域作为经筛选得到的正样本的局部候选区域;和/或,响应于所述局部候选区域的交并比小于或等于第二交并比阈值,所述局部候选区域的物体类别预测值小于或等于第二预测值阈值,将所述局部候选区域作为经筛选得到的负样本的局部候选区域。
可选地,所述对经筛选得到的局部候选区域进行融合,获得所述训练图像的语义分割的校正结果进一步包括:从所述经筛选得到的局部候选区域内选择出属于同一物体类别的局部候选区域;针对属于同一物体类别的局部候选区域,进行融合处理,并采用聚类算法将融合后的图像区域划分为近物体区域、近背景区域和歧义区域;将近物体区域和近背景区域作为种子,采用分割算法对所述歧义区域进行分割,得到所述训练图像的语义分割的校正结果。
可选地,所述针对属于同一物体类别的局部候选区域,进行融合处理进一步包括:依据局部候选区域的物体类别概率预测值从高至低的顺序,从针对属于同一物体类别的局部候选区域中挑选出预设数量的局部候选区域,进行融合处理;或者,从针对属于同一物体类别的局部候选区域中挑选出物体类别概率预测值高于预设阈值的局部候选区域,进行融合处理。
根据本发明实施例的一个方面,提供了一种目标识别方法,包括:
将待识别的图像作为目标识别模型的输入,所述目标识别模型预先采用上面所述的方法进行训练;
根据所述目标识别模型的输出结果确定针对所述图像选定的多个局部候选区域的分类结果。
根据本发明实施例的另一个方面,提供了一种目标识别模型训练装置,所述装置采用多个预先标注有弱监督信息的训练图像对目标识别模型进行训练,所述训练装置包括:
目标识别单元,用于将针对所述训练图像选定的多个局部候选区域输入至所述目标识别模型,得到所述目标识别模型输出的多个局部候选区域分类的初步结果;
融合单元,用于依据所述弱监督信息和所述多个局部候选区域分类的初步结果,进行局部候选区域融合;
修正单元,用于根据所述多个局部候选区域分类的初步结果和局部候选区域融合的结果对所述目标识别模型的参数进行修正;
所述训练装置迭代运行直至所述目标识别模型的训练结果满足预定收敛条件。
可选地,所述装置还包括:数据准备模块,用于获取所述训练图像的物体类别信息。
可选地,所述装置还包括:数据准备模块,用于对所述训练图像进行超像素分割处理,将进行超像素分割处理得到的若干图像块进行聚类,得到多个局部候选区域。
可选地,所述装置还包括:语义分割单元,用于将所述训练图像输入至语义分割模型,得到所述训练图像的语义分割的初步结果;
所述融合单元进一步用于:依据所述弱监督信息和所述多个局部候选区域分类的初步结果,进行局部候选区域融合,得到所述训练图像的语义分割的校正结果;
所述修正单元进一步用于:依据所述语义分割的初步结果和所述语义分割的校正结果,对所述语义分割模型的模型参数进行修正;共享经修正的所述语义分割模型的输出结果,对所述目标识别模型的参数进行修正。
可选地,所述目标识别单元进一步用于:利用交叉熵损失函数,将所述多个局部候选区域按照物体类别进行分类;对每个局部候选区域属于物体类别的概率进行预测,得到每个局部候选区域的物体类别概率预测值;
所述修正单元进一步用于:对所述交叉熵损失函数的参数进行修正。
可选地,所述训练模块还包括:图像类别预测单元,用于依据所述弱监督信息,对用于预测所述训练图像的图像类别的函数进行训练。
可选地,所述融合单元进一步包括:归类子单元,用于从所述多个局部候选区域内选择出属于同一物体类别的局部候选区域;融合处理子单元,用于针对属于同一物体类别的局部候选区域,进行融合处理,并采用聚类算法将融合后的图像区域划分为近物体区域、近背景区域和歧义区域;分割子单元,用于将近物体区域和近背景区域作为种子,采用分割算法对所述歧义区域进行分割,得到所述训练图像的语义分割的校正结果。
可选地,所述融合处理子单元进一步用于:依据局部候选区域的物体类别概率预测值从高至低的顺序,从针对属于同一物体类别的局部候选区域中挑选出预设数量的局部候选区域,进行融合处理;或者,从针对属于同一物体类别的局部候选区域中挑选出物体类别概率预测值高于预设阈值的局部候选区域,进行融合处理。
可选地,所述目标识别单元进一步用于:利用交叉熵损失函数,将所述多个局部候选区域按照物体类别进行分类;对每个局部候选区域属于物体类别的概率进行预测,得到每个局部候选区域的物体类别概率预测值;
所述训练模块还包括:选择单元,用于依据所述训练图像的语义分割的初步结果和每个局部候选区域的物体类别概率预测值,对所述多个局部候选区域进行筛选;
所述融合单元进一步用于:依据所述弱监督信息,对经筛选得到的局部候选区域进行融合,获得所述训练图像的语义分割的校正结果。
可选地,所述选择单元进一步用于:计算所述局部候选区域的分割掩膜与所述训练图像的语义分割的初步结果的交并比;根据所述局部候选区域的交并比与交并比阈值的比较结果、以及所述局部候选区域的物体类别预测值与预测值阈值的比较结果,对所述多个局部候选区域进行筛选。
可选地,所述选择单元进一步用于:响应于所述局部候选区域的交并比大于或等于第一交并比阈值,所述局部候选区域的物体类别预测值大于或等于第一预测值阈值,将所述局部候选区域作为经筛选得到的正样本的局部候选区域;和/或,响应于所述局部候选区域的交并比小于或等于第二交并比阈值,所述局部候选区域的物体类别预测值小于或等于第二预测值阈值,将所述局部候选区域作为经筛选得到的负样本的局部候选区域。
可选地,所述融合单元进一步包括:归类子单元,用于从所述经筛选得到的局部候选区域内选择出属于同一物体类别的局部候选区域;融合处理子单元,用于针对属于同一物体类别的局部候选区域,进行融合处理,并采用聚类算法将融合后的图像区域划分为近物体区域、近背景区域和歧义区域;分割子单元,用于将近物体区域和近背景区域作为种子,采用分割算法对所述歧义区域进行分割,得到所述训练图像的语义分割的校正结果。
可选地,所述融合处理子单元进一步用于:依据局部候选区域的物体类别概率预测值从高至低的顺序,从针对属于同一物体类别的局部候选区域中挑选出预设数量的局部候选区域,进行融合处理;或者,从针对属于同一物体类别的局部候选区域中挑选出物体类别概率预测值高于预设阈值的局部候选区域,进行融合处理。
根据本发明实施例的另一个方面,提供了一种目标识别装置,所述目标识别装置用于将待识别的图像作为目标识别模型的输入,根据所述目标识别模型的输出结果确定针对所述图像选定的多个局部候选区域的分类结果;其中,所述目标识别模型预先采用上面所述的训练装置进行训练。
根据本发明实施例的又一个方面,提供了一种计算设备,包括:处理器、通信接口、存储器以及通信总线;所述处理器、所述通信接口和所述存储器通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一指令;所述指令使所述处理器执行以下操作:
将针对所述训练图像选定的多个局部候选区域输入至所述目标识别模型,得到所述目标识别模型输出的多个局部候选区域分类的初步结果;
依据所述弱监督信息和所述多个局部候选区域分类的初步结果,进行局部候选区域融合;
根据所述多个局部候选区域分类的初步结果和局部候选区域融合的结果对所述目标识别模型的参数进行修正;
迭代执行以上所述训练步骤直至所述目标识别模型的训练结果满足预定收敛条件。
根据本发明实施例的又一个方面,提供了一种计算机存储介质,用于存储计算机可读取的指令。所述指令包括:
将针对所述训练图像选定的多个局部候选区域输入至所述目标识别模型,得到所述目标识别模型输出的多个局部候选区域分类的初步结果的指令;
依据所述弱监督信息和所述多个局部候选区域分类的初步结果,进行局部候选区域融合的指令;
根据所述多个局部候选区域分类的初步结果和局部候选区域融合的结果对所述目标识别模型的参数进行修正的指令;
迭代执行以上所述训练步骤直至所述目标识别模型的训练结果满足预定收敛条件的指令。
本发明实施例提供的技术方案,首先将针对训练图像选定的多个局部候选区域输入至目标识别模型得到多个局部候选区域分类的初步结果,依据弱监督信息和多个局部候选区域分类的初步结果,进行局部候选区域融合,根据融合结果对目标识别模型的参数进行修正,继而得到经训练的目标识别模型。通过预先提供的弱监督信息的指导,实现了准确地局部候选区域的类别识别,完成目标识别任务。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1a至图1f示出了现有技术中采用多个体学习方法预测像素类别的示意图;
图2示出了本发明提供的目标识别模型训练方法的实施例一的流程图;
图3示出了本发明提供的目标识别模型训练方法的实施例二的流程图;
图4示出了本发明提供的目标识别模型训练方法的实施例二的网络模型示意图;
图5a至图5h示出了本发明实施例中局部候选区域融合处理的一个示例的示意图;
图6示出了本发明提供的目标识别模型训练方法的实施例三的流程图;
图7示出了本发明提供的目标识别模型训练方法的实施例三的网络模型示意图;
图8示出了本发明提供的目标识别模型训练装置的实施例一的功能结构框图;
图9示出了本发明提供的目标识别模型训练装置的实施例二的功能结构框图;
图10示出了本发明提供的目标识别模型训练装置的实施例三的功能结构框图;
图11示出了用于执行根据本发明实施例的目标识别模型训练方法的计算设备的框图;
图12示出了用于保持或者携带实现根据本发明实施例的目标识别模型训练方法的程序代码的存储单元。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
在计算机视觉技术领域中,很多时候为了实现对图像中物体的准确识别,会将图像拆解成多个局部候选区域来理解和学习。拆解的原则是能够尽可能多的覆盖图像中不同大小的物体;每个局部候选区域可以覆盖物体的一部分,不必完全包含物体,因而每个局部候选区域学到的信息更丰富。本发明中,目标识别问题实际指的是局部候选区域的分类问题,即局部候选区域所归属的物体类别。本发明利用大量的训练图像,经过训练过程得到目标识别模型,能大大提升局部候选区域分类的准确性。
在实现本发明的过程中,发明人通过研究现有技术发现目前存在一些利用半监督或弱监督的方法训练目标识别问题。传统的给定图像类别的弱监督目标识别通常分为两类。第一类是采用多个体学习(Multiple Instance Learning,以下简称:MIL)的方法直接预测像素类别。在这个设定下,每个图片被认为是一系列像素或者超像素的集合。其中如果集合中有一个元素为正样本则整体输出为正,反之如果集合中的所有元素都为负样本则整体输出为负。这样的方案因为没有对底层信息有直接的监督信息指导,很容易无法准确定位物体,如图1a至图1f所示。其中,图1a和图1d为原图,图1b和图1e分别为图1a和图1d对应的真实的语义分割图像,图1c和图1f分别为利用MIL方法预测得到的目标识别图像。从图中可看出,利用MIL方法预测得到的目标识别图像的准确率较低。
现有技术中另一个方向的弱监督学习是利用期望最大的思想(Expectation-Maximization),循环的学习当前暂时的监督类别,以及学习语义分割模型。这样的方法受利于有像素级别的监督,但是很依赖于一个非常好的初始化。如果初始化不当,结果比较难保证。
基于以上发现,本发明实施例提出了一种弱监督目标识别方案,既有像素级别的直接监督,又可以端到端的优化语义分割模型,还引入了一个物体定位分支,能够改善目标识别的结果。下面通过几个具体的实施例对该方案进行详细介绍。
图2示出了本发明提供的目标识别模型训练方法的实施例一的流程图。本实施例提供的目标识别模型训练方法无需进行像素级别的标注,基于预先提供的弱监督信息即可实现目标识别模型的训练。该方法采用多个训练图像对目标识别模型进行训练,本实施例所描述的方法主要是在讲如何利用一个训练图像对语义分割辅助的目标识别模型进行训练。本领域技术人员可以理解的是,训练过程需要使用大量的训练图像,训练图像的数量越多,覆盖面越广,训练得到的目标识别模型越精确。本发明实施例对训练图像的数量不作限制。
如图2所示,针对于每一个训练图像的训练方法包括如下步骤:
步骤S101,从训练图像中选择多个局部候选区域;以及,获取训练图像的弱监督信息。步骤S101为数据准备步骤。
本发明实施例将一个训练图像拆成多个局部候选区域来理解和学习。拆解的原则是能够尽可能多的覆盖训练图像中不同大小的物体;每个局部候选区域可以覆盖物体的一部分,不必完全包含物体,因而每个局部候选区域学到的信息更丰富。进一步的,对训练图像的拆解具体为对训练图像进行超像素分割处理,得到若干个图像块;然后,将若干个图像块进行聚类组合得到多个局部候选区域。本发明实施例可采用现有技术中提供的局部候选区域的选择方法,对此不作限制。
另外,还需获取训练图像的弱监督信息,该弱监督信息是预先提供的信息。可选地,弱监督信息具体为物体类别信息。传统的像素标注信息需要精确地标注出训练图像中每个像素所属的物体类别,而本发明中弱监督信息是训练图像所包含的物体类别信息。举例来说,假如某个训练图像中包含人和飞机,传统的像素标注信息需要标注出该训练图像中每个像素是否属于人或飞机,而本发明仅需标注出训练图像中有人和飞机即可。也即,预先告知训练装置训练图像中包含的物体类别,但不告知物体的位置。
步骤S102,将针对训练图像选定的多个局部候选区域输入至目标识别模型,得到目标识别模型输出的多个局部候选区域分类的初步结果。
在准备好数据后,开始训练过程。首先,将针对训练图像选定的多个局部候选区域输入至目标识别模型,得到多个局部候选区域分类的初步结果。
本发明实施例中,利用深度学习的全卷积神经网络的全连接层的交叉熵损失函数作为目标识别模型,使用交叉熵损失函数预测得到多个局部候选区域分类的初步结果。
步骤S103,依据弱监督信息和多个局部候选区域分类的初步结果,进行局部候选区域融合。
依赖于前述准备的弱监督信息以及步骤S102获得的多个局部候选区域分类的初步结果,对多个局部候选区域进行融合处理。
步骤S104,根据多个局部候选区域分类的初步结果和局部候选区域融合的结果对目标识别模型的参数进行修正。
共享全卷积神经网络的结果,修正全连接层的交叉熵损失函数,实现对目标识别模型的修正。
以上步骤S102至步骤S104为训练步骤,迭代执行上述训练步骤,以得到经训练的目标识别模型。具体地,训练步骤迭代执行直至目标识别模型的训练结果满足预定收敛条件。例如,预定收敛条件为达到预定迭代次数,当迭代次数达到预定迭代次数时,迭代过程结束。或者,预定收敛条件为初步结果与校正结果之间的差异收敛到一定程度,当满足该预定收敛条件时,迭代过程结束。
本实施例提供的目标识别模型训练方法,首先将针对训练图像选定的多个局部候选区域输入至目标识别模型得到多个局部候选区域分类的初步结果,依据弱监督信息和多个局部候选区域分类的初步结果,进行局部候选区域融合,根据融合结果对目标识别模型的参数进行修正,继而得到经训练的目标识别模型。通过预先提供的弱监督信息的指导,实现了准确地局部候选区域的类别识别,完成目标识别任务。
图3示出了本发明提供的目标识别模型训练方法的实施例二的流程图。图4示出了本发明提供的目标识别模型训练方法的实施例二的网络模型示意图。下面结合这两幅图对本实施例的具体方案进行详细介绍。本实施例所描述的方法也是在讲如何利用一个训练图像对目标识别模型进行训练。
如图3所示,针对于每一个训练图像的训练方法包括如下步骤:
步骤S201,从训练图像中选取多个局部候选区域;以及,获取训练图像的弱监督信息。步骤S201为数据准备步骤。
本发明实施例将一个训练图像拆成多个局部候选区域来理解和学习。拆解的原则是能够尽可能多的覆盖训练图像中不同大小的物体;每个局部候选区域可以覆盖物体的一部分,不必完全包含物体,因而每个局部候选区域学到的信息更丰富。如图4中的b分支所示,b分支为物体定位分支,具体将原始的训练图像拆解为若干个局部候选区域,此分支拆解的越细致,物体定位的准确率越高。在实际操作过程中,b分支可拆解得到2000个左右的局部候选区域。本发明实施例可采用现有技术中提供的局部候选区域的选择方法,对此不作限制。
另外,还需获取训练图像的弱监督信息,该弱监督信息是预先提供的信息。可选地,弱监督信息具体为物体类别信息。传统的像素标注信息需要精确地标注出训练图像中每个像素所属的物体类别,而本发明中弱监督信息是训练图像所包含的物体类别信息。如图4右下角所示,针对该训练图像所预先提供的弱监督信息就是人和飞机。传统的像素标注信息需要标注出该训练图像中每个像素是否属于人或飞机,而本发明仅需标注出训练图像中有人和飞机即可。也即,预先告知训练装置训练图像中包含的物体类别,但不告知物体的位置。
步骤S202,将训练图像输入至语义分割模型,得到训练图像的语义分割的初步结果。
在准备好数据后,开始训练过程。首先,将训练图像输入至初始的语义分割模型,得到训练图像的语义分割的初步结果。本实施例利用深度学习的全卷积神经网络作为语义分割的模型。具体地,对训练图像进行全卷积神经网络预测得到语义分割的初步结果。本步骤通过多个卷积层/非线性响应层/池化层学习中间表示的参数,一个具体的示例如下:
1.输入层
//第一阶段,共享卷积层结果
2.<=1卷积层1_1(3×3×64)
3.<=2非线性响应ReLU层
4.<=3卷积层1_2(3×3×64)
5.<=4非线性响应ReLU层
6.<=5池化层(3×3/2)
7.<=6卷积层2_1(3×3×128)
8.<=7非线性响应ReLU层
9.<=8卷积层2_2(3×3×128)
10.<=9非线性响应ReLU层
11.<=10池化层(3×3/2)
12.<=11卷积层3_1(3×3×256)
13.<=12非线性响应ReLU层
14.<=13卷积层3_2(3×3×256)
15.<=14非线性响应ReLU层
16.<=15卷积层3_3(3×3×256)
17.<=16非线性响应ReLU层
18.<=17池化层(3×3/2)
19.<=18卷积层4_1(3×3×512)
20.<=19非线性响应ReLU层
21.<=20卷积层4_2(3×3×512)
22.<=21非线性响应ReLU层
23.<=22卷积层4_3(3×3×512)
24.<=23非线性响应ReLU层
25.<=24池化层(3×3/2)
26.<=25卷积层5_1(3×3×512)
27.<=26非线性响应ReLU层
28.<=27卷积层5_2(3×3×512)
29.<=28非线性响应ReLU层
30.<=29卷积层5_3(3×3×512)
31.<=30非线性响应ReLU层
32.<=31线性差值层
33.<=32损失层,进行损失函数的计算
其中符号“.<=”前面的数字为当前层数,后面的数字为输入层数,例如,2.<=1表明当前层为第二层,输入为第一层。卷积层后面括号内为卷积层参数,例如,3×3×64,表明卷积核大小3×3,通道数为64。池化层后面括号内为池化层参数,例如,3×3/2表明池化核大小3×3,间隔为2。
在上述神经网络中,每个卷积层之后都有一个非线性响应单元。该非线性响应单元具体为纠正线性单元(Rectified Linear Units,以下简称:ReLU),通过在卷积层后增加上述纠正线性单元,将卷积层的映射结果尽量稀疏一些,更接近人的视觉反应,从而使图像处理效果更好。上述示例中,将卷积层的卷积核设为3×3,能更好的综合局部信息。
本实施例中,设定池化层的步长stride,目的是为了让上层特征在不增加计算量的前提下获得更大的视野,同时池化层的步长stride还有增强空间不变性的特征,即允许同样的输入出现在不同的图像位置上,而输出结果响应相同。
线性差值层为了将之前的特征放大到原图大小,得到每个像素的预测值。
综上所述,该全卷积神经网络的卷积层主要用于信息归纳和融合,池化层(可选为最大池化层:Max pooling)主要进行高层信息的归纳。该全卷积神经网络可以进行微调来适应不同的性能和效率的权衡。
本步骤得到的训练图像的语义分割的初步结果具体为像素级别的语义分割的标注,即每个像素的语义分割结果的标注。但是,由于该语义分割模型为训练过程中的模型,不是最终的模型,因此初步结果不够精确。
步骤S203,利用交叉熵损失函数,将多个局部候选区域按照物体类别进行分类;对每个局部候选区域属于物体类别的概率进行预测,得到每个局部候选区域的物体类别概率预测值。
在通过步骤S201利用物体的局部候选区域生成方法获得一系列物体的局部候选区域之后,本步骤对这些局部候选区域进行分类。本发明实施例额外设计了一个多任务的训练子***,利用图像级别的标注进行约束。该多任务的训练子***包括对物体的局部候选区域分类的训练(即步骤S203)和对图像类别的训练(即步骤204),该方法避免了因为最初阶段训练样本监督信号不准确而造成的语义偏离。
具体地,在步骤S203中,利用交叉熵损失函数,将多个局部候选区域按照物体类别进行分类。一个具体的示例如下:
34.<=31全连接层6_1(M×N)(M为上一层输出维度,N为需要预测的类别维度)
35.<=34交叉熵损失函数层
通过共享前述全卷积神经网络的结果,在全连接层可预测得到局部候选区域的类别。
本步骤还对每个局部候选区域属于物体类别的概率进行预测,得到每个局部候选区域的物体类别概率预测值。具体地,每个局部候选区域的物体类别概率预测值是通过上述全卷积神经网络学习得到的。
步骤S204,依据弱监督信息,对用于预测训练图像的图像类别的函数进行训练。
本步骤中,图像类别训练利用了多个体训练的方案,使用产生式模型Log-Sum-Exponentail分类,优化公式如下:
其中,Ik为第k个训练图像,c为类别;xkj为第k个训练图像的第j个局部候选区域的描述特征,M为第k个训练图像的局部候选区域的个数;wc为要学的类别c的分类器参数。该公式预测的是Ik类别为c的概率,即Pr(Ik∈c|wc)。
本步骤将弱监督信息作为输入,通过上述优化公式的学习,可学到各类别的分类器参数。由于弱监督信息为图像类别的标准标注信息,依据该标准标注信息,通过上述优化公式的学习得到各类别的分类器参数,使得网络具有了下次遇到同类输入图像时也能够预测的能力。
步骤S205,从多个局部候选区域内选择出属于同一物体类别的局部候选区域。
在经过步骤S203的分类处理后,可获知每个局部候选区域所属的物体类别。本步骤将属于同一物体类别的局部候选区域选择出来作为一组,执行后续的操作。如果训练图像包含N个物体类别,那么局部候选区域被分为N组,针对每一组执行后续的操作。
步骤S206,针对属于同一物体类别的局部候选区域,进行融合处理,并采用聚类算法将融合后的图像区域划分为近物体区域、近背景区域和歧义区域。
由于所选取的局部候选区域较多,如果对属于同一物体类别的所有局部候选区域进行融合处理,计算量较大。为了减小计算量,可选地从针对属于同一物体类别的局部候选区域中挑选出一批局部候选区域进行融合处理。挑选的原则可采用但不限于如下两种:
一种是,依据局部候选区域的物体类别概率预测值从高至低的顺序,从针对属于同一物体类别的局部候选区域中挑选出预设数量的局部候选区域,进行融合处理。
另一种是,从针对属于同一物体类别的局部候选区域中挑选出物体类别概率预测值高于预设阈值的局部候选区域,进行融合处理。
以上两种示例性的原则都是基于局部候选区域的物体类别概率预测值进行挑选,物体类别概率预测值的高低反映出局部候选区域属于某个物体类别的概率的高低,上述两种原则的目的都是挑选出属于物体的概率比较高的局部候选区域。
对挑选出的局部候选区域进行融合处理。具体过程可以为:对挑选出的局部候选区域进行图像分割处理,得到局部候选区域的二进制分割掩膜;将挑选出的局部候选区域的二进制分割掩膜进行融合处理;采用聚类算法将融合后的图像区域划分为近物体区域、近背景区域和歧义区域。
图5a至图5h示出了本发明实施例中局部候选区域融合处理的一个示例的示意图。其中,图5a为原始图像,图5b为语义分割的真实图像,图5c、图5d和图5e为物体类别概率预测值排名在前三位的局部候选区域的二进制分割掩膜,将图5c、图5d和图5e进行融合处理得到图5f;采用一种可选地聚类算法,如kmeans方法对图像区域进行聚类处理得到图5g,在图5g中图像区域被划分为近物体区域、近背景区域和歧义区域。其中近物体区域指的是为物体的概率较高的区域(图5g中白色区域),近背景区域指的是为背景的概率较高的区域(图5g中黑色区域),这里的背景通常是指不属于物体的概率较高的区域,歧义区域指的是无法预估是否为物体的区域(图5g中灰色区域)。
步骤S207,将近物体区域和近背景区域作为种子,采用分割算法对所述歧义区域进行分割,得到所述训练图像的语义分割的校正结果。
为了进一步预测出歧义区域的分割结果,本步骤将近物体区域和近背景区域作为种子,采用一种可选地分割算法,如grabcut算法对歧义区域进行分割,得到一个物体类别的语义分割的校正结果。在上述示例中,图5h为图5a的语义分割的校正结果。
如果训练图像包含N个物体类别,那么局部候选区域被分为N组分别经过上述步骤S206和步骤S207的处理,得到所有物体类别的语义分割的校正结果,最终得到整个训练图像的语义分割的校正结果。
步骤S208,依据初步结果和校正结果,对语义分割模型的模型参数进行修正。
替代真实结果,将上述步骤得到的校正结果视为标准输出,确定标准输出与初步结果的差异,根据确定的差异得到语义分割模型的损失函数,利用损失函数响应值进行回传,更新语义分割模型的模型参数。
步骤S209,共享经修正的语义分割模型的输出结果,对交叉熵损失函数的参数进行修正。
共享全卷积神经网络的结果,修正全连接层的交叉熵损失函数,实现对目标识别模型的修正。
以上步骤S202至步骤S209为训练步骤,迭代执行上述训练步骤,以得到经训练的目标识别模型。具体地,训练步骤迭代执行直至语义分割模型的训练结果满足预定收敛条件。例如,预定收敛条件为达到预定迭代次数,当迭代次数达到预定迭代次数时,迭代过程结束。或者,预定收敛条件为初步结果与校正结果之间的差异收敛到一定程度,当满足该预定收敛条件时,迭代过程结束。
本实施例提供的目标识别模型训练方法,依据弱监督信息和多个局部候选区域,进行局部候选区域融合,得到训练图像的语义分割的校正结果,从而对语义分割模型的模型参数进行修正。而后,共享经修正的所述语义分割模型的输出结果,对目标识别模型的参数进行修正,继而得到经训练的目标识别模型。通过预先提供的弱监督信息的指导,实现了准确地目标识别。进一步地,本方法包含两个分支的训练过程,一个分支是语义分割模型的训练过程,另一个分支(即物体定位分支)是对物体的局部候选区域分类的训练和对图像类别的训练的过程,两个分支能够共享训练的结果,能够避免因为最初阶段训练样本监督信号不准确而造成的语义偏离,进一步提升了语义分割结果的准确性。由于该方案中通过语义分割模型可得到像素级别的预测结果,可将其作为暂时的监督信息,这种情况属于像素级别的直接监督,使得该方案既有像素级别的直接监督,又可以端到端的优化语义分割模型,还引入了一个物体定位分支,又能够根据对局部候选区域的判断改善目标识别的结果,最终实现了对局部候选区域类别的准确识别。
图6示出了本发明提供的目标识别模型训练方法的实施例三的流程图。图7示出了本发明提供的目标识别模型训练方法的实施例三的网络模型示意图。本实施例与上述实施例二的主要区别在于,本实施例依据训练图像的语义分割的初步结果和每个局部候选区域的物体类别概率预测值,对多个局部候选区域进行筛选,利用经筛选的局部候选区域进行后续的融合处理。其中,对局部候选区域筛选过程也属于目标识别模型的训练过程的一部分。下面结合这两幅图对本实施例的具体方案进行详细介绍。本实施例所描述的方法也是在讲如何利用一个训练图像对目标识别模型进行训练。
如图6所示,针对于每一个训练图像的训练方法包括如下步骤:
步骤S301,从训练图像中选取多个局部候选区域;以及,获取训练图像的弱监督信息。步骤S301为数据准备步骤。
步骤S302,将训练图像输入至语义分割模型,得到训练图像的语义分割的初步结果。
步骤S303,利用交叉熵损失函数,将多个局部候选区域按照物体类别进行分类;对每个局部候选区域属于物体类别的概率进行预测,得到每个局部候选区域的物体类别概率预测值。
步骤S304,依据弱监督信息,对用于预测训练图像的图像类别的函数进行训练。
上述步骤S301至步骤S304的具体实现过程可参见本发明实施例二中步骤S201至步骤S204的描述,在此不再赘述。
步骤S305,依据训练图像的语义分割的初步结果和每个局部候选区域的物体类别概率预测值,对多个局部候选区域进行筛选。
由于步骤S301准备得到的局部候选区域有上千个,而且这些局部候选区域作为样本来说,存在样本不均衡的问题,即高概率物体的区域(正样本)的数量与高概率背景的区域(负样本)的数量不均衡,使得后续训练过程受其影响得到不准确的结果。因此,本实施例通过对局部候选区域进行筛选,使得样本更为均衡。
具体来说,首先计算局部候选区域的分割掩膜与训练图像的语义分割的初步结果的交并比,交并比越大,表明局部候选区域为物体的概率越高,交并比越小,表明局部候选区域为背景的概率越高。然后,根据局部候选区域的交并比与交并比阈值的比较结果、以及局部候选区域的物体类别预测值与预测值阈值的比较结果,对多个局部候选区域进行筛选。
进一步的,本实施例预先设定交并比的两个阈值,分别为第一交并比阈值和第二交并比阈值,其中第一交并比阈值大于第二交并比阈值;本实施例还预先设定物体类别预测值的两个阈值,分别为第一预测值阈值和第二预测值阈值,其中第一预测值阈值大于第二预测值阈值。
响应于局部候选区域的交并比大于或等于第一交并比阈值,局部候选区域的物体类别预测值大于或等于第一预测值阈值,将局部候选区域作为经筛选得到的正样本的局部候选区域;
响应于局部候选区域的交并比小于或等于第二交并比阈值,局部候选区域的物体类别预测值小于或等于第二预测值阈值,将局部候选区域作为经筛选得到的负样本的局部候选区域。
通过上述阈值比较过程,筛选出一定数量的正样本和负样本,且保证筛选出的正样本和负样本的数量均衡。
步骤S306,从经筛选得到的局部候选区域内选择出属于同一物体类别的局部候选区域。
本步骤将属于同一物体类别的局部候选区域选择出来作为一组,执行后续的操作。如果训练图像包含N个物体类别,那么局部候选区域被分为N组,针对每一组执行后续的操作。
步骤S307,针对属于同一物体类别的局部候选区域,进行融合处理,并采用聚类算法将融合后的图像区域划分为近物体区域、近背景区域和歧义区域。
步骤S308,将近物体区域和近背景区域作为种子,采用分割算法对所述歧义区域进行分割,得到所述训练图像的语义分割的校正结果。
步骤S309,依据初步结果和校正结果,对语义分割模型的模型参数进行修正。
步骤S310,共享经修正的语义分割模型的输出结果,对交叉熵损失函数的参数进行修正。
上述步骤S307至步骤S310的具体实现过程可参见本发明实施例二中步骤S206至步骤S209的描述,在此不再赘述。
以上步骤S302至步骤S310为训练步骤,迭代执行上述训练步骤,以得到经训练的目标识别模型。具体地,训练步骤迭代执行直至语义分割模型的训练结果满足预定收敛条件。例如,预定收敛条件为达到预定迭代次数,当迭代次数达到预定迭代次数时,迭代过程结束。或者,预定收敛条件为初步结果与校正结果之间的差异收敛到一定程度,当满足该预定收敛条件时,迭代过程结束。
本实施例提供的目标识别模型训练方法,依据弱监督信息和多个局部候选区域,进行局部候选区域融合,得到训练图像的语义分割的校正结果,从而对语义分割模型的模型参数进行修正。而后,共享经修正的所述语义分割模型的输出结果,对目标识别模型的参数进行修正,继而得到经训练的目标识别模型。通过预先提供的弱监督信息的指导,实现了准确地目标识别。进一步地,本方法包含两个分支的训练过程,一个分支是语义分割模型的训练过程,另一个分支(即物体定位分支)是对物体的局部候选区域分类的训练和对图像类别的训练的过程,两个分支能够共享训练的结果,能够避免因为最初阶段训练样本监督信号不准确而造成的语义偏离,进一步提升了语义分割结果的准确性。该方案既有像素级别的直接监督,又可以端到端的优化语义分割模型,还引入了一个物体定位分支,又能够根据对局部候选区域的判断改善目标识别的结果。除此之外,本实施例还通过对局部候选区域进行筛选,使得样本更为均衡,进一步优化了训练效果,最终实现了对局部候选区域类别的准确识别。
本发明还提供了一种目标识别方法,该目标识别方法将待识别的图像作为目标识别模型的输入,根据目标识别模型的输出结果确定针对图像选定的多个局部候选区域的分类结果。本发明中基于训练得到的目标识别模型进行目标识别的方法与现有技术中的方法相同,不同的是,所利用的目标识别模型采用本发明上述实施例提供的训练方法得到。
图8示出了本发明提供的目标识别模型训练装置的实施例一的功能结构框图。如图8所示,本实施例的目标识别模型训练装置采用多个预先标注有弱监督信息的训练图像对目标识别模型进行训练,该训练装置包括:训练模块820。
训练模块820进一步包括:目标识别单元824,融合单元822,以及修正单元823。
目标识别单元824用于将针对训练图像选定的多个局部候选区域输入至目标识别模型,得到目标识别模型输出的多个局部候选区域分类的初步结果。本发明实施例中,利用深度学习的全卷积神经网络的全连接层的交叉熵损失函数作为目标识别模型,使用交叉熵损失函数预测得到多个局部候选区域分类的初步结果。
融合单元822用于依据弱监督信息和多个局部候选区域分类的初步结果,进行局部候选区域融合。依赖于前述准备的弱监督信息,对多个局部候选区域进行融合处理。
修正单元823,用于根据所述多个局部候选区域分类的初步结果和局部候选区域融合的结果对所述目标识别模型的参数进行修正。
上述训练模块820迭代运行,以得到经训练的目标识别模型。具体地,训练模块820迭代执行直至目标识别模型的训练结果满足预定收敛条件。例如,预定收敛条件为达到预定迭代次数,当迭代次数达到预定迭代次数时,迭代过程结束。或者,预定收敛条件为初步结果与校正结果之间的差异收敛到一定程度,当满足该预定收敛条件时,迭代过程结束。
进一步的,该训练装置还包括:数据准备模块810用于从训练图像中选择多个局部候选区域;以及,获取训练图像的弱监督信息。
本发明实施例将一个训练图像拆成多个局部候选区域来理解和学习。拆解的原则是能够尽可能多的覆盖训练图像中不同大小的物体;每个局部候选区域可以覆盖物体的一部分,不必完全包含物体,因而每个局部候选区域学到的信息更丰富。进一步的,对训练图像的拆解具体为对训练图像进行超像素分割处理,得到若干个图像块;然后,将若干个图像块进行聚类组合得到多个局部候选区域。本发明实施例可采用现有技术中提供的局部候选区域的选择方法,对此不作限制。
另外,数据准备模块810进一步用于:获取训练图像的物体类别信息。传统的像素标注信息需要精确地标注出训练图像中每个像素所属的物体类别,而本发明中弱监督信息是训练图像所包含的物体类别信息。举例来说,假如某个训练图像中包含人和飞机,传统的像素标注信息需要标注出该训练图像中每个像素是否属于人或飞机,而本发明仅需标注出训练图像中有人和飞机即可。也即,预先告知训练装置训练图像中包含的物体类别,但不告知物体的位置。
本实施例提供的目标识别模型训练装置,将针对训练图像选定的多个局部候选区域输入至目标识别模型得到多个局部候选区域分类的初步结果,依据弱监督信息和多个局部候选区域分类的初步结果,进行局部候选区域融合,根据融合结果对目标识别模型的参数进行修正,继而得到经训练的目标识别模型。通过预先提供的弱监督信息的指导,实现了准确地目标识别。
图9示出了本发明提供的目标识别模型训练装置的实施例二的功能结构框图。本实施例在上述装置实施例一的基础上,额外设计了一个多任务的训练子***,利用图像级别的标注进行约束,以避免因为最初阶段训练样本监督信号不准确而造成的语义偏离。
训练模块820进一步包括:语义分割单元821,用于将训练图像输入至语义分割模型,得到训练图像的语义分割的初步结果。可选地,本发明实施例利用深度学习的全卷积神经网络作为语义分割的模型。使用全卷积神经网络进行预测,通过多个卷积层/非线性响应层/池化层学习中间表示的参数,得到训练图像的语义分割的初步结果。
目标识别单元824,用于利用交叉熵损失函数,将多个局部候选区域按照物体类别进行分类;对每个局部候选区域属于物体类别的概率进行预测,得到每个局部候选区域的物体类别概率预测值。具体地,每个局部候选区域的物体类别概率预测值是通过全卷积神经网络学习得到的。
目标识别单元824通过共享全卷积神经网络的结果,在全连接层可预测得到局部候选区域的类别。
融合单元822用于依据弱监督信息和多个局部候选区域分类的初步结果,进行局部候选区域融合,得到所述训练图像的语义分割的校正结果。
修正单元823进一步用于:依据语义分割的初步结果和语义分割的校正结果,对语义分割模型的模型参数进行修正;共享经修正的语义分割模型的输出结果,对目标识别模型的参数进行修正。本发明实施例与现有技术的不同之处在于,本实施例不采用语义分割的真实结果(如像素级别的预先标注信息等)作为校正训练过程中语义分割模型的模型参数,而是将训练图像的多个局部候选区域的融合得到的结果作为校正训练过程中语义分割模型的模型参数。替代真实结果,将融合单元822得到的校正结果视为标准输出,确定标准输出与初步结果的差异,根据确定的差异得到语义分割模型的损失函数,利用损失函数响应值进行回传,更新语义分割模型的模型参数。
训练模块820还包括:图像类别预测单元825,用于依据弱监督信息,对用于预测训练图像的图像类别的函数进行训练。
具体地,图像类别训练利用了多个体训练的方案,使用产生式模型Log-Sum-Exponentail分类,优化公式如下:
其中,Ik为第k个训练图像,c为类别;xkj为第k个训练图像的第j个局部候选区域的描述特征,M为第k个训练图像的局部候选区域的个数;wc为要学的类别c的分类器参数。该公式预测的是Ik类别为c的概率,即Pr(Ik∈c|wc)。
图像类别预测单元825将弱监督信息作为输入,通过上述优化公式的学习,可学到各类别的分类器参数。由于弱监督信息为图像类别的标准标注信息,依据该标准标注信息,通过上述优化公式的学习得到各类别的分类器参数,使得网络具有了下次遇到同类输入图像时也能够预测的能力。
进一步地,融合单元822包括:归类子单元822a,融合处理子单元822b,分割子单元822c。
归类子单元822a用于从多个局部候选区域内选择出属于同一物体类别的局部候选区域。归类子单元822a将属于同一物体类别的局部候选区域选择出来作为一组,交由融合处理子单元822b和分割子单元822c进行处理。如果训练图像包含N个物体类别,那么局部候选区域被分为N组,将每一组交由融合处理子单元822b和分割子单元822c进行处理。
融合处理子单元822b用于针对属于同一物体类别的局部候选区域,进行融合处理,并采用聚类算法将融合后的图像区域划分为近物体区域、近背景区域和歧义区域。
由于所选取的局部候选区域较多,如果对属于同一物体类别的所有局部候选区域进行融合处理,计算量较大。为了减小计算量,可选地融合处理子单元822b从针对属于同一物体类别的局部候选区域中挑选出一批局部候选区域进行融合处理。挑选的原则可采用但不限于如下两种:
一种是,依据局部候选区域的物体类别概率预测值从高至低的顺序,从针对属于同一物体类别的局部候选区域中挑选出预设数量的局部候选区域,进行融合处理。
另一种是,从针对属于同一物体类别的局部候选区域中挑选出物体类别概率预测值高于预设阈值的局部候选区域,进行融合处理。
以上两种示例性的原则都是基于局部候选区域的物体类别概率预测值进行挑选,物体类别概率预测值的高低反映出局部候选区域属于某个物体类别的概率的高低,上述两种原则的目的都是挑选出属于物体的概率比较高的局部候选区域。
融合处理子单元822b对挑选出的局部候选区域进行融合处理。具体过程可以为:对挑选出的局部候选区域进行图像分割处理,得到局部候选区域的二进制分割掩膜;将挑选出的局部候选区域的二进制分割掩膜进行融合处理;采用聚类算法将融合后的图像区域划分为近物体区域、近背景区域和歧义区域。
分割子单元822c用于将近物体区域和近背景区域作为种子,采用分割算法对歧义区域进行分割,得到训练图像的语义分割的校正结果。
为了进一步预测出歧义区域的分割结果,分割子单元822c将近物体区域和近背景区域作为种子,采用一种可选地分割算法,如grabcut算法对歧义区域进行分割,得到一个物体类别的语义分割的校正结果。如果训练图像包含N个物体类别,那么局部候选区域被分为N组分别经过融合处理子单元822b和分割子单元822c的处理,得到所有物体类别的语义分割的校正结果,最终得到整个训练图像的语义分割的校正结果。
本实施例提供的目标识别模型训练装置,依据弱监督信息和多个局部候选区域,进行局部候选区域融合,得到训练图像的语义分割的校正结果,从而对语义分割模型的模型参数进行修正。而后,共享经修正的所述语义分割模型的输出结果,对目标识别模型的参数进行修正,继而得到经训练的目标识别模型。通过预先提供的弱监督信息的指导,实现了准确地目标识别。进一步地,本装置包含两个分支的训练过程,一个分支是语义分割模型的训练过程,另一个分支(即物体定位分支)是对物体的局部候选区域分类的训练和对图像类别的训练的过程,两个分支能够共享训练的结果,能够避免因为最初阶段训练样本监督信号不准确而造成的语义偏离,进一步提升了语义分割结果的准确性。该方案既有像素级别的直接监督,又可以端到端的优化语义分割模型,还引入了一个物体定位分支,又能够根据对局部候选区域的判断改善目标识别的结果,最终实现了对局部候选区域类别的准确识别。
图10示出了本发明提供的目标识别模型训练装置的实施例三的功能结构框图。本实施例在上述装置实施例二的基础上,训练模块820还包括:选择单元826,用于依据训练图像的语义分割的初步结果和每个局部候选区域的物体类别概率预测值,对多个局部候选区域进行筛选。
融合单元822进一步用于:依据弱监督信息,对经筛选得到的局部候选区域进行融合,获得训练图像的语义分割的校正结果。
由于数据准备模块准备得到的局部候选区域有上千个,而且这些局部候选区域作为样本来说,存在样本不均衡的问题,即高概率物体的区域(正样本)的数量与高概率背景的区域(负样本)的数量不均衡,使得后续训练过程受其影响得到不准确的结果。因此,本实施例的选择单元826通过对局部候选区域进行筛选,使得样本更为均衡。
具体来说,选择单元826首先计算局部候选区域的分割掩膜与训练图像的语义分割的初步结果的交并比,交并比越大,表明局部候选区域为物体的概率越高,交并比越小,表明局部候选区域为背景的概率越高。然后,根据局部候选区域的交并比与交并比阈值的比较结果、以及局部候选区域的物体类别预测值与预测值阈值的比较结果,对多个局部候选区域进行筛选。
进一步的,本实施例预先设定交并比的两个阈值,分别为第一交并比阈值和第二交并比阈值,其中第一交并比阈值大于第二交并比阈值;本实施例还预先设定物体类别预测值的两个阈值,分别为第一预测值阈值和第二预测值阈值,其中第一预测值阈值大于第二预测值阈值。
选择单元826进一步用于:响应于局部候选区域的交并比大于或等于第一交并比阈值,局部候选区域的物体类别预测值大于或等于第一预测值阈值,将局部候选区域作为经筛选得到的正样本的局部候选区域;响应于局部候选区域的交并比小于或等于第二交并比阈值,局部候选区域的物体类别预测值小于或等于第二预测值阈值,将局部候选区域作为经筛选得到的负样本的局部候选区域。
通过上述阈值比较过程,选择单元826筛选出一定数量的正样本和负样本,且保证筛选出的正样本和负样本的数量均衡。
归类子单元822a用于从经筛选得到的局部候选区域内选择出属于同一物体类别的局部候选区域。
融合处理子单元822b用于针对属于同一物体类别的局部候选区域,进行融合处理,并采用聚类算法将融合后的图像区域划分为近物体区域、近背景区域和歧义区域。
分割子单元822c用于将近物体区域和近背景区域作为种子,采用分割算法对歧义区域进行分割,得到训练图像的语义分割的校正结果。
融合处理子单元822b进一步用于:依据局部候选区域的物体类别概率预测值从高至低的顺序,从针对属于同一物体类别的局部候选区域中挑选出预设数量的局部候选区域,进行融合处理;或者,从针对属于同一物体类别的局部候选区域中挑选出物体类别概率预测值高于预设阈值的局部候选区域,进行融合处理。
本实施例提供的目标识别模型训练装置,依据弱监督信息和多个局部候选区域,进行局部候选区域融合,得到训练图像的语义分割的校正结果,从而对语义分割模型的模型参数进行修正。而后,共享经修正的所述语义分割模型的输出结果,对目标识别模型的参数进行修正,继而得到经训练的目标识别模型。通过预先提供的弱监督信息的指导,实现了准确地目标识别。进一步地,本装置包含两个分支的训练过程,一个分支是语义分割模型的训练过程,另一个分支(即物体定位分支)是对物体的局部候选区域分类的训练和对图像类别的训练的过程,两个分支能够共享训练的结果,能够避免因为最初阶段训练样本监督信号不准确而造成的语义偏离,进一步提升了语义分割结果的准确性。该方案既有像素级别的直接监督,又可以端到端的优化语义分割模型,还引入了一个物体定位分支,又能够根据对局部候选区域的判断改善目标识别的结果。除此之外,本实施例还通过对局部候选区域进行筛选,使得样本更为均衡,进一步优化了训练效果,最终实现了对局部候选区域类别的准确识别。
本发明还提供了一种目标识别装置,该目标识别装置将待识别的图像作为目标识别模型的输入,根据目标识别模型的输出结果确定针对图像选定的多个局部候选区域的分类结果。本发明中基于训练得到的目标识别模型进行目标识别的装置与现有技术中的装置相同,不同的是,所利用的目标识别模型采用本发明上述实施例提供的训练装置得到。
在此提供的方法和显示不与任何特定计算机、虚拟***或者其它设备固有相关。各种通用***也可以与基于在此的示教一起使用。根据上面的描述,构造这类***所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的获取应用信息的设备中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
例如,图11示出了可以实现根据本发明的目标识别模型训练方法的计算设备。该计算设备可以是终端或者服务器。该计算设备传统上包括处理器1110和以存储设备1120形式的计算机程序产品或者计算机可读介质,另外还包括通信接口和通信总线。存储设备1120可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。一个或多个处理器、通信接口和存储器通过通信总线完成相互间的通信。处理器可以是CPU(中央处理单元)或GPU(图形处理单元)存储设备1120具有存储用于执行上述方法中的任何方法步骤的程序代码1131的存储空间1130,用于存放至少一指令,该指令使处理器执行本发明实施例的目标识别模型训练方法中的各种步骤。例如,存储程序代码的存储空间1130可以包括分别用于实现上面的方法中的各种步骤的各个程序代码1131。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。这些计算机程序产品包括诸如硬盘、紧致盘(CD)、存储卡或者软盘之类的程序代码载体。这样的计算机程序产品通常为例如图12所示的便携式或者固定存储单元。该存储单元可以具有与图11的计算设备中的存储设备1120类似布置的存储段、存储空间等。程序代码可以例如以适当形式进行压缩。通常,存储单元包括用于执行根据本发明的方法步骤的计算机可读代码1131',即可以由诸如1110之类的处理器读取的代码,当这些代码由计算设备运行时,导致该计算设备执行上面所描述的方法中的各个步骤。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
Claims (10)
1.一种目标识别模型训练方法,其特征在于,所述方法采用多个预先标注有弱监督信息的训练图像对目标识别模型进行训练,针对于每一个训练图像,训练步骤包括:
将针对所述训练图像选定的多个局部候选区域输入至所述目标识别模型,得到所述目标识别模型输出的多个局部候选区域分类的初步结果;
依据所述弱监督信息和所述多个局部候选区域分类的初步结果,进行局部候选区域融合;
根据所述多个局部候选区域分类的初步结果和局部候选区域融合的结果对所述目标识别模型的参数进行修正;
迭代执行以上所述训练步骤直至所述目标识别模型的训练结果满足预定收敛条件。
2.根据权利要求1所述的目标识别模型训练方法,其特征在于,所述弱监督信息包含:物体类别信息。
3.根据权利要求1所述的目标识别模型训练方法,其特征在于,在所述将针对所述训练图像选定的多个局部候选区域输入至所述目标识别模型之前,所述方法还包括:对所述训练图像进行超像素分割处理,将进行超像素分割处理得到的若干图像块进行聚类,得到多个局部候选区域。
4.根据权利要求1-3任一项所述的目标识别模型训练方法,其特征在于,所述方法还包括:
将所述训练图像输入至语义分割模型,得到所述训练图像的语义分割的初步结果;
所述依据所述弱监督信息和所述多个局部候选区域分类的初步结果,进行局部候选区域融合具体为:依据所述弱监督信息和所述多个局部候选区域分类的初步结果,进行局部候选区域融合,得到所述训练图像的语义分割的校正结果;
所述根据所述多个局部候选区域分类的初步结果和局部候选区域融合的结果对所述目标识别模型的参数进行修正进一步包括:
依据所述语义分割的初步结果和所述语义分割的校正结果,对所述语义分割模型的模型参数进行修正;
共享经修正的所述语义分割模型的输出结果,对所述目标识别模型的参数进行修正。
5.根据权利要求1-4任一项所述的目标识别模型训练方法,其特征在于,所述将针对所述训练图像选定的多个局部候选区域输入至所述目标识别模型,得到所述目标识别模型输出的多个局部候选区域分类的初步结果还包括:
利用交叉熵损失函数,将所述多个局部候选区域按照物体类别进行分类;
对每个局部候选区域属于物体类别的概率进行预测,得到每个局部候选区域的物体类别概率预测值;
所述对目标识别模型的参数进行修正进一步包括:对所述交叉熵损失函数的参数进行修正。
6.根据权利要求1-5任一项所述的目标识别模型训练方法,其特征在于,所述训练步骤还包括:
依据所述弱监督信息,对用于预测所述训练图像的图像类别的函数进行训练。
7.一种目标识别方法,其特征在于,包括:
将待识别的图像作为目标识别模型的输入,所述目标识别模型预先采用如权利要求1-6任一项所述的方法进行训练;
根据所述目标识别模型的输出结果确定针对所述图像选定的多个局部候选区域的分类结果。
8.一种目标识别模型训练装置,其特征在于,所述装置采用多个预先标注有弱监督信息的训练图像对目标识别模型进行训练,所述训练装置包括:
目标识别单元,用于将针对所述训练图像选定的多个局部候选区域输入至所述目标识别模型,得到所述目标识别模型输出的多个局部候选区域分类的初步结果;
融合单元,用于依据所述弱监督信息和所述多个局部候选区域分类的初步结果,进行局部候选区域融合;
修正单元,用于根据所述多个局部候选区域分类的初步结果和局部候选区域融合的结果对所述目标识别模型的参数进行修正;
所述训练装置迭代运行直至所述目标识别模型的训练结果满足预定收敛条件。
9.一种目标识别装置,其特征在于,所述目标识别装置用于将待识别的图像作为目标识别模型的输入,根据所述目标识别模型的输出结果确定针对所述图像选定的多个局部候选区域的分类结果;其中,所述目标识别模型预先采用如权利要求8所述的训练装置进行训练。
10.一种计算设备,其特征在于,包括:处理器、通信接口、存储器以及通信总线;所述处理器、所述通信接口和所述存储器通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一指令;所述指令使所述处理器执行以下操作:
将针对所述训练图像选定的多个局部候选区域输入至所述目标识别模型,得到所述目标识别模型输出的多个局部候选区域分类的初步结果;
依据所述弱监督信息和所述多个局部候选区域分类的初步结果,进行局部候选区域融合;
根据所述多个局部候选区域分类的初步结果和局部候选区域融合的结果对所述目标识别模型的参数进行修正;
迭代执行以上所述训练步骤直至所述目标识别模型的训练结果满足预定收敛条件。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610849633.9A CN106529565B (zh) | 2016-09-23 | 2016-09-23 | 目标识别模型训练和目标识别方法及装置、计算设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610849633.9A CN106529565B (zh) | 2016-09-23 | 2016-09-23 | 目标识别模型训练和目标识别方法及装置、计算设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106529565A true CN106529565A (zh) | 2017-03-22 |
CN106529565B CN106529565B (zh) | 2019-09-13 |
Family
ID=58344227
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610849633.9A Active CN106529565B (zh) | 2016-09-23 | 2016-09-23 | 目标识别模型训练和目标识别方法及装置、计算设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106529565B (zh) |
Cited By (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107992841A (zh) * | 2017-12-13 | 2018-05-04 | 北京小米移动软件有限公司 | 识别图像中物体的方法及装置、电子设备、可读存储介质 |
CN108182394A (zh) * | 2017-12-22 | 2018-06-19 | 浙江大华技术股份有限公司 | 卷积神经网络的训练方法、人脸识别方法及装置 |
CN108230354A (zh) * | 2017-05-18 | 2018-06-29 | 深圳市商汤科技有限公司 | 目标跟踪、网络训练方法、装置、电子设备和存储介质 |
CN108537289A (zh) * | 2018-04-24 | 2018-09-14 | 百度在线网络技术(北京)有限公司 | 数据识别模型的训练方法、装置及存储介质 |
CN108564134A (zh) * | 2018-04-27 | 2018-09-21 | 网易(杭州)网络有限公司 | 数据处理方法、装置、计算设备和介质 |
CN108764306A (zh) * | 2018-05-15 | 2018-11-06 | 深圳大学 | 图像分类方法、装置、计算机设备和存储介质 |
CN108764235A (zh) * | 2018-05-23 | 2018-11-06 | 中国民用航空总局第二研究所 | 神经网络模型、目标检测方法、设备及介质 |
CN108876804A (zh) * | 2017-10-12 | 2018-11-23 | 北京旷视科技有限公司 | 抠像模型训练和图像抠像方法、装置和***及存储介质 |
CN108921054A (zh) * | 2018-06-15 | 2018-11-30 | 华中科技大学 | 一种基于语义分割的行人多属性识别方法 |
CN108965982A (zh) * | 2018-08-28 | 2018-12-07 | 百度在线网络技术(北京)有限公司 | 视频录制方法、装置、电子设备和可读存储介质 |
CN108960232A (zh) * | 2018-06-08 | 2018-12-07 | Oppo广东移动通信有限公司 | 模型训练方法、装置、电子设备和计算机可读存储介质 |
CN109210684A (zh) * | 2018-09-18 | 2019-01-15 | 珠海格力电器股份有限公司 | 控制空调的方法、装置以及空调装置 |
CN109460820A (zh) * | 2018-09-28 | 2019-03-12 | 深圳百诺国际生命科技有限公司 | 一种神经网络训练方法、装置、计算机设备和存储介质 |
CN109543835A (zh) * | 2018-11-30 | 2019-03-29 | 上海寒武纪信息科技有限公司 | 运算方法、装置及相关产品 |
CN109543833A (zh) * | 2018-11-30 | 2019-03-29 | 上海寒武纪信息科技有限公司 | 运算方法、装置及相关产品 |
CN109543836A (zh) * | 2018-11-30 | 2019-03-29 | 上海寒武纪信息科技有限公司 | 运算方法、装置及相关产品 |
CN109583580A (zh) * | 2018-11-30 | 2019-04-05 | 上海寒武纪信息科技有限公司 | 运算方法、装置及相关产品 |
CN109584862A (zh) * | 2017-09-29 | 2019-04-05 | 上海寒武纪信息科技有限公司 | 图像处理装置和方法 |
CN109670594A (zh) * | 2018-12-28 | 2019-04-23 | 北京旷视科技有限公司 | 数据训练方法、装置及电子设备 |
CN109724608A (zh) * | 2017-10-27 | 2019-05-07 | 通用汽车环球科技运作有限责任公司 | 借助具有空间先验的类别平衡自训练的区域适应 |
CN109829501A (zh) * | 2019-02-01 | 2019-05-31 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN110008962A (zh) * | 2019-04-11 | 2019-07-12 | 福州大学 | 基于注意力机制的弱监督语义分割方法 |
CN110135456A (zh) * | 2019-04-08 | 2019-08-16 | 图麟信息科技(上海)有限公司 | 一种目标检测模型的训练方法及装置 |
CN110188650A (zh) * | 2019-05-24 | 2019-08-30 | 张碧辉 | 基于ptz相机的双级视场目标检测方法、装置及*** |
CN110245662A (zh) * | 2019-06-18 | 2019-09-17 | 腾讯科技(深圳)有限公司 | 检测模型训练方法、装置、计算机设备和存储介质 |
CN110263124A (zh) * | 2018-11-27 | 2019-09-20 | 上海亿通国际股份有限公司 | 数据检测*** |
CN110349147A (zh) * | 2019-07-11 | 2019-10-18 | 腾讯医疗健康(深圳)有限公司 | 模型的训练方法、眼底黄斑区病变识别方法、装置及设备 |
CN110363138A (zh) * | 2019-07-12 | 2019-10-22 | 腾讯科技(深圳)有限公司 | 模型训练方法、图像处理方法、装置、终端及存储介质 |
CN110738125A (zh) * | 2019-09-19 | 2020-01-31 | 平安科技(深圳)有限公司 | 利用Mask R-CNN选择检测框的方法、装置及存储介质 |
CN110781980A (zh) * | 2019-11-08 | 2020-02-11 | 北京金山云网络技术有限公司 | 目标检测模型的训练方法、目标检测方法及装置 |
CN111160301A (zh) * | 2019-12-31 | 2020-05-15 | 同济大学 | 基于机器视觉的隧道病害目标智能识别及提取方法 |
CN111401253A (zh) * | 2020-03-17 | 2020-07-10 | 吉林建筑大学 | 一种基于深度学习的目标检测方法 |
CN111401376A (zh) * | 2020-03-12 | 2020-07-10 | 腾讯科技(深圳)有限公司 | 目标检测方法、装置、电子设备以及存储介质 |
CN111428726A (zh) * | 2020-06-10 | 2020-07-17 | 中山大学 | 基于图神经网络的全景分割方法、***、设备及存储介质 |
CN111489357A (zh) * | 2019-01-29 | 2020-08-04 | 广州市百果园信息技术有限公司 | 一种图像分割方法、装置、设备及存储介质 |
CN111523596A (zh) * | 2020-04-23 | 2020-08-11 | 北京百度网讯科技有限公司 | 目标识别模型训练方法、装置、设备以及存储介质 |
CN111539291A (zh) * | 2020-04-16 | 2020-08-14 | 创新奇智(合肥)科技有限公司 | 基于雷达波的目标检测方法及装置、电子设备、存储介质 |
CN111661059A (zh) * | 2019-03-08 | 2020-09-15 | 虹软科技股份有限公司 | 分心驾驶监测方法、***及电子设备 |
CN111669492A (zh) * | 2019-03-06 | 2020-09-15 | 青岛海信移动通信技术股份有限公司 | 一种终端对拍摄的数字图像进行处理的方法及终端 |
CN112070099A (zh) * | 2020-09-08 | 2020-12-11 | 江西财经大学 | 一种基于机器学习的图像处理方法 |
CN112446378A (zh) * | 2020-11-30 | 2021-03-05 | 展讯通信(上海)有限公司 | 目标检测方法及装置、存储介质、终端 |
CN112580717A (zh) * | 2020-12-17 | 2021-03-30 | 百度在线网络技术(北京)有限公司 | 模型训练方法、定位元素查找方法及装置 |
CN113052217A (zh) * | 2021-03-15 | 2021-06-29 | 上海云从汇临人工智能科技有限公司 | 预测结果标识及其模型训练方法、装置及计算机存储介质 |
CN113163133A (zh) * | 2018-10-15 | 2021-07-23 | 华为技术有限公司 | 一种图像处理方法、装置与设备 |
CN113569852A (zh) * | 2021-06-09 | 2021-10-29 | 中国科学院自动化研究所 | 语义分割模型的训练方法、装置、电子设备及存储介质 |
CN115205589A (zh) * | 2022-07-04 | 2022-10-18 | 腾讯科技(深圳)有限公司 | 对象识别方法、装置、电子设备及存储介质 |
CN116109823A (zh) * | 2023-01-13 | 2023-05-12 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、电子设备、存储介质和程序产品 |
CN117787511A (zh) * | 2024-02-28 | 2024-03-29 | 福州工小四物联科技有限公司 | 一种工厂化高密度水产养殖监测预警方法及其*** |
CN110363138B (zh) * | 2019-07-12 | 2024-07-26 | 腾讯科技(深圳)有限公司 | 模型训练方法、图像处理方法、装置、终端及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101894275A (zh) * | 2010-06-29 | 2010-11-24 | 武汉大学 | 一种弱监督的sar图像分类方法 |
CN104992184A (zh) * | 2015-07-02 | 2015-10-21 | 东南大学 | 一种基于半监督极限学习机的多类图像分类方法 |
-
2016
- 2016-09-23 CN CN201610849633.9A patent/CN106529565B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101894275A (zh) * | 2010-06-29 | 2010-11-24 | 武汉大学 | 一种弱监督的sar图像分类方法 |
CN104992184A (zh) * | 2015-07-02 | 2015-10-21 | 东南大学 | 一种基于半监督极限学习机的多类图像分类方法 |
Non-Patent Citations (2)
Title |
---|
YUNCHAO WEI等: "STC:A Simple to Complex Frameworrk for Weakly-Supervised Semantic Segmentation", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
王海罗等: "基于超像素融合算法的显著区域检测", 《北京理工大学学报》 * |
Cited By (79)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108230354A (zh) * | 2017-05-18 | 2018-06-29 | 深圳市商汤科技有限公司 | 目标跟踪、网络训练方法、装置、电子设备和存储介质 |
CN108230354B (zh) * | 2017-05-18 | 2022-05-10 | 深圳市商汤科技有限公司 | 目标跟踪、网络训练方法、装置、电子设备和存储介质 |
CN109584862A (zh) * | 2017-09-29 | 2019-04-05 | 上海寒武纪信息科技有限公司 | 图像处理装置和方法 |
CN109584862B (zh) * | 2017-09-29 | 2024-01-12 | 上海寒武纪信息科技有限公司 | 图像处理装置和方法 |
CN108876804A (zh) * | 2017-10-12 | 2018-11-23 | 北京旷视科技有限公司 | 抠像模型训练和图像抠像方法、装置和***及存储介质 |
CN109724608A (zh) * | 2017-10-27 | 2019-05-07 | 通用汽车环球科技运作有限责任公司 | 借助具有空间先验的类别平衡自训练的区域适应 |
CN107992841A (zh) * | 2017-12-13 | 2018-05-04 | 北京小米移动软件有限公司 | 识别图像中物体的方法及装置、电子设备、可读存储介质 |
CN108182394A (zh) * | 2017-12-22 | 2018-06-19 | 浙江大华技术股份有限公司 | 卷积神经网络的训练方法、人脸识别方法及装置 |
CN108537289A (zh) * | 2018-04-24 | 2018-09-14 | 百度在线网络技术(北京)有限公司 | 数据识别模型的训练方法、装置及存储介质 |
CN108537289B (zh) * | 2018-04-24 | 2023-04-07 | 百度在线网络技术(北京)有限公司 | 数据识别模型的训练方法、装置及存储介质 |
CN108564134B (zh) * | 2018-04-27 | 2021-07-06 | 网易(杭州)网络有限公司 | 数据处理方法、装置、计算设备和介质 |
CN108564134A (zh) * | 2018-04-27 | 2018-09-21 | 网易(杭州)网络有限公司 | 数据处理方法、装置、计算设备和介质 |
CN108764306B (zh) * | 2018-05-15 | 2022-04-22 | 深圳大学 | 图像分类方法、装置、计算机设备和存储介质 |
US11238311B2 (en) | 2018-05-15 | 2022-02-01 | Shenzhen University | Method for image classification, computer device, and storage medium |
CN108764306A (zh) * | 2018-05-15 | 2018-11-06 | 深圳大学 | 图像分类方法、装置、计算机设备和存储介质 |
CN108764235B (zh) * | 2018-05-23 | 2021-06-29 | 中国民用航空总局第二研究所 | 目标检测方法、设备及介质 |
CN108764235A (zh) * | 2018-05-23 | 2018-11-06 | 中国民用航空总局第二研究所 | 神经网络模型、目标检测方法、设备及介质 |
CN108960232A (zh) * | 2018-06-08 | 2018-12-07 | Oppo广东移动通信有限公司 | 模型训练方法、装置、电子设备和计算机可读存储介质 |
CN108921054B (zh) * | 2018-06-15 | 2021-08-03 | 华中科技大学 | 一种基于语义分割的行人多属性识别方法 |
CN108921054A (zh) * | 2018-06-15 | 2018-11-30 | 华中科技大学 | 一种基于语义分割的行人多属性识别方法 |
CN108965982A (zh) * | 2018-08-28 | 2018-12-07 | 百度在线网络技术(北京)有限公司 | 视频录制方法、装置、电子设备和可读存储介质 |
US10880495B2 (en) | 2018-08-28 | 2020-12-29 | Baidu Online Network Technology (Beijing) Co., Ltd. | Video recording method and apparatus, electronic device and readable storage medium |
CN109210684A (zh) * | 2018-09-18 | 2019-01-15 | 珠海格力电器股份有限公司 | 控制空调的方法、装置以及空调装置 |
CN109460820A (zh) * | 2018-09-28 | 2019-03-12 | 深圳百诺国际生命科技有限公司 | 一种神经网络训练方法、装置、计算机设备和存储介质 |
CN113163133A (zh) * | 2018-10-15 | 2021-07-23 | 华为技术有限公司 | 一种图像处理方法、装置与设备 |
CN110263124A (zh) * | 2018-11-27 | 2019-09-20 | 上海亿通国际股份有限公司 | 数据检测*** |
CN109543836A (zh) * | 2018-11-30 | 2019-03-29 | 上海寒武纪信息科技有限公司 | 运算方法、装置及相关产品 |
CN109543835A (zh) * | 2018-11-30 | 2019-03-29 | 上海寒武纪信息科技有限公司 | 运算方法、装置及相关产品 |
CN109583580B (zh) * | 2018-11-30 | 2021-08-03 | 上海寒武纪信息科技有限公司 | 运算方法、装置及相关产品 |
CN109543833A (zh) * | 2018-11-30 | 2019-03-29 | 上海寒武纪信息科技有限公司 | 运算方法、装置及相关产品 |
CN109583580A (zh) * | 2018-11-30 | 2019-04-05 | 上海寒武纪信息科技有限公司 | 运算方法、装置及相关产品 |
CN109543835B (zh) * | 2018-11-30 | 2021-06-25 | 上海寒武纪信息科技有限公司 | 运算方法、装置及相关产品 |
CN109670594A (zh) * | 2018-12-28 | 2019-04-23 | 北京旷视科技有限公司 | 数据训练方法、装置及电子设备 |
CN111489357A (zh) * | 2019-01-29 | 2020-08-04 | 广州市百果园信息技术有限公司 | 一种图像分割方法、装置、设备及存储介质 |
CN109829501A (zh) * | 2019-02-01 | 2019-05-31 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN111669492A (zh) * | 2019-03-06 | 2020-09-15 | 青岛海信移动通信技术股份有限公司 | 一种终端对拍摄的数字图像进行处理的方法及终端 |
CN111661059A (zh) * | 2019-03-08 | 2020-09-15 | 虹软科技股份有限公司 | 分心驾驶监测方法、***及电子设备 |
US11783599B2 (en) | 2019-03-08 | 2023-10-10 | Arcsoft Corporation Limited | Distracted-driving monitoring method, system and electronic device |
CN110135456A (zh) * | 2019-04-08 | 2019-08-16 | 图麟信息科技(上海)有限公司 | 一种目标检测模型的训练方法及装置 |
CN110008962A (zh) * | 2019-04-11 | 2019-07-12 | 福州大学 | 基于注意力机制的弱监督语义分割方法 |
CN110008962B (zh) * | 2019-04-11 | 2022-08-12 | 福州大学 | 基于注意力机制的弱监督语义分割方法 |
CN110188650B (zh) * | 2019-05-24 | 2021-01-19 | 张碧辉 | 基于ptz相机的双级视场目标检测方法、装置及*** |
CN110188650A (zh) * | 2019-05-24 | 2019-08-30 | 张碧辉 | 基于ptz相机的双级视场目标检测方法、装置及*** |
CN110245662B (zh) * | 2019-06-18 | 2021-08-10 | 腾讯科技(深圳)有限公司 | 检测模型训练方法、装置、计算机设备和存储介质 |
US11842487B2 (en) | 2019-06-18 | 2023-12-12 | Tencent Technology (Shenzhen) Company Limited | Detection model training method and apparatus, computer device and storage medium |
CN110245662A (zh) * | 2019-06-18 | 2019-09-17 | 腾讯科技(深圳)有限公司 | 检测模型训练方法、装置、计算机设备和存储介质 |
WO2020253629A1 (zh) * | 2019-06-18 | 2020-12-24 | 腾讯科技(深圳)有限公司 | 检测模型训练方法、装置、计算机设备和存储介质 |
CN110349147A (zh) * | 2019-07-11 | 2019-10-18 | 腾讯医疗健康(深圳)有限公司 | 模型的训练方法、眼底黄斑区病变识别方法、装置及设备 |
CN110349147B (zh) * | 2019-07-11 | 2024-02-02 | 腾讯医疗健康(深圳)有限公司 | 模型的训练方法、眼底黄斑区病变识别方法、装置及设备 |
CN110363138A (zh) * | 2019-07-12 | 2019-10-22 | 腾讯科技(深圳)有限公司 | 模型训练方法、图像处理方法、装置、终端及存储介质 |
US11914677B2 (en) | 2019-07-12 | 2024-02-27 | Tencent Technology (Shenzhen) Company Limited | Image processing method and apparatus, terminal, and storage medium |
WO2021008328A1 (zh) * | 2019-07-12 | 2021-01-21 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、终端及存储介质 |
CN110363138B (zh) * | 2019-07-12 | 2024-07-26 | 腾讯科技(深圳)有限公司 | 模型训练方法、图像处理方法、装置、终端及存储介质 |
CN110738125B (zh) * | 2019-09-19 | 2023-08-01 | 平安科技(深圳)有限公司 | 利用Mask R-CNN选择检测框的方法、装置及存储介质 |
CN110738125A (zh) * | 2019-09-19 | 2020-01-31 | 平安科技(深圳)有限公司 | 利用Mask R-CNN选择检测框的方法、装置及存储介质 |
WO2021051601A1 (zh) * | 2019-09-19 | 2021-03-25 | 平安科技(深圳)有限公司 | 利用Mask R-CNN选择检测框的方法及***、电子装置及存储介质 |
CN110781980A (zh) * | 2019-11-08 | 2020-02-11 | 北京金山云网络技术有限公司 | 目标检测模型的训练方法、目标检测方法及装置 |
CN110781980B (zh) * | 2019-11-08 | 2022-04-12 | 北京金山云网络技术有限公司 | 目标检测模型的训练方法、目标检测方法及装置 |
CN111160301A (zh) * | 2019-12-31 | 2020-05-15 | 同济大学 | 基于机器视觉的隧道病害目标智能识别及提取方法 |
CN111160301B (zh) * | 2019-12-31 | 2023-04-18 | 同济大学 | 基于机器视觉的隧道病害目标智能识别及提取方法 |
CN111401376B (zh) * | 2020-03-12 | 2023-06-30 | 腾讯科技(深圳)有限公司 | 目标检测方法、装置、电子设备以及存储介质 |
CN111401376A (zh) * | 2020-03-12 | 2020-07-10 | 腾讯科技(深圳)有限公司 | 目标检测方法、装置、电子设备以及存储介质 |
CN111401253A (zh) * | 2020-03-17 | 2020-07-10 | 吉林建筑大学 | 一种基于深度学习的目标检测方法 |
CN111401253B (zh) * | 2020-03-17 | 2022-09-13 | 吉林建筑大学 | 一种基于深度学习的目标检测方法 |
CN111539291A (zh) * | 2020-04-16 | 2020-08-14 | 创新奇智(合肥)科技有限公司 | 基于雷达波的目标检测方法及装置、电子设备、存储介质 |
CN111523596B (zh) * | 2020-04-23 | 2023-07-04 | 北京百度网讯科技有限公司 | 目标识别模型训练方法、装置、设备以及存储介质 |
CN111523596A (zh) * | 2020-04-23 | 2020-08-11 | 北京百度网讯科技有限公司 | 目标识别模型训练方法、装置、设备以及存储介质 |
CN111428726A (zh) * | 2020-06-10 | 2020-07-17 | 中山大学 | 基于图神经网络的全景分割方法、***、设备及存储介质 |
CN111428726B (zh) * | 2020-06-10 | 2020-09-11 | 中山大学 | 基于图神经网络的全景分割方法、***、设备及存储介质 |
CN112070099B (zh) * | 2020-09-08 | 2024-06-07 | 江西财经大学 | 一种基于机器学习的图像处理方法 |
CN112070099A (zh) * | 2020-09-08 | 2020-12-11 | 江西财经大学 | 一种基于机器学习的图像处理方法 |
CN112446378A (zh) * | 2020-11-30 | 2021-03-05 | 展讯通信(上海)有限公司 | 目标检测方法及装置、存储介质、终端 |
CN112580717A (zh) * | 2020-12-17 | 2021-03-30 | 百度在线网络技术(北京)有限公司 | 模型训练方法、定位元素查找方法及装置 |
CN113052217A (zh) * | 2021-03-15 | 2021-06-29 | 上海云从汇临人工智能科技有限公司 | 预测结果标识及其模型训练方法、装置及计算机存储介质 |
CN113569852A (zh) * | 2021-06-09 | 2021-10-29 | 中国科学院自动化研究所 | 语义分割模型的训练方法、装置、电子设备及存储介质 |
CN115205589A (zh) * | 2022-07-04 | 2022-10-18 | 腾讯科技(深圳)有限公司 | 对象识别方法、装置、电子设备及存储介质 |
CN116109823A (zh) * | 2023-01-13 | 2023-05-12 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、电子设备、存储介质和程序产品 |
CN117787511B (zh) * | 2024-02-28 | 2024-05-10 | 福州工小四物联科技有限公司 | 一种工厂化高密度水产养殖监测预警方法及其*** |
CN117787511A (zh) * | 2024-02-28 | 2024-03-29 | 福州工小四物联科技有限公司 | 一种工厂化高密度水产养殖监测预警方法及其*** |
Also Published As
Publication number | Publication date |
---|---|
CN106529565B (zh) | 2019-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106529565A (zh) | 目标识别模型训练和目标识别方法及装置、计算设备 | |
CN106530305B (zh) | 语义分割模型训练和图像分割方法及装置、计算设备 | |
CN107220618B (zh) | 人脸检测方法及装置、计算机可读存储介质、设备 | |
CN112052787B (zh) | 基于人工智能的目标检测方法、装置及电子设备 | |
CN106097353B (zh) | 基于多层次局部区域融合的物体分割方法及装置、计算设备 | |
CN111008640B (zh) | 图像识别模型训练及图像识别方法、装置、终端及介质 | |
CN109977943A (zh) | 一种基于yolo的图像目标识别方法、***和存储介质 | |
CN106570453B (zh) | 用于行人检测的方法、装置和*** | |
CN112434721A (zh) | 一种基于小样本学习的图像分类方法、***、存储介质及终端 | |
CN109376615A (zh) | 用于提升深度学习网络预测性能的方法、装置及存储介质 | |
CN112700434B (zh) | 医学图像的分类方法及其分类装置 | |
CN110414559A (zh) | 智能零售柜商品目标检测统一框架的构建方法及商品识别方法 | |
CN112153002B (zh) | 告警信息分析方法、装置、计算机设备和存储介质 | |
CN110349082A (zh) | 图像区域的裁剪方法和装置、存储介质及电子装置 | |
CN107748898A (zh) | 文件分类方法、装置、计算设备及计算机存储介质 | |
CN114330692A (zh) | 神经网络模型的部署方法、装置、设备及存储介质 | |
CN109598307A (zh) | 数据筛选方法、装置、服务器及存储介质 | |
CN107801090A (zh) | 利用音频信息检测异常视频文件的方法、装置及计算设备 | |
CN112016617B (zh) | 细粒度分类方法、装置及计算机可读存储介质 | |
CN115391561A (zh) | 图网络数据集的处理方法、装置、电子设备、程序及介质 | |
CN114584406B (zh) | 一种联邦学习的工业大数据隐私保护***及方法 | |
CN114783021A (zh) | 一种口罩佩戴智能检测方法、装置、设备及介质 | |
CN114707641A (zh) | 双视角图神经网络模型的训练方法、装置、设备及介质 | |
CN107832852B (zh) | 数据处理学习方法、***以及电子设备 | |
CN113706551A (zh) | 一种图像分割方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |