CN112668586A - 模型训练、图片处理方法及设备、存储介质、程序产品 - Google Patents
模型训练、图片处理方法及设备、存储介质、程序产品 Download PDFInfo
- Publication number
- CN112668586A CN112668586A CN202011510141.XA CN202011510141A CN112668586A CN 112668586 A CN112668586 A CN 112668586A CN 202011510141 A CN202011510141 A CN 202011510141A CN 112668586 A CN112668586 A CN 112668586A
- Authority
- CN
- China
- Prior art keywords
- picture
- target
- picture data
- data
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 101
- 238000000034 method Methods 0.000 title claims abstract description 73
- 238000012545 processing Methods 0.000 title claims abstract description 18
- 230000004927 fusion Effects 0.000 claims description 62
- 238000000605 extraction Methods 0.000 claims description 36
- 230000015654 memory Effects 0.000 claims description 19
- 238000003672 processing method Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 12
- 238000012216 screening Methods 0.000 claims description 11
- 239000000126 substance Substances 0.000 claims description 2
- 238000013135 deep learning Methods 0.000 abstract description 9
- 238000005516 engineering process Methods 0.000 abstract description 7
- 238000007499 fusion processing Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 6
- 238000013526 transfer learning Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/84—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- Probability & Statistics with Applications (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请提供一种模型训练、图片处理方法及设备、存储介质、程序产品,涉及深度学习技术,能够利用用于学习目标任务的图片数据筛选出辅助图片数据,还能够对目标图片数据与辅助图片数据进行融合处理,从而利用融合处理后的融合图片数据,对搭建的待训练模型进行训练,这种实施方式能够增加用于训练模型的数据量,且用于训练模型的数据是基于目标图片数据确定的,这些数据适宜学习目标任务。因此,本申请提供的方案在目标图片数据量不够充足的情况下,也能训练出准确的目标模型。
Description
技术领域
本申请涉及计算机技术中的深度学习技术,尤其涉及一种模型训练、图片处理方法及设备、存储介质、程序产品。
背景技术
近些年来,深度学习技术取得了巨大的技术突破,并被快速应用普及。可以基于深度学习技术训练模型,从而能够得到人工智能化的产品。
基于深度学习技术训练模型时,需要巨大的标注样本。样本中的数据越多,训练的模型越准确。然而,在实际应用场景中,采集大量带有标注样本的数据是难以实现的。因此,现有技术中通过迁移学习的方式解决这一问题。
迁移学习是对大数据充分训练的预训练模型进行微调得到目标模型,具体根据需要实现的目标任务对该预训练模型进行微调。但是,在目标任务样本数量有限时,微调得到的模型并不准确。
发明内容
本申请提供了一种模型训练、图片处理方法及设备、存储介质、程序产品,以解决现有技术中在目标任务样本数量有限时,对预设模型进行调整得到的目标模型并不准确。
根据本申请的第一方面,提供了一种模型训练方法,包括:
获取用于学习目标任务的目标图片数据、用于学习预设任务的源图片数据;
根据所述目标图片数据,在所述源图片数据中确定辅助图片数据;
根据训练完毕的与所述预设任务对应的预设模型、预设分类网络,确定待训练模型;
根据所述目标图片数据、所述辅助图片数据确定融合图片数据,利用所述融合图片数据对所述待训练模型进行训练,得到用于执行所述目标任务的目标模型。
根据本申请第二方面,提供了一种图片处理方法,包括:
获取待处理图片;
根据目标模型对所述待处理图片进行识别,确定与所述待处理图片对应的分类结果;其中,所述目标模型为通过第一方面所述模型训练方法训练得到的目标模型。
根据本申请第三方面,提供了一种模型训练装置,包括:
获取单元,用于获取用于学习目标任务的目标图片数据、用于学习预设任务的源图片数据;
数据筛选单元,用于根据所述目标图片数据,在所述源图片数据中确定辅助图片数据;
模型搭建单元,用于根据训练完毕的与所述预设任务对应的预设模型、预设分类网络,确定待训练模型;
融合单元,用于根据所述目标图片数据、所述辅助图片数据确定融合图片数据;
训练单元,用于利用所述融合图片数据对所述待训练模型进行训练,得到用于执行所述目标任务的目标模型。
根据本申请第四方面,提供了一种图片处理装置,包括:
获取单元,用于获取待处理图片;
识别单元,用于根据目标模型对所述待处理图片进行识别,确定与所述待处理图片对应的分类结果;其中,所述目标模型为如权利要求1-14任一项所述的目标模型。
根据本申请第五方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如第一方面或第二方面所述的方法。
根据本申请第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行如第一方面或第二方面所述的方法。
根据本申请第七方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如第一方面或第二方面所述的方法。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为一示例性实施例示出的迁移学习示意图;
图2为本申请一示例性实施例示出的模型训练方法的流程示意图;
图3为本申请一示例性实施例示出的筛选辅助图片数据的示意图;
图4为本申请另一示例性实施例示出的模型训练方法的流程示意图;
图5为本申请一示例性实施例示出的待训练模型示意图;
图6为本申请一示例性实施例示出的生成数据组合的示意图;
图7为本申请一示例性实施例示出的任务处理方法的流程示意图;
图8为本申请一示例性实施例示出的模型训练装置的结构示意图;
图9为本申请另一示例性实施例示出的模型训练装置的结构示意图;
图10为本申请一示例性实施例示出的图片处理装置的结构示意图;
图11为本申请一示例性实施例示出的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
目前,越来越多的应用场景中采用了深度学习技术,深度学习技术能够对具有标签的数据进行学习,得到需要的模型。但是,为了训练得到准确的模型,需要大量具有标签的数据。
但是在实际应用过程中,采集大量带有标注样本的数据是难以实现的。因此,在深度学习场景中,可以采用迁移学习的方式进行模型训练。
迁移学习是将一个预训练的模型重新用在另一个任务中的机器学习方式。可以使用与目标任务对应的目标样本对预训练模型进行微调,得到目标模型。
图1为一示例性实施例示出的迁移学习示意图。
如图1所示,预训练模型11是通过源样本12训练得到的,该预训练模型例如可以是现有技术中已有的模型。利用目标样本13对预训练模型11进行微调,可以得到目标模型14。比如,可以利用目标样本13对预训练模型11进行二次训练,得到目标模型14。
但是,若目标样本数量有限,调整后的目标模型在处理任务时并不准确。因此,如何在目标样本数量有限时,训练得到准确的目标模型,是需要解决的技术问题。
尤其是在样本为图片数据时,需要对大量的图片数据进行标注,才能够得到足够量的目标样本。但是,目标获取样本的方式是人工标注的方式,由人工对大量的图片数据进行标注效率较低,导致模型训练效率也低。
为了解决上述技术问题,本申请提供的方法中,根据用于学习目标任务的目标图片数据在用于学习预设任务的源图片数据中确定辅助图片数据,再根据目标图片数据以及辅助图片数据对预训练模型进行调整。这种实施方式中,能够增加用于调整预训练模型的数据,从而使调整后的模型在处理任务时更加准确。
本申请提供一种模型训练、图片处理方法及设备、存储介质、程序产品,应用于计算机技术中的深度学习技术。
图2为本申请一示例性实施例示出的模型训练方法的流程示意图。
如图2所示,本申请提供的模型训练方法,包括:
步骤201,获取用于学习目标任务的目标图片数据、用于学习预设任务的源图片数据。
其中,本申请提供的方法由具备计算能力的电子设备执行,该电子设备例如可以是计算机。
目标任务是当前需要学习的任务。比如,用户希望训练一个能够识别出图像中包括的小猫的模型,那么目标任务就是指识别图像中包括的小猫的任务。
用于学习目标任务的数据为目标图片数据,通过学习目标任务得到的模型为目标模型。若目标图片数据量足够大,则能够训练出准确的目标模型。但在实际过程中,经常无法获取足够的目标图片数据,因此,无法仅根据已有的目标图片训练得到准确的目标模型。
具体的,预设任务是指一个已经学习完成的任务。比如,预设任务可以是识别图像中包括的物体的任务。通过学习预设任务得到的模型为预设模型。
进一步的,用于学习预设任务的数据为源图片数据,通过学习预设任务得到的模型为预设模型。本申请提供的方法中,可以利用已有的数据库训练得到预设模型,再对得到的预设模型进行调整,得到目标模型。
一种实施方式中,可以利用imageNet数据库(用于视觉对象识别软件研究的大型可视化数据库)进行模型训练,得到预设模型。
实际应用时,电子设备可以获取用于学习目标任务的目标图片数据。目标图片数据中包括目标图片,目标图片数据中还包括各个目标图片的标签。目标图片数据例如可以存储在执行本申请提供的方法的电子设备中,当电子设备执行本实施例的方法时,可以获取目标图片数据。
其中,电子设备还可以获取用于学***台中,比如,可以存储在服务器中。
具体的,电子设备在执行本实施例提供的方法时,可以从网络平台下载源图片数据。
步骤202,根据目标图片数据,在源图片数据中确定辅助图片数据。
进一步的,电子设备可以根据获取的目标图片数据,在源图片数据中筛选出辅助图片数据。
实际应用时,辅助图片数据中包括辅助图片,辅助图片数据中还可以包括各个辅助图片的标签。
其中,电子设备可以在源图片数据中筛选出与目标图片数据相似的图片数据,作为辅助图片数据。比如,可以计算源图片数据中各个源图片与目标图片数据中各个目标图片之间的相似度,将与目标图片相似的源图片作为辅助图片,从而得到辅助图片数据。
例如存在多个源图片数据和目标图片数据,针对每一个目标图片数据,都可以确定该目标图片数据中的目标图片,与源图片数据中的源图片之间的相似度。
图3为本申请一示例性实施例示出的筛选辅助图片数据的示意图。
如图3所示,可以确定目标图片31与每个源图片32之间的相似度,再根据确定的相似度,在源图片32中筛选出符合要求的辅助图片33。
其中,辅助图片33及其标签,构成了辅助图片数据。通过目标图片数据可以在源图片数据中,筛选出与目标图片数据相似的辅助图片数据,从而可以根据辅助图片数据增加用于调整预设模型的样本数量。
步骤203,根据训练完毕的与预设任务对应的预设模型、预设分类网络,确定待训练模型。
具体的,电子设备可以利用训练完毕的预设模型和预设分类网络搭建待训练模型。
进一步的,预设模型是利用已有的图片数据库训练得到的,数据库中的源图片中,包括与目标图片相似的图片。
实际应用时,本申请提供的方法中可以利用预设模型中的特征提取网络,可以根据预设模型中的特征提取网络、预设分类网络搭建得到待训练模型。
由于预设任务与目标任务不同,因此学习预设任务得到的预设模型,与学习目标任务的目标模型之间的分类结果不同。因此,本申请提供的方法中,根据目标模型涉及预设分类网络,并根据预设模型中的特征提取网络、预设分类网络搭建得到待训练模型。
具体的,本申请提供的方法,使用目标图片数据、辅助图片数据训练待训练模型,因此,可以将预设分类网络输出的分类结果维度设置为目标图片数据、辅助图片数据的标签类别总数。
步骤204,根据目标图片数据、辅助图片数据确定融合图片数据,利用融合图片数据对待训练模型进行训练,得到用于执行目标任务的目标模型。
进一步的,电子设备可以对获取的目标图片数据和确定的辅助图片数据进行融合,得到融合图片数据。
实际应用时,电子设备可以对目标图片数据与辅助图片数据中的图片进行融合得到融合图片,还可以对目标图片数据与辅助图片数据中的标签进行融合,得到与融合图片对应的融合标签。
其中,可以利用包括融合图片和融合标签的融合图片数据训练待训练模型。
具体的,可以对任意的目标图片数据与辅助图片数据进行融合,从而得到大量用于训练待训练模型的样本数据。通过这种方式能够在不需要人工标注的前提下,得到大量用于训练模型的数据,进而能够训练得到准确的目标模型。
进一步的,本申请在对目标图片数据和辅助图片数据进行融合时,可以对图片本身进行融合,还可以对图片的标签也进行融合,从而在进行模型训练时,确定的损失函数结果也是融合后的结果,能够进一步的提高模型训练结果。
进一步的,可以先获取部分目标图片数据、辅助图片数据,并确定融合图片数据。再利用确定的融合图片数据对待训练模型进行训练,此后,再获取部分目标图片数据、辅助图片数据,并确定融合图片数据。再利用确定的融合图片数据对待训练模型进行训练,通过多次训练迭代,训练得到目标模型。
本申请提供的模型训练方法,包括:获取用于学习目标任务的目标图片数据、用于学习预设任务的源图片数据;根据目标图片数据,在源图片数据中确定辅助图片数据;根据训练完毕的与预设任务对应的预设模型、预设分类网络,确定待训练模型;根据目标图片数据、辅助图片数据确定融合图片数据,利用融合图片数据对待训练模型进行训练,得到用于执行目标任务的目标模型。本申请提供的模型训练方法中,能够利用用于学习目标任务的图片数据筛选出辅助图片数据,还能够对目标图片数据与辅助图片数据进行融合处理,从而利用融合处理后的融合图片数据,对搭建的待训练模型进行训练,这种实施方式能够增加用于训练模型的数据量,且用于训练模型的数据是基于目标图片数据确定的,这些数据适宜学习目标任务。因此,本申请提供的方法在目标图片数据量不够充足的情况下,也能训练出准确的目标模型。
图4为本申请另一示例性实施例示出的模型训练方法的流程示意图。
如图4所示,本申请提供的模型训练方法,包括:
步骤401,获取用于学习目标任务的目标图片数据、用于学习预设任务的源图片数据。
步骤401的实现方式和实现原理与步骤201类似,不再赘述。
步骤402,将各目标图片数据的目标图片输入预设模型的特征提取网络,得到与各个目标图片对应的目标特征。
步骤403,将各源图片数据的源图片输入预设模型的特征提取网络,得到与各个源图片对应的源特征。
其中,步骤402与步骤403之间的执行时序不做限制。
具体的,电子设备在源图片数据中确定辅助图片数据时,可以利用预设模型中的特征提取网络分别提取目标图片和源图片的特征,再根据二者特征在源图片数据中进行筛选。
预设模型是利用源图片数据进行预设任务学习得到的模型。可以直接利用该模型中的特征提取网络对源图片和目标图片进行分析。
进一步的,目标图片数据中包括目标图片及其标签,可以获取目标图片数据中的各个目标图片,并将其输入预设模型的特征提取网络中,从而得到各个目标图片的目标特征。
实际应用时,源图片数据中包括源图片及其标签,可以获取源图片数据中的各个源图片,并将其输入预设模型的特征提取网络中,从而得到各个源图片的源特征。
这种实施方式中,利用同一特征提取网络提取源图片和目标图片的特征,由于提取特征的方式相同,使得提取的源特征与目标特征具有可比性。
步骤404,根据各目标特征、各源特征,在源图片数据中确定辅助图片数据。
其中,电子设备可以比对确定的各目标特征与各源特征,比如,可以对目标特征与源特征进行两两比对,并根据比对结果在源图片数据中确定辅助图片数据。
具体的,电子设备可以在源特征中筛选出与任一目标特征相似的特征,再将该源特征所属的源图片确定为辅助图片,进而可以将该辅助图片及其标签,作为一个辅助图片数据。
这种方式能够基于图片特征在源图片数据中筛选辅助图片数据,筛选出的辅助图片数据与目标图片数据更加相近,也就更符合学习目标任务的需求。
进一步的,在根据图片的特征确定辅助图片数据时,具体可以根据各目标特征、各源特征,确定每个目标图片与每个源图片的相似度。可以根据图片的特征确定图片间的相似度,从而通过相似度表征两个图片之间的相似程度。比如,可以确定一个目标特征与一个源特征之间的欧氏距离,将其作为特征所属的图片之间的相似度。
实际应用时,可以获取一个目标图片的目标特征,并根据该目标特征、每个源图片的源特征,确定该目标图片与每个源图片间的相似度。
其中,根据相似度将与目标图片相似的源图片所属的源图片数据,确定为辅助图片数据。
具体的,可以根据相似度确定出与目标图片相似的源图片,并将该源图片所属的源图片数据作为辅助图片数据。从而使辅助图片数据中包括与目标图片相似的源图片,以及该源图片的标签。
这种实施方式能够基于各个图片的特征,在源图片数据中,确定出与目标图片数据具有相似性的辅助图片数据,从而确定出适宜学习目标任务的数据。
步骤405,根据预设模型中的特征提取网络、预设分类网络确定待训练网络。
进一步的,本申请提供的方法,可以利用预设模型中的特征提取网络,具体可以在特征提取网络后连接预设分类网络,得到待训练网络。
图5为本申请一示例性实施例示出的待训练模型示意图。
如图5所示,预设模型51中包括特征提取网络511和分类网络512。特征提取网络511用于提取输入模型的图片数据的特征,分类网络512用于根据特征提取网络511提取的特征得到分类结果,进而得到输入模型的图片数据的识别结果。
可以根据预设模型51与预设的分类网络52搭建得到待训练模型53。待训练模型53中,包括预设模型51中的特征提取网络511,还包括预设分类网络52。
其中,在待训练模型53中,特征提取网络511输出的特征被输入到预设分类网络52中,因此,预设分类网络52的特征输入维度与特征提取网络511的输出维度相同,二者能够很好的衔接。
预设模型是利用源图片数据训练得到的,该预设模型中的特征提取网络能够提取源图片数据的特征。因此,可以利用目标图片数据、辅助图片数据对特征提取网络调整,使其适合用于处理目标任务。这种实施方式中,不需要大量的目标图片数据,就能够将预设模型的特征提取网络调整为适合执行目标任务的网络。
具体的,预设分类网络的输出维度与目标图片数据、辅助图片数据中包括的标签总数相同。比如,目标图片数据中的标签包括A、B、C,辅助图片数据中的标签包括A、B、D,则标签总数为4,可以将预设分类网络的输出维度设置为4。
进一步的,将预设分类网络的输出维度设置为标签总数,在利用目标图片数据、辅助图片数据反复对待训练模型进行训练时,预设分类网络能够根据特征提取网络提取的特征,识别出与目标图片数据、辅助图片数据对应的标签,从而使得预设分类网络的输出结果符合用户需求。
实际应用时,确定辅助图片数据和确定待训练模型的步骤的执行时序不做限制。
步骤406,获取预设数量的目标图片数据、辅助图片数据。
一种实施方式中,可以分多次对目标图片数据和辅助图片数据进行融合,并利用每次融合得到的融合数据对待训练模型进行训练。
可以设置预设数量,每次获取预设数量个目标图片数据和预设数量个辅助图片数据。比如,每次获取n个目标图片数据,和n个辅助图片数据。
该预设数量可以根据训练模型时,每次输入的训练样本数量来确定。
步骤407,确定多个数据组合,每个数据组合中包括一个目标图片数据和一个辅助图片数据。
其中,可以对获取的目标图片数据和辅助图片数据进行分组,每个组合中可以包括一个目标图片数据和一个辅助图片数据。例如,可以将一个目标图片数据与获取的每一个辅助图片数据作为一个组合,比如获取了目标图片数据A1、B1、C1,获取了辅助图片数据A2、B2、C2。则针对一个目标图片数据A1,可以构建出三个组合,分别为A1 A2、A1 B2、A1 C2。针对B1、C1,也可以分别构建出三个组合。
具体的,还可以将获取顺序相同的目标图片数据与辅助图片数据作为一个数据组合。
图6为本申请一示例性实施例示出的生成数据组合的示意图。
如图6所示,获取n个目标图片数据时,各个目标图片数据61的获取顺序依次为1、2、3…n,获取n个辅助图片数据时,各个辅助图片数据62的获取顺序依次为1、2、3…n。可以将获取顺序相同的目标图片数据与辅助图片数据作为一个数据组合。比如,将获取顺序都为1的目标图片数据和辅助图片数据作为一个分组。
这种实施方式中,能够快速的确定出当前的数据组合,进而提高模型训练速度。
步骤408,根据数据组合确定融合图片数据。
具体的,本申请提供的方法,可以对每个数据组合中包括的目标图片数据和辅助图片数据进行融合处理,得到该数据组合的融合图片数据。
这种实施方式中,可以充分使用与当前目标任务相关的数据,能够在目标图片数据有限的情况下,对模型进行优化。
进一步的,在对每个数据组合中包括的数据进行融合时,可以对属于同一数据组合中的目标图片和辅助图片进行融合,确定融合图片;对目标图片的标签、辅助图片的标签进行融合,确定融合图片的标签。
实际应用时,可以对数据组合中,目标图片数据中的目标图片和辅助图片数据中的辅助图片进行融合,还可以对图片数据中的目标图片的标签和辅助图片数据中的辅助图片的标签进行融合,从而得到融合图片及其标签。
其中,融合图片包括目标图片和辅助图片的特征,而目标图片和辅助图片都是适宜学习目标任务的数据,因此,融合图片中也包括示意学习目标任务的数据特征,这种方式能够得到用于学习目标任务的新的图片数据。
具体的,本申请的方法还对目标图片和辅助图片的标签进行融合,在训练模型的过程中,会使用融合标签计算损失函数时,而融合标签能够准确的表达融合图片的分类结果,因此,使用融合标签进行模型训练得到的目标模型更加准确。
进一步的,在对目标图片数据和辅助图片数据进行融合时,还可以获取随机权重值,并利用随机权重值对目标图片数据和辅助图片数据进行融合。
实际应用时,可以利用随机权重值对目标图片和辅助图片进行融合,得到融合图片,利用随机权重值对目标图片的标签和辅助图片的标签进行融合,得到融合图片的标签。
使用相同的随机权重值对图片和标签进行融合,能够使融合标签更准确的表达融合图片中的信息。
其中,可以使用相同的随机权重值对本次获取的目标图片数据和辅助图片数据进行融合,再获取另一随机权重值,对下此获取的目标图片数据和辅助图片数据进行融合。
利用不同的随机权重值对不同目标图片数据和辅助图片数据的组合进行融合,每次得到的融合图片数据中包括目标图片数据与辅助图片数据的比例也不尽相同,进而可以得到更加丰富的样本数据。
具体的,融合图片为M=α*S+(1-α)*T;融合图片的标签为LM=α*LS+(1-α)*LT;其中,α是随机权重值,T是目标图片,S是辅助图片,LT是目标图片的标签,LS是辅助图片的标签。
进一步的,可以直接利用获取的随机权重值基于上式得到融合图片及其标签。如上式所示,融合图片数据中,辅助图片数据的特征占比为α,目标图片数据的特征占比为(1-α),这种方式能够将辅助图片数据与目标图片数据中的信息进行有效的融合。
实际应用时,可以根据随机权重值对目标图片和辅助图片中的各个像素点进行有效融合,得到融合图片。在进行模型训练时,各个图片数据的标签可以具有编码,可以根据随机权重值对目标图片与辅助图片的标签编码进行有效融合,得到融合图片的标签。
其中,可以基于β分布确定随机权重值。通过β分布能够得到大小在0-1之间的随机权重值,从而可以利用该随机权重值提取目标图片数据和辅助图片数据中的部分特征,并对提取后的特征进行融合。
步骤409,利用融合图片数据对待训练模型进行训练。
具体的,根据获取的目标图片数据、辅助图片数据确定出融合图片数据后,可以利用确定的融合图片数据对待训练模型进行训练。此后,可以再次执行步骤406-409,再对模型进行迭代训练,训练执行预设次数后,可以停止训练,得到目标模型。
这种实施方式中,每次循环迭代过程中,获取的随机权重值可以不同,进而在生成融合图片数据时,可以根据随机权重值调整融合图片数据中目标图片数据、辅助图片数据的特征的不同占比,从而得到更加丰富的样本数据。
进一步的,预设次数可以根据需求设置,利用融合图片数据对模型进行预设次数的调整后,可以得到能够执行目标任务的目标模型。
图7为本申请一示例性实施例示出的任务处理方法的流程示意图。
如图7所示,本申请提供的任务处理方法,包括:
步骤701,获取待处理图片。
步骤702,根据目标模型对待处理图片进行识别,确定与待处理图片对应的分类结果;其中,目标模型为上述任一种模型训练方法训练得到的目标模型。
其中,基于上述任一种模型训练方法对模型进行训练时,由于用于训练目标模型的图片数据丰富,训练得到的目标模型更加准确,因此,使用该目标模型对待处理图片进行识别时,得到的分类结果也更加准确。
具体的,可以将待处理图片输入到目标模型中,目标模型能够输出与该待处理图片对应的分类结果。
图8为本申请一示例性实施例示出的模型训练装置的结构示意图。
如图8所示,本申请提供的模型训练装置800,包括:
获取单元810,用于获取用于学习目标任务的目标图片数据、用于学习预设任务的源图片数据;
数据筛选单元820,用于根据所述目标图片数据,在所述源图片数据中确定辅助图片数据;
模型搭建单元830,用于根据训练完毕的与所述预设任务对应的预设模型、预设分类网络,确定待训练模型;
融合单元840,用于根据所述目标图片数据、所述辅助图片数据确定融合图片数据;
训练单元850,用于利用所述融合图片数据对所述待训练模型进行训练,得到用于执行所述目标任务的目标模型。
本申请提供的模型训练装置,包括获取单元,用于获取用于学习目标任务的目标图片数据、用于学习预设任务的源图片数据;数据筛选单元,用于根据目标图片数据,在源图片数据中确定辅助图片数据;模型搭建单元,用于根据训练完毕的与预设任务对应的预设模型、预设分类网络,确定待训练模型;融合单元,用于根据目标图片数据、辅助图片数据确定融合图片数据;训练单元,用于利用融合图片数据对待训练模型进行训练,得到用于执行目标任务的目标模型。本申请提供的模型训练装置,能够利用用于学习目标任务的图片数据筛选出辅助图片数据,还能够对目标图片数据与辅助图片数据进行融合处理,从而利用融合处理后的融合图片数据,对搭建的待训练模型进行训练,这种实施方式能够增加用于训练模型的数据量,且用于训练模型的数据是基于目标图片数据确定的,这些数据适宜学习目标任务。因此,本申请提供的装置在目标图片数据量不够充足的情况下,也能训练出准确的目标模型。
图9为本申请另一示例性实施例示出的模型训练装置的结构示意图。
如图9所示,本申请提供的模型训练装置900,在上述实施例基础上,其中,所述融合单元840,包括:
获取模块841,用于获取预设数量的目标图片数据、辅助图片数据;
确定模块842,用于确定多个数据组合,每个数据组合中包括一个目标图片数据和一个辅助图片数据;
融合模块843,用于根据所述数据组合确定所述融合图片数据。
其中,所述确定模块842具体用于:
将获取顺序相同的目标图片数据与辅助图片数据作为一个数据组合。
其中,所述融合模块843,包括:
图片融合子模块8431,用于对属于同一所述数据组合中的目标图片和辅助图片进行融合,确定融合图片;
标签融合子模块8432,用于对所述目标图片的标签、所述辅助图片的标签进行融合,确定所述融合图片的标签。
其中,所述融合模块843,还包括权重获取子模块8433,用于:
获取随机权重值;
所述图片融合子模块8431具体用于:
利用所述随机权重值对所述目标图片和辅助图片进行融合,得到所述融合图片;
所述标签融合子模块8432具体用于:
利用所述随机权重值对所述目标图片的标签和辅助图片的标签进行融合,得到所述融合图片的标签。
其中,所述融合图片为M=α*S+(1-α)*T;所述融合图片的标签为LM=α*LS+(1-α)*LT;
其中,α是所述随机权重值,T是目标图片,S是辅助图片,LT是目标图片的标签,LS是辅助图片的标签。
其中,权重获取子模块8433,具体用于:
基于β分布确定所述随机权重值。
其中,所述数据筛选单元820,包括:
特征提取模块821,用于将各目标图片数据的目标图片输入所述预设模型的特征提取网络,得到与各个目标图片对应的目标特征;将各源图片数据的源图片输入所述预设模型的特征提取网络,得到与各个源图片对应的源特征;
筛选模块822,用于根据各所述目标特征、各所述源特征,在所述源图片数据中确定辅助图片数据。
其中,所述筛选模块822,包括:
相似度确定子模块8221,用于根据各所述目标特征、各所述源特征,确定每个所述目标图片与每个所述源图片的相似度;
辅助数据确定子模块8222,用于根据所述相似度将与所述目标图片相似的所述源图片所属的源图片数据,确定为所述辅助图片数据。
其中,所述模型搭建单元830具体用于:
根据所述预设模型中的特征提取网络、所述预设分类网络确定所述待训练网络。
其中,所述预设分类网络的输入维度与所述特征提取网络的输出维度相同;所述预设分类网络的输出维度与所述目标图片数据、所述辅助图片数据中包括的标签总数相同。
其中,循环执行以下步骤预设次数,得到所述目标模型:
融合单元840根据所述目标图片数据、所述辅助图片数据确定融合图片数据;
训练单元850利用所述融合图片数据对所述待训练模型进行训练。
图10为本申请一示例性实施例示出的图片处理装置的结构示意图。
如图10所示,本申请提供的图片处理装置1000,包括:
获取单元1010,用于获取待处理图片;
识别单元1020,用于根据目标模型对所述待处理图片进行识别,确定与所述待处理图片对应的分类结果;其中,所述目标模型为上任一项模型训练方法训练得到的所述的目标模型。
一种可选的实施方式中,本申请还提供一种计算机程序产品,包括计算机程序,计算机程序储存在可读存储介质中,电子设备的至少一个处理器可以从可读存储介质读取计算机程序,至少一个处理器执行计算机程序使得电子设备执行上述任一实施例提供的方案。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图11所示,是根据本申请实施例的模型训练方法或图片处理方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图11所示,该电子设备1100包括:一个或多个处理器1101、存储器1102,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器***)。图11中以一个处理器1101为例。
存储器1102即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的模型训练方法或图片处理方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的模型训练方法或图片处理方法。
存储器1102作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的模型训练方法或图片处理方法对应的程序指令/模块(例如,附图8所示的获取单元810、数据筛选单元820、模型搭建单元830、融合单元840、训练单元850,再例如,附图10中的获取单元1010、识别单元1020)。处理器1101通过运行存储在存储器1102中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的模型训练方法或图片处理方法。
存储器1102可以包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需要的应用程序;存储数据区可存储根据模型训练方法或图片处理方法的电子设备1100的使用所创建的数据等。此外,存储器1102可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器1102可选包括相对于处理器1101远程设置的存储器,这些远程存储器可以通过网络连接至模型训练方法或图片处理方法的电子设备1100。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
模型训练方法或图片处理方法的电子设备1100还可以包括:输入装置1103和输出装置1104。处理器1101、存储器1102、输入装置1103和输出装置1104可以通过总线或者其他方式连接,图11中以通过总线连接为例。
输入装置1103可接收输入的数字或字符信息,以及产生与模型训练方法或图片处理方法的电子设备1100的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置1104可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
这些计算机程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算机程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式***的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (29)
1.一种模型训练方法,包括:
获取用于学习目标任务的目标图片数据、用于学习预设任务的源图片数据;
根据所述目标图片数据,在所述源图片数据中确定辅助图片数据;
根据训练完毕的与所述预设任务对应的预设模型、预设分类网络,确定待训练模型;
根据所述目标图片数据、所述辅助图片数据确定融合图片数据,利用所述融合图片数据对所述待训练模型进行训练,得到用于执行所述目标任务的目标模型。
2.根据权利要求1所述的方法,其中,根据所述目标图片数据、所述辅助图片数据确定融合图片数据,包括:
获取预设数量的目标图片数据、辅助图片数据;
确定多个数据组合,每个数据组合中包括一个目标图片数据和一个辅助图片数据;
根据所述数据组合确定所述融合图片数据。
3.根据权利要求2所述的方法,其中,所述确定多个数据组合,包括:
将获取顺序相同的目标图片数据与辅助图片数据作为一个数据组合。
4.根据权利要求2所述的方法,其中,所述根据所述数据组合确定所述融合图片数据,包括:
对属于同一所述数据组合中的目标图片和辅助图片进行融合,确定融合图片;
对所述目标图片的标签、所述辅助图片的标签进行融合,确定所述融合图片的标签。
5.根据权利要求4所述的方法,其中,还包括:
获取随机权重值;
所述对属于同一所述数据组合中的目标图片和辅助图片进行融合,确定融合图片,包括:
利用所述随机权重值对所述目标图片和辅助图片进行融合,得到所述融合图片;
对所述目标图片的标签、所述辅助图片的标签进行融合,确定所述融合图片的标签,包括:
利用所述随机权重值对所述目标图片的标签和辅助图片的标签进行融合,得到所述融合图片的标签。
6.根据权利要求5所述的方法,其中,
所述融合图片为M=α*S+(1-α)*T;所述融合图片的标签为LM=α*LS+(1-α)*LT;
其中,α是所述随机权重值,T是目标图片,S是辅助图片,LT是目标图片的标签,LS是辅助图片的标签。
7.根据权利要求5或6所述的方法,其中,获取随机权重值,包括:
基于β分布确定所述随机权重值。
8.根据权利要求1-6任一项所述的方法,其中,所述根据所述目标图片数据,在所述源图片数据中确定辅助图片数据,包括:
将各目标图片数据的目标图片输入所述预设模型的特征提取网络,得到与各个目标图片对应的目标特征;
将各源图片数据的源图片输入所述预设模型的特征提取网络,得到与各个源图片对应的源特征;
根据各所述目标特征、各所述源特征,在所述源图片数据中确定辅助图片数据。
9.根据权利要求8所述的方法,其中,所述根据各所述目标特征、各所述源特征,在所述源图片数据中确定辅助图片数据,包括:
根据各所述目标特征、各所述源特征,确定每个所述目标图片与每个所述源图片的相似度;
根据所述相似度将与所述目标图片相似的所述源图片所属的源图片数据,确定为所述辅助图片数据。
10.根据权利要求1-6任一项所述的方法,其中,所述根据训练完毕的与所述预设任务对应的预设模型、预设分类网络,确定待训练模型,包括:
根据所述预设模型中的特征提取网络、所述预设分类网络确定所述待训练网络。
11.根据权利要求10所述的方法,其中,所述预设分类网络的输入维度与所述特征提取网络的输出维度相同;所述预设分类网络的输出维度与所述目标图片数据、所述辅助图片数据中包括的标签总数相同。
12.根据权利要求1-6任一项所述的方法,其中,根据所述目标图片数据、所述辅助图片数据确定融合图片数据,利用所述融合图片数据对所述待训练模型进行训练,包括:
循环执行以下步骤预设次数,得到所述目标模型:
根据所述目标图片数据、所述辅助图片数据确定融合图片数据;
利用所述融合图片数据对所述待训练模型进行训练。
13.一种图片处理方法,包括:
获取待处理图片;
根据目标模型对所述待处理图片进行识别,确定与所述待处理图片对应的分类结果;其中,所述目标模型为如权利要求1-12任一项所述的目标模型。
14.一种模型训练装置,包括:
获取单元,用于获取用于学习目标任务的目标图片数据、用于学习预设任务的源图片数据;
数据筛选单元,用于根据所述目标图片数据,在所述源图片数据中确定辅助图片数据;
模型搭建单元,用于根据训练完毕的与所述预设任务对应的预设模型、预设分类网络,确定待训练模型;
融合单元,用于根据所述目标图片数据、所述辅助图片数据确定融合图片数据;
训练单元,用于利用所述融合图片数据对所述待训练模型进行训练,得到用于执行所述目标任务的目标模型。
15.根据权利要求14所述的装置,其中,所述融合单元,包括:
获取模块,用于获取预设数量的目标图片数据、辅助图片数据;
确定模块,用于确定多个数据组合,每个数据组合中包括一个目标图片数据和一个辅助图片数据;
融合模块,用于根据所述数据组合确定所述融合图片数据。
16.根据权利要求15所述的装置,其中,所述确定模块具体用于:
将获取顺序相同的目标图片数据与辅助图片数据作为一个数据组合。
17.根据权利要求15所述的装置,其中,所述融合模块,包括:
图片融合子模块,用于对属于同一所述数据组合中的目标图片和辅助图片进行融合,确定融合图片;
标签融合子模块,用于对所述目标图片的标签、所述辅助图片的标签进行融合,确定所述融合图片的标签。
18.根据权利要求17所述的装置,其中,所述融合模块,还包括权重获取子模块,用于:
获取随机权重值;
所述图片融合子模块具体用于:
利用所述随机权重值对所述目标图片和辅助图片进行融合,得到所述融合图片;
所述标签融合子模块具体用于:
利用所述随机权重值对所述目标图片的标签和辅助图片的标签进行融合,得到所述融合图片的标签。
19.根据权利要求18所述的装置,其中,
所述融合图片为M=α*S+(1-α)*T;所述融合图片的标签为LM=α*LS+(1-α)*LT;
其中,α是所述随机权重值,T是目标图片,S是辅助图片,LT是目标图片的标签,LS是辅助图片的标签。
20.根据权利要求18或19所述的装置,其中,权重获取子模块,具体用于:
基于β分布确定所述随机权重值。
21.根据权利要求14-19任一项所述的装置,其中,所述数据筛选单元,包括:
特征提取模块,用于将各目标图片数据的目标图片输入所述预设模型的特征提取网络,得到与各个目标图片对应的目标特征;将各源图片数据的源图片输入所述预设模型的特征提取网络,得到与各个源图片对应的源特征;
筛选模块,用于根据各所述目标特征、各所述源特征,在所述源图片数据中确定辅助图片数据。
22.根据权利要求21所述的装置,其中,所述筛选模块,包括:
相似度确定子模块,用于根据各所述目标特征、各所述源特征,确定每个所述目标图片与每个所述源图片的相似度;
辅助数据确定子模块,用于根据所述相似度将与所述目标图片相似的所述源图片所属的源图片数据,确定为所述辅助图片数据。
23.根据权利要求14-19任一项所述的装置,其中,所述模型搭建单元具体用于:
根据所述预设模型中的特征提取网络、所述预设分类网络确定所述待训练网络。
24.根据权利要求23所述的装置,其中,所述预设分类网络的输入维度与所述特征提取网络的输出维度相同;所述预设分类网络的输出维度与所述目标图片数据、所述辅助图片数据中包括的标签总数相同。
25.根据权利要求14-19任一项所述的装置,其中,循环执行以下步骤预设次数,得到所述目标模型:
融合单元根据所述目标图片数据、所述辅助图片数据确定融合图片数据;
训练单元利用所述融合图片数据对所述待训练模型进行训练。
26.一种图片处理装置,包括:
获取单元,用于获取待处理图片;
识别单元,用于根据目标模型对所述待处理图片进行识别,确定与所述待处理图片对应的分类结果;其中,所述目标模型为如权利要求1-14任一项所述的目标模型。
27.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-12或13中任一项所述的方法。
28.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-12或13中任一项所述的方法。
29.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-12或13中任一项所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011510141.XA CN112668586B (zh) | 2020-12-18 | 2020-12-18 | 模型训练、图片处理方法及设备、存储介质、程序产品 |
US17/355,347 US11928563B2 (en) | 2020-12-18 | 2021-06-23 | Model training, image processing method, device, storage medium, and program product |
EP21181044.5A EP3876163B1 (en) | 2020-12-18 | 2021-06-23 | Model training, image processing method, device, storage medium, and program product |
JP2021144262A JP7222040B2 (ja) | 2020-12-18 | 2021-09-03 | モデル訓練、画像処理方法及びデバイス、記憶媒体、プログラム製品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011510141.XA CN112668586B (zh) | 2020-12-18 | 2020-12-18 | 模型训练、图片处理方法及设备、存储介质、程序产品 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112668586A true CN112668586A (zh) | 2021-04-16 |
CN112668586B CN112668586B (zh) | 2024-05-14 |
Family
ID=75407301
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011510141.XA Active CN112668586B (zh) | 2020-12-18 | 2020-12-18 | 模型训练、图片处理方法及设备、存储介质、程序产品 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11928563B2 (zh) |
EP (1) | EP3876163B1 (zh) |
JP (1) | JP7222040B2 (zh) |
CN (1) | CN112668586B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113139463A (zh) * | 2021-04-23 | 2021-07-20 | 北京百度网讯科技有限公司 | 用于训练模型的方法、装置、设备、介质和程序产品 |
WO2023173617A1 (zh) * | 2022-03-18 | 2023-09-21 | 北京百度网讯科技有限公司 | 图像处理方法、装置、设备及存储介质 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114331379B (zh) * | 2021-12-31 | 2023-08-15 | 北京百度网讯科技有限公司 | 用于输出待办任务的方法、模型训练方法和装置 |
CN114170481B (zh) * | 2022-02-10 | 2022-06-17 | 北京字节跳动网络技术有限公司 | 用于图像处理的方法、设备、存储介质和程序产品 |
CN115908993A (zh) * | 2022-10-24 | 2023-04-04 | 北京数美时代科技有限公司 | 一种基于图像融合的数据增强方法、***和存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180330205A1 (en) * | 2017-05-15 | 2018-11-15 | Siemens Aktiengesellschaft | Domain adaptation and fusion using weakly supervised target-irrelevant data |
CN110032935A (zh) * | 2019-03-08 | 2019-07-19 | 北京联合大学 | 一种基于深度学习级联网络的交通信号标识检测识别方法 |
CN110598752A (zh) * | 2019-08-16 | 2019-12-20 | 深圳宇骏视觉智能科技有限公司 | 一种自动生成训练数据集的图像分类模型训练方法及*** |
CN111144451A (zh) * | 2019-12-10 | 2020-05-12 | 东软集团股份有限公司 | 一种图像分类模型的训练方法、装置及设备 |
US20200265272A1 (en) * | 2019-02-19 | 2020-08-20 | Fujitsu Limited | Apparatus and method for training classification model and apparatus for performing classification by using classification model |
WO2020165610A1 (en) * | 2019-02-15 | 2020-08-20 | Sophos Limited | Systems and methods for conducting a security recognition task |
WO2020173329A1 (zh) * | 2019-02-26 | 2020-09-03 | 腾讯科技(深圳)有限公司 | 一种图像融合的方法、模型训练的方法以及相关装置 |
CN112016633A (zh) * | 2020-09-25 | 2020-12-01 | 北京百度网讯科技有限公司 | 一种模型训练方法、装置、电子设备及存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108548669B (zh) | 2018-04-03 | 2020-01-07 | 上海交通大学 | 一种工程装备传动***故障诊断方法及*** |
US20200104710A1 (en) * | 2018-09-27 | 2020-04-02 | Google Llc | Training machine learning models using adaptive transfer learning |
JP2020115288A (ja) | 2019-01-17 | 2020-07-30 | 富士通株式会社 | 転移学習方法、転移学習プログラムおよび学習装置 |
CN110647920A (zh) * | 2019-08-29 | 2020-01-03 | 北京百度网讯科技有限公司 | 机器学习中的迁移学习方法及装置、设备与可读介质 |
CN111444878B (zh) | 2020-04-09 | 2023-07-18 | Oppo广东移动通信有限公司 | 一种视频分类方法、装置及计算机可读存储介质 |
CN111783949A (zh) | 2020-06-24 | 2020-10-16 | 北京百度网讯科技有限公司 | 基于迁移学习的深度神经网络的训练方法和装置 |
CN112990262B (zh) * | 2021-02-08 | 2022-11-22 | 内蒙古大学 | 一种草原生态数据监测与智能决策一体化解决*** |
CN114298322B (zh) * | 2021-12-27 | 2023-08-25 | 北京百度网讯科技有限公司 | 联邦学习方法和装置、***、电子设备、计算机可读介质 |
-
2020
- 2020-12-18 CN CN202011510141.XA patent/CN112668586B/zh active Active
-
2021
- 2021-06-23 US US17/355,347 patent/US11928563B2/en active Active
- 2021-06-23 EP EP21181044.5A patent/EP3876163B1/en active Active
- 2021-09-03 JP JP2021144262A patent/JP7222040B2/ja active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180330205A1 (en) * | 2017-05-15 | 2018-11-15 | Siemens Aktiengesellschaft | Domain adaptation and fusion using weakly supervised target-irrelevant data |
WO2020165610A1 (en) * | 2019-02-15 | 2020-08-20 | Sophos Limited | Systems and methods for conducting a security recognition task |
US20200265272A1 (en) * | 2019-02-19 | 2020-08-20 | Fujitsu Limited | Apparatus and method for training classification model and apparatus for performing classification by using classification model |
WO2020173329A1 (zh) * | 2019-02-26 | 2020-09-03 | 腾讯科技(深圳)有限公司 | 一种图像融合的方法、模型训练的方法以及相关装置 |
CN110032935A (zh) * | 2019-03-08 | 2019-07-19 | 北京联合大学 | 一种基于深度学习级联网络的交通信号标识检测识别方法 |
CN110598752A (zh) * | 2019-08-16 | 2019-12-20 | 深圳宇骏视觉智能科技有限公司 | 一种自动生成训练数据集的图像分类模型训练方法及*** |
CN111144451A (zh) * | 2019-12-10 | 2020-05-12 | 东软集团股份有限公司 | 一种图像分类模型的训练方法、装置及设备 |
CN112016633A (zh) * | 2020-09-25 | 2020-12-01 | 北京百度网讯科技有限公司 | 一种模型训练方法、装置、电子设备及存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113139463A (zh) * | 2021-04-23 | 2021-07-20 | 北京百度网讯科技有限公司 | 用于训练模型的方法、装置、设备、介质和程序产品 |
WO2023173617A1 (zh) * | 2022-03-18 | 2023-09-21 | 北京百度网讯科技有限公司 | 图像处理方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112668586B (zh) | 2024-05-14 |
EP3876163A2 (en) | 2021-09-08 |
EP3876163B1 (en) | 2023-08-23 |
JP2021192286A (ja) | 2021-12-16 |
US20210319262A1 (en) | 2021-10-14 |
US11928563B2 (en) | 2024-03-12 |
JP7222040B2 (ja) | 2023-02-14 |
EP3876163A3 (en) | 2022-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112668586B (zh) | 模型训练、图片处理方法及设备、存储介质、程序产品 | |
CN111507104B (zh) | 建立标签标注模型的方法、装置、电子设备和可读存储介质 | |
CN111967302B (zh) | 视频标签的生成方法、装置及电子设备 | |
CN111639710A (zh) | 图像识别模型训练方法、装置、设备以及存储介质 | |
CN111107392B (zh) | 视频处理方法、装置和电子设备 | |
CN111626202B (zh) | 用于识别视频的方法及装置 | |
CN111125435B (zh) | 视频标签的确定方法、装置和计算机设备 | |
CN112036509A (zh) | 用于训练图像识别模型的方法和装置 | |
CN111768381A (zh) | 零部件缺陷检测方法、装置及电子设备 | |
CN111598164B (zh) | 识别目标对象的属性的方法、装置、电子设备和存储介质 | |
CN111325020A (zh) | 一种事件论元抽取方法、装置以及电子设备 | |
CN112241764A (zh) | 图像识别方法、装置、电子设备及存储介质 | |
CN111104514A (zh) | 文档标签模型的训练方法及装置 | |
CN112241452A (zh) | 一种模型训练方法、装置、电子设备及存储介质 | |
CN111783646A (zh) | 行人再识别模型的训练方法、装置、设备和存储介质 | |
CN111078878A (zh) | 文本处理方法、装置、设备及计算机可读存储介质 | |
CN112149637A (zh) | 用于生成目标再识别模型和用于目标再识别的方法和装置 | |
CN113159091A (zh) | 数据处理方法、装置、电子设备及存储介质 | |
CN111539438A (zh) | 文本内容的识别方法、装置及电子设备 | |
CN111753911A (zh) | 用于融合模型的方法和装置 | |
CN111783760A (zh) | 文字识别的方法、装置、电子设备及计算机可读存储介质 | |
CN111666771A (zh) | 文书的语义标签抽取、装置、电子设备及可读存储介质 | |
CN112529180A (zh) | 模型蒸馏的方法和装置 | |
CN111967591A (zh) | 神经网络自动剪枝方法、装置及电子设备 | |
CN112348107A (zh) | 图像数据清洗方法及装置、电子设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |