CN113361578A - 图像处理模型的训练方法、装置、电子设备及存储介质 - Google Patents

图像处理模型的训练方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN113361578A
CN113361578A CN202110602898.XA CN202110602898A CN113361578A CN 113361578 A CN113361578 A CN 113361578A CN 202110602898 A CN202110602898 A CN 202110602898A CN 113361578 A CN113361578 A CN 113361578A
Authority
CN
China
Prior art keywords
network model
image processing
training
model
trained
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110602898.XA
Other languages
English (en)
Other versions
CN113361578B (zh
Inventor
谢群义
陈毅
钦夏孟
章成全
姚锟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202110602898.XA priority Critical patent/CN113361578B/zh
Publication of CN113361578A publication Critical patent/CN113361578A/zh
Application granted granted Critical
Publication of CN113361578B publication Critical patent/CN113361578B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本公开提出了图像处理模型的训练方法、装置、电子设备及存储介质,涉及人工智能技术领域,尤其涉及计算机视觉和深度学习等技术领域,可应用于图像识别场景下。具体实现方案:获取多个训练数据,并对目标搜索空间内的网络模型集合进行搜索,以得到候选网络模型,候选网络模型包括:多个计算层,并确定与多个计算层分别对应的多个敏感程度值;根据多个敏感程度值处理候选网络模型,以得到待训练网络模型,以及采用多个训练数据训练待训练网络模型,以得到图像处理模型,能够有效地简化图像处理模型的结构,从而有效地提升图像处理模型的训练效率,有效地辅助提升图像处理效果。

Description

图像处理模型的训练方法、装置、电子设备及存储介质
技术领域
本公开涉及人工智能技术领域,尤其涉及计算机视觉和深度学习技术领域,可应用于图像识别场景下,具体涉及图像处理模型的训练方法、装置、电子设备及存储介质。
背景技术
人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术主要包括计算机视觉技术、语音识别技术、自然语言处理技术,以及机器学习、深度学习、大数据处理技术、知识图谱技术等几大方向。
相关技术中,在训练待训练网络模型以得到图像处理模型时,通常耗费较大的人工成本设计训练待训练网络模型的结构,从而导致训练成本较高,影响图像处理模型的训练效果和图像处理表现能力。
发明内容
提供了一种图像处理模型的训练方法、装置、电子设备、存储介质及计算机程序产品。
根据第一方面,提供了一种图像处理模型的训练方法,包括:获取多个训练数据;对目标搜索空间内的网络模型集合进行搜索,以得到候选网络模型,候选网络模型包括:多个计算层;确定与多个计算层分别对应的多个敏感程度值;根据多个敏感程度值处理候选网络模型,以得到待训练网络模型;以及采用多个训练数据训练待训练网络模型,以得到图像处理模型。
根据第二方面,提供了一种图像处理方法,包括:获取待处理图像;将所述待处理图像输入至如上述的图像处理模型的训练方法训练得到的图像处理模型之中,以得到图像处理模型输出的目标信息。
根据第三方面,提供了一种图像处理模型的训练装置,包括:第一获取模块,用于获取多个训练数据;搜索模块,用于对目标搜索空间内的网络模型集合进行搜索,以得到候选网络模型,候选网络模型包括:多个计算层;确定模块,用于确定与多个计算层分别对应的多个敏感程度值;处理模块,用于根据多个敏感程度值处理候选网络模型,以得到待训练网络模型;以及训练模块,用于采用多个训练数据训练待训练网络模型,以得到图像处理模型。
根据第四方面,提供了一种图像处理装置,包括:第二获取模块,用于获取待处理图像;识别模块,用于将待处理图像输入至如上述的图像处理模型的训练装置训练得到的图像处理模型之中,以得到图像处理模型输出的目标信息。
根据第五方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本公开实施例提出的图像处理模型的训练方法,或者执行本公开实施例提出的图像处理方法。
根据第六方面,提出了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行本公开实施例提出的图像处理模型的训练方法,或者执行本公开实施例提出的图像处理方法。
根据第七方面,提出了一种计算机程序产品,包括计算机程序,当所述计算机程序由处理器执行时实现本公开实施例提出的图像处理模型的训练方法,或者执行本公开实施例提出的图像处理方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例的示意图;
图2是根据本公开第二实施例的示意图;
图3是根据本公开第三实施例的示意图;
图4是本公开实施例提出的图像处理模型训练过程示意图;
图5是根据本公开第四实施例的示意图;
图6是根据本公开第五实施例的示意图;
图7是根据本公开第六实施例的示意图;
图8是根据本公开第七实施例的示意图;
图9是用来实现本公开实施例的图像处理模型的训练方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本公开第一实施例的示意图。
其中,需要说明的是,本实施例的图像处理模型的训练方法的执行主体为图像处理模型的训练装置,该装置可以由软件和/或硬件的方式实现,该装置可以配置在电子设备中,电子设备可以包括但不限于终端、服务器端等。
本公开实施例涉及人工智能技术领域,具体涉及计算机视觉和深度学习等技术领域,可应用于图像识别场景下,能够有效地简化图像处理模型的结构,从而有效地提升图像处理模型的训练效率,有效地辅助提升图像识别效果。
其中,人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用***的一门新的技术科学。
深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。深度学习的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。
计算机视觉,是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。
而图像处理,又称影像处理,是指采用计算机对图像进行分析,以达到所需结果的技术。图像处理是计算机视觉和深度学习领域一个重要的基础模块,可应用于图像识别、图像分割、图像变换、图像分类等场景。
如图1所示,该图像处理模型的训练方法包括:
S101:获取多个训练数据。
本公开实施例中,首先获取多个训练数据,以用于后续对图像处理模型进行训练。
其中,多个训练数据例如可以是多个图像数据,该图像数据可以是采用各类图像采集设备采集的图像数据,或者还可以是从互联网中获取的图像数据,对此不做限制。
一些实施例中,训练数据可以是任意场景下的图像数据,例如:训练数据为财务票据图像数据,也即是说,本公开实施例提供的图像处理模型可以执行财务票据处理的任务,输入样本数据为:多个财务票据图像(财务票据图像可以是摄像装置对实体的财务票据捕获得到的图像),以实现对财务票据图像的识别,具体例如,可以实现对财务票据图像中的文字进行识别,即光学字符识别(Optical Character Recognition,OCR)识别。
S102:对目标搜索空间内的网络模型集合进行搜索,以得到候选网络模型,候选网络模型包括:多个计算层。
上述获取多个训练数据后,进一步地,本公开实施例对目标搜索空间内的网络模型集合进行搜索,以得到候选网络模型。
其中,网络模型集合例如可以与图像处理模型的实际应用场景相关,例如:上述的图像处理模型用于对财务票据图像中的文字进行识别,则确定用于文字识别的多个网络模型作为该网络模型集合,也即是说,本公开实施例支持根据图像处理模型的实际应用场景确定网络模型集合。
举例而言,本实施例的网络模型集合可以包括:残差神经网络结构(Res-Netblock,Res-Block)、顺序和激励网络结构(Sequeze-and-Excitation block,SE-Block)、循环神经网络结构(Recurrent Neural Network block,RNN-Block),以及其它任意可能的网络结构,此处不做限制。
而由网络模型集合构成的搜索空间,可以被称为目标搜索空间,即:目标搜索空间中包括多个网络模型结构,并且该目标搜索空间支持网络模型搜索功能。
本公开实施例可以从目标搜索空间中搜索出用于进行图像处理的网络结构,而搜索出的网络模型可以被称为候选网络模型,例如:候选网络模型可以是Res-Block、SE-Block、RNN-Block中的一个或者多个,此处不做限制。
其中,可以采用自动模型搜索技术(Neural Architecture Search,Nas)从目标搜索空间中搜索出候选网络模型,或者还可以采用其它任意可能的模型搜索技术搜索候选网络模型,此处不做限制。
并且,候选网络模型中可以包括多个计算层,例如:卷积层、池化层、激活函数层、全连接层以及其它任意可能的计算层,此处不做限制。
S103:确定与多个计算层分别对应的多个敏感程度值。
上述得到候选网络模型后,进一步地,本公开实施例可以确定与多个计算层分别对应的多个敏感程度值。
其中,敏感程度例如可以表示计算层对候选网络模型整体的影响,而敏感程度值可以直观的表示每个计算层对候选网络模型影响的强弱。
一些实施例中,例如可以通过计算每个计算层对候选网络模型的损失值(loss),确定多个计算层分别对应的多个敏感程度值,或者还可以通过其它任意可能的方式确定多个敏感程度值,此处不做限制。
S104:根据多个敏感程度值处理候选网络模型,以得到待训练网络模型。
上述确定与多个计算层分别对应的多个敏感程度值后,进一步地本公开实施例根据多个敏感程度值处理候选网络模型,以得到待训练网络模型。
一些实施例中,可以根据敏感程度值对候选网络模型的计算层进行删除处理,例如将敏感程度值小的计算层进行删除,以得到待训练网络模型。
另一些实施例,还可以根据敏感程度值对候选网络模型的计算层的参数进行优化调整处理,以得到待训练网络模型,或者还可以通过其它任意可能的方式处理候选网络模型,此处不做限制。
通过敏感程度值处理的候选网络模型的能够具有更好的网络结构,或者能够缩小模型的体积,进而有利于后续对图像处理模型进行训练。
S105:采用多个训练数据训练待训练网络模型,以得到图像处理模型。
上述得到待训练网络模型后,本公开实施例可以采用多个训练数据(例如多个财务票据图像数据)对待训练网络模型进行训练,直至模型收敛,得到图像处理模型。
本实施例中,通过获取多个训练数据,并对目标搜索空间内的网络模型集合进行搜索,以得到候选网络模型,候选网络模型包括:多个计算层,并确定与多个计算层分别对应的多个敏感程度值,并根据多个敏感程度值处理候选网络模型,以得到待训练网络模型,以及采用多个训练数据训练待训练网络模型,以得到图像处理模型,能够有效地简化图像处理模型的结构,从而有效地提升图像处理模型的训练效率,有效地辅助提升图像识别效果。
图2是根据本公开第二实施例的示意图。
如图2所示,该图像处理模型的训练方法包括:
S201:确定与图像处理场景对应的多个图像处理任务。
其中,图像处理场景例如包括图像识别、文字识别(OCR识别)、图像分割、以及其它任意可能的处理场景,图像处理场景可具体例如:针对财务票据图像中的文字进行自动识别。
而针对财务票据图像中的文字进行自动识别的过程,可以通过多个图像处理任务实现,多个图像处理任务例如输入任务、特征提取任务、识别任务、输出任务以及其它任意可能的任务,此处不做限制。
本公开实施例中,首先确定图像处理场景对应的多个图像处理任务,例如:确定用于进行财务票据文字识别的多个图像处理任务。
S202:确定与多个图像处理任务分别对应的多个网络模型集合。
进一步地,确定与多个图像处理任务分别对应的多个网络模型集合,也即是说,本公开实施例可以根据实际的图像处理任务确定多个网络模型集合,因此确定的多个网络模型集合能够与多个图像处理任务匹配,从而可以完成相应的图像处理任务。
S203:根据多个网络模型集合,生成目标搜索空间。
进一步地,根据多个网络模型集合,生成目标搜索空间,即:将多个网络模型集合构成目标搜索空间,该目标搜索空间可以支持网络模型功能,其中,生成目标搜索空间的方式可以采用相关技术中的生成方式,此处不做限制。
从而,本公开实施例可以针对不同的图像处理任务生成不同的图像搜索空间,因此可以满足不同图像处理场景的需求,并且网络模型集合是根据图像处理任务所确定的,因此网络模型集合能够与图像处理任务匹配,进而可以提升图像处理的效果。
S204:获取多个训练数据。
S204的描述说明可以具体参见上述实施例,在此不再赘述。
S205:对目标搜索空间内的网络模型集合进行搜索,以得到多个初始网络模型。
其中,从目标搜索空间内初步搜索出的网络模型可以被称为初始网络模型,该初始网络模型可以是一个模型或者多个模型,此处不做限制。
一些实施例中,多个初始网络模型可以理解为初步筛选出的,与图像处理任务对应的网络模型,例如:从目标搜索空间内搜索得到的多个初始网络模型为Res-Block、SE-Block,则表示Res-Block、SE-Block与图像处理任务更加匹配,通过初步筛选可以缩小候选网络模型的确定范围。
S206:采用多个训练数据分别对多个初始网络模型进行训练,并获取与训练后多个初始网络模型分别对应的多个图像处理效果。
得到多个初始网络模型后,进一步地可以采用多个训练数据分别对多个初始网络模型进行训练并获取多个图像处理效果。
其中,图像处理效果可以通过图像处理的速度、图像处理的准确度以及其它任意可能的效果进行表示,此处不做限制。
一些实施例中,多个图像处理效果可以表示初始网络模型完成图像处理任务的效果,进而图像处理效果可以成为多个初始网络模型作为候选网络模型的判断标准。
S207:根据多个图像处理效果,从多个初始网络模型之中选取出候选网络模型。
进一步地,本公开实施例可以根据多个图像处理效果,从多个初始网络模型之中选取出候选网络模型。
一些实施例中,可以根据图像处理效果对多个初始网络模型模型进行排序,例如:根据图像处理的速度对多个初始网络模型模型进行排序,或者根据图像处理的准确度对多个初始网络模型模型进行排序,并根据排序结果选择候选网络模型。
另一些实施例中,还可以结合图像处理的速度、图像处理的准确度以及对应的权重值对多个初始网络模型模型进行排序,并根据排序结果选择候选网络模型,或者还可以采用其它任意可能的方式从多个初始网络模型之中选取出候选网络模型,此处不做限制。
应当理解的是,上述实例只是对如何确定候选网络模型进行示例性说明,在实际应用中,还可以采用其它任意可能的方式确定候选网络模型,此处不做限制。
本实施例中,可以确定多个初始网络模型,因此可以初步缩小候选网络模型的选择范围,能够减少计算量。此外,根据图像处理效果确定候选网络模型,有效地提升候选网络模型确定的准确性,能够符合图像处理任务的需求,进而提升图像处理的效果。
S208:确定与多个计算层分别对应的多个敏感程度值。
S209:根据多个敏感程度值处理候选网络模型,以得到待训练网络模型。
S210:采用多个训练数据训练待训练网络模型,以得到图像处理模型。
S208-S210的描述说明可以具体参见上述实施例,在此不再赘述。
本实施例中,通过获取多个训练数据,并对目标搜索空间内的网络模型集合进行搜索,以得到候选网络模型,候选网络模型包括:多个计算层,并确定与多个计算层分别对应的多个敏感程度值,并根据多个敏感程度值处理候选网络模型,以得到待训练网络模型,以及采用多个训练数据训练待训练网络模型,以得到图像处理模型,能够有效地简化图像处理模型的结构,从而有效地提升图像处理模型的训练效率,有效地辅助提升图像识别效果。此外,本实施例还可以针对不同的图像处理任务生成不同的图像搜索空间,可以满足不同图像处理场景的需求,并且网络模型集合是根据图像处理任务所确定的,网络模型集合能够与图像处理任务匹配。并且通过确定多个初始网络模型,可以初步缩小候选网络模型的选择范围,能够减少确定模型过程的计算量。此外,可以确定多个初始网络模型,因此可以初步缩小候选网络模型的选择范围,能够减少计算量。此外,根据图像处理效果确定候选网络模型,有效地提升候选网络模型确定的准确性,能够符合图像处理任务的需求,进而提升图像处理的效果。
图3是根据本公开第三实施例的示意图。
如图3所示,该图像处理模型的训练方法包括:
S301:获取多个训练数据。
S302:对目标搜索空间内的网络模型集合进行搜索,以得到候选网络模型。
S301-S302的描述说明可以具体参见上述实施例,在此不再赘述。
S303:采用多个训练数据训练候选网络模型,以确定与候选网络模型对应的第一损失值。
本实施例在确定与多个计算层分别对应的多个敏感程度值的操作中,首先采用多个训练数据训练候选网络模型,得到的损失值被称为第一损失值。
S304:从候选网络模型之中分别删除多个计算层,并获取多次删除相应的计算层后得到的多个第二中间网络模型。
进一步地,从候选网络模型之中分别删除多个计算层,并获取多次删除相应的计算层后得到的多个第二中间网络模型。
举例而言,可以采用逐层遍历的方法在多个计算层中遍历每个计算层,并将遍历出的计算层进行删除,并将删除计算层后的候选网络模型作为第二中间网络模型。从而,针对每个计算层进行删除可以得到对应的第二中间网络模型。
S305:确定与多个第二中间网络模型分别对应的多个第二损失值。
进一步地,确定与多个第二中间网络模型分别对应的多个第二损失值,例如:可以采用训练数据对多个第二中间网络模型分别进行训练,得到对应的多个第二损失值。
S306:确定第一损失值分别与多个第二损失值之间的多个损失变化值并作为多个敏感程度值。
上述确定第一损失值和多个第二损失值后,确定第一损失值分别与多个第二损失值之间的多个损失变化值,例如:将第一损失值分别与多个第二损失值分别进行差值计算得到多个损失变化值,并将多个损失变化值作为多个敏感程度值。在实际应用中,当去除某一计算层后,评测集整体损失上升时,判断该层为有效层,当去除某一计算层后,评测集整体loss下降或不变时,判断该层为可删减层。从而,通过计算损失值的方式确定敏感程度值,可以清楚地表示每个计算层对候选网络模型的影响,并且计算简单且易于实现,因此在一定程度上可以优化模型的训练过程。
可以理解的是,上述实例只是对确定敏感程度值进行示例性说明,在实际应用中,还可以采用其它任意可能的方式确定敏感程度值,此处不作限制。
S307:根据多个敏感程度值处理候选网络模型,以得到第一中间网络模型。
一些实施例中,候选网络模型还包括:多个编码节点(Encoder节点),和多个解码节点(Decoder节点)。在根据多个敏感程度值处理候选网络模型,以得到待训练网络模型的操作中,首先根据多个敏感程度值处理候选网络模型,以得到第一中间网络模型。
其中,经过多个敏感程度值处理后的候选网络模型,可以被称为第一中间网络模型。
本公开实施例在确定第一中间网络模型的操作中,首先可以根据多个敏感程度值,从多个计算层之中确定出目标计算层。
一些实施例中,可以设置相应的敏感度阈值,并将多个计算层分别对应的多个敏感程度值与该敏感度阈值进行比对,而后根据对比的结果确定出目标计算层,例如:将小于敏感度阈值的敏感程度值对应的计算层作为目标计算层,该目标计算层可以是一个计算层或者多个计算层,此处不做限制。通过敏感度阈值的比较可以提升目标计算层的确定速度,进而可以提升模型的训练速度。此外,敏感度阈值可以进行灵活调整,因此可以满足不同应用场景下对目标计算层的敏感度的要求。
另一些实施例中,还可以根据实际应用场景指定计算层作为目标计算层,例如:指定卷积层作为目标计算层。
进一步地,从多个计算层之中删除目标计算层,以得到剩余的计算层,例如:将候选网络模型中的操作块(block)中的卷积层进行删除,得到剩余的计算层。其中,删除目标计算层可以理解为对候选网络模型的网络结构进行剪裁(Channel)。
进一步地根据剩余的计算层、多个编码节点(Encoder),以及多个解码节点(Dncoder)生成第一中间网络模型,即:对候选网络模型进行剪裁可以得到剪裁模型(第一中间网络模型),而后对经过裁剪的模型进行少量调整,可以得到体积更小的候选网络模型。本实施例中通过对候选网络模型中的目标计算层进行剪裁,可以显著缩小候选网络模型的体积,因此有利于提升后续的模型训练速度,实现图像处理模型的小型化设计。通过实验表明,经过剪裁模型训练速度可以提速6.16倍,模型体积减小95.5%。
在实际应用中,由于坐标回归效果强依赖于head层,因此如果对应的计算层与目标计算层(例如目标计算层为head层)不存在关联关系,则将对应的计算层作为目标计算层,也即是说,本公开实施例中可以不对head层中的目标计算层进行删除,从而可以保证坐标回归效果,保证模型的精确度。
S308:根据与多个编码节点和多个解码节点分别对应的多个蒸馏损失值,处理第一中间网络模型,以得到待训练网络模型。
在实际应用中,模型小型化可能伴有精度的损失,而蒸馏技术可有效的将大模型的“知识”迁移至小模型,从而提升小模型的精度。
本实施可以根据与多个编码节点和多个解码节点分别对应的多个蒸馏损失值,处理第一中间网络模型,即:本实施例支持采用蒸馏技术对第一中间网络模型进行处理,实现模型小型化。
具体地,本公开可以在多个编码节点Encoder中多个计算块(block)输出后设置蒸馏损失(loss)监督,并且同时在多个解码节点Decoder输出处设置蒸馏蒸馏损失(loss)监督,根据蒸馏损失(loss)监督可以得到多个蒸馏损失值,并根据多个蒸馏损失值,处理第一中间网络模型,以得到待训练网络模型。从而,本实施例中通过蒸馏技术可以将基于Nas和剪裁的小模型精度对齐到大模型,达到了在模型小型化过程中兼顾模型精度的技术效果。
一些实施例中,本方案还可以支持离线量化方法加快模型的预测速度。具体地,可以确定剩余的计算层、多个编码节点,以及多个解码节点所分别对应的多个第一输出数据,其中,第一输出数据对应有数据类型,例如:浮点float32型。
进一步地,确定数据映射关系,其中,数据映射关系用于将多个第一输出数据分别映射至对应的多个第二输出数据,第一输出数据和第二输出数据的数据类型不相同,上述第一输出数据对应有数据类型为float32型,第二输出数据的数据类型例如为:整数int8型或者其它数据类型。在实际操作中,可以通过少量场景评测集(例如财务票据图像数据),计算得到每一层的float32数值分布图,通过确定其最大最小值,即可确定每一个float32值到int8区间的映射方式,从而实现int8量化。从而,离线量化方法可以提升图像处理模型的预测速度,进而图像识别的效果。
此外,本公开实施例提供的网络模型可以是层级结构的网络模型(例如:op级量化模型),在进行量化的过程中可以选择层级进行量化,即:可选择性的决定参与量化的层,由此最大程度降低精度损失。该方法在财务票据场景验证,单模型可提速10倍,指标几乎无损。
S309:将多个训练数据输入至待训练网络模型之中,以得到待训练网络模型输出的预测信息,预测信息,已根据数据映射关系进行量化处理。
上述确定数据映射关系后,本实施例可以将多个训练数据(例如:财务票据图像数据)输入至待训练网络模型之中,以得到待训练网络模型输出的预测信息,该预测信息是网络模型训练过程中实际的输出数据,例如:预测信息可以是财务票据的名称、类型以及具体信息等,预测信息是根据实际需求而确定的,此处不做限制。
并且,预测信息是已根据数据映射关系进行量化处理的,也即是说,预测信息的数据类型可以是int8型。
S310:如果预测信息与多个训练数据分别对应的多个标注信息之间的损失值满足设定条件,则将训练得到的网络模型作为图像处理模型。
进一步地,判断预测信息和与多个训练数据分别对应的多个标注信息之间的损失值满足设定条件,例如:满足模型收敛条件。
其中,标注信息与训练数据对应,例如:训练数据为财务票据,则标注信息可以是财务票据的名称、类型以及具体信息等,此处不做限制。
也即是说,本实施例支持有监督训练的方式对模型进行训练,直至预测信息与标注信息之间的损失值满足设定条件,完成模型的训练。从而,采用有监督训练的方式可以提升模型训练的准确性,并且预测信息是经过映射关系处理的,因此还能够提升模型的训练速度。
在一个具体实例中,图4是本公开实施例提出的图像处理模型训练过程示意图,如图4所示,首先进行模型搜索,进一步地对搜索到的模型进行剪枝,即:对模型结构进行裁剪;进一步地,可以采用蒸馏的方式将大模型的“知识”迁移至小模型(剪裁后的模型),以实现对剪裁后的小模型的精度进行监督;进一步地,对蒸馏处理后的模型进行量化处理,得到最终的图像处理模型,或者还可以将剪裁后的模型直接进行量化处理,得到图像处理模型,对此不做限制。
本实施例中,通过获取多个训练数据,并对目标搜索空间内的网络模型集合进行搜索,以得到候选网络模型,候选网络模型包括:多个计算层,并确定与多个计算层分别对应的多个敏感程度值,并根据多个敏感程度值处理候选网络模型,以得到待训练网络模型,以及采用多个训练数据训练待训练网络模型,以得到图像处理模型,能够有效地简化图像处理模型的结构,从而有效地提升图像处理模型的训练效率,有效地辅助提升图像识别效果。此外,通过计算损失值的方式确定敏感程度值可以清楚地表示每个计算层对候选网络模型的影响,并且计算简单且易于实现,因此在一定程度上可以优化模型的训练过程。并且敏感度阈值可以进行灵活调整,因此可以满足不同应用场景下对目标计算层的敏感度的要求。并且还可以保证坐标回归效果,保证模型的精确度。此外,通过蒸馏技术可以将基于Nas和剪裁的小模型精度对齐到大模型,达到了在模型小型化过程中兼顾模型精度的技术效果。采用有监督训练的方式可以提升模型训练的准确性,并且预测信息是经过映射关系处理的,因此还能够提升模型的训练速度。
图5是根据本公开第四实施例的示意图。
如图5所示,该图像处理方法,包括:
S501:获取待处理图像。
本公开实施例首先获取待处理图像,该待处理图像可以是任意场景下的图像,举例而言,该图像处理方法可以应用于财务票据识别场景,则待处理图像可以是财务票据图像。
S502:将待处理图像输入至如上述的图像处理模型的训练方法训练得到的图像处理模型之中,以得到图像处理模型输出的目标信息。
上述获取待处理图像后,进一步地将待处理图像(例如财务票据图像)输入至如上述的图像处理模型的训练方法训练得到的图像处理模型之中,输出对应的目标信息,目标信息例如:财务票据类型、财务票据的文字信息以及其它任意可能的信息,此处不作限制。
本实施例中,通过获取待处理图像,并将待处理图像输入至如上述的图像处理模型的训练方法训练得到的图像处理模型之中,以得到图像处理模型输出的目标信息,由于采用了上述的图像处理模型的训练方法训练得到的图像处理模型对待处理图像进行处理,能够有效地提升图像处理效率,有效地提升图像处理效果。
图6是根据本公开第四实施例的示意图。
如图6所示,该图像处理模型的训练装置60,包括:
第一获取模块601,用于获取多个训练数据;
搜索模块602,用于对目标搜索空间内的网络模型集合进行搜索,以得到候选网络模型,候选网络模型包括:多个计算层;
第一确定模块603,用于确定与多个计算层分别对应的多个敏感程度值;
处理模块604,用于根据多个敏感程度值处理候选网络模型,以得到待训练网络模型;以及
训练模块605,用于采用多个训练数据训练待训练网络模型,以得到图像处理模型。
可选地,在本公开的一些实施例中,如图7所示,图7是根据本公开第五实施例的示意图,该图像处理模型的训练装置70,包括:第一获取模块701、搜索模块702、第一确定模块703、处理模块704、训练模块705,其中,图像处理模型的训练装置70,还包括:
第二确定模块706,用于确定与图像处理场景对应的多个图像处理任务;
第三确定模块707,用于确定与多个图像处理任务分别对应的多个网络模型集合;以及
生成模块708,用于根据多个网络模型集合,生成目标搜索空间。
可选地,在本公开的一些实施例中,如图7所示,搜索模块702,包括:
搜索子模块7021,用于对目标搜索空间内的网络模型集合进行搜索,以得到多个初始网络模型;
训练子模块7022,用于采用多个训练数据分别对多个初始网络模型进行训练,并获取与训练后多个初始网络模型分别对应的多个图像处理效果;以及
选择子模块7023,用于根据多个图像处理效果,从多个初始网络模型之中选取出候选网络模型。
可选地,在本公开的一些实施例中,如图7所示,处理模块704,包括:
第一处理子模块7041,用于根据多个敏感程度值处理候选网络模型,以得到第一中间网络模型;
第二处理子模块7042,用于根据与多个编码节点和多个解码节点分别对应的多个蒸馏损失值,处理第一中间网络模型,以得到待训练网络模型。
可选地,在本公开的一些实施例中,第一处理子模块7041,具体用于:根据多个敏感程度值,从多个计算层之中确定出目标计算层;从多个计算层之中删除目标计算层,以得到剩余的计算层;根据剩余的计算层、多个编码节点,以及多个解码节点生成第一中间网络模型。
可选地,在本公开的一些实施例中,如图7所示,第一确定模块703,包括:
第一确定子模块7031,用于采用多个训练数据训练候选网络模型,以确定与候选网络模型对应的第一损失值;
删除子模块7032,用于从候选网络模型之中分别删除多个计算层,并获取多次删除相应的计算层后得到的多个第二中间网络模型;
第二确定子模块7033,用于确定与多个第二中间网络模型分别对应的多个第二损失值;以及
第三确定子模块7034,用于确定第一损失值分别与多个第二损失值之间的多个损失变化值并作为多个敏感程度值。
可选地,在本公开的一些实施例中,第一处理子模块7041,具体用于:
确定小于敏感度阈值的敏感程度值对应的计算层,并将对应的计算层作为目标计算层。
可选地,在本公开的一些实施例中,第一处理子模块7041,具体用于:
在对应的计算层与目标计算层不存在关联关系时,将对应的计算层作为目标计算层。
可选地,在本公开的一些实施例中,第一处理子模块7041,具体用于:
确定剩余的计算层、多个编码节点,以及多个解码节点所分别对应的多个第一输出数据;确定数据映射关系,其中,数据映射关系用于将多个第一输出数据分别映射至对应的多个第二输出数据,第一输出数据和第二输出数据的数据类型不相同,数据映射关系被用于对待训练网络模型进行训练。
可选地,在本公开的一些实施例中,训练模块705,具体用于:将多个训练数据输入至待训练网络模型之中,以得到待训练网络模型输出的预测信息,预测信息,已根据数据映射关系进行量化处理;如果预测信息与多个训练数据分别对应的多个标注信息之间的损失值满足设定条件,则将训练得到的网络模型作为图像处理模型。
可以理解的是,本实施例附图7中的图像处理模型的训练装置70与上述实施例中的图像处理模型的训练装置60,第一获取模块701与上述实施例中的第一获取模块601,搜索模块702与上述实施例中的搜索模块602,第一确定模块703与上述实施例中的第一确定模块603,处理模块704与上述实施例中的处理模块604,训练模块705与上述实施例中的训练模块605,可以具有相同的功能和结构。
需要说明的是,前述对图像处理模型的训练方法的解释说明也适用于本实施例的图像处理模型的训练装置,此处不再赘述。
本实施例中,通过获取多个训练数据,并对目标搜索空间内的网络模型集合进行搜索,以得到候选网络模型,候选网络模型包括:多个计算层,并确定与多个计算层分别对应的多个敏感程度值,并根据多个敏感程度值处理候选网络模型,以得到待训练网络模型,以及采用多个训练数据训练待训练网络模型,以得到图像处理模型,能够有效地简化图像处理模型的结构,从而有效地提升图像处理模型的训练效率,有效地辅助提升图像识别效果。
图8是根据本公开第六实施例的示意图。
如图8所示,该图像处理装置80,包括:
第二获取模块801,用于获取待处理图像;
识别模块802,用于将待处理图像输入至如上述的图像处理模型的训练装置训练得到的图像处理模型之中,以得到图像处理模型输出的目标信息。
需要说明的是,前述对图像处理方法的解释说明也适用于本实施例的图像处理装置,此处不再赘述。
本实施例中,通过获取待处理图像,并将待处理图像输入至如上述的图像处理模型的训练方法训练得到的图像处理模型之中,以得到图像处理模型输出的目标信息,由于采用了上述的图像处理模型的训练方法训练得到的图像处理模型对待处理图像进行处理,能够有效地提升图像处理效率,有效地提升图像处理效果。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图9是用来实现本公开实施例的图像处理模型的训练方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图9所示,设备900包括计算单元901,其可以根据存储在只读存储器(ROM)902中的计算机程序或者从存储单元908加载到随机访问存储器(RAM)903中的计算机程序,来执行各种适当的动作和处理。在RAM 903中,还可存储设备900操作所需的各种程序和数据。计算单元901、ROM 902以及RAM903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
设备900中的多个部件连接至I/O接口905,包括:输入单元906,例如键盘、鼠标等;输出单元907,例如各种类型的显示器、扬声器等;存储单元908,例如磁盘、光盘等;以及通信单元909,例如网卡、调制解调器、无线通信收发机等。通信单元909允许设备900通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元901可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元901的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元901执行上文所描述的各个方法和处理,例如,图像处理模型的训练方法,或者图像处理方法。
例如,在一些实施例中,图像处理模型的训练方法,或者图像处理方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元908。在一些实施例中,计算机程序的部分或者全部可以经由ROM902和/或通信单元909而被载入和/或安装到设备900上。当计算机程序加载到RAM 903并由计算单元901执行时,可以执行上文描述的图像处理模型的训练方法,或者图像处理方法的一个或多个步骤。备选地,在其他实施例中,计算单元901可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行图像处理模型的训练方法,或者图像处理方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的图像处理模型的训练方法,或者图像处理方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程图像处理模型的训练装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网及区块链网络。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式***的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (25)

1.一种图像处理模型的训练方法,包括:
获取多个训练数据;
对目标搜索空间内的网络模型集合进行搜索,以得到候选网络模型,所述候选网络模型包括:多个计算层;
确定与所述多个计算层分别对应的多个敏感程度值;
根据所述多个敏感程度值处理所述候选网络模型,以得到待训练网络模型;以及
采用所述多个训练数据训练所述待训练网络模型,以得到图像处理模型。
2.根据权利要求1所述的方法,在所述对目标搜索空间内的网络模型集合进行搜索,以得到候选网络模型前,还包括:
确定与图像处理场景对应的多个图像处理任务;
确定与所述多个图像处理任务分别对应的多个网络模型集合;以及
根据所述多个网络模型集合,生成所述目标搜索空间。
3.根据权利要求2所述的方法,其中,所述对目标搜索空间内的网络模型集合进行搜索,以得到候选网络模型,包括:
对所述目标搜索空间内的网络模型集合进行搜索,以得到多个初始网络模型;
采用所述多个训练数据分别对所述多个初始网络模型进行训练,并获取与训练后多个初始网络模型分别对应的多个图像处理效果;以及
根据所述多个图像处理效果,从所述多个初始网络模型之中选取出所述候选网络模型。
4.根据权利要求1所述的方法,所述候选网络模型还包括:多个编码节点,和多个解码节点,其中,所述根据所述多个敏感程度值处理所述候选网络模型,以得到待训练网络模型,包括:
根据所述多个敏感程度值处理所述候选网络模型,以得到第一中间网络模型;
根据与所述多个编码节点和所述多个解码节点分别对应的多个蒸馏损失值,处理所述第一中间网络模型,以得到所述待训练网络模型。
5.根据权利要求4所述的方法,其中,所述根据所述多个敏感程度值处理所述候选网络模型,以得到第一中间网络模型,包括:
根据所述多个敏感程度值,从所述多个计算层之中确定出目标计算层;
从所述多个计算层之中删除所述目标计算层,以得到剩余的计算层;
根据所述剩余的计算层、所述多个编码节点,以及所述多个解码节点生成所述第一中间网络模型。
6.根据权利要求5所述的方法,其中,所述确定与所述多个计算层分别对应的多个敏感程度值,包括:
采用所述多个训练数据训练所述候选网络模型,以确定与所述候选网络模型对应的第一损失值;
从所述候选网络模型之中分别删除多个计算层,并获取多次删除相应的所述计算层后得到的多个第二中间网络模型;
确定与所述多个第二中间网络模型分别对应的多个第二损失值;以及
确定所述第一损失值分别与所述多个第二损失值之间的多个损失变化值并作为所述多个敏感程度值。
7.根据权利要求6所述的方法,其中,所述根据所述多个敏感程度值,从所述多个计算层之中确定出目标计算层,包括:
确定小于敏感度阈值的所述敏感程度值对应的计算层,并将所述对应的计算层作为所述目标计算层。
8.根据权利要求7所述的方法,其中,所述将所述对应的计算层作为所述目标计算层,包括:
如果所述对应的计算层与目标计算层不存在关联关系,则将所述对应的计算层作为所述目标计算层。
9.根据权利要求5所述的方法,在所述根据所述剩余的计算层、所述多个编码节点,以及所述多个解码节点生成所述第一中间网络模型之后,还包括:
确定所述剩余的计算层、所述多个编码节点,以及所述多个解码节点所分别对应的多个第一输出数据;
确定数据映射关系,其中,所述数据映射关系用于将所述多个第一输出数据分别映射至对应的多个第二输出数据,所述第一输出数据和所述第二输出数据的数据类型不相同,所述数据映射关系被用于对所述待训练网络模型进行训练。
10.根据权利要求9所述的方法,其中,所述采用所述多个训练数据训练所述待训练网络模型,以得到图像处理模型,包括:
将所述多个训练数据输入至所述待训练网络模型之中,以得到所述待训练网络模型输出的预测信息,所述预测信息,已根据所述数据映射关系进行量化处理;
如果所述预测信息与所述多个训练数据分别对应的多个标注信息之间的损失值满足设定条件,则将训练得到的网络模型作为所述图像处理模型。
11.一种图像处理方法,包括:
获取待处理图像;
将所述待处理图像输入至如上述1-10任一项所述的图像处理模型的训练方法训练得到的图像处理模型之中,以得到所述图像处理模型输出的目标信息。
12.一种图像处理模型的训练装置,包括:
第一获取模块,用于获取多个训练数据;
搜索模块,用于对目标搜索空间内的网络模型集合进行搜索,以得到候选网络模型,所述候选网络模型包括:多个计算层;
第一确定模块,用于确定与所述多个计算层分别对应的多个敏感程度值;
处理模块,用于根据所述多个敏感程度值处理所述候选网络模型,以得到待训练网络模型;以及
训练模块,用于采用所述多个训练数据训练所述待训练网络模型,以得到图像处理模型。
13.根据权利要求12所述的装置,还包括:
第二确定模块,用于确定与图像处理场景对应的多个图像处理任务;
第三确定模块,用于确定与所述多个图像处理任务分别对应的多个网络模型集合;以及
生成模块,用于根据所述多个网络模型集合,生成所述目标搜索空间。
14.根据权利要求13所述的装置,其中,所述搜索模块,包括:
搜索子模块,用于对所述目标搜索空间内的网络模型集合进行搜索,以得到多个初始网络模型;
训练子模块,用于采用所述多个训练数据分别对所述多个初始网络模型进行训练,并获取与训练后多个初始网络模型分别对应的多个图像处理效果;以及
选择子模块,用于根据所述多个图像处理效果,从所述多个初始网络模型之中选取出所述候选网络模型。
15.根据权利要求12所述的装置,所述候选网络模型还包括:多个编码节点,和多个解码节点,其中,所述处理模块,包括:
第一处理子模块,用于根据所述多个敏感程度值处理所述候选网络模型,以得到第一中间网络模型;
第二处理子模块,用于根据与所述多个编码节点和所述多个解码节点分别对应的多个蒸馏损失值,处理所述第一中间网络模型,以得到所述待训练网络模型。
16.根据权利要求15所述的装置,其中,所述第一处理子模块,具体用于:
根据所述多个敏感程度值,从所述多个计算层之中确定出目标计算层;
从所述多个计算层之中删除所述目标计算层,以得到剩余的计算层;
根据所述剩余的计算层、所述多个编码节点,以及所述多个解码节点生成所述第一中间网络模型。
17.根据权利要求16所述的装置,其中,所述第一确定模块,包括:
第一确定子模块,用于采用所述多个训练数据训练所述候选网络模型,以确定与所述候选网络模型对应的第一损失值;
删除子模块,用于从所述候选网络模型之中分别删除多个计算层,并获取多次删除相应的所述计算层后得到的多个第二中间网络模型;
第二确定子模块,用于确定与所述多个第二中间网络模型分别对应的多个第二损失值;以及
第三确定子模块,用于确定所述第一损失值分别与所述多个第二损失值之间的多个损失变化值并作为所述多个敏感程度值。
18.根据权利要求17所述的装置,其中,所述第一处理子模块,具体用于:
确定小于敏感度阈值的所述敏感程度值对应的计算层,并将所述对应的计算层作为所述目标计算层。
19.根据权利要求18所述的装置,其中,所述第一处理子模块,具体用于:
在所述对应的计算层与目标计算层不存在关联关系时,将所述对应的计算层作为所述目标计算层。
20.根据权利要求16所述的装置,其中,所述第一处理子模块,具体用于:
确定所述剩余的计算层、所述多个编码节点,以及所述多个解码节点所分别对应的多个第一输出数据;
确定数据映射关系,其中,所述数据映射关系用于将所述多个第一输出数据分别映射至对应的多个第二输出数据,所述第一输出数据和所述第二输出数据的数据类型不相同,所述数据映射关系被用于对所述待训练网络模型进行训练。
21.根据权利要求20所述的装置,其中,所述训练模块,具体用于:
将所述多个训练数据输入至所述待训练网络模型之中,以得到所述待训练网络模型输出的预测信息,所述预测信息,已根据所述数据映射关系进行量化处理;
如果所述预测信息与所述多个训练数据分别对应的多个标注信息之间的损失值满足设定条件,则将训练得到的网络模型作为所述图像处理模型。
22.一种图像处理装置,包括:
第二获取模块,用于获取待处理图像;
识别模块,用于将所述待处理图像输入至如上述12-21任一项所述的图像处理模型的训练装置训练得到的图像处理模型之中,以得到所述图像处理模型输出的目标信息。
23.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-10中任一项所述的方法,或者执行权利要求11所述的方法。
24.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-10中任一项所述的方法,或者执行权利要求11所述的方法。
25.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-10中任一项所述的方法,或者执行权利要求11所述的方法。
CN202110602898.XA 2021-05-31 2021-05-31 图像处理模型的训练方法、装置、电子设备及存储介质 Active CN113361578B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110602898.XA CN113361578B (zh) 2021-05-31 2021-05-31 图像处理模型的训练方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110602898.XA CN113361578B (zh) 2021-05-31 2021-05-31 图像处理模型的训练方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN113361578A true CN113361578A (zh) 2021-09-07
CN113361578B CN113361578B (zh) 2023-08-04

Family

ID=77530657

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110602898.XA Active CN113361578B (zh) 2021-05-31 2021-05-31 图像处理模型的训练方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN113361578B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113869449A (zh) * 2021-10-11 2021-12-31 北京百度网讯科技有限公司 一种模型训练、图像处理方法、装置、设备及存储介质
CN113887631A (zh) * 2021-09-30 2022-01-04 北京百度网讯科技有限公司 图像数据处理方法、目标模型的训练方法、装置和设备
CN114037058A (zh) * 2021-11-05 2022-02-11 北京百度网讯科技有限公司 预训练模型的生成方法、装置、电子设备以及存储介质
CN114494818A (zh) * 2022-01-26 2022-05-13 北京百度网讯科技有限公司 图像处理方法、模型训练方法、相关装置及电子设备
CN114528975A (zh) * 2022-01-20 2022-05-24 珠高智能科技(深圳)有限公司 深度学习模型训练方法、***及介质
CN114881227A (zh) * 2022-05-13 2022-08-09 北京百度网讯科技有限公司 模型压缩方法、图像处理方法、装置和电子设备
CN115795125A (zh) * 2023-01-18 2023-03-14 北京东方瑞丰航空技术有限公司 应用于项目管理软件的搜索方法、装置、设备及介质
CN116051964A (zh) * 2023-03-30 2023-05-02 阿里巴巴(中国)有限公司 深度学习网络确定方法、图像分类方法及设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110059804A (zh) * 2019-04-15 2019-07-26 北京迈格威科技有限公司 待搜索网络训练方法、数据处理方法及装置
CN111008640A (zh) * 2019-10-17 2020-04-14 平安科技(深圳)有限公司 图像识别模型训练及图像识别方法、装置、终端及介质
CN111340219A (zh) * 2020-02-25 2020-06-26 北京百度网讯科技有限公司 神经网络模型搜索方法及装置、图像处理方法及处理器
CN111445008A (zh) * 2020-03-24 2020-07-24 暗物智能科技(广州)有限公司 一种基于知识蒸馏的神经网络搜索方法及***
US20200356860A1 (en) * 2019-05-08 2020-11-12 Samsung Electronics Co., Ltd. Computing device for training artificial neural network model, method of training the artificial neural network model, and memory system for storing the same
CN111967569A (zh) * 2020-06-29 2020-11-20 北京百度网讯科技有限公司 神经网络结构的生成方法、装置、存储介质及电子设备
CN112801215A (zh) * 2021-03-17 2021-05-14 腾讯科技(深圳)有限公司 图像处理模型搜索、图像处理方法、装置和存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110059804A (zh) * 2019-04-15 2019-07-26 北京迈格威科技有限公司 待搜索网络训练方法、数据处理方法及装置
US20200356860A1 (en) * 2019-05-08 2020-11-12 Samsung Electronics Co., Ltd. Computing device for training artificial neural network model, method of training the artificial neural network model, and memory system for storing the same
CN111008640A (zh) * 2019-10-17 2020-04-14 平安科技(深圳)有限公司 图像识别模型训练及图像识别方法、装置、终端及介质
CN111340219A (zh) * 2020-02-25 2020-06-26 北京百度网讯科技有限公司 神经网络模型搜索方法及装置、图像处理方法及处理器
CN111445008A (zh) * 2020-03-24 2020-07-24 暗物智能科技(广州)有限公司 一种基于知识蒸馏的神经网络搜索方法及***
CN111967569A (zh) * 2020-06-29 2020-11-20 北京百度网讯科技有限公司 神经网络结构的生成方法、装置、存储介质及电子设备
CN112801215A (zh) * 2021-03-17 2021-05-14 腾讯科技(深圳)有限公司 图像处理模型搜索、图像处理方法、装置和存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZHUANG LIU, JIANGUO LI, ZHIQIANG SHEN, GAO HUANG, SHOUMENG YAN, CHANGSHUI ZHANG: "Learning Efficient Convolutional Networks through Network Slimming", ARXIV *
徐一鸣;张娟;刘成成;顾菊平;潘高超;: "迁移学习模式下基于GoogLeNet网络的风电机组视觉检测", 计算机科学, no. 05 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113887631A (zh) * 2021-09-30 2022-01-04 北京百度网讯科技有限公司 图像数据处理方法、目标模型的训练方法、装置和设备
CN113869449A (zh) * 2021-10-11 2021-12-31 北京百度网讯科技有限公司 一种模型训练、图像处理方法、装置、设备及存储介质
CN114037058A (zh) * 2021-11-05 2022-02-11 北京百度网讯科技有限公司 预训练模型的生成方法、装置、电子设备以及存储介质
CN114037058B (zh) * 2021-11-05 2024-05-17 北京百度网讯科技有限公司 预训练模型的生成方法、装置、电子设备以及存储介质
CN114528975A (zh) * 2022-01-20 2022-05-24 珠高智能科技(深圳)有限公司 深度学习模型训练方法、***及介质
CN114494818A (zh) * 2022-01-26 2022-05-13 北京百度网讯科技有限公司 图像处理方法、模型训练方法、相关装置及电子设备
CN114494818B (zh) * 2022-01-26 2023-07-25 北京百度网讯科技有限公司 图像处理方法、模型训练方法、相关装置及电子设备
CN114881227A (zh) * 2022-05-13 2022-08-09 北京百度网讯科技有限公司 模型压缩方法、图像处理方法、装置和电子设备
CN114881227B (zh) * 2022-05-13 2023-07-04 北京百度网讯科技有限公司 模型压缩方法、图像处理方法、装置和电子设备
CN115795125A (zh) * 2023-01-18 2023-03-14 北京东方瑞丰航空技术有限公司 应用于项目管理软件的搜索方法、装置、设备及介质
CN116051964A (zh) * 2023-03-30 2023-05-02 阿里巴巴(中国)有限公司 深度学习网络确定方法、图像分类方法及设备

Also Published As

Publication number Publication date
CN113361578B (zh) 2023-08-04

Similar Documents

Publication Publication Date Title
CN113361578B (zh) 图像处理模型的训练方法、装置、电子设备及存储介质
CN114399769B (zh) 文本识别模型的训练方法、文本识别方法及装置
CN112560496A (zh) 语义分析模型的训练方法、装置、电子设备及存储介质
CN113722493B (zh) 文本分类的数据处理方法、设备、存储介质
CN113870334B (zh) 深度检测方法、装置、设备以及存储介质
CN114282670A (zh) 神经网络模型的压缩方法、设备和存储介质
CN114648676B (zh) 点云处理模型的训练和点云实例分割方法及装置
CN115063875A (zh) 模型训练方法、图像处理方法、装置和电子设备
CN113553412A (zh) 问答处理方法、装置、电子设备和存储介质
CN116152833B (zh) 基于图像的表格还原模型的训练方法及表格还原方法
US20220374678A1 (en) Method for determining pre-training model, electronic device and storage medium
CN112559885A (zh) 地图兴趣点的训练模型确定方法、装置及电子设备
CN113947188A (zh) 目标检测网络的训练方法和车辆检测方法
CN113641829A (zh) 图神经网络的训练与知识图谱的补全方法、装置
CN114715145A (zh) 一种轨迹预测方法、装置、设备及自动驾驶车辆
CN115186738B (zh) 模型训练方法、装置和存储介质
CN114661904B (zh) 文档处理模型的训练方法、装置、设备、存储介质及程序
CN113361522B (zh) 用于确定字符序列的方法、装置和电子设备
CN114972910A (zh) 图文识别模型的训练方法、装置、电子设备及存储介质
CN114445668A (zh) 图像识别方法、装置、电子设备及存储介质
CN114881227A (zh) 模型压缩方法、图像处理方法、装置和电子设备
CN114863450A (zh) 图像处理方法、装置、电子设备及存储介质
CN114998649A (zh) 图像分类模型的训练方法、图像分类方法及装置
CN114817476A (zh) 语言模型的训练方法、装置、电子设备和存储介质
CN113963011A (zh) 图像识别方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant