CN111275183A - 视觉任务的处理方法、装置和电子*** - Google Patents

视觉任务的处理方法、装置和电子*** Download PDF

Info

Publication number
CN111275183A
CN111275183A CN202010039683.7A CN202010039683A CN111275183A CN 111275183 A CN111275183 A CN 111275183A CN 202010039683 A CN202010039683 A CN 202010039683A CN 111275183 A CN111275183 A CN 111275183A
Authority
CN
China
Prior art keywords
matrix
sample
characteristic
distance distribution
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010039683.7A
Other languages
English (en)
Other versions
CN111275183B (zh
Inventor
戴雨辰
危夷晨
陈曦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Megvii Technology Co Ltd
Original Assignee
Beijing Megvii Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Megvii Technology Co Ltd filed Critical Beijing Megvii Technology Co Ltd
Priority to CN202010039683.7A priority Critical patent/CN111275183B/zh
Publication of CN111275183A publication Critical patent/CN111275183A/zh
Application granted granted Critical
Publication of CN111275183B publication Critical patent/CN111275183B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种视觉任务的处理方法、装置和电子***,用于提取待处理图像的特征数据的网络模型,通过预设的教师模型和特征损失函数训练;其中,该特征损失函数用于根据所述教师模型输出的特征数据的距离分布特征,确定所述网络模型输出的特征数据的距离分布特征的损失值。该方式中,通过特征损失函数,可以让网络模型学习教师模型输出的特征数据的空间距离分布特征,从而使网络模型的性能逐渐接近于教师模型,达到训练网络模型的目的;由于特征数据的空间距离分布特征与模型的输入输出无关,即使网络模型和教师模型二者之间的输入数据和输出数据结构不同,也能通过教师模型训练网络模型,因而该方式具有更广泛的适用性。

Description

视觉任务的处理方法、装置和电子***
技术领域
本发明涉及神经网络技术领域,尤其是涉及一种视觉任务的处理方法、装置和电子***。
背景技术
模型蒸馏是一种新兴的模型训练方式,其主要思想是通过一个高准确率的大模型作为教师模型,指导训练一个小模型,该小模型即学生模型。在训练过程中,教师模型的知识可以转移给学生模型,由于学生模型本身结构简单、参量较少,这时又学习到的高准确率的教师模型的知识,因此这种方式可以保证学生模型具有较快的运行速度的同时,也具有较高的准确率。
相关技术中的模型蒸馏,可以将教师模型输出的样本的特征,作为输入至学生模型的样本的样本标签,目的是使学生模型输出的特征尽可能地接近于教师模型输出的特征,从而逐步提升学生模型的性能。但是,该方式大多要求教师模型和学生模型的输入输出相一致,对于输入输出相差较大的教师模型和学生模型,则难以通过教师模型指导训练该学生模型,因此该方式具有较大的局限性。
发明内容
本发明的目的在于提供一种视觉任务的处理方法、装置和电子***,当学生模型和教师模型二者之间的输入数据和输出数据结构不同,或者模型结构不同,也能通过教师模型训练学生模型,使通过教师模型训练学生模型的方式具有更广泛的适用性。
第一方面,本发明实施例提供了一种视觉任务的处理方法,该方法包括:获取待处理图像,将待处理图像输入至预先训练完成的网络模型中,输出待处理图像对应的特征数据;基于特征数据,完成预设的视觉任务;其中,网络模型通过预设的教师模型和特征损失函数训练得到;特征损失函数用于:根据教师模型输出的特征数据的距离分布特征,确定网络模型输出的特征数据的距离分布特征的损失值。
进一步的,损失值包括:网络模型对相同类型的样本图像输出的特征数据的距离分布特征的第一损失值,和/或,网络模型对不同类型的样本图像输出的特征数据的距离分布特征的第二损失值。
进一步的,损失值等于:网络模型对相同类型的样本图像输出的特征数据的距离分布特征的第一损失值乘以预设第一权重的乘积,加上网络模型对不同类型的样本图像输出的特征数据的距离分布特征的第二损失值乘以预设第二权重的乘积;其中,第一权重和第二权重的和为一。
进一步的,当损失值包括网络模型对相同类型的样本图像输出的特征数据的距离分布特征的第一损失值,第一损失值通过下述方式计算得到:获取网络模型针对预设多对第一样本对输出的第一特征矩阵,和教师模型针对多对第一样本对输出的第二特征矩阵;其中,第一样本对包括多个相同类型的样本;计算第一特征矩阵的距离分布特征,以及第二特征矩阵的距离分布特征;根据第一特征矩阵的距离分布特征和第二特征矩阵的距离分布特征,确定第一损失值。
进一步的,第一样本对包括相同类型的第一样本和第二样本;第一特征矩阵包括针对于第一样本的子特征矩阵,以及针对于第二样本的子特征矩阵;计算第一特征矩阵的距离分布特征的步骤,包括:计算第一特征矩阵中的第一样本的子特征矩阵和第二样本的子特征矩阵之间的第一距离矩阵;对第一距离矩阵进行归一化处理,将归一化处理后的第一距离矩阵确定为第一特征矩阵的距离分布特征。
进一步,第一样本对包括相同类型的第一样本和第二样本;第二特征矩阵包括针对于第一样本的子特征矩阵,以及针对于第二样本的子特征矩阵;计算第二特征矩阵的距离分布特征的步骤,包括:计算第二特征矩阵中的第一样本的子特征矩阵和第二样本的子特征矩阵之间的第二距离矩阵;对第二距离矩阵进行归一化处理,将归一化处理后的第二距离矩阵确定为第二特征矩阵的距离分布特征。
进一步,根据第一特征矩阵的距离分布特征和第二特征矩阵的距离分布特征,确定第一损失值的步骤,包括:计算第一特征矩阵的距离分布特征和第二特征矩阵的距离分布特征之间第一差值矩阵;计算第一差值矩阵中各个数据的第一平方和,将第一平方和除以第一样本对的数量,得到第一损失值。
进一步的,当损失值包括网络模型对不同类型的样本图像输出的特征数据的距离分布特征的第二损失值,第二损失值通过下述方式计算得到:获取网络模型针对预设多对第二样本对输出的第三特征矩阵,和教师模型针对多对第二样本对输出的第四特征矩阵;其中,第二样本对包括多个不同类型的样本;计算第三特征矩阵的距离分布特征,以及第四特征矩阵的距离分布特征;根据第三特征矩阵的距离分布特征和第四特征矩阵的距离分布特征,确定第二损失值。
进一步的,第二样本对包括不同类型的第三样本和第四样本;第三特征矩阵包括针对于第三样本的子特征矩阵,以及针对于第四样本的子特征矩阵;计算第三特征矩阵的距离分布特征的步骤,包括:计算第三特征矩阵中的第三样本的子特征矩阵和第四样本的子特征矩阵之间的第三距离矩阵;对第三距离矩阵进行归一化处理,将归一化处理后的第三距离矩阵确定为第三特征矩阵的距离分布特征。
进一步的,第二样本对包括不同类型的第三样本和第四样本;第四特征矩阵包括针对于第三样本的子特征矩阵,以及针对于第四样本的子特征矩阵;计算第四特征矩阵的距离分布特征的步骤,包括:计算第四特征矩阵中的第三样本的子特征矩阵和第四样本的子特征矩阵之间的第四距离矩阵;对第四距离矩阵进行归一化处理,将归一化处理后的第四距离矩阵确定为第四特征矩阵的距离分布特征。
进一步的,根据第三特征矩阵的距离分布特征和第四特征矩阵的距离分布特征,确定第二损失值的步骤,包括:计算第三特征矩阵的距离分布特征和第四特征矩阵的距离分布特征之间的第二差值矩阵;计算第二差值矩阵中各个数据的第二平方和,将第二平方和除以第二样本对的数量,得到第二损失值。
进一步的,上述网络模型,具体通过下述方式训练得到:基于预设的样本集合确定多对样本对;样本对中的每个样本携带有样本标签;样本标签用于指示样本的样本类型;将多对样本对分别输入至网络模型和教师模型,得到网络模型输出的特征矩数据,和教师模型输出的特征数据;根据预设的任务损失函数,计算网络模型输出的特征数据的任务损失值;根据教师模型输出的特征数据和特征损失函数,计算网络模型输出的特征数据的距离分布特征的损失值;基于任务损失值和距离分布特征的损失值,训练网络模型;继续执行基于预设的样本集合确定多对样本对的步骤,直至任务损失值和距离分布特征的损失值收敛,得到训练后的网络模型。
第二方面,本发明实施例提供了一种视觉任务的处理装置,该装置包括:特征数据输出模块,用于获取待处理图像,将待处理图像输入至预先训练完成的网络模型中,输出待处理图像对应的特征数据;视觉任务完成模块,用于基于特征数据,完成预设的视觉任务;其中,网络模型通过预设的教师模型和特征损失函数训练得到;特征损失函数用于:根据教师模型输出的特征数据的距离分布特征,确定网络模型输出的特征数据的距离分布特征的损失值。
第三方面,本发明实施例提供了一种电子***,该电子***包括:处理设备和存储装置;存储装置上存储有计算机程序,计算机程序在被处理设备运行时执行如第一方面任一实施方式的视觉任务的处理方法。
第四方面,本发明实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,计算机程序被处理设备运行时执行如权第一方面任一实施方式的视觉任务的处理方法的步骤。
本发明实施例提供了一种视觉任务的处理方法、装置和电子***,用于提取待处理图像的特征数据的网络模型,通过预设的教师模型和特征损失函数训练;其中,该特征损失函数用于根据所述教师模型输出的特征数据的距离分布特征,确定所述网络模型输出的特征数据的距离分布特征的损失值。该方式中,通过特征损失函数,可以让网络模型学习教师模型输出的特征数据的空间距离分布特征,从而使网络模型的性能逐渐接近于教师模型,达到训练网络模型的目的;由于特征数据的空间距离分布特征与模型的输入输出无关,即使网络模型和教师模型二者之间的输入数据和输出数据结构不同,也能通过教师模型训练网络模型,因而该方式具有更广泛的适用性。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种电子***的结构示意图;
图2为本发明实施例提供的一种视觉任务的处理方法的流程图;
图3为本发明实施例提供的一种第一损失值的计算方法流程图;
图4为本发明实施例提供的一种第一特征矩阵的距离分布特征的计算方法的流程图;
图5为本发明实施例提供的一种第二特征矩阵的距离分布特征的计算方法的流程图;
图6为本发明实施例提供的另一种第一损失值的计算方法流程图;
图7为本发明实施例提供的一种第二损失值的计算方法流程图;
图8为本发明实施例提供的一种第三特征矩阵的距离分布特征的计算方法的流程图;
图9为本发明实施例提供的一种第四特征矩阵的距离分布特征的计算方法的流程图;
图10为本发明实施例提供的另一种第二损失值的计算方法流程图;
图11为本发明实施例提供的一种网络模型的训练方法流程图;
图12为本发明实施例提供的另一种网络模型的训练方法流程图;
图13为本发明实施例提供的一种视觉任务的处理装置的结构示意图。
具体实施方式
下面将结合实施例对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前深度神经网络模型的应用场景逐渐增多,各类产品的***在要求准确率高的同时,随着边缘计算的普及,对运行速度和内存消耗的要求也越来越高。关于模型蒸馏的相关技术,通常基于结构相似的教师模型和学生模型,通过将教师模型和学生模型各自的样本特征进行相近处理,使得学生模型的拟合能力能够逼近教师模型,从而提升学生模型的性能。
但是当教师模型和学生模型的输入尺度和输出特征维度不一致,或者教师模型与学生模型结构相差较大时,难以通过教师模型指导训练该学生模型,因此该方式具有较大的局限性。基于此,本发明实施例提供了一种视觉任务的处理方法、装置和电子***,该技术可以应用于安防设备、计算机、手机、摄像机、平板电脑、车辆终端设备等多种设备中,该技术可以采用关软件和硬件实现,下面通过实施例进行描述。
实施例一:
首先,参照图1来描述用于实现本发明实施例的视觉任务的处理方法、装置和电子***的示例电子***100。
如图1所示的一种电子***的结构示意图,电子***100包括一个或多个处理设备102、一个或多个存储装置104、输入装置106、输出装置108,另外可以包括一个或多个图像采集设备110,这些组件通过总线***112和/或其它形式的连接机构(未示出)互连。应当注意,图1所示的电子***100的组件和结构只是示例性的,而非限制性的,根据需要,电子***也可以具有其他组件和结构。
处理设备102可以是网关,也可以为智能终端,或者是包含中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元的设备,可以对电子***100中的其它组件的数据进行处理,还可以控制电子***100中的其它组件以执行期望的功能。
存储装置104可以包括一个或多个计算机程序产品,计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在计算机可读存储介质上可以存储一个或多个计算机程序指令,处理设备102可以运行程序指令,以实现下文的本发明实施例中(由处理设备实现)的客户端功能以及/或者其它期望的功能。在计算机可读存储介质中还可以存储各种应用程序和各种数据,例如应用程序使用和/或产生的各种数据等。
输入装置106可以是用户用来输入指令的装置,并且可以包括键盘、鼠标、麦克风和触摸屏等中的一个或多个。
输出装置108可以向外部(例如,用户)输出各种信息(例如,图像或声音),并且可以包括显示器、扬声器等中的一个或多个。
图像采集设备110可以采集预览视频帧或图片数据(如待识别图片或训练图片),并且将采集到的预览视频帧或图像数据存储在存储装置104中以供其它组件使用。
示例性地,用于实现根据本发明实施例的行人再识别的方法、装置和电子***的示例电子***中的各器件可以集成设置,也可以分散设置,诸如将处理设备102、存储装置104、输入装置106和输出装置108集成设置于一体,而将图像采集设备110设置于可以采集到图片的指定位置。当上述电子***中的各器件集成设置时,该电子***可以被实现为诸如相机、智能手机、平板电脑、计算机、车载终端、摄像机等智能终端。
实施例二:
本实施例提供了一种视觉任务的处理方法,如图2所示,该方法包括如下步骤:
步骤S202,获取待处理图像,将待处理图像输入至预先训练完成的网络模型中,输出待处理图像对应的特征数据;
上述待处理图像可以是包含人脸或物体的图像,比如,摄像头抓拍的人脸图像,或者商场超市摆放的物体图像。上述预先完成的网络模型可以是CNN(Convolutional NeuralNetworks,卷积神经网络)、RNN(Recurrent Neural Network,循环神经网络)、DNN(DeepNeural Network,深度神经网络)等网络模型。实际实现时,通过上述预先训练完成的网络模型中,识别出待处理图像包括的目标人脸或物体,提取该目标人脸或物体不同维度的特征数据。
步骤S204,基于该特征数据,完成预设的视觉任务;
上述预设的视觉任务可以是人脸识别、物体检索等任务;具体的,上述特征数据可以是网络模型输出的关于人脸图像的人脸特征数据,根据输出的数据可以识别人脸图像中的目标任务;上述特征数据还可以是网络模型输出的关于物体图像的特征数据,该图像可以包含有多种类型的物体,根据输出的数据可以从多种类型的物体中检索到目标物体;进而完成预设的视觉任务。
其中,网络模型通过预设的教师模型和特征损失函数训练得到;该特征损失函数用于:根据教师模型输出的特征数据的距离分布特征,确定网络模型输出的特征数据的距离分布特征的损失值。
上述预设的教师模型可以是CNN(Convolutional Neural Networks,卷积神经网络)、RNN(Recurrent Neural Network,循环神经网络)、DNN(Deep Neural Network,深度神经网络)等网络模型。与上述网络模型相比,该教师模型可以是更加复杂的网络,具有较好的性能和泛化能力,可以利用教师模型指导更加简单的网络模型,使得更加简单、参数运算量更少的网络也能够具有和教师模型相近的性能。上述特征损失函数可以作为学习准则与优化问题相联系,通过最小化损失函数求解和评估网络模型或教师模型。
上述损失函数可以缩小待处理图像中,相同类型图像之间特征分布的距离,同时可以加大不同类型图像之间特征分布的距离,具体的,由于教师模型具有较好的性能和泛化能力,因此可以将教师模型输出的特征数据的距离分布特征,作为训练网络模型的一个标准,通过上述特征损失函数可以得到,该网络模型输出的特征数据的距离分布特征与教师模型输出的特征数据的距离分布特征之间的差距,即损失值。
本发明实施例提供了一种视觉任务的处理方法,用于提取待处理图像的特征数据的网络模型,通过预设的教师模型和特征损失函数训练;其中,该特征损失函数用于根据所述教师模型输出的特征数据的距离分布特征,确定所述网络模型输出的特征数据的距离分布特征的损失值。该方式中,通过特征损失函数,可以让网络模型学习教师模型输出的特征数据的空间距离分布特征,从而使网络模型的性能逐渐接近于教师模型,达到训练网络模型的目的;由于特征数据的空间距离分布特征与模型的输入输出无关,即使网络模型和教师模型二者之间的输入数据和输出数据结构不同,也能通过教师模型训练网络模型,因而该方式具有更广泛的适用性。
进一步的,上述损失值包括:网络模型对相同类型的样本图像输出的特征数据的距离分布特征的第一损失值,和/或,网络模型对不同类型的样本图像输出的特征数据的距离分布特征的第二损失值。
上述相同类型的样本图像可以是具有相同人物的图像,其中人物的场景或者人物姿势等不同;还可以是具有相同目标物品的图像,其中物品的摆放位置、方向不同,或者是目标物品摆放的场景等不同。上述不同类型的样本图像可以是不同的人物图像或者不同的物品图像,还可以是人物图像和物品图像,只要不包含有相同的任务和物品都可以称为不同类型的样本图像。上述第一损失值可以是相同类型的样本图像,输入至网络模型后输出的距离分布特征,与该相同类型的样本图像,输入至教师模型输出的距离分布特征之间的损失大小;同样的,上述第二损失值可以是不同类型的样本图像,输入至网络模型后输出的距离分布特征,与该不同类型的样本图像,输入至教师模型输出的距离分布特征之间的损失大小。
进一步的,上述损失值等于:网络模型对相同类型的样本图像输出的特征数据的距离分布特征的第一损失值乘以预设第一权重的乘积,加上网络模型对不同类型的样本图像输出的特征数据的距离分布特征的第二损失值乘以预设第二权重的乘积;其中,第一权重和第二权重的和为一。
上述第一权重和第二权重可以用来控制第一损失值和第二损失值的权重;具体的,上述损失值的计算公式可以表示为:
Ldistill=αLintra+βLinter (1)
式(1)中,Ldistill表示损失值;Lintra表示第一损失值;Linter表示第二损失值;α表示第一权重的值;β表示第二权重的值。其中,第一权重和第二权重的和为一,在和为一的条件下,第一权重和第二权重的值可以灵活调整。
实施例三:
本实施例提供了一种视觉任务的处理方法中,第一损失值的计算方法,该方法在上述实施例的基础上实现。本实施例重点描述如果损失值包括网络模型对相同类型的样本图像输出的特征数据的距离分布特征的第一损失值,第一损失值的计算方式的具体实现过程。如图3所示,该方法包括如下步骤:
步骤S302,获取网络模型针对预设多对第一样本对输出的第一特征矩阵,和教师模型针对多对第一样本对输出的第二特征矩阵;其中,第一样本对包括多个相同类型的样本;
上述第一样本对可以是具有相同类型的多个样本图像,例如,同一个人物的两个样本图像,其中一个样本图像的背景为人群,另一个样本图像的背景为风景;或者是同一个人物的两个样本图像,其中的人物姿势不同,比如,一个样本图像的人物可以是站姿,另一个样本图像的人物可以是坐姿。上述网络模型输出第一特征矩阵的过程,具体的,可以将上述多对第一样本对中的多个相同类型的样本图像,输入至网络模型中,针对每个样本图像都会输出一个特征矩阵,输出的多个特征矩阵即为第一特征矩阵;同样的,上述教师模型输出第二特征矩阵的过程,可以将上述第一样本对中的多个相同类型的样本图像,输入至教师模型中,针对每个样本图像都会输出的一个特征矩阵,输出的多个特征矩阵即为第二特征矩阵;其中,第一样本对可以包含两个相同类型的样本,另外,上述特征矩阵包括有多维空间数据。
步骤S304,计算第一特征矩阵的距离分布特征,以及第二特征矩阵的距离分布特征;
上述特征矩阵的距离分布特征可以表示相同类型图像之间数据特征的距离分布情况,具体可以是特征矩阵的距离分布特征,该距离分布特征可以利用特征距离度量方式、余弦相似度等方式计算。
针对上述步骤S304中,计算第一特征矩阵的距离分布特征的具体实现过程,可以参见图4所示的第一特征矩阵的距离分布特征的计算方法的流程图,其中,输入至网络模型的第一样本对,包括相同类型的第一样本和第二样本;网络模型输出的第一特征矩阵包括针对于第一样本的子特征矩阵,以及针对于第二样本的子特征矩阵;如图4所示,该方法包括如下步骤:
步骤S402,计算第一特征矩阵中的第一样本的子特征矩阵和第二样本的子特征矩阵之间的第一距离矩阵;
上述第一特征矩阵中的第一样本的子特征矩阵,可以是第一样本对中的第一样本,输入至网络模型,输出的子特征矩阵;上述第一特征矩阵中的第二样本的子特征矩阵,可以是第一样本对中的第二样本,输入至网络模型,输出的子特征矩阵;上述第一特征矩阵中包括第一样本的子特征矩阵和第二样本的子特征矩阵。上述第一距离矩阵可以通过距离计算公式得到,比如,可以通过特征距离度量、余弦相似度等方式,计算第一特征矩阵多维空间数据中两点之间的真实距离,或向量的自然长度。
具体的,第一距离矩阵的计算公式可以表示为:
Dintra_student[i]=Euclidean_Distance(Fa1[i],Fb1[i]) (2)
式(2)中,Dintra_student[i]表示第一距离矩阵;(Fa1[i],Fb1[i])表示第i个样本对的第一特征矩阵,其中,Fa1[i]表示第i个第一样本对中第一样本的子特征矩阵;Fb1[i]表示第i个第一样本对中第二样本的子特征矩阵;i表示第i个样本对。
步骤S404,对第一距离矩阵进行归一化处理,将归一化处理后的第一距离矩阵确定为第一特征矩阵的距离分布特征。
通过归一化处理可以简化计算的方式,即将有量纲的表达式,经过变换,化为无量纲的表达式,成为标量;或者可以是把数变为(0,1)之间的小数。上述归一化处理方法具体的,可以通过如下公式计算:
Figure BDA0002367079550000131
式(3)中,Dintra_student表示第一距离矩阵的距离分布特征;mean(Dintra_student)表示第一距离矩阵的平均值。
另外,上述具体的归一化处理方法,还可以将第一距离矩阵的平均值更换为第一距离矩阵的距离总和,同样可以达到归一化的效果。
针对上述步骤S304中,计算第二特征矩阵的距离分布特征的具体实现过程,可以参见图5所示的第二特征矩阵的距离分布特征的计算方法的流程图,其中,输入至教师模型的第一样本对包括相同类型的第一样本和第二样本;教师模型输出的第二特征矩阵包括针对于第一样本的子特征矩阵,以及针对于第二样本的子特征矩阵;如图5所示,该方法包括如下步骤:
步骤S502,计算第二特征矩阵中的第一样本的子特征矩阵和第二样本的子特征矩阵之间的第二距离矩阵;
上述第二特征矩阵中的第一样本的子特征矩阵,可以是第一样本对中的第一样本,输入至教师模型,输出的子特征矩阵;上述第二特征矩阵中的第二样本的子特征矩阵,可以是第一样本对中的第二样本,输入至教师模型,输出的子特征矩阵;上述第二特征矩阵中包括第一样本的子特征矩阵和第二样本的子特征矩阵。上述第二距离矩阵可以通过距离计算公式得到,比如,可以通过特征距离度量、余弦相似度等方式,计算第二特征矩阵多维空间数据中两点之间的真实距离,或向量的自然长度。
具体的,第二距离矩阵的计算公式可以表示为:
Dintra_teather[i]=Euclidean_Distance(Fa2[i],Fb2[i]) (4)
式(4)中,Dintra_teather[i]表示第二距离矩阵;(Fa2[i],Fb2[i])表示第i个样本对的第二特征矩阵,其中,Fa2[i]表示第i个第一样本对中第一样本的子特征矩阵;Fb2[i]表示可以第i个第一样本对中第二样本的子特征矩阵;i表示第i个样本对。
步骤S504,对第二距离矩阵进行归一化处理,将归一化处理后的第二距离矩阵确定为第二特征矩阵的距离分布特征。
通过归一化处理可以简化计算的方式,即将有量纲的表达式,经过变换,化为无量纲的表达式,成为标量;或者可以是把数变为(0,1)之间的小数。上述归一化处理方法具体的,可以通过如下公式计算:
Figure BDA0002367079550000141
式(5)中,Dintra_teather表示第二距离矩阵的距离分布特征;mean(Dintra_teather)表示第二距离矩阵的平均值。
另外,上述具体的归一化处理方法,还可以将第二距离矩阵的平均值更换为第二距离矩阵的距离总和,同样可以达到归一化的效果。
步骤S306,根据第一特征矩阵的距离分布特征和第二特征矩阵的距离分布特征,确定第一损失值。
具体的,上述第一损失值可以通过损失函数计算得到,损失函数是将随机事件或其有关随机变量的取值映射为非负实数以表示该随机事件的“风险”或“损失”的函数。损失函数用来表现预测与实际数据的差距程度,也就是分析通过网络模型输出的第一特征矩阵的距离分布特征,与通过教师模型输出的第二特征矩阵的距离分布特征之间的差距,该差距用第一损失值表示。
该方式中,通过特征损失函数计算输入至网络模型相同类型样本图像的第一损失值,根据该损失值能够缩小特征空间中样本的类内距离,将教师模型输出的相同类型训练样本图像的特征矩阵,作为网络模型的输入标签,可以将教师模型输出的相同类型训练样本图像的特征矩阵,作为网络模型的输入标签,可以使网络模型学习教师模型在相同类型训练样本图像上输出的空间特征距离分布特性,模型输入输出无关,因此无需保证教师模型和网络模型的结构、输入输出一致性,从而解决了蒸馏问题中的诸多限制,应用场景更加丰富,方法更加鲁棒。
实施例四:
本实施例提供了另一种视觉任务的处理方法中,第一损失值的计算方法,该方法在上述实施例的基础上实现。本实施例重点描述根据第一特征矩阵的距离分布特征和第二特征矩阵的距离分布特征,确定第一损失值的步骤的具体实现过程(通过步骤S606-S608实现)。如图6所示,该方法包括如下步骤:
步骤S602,获取网络模型针对预设多对第一样本对输出的第一特征矩阵,和教师模型针对多对第一样本对输出的第二特征矩阵;其中,第一样本对包括多个相同类型的样本;
步骤S604,计算第一特征矩阵的距离分布特征,以及第二特征矩阵的距离分布特征;
步骤S606,计算第一特征矩阵的距离分布特征和第二特征矩阵的距离分布特征之间第一差值矩阵;
将第一特征矩阵和第二特征矩阵中,每个矩阵相对应位置的数据,进行差值计算,得到第一特征矩阵的距离分布特征和第二特征矩阵的距离分布特征之间第一差值矩阵。具体的,上述计算过程可以表示为:Dintra_student[i]-Dintra_teacher[i],进而得到第一差值矩阵,其中,Dintra_student[i]表示第i个样本的第一特征矩阵的距离分布特征;Dintra_teacher[i]表示第i个样本的第二特征矩阵距离分布特征。
步骤S608,计算第一差值矩阵中各个数据的第一平方和,将第一平方和除以第一样本对的数量,得到第一损失值。
上述第一差值矩阵中包含有多个数据,将矩阵中每个数据计算其平方值,将矩阵中的每个平方值进行求和,得到一个总值,最后将该总值除以第一样本对的总数量,得到第一损失值。具体的,上述计算过程可以表示为:
Figure BDA0002367079550000161
式(6)中,Lintra表示第一损失值;N表示第一样本对的总个数。
该方式中,通过特征损失函数计算输入至网络模型相同类型样本图像的第一损失值,根据该损失值能够缩小特征空间中同类样本之间的特征距离,将教师模型输出的相同类型训练样本图像的特征矩阵,作为网络模型的输入标签,可以将教师模型输出的相同类型训练样本图像的特征矩阵,作为网络模型的输入标签,可以使网络模型学习教师模型在相同类型训练样本图像上输出的空间特征距离分布特征,由于特征距离分布特征与模型结构、模型输入输出无关,因此无需保证教师模型和网络模型的结构、输入输出一致性,从而解决了蒸馏问题中的诸多限制,应用场景更加丰富,方法更加鲁棒。
实施例五:
本实施例提供了一种视觉任务的处理方法中,第二损失值的计算方法,该方法在上述实施例的基础上实现。本实施例重点描述如果损失值包括网络模型对不同类型的样本图像输出的特征数据的距离分布特征的第二损失值,第二损失值的计算方式的具体实现过程。如图7所示,该方法包括如下步骤:
步骤S702,获取网络模型针对预设多对第二样本对输出的第三特征矩阵,和教师模型针对多对第二样本对输出的第四特征矩阵;其中,第二样本对包括多个不同类型的样本;
上述第二样本对可以是不同类型的多个样本图像,例如,不同人物的两个样本图像,或者不同物体的两个样本图像,或者不同类别的样本图像,比如,一个是人物图像,一个是物体图像。上述网络模型输出第三特征矩阵的过程,具体的,可以将上述多对第二样本中的多个不同类型的样本图像,输入至网络模型中,针对每个样本图像都会输出一个特征矩阵,输出的多个特征矩阵即为第一特征矩阵;同样的,上述教师模型输出第四特征矩阵的过程,可以将上述第二样本对中的多个不同类型的样本图像,输入至教师模型中,针对每个样本图像都会输出的一个特征矩阵,输出的多个特征矩阵即为第四特征矩阵;其中,第二样本对可以包含两个不同类型的样本,另外,上述特征矩阵可以包括有多维空间数据。
步骤S704,计算第三特征矩阵的距离分布特征,以及第四特征矩阵的距离分布特征;
上述特征矩阵的距离分布特征可以表示不同类型图像之间数据特征的距离分布情况,该距离分布特征可以利用特征距离度量方式、余弦相似度等方式计算。
针对上述步骤S704中,计算第三特征矩阵的距离分布特征的具体实现过程,可以参见图8所示的第三特征矩阵的距离分布特征的计算方法的流程图,其中,第二样本对包括不同类型的第三样本和第四样本;第三特征矩阵包括针对于第三样本的子特征矩阵,以及针对于第四样本的子特征矩阵;如图8所示,该方法包括如下步骤:
步骤S802,计算第三特征矩阵中的第三样本的子特征矩阵和第四样本的子特征矩阵之间的第三距离矩阵;
上述第三特征矩阵中的第三样本的子特征矩阵,可以是第二样本对中的第三样本,输入至网络模型,输出的子特征矩阵;上述第三特征矩阵中的第四样本的子特征矩阵,可以是第二样本对中的第四样本,输入至网络模型,输出的子特征矩阵;上述第三特征矩阵中包括第三样本的子特征矩阵和第四样本的子特征矩阵。上述第三距离矩阵可以通过距离计算公式得到,比如,可以通过特征距离度量、余弦相似度等方式,计算第三特征矩阵多维空间数据中两点之间的真实距离,或向量的自然长度。
具体的,第三距离矩阵的计算公式可以表示为:
Figure BDA0002367079550000181
式(7)中,Dinter_student[i,j]表示第三距离矩阵;(Fa3[i],Fb3[j])表示第i个样本和第j个样本组合的第二样本对的第三特征矩阵,Fa3[i]表示第i个样本的子特征矩阵,Fb3[j]表示第j个样本的子特征矩阵,i表示第i个样本,j表示第j个样本。由于在计算不同类型间的第二损失值的过程中,第二样本对中的样本图像,可以随机组合,因此第二样本对内的两个样本可能相同,也可能不同,因此,当i=j时,说明这两个矩阵代表的样本图像相同,此时计算的第三距离矩阵为相同类型的样本图像的特征矩阵的距离,因此需要将第三距离矩阵中i=j对应的第三距离矩阵也就是Dinter_student,对角线上的值设置为零,由以下公式实现。
Dinter_student[i,j]=0,i=j (8)
其中,Dinter_student[i,j]表示第i个样本和第j个样本组成的一个第二样本对对应的第三距离矩阵;其中表示的是第i个样本和第j个样本之间的特征距离。
步骤S804,对第三距离矩阵进行归一化处理,将归一化处理后的第三距离矩阵确定为第三特征矩阵的距离分布特征。
通过归一化可以简化计算的方式,即将有量纲的表达式,经过变换,化为无量纲的表达式,成为标量;或者可以是把数变为(0,1)之间的小数。上述归一化处理方法具体的,可以通过如下公式计算:
Figure BDA0002367079550000191
式(9)中,Dinter_student表示第三距离矩阵的距离分布特征;mean(Dinter_student)表示第三距离矩阵的平均值。
另外,上述具体的归一化处理方法,还可以将第三距离矩阵的平均值更换为第三距离矩阵的距离总和,同样可以达到归一化的效果。
针对上述步骤S704中,计算第四特征矩阵的距离分布特征的具体实现过程,可以参见图9所示的第四特征矩阵的距离分布特征的计算方法的流程图,其中,输入至教师模型的第二样本对包括不同类型的第三样本和第四样本;教师模型输出的第四特征矩阵包括针对于第三样本的子特征矩阵,以及针对于第四样本的子特征矩阵;如图9所示,该方法包括如下步骤:
步骤S902,计算第四特征矩阵中的第三样本的子特征矩阵和第四样本的子特征矩阵之间的第四距离矩阵;
上述第四特征矩阵中的第三样本的子特征矩阵,可以是第二样本对中的第三样本,输入至教师模型,输出的子特征矩阵;上述第四特征矩阵中的第四样本的子特征矩阵,可以是第二样本对中的第四样本,输入至教师模型,输出的子特征矩阵;上述第四特征矩阵中包括第三样本的子特征矩阵和第四样本的子特征矩阵。上述第四距离矩阵可以通过距离计算公式得到,比如,可以通过特征距离度量、余弦相似度等方式,计算第四特征矩阵多维空间数据中两点之间的真实距离,或向量的自然长度。
具体的,第四距离矩阵的计算公式可以表示为:
Dinter_teather[i,j]=Euclidean_Distance(Fa4[i],Fb4[j]),i≠j (10)
式(10)中,Dinter_teather[i,j]表示第四距离矩阵;(Fa4[i],Fb4[i])表示第i个样本和第j个样本组合的第二样本对的第四特征矩阵,Fa4[i]表示第i个样本的子特征矩阵,Fb4[i]表示第j个样本的子特征矩阵,其中i表示第i个样本,j表示第j个样本。由于在计算不同类型间的第二损失值的过程中,第二样本对中的样本图像,可以随机组合,因此第二样本对内的两个样本可能相同,也可能不同,因此,当i=j时,说明这两个矩阵代表的样本图像相同,此时计算的第三距离矩阵为相同类型的样本图像的特征矩阵的距离,因此需要将第四距离矩阵中i=j对应的第四距离矩阵也就是Dinter_teathert,对角线上的值设置为零,由以下公式实现。
Dinter_teather[i,j]=0,i=j (11)
其中,Dinter_teather[i,j]表示第i个样本和第j个样本组成的一个第二样本对对应的第四距离矩阵;其中表示的是第i个样本和第j个样本之间的特征距离。
步骤S904,对第四距离矩阵进行归一化处理,将归一化处理后的第四距离矩阵确定为第四特征矩阵的距离分布特征。
通过归一化处理可以简化计算的方式,即将有量纲的表达式,经过变换,化为无量纲的表达式,成为标量;或者可以是把数变为(0,1)之间的小数。上述归一化处理方法具体的,可以通过如下公式计算:
Figure BDA0002367079550000201
式(12)中,Dinter_teather表示第四距离矩阵的距离分布特征;mean(Dinter_teather)表示第四距离矩阵的平均值。
另外,上述具体的归一化处理方法,还可以将第四距离矩阵的平均值更换为第四距离矩阵的距离总和,同样可以达到归一化的效果。
步骤S706,根据第三特征矩阵的距离分布特征和第四特征矩阵的距离分布特征,确定第二损失值。
具体的,上述第二损失值可以通过损失函数计算得到,损失函数是将随机事件或其有关随机变量的取值映射为非负实数以表示该随机事件的“风险”或“损失”的函数。损失函数用来表现预测与实际数据的差距程度,也就是分析通过网络模型输出的第三特征矩阵的距离分布特征,与通过教师模型输出的第四特征矩阵的距离分布特征之间的差距,该差距用第二损失值表示。
该方式中,通过特征损失函数计算输入至网络模型不同类型样本图像的第二损失值,能够拉开特征空间中不同类型样本之间的距离,将教师模型输出的不同类型训练样本图像的特征矩阵,作为网络模型的输入标签,可以使网络模型学习教师模型在不同类型训练样本图像上输出的空间特征距离分布特征,由于特征距离分布特征与模型结构、模型输入输出无关,因此无需保证教师模型和网络模型的结构、输入输出一致性,从而解决了蒸馏问题中的诸多限制,应用场景更加丰富,方法更加鲁棒。
实施例六:
本实施例提供了另一种视觉任务的处理方法中,第二损失值的计算方法,该方法在上述实施例的基础上实现。本实施例重点描述根据第三特征矩阵的距离分布特征和第四特征矩阵的距离分布特征,确定第二损失值的步骤的具体实现过程(通过步骤S1006-S1008实现)。如图10所示,该方法包括如下步骤:
步骤S1002,获取网络模型针对预设多对第二样本对输出的第三特征矩阵,和教师模型针对多对第二样本对输出的第四特征矩阵;其中,第二样本对包括多个不同类型的样本;
步骤S1004,计算第三特征矩阵的距离分布特征,以及第四特征矩阵的距离分布特征;
步骤S1006,计算第三特征矩阵的距离分布特征和第四特征矩阵的距离分布特征之间的第二差值矩阵;
将第三特征矩阵和第四特征矩阵中,每个矩阵相对应位置的数据,进行差值计算,得到第三矩阵的距离分布特征和第四矩阵的距离分布特征之间的第一差值矩阵。具体的,上述计算过程可以表示为:
Figure BDA0002367079550000221
进而得到第二差值矩阵,其中,Dinter_student[i,j]表示表示第i个样本和第j个样本组成的一个第二样本对对应的第三距离矩阵;
Figure BDA0002367079550000222
表示表示第i个样本和第j个样本组成的一个第二样本对对应的第四距离矩阵。
步骤S1008,计算第二差值矩阵中各个数据的第二平方和,将第二平方和除以第二样本对的数量,得到第二损失值。
上述第二差值矩阵中包含有多个数据,将矩阵中每个数据计算其平方值,将矩阵中的每个平方值进行求和,得到一个总值,最后将该总值除以第二样本对的总数量,得到第二损失值。
具体的,上述计算过程可以表示为:
Figure BDA0002367079550000223
式(13)中,Linter表示第二损失值;M表示样本的总个数,将不同类型的样本排列组合得到M2个样本对,即第二样本对的总数量。
该方式中,通过特征损失函数计算输入至网络模型不同类型样本图像的第二损失值,能够拉开特征空间中不同类型样本之间的距离,将教师模型输出的不同类型训练样本图像的特征矩阵,作为网络模型的输入标签,可以使网络模型学习教师模型在不同类型训练样本图像上输出的空间特征距离分布特征,由于特征距离分布特征与模型结构、模型输入输出无关,因此无需保证教师模型和网络模型的结构、输入输出一致性,从而解决了蒸馏问题中的诸多限制,应用场景更加丰富,方法更加鲁棒。
实施例七:
本实施例提供了一种网络模型的训练方法,该方法在上述实施例的基础上实现。如图11所示,该方法包括如下步骤:
步骤S1102,基于预设的样本集合确定多对样本对;样本对中的每个样本携带有样本标签;样本标签用于指示样本的样本类型;
上述预设的样本集合可以是包括多种类型的样本图像,比如,同一个的图像属于一种类型,不同人的图像则属于不同类型。当然,人物和物品也属于不同类型的样本图像;其中每种类型也可以包括有多种图像,每个图像的目标相同,但是背景、姿势等不同。上述样本对包括的样本可以是相同类型、也可以是不同类型的样本。根据上述样本标签可以得到该样本所属的样本类型。
步骤S1104,将多对样本对分别输入至网络模型和教师模型,得到网络模型输出的特征数据,和教师模型输出的特征数据;
将多对样本对分别输入至网络模型和教师模型,网络模型和教师模型会根据样本对所包含的类型是否相同,输出不同的特征数据,上述网络模型输出的特征数据对应前述实施例中的第一特征矩阵,教师模型输出的特征数据第二特征矩阵,其中,网络模型和教师模型可以是CNN、RNN或DNN。上述网络模型和教师模型可以是任意的模型结构,通常情况下,模型的输入信息越多、输出特征维度越大,参数量越大,训练得到模型性能会越好,因此可以用一个大输入尺寸、大特征维度、大参数量的教师模型去训练任意输入、输出大小的网络模型。
步骤S1106,根据预设的任务损失函数,计算网络模型输出的特征数据的任务损失值;根据教师模型输出的特征数据和特征损失函数,计算网络模型输出的特征数据的距离分布特征的损失值;
上述预设的任务损失函数可以为triplet loss函数等,该预设的任务损失函数可以优化网络模型;具体的,上述任务损失函数,可以根据网络模型输出的特征数据与标准的样本标签,计算输出的特征数据的任务损失值,表示网络模型输出的特征数据与标准的样本标签的差距损失大小。上述特征损失函数,可以根据网络模型输出的特征数据的距离分布特征与教师模型输出的特征数据,计算网络模型输出的特征数据的距离分布特征的损失值,表示网络模型输出的特征数据与教师模型输出的特征数据的差距损失大小。上述特征损失值也可以理解为,将教师模型输出的特征数据转移至网络模型,达到训练网络模型的目的。在视觉任务中,设置任务损失函数的目的是为了优化网络模型,同时特征损失函数能够利用教师模型的输出,使网络模型与教师模型更加相近。
步骤S1108,基于任务损失值和距离分布特征的损失值,训练网络模型;继续执行基于预设的样本集合确定多对样本对的步骤,直至任务损失值和距离分布特征的损失值收敛,得到训练后的网络模型。
具体的,上述任务损失值可以训练网络模型中的参数,优化网络模型同时特征损失值可以将教师模型的特征空间特性转移至网络模型,达到训练网络模型的目的;如果步骤S1108计算出的任务损失值和特征损失值不收敛,则继续选择多个样本对输入至网络模型和教师模型,进行网络模型的训练,即执行基于预设的样本集合确定多对样本对的步骤;如果损失值收敛,则停止执行基于预设的样本集合确定多对样本对的步骤,将该模型输出,得到训练后的网络模型。损失值收敛,是指对于不同的训练图片,输出的损失值为固定值,或者十分接近某一固定值;例如,对于10个训练图片,损失值均为10,或者在9.8-10.2之间,这两种情况均可以认为损失值已经收敛。
除了损失值收敛之外,还可以将损失值满足预设的损失阈值作为标识识别模型的结束训练条件。这里需要说明的是,损失阈值一般为一个范围,例如,损失阈值可以是0.1-0.5,或者小于30%等。只要损失值在损失阈值的范围内,即可以说明损失值满足预设的损失阈值。
本发明实施例提供了一种网络模型的训练方法,采用带有标签的多对样本对,通过网络模型和教师模型输出对应的特征矩阵,根据预设的任务损失函数和特征矩阵和模型计算对应的任务损失值和特征损失值,训练网络模型,直至损失值收敛,得到训练后的网络模型。该方式中,通过任务损失函数和特征损失函数,训练网络模型,其中,网络模型和教师模型可以是任意结构的模型,且特征数据的空间距离分布特征与模型的输入输出无关,即使网络模型和教师模型二者之间的输入数据和输出数据结构不同,也能通过教师模型训练网络模型,可以从较强性能的教师模型中,得到更好、更高性能的网络模型,因而该方式具有更广泛的适用性。
本实施例提供了一种具体的网络模型的训练方法,参见图12所示的网络模型的训练方法流程图,以尺度学习为例,其中包括输入模块、模型模块和损失函数模块组成,输入为训练样本和样本标签,模型模块包括学生模型和教师模型,损失函数模块包括Tripletloss损失函数和特征距离分布转移函数。具体的,训练样本对应上述第一样本对和第二样本对,学生模型对应上述网络模型;学生网络提取的样本特征对应上述网络模型输出的第一特征矩阵和第三特征矩阵;教师网络提取的样本特征对应上述教师模型输出的第二特征矩阵和第四特征矩阵;Triplet loss损失函数对应上述任务损失函数,特征距离分布转移损失对应上述特征损失函数;样本标签表示训练样本的标准标签。
具体的,该方法可以用于任意的机器学习***,将同样的训练样本分别输入至学生模型和教师模型,另个模型各自提取样本特征送入损失函数模块进行损失评估,其中的学生样本特征经过两个损失函数进行损失评估,送入Triplet loss损失函数的样本特征与样本标签进对比行损失评估,送入特征距离分布转移损失函数的样本特征与教师样本特征进行损失评估,经过最后的损失函数得到上述连个损失评估值的综合损失值,判断该损失值是否收敛,完成学生模型参数的迭代更新,使学生模型的能够学习教师模型的特征空间距离分布特征,进而达到学生模型提升自身性能的目的。
实施例八:
对应于上述方法实施例,参见图13所示的一种视觉任务的处理装置的结构示意图,该装置包括:
特征数据输出模块131,用于获取待处理图像,将待处理图像输入至预先训练完成的网络模型中,输出待处理图像对应的特征数据;
视觉任务完成模块132,用于基于特征数据,完成预设的视觉任务;
其中,网络模型通过预设的教师模型和特征损失函数训练得到;特征损失函数用于:根据教师模型输出的特征数据的距离分布特征,确定网络模型输出的特征数据的距离分布特征的损失值。
进一步的,上述损失值包括:网络模型对相同类型的样本图像输出的特征数据的距离分布特征的第一损失值,和/或,网络模型对不同类型的样本图像输出的特征数据的距离分布特征的第二损失值。
进一步的,上述损失值等于:网络模型对相同类型的样本图像输出的特征数据的距离分布特征的第一损失值乘以预设第一权重的乘积,加上网络模型对不同类型的样本图像输出的特征数据的距离分布特征的第二损失值乘以预设第二权重的乘积;其中,第一权重和第二权重的和为一。
进一步的,当上述损失值包括网络模型对相同类型的样本图像输出的特征数据的距离分布特征的第一损失值,上述特征数据输出模块包括第一损失值计算单元。
进一步的,上述第一损失值计算单元用于:获取网络模型针对预设多对第一样本对输出的第一特征矩阵,和教师模型针对多对第一样本对输出的第二特征矩阵;其中,第一样本对包括多个相同类型的样本;计算第一特征矩阵的距离分布特征,以及第二特征矩阵的距离分布特征;根据第一特征矩阵的距离分布特征和第二特征矩阵的距离分布特征,确定第一损失值。
进一步的,上述第一样本对包括相同类型的第一样本和第二样本;第一特征矩阵包括针对于第一样本的子特征矩阵,以及针对于第二样本的子特征矩阵;上述特征数据输出模块包括第一特征矩阵的距离分布特征的计算单元。
进一步的,上述第一特征矩阵的距离分布特征的计算单元用于:计算第一特征矩阵中的第一样本的子特征矩阵和第二样本的子特征矩阵之间的第一距离矩阵;对第一距离矩阵进行归一化处理,将归一化处理后的第一距离矩阵确定为第一特征矩阵的距离分布特征。
进一步,上述第一样本对包括相同类型的第一样本和第二样本;第二特征矩阵包括针对于第一样本的子特征矩阵,以及针对于第二样本的子特征矩阵;上述特征数据输出模块包括第二特征矩阵的距离分布特征的计算单元。
进一步,上述第二特征矩阵的距离分布特征的计算单元用于:计算第二特征矩阵中的第一样本的子特征矩阵和第二样本的子特征矩阵之间的第二距离矩阵;对第二距离矩阵进行归一化处理,将归一化处理后的第二距离矩阵确定为第二特征矩阵的距离分布特征。
进一步,上述第一损失值计算单元用于:计算第一特征矩阵的距离分布特征和第二特征矩阵的距离分布特征之间第一差值矩阵;计算第一差值矩阵中各个数据的第一平方和,将第一平方和除以第一样本对的数量,得到第一损失值。
进一步的,当上述损失值包括网络模型对不同类型的样本图像输出的特征数据的距离分布特征的第二损失值,上述特征数据输出模块包括第二损失值计算单元。
进一步的,上述第二损失值计算单元用于:获取网络模型针对预设多对第二样本对输出的第三特征矩阵,和教师模型针对多对第二样本对输出的第四特征矩阵;其中,第二样本对包括多个不同类型的样本;计算第三特征矩阵的距离分布特征,以及第四特征矩阵的距离分布特征;根据第三特征矩阵的距离分布特征和第四特征矩阵的距离分布特征,确定第二损失值。
进一步的,上述第二样本对包括不同类型的第三样本和第四样本;第三特征矩阵包括针对于第三样本的子特征矩阵,以及针对于第四样本的子特征矩阵;上述特征数据输出模块包括第三特征矩阵的距离分布特征的计算单元。
进一步的,第三特征矩阵的距离分布特征的计算单元用于:计算第三特征矩阵中的第三样本的子特征矩阵和第四样本的子特征矩阵之间的第三距离矩阵;对第三距离矩阵进行归一化处理,将归一化处理后的第三距离矩阵确定为第三特征矩阵的距离分布特征。
进一步的,上述第二样本对包括不同类型的第三样本和第四样本;第四特征矩阵包括针对于第三样本的子特征矩阵,以及针对于第四样本的子特征矩阵;上述特征数据输出模块包括第四特征矩阵的距离分布特征的计算单元。
进一步的,上述第四特征矩阵的距离分布特征的计算单元用于:计算第四特征矩阵中的第三样本的子特征矩阵和第四样本的子特征矩阵之间的第四距离矩阵;对第四距离矩阵进行归一化处理,将归一化处理后的第四距离矩阵确定为第四特征矩阵的距离分布特征。
进一步的,上述第二损失值计算单元用于:计算第三特征矩阵的距离分布特征和第四特征矩阵的距离分布特征之间的第二差值矩阵;计算第二差值矩阵中各个数据的第二平方和,将第二平方和除以第二样本对的数量,得到第二损失值。
进一步的,上述装置包括网络模型训练模块,上述网络模型训练模块用于:基于预设的样本集合确定多对样本对;样本对中的每个样本携带有样本标签;样本标签用于指示样本的样本类型;将多对样本对分别输入至网络模型和教师模型,得到网络模型输出的特征数据,和教师模型输出的特征数据;根据预设的任务损失函数,计算网络模型输出的特征数据的任务损失值;根据教师模型输出的特征数据和特征损失函数,计算特征损失值;基于任务损失值和距离分布特征的损失值,训练网络模型;继续执行基于预设的样本集合确定多对样本对的步骤,直至任务损失值和距离分布特征的损失值收敛,得到训练后的网络模型。
本发明实施例提供了一种视觉任务的处理装置,用于提取待处理图像的特征数据的网络模型,通过预设的教师模型和特征损失函数训练;其中,该特征损失函数用于根据所述教师模型输出的特征数据的距离分布特征,确定所述网络模型输出的特征数据的距离分布特征的损失值。该方式中,通过特征损失函数,可以让网络模型学习教师模型输出的特征数据的空间距离分布特征,从而使网络模型的性能逐渐接近于教师模型,达到训练网络模型的目的;由于特征数据的空间距离分布特征与模型的输入输出无关,即使网络模型和教师模型二者之间的输入数据和输出数据结构不同,也能通过教师模型训练网络模型,因而该方式具有更广泛的适用性。
实施例九:
本发明实施例提供了一种电子***,该电子***包括:图像采集设备、处理设备和存储装置;图像采集设备,用于获取预览视频帧或图像数据;存储装置上存储有计算机程序,计算机程序在被处理设备运行时执行如上述视觉任务的处理方法,或者上述视觉任务的处理方法的步骤。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的电子***的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本发明实施例还提供了一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理设备运行时执行如上述视觉任务的处理方法,或者上视觉任务的处理方法的步骤。
本发明实施例所提供的视觉任务的处理方法、装置和电子***的计算机程序产品,包括存储了程序代码的计算机可读存储介质,程序代码包括的指令可用于执行前面方法实施例中的方法,具体实现可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***和/或装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
另外,在本发明实施例的描述中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (15)

1.一种视觉任务的处理方法,其特征在于,所述方法包括:
获取待处理图像,将所述待处理图像输入至预先训练完成的网络模型中,输出所述待处理图像对应的特征数据;
基于所述特征数据,完成预设的视觉任务;
其中,所述网络模型通过预设的教师模型和特征损失函数训练得到;所述特征损失函数用于:根据所述教师模型输出的特征数据的距离分布特征,确定所述网络模型输出的特征数据的距离分布特征的损失值。
2.根据权利要求1所述的方法,其特征在于,所述损失值包括:所述网络模型对相同类型的样本图像输出的特征数据的距离分布的第一损失值,和/或,所述网络模型对不同类型的样本图像输出的特征数据的距离分布的第二损失值。
3.根据权利要求2所述的方法,其特征在于,所述损失值等于:所述网络模型对相同类型的样本图像输出的特征数据的距离分布的第一损失值乘以预设第一权重的乘积,加上所述网络模型对不同类型的样本图像输出的特征数据的距离分布的第二损失值乘以预设第二权重的乘积;其中,所述第一权重和所述第二权重的和为一。
4.根据权利要求2所述的方法,其特征在于,当所述损失值包括所述网络模型对相同类型的样本图像输出的特征数据的距离分布的第一损失值时,所述第一损失值通过下述方式计算得到:
获取所述网络模型针对预设多对第一样本对输出的第一特征矩阵,和所述教师模型针对所述多对第一样本对输出的第二特征矩阵;其中,所述第一样本对包括多个相同类型的样本;
计算所述第一特征矩阵的距离分布特征,以及所述第二特征矩阵的距离分布特征;
根据所述第一特征矩阵的距离分布特征和所述第二特征矩阵的距离分布特征,确定所述第一损失值。
5.根据权利要求4所述的方法,其特征在于,所述第一样本对包括相同类型的第一样本和第二样本;所述第一特征矩阵包括针对于所述第一样本的子特征矩阵,以及针对于所述第二样本的子特征矩阵;
所述计算所述第一特征矩阵的距离分布特征的步骤,包括:
计算所述第一特征矩阵中的所述第一样本的子特征矩阵和所述第二样本的子特征矩阵之间的第一距离矩阵;
对所述第一距离矩阵进行归一化处理,将归一化处理后的所述第一距离矩阵确定为所述第一特征矩阵的距离分布特征。
6.根据权利要求4所述的方法,其特征在于,所述第一样本对包括相同类型的第一样本和第二样本;所述第二特征矩阵包括针对于所述第一样本的子特征矩阵,以及针对于所述第二样本的子特征矩阵;
所述计算所述第二特征矩阵的距离分布特征的步骤,包括:
计算所述第二特征矩阵中的所述第一样本的子特征矩阵和所述第二样本的子特征矩阵之间的第二距离矩阵;
对所述第二距离矩阵进行归一化处理,将归一化处理后的所述第二距离矩阵确定为所述第二特征矩阵的距离分布特征。
7.根据权利要求4所述的方法,其特征在于,根据所述第一特征矩阵的距离分布特征和所述第二特征矩阵的距离分布特征,确定所述第一损失值的步骤,包括:
计算所述第一特征矩阵的距离分布特征和所述第二特征矩阵的距离分布特征之间第一差值矩阵;
计算所述第一差值矩阵中各个数据的第一平方和,将所述第一平方和除以所述第一样本对的数量,得到所述第一损失值。
8.根据权利要求2所述的方法,其特征在于,当所述损失值包括所述网络模型对不同类型的样本图像输出的特征数据的距离分布特征的第二损失值时,所述第二损失值通过下述方式计算得到:
获取所述网络模型针对预设多对第二样本对输出的第三特征矩阵,和所述教师模型针对所述多对第二样本对输出的第四特征矩阵;其中,所述第二样本对包括多个不同类型的样本;
计算所述第三特征矩阵的距离分布特征,以及所述第四特征矩阵的距离分布特征;
根据所述第三特征矩阵的距离分布特征和所述第四特征矩阵的距离分布特征,确定所述第二损失值。
9.根据权利要求8所述的方法,其特征在于,所述第二样本对包括不同类型的第三样本和第四样本;所述第三特征矩阵包括针对于所述第三样本的子特征矩阵,以及针对于所述第四样本的子特征矩阵;
所述计算所述第三特征矩阵的距离分布特征的步骤,包括:
计算所述第三特征矩阵中的所述第三样本的子特征矩阵和所述第四样本的子特征矩阵之间的第三距离矩阵;
对所述第三距离矩阵进行归一化处理,将归一化处理后的所述第三距离矩阵确定为所述第三特征矩阵的距离分布特征。
10.根据权利要求8所述的方法,其特征在于,所述第二样本对包括不同类型的第三样本和第四样本;所述第四特征矩阵包括针对于所述第三样本的子特征矩阵,以及针对于所述第四样本的子特征矩阵;
所述计算所述第四特征矩阵的距离分布特征的步骤,包括:
计算所述第四特征矩阵中的所述第三样本的子特征矩阵和所述第四样本的子特征矩阵之间的第四距离矩阵;
对所述第四距离矩阵进行归一化处理,将归一化处理后的所述第四距离矩阵确定为所述第四特征矩阵的距离分布特征。
11.根据权利要求8所述的方法,其特征在于,根据所述第三特征矩阵的距离分布特征和所述第四特征矩阵的距离分布特征,确定所述第二损失值的步骤,包括:
计算所述第三特征矩阵的距离分布特征和所述第四特征矩阵的距离分布特征之间的第二差值矩阵;
计算所述第二差值矩阵中各个数据的第二平方和,将所述第二平方和除以所述第二样本对的数量,得到所述第二损失值。
12.根据权利要求1所述的方法,其特征在于,所述网络模型,具体通过下述方式训练得到:
基于预设的样本集合确定多对样本对;所述样本对中的每个样本携带有样本标签;所述样本标签用于指示所述样本的样本类型;
将所述多对样本对分别输入至所述网络模型和所述教师模型,得到所述网络模型输出的特征数据,和所述教师模型输出的特征数据;
根据预设的任务损失函数,计算所述网络模型输出的特征数据的任务损失值;根据所述教师模型输出的特征数据和所述特征损失函数,计算所述网络模型输出的特征数据的距离分布特征的损失值;
基于所述任务损失值和所述距离分布特征的损失值,训练所述网络模型;继续执行基于预设的样本集合确定多对样本对的步骤,直至所述任务损失值和所述距离分布特征的损失值收敛,得到训练后的所述网络模型。
13.一种视觉任务的处理装置,其特征在于,所述装置包括:
特征数据输出模块,用于获取待处理图像,将所述待处理图像输入至预先训练完成的网络模型中,输出所述待处理图像对应的特征数据;
视觉任务完成模块,用于基于所述特征数据,完成预设的视觉任务;
其中,所述网络模型通过预设的教师模型和特征损失函数训练得到;所述特征损失函数用于:根据所述教师模型输出的特征数据的距离分布特征,确定所述网络模型输出的特征数据的距离分布特征的损失值。
14.一种电子***,其特征在于,所述电子***包括:处理设备和存储装置;
所述存储装置上存储有计算机程序,所述计算机程序在被所述处理设备运行时执行如权利要求1至12任一项所述的视觉任务的处理方法。
15.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理设备运行时执行如权利要求1至12任一项所述的视觉任务的处理方法的步骤。
CN202010039683.7A 2020-01-14 2020-01-14 视觉任务的处理方法、装置和电子*** Active CN111275183B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010039683.7A CN111275183B (zh) 2020-01-14 2020-01-14 视觉任务的处理方法、装置和电子***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010039683.7A CN111275183B (zh) 2020-01-14 2020-01-14 视觉任务的处理方法、装置和电子***

Publications (2)

Publication Number Publication Date
CN111275183A true CN111275183A (zh) 2020-06-12
CN111275183B CN111275183B (zh) 2023-06-16

Family

ID=71001682

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010039683.7A Active CN111275183B (zh) 2020-01-14 2020-01-14 视觉任务的处理方法、装置和电子***

Country Status (1)

Country Link
CN (1) CN111275183B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111724306A (zh) * 2020-06-19 2020-09-29 福州大学 一种基于卷积神经网络的图像缩小方法及***

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107247989A (zh) * 2017-06-15 2017-10-13 北京图森未来科技有限公司 一种神经网络训练方法及装置
US20180336465A1 (en) * 2017-05-18 2018-11-22 Samsung Electronics Co., Ltd. Apparatus and method for student-teacher transfer learning network using knowledge bridge
WO2019100723A1 (zh) * 2017-11-24 2019-05-31 华为技术有限公司 训练多标签分类模型的方法和装置
CN110135562A (zh) * 2019-04-30 2019-08-16 中国科学院自动化研究所 基于特征空间变化的蒸馏学习方法、***、装置
CN110210560A (zh) * 2019-05-31 2019-09-06 北京市商汤科技开发有限公司 分类网络的增量训练方法、分类方法及装置、设备及介质
CN110309842A (zh) * 2018-12-28 2019-10-08 中国科学院微电子研究所 基于卷积神经网络的物体检测方法及装置
WO2019208564A1 (ja) * 2018-04-26 2019-10-31 日本電信電話株式会社 ニューラルネットワーク学習装置、ニューラルネットワーク学習方法、プログラム
CN110414550A (zh) * 2019-06-14 2019-11-05 北京迈格威科技有限公司 人脸识别模型的训练方法、装置、***和计算机可读介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180336465A1 (en) * 2017-05-18 2018-11-22 Samsung Electronics Co., Ltd. Apparatus and method for student-teacher transfer learning network using knowledge bridge
CN107247989A (zh) * 2017-06-15 2017-10-13 北京图森未来科技有限公司 一种神经网络训练方法及装置
WO2019100723A1 (zh) * 2017-11-24 2019-05-31 华为技术有限公司 训练多标签分类模型的方法和装置
WO2019208564A1 (ja) * 2018-04-26 2019-10-31 日本電信電話株式会社 ニューラルネットワーク学習装置、ニューラルネットワーク学習方法、プログラム
CN110309842A (zh) * 2018-12-28 2019-10-08 中国科学院微电子研究所 基于卷积神经网络的物体检测方法及装置
CN110135562A (zh) * 2019-04-30 2019-08-16 中国科学院自动化研究所 基于特征空间变化的蒸馏学习方法、***、装置
CN110210560A (zh) * 2019-05-31 2019-09-06 北京市商汤科技开发有限公司 分类网络的增量训练方法、分类方法及装置、设备及介质
CN110414550A (zh) * 2019-06-14 2019-11-05 北京迈格威科技有限公司 人脸识别模型的训练方法、装置、***和计算机可读介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
黄金钰;张会林;闫日亮;: "LBP直方图与PCA的欧式距离的人脸识别" *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111724306A (zh) * 2020-06-19 2020-09-29 福州大学 一种基于卷积神经网络的图像缩小方法及***
CN111724306B (zh) * 2020-06-19 2022-07-08 福州大学 一种基于卷积神经网络的图像缩小方法及***

Also Published As

Publication number Publication date
CN111275183B (zh) 2023-06-16

Similar Documents

Publication Publication Date Title
CN111709409B (zh) 人脸活体检测方法、装置、设备及介质
CN110909651B (zh) 视频主体人物的识别方法、装置、设备及可读存储介质
EP3968179A1 (en) Place recognition method and apparatus, model training method and apparatus for place recognition, and electronic device
CN113196289B (zh) 人体动作识别方法、人体动作识别***及设备
CN111368943B (zh) 图像中对象的识别方法和装置、存储介质及电子装置
CN111666919B (zh) 一种对象识别方法、装置、计算机设备和存储介质
CN110555481A (zh) 一种人像风格识别方法、装置和计算机可读存储介质
WO2021218238A1 (zh) 图像处理方法和图像处理装置
CN111368672A (zh) 一种用于遗传病面部识别模型的构建方法及装置
US20220254134A1 (en) Region recognition method, apparatus and device, and readable storage medium
CN111783748A (zh) 人脸识别方法、装置、电子设备及存储介质
CN110222718A (zh) 图像处理的方法及装置
CN115050064A (zh) 人脸活体检测方法、装置、设备及介质
CN114445681A (zh) 模型训练及图像识别方法和装置、设备及存储介质
CN111382791B (zh) 深度学习任务处理方法、图像识别任务处理方法和装置
CN116977674A (zh) 图像匹配方法、相关设备、存储介质及程序产品
CN113128526B (zh) 图像识别方法、装置、电子设备和计算机可读存储介质
CN111626212B (zh) 图片中对象的识别方法和装置、存储介质及电子装置
CN113706550A (zh) 图像场景识别和模型训练方法、装置和计算机设备
CN111275183B (zh) 视觉任务的处理方法、装置和电子***
CN111611917A (zh) 模型训练方法、特征点检测方法、装置、设备及存储介质
CN113902995B (zh) 一种多模态人体行为识别方法及相关设备
CN114648762A (zh) 语义分割方法、装置、电子设备和计算机可读存储介质
CN114283460A (zh) 一种特征提取方法、装置、计算机设备及存储介质
CN114511877A (zh) 一种行为识别方法、装置、存储介质及终端

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant