CN110874574A - 行人重识别方法、装置、计算机设备及可读存储介质 - Google Patents
行人重识别方法、装置、计算机设备及可读存储介质 Download PDFInfo
- Publication number
- CN110874574A CN110874574A CN201911046195.2A CN201911046195A CN110874574A CN 110874574 A CN110874574 A CN 110874574A CN 201911046195 A CN201911046195 A CN 201911046195A CN 110874574 A CN110874574 A CN 110874574A
- Authority
- CN
- China
- Prior art keywords
- identification
- neural network
- extraction module
- image
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000013528 artificial neural network Methods 0.000 claims abstract description 106
- 238000000605 extraction Methods 0.000 claims description 113
- 238000013145 classification model Methods 0.000 claims description 29
- 238000012549 training Methods 0.000 claims description 29
- 238000012545 processing Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 8
- 238000010191 image analysis Methods 0.000 abstract description 2
- 230000000875 corresponding effect Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 239000000284 extract Substances 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000002596 correlated effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种行人重识别方法、装置、计算机设备及可读存储介质,属于图像分析领域。行人重识别方法通过目标识别模型中的第一神经网络提取待识别对象的全局特征,通过目标识别模型中的第二神经网络提取待识别对象的特有特征(区别于全局特征的特征),结合全局特征和特有特征对待识别对象进行识别,进而提升识别的准确性,实现通过目标识别模型快速、准确的锁定目标对象的目的。
Description
技术领域
本发明涉及图像分析领域,尤其涉及行人重识别方法、装置、计算机设备及可读存储介质。
背景技术
视频监控中的行人重识别广泛应用于视频分析的各个领域,在智慧安防、智慧教育、智慧媒体等诸多应用场景中都有着核心作用。采用行人重识别可在多个摄像头中快速找到目标行人,从而有效提升客户体验,增强社会平安稳定,缩减视频分析中的人工成本和分析时间。
目前的行人重识别方法主要是根据行人的整体表征提取整体的全部特征,根据该全部特征进行分析识别,从而找到目标行人,但是现有的人重识别技术需提取行人的全部特征在进行识别时存在精准度地问题。
发明内容
针对现有行人重识别方法识别的精准度低的问题,现提供一种旨在可结合特有特征及全局特征对行人进行识别提升识别精准度的行人重识别方法、装置、计算机设备及可读存储介质。
为实现上述目的,本发明提供一种行人重识别方法,包括下述步骤:
接收至少一张待识别图像;
通过目标识别模型的第一神经网络和第二神经网络对所述待识别图像进行识别,获取识别结果;
所述第一神经网络的权重组与所述第二神经网络的权重组正交。
优选的,通过目标识别模型的第一神经网络和第二神经网络对所述待识别图像进行识别,获取识别结果的步骤,之前包括:
获取至少一张目标图像及至少一张样本图像;
采用所述目标图像及至少一张样本图像对识别模型的第三神经网络和第四神经网络进行训练,所述第三神经网络的权重组与所述第四神经网络的权重组正交,获取目标识别模型。
优选的,所述第三神经网络包括第一提取模块、第一分类模块和第一分类器;
采用所述目标图像及至少一张样本图像对识别模型的第三神经网络进行训练的步骤,包括:
通过所述第一提取模块提取所述至少一张样本图像的第一类特征数据;
通过所述第一分类模块对所述第一类特征数据进行识别,获取第一识别数据;
根据所述第一识别数据通过第一分类器训练至少一张样本图像的梯度,根据所述梯度更新所述第一提取模块和所述第一分类模块的参数值。
优选的,所述第四神经网络包括:第二提取模块、第三提取模块、第二分类模型和第二分类器;
采用所述目标图像及至少一张样本图像对识别模型的第四神经网络进行训练的步骤,包括:
通过所述第二提取模块提取所述至少一张样本图像的第二类特征数据,所述第二提取模块中的权重组与所述第一提取模块中的权重组正交;
通过所述第三提取模块对所述第二特征数据进行处理获取所述第二特征数据的位置信息;
根据所述位置信息和所述第二类特征数据采用所述第二分类模型进行识别,获取第二识别数据;
依据所述位置信息的相关度及所述第二识别数据通过第二分类器训练至少一张样本图像的梯度,根据所述梯度更新所述第二提取模块、所述第三提取模块和所述第二分类模型的参数值。
优选的,依据所述位置信息的相关度及所述第二识别数据通过第二分类器训练至少一张样本图像的梯度,根据所述梯度更新所述第二提取模块、所述第三提取模块和所述第二分类模型的参数值的步骤,包括:
根据所述位置信息中值最大的元素与预设阈值的关系获得所述位置信息的相关度,当所述元素大于或等于所述预设阈值时,所述相关度为1;当所述元素小于所述预设阈值时,所述相关度为0;
当相关度为1时,根据所述第二识别数据通过第二分类器训练至少一张样本图像的梯度,根据所述梯度更新所述第二提取模块、所述第三提取模块和所述第二分类模型的参数值。
优选的,所述第一神经网络包括第一提取模块和第一分类模块;所述第二神经网络包括:第二提取模块、第三提取模块和第二分类模型;
通过目标识别模型的第一神经网络和第二神经网络对所述待识别图像进行识别,获取识别结果的步骤,包括:
通过所述第一提取模块提取所述至少一张待识别图像的第一类特征数据;
通过所述第一分类模块对所述第一类特征数据进行识别,获取第一识别数据;
通过所述第二提取模块提取所述至少一张待识别图像的第二类特征数据,所述第二提取模块中的权重组与所述第一提取模块中的权重组正交;
通过所述第三提取模块对所述第二特征数据进行处理获取所述第二特征数据的位置信息;
根据所述位置信息和所述第二类特征数据采用所述第二分类模型进行识别,获取第二识别数据;
依据所述位置信息的相关度、所述第二识别数据和所述第一识别数据获取所述待识别图像的识别结果。
优选的,依据所述位置信息的相关度、所述第二识别数据和所述第一识别数据获取所述待识别图像的识别结果的步骤,包括:
根据所述位置信息中值最大的元素与预设阈值的关系获得所述位置信息的相关度,当所述元素大于或等于所述预设阈值时,所述相关度为1;当所述元素小于所述预设阈值时,所述相关度为0;
当相关度为1时,将所述第二识别数据和所述第一识别数据进行合并,生成第三识别数据,根据所述第三识别数据计算识别概率,根据所述识别概率获取所述待识别图像的识别结果;
当相关度为0时,根据所述第一识别数据计算识别概率,根据所述识别概率获取所述待识别图像的识别结果。
为实现上述目的,本发明还提供一种行人重识别装置,包括:
接收单元,用于接收至少一张待识别图像;
识别单元,用于通过目标识别模型的第一神经网络和第二神经网络对所述待识别图像进行识别,获取识别结果;
所述第一神经网络的权重组与所述第二神经网络的权重组正交。
为实现上述目的,本发明还提供一种计算机设备,所述计算机设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
为实现上述目的,本发明还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述方法的步骤。
上述技术方案的有益效果:
本技术方案中,行人重识别方法、装置、计算机设备及可读存储介质通过目标识别模型中的第一神经网络提取待识别对象的全局特征,通过目标识别模型中的第二神经网络提取待识别对象的特有特征(区别于全局特征的特征),结合全局特征和特有特征对待识别对象进行识别,进而提升识别的准确性,实现通过目标识别模型快速、准确的锁定目标对象的目的。
附图说明
图1为本发明所述的行人重识别方法的一种实施例的方法流程图;
图2为本发明中对对识别模型进行训练获取目标识别模型的一种实施例的方法流程图;
图3为训练第三神经网络的一种实施例的方法流程图;
图4为训练第四神经网络的一种实施例的方法流程图;
图5为行人重识别的原理图;
图6为对待识别图像进行识别的方法图;
图7为本发明所述的行人重识别装置的一种实施例的模块图;
图8为本发明所述的计算机设备一实施例的硬件架构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供的行人重识别方法、装置、计算机设备及可读存储介质,适用于保险、安保等业务领域,为安保***及监控***提供一种可快速准确识别目标对象的行人重识别方法。本发明通过目标识别模型中的第一神经网络提取待识别对象的全局特征,通过目标识别模型中的第二神经网络提取待识别对象的特有特征(区别于全局特征的特征),结合全局特征和特有特征对待识别对象进行识别,进而提升识别的准确性,实现通过目标识别模型快速、准确的锁定目标对象的目的。
实施例一
请参阅图1,本实施例的一种行人重识别方法,包括下述步骤:
S1.接收至少一张待识别图像;
于本实施例中,行人重识别方法可应用于监控、安防或安保***中,可通过采集设备(例如:摄像头、相机或带有摄像功能的移动终端等)接收待识别图像。
S2.通过目标识别模型的第一神经网络和第二神经网络对所述待识别图像进行识别,获取识别结果;
需要说明的是:所述第一神经网络的权重组与所述第二神经网络的权重组正交。从而保证第一神经网络提取的全局特征与第二神经网络提取的特有特征不相关。
以行人的外在特征为例,全局特征用于表征行人的头部、躯干和四肢等,是每个人行人都具有的特征;相对于全局特征而言特有特征可以丰富多样,特有特征用于表征行人的特有特征该特征与全局特征不同,例如:特有的发型、鲜艳的发色、特殊的衣服款式、装饰或图案等。利用特有特征可以更快、更准确的定位目标对象。
在本步骤中,通过第一神经网络提取待识别对象的全局特征,通过目标识别模型中的第二神经网络提取待识别对象的特有特征(区别于全局特征的特征),结合全局特征和特有特征对待识别对象进行识别,进而提升识别的准确性。
在步骤S2中,通过目标识别模型的第一神经网络和第二神经网络对所述待识别图像进行识别,获取识别结果的步骤,之前还可包括(参考图2):
A1.获取至少一张目标图像及至少一张样本图像;
在本步骤中,每一张样本图像只表征一个样本对象,目标图像中的目标对象的形态与所有的样本图像中的样本对象的形态均不同。
A2.采用所述目标图像及至少一张样本图像对识别模型的第三神经网络和第四神经网络进行训练,所述第三神经网络的权重组与所述第四神经网络的权重组正交,获取目标识别模型。
需要说明的是,通过第三神经网络的权重组与第四神经网络的权重组正交,可保证第三神经网络提取的全局特征与第四神经网络提取的特有特征不相关。
在本步骤中,通过第三神经网络提取样本图像中样本对象的全局特征,通过第四神经网络提取样本图像中样本对象的特有特征(区别于全局特征的特征),结合全局特征和特有特征对待识别对象进行识别,进而提升识别的准确性。
需要说明的是:所述第三神经网络包括第一提取模块、第一分类模块和第一分类器;所述第四神经网络包括:第二提取模块、第三提取模块、第二分类模型和第二分类器;
其中,第一提取模块包括至少一个卷积层;第一提取模块还可包括至少一个下采样层。第一分类模块可采用全连接层;第一分类器可采用Softmax分类器;第二提取模块包括至少一个卷积层;第二提取模块还可包括至少一个下采样层;第三提取模块包括至少一个卷积层;第三提取模块还可包括至少一个下采样层;第二分类模型可采用全连接层;第二分类器可采用Softmax分类器。
在步骤A2中,采用所述目标图像及至少一张样本图像对识别模型的第三神经网络进行训练的步骤(参考图3),包括:
A201.通过所述第一提取模块提取所述至少一张样本图像的第一类特征数据;
其中,第一提取模块包括至少一个卷积层;第一提取模块还可包括至少一个下采样层。
在本实施例中,通过卷积层提取每一张样本图像的第一类特征数据(全局特征)。以第一提取模块包括一个卷积层为例进行说明。
第一提取模块的卷积层Cg的卷积窗权重记为Wg={Wg1,Wg2,…,Wgi,…,Wgn}。
其中,i=1,2,…,n;n为Cg的输出通道数,Wgi={wgi1,wgi2,…,wgij,…,wgim},j=1,2,…,m;m为Cg的输入通道数。
A202.通过所述第一分类模块对所述第一类特征数据进行识别,获取第一识别数据;
在本实施例中,通过第一分类模块对第一类特征数据进行识别,获取第一类特征数据中每一元素对应的类别,根据获取的类别信息生成第一识别数据。
具体地,第一分类模块可采用全连接层。
A203.根据所述第一识别数据通过第一分类器训练至少一张样本图像的梯度,根据所述梯度更新所述第一提取模块和所述第一分类模块的参数值。
在本实施例中,根据梯度调整第一提取模块和第一分类模块中的参数值,从而实现对第一神经网络训练的目的。
具体地,第一分类器可采用Softmax分类器。
在步骤A2中,采用所述目标图像及至少一张样本图像对识别模型的第四神经网络进行训练的步骤,包括(参考图4):
A211.通过所述第二提取模块提取所述至少一张样本图像的第二类特征数据,所述第二提取模块中的权重组与所述第一提取模块中的权重组正交;
在本实施例中,通过第二提取模块提取每一张样本图像的第二类特征数据(特有特征)。进一步地,第二提取模块可包括至少一个卷积层;第二提取模块还可包括至少一个下采样层。
作为举例而非限定,以第二提取模块包括一个卷积层Cs为例进行如下说明:
卷积层Cs用于从样本图像中提取第二类特征数据以便于后续分析。卷积层Cs的卷积窗权重记为Ws={Ws1,Ws2,…,Wsn},n为Cs的输出通道数,Wsn={wsn1,wsn2,…wsnm},m为Cs的输入通道数;
需要说明的是,卷积层Cs的维度与卷积层Cg的维度需保持一致。
由于特有特征是在少数行人中才会出现的,而全局特征是所有行人都具有的,所以可以认为第二类特征数据和第一类特征数据是完全不相关的。
因此,两个完全不相关的卷积层对应的权重组是正交的,即对于每一个输入通道,它对应的权重组乘积之和为0。算式表达如下:
为了使特有特征的卷积层Cs具有独特性,需满足以下损失函数Lc公式:
A212.通过所述第三提取模块对所述第二特征数据进行处理获取所述第二特征数据的位置信息;
进一步地,第三提取模块可包括至少一个卷积层;第三提取模块还可包括至少一个下采样层。
作为举例而非限定,以第三提取模块包括一个卷积层Cp为例进行如下说明:
卷积层Cp对卷积层Cs输出的第二特征数据进行分析,获得特有特征的位置掩模Y(即:位置信息),为后续的特有特征提取提供了位置参照。Y是一个h×w的矩阵,h和w各自为原图长宽的1/s,s为第一神经网络的下采样系数。
人物的特有特征在行人图像中具有罕见性,仅在很小一部分行人图像中才会存在。因此,提供了基于批数据整体分析的损失函数Lp,以确保其罕见性:
其中,Q(Y)表示位置信息的相关度;max(Y)表示在矩阵Y中元素最大的值;B表示批数据的数量个数,N为预设常数。优选的,为了确保罕见度损失的稳定性,B一般大于64,N一般取25。
A213.根据所述位置信息和所述第二类特征数据采用所述第二分类模型进行识别,获取第二识别数据;
在本实施例中,将位置信息和第二类特征数据相乘后输入至第二分类模型进行识别,获取第二类特征数据中每一元素对应的类别,根据获取的类别信息生成与位置相关的第二识别数据。
具体地,第二分类模型可采用全连接层。
A214.依据所述位置信息的相关度及所述第二识别数据通过第二分类器训练至少一张样本图像的梯度,根据所述梯度更新所述第二提取模块、所述第三提取模块和所述第二分类模型的参数值。
在本实施例中,根据梯度调整第二提取模块、第三提取模块和第二分类模型中的参数值,从而实现对第二神经网络训练的目的。
具体地,第二分类器可采用Softmax分类器。
进一步地,在步骤A214中,依据所述位置信息的相关度及所述第二识别数据通过第二分类器训练至少一张样本图像的梯度,根据所述梯度更新所述第二提取模块、所述第三提取模块和所述第二分类模型的参数值的步骤,包括:
根据所述位置信息中值最大的元素与预设阈值的关系获得所述位置信息的相关度,当所述元素大于或等于所述预设阈值时,所述相关度为1;当所述元素小于所述预设阈值时,所述相关度为0;
当相关度为1时,根据所述第二识别数据通过第二分类器训练至少一张样本图像的梯度,根据所述梯度更新所述第二提取模块、所述第三提取模块和所述第二分类模型的参数值。
在本实施例中,当Q(Y)=1时,采用第二分类器进行学习,当Q(Y)=0时,不进行学习。
作为举例而非限定,行人重识别方法的原理可参考图5所示,以第三神经网络的第一提取模块为卷积层Cg,第一分类模块为全连接层Mg;第四神经网络的第二提取模块为卷积层Cs,第三提取模块为卷积层Cp,第二分类模块为全连接层Ms为例进行如下说明:
将样本图像输入第三神经网络的卷积层Cg和第四神经网络的卷积层Cs,通过卷积层Cg提取样本图像的第一类特征数据,采用全连接层Mg对第一类特征数据进行识别,获取全局特征的识别结果;采用第一分类器进行训练获取梯度,基于梯度更新第一提取模块和第一分类模块的参数值。通过卷积层Cs提取样本图像的第二类特征数据,根据损失函数Lc使卷积层Cg与卷积层Cs的权重组保持正交;通过卷积层Cp对第二特征数据进行分析,获取第二特征数据的位置掩模Y;将位置掩模Y与第二特征数据相乘后输入全连接层Ms进行识别获取特有特征的识别结果;基于位置掩模Y通过损失函数Lp进行计算保证第二特征数据的罕见度稳定性,当相关度为1时,根据第二识别数据通过第二分类器训练至少一张样本图像的梯度,根据梯度更新第二提取模块、第三提取模块和第二分类模型的参数值;当相关度为0时,不更新参数值。上述过程为训练模型的过程。
需要说明的是:应用训练完成的目标识别模型进行图像识别时,当相关度为1时,将特有特征的识别结果和全局特征的识别结果进行合并,作为最终的识别结果输出;当相关度为0时,将全局特征的识别结果作为最终的识别结果输出。
在步骤S2中所述第一神经网络包括第一提取模块和第一分类模块;所述第二神经网络包括:第二提取模块、第三提取模块和第二分类模型;
步骤S2通过目标识别模型的第一神经网络和第二神经网络对所述待识别图像进行识别,获取识别结果的步骤,包括(参考图6):
S21.通过所述第一提取模块提取所述至少一张待识别图像的第一类特征数据;
其中,第一提取模块包括至少一个卷积层;第一提取模块还可包括至少一个下采样层。
在本实施例中,通过卷积层提取每一张样本图像的第一类特征数据(全局特征)。以第一提取模块包括一个卷积层为例进行说明。
第一提取模块的卷积层Cg的卷积窗权重记为Wg={Wg1,Wg2,…,Wgi,…,Wgn}。
其中,i=1,2,…,n;n为Cg的输出通道数,Wgi={wgi1,wgi2,…,wgij,…,wgim},j=1,2,…,m;m为Cg的输入通道数。
S22.通过所述第一分类模块对所述第一类特征数据进行识别,获取第一识别数据;
在本实施例中,通过第一分类模块对第一类特征数据进行识别,获取第一类特征数据中每一元素对应的类别,根据获取的类别信息生成第一识别数据。
具体地,第一分类模块可采用全连接层。
S23.通过所述第二提取模块提取所述至少一张待识别图像的第二类特征数据,所述第二提取模块中的权重组与所述第一提取模块中的权重组正交;
在本实施例中,通过第二提取模块提取每一张样本图像的第二类特征数据(特有特征)。进一步地,第二提取模块可包括至少一个卷积层;第二提取模块还可包括至少一个下采样层。
作为举例而非限定,以第二提取模块包括一个卷积层Cs为例进行如下说明:
卷积层Cs用于从样本图像中提取第二类特征数据以便于后续分析。卷积层Cs的卷积窗权重记为Ws={Ws1,Ws2,…,Wsn},n为Cs的输出通道数,Wsn={wsn1,wsn2,…wsnm},m为Cs的输入通道数;
需要说明的是,卷积层Cs的维度与卷积层Cg的维度需保持一致。
由于特有特征是在少数行人中才会出现的,而全局特征是所有行人都具有的,所以可以认为第二类特征数据和第一类特征数据是完全不相关的。
因此,两个完全不相关的卷积层对应的权重组是正交的,即对于每一个输入通道,它对应的权重组乘积之和为0。算式表达如下:
S24.通过所述第三提取模块对所述第二特征数据进行处理获取所述第二特征数据的位置信息;
进一步地,第三提取模块可包括至少一个卷积层;第三提取模块还可包括至少一个下采样层。
作为举例而非限定,以第三提取模块包括一个卷积层Cp为例进行如下说明:
卷积层Cp对卷积层Cs输出的第二特征数据进行分析,获得特有特征的位置掩模Y(即:位置信息),为后续的特有特征提取提供了位置参照。Y是一个h×w的矩阵,h和w各自为原图长宽的1/s,s为第一神经网络的下采样系数。
其中,Q(Y)表示位置信息的相关度;max(Y)表示在矩阵Y中元素最大的值。
S25.根据所述位置信息和所述第二类特征数据采用所述第二分类模型进行识别,获取第二识别数据;
在本实施例中,将位置信息和第二类特征数据相乘后输入至第二分类模型进行识别,获取第二类特征数据中每一元素对应的类别,根据获取的类别信息生成与位置相关的第二识别数据。
具体地,第二分类模型可采用全连接层。
S26.依据所述位置信息的相关度、所述第二识别数据和所述第一识别数据获取所述待识别图像的识别结果。
进一步地,步骤S26依据所述位置信息的相关度、所述第二识别数据和所述第一识别数据获取所述待识别图像的识别结果的步骤,包括:
根据所述位置信息中值最大的元素与预设阈值的关系获得所述位置信息的相关度,当所述元素大于或等于所述预设阈值时,所述相关度为1;当所述元素小于所述预设阈值时,所述相关度为0;
当相关度为1时,将所述第二识别数据和所述第一识别数据进行合并,生成第三识别数据,根据所述第三识别数据计算识别概率,根据所述识别概率获取所述待识别图像的识别结果;
具体地,当相关度为1时,表示全局特征与特有特征不相关,在进行图像识别时,可将全局特征的第一识别数据的维度与特有特征的第二识别数据维度合并,生成经维度合并后的第三识别数据,对该第三识别数据进行计算获取识别概率,根据该识别概率判断待识别图像中的对象与目标图像中的对象是否匹配,生成匹配结果(识别结果)。
当相关度为0时,根据所述第一识别数据计算识别概率,根据所述识别概率获取所述待识别图像的识别结果。
具体地,当相关度为0时,表示全局特征与特有特征相关,在进行图像识别时,可基于全局特征进行识别,因而,对第一识别数据计算获取识别概率,根据该识别概率判断待识别图像中的对象与目标图像中的对象是否匹配,生成匹配结果(识别结果)。
在本实施例中,通过目标识别模型中的第一神经网络提取待识别对象的全局特征,通过目标识别模型中的第二神经网络提取待识别对象的特有特征(区别于全局特征的特征),结合全局特征和特有特征对待识别对象进行识别,进而提升识别的准确性,实现通过目标识别模型快速、准确的锁定目标对象的目的。
行人重识别方法可以在提取行人全局特征的同时,提取特有特征的行人所具有的特有特征。目标识别模型包括了两个神经网络(第一神经网络和第二神经网络),利用卷积层的参数正交,使特有特征和全局特征分离开来,并采用损失函数,满足特有特征的独特性和罕见性的需求。当目标行人不具有特有特征时,只需比较全局特征,并找到最相似行人作为识别结果。而当目标行人具有特有特征时,可以用提取的特有特征进行更为精确的特征比较。因为比较的底库更少,所以比较速度更快,结果也会更为精确。
实施例二
请参阅图7,本实施例的一种行人重识别装置1,包括:接收单元11和识别单元12,其中:
接收单元11,用于接收至少一张待识别图像;
于本实施例中,行人重识别装置1可应用于监控、安防或安保***中,接收单元11可利用采集设备(例如:摄像头、相机或带有摄像功能的移动终端等)接收待识别图像。
识别单元12,用于通过目标识别模型的第一神经网络和第二神经网络对所述待识别图像进行识别,获取识别结果;
需要说明的是:所述第一神经网络的权重组与所述第二神经网络的权重组正交。从而保证第一神经网络提取的全局特征与第二神经网络提取的特有特征不相关。
所述第一神经网络的权重组与所述第二神经网络的权重组正交。
在本实施例中,识别单元12通过所述第一提取模块提取所述至少一张待识别图像的第一类特征数据;通过所述第一分类模块对所述第一类特征数据进行识别,获取第一识别数据;通过所述第二提取模块提取所述至少一张待识别图像的第二类特征数据,所述第二提取模块中的权重组与所述第一提取模块中的权重组正交;通过所述第三提取模块对所述第二特征数据进行处理获取所述第二特征数据的位置信息;根据所述位置信息和所述第二类特征数据采用所述第二分类模型进行识别,获取第二识别数据;依据所述位置信息的相关度、所述第二识别数据和所述第一识别数据获取所述待识别图像的识别结果。
进一步地,识别单元12依据所述位置信息的相关度、所述第二识别数据和所述第一识别数据获取所述待识别图像的识别结果的过程为:
根据所述位置信息中值最大的元素与预设阈值的关系获得所述位置信息的相关度,当所述元素大于或等于所述预设阈值时,所述相关度为1;当所述元素小于所述预设阈值时,所述相关度为0;
当相关度为1时,将所述第二识别数据和所述第一识别数据进行合并,生成第三识别数据,根据所述第三识别数据计算识别概率,根据所述识别概率获取所述待识别图像的识别结果;
具体地,当相关度为1时,表示全局特征与特有特征不相关,在进行图像识别时,可将全局特征的第一识别数据的维度与特有特征的第二识别数据维度合并,生成经维度合并后的第三识别数据,对该第三识别数据进行计算获取识别概率,根据该识别概率判断待识别图像中的对象与目标图像中的对象是否匹配,生成匹配结果(识别结果)。
当相关度为0时,根据所述第一识别数据计算识别概率,根据所述识别概率获取所述待识别图像的识别结果。
具体地,当相关度为0时,表示全局特征与特有特征相关,在进行图像识别时,可基于全局特征进行识别,因而,对第一识别数据计算获取识别概率,根据该识别概率判断待识别图像中的对象与目标图像中的对象是否匹配,生成匹配结果(识别结果)。
在本实施例中,通过目标识别模型中的第一神经网络提取待识别对象的全局特征,通过目标识别模型中的第二神经网络提取待识别对象的特有特征(区别于全局特征的特征),结合全局特征和特有特征对待识别对象进行识别,进而提升识别的准确性,实现通过目标识别模型快速、准确的锁定目标对象的目的。
行人重识别装置1可以在提取行人全局特征的同时,提取特有特征的行人所具有的特有特征。目标识别模型包括了两个神经网络(第一神经网络和第二神经网络),利用卷积层的参数正交,使特有特征和全局特征分离开来,并采用损失函数,满足特有特征的独特性和罕见性的需求。当目标行人不具有特有特征时,只需比较全局特征,并找到最相似行人作为识别结果。而当目标行人具有特有特征时,可以用提取的特有特征进行更为精确的特征比较。因为比较的底库更少,所以比较速度更快,结果也会更为精确。
实施例三
为实现上述目的,本发明还提供一种计算机设备2,该计算机设备2包括多个计算机设备2,实施例二的行人重识别装置1的组成部分可分散于不同的计算机设备2中,计算机设备2可以是执行程序的智能手机、平板电脑、笔记本电脑、台式计算机、机架式服务器、刀片式服务器、塔式服务器或机柜式服务器(包括独立的服务器,或者多个服务器所组成的服务器集群)等。本实施例的计算机设备2至少包括但不限于:可通过***总线相互通信连接的存储器21、处理器23、网络接口22以及行人重识别装置1(参考图8)。需要指出的是,图8仅示出了具有组件-的计算机设备2,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
本实施例中,所述存储器21至少包括一种类型的计算机可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,存储器21可以是计算机设备2的内部存储单元,例如该计算机设备2的硬盘或内存。在另一些实施例中,存储器21也可以是计算机设备2的外部存储设备,例如该计算机设备2上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,所述存储器21还可以既包括计算机设备2的内部存储单元也包括其外部存储设备。本实施例中,存储器21通常用于存储安装于计算机设备2的操作***和各类应用软件,例如实施例一的行人重识别方法的程序代码等。此外,存储器21还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器23在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器23通常用于控制计算机设备2的总体操作例如执行与所述计算机设备2进行数据交互或者通信相关的控制和处理等。本实施例中,所述处理器23用于运行所述存储器21中存储的程序代码或者处理数据,例如运行所述的行人重识别装置1等。
所述网络接口22可包括无线网络接口或有线网络接口,该网络接口22通常用于在所述计算机设备2与其他计算机设备2之间建立通信连接。例如,所述网络接口22用于通过网络将所述计算机设备2与外部终端相连,在所述计算机设备2与外部终端之间的建立数据传输通道和通信连接等。所述网络可以是企业内部网(Intranet)、互联网(Internet)、全球移动通讯***(Global System of Mobile communication,GSM)、宽带码分多址(WidebandCode Division Multiple Access,WCDMA)、4G网络、5G网络、蓝牙(Bluetooth)、Wi-Fi等无线或有线网络。
需要指出的是,图8仅示出了具有部件21-23的计算机设备2,但是应理解的是,并不要求实施所有示出的部件,可以替代的实施更多或者更少的部件。
在本实施例中,存储于存储器21中的所述行人重识别装置1还可以被分割为一个或者多个程序模块,所述一个或者多个程序模块被存储于存储器21中,并由一个或多个处理器(本实施例为处理器23)所执行,以完成本发明。
实施例四:
为实现上述目的,本发明还提供一种计算机可读存储介质,其包括多个存储介质,如闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘、服务器、App应用商城等等,其上存储有计算机程序,程序被处理器23执行时实现相应功能。本实施例的计算机可读存储介质用于存储行人重识别装置1,被处理器23执行时实现实施例一的行人重识别方法。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种行人重识别方法,其特征在于,包括下述步骤:
接收至少一张待识别图像;
通过目标识别模型的第一神经网络和第二神经网络对所述待识别图像进行识别,获取识别结果;
所述第一神经网络的权重组与所述第二神经网络的权重组正交。
2.根据权利要求1所述的行人重识别方法,其特征在于,通过目标识别模型的第一神经网络和第二神经网络对所述待识别图像进行识别,获取识别结果的步骤,之前包括:
获取至少一张目标图像及至少一张样本图像;
采用所述目标图像及至少一张样本图像对识别模型的第三神经网络和第四神经网络进行训练,所述第三神经网络的权重组与所述第四神经网络的权重组正交,获取目标识别模型。
3.根据权利要求2所述的行人重识别方法,其特征在于,所述第三神经网络包括第一提取模块、第一分类模块和第一分类器;
采用所述目标图像及至少一张样本图像对识别模型的第三神经网络进行训练的步骤,包括:
通过所述第一提取模块提取所述至少一张样本图像的第一类特征数据;
通过所述第一分类模块对所述第一类特征数据进行识别,获取第一识别数据;
根据所述第一识别数据通过第一分类器训练至少一张样本图像的梯度,根据所述梯度更新所述第一提取模块和所述第一分类模块的参数值。
4.根据权利要求3所述的行人重识别方法,其特征在于,所述第四神经网络包括:第二提取模块、第三提取模块、第二分类模型和第二分类器;
采用所述目标图像及至少一张样本图像对识别模型的第四神经网络进行训练的步骤,包括:
通过所述第二提取模块提取所述至少一张样本图像的第二类特征数据,所述第二提取模块中的权重组与所述第一提取模块中的权重组正交;
通过所述第三提取模块对所述第二特征数据进行处理获取所述第二特征数据的位置信息;
根据所述位置信息和所述第二类特征数据采用所述第二分类模型进行识别,获取第二识别数据;
依据所述位置信息的相关度及所述第二识别数据通过第二分类器训练至少一张样本图像的梯度,根据所述梯度更新所述第二提取模块、所述第三提取模块和所述第二分类模型的参数值。
5.根据权利要求4所述的行人重识别方法,其特征在于,依据所述位置信息的相关度及所述第二识别数据通过第二分类器训练至少一张样本图像的梯度,根据所述梯度更新所述第二提取模块、所述第三提取模块和所述第二分类模型的参数值的步骤,包括:
根据所述位置信息中值最大的元素与预设阈值的关系获得所述位置信息的相关度,当所述元素大于或等于所述预设阈值时,所述相关度为1;当所述元素小于所述预设阈值时,所述相关度为0;
当相关度为1时,根据所述第二识别数据通过第二分类器训练至少一张样本图像的梯度,根据所述梯度更新所述第二提取模块、所述第三提取模块和所述第二分类模型的参数值。
6.根据权利要求4所述的行人重识别方法,其特征在于,所述第一神经网络包括第一提取模块和第一分类模块;所述第二神经网络包括:第二提取模块、第三提取模块和第二分类模型;
通过目标识别模型的第一神经网络和第二神经网络对所述待识别图像进行识别,获取识别结果的步骤,包括:
通过所述第一提取模块提取所述至少一张待识别图像的第一类特征数据;
通过所述第一分类模块对所述第一类特征数据进行识别,获取第一识别数据;
通过所述第二提取模块提取所述至少一张待识别图像的第二类特征数据,所述第二提取模块中的权重组与所述第一提取模块中的权重组正交;
通过所述第三提取模块对所述第二特征数据进行处理获取所述第二特征数据的位置信息;
根据所述位置信息和所述第二类特征数据采用所述第二分类模型进行识别,获取第二识别数据;
依据所述位置信息的相关度、所述第二识别数据和所述第一识别数据获取所述待识别图像的识别结果。
7.根据权利要求6所述的行人重识别方法,其特征在于,依据所述位置信息的相关度、所述第二识别数据和所述第一识别数据获取所述待识别图像的识别结果的步骤,包括:
根据所述位置信息中值最大的元素与预设阈值的关系获得所述位置信息的相关度,当所述元素大于或等于所述预设阈值时,所述相关度为1;当所述元素小于所述预设阈值时,所述相关度为0;
当相关度为1时,将所述第二识别数据和所述第一识别数据进行合并,生成第三识别数据,根据所述第三识别数据计算识别概率,根据所述识别概率获取所述待识别图像的识别结果;
当相关度为0时,根据所述第一识别数据计算识别概率,根据所述识别概率获取所述待识别图像的识别结果。
8.一种行人重识别装置,其特征在于,包括:
接收单元,用于接收至少一张待识别图像;
识别单元,用于通过目标识别模型的第一神经网络和第二神经网络对所述待识别图像进行识别,获取识别结果;
所述第一神经网络的权重组与所述第二神经网络的权重组正交。
9.一种计算机设备,所述计算机设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,其特征在于:所述处理器执行所述计算机程序时实现权利要求1至7任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于:所述计算机程序被处理器执行时实现权利要求1至7任一项所述方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911046195.2A CN110874574B (zh) | 2019-10-30 | 2019-10-30 | 行人重识别方法、装置、计算机设备及可读存储介质 |
PCT/CN2019/118020 WO2021082078A1 (zh) | 2019-10-30 | 2019-11-13 | 行人重识别方法、装置、计算机设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911046195.2A CN110874574B (zh) | 2019-10-30 | 2019-10-30 | 行人重识别方法、装置、计算机设备及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110874574A true CN110874574A (zh) | 2020-03-10 |
CN110874574B CN110874574B (zh) | 2024-05-07 |
Family
ID=69717988
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911046195.2A Active CN110874574B (zh) | 2019-10-30 | 2019-10-30 | 行人重识别方法、装置、计算机设备及可读存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110874574B (zh) |
WO (1) | WO2021082078A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626156A (zh) * | 2020-05-14 | 2020-09-04 | 电子科技大学 | 一种基于行人掩模和多尺度判别的行人生成方法 |
CN112446311A (zh) * | 2020-11-19 | 2021-03-05 | 杭州趣链科技有限公司 | 对象重识别方法、电子设备、存储介质及装置 |
CN112528822A (zh) * | 2020-12-04 | 2021-03-19 | 湖北工业大学 | 一种基于人脸识别技术的老弱人群寻路导识装置及方法 |
CN113627352A (zh) * | 2021-08-12 | 2021-11-09 | 塔里木大学 | 一种行人重识别方法和*** |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113139496A (zh) * | 2021-05-08 | 2021-07-20 | 青岛根尖智能科技有限公司 | 一种基于时序多尺度融合的行人重识别方法及*** |
CN113591547A (zh) * | 2021-06-15 | 2021-11-02 | 阿里云计算有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108171319A (zh) * | 2017-12-05 | 2018-06-15 | 南京信息工程大学 | 网络连接自适应深度卷积模型的构建方法 |
CN108875486A (zh) * | 2017-09-28 | 2018-11-23 | 北京旷视科技有限公司 | 目标对象识别方法、装置、***和计算机可读介质 |
CN109740413A (zh) * | 2018-11-14 | 2019-05-10 | 平安科技(深圳)有限公司 | 行人重识别方法、装置、计算机设备及计算机存储介质 |
CN109784182A (zh) * | 2018-12-17 | 2019-05-21 | 北京飞搜科技有限公司 | 行人重识别方法和装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10346726B2 (en) * | 2014-12-15 | 2019-07-09 | Samsung Electronics Co., Ltd. | Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image |
CN107832672B (zh) * | 2017-10-12 | 2020-07-07 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
CN109614853B (zh) * | 2018-10-30 | 2023-05-05 | 国家新闻出版广电总局广播科学研究院 | 一种基于身体结构划分的双线性行人再识别网络构建方法 |
CN109784186B (zh) * | 2018-12-18 | 2020-12-15 | 深圳云天励飞技术有限公司 | 一种行人重识别方法、装置、电子设备及计算机可读存储介质 |
-
2019
- 2019-10-30 CN CN201911046195.2A patent/CN110874574B/zh active Active
- 2019-11-13 WO PCT/CN2019/118020 patent/WO2021082078A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875486A (zh) * | 2017-09-28 | 2018-11-23 | 北京旷视科技有限公司 | 目标对象识别方法、装置、***和计算机可读介质 |
CN108171319A (zh) * | 2017-12-05 | 2018-06-15 | 南京信息工程大学 | 网络连接自适应深度卷积模型的构建方法 |
CN109740413A (zh) * | 2018-11-14 | 2019-05-10 | 平安科技(深圳)有限公司 | 行人重识别方法、装置、计算机设备及计算机存储介质 |
CN109784182A (zh) * | 2018-12-17 | 2019-05-21 | 北京飞搜科技有限公司 | 行人重识别方法和装置 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626156A (zh) * | 2020-05-14 | 2020-09-04 | 电子科技大学 | 一种基于行人掩模和多尺度判别的行人生成方法 |
CN111626156B (zh) * | 2020-05-14 | 2023-05-09 | 电子科技大学 | 一种基于行人掩模和多尺度判别的行人生成方法 |
CN112446311A (zh) * | 2020-11-19 | 2021-03-05 | 杭州趣链科技有限公司 | 对象重识别方法、电子设备、存储介质及装置 |
CN112528822A (zh) * | 2020-12-04 | 2021-03-19 | 湖北工业大学 | 一种基于人脸识别技术的老弱人群寻路导识装置及方法 |
CN112528822B (zh) * | 2020-12-04 | 2021-10-08 | 湖北工业大学 | 一种基于人脸识别技术的老弱人群寻路导识装置及方法 |
CN113627352A (zh) * | 2021-08-12 | 2021-11-09 | 塔里木大学 | 一种行人重识别方法和*** |
Also Published As
Publication number | Publication date |
---|---|
CN110874574B (zh) | 2024-05-07 |
WO2021082078A1 (zh) | 2021-05-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110874574B (zh) | 行人重识别方法、装置、计算机设备及可读存储介质 | |
WO2020098250A1 (zh) | 字符识别方法、服务器及计算机可读存储介质 | |
CN112950581B (zh) | 质量评估方法、装置和电子设备 | |
CN110197146B (zh) | 基于深度学习的人脸图像分析方法、电子装置及存储介质 | |
CN110532884B (zh) | 行人重识别方法、装置及计算机可读存储介质 | |
CN110362677B (zh) | 文本数据类别的识别方法及装置、存储介质、计算机设备 | |
CN110751041A (zh) | 证件真伪验证方法、***、计算机设备及可读存储介质 | |
CN110378301B (zh) | 行人重识别方法及*** | |
CN109409377B (zh) | 图像中文字的检测方法及装置 | |
WO2021027142A1 (zh) | 图片分类模型训练方法、***和计算机设备 | |
CN110163061B (zh) | 用于提取视频指纹的方法、装置、设备和计算机可读介质 | |
CN112418360B (zh) | 卷积神经网络的训练方法、行人属性识别方法及相关设备 | |
CN111104841A (zh) | 暴力行为检测方法及*** | |
CN111476310B (zh) | 一种图像分类方法、装置及设备 | |
CN115731422A (zh) | 多标签分类模型的训练方法、分类方法及装置 | |
CN112183542A (zh) | 基于文本图像的识别方法、装置、设备和介质 | |
CN113962199B (zh) | 文本识别方法、装置、设备、存储介质及程序产品 | |
CN114299304A (zh) | 一种图像处理方法及相关设备 | |
CN112949706B (zh) | Ocr训练数据生成方法、装置、计算机设备及存储介质 | |
CN113723359A (zh) | 用户情绪识别方法、装置、计算机设备及可读存储介质 | |
CN111428732B (zh) | Yuv图像识别方法、***和计算机设备 | |
CN112434049A (zh) | 表格数据存储方法、装置、存储介质及电子装置 | |
CN115019057A (zh) | 图像特征提取模型确定方法及装置、图像识别方法及装置 | |
CN115984977A (zh) | 活体检测方法和*** | |
CN114549502A (zh) | 一种人脸质量评估的方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |