CN110188646B - 基于梯度方向直方图与局部二值模式融合的人耳识别方法 - Google Patents
基于梯度方向直方图与局部二值模式融合的人耳识别方法 Download PDFInfo
- Publication number
- CN110188646B CN110188646B CN201910433620.7A CN201910433620A CN110188646B CN 110188646 B CN110188646 B CN 110188646B CN 201910433620 A CN201910433620 A CN 201910433620A CN 110188646 B CN110188646 B CN 110188646B
- Authority
- CN
- China
- Prior art keywords
- human ear
- image
- value
- pixel
- binary pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于梯度方向直方图与局部二值模式融合的人耳识别方法,解决了从人耳图像中进行人耳识别识别率不高的问题。本发明首先提取出图像的梯度方向直方图,并用主成分分析法进行降维,再用局部二值模式提取出图像的纹理特征,然后将两个特征融合,最后使用最小距离分类器进行分类。本发明通过多特征融合,提高了人耳识别的识别率,具有良好的实施性与实效性。
Description
技术领域
本发明涉及一种基于梯度方向直方图与局部二值模式融合的人耳识别方法,属于生物特征识别、深度学习、人工智能等交叉技术领域。
背景技术
人耳识别作为一种新的生物特征识别技术,其理论与应用研究在近两年受到了国内外学者更多的关注,具有重要的理论意义与实际应用价值。
人耳识别是以人耳图像作为研究对象进行特征识别,既可作为其他生物识别技术的有益补充,也可以单独应用于个体身份识别的场合。在基于生物特征的身份识别技术中,人耳识别具有众多优点,如人耳图像尺寸小、计算量小,外耳的颜色分布一致,在转换为灰度图像时信息丢失少,人耳不受表情变化的影响,可以实现非打扰式识别等。
目前人耳识别的方法按照所提取的特征来划分可以归纳为两大类:一类是基于几何特征的方法这类方法通过寻找人耳轮廓和内部结构的关键点,构建几何特征。这类方法易受光照、成像角度影响,鲁棒性较差。一类是基于代数特征的方法,例如主元分析法、不变矩Ⅲ方法、小波变换方法等。这些方法在人耳姿态变化不大、图像质量较好的情况下取得了满意的结果。然而当人耳有旋转角度变化时,其二维图像会带来较大的变形,这时传统方法的识别率会急剧下降,因此更具成本效益且更准确的人耳识别方法,还需要进行大量的研究工作。
发明内容
技术问题:本发明所要解决的技术问题是如何对输入的人耳图像使用最小距离分类器进行人耳识别,以提高对人耳识别的训练速度和准确度。
技术方案:本发明的一种基于梯度方向直方图与局部二值模式融合的人耳识别方法,包括以下步骤:
步骤1)从人耳图像库中获取人耳的图像;
步骤2)计算人耳图像中每个像素上的特征值,分块并标准化后得到人耳图像的梯度方向直方图特征;
步骤3)用主成分分析法对人耳图像的梯度方向直方图进行空间变换,使原来的坐标投影到一个新的维度较低的并且相互正交的空间上,实现对人耳图像的梯度方向直方图特征的降维;
步骤4)计算人耳图像上每个像素的局部二值模式值,得到人耳图像的局部二值模式特征;
步骤5)将梯度方向直方图特征和局部二值模式特征的特征向量进行级联,得到新的特征向量,实现特征融合;
步骤6)输入到最小距离分类器进行分类、识别。
其中,
所述步骤2)具体如下:
步骤21)对步骤1)中获取的人耳图像进行颜色标准化处理,统一将图像转换成灰度图像,其转换公式为:H(x,y)=0.3*R(x,y)+0.59*G(x,y)+0.11*B(x,y),其中R(x,y)、G(x,y)、B(x,y)分别是图像中每个像素点的红、绿、蓝的色彩值,H(x,y)表示每个像素点的灰度值。
步骤22)使用Sobel算子计算图像各个像素梯度的模值和方向角:
其中,G(x,y)表示像素点的梯度幅值,α(x,y)表示像素点的梯度方向,H(x,y)表示像素点的灰度值。
步骤23)空间和方向单元格带权投票。首先计算方向权值:x(i)=cos(θ),y(i)=sin(θ),θ=θ+π/(Ndirection+1),其中:i为方向序号;θ为角度,初值为0;x(i)为x轴差分在i方向的权值;y(i)为y轴差分在i方向的权值,Ndirection为总的方向数,一般设置为9;
步骤24)计算幅度和方向,幅度是x或y轴的图像差分的均方值,方向值取为各个方向上的带权最大值;
步骤25)构建块并标准化,将单元格中的特征汇总组合成块,计算方法为: 其中B(x)、B(y)分别表示块x轴总数值和y轴总数值,C(x)、C(y)分别代表单元格x轴总数值和y轴总数值,B(size)为块的大小,B(step)是块变化的步长;
步骤26)将不同方向和块上的特征值汇总,构建图像的方向梯度直方图。
所述步骤3)具体如下:
步骤33)取协方差矩阵前p个主成分,对人耳图像中每一个梯度方向直方图特征值进行特征降维,得到人耳图像的主成分分析法降维的梯度方向直方图特征,向量维数为p维。特征降维方法为其中y表示主成分特征。p根据实际情况通过实验获得,过大速度会慢,过小会影响准确率。
所述步骤4)具体如下:
步骤41)定义3×3窗口的中心像素为阈值,将剩余8个像素的灰度值依次与阈值比较,大于中心像素点的标记为1,否则标记为0,组成8位二进制数即为此窗口的局部二值模式值的二进制表示。其中(xc,yc)代表3×3邻域的中心元素,它的像素值为ic,ip表示邻域内其他像素的值,s(x)是符号函数,当x≥0时为1,否则为0,LBP(xc,yc)是中心像素的局部二值模式值的二进制表示。
步骤42)将每个像素的LBP(xc,yc)转换成十进制数得到最终的局部二值模式值,汇总后得到人耳图像的局部二值模式特征。
所述步骤6)具体如下:
将待识别人耳图像与若干个已知分类的人耳图像分别经过步骤2至5处理后得到的特征向量输入最小距离分类器中,分别计算待识别人耳图像的特征向量与各个已知分类的人耳图像的特征向量之间的距离,最小距离对应的分类即为待识别人耳图像的分类。距离计算公式如下:
其中d(i)为待识别人耳图像与第i个已知分类的人耳图像之间的距离,t1(i)为第i个已知分类的人耳图像的第一特征向量,p1为待识别人耳图像的第一特征向量,tn(i)为第i个已知分类的图像的第n个特征向量,pn为待识别图像的第n个特征向量。
有益效果:本发明采用以上技术方案与现有技术相比,具有以下技术效果:
本发明使用了主成分分析法对梯度方向直方图特征进行降维,过滤掉了大量的冗余信息,大大提高了人耳识别的准确性,同时降低了特征向量的维数,提高了人耳识别的速度;本发明使用局部二值模式特征和梯度方向直方图特征进行融合,克服了一些噪声的干扰,日高了特征向量的鲁棒性,提高了人耳识别算法的稳定性,相比于使用单一特征进行识别,本发明识别率更高;本发明采用最小距离分类器,计算复杂度更低,速度更快。通过这些方法的应用,提高了人耳识别的准确性和稳定性,同时降低了计算复杂度,使***具有较高的成本效益,具体来说:
(1)本发明采用多特征融合进行分类识别,相比单一特征,具有更高的准确性。
(2)本发明使用了主成分分析法对梯度方向直方图特征进行降维,过滤掉了大量的冗余信息,大大提高了人耳识别的准确性。
(3)本发明使用局部二值模式特征和梯度方向直方图特征,克服了一些噪声的干扰,日高了特征向量的鲁棒性,提高了人耳识别算法的稳定性。
(4)本发明使用了主成分分析法对梯度方向直方图特征进行降维,相比传统的梯度方向直方图特征,降低了特征向量的维数,提高了整个人耳识别的速度。
(5)本发明采用的基于欧氏距离的最小距离分类器,相比其他分类器,计算复杂度更低,提高了人耳识别的速度。
附图说明
图1是基于卷积神经网络的人体行为识别方法流程。
具体实施方式
在具体实施中,图1是基于卷积神经网络的人体行为识别方法流程。
本实例使用北京科技大学人耳实验库为实验对象,包含77人的人耳图像。人耳库中每个人耳有四张人耳图像,分别是:正常情况下人耳的正面图像、人耳+30度和-30度旋转的图像,人耳在光照变暗条件下的正面图像。
在具体实施中,每人有4幅人耳图像,其中3幅图像用于训练,1幅图像用于测试。
首先,将每人的3幅人耳图像输入到***,进行颜色标准化处理,使用H(x,y)=0.3*R(x,y)+0.59*G(x,y)+0.11*B(x,y)将图像转换成灰度图像,其中R(x,y)、G(x,y)、B(x,y)分别是图像中每个像素点的红、绿、蓝的色彩值,H(x,y)表示每个像素点的灰度值;使用Sobel算子计算图像各个像素梯度的模值和方向角;计算方向权值、幅度和方向,幅度是x或y轴的图像差分的均方值,方向值取为各个方向上的带权最大值;构建块并标准化,将单元格中的特征汇总组合成块,计算方法为: 其中B(x)、B(y)分别表示块x轴总数值和y轴总数值,C(x)、C(y)分别代表单元格x轴总数值和y轴总数值,B(size)为块的大小,B(step)是块变化的步长;将不同方向和块上的特征值汇总,构建图像的方向梯度直方图。
接着,用主成分分析法对人耳图像的梯度方向直方图进行空间变换,使原来的坐标投影到一个新的维度较低的并且相互正交的空间上,实现对人耳图像的梯度方向直方图特征的降维。具体方法是根据计算协方差矩阵,其中xi为需要降维的特征,为人耳图像梯度方向直方图特征的均值,UT为协方差矩阵。取协方差矩阵前p个主成分,对人耳图像中每一个梯度方向直方图特征值,用进行特征降维,得到人耳图像的主成分分析法降维的梯度方向直方图特征,其中向量维数为p维,y表示主成分特征。
然后,定义3×3窗口的中心像素为阈值,将剩余8个像素的灰度值依次与阈值比较,大于中心像素点的标记为1,否则标记为0,组成8位二进制数即为此窗口的局部二值模式值的二进制表示。其中(xc,yc)代表3×3邻域的中心元素,它的像素值为ic,ip表示邻域内其他像素的值,s(x)是符号函数,当x≥0时为1,否则为0,LBP(xc,yc)是中心像素的局部二值模式值的二进制表示,再将其转换成十进制数得到最终的局部二值模式值,得到人耳图像的局部二值模式特征。
最后,将梯度方向直方图特征和局部二值模式特征的特征向量进行级联,得到新的特征向量,实现特征融合,将其输入到最小距离分类器进行分类、识别。
具体方法为:将待识别人耳图像与若干个已知分类的人耳图像分别经过上述步骤处理后得到的特征向量输入最小距离分类器中,分别计算待识别人耳图像的特征向量与各个已知分类的人耳图像的特征向量之间的距离,最小距离对应的分类即为待识别人耳图像的分类。距离计算公式如下:
其中d(i)为待识别人耳图像与第i个已知分类的人耳图像之间的距离,t1(i)为第i个已知分类的人耳图像的第一特征向量,p1为待识别人耳图像的第一特征向量,tn(i)为第i个已知分类的图像的第n个特征向量,pn为待识别图像的第n个特征向量。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (3)
1.一种基于梯度方向直方图与局部二值模式融合的人耳识别方法,其特征在于,包括以下步骤:
步骤1)采集若干个已知分类的人耳图像;
步骤2)计算人耳图像中每个像素上的特征值,分块并标准化后得到人耳图像的梯度方向直方图特征;
步骤3)用主成分分析法对人耳图像的梯度方向直方图进行空间变换,使原来的坐标投影到一个新的维度较低的并且相互正交的空间上,实现对人耳图像的梯度方向直方图特征的降维;
步骤4)计算人耳图像上每个像素的局部二值模式值,得到人耳图像的局部二值模式特征;
步骤5)将降维后的梯度方向直方图特征和局部二值模式特征的特征进行级联,得到新的特征向量,实现特征融合;
步骤6)将待识别人耳图像与若干个已知分类的人耳图像分别经过步骤2)至5)处理后得到的特征向量输入最小距离分类器中,计算待识别人耳图像的特征向量与各个已知分类的人耳图像的特征向量之间的距离,最小距离对应的分类即为待识别人耳图像的分类;
所述步骤2)具体如下:
步骤21)对步骤1)中获取的人耳图像进行颜色标准化处理,统一将图像转换成灰度图像,其转换公式为:H(x,y)=0.3*R(x,y)+0.59*G(x,y)+0.11*B(x,y),其中R(x,y)、G(x,y)、B(x,y)分别是图像中每个像素点的红、绿、蓝的色彩值,H(x,y)表示每个像素点的灰度值;
步骤22)使用Sobel算子计算图像各个像素梯度的模值和方向角:
其中,G(x,y)表示像素点的梯度幅值,α(x,y)表示像素点的梯度方向,H(x,y)表示像素点的灰度值;
步骤23)空间和方向单元格带权投票;首先计算方向权值:x(i)=cos(θ),y(i)=sin(θ),θ=θ+π/(Ndirection+1),其中:i为方向序号;θ为角度,初值为0;x(i)为x轴差分在i方向的权值;y(i)为y轴差分在i方向的权值,Ndirection为总的方向数;
步骤24)计算幅度和方向,幅度是x或y轴的图像差分的均方值,方向值取为各个方向上的带权最大值;
步骤25)构建块并标准化,将单元格中的特征汇总组合成块,计算方法为: 其中B(x)、B(y)分别表示块x轴总数值和y轴总数值,C(x)、C(y)分别代表单元格x轴总数值和y轴总数值,B(size)为块的大小,B(step)是块变化的步长;
步骤26)将不同方向和块上的特征值汇总,构建图像的方向梯度直方图。
3.根据权利要求1所述的一种基于梯度方向直方图与局部二值模式融合的人耳识别方法,其特征在于,所述步骤4)具体如下:
步骤41)定义3×3窗口的中心像素为阈值,将剩余8个像素的灰度值依次与阈值比较,大于中心像素点的标记为1,否则标记为0,组成8位二进制数即为此窗口的局部二值模式值的二进制表示;其中(xc,yc)代表3×3邻域的中心元素,它的像素值为ic,ip表示邻域内其他像素的值,s(x)是符号函数,当x≥0时为1,否则为0,LBP(xc,yc)是中心像素的局部二值模式值的二进制表示;
步骤42)将每个像素的LBP(xc,yc)转换成十进制数得到最终的局部二值模式值,汇总后得到人耳图像的局部二值模式特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910433620.7A CN110188646B (zh) | 2019-05-23 | 2019-05-23 | 基于梯度方向直方图与局部二值模式融合的人耳识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910433620.7A CN110188646B (zh) | 2019-05-23 | 2019-05-23 | 基于梯度方向直方图与局部二值模式融合的人耳识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110188646A CN110188646A (zh) | 2019-08-30 |
CN110188646B true CN110188646B (zh) | 2022-08-02 |
Family
ID=67717439
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910433620.7A Active CN110188646B (zh) | 2019-05-23 | 2019-05-23 | 基于梯度方向直方图与局部二值模式融合的人耳识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110188646B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111461147B (zh) * | 2020-04-30 | 2023-05-23 | 柳州智视科技有限公司 | 一种基于图像特征的二进制编码组织算法 |
CN111967531B (zh) * | 2020-08-28 | 2022-09-16 | 南京邮电大学 | 一种基于多特征融合的高精度室内图像定位方法 |
CN115547475A (zh) * | 2022-12-05 | 2022-12-30 | 医修技术服务(北京)有限公司 | 一种基于称重型医用耗材管理柜的智能自动控制方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106599870A (zh) * | 2016-12-22 | 2017-04-26 | 山东大学 | 一种基于自适应加权局部特征融合的人脸识别方法 |
CN107066958A (zh) * | 2017-03-29 | 2017-08-18 | 南京邮电大学 | 一种基于hog特征和svm多分类器的人脸识别方法 |
CN107578007A (zh) * | 2017-09-01 | 2018-01-12 | 杭州电子科技大学 | 一种基于多特征融合的深度学习人脸识别方法 |
CN108549868A (zh) * | 2018-04-12 | 2018-09-18 | 中国矿业大学 | 一种行人检测方法 |
-
2019
- 2019-05-23 CN CN201910433620.7A patent/CN110188646B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106599870A (zh) * | 2016-12-22 | 2017-04-26 | 山东大学 | 一种基于自适应加权局部特征融合的人脸识别方法 |
CN107066958A (zh) * | 2017-03-29 | 2017-08-18 | 南京邮电大学 | 一种基于hog特征和svm多分类器的人脸识别方法 |
CN107578007A (zh) * | 2017-09-01 | 2018-01-12 | 杭州电子科技大学 | 一种基于多特征融合的深度学习人脸识别方法 |
CN108549868A (zh) * | 2018-04-12 | 2018-09-18 | 中国矿业大学 | 一种行人检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110188646A (zh) | 2019-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108537743B (zh) | 一种基于生成对抗网络的面部图像增强方法 | |
CN106778586B (zh) | 离线手写签名鉴别方法及*** | |
CN103605972B (zh) | 一种基于分块深度神经网络的非限制环境人脸验证方法 | |
CN110188646B (zh) | 基于梯度方向直方图与局部二值模式融合的人耳识别方法 | |
CN111126240B (zh) | 一种三通道特征融合人脸识别方法 | |
CN111582044A (zh) | 基于卷积神经网络和注意力模型的人脸识别方法 | |
CN112232184B (zh) | 一种基于深度学习和空间转换网络的多角度人脸识别方法 | |
CN111709313B (zh) | 基于局部和通道组合特征的行人重识别方法 | |
CN108108760A (zh) | 一种快速人脸识别方法 | |
CN112836671B (zh) | 一种基于最大化比率和线性判别分析的数据降维方法 | |
CN110647820B (zh) | 基于特征空间超分辨映射的低分辨率人脸识别方法 | |
CN111401156B (zh) | 基于Gabor卷积神经网络的图像识别方法 | |
CN113239839B (zh) | 基于dca人脸特征融合的表情识别方法 | |
CN111832405A (zh) | 一种基于hog和深度残差网络的人脸识别方法 | |
CN109002770B (zh) | 一种低分辨率条件下的人脸识别方法 | |
CN104573672A (zh) | 一种基于邻域保持的鉴别嵌入人脸识别方法 | |
CN106250811A (zh) | 基于hog特征稀疏表示的非约束人脸识别方法 | |
CN103714340A (zh) | 基于图像分块的自适应特征提取方法 | |
Fengxiang | Face Recognition Based on Wavelet Transform and Regional Directional Weighted Local Binary Pattern. | |
CN107578005A (zh) | 一种复数小波变换域lbp人脸识别方法 | |
CN103942572A (zh) | 一种基于双向压缩数据空间维度缩减的面部表情特征提取方法和装置 | |
CN103942545A (zh) | 一种基于双向压缩数据空间维度缩减的人脸识别方法和装置 | |
CN111695450A (zh) | 一种基于IMobileNet的人脸快速识别方法 | |
Li et al. | Discriminative weighted sparse partial least squares for human detection | |
CN105718858A (zh) | 一种基于正负广义最大池化的行人识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |