CN109614928B - 基于有限训练数据的熊猫脸部识别方法 - Google Patents
基于有限训练数据的熊猫脸部识别方法 Download PDFInfo
- Publication number
- CN109614928B CN109614928B CN201811500473.2A CN201811500473A CN109614928B CN 109614928 B CN109614928 B CN 109614928B CN 201811500473 A CN201811500473 A CN 201811500473A CN 109614928 B CN109614928 B CN 109614928B
- Authority
- CN
- China
- Prior art keywords
- panda
- image
- panda face
- face
- face image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 208000025174 PANDAS Diseases 0.000 title claims abstract description 166
- 208000021155 Paediatric autoimmune neuropsychiatric disorders associated with streptococcal infection Diseases 0.000 title claims abstract description 166
- 240000004718 Panda Species 0.000 title claims abstract description 166
- 235000016496 Panda oleosa Nutrition 0.000 title claims abstract description 166
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000012549 training Methods 0.000 title claims abstract description 26
- 238000012360 testing method Methods 0.000 claims abstract description 20
- 238000001514 detection method Methods 0.000 claims abstract description 17
- 230000011218 segmentation Effects 0.000 claims abstract description 10
- 238000010238 partial least squares regression Methods 0.000 claims abstract description 8
- 238000002790 cross-validation Methods 0.000 claims abstract description 5
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 11
- 230000009466 transformation Effects 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 4
- 230000002349 favourable effect Effects 0.000 abstract 1
- 239000013598 vector Substances 0.000 description 10
- 238000002474 experimental method Methods 0.000 description 8
- 238000012795 verification Methods 0.000 description 7
- 210000000887 face Anatomy 0.000 description 6
- 241001465754 Metazoa Species 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 238000011835 investigation Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 241000282452 Ailuropoda melanoleuca Species 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000009545 invasion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000005067 remediation Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/02—Affine transformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于有限训练数据的熊猫脸部识别方法,首先输入原始熊猫图像并进行手动熊猫脸部分割,对分割后的熊猫脸部图像进行边界检测,找到每张脸部图像之间对应的关键点;提取熊猫脸部图像特征,将所有其它图像与目标图像进行关键点对齐后使用偏最小二乘回归作为分类器,输入正负样本为每个熊猫脸部图像单独训练分类器;用留一交叉验证进行测试,完成熊猫脸部识别模型建立。本发明用脸部边缘进行算法执行,使用偏最小二乘回归作为分类器,可限制所需的熊猫数量和每只熊猫的训练图像数量,在熊猫个体及图像数量有限的基础上更有助于熊猫脸部的准确有效识别。
Description
技术领域
本发明属于图像分析技术领域,具体涉及熊猫的脸部图像识别分析领域。
背景技术
大熊猫(Ailuropodamelanoleuca)是我国特有的珍稀濒危动物,是国际野生动物保护的旗舰物种,保护、繁殖作为“中国活化石”的大熊猫、推动野生动物保护可持续发展是我们的职责、义务,也是我们最基本、重要的工作。为更好、更有效地保护大熊猫,国家从1974年起,每十年进行一次全国调查。至今为止,我国一共开展了四次全国大熊猫调查。据2015年2月国家***公布的全国第四次大熊猫调查结果显示,截至2013年底,全国野生大熊猫种群数量达1864只,圈养大熊猫种群数量达到375只,野生大熊猫栖息地面积为258万公顷,潜在栖息地91万公顷,分布在四川、陕西、甘肃三省的17个市(州)、49个县(市、区)、196个乡镇。有大熊猫分布和栖息地分布的保护区数量增加到67处(全国第四次大熊猫调查结果公布,中国林业网,[EB/OL])。国家***通过对本次调查与前三次调查的结果对比发现,野生种群数量稳定增长,栖息地范围明显扩大,圈养种群规模快速发展,保护管理能力逐步增强。这无疑是对大熊猫保护工作的肯定。
但国家***也同时指出,部分大熊猫局域种群面临生存风险,栖息地破碎化严重,圈养大熊猫种群间遗传交流不足,保护形势依然十分严峻。另,据《今日美国》2017年9月25日报道称,“研究人员报告说,中国大熊猫栖息地在过去30年里一直在萎缩和***。”中科院生态环境研究中心欧阳志云教授、杜克大学的斯图尔特·皮默等研究者发表在《NatureEcology&Evolution》的“Reassessing the conservation status of the giant pandausing remote sensing”中研究了1976年到2013年整个大熊猫所在地理范围的变化,指出由于地震、人类侵占、农业、筑路和伐木等造成大熊猫栖息地划分为更小面积,栖息地正在碎片化。皮默指出,野生大熊猫繁殖可能受到严重影响,需要对此密切关注。面对以上严峻的形势,完全依赖于10年一次、耗时4年左右的全国调查,可能会出现数据、信息滞后,延误改善、补救的时间,造成不可估量的后果。寻找、研究更有效的调查、保护大熊猫的技术迫在眉睫。其中,高效、准确计算野生大熊猫的数量、分布情况是非常紧迫、重要的任务。
目前大熊猫检测方面主要集中于基于图像的方法。其中,加州大学圣迭戈分校SVC实验室的研究者Vasconcelos等利用深度学习框架进行了大熊猫检测,对从圣地亚哥动物园采集的为数不多大熊猫数据进行了验证。Han和Vasconcelos研究了无定型形状的野外目标检测问题,并以熊猫作为样例进行了测试。该方法通过建立一个两层的网络来模拟神经生理学模型检测目标,结果显示用两层神经元可以达到实时检测。国内,陈娟等提出了基于拓扑建模的熊猫脸部区域检测的方法,检测结果良好,但作者未将数据来源明确交代,造成无法重现实验问题。同年,陈娟提出了大熊猫头部检测方法[1],根据颜色信息找到可能的大熊猫皮肤区域然后采用区域生长和KNN聚类算法来定位头部。Zhang等在IEEETransaction on Image Processing[2]也发表了关于动物头部检测的方法。黄佳棋等在[3]采用灰度空间的阈值分割方法对熊猫个体进行了分割。北京林业大学学生曾陈颖在其毕业论文[4]研究了面向珍稀野生动物保护的图像监测与识别技术,重点研究了检测问题,同时在论文中提出了基于BP神经网络的图像识别算法,但此部分内容阐述显单薄,未能将具体方法详细介绍,且数据集未明确交代。此外,陈娟等对熊猫姿态进行了研究[5],利用大熊猫不同姿态的几何长宽比对其姿态进行了判断。
如前所述,现有的熊猫图像分析工作大多不用于验证或鉴别,曾陈颖[4]及陈娟[1]等适用于熊猫识别。在他们的工作中主要用了熊猫的步态。与他们有本质的区别,我们采用了熊猫脸。在我们的工作中,我们采用了熊猫眼睛、鼻子和嘴来实现配准及提取大量的特征,最后使用了线性分类器。由于熊猫个体及图像数量的有限问题,本方法将有助于大熊猫验证。
[1]Chen J,Wen Q,Zhuo C,et al.A novel approach towards head detectionof giant pandas in the free-range environment[C]//International Congress onImage and Signal Processing.IEEE,2013:814-818.
[2]Zhang W,Sun J,Tang X.From tiger to panda:animal head detection.[J].IEEE Transactions on Image ProcessingA Publication ofthe IEEE SignalProcessing Society,2011,20(6):1696-708.
[3]黄佳琪,王雪琴,曾陈颖,等.基于灰度空间大熊猫图像分割方法研究[J].科技资讯,2014,12(7):11-14.
[4]曾陈颖.面向珍稀野生动物保护的图像监测与识别技术研究[D].北京林业大学,2015.
[5]Chen J,Wen Q,Zhuo C,et al.Pose recognition of giant pandas basedon gradient shapes[C]//International Conference on Computational Problem-Solving.IEEE.2012:358-362.
发明内容
本发明的目的在于:目前熊猫识别方法未基于熊猫脸部特征识别熊猫,且目前检测中采用非线性分类器,这容易过度学习,且还要求大型数据库进行训练,由于熊猫个体及图像数量的有限,故不利于熊猫识别验证,为解决上述问题,提出一种基于有限训练数据的熊猫脸部识别方法,可限制所需的熊猫数量和每只熊猫的训练图像数量,通过熊猫脸部独有的特征数据检测识别熊猫脸部,进而实现对熊猫的精确识别。
本发明采用的技术方案如下:
基于有限训练数据的熊猫脸部识别方法,方法步骤如下:
步骤1、输入手动分割后的熊猫脸部图像,对熊猫脸部图像进行边界检测,将检测到的边界上的所有点视为关键点,找到每张熊猫脸部图像之间对应的关键点,并确定可对齐不同图像之间关键点的仿射变换;
步骤2、从能够覆盖熊猫脸部的七种网格的每个块中抽取LBP和Gabor直方图作为特征,对于给定的熊猫A,它的图像被视为正样本,其他熊猫的图像被视为负样本;
步骤3、定义来自特定熊猫的正样本为目标图像,来自其他熊猫的负样本为其他图像,基于步骤1中确定的仿射变换将所有其它图像与目标图像进行关键点对齐,然后使用偏最小二乘回归作为分类器,分别输入每个熊猫脸部图像的正负样本,为每个熊猫脸部图像单独训练分类器;步骤4、采用留一交叉验证对熊猫脸部图像在步骤3得到的分类器上进行测试,完成熊猫脸部识别模型建立,输入待检测图像到模型中,得到熊猫脸部识别结果。
进一步,所述步骤1中熊猫脸部图像进行的手动分割处理包括:对熊猫图像进行超像素分割,将覆盖脸部区域的超像素标记为前景,将其余超像素标记为背景,并将分割后的熊猫脸部图像以0.5比例缩小。
进一步,所述步骤1中采用Sobel过滤器,以0.1为阈值对分割处理后的熊猫脸部图像进行边界检测。
进一步,所述步骤1中使用CPD配准算法找到分割后的每张熊猫脸部图像之间对应的关键点。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
1、本发明中,通过熊猫脸部独有的特征数据识别熊猫脸部,由于熊猫脸始终是黑白的,可以使用脸部的所有边缘进行算法执行,采用脸部边缘对齐可以最小化熊猫脸的变化,实现对熊猫的精确识别,本发明方法中可限制所需的熊猫数量和每只熊猫的训练图像数量,在熊猫个体及图像数量有限的基础背景下本方法更有助于熊猫脸部的准确有效识别,且本发明使用大型特征集可以提取丰富的特征,避免使用非线性分类器(例如神经网络)从而容易学习过度产生过拟合,而且需要大型数据库来进行训练的问题,大型特征集还可以避免使用核方法,例如核函数支持向量机,也会存在学习过度。
2、本发明中,使用熊猫脸部边缘进行算法执行,也可以消除手动注释的需求。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明方法流程图;
图2为本发明方法输入的熊猫脸部图像例子;
图3为本发明方法具体实施方式中从由七种网格定义的不同的块中提取到的特征的类型;
图4为本发明验证实验验证结果的ROC曲线和识别实验识别结果的CMC曲线。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明,即所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,术语“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以下结合实施例对本发明的特征和性能作进一步的详细描述。
基于有限训练数据的熊猫脸部识别方法,方法步骤如下:
步骤1输入手动分割后的熊猫脸部图像,对熊猫脸部图像进行边界检测,将检测到的边界上的所有点视为关键点,使用CPD配准算法找到每张熊猫脸部图像之间对应的关键点,并确定可对齐不同图像之间关键点的仿射变换。
仿射变换,又称仿射映射,是指在几何中,一个向量空间进行一次线性变换并接上一个平移,变换为另一个向量空间。
假设x与y为任意两张熊猫脸部的关键点集的列向量。其仿射变换矩阵A定义为:
y=Ax+b,
该表达式在齐次坐标上等价于:
步骤2、从能够覆盖熊猫脸部的七个网格的每个块中抽取LBP和Gabor直方图作为特征,对于给定的熊猫A,它的图像被视为正样本,其他熊猫的图像被视为负样本;
步骤3、定义来自特定熊猫的正样本为目标图像,来自其他熊猫的负样本为其他图像,基于步骤1中确定的仿射变换将所有其它图像与目标图像进行关键点对齐,然后使用偏最小二乘回归作为分类器,分别输入每个熊猫脸部图像的正负样本,为每个熊猫脸部图像单独训练分类器;
步骤4、采用留一交叉验证对熊猫脸部图像进行分类器测试,完成熊猫脸部识别模型建立,输入待检测图像到模型中,得到熊猫脸部识别结果。
方法流程图如图1所示,方法流程可分为注册阶段和测试阶段。注册阶段对应方法的步骤1-3,测试阶段对应方法的步骤4。分类器注册阶段,这个阶段的任务就是训练生成分类器,其输入是特征和训练样本,输出是分类器的回归系数。分类器测试阶段,这个阶段是使用分类器对待分类项进行分类,其输入是分类器和待分类项,输出是待分类项与类别的映射关系。
所述步骤1具体为:
步骤1.1、输入原始熊猫图像,对熊猫脸部区域进行分割,并将分割后的熊猫脸部图像以0.5比例缩小,熊猫脸部图像的样本图像如图2所示。本算法采用手动分割的方法,该方法是基于超像素的,包含熊猫脸部的超像素被标记为前景,其余超像素被标记为背景。
步骤1.2、采用Sobel过滤器,以0.1的阈值对分割处理后的熊猫脸部图像进行边界检测,将检测到的边界上的所有点视为关键点。
步骤1.3、使用CPD配准算法找到分割后的每张熊猫脸部图像之间对应的关键点,并确定可对齐不同图像之间关键点的仿射变换。
所述步骤2具体为:
从能够覆盖熊猫脸部的七种分割网格中的每个块中抽取LBP和Gabor直方图作为特征,对于给定的熊猫A,它的图像被视为正样本,其他熊猫的图像被视为负样本。
Gabor方向场由下述公式计算得出:
其中,是Gabor滤波器,其方向为θk=kπ/8,正弦成分波长为λmk,椭圆高斯窗口标准差为σm,空间纵横比为γ,尺度指数为m,方向指数为k,表示求一组θk使得φ的值最大化。在具体算法实现中,我们使用了四个尺度以及十六个方向的滤波器。Gabor方向场的计算是基于灰度图像的,将每一个块中提取到的直方图进行级联,构成Gabor特征。
局部二值模式LBPP,R由下述公式计算得出:
其中p表示邻域的下标,P是采样点的数量,R是采样圈的半径,gc是中心像素值,gp是邻域像素值,当0≤x时,s(x)=1,否则s(x)=0。在具体算法实现中,我们使用的是以及 和分别在R,G,B通道上进行计算,将每一个块中提取到的直方图(如图3所示,表中为从由七个网格定义的不同的块中提取到的特征的类型)进行级联,构成LBP特征。
正负样本图像中包含了提取的特征。
所述步骤3具体为:
定义来自特定熊猫的正样本为目标图像,来自其他熊猫的负样本为其他图像,基于步骤1中确定的仿射变换将所有其它图像与目标图像进行关键点对齐,然后使用偏最小二乘回归作为分类器,分别输入每个熊猫脸部图像的正负样本,为每个熊猫脸部图像单独训练分类器,共得163分类器。
偏最小二乘回归在熊猫脸部识别中的具体应用方法如下:
模型:偏最小二乘将矩阵X和向量y分解为:
X=TPT+E (1)
y=UQT+F (2)
训练:矩阵T,P,U,Q由非线性迭代偏最小二乘(NIPALS)算法迭代计算得出。回归系数β由下述公式计算得出:
训练偏最小二乘分类器:分类器由一对全部(one-against-all)的方式进行构建。对于一只目标熊猫脸部图像,其训练特征矩阵定义如下:
其中,xi=[xi,1,xi,2,...,xi,m]是第i行特征向量,n是训练图像数量,m是特征的数量(特征维度)。目标向量y=[y1,y2,...,yn]T是一个列向量,当xi来自目标熊猫类别时yi=1,否则yi=-1。在运行NIPALS算法之前,矩阵X和向量y通过减去相应的平均值并除以相应的标准差来进行标准化。矩阵U和T由带有k个潜在组成部分的NIPALS算法来进行计算。用作目标熊猫脸部图像的分类器的回归系数β由公式(3)计算得出。训练集中的目标熊猫图像的数目为n,因此需要构建n个偏最小二乘分类器。值得注意的是,由于采用全部熊猫脸部与目标熊猫脸部图像进行对齐的策略(all-to-one),每个分类器要构建在不同的矩阵X上。
测试偏最小二乘分类器(识别):我们使用公式(4),也就是回归系数和特征向量的点积,来对测试熊猫图像xtest进行分类测试。对于n个目标熊猫脸部图像应用公式(4)会得到n个对比得分,这些得分按照降序进行排序,便得到了熊猫分类结果的排序。值得注意的是,每个xtest对于不同的目标熊猫脸部是不同的,因为测试熊猫脸部与目标熊猫脸部图像进行了对齐(one-to-one)。这里测试偏最小二乘分类器即为步骤4的测试内容。
所述步骤4具体包括:
采用留一交叉验证对熊猫脸部图像进行分类器测试,即从训练集中抽取一张图像作为探测图像,其余图像分别在162个分类器上测试,完成熊猫脸部识别模型建立,输入待检测图像到模型中,得到熊猫脸部识别结果。
图4(a)和(b)分别为验证和识别两组实验,图4(a)为验证结果的ROC曲线,圆圈所在位置是最优操作点,图4(b)为识别结果的CMC曲线,AUC曲线下的面积为0.94。验证实验得到了922个真实匹配和25484个错误匹配。图4(a)显示了此实验在最优操作点(0.007,0.517)上的接收器工作特性曲线(ROC),曲线下方的面积为0.92。在识别实验中,该算法在1级和5级的正确率分别达到了63.58%和85.80%。图4(b)显示的累积匹配特性曲线(CMC)表明,两组实验的结果表明本方法对于熊猫脸部识别算法的研究和开发都是有积极意义和作用的。
本发明中,采用了熊猫眼睛、鼻子和嘴来实现配准及提取大量的特征,通过熊猫脸部独有的特征数据识别熊猫脸部,由于熊猫脸始终是黑白的,可以使用脸部的所有边缘进行执行算法,采用脸部边缘对齐可以最小化熊猫脸的变化,实现对熊猫的精确识别,本发明方法中采用熊猫脸部图像分割,提取图像特征,再使用偏最小二乘分类器进行训练分类器,可限制所需的熊猫数量和每只熊猫的训练图像数量,在熊猫个体及图像数量有限的基础背景下采用本方法更有助于熊猫脸部的准确有效识别。可以把每只熊猫训练图像的有限数量集定义为每只熊猫的图像数量少于五十张,意思是每只熊猫图像少于五十张都算作有限数量。且本发明使用大型特征集可以提取丰富的特征,避免使用非线性分类器(例如神经网络)从而容易学习过度产生过拟合,而且需要大型数据库来进行训练的问题,大型特征集还可以避免使用核方法,例如核函数支持向量机,也会存在学习过度。本发明中,使用熊猫脸部边缘进行算法执行,也可以消除手动注释的需求。
以上所述仅为本发明的较佳实施方式而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.基于有限训练数据的熊猫脸部识别方法,其特征在于:方法步骤如下:
步骤1、输入手动分割后的熊猫脸部图像,对熊猫脸部图像进行边界检测,基于熊猫脸是黑白的,使用脸部的所有边缘进行算法执行,将检测到的边界上的所有点视为关键点,找到每张熊猫脸部图像之间对应的关键点,并确定可对齐不同图像之间关键点的仿射变换;
步骤2、从能够覆盖熊猫脸部的七种网格中的每个块中抽取LBP和Gabor直方图作为特征,对于给定的熊猫A,它的图像被视为正样本,其他熊猫的图像被视为负样本;
步骤3、定义来自特定熊猫的正样本为目标图像,来自其他熊猫的负样本为其他图像,基于步骤1中确定的仿射变换将所有其它图像与目标图像进行关键点对齐,然后使用偏最小二乘回归作为分类器,分别输入每个熊猫脸部图像的正负样本为每个熊猫脸部图像单独训练分类器;
步骤4、采用留一交叉验证对熊猫脸部图像在步骤3得到的分类器上进行测试,完成熊猫脸部识别模型建立,输入待检测图像到模型中,得到熊猫脸部识别结果。
2.根据权利要求1所述的基于有限训练数据的熊猫脸部识别方法,其特征在于:所述步骤1中熊猫脸部图像进行的手动分割处理包括:对熊猫图像进行超像素分割,将覆盖脸部区域的超像素标记为前景,将其余超像素标记为背景,并将分割后的熊猫脸部图像以0.5比例缩小。
3.根据权利要求1所述的基于有限训练数据的熊猫脸部识别方法,其特征在于:所述步骤1中采用Sobel过滤器,以0.1为阈值对熊猫脸部图像进行边界检测。
4.根据权利要求1所述的基于有限训练数据的熊猫脸部识别方法,其特征在于:所述步骤1中使用CPD配准算法找到分割后的每张熊猫脸部图像之间对应的关键点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811500473.2A CN109614928B (zh) | 2018-12-07 | 2018-12-07 | 基于有限训练数据的熊猫脸部识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811500473.2A CN109614928B (zh) | 2018-12-07 | 2018-12-07 | 基于有限训练数据的熊猫脸部识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109614928A CN109614928A (zh) | 2019-04-12 |
CN109614928B true CN109614928B (zh) | 2020-03-10 |
Family
ID=66007800
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811500473.2A Active CN109614928B (zh) | 2018-12-07 | 2018-12-07 | 基于有限训练数据的熊猫脸部识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109614928B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110245625B (zh) * | 2019-06-19 | 2021-04-13 | 浪潮集团有限公司 | 一种基于孪生神经网络的野外大熊猫识别方法及*** |
CN111666881B (zh) * | 2020-06-08 | 2023-04-28 | 成都大熊猫繁育研究基地 | 一种大熊猫踱步、吃竹子、发情行为跟踪分析方法 |
CN112926479A (zh) * | 2021-03-08 | 2021-06-08 | 新疆爱华盈通信息技术有限公司 | 猫脸识别方法、***、电子装置及存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140058987A1 (en) * | 2012-08-27 | 2014-02-27 | Almon David Ing | MoRPE: a machine learning method for probabilistic classification based on monotonic regression of a polynomial expansion |
CN103413119A (zh) * | 2013-07-24 | 2013-11-27 | 中山大学 | 基于人脸稀疏描述子的单样本人脸识别方法 |
CN106919884A (zh) * | 2015-12-24 | 2017-07-04 | 北京汉王智远科技有限公司 | 面部表情识别方法及装置 |
CN105631473A (zh) * | 2015-12-24 | 2016-06-01 | 大连理工大学 | 一种有限有标签样本条件的相机来源鉴别方法 |
CN106446781A (zh) * | 2016-08-29 | 2017-02-22 | 厦门美图之家科技有限公司 | 一种人脸图像处理方法及装置 |
CN108460407A (zh) * | 2018-02-02 | 2018-08-28 | 东华大学 | 一种基于深度学习的行人属性精细化识别方法 |
-
2018
- 2018-12-07 CN CN201811500473.2A patent/CN109614928B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109614928A (zh) | 2019-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Cui et al. | Pavement distress detection using random decision forests | |
CN109614928B (zh) | 基于有限训练数据的熊猫脸部识别方法 | |
Fablet et al. | Automated fish age estimation from otolith images using statistical learning | |
Li et al. | Automatic identification of butterfly species based on HoMSC and GLCMoIB | |
Mohapatra et al. | Rice disease detection and monitoring using CNN and naive Bayes classification | |
Akhtar et al. | Optical character recognition (OCR) using partial least square (PLS) based feature reduction: an application to artificial intelligence for biometric identification | |
CN109034213B (zh) | 基于相关熵原则的高光谱图像分类方法和*** | |
Navlakha et al. | A high-throughput framework to detect synapses in electron microscopy images | |
CN111126169B (zh) | 基于正交化的图正则非负矩阵分解的人脸识别方法及*** | |
CN111369526A (zh) | 基于半监督深度学习的多类型旧桥裂痕识别方法 | |
Mohtashamian et al. | Automated plant species identification using leaf shape-based classification techniques: a case study on Iranian Maples | |
CN104573728B (zh) | 一种基于极端学习机的纹理分类方法 | |
Sandotra et al. | Analyzing performance of deep learning models under the presence of distortions in identifying plant leaf disease | |
CN113869384A (zh) | 基于领域自适应的隐私保护图像分类方法 | |
CN109902690A (zh) | 图像识别技术 | |
CN105844299B (zh) | 一种基于词袋模型的图像分类方法 | |
CN110909678B (zh) | 一种基于宽度学习网络特征提取的人脸识别方法及*** | |
CN112465821A (zh) | 一种基于边界关键点感知的多尺度害虫图像检测方法 | |
Ghosh et al. | An automated model for leaf image-based plant recognition: an optimal feature-based machine learning approach | |
Anggoro et al. | Classification of Solo Batik patterns using deep learning convolutional neural networks algorithm | |
Hamoodi et al. | Identification of biometrics based on a classical mathematical methods in forensic medicine | |
CN113627522A (zh) | 基于关系网络的图像分类方法、装置、设备及存储介质 | |
CN112507895A (zh) | 基于大数据分析自动归类资质证书文件的方法及装置 | |
Fang et al. | Plant leaves recognition and classification model based on image features and neural network | |
Dubey et al. | New approach on structural feature extraction for character recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |