CN110795995B - 数据处理方法、装置及计算机可读存储介质 - Google Patents

数据处理方法、装置及计算机可读存储介质 Download PDF

Info

Publication number
CN110795995B
CN110795995B CN201910871797.5A CN201910871797A CN110795995B CN 110795995 B CN110795995 B CN 110795995B CN 201910871797 A CN201910871797 A CN 201910871797A CN 110795995 B CN110795995 B CN 110795995B
Authority
CN
China
Prior art keywords
lottery
face
head portraits
image
areas
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910871797.5A
Other languages
English (en)
Other versions
CN110795995A (zh
Inventor
郭玲玲
冯琦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201910871797.5A priority Critical patent/CN110795995B/zh
Publication of CN110795995A publication Critical patent/CN110795995A/zh
Application granted granted Critical
Publication of CN110795995B publication Critical patent/CN110795995B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及人工智能技术领域,公开了一种数据处理方法,包括:收集人脸图像样本数据;利用Adaboost算法对所述样本数据中的人脸进行检测,提取人脸的LBP特征图谱;利用所述人脸LBP特征图谱,训练Faster R‑CNN模型,使所述Faster R‑CNN模型执行人脸图像的提取;接收待抽奖人的头像,并储存在抽奖数据库中,获取抽奖现场影像,利用所述Faster R‑CNN模型对所述抽奖现场影像进行人脸识别,并将识别出来的人脸与所述抽奖数据库中存储的头像进行匹配,得到抽奖人头像数据库,从所述抽奖人头像数据库中按预设规则抽选出预设数量的头像,作为中奖人员头像。本发明还提出一种数据处理装置以及一种计算机可读存储介质。本发明能够实现节省抽奖活动准备时间并提高抽奖效率。

Description

数据处理方法、装置及计算机可读存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于人脸识别的数据处理方法、装置及计算机可读存储介质。
背景技术
抽奖现在已成为一种重要的商品营销的促进手段,受到众多商家和用户的青睐,尤其是在受到电子商务的冲击下,现场抽奖作为实体商家的体验式营销措施,对于提升实体商家的营销业绩,具有重要的意义。
目前,如果企业或者个体经营者想要开展抽奖活动时,需要通过管理后台新建一个抽奖活动,然后准备很多抽奖卷,并要把抽奖卷信息保存在数据库中以及将抽奖卷副卷发给待抽奖用户。这种方式每次进行抽奖活动时,很多收到了抽奖卷的用户可能由于种种原因没有来到抽奖现场,因此在抽到该用户的中奖信息时又只能做作废处理,浪费了资源并浪费了其他用户的时间。
发明内容
本发明提供一种数据处理方法、装置及计算机可读存储介质,其主要目的在于提供一种能够节省抽奖活动的准备时间,并可自动排除未到抽奖现场的抽奖人员的抽奖方案。
为实现上述目的,本发明提供的一种数据处理方法,包括:
收集人脸图像样本数据,并对所述样本数据进行预处理操作;
利用Adaboost算法对经过预处理操作后的所述样本数据中的人脸进行检测,提取人脸的LBP特征图谱;
利用所提取到的人脸LBP特征图谱,对预先构建的Faster R-CNN模型进行训练,使所述Faster R-CNN模型执行人脸图像的深层次特征提取;
接收待抽奖人的头像,并储存在抽奖数据库中,获取抽奖现场影像,并利用所述Faster R-CNN模型对所述抽奖现场影像进行人脸识别,并将识别出来的人脸与所述抽奖数据库中存储的头像进行匹配,得到抽奖人头像数据库,从所述抽奖人头像数据库中按预设规则抽选出预设数量的头像,作为中奖人员头像并输出所述中将人员头像。
可选地,所述预处理操作包括:高斯滤波、中值滤波、对比度增强、和/或利用OTSU法进行图像阈值化。
可选地,所述对预先构建的Faster R-CNN模型进行训练,包括:
从所述样本数据中提取影像的特征图,并使用选择性搜索方法生成候选区域;
构建损失函数;
根据上述构建的损失函数,利用随机梯度下降算法对Faster R-CNN进行权值参数的更新;
根据所提取到的人脸LBP特征图谱,利用所述Faster R-CNN从所述候选区域中提取LBP特征图;
在所述LBP特征图上选择预设数量的候选感兴趣区域,然后利用分类器将所述感兴趣区域区分为背景和前景,同时利用回归器对这些感兴趣区域的位置进行初步的调整;
使用线性支持向量机分类器对所述感兴趣区域进行判别,识别并提取中其中的人脸区域。
可选地,所述选择性搜索方法包括:
使用过分割的方法,将输入的图像分割为多个小区域;
根据分割而成的小区域,按照一定的合并规则,对合并可能性最高的相邻两个区域进行合并,不断重复此过程,直到整张图像合并成一个整体区域,所述合并规则包括根据人脸图像的纹理,可以找到人脸的位置,最后根据人脸图像的颜色,找到不同人物的人脸;
输出所有合并出的区域得到所述候选区域。
可选地,所述抽奖现场影像是通过无人摄像机对抽奖现场进行拍摄获取的。
此外,为实现上述目的,本发明还提供一种数据处理装置,该装置包括存储器和处理器,所述存储器中存储有可在所述处理器上运行的数据处理程序,所述数据处理程序被所述处理器执行时实现如下步骤:
收集人脸图像样本数据,并对所述样本数据进行预处理操作;
利用Adaboost算法对经过预处理操作后的所述样本数据中的人脸进行检测,提取人脸的LBP特征图谱;
利用所提取到的人脸LBP特征图谱,对预先构建的Faster R-CNN模型进行训练,使所述Faster R-CNN模型执行人脸图像的深层次特征提取;
接收待抽奖人的头像,并储存在抽奖数据库中,获取抽奖现场影像,并利用所述Faster R-CNN模型对所述抽奖现场影像进行人脸识别,并将识别出来的人脸与所述抽奖数据库中存储的头像进行匹配,得到抽奖人头像数据库,从所述抽奖人头像数据库中按预设规则抽选出预设数量的头像,作为中奖人员头像并输出所述中将人员头像。
可选地,所述预处理操作包括:高斯滤波、中值滤波、对比度增强、和/或利用OTSU法进行图像阈值化。
可选地,所述对预先构建的Faster R-CNN模型进行训练,包括:
从所述样本数据中提取影像的特征图,并使用选择性搜索方法生成候选区域;
构建损失函数;
根据上述构建的损失函数,利用随机梯度下降算法对Faster R-CNN进行权值参数的更新;
根据所提取到的人脸LBP特征图谱,利用所述Faster R-CNN从所述候选区域中提取LBP特征图;
在所述LBP特征图上选择预设数量的候选感兴趣区域,然后利用分类器将所述感兴趣区域区分为背景和前景,同时利用回归器对这些感兴趣区域的位置进行初步的调整;
使用线性支持向量机分类器对所述感兴趣区域进行判别,识别并提取中其中的人脸区域。
可选地,所述选择性搜索方法包括:
使用过分割的方法,将输入的图像分割为多个小区域;
根据分割而成的小区域,按照一定的合并规则,对合并可能性最高的相邻两个区域进行合并,不断重复此过程,直到整张图像合并成一个整体区域,所述合并规则包括根据人脸图像的纹理,可以找到人脸的位置,最后根据人脸图像的颜色,找到不同人物的人脸;
输出所有合并出的区域得到所述候选区域。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有数据处理程序,所述数据处理程序可被一个或者多个处理器执行,以实现如上所述的数据处理方法的步骤。
本发明提出的数据处理方法、装置及计算机可读存储介质收集人脸图像数据,提取所述人脸图像数据中的LBP特征;结合所提取到的人脸LBP特征图谱,构建Faster R-CNN模型进行人脸图像的深层次特征提取,以快速识别人脸图像;进一步地,本发明获取抽奖现场的影像,对所述抽奖现场影像利用上述Faster R-CNN模型识别中人脸,根据预先储存在抽奖数据库中的人脸图像进行比较,可以获知有效的抽奖人员名单,并根据该名单进行抽奖可以避免抽到未实际到达抽奖现场的人。此外,在执行抽奖活动时,利用本发明只需要提前获取抽奖人头像就可实现抽奖活动,因此可以节省抽奖活动的准备时间。
附图说明
图1为本发明一实施例提供的数据处理方法的流程示意图;
图2为本发明一实施例提供的数据处理装置的内部结构示意图;
图3为本发明一实施例提供的数据处理装置中数据处理程序的模块示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,所述“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。
进一步地,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
本发明提供一种数据处理方法。参照图1所示,为本发明一实施例提供的数据处理方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,数据处理方法包括:
S1、收集人脸图像样本数据,并对所述样本数据进行预处理操作。
首先,为了满足场景适应性的要求,本发明通过网络爬虫技术从ORL人脸数据库、Yale人脸数据库、AR人脸数据库、和/或FERET人脸数据库等网络数据库中收集非限制场景下的人脸图像样本数据,并建立人脸图像样本数据库。
同时,为了提高网络的泛化及识别能力,本发明采用水平翻转(Y轴镜像)的方法,即在行不变的情况下,将所述人脸图像样本数据的左右像素进行交换,得到新的图像,以对所述人脸图像样本数据库进行扩充。
本发明较佳实施例所述预处理操作包括:高斯滤波、中值滤波、对比度增强、和/或利用OTSU法进行图像阈值化。
所述高斯滤波是一种线性平滑滤波,是一种对图像进行加权平均的过程,使得图像中每一个像素点的值,都由其本身和邻域内的其他像素值经过加权平均后得到。所述高斯滤波的具体操作包括:用一个模板(或称卷积、掩模)扫描图像中的每一个像素,用模板确定的邻域内像素的加权平均灰度值去替代模板中心像素点的值。
所述中值滤波的基本原理是把图像中一点的值用该点的一个邻域中各点值的中值代替,让周围的像素值接近的真实值,从而消除孤立的噪声点。本发明实施例用预设结构的二维滑动模板,将模板内像素按照像素值的大小进行排序,生成单调上升(或下降)的为二维数据序列。二维中值滤波输出为g(x,y)=med{f(x-k,y-l),(k,l∈W)},其中,f(x,y),g(x,y)分别为原始图像和处理后图像,W为二维模板,在本发明实施例中,选用圆形作为模板,并对处理后的图像进行裁剪,得到最长边为256个像素的图像。
所谓对比度,指的是成像***中亮度最大值与最小值之间的对比。对比度低会使图像处理难度增大,针对环境图像对比度低问题,本发明采用的是对比度拉伸方法,通过提高灰度级动态范围的方式,达到图像对比度增强的目的。对比度拉伸也叫作灰度拉伸,是目前常用的灰度变换方式。因此本发明使用了对比度拉伸的方式对图像对比度进行增强,并使用了其中的分段线性变换函数,能够根据实际需求针对特定区域进行灰度拉伸,进而提高输出图像的对比度。进行对比度拉伸时,实际上是实现灰度值变换,本发明主要使用线性拉伸,所述线性拉伸指输入与输出的灰度值之间为线性关系的像素级运算,灰度变换公式如下所示:
Db=f(Da)=a*Da+b
其中a为线性斜率,b为在Y轴上的截距。如果a>1,此时输出的图像对比度相比原图像是增强的。如果a<1,此时输出的图像对比度相比原图像是削弱的。其中Da代表输入图像灰度值,Db代表输出图像灰度值,接下来对对比度增强后的图像进行降噪处理。
所述OTSU算法是一种对图像进行二值化的高效算法,在本发明实施例中,记t为前景与背景的分割阈值,前景点数占图像比例为w0,平均灰度为u0;背景点数占图像比例为w1,平均灰度为u1。则图像的总平均灰度为:u=w0*u0+w1*u1,前景和背景图象的方差:g=w0*(u0-u)*(u0-u)+w1*(u1-u)*(u1-u)=w0*w1*(u0-u1)*(u0-u1),方差g最大时,可以认为此时前景和背景差异最大,此时的灰度t是最佳阈值,据此,得到原图像的二值化图像。
S2、利用Adaboost算法对所述样本数据的图像中的人脸进行检测,提取人脸的LBP特征图谱。
所述AdaBoost算法的核心是迭代,其针对不同的训练集构造出的一个基本分类器(弱分类器),然后将每一个基本分类器(弱分类器)组合到一起,形成一个最终的强分类器。此算法的实现是通过调整数据分布,依据判断每一次训练集当中每一个样本分类的正确性,以及上次样本总体分类的准确率,来设置每一个样本的权值,而新得到的权值将作为下层分类器训练的数据集,然后将每一次训练出的分类器组合起来,形成最终的决策分类器。
在本发明实施例中,利用下述公式训练弱分类器:
其中f为方向梯度直方图(Histogram of Oriented Gradient,HOG)特征,θ为阈值,p指示不等号的方向,x表示一个检测子窗口。根据每一个HOG特征f,训练其弱分类器h(x,f,p,θ),就是确定训f的最优阈值,使得这个弱分类器h(x,f,p,θ)对所有训练样本的分类误差很低。在弱分类器训练完成之后,将会对不同练集上得到的分类器集合起来训练强分类器。本发明采用级联分类器,在这里的弱分类器的个数会比较有限,而是通过尽量多的强分类器级联。在特征值提取和计算的步骤中,“每个特征f”表示在训练样本中计算所有可能出现的矩形特征值,即计算所有的弱分类器,并从中选择性能好的分类器。假定给定一连串训练样本(x1,y1),(x2,y2),…(xn,yn),其中负样本(非人脸)用yi=0来表示,正样本(人脸)用yi=1来表示,通过对弱分类器进行集合,并对其最小错误率εt的最佳分类器ht(x)进行选取,εt=minf,p,θi(wi/∑wi)|h(x,f,p,θ)-yi|,其中w为特征权值,最后得到最终的强分类器:
所述级联分类器就是将上面训练得到的强分类器通过级联(串联)的方式组成一个人脸检测级联分类器,这个级联分类器就是一个退化的决策树。在级联分类器中,第2层分类器分类是由第1层分类得到的正样本触发的,第3层分类器分类是由第2层分类得到的正样本触发的,依次类推。最终检测到一般环境下的所有人脸。
所述LBP(局部二进制模式,Local Binary Patterns)特征是提取灰度图像局部纹理特征的一种算子,该算子是通过比较中心像素和邻域像素的大小来获得描述中心像素的二值码元。由于该方法对某像素的特征描述都参考了周围像素值,有利于克服局部噪声、光照、姿势等带来的负面影响。在本发明实施例中,设图像窗口中心为P0,则该点的LBP算子编码公式为:
其中,Pi表示该中心像素点相邻的像素值,s(·)为量化算子,其表达式为:
由于无论图像本身的大小是多少,对同一种LBP算子而言,提取的特征维数都是相同的(原始LBP为2P)。无疑,这样的LBP特征不能够清楚地描述图像的细节信息,为了表示人脸图像的局部纹理,本发明应用了分块模式LBP算子,将原始图像分成大小相同或大小不同的子图像,然后采用相同的LBP算子对每个子图进行编码并统计特征直方图,然后将所有块的直方图串联作为该图的特征表示,据此得到基于LBP特征的特征图谱。
S3、利用所提取到的人脸LBP特征图谱,对预先构建的Faster R-CNN模型进行训练,使所述Faster R-CNN模型执行人脸图像的提取。
所述Faster R-CNN将特征抽取(feature extraction),区域提取(proposalextraction),边框回归(bounding box regression),分类(classification)都整合在了一个网络中,使得综合性能有较大提高,在人脸检测速度方面尤为明显。
所述Faster-CNN分为4个主要内容:
Conv layers:作为一种CNN网络目标检测方法,Faster R-CNN首先使用一组基础的conv+relu+pooling层提取影像的特征图(feature maps)。
Region Proposal Networks(RPN)网络:用于生成候选区域,该层通过softmax判断anchors属于前景或者背景,再利用边框回归(bounding box regression)修正anchors获得精确的区域。
ROI Pooling层:收集所述特征图和区域,综合这些信息后提取区域特征图,送入后续全连接层判定目标类别。
Classification层(即全连接层):利用所述区域特征图计算区域的类别,同时再次bounding box regression获得检测框最终的精确位置。
本发明首先需要对所述Faster R-CNN模型进行训练,训练所述Faster R-CNN模型的方法如下:
Ⅰ、从输入的每一张样本数据中的人脸图像中提取影像的特征图,并使用选择性搜索(Selective Search,SS)方法生成候选区域。
其中,所述SS算法的主要思想如下:
使用一种过分割的方法,将输入的图像分割为约1K-2K个小区域;
根据分割而成的小区域,按照一定的合并规则(根据人脸图像的纹理,可以找到人脸的位置,最后根据人脸图像的颜色,找到不同人物的人脸),对合并可能性最高的相邻两个区域进行合并,不断重复此过程,直到整张图像合并成一个整体区域。
输出所有合并出的区域,也就是候选区域。
Ⅱ、构建损失函数:损失函数用来评价网络模型输出的预测值与真实值Y之间的差异。这里用/>来表示损失函数,它使一个非负实数函数,损失值越小,网络模型的性能越好。按照模式传播的思路,输出层各单元的输入、输出为Ct=f(It)(t=1,2,…,8),It为输出层单元的输入值,Ct为输出层各单元的输出值,wjt为中间层至输出层的连接权,y为输出层单元的阈值,bj为输出层的输入向量,为缓解梯度消散问题,选择ReLU函数relu(x)=max(0,x)作为激活函数,该函数满足仿生学中的稀疏性,只有当输入值高于一定数目时才激活该神经元节点,当输入值低于0时进行限制,当输入上升到某一阙值以上时,函数中自变量与因变量呈线性关系。
Ⅲ、利用随机梯度下降算法对Faster R-CNN进行权值参数的更新:梯度下降算法是神经网络模型训练最常用的优化算法。为找到损失函数的最小值,需要沿着与梯度向量相反的方向-dL/dy更新变量y,这样可以使得梯度减少最快,直至损失收敛至最小值,参数更新公式如下:L=L-αdL/dy,α表示学习率,从而可以获取最终的神经网络参数用于识别出人脸图像。
Ⅳ、根据所提取到的人脸LBP特征图谱,利用所述Faster R-CNN从所述候选区域中提取LBP特征图:从所述候选区域中提取LBP特征,也就是Faster R-CNN全连接层输出的4096维特征向量。在进行特征提取前,需要对输入的候选框进行尺寸归一化,归化成统一尺寸大小为227×227。
Ⅴ、生成ROI(RPN):在获得的特征图的每一个点上做预设数量的候选感兴趣区域(region of interest,ROI),然后利用分类器将这些ROI区分为背景和前景,同时利用回归器对这些ROI的位置进行初步的调整。本发明较佳实施例中,所述预设数量为9。
Ⅵ、ROI类别判断:使用线性SVM(Support Vector Machine)分类器对对所述感兴趣区域进行判别,所识别出其中的人脸区域。假设训练样本的数据集合为{(xi,yi)|xi∈Rn,yi∈R},其中,样本数据xi是n维空间的向量,这些向量描述了待分类数据的特征,被称为特征向量,yi代表样本数据的总数,本发明中每一个样本的特征向量都可作为一个点,为把正负样本分开,假设在此空间存在一个超平面其中符号<>是向量的内积运算符,w是已知的向量,b是已知的实数,因此,其最优分类函数为:
式中sgn为符号函数,其中为正样本的数据库图像,即为所识别出的人脸图像。
S4、接收待抽奖人的头像,并储存在抽奖数据库中,获取抽奖现场影像,并利用上述Faster R-CNN模型对所述抽奖现场影像进行人脸识别,并将识别出来的人脸与所述抽奖数据库中存储的头像进行匹配,得到抽奖人头像数据库,从所述抽奖人头像数据库中按预设规则抽选出预设数量的头像,作为中奖人员头像并输出所述中将人员头像。
本发明较佳实施例在抽奖开始之前,可以通过微信或者其他方式接收每一个待抽奖人的头像,并存储在所述抽奖数据库中,并在抽奖现场,通过无人摄像机等照相设备获取所述抽奖现场影像,从中识别出抽奖人头像,组成所述抽奖人头像数据库。
本发明较佳实施例中,所述预设规则可以是随机抽取或者其他任意预先设定的选择规则。
本发明还提供一种数据处理装置。参照图2所示,为本发明一实施例提供的数据处理装置的内部结构示意图。
在本实施例中,数据处理装置1可以是PC(Personal Computer,个人电脑),也可以是智能手机、平板电脑、便携计算机等终端设备。该数据处理装置1至少包括存储器11、处理器12,通信总线13,以及网络接口14。
其中,存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器11在一些实施例中可以是数据处理装置1的内部存储单元,例如该数据处理装置1的硬盘。存储器11在另一些实施例中也可以是数据处理装置1的外部存储设备,例如数据处理装置1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器11还可以既包括数据处理装置1的内部存储单元也包括外部存储设备。存储器11不仅可以用于存储安装于数据处理装置1的应用软件及各类数据,例如数据处理程序01的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
处理器12在一些实施例中可以是一中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器或其他数据处理芯片,用于运行存储器11中存储的程序代码或处理数据,例如执行数据处理程序01等。
通信总线13用于实现这些组件之间的连接通信。
网络接口14可选的可以包括标准的有线接口、无线接口(如WI-FI接口),通常用于在该装置1与其他电子设备之间建立通信连接。
可选地,该装置1还可以包括用户接口,用户接口可以包括显示器(Display)、输入单元比如键盘(Keyboard),可选的用户接口还可以包括标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在数据处理装置1中处理的信息以及用于显示可视化的用户界面。
图2仅示出了具有组件11-14以及数据处理程序01的数据处理装置1,本领域技术人员可以理解的是,图1示出的结构并不构成对数据处理装置1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
在图2所示的装置1实施例中,存储器11中存储有数据处理程序01;处理器12执行存储器11中存储的数据处理程序01时实现如下步骤:
步骤一、收集人脸图像样本数据,并对所述样本数据进行预处理操作。
首先,为了满足场景适应性的要求,本发明通过网络爬虫技术从ORL人脸数据库、Yale人脸数据库、AR人脸数据库、和/或FERET人脸数据库等网络数据库中收集非限制场景下的人脸图像样本数据,并建立人脸图像样本数据库。
同时,为了提高网络的泛化及识别能力,本发明采用水平翻转(Y轴镜像)的方法,即在行不变的情况下,将所述人脸图像样本数据的左右像素进行交换,得到新的图像,以对所述人脸图像样本数据库进行扩充。
本发明较佳实施例所述预处理操作包括:高斯滤波、中值滤波、对比度增强、和/或利用OTSU法进行图像阈值化。
所述高斯滤波是一种线性平滑滤波,是一种对图像进行加权平均的过程,使得图像中每一个像素点的值,都由其本身和邻域内的其他像素值经过加权平均后得到。所述高斯滤波的具体操作包括:用一个模板(或称卷积、掩模)扫描图像中的每一个像素,用模板确定的邻域内像素的加权平均灰度值去替代模板中心像素点的值。
所述中值滤波的基本原理是把图像中一点的值用该点的一个邻域中各点值的中值代替,让周围的像素值接近的真实值,从而消除孤立的噪声点。本发明实施例用预设结构的二维滑动模板,将模板内像素按照像素值的大小进行排序,生成单调上升(或下降)的为二维数据序列。二维中值滤波输出为g(x,y)=med{f(x-k,y-l),(k,l∈W)},其中,f(x,y),g(x,y)分别为原始图像和处理后图像,W为二维模板,在本发明实施例中,选用圆形作为模板,并对处理后的图像进行裁剪,得到最长边为256个像素的图像。
所谓对比度,指的是成像***中亮度最大值与最小值之间的对比。对比度低会使图像处理难度增大,针对环境图像对比度低问题,本发明采用的是对比度拉伸方法,通过提高灰度级动态范围的方式,达到图像对比度增强的目的。对比度拉伸也叫作灰度拉伸,是目前常用的灰度变换方式。因此本发明使用了对比度拉伸的方式对图像对比度进行增强,并使用了其中的分段线性变换函数,能够根据实际需求针对特定区域进行灰度拉伸,进而提高输出图像的对比度。进行对比度拉伸时,实际上是实现灰度值变换,本发明主要使用线性拉伸,所述线性拉伸指输入与输出的灰度值之间为线性关系的像素级运算,灰度变换公式如下所示:
Db=f(Da)=a*Da+b
其中a为线性斜率,b为在Y轴上的截距。如果a>1,此时输出的图像对比度相比原图像是增强的。如果a<1,此时输出的图像对比度相比原图像是削弱的。其中Da代表输入图像灰度值,Db代表输出图像灰度值,接下来对对比度增强后的图像进行降噪处理。
所述OTSU算法是一种对图像进行二值化的高效算法,在本发明实施例中,记t为前景与背景的分割阈值,前景点数占图像比例为w0,平均灰度为u0;背景点数占图像比例为w1,平均灰度为u1。则图像的总平均灰度为:u=w0*u0+w1*u1,前景和背景图象的方差:g=w0*(u0-u)*(u0-u)+w1*(u1-u)*(u1-u)=w0*w1*(u0-u1)*(u0-u1),方差g最大时,可以认为此时前景和背景差异最大,此时的灰度t是最佳阈值,据此,得到原图像的二值化图像。
步骤二、利用Adaboost算法对所述样本数据的图像中的人脸进行检测,提取人脸的LBP特征图谱。
所述AdaBoost算法的核心是迭代,其针对不同的训练集构造出的一个基本分类器(弱分类器),然后将每一个基本分类器(弱分类器)组合到一起,形成一个最终的强分类器。此算法的实现是通过调整数据分布,依据判断每一次训练集当中每一个样本分类的正确性,以及上次样本总体分类的准确率,来设置每一个样本的权值,而新得到的权值将作为下层分类器训练的数据集,然后将每一次训练出的分类器组合起来,形成最终的决策分类器。
在本发明实施例中,利用下述公式训练弱分类器:
其中f为方向梯度直方图(Histogram of Oriented Gradient,HOG)特征,θ为阈值,p指示不等号的方向,x表示一个检测子窗口。根据每一个HOG特征f,训练其弱分类器h(x,f,p,θ),就是确定训f的最优阈值,使得这个弱分类器h(x,f,p,θ)对所有训练样本的分类误差很低。在弱分类器训练完成之后,将会对不同练集上得到的分类器集合起来训练强分类器。本发明采用级联分类器,在这里的弱分类器的个数会比较有限,而是通过尽量多的强分类器级联。在特征值提取和计算的步骤中,“每个特征f”表示在训练样本中计算所有可能出现的矩形特征值,即计算所有的弱分类器,并从中选择性能好的分类器。假定给定一连串训练样本(x1,y1),(x2,y2),…(xn,yn),其中负样本(非人脸)用yi=0来表示,正样本(人脸)用yi=1来表示,通过对弱分类器进行集合,并对其最小错误率εt的最佳分类器ht(x)进行选取,εt=minf,p,θi(wi/∑wi)|h(x,f,p,θ)-yi|,其中w为特征权值,最后得到最终的强分类器:
所述级联分类器就是将上面训练得到的强分类器通过级联(串联)的方式组成一个人脸检测级联分类器,这个级联分类器就是一个退化的决策树。在级联分类器中,第2层分类器分类是由第1层分类得到的正样本触发的,第3层分类器分类是由第2层分类得到的正样本触发的,依次类推。最终检测到一般环境下的所有人脸。
所述LBP(局部二进制模式,Local Binary Patterns)特征是提取灰度图像局部纹理特征的一种算子,该算子是通过比较中心像素和邻域像素的大小来获得描述中心像素的二值码元。由于该方法对某像素的特征描述都参考了周围像素值,有利于克服局部噪声、光照、姿势等带来的负面影响。在本发明实施例中,设图像窗口中心为P0,则该点的LBP算子编码公式为:
其中,Pi表示该中心像素点相邻的像素值,s(·)为量化算子,其表达式为:
由于无论图像本身的大小是多少,对同一种LBP算子而言,提取的特征维数都是相同的(原始LBP为2P)。无疑,这样的LBP特征不能够清楚地描述图像的细节信息,为了表示人脸图像的局部纹理,本发明应用了分块模式LBP算子,将原始图像分成大小相同或大小不同的子图像,然后采用相同的LBP算子对每个子图进行编码并统计特征直方图,然后将所有块的直方图串联作为该图的特征表示,据此得到基于LBP特征的特征图谱。
步骤三、利用所提取到的人脸LBP特征图谱,对预先构建的Faster R-CNN模型进行训练,使所述Faster R-CNN模型执行人脸图像的提取。
所述Faster R-CNN将特征抽取(feature extraction),区域提取(proposalextraction),边框回归(bounding box regression),分类(classification)都整合在了一个网络中,使得综合性能有较大提高,在人脸检测速度方面尤为明显。
所述Faster-CNN分为4个主要内容:
Conv layers:作为一种CNN网络目标检测方法,Faster R-CNN首先使用一组基础的conv+relu+pooling层提取影像的特征图(feature maps)。
Region Proposal Networks(RPN)网络:用于生成候选区域,该层通过softmax判断anchors属于前景或者背景,再利用边框回归(bounding box regression)修正anchors获得精确的区域。
ROI Pooling层:收集所述特征图和区域,综合这些信息后提取区域特征图,送入后续全连接层判定目标类别。
Classification层(即全连接层):利用所述区域特征图计算区域的类别,同时再次bounding box regression获得检测框最终的精确位置。
步骤四、接收待抽奖人的头像,并储存在抽奖数据库中,获取抽奖现场影像,并利用上述Faster R-CNN模型对所述抽奖现场影像进行人脸识别,并将识别出来的人脸与所述抽奖数据库中存储的头像进行匹配,得到抽奖人头像数据库,从所述抽奖人头像数据库中按预设规则抽选出预设数量的头像,作为中奖人员头像并输出所述中将人员头像。
本发明较佳实施例在抽奖开始之前,可以通过微信或者其他方式接收每一个待抽奖人的头像,并存储在所述抽奖数据库中,并在抽奖现场,通过无人摄像机等照相设备获取所述抽奖现场影像,从中识别出抽奖人头像,组成所述抽奖人头像数据库。
本发明较佳实施例中,所述预设规则可以是随机抽取或者其他任意预先设定的选择规则。
可选地,在其他实施例中,数据处理程序还可以被分割为一个或者多个模块,一个或者多个模块被存储于存储器11中,并由一个或多个处理器(本实施例为处理器12)所执行以完成本发明,本发明所称的模块是指能够完成特定功能的一系列计算机程序指令段,用于描述数据处理程序在数据处理装置中的执行过程。
例如,参照图3所示,为本发明数据处理装置一实施例中的数据处理程序的程序模块示意图,该实施例中,数据处理程序可以被分割为样本收集模块10、特征提取模块20、模型训练模块30和数据处理模块40示例性地:
所述样本收集模块10用于:收集人脸图像样本数据,并对所述样本数据进行预处理操作。
其中,所述预处理操作包括:高斯滤波、中值滤波、对比度增强、和/或利用OTSU法进行图像阈值化。
所述特征提取模块20用于:利用Adaboost算法对经过预处理操作后的所述样本数据中的人脸进行检测,提取人脸的LBP特征图谱
所述模型训练模块30用于:利用所提取到的人脸LBP特征图谱,对预先构建的Faster R-CNN模型进行训练,使所述Faster R-CNN模型执行人脸图像的深层次特征提取。
其中,所述对预先构建的Faster R-CNN模型进行训练,包括:
从输入的每一张样本数据中的人脸图像中提取影像的特征图,并使用选择性搜索方法生成候选区域;
构建损失函数;
根据上述构建的损失函数,利用随机梯度下降算法对Faster R-CNN进行权值参数的更新;
根据所提取到的人脸LBP特征图谱,利用所述Faster R-CNN从所述候选区域中提取LBP特征图;
在所述LBP特征图上做预设数量的候选感兴趣区域,然后利用分类器将所述感兴趣区域区分为背景和前景,同时利用回归器对这些感兴趣区域的位置进行初步的调整;
使用线性支持向量机分类器对所述感兴趣区域进行判别,识别并提取中其中的人脸区域。
所述选择性搜索方法包括:
使用过分割的方法,将输入的图像分割为多个小区域;
根据分割而成的小区域,按照一定的合并规则,对合并可能性最高的相邻两个区域进行合并,不断重复此过程,直到整张图像合并成一个整体区域,所述合并规则包括根据人脸图像的纹理,可以找到人脸的位置,最后根据人脸图像的颜色,找到不同人物的人脸;
输出所有合并出的区域得到所述候选区域。
所述数据处理模块40用于:接收待抽奖人的头像,并储存在抽奖数据库中,获取抽奖现场影像,并利用所述Faster R-CNN模型对所述抽奖现场影像进行人脸识别,并将识别出来的人脸与所述抽奖数据库中存储的头像进行匹配,得到抽奖人头像数据库,从所述抽奖人头像数据库中按预设规则抽选出预设数量的头像,作为中奖人员头像并输出所述中将人员头像。
其中,所述抽奖现场影像是通过无人摄像机对抽奖现场进行拍摄获取的。
上述样本收集模块10、特征提取模块20、模型训练模块30、数据处理模块40等程序模块被执行时所实现的功能或操作步骤与上述实施例大体相同,在此不再赘述。
此外,本发明实施例还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有数据处理程序,所述数据处理程序可被一个或多个处理器执行,以实现如下操作:
收集人脸图像样本数据,并对所述样本数据进行预处理操作;
利用Adaboost算法对经过预处理操作后的所述样本数据中的人脸进行检测,提取人脸的LBP特征图谱;
利用所提取到的人脸LBP特征图谱,对预先构建的Faster R-CNN模型进行训练,使所述Faster R-CNN模型执行人脸图像的深层次特征提取;
接收待抽奖人的头像,并储存在抽奖数据库中,获取抽奖现场影像,并利用所述Faster R-CNN模型对所述抽奖现场影像进行人脸识别,并将识别出来的人脸与所述抽奖数据库中存储的头像进行匹配,得到抽奖人头像数据库,从所述抽奖人头像数据库中按预设规则抽选出预设数量的头像,作为中奖人员头像并输出所述中将人员头像。
本发明计算机可读存储介质具体实施方式与上述数据处理装置和方法各实施例基本相同,在此不作累述。
需要说明的是,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。并且本文中的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (6)

1.一种数据处理方法,其特征在于,所述方法包括:
收集人脸图像样本数据,将所述人脸图像样本数据的左右像素进行交换,得到扩充后的样本数据,并对所述样本数据进行预处理操作;
利用Adaboost算法对经过预处理操作后的所述样本数据中的人脸进行检测,提取人脸的LBP特征图谱;
利用所提取到的人脸LBP特征图谱,从所述样本数据中提取影像的特征图,并使用过分割的方法,将输入的图像分割为多个小区域,根据分割而成的多个小区域,按照一定的合并规则,对合并可能性最高的相邻两个区域进行合并,不断重复此过程,直到整张图像合并成一个整体区域,所述合并规则包括根据人脸图像的纹理,可以找到人脸的位置,最后根据人脸图像的颜色,找到不同人物的人脸,输出所有合并出的区域得到候选区域,构建损失函数,根据构建的损失函数,利用随机梯度下降算法对Faster R-CNN模型进行权值参数的更新,根据所提取到的人脸LBP特征图谱,利用所述Faster R-CNN模型从所述候选区域中提取LBP特征图,在所述LBP特征图上选择预设数量的候选感兴趣区域,然后利用分类器将所述感兴趣区域区分为背景和前景,同时利用回归器对所述感兴趣区域的位置进行初步的调整,使用线性支持向量机分类器对所述感兴趣区域进行判别,识别并提取中其中的人脸区域,使所述Faster R-CNN模型执行人脸图像的提取;
接收待抽奖人的头像,并储存在抽奖数据库中,获取抽奖现场影像,利用所述FasterR-CNN模型对所述抽奖现场影像进行人脸识别,并将识别出来的人脸与所述抽奖数据库中存储的头像进行匹配,得到抽奖人头像数据库,从所述抽奖人头像数据库中按预设规则抽选出预设数量的头像,作为中奖人员头像并输出所述中奖人员头像。
2.如权利要求1所述的数据处理方法,其特征在于,所述预处理操作包括:高斯滤波、中值滤波、对比度增强、和/或利用OTSU法进行图像阈值化。
3.如权利要求1至2中任意一项所述的数据处理方法,所述抽奖现场影像是通过无人摄像机对抽奖现场进行拍摄获取的。
4.一种数据处理装置,其特征在于,所述装置包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的数据处理程序,所述数据处理程序被所述处理器执行时实现如下步骤:
收集人脸图像样本数据,将所述人脸图像样本数据的左右像素进行交换,得到扩充后的样本数据,并对所述样本数据进行预处理操作;
利用Adaboost算法对经过预处理操作后的所述样本数据中的人脸进行检测,提取人脸的LBP特征图谱;
利用所提取到的人脸LBP特征图谱,从所述样本数据中提取影像的特征图,并使用过分割的方法,将输入的图像分割为多个小区域,根据分割而成的多个小区域,按照一定的合并规则,对合并可能性最高的相邻两个区域进行合并,不断重复此过程,直到整张图像合并成一个整体区域,所述合并规则包括根据人脸图像的纹理,可以找到人脸的位置,最后根据人脸图像的颜色,找到不同人物的人脸,输出所有合并出的区域得到候选区域,构建损失函数,根据构建的损失函数,利用随机梯度下降算法对Faster R-CNN模型进行权值参数的更新,根据所提取到的人脸LBP特征图谱,利用所述Faster R-CNN模型从所述候选区域中提取LBP特征图,在所述LBP特征图上选择预设数量的候选感兴趣区域,然后利用分类器将所述感兴趣区域区分为背景和前景,同时利用回归器对所述感兴趣区域的位置进行初步的调整,使用线性支持向量机分类器对所述感兴趣区域进行判别,识别并提取中其中的人脸区域,使所述Faster R-CNN模型执行人脸图像的深层次特征提取;
接收待抽奖人的头像,并储存在抽奖数据库中,获取抽奖现场影像,并利用所述FasterR-CNN模型对所述抽奖现场影像进行人脸识别,并将识别出来的人脸与所述抽奖数据库中存储的头像进行匹配,得到抽奖人头像数据库,从所述抽奖人头像数据库中按预设规则抽选出预设数量的头像,作为中奖人员头像并输出所述中奖人员头像。
5.如权利要求4所述的数据处理装置,其特征在于,所述预处理操作包括:高斯滤波、中值滤波、对比度增强、和/或利用OTSU法进行图像阈值化。
6.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有数据处理程序,所述数据处理程序可被一个或者多个处理器执行,以实现如权利要求1至3中任一项所述的数据处理方法的步骤。
CN201910871797.5A 2019-09-16 2019-09-16 数据处理方法、装置及计算机可读存储介质 Active CN110795995B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910871797.5A CN110795995B (zh) 2019-09-16 2019-09-16 数据处理方法、装置及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910871797.5A CN110795995B (zh) 2019-09-16 2019-09-16 数据处理方法、装置及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN110795995A CN110795995A (zh) 2020-02-14
CN110795995B true CN110795995B (zh) 2024-05-31

Family

ID=69427172

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910871797.5A Active CN110795995B (zh) 2019-09-16 2019-09-16 数据处理方法、装置及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN110795995B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112200080A (zh) * 2020-10-10 2021-01-08 平安国际智慧城市科技股份有限公司 一种人脸识别方法、装置、电子设备及存储介质
CN113034415B (zh) * 2021-03-23 2021-09-14 哈尔滨市科佳通用机电股份有限公司 一种铁路机车小部件图像扩增的方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106340016A (zh) * 2016-08-31 2017-01-18 湖南品信生物工程有限公司 一种基于细胞显微镜图像的dna定量分析方法
CN107423690A (zh) * 2017-06-26 2017-12-01 广东工业大学 一种人脸识别方法及装置
CN108268859A (zh) * 2018-02-08 2018-07-10 南京邮电大学 一种基于深度学习的人脸表情识别方法
CN110097003A (zh) * 2019-04-29 2019-08-06 中南民族大学 基于神经网络的课堂考勤方法、设备、存储介质及装置
CN110163111A (zh) * 2019-04-24 2019-08-23 平安科技(深圳)有限公司 基于人脸识别的叫号方法、装置、电子设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106340016A (zh) * 2016-08-31 2017-01-18 湖南品信生物工程有限公司 一种基于细胞显微镜图像的dna定量分析方法
CN107423690A (zh) * 2017-06-26 2017-12-01 广东工业大学 一种人脸识别方法及装置
CN108268859A (zh) * 2018-02-08 2018-07-10 南京邮电大学 一种基于深度学习的人脸表情识别方法
CN110163111A (zh) * 2019-04-24 2019-08-23 平安科技(深圳)有限公司 基于人脸识别的叫号方法、装置、电子设备及存储介质
CN110097003A (zh) * 2019-04-29 2019-08-06 中南民族大学 基于神经网络的课堂考勤方法、设备、存储介质及装置

Also Published As

Publication number Publication date
CN110795995A (zh) 2020-02-14

Similar Documents

Publication Publication Date Title
Makhmudkhujaev et al. Facial expression recognition with local prominent directional pattern
US9754184B2 (en) Feature density object classification, systems and methods
Tan et al. Weakly supervised metric learning for traffic sign recognition in a LIDAR-equipped vehicle
CN108520226B (zh) 一种基于躯体分解和显著性检测的行人重识别方法
US8655070B1 (en) Tree detection form aerial imagery
Hsieh et al. A statistic approach to the detection of human faces in color nature scene
WO2019033525A1 (zh) Au特征识别方法、装置及存储介质
CN110717497B (zh) 图像相似度匹配方法、装置及计算机可读存储介质
WO2019033569A1 (zh) 眼球动作分析方法、装置及存储介质
CN111989689A (zh) 用于识别图像内目标的方法和用于执行该方法的移动装置
WO2020233000A1 (zh) 人脸识别方法、装置及计算机可读存储介质
WO2019033570A1 (zh) 嘴唇动作分析方法、装置及存储介质
Ye et al. Scene text detection via integrated discrimination of component appearance and consensus
US20140079316A1 (en) Segmentation co-clustering
Moallem et al. Fuzzy inference system optimized by genetic algorithm for robust face and pose detection
CN111860309A (zh) 一种人脸识别方法及***
CN111507324A (zh) 卡片边框识别方法、装置、设备和计算机存储介质
CN110795995B (zh) 数据处理方法、装置及计算机可读存储介质
CN113255557A (zh) 一种基于深度学习的视频人群情绪分析方法及***
Joan et al. An enhanced text detection technique for the visually impaired to read text
Mousavi A new way to age estimation for rgb-d images, based on a new face detection and extraction method for depth images
Hermosilla et al. An enhanced representation of thermal faces for improving local appearance-based face recognition
CN108460772B (zh) 基于卷积神经网络的广告骚扰传真图像检测***及方法
Alsaedi et al. Design and Simulation of Smart Parking System Using Image Segmentation and CNN
Jain et al. Hybrid patch based diagonal pattern geometric appearance model for facial expression recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant