CN107423685A - 表情情绪识别方法 - Google Patents

表情情绪识别方法 Download PDF

Info

Publication number
CN107423685A
CN107423685A CN201710440453.XA CN201710440453A CN107423685A CN 107423685 A CN107423685 A CN 107423685A CN 201710440453 A CN201710440453 A CN 201710440453A CN 107423685 A CN107423685 A CN 107423685A
Authority
CN
China
Prior art keywords
matrix
mrow
picture
pixel
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710440453.XA
Other languages
English (en)
Inventor
王汉卿
韦程志
夏昌杰
王鹏飞
朱彦名
钱薇琰
乔旭
李琛
李林威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN201710440453.XA priority Critical patent/CN107423685A/zh
Publication of CN107423685A publication Critical patent/CN107423685A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种表情情绪识别方法,该方法包括以下步骤:S1,将预处理图片处理成目标图片;S2,将目标图片进行灰度化处理;S3,框定人脸区域;S4,比较宽高比与阈值范围大小;S5,将人脸图片形成矩阵S6,将单张人脸图片规整为k2×k2,将人脸图片形成矩阵S7,构成数组D[k][b];S8,对原始数据矩阵Xk×b进行标准化处理;S9,计算相关系数矩阵的特征值和对应的特征向量;S10,计算主成分得分,认为结果是主成分得分最接近的表情类型。本发明能够精确快速的对空巢老人的表情进行情绪识别,有利于及时了解空巢老人的情绪。

Description

表情情绪识别方法
技术领域
本发明涉及一种情绪分析,特别是涉及一种表情情绪识别方法。
背景技术
随着我国经济的发展,老龄化问题日益突出,空巢家庭已经成为中国家庭的主要形式。有相关研究表明在2030年以后,中国空巢老年人家庭将占据老年人家庭的百分之九十,到那个时候中国老年人家庭将全面“空巢化”。到2050年时我国临终无子女的老年人将达到7900万左右,独居和空巢老年人将占54%以上,解决空巢老人的养老、健康以及心理问题显得愈发重要。
由于空巢老人越来越多,以及漂泊在外的子女们工作忙碌,没有足够的时间陪伴远在家乡的父母,同时老人们也不善于向子女表达自己的心意,造成两代人的隔膜,这一社会矛盾难以解决。现目前亟待对空巢老人的表情进行情绪识别,有利于及时了解空巢老人的情绪并传达给子女,督促子女关心老人,增强交流的时效性与准确性。
发明内容
本发明旨在至少解决现有技术中存在的技术问题,特别创新地提出了一种表情情绪识别方法。
为了实现本发明的上述目的,本发明提供了一种表情情绪识别方法,该方法包括以下步骤:
S1,获取预处理图片,将预处理图片规整为M×N,获得目标图片,M、N分别为宽和高对应的像素;
S2,将目标图片进行灰度化处理,获得每一个像素点的灰度值;
S3,通过对相邻像素点两两作差的方式寻找出波动最大的m个像素点,m为不小于3且不大于M*N的正整数,框定人脸区域;
S4,计算图片的宽高比处于阈值范围内,阈值范围为0.75~1.3,则执行步骤S5;
否则进行canny边缘检测,将边缘检测的结果进行聚类分析,将单独的人脸提取出来;执行步骤S6;
S5,将人脸图片划分k个方形区域,每个方形区域均具有k1*k1个像素点,将像素点的灰度值作为矩阵的元素值,形成矩阵k和k1均为正整数,k′为不大于k的正整数;k*k1 2为不大于M*N;执行步骤S7;
S6,对提取出的单张人脸图片规整为k2×k2,将人脸图片划分k2个方形区域,每个方形区域均具有k1*k1个像素点,将像素点的灰度值作为矩阵的元素值,形成矩阵其中,k2=k1*k,k、k1和k2均为正整数,k′为不大于k2的正整数;
S7,计算矩阵中每行的和,获得数组d[k][k1];
再计算矩阵中每列的和,获得数组d[k][k1];
将矩阵分为个矩阵,形成矩阵均为正整数;k3为不大于的正整数;计算的行列式值,获得数组
最后构成数组D[k][b],
S8,将数组D[k][b]形成原始数据矩阵Xk×b,对原始数据矩阵Xk×b进行标准化处理,得到矩阵Xk×b′;
S9,计算矩阵Xk×b′的样本相关系数矩阵,并计算相关系数矩阵的特征值和对应的特征向量;
S10,计算各主成分的累计贡献率,计算主成分得分,认为结果是主成分得分最接近的表情类型。
在本发明的一种优选实施方式中,在步骤S1中,图片规整计算的方法为:
设目标图片中的点(x,y)对应于预处理图片中的点(x0,y0),根据(x0,y0)所在位置旁边的四个点与(x0,y0)距离的关系,计算目标图片中(x,y)一点的像素值:首先计算预处理图片与目标图片宽和高像素的比例:即其中,w和h分别为预处理图片宽和高的像素,针对目标图片的一个点(x,y),按照比例计算在预处理图片中的对应坐标(x1,y1),(x1,y2),(x1,y2),(x2,y2),求周围四个点所占的权重比值s1,s2,s3,s4
fx1=x0-x1
fx2=1.0-fx1
x0=x*fw fy1=y0-y1
y0=y*fh fy2=1.0-fy1
x1=int(x0) s1=fx1*fy1
x2=x1+1 s2=fx2*fy1
y1=int(y0) s3=fx2*fy2
y2=y1+1 s4=fx1*fy2
int()表示取整,即舍去小数部分,只保留整数部分;
最后将处理后的像素点填充回目标图片。
在本发明的一种优选实施方式中,在步骤S2中,图片进行灰度化处理的计算方法为:
Gray=0.11B+0.59G+0.3R,
其中,R,G,B三个色彩分量。
在本发明的一种优选实施方式中,在步骤S8中,进行标准化处理的计算方法为:
针对矩阵Xn×p
对矩阵Xn×p进行计算:
其中,
xij是矩阵Xn×p中的第i行第j列的元素值,n为矩阵Xn×p的总行数,p为矩阵Xn×p的总列数,为对矩阵Xn×p进行标准化处理后新矩阵的元素值。
在本发明的一种优选实施方式中,在步骤S9中,样本相关系数矩阵的计算方法为:
rij=cov(xi,xj),
cov()为协方差运算,xi表示矩阵Xn×p中的第i行的元素值,xj表示矩阵Xn×p中的第j列的元素值,rij为样本相关系数矩阵中的第i行第j列的元素值;
然后按照线性代数中的定义计算相关系数矩阵的特征值和特征向量;
特征值:λ1,λ2,…,λp
特征向量:ai=(ai1,ai2,...,aip),i=1,2,...,p。
在本发明的一种优选实施方式中,在步骤S10中,主成分得分的计算方法为:
累计贡献率Gu
u为不大于p的正整数;
主成分得分:
ai是样本相关系数矩阵的特征向量,xii′是矩阵Xk×b′中的元素值,
首先计算累积贡献率不小于0.9时,u的取值;再计算Fu的值。
综上所述,由于采用了上述技术方案,本发明的有益效果是:本发明能够精确快速的对空巢老人的表情进行情绪识别,有利于及时了解空巢老人的情绪。
附图说明
图1是本发明流程示意图。
图2是图片规整示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
在本发明的描述中,除非另有规定和限定,需要说明的是,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是机械连接或电连接,也可以是两个元件内部的连通,可以是直接相连,也可以通过中间媒介间接相连,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
本发明公开了一种表情情绪识别方法,如图1所示,该方法包括以下步骤:
第一步,获取预处理图片,将预处理图片规整为M×N,即为获得目标图片,M、N分别为宽和高对应的像素或者尺寸大小。在本实施方式中,图片规整的计算方法为:如图2所示,设目标图片中的点(x,y)对应于预处理图片中的点(x0,y0),根据(x0,y0)所在位置旁边的四个点与(x0,y0)距离的关系,计算目标图片中(x,y)一点的像素值:首先计算预处理图片与目标图片宽和高像素的比例:即其中,w和h分别为预处理图片宽和高的像素,针对目标图片的一个点(x,y),按照比例计算在预处理图片中的对应坐标(x1,y1),(x1,y2),(x1,y2),(x2,y2),求周围四个点所占的权重比值s1,s2,s3,s4
fx1=x0-x1
fx2=1.0-fx1
x0=x*fw fy1=y0-y1
y0=y*fh fy2=1.0-fy1
x1=int(x0) s1=fx1*fy1
x2=x1+1 s2=fx2*fy1
y1=int(y0) s3=fx2*fy2
y2=y1+1 s4=fx1*fy2
int()表示取整,即舍去小数部分,只保留整数部分;
最后将处理后的像素点填充回目标图片。
第二步,将目标图片进行灰度化处理,获得每一个像素点的灰度值。在本实施方式中,图片进行灰度化处理的计算方法为:
Gray=0.11B+0.59G+0.3R,其中,R,G,B三个色彩分量。
第三步,通过对相邻像素点两两作差的方式寻找出波动最大的m个像素点,m为不小于3且不大于M*N的正整数,框定人脸区域。
第四步,计算图片的宽高比处于阈值范围内,阈值范围为0.75~1.3,则执行第五步。;
如果图片宽高比不在阈值范围内,即认为有多张人脸,则进行canny边缘检测,将边缘检测的结果进行聚类分析,将单独的人脸提取出来;执行第六步。在本实施方式中,canny边缘检测、聚类分析为现有技术,实现将单独的人脸提取出来,调用了OPENCV的库函数,在此不做赘述。
第五步,将人脸图片划分k个方形区域,每个方形区域均具有k1*k1个像素点,将像素点的灰度值作为矩阵的元素值,形成矩阵k和k1均为正整数,k′为不大于k的正整数;k*k1 2为不大于M*N;执行第七步。
第六步,对提取出的单张人脸图片规整为k2×k2,将人脸图片划分k2个方形区域,每个方形区域均具有k1*k1个像素点,将像素点的灰度值作为矩阵的元素值,形成矩阵其中,k2=k1*k,k、k1和k2均为正整数,k′为不大于k2的正整数。在本实施方式中,或者对提取出的单张人脸图片规整为k2×k2,作为目标图片,执行第二步。
第七步,计算矩阵中每行的和,获得数组d[k][k1];
再计算矩阵中每列的和,获得数组d[k][k1];
将矩阵分为个矩阵,形成矩阵均为正整数;k3为不大于的正整数;计算的行列式值,获得数组
最后构成数组D[k][b],
第八步,将数组D[k][b]形成原始数据矩阵Xk×b,对原始数据矩阵Xk×b进行标准化处理,得到矩阵Xk×b′。在本实施方式中,进行标准化处理的计算方法为:针对矩阵Xn×p
对矩阵Xn×p进行计算:其中,其中,xij是矩阵Xn×p中的第i行第j列的元素值,n为矩阵Xn×p的总行数,p为矩阵Xn×p的总列数,为对矩阵Xn×p进行标准化处理后新矩阵的元素值。
第九步,计算矩阵Xk×b′的样本相关系数矩阵,并计算相关系数矩阵的特征值和对应的特征向量。在本实施方式中,样本相关系数矩阵的计算方法为:rij=cov(xi,xj),其中,cov()为协方差运算,xi表示矩阵Xn×p中的第i行的元素值,xj表示矩阵Xn×p中的第j列的元素值,rij为样本相关系数矩阵中的第i行第j列的元素值;然后按照线性代数中的定义计算相关系数矩阵的特征值和特征向量;特征值:λ1,λ2,…,λp;特征向量:ai=(ai1,ai2,...,aip),i=1,2,...,p。
第十步,计算各主成分的累计贡献率,计算主成分得分,认为结果是主成分得分最接近的表情类型。在本实施方式中,主成分得分的计算方法为:累计贡献率Guu为不大于p的正整数;主成分得分:au是样本相关系数矩阵的特征向量,xuu′是矩阵Xk×b′中的元素值,首先计算累积贡献率不小于0.9时,u的取值;再计算Fu的值。
先给出一个具体的实施例:
一种表情情绪识别方法,该方法具体包括以下步骤:
S1,获取预处理图片,将预处理图片规整为490×640,获得目标图片;
S2,将目标图片进行灰度化处理,获得每一个像素点的灰度值;
S3,通过对相邻像素点两两作差的方式寻找出波动最大的3个像素点,框定人脸区域;
S4,计算图片的宽高比处于阈值范围内,阈值范围为0.75~1.3,则执行步骤S5;
否则进行canny边缘检测,将边缘检测的结果进行聚类分析,将单独的人脸提取出来;执行步骤S6;
S5,将人脸图片划分256个方形区域,每个方形区域均具有8*8个像素点,将像素点的灰度值作为矩阵的元素值,形成矩阵k′为不大于256的正整数;执行步骤S7;
S6,对提取出的单张人脸图片规整为128*128,将人脸图片划分256个方形区域,每个方形区域均具有8*8个像素点,将像素点的灰度值作为矩阵的元素值,形成矩阵k′为不大于256的正整数;
S7,计算矩阵中每行的和,获得数组d[256][8];
再计算矩阵中每列的和,获得数组d[256][8];
将矩阵分为4个矩阵,形成矩阵k3为不大于4的正整数;计算的行列式值,获得数组d行列[256][4];
最后构成数组D[256][20];
S8,将数组D[256][20]形成原始数据矩阵X256×20,对原始数据矩阵X256×20进行标准化处理,得到矩阵X256×20′;
S9,计算矩阵X256×20′的样本相关系数矩阵,并计算相关系数矩阵的特征值和对应的特征向量;
S10,计算各主成分的累计贡献率,计算主成分得分,认为结果是主成分得分最接近的表情类型。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。

Claims (6)

1.一种表情情绪识别方法,其特征在于,包括以下步骤:
S1,获取预处理图片,将预处理图片规整为M×N,获得目标图片,M、N分别为宽和高对应的像素;
S2,将目标图片进行灰度化处理,获得每一个像素点的灰度值;
S3,通过对相邻像素点两两作差的方式寻找出波动最大的m个像素点,m为不小于3且不大于M*N的正整数,框定人脸区域;
S4,计算图片的宽高比处于阈值范围内,阈值范围为0.75~1.3,则执行步骤S5;
否则进行canny边缘检测,将边缘检测的结果进行聚类分析,将单独的人脸提取出来;执行步骤S6;
S5,将人脸图片划分k个方形区域,每个方形区域均具有k1*k1个像素点,将像素点的灰度值作为矩阵的元素值,形成矩阵k和k1均为正整数,k′为不大于k的正整数;k*k1 2为不大于M*N;执行步骤S7;
S6,对提取出的单张人脸图片规整为k2×k2,将人脸图片划分k2个方形区域,每个方形区域均具有k1*k1个像素点,将像素点的灰度值作为矩阵的元素值,形成矩阵其中,k2=k1*k,k、k1和k2均为正整数,k′为不大于k2的正整数;
S7,计算矩阵中每行的和,获得数组d[k][k1];
再计算矩阵中每列的和,获得数组d[k][k1];
将矩阵分为个矩阵,形成矩阵 均为正整数;k3为不大于的正整数;计算的行列式值,获得数组
最后构成数组D[k][b],
S8,将数组D[k][b]形成原始数据矩阵Xk×b,对原始数据矩阵Xk×b进行标准化处理,得到矩阵Xk×b′;
S9,计算矩阵Xk×b′的样本相关系数矩阵,并计算相关系数矩阵的特征值和对应的特征向量;
S10,计算各主成分的累计贡献率,计算主成分得分,认为结果是主成分得分最接近的表情类型。
2.根据权利要求1所述的表情情绪识别方法,其特征在于,在步骤S1中,图片规整的计算方法为:
设目标图片中的点(x,y)对应于预处理图片中的点(x0,y0),根据(x0,y0)所在位置旁边的四个点与(x0,y0)距离的关系,计算目标图片中(x,y)一点的像素值:首先计算预处理图片与目标图片宽和高像素的比例:即其中,w和h分别为预处理图片宽和高的像素,针对目标图片的一个点(x,y),按照比例计算在预处理图片中的对应坐标(x1,y1),(x1,y2),(x1,y2),(x2,y2),求周围四个点所占的权重比值s1,s2,s3,s4
fx1=x0-x1
fx2=1.0-fx1
x0=x*fw fy1=y0-y1
y0=y*fh fy2=1.0-fy1
x1=int(x0) s1=fx1*fy1
x2=x1+1 s2=fx2*fy1
y1=int(y0) s3=fx2*fy2
y2=y1+1 s4=fx1*fy2
int()表示取整,即舍去小数部分,只保留整数部分;
最后将处理后的像素点填充回目标图片。
3.根据权利要求1所述的表情情绪识别方法,其特征在于,在步骤S2中,图片进行灰度化处理的计算方法为:
Gray=0.11B+0.59G+0.3R,
其中,R,G,B三个色彩分量。
4.根据权利要求1所述的表情情绪识别方法,其特征在于,在步骤S8中,进行标准化处理的计算方法为:
针对矩阵Xn×p
对矩阵Xn×p进行计算:
<mrow> <msubsup> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mo>*</mo> </msubsup> <mo>=</mo> <mfrac> <mrow> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>-</mo> <mover> <msub> <mi>x</mi> <mi>j</mi> </msub> <mo>&amp;OverBar;</mo> </mover> </mrow> <msqrt> <mrow> <mi>V</mi> <mi>a</mi> <mi>r</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> </mrow> </msqrt> </mfrac> <mo>,</mo> </mrow>
其中,
xij是矩阵Xn×p中的第i行第j列的元素值,n为矩阵Xn×p的总行数,p为矩阵Xn×p的总列数,为对矩阵Xn×p进行标准化处理后新矩阵的元素值。
5.根据权利要求1所述的表情情绪识别方法,其特征在于,在步骤S9中,样本相关系数矩阵的计算方法为:
rij=cov(xi,xj),
cov()为协方差运算,xi表示矩阵Xn×p中的第i行的元素值,xj表示矩阵Xn×p中的第j列的元素值,rij为样本相关系数矩阵中的第i行第j列的元素值;
然后按照线性代数中的定义计算相关系数矩阵的特征值和特征向量;
特征值:λ1,λ2,…,λp
特征向量:ai=(ai1,ai2,...,aip),i=1,2,...,p。
6.根据权利要求1所述的表情情绪识别方法,其特征在于,在步骤S10中,主成分得分的计算方法为:
累计贡献率Gu
u为不大于p的正整数;
主成分得分:
<mrow> <msub> <mi>F</mi> <mi>u</mi> </msub> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>u</mi> </munderover> <msub> <mi>a</mi> <mi>i</mi> </msub> <mo>*</mo> <msup> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>i</mi> </mrow> </msub> <mo>&amp;prime;</mo> </msup> <mo>,</mo> </mrow>
ai是样本相关系数矩阵的特征向量,xii′是矩阵Xk×b′中的元素值,
首先计算累积贡献率不小于0.9时,u的取值;再计算Fu的值。
CN201710440453.XA 2017-06-13 2017-06-13 表情情绪识别方法 Pending CN107423685A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710440453.XA CN107423685A (zh) 2017-06-13 2017-06-13 表情情绪识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710440453.XA CN107423685A (zh) 2017-06-13 2017-06-13 表情情绪识别方法

Publications (1)

Publication Number Publication Date
CN107423685A true CN107423685A (zh) 2017-12-01

Family

ID=60428093

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710440453.XA Pending CN107423685A (zh) 2017-06-13 2017-06-13 表情情绪识别方法

Country Status (1)

Country Link
CN (1) CN107423685A (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1296279A2 (en) * 2001-09-20 2003-03-26 Eastman Kodak Company Method and computer program product for locating facial features
CN101021897A (zh) * 2006-12-27 2007-08-22 中山大学 一种基于块内相关性的二维线性鉴别分析人脸识别方法
CN101526997A (zh) * 2009-04-22 2009-09-09 无锡名鹰科技发展有限公司 嵌入式红外人脸图像识别方法及识别装置
CN102521623A (zh) * 2011-12-09 2012-06-27 南京大学 一种基于子空间的增量学习人脸识别方法
CN103473535A (zh) * 2013-09-13 2013-12-25 湖南华凯创意展览服务有限公司 人脸识别方法及***
CN104408440A (zh) * 2014-12-10 2015-03-11 重庆邮电大学 一种基于两步降维和并行特征融合的人脸表情识别方法
CN104850838A (zh) * 2015-05-19 2015-08-19 电子科技大学 基于表情不变区域的三维人脸识别方法
CN105117708A (zh) * 2015-09-08 2015-12-02 北京天诚盛业科技有限公司 人脸表情识别的方法和装置
CN105138972A (zh) * 2015-08-11 2015-12-09 北京天诚盛业科技有限公司 人脸认证方法和装置
CN105139039A (zh) * 2015-09-29 2015-12-09 河北工业大学 视频序列中人脸微表情的识别方法
CN105739688A (zh) * 2016-01-21 2016-07-06 北京光年无限科技有限公司 一种基于情感体系的人机交互方法、装置和交互***
CN106096517A (zh) * 2016-06-01 2016-11-09 北京联合大学 一种基于低秩矩阵与特征脸的人脸识别方法
CN106548165A (zh) * 2016-11-28 2017-03-29 中通服公众信息产业股份有限公司 一种基于图像分块加权的卷积神经网络的人脸识别方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1296279A2 (en) * 2001-09-20 2003-03-26 Eastman Kodak Company Method and computer program product for locating facial features
CN101021897A (zh) * 2006-12-27 2007-08-22 中山大学 一种基于块内相关性的二维线性鉴别分析人脸识别方法
CN101526997A (zh) * 2009-04-22 2009-09-09 无锡名鹰科技发展有限公司 嵌入式红外人脸图像识别方法及识别装置
CN102521623A (zh) * 2011-12-09 2012-06-27 南京大学 一种基于子空间的增量学习人脸识别方法
CN103473535A (zh) * 2013-09-13 2013-12-25 湖南华凯创意展览服务有限公司 人脸识别方法及***
CN104408440A (zh) * 2014-12-10 2015-03-11 重庆邮电大学 一种基于两步降维和并行特征融合的人脸表情识别方法
CN104850838A (zh) * 2015-05-19 2015-08-19 电子科技大学 基于表情不变区域的三维人脸识别方法
CN105138972A (zh) * 2015-08-11 2015-12-09 北京天诚盛业科技有限公司 人脸认证方法和装置
CN105117708A (zh) * 2015-09-08 2015-12-02 北京天诚盛业科技有限公司 人脸表情识别的方法和装置
CN105139039A (zh) * 2015-09-29 2015-12-09 河北工业大学 视频序列中人脸微表情的识别方法
CN105739688A (zh) * 2016-01-21 2016-07-06 北京光年无限科技有限公司 一种基于情感体系的人机交互方法、装置和交互***
CN106096517A (zh) * 2016-06-01 2016-11-09 北京联合大学 一种基于低秩矩阵与特征脸的人脸识别方法
CN106548165A (zh) * 2016-11-28 2017-03-29 中通服公众信息产业股份有限公司 一种基于图像分块加权的卷积神经网络的人脸识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
丁明: "人脸表情识别研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
梁小利等: "基于线性插值算法的图像缩放及实现", 《长沙通信职业技术学院学报》 *
陈晋芳: "基于过程神经元的语音情感识别", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Similar Documents

Publication Publication Date Title
CN102208019B (zh) 基于车载摄像机的车辆变道检测方法
CN103268481B (zh) 一种复杂背景图像中的文本提取方法
CN101576953B (zh) 一种人体姿态的分类方法和装置
CN106250870A (zh) 一种联合局部和全局相似性度量学习的行人再识别方法
CN110910378B (zh) 一种基于深度融合网络的双模态图像能见度检测方法
CN103093250A (zh) 一种基于新Haar-like特征的Adaboost人脸检测方法
CN105184292A (zh) 自然场景图像中手写体数学公式结构分析与识别方法
CN105469111A (zh) 基于改进的mfa和迁移学习的小样本集的物体分类方法
CN103903238A (zh) 图像特征的显著结构和相关结构融合方法
CN102867195A (zh) 一种遥感图像多类目标检测和识别方法
CN104077609A (zh) 一种基于条件随机场的显著性检测方法
CN110647909A (zh) 一种基于三维密集卷积神经网络的遥感图像分类方法
CN103839066A (zh) 一种源于生物视觉的特征提取方法
CN103996040A (zh) 融合局部-全局对比度的自底向上的视觉显著性生成方法
CN103593664B (zh) 一种qr码畸变图像的预处理方法
CN105070094B (zh) 一种基于机器视觉的车位检测***及车位检测方法
CN104217206A (zh) 基于高清视频的实时上座率统计方法
CN104091364B (zh) 单幅图像超分辨重建方法
CN115496971A (zh) 一种红外目标检测方法、装置、电子设备及存储介质
CN103093472B (zh) 基于双字典交叉稀疏表示的光学遥感图像变化检测方法
CN111753714B (zh) 基于字符分割的多方向自然场景文本检测方法
CN107103607B (zh) 一种基于种子点自动选取的全局最优化图像分割方法
CN103136536A (zh) 对象检测***和方法、图像的特征提取方法
CN107423685A (zh) 表情情绪识别方法
CN110738123B (zh) 识别密集陈列商品的方法及其装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20171201

WD01 Invention patent application deemed withdrawn after publication