CN106919923A - 一种基于人面识别的情绪分析方法 - Google Patents

一种基于人面识别的情绪分析方法 Download PDF

Info

Publication number
CN106919923A
CN106919923A CN201710130162.0A CN201710130162A CN106919923A CN 106919923 A CN106919923 A CN 106919923A CN 201710130162 A CN201710130162 A CN 201710130162A CN 106919923 A CN106919923 A CN 106919923A
Authority
CN
China
Prior art keywords
people face
analysis
image
people
analysis method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710130162.0A
Other languages
English (en)
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Foshan Rongxintong Enterprise Consultation Services Co Ltd
Original Assignee
Foshan Rongxintong Enterprise Consultation Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Foshan Rongxintong Enterprise Consultation Services Co Ltd filed Critical Foshan Rongxintong Enterprise Consultation Services Co Ltd
Priority to CN201710130162.0A priority Critical patent/CN106919923A/zh
Publication of CN106919923A publication Critical patent/CN106919923A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明提供一种基于人面识别的情绪分析方法,其通过软件***对学习者进行拍摄,并通过网络服务器辅助对图像进行处理分析,建立人面模型分析学习者的微表情变化和行为动态,从而分析出拍摄对象的情绪变化,本发明具有分析准确和相应速度快的优点。

Description

一种基于人面识别的情绪分析方法
技术领域
本发明属于智能软件技术领域,尤其涉及一种基于人面识别的情绪分析方法。
背景技术
情感能力是人类智能的重要标志,情感计算机技术是和谐人机交互与人工智能领域中新的研究方向,也是数学、信息科学、智能科学、神经科学、以及生理、心理科学等多学科交叉的新结合点,是建立自然和谐、友好的智能人机环境的基础理论与技术之一,旨在通过赋予计算机***识别、理解、表达和适应人的情感的能力,来建立和谐人机环境。
人脸识别,是基于人的脸部特征信息进行身份识别的一种生物识别技术。用摄像机或摄像头采集含有人脸的图像或视频流,并自动在图像中检测和跟踪人脸,进而对检测到的人脸进行脸部的一系列相关技术,通常也叫做人像识别、面部识别。
微表情,是心理学名词。人们通过做一些表情把内心感受表达给对方看,在人们做的不同表情之间,或是某个表情里,脸部会“泄露”出其它的信息。“微表情”最短可持续1/25秒,虽然一个下意识的表情可能只持续一瞬间,但这种特性,很容易暴露情绪。当面部在做某个表情时,这些持续时间极短的表情会突然一闪而过,而且有时表达相反的情绪。“微表情”一闪而过,通常甚至清醒的作表情的人和观察者都察觉不到。在实验里,只有10%的人察觉到。比起人们有意识做出的表情,“微表情”更能体现人们真实的感受和动机,通过人面识别再结合微表情和心理学知识可以进一步分析出人类情绪的变化。
发明内容
基于存在上述问题,本发明提供一种基于人面识别的情绪分析方法,其通过软件***对学习者进行拍摄,并通过网络服务器辅助对图像进行处理分析,建立人面模型分析学习者的微表情变化和行为动态,从而分析出拍摄对象的情绪变化,本发明具有分析准确和相应速度快的优点。
一种基于人面识别的情绪分析方法,其包括以下步骤:
步骤S10图像采集,控制摄像设备对人像进行拍摄,将拍摄到的图像传递到颜色分析模块,并随时根据颜色分析模块反馈调整拍摄角度;
步骤S20图像颜色分析,将采集到的图像信息进行分析,分析图像的颜色变化,区分人面区域和背景区域,并确定人面位置,根据人面的位置调整拍摄角度,使人面处于图像中间;
步骤S30像素统计分析,对图像进行像素化,再对图像中的人面区域进行像素统计分析,对人面进行细致识别;
步骤S40标记特征点,结合人面细致识别结果和生物信息进行比对,标记出图像中人面特征点;
步骤S50建立人面模型,根据特征点和人面信息对分析对象建立人面模型,模拟人面特征点变化分析;
步骤S60情绪分析,根据人面的变化结合生物情绪行为信息比对得出分析对象的瞬时情绪。
其中,所述的步骤S10图像采集能够分为步骤S11静态图像采集和步骤S12动态图像采集,步骤S11静态图像采集后执行步骤S20颜色分析,调整拍摄角度;步骤S12动态图像采集后执行步骤S30,对人面区域进行像素统计分析。
其中,所述的步骤S60中的生物情绪行为信息包括人面微表情信息和人为动作信息。
其中,所述的步骤S30像素统计分析还包括步骤S31,连接互联服务器辅助对图像进行像素统计分析计算。
其中,所述的分析方法还包括步骤S70大数据分析更新维护,执行步骤S60后对分析结果结合互联网数据进行大数据分析再次确认分析结果,并根据分析结果对生物信息数据库进行更新维护。
具体实施方式
下面结合具体实施例对本发明作进一步的描述。
一种基于人面识别的情绪分析方法,其包括以下步骤:
步骤S10图像采集,控制摄像设备对人像进行拍摄,将拍摄到的图像传递到颜色分析模块,并随时根据颜色分析模块反馈调整拍摄角度;
步骤S20图像颜色分析,将采集到的图像信息进行分析,分析图像的颜色变化,区分人面区域和背景区域,并确定人面位置,根据人面的位置调整拍摄角度,使人面处于图像中间;
步骤S30像素统计分析,对图像进行像素化,再对图像中的人面区域进行像素统计分析,对人面进行细致识别;
步骤S40标记特征点,结合人面细致识别结果和生物信息进行比对,标记出图像中人面特征点;
步骤S50建立人面模型,根据特征点和人面信息对分析对象建立人面模型,模拟人面特征点变化分析;
步骤S60情绪分析,根据人面的变化结合生物情绪行为信息比对得出分析对象的瞬时情绪。
作为优选实施例,所述的步骤S10图像采集能够分为步骤S11静态图像采集和步骤S12动态图像采集,步骤S11静态图像采集后执行步骤S20颜色分析,调整拍摄角度;步骤S12动态图像采集后执行步骤S30,对人面区域进行像素统计分析。
作为优选实施例,所述的步骤S60中的生物情绪行为信息包括人面微表情信息和人为动作信息。
作为优选实施例,所述的步骤S30像素统计分析还包括步骤S31,连接互联服务器辅助对图像进行像素统计分析计算。
作为优选实施例,所述的分析方法还包括步骤S70大数据分析更新维护,执行步骤S60后对分析结果结合互联网数据进行大数据分析再次确认分析结果,并根据分析结果对生物信息数据库进行更新维护。
以上所述实施例仅表达了本发明的一种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (5)

1.一种基于人面识别的情绪分析方法,其特征在于,其包括以下步骤:
步骤S10图像采集,控制摄像设备对人像进行拍摄,将拍摄到的图像传递到颜色分析模块,并随时根据颜色分析模块反馈调整拍摄角度;
步骤S20图像颜色分析,将采集到的图像信息进行分析,分析图像的颜色变化,区分人面区域和背景区域,并确定人面位置,根据人面的位置调整拍摄角度,使人面处于图像中间;
步骤S30像素统计分析,对图像进行像素化,再对图像中的人面区域进行像素统计分析,对人面进行细致识别;
步骤S40标记特征点,结合人面细致识别结果和生物信息进行比对,标记出图像中人面特征点;
步骤S50建立人面模型,根据特征点和人面信息对分析对象建立人面模型,模拟人面特征点变化分析;
步骤S60情绪分析,根据人面的变化结合生物情绪行为信息比对得出分析对象的瞬时情绪。
2.根据权利要求1所述的一种基于人面识别的情绪分析方法,其特征在于,所述的步骤S10图像采集能够分为步骤S11静态图像采集和步骤S12动态图像采集,步骤S11静态图像采集后执行步骤S20颜色分析,调整拍摄角度;步骤S12动态图像采集后执行步骤S30,对人面区域进行像素统计分析。
3.根据权利要求1所述的一种基于人面识别的情绪分析方法,其特征在于,所述的步骤S60中的生物情绪行为信息包括人面微表情信息和人为动作信息。
4.根据权利要求1所述的一种基于人面识别的情绪分析方法,其特征在于,所述的步骤S30像素统计分析还包括步骤S31,连接互联服务器辅助对图像进行像素统计分析计算。
5.根据权利要求1所述的一种基于人面识别的情绪分析方法,其特征在于,所述的分析方法还包括步骤S70大数据分析更新维护,执行步骤S60后对分析结果结合互联网数据进行大数据分析再次确认分析结果,并根据分析结果对生物信息数据库进行更新维护。
CN201710130162.0A 2017-03-07 2017-03-07 一种基于人面识别的情绪分析方法 Pending CN106919923A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710130162.0A CN106919923A (zh) 2017-03-07 2017-03-07 一种基于人面识别的情绪分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710130162.0A CN106919923A (zh) 2017-03-07 2017-03-07 一种基于人面识别的情绪分析方法

Publications (1)

Publication Number Publication Date
CN106919923A true CN106919923A (zh) 2017-07-04

Family

ID=59461688

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710130162.0A Pending CN106919923A (zh) 2017-03-07 2017-03-07 一种基于人面识别的情绪分析方法

Country Status (1)

Country Link
CN (1) CN106919923A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110119715A (zh) * 2019-05-14 2019-08-13 东北师范大学 一种陪伴机器人及情绪识别方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103488293A (zh) * 2013-09-12 2014-01-01 北京航空航天大学 一种基于表情识别的人机情感交互***及方法
CN104036255A (zh) * 2014-06-21 2014-09-10 电子科技大学 一种人脸表情识别方法
CN104077579A (zh) * 2014-07-14 2014-10-01 上海工程技术大学 基于专家***的人脸表情图像识别方法
CN104601870A (zh) * 2015-02-15 2015-05-06 广东欧珀移动通信有限公司 一种旋转摄像头的拍摄方法及移动终端
CN105117682A (zh) * 2015-07-06 2015-12-02 肖洒 人脸面部表情识别控制***
CN105354527A (zh) * 2014-08-20 2016-02-24 南京普爱射线影像设备有限公司 一种消极表情识别鼓励***

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103488293A (zh) * 2013-09-12 2014-01-01 北京航空航天大学 一种基于表情识别的人机情感交互***及方法
CN104036255A (zh) * 2014-06-21 2014-09-10 电子科技大学 一种人脸表情识别方法
CN104077579A (zh) * 2014-07-14 2014-10-01 上海工程技术大学 基于专家***的人脸表情图像识别方法
CN105354527A (zh) * 2014-08-20 2016-02-24 南京普爱射线影像设备有限公司 一种消极表情识别鼓励***
CN104601870A (zh) * 2015-02-15 2015-05-06 广东欧珀移动通信有限公司 一种旋转摄像头的拍摄方法及移动终端
CN105117682A (zh) * 2015-07-06 2015-12-02 肖洒 人脸面部表情识别控制***

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110119715A (zh) * 2019-05-14 2019-08-13 东北师范大学 一种陪伴机器人及情绪识别方法

Similar Documents

Publication Publication Date Title
CN112184705B (zh) 一种基于计算机视觉技术的人体穴位识别、定位及应用***
CN103336576B (zh) 一种基于眼动追踪进行浏览器操作的方法及装置
CN106846949A (zh) 一种远程情感教学***
CN101853399B (zh) 利用计算机视觉技术进行盲道和人行横道实时检测的方法
CN106652605A (zh) 一种远程情感教学方法
CN108542404B (zh) 注意力评估装置、vr设备及可读存储介质
Eberhardt et al. How deep is the feature analysis underlying rapid visual categorization?
de San Roman et al. Saliency driven object recognition in egocentric videos with deep CNN: toward application in assistance to neuroprostheses
CN106919922A (zh) 一种防作弊远程考试***
CN106960473B (zh) 一种行为感知***及方法
Stein et al. Object detection in natural scenes: Independent effects of spatial and category-based attention
Chen et al. Audio matters in visual attention
CN109773807B (zh) 运动控制方法、机器人
CN106203428B (zh) 基于模糊估计融合的图像显著性检测方法
Camurri et al. Visual Gesture Recognition: from motion tracking to expressive gesture
Jongerius et al. Eye-tracking glasses in face-to-face interactions: Manual versus automated assessment of areas-of-interest
CN106919924A (zh) 一种基于人面识别的情绪分析***
CN109126045A (zh) 智能化运动分析和训练***
Ma et al. A deep learning approach for online learning emotion recognition
Faria et al. Interface framework to drive an intelligent wheelchair using facial expressions
CN106920074A (zh) 一种具有心理辅助判断的远程面试方法
Sidhu et al. Deep learning based emotion detection in an online class
CN106919923A (zh) 一种基于人面识别的情绪分析方法
CN106920194A (zh) 一种防作弊远程考试方法
CN106886770A (zh) 一种视频通讯情感分析辅助方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170704

WD01 Invention patent application deemed withdrawn after publication