CN106383585A - 基于可穿戴设备的用户情绪识别方法及*** - Google Patents

基于可穿戴设备的用户情绪识别方法及*** Download PDF

Info

Publication number
CN106383585A
CN106383585A CN201610872788.4A CN201610872788A CN106383585A CN 106383585 A CN106383585 A CN 106383585A CN 201610872788 A CN201610872788 A CN 201610872788A CN 106383585 A CN106383585 A CN 106383585A
Authority
CN
China
Prior art keywords
user
action trail
data
emotion
wearable device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610872788.4A
Other languages
English (en)
Other versions
CN106383585B (zh
Inventor
张静
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Han Yue Intelligent Polytron Technologies Inc
Original Assignee
Shandong Han Yue Intelligent Polytron Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Han Yue Intelligent Polytron Technologies Inc filed Critical Shandong Han Yue Intelligent Polytron Technologies Inc
Priority to CN201610872788.4A priority Critical patent/CN106383585B/zh
Publication of CN106383585A publication Critical patent/CN106383585A/zh
Application granted granted Critical
Publication of CN106383585B publication Critical patent/CN106383585B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开了一种基于可穿戴设备的用户情绪识别方法及***,该方法包括:获取用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序将所述行为数据***至位置时序数据序列,生成用户的行为轨迹并存储至轨迹数据库内;获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联;根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪。

Description

基于可穿戴设备的用户情绪识别方法及***
技术领域
本发明属于情绪识别领域,尤其涉及一种基于可穿戴设备的用户情绪识别方法及***。
背景技术
人的行为活动由个人思想或欲望决定,行为的产生应首先受意识的影响,心理意识的思维影响着个人行为,而个人的行为又对个人心理产生一定的影响,改变心理的意识。可以说心理与意识是相互影响,相互转化的。人在清醒状态下,能够意识到作用于感官的外界环境;能够意识到自己的行为目标,对行为的控制;能够意识到自己的情绪体验;能够意识到自己的身心特点和行为特点,把“自我”与“非我”、“主体”与“客体”区分开来;还能意识到“自我”与“非我”、“主体”与“客体”的相互关系。除了意识活动,人还有无意识活动。无意识活动在人的心理中是很普遍的。无意识活动也是人反映外部世界的一种特殊形式。在大数据时代,可以通过各种传感设备实时感知人的活动状态,通过各种无意识的常规的日常行为,来综合分析人员情绪状况及心理活动。
但是,目前针对人的情绪识别还存在无法通过轨迹数据获取有效的特征值以及无法对轨迹数据进行分析和提取的问题,导致无法通过人的行为轨迹准确对人的情绪进行识别。
发明内容
为了解决现有技术的缺点,本发明提供一种基于可穿戴设备的用户情绪识别方法及***。本发明的该方法采用非介入式的方式,能够隐蔽、客观地发现服刑人员异常轨迹行为和交互行为,能够准确识别用户潜在的情绪。本发明的该***也能够准确识别用户潜在的情绪。
为实现上述目的,本发明采用以下技术方案:
一种基于可穿戴设备的用户情绪识别方法,包括:
步骤1:获取用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序将所述行为数据***至位置时序数据序列,生成用户的行为轨迹并存储至轨迹数据库内;
步骤2:获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联;
步骤3:根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;
步骤4:检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪。
所述步骤1中的位置时序数据序列包括用户ID、时间和位置ID。
所述步骤1中的用户与可穿戴设备交互的行为数据包括交互行为ID、交互时间和位置ID。
所述步骤1中的用户的行为轨迹的数据格式为:[用户ID,时间,位置ID,交互行为ID,交互行为持续时间]。
所述步骤3中,在建立情绪识别模型的过程中,提取轨迹数据库内的行为轨迹及情绪数据库内与所述行为轨迹相对应的情绪特征信息,并对所述行为轨迹及其相对应的情绪特征信息作相关性分析,得到情绪特征信息与其相应的行为轨迹的相关性矩阵,进而得到情绪识别模型。
所述步骤4中,检测轨迹数据库内的行为轨迹中异常数据的过程为:
根据轨迹数据库内的行为轨迹中的数据,计算用户趋势方向的活动距离;
对用户趋势方向的活动距离进行聚类计算,根据聚类结果判断行为轨迹中的异常数据。
所述用户趋势方向的活动距离为行为轨迹中位置ID间的距离。
一种基于可穿戴设备的用户情绪识别***,包括:
行为轨迹生成模块,其用于获取用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序将所述行为数据***至位置时序数据序列,生成用户的行为轨迹并存储至轨迹数据库内;
情绪特征信息获取模块,其用于获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联;
情绪识别模型建立模块,其用于根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;
情绪识别模块,其用于检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪。
用户的行为轨迹的数据格式为:[用户ID,时间,位置ID,交互行为ID,交互行为持续时间]。
情绪识别模型建立模块还用于:提取轨迹数据库内的行为轨迹及情绪数据库内与所述行为轨迹相对应的情绪特征信息,并对所述行为轨迹及其相对应的情绪特征信息作相关性分析,得到情绪特征信息与其相应的行为轨迹的相关性矩阵,进而得到情绪识别模型。
所述情绪识别模块,还包括:
趋势方向信息计算模块,其用于根据轨迹数据库内的行为轨迹中的数据,计算用户趋势方向的活动距离;
聚类计算模块,其用于对用户趋势方向的活动距离进行聚类计算,根据聚类结果判断行为轨迹中的异常数据。
所述用户趋势方向的活动距离为行为轨迹中位置ID间的距离。
一种基于可穿戴设备的用户情绪识别***,包括服务器,所述服务器与可穿戴设备相互通信,所述服务器包括:
行为轨迹生成模块,其用于获取用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序将所述行为数据***至位置时序数据序列,生成用户的行为轨迹并存储至轨迹数据库内;
情绪特征信息获取模块,其用于获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联;
情绪识别模型建立模块,其用于根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;
情绪识别模块,其用于检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪。
本发明的有益效果为:
(1)本发明的该方法将获取的用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序生成用户的行为轨迹并存储至轨迹数据库内;还将获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联;再根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;最后检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪;这样采用非介入式的方式,达到了隐蔽、客观地发现用户异常轨迹行为和交互行为,进而利用情绪识别模型对用户潜在的异常情绪进行识别,提高了对用户的心理活动了解程度及准确性。
(2)本发明的该***可以提高监控效率,依靠腕带与计算机的高速、精准识别,可以使大批量实时监控成为可能。
附图说明
图1是本发明的一种基于可穿戴设备的用户情绪识别方法流程示意图;
图2是本发明的检测轨迹数据库内的行为轨迹中异常数据的流程示意图;
图3是本发明的一种基于可穿戴设备的用户情绪识别***结构示意图;
图4是本发明的情绪识别模块结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
本发明所涉及的可穿戴设备包括腕带智能设备、头戴智能设备以及可穿在身上的可佩带智能设备,比如智能手表和智能头盔。
图1是本发明的一种基于可穿戴设备的用户情绪识别方法流程示意图,如图所示的基于可穿戴设备的用户情绪识别方法,包括:
步骤1:获取用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序将所述行为数据***至位置时序数据序列,生成用户的行为轨迹并存储至轨迹数据库内。
其中,位置时序数据序列包括用户ID、时间和位置ID。
用户与可穿戴设备交互的行为数据包括交互行为ID、交互时间和位置ID。
用户的行为轨迹的数据格式为:[用户ID,时间,位置ID,交互行为ID,交互行为持续时间]。
在具体实施过程中,本发明采用基于矢量信息相关性计算集((Hsent)的定位算法将所述行为数据***至位置时序数据序列,用来确定用户位置的准确坐标。其中,基于矢量信息相关性计算集((Hsent)的定位算法的思路为:通过非相关矢量坐标转化,按照中心化坐标矩阵的求解公式,使用统计矢量集重新构造坐标内积矩阵。该算法降低了测距噪声干扰,并直接使用坐标内积矩阵来计算节点坐标。
本发明中的交互行为如登陆、查询和支付。
步骤2:获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联。
其中,情绪特征信息所对应的情绪类型包括惧怕、烦躁、焦虑、愤怒、忧郁、偏见、错觉、嫉妒、孤僻、自卑、悔恨、自私、急躁、多疑、内疚、羞愧和失望。
步骤3:根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型。
在步骤3中,在建立情绪识别模型的过程中,提取轨迹数据库内的行为轨迹及情绪数据库内与所述行为轨迹相对应的情绪特征信息,并对所述行为轨迹及其相对应的情绪特征信息作相关性分析,得到情绪特征信息与其相应的行为轨迹的相关性矩阵,进而得到情绪识别模型。
步骤4:检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪。
行为轨迹中的异常数据类型包括:
步速异常:步速过快、步速过慢和徘徊;
轨迹异常:偏离日常轨迹、偏离同伴轨迹、偏离正确轨迹;
登录异常:登录时间异常、登录频率异常、冒名登录;
交互异常:交互习惯改变、消费习惯异常、浏览栏目异常。
本发明将获取的用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序生成用户的行为轨迹并存储至轨迹数据库内;还将获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联;
再根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;最后检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪;
这样采用非介入式的方式,达到了隐蔽、客观地发现用户异常轨迹行为和交互行为,进而利用情绪识别模型对用户潜在的异常情绪进行识别,提高了对用户的心理活动了解程度及准确性。
图2是本发明的检测轨迹数据库内的行为轨迹中异常数据的流程示意图,如图所示的检测轨迹数据库内的行为轨迹中异常数据过程,包括:
根据轨迹数据库内的行为轨迹中的数据,计算用户趋势方向的活动距离;
对用户趋势方向的活动距离进行聚类计算,根据聚类结果判断行为轨迹中的异常数据。
所述用户趋势方向的活动距离为行为轨迹中位置ID间的距离。
图3是本发明的一种基于可穿戴设备的用户情绪识别***结构示意图,如图所示的基于可穿戴设备的用户情绪识别***包括:行为轨迹生成模块、情绪特征信息获取模块、情绪识别模型建立模块和情绪识别模块。
(1)行为轨迹生成模块,其用于获取用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序将所述行为数据***至位置时序数据序列,生成用户的行为轨迹并存储至轨迹数据库内。
用户的行为轨迹的数据格式为:[用户ID,时间,位置ID,交互行为ID,交互行为持续时间]。
(2)情绪特征信息获取模块,其用于获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联。
(3)情绪识别模型建立模块,其用于根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;
情绪识别模型建立模块还用于:提取轨迹数据库内的行为轨迹及情绪数据库内与所述行为轨迹相对应的情绪特征信息,并对所述行为轨迹及其相对应的情绪特征信息作相关性分析,得到情绪特征信息与其相应的行为轨迹的相关性矩阵,进而得到情绪识别模型。
(4)情绪识别模块,其用于检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪。
如图4所示,情绪识别模块还包括:趋势方向信息计算模块,其用于根据轨迹数据库内的行为轨迹中的数据,计算用户趋势方向的活动距离;
聚类计算模块,其用于对用户趋势方向的活动距离进行聚类计算,根据聚类结果判断行为轨迹中的异常数据。
所述用户趋势方向的活动距离为行为轨迹中位置ID间的距离。
本发明将获取的用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序生成用户的行为轨迹并存储至轨迹数据库内;还将获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联;
再根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;最后检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪;
这样采用非介入式的方式,达到了隐蔽、客观地发现用户异常轨迹行为和交互行为,进而利用情绪识别模型对用户潜在的异常情绪进行识别,提高了对用户的心理活动了解程度及准确性。
本发明还提供了一种基于可穿戴设备的用户情绪识别***,包括服务器,所述服务器与可穿戴设备相互通信,所述服务器包括:
行为轨迹生成模块,其用于获取用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序将所述行为数据***至位置时序数据序列,生成用户的行为轨迹并存储至轨迹数据库内;
情绪特征信息获取模块,其用于获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联;
情绪识别模型建立模块,其用于根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;
情绪识别模块,其用于检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪。
本发明将获取的用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序生成用户的行为轨迹并存储至轨迹数据库内;还将获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联;
再根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;最后检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪;
这样采用非介入式的方式,达到了隐蔽、客观地发现用户异常轨迹行为和交互行为,进而利用情绪识别模型对用户潜在的异常情绪进行识别,提高了对用户的心理活动了解程度及准确性。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(RandomAccessMemory,RAM)等。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (10)

1.一种基于可穿戴设备的用户情绪识别方法,其特征在于,包括:
步骤1:获取用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序将所述行为数据***至位置时序数据序列,生成用户的行为轨迹并存储至轨迹数据库内;
步骤2:获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联;
步骤3:根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;
步骤4:检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪。
2.如权利要求1所述的一种基于可穿戴设备的用户情绪识别方法,其特征在于,所述步骤1中的位置时序数据序列包括用户ID、时间和位置ID。
3.如权利要求2所述的一种基于可穿戴设备的用户情绪识别方法,其特征在于,所述步骤1中的用户与可穿戴设备交互的行为数据包括交互行为ID、交互时间和位置ID。
4.如权利要求3所述的一种基于可穿戴设备的用户情绪识别方法,其特征在于,所述步骤1中的用户的行为轨迹的数据格式为:[用户ID,时间,位置ID,交互行为ID,交互行为持续时间]。
5.如权利要求1所述的一种基于可穿戴设备的用户情绪识别方法,其特征在于,所述步骤3中,在建立情绪识别模型的过程中,提取轨迹数据库内的行为轨迹及情绪数据库内与所述行为轨迹相对应的情绪特征信息,并对所述行为轨迹及其相对应的情绪特征信息作相关性分析,得到情绪特征信息与其相应的行为轨迹的相关性矩阵,进而得到情绪识别模型。
6.如权利要求1所述的一种基于可穿戴设备的用户情绪识别方法,其特征在于,所述步骤4中,检测轨迹数据库内的行为轨迹中异常数据的过程为:
根据轨迹数据库内的行为轨迹中的数据,计算用户趋势方向的活动距离;
对用户趋势方向的活动距离进行聚类计算,根据聚类结果判断行为轨迹中的异常数据;
所述用户趋势方向的活动距离为行为轨迹中位置ID间的距离。
7.一种基于可穿戴设备的用户情绪识别***,其特征在于,包括:
行为轨迹生成模块,其用于获取用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序将所述行为数据***至位置时序数据序列,生成用户的行为轨迹并存储至轨迹数据库内;
情绪特征信息获取模块,其用于获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联;
情绪识别模型建立模块,其用于根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;
情绪识别模块,其用于检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪。
8.如权利要求7所述的一种基于可穿戴设备的用户情绪识别***,其特征在于,用户的行为轨迹的数据格式为:[用户ID,时间,位置ID,交互行为ID,交互行为持续时间]。
9.如权利要求7所述的一种基于可穿戴设备的用户情绪识别***,其特征在于,情绪识别模型建立模块还用于:提取轨迹数据库内的行为轨迹及情绪数据库内与所述行为轨迹相对应的情绪特征信息,并对所述行为轨迹及其相对应的情绪特征信息作相关性分析,得到情绪特征信息与其相应的行为轨迹的相关性矩阵,进而得到情绪识别模型。
10.如权利要求7所述的一种基于可穿戴设备的用户情绪识别***,其特征在于,所述情绪识别模块,还包括:
趋势方向信息计算模块,其用于根据轨迹数据库内的行为轨迹中的数据,计算用户趋势方向的活动距离;所述用户趋势方向的活动距离为行为轨迹中位置ID间的距离;
聚类计算模块,其用于对用户趋势方向的活动距离进行聚类计算,根据聚类结果判断行为轨迹中的异常数据。
CN201610872788.4A 2016-09-30 2016-09-30 基于可穿戴设备的用户情绪识别方法及*** Active CN106383585B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610872788.4A CN106383585B (zh) 2016-09-30 2016-09-30 基于可穿戴设备的用户情绪识别方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610872788.4A CN106383585B (zh) 2016-09-30 2016-09-30 基于可穿戴设备的用户情绪识别方法及***

Publications (2)

Publication Number Publication Date
CN106383585A true CN106383585A (zh) 2017-02-08
CN106383585B CN106383585B (zh) 2019-05-07

Family

ID=57937160

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610872788.4A Active CN106383585B (zh) 2016-09-30 2016-09-30 基于可穿戴设备的用户情绪识别方法及***

Country Status (1)

Country Link
CN (1) CN106383585B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108052599A (zh) * 2017-12-12 2018-05-18 清华大学 一种支持特征查询的时序数据存储的方法和装置
CN109686046A (zh) * 2018-12-29 2019-04-26 杭州平普智能科技有限公司 一种犯人情绪异常分析管理方法和装置
CN109784175A (zh) * 2018-12-14 2019-05-21 深圳壹账通智能科技有限公司 基于微表情识别的异常行为人识别方法、设备和存储介质
CN112120714A (zh) * 2019-06-25 2020-12-25 奇酷互联网络科技(深圳)有限公司 可穿戴设备的监测方法、可穿戴设备及计算机存储介质
CN112515675A (zh) * 2020-12-14 2021-03-19 西安理工大学 一种基于智能可穿戴设备的情绪分析方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103052022A (zh) * 2011-10-17 2013-04-17 ***通信集团公司 基于移动行为的用户稳定点发现方法和***
CN104545951A (zh) * 2015-01-09 2015-04-29 天津大学 基于功能性近红外光谱和运动检测的人体状态监测平台
CN105844101A (zh) * 2016-03-25 2016-08-10 惠州Tcl移动通信有限公司 一种基于智能手表的情绪数据处理方法、***及智能手表

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103052022A (zh) * 2011-10-17 2013-04-17 ***通信集团公司 基于移动行为的用户稳定点发现方法和***
CN104545951A (zh) * 2015-01-09 2015-04-29 天津大学 基于功能性近红外光谱和运动检测的人体状态监测平台
CN105844101A (zh) * 2016-03-25 2016-08-10 惠州Tcl移动通信有限公司 一种基于智能手表的情绪数据处理方法、***及智能手表

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108052599A (zh) * 2017-12-12 2018-05-18 清华大学 一种支持特征查询的时序数据存储的方法和装置
CN109784175A (zh) * 2018-12-14 2019-05-21 深圳壹账通智能科技有限公司 基于微表情识别的异常行为人识别方法、设备和存储介质
CN109686046A (zh) * 2018-12-29 2019-04-26 杭州平普智能科技有限公司 一种犯人情绪异常分析管理方法和装置
CN112120714A (zh) * 2019-06-25 2020-12-25 奇酷互联网络科技(深圳)有限公司 可穿戴设备的监测方法、可穿戴设备及计算机存储介质
CN112515675A (zh) * 2020-12-14 2021-03-19 西安理工大学 一种基于智能可穿戴设备的情绪分析方法
CN112515675B (zh) * 2020-12-14 2022-05-27 西安理工大学 一种基于智能可穿戴设备的情绪分析方法

Also Published As

Publication number Publication date
CN106383585B (zh) 2019-05-07

Similar Documents

Publication Publication Date Title
CN106383585A (zh) 基于可穿戴设备的用户情绪识别方法及***
CN103549949B (zh) 基于确定学习理论的心肌缺血辅助检测方法
CN106956271B (zh) 预测情感状态的方法和机器人
Wang et al. Fall detection based on dual-channel feature integration
Wübbeler et al. Verification of humans using the electrocardiogram
Saleheen et al. puffMarker: a multi-sensor approach for pinpointing the timing of first lapse in smoking cessation
CN104093353B (zh) 信息处理装置以及代表波形生成方法
Candás et al. An automatic data mining method to detect abnormal human behaviour using physical activity measurements
US20180263545A1 (en) Emotional/Behavioural/Psychological State Estimation System
CN104834907A (zh) 手势识别方法、装置、设备以及基于手势识别的操作方法
CN104490401B (zh) 基于加速度数据的智能终端进行人体行为自动识别的方法
Wang et al. Real-time activity recognition in wireless body sensor networks: From simple gestures to complex activities
CN107767965A (zh) 多因素关联比对的健康监测***及方法
CN111208508A (zh) 运动量测量方法、装置及电子设备
CN106725376A (zh) 体征信号检测方法及装置
CN107943276A (zh) 基于大数据平台的人体行为检测和预警
CN105997106A (zh) 用于实时确定人的压力水平的方法和***
Sun et al. Toward sensing emotions with deep visual analysis: A long-term psychological modeling approach
CN103785157A (zh) 人体运动类型识别准确度提高方法
Lu et al. Postgraduate student depression assessment by multimedia gait analysis
CN109036541A (zh) 一种可穿戴设备的使用提醒方法及可穿戴设备
Kao et al. GA-SVM applied to the fall detection system
Shao et al. Comparison Analysis of Different Time‐Scale Heart Rate Variability Signals for Mental Workload Assessment in Human‐Robot Interaction
Tiwari et al. Stress and anxiety measurement" in-the-wild" using quality-aware multi-scale hrv features
Jonnalagadda et al. An Ensemble-Based Machine Learning Model for Emotion and Mental Health Detection

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant