CN110101398A - 一种检测情绪的方法和*** - Google Patents

一种检测情绪的方法和*** Download PDF

Info

Publication number
CN110101398A
CN110101398A CN201910349847.3A CN201910349847A CN110101398A CN 110101398 A CN110101398 A CN 110101398A CN 201910349847 A CN201910349847 A CN 201910349847A CN 110101398 A CN110101398 A CN 110101398A
Authority
CN
China
Prior art keywords
mood
instruction
data
parent
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910349847.3A
Other languages
English (en)
Inventor
胡菁菁
林连南
周宇琛
李可欣
谢咏雪
陈俊康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Publication of CN110101398A publication Critical patent/CN110101398A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • A61B5/0531Measuring skin impedance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7225Details of analog processing, e.g. isolation amplifier, gain or sensitivity adjustment, filtering, baseline or drift compensation

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Psychiatry (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Dermatology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Power Engineering (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明公开了一种检测情绪的方法,包括智能语音开发平台接收家长发出的开始检测指令,并对所述开始检测指令进行分析,根据分析结果触发传感器,传感器采集儿童的人体皮肤电阻数据,经开发板发送至数据处理中心服务器;数据处理中心服务器对所述人体皮肤电阻数据进行分析,得到情绪分析结果;数据处理中心服务器将所述情绪分析结果发送至安装有情绪检测应用程序的移动终端,供家长查看,可以支持家长不在孩子身边时,即时地检测儿童的情绪,并结合语音交互***和传感器技术得到儿童的情绪分析结果,帮助家长更好地关注儿童的情绪成长状态,帮助家长科学育儿。

Description

一种检测情绪的方法和***
技术领域
本发明涉及语音检测技术领域,具体涉及一种检测情绪的方法和***。
背景技术
情绪检测主要是以人体生理值为阻抗方式通以信号电流反馈再经一中央处理器为信号处理后,其侦测结果经由一输出装置呈现出而获得情绪侦测的目的。目前市面上有关情绪检测的专利技术不多,大多情绪检测是基于语音分析进行情绪监控的,目标对象主要是老年人。市面上还没有专门监控儿童情绪的***或者装置。而儿童的情绪多变、难以捉摸,且直接影响儿童的身心发展。因此,行业内急需研发一种结合语音交互***和传感器技术有效地监控儿童情绪,辅助儿童心理健康成长的方法或者***。
发明内容
本发明的目的是为了克服以上现有技术存在的不足,提供了一种检测情绪的方法和***。
本发明的另一目的是为了克服以上现有技术存在的不足,提供了一种检测情绪的方法和***。
本发明的目的通过以下的技术方案实现:
一种检测情绪的方法,包括:
S1,智能语音开发平台接收家长发出的开始检测指令,并对所述开始检测指令进行分析,根据分析结果触发传感器;
S2,传感器采集儿童的人体皮肤电阻数据,经开发板发送至数据处理中心服务器;
S3,数据处理中心服务器对所述人体皮肤电阻数据进行分析,得到情绪分析结果;
S4,数据处理中心服务器将所述情绪分析结果发送至安装有情绪检测应用程序的移动终端,供家长查看。
优选地,所述智能语音开发平台接收家长发出的开始检测指令,并对所述开始检测指令进行分析,根据分析结果触发传感器包括:麦克风接收家长发出的检测情绪的语音指令,并将所述语音指令经开发板发送至智能语音开发平台;智能语音开发平台对所述语音指令进行分析,得到字符式指令,并根据所述字符式指令触发传感器。
优选地,所述智能语音开发平台包括:语言识别模块和技能服务模块;所述语言识别模块,用于对所述语音指令进行分析,转化为字符式指令;所述技能服务模块根据所述字符式指令匹配触发服务器动作的启动指令,并将所述启动指令发送至开发板。
优选地,所述智能语音开发平台接收家长发出的开始检测指令,并对所述开始检测指令进行分析,根据分析结果触发传感器包括:移动终端接收家长发出的按键启动指令,并将按键启动指令发送至智能语音开发平台;智能语音开发平台根据按键启动指令经开发板触发传感器。
优选地,所述数据处理中心服务器对所述人体皮肤电阻数据进行分析,得到情绪分析结果包括:
S31,所述数据处理中心服务器对所述人体皮肤电阻数据进行去噪;
S32,采用PCA主成分分析法对去噪后的数据进行降维、提取对情绪分类影响值大于K的特征值,其中K>0;
S33,通过K近邻算法进行对所述特征值情绪分类,得出情绪分析结果。
优选地,所述人体皮肤电阻数据为皮肤电阻值。
本发明的另一目的通过以下的技术方案实现:
一种检测情绪的***,包括:智能语音开发平台、开发板、传感器、数据处理中心服务器和安装有情绪检测应用程序的移动终端;所述智能语音开发平台,用于接收家长发出的开始检测指令,并对所述开始检测指令进行分析,根据分析结果触发传感器;所述传感器,用于采集儿童的人体皮肤电阻数据,经开发板发送至数据处理中心服务器;所述数据处理中心服务器,用于对所述人体皮肤电阻数据进行分析,得到情绪分析结果;将所述情绪分析结果发送至安装有情绪检测应用程序的移动终端,供家长查看。
优选地,还包括:麦克风;所述麦克风,用于接收家长发出的检测情绪的语音指令,并将所述语音指令经开发板发送至智能语音开发平台;所述智能语音开发平台,用于对所述语音指令进行分析,得到字符式指令,并根据所述字符式指令触发传感器。
优选地,所述智能语音开发平台包括:语言识别模块和技能服务模块;所述语言识别模块,用于对所述语音指令进行分析,转化为字符式指令;所述技能服务模块根据所述字符式指令匹配触发服务器动作的启动指令,并将所述启动指令发送至开发板。
优选地,所述数据处理中心服务器包括:去噪模块、特征值提取模块和情绪分类模块;所述去噪模块,用于对所述人体皮肤电阻数据进行去噪;所述特征值提取模块,用于采用PCA主成分分析法对去噪后的数据进行降维、提取对情绪分类影响值大于K的特征值,其中K>0;所述情绪分类模块,用于通过K近邻算法进行对所述特征值情绪分类,得出情绪分析结果。
本发明相对于现有技术具有如下的优点:
本方案通过智能语音开发平台接收家长发出的开始检测指令,并对所述开始检测指令进行分析,根据分析结果触发传感器,传感器采集儿童的人体皮肤电阻数据,经开发板发送至数据处理中心服务器;数据处理中心服务器对所述人体皮肤电阻数据进行分析,得到情绪分析结果;数据处理中心服务器将所述情绪分析结果发送至安装有情绪检测应用程序的移动终端,供家长查看,可以支持家长不在孩子身边时,即时地检测儿童的情绪,并结合语音交互***和传感器技术得到儿童的情绪分析结果,帮助家长更好地关注儿童的情绪成长状态,帮助家长科学育儿。
附图说明
图1是本发明的检测情绪的方法的流程示意图。
图2是本发明的数据处理中心服务器对所述人体皮肤电阻数据进行分析的流程示意图。
图3是本发明的检测情绪的***的结构框图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
参见图1-2、一种检测情绪的方法,包括:
S1,智能语音开发平台接收家长发出的开始检测指令,并对所述开始检测指令进行分析,根据分析结果触发传感器;
在本实施例,步骤S1包括:麦克风接收家长发出的检测情绪的语音指令,并将所述语音指令经开发板发送至智能语音开发平台;智能语音开发平台对所述语音指令进行分析,得到字符式指令,并根据所述字符式指令触发传感器。更进一步地,所述智能语音开发平台包括:语言识别模块和技能服务模块;所述语言识别模块,用于对所述语音指令进行分析,转化为字符式指令;所述技能服务模块根据所述字符式指令匹配触发服务器动作的启动指令,并将所述启动指令发送至开发板。开发板在Wi-Fi环境下根据所述启动指令开启传感器。所述语音指令为“检测情绪”的指令,家长作为用户,当他需要给儿童检测情绪时,会向麦克风发出“检测情绪”的指令,检测情绪的***开启工作。
其中,开发板使用的是Ameba开发板,平台是DuerOS智能语音开发平台。
作为另一实施例,步骤S1包括:移动终端接收家长发出的按键启动指令,并将按键启动指令发送至智能语音开发平台;智能语音开发平台根据按键启动指令经开发板触发传感器。
S2,传感器采集儿童的人体皮肤电阻数据,经开发板发送至数据处理中心服务器;其中,所述人体皮肤电阻数据为皮肤电阻值。
S3,数据处理中心服务器对所述人体皮肤电阻数据进行分析,得到情绪分析结果;数据处理中心服务器会根据情绪算法解析接收的人体皮肤电阻数据,判断当前用户最可能处于何种情绪。解析公式为欧式距离公式:
X、Y是测试数据集。采用投票计数原理统计特征值出现在多个样本测试区域的频率。
步骤S3包括:
S31,所述数据处理中心服务器对所述人体皮肤电阻数据进行去噪;因为在采集信息的环境和采集到的GSR(皮肤电信号)信息会有噪声或者电磁干扰,对真实的GSR信号造成一定的误差。需要对信息进行信息去噪,去噪的常用方法有:小波变换法(waveletTransform简称WT),通过固定窗口面积,然后改变时间和频率进行分析。在小波域,可以有效信号为连续集,噪声则是断断续续的。其中f(t)为GSR信号序列,WTf(a,τ)称为小波变换系数,a为尺度因子,τ为平移因子,ψ(t)为基本小波,基本小波ψ(t)经过位移和拉伸得到小波基函数(1.2),当小波满足(1.3)时,连续小波存在逆变换,可以得到(1.4),因为要使用计算机进行计算,所以要进行离散化处理,得到(1.5),将(1.5)带回(1.1),得到(1.6),将收集到的GSR信号序列带入(1.6),可得去噪后的序列:一个低频序列和一个高频序列,低频序列仍可继续进行小波变换得到更好的数据,但是样本量会减少。高频序列为去噪后数据。
连续小波的逆变换公式为:
对连续小波离散变换
ψj,k(t)=a0-j/2ψ(a0-jt-kτ0)j∈Z (1.5)
则信号f(t)的离散小波变换(DWT)为:
WTf(j,k)=∫f(t)a0-j/2ψ(a0-jt-kτ0)dt (1.6)
S32,采用PCA主成分分析法对去噪后的数据进行降维、提取对情绪分类影响值大于K的特征值,其中K>0;对于去噪后的GSR信号选择其中的24个时域特征和6个频域特征。特征值:GSR均值、GSR中值、GSR标准差、GSR最大值、GSR最小值、GSR范围、GSR最大值比率、GSR最小值比率、GSR一阶差分中值、GSR一阶差分绝对值均值、GSR一阶差分最大值、GSR一阶差分最小值、GSR一阶差分范围、GSR一阶差分最小值比率、GSR一阶差分最大值比率、GSR归一化一阶差分绝对值均值、GSR二阶差分标准差、GSR二阶差分最小值、GSR二阶差分最大值、GSR二阶差分范围、GSR二阶差分最小值比率、GSR二阶差分最大值比率、GSR归一化为阶差分绝对值均值、GSR频域均值、GSR频域中值、GSR频域标准差、GSR频域最大值、GSR频域最小值、GSR频域范围
下面为提取特征涉及到的公式:
(1)均值公式:
(2)标准差:
(3)归一化:
(4)一阶差分:Δx=Xn+1-Xn
(5)二阶差分:2Δx=Xn+2-Xn
(6)最大值比率:
(7)最小值比率:
(8)归一化(为了简化训练复杂度):
对去噪后的信号段分别提取特性值,Xi是第i个归一化后的特性值;X(i,max)是第i个原始特征的最大值;X(i,min)是第i个原始特征的最小值。数据分析:
特征值有三十个,但众所周知三十个中必然有关联性不大的特征值,为了提高训练准确率,减少训练维度和难度,选择PCA降维方法将数据作降维处理。将提取特征值的数据转化为矩阵,然后先根据协方差定义求出对应的协方差矩阵,再根据公式,求出特征向量X,根据λ的大小对对饮的特征向量进行排序,选取其中合适数量的特征值组成新的矩阵。最后再把样本对特征向量进行矩阵投影运算,得到可以进行分类的数据。
涉及公式如下:
协方差公式:
i,j=cov(Xi,Xj)=E[(Xi-μi)(Xj-μj)]
特征向量X:(λ0E-A)X=0,λ为特征值,μ为均值。
投影公式:P=A*(A^TA)^{-1}A^T,T为转置矩阵,A为矩阵
S33,通过K近邻算法进行对所述特征值情绪分类,得出情绪分析结果。预测与分类:
在最后的情绪分类部分,选择的是K近邻算法,首先通过计算要预测数据与已知样本点的距离,将距离由小到大排序,再选择前K个点,确定K个点所在情绪类别(如开心,生气,难过等)出现的频率,返回K个点中出现频率最高的情绪类别。其中欧式距离公式:
S4,数据处理中心服务器将所述情绪分析结果发送至安装有情绪检测应用程序的移动终端,供家长查看。
参见图3,上述检测情绪的方法应用的检测情绪的***,包括:智能语音开发平台、开发板、传感器、数据处理中心服务器和安装有情绪检测应用程序的移动终端;所述智能语音开发平台,用于接收家长发出的开始检测指令,并对所述开始检测指令进行分析,根据分析结果触发传感器;所述传感器,用于采集儿童的人体皮肤电阻数据,经开发板发送至数据处理中心服务器;所述数据处理中心服务器,用于对所述人体皮肤电阻数据进行分析,得到情绪分析结果;将所述情绪分析结果发送至安装有情绪检测应用程序的移动终端,供家长查看。
在本实施例,还包括:麦克风和音响;所述麦克风,用于接收家长发出的检测情绪的语音指令,并将所述语音指令经开发板发送至智能语音开发平台;所述智能语音开发平台,用于对所述语音指令进行分析,得到字符式指令,并根据所述字符式指令触发传感器。数据处理中心服务器根据情绪分析结果向智能语音开发平台发送对应的指令,后传输到开发板,开发板启动音响,语音播报情绪检测结果。在本实施例,麦克风和音响集成于开发板上,麦克风接收用户指令,音响执行数据处理中心服务器要求的行动。
在本实施例,所述智能语音开发平台包括:语言识别模块和技能服务模块;所述语言识别模块,用于对所述语音指令进行分析,转化为字符式指令;所述技能服务模块根据所述字符式指令匹配触发服务器动作的启动指令,并将所述启动指令发送至开发板。
在本实施例,所述数据处理中心服务器包括:去噪模块、特征值提取模块和情绪分类模块;所述去噪模块,用于对所述人体皮肤电阻数据进行去噪;所述特征值提取模块,用于采用PCA主成分分析法对去噪后的数据进行降维、提取对情绪分类影响值大于K的特征值,其中K>0;所述情绪分类模块,用于通过K近邻算法进行对所述特征值情绪分类,得出情绪分析结果。
本方案通过智能语音开发平台接收家长发出的开始检测指令,并对所述开始检测指令进行分析,根据分析结果触发传感器,传感器采集儿童的人体皮肤电阻数据,经开发板发送至数据处理中心服务器;数据处理中心服务器对所述人体皮肤电阻数据进行分析,得到情绪分析结果;数据处理中心服务器将所述情绪分析结果发送至安装有情绪检测应用程序的移动终端,供家长查看,可以支持家长不在孩子身边时,即时地检测儿童的情绪,并结合语音交互***和传感器技术得到儿童的情绪分析结果,帮助家长更好地关注儿童的情绪成长状态,并提供了情绪平复等教育建议,帮助家长科学育儿。
上述具体实施方式为本发明的优选实施例,并不能对本发明进行限定,其他的任何未背离本发明的技术方案而所做的改变或其它等效的置换方式,都包含在本发明的保护范围之内。

Claims (10)

1.一种检测情绪的方法,其特征在于,包括:
S1,智能语音开发平台接收家长发出的开始检测指令,并对所述开始检测指令进行分析,根据分析结果触发传感器;
S2,传感器采集儿童的人体皮肤电阻数据,经开发板发送至数据处理中心服务器;
S3,数据处理中心服务器对所述人体皮肤电阻数据进行分析,得到情绪分析结果;
S4,数据处理中心服务器将所述情绪分析结果发送至安装有情绪检测应用程序的移动终端,供家长查看。
2.根据权利要求1所述的检测情绪的方法,其特征在于,所述智能语音开发平台接收家长发出的开始检测指令,并对所述开始检测指令进行分析,根据分析结果触发传感器包括:
麦克风接收家长发出的检测情绪的语音指令,并将所述语音指令经开发板发送至智能语音开发平台;
智能语音开发平台对所述语音指令进行分析,得到字符式指令,并根据所述字符式指令触发传感器。
3.根据权利要求2所述的检测情绪的方法,其特征在于,所述智能语音开发平台包括:语言识别模块和技能服务模块;
所述语言识别模块,用于对所述语音指令进行分析,转化为字符式指令;所述技能服务模块根据所述字符式指令匹配触发服务器动作的启动指令,并将所述启动指令发送至开发板。
4.根据权利要求1所述的检测情绪的方法,其特征在于,所述智能语音开发平台接收家长发出的开始检测指令,并对所述开始检测指令进行分析,根据分析结果触发传感器包括:
移动终端接收家长发出的按键启动指令,并将按键启动指令发送至智能语音开发平台;智能语音开发平台根据按键启动指令经开发板触发传感器。
5.根据权利要求1所述的检测情绪的方法,其特征在于,所述数据处理中心服务器对所述人体皮肤电阻数据进行分析,得到情绪分析结果包括:
S31,所述数据处理中心服务器对所述人体皮肤电阻数据进行去噪;
S32,采用PCA主成分分析法对去噪后的数据进行降维、提取对情绪分类影响值大于K的特征值,其中K>0;
S33,通过K近邻算法进行对所述特征值情绪分类,得出情绪分析结果。
6.根据权利要求1所述的检测情绪的方法,其特征在于,所述人体皮肤电阻数据为皮肤电阻值。
7.一种检测情绪的***,其特征在于,包括:智能语音开发平台、开发板、传感器、数据处理中心服务器和安装有情绪检测应用程序的移动终端;
所述智能语音开发平台,用于接收家长发出的开始检测指令,并对所述开始检测指令进行分析,根据分析结果触发传感器;
所述传感器,用于采集儿童的人体皮肤电阻数据,经开发板发送至数据处理中心服务器;
所述数据处理中心服务器,用于对所述人体皮肤电阻数据进行分析,得到情绪分析结果;将所述情绪分析结果发送至安装有情绪检测应用程序的移动终端,供家长查看。
8.根据权利要求7所述的检测情绪的***,其特征在于,还包括:麦克风;
所述麦克风,用于接收家长发出的检测情绪的语音指令,并将所述语音指令经开发板发送至智能语音开发平台;
所述智能语音开发平台,用于对所述语音指令进行分析,得到字符式指令,并根据所述字符式指令触发传感器。
9.根据权利要求8所述的检测情绪的***,其特征在于,所述智能语音开发平台包括:语言识别模块和技能服务模块;
所述语言识别模块,用于对所述语音指令进行分析,转化为字符式指令;所述技能服务模块根据所述字符式指令匹配触发服务器动作的启动指令,并将所述启动指令发送至开发板。
10.根据权利要求7所述的检测情绪的***,其特征在于,所述数据处理中心服务器包括:去噪模块、特征值提取模块和情绪分类模块;
所述去噪模块,用于对所述人体皮肤电阻数据进行去噪;
所述特征值提取模块,用于采用PCA主成分分析法对去噪后的数据进行降维、提取对情绪分类影响值大于K的特征值,其中K>0;
所述情绪分类模块,用于通过K近邻算法进行对所述特征值情绪分类,得出情绪分析结果。
CN201910349847.3A 2018-11-29 2019-04-28 一种检测情绪的方法和*** Pending CN110101398A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811439812 2018-11-29
CN2018114398120 2018-11-29

Publications (1)

Publication Number Publication Date
CN110101398A true CN110101398A (zh) 2019-08-09

Family

ID=67487235

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910349847.3A Pending CN110101398A (zh) 2018-11-29 2019-04-28 一种检测情绪的方法和***

Country Status (1)

Country Link
CN (1) CN110101398A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110786826A (zh) * 2019-10-09 2020-02-14 天津大学 一种通过传感器采集生理数据的智能鞋垫
CN115952460A (zh) * 2023-03-14 2023-04-11 首都医科大学附属北京同仁医院 情绪识别方法、装置、计算机设备和存储介质

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103829958A (zh) * 2014-02-19 2014-06-04 广东小天才科技有限公司 一种监测人情绪的方法及装置
CN103892830A (zh) * 2014-04-01 2014-07-02 新加坡情桥私人有限公司 一种基于人体皮肤电阻变化的情绪检测方法及***
CN104305561A (zh) * 2014-09-30 2015-01-28 肖南 情感可穿戴***及情感的判断方法
CN104739369A (zh) * 2013-12-31 2015-07-01 深圳市劲升迪龙科技发展有限公司 一种婴儿健康和情绪状态监测设备
CN104739381A (zh) * 2013-12-31 2015-07-01 深圳市劲升迪龙科技发展有限公司 一种远程生理数据和情绪状态监测腕表
CN104754150A (zh) * 2015-03-05 2015-07-01 上海斐讯数据通信技术有限公司 一种情绪获取方法及***
CN104916287A (zh) * 2015-06-10 2015-09-16 青岛海信移动通信技术股份有限公司 一种语音控制的方法、装置和移动设备
CN105260745A (zh) * 2015-09-30 2016-01-20 西安沧海网络科技有限公司 一种基于大数据进行情感识别及预测的信息推送服务***
CN106512207A (zh) * 2016-11-11 2017-03-22 深圳欧德蒙科技有限公司 基于皮电的情绪调节方法及***
CN106683688A (zh) * 2015-11-05 2017-05-17 ***通信集团公司 一种情绪检测方法及装置
CN106725473A (zh) * 2016-12-29 2017-05-31 杭州联络互动信息科技股份有限公司 一种基于智能可穿戴设备调节情绪状态的方法及装置
CN107220591A (zh) * 2017-04-28 2017-09-29 哈尔滨工业大学深圳研究生院 多模态智能情绪感知***
CN107920754A (zh) * 2015-04-05 2018-04-17 斯米拉布莱斯有限公司 监测婴幼儿情绪状态并确定与婴幼儿相关联的生理测量值
CN108186033A (zh) * 2018-01-08 2018-06-22 杭州草莽科技有限公司 一种基于人工智能的幼儿情绪监控方法及其***
CN108309328A (zh) * 2018-01-31 2018-07-24 南京邮电大学 一种基于自适应模糊支持向量机的情绪识别方法
CN108742660A (zh) * 2018-07-02 2018-11-06 西北工业大学 一种基于可穿戴设备的情绪识别方法

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104739369A (zh) * 2013-12-31 2015-07-01 深圳市劲升迪龙科技发展有限公司 一种婴儿健康和情绪状态监测设备
CN104739381A (zh) * 2013-12-31 2015-07-01 深圳市劲升迪龙科技发展有限公司 一种远程生理数据和情绪状态监测腕表
CN103829958A (zh) * 2014-02-19 2014-06-04 广东小天才科技有限公司 一种监测人情绪的方法及装置
CN103892830A (zh) * 2014-04-01 2014-07-02 新加坡情桥私人有限公司 一种基于人体皮肤电阻变化的情绪检测方法及***
CN104305561A (zh) * 2014-09-30 2015-01-28 肖南 情感可穿戴***及情感的判断方法
CN104754150A (zh) * 2015-03-05 2015-07-01 上海斐讯数据通信技术有限公司 一种情绪获取方法及***
CN107920754A (zh) * 2015-04-05 2018-04-17 斯米拉布莱斯有限公司 监测婴幼儿情绪状态并确定与婴幼儿相关联的生理测量值
CN104916287A (zh) * 2015-06-10 2015-09-16 青岛海信移动通信技术股份有限公司 一种语音控制的方法、装置和移动设备
CN105260745A (zh) * 2015-09-30 2016-01-20 西安沧海网络科技有限公司 一种基于大数据进行情感识别及预测的信息推送服务***
CN106683688A (zh) * 2015-11-05 2017-05-17 ***通信集团公司 一种情绪检测方法及装置
CN106512207A (zh) * 2016-11-11 2017-03-22 深圳欧德蒙科技有限公司 基于皮电的情绪调节方法及***
CN106725473A (zh) * 2016-12-29 2017-05-31 杭州联络互动信息科技股份有限公司 一种基于智能可穿戴设备调节情绪状态的方法及装置
CN107220591A (zh) * 2017-04-28 2017-09-29 哈尔滨工业大学深圳研究生院 多模态智能情绪感知***
CN108186033A (zh) * 2018-01-08 2018-06-22 杭州草莽科技有限公司 一种基于人工智能的幼儿情绪监控方法及其***
CN108309328A (zh) * 2018-01-31 2018-07-24 南京邮电大学 一种基于自适应模糊支持向量机的情绪识别方法
CN108742660A (zh) * 2018-07-02 2018-11-06 西北工业大学 一种基于可穿戴设备的情绪识别方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110786826A (zh) * 2019-10-09 2020-02-14 天津大学 一种通过传感器采集生理数据的智能鞋垫
CN115952460A (zh) * 2023-03-14 2023-04-11 首都医科大学附属北京同仁医院 情绪识别方法、装置、计算机设备和存储介质

Similar Documents

Publication Publication Date Title
CN108962237B (zh) 混合语音识别方法、装置及计算机可读存储介质
Xie et al. A review of automatic recognition technology for bird vocalizations in the deep learning era
US8635181B2 (en) System and method for tagging signals of interest in time variant data
Eom Analysis of acoustic signatures from moving vehicles using time-varying autoregressive models
CN105190751B (zh) 键盘输入检测和抑制
Mulimani et al. Segmentation and characterization of acoustic event spectrograms using singular value decomposition
Cuan et al. Automatic Newcastle disease detection using sound technology and deep learning method
Le-Qing Insect sound recognition based on mfcc and pnn
CN104538035B (zh) 一种基于Fisher超向量的说话人识别方法及***
Xie et al. Frog call classification: a survey
CN111986699B (zh) 基于全卷积网络的声音事件检测方法
CN111178331A (zh) 雷达图像识别***、方法、设备及计算机可读存储介质
Zhou et al. Deception detecting from speech signal using relevance vector machine and non-linear dynamics features
Colonna et al. Feature evaluation for unsupervised bioacoustic signal segmentation of anuran calls
CN110101398A (zh) 一种检测情绪的方法和***
CN114048773A (zh) 一种基于迁移学习和WiFi的行为识别方法及***
Pan et al. Cognitive acoustic analytics service for Internet of Things
Neri et al. Sound event detection for human safety and security in noisy environments
Lei et al. Speaker Recognition Using Wavelet Cepstral Coefficient, I‐Vector, and Cosine Distance Scoring and Its Application for Forensics
Xiao et al. AMResNet: An automatic recognition model of bird sounds in real environment
CN113221758B (zh) 一种基于gru-nin模型的水声目标识别方法
Shekofteh et al. MLP-based isolated phoneme classification using likelihood features extracted from reconstructed phase space
CN103093236B (zh) 一种基于图像语义分析的移动终端色情过滤方法
CN107894837A (zh) 动态情感分析模型样本处理方法及装置
CN111932056A (zh) 客服质量评分方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190809