CN116072102A - 情绪识别方法、装置、设备及存储介质 - Google Patents
情绪识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN116072102A CN116072102A CN202111299042.6A CN202111299042A CN116072102A CN 116072102 A CN116072102 A CN 116072102A CN 202111299042 A CN202111299042 A CN 202111299042A CN 116072102 A CN116072102 A CN 116072102A
- Authority
- CN
- China
- Prior art keywords
- emotion
- intensity
- feature
- set period
- emotion feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 36
- 230000008451 emotion Effects 0.000 claims abstract description 242
- 230000002996 emotional effect Effects 0.000 claims description 86
- 230000015654 memory Effects 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Hospice & Palliative Care (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例公开了一种情绪识别方法、装置、设备及存储介质。获取设定时段内当前时刻用户的第一情绪特征;根据所述第一情绪特征对在所述设定时段内已获得的第二情绪特征的强度进行调整,并将所述第一情绪特征作为新的第二情绪特征;判断所述当前时刻是否为所述设定时段的结束时间点;若否,则获取下一个第一情绪特征,并返回执行根据所述第一情绪特征对在所述设定时段内已获取的第二情绪特征的强度进行调整的操作,直到所述设定时段的结束时间点;若是,则根据所述第二情绪特征的强度确定用户在所述设定时段内的目标情绪。本实施例提供的情绪识别方法,可以获得用户在一段时间内的稳定情绪,从而可以提高情绪识别的准确性。
Description
技术领域
本发明实施例涉及情绪识别技术领域,尤其涉及一种情绪识别方法、装置、设备及存储介质。
背景技术
目前,采用人工智能(Artificial Intelligence,AI)技术进行情绪识别已经成为情感计算的一个重要组成部分。情绪识别研究的内容包括面部表情、语音、心率、行为、文本和生理信号识别等方面,通过以上内容来判断用户的情绪状态。
现有技术中,未对情绪的时效性和稳定性进行区分,可能会造成情绪识别的不准确或延迟。
发明内容
本申请实施例提供一种情绪识别方法、装置、设备及存储介质,可以获得用户在一段时间内的稳定情绪,从而可以提高情绪识别的准确性。
为了实现上述目的,本申请实施例公开了一种情绪识别方法,包括:
获取设定时段内当前时刻用户的第一情绪特征;其中,所述第一情绪特征包括:时间、类别及强度;
根据所述第一情绪特征对在所述设定时段内已获得的第二情绪特征的强度进行调整,并将所述第一情绪特征作为新的第二情绪特征;
判断所述当前时刻是否为所述设定时段的结束时间点;
若否,则获取下一个第一情绪特征,并返回执行根据所述第一情绪特征对在所述设定时段内已获取的第二情绪特征的强度进行调整的操作,直到所述设定时段的结束时间点;
若是,则根据所述第二情绪特征的强度确定用户在所述设定时段内的目标情绪。
为了实现上述目的,本申请实施例公开了一种情绪识别装置,包括:
第一情绪特征获取模块,用于获取设定时段内当前时刻用户的第一情绪特征;其中,所述第一情绪特征包括:时间、类别及强度;
第二情绪特征调整模块,用于根据所述第一情绪特征对在所述设定时段内已获得的第二情绪特征的强度进行调整,并将所述第一情绪特征作为新的第二情绪特征;
时刻判断模块,用于判断所述当前时刻是否为所述设定时段的结束时间点;
返回执行模块,用于当当前时刻不是所述设定时段的结束时间点时,获取下一个第一情绪特征,并返回执行根据所述第一情绪特征对在所述设定时段内已获取的第二情绪特征的强度进行调整的操作,直到所述设定时段的结束时间点;
目标情绪确定模块,用于当当前时刻为所述设定时段的结束时间点时,根据所述第二情绪特征的强度确定用户在所述设定时段内的目标情绪。
为了实现上述目的,本申请实施例公开了一种情绪识别设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如本申请实施例所述的情绪识别方法。
为了实现上述目的,本申请实施例公开了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请实施例所述的情绪识别方法。
本申请实施例公开了一种情绪识别方法、装置、设备及存储介质。获取设定时段内当前时刻用户的第一情绪特征;其中,第一情绪特征包括:时间参数、类别参数及强度参数;根据第一情绪特征对在设定时段内已获得的第二情绪特征的强度进行调整,并将第一情绪特征作为新的第二情绪特征;判断当前时刻是否为设定时段的结束时间点;若否,则获取下一个第一情绪特征,并返回执行根据第一情绪特征对在设定时段内已获取的第二情绪特征的强度进行调整的操作,直到设定时段的结束时间点;若是,则根据第二情绪特征的强度确定用户在设定时段内的目标情绪。本实施例提供的情绪识别方法,在设定时段内,每获取到一个情绪特征,根据新获取到的情绪特征对已获取到的情绪特征的强度进行调整,直到到达设定时段的结束时间点,从而根据各情绪特征的强度确定出用户在设定时段内的目标情绪,可以获得用户在一段时间内的稳定情绪,从而可以提高情绪识别的准确性。
附图说明
图1是本申请实施例提供的一种情绪识别方法的流程图;
图2是本申请实施例提供的一种情绪识别装置的结构示意图;
图3是本申请实施例提供的一种情绪识别设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚明白,下文中将结合附图对本申请的实施例进行详细说明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互任意组合。
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身没有特有的意义。因此,“模块”、“部件”或“单元”可以混合地使用。
在一个实施例中,图1是本申请实施例提供的一种情绪识别方法的流程图,该方法可以适用识别用户情绪的情况。该方法可以由移动终端来执行。如图1所示,该方法包括S110-S150。
S110,获取设定时段内当前时刻用户的第一情绪特征。
其中,第一情绪特征包括:时间参数、类别参数及强度参数。情绪类别可以是根据经验或者调研总结出的类别,例如可以包括:惊喜、大喜、开心、难过、无聊、悲痛、害怕等。设定时段可以是用户设置的周期时段或者用户选择的时段,例如:每3天一个周期,则设定时段为3天;或者用户选择周一到周三为设定时段,此处对设定时段不做限定。
本实施例中,可以通过但不限于记录用户的语音信号、监听用户播放的音乐、记录用户搜索记录等手段来确定用户当前时刻的情绪特征。
具体的,获取设定时段内当前时刻用户的第一情绪特征的方式可以是:采集用户的语音信号、用户播放的音乐信号及搜索记录中的任意一项或其组合;根据语音信号、音乐信号及搜索记录中的任意一项或其组合获得当前时刻用户的第一情绪特征。
其中,语音信号的强度超过第一设定阈值。语音信号的强度可以是由声音在一定采样区间内对应的电信号强度累计值计算得到。本实施例中,在采集用户的语音信号时,可以对采集的时段进行限制,可以将晚上的睡眠时段排除掉,在睡眠时段(如23:00-7:00)内不进行语音信号的采集。而且,只对强度超过第一设定阈值的语音进行采集,对低于第一设定阈值的语音信号不进行采集和处理,这样可以减少终端的功耗,避免采集和处理无效语音信号。在获得语音信号后,可以采用人工智能(Artificial Intelligence,AI)技术对语音信号进行处理,获得语音信号对应的第一情绪特征。
其中,用户播放的音乐信号的采集可以由用户启动终端上的音乐软件来触发,播放音乐时可以获取到音乐信号,可以采用AI技术对音乐信号进行处理,获得音乐信号对应的第一情绪特征。
其中,搜索记录的采集可以由用户启动终端上的搜索软件来触发,通过抓取页面跳转地址的方式获取搜索关键词,或者通过和厂商或搜索引擎合作的方式获取用户的搜索记录,并采用AI技术对搜索记录进行处理,获得搜索记录对应的第一情绪特征。
本实施例中,可以采用AI技术直接获取到第一情绪特征中的类别及强度;或者采用AI技术获取到情绪类别,再对该情绪类别赋值初始强度,并将当前时刻作为第一情绪特征中的时间参数,从而获得第一情绪特征。其中,初始强度可以是由用户设置,例如:对于不同的情绪类别可以赋值不同的初始强度,或者所有的情绪类别赋值相同的初始强度;或者根据情绪特征的来源确定初始强度,若情绪特征由识别语音信号获得,则赋值较高的初始强度,若情绪特征由识别音乐信号或者搜索记录获得,则赋值较低的初始强度。即以语音信号提取出的情绪特征为主,其他手段提取出的情绪特征为辅。
S120,根据第一情绪特征对在设定时段内已获得的第二情绪特征的强度进行调整,并将第一情绪特征作为新的第二情绪特征。
本实施例中,不同的情绪之间会相互影响,如“开心”之后再“悲痛”,会减弱“开心”的强度,“开心”之后再“惊喜”,则会加强“开心”的强度。
具体的,根据第一情绪特征对在设定时段内已获得的第二情绪特征的强度进行调整的方式可以是:获取第一情绪特征与第二情绪特征间的影响关系及强度调整量;根据关系及强度调整量对在设定时段内已获得的第二情绪特征的强度进行调整。
其中,情绪特征间的影响关系可以包括正影响关系、负影响关系及无影响关系。例如:“高兴”和“惊喜”为正影响关系,“开心”和“悲伤”为负影响关系,“无聊”和“难过”为无影响关系。本实施例中,相同或相似类别的情绪特征间的关系为正影响关系,相反类别的情绪特征间的关系为负影响关系,不同且不相关类别的情绪特征间的关系为无影响关系。情绪特征间的调整量可以由用户预先设置。
其中,根据影响关系及强度调整量对在设定时段内已获得的第二情绪特征的强度进行调整的方式可以是:若第一情绪特征与第二情绪特征间为正影响关系,则将第二情绪特征的强度累加调整量;若第一情绪特征与第二情绪特征间为负影响关系,则将第二情绪特征的强度减去调整量;若第一情绪特征与第二情绪特征间为无影响关系,则保持第二情绪特征的强度不变。
本实施例中,若第一情绪特征与第二情绪特征间为正影响关系,会增强第二情绪特征的强度;若第一情绪特征与第二情绪特征间为负影响关系,会减弱第二情绪特征的强度;若第一情绪特征与第二情绪特征间为无影响关系,则第二情绪特征的强度保持不变。示例性的,假设当前时刻用户的第一情绪特征为A,在设定时段内已获取到第二情绪特征B(强度为S1)及第二情绪特征C(强度为S2)。第一情绪特征为A与第二情绪特征B为正影响关系,且第一情绪特征为A与第二情绪特征B间的强度调整量为△S1,则调整后的第二情绪特征B的强度为S1+△S1;第一情绪特征为A与第二情绪特征C为负影响关系,且第一情绪特征为A与第二情绪特征C间的强度调整量为△S2,则调整后的第二情绪特征C的强度为S2-△S2。
本实施例中,将第一情绪特征作为新的第二情绪特征的方式可以是:若第一情绪特征的类别与已获得的第二情绪特征的类别均不同,则将第一情绪特征和已获得的第二情绪特征作为新的第二情绪特征;否则,将第一情绪特征删除。即在设定时段内每种情绪类别只存储一条情绪特征,且该情绪特征的时间为第一次识别到该情绪特征的时刻。
S130,判断当前时刻是否为设定时段的结束时间点,若否,则执行步骤140,若是,则执行步骤150。
S140,获取下一个第一情绪特征,并返回执行S110,直到设定时段的结束时间点。
本实施例中,在设定时段内,每识别到一个情绪特征,就会根据新获取到的情绪特征对已获取到的情绪特征的强度进行调整,直到到达设定时段的结束时间点,从而保证设定时段内的情绪特征的强度的累加。
示例性的,确定设定时段内用户情绪的过程可以是:
1)在设定时段的初始时刻识别到用户类别为A的情绪特征(以下简称情绪特征A),终端记录A的产生时间t1、初始强度S1。
2)终端再次识别到用户产生了情绪特征B,判断B与A的关系,如果B与A为负影响关系,则记录B以及产生时间、初始强度,同时按照强度调整量调整A的强度为S1-Δs,如果B与A为无影响关系,则记录B以及产生时间、初始强度,不调整A的强度,如果B与A为正影响关系,则记录B以及产生时间、初始强度,同时按照强度调整量调整A的强度为S1+Δs。如果该次用户产生的情绪特征仍为A(即该次产生的情绪特征仍然为A),则直接按照强度调整量增加A的强度。
3)重复步骤2),直到到达设定时段的结束时间点。
可选的,若终端再次识别到用户产生了情绪特征B超出设定时段,则表明A已经过期了,属于无效数据,则删除A,记录B以及对应的参数(产生时间t2及初始强度S2)。
S150,根据第二情绪特征的强度确定用户在设定时段内的目标情绪。
本实施例中,设定时段结束后,在设定时段内可以获得至少一种第二情绪特征,每个第二情绪特征携带有时间、类别及强度信息,可以根据强度信息确定出在设定时段内的目标情绪。
具体的,根据第二情绪特征的强度确定用户在设定时段内的目标情绪的方式可以是:将强度最大的第二情绪特征对应的情绪类别确定为候选情绪;判断候选情绪的强度是否大于或等于第二设定阈值,若是,则将候选情绪确定为目标情绪。若否,则在设定时段内未检测到目标情绪。
本实施例中,到达设定时段的结束时间点之后,对存储的各种情绪特征进行强度检测,如果强度最大的情绪特征A的强度超出了第二设定阈值,则认为该段时间内,用户稳定的情绪特征为A。如果找不到超过门限的情绪特征,认为该段时间内没有产生有效的用户情绪,则抛弃掉该段时间内的情绪数据。
可选的,在根据第二情绪特征的强度确定用户在设定时段内的目标情绪之后,还包括如下步骤:将目标情绪发送至服务器,使得服务器向终端设备推送与目标情绪相关的资源或者执行与目标情绪相关的操作。
其中,资源可以包括但不限于主题、壁纸、锁屏、音乐及游戏等。
示例性的,下述是本实施例中情绪识别的示例:
用户启动了情绪识别应用并同意了隐私服务等条款。情绪识别应用获取***时间,此时是9月3日早上9点钟,应用判断此时为有效时间,开始采集用户数据。9月3日中午12:00,主题应用后台服务启动,12:35时识别到用户的语音“我今天涨工资,实在太高兴了”,此时识别到的情绪特征为“高兴”,则增加一条记录“高兴;9-3-12:35;强度:80”。
9月3日晚上20:08,此时后台服务运行中,检测到用户的语音信息“回来的路上捡了10元钱,运气太好了!”,此时,增加一条记录“惊喜;9-3-20:08;强度20”,同时检测到前面已有的记录,进行修改“高兴;9-3 12:35;强度:90”,此时数据库中已经有两条记录了,“高兴”和“惊喜”
9月4日上午7:30,用户打开浏览器,搜索“肚子不舒服吃什么药”,获取到该条记录后,判断用户处于身体不适的状态,此时增加一条记录,“低落,9-4-07:30;强度30”,同时,检测到数据库中已经有两条记录了,则对前两条记录进行修改,因为低落的情绪会减弱用户原有的积极情绪特征,所以调整之后,原有的两条记录变为“高兴;9-3-12:35;强度:70”,“惊喜;9-3-20:08;强度10”,此时数据库中有三条记录“高兴”“惊喜”“低落”。
9月4日晚上21:09,检测到用户的语音信息“太棒了,吃了药之后下午竟然什么不舒服都没有了,明天可以出去玩喽”,此时,判断出用户的情绪特征仍为“高兴”,同时,检测到数据库中已经有三条记录了,对该三条记录按照预设的权重进行调整,由于数据库中已经存有“高兴”,因此需要新检测的“高兴”删除,因此,调整强度后的情绪特征仍为三条,分别变成了“高兴;9-3-12:35;强度:80”,“惊喜;9-3-20:08;强度15”,“低落;9-4-07:30;强度20”
9月5日未检测到情绪特征。
9月6日中午12:35,应用检测到,从第一天情绪特征产生的时间9-3-12:35开始,预设的时间“3天”到了,数据库中有三条对应不同类别的情绪特征,强度最大的一条是高兴,且强度值大于门限,判断用户该段时间内稳定的情绪特征为“高兴”。
将“高兴”的情绪特征发送给服务器,服务器收到后在后台进行对应的操作,比如查询一些合适的资源等,并将操作结果推送给用户。
用户手机上收到推送消息“您最近好像心情不错呢!快来试试我们最新的主题(或壁纸、音乐)吧!”用户点击通知之后,看到推送的比较欢快或喜悦的资源。本次操作完成。
本实施例的技术方案,获取设定时段内当前时刻用户的第一情绪特征;其中,第一情绪特征包括:时间、类别及强度;根据第一情绪特征对在设定时段内已获得的第二情绪特征的强度进行调整,并将第一情绪特征作为新的第二情绪特征;判断当前时刻是否为设定时段的结束时间点;若否,则获取下一个第一情绪特征,并返回执行根据第一情绪特征对在设定时段内已获取的第二情绪特征的强度进行调整的操作,直到设定时段的结束时间点;若是,则根据第二情绪特征的强度确定用户在设定时段内的目标情绪。本实施例提供的情绪识别方法,在设定时段内,每获取到一个情绪特征,根据新获取到的情绪特征对已获取到的情绪特征的强度进行调整,直到到达设定时段的结束时间点,从而根据各情绪特征的强度确定出用户在设定时段内的目标情绪,可以获得用户在一段时间内的稳定情绪,从而可以提高情绪识别的准确性。
图2是本申请实施例中提供的一种情绪识别装置的结构示意图,如图2所示,该装置包括:
第一情绪特征获取模块210,用于获取设定时段内当前时刻用户的第一情绪特征;其中,所述第一情绪特征包括:时间参数、类别参数及强度参数;
第二情绪特征调整模块220,用于根据所述第一情绪特征对在所述设定时段内已获得的第二情绪特征的强度进行调整,并将所述第一情绪特征作为新的第二情绪特征;
时刻判断模块230,用于判断所述当前时刻是否为所述设定时段的结束时间点;
返回执行模块240,用于当当前时刻不是所述设定时段的结束时间点时,获取下一个第一情绪特征,并返回执行根据所述第一情绪特征对在所述设定时段内已获取的第二情绪特征的强度进行调整的操作,直到所述设定时段的结束时间点;
目标情绪确定模块250,用于当当前时刻为所述设定时段的结束时间点时,根据所述第二情绪特征的强度确定用户在所述设定时段内的目标情绪。
可选的,第一情绪特征获取模块210,还用于:
采集用户的语音信号、用户播放的音乐信号及搜索记录中的任意一项或其组合;其中,所述语音信号的强度超过第一设定阈值;
根据所述语音信号、音乐信号及搜索记录中的任意一项或其组合获得当前时刻用户的第一情绪特征。
可选的,第二情绪特征调整模块220,还用于:
获取所述第一情绪特征与所述设定时段内已获得的第二情绪特征间的影响关系及强度调整量;
根据所述影响关系及强度调整量对所述在所述设定时段内已获得的第二情绪特征的强度进行调整。
可选的,所述影响关系包括正影响关系、负影响关系及无影响关系;第二情绪特征调整模块220,还用于:
若所述第一情绪特征与所述第二情绪特征间为正影响关系,则将所述第二情绪特征的强度累加所述调整量;
若所述第一情绪特征与所述第二情绪特征间为负影响关系,则将所述第二情绪特征的强度减去所述调整量;
若所述第一情绪特征与所述第二情绪特征间为无影响关系,则保持所述第二情绪特征的强度不变。
可选的,目标情绪确定模块250,还用于:
将强度最大的第二情绪特征对应的情绪类别确定为候选情绪;
判断所述候选情绪的强度是否大于或等于第二设定阈值;
若是,则将所述候选情绪确定为目标情绪;否则,在所述设定时段内未检测到目标情绪。
可选的,还包括:资源推送模块,用于:
将所述目标情绪发送至服务器,使得服务器向终端设备推送与所述目标情绪相关的资源或者执行与所述目标情绪相关的操作。
可选的,若所述第一情绪特征的类别与已获得的第二情绪特征的类别均不同,则将所述第一情绪特征和已获得的第二情绪特征作为新的第二情绪特征;否则,将所述第一情绪特征删除。
在一个实施例中,图3是本申请实施例提供的一种情绪识别设备的结构示意图。如图3所示,本申请提供的设备,包括:处理器310以及存储器320。该设备中处理器310的数量可以是一个或者多个,图3中以一个处理器310为例。该设备中存储器320的数量可以是一个或者多个,图3中以一个存储器320为例。该设备的处理器310以及存储器320可以通过总线或者其他方式连接,图3中以通过总线连接为例。实施例中,该设备为计算机设备。
存储器320作为一种计算机可读存储介质,可设置为存储软件程序、计算机可执行程序以及模块,如本申请任意实施例的设备对应的程序指令/模块(例如,数据传输装置中的编码模块和第一发送模块)。存储器320可包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序;存储数据区可存储根据设备的使用所创建的数据等。此外,存储器320可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器320可进一步包括相对于处理器310远程设置的存储器,这些远程存储器可以通过网络连接至设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
上述提供的设备可设置为执行上述任意实施例提供的应用于情绪识别方法,具备相应的功能和效果。
对应存储器320中存储的程序可以是本申请实施例所提供应用于中断处理方法对应的程序指令/模块,处理器310通过运行存储在存储器320中的软件程序、指令以及模块,从而执行计算机设备的一种或多种功能应用以及数据处理,即实现上述方法实施例中应用于数据的关联查询方法。可以理解的是,上述设备为接收端时,可执行本申请任意实施例所提供的应用于情绪识别方法,且具备相应的功能和效果。
本申请实施例还提供一种包含计算机可执行指令的存储介质,计算机可执行指令在由计算机处理器执行时用于执行一种数据处理方法,该方法包括:获取设定时段内当前时刻用户的第一情绪特征;其中,所述第一情绪特征包括:时间参数、类别参数及强度参数;根据所述第一情绪特征对在所述设定时段内已获得的第二情绪特征的强度进行调整,并将所述第一情绪特征作为新的第二情绪特征;判断所述当前时刻是否为所述设定时段的结束时间点;若否,则获取下一个第一情绪特征,并返回执行根据所述第一情绪特征对在所述设定时段内已获取的第二情绪特征的强度进行调整的操作,直到所述设定时段的结束时间点;若是,则根据所述第二情绪特征的强度确定用户在所述设定时段内的目标情绪。
本领域内的技术人员应明白,术语用户设备涵盖任何适合类型的无线用户设备,例如移动电话、便携数据处理装置、便携网络浏览器或车载移动台。
一般来说,本申请的多种实施例可以在硬件或专用电路、软件、逻辑或其任何组合中实现。例如,一些方面可以被实现在硬件中,而其它方面可以被实现在可以被控制器、微处理器或其它计算装置执行的固件或软件中,尽管本申请不限于此。
本申请的实施例可以通过移动装置的数据处理器执行计算机程序指令来实现,例如在处理器实体中,或者通过硬件,或者通过软件和硬件的组合。计算机程序指令可以是汇编指令、指令集架构(Instruction Set Architecture,ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码。
本申请附图中的任何逻辑流程的框图可以表示程序步骤,或者可以表示相互连接的逻辑电路、模块和功能,或者可以表示程序步骤与逻辑电路、模块和功能的组合。计算机程序可以存储在存储器上。存储器可以具有任何适合于本地技术环境的类型并且可以使用任何适合的数据存储技术实现,例如但不限于只读存储器(Read-Only Memory,ROM)、随机访问存储器(Random Access Memory,RAM)、光存储器装置和***(数码多功能光碟(Digital Video Disc,DVD)或光盘(Compact Disk,CD))等。计算机可读介质可以包括非瞬时性存储介质。数据处理器可以是任何适合于本地技术环境的类型,例如但不限于通用计算机、专用计算机、微处理器、数字信号处理器(Digital Signal Processing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑器件(Field-Programmable Gate Array,FGPA)以及基于多核处理器架构的处理器。
以上所述,仅为本申请的示例性实施例而已,并非用于限定本申请的保护范围。
本申请的实施例可以通过移动装置的数据处理器执行计算机程序指令来实现,例如在处理器实体中,或者通过硬件,或者通过软件和硬件的组合。计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目的代码。
通过示范性和非限制性的示例,上文已提供了对本申请的示范实施例的详细描述。但结合附图和权利要求来考虑,对以上实施例的多种修改和调整对本领域技术人员来说是显而易见的,但不偏离本发明的范围。因此,本发明的恰当范围将根据权利要求确定。
Claims (10)
1.一种情绪识别方法,其特征在于,包括:
获取设定时段内当前时刻用户的第一情绪特征;其中,所述第一情绪特征包括:时间参数、类别参数及强度参数;
根据所述第一情绪特征对在所述设定时段内已获得的第二情绪特征的强度进行调整,并将所述第一情绪特征作为新的第二情绪特征;
判断所述当前时刻是否为所述设定时段的结束时间点;
若否,则获取下一个第一情绪特征,并返回执行根据所述第一情绪特征对在所述设定时段内已获取的第二情绪特征的强度进行调整的操作,直到所述设定时段的结束时间点;
若是,则根据所述第二情绪特征的强度确定用户在所述设定时段内的目标情绪。
2.根据权利要求1所述的方法,其特征在于,获取设定时段内当前时刻用户的第一情绪特征,包括:
采集用户的语音信号、用户播放的音乐信号及搜索记录中的任意一项或其组合;
根据所述语音信号、音乐信号及搜索记录中的任意一项或其组合获得当前时刻用户的第一情绪特征。
3.根据权利要求1所述的方法,其特征在于,根据所述第一情绪特征对在所述设定时段内已获得的第二情绪特征的强度进行调整,包括:
获取所述第一情绪特征与所述设定时段内已获得的第二情绪特征间的影响关系及强度调整量;
根据所述影响关系及强度调整量对所述在所述设定时段内已获得的第二情绪特征的强度进行调整。
4.根据权利要求3所述的方法,其特征在于,所述影响关系包括正影响关系、负影响关系及无影响关系;根据所述影响关系及强度调整量对所述在所述设定时段内已获得的第二情绪特征的强度进行调整,包括:
若所述第一情绪特征与所述第二情绪特征间为正影响关系,则将所述第二情绪特征的强度累加所述调整量;
若所述第一情绪特征与所述第二情绪特征间为负影响关系,则将所述第二情绪特征的强度减去所述调整量;
若所述第一情绪特征与所述第二情绪特征间为无影响关系,则保持所述第二情绪特征的强度不变。
5.根据权利要求1所述的方法,其特征在于,根据所述第二情绪特征的强度确定用户在所述设定时段内的目标情绪,包括:
将强度最大的第二情绪特征对应的情绪类别确定为候选情绪;
判断所述候选情绪的强度是否大于或等于第二设定阈值;
若是,则将所述候选情绪确定为目标情绪;否则,在所述设定时段内未检测到目标情绪。
6.根据权利要求1所述的方法,其特征在于,在根据所述第二情绪特征的强度确定用户在所述设定时段内的目标情绪之后,还包括:
将所述目标情绪发送至服务器,使得服务器向终端设备推送与所述目标情绪相关的资源或者执行与所述目标情绪相关的操作。
7.根据权利要求1所述的方法,其特征在于,将所述第一情绪特征作为新的第二情绪特征,包括:
若所述第一情绪特征的类别与已获得的第二情绪特征的类别均不同,则将所述第一情绪特征和所述已获得的第二情绪特征作为新的第二情绪特征;否则,将所述第一情绪特征删除。
8.一种情绪识别装置,其特征在于,包括:
第一情绪特征获取模块,用于获取设定时段内当前时刻用户的第一情绪特征;其中,所述第一情绪特征包括:时间参数、类别参数及强度参数;
第二情绪特征调整模块,用于根据所述第一情绪特征对在所述设定时段内已获得的第二情绪特征的强度进行调整,并将所述第一情绪特征和所述已获得的第二情绪特征作为新的第二情绪特征;
时刻判断模块,用于判断所述当前时刻是否为所述设定时段的结束时间点;
返回执行模块,用于当当前时刻不是所述设定时段的结束时间点时,获取下一个第一情绪特征,并返回执行根据所述第一情绪特征对在所述设定时段内已获取的第二情绪特征的强度进行调整的操作,直到所述设定时段的结束时间点;
目标情绪确定模块,用于当当前时刻为所述设定时段的结束时间点时,根据所述第二情绪特征的强度确定用户在所述设定时段内的目标情绪。
9.一种情绪识别设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-7中任一所述的情绪识别方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的情绪识别方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111299042.6A CN116072102A (zh) | 2021-11-04 | 2021-11-04 | 情绪识别方法、装置、设备及存储介质 |
PCT/CN2022/108192 WO2023077883A1 (zh) | 2021-11-04 | 2022-07-27 | 情绪识别方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111299042.6A CN116072102A (zh) | 2021-11-04 | 2021-11-04 | 情绪识别方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116072102A true CN116072102A (zh) | 2023-05-05 |
Family
ID=86172129
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111299042.6A Pending CN116072102A (zh) | 2021-11-04 | 2021-11-04 | 情绪识别方法、装置、设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN116072102A (zh) |
WO (1) | WO2023077883A1 (zh) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6467965B2 (ja) * | 2015-02-13 | 2019-02-13 | オムロン株式会社 | 感情推定装置及び感情推定方法 |
JP2018166653A (ja) * | 2017-03-29 | 2018-11-01 | アイシン精機株式会社 | 気分判定装置 |
CN110377726B (zh) * | 2019-06-05 | 2020-08-25 | 光控特斯联(上海)信息科技有限公司 | 一种人工智能实现自然语言文本情绪识别方法与装置 |
CN110751381A (zh) * | 2019-09-30 | 2020-02-04 | 东南大学 | 一种路怒车辆风险评估和防控方法 |
CN111199205B (zh) * | 2019-12-30 | 2023-10-31 | 科大讯飞股份有限公司 | 车载语音交互体验评估方法、装置、设备及存储介质 |
CN113128534A (zh) * | 2019-12-31 | 2021-07-16 | 北京中关村科金技术有限公司 | 情绪识别的方法、装置以及存储介质 |
CN112418059B (zh) * | 2020-11-19 | 2024-01-05 | 哈尔滨华晟泛亚人力资源服务有限公司 | 一种情绪识别的方法、装置、计算机设备及存储介质 |
-
2021
- 2021-11-04 CN CN202111299042.6A patent/CN116072102A/zh active Pending
-
2022
- 2022-07-27 WO PCT/CN2022/108192 patent/WO2023077883A1/zh unknown
Also Published As
Publication number | Publication date |
---|---|
WO2023077883A1 (zh) | 2023-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110020104B (zh) | 新闻处理方法、装置、存储介质及计算机设备 | |
CN108345524B (zh) | 应用程序监控方法及应用程序监控装置 | |
CN107578776B (zh) | 一种语音交互的唤醒方法、装置及计算机可读存储介质 | |
CN111970409B (zh) | 基于人机交互的语音处理方法、装置、设备和存储介质 | |
CN109309751B (zh) | 语音记录方法、电子设备及存储介质 | |
CN111177338B (zh) | 一种基于上下文的多轮对话方法 | |
CN106302933B (zh) | 通话语音信息处理方法及终端 | |
CN109582470B (zh) | 一种数据处理方法及数据处理装置 | |
CN109543117B (zh) | 基于智能推荐的服务推送方法及终端设备 | |
CN114647698A (zh) | 数据同步方法、装置及计算机存储介质 | |
CN112017663A (zh) | 一种语音泛化方法、装置及计算机存储介质 | |
CN111641554B (zh) | 一种消息处理方法、装置及计算机可读存储介质 | |
CN116072102A (zh) | 情绪识别方法、装置、设备及存储介质 | |
CN111739515B (zh) | 语音识别方法、设备、电子设备和服务器、相关*** | |
CN110502631B (zh) | 一种输入信息响应方法、装置、计算机设备和存储介质 | |
CN108304263A (zh) | 一种操作***后台进程查杀方法、***及存储装置 | |
CN106933615B (zh) | App应用的唤醒方法及装置 | |
CN112687293B (zh) | 一种基于机器学习及数据挖掘的智能坐席训练方法和*** | |
CN111475756A (zh) | 一种信息无痕曝光采集方法及装置 | |
CN112162991B (zh) | 数据的智能管理方法及装置 | |
CN110111816B (zh) | 录制音频的方法、音频处理的方法、电子设备和服务端 | |
CN111429920B (zh) | 用户区分方法、用户行为库确定方法、装置及设备 | |
CN111028830B (zh) | 一种本地热词库更新方法、装置及设备 | |
CN108831473B (zh) | 一种音频处理方法及装置 | |
CN112151028A (zh) | 一种语音识别的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |