CN108985358A - 情绪识别方法、装置、设备及存储介质 - Google Patents
情绪识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN108985358A CN108985358A CN201810694899.XA CN201810694899A CN108985358A CN 108985358 A CN108985358 A CN 108985358A CN 201810694899 A CN201810694899 A CN 201810694899A CN 108985358 A CN108985358 A CN 108985358A
- Authority
- CN
- China
- Prior art keywords
- session
- modal
- session information
- fusion
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 66
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000004927 fusion Effects 0.000 claims abstract description 70
- 230000002996 emotional effect Effects 0.000 claims abstract description 29
- 239000013598 vector Substances 0.000 claims description 64
- 238000000605 extraction Methods 0.000 claims description 6
- 238000010801 machine learning Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 abstract description 19
- 230000036651 mood Effects 0.000 abstract description 11
- 230000008569 process Effects 0.000 abstract description 11
- 238000010586 diagram Methods 0.000 description 8
- 230000002452 interceptive effect Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000005291 magnetic effect Effects 0.000 description 4
- 238000002844 melting Methods 0.000 description 4
- 230000008018 melting Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000002902 bimodal effect Effects 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Hospice & Palliative Care (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Child & Adolescent Psychology (AREA)
- Evolutionary Computation (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明实施例公开了一种情绪识别方法、装置、设备及存储介质。其中,该方法包括:确定多模态会话信息的融合会话特征;将所述多模态会话信息的融合会话特征输入预先构建的多模态情绪识别模型中,得到所述多模态会话信息的情绪特征。本发明实施例提供的技术方案,通过将多模态会话信息中每个模态的会话特征融合得到融合会话特征,并将该融合会话特征输入到一个统一的多模态情绪识别模型中,供模型训练,就可直接预测出最终的情绪结果,无需分别训练各模态的识别模型,并进行不同模型结果的融合。简化了样本训练过程,且提高了情绪识别结果的准确性。
Description
技术领域
本发明实施例涉及人工智能技术领域,尤其涉及一种情绪识别方法、装置、设备及存储介质。
背景技术
随着人工智能的发展,智能交互在越来越多的领域中发挥着越来越重要的作用。而智能交互中,一个重要的方向,就是如何识别多模态交互过程中用户当前的情绪状态,从而为整个智能交互***提供情绪层面的反馈,及时作出调整,以便应对不同情绪状态下的用户,提升整个交互过程的服务质量。
目前,主要情绪识别方法如图1所示,整个过程如下:通过对语音,文本及表情图像等各个模态进行独立建模,并在最后将每个模型的结果融合在一起,根据规则或者机器学习模型,对多个模态的结果进行融合判定,最终输出一个整体的多模态情绪识别结果。
由于同一词语在不同场景下含义不同,表示的情绪状态不同,而上述方法通用性较差;此外,还需要依赖于人力操作采集大量数据,成本较高且结果可控性较差。
发明内容
本发明实施例提供了一种情绪识别方法、装置、设备和存储介质,简化了样本训练过程,且提高了情绪识别结果的准确性。
第一方面,本发明实施例提供了一种情绪识别方法,该方法包括:
确定多模态会话信息的融合会话特征;
将所述多模态会话信息的融合会话特征输入预先构建的多模态情绪识别模型中,得到所述多模态会话信息的情绪特征。第二方面,本发明实施例还提供了一种情绪识别装置,该装置包括:
融合特征确定模块,用于确定多模态会话信息的融合会话特征;
情绪特征确定模块,用于将所述多模态会话信息的融合会话特征输入预先构建的多模态情绪识别模型中,得到所述多模态会话信息的情绪特征。
第三方面,本发明实施例还提供了一种设备,该设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现第一方面中任意所述的情绪识别方法。
第四方面,本发明实施例还提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现第一方面中任意所述的情绪识别方法。
本发明实施例提供的技术方案,通过将多模态会话信息中每个模态的会话特征融合得到融合会话特征,并将该融合会话特征输入到一个统一的多模态情绪识别模型中,供模型训练,就可直接预测出最终的情绪结果,无需分别训练各模态的识别模型,并进行不同模型结果的融合。简化了样本训练过程,且提高了情绪识别结果的准确性。
附图说明
图1是现有技术提供的一种基于独立模态训练的多模态情感识别示意图;
图2A是本发明实施例一中提供的一种情绪识别方法的流程图;
图2B是本发明实施所适用的基于多模态特征融合学习模型示意图;
图3是本发明实施例二中提供的一种情绪识别方法的流程图;
图4是本发明实施例三中提供的一种情绪识别装置的结构框图;
图5是本发明实施例四中提供的一种设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明实施例作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明实施例,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明实施例相关的部分而非全部结构。
实施例一
图2A为本发明实施例一提供的一种情绪识别方法的流程图,图2B是本发明实施例所适用的基于多模态特征融合学习模型示意图。本实施例适用于如何在多模态交互过程中准确识别出用户情绪的情况。该方法可以由本发明实施例提供的情绪识别装置来执行,该装置可采用软件和/或硬件的方式实现,并可集成于计算设备中。参见图2A和2B,该方法具体包括:
S210,确定多模态会话信息的融合会话特征。
其中,模态是一种交互时使用的一个术语,多模态是指综合运用文本、图像、视频、语音及手势等多种手段和符号载体进行交互的现象。对应的,多模态会话信息即为同时包含至少两种模态的会话信息,如同时包括语音、文本和图像三种模态的会话信息。
融合会话特征是通过将一个会话信息中包含的不同模态的会话特征进行融合得到的。可选的,可采用深度学习模型,同时考虑一个会话信息中包含的多个模态特征来确定多模态会话信息的融合会话特征。
S220,将多模态会话信息的融合会话特征输入预先构建的多模态情绪识别模型中,得到多模态会话信息的情绪特征。
其中,多模态情绪识别模型是基于人工智能中的语言识别、智能识图以及文本识别技术等所建立的模型;具体的,可预先采用样本数据集对初始机器学习模型如神经网络模型训练得到的。情绪特征即为多模态情绪识别结果,用于表征个体对外界事物的一种态度,可以包括情绪类型及情绪强度等;情绪类型可以包括喜、怒、哀及乐等;情绪强度是用于表征某一情绪的强弱程度。
示例性的,将多模态会话信息的融合会话特征输入预先构建的多模态情绪识别模型中之前,还可以包括:依据多模态会话样本信息的融合会话特征以及多模态会话样本信息的情绪特征,对初始机器学习模型进行训练,得到多模态情绪识别模型。
具体的,通过不断累积各种场景下交互过程中的会话信息,得到大量的多模态会话样本信息的融合会话特征以及对应的多模态会话样本信息的情绪特征,将其作为训练样本集,输入到神经网络中对其进行训练,通过各样本训练之后,得到多模态情绪识别模型。当把一个多模态会话信息的融合会话特征输入到该多模态情绪识别模型中,模型会结合该模型现有的参数,对输入的融合会话特征做出判断,并输出相对应的情绪特征。
需要说明的是,由于现有技术需要对每个模态都单独建立识别模型,并将各模型结果加权得到最终的情绪结果,因此需要大量的训练样本,且存在单个模态学习出来的模型质量不好,最终导致的整体情绪识别效果差的问题。而本实施例参见图2B,由于直接将多模态会话信息中每个模态的会话特征融合得到融合会话特征,并只需将融合会话特征输入到一个统一的多模态情绪识别模型中,供模型训练,就可输出最终的情绪特征,训练样本相比现有技术大大减少;且由于多模态会话特征的融合使得该多模态情绪识别模型不仅能学习到每个模态的特征信息,也能学习到不同模态之间的特征关系,能够避免出现现有技术由于单个模态学习出来的模型质量不好,最终导致的整体情绪识别效果差的问题。
以文本和语音双模态会话信息为例进行说明。当用户说出“我现在就想买苹果X,就想要那个券”,这个句子的时候,采用现有的技术如果分别考虑文本模态信息和语音模态信息,那么这个句子是不确定能否被标注为负面情绪的,最终导致情绪识别结果不准确。但是,采用本实施的技术方案在考虑文本模态信息的同时再加上用户的语音模态方面的信息,比如用户说这个句子时候语音的起伏很剧烈,通过将“文本”+“语音”双模态特征融合,最终能准确识别出情绪为负面情绪。
此外,需要强调的是,本实施例所采用的多模态会话样本信息的情绪特征是在综合考虑各模态的情况下对多模态会话信息进行标注得到的,能够确保所标注的情绪状态是没有歧义的,为后面模型训练构建一个更准确的数据集,使最终得到的多模态情绪识别模型更准确。而现有技术是独立的每个模态进行标注,由于独立对一个模态进行标注,可能无法正确地标注一个句子的情绪特征,将导致各个模态对应的情绪模型的识别准确度较差,最终导致后续的结果融合阶段效果下降。
本发明实施例提供的技术方案,通过将多模态会话信息中每个模态的会话特征融合得到融合会话特征,并将该融合会话特征输入到一个统一的多模态情绪识别模型中,供模型训练,就可直接预测出最终的情绪结果,无需分别训练各模态的识别模型,并进行不同模型结果的融合。简化了样本训练过程,且提高了情绪识别结果的准确性。
实施例二
图3为本发明实施例二提供的一种情绪识别方法的流程图,本实施例在上述实施例一的基础上,进一步的对确定多模态会话信息的融合会话特征进行优化。参见图3,该方法具体包括:
S310,分别确定语音会话信息、文本会话信息和图像会话信息中至少两种模态会话信息的向量表示。
示例性的,多模态会话信息可以包括:语音会话信息、文本会话信息和图像会话信息。会话信息的向量表示是指一个会话信息在向量空间上的表示,可通过建模而获得。
具体的,可通过分别提取语音会话信息中能够表征情绪变化的特征参数,对文本会话信息进行切句及切词等提取关键词以及提取图像会话信息中有效的动态表情特征或静态表情特征,并输入至向量提取模型中,可以得到语音会话信息的向量表示、图像会话信息的向量表示及文本会话信息的向量表示。向量提取模型可以是一个具有将语音特征、文本关键词及图像特征等转换为相应向量表示的综合模型,也可以是各个子模型组合而成的。
S320,对至少两种模态会话信息的向量表示进行融合,得到多模态会话信息的融合会话特征的向量表示。
具体的,可以将各个模态会话信息的向量表示按照一定的规则直接拼接为一个长的统一的向量表示作为多模态会话信息的融合会话特征的向量表示,从而实现多种模态会话信息的向量表示的融合。也可以通过抽取各个模态会话信息的向量表示中关键信息部分的向量表示,并将其拼接得到多模态会话信息的融合会话特征的向量表示。
示例性的,对至少两种模态会话信息的向量表示进行融合可以包括:按照预设的模态顺序,对至少两种模态会话信息的向量表示进行顺序拼接。
其中,预设的模态顺序可以是预先设置的模态输入的先后顺序,可根据实际情况进行修正。如可以增加、删除或***某个模态,从而可动态的调整各模态输入的先后顺序。
具体的,当确定了输入的多模态会话信息对应的每个模态会话信息的向量表示后,按照各个模态的输入顺序,将各个模态会话信息的向量表示直接连接,从而实现多种模态会话信息的向量表示的融合。
示例性的,对至少两种模态会话信息的向量表示进行融合还可以包括:分别抽取至少两种模态会话信息的向量表示的非线性特征;对抽取的至少两种模态会话信息的非线性特征进行融合。
其中,向量表示的非线性特征用于表征一个向量的特有部分,可以是向量表示中不为0的部分。对应的一个模态会话信息的向量表示的非线性特征是指一个模态会话信息中能够识别情绪的词语的向量表示。例如一个模态会话信息的向量表示为[0,1,1,0,0],则该模态会话信息的向量表示的非线性特征可以是[1,1]。
具体的,参见图2B,在多模态特征融合层中,可以将每个模态会话信息的向量表示,输入到深度学习模型中,分别先经过一层全连接层(Full Connection Layer,FCL)操作,抽取各模态会话信息的向量表示的非线性特征,得到对应的隐层向量;然后将输出的隐层向量拼接起来从而实现多种模态会话信息的向量表示的融合。
S330,将多模态会话信息的融合会话特征输入预先构建的多模态情绪识别模型中,得到多模态会话信息的情绪特征。
具体的,将多模态会话信息的融合会话特征的向量表示输入至预先构建的多模态情绪识别模型中,模型会结合该模型现有的参数,对输入的融合会话特征做出判断,并输出相对应的情绪特征。
本发明实施例提供的技术方案,通过将多模态会话信息中每个模态会话信息的向量表示进行融合得到多模态会话信息的融合会话特征的向量表示,并将该融合会话特征的向量表示输入到一个统一的多模态情绪识别模型中,供模型训练,就可直接预测出最终的情绪结果,无需分别训练各模态的识别模型,并进行不同模型结果的融合。简化了样本训练过程,且提高了情绪识别结果的准确性。
实施例三
图4为本发明实施例三提供的一种情绪识别装置的结构框图,该装置可执行本发明任意实施例所提供的情绪识别方法,具备执行方法相应的功能模块和有益效果。如图4所示,该装置可以包括:
融合特征确定模块410,用于确定多模态会话信息的融合会话特征;
情绪特征确定模块420,用于将多模态会话信息的融合会话特征输入预先构建的多模态情绪识别模型中,得到多模态会话信息的情绪特征。
本发明实施例提供的技术方案,通过将多模态会话信息中每个模态的会话特征融合得到融合会话特征,并将该融合会话特征输入到一个统一的多模态情绪识别模型中,供模型训练,就可直接预测出最终的情绪结果,无需分别训练各模态的识别模型,并进行不同模型结果的融合。简化了样本训练过程,且提高了情绪识别结果的准确性。
示例性的,融合特征确定模块410可以包括:
多模态向量确定单元,用于分别确定语音会话信息、文本会话信息和图像会话信息中至少两种模态会话信息的向量表示;
融合向量确定单元,用于对至少两种模态会话信息的向量表示进行融合,得到多模态会话信息的融合会话特征的向量表示。
可选的,融合向量确定单元具体用于:
按照预设的模态顺序,对至少两种模态会话信息的向量表示进行顺序拼接。
可选的,融合向量确定单元还具体用于:
分别抽取至少两种模态会话信息的向量表示的非线性特征;对抽取的至少两种模态会话信息的非线性特征进行融合。
示例性的,上述装置还可以包括:
识别模型确定模块,用于依据多模态会话样本信息的融合会话特征以及多模态会话样本信息的情绪特征,对初始机器学习模型进行训练,得到多模态情绪识别模型。
实施例四
图5为本发明实施例四提供的一种设备的结构示意图,图5示出了适于用来实现本发明实施例实施方式的示例性设备的框图。图5显示的设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。如图5所示,设备12以通用计算设备的形式表现。设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,***存储器28,连接不同***组件(包括***存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,***总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及***组件互连(PCI)总线。
设备12典型地包括多种计算机***可读介质。这些介质可以是任何能够被设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
***存储器28可以包括易失性存储器形式的计算机***可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机***存储介质。仅作为举例,存储***34可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。***存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明实施例各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如***存储器28中,这样的程序模块42包括但不限于操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明实施例所描述的实施例中的功能和/或方法。
设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该设备12交互的设备通信,和/或与使得该设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与设备12的其它模块通信。应当明白,尽管图中未示出,可以结合设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
处理单元16通过运行存储在***存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的情绪识别方法。
实施例五
本发明实施例五还提供一种计算机可读存储介质,其上存储有计算机程序(或称为计算机可执行指令),该程序被处理器执行时可实现上述任意实施例所述的情绪识别方法。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明实施例操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明实施例进行了较为详细的说明,但是本发明实施例不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (12)
1.一种情绪识别方法,其特征在于,包括:
确定多模态会话信息的融合会话特征;
将所述多模态会话信息的融合会话特征输入预先构建的多模态情绪识别模型中,得到所述多模态会话信息的情绪特征。
2.根据权利要求1所述的方法,其特征在于,确定多模态会话信息的融合会话特征,包括:
分别确定语音会话信息、文本会话信息和图像会话信息中至少两种模态会话信息的向量表示;
对所述至少两种模态会话信息的向量表示进行融合,得到多模态会话信息的融合会话特征的向量表示。
3.根据权利要求2所述的方法,其特征在于,对所述至少两种模态会话信息的向量表示进行融合,包括:
按照预设的模态顺序,对所述至少两种模态会话信息的向量表示进行顺序拼接。
4.根据权利要求2所述的方法,其特征在于,对所述至少两种模态会话信息的向量表示进行融合,包括:
分别抽取所述至少两种模态会话信息的向量表示的非线性特征;
对抽取的所述至少两种模态会话信息的非线性特征进行融合。
5.根据权利要求1所述的方法,其特征在于,将所述多模态会话信息的融合会话特征输入预先构建的多模态情绪识别模型中之前,还包括:
依据多模态会话样本信息的融合会话特征以及所述多模态会话样本信息的情绪特征,对初始机器学习模型进行训练,得到所述多模态情绪识别模型。
6.一种情绪识别装置,其特征在于,包括:
融合特征确定模块,用于确定多模态会话信息的融合会话特征;
情绪特征确定模块,用于将所述多模态会话信息的融合会话特征输入预先构建的多模态情绪识别模型中,得到所述多模态会话信息的情绪特征。
7.根据权利要求6所述的装置,其特征在于,所述融合特征确定模块包括:
多模态向量确定单元,用于分别确定语音会话信息、文本会话信息和图像会话信息中至少两种模态会话信息的向量表示;
融合向量确定单元,用于对所述至少两种模态会话信息的向量表示进行融合,得到多模态会话信息的融合会话特征的向量表示。
8.根据权利要求7所述的装置,其特征在于,所述融合向量确定单元具体用于:
按照预设的模态顺序,对所述至少两种模态会话信息的向量表示进行顺序拼接。
9.根据权利要求7所述的装置,其特征在于,所述融合向量确定单元还具体用于:
分别抽取所述至少两种模态会话信息的向量表示的非线性特征;
对抽取的所述至少两种模态会话信息的非线性特征进行融合。
10.根据权利要求6所述的装置,其特征在于,还包括:
识别模型确定模块,用于依据多模态会话样本信息的融合会话特征以及所述多模态会话样本信息的情绪特征,对初始机器学习模型进行训练,得到所述多模态情绪识别模型。
11.一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一项所述的情绪识别方法。
12.一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-5中任一项所述的情绪识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810694899.XA CN108985358B (zh) | 2018-06-29 | 2018-06-29 | 情绪识别方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810694899.XA CN108985358B (zh) | 2018-06-29 | 2018-06-29 | 情绪识别方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108985358A true CN108985358A (zh) | 2018-12-11 |
CN108985358B CN108985358B (zh) | 2021-03-02 |
Family
ID=64538992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810694899.XA Active CN108985358B (zh) | 2018-06-29 | 2018-06-29 | 情绪识别方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108985358B (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110021308A (zh) * | 2019-05-16 | 2019-07-16 | 北京百度网讯科技有限公司 | 语音情绪识别方法、装置、计算机设备和存储介质 |
CN110083716A (zh) * | 2019-05-07 | 2019-08-02 | 青海大学 | 基于藏文的多模态情感计算方法及*** |
CN110390956A (zh) * | 2019-08-15 | 2019-10-29 | 龙马智芯(珠海横琴)科技有限公司 | 情感识别网络模型、方法及电子设备 |
CN110991427A (zh) * | 2019-12-25 | 2020-04-10 | 北京百度网讯科技有限公司 | 用于视频的情绪识别方法、装置和计算机设备 |
CN111507402A (zh) * | 2020-04-17 | 2020-08-07 | 北京声智科技有限公司 | 一种确定响应方式的方法、装置、介质和设备 |
CN111681645A (zh) * | 2019-02-25 | 2020-09-18 | 北京嘀嘀无限科技发展有限公司 | 情绪识别模型训练方法、情绪识别方法、装置及电子设备 |
CN111816211A (zh) * | 2019-04-09 | 2020-10-23 | Oppo广东移动通信有限公司 | 情绪识别方法、装置、存储介质及电子设备 |
CN112148836A (zh) * | 2020-09-07 | 2020-12-29 | 北京字节跳动网络技术有限公司 | 多模态信息处理方法、装置、设备及存储介质 |
CN112183022A (zh) * | 2020-09-25 | 2021-01-05 | 北京优全智汇信息技术有限公司 | 一种估损方法和装置 |
CN112233698A (zh) * | 2020-10-09 | 2021-01-15 | 中国平安人寿保险股份有限公司 | 人物情绪识别方法、装置、终端设备及存储介质 |
CN112347774A (zh) * | 2019-08-06 | 2021-02-09 | 北京搜狗科技发展有限公司 | 一种用于用户情绪识别的模型确定方法和装置 |
CN112418034A (zh) * | 2020-11-12 | 2021-02-26 | 元梦人文智能国际有限公司 | 多模态情感识别方法、装置、电子设备和存储介质 |
CN113128284A (zh) * | 2019-12-31 | 2021-07-16 | 上海汽车集团股份有限公司 | 一种多模态情感识别方法和装置 |
CN114005468A (zh) * | 2021-09-07 | 2022-02-01 | 华院计算技术(上海)股份有限公司 | 一种基于全局工作空间的可解释情绪识别方法和*** |
CN115496226A (zh) * | 2022-09-29 | 2022-12-20 | 中国电信股份有限公司 | 基于梯度调节的多模态情绪分析方法、装置、设备及存储 |
WO2023226239A1 (zh) * | 2022-05-24 | 2023-11-30 | 网易(杭州)网络有限公司 | 对象情绪的分析方法、装置和电子设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102930298A (zh) * | 2012-09-02 | 2013-02-13 | 北京理工大学 | 基于多层增强hmm的语音-视觉融合的情感识别方法 |
US8781989B2 (en) * | 2008-01-14 | 2014-07-15 | Aptima, Inc. | Method and system to predict a data value |
CN104835507A (zh) * | 2015-03-30 | 2015-08-12 | 渤海大学 | 一种串并结合的多模式情感信息融合与识别方法 |
CN105427869A (zh) * | 2015-11-02 | 2016-03-23 | 北京大学 | 一种基于深度学习的会话情感自动分析方法 |
CN106503805A (zh) * | 2016-11-14 | 2017-03-15 | 合肥工业大学 | 一种基于机器学习的双模态人人对话情感分析***及其方法 |
CN107705807A (zh) * | 2017-08-24 | 2018-02-16 | 平安科技(深圳)有限公司 | 基于情绪识别的语音质检方法、装置、设备及存储介质 |
-
2018
- 2018-06-29 CN CN201810694899.XA patent/CN108985358B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8781989B2 (en) * | 2008-01-14 | 2014-07-15 | Aptima, Inc. | Method and system to predict a data value |
CN102930298A (zh) * | 2012-09-02 | 2013-02-13 | 北京理工大学 | 基于多层增强hmm的语音-视觉融合的情感识别方法 |
CN104835507A (zh) * | 2015-03-30 | 2015-08-12 | 渤海大学 | 一种串并结合的多模式情感信息融合与识别方法 |
CN105427869A (zh) * | 2015-11-02 | 2016-03-23 | 北京大学 | 一种基于深度学习的会话情感自动分析方法 |
CN106503805A (zh) * | 2016-11-14 | 2017-03-15 | 合肥工业大学 | 一种基于机器学习的双模态人人对话情感分析***及其方法 |
CN107705807A (zh) * | 2017-08-24 | 2018-02-16 | 平安科技(深圳)有限公司 | 基于情绪识别的语音质检方法、装置、设备及存储介质 |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111681645A (zh) * | 2019-02-25 | 2020-09-18 | 北京嘀嘀无限科技发展有限公司 | 情绪识别模型训练方法、情绪识别方法、装置及电子设备 |
CN111681645B (zh) * | 2019-02-25 | 2023-03-31 | 北京嘀嘀无限科技发展有限公司 | 情绪识别模型训练方法、情绪识别方法、装置及电子设备 |
CN111816211A (zh) * | 2019-04-09 | 2020-10-23 | Oppo广东移动通信有限公司 | 情绪识别方法、装置、存储介质及电子设备 |
CN110083716A (zh) * | 2019-05-07 | 2019-08-02 | 青海大学 | 基于藏文的多模态情感计算方法及*** |
CN110021308A (zh) * | 2019-05-16 | 2019-07-16 | 北京百度网讯科技有限公司 | 语音情绪识别方法、装置、计算机设备和存储介质 |
CN112347774A (zh) * | 2019-08-06 | 2021-02-09 | 北京搜狗科技发展有限公司 | 一种用于用户情绪识别的模型确定方法和装置 |
CN110390956A (zh) * | 2019-08-15 | 2019-10-29 | 龙马智芯(珠海横琴)科技有限公司 | 情感识别网络模型、方法及电子设备 |
CN110991427A (zh) * | 2019-12-25 | 2020-04-10 | 北京百度网讯科技有限公司 | 用于视频的情绪识别方法、装置和计算机设备 |
CN113128284A (zh) * | 2019-12-31 | 2021-07-16 | 上海汽车集团股份有限公司 | 一种多模态情感识别方法和装置 |
CN111507402A (zh) * | 2020-04-17 | 2020-08-07 | 北京声智科技有限公司 | 一种确定响应方式的方法、装置、介质和设备 |
CN112148836A (zh) * | 2020-09-07 | 2020-12-29 | 北京字节跳动网络技术有限公司 | 多模态信息处理方法、装置、设备及存储介质 |
CN112183022A (zh) * | 2020-09-25 | 2021-01-05 | 北京优全智汇信息技术有限公司 | 一种估损方法和装置 |
CN112233698A (zh) * | 2020-10-09 | 2021-01-15 | 中国平安人寿保险股份有限公司 | 人物情绪识别方法、装置、终端设备及存储介质 |
CN112233698B (zh) * | 2020-10-09 | 2023-07-25 | 中国平安人寿保险股份有限公司 | 人物情绪识别方法、装置、终端设备及存储介质 |
CN112418034A (zh) * | 2020-11-12 | 2021-02-26 | 元梦人文智能国际有限公司 | 多模态情感识别方法、装置、电子设备和存储介质 |
CN114005468A (zh) * | 2021-09-07 | 2022-02-01 | 华院计算技术(上海)股份有限公司 | 一种基于全局工作空间的可解释情绪识别方法和*** |
WO2023226239A1 (zh) * | 2022-05-24 | 2023-11-30 | 网易(杭州)网络有限公司 | 对象情绪的分析方法、装置和电子设备 |
CN115496226A (zh) * | 2022-09-29 | 2022-12-20 | 中国电信股份有限公司 | 基于梯度调节的多模态情绪分析方法、装置、设备及存储 |
Also Published As
Publication number | Publication date |
---|---|
CN108985358B (zh) | 2021-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108985358A (zh) | 情绪识别方法、装置、设备及存储介质 | |
JP7432556B2 (ja) | マンマシンインタラクションのための方法、装置、機器および媒体 | |
CN107657017B (zh) | 用于提供语音服务的方法和装置 | |
Zhao et al. | Exploring spatio-temporal representations by integrating attention-based bidirectional-LSTM-RNNs and FCNs for speech emotion recognition | |
CN109003624B (zh) | 情绪识别方法、装置、计算机设备及存储介质 | |
CN107481720B (zh) | 一种显式声纹识别方法及装置 | |
CN109036405A (zh) | 语音交互方法、装置、设备及存储介质 | |
CN108922564B (zh) | 情绪识别方法、装置、计算机设备及存储介质 | |
WO2020253509A1 (zh) | 面向情景及情感的中文语音合成方法、装置及存储介质 | |
CN114694076A (zh) | 基于多任务学习与层叠跨模态融合的多模态情感分析方法 | |
US10956480B2 (en) | System and method for generating dialogue graphs | |
CN111862977A (zh) | 一种语音对话处理方法和*** | |
CN110262665A (zh) | 用于输出信息的方法和装置 | |
CN109034203A (zh) | 表情推荐模型的训练、表情推荐方法、装置、设备及介质 | |
CN112527962A (zh) | 基于多模态融合的智能应答方法、装置、机器可读介质及设备 | |
CN112765971B (zh) | 文本语音的转换方法、装置、电子设备及存储介质 | |
CN115577161A (zh) | 融合情感资源的多模态情感分析模型 | |
CN111159358A (zh) | 多意图识别训练和使用方法及装置 | |
CN109408834A (zh) | 辅助机器翻译方法、装置、设备及存储介质 | |
CN112905772A (zh) | 语义相关性分析方法、装置及相关产品 | |
CN116933051A (zh) | 一种用于模态缺失场景的多模态情感识别方法及*** | |
CN108932943A (zh) | 命令词语音检测方法、装置、设备和存储介质 | |
Wu et al. | Speaker personality recognition with multimodal explicit many2many interactions | |
CN116403601A (zh) | 情绪识别模型训练方法及情绪识别方法、装置以及存储介质 | |
EP4064031A1 (en) | Method and system for tracking in extended reality using voice commmand |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |