CN109508375A - 一种基于多模态融合的社交情感分类方法 - Google Patents
一种基于多模态融合的社交情感分类方法 Download PDFInfo
- Publication number
- CN109508375A CN109508375A CN201811376297.6A CN201811376297A CN109508375A CN 109508375 A CN109508375 A CN 109508375A CN 201811376297 A CN201811376297 A CN 201811376297A CN 109508375 A CN109508375 A CN 109508375A
- Authority
- CN
- China
- Prior art keywords
- information
- classification
- fusion
- cnn
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于多模态融合的社交情感分类方法,涉及音频、视觉和文本形式的信息。情感计算分析研究大部分仅通过分析单模信息来提取情感信息,忽视了信息源之间的联系。本发明对于视频信息,提出3DCLS(3D CNN‑ConvLSTM)模型,通过三维卷积神经网络(C3D)和卷积长短期记忆递归神经网络(ConvLSTM)的级联组合来为情感识别任务建立时空信息。对于文本信息,通过CNN‑RNN混合模型进行文本情感分类。利用决策级融合对视觉、音频、文本进行异质性融合。本发明学到的深时空特征有效地模拟了视觉外观和运动信息,在融合文本和音频信息后,有效的提高了情感分析的准确率。
Description
技术领域
本发明涉及一种基于多模态融合的社交情感分类方法,主要从文本、视觉、音频信息源中提取情感特征,使用决策级融合对视觉、音频、文本进行异质性融合,产生最终的情感分类结果。
背景技术
情感在我们的日常生活中起着至关重要的作用。他们在以人为中心的环境中帮助决策,学***台上表达的意见。
在过去的几年里,文本情感分析已经取得了很大的进展,人们正逐渐从文本转换为视频表达对产品或服务的意见,因为他们现在更容易、更快地生产和共享多模式内容。例如,消费者倾向于使用网络摄像机记录他们对产品的评论和意见,并将其上传到YouTube或Facebook等社交媒体平台,向用户表达他们的观点。出于同样的原因,潜在客户现在更倾向于浏览他们感兴趣的产品的视频评论,而不是寻找冗长的文本评论。这样做的另一个原因是,可信的文本评论很难找到,但是搜索好的视频评论却很容易。
视频可以成为情感分析的绝佳资源,但媒体也面临着需要克服的重大挑战。例如,意见的表达在人与人之间差别很大,有些人委婉的表达自己的观点,有些人直观地表达意见,有些人则完全依赖逻辑表达情绪。当一个人用更多的声音调节来表达个人的意见时,音频数据通常会包含大部分表示意见的线索。当一个人通过面部表情表达个人意见时,情感分析所需的大部分数据往往可以通过面部表情分析来确定。因此,这些个人差异促使我们需要寻找一个通用的情感分析框架。
到目前为止,情感分析大多数先进的框架依赖于处理单一的模式,即文本,音频或视频。虽然最近的研究已经考虑了多模式方法,但大部分研究仅通过在特征或决策级别上简单融合视频和音频情感信息,忽视了文本情感信息。因此,这些说明了开发一个多模式态框架的重要性和可行性。通过开发一个多模态框架,可以应付以人为中心的环境中的所有三种传感模式-文本,音频和视频。人们通过不同的渠道交流和表达自己的情感,文本,音频和视觉形式被同时利用,以便能够有效地提取对话中传达的语义和情感信息。
传统的情感识别方法是基于人工设计的特征。随着大规模数据集越来越普及,深度学习已经成为机器学习的一种通用方法,在许多计算机视觉和自然语言处理任务中,机器学习产生了最先进的结果。最近,三维卷积神经网络(C3D)在处理各种视频分析任务方面取得了很大进展。C3D可以同时对外观和运动信息进行建模,采用线性分类器的C3D特征可以在不同的视频分析基准上实现良好的性能。对于基于视频的情感识别任务中,在现有的发明中,很少有将C3D网络用于自己的研究中。
发明内容
为了克服上述现有技术中存在的缺陷,本发明提供了一种基于多模态融合的社交情感分类方法,用于社交情感分类。
为了实现本发明的上述目的所提出的情感分类方法主要包括如下步骤:基于CNN-RNN混合模型的文本情感分类步骤,利用CNN-RNN混合模型提取文本信息中的情感特征并进行分类处理;基于3DCLS模型的视觉情感分类步骤,利用3DCLS模型提取视觉信息中的时空特征,卷积长短期记忆网络对时空特征序列进行分类处理;基于openSMILE的音频情感分类步骤;和决策融合步骤,将特征提取获得的结果利用决策融合方法进行异质性融合。鉴于此,本发明的具体步骤为:
(1)基于CNN-RNN混合模型的文本情感分类步骤
S11:对输入文本进行预处理,并将其标记为一个单词序列,每个单词都将从word2vec模型中查找得到对应的单词嵌入矩阵,这个字典(word2vec)为每个单词提供了一个300维向量,对于这个词典中没有的单词,使用随机向量。
S12:将句子向量视为图像,并通过线性过滤器对其进行卷积。
S13:对卷积后的每个输出序列tj应用一个非线性激活函数f来产生一个特征映射c∈Rn-h+1,其中cj=f(tj),cj表示每一个输出序列tj所对应的特征映射,j=1,…,n-h+1,h是滤波器的长度,f是一个非线性变换函数。
S14:特征向量可以被馈送到CNN(Convolutional Neural Network)的下一层以进一步卷积,卷积过程与S13一样,或者可以被用于不同自然与预处理任务的输出向量。这里,这个文本特征向量被用作RNN(Recurrent Neural Networks)的输入。
S15:将隐藏状态的输出看作是RNN的最后一步,使用softmax层对文本进行预测分类,然后将交叉熵损耗从RNN反向传播到CNN以更新CNN-RNN模型的权重。使用随机梯度下降(SGD)来加速收敛。
(2)基于3DCLS模型的视觉情感分类步骤
S21:使用C3D从输入视频中提取时空特征,每段视频剪辑为长度为16的序列片段,将序列片段作为输入信息。C3D网络有8个卷积,5个最大池化层和2个完全连接层,然后是一个softmax输出层。
S22:视频V划分为T个片段,V=(v1,v2,…,vt,…,vT),其中vt是V的第t个片段,K是片段的长度,N表示帧数。接下来,使用3-D CNN网络对每个分割片段进行编码,从而产生图像帧序列X=(x1,x2,…,xT)。
S23:将隐藏状态的输出看作是LSTM(Recurrent Neural Networks)的最后一步,使用softmax层对视觉信息进行预测分类。
(3)基于openSMILE的音频情感分类步骤
从视频的每个注释片段中使用开源软件openSMILE自动提取音频特征,音频特征以30Hz的帧率提取,滑动窗口设置为100ms。最后将openSMILE提取的音频特征使用SVM进行情感分类预测。
(4)决策融合
S31:获得特征向量不是像特征级融合那样连接特征向量,而是为每种模态使用单独的分类器。
S32:从每个分类器中获得每个情感类别的概率分数。
S33:使用加权和法则,将每个情感类别的概率相加,然后选择最大的标签。
本发明提出了一种多模态情感识别框架,并发明了用于视觉特征提取和预测的3DCLS模型,这为传统的多模态情感识别框架性能提供了显著的改进,本发明框架能够有效地提取对话中传达的语义和情感信息。本发明利用决策级融合对视觉、音频、文本进行异质性融合。本发明学到的深时空特征有效地模拟了视觉外观和运动信息,在融合文本和音频信息后,有效的提高了情感分析的准确率。
附图说明
图1是本发明的模型框架图;
图2是本发明的文本情感分类图;
图3是本发明的视觉情感分类图。
具体实施方式
下面结合附图对本发明的具体实施作进一步的详细阐明。
图1是本发明的模型框架图。涉及音频、视觉和文本形式的信息特征提取和决策融合分类。
(1)基于CNN-RNN混合模型的文本情感分类:对于文本信息,使用CNN-RNN混合模型实现文本情感分析。CNN-RNN由两个部分组成:卷积神经网络提取文本特征,递归神经网络用于情感预测。
(2)基于3DCLS模型的视觉情感分类:3DCLS(3D CNN-ConvLSTM)由两个部分组成:三维卷积神经网络从输入视频中提取时空特征,卷积LSTM(LongShort-Term Memory)进一步学习长期的时空特征,并对提取的特征序列进行处理和情感预测。
(3)基于openSMILE的音频情感分类:openSMILE软件提取的特征由几个低级描述符(LLD)和它们的统计函数组成。部分函数为幅度均值,算术平均值,均方根平均值,标准差,平坦度,偏度,峰度,四分位数,四分位数间距,线性回归斜率等。因此,计算每个LLD的所有函数,得到6373个特征。最后将openSMILE提取的音频特征使用SVM(Support VectorMachine)进行情感分类预测。
(4)决策融合:获得特征向量不是像特征级融合那样连接特征向量,而是为每种模态使用单独的分类器,分类器分别对应音频、视觉和文本以上3点所描述的算法。从每个分类器中获得每个情感类别的概率分数。使用加权和法则,将每个情感类别的概率相加,然后选择最大的标签。
图2是本发明的基于CNN-RNN混合模型的文本情感分类图。使用CNN提取文本情感特征,最后利用RNN进行情感分类。
(1)基于词向量的CNN
CNN不需要传统监督分类器中使用的手工特征,能自动从训练数据中提取关键特征。传统文本分类做法常用词袋模型(Bag Of Words)或向量空间模型(Vector SpaceModel),传统方法最大的不足是忽略文本上下文关系,每个词之间彼此独立,并且无法表达语义信息。CNN从句子中掌握上下文局部特征,经过多次卷积运算后,最终形成一个局部特征的全局特征向量。
(2)通过RNN进行文本情感分类
LSTM体系结构在每个时间步骤中都有一系列重复的模块,如标准的RNN。LSTM被认为是最成功的RNN变种之一,一个LSTM由三个门组成:输入门i、输出门o和忘记门f。三个门协作控制输入、输出和应该被遗忘的内容,这样就可以建模一些复杂的长期关系。
图3是本发明的基于3DCLS模型的视觉情感分类图。使用C3D提取视觉情感特征,最后利用卷积LSTM进行情感分类。
(1)3D卷积神经网络
在2D卷积神经网络中,卷积和池化操作仅在空间上应用于二维静态图像。C3D是一个有代表性的用于人类行为识别的三维卷积神经络,在3D ConvNets中,通过增加一个时间维度来进行时空的操作。因此,这样的C3D网络保留了输入信号的时间信息,从而产生更加独特的结果。
(2)卷积LSTM
三维卷积神经网络可以直接学习时空特征,LSTM/RNN更适合于学习长期的时间信息。因此,利用三维CNN学习短时空特征,利用LSTM/RNN长时间依赖应用来学习长时空特征将更加合理。一般采用完全连通的特征作为LSTM的输入,但保持LSTM过程中的空间相关性信息可以学习到更多的信息时空特征。
Claims (6)
1.一种基于多模态融合的社交情感分类方法,其特征在于:包括情感特征提取和融合两个步骤;
所述情感特征提取步骤包括:利用CNN-RNN混合模型提取文本信息中的情感特征并进行分类处理;利用3DCLS模型提取视觉信息中的时空特征,卷积LSTM对时空特征序列进行分类处理;利用OpenSMILE工具提取音频特征,再进行情感分类预测;
所述融合步骤为将特征提取获得的结果利用决策融合方法进行异质性融合。
2.根据权利要求1所述一种基于多模态融合的社交情感分类方法,其特征在于:所述CNN-RNN混合模型对文本信息的处理包括以下步骤:
S11:对输入的文本信息进行预处理,并将其标记为一个单词序列;
S12:将句子向量视为图像,并通过线性过滤器对其进行卷积;
S13:对卷积后的每个输出序列tj应用一个非线性激活函数f来产生一个特征映射;
S14:将S13进行特征映射后获得的特征向量馈送到CNN的下一层以进一步卷积,卷积过程与S13一样,将卷积后的结果作为RNN的输入;
S15:将隐藏状态的输出看作是RNN的最后一步,使用softmax层对文本进行预测分类,然后将交叉熵损耗从RNN反向传播到CNN以更新CNN-RNN模型的权重。
3.根据权利要求1所述一种基于多模态融合的社交情感分类方法,其特征在于:视觉信息提取的步骤如下:
S21:使用C3D从输入视频中提取时空特征,每段视频剪辑为长度为16的序列片段,将序列片段作为输入信息;
S22:视频V划分为T个片段,V=(v1,v2,…,vt,...,vT),其中vt是V的第t个片段,K是片段的长度,N表示帧数,接下来,使用3-D CNN网络对每个分割片段进行编码,从而产生图像帧序列X=(x1,x2,…,xT);
S23:将隐藏状态的输出看作LSTM的最后一步,使用softmax层对视觉信息进行预测分类。
4.根据权利要求3所述一种基于多模态融合的社交情感分类方法,其特征在于:所述C3D网络有8个卷积,5个最大池化层和2个完全连接层,然后是一个softmax输出层。
5.根据权利要求1到4任一项所述一种基于多模态融合的社交情感分类方法,其特征在于:提取音频情征的步骤包括,从视频的每个注释片段中使用开源软件openSMILE自动提取音频特征,然后将音频特征使用SVM进行情感分类预测。
6.根据权利要求1或2或3或4所述一种基于多模态融合的社交情感分类方法,其特征在于:所述决策融合方法:
S31:分别将三个分类处理的结果输入分类器;
S32:从每个分类器中获得每个情感类别的概率分数;
S33:使用加权和法则,将每个情感类别的概率相加,然后选择最大的标签。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811376297.6A CN109508375A (zh) | 2018-11-19 | 2018-11-19 | 一种基于多模态融合的社交情感分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811376297.6A CN109508375A (zh) | 2018-11-19 | 2018-11-19 | 一种基于多模态融合的社交情感分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109508375A true CN109508375A (zh) | 2019-03-22 |
Family
ID=65749091
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811376297.6A Pending CN109508375A (zh) | 2018-11-19 | 2018-11-19 | 一种基于多模态融合的社交情感分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109508375A (zh) |
Cited By (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110032645A (zh) * | 2019-04-17 | 2019-07-19 | 携程旅游信息技术(上海)有限公司 | 文本情感识别方法、***、设备以及介质 |
CN110147452A (zh) * | 2019-05-17 | 2019-08-20 | 北京理工大学 | 一种基于层级bert神经网络的粗粒度情感分析方法 |
CN110147548A (zh) * | 2019-04-15 | 2019-08-20 | 浙江工业大学 | 基于双向门控循环单元网络和新型网络初始化的情感识别方法 |
CN110175266A (zh) * | 2019-05-28 | 2019-08-27 | 复旦大学 | 一种用于多段视频跨模态检索的方法 |
CN110188343A (zh) * | 2019-04-22 | 2019-08-30 | 浙江工业大学 | 基于融合注意力网络的多模态情感识别方法 |
CN110223712A (zh) * | 2019-06-05 | 2019-09-10 | 西安交通大学 | 一种基于双向卷积循环稀疏网络的音乐情感识别方法 |
CN110267292A (zh) * | 2019-05-16 | 2019-09-20 | 湖南大学 | 基于三维卷积神经网络的蜂窝网络流量预测方法 |
CN110287389A (zh) * | 2019-05-31 | 2019-09-27 | 南京理工大学 | 基于文本、语音和视频融合的多模态情感分类方法 |
CN110516723A (zh) * | 2019-08-15 | 2019-11-29 | 天津师范大学 | 一种基于深度张量融合的多模态地基云图识别方法 |
CN110852215A (zh) * | 2019-10-30 | 2020-02-28 | 国网江苏省电力有限公司电力科学研究院 | 一种多模态情感识别方法、***及存储介质 |
CN110866184A (zh) * | 2019-11-11 | 2020-03-06 | 湖南大学 | 短视频数据标签推荐方法、装置、计算机设备和存储介质 |
CN111061915A (zh) * | 2019-12-17 | 2020-04-24 | 中国科学技术大学 | 视频人物关系识别方法 |
CN111126194A (zh) * | 2019-12-10 | 2020-05-08 | 郑州轻工业大学 | 一种社交媒体视觉内容情感分类方法 |
CN111208818A (zh) * | 2020-01-07 | 2020-05-29 | 电子科技大学 | 基于视觉时空特征的智能车预测控制方法 |
CN111414478A (zh) * | 2020-03-13 | 2020-07-14 | 北京科技大学 | 基于深度循环神经网络的社交网络情感建模方法 |
CN111428867A (zh) * | 2020-06-15 | 2020-07-17 | 深圳市友杰智新科技有限公司 | 基于可逆分离卷积的模型训练方法、装置和计算机设备 |
CN111797863A (zh) * | 2019-04-09 | 2020-10-20 | Oppo广东移动通信有限公司 | 模型训练方法、数据处理方法、装置、存储介质及设备 |
CN111967522A (zh) * | 2020-08-19 | 2020-11-20 | 南京图格医疗科技有限公司 | 一种基于漏斗卷积结构的图像序列分类方法 |
EP3754655A1 (en) * | 2019-06-20 | 2020-12-23 | University of Tartu | Video analysis |
CN112597841A (zh) * | 2020-12-14 | 2021-04-02 | 之江实验室 | 一种基于门机制多模态融合的情感分析方法 |
CN112906624A (zh) * | 2021-03-12 | 2021-06-04 | 合肥工业大学 | 一种基于音视频多模态时序预测的视频数据特征提取方法 |
CN113128284A (zh) * | 2019-12-31 | 2021-07-16 | 上海汽车集团股份有限公司 | 一种多模态情感识别方法和装置 |
CN113177163A (zh) * | 2021-04-28 | 2021-07-27 | 烟台中科网络技术研究所 | 用于社交动态信息情感分析的方法、***和存储介质 |
CN113254713A (zh) * | 2021-05-17 | 2021-08-13 | 北京航空航天大学 | 基于视频内容生成情感曲线的多源情感计算***及方法 |
CN113255755A (zh) * | 2021-05-18 | 2021-08-13 | 北京理工大学 | 一种基于异质融合网络的多模态情感分类方法 |
CN113254684A (zh) * | 2021-06-18 | 2021-08-13 | 腾讯科技(深圳)有限公司 | 一种内容时效的确定方法、相关装置、设备以及存储介质 |
CN113434483A (zh) * | 2021-06-29 | 2021-09-24 | 无锡四维时空信息科技有限公司 | 一种基于时空大数据的可视化建模方法及*** |
CN113569675A (zh) * | 2021-07-15 | 2021-10-29 | 郑州大学 | 一种基于ConvLSTM网络的小鼠旷场实验行为分析方法 |
CN113627550A (zh) * | 2021-08-17 | 2021-11-09 | 北京计算机技术及应用研究所 | 一种基于多模态融合的图文情感分析方法 |
CN113837072A (zh) * | 2021-09-24 | 2021-12-24 | 厦门大学 | 一种融合多维信息的说话人情绪感知方法 |
CN114419509A (zh) * | 2022-01-24 | 2022-04-29 | 烟台大学 | 一种多模态情感分析方法、装置及电子设备 |
CN114424940A (zh) * | 2022-01-27 | 2022-05-03 | 山东师范大学 | 基于多模态时空特征融合的情绪识别方法及*** |
CN114582000A (zh) * | 2022-03-18 | 2022-06-03 | 南京工业大学 | 基于视频图像面部表情和语音的多模态老人情绪识别融合模型及其建立方法 |
CN114782739A (zh) * | 2022-03-31 | 2022-07-22 | 电子科技大学 | 基于双向长短期记忆层和全连接层的多模态分类模型 |
CN114882412A (zh) * | 2022-05-11 | 2022-08-09 | 南京邮电大学 | 基于视觉和语言的标注关联型短视频情感识别方法及*** |
CN114881668A (zh) * | 2022-05-05 | 2022-08-09 | 灵图数据(杭州)有限公司 | 一种基于多模态的欺骗检测方法 |
WO2022188838A1 (en) * | 2021-03-11 | 2022-09-15 | International Business Machines Corporation | Adaptive selection of data modalities for efficient video recognition |
CN116049397A (zh) * | 2022-12-29 | 2023-05-02 | 北京霍因科技有限公司 | 基于多模态融合的敏感信息发现并自动分类分级方法 |
CN116704423A (zh) * | 2023-08-07 | 2023-09-05 | 中国科学技术大学 | 层级式视频人物社交互动识别方法、***、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107451552A (zh) * | 2017-07-25 | 2017-12-08 | 北京联合大学 | 一种基于3d‑cnn和卷积lstm的手势识别方法 |
CN108363753A (zh) * | 2018-01-30 | 2018-08-03 | 南京邮电大学 | 评论文本情感分类模型训练与情感分类方法、装置及设备 |
CN108597541A (zh) * | 2018-04-28 | 2018-09-28 | 南京师范大学 | 一种增强愤怒与开心识别的语音情感识别方法及*** |
CN108805087A (zh) * | 2018-06-14 | 2018-11-13 | 南京云思创智信息科技有限公司 | 基于多模态情绪识别***的时序语义融合关联判断子*** |
-
2018
- 2018-11-19 CN CN201811376297.6A patent/CN109508375A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107451552A (zh) * | 2017-07-25 | 2017-12-08 | 北京联合大学 | 一种基于3d‑cnn和卷积lstm的手势识别方法 |
CN108363753A (zh) * | 2018-01-30 | 2018-08-03 | 南京邮电大学 | 评论文本情感分类模型训练与情感分类方法、装置及设备 |
CN108597541A (zh) * | 2018-04-28 | 2018-09-28 | 南京师范大学 | 一种增强愤怒与开心识别的语音情感识别方法及*** |
CN108805087A (zh) * | 2018-06-14 | 2018-11-13 | 南京云思创智信息科技有限公司 | 基于多模态情绪识别***的时序语义融合关联判断子*** |
Non-Patent Citations (3)
Title |
---|
CHUNTING ZHOU等: "A C-LSTM Neural Network for Text Classification", 《COMPUTER SCIENCE – COMPUTATION AND LANGUAGE》 * |
LIANG ZHANG等: "Learning Spatiotemporal Features using 3DCNN and Convolutional LSTM for Gesture Recognition", 《2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION WORKSHOPS (ICCVW)》 * |
SOUJANYA PORIA等: "Ensemble application of convolutional neural networks and multiple kernel learning for multimodal sentiment analysis", 《NEUROCOMPUTING 261 (2017)》 * |
Cited By (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111797863A (zh) * | 2019-04-09 | 2020-10-20 | Oppo广东移动通信有限公司 | 模型训练方法、数据处理方法、装置、存储介质及设备 |
CN110147548A (zh) * | 2019-04-15 | 2019-08-20 | 浙江工业大学 | 基于双向门控循环单元网络和新型网络初始化的情感识别方法 |
CN110147548B (zh) * | 2019-04-15 | 2023-01-31 | 浙江工业大学 | 基于双向门控循环单元网络和新型网络初始化的情感识别方法 |
CN110032645A (zh) * | 2019-04-17 | 2019-07-19 | 携程旅游信息技术(上海)有限公司 | 文本情感识别方法、***、设备以及介质 |
CN110188343B (zh) * | 2019-04-22 | 2023-01-31 | 浙江工业大学 | 基于融合注意力网络的多模态情感识别方法 |
CN110188343A (zh) * | 2019-04-22 | 2019-08-30 | 浙江工业大学 | 基于融合注意力网络的多模态情感识别方法 |
CN110267292A (zh) * | 2019-05-16 | 2019-09-20 | 湖南大学 | 基于三维卷积神经网络的蜂窝网络流量预测方法 |
CN110267292B (zh) * | 2019-05-16 | 2022-07-08 | 湖南大学 | 基于三维卷积神经网络的蜂窝网络流量预测方法 |
CN110147452A (zh) * | 2019-05-17 | 2019-08-20 | 北京理工大学 | 一种基于层级bert神经网络的粗粒度情感分析方法 |
CN110175266A (zh) * | 2019-05-28 | 2019-08-27 | 复旦大学 | 一种用于多段视频跨模态检索的方法 |
CN110287389A (zh) * | 2019-05-31 | 2019-09-27 | 南京理工大学 | 基于文本、语音和视频融合的多模态情感分类方法 |
CN110223712B (zh) * | 2019-06-05 | 2021-04-20 | 西安交通大学 | 一种基于双向卷积循环稀疏网络的音乐情感识别方法 |
CN110223712A (zh) * | 2019-06-05 | 2019-09-10 | 西安交通大学 | 一种基于双向卷积循环稀疏网络的音乐情感识别方法 |
EP3754655A1 (en) * | 2019-06-20 | 2020-12-23 | University of Tartu | Video analysis |
CN110516723A (zh) * | 2019-08-15 | 2019-11-29 | 天津师范大学 | 一种基于深度张量融合的多模态地基云图识别方法 |
CN110852215B (zh) * | 2019-10-30 | 2022-09-06 | 国网江苏省电力有限公司电力科学研究院 | 一种多模态情感识别方法、***及存储介质 |
CN110852215A (zh) * | 2019-10-30 | 2020-02-28 | 国网江苏省电力有限公司电力科学研究院 | 一种多模态情感识别方法、***及存储介质 |
CN110866184A (zh) * | 2019-11-11 | 2020-03-06 | 湖南大学 | 短视频数据标签推荐方法、装置、计算机设备和存储介质 |
CN111126194A (zh) * | 2019-12-10 | 2020-05-08 | 郑州轻工业大学 | 一种社交媒体视觉内容情感分类方法 |
CN111126194B (zh) * | 2019-12-10 | 2023-04-07 | 郑州轻工业大学 | 一种社交媒体视觉内容情感分类方法 |
CN111061915A (zh) * | 2019-12-17 | 2020-04-24 | 中国科学技术大学 | 视频人物关系识别方法 |
CN111061915B (zh) * | 2019-12-17 | 2023-04-18 | 中国科学技术大学 | 视频人物关系识别方法 |
CN113128284A (zh) * | 2019-12-31 | 2021-07-16 | 上海汽车集团股份有限公司 | 一种多模态情感识别方法和装置 |
CN111208818A (zh) * | 2020-01-07 | 2020-05-29 | 电子科技大学 | 基于视觉时空特征的智能车预测控制方法 |
CN111208818B (zh) * | 2020-01-07 | 2023-03-07 | 电子科技大学 | 基于视觉时空特征的智能车预测控制方法 |
CN111414478B (zh) * | 2020-03-13 | 2023-11-17 | 北京科技大学 | 基于深度循环神经网络的社交网络情感建模方法 |
CN111414478A (zh) * | 2020-03-13 | 2020-07-14 | 北京科技大学 | 基于深度循环神经网络的社交网络情感建模方法 |
CN111428867A (zh) * | 2020-06-15 | 2020-07-17 | 深圳市友杰智新科技有限公司 | 基于可逆分离卷积的模型训练方法、装置和计算机设备 |
CN111428867B (zh) * | 2020-06-15 | 2020-09-18 | 深圳市友杰智新科技有限公司 | 基于可逆分离卷积的模型训练方法、装置和计算机设备 |
CN111967522A (zh) * | 2020-08-19 | 2020-11-20 | 南京图格医疗科技有限公司 | 一种基于漏斗卷积结构的图像序列分类方法 |
CN111967522B (zh) * | 2020-08-19 | 2022-02-25 | 南京图格医疗科技有限公司 | 一种基于漏斗卷积结构的图像序列分类方法 |
CN112597841A (zh) * | 2020-12-14 | 2021-04-02 | 之江实验室 | 一种基于门机制多模态融合的情感分析方法 |
WO2022188838A1 (en) * | 2021-03-11 | 2022-09-15 | International Business Machines Corporation | Adaptive selection of data modalities for efficient video recognition |
GB2620309A (en) * | 2021-03-11 | 2024-01-03 | Ibm | Adaptive selection of data modalities for efficient video recognition |
CN112906624A (zh) * | 2021-03-12 | 2021-06-04 | 合肥工业大学 | 一种基于音视频多模态时序预测的视频数据特征提取方法 |
CN112906624B (zh) * | 2021-03-12 | 2022-09-13 | 合肥工业大学 | 一种基于音视频多模态时序预测的视频数据特征提取方法 |
CN113177163A (zh) * | 2021-04-28 | 2021-07-27 | 烟台中科网络技术研究所 | 用于社交动态信息情感分析的方法、***和存储介质 |
CN113254713B (zh) * | 2021-05-17 | 2022-05-24 | 北京航空航天大学 | 基于视频内容生成情感曲线的多源情感计算***及方法 |
CN113254713A (zh) * | 2021-05-17 | 2021-08-13 | 北京航空航天大学 | 基于视频内容生成情感曲线的多源情感计算***及方法 |
CN113255755B (zh) * | 2021-05-18 | 2022-08-23 | 北京理工大学 | 一种基于异质融合网络的多模态情感分类方法 |
CN113255755A (zh) * | 2021-05-18 | 2021-08-13 | 北京理工大学 | 一种基于异质融合网络的多模态情感分类方法 |
CN113254684A (zh) * | 2021-06-18 | 2021-08-13 | 腾讯科技(深圳)有限公司 | 一种内容时效的确定方法、相关装置、设备以及存储介质 |
CN113434483B (zh) * | 2021-06-29 | 2022-02-15 | 无锡四维时空信息科技有限公司 | 一种基于时空大数据的可视化建模方法及*** |
CN113434483A (zh) * | 2021-06-29 | 2021-09-24 | 无锡四维时空信息科技有限公司 | 一种基于时空大数据的可视化建模方法及*** |
CN113569675B (zh) * | 2021-07-15 | 2023-05-23 | 郑州大学 | 一种基于ConvLSTM网络的小鼠旷场实验行为分析方法 |
CN113569675A (zh) * | 2021-07-15 | 2021-10-29 | 郑州大学 | 一种基于ConvLSTM网络的小鼠旷场实验行为分析方法 |
CN113627550A (zh) * | 2021-08-17 | 2021-11-09 | 北京计算机技术及应用研究所 | 一种基于多模态融合的图文情感分析方法 |
CN113837072A (zh) * | 2021-09-24 | 2021-12-24 | 厦门大学 | 一种融合多维信息的说话人情绪感知方法 |
CN114419509A (zh) * | 2022-01-24 | 2022-04-29 | 烟台大学 | 一种多模态情感分析方法、装置及电子设备 |
CN114424940A (zh) * | 2022-01-27 | 2022-05-03 | 山东师范大学 | 基于多模态时空特征融合的情绪识别方法及*** |
CN114582000A (zh) * | 2022-03-18 | 2022-06-03 | 南京工业大学 | 基于视频图像面部表情和语音的多模态老人情绪识别融合模型及其建立方法 |
CN114782739B (zh) * | 2022-03-31 | 2023-07-14 | 电子科技大学 | 基于双向长短期记忆层和全连接层的多模态分类方法 |
CN114782739A (zh) * | 2022-03-31 | 2022-07-22 | 电子科技大学 | 基于双向长短期记忆层和全连接层的多模态分类模型 |
CN114881668A (zh) * | 2022-05-05 | 2022-08-09 | 灵图数据(杭州)有限公司 | 一种基于多模态的欺骗检测方法 |
CN114882412A (zh) * | 2022-05-11 | 2022-08-09 | 南京邮电大学 | 基于视觉和语言的标注关联型短视频情感识别方法及*** |
CN116049397A (zh) * | 2022-12-29 | 2023-05-02 | 北京霍因科技有限公司 | 基于多模态融合的敏感信息发现并自动分类分级方法 |
CN116049397B (zh) * | 2022-12-29 | 2024-01-02 | 北京霍因科技有限公司 | 基于多模态融合的敏感信息发现并自动分类分级方法 |
CN116704423A (zh) * | 2023-08-07 | 2023-09-05 | 中国科学技术大学 | 层级式视频人物社交互动识别方法、***、设备及介质 |
CN116704423B (zh) * | 2023-08-07 | 2023-11-28 | 中国科学技术大学 | 层级式视频人物社交互动识别方法、***、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109508375A (zh) | 一种基于多模态融合的社交情感分类方法 | |
Marechal et al. | Survey on AI-Based Multimodal Methods for Emotion Detection. | |
CN112699774B (zh) | 视频中人物的情绪识别方法及装置、计算机设备及介质 | |
US11862145B2 (en) | Deep hierarchical fusion for machine intelligence applications | |
CN111444709A (zh) | 文本分类方法、装置、存储介质及设备 | |
CN109447140A (zh) | 一种基于神经网络深度学习的图像识别并推荐认知的方法 | |
WO2022033208A1 (zh) | 视觉对话方法、模型训练方法、装置、电子设备及计算机可读存储介质 | |
Duong et al. | Multimodal classification for analysing social media | |
CN113297370B (zh) | 基于多交互注意力的端到端多模态问答方法及*** | |
WO2018220700A1 (ja) | 新規学習データセット生成方法、新規学習データセット生成装置および生成された学習データセットを用いた学習方法 | |
Ramakrishnan et al. | Toward automated classroom observation: Predicting positive and negative climate | |
CN112418172A (zh) | 基于多模信息智能处理单元的多模信息融合情感分析方法 | |
CN114443899A (zh) | 视频分类方法、装置、设备及介质 | |
Bikku et al. | Deep learning approaches for classifying data: a review | |
Kaya et al. | Multimodal personality trait analysis for explainable modeling of job interview decisions | |
Keren et al. | Deep learning for multisensorial and multimodal interaction | |
CN111538841A (zh) | 基于知识互蒸馏的评论情感分析方法、装置及*** | |
Gandhi et al. | Multimodal sentiment analysis: review, application domains and future directions | |
Hemamou et al. | Multimodal hierarchical attention neural network: Looking for candidates behaviour which impact recruiter's decision | |
CN117493973A (zh) | 一种基于生成式人工智能的社交媒体负面情绪识别方法 | |
CN116543798A (zh) | 基于多分类器的情感识别方法和装置、电子设备、介质 | |
Rallis et al. | Bidirectional long short-term memory networks and sparse hierarchical modeling for scalable educational learning of dance choreographies | |
Sudhan et al. | Multimodal depression severity detection using deep neural networks and depression assessment scale | |
Ryumina et al. | Impact of visual modalities in multimodal personality and affective computing | |
CN114595693A (zh) | 一种基于深度学习的文本情感分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190322 |
|
RJ01 | Rejection of invention patent application after publication |