CN116450797A - 基于多模态对话的情感分类方法、装置、设备及介质 - Google Patents
基于多模态对话的情感分类方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN116450797A CN116450797A CN202310566903.5A CN202310566903A CN116450797A CN 116450797 A CN116450797 A CN 116450797A CN 202310566903 A CN202310566903 A CN 202310566903A CN 116450797 A CN116450797 A CN 116450797A
- Authority
- CN
- China
- Prior art keywords
- dialogue
- feature set
- modal
- feature
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 212
- 238000000034 method Methods 0.000 title claims abstract description 53
- 230000004927 fusion Effects 0.000 claims abstract description 114
- 230000002452 interceptive effect Effects 0.000 claims abstract description 11
- 238000013145 classification model Methods 0.000 claims description 82
- 230000015654 memory Effects 0.000 claims description 74
- 238000000605 extraction Methods 0.000 claims description 65
- 230000002457 bidirectional effect Effects 0.000 claims description 50
- 230000006870 function Effects 0.000 claims description 35
- 230000007246 mechanism Effects 0.000 claims description 25
- 239000013598 vector Substances 0.000 claims description 18
- 230000004913 activation Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 12
- 230000002902 bimodal effect Effects 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 4
- 238000004458 analytical method Methods 0.000 abstract description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 abstract description 2
- 239000011159 matrix material Substances 0.000 description 12
- 238000004891 communication Methods 0.000 description 8
- 238000001228 spectrum Methods 0.000 description 8
- 230000003993 interaction Effects 0.000 description 5
- 238000007726 management method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 239000012190 activator Substances 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000009432 framing Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000005728 strengthening Methods 0.000 description 2
- 230000003313 weakening effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及金融领域的人工智能技术,揭露一种基于多模态对话的情感分类方法、装置、设备以及介质,可用于智能客服在保险产品的业务推广时对目标用户进行情感分析,所述方法包括:获取多模态对话数据集包括的对话视频集、对话语音集及对话文本集;并分别捕捉不同模态特征的上下文特征,得到上下文对话图像特征集、上下文对话语音特征集及上下文对话文本特征集;将不同模态的上下文特征集进行特征对齐,得到不同模态的对齐上下文特征集;将不同模态的对齐特征集进行交互拼接,得到多模态融合特征集;将多模态融合特征集进行情感分类,得到情感分类结果。本发明可以提高情感分类的准确性。
Description
技术领域
本发明涉及人工智能领域,尤其涉及一种基于多模态对话的情感分类方法、装置、设备及存储介质。
背景技术
基于对话的情感分类是指在探索在人机交互或人与人交互的会话中,分析用户带有情感色彩的、以多种感官数据为载体的主观性表达,从而识别出用户在对话中互相影响而转变的情绪状态演化过程。
传统的情感分类方法大多只聚焦于单一模态的数据,如用户的面部表情、语音音频、语言文本或人体生理信号等。但是,这种单模态分类在基于会话的情感分类中缺少了全局判断情感正负的信息,比如,在智能客服对目标用户进行外呼以介绍保险产品时用户的口语文本具有积极的暗示,却伴随了一个皱眉的表情与平淡的语调,若仅根据用户口语文本内容来判断情绪,很容易错误地将用户情绪判定为正面或中性的情绪,但结合其他两个模态的信息便有助于理解用户的情绪为消极的,由于缺失不同模态之间的交互性,容易将用户情绪状态识别错误,使得用户的情绪变化状态无法被准确识别,导致智能客服在推广保险产品时识别的目标用户的情感分类的准确率较低。
发明内容
本发明提供一种基于多模态对话的情感分类方法、装置、设备及存储介质,其主要目的是提高智能客服在推广保险产品时识别到用户的情感分类的准确性。
为实现上述目的,本发明提供了一种基于多模态对话的情感分类方法,包括:
获取多模态对话数据集对所述多模态对话数据集进行标记,所述多模态对话数据集包括对话视频集、对话语音集及对话文本集;
利用训练完成的多模态情感分类模型中的特征提取层分别对所述对话视频集、所述对话语音集及所述对话文本集进行特征提取,得到对话图像特征集、对话语音特征集及对话文本特征集;
利用所述多模态情感分类模型中的双向长短时记忆网络层分别捕捉所述对话图像特征集、所述对话语音特征集及所述对话文本特征集的上下文特征,得到上下文对话图像特征集、上下文对话语音特征集及上下文对话文本特征集;
利用所述多模态情感分类模型中的跨模态注意力机制层将所述上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集进行特征对齐,得到对齐对话图像特征集、对齐对话语音特征集及对齐对话文本特征集;
利用所述多模态情感分类模型中的多模态融合层将所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集进行交互拼接,得到多模态融合特征集;
将所述多模态融合特征集输入至所述多模态情感分类模型中的情感分类层中,得到所述多模态对话数据集对应的情感分类结果。
可选地,所述利用所述多模态情感分类模型中的双向长短时记忆网络层分别捕捉所述对话图像特征集、所述对话语音特征集及所述对话文本特征集的上下文特征,得到上下文对话图像特征集、上下文对话语音特征集及上下文对话文本特征集,包括:
将所述对话图像特征集、所述对话语音特征集及所述对话文本特征集输入所述双向长短时记忆网络层中的输入门中,得到对话特征状态值集;
利用所述双向长短时记忆网络层中的遗忘门计算所述对话特征状态值集的激活值;
根据所述状态值及激活值计算所述对话特征状态值集的状态更新值;
利用所述双向长短时记忆网络层中的前向输出门计算所述状态更新值对应的前向上下文对话特征集;
利用所述双向长短时记忆网络层中的后向输出门计算所述状态更新值对应的后向上下文对话特征集;
将所述前向上下文对话特征集与所述后向上下文对话特征集进行拼接,得到上下文对话特征集,其中,所述上下文对话特征集包括:上下文对话图像特征集、上下文对话语音特征集及上下文对话文本特征集。
可选地,所述利用所述多模态情感分类模型中的多模态融合层将所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集进行交互拼接,得到多模态融合特征集,包括:
利用所述多模态融合层中的双模态融合层将所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集分别进行两两拼接,得到文本图像特征、文本语音特征及语音图像特征;
利用所述多模态融合层中的三模态融合层将所述文本图像特征、所述文本语音特征及所述语音图像特征进行拼接,得到三模态特征;
将所述三模态特征与所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集进行融合,得到所述多模态融合特征。
可选地,所述将所述多模态融合特征集输入至所述多模态情感分类模型中的情感分类层中,得到所述多模态对话数据集对应的情感分类结果,包括:
利用所述情感分类层计算所述多模态融合特征的注意力分布分数;
将所述注意力分布分数与所述多模态融合特征集进行加权运算,得到得到所述多模态对话数据集对应的情感分类结果。
可选地,所述利用训练完成的多模态情感分类模型中的特征提取层分别对所述对话视频集、所述对话语音集及所述对话文本集进行特征提取,得到对话图像特征集、对话语音特征集及对话文本特征集,包括:
利用所述特征提取层中的图像编码层提取所述对话视频集对应的对话图像特征集;
利用所述特征提取层中的语音特征层提取所述对话语音集对应的梅尔倒谱系数作为所述对话语音特征集;
利用所述特征提取层中的文本特征层将所述对话文本集中的每个词映射为多个文本词向量,并通过预设的平均策略将多个所述文本词向量进行整合得到所述对话文本特征集。
可选地,所述利用所述多模态情感分类模型中的跨模态注意力机制层将所述上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集进行特征对齐,得到对齐对话图像特征集、对齐对话语音特征集及对齐对话文本特征集,包括:
利用所述跨模态注意力机制层分别计算所述上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集的注意力分数;
根据所述注意力分数分别将所述所述上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集进行特征对齐,得到所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集。
可选地,所述利用所述特征提取层中的图像编码层提取所述对话视频集对应的对话图像特征集之前,所述方法还包括:
获取预设的图像编码层包含的编码器参数、编码函数、解码器参数及解码函数;
提取所述对话视频集中的用户图像集,根据所述用户图像集、所述编码器参数、所述编码函数、所述解码器参数及所述解码函数训练所述预设的图像编码层,得到训练完成的图像编码层。
为了解决上述问题,本发明还提供一种基于多模态对话的情感分类装置,所述装置包括:
多模态对话数据集获取模块,用于获取多模态对话数据集对所述多模态对话数据集进行标记,所述多模态对话数据集包括对话视频集、对话语音集及对话文本集;
多模态特征提取模块,用于利用训练完成的多模态情感分类模型中的特征提取层分别对所述对话视频集、所述对话语音集及所述对话文本集进行特征提取,得到对话图像特征集、对话语音特征集及对话文本特征集;
上下文特征提取模块,用于利用所述多模态情感分类模型中的双向长短时记忆网络层分别捕捉所述对话图像特征集、所述对话语音特征集及所述对话文本特征集的上下文特征,得到上下文对话图像特征集、上下文对话语音特征集及上下文对话文本特征集;
多模态特征对齐模块,用于利用所述多模态情感分类模型中的跨模态注意力机制层将所述上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集进行特征对齐,得到对齐对话图像特征集、对齐对话语音特征集及对齐对话文本特征集;
多模态融合及情感分类模块,用于利用所述多模态情感分类模型中的多模态融合层将所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集进行交互拼接,得到多模态融合特征集;将所述多模态融合特征集输入至所述多模态情感分类模型中的情感分类层中,得到所述多模态对话数据集对应的情感分类结果。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个计算机程序;及
处理器,执行所述存储器中存储的计算机程序以实现上述所述的基于多模态对话的情感分类方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的基于多模态对话的情感分类方法。
本发明实施例中,获取多模态对话数据集包括的对话视频集、对话语音集及对话文本集之后,首先通过利用多模态情感分类模型中的特征提取层分别对对话视频集、对话语音集及对话文本集进行特征提取,实现对不同类型的模态数据的特征提取,并利用多模态情感分类模型中的双向长短时记忆网络层分别捕捉对话图像特征集、对话语音特征集及对话文本特征集的上下文特征,通过双向长短时记忆网络层不仅能捕捉每种模态的前向特征之间依赖关系,也能捕捉后向特征之间的依赖关系,进一步提高多种模态特征提取的准确率;其次,通过利用多模态情感分类模型中的多模态融合层将对齐对话图像特征集、对齐对话语音特征集及对齐对话文本特征集进行交互拼接,得到多模态融合特征集,能够解决由于缺失不同模态之间的交互性,从而导致的用户情绪状态识别不准确的问题,可以精准捕捉用户的情绪变化状态;最后,通过将多模态融合特征集输入至多模态情感分类模型中的情感分类层中,得到情感分类结果,从而提高情感分类的准确性。因此本发明实施例提出的基于多模态对话的情感分类方法、装置、设备及存储介质可以提高智能客服在推广保险产品时识别的目标用户的情感分类的准确性。
附图说明
图1为本发明一实施例提供的基于多模态对话的情感分类方法的流程示意图;
图2为本发明一实施例提供的基于多模态对话的情感分类方法中一个步骤的详细流程示意图;
图3为本发明一实施例提供的基于多模态对话的情感分类方法中一个步骤的详细流程示意图;
图4为本发明一实施例提供的基于多模态对话的情感分类装置的模块示意图;
图5为本发明一实施例提供的实现基于多模态对话的情感分类方法的电子设备的内部结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例提供一种基于多模态对话的情感分类方法。所述基于多模态对话的情感分类方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述基于多模态对话的情感分类方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。
参照图1所示的本发明一实施例提供的基于多模态对话的情感分类方法的流程示意图,在本发明实施例中,所述基于多模态对话的情感分类方法包括以下步骤S1-S6:
S1、获取多模态对话数据集对所述多模态对话数据集进行标记,所述多模态对话数据集包括对话视频集、对话语音集及对话文本集。
本发明实施例中,所述多模态对话数据集是包含视频、语音及文本的对话数据集,其中,所述多模态对话数据集可以为智能客服向用户进行保险产品推荐的视频集。
本发明一实施例中,可以通过对话窗口标记多模态对话数据集进行标记,具体是对对话视频集、对话语音集及对话文本集分别进行标记。比如,对话窗口大小为W,由于对话窗口中包括了所有当前对话的信息,所以对话窗口可以针对所有当前对话的信息,找出前后有多少条对话可以反应当前会话的情感,具体地,对话窗口大小为W,则说明当前对话的前W/2条对话和后(W/2)-1条对话能够用来预测当前对话的情感,此处的W还可以作为超参数,可以基于用户需求定义W的最优取值。
S2、利用训练完成的多模态情感分类模型中的特征提取层分别对所述对话视频集、所述对话语音集及所述对话文本集进行特征提取,得到对话图像特征集、对话语音特征集及对话文本特征集。
本发明实施例中,所述训练完成的多模态情感分类模型可以由双向长短时记忆网络(Bi-LSTM)及注意力机制网络(Attention)结合的模型,其中,所述多模态情感分类模型包括:特征提取层、双向长短时记忆网络层、跨模态注意力机制层、多模态融合层及情感分类层。
本发明实施例通过利用训练完成的多模态情感分类模型中的特征提取层分别对所述对话视频集、所述对话语音集及所述对话文本集进行特征提取,得到对话图像特征集、对话语音特征集及对话文本特征集,可以准确提取不同模态的特征,便于保证后续特征融合的准确性。
作为本发明的一个实施例中,所述利用训练完成的多模态情感分类模型中的特征提取层分别对所述对话视频集、所述对话语音集及所述对话文本集进行特征提取,得到对话图像特征集、对话语音特征集及对话文本特征集,包括:
利用所述特征提取层中的图像编码层提取所述对话视频集对应的对话图像特征集;利用所述特征提取层中的语音特征层提取所述对话语音集对应的梅尔倒谱系数作为所述对话语音特征集;利用所述特征提取层中的文本特征层将所述对话文本集中的每个词映射为多个文本词向量,并通过预设的平均策略将多个所述文本词向量进行整合得到所述对话文本特征集。
其中,所述图像编码层是由12层卷积神经网络构成的自编码器及12层反卷积神经网络构成的解码器组合而成的,通过自编码器及解码器可以提取对话视频集对应的对话图像特征集。
本发明一实施例中,可以通过语音编码层先对话语音集进行预加重、分帧和加窗处理,确定对话语音集的语音帧信号,并通过快速傅里叶变换(FFT,Fast FourierTransform)技术将语音帧信号转化为对应的频谱,再将得到的频谱通过梅尔滤波器组得到梅尔频谱,在梅尔频谱上面进行倒谱分析及取对数操作,并通过离散余弦变换(DCT,Discrete Cosine Transform)技术进行逆变换,取DCT后的第2个到第13个系数作为梅尔倒谱系数,即将梅尔倒谱系数作为对话语音特征集。
本发明另一实施例中,在进行对话文本集的特征提取之前,先通过对对话文本集进行分词、去除停用词及特殊标点符号等预处理,再利用预设的Glove词向量表查询将对话文本集中的每个词对应的多个文本词向量,并通过预设的平均策略,即将每个词对应的文本词向量应用至整个句子中,得到每个句子的句向量,并将多个句向量进行整合得到所述对话文本特征集。
进一步地,所述利用所述特征提取层中的图像编码层提取所述对话视频集对应的对话图像特征集之前,所述方法还包括:
获取预设的图像编码层包含的编码器参数、编码函数、解码器参数及解码函数;提取所述对话视频集中的用户图像集,根据所述用户图像集、所述编码器参数、所述编码函数、所述解码器参数及所述解码函数训练所述预设的图像编码层,得到训练完成的图像编码层。
其中,可以通过下述公式训练所述预设的图像编码层:
其中,θ表示编码器参数,ξ表示解码器参数,minLconst表示最小化重构损失函数,M表示用户图像集,γ表示编码器函数,表示解码器函数,Xi表示第i个用户图像的通道矩阵。
本发明一实施例种,所述训练完成的图像编码层包含编码器及解码器,通过最小化重构损失函数训练获取的编码器参数及解码器参数,能够得到最优的编码器参数θ和解码器参数ξ,从而得到训练完成的图像编码层,以提高图像编码层进行图像特征提取的准确率。
本发明一可选实施例中,由于不同模态数据特征存在维度不一致问题,影响后续双向长短时记忆网络层的计算,需要将不同模态数据特征进行维度统一。具体地,分别对对话文本特征集、对话语音特征集及对话图像特征集采用输入特征参数为300,输出特征参数为56的全连接层、输入特征为12,输出特征为56的全连接层、输入特征为78,输出特征为56的全连接层转换为特征维度均为56的不同模态特征集。
S3、利用所述多模态情感分类模型中的双向长短时记忆网络层分别捕捉所述对话图像特征集、所述对话语音特征集及所述对话文本特征集的上下文特征,得到上下文对话图像特征集、上下文对话语音特征集及上下文对话文本特征集。
本发明实施例中,所述双向长短时记忆网络层是由双向长短时记忆(Bi-LSTM,Bi-directional Long Short-Term Memory)模型构成的,主要作用是不仅能捕捉每种模态的前向特征之间依赖关系,也能捕捉后向特征之间的依赖关系,进一步提高多种模态特征提取的准确率。其中,所述双向长短时记忆网络层包括:输入门、遗忘门、前向输出门及后向输出门。
作为本发明的一个实施例,参考图2所示,所述利用所述多模态情感分类模型中的双向长短时记忆网络层分别捕捉所述对话图像特征集、所述对话语音特征集及所述对话文本特征集的上下文特征,得到上下文对话图像特征集、上下文对话语音特征集及上下文对话文本特征集,包括以下步骤S31-S36:
S31、将所述对话图像特征集、所述对话语音特征集及所述对话文本特征集输入所述双向长短时记忆网络层中的输入门中,得到对话特征状态值集;
S32、利用所述双向长短时记忆网络层中的遗忘门计算所述对话特征状态值集的激活值;
S33、根据所述状态值及激活值计算所述对话特征状态值集的状态更新值;
S34、利用所述双向长短时记忆网络层中的前向输出门计算所述状态更新值对应的前向上下文对话特征集;
S35、利用所述双向长短时记忆网络层中的后向输出门计算所述状态更新值对应的后向上下文对话特征集;
S36、将所述前向上下文对话特征集与所述后向上下文对话特征集进行拼接,得到上下文对话特征集,其中,所述上下文对话特征集包括:上下文对话图像特征集、上下文对话语音特征集及上下文对话文本特征集。
其中,所述对话特征状态值集可以通过下述公式进行计算:
其中,it表示t时刻的对话特征状态值集,表示输入门中细胞单元的偏置,wi表示输入门的激活因子,ht-1表示对话图像特征集、对话语音特征集及对话文本特征集在输入门t-1时刻的峰值,xt表示在t时刻的对话图像特征集、对话语音特征集及对话文本特征集,bi表示输入门中细胞单元的权重。
一可选实施例中,所述激活值可以通过下述公式进行计算:
其中,ft表示t时刻激活值,表示遗忘门中细胞单元的偏置,wf表示遗忘门的激活因子,/>表示对话特征状态值集在所述遗忘门t-1时刻的峰值,xt表示在t时刻输入的对话特征状态值集,bf表示遗忘门中细胞单元的权重。
一可选实施例中,所述状态更新值可以通过下述公式进行计算:
其中,ct表示t时刻的状态更新值,ht-1表示对话特征状态值集在输入门t-1时刻的峰值,表示对话特征状态值集在遗忘门t-1时刻的峰值。
一可选实施例中,所述前向上下文对话特征集及所述后向上下文对话特征集可以通过下述公式进行计算
其中,表示t时刻的前向上下文对话特征集,/>表示t时刻后向上下文对话特征集,/>及/>为Bi-LSTM网络中的变量参数,/>为前向上下文对话特征集的t-1时刻的前一个前向上下文对话特征,/>为t+1时刻的后向上下文对话特征集的前一个后向上下文对话特征。
本发明一可选实施例中,通过双向长短时记忆网络层还可以分别捕捉所述对话图像特征集、所述对话语音特征集及所述对话文本特征集在所有时刻隐藏状态的输出结果Hj,以及最终时刻的输出结果O。
S4、利用所述多模态情感分类模型中的跨模态注意力机制层将所述上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集进行特征对齐,得到对齐对话图像特征集、对齐对话语音特征集及对齐对话文本特征集。
本发明实施例中,所述跨模态注意力机制层是由注意力网络(Attention)构成的。
本发明实施例通过利用所述多模态情感分类模型中的跨模态注意力机制层将所述上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集进行特征对齐,得到对齐对话图像特征集、对齐对话语音特征集及对齐对话文本特征集,能够将不同模态的特征映射至同一维度上,以保证后续特征融合时的准确性。
作为本发明的一个实施例,所述利用所述多模态情感分类模型中的跨模态注意力机制层将所述上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集进行特征对齐,得到对齐对话图像特征集、对齐对话语音特征集及对齐对话文本特征集,包括:
利用所述跨模态注意力机制层分别计算所述上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集的注意力分数;根据所述注意力分数分别将所述所述上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集进行特征对齐,得到所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集。
其中,所述注意力分数可以通过下述公式计算:
其中,aj表示第j个上下文对话图像特征集、上下文对话语音特征集或上下文对话文本特征集的注意力分数;O表示双向长短时记忆网络层最终时刻的输出结果,Hj表示双向长短时记忆网络层所有时刻隐藏状态的输出结果,W表示双向长短时记忆网络层中所有隐藏状态的数量。
本发明一实施例中,所述特征对齐可以通过下述公式实现:
Cj=aj·Hj,j=1,2,…,W
其中,Cj第j个对齐对话图像特征集、所述对齐对话语音特征集或所述对齐对话文本特征集;aj表示第j个上下文对话图像特征集、上下文对话语音特征集或上下文对话文本特征集的注意力分数;Hj表示双向长短时记忆网络层所有时刻隐藏状态的输出结果,W表示双向长短时记忆网络层中所有隐藏状态的数量。
S5、利用所述多模态情感分类模型中的多模态融合层将所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集进行交互拼接,得到多模态融合特征集。
本发明实施例中,所述多模态融合层可以由卷积神经神经网络构成的融合层,包括:双模态融合层及三模态融合层。所述多模态融合特征集是指融合对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集的不同模态的特征集。
本发明一可选实施例中,在进行特征交互拼接之前,由于不同模态特征中可能存在与情感信息无关的冗余信息,可以通过与S4所述将所述上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集进行特征对齐类似的方法计算对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集的注意力分数,并根据注意力分数将对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集与情感无关的冗余信息进行过滤,以得到过滤后的对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集。
本发明实施例通过利用所述多模态情感分类模型中的多模态融合层将所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集进行交互拼接,得到多模态融合特征集,可以增强不同模态特征的关联,获取更加完整的特征信息,以解决由于缺失不同模态之间的交互性,从而导致的用户情绪状态识别不准确的问题。
作为本发明的一个实施例,参考图3所示,所述利用所述多模态情感分类模型中的多模态融合层将所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集进行交互拼接,得到多模态融合特征集,包括以下步骤S51-S53:
S51、利用所述多模态融合层中的双模态融合层将所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集分别进行两两拼接,得到文本图像特征、文本语音特征及语音图像特征;
S52、利用所述多模态融合层中的三模态融合层将所述文本图像特征、所述文本语音特征及所述语音图像特征进行拼接,得到三模态特征;
S53、将所述三模态特征与所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集进行融合,得到所述多模态融合特征。
其中,通过双模态融合层将所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集分别进行两两拼接,可以增强不同模态特征的关联,获取更加完整的特征信息。
进一步地,可以通过下述公式将所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集分别进行两两拼接:
其中,ZVA表示语音图像特征;ZVT表示文本语音特征;ZTA表示文本图像特征;表示两个特征矩阵的拼接;GA表示对齐对话语音特征集;GV表示对齐对话图像特征集;GT表示对齐对话文本特征集。
本发明一实施例中,所述三模态特征可以通过下述公式实现:
其中,ZTAV表示三模态特征;表示两个特征矩阵的拼接;ZVA表示语音图像特征;ZVT表示文本图像特征;ZTA表示文本语音特征。
进一步地,所述多模态融合特征集可以通过下述公式实现:
其中,GTAV表示多模态融合特征集;表示两个特征矩阵的拼接;ZTAV表示三模态特征;ZVA表示语音特征;ZVT表示图片特征;ZTA表示文本特征。
S6、将所述多模态融合特征集输入至所述多模态情感分类模型中的情感分类层中,得到所述多模态对话数据集对应的情感分类结果。
本发明实施例中,所述情感分类层的作用主要是在进行多模态融合特征集的情感分类时,还可以过滤多模态融合特征集的一些冗余信息及噪音信息,还可以弱化弱相关的多模态融合特征集,强化强相关的多模态融合特征集,从而进一步提升模态信息之间的交互。
作为本发明的一个实施例,所述将所述多模态融合特征集输入至所述多模态情感分类模型中的情感分类层中,得到所述多模态对话数据集对应的情感分类结果,包括:
利用所述情感分类层计算所述多模态融合特征的注意力分布矩阵;将所述注意力分布矩阵与所述多模态融合特征集进行加权运算,得到得到所述多模态对话数据集对应的情感分类结果。
其中,所述加权运算可以通过下述实现:
yi=GTAV⊙Softmax(GTAVW1)·W2
其中,yi表示第i个多模态对话数据对应的情感分类结果;GTAV表示多模态融合特征集;W1、W2表示权重;⊙表示矩阵逐个元素相乘;Softmax的主要作用是输出注意力分布矩阵;(GTAVW1)·W2表示注意力分布矩阵。
具体地,本发明实施例中,当有一多模态数据集为智能客服在为目标用户进行保险产品推荐期间,用户表情在微笑且用户反馈的语调为轻快的,且用户反馈的文本中存在积极词性(如喜欢),则多模态数据集中包含的用户情绪为喜欢,对应的目标用户情感分类结果为喜欢。
本发明实施例中,获取多模态对话数据集包括的对话视频集、对话语音集及对话文本集之后,首先通过利用多模态情感分类模型中的特征提取层分别对对话视频集、对话语音集及对话文本集进行特征提取,实现对不同类型的模态数据的特征提取,并利用多模态情感分类模型中的双向长短时记忆网络层分别捕捉对话图像特征集、对话语音特征集及对话文本特征集的上下文特征,通过双向长短时记忆网络层不仅能捕捉每种模态的前向特征之间依赖关系,也能捕捉后向特征之间的依赖关系,进一步提高多种模态特征提取的准确率;其次,通过利用多模态情感分类模型中的多模态融合层将对齐对话图像特征集、对齐对话语音特征集及对齐对话文本特征集进行交互拼接,得到多模态融合特征集,能够解决由于缺失不同模态之间的交互性,从而导致的用户情绪状态识别不准确的问题,可以精准捕捉用户的情绪变化状态;最后,通过将多模态融合特征集输入至多模态情感分类模型中的情感分类层中,得到情感分类结果,从而提高情感分类的准确性。因此本发明实施例提出的基于多模态对话的情感分类方法可以提高情感分类的准确性。
如图4所示,本发明所述基于多模态对话的情感分类装置100可以安装于电子设备中。根据实现的功能,所述基于多模态对话的情感分类装置可以包括多模态对话数据集获取模块101、多模态特征提取模块102、上下文特征提取模块103、多模态特征对齐模块104、多模态融合及情感分类模块105,本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述多模态对话数据集获取模块101,用于获取多模态对话数据集对所述多模态对话数据集进行标记,所述多模态对话数据集包括对话视频集、对话语音集及对话文本集。
本发明实施例中,所述多模态对话数据集是包含视频、语音及文本的对话数据集,其中,所述多模态对话数据集可以为向用户进行产品推荐的视频集。
本发明一实施例中,可以通过对话窗口标记多模态对话数据集进行标记,具体是对对话视频集、对话语音集及对话文本集分别进行标记。比如,对话窗口大小为W,由于对话窗口中包括了所有当前对话的信息,所以对话窗口可以针对所有当前对话的信息,找出前后有多少条对话可以反应当前会话的情感,具体地,对话窗口大小为W,则说明当前对话的前W/2条对话和后(W/2)-1条对话能够用来预测当前对话的情感,此处的W还可以作为超参数,可以基于用户需求定义W的最优取值。
所述多模态特征提取模块102,用于利用训练完成的多模态情感分类模型中的特征提取层分别对所述对话视频集、所述对话语音集及所述对话文本集进行特征提取,得到对话图像特征集、对话语音特征集及对话文本特征集。
本发明实施例中,所述训练完成的多模态情感分类模型可以由双向长短时记忆网络(Bi-LSTM)及注意力机制网络(Attention)结合的模型,其中,所述多模态情感分类模型包括:特征提取层、双向长短时记忆网络层、跨模态注意力机制层、多模态融合层及情感分类层。
本发明实施例通过利用训练完成的多模态情感分类模型中的特征提取层分别对所述对话视频集、所述对话语音集及所述对话文本集进行特征提取,得到对话图像特征集、对话语音特征集及对话文本特征集,可以准确提取不同模态的特征,便于保证后续特征融合的准确性。
作为本发明的一个实施例中,所述多模态特征提取模块102通过执行下述操作利用训练完成的多模态情感分类模型中的特征提取层分别对所述对话视频集、所述对话语音集及所述对话文本集进行特征提取,得到对话图像特征集、对话语音特征集及对话文本特征集,包括:
利用所述特征提取层中的图像编码层提取所述对话视频集对应的对话图像特征集;
利用所述特征提取层中的语音特征层提取所述对话语音集对应的梅尔倒谱系数作为所述对话语音特征集;
利用所述特征提取层中的文本特征层将所述对话文本集中的每个词映射为多个文本词向量,并通过预设的平均策略将多个所述文本词向量进行整合得到所述对话文本特征集。
其中,所述图像编码层是由12层卷积神经网络构成的自编码器及12层反卷积神经网络构成的解码器组合而成的,通过自编码器及解码器可以提取对话视频集对应的对话图像特征集。
本发明一实施例中,可以通过语音编码层先对话语音集进行预加重、分帧和加窗处理,确定对话语音集的语音帧信号,并通过快速傅里叶变换(FFT,Fast FourierTransform)技术将语音帧信号转化为对应的频谱,再将得到的频谱通过梅尔滤波器组得到梅尔频谱,在梅尔频谱上面进行倒谱分析及取对数操作,并通过离散余弦变换(DCT,Discrete Cosine Transform)技术进行逆变换,取DCT后的第2个到第13个系数作为梅尔倒谱系数,即将梅尔倒谱系数作为对话语音特征集。
本发明另一实施例中,在进行对话文本集的特征提取之前,先通过对对话文本集进行分词、去除停用词及特殊标点符号等预处理,再利用预设的Glove词向量表查询将对话文本集中的每个词对应的多个文本词向量,并通过预设的平均策略,即将每个词对应的文本词向量应用至整个句子中,得到每个句子的句向量,并将多个句向量进行整合得到所述对话文本特征集。
所述多模态特征提取模块102还可用于:
获取预设的图像编码层包含的编码器参数、编码函数、解码器参数及解码函数;提取所述对话视频集中的用户图像集,根据所述用户图像集、所述编码器参数、所述编码函数、所述解码器参数及所述解码函数训练所述预设的图像编码层,得到训练完成的图像编码层。
其中,可以通过下述公式训练所述预设的图像编码层:
其中,θ表示编码器参数,ξ表示解码器参数,minLconst表示最小化重构损失函数,M表示用户图像集,γ表示编码器函数,表示解码器函数,Xi表示第i个用户图像的通道矩阵。
本发明一实施例种,所述训练完成的图像编码层包含编码器及解码器,通过最小化重构损失函数训练获取的编码器参数及解码器参数,能够得到最优的编码器参数θ和解码器参数ξ,从而得到训练完成的图像编码层,以提高图像编码层进行图像特征提取的准确率。
本发明一可选实施例中,由于不同模态数据特征存在维度不一致问题,影响后续双向长短时记忆网络层的计算,需要将不同模态数据特征进行维度统一。具体地,分别对对话文本特征集、对话语音特征集及对话图像特征集采用输入特征参数为300,输出特征参数为56的全连接层、输入特征为12,输出特征为56的全连接层、输入特征为78,输出特征为56的全连接层转换为特征维度均为56的不同模态特征集。
所述上下文特征提取模块103,用于利用所述多模态情感分类模型中的双向长短时记忆网络层分别捕捉所述对话图像特征集、所述对话语音特征集及所述对话文本特征集的上下文特征,得到上下文对话图像特征集、上下文对话语音特征集及上下文对话文本特征集。
本发明实施例中,所述双向长短时记忆网络层是由双向长短时记忆(Bi-LSTM,Bi-directional Long Short-Term Memory)模型构成的,主要作用是不仅能捕捉每种模态的前向特征之间依赖关系,也能捕捉后向特征之间的依赖关系,进一步提高多种模态特征提取的准确率。其中,所述双向长短时记忆网络层包括:输入门、遗忘门、前向输出门及后向输出门。
作为本发明的一个实施例,所述上下文特征提取模块103通过执行下述操作利用所述多模态情感分类模型中的双向长短时记忆网络层分别捕捉所述对话图像特征集、所述对话语音特征集及所述对话文本特征集的上下文特征,得到上下文对话图像特征集、上下文对话语音特征集及上下文对话文本特征集,包括:
将所述对话图像特征集、所述对话语音特征集及所述对话文本特征集输入所述双向长短时记忆网络层中的输入门中,得到对话特征状态值集;
利用所述双向长短时记忆网络层中的遗忘门计算所述对话特征状态值集的激活值;
根据所述状态值及激活值计算所述对话特征状态值集的状态更新值;
利用所述双向长短时记忆网络层中的前向输出门计算所述状态更新值对应的前向上下文对话特征集;
利用所述双向长短时记忆网络层中的后向输出门计算所述状态更新值对应的后向上下文对话特征集;
将所述前向上下文对话特征集与所述后向上下文对话特征集进行拼接,得到上下文对话特征集,其中,所述上下文对话特征集包括:上下文对话图像特征集、上下文对话语音特征集及上下文对话文本特征集。
其中,所述对话特征状态值集可以通过下述公式进行计算:
其中,it表示t时刻的对话特征状态值集,表示输入门中细胞单元的偏置,wi表示输入门的激活因子,ht-1表示对话图像特征集、对话语音特征集及对话文本特征集在输入门t-1时刻的峰值,xt表示在t时刻的对话图像特征集、对话语音特征集及对话文本特征集,bi表示输入门中细胞单元的权重。
一可选实施例中,所述激活值可以通过下述公式进行计算:
其中,ft表示t时刻激活值,表示遗忘门中细胞单元的偏置,wf表示遗忘门的激活因子,/>表示对话特征状态值集在所述遗忘门t-1时刻的峰值,xt表示在t时刻输入的对话特征状态值集,bf表示遗忘门中细胞单元的权重。
一可选实施例中,所述状态更新值可以通过下述公式进行计算:
其中,ct表示t时刻的状态更新值,ht-1表示对话特征状态值集在输入门t-1时刻的峰值,表示对话特征状态值集在遗忘门t-1时刻的峰值。
一可选实施例中,所述前向上下文对话特征集及所述后向上下文对话特征集可以通过下述公式进行计算
其中,表示t时刻的前向上下文对话特征集,/>表示t时刻后向上下文对话特征集,/>及/>为Bi-LSTM网络中的变量参数,/>为前向上下文对话特征集的t-1时刻的前一个前向上下文对话特征,/>为t+1时刻的后向上下文对话特征集的前一个后向上下文对话特征。
本发明一可选实施例中,通过双向长短时记忆网络层还可以分别捕捉所述对话图像特征集、所述对话语音特征集及所述对话文本特征集在所有时刻隐藏状态的输出结果Hj,以及最终时刻的输出结果O。
所述多模态特征对齐模块104,用于利用所述多模态情感分类模型中的跨模态注意力机制层将所述上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集进行特征对齐,得到对齐对话图像特征集、对齐对话语音特征集及对齐对话文本特征集。
本发明实施例中,所述跨模态注意力机制层是由注意力网络(Attention)构成的。
本发明实施例通过利用所述多模态情感分类模型中的跨模态注意力机制层将所述上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集进行特征对齐,得到对齐对话图像特征集、对齐对话语音特征集及对齐对话文本特征集,能够将不同模态的特征映射至同一维度上,以保证后续特征融合时的准确性。
作为本发明的一个实施例,所述多模态特征对齐模块104通过执行下述操作利用所述多模态情感分类模型中的跨模态注意力机制层将所述上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集进行特征对齐,得到对齐对话图像特征集、对齐对话语音特征集及对齐对话文本特征集,包括:
利用所述跨模态注意力机制层分别计算所述上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集的注意力分数;
根据所述注意力分数分别将所述所述上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集进行特征对齐,得到所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集。
其中,所述注意力分数可以通过下述公式计算:
其中,aj表示第j个上下文对话图像特征集、上下文对话语音特征集或上下文对话文本特征集的注意力分数;O表示双向长短时记忆网络层最终时刻的输出结果,Hj表示双向长短时记忆网络层所有时刻隐藏状态的输出结果,W表示双向长短时记忆网络层中所有隐藏状态的数量。
本发明一实施例中,所述特征对齐可以通过下述公式实现:
Cj=aj·Hj,j=1,2,…,W
其中,Cj第j个对齐对话图像特征集、所述对齐对话语音特征集或所述对齐对话文本特征集;aj表示第j个上下文对话图像特征集、上下文对话语音特征集或上下文对话文本特征集的注意力分数;Hj表示双向长短时记忆网络层所有时刻隐藏状态的输出结果,W表示双向长短时记忆网络层中所有隐藏状态的数量。
所述多模态融合及情感分类模块105,用于利用所述多模态情感分类模型中的多模态融合层将所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集进行交互拼接,得到多模态融合特征集;将所述多模态融合特征集输入至所述多模态情感分类模型中的情感分类层中,得到所述多模态对话数据集对应的情感分类结果。
本发明实施例中,所述多模态融合层可以由卷积神经神经网络构成的融合层,包括:双模态融合层及三模态融合层。所述多模态融合特征集是指融合对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集的不同模态的特征集。
本发明一可选实施例中,在进行特征交互拼接之前,由于不同模态特征中可能存在与情感信息无关的冗余信息,可以通过与所述将上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集进行特征对齐类似的方法计算对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集的注意力分数,并根据注意力分数将对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集与情感无关的冗余信息进行过滤,以得到过滤后的对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集。
本发明实施例通过利用所述多模态情感分类模型中的多模态融合层将所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集进行交互拼接,得到多模态融合特征集,可以增强不同模态特征的关联,获取更加完整的特征信息,以解决由于缺失不同模态之间的交互性,从而导致的用户情绪状态识别不准确的问题。
作为本发明的一个实施例所述多模态融合及情感分类模块105通过执行下述操作利用所述多模态情感分类模型中的多模态融合层将所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集进行交互拼接,得到多模态融合特征集,包括:
利用所述多模态融合层中的双模态融合层将所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集分别进行两两拼接,得到文本图像特征、文本语音特征及语音图像特征;
利用所述多模态融合层中的三模态融合层将所述文本图像特征、所述文本语音特征及所述语音图像特征进行拼接,得到三模态特征;
将所述三模态特征与所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集进行融合,得到所述多模态融合特征。
其中,通过双模态融合层将所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集分别进行两两拼接,可以增强不同模态特征的关联,获取更加完整的特征信息。
进一步地,可以通过下述公式将所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集分别进行两两拼接:
其中,ZVA表示语音图像特征;ZVT表示文本语音特征;ZTA表示文本图像特征;表示两个特征矩阵的拼接;GA表示对齐对话语音特征集;GV表示对齐对话图像特征集;GT表示对齐对话文本特征集。
本发明一实施例中,所述三模态特征可以通过下述公式实现:
其中,ZTAV表示三模态特征;表示两个特征矩阵的拼接;ZVA表示语音图像特征;ZVT表示文本图像特征;ZTA表示文本语音特征。
进一步地,所述多模态融合特征集可以通过下述公式实现:
/>
其中,GTAV表示多模态融合特征集;表示两个特征矩阵的拼接;ZTAV表示三模态特征;ZVA表示语音特征;ZVT表示图片特征;ZTA表示文本特征。
本发明实施例中,所述情感分类层的作用主要是在进行多模态融合特征集的情感分类时,还可以过滤多模态融合特征集的一些冗余信息及噪音信息,还可以弱化弱相关的多模态融合特征集,强化强相关的多模态融合特征集,从而进一步提升模态信息之间的交互。
作为本发明的一个实施例,所述将所述多模态融合特征集输入至所述多模态情感分类模型中的情感分类层中,得到所述多模态对话数据集对应的情感分类结果,包括:
利用所述情感分类层计算所述多模态融合特征的注意力分布矩阵;将所述注意力分布矩阵与所述多模态融合特征集进行加权运算,得到得到所述多模态对话数据集对应的情感分类结果。
其中,所述加权运算可以通过下述实现:
yi=GTAV⊙Softmax(GTAVW1)·W2
其中,yi表示第i个多模态对话数据对应的情感分类结果;GTAV表示多模态融合特征集;W1、W2表示权重;⊙表示矩阵逐个元素相乘;Softmax的主要作用是输出注意力分布矩阵;(GTAVW1)·W2表示注意力分布矩阵。
本发明实施例中,获取多模态对话数据集包括的对话视频集、对话语音集及对话文本集之后,首先通过利用多模态情感分类模型中的特征提取层分别对对话视频集、对话语音集及对话文本集进行特征提取,实现对不同类型的模态数据的特征提取,并利用多模态情感分类模型中的双向长短时记忆网络层分别捕捉对话图像特征集、对话语音特征集及对话文本特征集的上下文特征,通过双向长短时记忆网络层不仅能捕捉每种模态的前向特征之间依赖关系,也能捕捉后向特征之间的依赖关系,进一步提高多种模态特征提取的准确率;其次,通过利用多模态情感分类模型中的多模态融合层将对齐对话图像特征集、对齐对话语音特征集及对齐对话文本特征集进行交互拼接,得到多模态融合特征集,能够解决由于缺失不同模态之间的交互性,从而导致的用户情绪状态识别不准确的问题,可以精准捕捉用户的情绪变化状态;最后,通过将多模态融合特征集输入至多模态情感分类模型中的情感分类层中,得到情感分类结果,从而提高情感分类的准确性。因此本发明实施例提出的基于多模态对话的情感分类装置可以提高情感分类的准确性。
如图5所示,是本发明实现基于多模态对话的情感分类方法的电子设备的结构示意图。
所述电子设备可以包括处理器10、存储器11、通信总线12和通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如基于多模态对话的情感分类程序。
其中,所述存储器11至少包括一种类型的介质,所述介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、本地磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如基于多模态对话的情感分类程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing Unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如基于多模态对话的情感分类程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
所述通信总线12可以是外设部件互连标准(PerIPheral ComponentInterconnect,简称PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述通信总线12总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
图5仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图5示出的结构并不构成对所述电子设备的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
可选地,所述通信接口13可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。
可选地,所述通信接口13还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备中的所述存储器11存储的基于多模态对话的情感分类程序是多个计算机程序的组合,在所述处理器10中运行时,可以实现:
获取多模态对话数据集对所述多模态对话数据集进行标记,所述多模态对话数据集包括对话视频集、对话语音集及对话文本集;
利用训练完成的多模态情感分类模型中的特征提取层分别对所述对话视频集、所述对话语音集及所述对话文本集进行特征提取,得到对话图像特征集、对话语音特征集及对话文本特征集;
利用所述多模态情感分类模型中的双向长短时记忆网络层分别捕捉所述对话图像特征集、所述对话语音特征集及所述对话文本特征集的上下文特征,得到上下文对话图像特征集、上下文对话语音特征集及上下文对话文本特征集;
利用所述多模态情感分类模型中的跨模态注意力机制层将所述上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集进行特征对齐,得到对齐对话图像特征集、对齐对话语音特征集及对齐对话文本特征集;
利用所述多模态情感分类模型中的多模态融合层将所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集进行交互拼接,得到多模态融合特征集;
将所述多模态融合特征集输入至所述多模态情感分类模型中的情感分类层中,得到所述多模态对话数据集对应的情感分类结果。
具体地,所述处理器10对上述计算机程序的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取介质中。所述计算机可读介质可以是非易失性的,也可以是易失性的。所述计算机可读介质可以包括:能够携待所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明实施例还可以提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取多模态对话数据集对所述多模态对话数据集进行标记,所述多模态对话数据集包括对话视频集、对话语音集及对话文本集;
利用训练完成的多模态情感分类模型中的特征提取层分别对所述对话视频集、所述对话语音集及所述对话文本集进行特征提取,得到对话图像特征集、对话语音特征集及对话文本特征集;
利用所述多模态情感分类模型中的双向长短时记忆网络层分别捕捉所述对话图像特征集、所述对话语音特征集及所述对话文本特征集的上下文特征,得到上下文对话图像特征集、上下文对话语音特征集及上下文对话文本特征集;
利用所述多模态情感分类模型中的跨模态注意力机制层将所述上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集进行特征对齐,得到对齐对话图像特征集、对齐对话语音特征集及对齐对话文本特征集;
利用所述多模态情感分类模型中的多模态融合层将所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集进行交互拼接,得到多模态融合特征集;
将所述多模态融合特征集输入至所述多模态情感分类模型中的情感分类层中,得到所述多模态对话数据集对应的情感分类结果。
进一步地,所述计算机可读存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
在本发明所提供的几个实施例中,应该理解到,所揭露的介质、设备、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。***权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种基于多模态对话的情感分类方法,其特征在于,所述方法包括:
获取多模态对话数据集对所述多模态对话数据集进行标记,所述多模态对话数据集包括对话视频集、对话语音集及对话文本集;
利用训练完成的多模态情感分类模型中的特征提取层分别对所述对话视频集、所述对话语音集及所述对话文本集进行特征提取,得到对话图像特征集、对话语音特征集及对话文本特征集;
利用所述多模态情感分类模型中的双向长短时记忆网络层分别捕捉所述对话图像特征集、所述对话语音特征集及所述对话文本特征集的上下文特征,得到上下文对话图像特征集、上下文对话语音特征集及上下文对话文本特征集;
利用所述多模态情感分类模型中的跨模态注意力机制层将所述上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集进行特征对齐,得到对齐对话图像特征集、对齐对话语音特征集及对齐对话文本特征集;
利用所述多模态情感分类模型中的多模态融合层将所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集进行交互拼接,得到多模态融合特征集;
将所述多模态融合特征集输入至所述多模态情感分类模型中的情感分类层中,得到所述多模态对话数据集对应的情感分类结果。
2.如权利要求1所述的基于多模态对话的情感分类方法,其特征在于,所述利用所述多模态情感分类模型中的双向长短时记忆网络层分别捕捉所述对话图像特征集、所述对话语音特征集及所述对话文本特征集的上下文特征,得到上下文对话图像特征集、上下文对话语音特征集及上下文对话文本特征集,包括:
将所述对话图像特征集、所述对话语音特征集及所述对话文本特征集输入所述双向长短时记忆网络层中的输入门中,得到对话特征状态值集;
利用所述双向长短时记忆网络层中的遗忘门计算所述对话特征状态值集的激活值;
根据所述状态值及激活值计算所述对话特征状态值集的状态更新值;
利用所述双向长短时记忆网络层中的前向输出门计算所述状态更新值对应的前向上下文对话特征集;
利用所述双向长短时记忆网络层中的后向输出门计算所述状态更新值对应的后向上下文对话特征集;
将所述前向上下文对话特征集与所述后向上下文对话特征集进行拼接,得到上下文对话特征集,其中,所述上下文对话特征集包括:上下文对话图像特征集、上下文对话语音特征集及上下文对话文本特征集。
3.如权利要求1所述的基于多模态对话的情感分类方法,其特征在于,所述利用所述多模态情感分类模型中的多模态融合层将所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集进行交互拼接,得到多模态融合特征集,包括:
利用所述多模态融合层中的双模态融合层将所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集分别进行两两拼接,得到文本图像特征、文本语音特征及语音图像特征;
利用所述多模态融合层中的三模态融合层将所述文本图像特征、所述文本语音特征及所述语音图像特征进行拼接,得到三模态特征;
将所述三模态特征与所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集进行融合,得到所述多模态融合特征。
4.如权利要求1所述的基于多模态对话的情感分类方法,其特征在于,所述将所述多模态融合特征集输入至所述多模态情感分类模型中的情感分类层中,得到所述多模态对话数据集对应的情感分类结果,包括:
利用所述情感分类层计算所述多模态融合特征的注意力分布分数;
将所述注意力分布分数与所述多模态融合特征集进行加权运算,得到得到所述多模态对话数据集对应的情感分类结果。
5.如权利要求1-4中任一项所述的基于多模态对话的情感分类方法,其特征在于,所述利用训练完成的多模态情感分类模型中的特征提取层分别对所述对话视频集、所述对话语音集及所述对话文本集进行特征提取,得到对话图像特征集、对话语音特征集及对话文本特征集,包括:
利用所述特征提取层中的图像编码层提取所述对话视频集对应的对话图像特征集;
利用所述特征提取层中的语音特征层提取所述对话语音集对应的梅尔倒谱系数作为所述对话语音特征集;
利用所述特征提取层中的文本特征层将所述对话文本集中的每个词映射为多个文本词向量,并通过预设的平均策略将多个所述文本词向量进行整合得到所述对话文本特征集。
6.如权利要求1-4中任一项所述的基于多模态对话的情感分类方法,其特征在于,所述利用所述多模态情感分类模型中的跨模态注意力机制层将所述上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集进行特征对齐,得到对齐对话图像特征集、对齐对话语音特征集及对齐对话文本特征集,包括:
利用所述跨模态注意力机制层分别计算所述上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集的注意力分数;
根据所述注意力分数分别将所述所述上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集进行特征对齐,得到所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集。
7.如权利要求5中所述的基于多模态对话的情感分类方法,其特征在于,所述利用所述特征提取层中的图像编码层提取所述对话视频集对应的对话图像特征集之前,所述方法还包括:
获取预设的图像编码层包含的编码器参数、编码函数、解码器参数及解码函数;
提取所述对话视频集中的用户图像集,根据所述用户图像集、所述编码器参数、所述编码函数、所述解码器参数及所述解码函数训练所述预设的图像编码层,得到训练完成的图像编码层。
8.一种基于多模态对话的情感分类装置,其特征在于,所述装置包括:
多模态对话数据集获取模块,用于获取多模态对话数据集对所述多模态对话数据集进行标记,所述多模态对话数据集包括对话视频集、对话语音集及对话文本集;
多模态特征提取模块,用于利用训练完成的多模态情感分类模型中的特征提取层分别对所述对话视频集、所述对话语音集及所述对话文本集进行特征提取,得到对话图像特征集、对话语音特征集及对话文本特征集;
上下文特征提取模块,用于利用所述多模态情感分类模型中的双向长短时记忆网络层分别捕捉所述对话图像特征集、所述对话语音特征集及所述对话文本特征集的上下文特征,得到上下文对话图像特征集、上下文对话语音特征集及上下文对话文本特征集;
多模态特征对齐模块,用于利用所述多模态情感分类模型中的跨模态注意力机制层将所述上下文对话图像特征集、所述上下文对话语音特征集及所述上下文对话文本特征集进行特征对齐,得到对齐对话图像特征集、对齐对话语音特征集及对齐对话文本特征集;
多模态融合及情感分类模块,用于利用所述多模态情感分类模型中的多模态融合层将所述对齐对话图像特征集、所述对齐对话语音特征集及所述对齐对话文本特征集进行交互拼接,得到多模态融合特征集;将所述多模态融合特征集输入至所述多模态情感分类模型中的情感分类层中,得到所述多模态对话数据集对应的情感分类结果。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任一项所述的基于多模态对话的情感分类方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的基于多模态对话的情感分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310566903.5A CN116450797A (zh) | 2023-05-18 | 2023-05-18 | 基于多模态对话的情感分类方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310566903.5A CN116450797A (zh) | 2023-05-18 | 2023-05-18 | 基于多模态对话的情感分类方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116450797A true CN116450797A (zh) | 2023-07-18 |
Family
ID=87127476
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310566903.5A Pending CN116450797A (zh) | 2023-05-18 | 2023-05-18 | 基于多模态对话的情感分类方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116450797A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117708375A (zh) * | 2024-02-05 | 2024-03-15 | 北京搜狐新媒体信息技术有限公司 | 一种视频处理方法、装置及相关产品 |
-
2023
- 2023-05-18 CN CN202310566903.5A patent/CN116450797A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117708375A (zh) * | 2024-02-05 | 2024-03-15 | 北京搜狐新媒体信息技术有限公司 | 一种视频处理方法、装置及相关产品 |
CN117708375B (zh) * | 2024-02-05 | 2024-05-28 | 北京搜狐新媒体信息技术有限公司 | 一种视频处理方法、装置及相关产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021000497A1 (zh) | 检索方法、装置、计算机设备和存储介质 | |
CN112988963B (zh) | 基于多流程节点的用户意图预测方法、装置、设备及介质 | |
CN113420556B (zh) | 基于多模态信号的情感识别方法、装置、设备及存储介质 | |
CN111985243B (zh) | 情感模型的训练方法、情感分析方法、装置及存储介质 | |
CN114021582A (zh) | 结合语音信息的口语理解方法、装置、设备及存储介质 | |
CN114780701B (zh) | 自动问答匹配方法、装置、计算机设备及存储介质 | |
CN116450797A (zh) | 基于多模态对话的情感分类方法、装置、设备及介质 | |
CN112489628B (zh) | 语音数据选择方法、装置、电子设备及存储介质 | |
CN116913278B (zh) | 语音处理方法、装置、设备和存储介质 | |
CN117436438A (zh) | 情感分析方法、大语言模型的训练方法及装置 | |
CN115114408B (zh) | 多模态情感分类方法、装置、设备及存储介质 | |
CN116719904A (zh) | 基于图文结合的信息查询方法、装置、设备及存储介质 | |
CN114528851B (zh) | 回复语句确定方法、装置、电子设备和存储介质 | |
CN116468025A (zh) | 电子病历结构化方法、装置、电子设备及存储介质 | |
CN115510188A (zh) | 文本关键词关联方法、装置、设备及存储介质 | |
CN113435180B (zh) | 文本纠错方法、装置、电子设备及存储介质 | |
CN113408265B (zh) | 基于人机交互的语义解析方法、装置、设备及存储介质 | |
CN114842880A (zh) | 智能客服语音节奏调节方法、装置、设备及存储介质 | |
CN113808577A (zh) | 语音摘要的智能提取方法、装置、电子设备及存储介质 | |
WO2023272833A1 (zh) | 一种数据检测方法、装置、设备及可读存储介质 | |
CN117392379B (zh) | 目标检测的方法和装置 | |
CN116737903A (zh) | 智能视觉问答方法、***、设备及存储介质 | |
CN116564354A (zh) | 基于人工智能的情绪识别方法、装置、计算机设备及介质 | |
CN117409768A (zh) | 语音转换方法、装置、设备及存储介质 | |
CN116681486A (zh) | 基于虚拟人的产品推荐方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |