CN115456114A - 一种模型训练和业务执行的方法、装置、介质及设备 - Google Patents

一种模型训练和业务执行的方法、装置、介质及设备 Download PDF

Info

Publication number
CN115456114A
CN115456114A CN202211376381.4A CN202211376381A CN115456114A CN 115456114 A CN115456114 A CN 115456114A CN 202211376381 A CN202211376381 A CN 202211376381A CN 115456114 A CN115456114 A CN 115456114A
Authority
CN
China
Prior art keywords
data
recognition model
voice
emotion
inputting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211376381.4A
Other languages
English (en)
Inventor
李太豪
岳鹏程
屈乐园
郑书凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Priority to CN202211376381.4A priority Critical patent/CN115456114A/zh
Publication of CN115456114A publication Critical patent/CN115456114A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Machine Translation (AREA)

Abstract

本说明书公开了一种模型训练和业务执行的方法、装置、介质及设备。该模型训练的方法包括:获取用户在历史上的语音对话数据并输入待训练的识别模型,通过识别模型的特征提取层,确定语音对话数据对应的数据特征,以及确定所述语音对话数据对应的情感强度,作为预测情感强度,和语音对话数据对应的情感类别,作为预测情感类别,根据预测情感强度和语音对话数据对应的实际情感强度之间的偏差,以及预测情感类别和语音对话数据对应的实际情感类别之间的偏差,确定识别模型的综合损失值,以最小化该综合损失值为优化目标,对识别模型进行训练。

Description

一种模型训练和业务执行的方法、装置、介质及设备
技术领域
本说明书涉及计算机技术领域,尤其涉及一种模型训练和业务执行的方法、装置、介质及设备。
背景技术
随着科技的发展,人机交互技术也在诸如智能客服、智能对话机器人等领域得到了广泛的应用,对于用户输入的语音数据,交互***通常会通过相应的模型算法,来对语音数据所表达的情感(如愤怒、恐惧、悲伤以及厌恶等)进行识别,进而根据识别到的情感执行与之相匹配的交互动作。
然而,目前在对用户输入的语音进行情感识别的过程中,通常只会识别出语音数据的情感类型,识别到的结果较为单一,并不能完全表达出用户当前的情绪,这就会导致后续执行的交互动作效果较差,严重影响了用户体验。
因此,如何根据识别模型的识别结果准确的执行相应的业务,提高用户体验,是一个亟待解决的问题。
发明内容
本说明书提供一种模型训练和业务执行的方法、装置、介质及设备,以部分的解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供了一种模型训练的方法,包括:
获取用户在历史上执行客服业务的语音对话数据;
将所述语音对话数据输入待训练的识别模型,通过所述识别模型的特征提取层,确定所述语音对话数据对应的数据特征;
将所述数据特征输入到所述识别模型的第一分类层,以确定所述语音对话数据对应的情感强度,作为预测情感强度,以及,将所述数据特征输入到所述识别模型的第二分类层,以确定所述语音对话数据对应的情感类别,作为预测情感类别;
根据所述预测情感强度和所述语音对话数据对应的实际情感强度之间的偏差,以及所述预测情感类别和所述语音对话数据对应的实际情感类别之间的偏差,确定所述识别模型的综合损失值;
以最小化所述综合损失值为优化目标,对所述识别模型进行训练。
可选地,将所述语音对话数据输入待训练的识别模型,具体包括:
针对所述语音对话数据中的每一帧数据,确定该帧数据是否为静音数据;
将所述语音对话数据首尾两端的静音数据进行删除处理,得到处理后语音对话数据;
将所述处理后语音对话数据输入所述识别模型。
可选地,将所述处理后语音对话数据输入所述识别模型,具体包括:
判断所述处理后语音对话数据对应的时间长度是否大于预设时间长度;
若是,则对所述处理后语音对话数据进行裁剪,得到裁剪后语音对话数据;
将所述裁剪后语音对话数据输入所述识别模型。
可选地,根据所述数据特征,将所述数据特征输入到所述识别模型的第一分类层,以确定所述语音对话数据对应的情感强度,作为预测情感强度,以及,将所述数据特征输入到所述识别模型的第二分类层,以确定所述语音对话数据对应的情感类别,作为预测情感类别,具体包括:
根据所述数据特征以及所述语音对话数据对应的时间长度,确定所述语音对话数据对应的平均数据特征;
将所述平均数据特征输入到所述识别模型的第一分类层,以确定所述语音对话数据对应的所述预测情感强度,以及,将所述平均数据特征输入到所述识别模型的第二分类层,以确定所述语音对话数据对应的所述预测情感类别。
可选地,根据所述预测情感强度和所述语音对话数据对应的实际情感强度之间的偏差,以及所述预测情感类别和所述语音对话数据对应的实际情感类别之间的偏差,确定所述识别模型的综合损失值,具体包括:
根据所述预测情感强度和所述语音对话数据对应的实际情感强度之间的偏差,确定所述识别模型的第一损失值,以及所述预测情感类别和所述语音对话数据对应的实际情感类别之间的偏差,确定所述识别模型的第二损失值;
根据所述第一损失值、第一损失值对应的预设权重以及所述第二损失值,确定所述综合损失值。
可选地,以最小化所述综合损失值为优化目标,对所述识别模型进行训练,具体包括:
根据预设的初始学习率、学习率衰减指数、衰减周期以及训练次数,确定每次对所述识别模型进行训练时,所述识别模型对应的学习率,其中,所述训练次数越多,所述学习率越小;
根据每次对所述识别模型进行训练时,所述识别模型对应的学习率,以最小化所述综合损失值为优化目标,对所述识别模型进行训练。
本说明书提供了一种业务执行的方法,包括:
获取用户的语音数据;
将所述语音数据输入预先训练的识别模型,通过所述识别模型的特征提取层,确定所述语音数据对应的语音特征,以及,将所述语音特征输入到所述识别模型的第一分类层,以确定所述语音数据对应的情感强度,以及,将所述语音特征输入到所述识别模型的第二分类层,以确定所述语音数据对应的情感类别,其中,所述识别模型是通过上述模型训练的方法训练得到的;
根据所述语音数据对应的情感类别以及所述情感强度,确定业务的执行策略,并根据所述执行策略执行所述业务。
本说明书提供了一种模型训练的装置,包括:
获取模块,获取用户在历史上执行客服业务的语音对话数据;
输入模块,将所述语音对话数据输入待训练的识别模型,通过所述识别模型的特征提取层,确定所述语音对话数据对应的数据特征;
第一确定模块,将所述数据特征输入到所述识别模型的第一分类层,以确定所述语音对话数据对应的情感强度,作为预测情感强度,以及,将所述数据特征输入到所述识别模型的第二分类层,以确定所述语音对话数据对应的情感类别,作为预测情感类别;
第二确定模块,根据所述预测情感强度和所述语音对话数据对应的实际情感强度之间的偏差,以及所述预测情感类别和所述语音对话数据对应的实际情感类别之间的偏差,确定所述识别模型的综合损失值;
训练模块,以最小化所述综合损失值为优化目标,对所述识别模型进行训练。
本说明书提供了一种业务执行的装置,包括:
获取模块,获取用户的语音数据;
确定模块,将所述语音数据输入预先训练的识别模型,通过所述识别模型的特征提取层,确定所述语音数据对应的语音特征,以及,将所述语音特征输入到所述识别模型的第一分类层,以确定所述语音数据对应的情感强度,以及,将所述语音特征输入到所述识别模型的第二分类层,以确定所述语音数据对应的情感类别,其中,所述识别模型是通过上述模型训练的方法训练得到的;
执行模块,根据所述语音数据对应的情感类别以及所述情感强度,确定业务的执行策略,并根据所述执行策略执行所述业务。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
在本说明书提供的模型训练的方法中,本说明书公开了一种模型训练和业务执行的方法、装置、介质及设备。该模型训练的方法包括:获取用户在历史上执行客服业务的语音对话数据并输入待训练的识别模型,通过识别模型的特征提取层,确定语音对话数据对应的数据特征,以及确定所述语音对话数据对应的情感强度,作为预测情感强度,和语音对话数据对应的情感类别,作为预测情感类别,根据预测情感强度和语音对话数据对应的实际情感强度之间的偏差,以及预测情感类别和语音对话数据对应的实际情感类别之间的偏差,确定识别模型的综合损失值,以最小化该综合损失值为优化目标,对识别模型进行训练。
从上述方法可以看出,本方案在识别模型的训练过程中,能够根据语音数据的预测情感类别和实际情感类别之间的偏差,以及语音数据的预测情感强度和实际情感强度之间的偏差,确定出识别模型的综合损失函数,这样一来,就能够使模型同时识别出语音数据的情感类别和情感轻度两种相互关联的识别结果,使得识别结果更加丰富、准确,从而能够根据这两种识别结果确定出准确的业务策略以执行业务。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书中提供的一种模型训练的方法的流程示意图;
图2为本说明书中提供的一种业务执行的方法的流程示意图;
图3为本说明书中提供的一种识别模型的识别过程示意图;
图4为本说明书中提供的一种模型训练的装置示意图;
图5为本说明书中提供的一种业务执行的装置示意图;
图6为本说明书提供的一种对应于图1的电子设备示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中提供的一种模型训练的方法的流程示意图,包括以下步骤:
S101:获取用户在历史上执行客服业务的语音对话数据。
在人机交互的场景下,诸如智能客服、智能对话机器人等服务端通常会对采集到的用户语音对话进行识别,进而根据识别结果来执行相应的交互动作,如对用户的对话进行语音、文字等回复,向用户展示相应的信息以及与用户进行动作互动等。
而以往的研究表明,语音情感强度在情感表达中起着重要的作用,语音的情感强度(情感的强烈程度)与情感类别(如愤怒、兴奋、快乐、悲伤等)之间存在一定的关系,高情感强度的语音片段往往会包含有很多负面情感,如愤怒、恐惧、悲伤和厌恶等,在高情感强度的语音中最常见,低唤醒水平的情感(如无聊、冷漠等),在低情感强度的语音片段中最常见,而幸福感在中等情感强度的语音片段中最为普遍。
而目前在进行情感识别的过程中,忽略了情感强度这一信息在情感表达中所起到的作用,导致仅根据识别到情感类型类执行下游业务(如执行相应的交互动作)时准确性较低,不能很好的保证用户体验。而其中识别模型的结构以及训练方式决定了最终得到的识别结果。
基于此,本说明书提供了一种模型训练的方法,其中,需要获取语音对话数据。服务器可以从诸如交互式情感二元动作捕捉数据库(Interactive emotional dyadicmotion capture database,IEMOCAP)等开源语意数据集中获取到语音对话数据。当然,也可以从相应的网站、应用客户端等其他渠道获取语音对话数据,本说明书对此不做具体限定。
另外,在对识别模型进行训练的过程中,服务器可以按照会话对数据库中的语音对话数据以及测试数据进行划分,如当数据库中包含有五个会话对应的语音数据时,则可以将其中四个会话对应的语音数据作为训练数据,将剩余的一个会话对应的语音数据作为测试数据。
针对其中的每个语音对话数据,该语音对话数据中可以标注有情感强度以及情感类别两种标签,情感强度表征情感的强烈程度,在上述IEMOCAP数据库中,共包含有9种激活程度(Arousal)的标签,由低到高的9种激活程度分别对应由弱到强的9 种情感强度。在本说明书中,考虑到有些情感强度的样本数量较少,因此,可以将这9种情感强度进行重新划分,如分为强、中、若3类,或者强、弱2类。
此外,上述情感类型可以包括中性、快乐、愤怒、悲伤等,对于其中一些样本数量较少的情感类型,可以将其与其他情感类型进行合并,如语音对话数据中情感类型的标签还包含有“兴奋”这一情感类型,但是考虑到该情感类型的样本数量较少,可以将其归类至快乐这一情感类型中。当然,在本说明书中还可以包含有其他情感类型,以上仅是以几种有代表性的情感类型进行说明,对于其他的情感类型在此处不做过多赘述。
在本说明书中,用于模型训练和业务执行的方法的执行主体,可以指服务器等设置于业务平台的指定设备,为了便于描述,本说明书仅以服务器是执行主体为例,对本说明书提供的一种模型训练和业务执行的方法进行说明。
S102:将所述语音对话数据输入待训练的识别模型,通过所述识别模型的特征提取层,确定所述语音对话数据对应的数据特征。
服务器将语音对话数据输入待识别模型之前,可以先对该语音对话数据进行处理,具体的,服务器可以先对各语音对话数据进行静音检测,针对每个语音对话数据,服务器可以针对语音对话数据中的每一帧数据,确定该帧数据是否为静音数据,而后将语音对话数据首尾两端的静音数据进行删除处理,得到处理后语音对话数据,例如,针对其中一个语音对话数据,该语音对话数据共有300帧,若前50帧和后60帧对应的数据为静音数据,则可以将前50帧和后60帧的数据进行删除,从而知保留中间190帧的数据。当然,服务器也可以将语音对话数据中所有的静音数据进行删除处理,从而只保留非静音的数据。
在本说明书中,判断是否为静音数据的依据可以由识别模型的实际应用场景进行决定,当该识别模型应用于人机交互的场景时,判断每帧数据是否为静音数据的依据可以为是否包含有人类语音,即将不包含有人类语音的数据作为静音数据。在本说明书中,也可以通过相应的深度学习模型来对语音对话数据中的静音数据进行判断及识别。
进一步的,为了防止输入识别模型中的语音对话数据占用过多的***资源(如内存),可以将上述处理后的语音数据裁剪至预设的时间范围内,服务器可以判断各语音对话数据是否大于预设时间长度。若是,则裁剪掉大于预设时间长度的语音,并将裁剪后的语音对话数据输入识别模型,而若语音对话数据小于预设时间长度,则可以将其直接输入到识别模型中。其中,上述预设时间长度可以根据实际情况进行设定,本说明书对此不做具体限定。
例如,若其中一个语音对话数据的时间长度为8s,而预设时间长度为6s,则可以将该语音对话数据最后2s的数据进行删除,从而只保留前6s的语音数据。
将上述裁剪后语音对话数据输入识别模型后,服务器可以通过该识别模型的特征提取层,确定语音对话数据对应的数据特征。其中,该识别模型的特征提取层可以设置有7层卷积神经网络(Convolutional Neural Network,CNN),各层CNN的步长可以分别为5,2,2,2,2,2,2,各层CNN卷积核宽度可以分别为10,3,3,3,3,2,2,输出通道(Channels)大小可以设置为512。对于1s长度的语音,对应输入的矩阵大小可以设置为(1,16000),则对应的输出为(512,50),即输出50个512维的向量,相当于每20ms产生一个512维的特征向量。
S103:将所述数据特征输入到所述识别模型的第一分类层,以确定所述语音对话数据对应的情感强度,作为预测情感强度,以及,将所述数据特征输入到所述识别模型的第二分类层,以确定所述语音对话数据对应的情感类别,作为预测情感类别。
服务器获取到语音对话数据对应的数据特征后,可以进一步采用全局平均池化的方法在时间维度上将数据特征的长度进行统一,如将提取到的数据特征长度统一为768。这样一来,无论输入的语音对话数据的长度是多少,最终得到的数据特征长度都是相同的。
具体的,服务器可以根据数据特征以及语音对话数据对应的时间长度,确定语音对话数据在时间上对应的平均数据特征,并将该平均语音特征作为该语音对话数据输入下游网络的数据特征。
在本说明书中,识别模型可以设置有两种分类器,包括第一分类层以及第二分类层,第一分类层用于对数据特征对应的情感强度进行分类,而第二分类层用于对数据特征对应的情感类别进行分类。
服务器可以将上述平均数据特征分别输入到第二分类层和第一分类层中,从而通过第一分类层确定语音对话数据对应的情感强度,作为预测情感强度,以及,通过第二分类层确定所述数据对应的情感类别,作为预测情感类别。
进一步的,输入第二分类层中的平均语音特征的维度可以为768,输出向量的尺寸与情感类别数相对应,当包含有中性、快乐、愤怒、悲伤这四种情感类别时,输出结果的尺寸为4。获取到第二分类层输出的向量后,服务器可以通过识别模型中的Softmax层进行归一化处理,使每种情感类别对应的概率在0~1的范围内,并且各情感类别对应的概率之和为1。以此确定上述四种情感类型分别对应的概率,进而根据每种情感类型对应的概率确定最终的输出结果,通常情况下,识别模型可以将对应概率最高的情感类别作为最终的预测情感类别。
相应的,第一分类层输出向量的尺寸与情感轻度数相对应,当包含有强。弱这2种情感强度时,输出结果的尺寸为2。获取到第一分类层输出的向量后,服务器可以通过识别模型中的Softmax层进行归一化处理,使每种情感类别对应的概率在0~1的范围内,并且各情感类别对应的概率之和为1。以此确定上述两种情感强度分别对应的概率,进而根据每种情感强度对应的概率确定最终的输出结果,通常情况下,识别模型可以将对应概率最高的情感强度作为最终的预测情感强度。
S104:根据所述预测情感强度和所述语音对话数据对应的实际情感强度之间的偏差,以及所述预测情感类别和所述语音对话数据对应的实际情感类别之间的偏差,确定所述识别模型的综合损失值。
服务器可以根据预测情感强度和语音对话数据对应的实际情感强度(即语音对话数据的实际情感强度标签)之间的偏差,确定识别模型的第一损失值,该第一损失值的计算公式可以为:
Figure 566982DEST_PATH_IMAGE001
其中,
Figure 546440DEST_PATH_IMAGE002
为识别模型的第一损失值,
Figure 342489DEST_PATH_IMAGE003
为交叉熵损失函数,
Figure 65594DEST_PATH_IMAGE004
为预测情感强度,
Figure 411125DEST_PATH_IMAGE005
为语音对话数据对应的实际情感强度(即语音对话数据的实 际情感强度标签),在计算过程中,
Figure 515478DEST_PATH_IMAGE005
可以为情感强度标签对应的one hot编码向量。
与此同时,服务器还可以根据预测情感类别和语音对话数据对应的实际情感类别(即语音对话数据的实际情感类别标签)之间的偏差,确定识别模型的第二损失值,该第二损失值的计算公式可以为:
Figure 844828DEST_PATH_IMAGE006
其中,
Figure 588269DEST_PATH_IMAGE007
为识别模型的第二损失值,
Figure 319464DEST_PATH_IMAGE008
为交叉熵损失函数,
Figure 843987DEST_PATH_IMAGE009
为预测情感类别,
Figure 676945DEST_PATH_IMAGE010
为语音对话数据对应的实际情感类别(即语音对话数据的 实际情感类别标签),在计算过程中,
Figure 679536DEST_PATH_IMAGE010
可以为情感类别标签对应的one hot编码向量。
而后服务器可以根据确定出的第一损失值、第一损失值对应的权重以及第二损失值确定出识别模型的综合损失值。其中,由于在根据识别结果执行事务的过程中,识别的到情感强度相对于情感类型对事务的影像较小,因此,会对第一损失值设置一定的权重,经过大量实验表明,当第一损失值对应的权重为0.5时,语音识别的效果较高,因此,在本说明书中可以将第一损失值对应的权重设置为0.5,当然,也可以设置为其他值,本说明书对此不做具体限定。该综合损失值的计算公式可以为:
Figure 281549DEST_PATH_IMAGE011
其中,
Figure 773711DEST_PATH_IMAGE012
为识别模型对应的综合损失值,
Figure 280915DEST_PATH_IMAGE013
为第一损失值对应的权重。
S105:以最小化所述综合损失值为优化目标,对所述识别模型进行训练。
确定综合损失值后,服务器可以以最小化该综合损失值为优化目标,对识别模型进行训练,直至该识别模型收敛至预设范围内,或者达到预设训练次数,方可将其部署在业务平台,从而根据该识别模型的识别结果执行下游的事务。
具体的,在模型训练的过程中可以通过自适应矩估计(Adaptive MomentsEstimation,Adam)优化器,采用随训练步数指数递减的学习率来对模型参数进行更新,根据预设的初始学习率、学习率衰减指数、衰减周期以及训练次数,确定每次对识别模型进行训练时,识别模型对应的学习率,其中,训练次数越多,所述学习率越小,从而使学习率随着训练步数的增加而指数程度的衰减。
该学习率可以通过如下公式进行计算:
Figure 837930DEST_PATH_IMAGE014
其中,
Figure 12559DEST_PATH_IMAGE015
为学习率,
Figure 410042DEST_PATH_IMAGE016
为识别模型的初始学习率,
Figure 282839DEST_PATH_IMAGE017
为学习率的衰减指 数,
Figure 174703DEST_PATH_IMAGE018
为当前训练次数,
Figure 921948DEST_PATH_IMAGE019
为衰减周期。
其中,在本说明书中,可以预先对模型训练中的超参数进行设置,在每一批次对模型进行训练时,语音对话数据量可以为64,初始学习率可以设置为0.0001,学习率的衰减指数可以设置为0.98,最大的批次可以设置为50,训练精度可以设置为32。
以上为对本说明书提供的一种模型训练的方法进行的说明,下面将在经过上述模型训练的方法得到的识别模型的实际应用角度,对本说明书提供的一种业务执行的方法进行说明,如图2所示。
图2为本说明书中提供的一种业务执行的方法示意图,包括以下步骤:
S201:获取用户的语音数据。
S202:将所述语音数据输入预先训练的识别模型,通过所述识别模型的特征提取层,确定所述语音数据对应的语音特征,以及,将所述语音特征输入到所述识别模型的第一分类层,以确定所述语音数据对应的情感强度,以及,将所述语音特征输入到所述识别模型的第二分类层,以确定所述语音数据对应的情感类别,其中,所述识别模型是通过上述模型训练的方法训练得到的。
服务器可以通过传感器采集到的或者用户在相应的客户端中输入的语音数据,进而将该语音数据输入之前训练并部署的识别模型,通过识别模型的特征提取层,确定语音数据对应的语音特征,并将语音特征输入到识别模型的第一分类层,以确定所述语音数据对应的情感强度,以及,将语音特征输入到识别模型的第二分类层,以确定语音数据对应的情感类别。为了便于理解,本说明书还提供了一种识别模型的识别过程示意图,如图3所示。
图3为本说明书中提供的一种识别模型的识别过程示意图。
其中,当识别模型获取到用户的语音数据后,可以将该语音数据输入识别模型的特征提取网络,通过该特征提取网络的多个卷积层(CNN)以及转换网络TransformerNetwork的处理,得到语音特征,进而通过池化层对该语音数据进行平均池化处理,得到平均数据特征。而后可以将该平均数据特征分别输入第二分类层以及第一分类层,以分别确定语音数据对应的情感类别和情感强度。
S203:根据所述语音数据对应的情感类别以及所述情感强度,确定业务的执行策略,并根据所述执行策略执行所述业务。
而后服务器可以根据得到的情感类别和情感强度,确定业务的执行策略,例如,服务器可以根据用户的语音数据所表达出来的情感类别和情感强度,确定用户当前所表达的情绪,进而根据用户当前用户所表达的情绪,确定业务的执行策略,如确定需要向用户恢复的语音或者文字内容,或是控制智能机器人展示相应的交互动作等,从而执行相应的业务。
从上述方法可以看出,本方案在识别模型的训练过程中,能够根据语音数据的预测情感类别和实际情感类别之间的偏差,以及语音数据的预测情感强度和实际情感强度之间的偏差,确定出识别模型的综合损失函数,这样一来,就能够使模型同时识别出语音数据的情感类别和情感轻度两种相互关联的识别结果,使得识别结果更加丰富、准确,从而能够根据这两种识别结果确定出准确的业务策略以执行业务。
另外,本方案通过对情感强度识别和情感类别识别这两种分类任务的损失函数的计算,确定出最终的综合损失函数,使得通过多任务学习后的识别模型所识别出的情感类别和情感强度之间具有较强的关联性,这样一来,无论是确定出的情感类别,还是确定出的情感强度都更加准确。
以上为本说明书的一个或多个实施模型训练和业务执行的方法,基于同样的思路,本说明书还提供了相应的模型训练和业务执行的装置,如图4或图5所示。
图4为本说明书提供的一种模型训练的装置示意图,包括:
获取模块401,用于获取用户在历史上执行客服业务的语音对话数据;
输入模块402,用于将所述语音对话数据输入待训练的识别模型,通过所述识别模型的特征提取层,确定所述语音对话数据对应的数据特征;
第一确定模块403,用于将所述数据特征输入到所述识别模型的第一分类层,以确定所述语音对话数据对应的情感强度,作为预测情感强度,以及,将所述数据特征输入到所述识别模型的第二分类层,以确定所述语音对话数据对应的情感类别,作为预测情感类别;
第二确定模块404,用于根据所述预测情感强度和所述语音对话数据对应的实际情感强度之间的偏差,以及所述预测情感类别和所述语音对话数据对应的实际情感类别之间的偏差,确定所述识别模型的综合损失值;
训练模块405,用于以最小化所述综合损失值为优化目标,对所述识别模型进行训练。
可选地,所述输入模块402具体用于,针对所述语音对话数据中的每一帧数据,确定该帧数据是否为静音数据;将所述语音对话数据首尾两端的静音数据进行删除处理,得到处理后语音对话数据;将所述处理后语音对话数据输入所述识别模型。
可选地,所述输入模块402具体用于,判断所述处理后语音对话数据对应的时间长度是否大于预设时间长度;若是,则对所述处理后语音对话数据进行裁剪,得到裁剪后语音对话数据;将所述裁剪后语音对话数据输入所述识别模型。
可选地,所述第一确定模块403具体用于,根据所述数据特征以及所述语音对话数据对应的时间长度,确定所述语音对话数据对应的平均数据特征;
将所述平均数据特征输入到所述识别模型的第一分类层,以确定所述语音对话数据对应的所述预测情感强度,以及,将所述平均数据特征输入到所述识别模型的第二分类层,以确定所述语音对话数据对应的所述预测情感类别。
可选地,所述第二确定模快404具体用于,根据所述预测情感强度和所述语音对话数据对应的实际情感强度之间的偏差,确定所述识别模型的第一损失值,以及所述预测情感类别和所述语音对话数据对应的实际情感类别之间的偏差,确定所述识别模型的第二损失值;根据所述第一损失值、第一损失值对应的预设权重以及所述第二损失值,确定所述综合损失值。
可选地,所述训练模块405具体用于,根据预设的初始学习率、学习率衰减指数、衰减周期以及训练次数,确定每次对所述识别模型进行训练时,所述识别模型对应的学习率,其中,所述训练次数越多,所述学习率越小;根据每次对所述识别模型进行训练时,所述识别模型对应的学习率,以最小化所述综合损失值为优化目标,对所述识别模型进行训练。
图5为本说明书提供的一种业务执行的装置示意图,包括:
获取模块501,用于获取用户的语音数据;
确定模块502,用于将所述语音数据输入预先训练的识别模型,通过所述识别模型的特征提取层,确定所述语音数据对应的语音特征,以及,将所述语音特征输入到所述识别模型的第一分类层,以确定所述语音数据对应的情感强度,以及,将所述语音特征输入到所述识别模型的第二分类层,以确定所述语音数据对应的情感类别,其中,所述识别模型是通过上述模型训练的装置训练得到的;
执行模块503,用于根据所述语音数据对应的情感类别以及所述情感强度,确定业务的执行策略,并根据所述执行策略执行所述业务。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1或图2提供的一种模型训练和业务执行的方法。
本说明书还提供了图6所示的一种对应于图1或图2的电子设备的示意结构图。如图6所述,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1或图2所述的模型训练和业务执行的方法。当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device, PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字***“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20 以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的***、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、***、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、***或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于***实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (10)

1.一种模型训练的方法,其特征在于,包括:
获取用户在历史上执行客服业务的语音对话数据;
将所述语音对话数据输入待训练的识别模型,通过所述识别模型的特征提取层,确定所述语音对话数据对应的数据特征;
将所述数据特征输入到所述识别模型的第一分类层,以确定所述语音对话数据对应的情感强度,作为预测情感强度,以及,将所述数据特征输入到所述识别模型的第二分类层,以确定所述语音对话数据对应的情感类别,作为预测情感类别;
根据所述预测情感强度和所述语音对话数据对应的实际情感强度之间的偏差,以及所述预测情感类别和所述语音对话数据对应的实际情感类别之间的偏差,确定所述识别模型的综合损失值;
以最小化所述综合损失值为优化目标,对所述识别模型进行训练。
2.如权利要求1所述的方法,其特征在于,将所述语音对话数据输入待训练的识别模型,具体包括:
针对所述语音对话数据中的每一帧数据,确定该帧数据是否为静音数据;
将所述语音对话数据首尾两端的静音数据进行删除处理,得到处理后语音对话数据;
将所述处理后语音对话数据输入所述识别模型。
3.权利要求2所述的方法,其特征在于,将所述处理后语音对话数据输入所述识别模型,具体包括:
判断所述处理后语音对话数据对应的时间长度是否大于预设时间长度;
若是,则对所述处理后语音对话数据进行裁剪,得到裁剪后语音对话数据;
将所述裁剪后语音对话数据输入所述识别模型。
4.如权利要求1所述的方法,其特征在于,根据所述数据特征,将所述数据特征输入到所述识别模型的第一分类层,以确定所述语音对话数据对应的情感强度,作为预测情感强度,以及,将所述数据特征输入到所述识别模型的第二分类层,以确定所述语音对话数据对应的情感类别,作为预测情感类别,具体包括:
根据所述数据特征以及所述语音对话数据对应的时间长度,确定所述语音对话数据对应的平均数据特征;
将所述平均数据特征输入到所述识别模型的第一分类层,以确定所述语音对话数据对应的所述预测情感强度,以及,将所述平均数据特征输入到所述识别模型的第二分类层,以确定所述语音对话数据对应的所述预测情感类别。
5.如权利要求1所述的方法,其特征在于,根据所述预测情感强度和所述语音对话数据对应的实际情感强度之间的偏差,以及所述预测情感类别和所述语音对话数据对应的实际情感类别之间的偏差,确定所述识别模型的综合损失值,具体包括:
根据所述预测情感强度和所述语音对话数据对应的实际情感强度之间的偏差,确定所述识别模型的第一损失值,以及所述预测情感类别和所述语音对话数据对应的实际情感类别之间的偏差,确定所述识别模型的第二损失值;
根据所述第一损失值、第一损失值对应的预设权重以及所述第二损失值,确定所述综合损失值。
6.如权利要求1所述的方法,其特征在于,以最小化所述综合损失值为优化目标,对所述识别模型进行训练,具体包括:
根据预设的初始学习率、学习率衰减指数、衰减周期以及训练次数,确定每次对所述识别模型进行训练时,所述识别模型对应的学习率,其中,所述训练次数越多,所述学习率越小;
根据每次对所述识别模型进行训练时,所述识别模型对应的学习率,以最小化所述综合损失值为优化目标,对所述识别模型进行训练。
7.一种业务执行的方法,其特征在于,包括:
获取用户的语音数据;
将所述语音数据输入预先训练的识别模型,通过所述识别模型的特征提取层,确定所述语音数据对应的语音特征,以及,将所述语音特征输入到所述识别模型的第一分类层,以确定所述语音数据对应的情感强度,以及,将所述语音特征输入到所述识别模型的第二分类层,以确定所述语音数据对应的情感类别,其中,所述识别模型是通过上述权利要求1~6任一项所述的方法训练得到的;
根据所述语音数据对应的情感类别以及所述情感强度,确定业务的执行策略,并根据所述执行策略执行所述业务。
8.一种模型训练的装置,其特征在于,包括:
获取模块,获取用户在历史上执行客服业务的语音对话数据;
输入模块,将所述语音对话数据输入待训练的识别模型,通过所述识别模型的特征提取层,确定所述语音对话数据对应的数据特征;
第一确定模块,将所述数据特征输入到所述识别模型的第一分类层,以确定所述语音对话数据对应的情感强度,作为预测情感强度,以及,将所述数据特征输入到所述识别模型的第二分类层,以确定所述语音对话数据对应的情感类别,作为预测情感类别;
第二确定模块,根据所述预测情感强度和所述语音对话数据对应的实际情感强度之间的偏差,以及所述预测情感类别和所述语音对话数据对应的实际情感类别之间的偏差,确定所述识别模型的综合损失值;
训练模块,以最小化所述综合损失值为优化目标,对所述识别模型进行训练。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~7任一项所述的方法。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~7任一项所述的方法。
CN202211376381.4A 2022-11-04 2022-11-04 一种模型训练和业务执行的方法、装置、介质及设备 Pending CN115456114A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211376381.4A CN115456114A (zh) 2022-11-04 2022-11-04 一种模型训练和业务执行的方法、装置、介质及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211376381.4A CN115456114A (zh) 2022-11-04 2022-11-04 一种模型训练和业务执行的方法、装置、介质及设备

Publications (1)

Publication Number Publication Date
CN115456114A true CN115456114A (zh) 2022-12-09

Family

ID=84309909

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211376381.4A Pending CN115456114A (zh) 2022-11-04 2022-11-04 一种模型训练和业务执行的方法、装置、介质及设备

Country Status (1)

Country Link
CN (1) CN115456114A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115827880A (zh) * 2023-02-10 2023-03-21 之江实验室 一种基于情感分类的业务执行方法及装置

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106683680A (zh) * 2017-03-10 2017-05-17 百度在线网络技术(北京)有限公司 说话人识别方法及装置、计算机设备及计算机可读介质
CN110910903A (zh) * 2019-12-04 2020-03-24 深圳前海微众银行股份有限公司 语音情绪识别方法、装置、设备及计算机可读存储介质
CN111968629A (zh) * 2020-07-08 2020-11-20 重庆邮电大学 一种结合Transformer和CNN-DFSMN-CTC的中文语音识别方法
CN112466326A (zh) * 2020-12-14 2021-03-09 江苏师范大学 一种基于transformer模型编码器的语音情感特征提取方法
US20210142820A1 (en) * 2019-11-07 2021-05-13 Sling Media Pvt Ltd Method and system for speech emotion recognition
CN113257280A (zh) * 2021-06-07 2021-08-13 苏州大学 基于wav2vec的语音情感识别方法
CN113611286A (zh) * 2021-10-08 2021-11-05 之江实验室 一种基于共性特征提取的跨语种语音情感识别方法和***
CN113853651A (zh) * 2021-08-16 2021-12-28 香港应用科技研究院有限公司 用量化的情感状态进行语音-情感识别的装置和方法
CN114120978A (zh) * 2021-11-29 2022-03-01 中国平安人寿保险股份有限公司 情绪识别模型训练、语音交互方法、装置、设备及介质
CN114242113A (zh) * 2021-12-16 2022-03-25 北京百度网讯科技有限公司 语音检测方法、训练方法、装置和电子设备
CN114360584A (zh) * 2021-12-02 2022-04-15 华南理工大学 一种基于音素级的语音情感分层式识别方法及***
CN115083434A (zh) * 2022-07-22 2022-09-20 平安银行股份有限公司 一种情绪识别方法、装置、计算机设备及存储介质

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106683680A (zh) * 2017-03-10 2017-05-17 百度在线网络技术(北京)有限公司 说话人识别方法及装置、计算机设备及计算机可读介质
US20210142820A1 (en) * 2019-11-07 2021-05-13 Sling Media Pvt Ltd Method and system for speech emotion recognition
CN110910903A (zh) * 2019-12-04 2020-03-24 深圳前海微众银行股份有限公司 语音情绪识别方法、装置、设备及计算机可读存储介质
CN111968629A (zh) * 2020-07-08 2020-11-20 重庆邮电大学 一种结合Transformer和CNN-DFSMN-CTC的中文语音识别方法
CN112466326A (zh) * 2020-12-14 2021-03-09 江苏师范大学 一种基于transformer模型编码器的语音情感特征提取方法
CN113257280A (zh) * 2021-06-07 2021-08-13 苏州大学 基于wav2vec的语音情感识别方法
CN113853651A (zh) * 2021-08-16 2021-12-28 香港应用科技研究院有限公司 用量化的情感状态进行语音-情感识别的装置和方法
CN113611286A (zh) * 2021-10-08 2021-11-05 之江实验室 一种基于共性特征提取的跨语种语音情感识别方法和***
CN114120978A (zh) * 2021-11-29 2022-03-01 中国平安人寿保险股份有限公司 情绪识别模型训练、语音交互方法、装置、设备及介质
CN114360584A (zh) * 2021-12-02 2022-04-15 华南理工大学 一种基于音素级的语音情感分层式识别方法及***
CN114242113A (zh) * 2021-12-16 2022-03-25 北京百度网讯科技有限公司 语音检测方法、训练方法、装置和电子设备
CN115083434A (zh) * 2022-07-22 2022-09-20 平安银行股份有限公司 一种情绪识别方法、装置、计算机设备及存储介质

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
MD. RIADUL ISLAM ET AL: "Recognition of Emotion with Intensity from Speech Signal Using 3D Transformed Feature and Deep Learning", 《ELECTRONICS》 *
SHREYAH IYER ET AL: "A Comparison Between Convolutional and Transformer Architectures for Speech Emotion Recognition", 《2022 INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS (IJCNN)》 *
俞佳佳 等: "基于Sinc-Transformer 模型的原始语音情感识别", 《信号处理》 *
杨磊 等: "基于多头注意力机制的端到端语音情感识别", 《计算机应用》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115827880A (zh) * 2023-02-10 2023-03-21 之江实验室 一种基于情感分类的业务执行方法及装置

Similar Documents

Publication Publication Date Title
US20210127003A1 (en) Interactive voice-control method and apparatus, device and medium
Shi et al. Sentiment adaptive end-to-end dialog systems
CN111739520B (zh) 一种语音识别模型训练方法、语音识别方法、装置
CN111144126A (zh) 一种语义分析模型的训练方法、语义分析方法及装置
CN111401062B (zh) 文本的风险识别方法、装置及设备
CN112417093B (zh) 一种模型训练的方法及装置
CN110473527B (zh) 一种语音识别的方法和***
CN116343314B (zh) 一种表情识别方法、装置、存储介质及电子设备
CN115545002B (zh) 一种模型训练和业务处理的方法、装置、存储介质及设备
CN112597301A (zh) 一种语音意图识别方法及装置
CN113887206B (zh) 一种模型训练及关键词提取方法及装置
CN113887325A (zh) 一种模型训练方法、表情识别方法以及装置
CN112860871A (zh) 自然语言理解模型训练方法、自然语言理解方法及装置
CN115456114A (zh) 一种模型训练和业务执行的方法、装置、介质及设备
CN116312480A (zh) 一种语音识别方法、装置、设备及可读存储介质
CN112908315A (zh) 一种基于声音特征和语音识别的问答意图判断方法
CN116151355B (zh) 一种模型训练和业务执行的方法、装置、介质及设备
CN115620706B (zh) 一种模型训练方法、装置、设备及存储介质
CN116308738B (zh) 一种模型训练的方法、业务风控的方法及装置
Bakhshi et al. End-to-end speech emotion recognition based on time and frequency information using deep neural networks
CN112527959A (zh) 基于无池化卷积嵌入和注意分布神经网络的新闻分类方法
CN116186231A (zh) 一种回复文本的生成方法、装置、存储介质及电子设备
CN116127328A (zh) 一种对话状态识别模型的训练方法、装置、介质及设备
CN112397073B (zh) 一种音频数据处理方法及装置
Singh et al. Foreign accent classification using deep neural nets

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20221209

RJ01 Rejection of invention patent application after publication