CN113990286A - 语音合成方法、装置、设备及存储介质 - Google Patents

语音合成方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN113990286A
CN113990286A CN202111272328.5A CN202111272328A CN113990286A CN 113990286 A CN113990286 A CN 113990286A CN 202111272328 A CN202111272328 A CN 202111272328A CN 113990286 A CN113990286 A CN 113990286A
Authority
CN
China
Prior art keywords
text
synthesized
emotion
voice
emotion recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111272328.5A
Other languages
English (en)
Inventor
王昕�
杨大明
聂吉昌
田维政
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University Shenzhen Graduate School
Original Assignee
Peking University Shenzhen Graduate School
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University Shenzhen Graduate School filed Critical Peking University Shenzhen Graduate School
Priority to CN202111272328.5A priority Critical patent/CN113990286A/zh
Publication of CN113990286A publication Critical patent/CN113990286A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及语音合成技术,揭露了一种语音合成方法,包括:获取待合成文本,将待合成文本转化为基础音频数据;利用预训练的情感识别模型对待合成文本进行情感识别,得到所述待合成文本的情感类型;利用语义分析模型识别待合成文本的所属角色;从的语音区块链节点中查询所属角色及所述情感类型对应的发音参数;将所述发音参数和所述基础语音数据输入至音频合成器进行合成,得到情感音频数据。其中,本发明构建语音区块链节点来存储发音参数,涉及了区块链技术。本发明还提出一种语音合成装置、电子设备以及存储介质。本发明可以解决合成的语音机械而呆板的问题。

Description

语音合成方法、装置、设备及存储介质
技术领域
本发明涉及语音合成技术领域,尤其涉及一种语音合成方法、装置、电子设备及计算机可读存储介质。
背景技术
目前的语音合成方法是通过查询语音发音数据库,确认每个字或词的发音,最后将各个发音拼接到一起进行输出,得到合成语音,然而,合成的语音机械而呆板,不够灵活,极大影响人们对语音合成产品的好感度,导致日常生活中的各个方面,如小说、话本的影视配音等,仍然需要耗费大量的人力、物力、时间进行配音,才能得到富有情感的音频数据。
发明内容
本发明提供一种语音合成方法、装置及计算机可读存储介质,其主要目的在于解决合成的语音机械而呆板的问题。
为实现上述目的,本发明提供的一种语音合成方法,包括:
获取预构建的待合成文本,将所述待合成文本转化为基础音频数据;
利用预训练的情感识别模型对所述待合成文本进行情感识别,得到所述待合成文本的情感类型;
利用预训练的语义分析模型识别所述待合成文本的所属角色;
从预构建的语音区块链节点中查询所述所属角色及所述情感类型对应的发音参数;
将所述发音参数和所述基础语音数据输入至音频合成器进行合成,得到情感音频数据。
可选的,所述将所述待合成文本转化为基础音频数据,包括:
利用严氏标音法对所述待合成文本进行标音,得到音素序列;
从预构建的基础发音数据库提取所述音素序列中的各个音节的音频段;
根据所述音素序列的顺序将所述各个音节的音频段进行拼接,得到基础音频数据。
可选的,所述利用预训练的语义分析模型识别所述待合成文本的所属角色,包括:
当所述待合成文本中包含旁白文本及对话文本时,利用预训练的语义分析模型识别所述旁白文本的语义,根据所述旁白文本的语义确定所述旁白文本属于各个角色的所属分数;
判断各个所述所属分数中是否存在大于预设合格阈值的所属分数;
当存在大于或等于所述预设合格阈值的所属分数时,将大于或等于所述合格阈值的所属分数对应的角色作为所述待合成文本的所属角色;
当不存在大于或等于所述预设合格阈值的所属分数时,利用所述语义分析模型识别所述对话文本,得到所述对话文本属于各个角色的分数队列;
对所述旁白文本属于各个角色的所属分数与所述分数队列中各个得分,进行对应角色的分数叠加操作,并从叠加结果中提取最高分数对应的角色作为所述待合成文本的所属角色。
可选的,所述利用预训练的情感识别模型对所述待合成文本进行情感识别,得到所述待合成文本的情感类型,包括:
对所述待合成文本进行量化,得到文本量化矩阵;
利用所述情感识别模型的卷积层对所述文本量化矩阵进行特征提取,得到特征矩阵集合;
利用所述情感识别模型的池化层及flatten层对所述特征矩阵集合进行降维,得到特征序列;
将所述特征序列导入所述情感识别模型的决策树分类网络中进行分类,得到所述待合成文本的情感类型。
可选的,所述对所述待合成文本进行量化,得到文本量化矩阵,包括:
对所述待合成文本进行分词操作,得到词语集合;
利用Word2Vec模型及所述情感识别模型中预配置的位置编码,对所述词语集合进行量化,得到词向量集合;
根据预设的组合策略将所述词向量集合进行拆分,并将拆分结果进行拼接,得到文本量化矩阵。
可选的,所述利用预训练的情感识别模型对所述待合成文本进行情感识别,得到所述待合成文本的情感类型之前,所述方法还包括:
步骤I、将Bert神经网络与决策树分类网络进行连接,得到待训练情感识别模型;
步骤II、利用所述待训练情感识别模型对预构建的语句样本集合进行情绪识别,得到识别结果;
步骤III、利用预设的损失函数计算所述识别结果与所述语句样本集合对应的真实质检结果的损失值;
步骤IV、当所述损失值大于预设的合格参数时,根据Adaboost算法更新所述待训练情感识别模型的模型参数,并返回上述步骤II;
步骤V、当所述损失值小于或等于所述合格参数时,得到训练完成的情感识别模型。
可选的,所述从预构建的语音区块链节点中查询所述所属角色及所述情感类型对应的发音参数之前,所述方法还包括:
获取预构建的多维度的发音参数集合,利用消息摘要算法对所述发音参数集合进行计算,得到字符标签;
利用所述字符标签将所述发音参数集合加密上链至预构建的语音区块链节点中。
为了解决上述问题,本发明还提供一种语音合成装置,所述装置包括:
音频获取模块,用于获取预构建的待合成文本,将所述待合成文本转化为基础音频数据;
情感识别模块,用于利用预训练的情感识别模型对所述待合成文本进行情感识别,得到所述待合成文本的情感类型;
角色识别模块,用于利用预训练的语义分析模型识别所述待合成文本的所属角色;
发音参数查询模块,用于从预构建的语音区块链节点中查询所述所属角色及所述情感类型对应的发音参数;
音频风格设置模块,用于将所述发音参数和所述基础语音数据输入至音频合成器进行合成,得到情感音频数据。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述所述的语音合成方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的语音合成方法。
本发明实施例先以所述待合成文本音频转化的基础音频数据,再通过情感识别模型及语义分析模型分析出待合成文本的情感类型及所属角色,其中,通过情感识别模型及语义分析模型能够准确、高效的定位待合成文本的情感场景,方便后续从预构建的语音区块链节点中查询所述所属角色及所述情感类型对应的发音参数,通过将发音数据与基础音频数据进行合成,能够根据所述发音参数对所述基础音频数据进行调音,最终可以得到富有情感特色的情感音频数据。因此本发明提出的语音合成方法、装置、电子设备及计算机可读存储介质,可以解决语音合成生成的语音机械而呆板的问题,提高合成语音的灵活度。
附图说明
图1为本发明一实施例提供的语音合成方法的流程示意图;
图2为本发明一实施例提供的语音合成方法中一个步骤的详细流程示意图;
图3为本发明一实施例提供的语音合成方法中一个步骤的详细流程示意图;
图4为本发明一实施例提供的语音合成装置的功能模块图;
图5为本发明一实施例提供的实现所述语音合成方法的电子设备的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种语音合成方法。所述语音合成方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述语音合成方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(ContentDelivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
参照图1所示,为本发明一实施例提供的语音合成方法的流程示意图。
在本实施例中,所述语音合成方法包括:
S1、获取预构建的待合成文本,将所述待合成文本转化为基础音频数据。
本发明实施例中,待合成文本可以为一句话或者多句话。具体的,所述待合成文本可以为待配音的新闻文本,也可以为一本小说或话本的文本内容,其中,新闻文本要求为中性情感,而小说、话本的情感类型较为丰富,本发明实施例中主要以小说、话本的影视配音为实施例进行阐述。
此外,可以通过语音识别技术将待合成文本转化为基础音频数据,所述语音识别技术可以为文本转语音引擎,如线上字典等,用于将所述待合成文本转换为只有文本中每个字的自身发音,不含有整体情感特征的基础音频数据。
具体的,所述基础音频数据中包含默认的音色、语速、音调等语音特征参数。
详细的,本发明实施例中,所述获取预构建的待合成文本,将所述待合成文本转化为基础音频数据,包括:
利用严氏标音法对所述待合成文本进行标音,得到音素序列;
从预构建的基础发音数据库提取所述音素序列中的各个音节的音频段;
根据所述音素序列的顺序将所述各个音节的音频段进行拼接,得到基础音频数据。
其中,所述严氏标音法一般采用国际音标(简称IPA)作标记工具,将所述待合成文本中的各个文字转化为音素,如将文本【啊、爱、代……】转化为音素【ā、ài、dài……】,其中,所述音素是根据语音的自然属性划分出来的最小语音单位,依据音节里的发音动作来分析,可将音素分类为单音素及多因素,如【ā、ài、dài……】分别为单音素、双音素及三音素的音节。
此外,所述基础发音数据库可以为任意一种权威机构发行的语音字典数据库。
具体的,可以使用双音子(从一个音素的中央到下一个音素的中央)作为单位将所述音素序列中各个音节单位的音频段进行连接,得到基础音频数据,从而提高合成语音的连贯性。
S2、利用预训练的情感识别模型对所述待合成文本进行情感识别,得到所述待合成文本的情感类型。
本发明实施例中,所述情感识别模型为Bert神经网络与一个决策树分类网络构建的神经网络模型,用于根据所述待合成文中各个字词的前后关系,判断所述待合成文本的情感类型,其中,所述情感类型包括所述待合成文本的情感种类以及情感强度等级。
详细的,如图2所示,本发明实施例中,所述利用预训练的情感识别模型对所述待合成文本进行情感识别,得到所述待合成文本的情感类型,包括:
S21、对所述待合成文本进行量化,得到文本量化矩阵。
进一步地,本发明实施例中,所述对所述待合成文本进行量化,得到文本量化矩阵,包括:
对所述待合成文本进行分词操作,得到词语集合;
利用Word2Vec模型及所述情感识别模型中预配置的位置编码,对所述词语集合进行量化,得到词向量集合;
根据预设的组合策略,将所述词向量集合进行拆分,并将拆分结果进行拼接,得到文本量化矩阵。
其中,所述位置编码为根据待合成文本中词向量的顺序及个数,而产生的位置向量,如【E0、E1、E2、……】,主要配置于所述情感识别模型的bert神经网络的初始层部分,保证所述待合成文本能够顺序地、完整地进行后续文本识别处理。
具体的,本发明实施例利用jieba工具中的2个字、3个字及4个字大小的窗口对所述待合成文本进行从前到后的顺序截取,得到字词块集合,并利用一个权威的常见词语数据库对所述字词块集合中各个字词块进行存在判断,并将存在于所述常见词语数据库中的字词块进行输出,得到词语集合。
本发明实施例中,所述Word2Vec模型是一群用来产生词向量的相关模型,可以将所述词语集合中的每一个词语映射为一个向量,得到初始词向量集合,但所述Word2Vec模型产生的初始词向量集合为离散的,为增强后续文本中的特征,本发明实施例对每句话单独进行处理,因此不考虑句外编码,只通过预构建的句内编码【E0、E1、E2、……】对所述初始词向量集合进行位置编码,得到词向量集合,例如,所述词向量集合可能为【E0+E我们、E1+E马上……】。
本发明实施例中若所述词向量集合较长,则将所述词向量集合以长度L字节进行切割,形成L×N(列数)的文本量化矩阵,其中,第N行余下的向量数据可补‘0’至矩阵完整。
S22、利用所述情感识别模型的卷积层对所述文本量化矩阵进行特征提取,得到特征矩阵集合。
本发明实施例中,所述卷积层中具有预设数量M个卷积核,利用各个卷积核对所述文本量化矩阵进行一次滑动卷积计算,得到包含M个特征矩阵的特征矩阵集合;
S23、利用所述情感识别模型的池化层及flatten层对所述特征矩阵集合进行降维,得到特征序列。
本发明实施例利用最大池化操作对所述特征矩阵集合进行池化,保留主要特征,排除次要特征,得到降维的特征矩阵集合,在利用所述flatten层对所述降维的特征矩阵集合进行扁平化处理,得到包含各个一维特征的特征序列;
S24、将所述特征序列导入所述情感识别模型的决策树分类网络中进行分类,得到所述待合成文本的情感类型。
具体的,本发明实施例对所述特征序列中的文本特征序列进行全连接操作,识别得到各个文本特征对应的语句场景,再将各个语句场景进行决策树分类操作,得到所述待合成文本的情感类型。
此外,本发明实施例中,所述S2的步骤之前,所述方法还包括:
步骤I、将Bert神经网络与决策树分类网络进行连接,得到待训练情感识别模型;
步骤II、利用所述待训练情感识别模型对预构建的语句样本集合进行情绪识别,得到识别结果;
例如,从大量小说中随机提取预设数量的语句进行输出存储,得到语句样本集合;
步骤III、利用预设的损失函数计算所述识别结果与所述语句样本集合对应的真实质检结果的损失值;
其中,所述真实质检结果是专业人员在上述的从大量小说中随机提取预设数量的语句的步骤时,对提取到的语句进行评估后的结果标签。
本发明实施例将所述语句样本集合导入所述待训练情感识别模型中进行文本识别,其中过程,同理于上述S21至S24的过程,此处不加以赘述;
本发明实施例中所述损失值为:
Loss=αLoss识别+βLoss决策树
其中,所述Loss识别为Bert神经网络的损失函数,所述Loss决策树为决策树分类网络对应的损失函数,所述α及β为权重系数,本发明实施例中根据训练效果进行配置。
步骤IV、当所述损失值大于预设的合格参数时,根据Adaboost算法,自动更新所述待训练情感识别模型的模型参数,并返回上述步骤II;
所述Adaboost是一种迭代算法,是通过迭代训练,不断改变情感识别模型中各个决策树在分类过程中的权重地位,最终使得分类结果较为准确的算法。具体的,本发明实施例利用所述Adaboost算法每次训练过程中,改变所述决策树分类网络中各个分类器的权重系数,对分类正确的语句样本在进行下次分类时,权重会降低,对分类错误的语句样本在进行下次分类时,权重会增加,并根据损失函数,更新所述分类网络中的模型参数,使得分类错误的语句样本越来越少,损失值越来越低。
步骤V、当所述损失值小于或等于所述合格参数时,得到训练完成的情感识别模型。
本发明实施例,根据所述步骤I至步骤V的操作步骤进行训练,最终得到训练完成的情感识别模型。
S3、利用预训练的语义分析模型识别所述待合成文本的所属角色。
所述所属角色为新闻播报员男音或女音角色,也可为小说或话本中的各类型音色的角色,如“老年男音、中年女音、萝莉音……”,本发明实施例中,预先通过各类音色的配音演员对预构建的语句样本进行角色配音。
详细的,如图3所示,本发明另一实施例中,所述利用预训练的语义分析模型识别所述待合成文本的所属角色,包括:
S31、当所述待合成文本中包含旁白文本及对话文本时,利用预训练的语义分析模型识别所述旁白文本的语义,根据所述旁白文本的语义确定所述旁白文本属于各个角色的所属分数;
S32、判断各个所述所属分数中是否存在大于预设合格阈值的所属分数;
S33、当存在大于或等于所述预设合格阈值的所属分数时,将大于或等于所述合格阈值的所属分数对应的角色作为所述待合成文本的所属角色;
S34、当不存在大于或等于所述预设合格阈值的所属分数时,利用所述语义分析模型识别所述对话文本,得到所述对话文本属于各个角色的分数队列;
S35、对所述旁白文本属于各个角色的所属分数与所述分数队列中各个得分,进行对应角色的分数叠加操作,并从叠加结果中提取最高分数对应的角色作为所述待合成文本的所属角色。
具体的,当对所述待合成文本对应的所属角色进行分析时,可以先提取所述待合成文本中的旁白文本与对话文本,如【……,斥候说:“报!禀将军,前方三十里发现敌方粮队。”】,提取所述旁白文本(即引号以外的文本)中的“斥候说”可得所述待合成文本得所属角色的得分为【参军:0%、将军:0%、斥候:100%】,且其中,所述斥候的100%的所属分数大于预设的合格阈值80%,则所述待合成文本的所述角色为“斥候”。
此外,当所述待合成文本为【……,帐外匆匆进来一人:“禀将军,前方三十里发现敌方粮队。”】,则识别旁白文本(即引号以外的文本“帐外匆匆进来一人”),得到所属分数可能为【参军:30%、将军:0%、斥候:50%、……】,其中,最大为【斥候:50%】但小于所述合格阈值80%,则需要再识别所述对话文本【禀将军,前方三十里发现敌方粮队】,得到分数队列为【参军:10%、校尉:20%、斥候40%、……】则,通过对应角色的分数叠加,得到【参军:40%、……、斥候:100%、……】,选择其中分数最高,即“斥候”为所述待合成文本的所属角色。
S4、从预构建的语音区块链节点中查询所述所属角色及所述情感类型对应的发音参数。
所述语音区块链节点为通过区块链技术将所述语句样本的多维度的发音参数提取后进行存储的数据库。
本发明实施例中,当识别出所述待合成文本的所属角色及情感类型时,可利用所述所属角色及情感类型作为关键字,在所述语音区块链节点中进行查询,得到所属角色及情感类型分别对应的多维度的发音参数,如语音基频和谐波频率、清音可能性(0~1之间)、浊音可能性(0~1之间)、语速或者是发音状态的时长、声调和韵律等。
具体的,查询时查询所属角色对应的发音参数以及情感类型对应的发音参数。例如,本发明实施例识别语句文本的所述角色为斥候,且情感类型为包含急促与紧张的高级紧张类型,则通过所述的语音区块链节点,先查询斥候角色的音色信息,再查询斥候角色下的所述高级紧张类型得到包含语速、停顿习惯信息的发音参数。
本发明实施例中,所述从预构建的语音区块链节点中查询所述所属角色及所述情感类型对应的发音参数之前,所述方法还包括:
获取预构建的多维度的发音参数集合,利用消息摘要算法对所述发音参数集合进行计算,得到字符标签;
利用所述字符标签将所述发音参数集合加密上链至预构建的语音区块链节点中。
其中,所述信息摘要算法为密码学算法中非常重要的一个分支,通过对所有数据提取指纹信息以实现数据签名、数据完整性校验等功能,具有算法具有其不可逆性,可以防止被暴力列举的方式破译。
具体的,本发明实施例预先获取预设文本(如小说、话本)中不同角色的配音演员,在各类预设情感类型词条下对对预设语句样本进行的配音,得到样本音频,再提取所述样本音频中的音色、音调、语气、字词停顿间隔等多维度的发音参数,得到多维度的发音参数,再通过消息摘要算法,将所述多维度的发音参数加密上链至区块链节点中存储。其中,本发明实施例利用区块链技术对各个类型语音的多维度的发音参数进行存储,防止重要数据丢失或改变。
S5、将所述发音参数和所述基础语音数据输入至音频合成器进行合成,得到情感音频数据。
具体的,音频合成器可以为TrakAxPC音频处理器。
例如,将所述基础音频数据导入预构建的TrakAxPC音频处理器中,根据查询到的斥候角色下的所述高级紧张类型得到包含语速、停顿习惯信息的发音参数后,根据所述发音参数对所述基础音频数据进行调音,得到成年男音、语速快速的斥候角色的发音音频。
进一步的,当待合成文本包含旁白文本和非旁白文本时,在语音合成时,可以只对待合成文本包含的属于个人物角色的对话文本进行的风格重建操作,即对待合成文本包含的属于个人物角色的对话文本根据所属角色和情感类型进行调整,而不需要对旁白文本部分进行调整(如进行音色、情感的改变)。
本发明实施例先以所述待合成文本音频转化的基础音频数据,再通过情感识别模型及语义分析模型分析出待合成文本的情感类型及所属角色,其中,通过情感识别模型及语义分析模型能够准确、高效的定位待合成文本的情感场景,方便后续从预构建的语音区块链节点中查询所述所属角色及所述情感类型对应的发音参数,通过将发音数据与基础音频数据进行合成,能够根据所述发音参数对所述基础音频数据进行调音,最终可以得到富有情感特色的情感音频数据。因此本发明提出的语音合成方法、装置、电子设备及计算机可读存储介质,可以解决语音合成生成的语音机械而呆板的问题,提高合成语音的灵活度。
如图4所示,是本发明一实施例提供的语音合成装置的功能模块图。
本发明所述语音合成装置100可以安装于电子设备中。根据实现的功能,所述语音合成装置100可以包括音频获取模块101、情感识别模块102、角色识别模块103、发音参数查询模块104及音频风格设置模块105。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述音频获取模块101,用于获取预构建的待合成文本,将所述待合成文本转化为基础音频数据;
所述情感识别模块102,用于利用预训练的情感识别模型对所述待合成文本进行情感识别,得到所述待合成文本的情感类型;
所述角色识别模块103,用于利用预训练的语义分析模型识别所述待合成文本的所属角色;
所述发音参数查询模块104,用于从预构建的语音区块链节点中查询所述所属角色及所述情感类型对应的发音参数;
所述音频风格设置模块105,用于将所述发音参数和所述基础语音数据输入至音频合成器进行合成,得到情感音频数据。
详细地,本发明实施例中所述语音合成装置100中所述的各模块在使用时采用与上述图1至图3中所述的语音合成方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
如图5所示,是本发明一实施例提供的实现语音合成方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11、通信总线12以及通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如语音合成程序。
其中,所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(ControlUnit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行语音合成程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如语音合成程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述通信总线12可以是外设部件互连标准(peripheral componentinterconnect,简称PCI)总线或扩展工业标准结构(extended industry standardarchitecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
所述通信接口13用于上述电子设备与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。所述用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
图5仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图5示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的语音合成程序是多个指令的组合,在所述处理器10中运行时,可以实现:
获取预构建的待合成文本,将所述待合成文本转化为基础音频数据;
利用预训练的情感识别模型对所述待合成文本进行情感识别,得到所述待合成文本的情感类型;
利用预训练的语义分析模型识别所述待合成文本的所属角色;
从预构建的语音区块链节点中查询所述所属角色及所述情感类型对应的发音参数;
将所述发音参数和所述基础语音数据输入至音频合成器进行合成,得到情感音频数据。
具体地,所述处理器10对上述指令的具体实现方法可参考附图对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取预构建的待合成文本,将所述待合成文本转化为基础音频数据;
利用预训练的情感识别模型对所述待合成文本进行情感识别,得到所述待合成文本的情感类型;
利用预训练的语义分析模型识别所述待合成文本的所属角色;
从预构建的语音区块链节点中查询所述所属角色及所述情感类型对应的发音参数;
将所述发音参数和所述基础语音数据输入至音频合成器进行合成,得到情感音频数据。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。***权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (10)

1.一种语音合成方法,其特征在于,所述方法包括:
获取预构建的待合成文本,将所述待合成文本转化为基础音频数据;
利用预训练的情感识别模型对所述待合成文本进行情感识别,得到所述待合成文本的情感类型;
利用预训练的语义分析模型识别所述待合成文本的所属角色;
从预构建的语音区块链节点中查询所述所属角色及所述情感类型对应的发音参数;
将所述发音参数和所述基础语音数据输入至音频合成器进行合成,得到情感音频数据。
2.如权利要求1所述的语音合成方法,其特征在于,所述将所述待合成文本转化为基础音频数据,包括:
利用严氏标音法对所述待合成文本进行标音,得到音素序列;
从预构建的基础发音数据库提取所述音素序列中的各个音节的音频段;
根据所述音素序列的顺序将所述各个音节的音频段进行拼接,得到基础音频数据。
3.如权利要求1所述的语音合成方法,其特征在于,所述利用预训练的语义分析模型识别所述待合成文本的所属角色,包括:
当所述待合成文本中包含旁白文本及对话文本时,利用预训练的语义分析模型识别所述旁白文本的语义,根据所述旁白文本的语义确定所述旁白文本属于各个角色的所属分数;
判断各个所述所属分数中是否存在大于预设合格阈值的所属分数;
当存在大于或等于所述预设合格阈值的所属分数时,将大于或等于所述合格阈值的所属分数对应的角色作为所述待合成文本的所属角色;
当不存在大于或等于所述预设合格阈值的所属分数时,利用所述语义分析模型识别所述对话文本,得到所述对话文本属于各个角色的分数队列;
对所述旁白文本属于各个角色的所属分数与所述分数队列中各个得分,进行对应角色的分数叠加操作,并从叠加结果中提取最高分数对应的角色作为所述待合成文本的所属角色。
4.如权利要求1所述的语音合成方法,其特征在于,所述利用预训练的情感识别模型对所述待合成文本进行情感识别,得到所述待合成文本的情感类型,包括:
对所述待合成文本进行量化,得到文本量化矩阵;
利用所述情感识别模型的卷积层对所述文本量化矩阵进行特征提取,得到特征矩阵集合;
利用所述情感识别模型的池化层及flatten层对所述特征矩阵集合进行降维,得到特征序列;
将所述特征序列导入所述情感识别模型的决策树分类网络中进行分类,得到所述待合成文本的情感类型。
5.如权利要求4所述的语音合成方法,其特征在于,所述对所述待合成文本进行量化,得到文本量化矩阵,包括:
对所述待合成文本进行分词操作,得到词语集合;
利用Word2Vec模型及所述情感识别模型中预配置的位置编码,对所述词语集合进行量化,得到词向量集合;
根据预设的组合策略将所述词向量集合进行拆分,并将拆分结果进行拼接,得到文本量化矩阵。
6.如权利要求1的语音合成方法,其特征在于,所述利用预训练的情感识别模型对所述待合成文本进行情感识别,得到所述待合成文本的情感类型之前,所述方法还包括:
步骤I、将Bert神经网络与决策树分类网络进行连接,得到待训练情感识别模型;
步骤II、利用所述待训练情感识别模型对预构建的语句样本集合进行情绪识别,得到识别结果;
步骤III、利用预设的损失函数计算所述识别结果与所述语句样本集合对应的真实质检结果的损失值;
步骤IV、当所述损失值大于预设的合格参数时,根据Adaboost算法更新所述待训练情感识别模型的模型参数,并返回上述步骤I I;
步骤V、当所述损失值小于或等于所述合格参数时,得到训练完成的情感识别模型。
7.如权利要求1所述的语音合成方法,其特征在于,所述从预构建的语音区块链节点中查询所述所属角色及所述情感类型对应的发音参数之前,所述方法还包括:
获取预构建的多维度的发音参数集合,利用消息摘要算法对所述发音参数集合进行计算,得到字符标签;
利用所述字符标签将所述发音参数集合加密上链至预构建的语音区块链节点中。
8.一种语音合成装置,其特征在于,所述装置包括:
音频获取模块,用于获取预构建的待合成文本,将所述待合成文本转化为基础音频数据;
情感识别模块,用于利用预训练的情感识别模型对所述待合成文本进行情感识别,得到所述待合成文本的情感类型;
角色识别模块,用于利用预训练的语义分析模型识别所述待合成文本的所属角色;
发音参数查询模块,用于从预构建的语音区块链节点中查询所述所属角色及所述情感类型对应的发音参数;
音频风格设置模块,用于将所述发音参数和所述基础语音数据输入至音频合成器进行合成,得到情感音频数据。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任意一项所述的语音合成方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任意一项所述的语音合成方法。
CN202111272328.5A 2021-10-29 2021-10-29 语音合成方法、装置、设备及存储介质 Pending CN113990286A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111272328.5A CN113990286A (zh) 2021-10-29 2021-10-29 语音合成方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111272328.5A CN113990286A (zh) 2021-10-29 2021-10-29 语音合成方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN113990286A true CN113990286A (zh) 2022-01-28

Family

ID=79744405

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111272328.5A Pending CN113990286A (zh) 2021-10-29 2021-10-29 语音合成方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN113990286A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117727290A (zh) * 2024-02-18 2024-03-19 厦门她趣信息技术有限公司 一种语音合成方法、装置、设备及可读存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108615524A (zh) * 2018-05-14 2018-10-02 平安科技(深圳)有限公司 一种语音合成方法、***及终端设备
US10475438B1 (en) * 2017-03-02 2019-11-12 Amazon Technologies, Inc. Contextual text-to-speech processing
US20200169591A1 (en) * 2019-02-01 2020-05-28 Ben Avi Ingel Systems and methods for artificial dubbing
CN111274807A (zh) * 2020-02-03 2020-06-12 华为技术有限公司 文本信息的处理方法及装置、计算机设备和可读存储介质
CN111667811A (zh) * 2020-06-15 2020-09-15 北京百度网讯科技有限公司 语音合成方法、装置、设备和介质
CN112086086A (zh) * 2020-10-22 2020-12-15 平安科技(深圳)有限公司 语音合成方法、装置、设备及计算机可读存储介质
CN112527994A (zh) * 2020-12-18 2021-03-19 平安银行股份有限公司 情绪分析方法、装置、设备及可读存储介质
CN112908292A (zh) * 2019-11-19 2021-06-04 北京字节跳动网络技术有限公司 文本的语音合成方法、装置、电子设备及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10475438B1 (en) * 2017-03-02 2019-11-12 Amazon Technologies, Inc. Contextual text-to-speech processing
CN108615524A (zh) * 2018-05-14 2018-10-02 平安科技(深圳)有限公司 一种语音合成方法、***及终端设备
US20200169591A1 (en) * 2019-02-01 2020-05-28 Ben Avi Ingel Systems and methods for artificial dubbing
CN112908292A (zh) * 2019-11-19 2021-06-04 北京字节跳动网络技术有限公司 文本的语音合成方法、装置、电子设备及存储介质
CN111274807A (zh) * 2020-02-03 2020-06-12 华为技术有限公司 文本信息的处理方法及装置、计算机设备和可读存储介质
CN111667811A (zh) * 2020-06-15 2020-09-15 北京百度网讯科技有限公司 语音合成方法、装置、设备和介质
CN112086086A (zh) * 2020-10-22 2020-12-15 平安科技(深圳)有限公司 语音合成方法、装置、设备及计算机可读存储介质
CN112527994A (zh) * 2020-12-18 2021-03-19 平安银行股份有限公司 情绪分析方法、装置、设备及可读存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117727290A (zh) * 2024-02-18 2024-03-19 厦门她趣信息技术有限公司 一种语音合成方法、装置、设备及可读存储介质

Similar Documents

Publication Publication Date Title
CN112086086B (zh) 语音合成方法、装置、设备及计算机可读存储介质
CN107564511B (zh) 电子装置、语音合成方法和计算机可读存储介质
CN110263150B (zh) 文本生成方法、装置、计算机设备及存储介质
CN109241330A (zh) 用于识别音频中的关键短语的方法、装置、设备和介质
CN111862937A (zh) 歌声合成方法、装置及计算机可读存储介质
CN112466273A (zh) 语音合成方法、装置、电子设备及存储介质
CN111985243B (zh) 情感模型的训练方法、情感分析方法、装置及存储介质
CN113420556A (zh) 基于多模态信号的情感识别方法、装置、设备及存储介质
CN113345431A (zh) 跨语言语音转换方法、装置、设备及介质
CN112951233A (zh) 语音问答方法、装置、电子设备及可读存储介质
CN113887200A (zh) 文本变长纠错方法、装置、电子设备及存储介质
CN115002491A (zh) 基于智能机器的网络直播方法、装置、设备及存储介质
CN116320607A (zh) 智能视频生成方法、装置、设备及介质
CN110852075B (zh) 自动添加标点符号的语音转写方法、装置及可读存储介质
CN114999533A (zh) 基于情绪识别的智能问答方法、装置、设备及存储介质
CN113707124A (zh) 话术语音的联动播报方法、装置、电子设备及存储介质
CN114155832A (zh) 基于深度学习的语音识别方法、装置、设备及介质
CN113990286A (zh) 语音合成方法、装置、设备及存储介质
CN110781327B (zh) 图像搜索方法、装置、终端设备及存储介质
CN112201253A (zh) 文字标记方法、装置、电子设备及计算机可读存储介质
CN113555003B (zh) 语音合成方法、装置、电子设备及存储介质
CN111401069A (zh) 会话文本的意图识别方法、意图识别装置及终端
CN115631748A (zh) 基于语音对话的情感识别方法、装置、电子设备及介质
CN113160793A (zh) 基于低资源语言的语音合成方法、装置、设备及存储介质
CN114548114A (zh) 文本情绪识别方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination