CN101236743A - 生成高质量话音的***和方法 - Google Patents

生成高质量话音的***和方法 Download PDF

Info

Publication number
CN101236743A
CN101236743A CNA2008100037617A CN200810003761A CN101236743A CN 101236743 A CN101236743 A CN 101236743A CN A2008100037617 A CNA2008100037617 A CN A2008100037617A CN 200810003761 A CN200810003761 A CN 200810003761A CN 101236743 A CN101236743 A CN 101236743A
Authority
CN
China
Prior art keywords
note
phoneme
text
speech
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2008100037617A
Other languages
English (en)
Other versions
CN101236743B (zh
Inventor
立花隆辉
长野彻
西村雅史
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nuance Communications Inc
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of CN101236743A publication Critical patent/CN101236743A/zh
Application granted granted Critical
Publication of CN101236743B publication Critical patent/CN101236743B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/06Elementary speech units used in speech synthesisers; Concatenation rules
    • G10L13/07Concatenation rules

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

提供一种***包括:音素段存储部分,存储多个音素段数据块;合成部分,通过从音素段存储部分读取与代表输入文本的发音的各个音素对应的音素段数据块、然后将音素段数据块彼此相连,来生成代表文本的合成话音的语音数据;计算部分,根据语音数据来计算指示代表文本的合成话音的语音数据的不自然度的得分;意译存储部分,存储作为多个第一注释的意译的多个第二注释,并将第二注释与各个第一注释关联;替换部分,搜索文本以找到与任何第一注释相匹配的注释,并用与第一注释对应的第二注释来替换搜索到的注释;以及判断部分,在计算出的得分小于参考值的情况下,输出所生成的语音数据,并将替换后文本输入到合成部分中,以使合成部分进一步生成用于该文本的语音数据。

Description

生成高质量话音的***和方法
技术领域
本发明涉及生成合成话音(synthetic speech)的技术,具体地涉及通过彼此连接多个音素段(phoneme segment)来生成合成话音的技术。
背景技术
此前,为了生成听者听起来自然的合成话音,已经使用了利用声波编辑与合成方法的话音合成技术。在此方法中,话音合成设备记录人的话音,并事先把话音的波形存储在数据库中作为话音波形数据。然后,话音合成设备根据输入的文本通过读取和连接多个话音波形数据块来生成合成话音。为了使这样合成的话音让听者听起来自然,最好连续改变话音的频率和音调(tone)。例如,当在话音波形数据块彼此连接的部分中话音的频率和音调变化很大时,所得到的合成话音听起来不自然。
然而,由于成本和时间的限制以及计算机存储容量和处理性能的限制,因此对事先记录的话音波形数据的类型也有限制。由于这个缘故,在某些情况下,由于在数据库中没有注册适合的数据块,因而使用替代的话音波形数据块替代适合的数据块来生成合成话音的某个部分。这可能使连接部分中的频率等等改变如此之大,以致于合成的话音听起来不自然。当输入文本的内容与事先被记录用于生成话音波形数据块的内容有很大的不同时,这种情况就更可能发生。
在此,作为技术参考资料,引用了日本专利申请公开出版物No.2003-131679以及Wael Hamza、Raimo Bakis和Ellen Eide,“RECONCILING PRONUNCIATION DIFFERENCES BETWEEN THEFRONT-END AND BACK-END IN THE IBM SPEECH SYNTHESISSYSTEM”(调解在IBM话音合成***中前端和后端之间的发音差别),Proceedings of ICSLP,韩国,济州,2004,pp.2561-2564。在日本专利申请公开出版物No.2003-131679中所揭示的话音输出设备通过把由书面语言的短语组成的文本转换为口头语言的文本,而后大声读出所得到的文本,来使文本更容易让听者理解。然而,这个设备只是为了把文本的表达从书面语言转换为口头语言,并且,这个转换是独立于与话音波形数据中关于频率变化等等的情况下进行的。因此,这个转换对合成话音自身的质量改善不起作用。在Wael Hamza、Raimo Bakis 和Ellen Eide“RECONCILINGPRONUNCIATION DIFFERENCES BETWEEN THE FRONT-END ANDBACK-END IN THE IBM SPEECH SYNTHESIS SYSTEM”(调解在IBM话音合成***中前端和后端之间的发音差别),Proceedings ofICSLP,韩国,济州,2004,pp.2561-2564所描述的技术中,预先存储发音不同但是以相同方式书写的多个音素(phoneme),并在多个音素段中选择适合的音素段,以便能够改善合成话音的质量。然而,如果适合的音素段不被包括在事先存储的音素段之中,即使做了这样的选择,得到的合成话音听起来还是不自然的。
发明内容
关于这一点,本发明的目的在于提供一种能够解决上述问题的***、方法和程序。通过组合权利要求范围内的独立权利要求来实现此目的。此外,从属权利要求限定了本发明的更有益的具体例子。
为了解决上述的问题,本发明的第一方面是提供一种用于生成合成话音的***,该***包括音素段存储部分、合成部分、计算部分、意译(paraphrase)存储部分、替换部分和判断部分。更确切地,音素段存储部分存储指示彼此不同的音素的声音的多个音素段数据块。合成部分通过以下步骤生成代表文本的合成话音的语音数据:接收输入的文本,读取与指示输入文本的发音的各个音素对应的音素段数据块,然后,彼此连接读出的音素段数据块。计算部分根据语音数据计算指示文本的合成话音的不自然度的得分。意译存储部分存储作为多个第一注释的意译的多个第二注释,并将第二注释和各个第一注释关联。替换部分搜索文本以得到与任何第一注释匹配的注释,然后,用与第一注释对应的第二注释来替换搜索到的注释。在计算出的得分小于预定的参考值的情况下,判断部分输出所生成的语音数据。相反,在计算出的得分等于或大于参考值的情况下,判断部分将文本输入到合成部分中,以便使合成部分进一步生成用于替换后文本的语音数据。除此***之外,还提供了一种用此***生成合成话音的方法,以及一种使信息处理设备用作此***的程序。
注意,本发明的上述概述并未列举本发明所必需的全部特征。因此,本发明还包括这些特征的子组合。
附图说明
为了更完全地理解本发明及其优点,通过下面结合附图进行描述。
图1示出了话音合成器***10的整个配置以及与***10相关的数据。
图2示出了音素段存储部分20的数据结构的例子。
图3示出了话音合成器***10的功能配置。
图4示出了合成部分310的功能配置。
图5示出了意译存储部分340的数据结构的例子。
图6示出了单词存储部分400的数据结构的例子。
图7示出了话音合成器***10生成合成话音的处理流程图。
图8示出了在由话音合成器***10生成合成话音的处理中顺序生成的文本的具体例子。
图9示出了在用作话音合成器***10的信息处理设备500的硬件配置的例子。
具体实施方式
以下,将使用实施例来描述本发明。然而,下面的实施例并不限制在权利要求的范围内所叙述的发明。此外,在实施例中所描述的特征的全部组合并非都是本发明的解决手段所必要的。
图1示出了话音合成器***10的整个配置以及与***10相关的数据。话音合成器***10包括音素段存储部分,其中存储有多个音素段数据块。通过用对于每个因素的数据块划分目标语音数据,来预先生成音素段数据块。目标语音数据是代表作为要生成的目标的说话人的话音的数据。目标语音数据是通过记录说话人例如在大声朗读脚本等等时发出的话音而得到的数据。话音合成器***10接收文本的输入,通过语形(morphological)分析和韵律(prosodic)模型应用等来处理输入的文本,并由此生成关于将随着大声朗读文本时发出的话音而生成的每个音素的韵律(prosody)、音调等等的数据块。随后,话音合成器***10根据关于频率等等的这些所生成的数据块,从音素段存储部分20中选择和读取多个音素段数据块,然后将这些读出的音素段数据块彼此连接。在用户允许输出的情况下,将这样连接的多个音素段数据块输出作为代表该文本的合成话音的语音数据。
在此,由于成本、所需时间、话音合成器***10的计算能力等等的限制,限制了能够被存储在音素段存储部分20中的音素段数据的类型。由于这个缘故,即使当话音合成器***10计算出将随着每个音素的发音而生成的频率作为诸如韵律模型应用等等的处理结果时,在某些情况下,关于频率的音素段数据块也可能没有被存储在音素段存储部分20中。在此情况下,话音合成器***10可能为这个频率选择不适合的音素段数据块,从而导致生成低质量的合成话音。为了防止这一点,当一次生成的语音数据仅具有不够好的质量时,根据本发明的话音合成器***10旨在通过意译文本中的注释到不改变其意思的程度来改善输出的合成话音的质量。
图2示出了音素段存储部分20的数据结构的例子。音素段存储部分20存储代表彼此不同的音素的声音的多个音素段数据块。准确地说,音素段存储部分20存储每个音素的注释、话音波形数据和音调数据。例如,音素段存储部分20存储指示在具有注释“A”的某个音素的基频随时间的变化的信息,作为话音波形数据。在此,音素的基频是在组成音素的频率分量中具有最大的音量的频率分量。此外,音素段存储部分20存储具有相同注释“A”的某个音素的矢量数据,作为音调数据,该矢量数据指示包括基频在内的多个频率分量中的每一个的声音的音量和强度,作为要素。为了便于说明,图2示出了在每个音素的前端和后端处的音调数据,但是,实际上,音素段存储部分20存储指示每个频率分量的声音的音量和强度随时间的变化的数据。
照此方式,音素段存储部分20存储每个音素的话音波形数据块,因此,话音合成器***10能够通过连接话音波形数据块来生成具有多个音素的话音。顺带提及,图2只示出了音素段数据内容的一个例子,而被存储在音素段存储部分20中的音素段数据的数据结构和数据格式并不限于图2所示的那些。作为另一个例子,音素段存储部分20可以直接存储被记录的音素数据作为音素段数据,或者可以存储通过对被记录数据进行某种算法处理而得到的数据。该算法处理是例如离散余弦变换等等的处理。这样的处理允许参照在被记录数据中的所想要的频率分量,以便能够分析基频和音调。
图3示出了话音合成器***10的功能配置。话音合成器***10包括音素段存储部分20、合成部分310、计算部分320、判断部分330、显示部分335、意译存储部分340、替换部分350和输出部分370。首先,将要描述这些部分和硬件资源之间的关系。利用下面将要描述的存储器件诸如RAM1020和硬盘驱动器1040能够实现音素段存储部分20和意译存储部分340。根据被安装的程序的命令,通过下面也将要描述的CPU1000的操作,能够实现合成部分310、计算部分320、判断部分330和替换部分350。不仅可由下面也将要描述的图形控制器1075和显示器件1080还可由从用户接收的输入的定点器件和键盘来实现显示部分335。此外,由扬声器和输入/输出芯片1070来实现输出部分370。
音素段存储部分20存储如上所述的多个音素段数据块。合成部分310接收从外部输入的文本,从音素段存储部分20中读取与代表输入文本发音的各个音素对应的音素段数据块,并将这些音素段数据块彼此连接。更准确地,合成部分310首先对文本进行语形分析,从而检测在单词与每个单词的话音部分之间的边界。然后,根据关于如何大声读出每个单词(以下称为“读出方式”)的预先存储的数据,合成部分310找到当大声读出文本时应当用哪种声音频率和音调来对每个音素发音。随后,合成部分310从音素段存储部分20中读取最接近所找到的频率和音调的音素段数据块,将这些数据块彼此连接,并将连接的数据块输出到计算部分320作为代表该文本的合成话音的语音数据。
计算部分320根据从合成部分310接收的语音数据来计算指示该文本的合成语言的不自然度的得分。该得分指示在被包括在语音数据之中并且是彼此相连的第一和第二音素段数据块的边界上、在第一和第二音素段数据块之间的发音的差别程度。发音之间的差别程度是音调和基频的差别程度。实质上,由于较大的差别程度导致话音的频率等等的突然改变,所得到的合成话音使听者听起来不自然了。
判断部分330判断计算出的得分是否小于预定的参考值。在该得分等于或大于参考值的情况下,判断部分330指令替换部分350替换文本中的注释,以便生成替换后文本的新的语音数据。另一方面,在该得分小于参考值的情况下,判断部分330指令显示部分335给用户示出已为其生成了语音数据的文本。这样,显示部分335显示提示,询问用户有关是否允许根据该文本来生成合成话音。在某些情况下,该文本从外部输入而没有任何修改,或者在其他情况下,文本是作为由替换部分350数次进行替换处理的结果而生成的。
在接收到指示允许生成的输入的情况下,判断部分330向输出部分370输出所生成的语音数据。响应于此,输出部分370根据语音数据生成合成话音,并向用户输出此合成话音。另一方面,当得分等于或大于参考值时,替换部分350从判断部分330接收指令,然后开始处理。意译存储部分340存储作为多个第一注释的意译的多个第二注释,同时把第二注释和各个第一注释关联。一旦接收到了来自判断部分330的指令之后,替换部分350首先从合成部分310取得已为其进行了先前的话音合成的文本。然后,替换部分350搜索所得到的文本中的注释,以便找到与任何第一注释匹配的注释。在搜索到该注释的情况下,替换部分350用与匹配的第一注释对应的第二注释来替换搜索到的注释。随后,将具有替换了的注释的文本输入到合成部分310中,然后,根据文本生成新的语音数据。
图4示出了合成部分310的功能配置。合成部分310包括单词存储部分400、单词搜索部分410以及音素段搜索部分420。合成部分310通过使用已知的n-gram模型的方法来生成文本的读取方式,然后根据读取方式来生成语音数据。更准确地,单词存储部分400存储先前注册的多个单词中的每一个单词的读取方式,同时将读取方式和单词的注释关联。该注释是由构成单词/短语的字符串组成的,且读出方式是由例如代表发音的符号、重音(accent)或重音类型的符号构成的。单词存储部分400可以为相同的注释存储彼此不同的多个读出方式。在此情况下,对于每个读出方式而言,单词存储部分400进一步存储此读出方式被用来朗读注释的概率值。
更确切地说,对于预定数量单词的每个组合(例如,在bi-gram模型中的双单词组合)而言,单词存储部分400存储使用每种读出方式的组合来朗读单词组合的概率值。例如,对于单个单词“bokuno(我的)”,单词存储部分400不仅存储分别用第一个音节上的重音和用第二个音节上的重音来朗读单词的两种概率值,而且,当连续书写“bokuno(我的)”和“tikakuno(近的)”这两个单词时,单词存储部分400分别存储用第一个音节上的重音和用第二个音节上的重音来朗读这些接续单词的组合的两种概率值。除此之外,当连续书写单词“bokuno(我的)”和与单词“tikakuno(近的)”不同的另一个单词时,单词存储部分400还存储用每个音节上的重音来朗读连续单词的另一个组合的概率值。
可以通过以下方式来生成被存储在单词存储部分400中的关于注释、读出方式和概率值的信息:首先,识别预先被记录的目标语音数据的话音,然后,对于单词的每个组合,计数读出方式的每种组合出现的频率。换句话说,为以较高频率出现在目标语音数据中的单词和读出方式的组合存储较高的概率值。注意,优选地,音素段存储部分20存储单词的话音部分的信息,以便进一步提高话音合成的准确性。还可以通过目标语音数据的话音识别来生成关于话音部分的信息,或可以人工地把关于话音部分的信息提供给通过话音识别而得到的文本数据。
单词搜索部分410搜索单词存储部分400,以得到具有与输入文本中所包括的每个单词的注释相匹配的注释的单词,并通过从单词存储部分400中读取与搜索到的各个单词对应的读出方式,再彼此连接这些读出方式,来生成文本的读出方式。例如,在bi-gram模型中,当从开头扫描输入文本时,单词搜索部分410搜索单词存储部分400,以找到与输入文本中两个连续单词的每个组合相匹配的单词组合。然后,单词搜索部分410从单词存储部分400中读取与搜索到的单词组合对应的读出方式的组合以及对应于搜索到的单词组合的概率值。照此方式,单词搜索部分410从文本的开头到末尾检索每个都与一个单词组合相对应的多个概率值。
例如,在文本含有以该顺序的单词A、B和C的情况下,检索a1和b1的组合(概率值p1),a2和b1的组合(概率值p2),a1和b2的组合(概率值p3),a2和b2的组合(概率值p4)作为单词A和B的组合的读出方式。同样地,检索b1和c1的组合(概率值p5),b1和c2的组合(概率值p6),b2和c1的组合(概率值p7),b2和c2的组合(概率值p8)作为单词B和C的组合的读出方式。然后,单词搜索部分410选择具有各个单词组合的概率值的最大乘积的读出方式的组合,并向音素段搜索部分420输出选中的读出方式的组合,作为文本的读出方式。在此例子中,分别计算p1×p5,p1×p7,p2×p5,p2×p7,p3×p6,p3×p8,p4×p6和p4×p8的乘积,并输出与具有最大乘积的组合对应的读出方式的组合。
然后,音素段搜索部分420根据所生成的读出方式计算每个音素的目标韵律和音调,并从音素段存储部分20中检索最接近计算出的目标韵律和音调的音素段数据块。然后,音素段搜索部分420通过彼此连接多个检索的音素段数据块来生成语音数据,并将语音数据输出到计算部分320中。例如,在所生成的读出方式指示在各个音节上的一系列的重音LHHHLLH(L代表弱重音(low accent),H代表强重音(highaccent))的情况下,音素段搜索部分420计算音素的韵律,以便流畅地表述这一系列弱重音和强重音。例如,可以用话音的基频、长度和音量的变化来表述韵律。使用基频模型来计算基频,该模型是事先从说话人记录的语音数据中统计得到的。利用此基频模型,能够根据句子的重音环境、话音部分和长度来确定每个音素的基频的目标值。上述的描述只给出了从重音计算出基频的处理的一个例子。此外,根据事先统计得到的规则,通过类似的处理,也能够从发音计算出每个音素的音调、持续长度和音量。在此,不再更详细地说明根据重音和发音来确定每个音素的韵律和音调的技术,这是由于这个技术像预测韵律或音调的技术一样,至今己为人所知了。
图5示出了意译存储部分340的数据结构的例子。意译存储部分340存储作为多个第一注释的意译的多个第二注释,同时将第二注释和各个第一注释关联。此外,对于每对第一注释和第二注释的关联,意译存储部分340存储相似性得分,其指示第二注释的意思和第一注释的意思相似到何种程度。例如,意译存储部分340存储与第一注释的意译的第二注释“watasino(my)”关联的第一注释“bokuno(my)”,并进一步存储与这些注释的组合相关的相似性得分“65%”。如此例中所示,例如,用百分比来表述相似性得分。此外,可由在意译存储部分340中注册注释的操作员来输入相似性得分,或者根据作为替换处理的结果、用户使用该注释允许进行替换的概率来计算相似性得分。
当在意译存储部分340中注册了大量注释时,有时与多个不同的第二注释联合存储多个相同的第一注释。具体地,有这样一种情况,其中替换部分350找到每个都与输入文本中的注释相匹配的多个第一注释,作为比较输入文本和被存储在意译存储部分340中的第一注释的结果。在此情况下,替换部分350用与在多个第一注释中具有最高的相似性得分的第一注释对应的第二注释来替换文本中的注释。照此方式,能够把与注释联合存储的相似性得分用作为选择要用于替换的注释的指标。
此外,优选地,被存储在意译存储部分340中的第二注释是在代表目标语音数据的内容的文本中的单词的注释。例如,代表目标语音数据的内容的文本可以是被大声读出以便生成用于生成目标语音数据的话音的文本。然而,在从随意生成的话音中获得目标语音数据的情况下,文本可以是指示目标语音数据的话音识别的结果的文本,或者可以是由口述的目标语音数据的内容手写的文本。通过使用这样的文本,用在目标语音数据中使用的那些单词注释来代替单词的注释,从而能使为替换后文本输出的合成话音变得更为自然。
此外,当找到与文本中第一注释对应的多个第二注释时,替换部分350可以为多个第二注释中的每一个计算以下两个文本之间的距离:一个是用第二注释来替换输入文本中的注释而得到的文本,另一个是代表目标语音数据内容的文本。在此,这个距离是已知为得分的概念,它指示在表述意向和内容意向上两个文本之间彼此相似的程度,并且能用现有的方法来计算。在此情况下,替换部分350选择具有最短距离的文本作为要用其进行替换的文本。通过使用这个方法,在替换后,能够使基于文本的话音尽可能地接近于目标话音。
图6示出了单词存储部分400的数据结构的例子。单词存储部分400彼此关联地存储单词数据600、标音数据610、重音数据620和话音部分数据630。单词数据600代表多个单词中的每一个的注释。在图6所示的例子中,单词数据600包含“Oosaka,”、“fu,”、
Figure S2008100037617D00091
“no,”、“kata,”、“ni,”、“kagi,”、“ri,”、“ma”和“su”(仅大阪辖区居民)的多个单词的注释。此外,标音数据610和重音数据620指示多个单词中的每个单词的读出方法。标音数据(phonetic data)610指示在读出方法中的音标(phonetic transcription),重音数据620指示在读出方法中的重音。例如,通过使用字母等等的音符(phonetic symbol)来表述音标。通过为话音中的每个音素安排语音的对应的音高(pitch)级别、高(H)或低(L)级别来表述重音。此外,重音数据620可以包含重音模型,它们每个都与音素的这种高音高和低音高级别的组合相对应,并且每个都用号码来鉴别。此外,单词存储部分400可以存储如话音部分数据630所示的每个单词的话音部分。该话音部分不意味着在语法上严格的部分,而是包括被扩展地定义为适合于话音合成和分析的话音部分。例如,该话音部分可以包括构成短语尾部的后缀。
在与上述的数据类型的比较中,图6的中心部分示出了由单词搜索部分410根据上述的数据类型而生成的话音波形数据。更准确地,在输入文本“Oosakafu kagirimasu(仅大阪辖区居民)”时,单词搜索部分410用使用n-gram模型的方法得到了每个音素的较高或较低的音高级别和每个音素的音标(使用字母的音符)。然后,音素段搜索部分420生成足够平滑地变化以致合成话音不会使用户听起来不自然的基频,同时反映出音素的较高或较低的音高级别。图6的中心部分示出了这样生成的基频的一个例子。按照以此方式变化的频率是理想的。然而,在某些情况下,不能从音素段存储部分20中搜索到与频率值完全匹配的音素段数据块。因此,所得到的合成话音听起来可能不自然。为了解决这样的情况,如前所述,话音合成器***10通过有效地意译该文本到不改变其意思的程度,来使用可检索的音素段数据块。照此方式,能够改善合成话音的质量。
图7示出了话音合成器***10生成合成话音的处理流程图。当从外部接收输入的文本时,合成部分310从音素段存储部分20中读取与代表输入文本的发音的各个音素对应的音素段数据块,然后,将这些音素段数据块连接(S700)。更具体地,合成部分310首先对输入文本进行语形分析,并由此检测被包括在文本中的单词之间的边界和每个单词的话音部分。随后,通过使用事先存储在单词存储部分400中的数据,合成部分310找到当大声读出文本时应当使用哪一个音频和音调来朗读每个音素。然后,合成部分310从音素段存储部分20中读取接近于所找到的频率和音调的音素段数据块,并将这些数据块彼此相连。此后,合成部分310向计算部分320输出连接的数据块,作为代表此文本的合成话音的语音数据。
计算部分320根据从合成部分310接收的语音数据来计算指示该文本的合成话音的不自然度的得分(S710)。在此,对这部分的例子作出说明。根据在音素段数据块连接边界上的音素段数据块的发音之间的差异程度,以及基干文本读出方式的每个音素的发音和由音素段搜索部分420检索的音素段数据块的发音之间的差异程度来计算得分。下面将依次对其给以更详细的说明。
(1)在连接边界上的发音之间的差异程度
计算部分320计算在基频之间的差异程度以及在被包括在语音数据中的音素段数据块的每个连接边界上的音调之间的差异程度。基频之间的差异程度可以是基频之间的差值,或者是基频的改变率。音调之间的差异程度是代表在边界前的音调的矢量和代表在边界后的音调的矢量之间的距离。例如,在倒频谱(cepstral)空间中,音调之间的差异可以是通过对边界前和边界后的话音波形数据进行离散余弦变换而得到的矢量之间的欧几里德距离。然后,计算部分320将连接边界的差异程度相加。
当在音素段数据块的连接边界上发出诸如p或t之类的清辅音时,计算部分320判断连接边界上的差异程度为零。这是因为听者不太可能感觉到在清辅音周围的话音的不自然度,即使在音调和基频变化很大时也是这样。由于相同的缘故,当音素段数据块中的连接边界上包含暂停标志时,计算部分320判断连接边界上的差异程度为零。
(2)基于读出方式的发音和音素段数据块的发音之间的差异程度
对于语音数据中所包含的每个音素段数据块而言,计算部分320比较音素段数据块的韵律和根据音素的读出方式确定的韵律。可以根据代表基频的话音波形数据来确定韵律。例如,计算部分320可用每个话音波形数据的总频率或平均频率来进行这样的比较。然后,计算它们之间的差值,作为韵律之间的差异程度。替代地或附加地,计算部分320比较两个矢量数据:一个是代表每个音素段数据块的音调的矢量数据,一个是根据每个音素的读出方式确定的矢量数据。此后,计算部分320根据音素的前端或后端部分的音调来计算这两个矢量数据之间的距离,作为差异程度。除此之外,计算部分320还可以使用音素的发音长度。例如,单词搜索部分410根据每个音素的读出方式来计算所想要的值,作为每个音素的发音长度。另一方面,音素段搜索部分420检索代表最接近于所想要的长度值的长度的音素段数据块。在此情况下,计算部分320计算在这些发音长度之间的差,作为差异程度。
计算部分320可以通过把这样计算出的差异程度相加来得到一个值,或者通过对这些差异程度分配权重并把差异程度相加来得到一个值,作为得分。此外,计算部分320可以将每个差异程度输入到预定的评估函数,然后使用输出的值作为得分。实质上,得分可以是任何值,只要这个值指示了在连接边界上的发音之间的差异以及在基于读出方式的发音和基于音素段数据的发音之间的差异。
判断部分330判断这样计算出的得分是否等于或大于预定的参考值(S720),如果得分等于或大于预定的参考值(S720:是),则替换部分350通过比较文本和意译存储部分340来搜索文本,以得到与任何第一注释相匹配的注释(S730)。此后,替换部分350用与第一注释对应的第二注释来替换搜索到的注释。
替换部分350可以瞄准(target)文本中的所有单词作为用于替换的候选者,并可将所有单词与第一注释相比较。可选地,替换部分350可以只瞄准文本中的部分单词用于比较。优选地,即使当在部分句子中找到与第一注释匹配的注释时,替换部分350也不应该瞄准文本中的部分句子。例如,替换部分350不对含有固有名词和数值中的至少任何一个的句子替换任何注释,但是对不含固有名词或数值的句子检索与第一注释相匹配的注释。在句子中含有数值和固有名词的情况下,往往需要在意思上更加严格的准确性。因此,通过从用于替换的目标中排除这样的句子,能够防止替换部分350大量地改变这样的句子的意思。
为了使处理更加有效,替换部分350可以只将文本中的某个部分作为用于替换的候选者与第一注释相比较。例如,替换部分350从开头顺序地扫描文本,并顺序地选择被连续写在文本中的预定数量的单词的组合。在此,假设文本含有单词A、B、C、D和E,并且假设预定数量为3,则替换部分350按这个顺序选择单词ABC、BCD和CDE。然后,替换部分350计算指示与所选择的组合对应的每个合成话音的不自然度的得分。
更具体地,替换部分350把被包含在每个单词组合中的音素的连接边界上的发音之间的差异程度相加。之后,替换部分350把这个总和除以被包括在组合中的连接边界的数量,并如此计算在每个连接边界上的差异程度的平均值。此外,替换部分350将合成话音与基于与被包括在组合中的每个音素对应的读出方式的发音之间的差异程度相加,然后,通过把总和除以被包括在组合中的音素数,以得到每个音素的差异程度的平均值。此外,替换部分350计算每个连接边界的差异程度的平均值和每个音素的差异程度的平均值的总和,作为得分。然后,替换部分350搜索意译存储部分340,以得到与被包括在具有计算出的最大的得分的组合中的任何单词的注释相匹配的第一注释。例如,如果在单词ABC、BCD和CDE中BCD的得分最大,则替换部分350选择BCD并检索在与任何第一注释相匹配的BCD中的单词。
照此方式,能优先地瞄准最不自然的部分来进行替换,从而能够使整个替换处理更有效。
随后,判断部分330向合成部分310输入替换后的文本,以便合成部分310进一步生成文本的语音数据,并让处理回到S700。另一方面,在得分小于参考值的情况下(S720:否),显示部分335向用户示出替换了注释的该文本(S740)。然后,判断部分330判断是否接收了允许在显示文本中的替换的输入(S750)。在接收了允许替换的输入的情况下(S750:是),判断部分330根据替换了注释的该文本来输出语音数据(S770)。相反,在接收了不允许替换的输入的情况下(S750:否),判断部分330根据替换前的文本来输出语音数据而不管得分有多大(S760)。响应于此,输出部分370输出合成话音。
图8示出了在由话音合成器***10生成合成话音的处理中顺序生成的文本的具体例子。文本1是文本“Bokuno sobano madono dehurosutao tuketekureyo(请打开靠近我的窗户的除霜器)”。尽管合成部分310根据此文本生成了语音数据,但合成的话音仍然有不自然的声音,并且得分大于参考值(例如,0.55)。通过用“dehurosutà(除霜器)”来替换“dehurosuta(除霜器)”,生成了文本2。由于文本2仍然具有大于参考值的得分,就用“tikaku(近的)”来替换“soba(近的)”,从而生成了文本3。此后,类似地,通过用“watasino(我),”来替换“bokuno(我)”,用“chdai(请)”来替换“kureyo(请)”,并进一步用“kudasai(请),”来替换“chdai(请)”,生成了文本6。如在最后的替换中所示,已被替换了一次的单词能够再次用另一个注释来替换。
由于甚至文本6仍然具有大于参考值的得分,用“madono,(窗户).”来替换单词“madono(窗户)”。照此方式,替换前的单词或替换后的单词(这就是上述的第一和第二注释)每个都可以含有暂停标志(逗号)。此外,用“dehogg(扫雾器)”来替换单词“dehurosut(除霜器)”。因此生成的文本8具有小于参考值的得分。因此,输出部分370根据文本8输出合成话音。
图9示出了用作话音合成器***10的信息处理设备500的硬件配置的例子。信息处理设备500包括CPU***单元,输入/输出单元和传统输入/输出(legacy input/output)单元。CPU***单元包括CPU 1000、RAM 1020和图形控制器1075,它们都通过主控制器1082彼此相连。输入/输出单元包括通信接口1030、硬盘驱动器1040和CD-ROM驱动器1060,它们都通过输入/输出控制器1084与主控制器1082相连。传统输入/输出单元包括ROM 1010、软盘驱动器1050和输入/输出芯片1070,它们全都与输入/输出控制器1084相连。
主控制器1082将RAM1020连接到两者都以高传输率存取RAM1020的CPU1000和图形控制器1075上。CPU1000根据被存储在ROM1010和RAM1020中的程序来操作,并控制每个组件。图形控制器1075获取在RAM1020内提供的帧缓存器中、由CPU1000等等生成的图像数据,并使所得到的图像数据显示在显示器件1080上。可选地,图形控制器1075也可以内部包括存储由CPU1000等等生成的图像数据的帧缓存器。
输入/输出控制器1084将主控制器1082连接到通信接口1030、硬盘驱动器1040和CD-ROM驱动器1060上,它们全都是速度较高的输入/输出器件。通信接口1030通过网络与外部器件通信。硬盘驱动器1040存储将被信息处理设备500使用的程序和数据。CD-ROM驱动器1060从CD-ROM1095读取程序和数据,并将读出的程序和数据提供给RAM1020或硬盘驱动器1040。
此外,输入/输出控制器1084被连接于ROM1010以及诸如软盘驱动器1050和输入/输出芯片1070的速度较低的输入/输出器件。ROM1010存储诸如在信息处理设备500启动时由CPU1000执行的引导程序的程序,以及与信息处理设备500的硬件相关的程序。软盘驱动器1050从软盘1090读取程序或数据,并通过输入/输出芯片1070将读出的程序或数据提供给RAM1020或硬盘驱动器1040。输入/输出芯片1070被连接于软盘驱动器1050以及具有例如并行端口、串行端口、键盘端口、鼠标端口等等的各种输入/输出器件。
由用户提供将被提供给信息处理设备500的程序,其中该程序被存储在诸如软盘1090、CD-ROM1095和IC卡的记录介质中。通过输入/输出芯片1070和/或输入/输出控制器1084从记录介质读取程序,并将其安装在信息处理设备500上。然后,执行此程序。由于程序使信息处理设备500执行的操作与参照图1到图8所述的话音合成器***的操作相同,在此省略其说明。
可以将上述的程序存储在外部存储介质上。除了软盘1090和CD-ROM1095以外,将被使用的存储介质的例子是诸如DVD或PD的光记录介质以及诸如MD、磁带介质的磁光记录介质,以及诸如IC卡的半导体存储器。可选地,通过使用被提供在与私人通信网络或英特网相连的服务器***中的诸如硬盘和RAM存储器件作为记录介质,可以经由网络向信息处理设备500提供程序。
如上所述,通过顺序意译该注释到不大量地改变注释意思的程度,此实施例的话音合成器***10能够在文本中搜索到使音素段的组合听起来更自然的注释,从而改善合成话音的质量。照此方式,即使当声音处理、诸如组合音素的处理或改变频率的处理在质量的改善上有局限时,也能够生成质量高得多的合成话音。通过使用在音素等等之间的连接边界上的发音之间的差异程度来准确评估话音的质量。从而,能够准确判断是否要替换注释以及应当替换文本中的哪个部分。
上文中已用实施例说明了本发明。然而,本发明的技术范围并不限于上述的实施例。显然本领域技术人员可以对此实施例进行各种修改和改善。从本发明的权利要求的范围来看,显然,如此修改和改善了的实施例被包含在本发明的技术范围之中。

Claims (12)

1.一种用于生成合成话音的***,该***包括:
音素段存储部分,用于存储指示彼此不同的音素的声音的多个音素段数据块;
合成部分,用于通过接收输入文本、读取与指示所述输入文本的发音的各个音素对应的音素段数据块、然后将读出的音素段数据块彼此相连,来生成代表所述文本的合成话音的语音数据;
计算部分,用于根据所述语音数据来计算指示所述文本的合成话音的不自然度的得分;
意译存储部分,用于存储作为多个第一注释的意译的多个第二注释,并将所述第二注释与各个所述第一注释关联;
替换部分,用于搜索所述文本以找到与任何所述第一注释相匹配的注释,并用与所述第一注释对应的所述第二注释来替换搜索到的注释;以及
判断部分,用于在计算出的得分小于预定的参考值的情况下,输出所生成的语音数据,并在所述得分等于或大于所述参考值的情况下,将所述文本输入到所述合成部分中,以便使所述合成部分进一步生成用于替换后文本的语音数据。
2.根据权利要求1的***,其中,所述计算部分计算在所述第一和第二音素段数据块之间的边界上、在所述第一和第二音素段数据块之间的发音的差异程度作为所述得分,其中,所述第一和第二音素段数据块被包含在所述语音数据中并彼此相连。
3.根据权利要求2的***,其中,
所述音素段存储部分存储代表每个音素的声音的基频和音调的数据块,作为所述音素段数据块;以及
所述计算部分计算在所述第一和第二音素段数据块之间的边界上、在所述第一和第二音素段数据块之间的基频和音调的差异程度作为所述得分。
4.根据权利要求1的***,其中,
所述合成部分包括:
单词存储部分,用于把多个单词中的每一个单词的读出方式与该单词的注释相关联地存储;
单词搜索部分,用于搜索所述单词存储部分以得到其注释与所述输入文本中所包括的每个单词的注释相匹配的单词,并通过从所述单词存储部分中读取与各个搜索到的单词对应的读出方式、并将这些读出方式彼此连接,来生成所述文本的读出方式;以及
音素段搜索部分,用于通过从所述音素段存储部分中检索代表最接近于根据所生成的读出方式确定的每个音素韵律的韵律的音素段数据块、然后将检索到的多个音素段数据块彼此连接,来生成语音数据,以及
所述计算部分计算根据所生成的读出方式确定的每个音素的韵律与对应于每个音素而检索的所述音素段数据块所指示的韵律之间的差异,作为所述得分。
5.根据权利要求1的***,其中,所述合成部分包括:
单词存储部分,用于把多个单词中的每一个单词的读出方式与该单词的注释相关联地存储;
单词搜索部分,用于搜索所述单词存储部分以得到其注释与所述输入文本中所包括的每个单词的注释相匹配的单词,并通过从所述单词存储部分中读取与各个搜索到的单词对应的读出方式、并将这些读出方式彼此连接,来生成所述文本的读出方式;
音素段搜索部分,通过从所述音素段存储部分中检索代表最接近于根据所生成的读出方式确定的每个音素音调的音调的音素段数据块、然后把检索的多个音素段数据块彼此相连,来生成所述语音数据,以及
所述计算部分计算根据所生成的读出方式确定的每个音素的音调与由对应于每个音素而检索的所述音素段数据块所指示的音调之间的差异,作为所述得分。
6.根据权利要求1的***,其中,
所述音素段存储部分预先得到目标语音数据、即用于生成合成话音的目标说话人的语音数据,然后预先生成并存储代表所述目标语音数据中所包括的多个音素的声音的多个音素段数据块;
所述意译存储部分存储代表所述目标语音数据内容的文本中所包括的单词的注释,作为多个第二注释中的每一个,以及
所述替换部分用作为代表所述目标语音数据内容的文本中所包括的单词的注释的所述第二注释之一来替换所述输入文本中所包括的、且与任何所述第一注释相匹配的注释。
7.根据权利要求1的***,其中,
所述替换部分计算指示与被连续书写在所述输入文本中的预定数量的单词的每个组合对应的合成话音的不自然度的得分,并搜索所述意译存储部分以得到与具有如此计算出的最大得分的组合中所包括的单词的注释相匹配的所述第一注释,并用所述第二注释替换所述单词的注释。
8.根据权利要求1的***,其中,
所述意译存储部分还存储与第一注释和作为所述第一注释的意译的第二注释的每个组合相关联的相似性得分,所述相似性得分指示在所述第一注释和所述第二注释的意思之间的相似程度,以及
在所述输入文本中所包括的注释与多个第一注释中的每一个相匹配的情况下,所述替换部分用与多个第一注释中具有最高相似性得分的一个注释对应的所述第二注释来替换匹配的注释。
9.根据权利要求1的***,其中,
所述替换部分不替换含有固有名词和数值中的至少任何一个的句子的注释,而是搜索不含固有名词和数值中的任何一个的句子,以找到与任何所述第一注释相匹配的注释,并用与所述第一注释对应的所述第二注释替换所找到的注释。
10.根据权利要求1的***,进一步包括显示部分,用于在所述替换部分替换注释的情况下,向用户显示替换了注释的文本,其中,
还在接收了在显示的文本中的允许该替换的输入的情况下,所述判断部分根据替换了注释的文本来输出语音数据,并且在没有接收到在显示的文本中的允许该替换的输入的情况下,所述判断部分根据替换前的文本来输出语音数据,而不管得分有多大。
11.一种用于生成合成话音的方法,包括如下步骤:
存储指示彼此不同的音素的声音的多个音素段数据块;
通过接收输入文本、读取与指示所述输入文本的发音的各个音素对应的所述音素段数据块、然后彼此连接所读出的音素段数据块,来生成代表所述文本的合成话音的语音数据;
根据所述语音数据计算代表所述文本的合成语言的不自然度的得分;
存储作为多个第一注释的意译的多个第二注释,同时将所述第二注释与各个所述第一注释相关联;
搜索所述文本以得到与任何所述第一注释相匹配的注释,并用与所述第一注释对应的所述第二注释来替换搜索到的注释;以及
在计算出的得分小于预定的参考值的情况下,输出所生成的语音数据,并在所述得分等于或大于参考值的情况下,进一步生成合成话音,以便进一步生成替换后文本的语音数据。
12.一种程序,允许信息处理设备用作生成合成话音的***,该程序使所述信息设备用作:
音素段存储部分,用于存储指示彼此不同的音素的声音的多个音素段数据块;
合成部分,用于通过接收输入文本、读取与指示所述输入文本的发音的各个音素对应的音素段数据块、然后将读出的音素段数据块彼此相连,来生成代表所述文本的合成话音的语音数据;
计算部分,用于根据所述语音数据来计算指示所述文本的合成话音的不自然度的得分;
意译存储部分,用于存储作为多个第一注释的意译的多个第二注释,并将所述第二注释与各个所述第一注释关联;
替换部分,用于搜索所述文本以找到与任何所述第一注释相匹配的注释,并用与所述第一注释对应的所述第二注释来替换搜索到的注释;以及
判断部分,用于在计算出的得分小于预定的参考值的情况下,输出所生成的语音数据,并在所述得分等于或大于所述参考值的情况下,将所述文本输入到所述合成部分中,以便使所述合成部分进一步生成用于替换后文本的语音数据。
CN2008100037617A 2007-01-30 2008-01-22 生成高质量话音的***和方法 Expired - Fee Related CN101236743B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007019433A JP2008185805A (ja) 2007-01-30 2007-01-30 高品質の合成音声を生成する技術
JP019433/07 2007-01-30

Publications (2)

Publication Number Publication Date
CN101236743A true CN101236743A (zh) 2008-08-06
CN101236743B CN101236743B (zh) 2011-07-06

Family

ID=39668963

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008100037617A Expired - Fee Related CN101236743B (zh) 2007-01-30 2008-01-22 生成高质量话音的***和方法

Country Status (3)

Country Link
US (1) US8015011B2 (zh)
JP (1) JP2008185805A (zh)
CN (1) CN101236743B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105340004A (zh) * 2013-06-28 2016-02-17 谷歌公司 用于发音学习的计算机实现的方法、计算机可读介质和***
CN106575500A (zh) * 2014-09-25 2017-04-19 英特尔公司 基于面部结构合成话音的方法和装置
CN108140384A (zh) * 2015-10-15 2018-06-08 雅马哈株式会社 信息管理***和信息管理方法
CN109599092A (zh) * 2018-12-21 2019-04-09 秒针信息技术有限公司 一种音频合成方法及装置
CN109947955A (zh) * 2019-03-21 2019-06-28 深圳创维数字技术有限公司 语音搜索方法、用户设备、存储介质及装置

Families Citing this family (211)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US20080167876A1 (en) * 2007-01-04 2008-07-10 International Business Machines Corporation Methods and computer program products for providing paraphrasing in a text-to-speech system
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
JP5238205B2 (ja) * 2007-09-07 2013-07-17 ニュアンス コミュニケーションズ,インコーポレイテッド 音声合成システム、プログラム及び方法
US8583438B2 (en) * 2007-09-20 2013-11-12 Microsoft Corporation Unnatural prosody detection in speech synthesis
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
JP5398295B2 (ja) 2009-02-16 2014-01-29 株式会社東芝 音声処理装置、音声処理方法及び音声処理プログラム
JP5269668B2 (ja) * 2009-03-25 2013-08-21 株式会社東芝 音声合成装置、プログラム、及び方法
WO2010119534A1 (ja) * 2009-04-15 2010-10-21 株式会社東芝 音声合成装置、方法およびプログラム
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US20120309363A1 (en) 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
CN102652336B (zh) * 2009-12-28 2015-02-18 三菱电机株式会社 声音信号复原装置以及声音信号复原方法
CN102203853B (zh) * 2010-01-04 2013-02-27 株式会社东芝 合成语音的方法和装置
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US8977584B2 (en) 2010-01-25 2015-03-10 Newvaluexchange Global Ai Llp Apparatuses, methods and systems for a digital conversation management platform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
JP5296029B2 (ja) * 2010-09-15 2013-09-25 株式会社東芝 文章提示装置、文章提示方法及びプログラム
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US9286886B2 (en) * 2011-01-24 2016-03-15 Nuance Communications, Inc. Methods and apparatus for predicting prosody in speech synthesis
US8781836B2 (en) * 2011-02-22 2014-07-15 Apple Inc. Hearing assistance system for providing consistent human speech
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US8767978B2 (en) 2011-03-25 2014-07-01 The Intellisis Corporation System and method for processing sound signals implementing a spectral motion transform
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US9183850B2 (en) 2011-08-08 2015-11-10 The Intellisis Corporation System and method for tracking sound pitch across an audio signal
US8548803B2 (en) * 2011-08-08 2013-10-01 The Intellisis Corporation System and method of processing a sound signal including transforming the sound signal into a frequency-chirp domain
US8620646B2 (en) 2011-08-08 2013-12-31 The Intellisis Corporation System and method for tracking sound pitch across an audio signal using harmonic envelope
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US20130080172A1 (en) * 2011-09-22 2013-03-28 General Motors Llc Objective evaluation of synthesized speech attributes
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US9311913B2 (en) * 2013-02-05 2016-04-12 Nuance Communications, Inc. Accuracy of text-to-speech synthesis
CN104969289B (zh) 2013-02-07 2021-05-28 苹果公司 数字助理的语音触发器
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US9922642B2 (en) 2013-03-15 2018-03-20 Apple Inc. Training an at least partial voice command system
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
EP3937002A1 (en) 2013-06-09 2022-01-12 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
CN105265005B (zh) 2013-06-13 2019-09-17 苹果公司 用于由语音命令发起的紧急呼叫的***和方法
WO2015020942A1 (en) 2013-08-06 2015-02-12 Apple Inc. Auto-activating smart responses based on activities from remote devices
JP6391925B2 (ja) * 2013-09-20 2018-09-19 株式会社東芝 音声対話装置、方法およびプログラム
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
CN106233373B (zh) * 2014-04-15 2017-07-07 三菱电机株式会社 信息提供装置及信息提供方法
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
WO2015184186A1 (en) 2014-05-30 2015-12-03 Apple Inc. Multi-command single utterance input method
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9606986B2 (en) 2014-09-29 2017-03-28 Apple Inc. Integrated word N-gram and class M-gram language models
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9922668B2 (en) 2015-02-06 2018-03-20 Knuedge Incorporated Estimating fractional chirp rate with multiple frequency representations
US9842611B2 (en) 2015-02-06 2017-12-12 Knuedge Incorporated Estimating pitch using peak-to-peak distances
US9870785B2 (en) 2015-02-06 2018-01-16 Knuedge Incorporated Determining features of harmonic signals
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9552810B2 (en) 2015-03-31 2017-01-24 International Business Machines Corporation Customizable and individualized speech recognition settings interface for users with language accents
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9990916B2 (en) * 2016-04-26 2018-06-05 Adobe Systems Incorporated Method to synthesize personalized phonetic transcription
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
CN107452369B (zh) * 2017-09-28 2021-03-19 百度在线网络技术(北京)有限公司 语音合成模型生成方法和装置
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10600404B2 (en) * 2017-11-29 2020-03-24 Intel Corporation Automatic speech imitation
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10944859B2 (en) 2018-06-03 2021-03-09 Apple Inc. Accelerated task performance
US10706347B2 (en) 2018-09-17 2020-07-07 Intel Corporation Apparatus and methods for generating context-aware artificial intelligence characters
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
JPWO2020129422A1 (ja) * 2018-12-20 2021-11-11 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
KR102430020B1 (ko) * 2019-08-09 2022-08-08 주식회사 하이퍼커넥트 단말기 및 그것의 동작 방법
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
CN111402857B (zh) * 2020-05-09 2023-11-21 广州虎牙科技有限公司 语音合成模型训练方法和装置、电子设备及存储介质
US11183193B1 (en) 2020-05-11 2021-11-23 Apple Inc. Digital assistant hardware abstraction
US11915714B2 (en) * 2021-12-21 2024-02-27 Adobe Inc. Neural pitch-shifting and time-stretching

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0833744B2 (ja) * 1986-01-09 1996-03-29 株式会社東芝 音声合成装置
EP0730798A1 (en) * 1993-11-25 1996-09-11 BRITISH TELECOMMUNICATIONS public limited company Method and apparatus for testing telecommunications equipment
DE69626115T2 (de) * 1995-07-27 2003-11-20 British Telecommunications P.L.C., London Signalqualitätsbewertung
US6366883B1 (en) * 1996-05-15 2002-04-02 Atr Interpreting Telecommunications Concatenation of speech segments by use of a speech synthesizer
AU772874B2 (en) * 1998-11-13 2004-05-13 Scansoft, Inc. Speech synthesis using concatenation of speech waveforms
US20030028380A1 (en) * 2000-02-02 2003-02-06 Freeland Warwick Peter Speech system
US20020120451A1 (en) * 2000-05-31 2002-08-29 Yumiko Kato Apparatus and method for providing information by speech
JP3593563B2 (ja) 2001-10-22 2004-11-24 独立行政法人情報通信研究機構 話し言葉による音声出力装置及びソフトウェア
US7024362B2 (en) * 2002-02-11 2006-04-04 Microsoft Corporation Objective measure for estimating mean opinion score of synthesized speech
JP4264030B2 (ja) * 2003-06-04 2009-05-13 株式会社ケンウッド 音声データ選択装置、音声データ選択方法及びプログラム
US7386451B2 (en) * 2003-09-11 2008-06-10 Microsoft Corporation Optimization of an objective measure for estimating mean opinion score of synthesized speech
WO2005071663A2 (en) * 2004-01-16 2005-08-04 Scansoft, Inc. Corpus-based speech synthesis based on segment recombination
JP2006018133A (ja) * 2004-07-05 2006-01-19 Hitachi Ltd 分散型音声合成システム、端末装置及びコンピュータ・プログラム
JP4551803B2 (ja) * 2005-03-29 2010-09-29 株式会社東芝 音声合成装置及びそのプログラム
US8036894B2 (en) * 2006-02-16 2011-10-11 Apple Inc. Multi-unit approach to text-to-speech synthesis
US20080059190A1 (en) * 2006-08-22 2008-03-06 Microsoft Corporation Speech unit selection using HMM acoustic models

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105340004A (zh) * 2013-06-28 2016-02-17 谷歌公司 用于发音学习的计算机实现的方法、计算机可读介质和***
CN105340004B (zh) * 2013-06-28 2019-09-10 谷歌有限责任公司 用于发音学习的计算机实现的方法、计算机可读介质和***
CN106575500A (zh) * 2014-09-25 2017-04-19 英特尔公司 基于面部结构合成话音的方法和装置
CN108140384A (zh) * 2015-10-15 2018-06-08 雅马哈株式会社 信息管理***和信息管理方法
CN109599092A (zh) * 2018-12-21 2019-04-09 秒针信息技术有限公司 一种音频合成方法及装置
CN109947955A (zh) * 2019-03-21 2019-06-28 深圳创维数字技术有限公司 语音搜索方法、用户设备、存储介质及装置

Also Published As

Publication number Publication date
US8015011B2 (en) 2011-09-06
JP2008185805A (ja) 2008-08-14
CN101236743B (zh) 2011-07-06
US20080183473A1 (en) 2008-07-31

Similar Documents

Publication Publication Date Title
CN101236743B (zh) 生成高质量话音的***和方法
Yamagishi et al. Thousands of voices for HMM-based speech synthesis–Analysis and application of TTS systems built on various ASR corpora
CN101785048B (zh) 基于hmm的双语(普通话-英语)tts技术
US8036894B2 (en) Multi-unit approach to text-to-speech synthesis
US7716052B2 (en) Method, apparatus and computer program providing a multi-speaker database for concatenative text-to-speech synthesis
US20080177543A1 (en) Stochastic Syllable Accent Recognition
EP0833304A2 (en) Prosodic databases holding fundamental frequency templates for use in speech synthesis
Chang et al. A system for spoken query information retrieval on mobile devices
Patil et al. A syllable-based framework for unit selection synthesis in 13 Indian languages
US8380508B2 (en) Local and remote feedback loop for speech synthesis
US20080243508A1 (en) Prosody-pattern generating apparatus, speech synthesizing apparatus, and computer program product and method thereof
JP4038211B2 (ja) 音声合成装置,音声合成方法および音声合成システム
US8626510B2 (en) Speech synthesizing device, computer program product, and method
US10699695B1 (en) Text-to-speech (TTS) processing
CN101504643A (zh) 声音处理***、声音处理程序以及声音处理方法
Hamza et al. The IBM expressive speech synthesis system.
JP3085631B2 (ja) 音声合成方法及びシステム
Chen et al. The ustc system for blizzard challenge 2011
JP2006293026A (ja) 音声合成装置,音声合成方法およびコンピュータプログラム
Chu et al. A concatenative Mandarin TTS system without prosody model and prosody modification.
Tsai et al. Automatic identification of the sung language in popular music recordings
JP3981619B2 (ja) 収録リスト取得装置と音声素片データベース作成装置、及びそれらの装置プログラム
JP3201329B2 (ja) 音声合成装置
Houidhek et al. Evaluation of speech unit modelling for HMM-based speech synthesis for Arabic
JP2005181998A (ja) 音声合成装置および音声合成方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: NEW ANST COMMUNICATION CO.,LTD.

Free format text: FORMER OWNER: INTERNATIONAL BUSINESS MACHINE CORP.

Effective date: 20090925

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20090925

Address after: Massachusetts, USA

Applicant after: Nuance Communications Inc

Address before: New York grams of Armand

Applicant before: International Business Machines Corp.

C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20110706

Termination date: 20170122

CF01 Termination of patent right due to non-payment of annual fee