CN102243870A - 语音合成中的语音调节 - Google Patents

语音合成中的语音调节 Download PDF

Info

Publication number
CN102243870A
CN102243870A CN2011101236709A CN201110123670A CN102243870A CN 102243870 A CN102243870 A CN 102243870A CN 2011101236709 A CN2011101236709 A CN 2011101236709A CN 201110123670 A CN201110123670 A CN 201110123670A CN 102243870 A CN102243870 A CN 102243870A
Authority
CN
China
Prior art keywords
speaker
voice
text
voice output
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2011101236709A
Other languages
English (en)
Inventor
J.M.斯蒂芬
G.塔尔瓦
R.琴加尔瓦拉延
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
General Motors LLC
General Motors Co
Original Assignee
General Motors Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Motors Co filed Critical General Motors Co
Publication of CN102243870A publication Critical patent/CN102243870A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • G10L21/007Changing voice quality, e.g. pitch or formants characterised by the process used
    • G10L21/013Adapting to target pitch
    • G10L2021/0135Voice conversion or morphing

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Navigation (AREA)

Abstract

本发明涉及语音合成中的语音调节。一种用于语音合成的方法和***,第一文本输入和第二文本输入接收在文本至语音***中,并且使用所述***的处理器处理为分别与第一说话者和第二说话者的所存储语音相应的各自的第一语音输出和第二语音输出。第二说话者的第二语音输出调节成听起来像第一说话者的第一语音输出。

Description

语音合成中的语音调节
技术领域
本发明总体涉及语音信号处理,且更具体地,涉及语音合成。
背景技术
语音合成是通过人工方法从文本产生语音。例如,文本至语音(TTS)***从文本合成语音,以向传统计算机到人可视输出设备,例如计算机监视器或显示器提供替换物。存在多种TTS合成的变体,包括共振峰TTS合成以及拼接调整TTS合成。共振峰TTS合成不输出记录的人类语音,而是输出计算机产生的音频,其听起来是人工的或机器人的。在拼接调整TTS合成中,存储的人类语音段被拼接,并输出以产生听起来更加平滑的,更加自然的语音。
TTS***可以包括下面的基本元素。原始文本源包括将被合成到语音的词语、数字、符号、缩略语和/或标点。语音数据库包括来自一个或多个人的预先记录的语音。预处理器将原始文本转换为与书写的词语等同的输出。合成引擎按照发音转录预处理器输出,并且将预处理器输出转换为适当的语言单元,例如,句子、从句和/或短语。单元选择器从语音数据库选择与来自合成引擎的语言单元最好地相应的语音单元。声学接口将选择的语音单元转换为音频信号,并且扬声器将语音信号转换为可听语音。
TTS合成遇到的一个问题是一些应用会使用从具有明显不同声音的不同人记录的语音。例如,TTS使能的车辆导航***使用具有多个部分语法的声音导航,可包括定向调动话语(例如,“执行合法的到…的掉头”)和街道名称话语(例如,“North Telegraph Road”)。调动话语可以由导航服务提供者的第一发话者产生,街道名称话语可以由地图数据提供者的第二发话者产生。当在语音导航期间将话语一起播放时,组合的话语会使用户听起来不舒服。例如,用户可能察觉到从调动话语到街道名称话语的转变,例如,由于发话者之间语调的差异。
发明内容
根据本发明的一方面,提供一种语音合成的方法。所述方法包括步骤(a)在文本至语音***中接收第一文本输入和第二文本输入;(b)使用所述***的处理器将第一文本输入和第二文本输入处理为分别与第一说话者和第二说话者的所存储语音相应的各自的第一语音输出和第二语音输出;以及(c)使第二说话者的第二语音输出调节成听起来像第一说话者的第一语音输出。
根据本发明的另一方面,提供一种计算机程序产品,其包括在计算机可读介质上并且由文本至语音***的计算机处理器可执行以使***实施上述步骤的指令。
根据本发明的额外方面,提供一种语音合成***,包括:第一文本源;第二文本源;第一语音数据库,包括预先记录的来自第一说话者的语音;第二语音数据库,包括预先记录的来自第二说话者的语音;和预处理器,将文本转换成能够合成的输出。所述***还包括处理器,将来自第一文本源和第二文本源的第一文本输入和第二文本输入转换为分别与第一说话者和第二说话者的预先记录的语音相应的各自的第一语音输出和第二语音输出;以及后处理器,使第二说话者的第二语音输出调节成听起来像第一说话者的第一语音输出。
本发明还提供如下方案:
1. 一种语音合成的方法,其包括步骤:
(a)在文本至语音***中接收第一文本输入和第二文本输入;
(b)使用所述***的处理器将第一文本输入和第二文本输入处理为与分别来自第一说话者和第二说话者的所存储语音相应的各自的第一语音输出和第二语音输出;以及
(c)使第二说话者的第二语音输出调节成听起来像第一说话者的第一语音输出。
2. 如方案1所述的方法,还包括步骤:
(d)输出第一说话者的第一语音输出;以及
(e)输出第二说话者的经调解的第二语音输出。
3. 如方案2所述的方法,其中,所述第一语音输出是导航指令,而所述第二语音输出是导航变量。
4. 如方案3所述的方法,其中,所述导航指令是定向调动,而所述导航变量是街道名称。
5. 如方案2所述的方法,还包括步骤:(f)修改结合处理来自第二说话者的所存储语音使用的模型。
6. 如方案5所述的方法,其中,步骤(f)包括修改隐马尔可夫模型。
7. 如方案1所述的方法,其中,步骤(c)包括:
(c1)对于第一说话者的至少一个说话者特定特性分析第一语音输出的声学特征;
(c2)基于第一说话者的所述至少一个说话者特定特性,调整用于滤波来自第二语音输出的声学特征的声学特征滤波器;以及
(c3)使用步骤(c2)中调整的滤波器滤波来自第二语音输出的声学特征。
8. 如方案7所述的方法,其中,步骤(c3)包括:调整梅尔频率倒频谱滤波器的至少一个参数,数包括滤波器组中心频率、滤波器组截止频率、滤波器组带宽、滤波器组形状或滤波器增益的至少一个。
9. 如方案7所述的方法,其中,所述至少一个说话者特定特性包括声道或鼻腔相关特性中的至少一个。
10. 如方案9所述的方法,其中,所述特性包括长度、形状、转换函数、格式或音调频率中的至少一个。
11. 一种计算机程序产品,其包括在计算机可读介质上且由语音合成***的计算机处理器可执行以使***实施下述步骤的指令,所述步骤包括:
(a)在文本至语音***中接收第一文本输入和第二文本输入;
(b)使用所述***的处理器将第一文本输入和第二文本输入处理为与分别来自第一说话者和第二说话者的所存储语音相应的各自的第一语音输出和第二语音输出;以及
(c)使第二说话者的第二语音输出调节成听起来像第一说话者的第一语音输出。
12. 如方案11所述的产品,其中,步骤(c)包括:
(c1)对于第一说话者的至少一个说话者特定特性分析第一语音输出的声学特征;
(c2)基于第一说话者的所述至少一个说话者特定特性,调整用于滤波来自第二语音输出的声学特征的声学特征滤波器;以及
(c3)使用步骤(c2)中调整的滤波器滤波来自第二语音输出的声学特征。
13. 一种语音合成***,其包括:
第一文本源;
第二文本源;
第一语音数据库,包括预先记录的来自第一说话者的语音;
第二语音数据库,包括预先记录的来自第二说话者的语音;
预处理器,其将文本转换成能够合成的输出;
处理器,其将来自第一文本源和第二文本源的第一文本输入和第二文本输入转换为与分别来自第一说话者和第二说话者的预先记录的语音相应的各自的第一语音输出和第二语音输出;以及
后处理器,其使第二说话者的第二语音输出调节成听起来像第一说话者的第一语音输出。
14. 如方案13所述的***,还包括:
声学接口,其将语音输出转换为音频信号;以及
扬声器,其将音频信号转换为可听语音。
15. 如方案14所述的***,其中,所述扬声器输出第一说话者的第一语音输出,并输出经调节的第二说话者的第二语音输出。
16. 如方案13所述的***,其中,所述后处理器修改结合处理来自第二说话者的所存储的语音使用的模型。
17. 如方案13所述的***,其中,所述后处理器对于第一说话者的至少一个说话者特定特性分析第一语音输出的声学特征,基于第一说话者的所述至少一个说话者特定特性调整用于滤波来自第二语音输出的声学特征的声学特征滤波器,以及使用调整的滤波器滤波来自第二语音输出的声学特征。
18. 如方案17所述的***,其中,所述后处理器调整梅尔频率倒频谱滤波器的至少一个参数,包括滤波器组中心频率、滤波器组截止频率、滤波器组带宽、滤波器组形状或滤波器增益的至少一个。
附图说明
下面将结合附图描述本发明的一个或多个优选的示例性实施例,在附图中,相似的标识表示相似的元件,并且其中:
图1是描绘能够利用在此公开的方法的通信***的示例性实施例的框图;
图2是示出能够与图1的***一起使用且用于实施语音合成的示例性方法的TTS***的示例性实施例的框图;以及
图3是示出TTS方法的示例性实施例的流程图。
具体实施方式
下面的描述描绘了示例通信***、能够与通信***一起使用的示例文本至语音(TTS)***以及能够与上述***中的一个或两个一起使用的一个或多个示例方法。下述方法可由车辆远程信息处理单元(VTU)使用作为合成语言以便输出到VTU的用户的一部分。尽管下述方法是在程序执行或运行期间可以在导航背景中被实施用于VTU,但是将理解,它们可以用于任何类型的TTS***和其他类型TTS***,以及用于除了导航背景之外的背景。在一个特定示例中,所述方法不仅可以用在程序运行期间,而且可以或替代地在用户激活***或程序使用之前在训练TTS***中使用。
通信***:
参照图1,示出包括移动车辆通信***10且可以用于实施在此公开的方法的示例性操作环境。通信***10大体包括车辆12、一个或多个无线载波***14、地面通信网络16、计算机18和呼叫中心20。应该理解,公开的方法可以与任何数量的不同***一起使用,并且不被具体地限制到在此示出的操作环境。另外,***10的架构、结构、设置和操作以及其各个组件在本领域通常是公知的。因此,下面的段落仅提供一种这样的示例性***10的简要概述,然而,在此没有示出的其他***也可以采用所公开的方法。
在示出的实施例中将车辆12描述为客车,但是应该理解,也可以使用任何其他交通工具,包括摩托车、卡车、运动型多功能车(SUV)、休闲车(RV)、船只、航空器等。图1中大体示出一些车辆电子设备28,其包括远程信息处理单元30、麦克风32、一个或多个按钮或其他控制输入34、音频***36、可视显示器38和GPS模块40以及多个车辆***模块(VSM)42。这些设备的一些可以直接连接到远程信息处理单元,例如,麦克风32和(多个)按钮34,而其他使用一个或多个网络连接诸如通信总线44或娱乐总线46间接连接到远程信息处理单元。适当网络连接的示例包括控制器区域网络(CAN)、媒体导向***传输(MOST)、本地互连网络(LIN)、局域网(LAN)和其他适当连接,诸如符合已知ISO、SAE和IEEE标准和规范的以太网或其他,仅列出一些。
远程信息处理单元30是OEM安装的设备,其能够通过无线载波***14和通过无线联网进行无线语音和/或数据通信,使得车辆能够与呼叫中心20、其他远程信息处理使能的车辆或一些其他实体或设备进行通信。远程信息处理单元优选地使用无线电传输来建立与无线载波***14的通信信道(语音信道和/或数据信道),使得能够通过信道发送和接收语音和/或数据传输。通过提供语音和数据通信,远程信息处理单元30使得车辆能够提供多种不同服务,包括与导航、电话、紧急援助、诊断、信息娱乐等相关的服务。可以使用本领域中已知的技术通过数据连接诸如通过数据信道的包数据传输或者通过语音信道发送数据。对于包括语音通信(例如,在呼叫中心20使用在线指导或语音响应单元)和数据通信(例如,以向呼叫中心20提供GPS位置数据或车辆诊断数据)的组合服务,***可以使用通过语音信道的单独呼叫以及按照需要在语音信道上进行语音和数据传输之间的切换,并且这可以使用本领域技术人员公知的技术来实施。
根据一个实施例,远程信息处理单元30使用根据GSM或CDMA标准的蜂窝通信,因此包括用于语音通信(例如,免提通话)的标准蜂窝芯片组50、用于数据通信的无线调制解调器、电子处理设备52、一个或多个数字存储设备54和双天线56。应该理解,可以通过存储在远程信息处理单元中且通过处理器52执行的软件实现调制解调器,或者调制解调器可以是位于远程信息处理单元30内部或外部的分立硬件组件。调制解调器可以使用任何数量的不同标准和协议诸如EVDO、CDMA、GPRS和EDGE来运行。也可以使用远程信息处理单元30实施车辆与其他联网的设备之间的无线联网。为此,远程信息处理单元30可以被配置为根据一个或多个无线协议诸如IEEE 802.11协议、WiMAX或蓝牙进行无线通信。当用于诸如TCP/IP的分组交换数据通信时,远程信息处理单元可以配置有静态IP地址或者能够设置为自动接收来自网络上的另一设备诸如路由器或者来自网络地址服务器的所分配的IP地址。
处理器52可以是能够处理电子指令的任何类型的设备,包括微处理器、微控制器、主处理器、控制器、车辆通信处理器和专用集成电路(ASIC)。其可以是仅用于远程信息处理单元30的专用处理器,或者可以与其他车辆***共享。处理器52执行各种类型的数字存储指令,诸如存储器54中存储的软件或固件程序,其使远程信息处理单元能够提供多种类型的服务。例如,处理器52能够执行程序或处理数据,以实施在此讨论的方法的至少一部分。
远程信息处理单元30可以用于提供多元化的车辆服务,包括来自车辆的无线通信和/或到车辆的无线通信。这些服务包括:结合基于GPS的车辆导航模块40提供的转向和其他导航相关服务;结合一个或多个碰撞传感器接口模块诸如车身控制模块(未示出)提供的安全气囊展开通知和其他紧急或路边援助相关的服务;使用一个或多个诊断模块的诊断报告;以及娱乐信息相关服务,其中,音乐、网页、电影、电视节目、视频游戏和/或其他信息通过娱乐信息模块(未示出)下载且存储用于当前或以后播放。上述列出的服务不是远程信息处理单元30的所有功能的详尽列表,而是仅是远程信息处理单元30能够提供的一些服务的列举。此外,应该理解,上述模块的至少一部分可以按照所存储的内部于或外部于远程信息处理单元30的软件指令的形式来实施,它们可以是位于远程信息处理单元30内部或外部的硬件组件,或者它们可以彼此之间或者与车辆内的其他***集成和/或共享,仅阐述了几种可能性。在将模块实施为位于远程信息处理单元30外部的VSM 42的情况下,它们可以使用车辆总线44以与远程信息处理单元交换数据和命令。
GPS模块40从GPS卫星的星座60接收无线电信号。根据这些信号,模块40可以确定车辆位置,用于向车辆驾驶员提供导航和其他位置相关服务。导航信息可以在显示器38(或者车辆内的其他显示器)上呈现,或者可以口头表示,诸如当提供转向导航时这样做。可以使用专用的车辆中设置的导航模块(其可以是GPS模块40的一部分)提供导航服务,或者可以通过远程信息处理单元30完成部分或全部导航服务,其中,为了向车辆提供导航地图、地图标注(感兴趣的点、餐馆等)、路线计算等,向远程位置发送位置信息。为了其他目的,诸如车队管理,位置信息可以提供给呼叫中心20或其他远程计算机***,诸如计算机18。另外,可以通过远程信息处理单元30将新的或更新的地图数据从呼叫中心20下载到GPS模块40。
除了音频***36和GPS模块40之外,车辆12可以包括电子硬件组件形式的其他车辆***模块(VSM)42,其位于车辆内且通常从一个或多个传感器接收输入且使用感测的输入执行诊断、监控、控制、报告和/或其他功能。优选地,每个VSM 42通过通信总线44连接到其他VSM以及连接到远程信息处理单元30,并且可以被编程以运行车辆***和子***诊断测试。作为示例,一个VSM 42可以是引擎控制模块(ECM),其控制引擎操作的各个方面,诸如燃料点火和点火正时,另一VSM 42可以是动力***控制模块,其调整车辆动力***的一个或多个组件的操作,而另一VSM 42可以是车身控制模块,其管理车辆内的各个电子组件,例如,车辆的电动门锁和前灯。根据一个实施例,引擎控制模块配备有车载诊断(OBD)特征件,其提供诸如从包括车辆排放传感器的各种传感器接收到的各种实时数据,并且提供标准化的一系列诊断故障码(DTC),其允许技术人员快速识别和修理车辆内的故障。如本领域的技术人员所知,上述VSM仅是可以在车辆12中使用的一些模块的示例,许多其他模块也是可行的。
车辆电子设备28还包括多个车辆用户接口,其向车辆占用者提供用于提供和/或接收信息的装置,包括麦克风32、(多个)按钮34、音频***36和可视显示器38。如在此使用,术语“车辆用户接口”广泛地包括任何适当形式的电子设备,包括硬件和软件组件,其位于车辆上且使车辆用户能够与车辆的组件通信或者通过车辆的组件进行通信。麦克风32向远程信息处理单元提供音频输入,以使驾驶员或其他占用者能够通过无线载波***14提供语音命令和实施免提呼叫。为此,其可以利用本领域中已知的人机接口(HMI)技术连接到车载自动语音处理单元。(多个)按钮34允许到远程信息处理单元30的手动用户输入,以启动无线电话呼叫和提供其他数据、响应或控制输入。分立的按钮可以使用以便向呼叫中心20发起紧急呼叫和常规服务援助呼叫。音频***36向车辆占用者提供音频输出,并且可以是专用独立***或者是主车辆音频***的一部分。根据在此示出的具体实施例,音频***36可操作地连接到车辆总线44和娱乐总线46,并且能够提供AM、FM、卫星无线电、CD、DVD和其他多媒体功能。可以结合或者独立于上述娱乐信息模块提供此功能。可视显示器38优选地是图形显示器,诸如仪表板上的触摸屏或者挡风玻璃反射的抬头显示器,并且可以用于提供多种输入和输出功能。也可以使用各种其他车辆用户接口,因为图1的接口仅是一种具体实施方式的示例。
无线载波***14优选地是蜂窝电话***,其包括多个蜂窝塔(cell tower)70(仅示出一个),一个或多个移动交换中心(MSC)72以及将无线载波***14与地面网络16连接所需的任何其他联网组件。每个蜂窝塔70包括发送和接收天线以及基站,其中,来自不同蜂窝塔的基站直接地连接到MSC 72或者通过诸如基站控制器的中间设备连接到MSC72。蜂窝***14可以实施任何适当的通信技术,例如,包括诸如AMPS的模拟技术,或者诸如CDMA(例如,CDMA2000)或GSM/GPRS的更新的数字技术。如本领域的技术人员所理解,各种蜂窝塔/基站/MSC布置是可行的,并且可以与无线***14一起使用。例如,基站和蜂窝塔可以共同位于相同站点,或者他们可以彼此远离,每个基站可以负责单个蜂窝塔或者单个基站可以服务于各个蜂窝塔,以及各个基站可以连接到单个MSC,仅列出一些可行布置。
除了使用无线载波***14之外,可以使用卫星通信形式的不同的无线载波***,以向车辆提供单向或双向通信。这可以使用一个或多个通信卫星62和上行链路发射站64来实施。例如,单向通信可以是卫星无线电服务,其中,节目内容(新闻、音乐等)由发射站64接收、被打包用于上载、然后发送到卫星62,卫星62向用户广播节目。例如,双向通信可以是使用卫星62的卫星电话服务,以在车辆12与站64之间中继电话通信。如果使用,则额外于无线载波***14或者代替无线载波***14,可以使用这种卫星电话。
地面网络16可以是常规的基于地面的电信网络,其连接到一个或多个有线电话并且将无线载波***14连接到呼叫中心20。例如,地面网络16可以包括公共交换电话网(PSTN),诸如用于提供硬线电话、分组交换数据通信和因特网基础设施。可以通过使用标准有线网络、光纤或其他光学网络、电缆网络、电源线、诸如无线局域网(WLAN)的其他无线网络或者提供宽带无线接入(BWA)的网络或者其任意组合来实施一段或多段地面网络16。此外,呼叫中心20不需要通过地面网络16连接,而是可以包括无线电话设备,从而它可以与无线网络诸如无线载波***14直接通信。
计算机18可以是通过私有或公共网络诸如因特网可访问的多个计算机之一。每个这种计算机18可以用于一种或多种目的,诸如通过远程信息处理单元30和无线载波14可由车辆访问的web服务器。例如,其他这种可访问的计算机18可以是:服务中心计算机,其中,可以通过远程信息处理单元30从车辆上载诊断信息和其他车辆数据;客户机计算机,其可由车辆拥有者或其他用户使用以便如访问或接收车辆数据或者设置或配置用户喜好或控制车辆功能的目的;或者第三方存储器,无论通过与车辆12或呼叫中心20或这两者通信,车辆数据或其他信息被提供到所述第三方存储器或从所述第三方存储器提供。计算机18还可以用于提供因特网连接,诸如DNS服务或者作为网络地址服务器,其使用DHCP或其他适当协议以向车辆12分配IP地址。
呼叫中心20被设计成向车辆电子设备28提供多个不同***后端功能,并且根据在此示出的示例性实施例,大体包括一个或多个交换机80、服务器82、数据库84、在线指导者86以及自动语音响应***(VRS)88,所有这些都是本领域已知的。这些各种呼叫中心组件优选地通过有线或无线局域网90彼此连接。交换机80,其可以是专用交换(PBX)交换机,路由进入信号,使得语音传输通常通过常规电话发送到在线指导者86或者使用VoIP发送到自动语音响应***88。在线指导者电话也可以使用VoIP,如图1的虚线所指示。通过交换机80的VoIP和其他数据通信通过在交换机80与网络90之间连接的调制解调器(未示出)来实施。数据传输通过调制解调器到服务器82和/或数据库84。数据库84可以存储账户信息,诸如用户认证信息、车辆标识、个人资料记录、行为模式和其他相关用户信息。还可以通过无线***,诸如802.11x、GPRS等进行数据传输。尽管所示实施例被描述为它通过利用在线指导者86结合人工呼叫中心20而使用,但是将明白,呼叫中心可以使用VRS 88作为自动指导者,或者可以使用VRS 88与在线指导者86的组合。
语音合成***:
现在转到图2,示出能够使用当前所公开方法的文本至语音(TTS)***210的示例性架构。通常,用户或车辆占用者可以与TTS***交互,以从应用例如车辆导航应用、免提呼叫应用等的菜单提示接收指令或收听菜单指示。通常,TTS***从文本源提取输出词语或标识符,将输出转换成适当的语言单元,选择与语言单元最好地对应的所存储的语音单元,将选择的语音单元转换成音频信号,并且输出音频信号作为与用户交互的可听语音。
TTS***通常对于本领域的技术人员是已知的,如在背景技术部分所描述。但是,图2示出根据本公开的改进TTS***的示例。根据一个实施例,***210的部分或全部可以驻留在图1的远程信息处理单元30上,并且使用图1的远程信息处理单元30进行处理。根据可选示例性实施例,***210的部分或全部可以驻留在远离车辆12的位置中的计算机设备例如呼叫中心20上,并且使用该计算机设备处理。例如,语言模型、声学模型等可以存储在呼叫中心20的服务器82之一的存储器和/或数据库84中,且被通信到远程信息处理单元30用于车辆内置的TTS处理。类似地,可以使用呼叫中心20的服务器82之一的处理器处理TTS软件。换句话说,TTS***210可以驻留在远程信息处理单元30中,或者按照任何期望的方式分布在呼叫中心29和车辆12。
***210可以包括一个或多个文本源212a, 212b和存储器,例如,远程信息处理存储器54,用于存储来自文本源212a, 212b的文本且存储TTS软件和数据。***210还可以包括处理器,例如,远程信息处理器52,处理文本,并且与存储器一起以及结合下面的***模块运行。预处理器214从文本源212a, 212b接收文本,并且将文本转换成适当的词语等。合成引擎216将来自预处理器214的输出转换成适当的语言单元,例如,短语、从句和/或句子。一个或多个语音数据库218a, 218b存储记录的语音。单元选择器220从语音数据库218a, 218b选择与来自合成引擎216的输出最好地对应的所存储的语音单元。后处理器222修改或调节一个或多个选择的所存储语音的单元。一个或多个语言模型224用作为到合成引擎216的输入,一个或多个声学模型226用作为到单元选择器220的输入。***210还可以包括:声学接口228,以将选择的语音单元转换成音频信号;以及扬声器230,例如远程信息处理音频***的扬声器,以将音频信号转换成可听语音。***210还可以包括麦克风,例如,远程信息处理麦克风32,以及声学接口232,以将语音数字化成声学数据用作为到后处理器222的反馈。
文本源212a, 212b可以是任何适当的介质,且可以包括任何适当的内容。例如,文本源212a, 212b可以是一个或多个扫描文档、文本文件或应用数据文件、或者任何其他适当的计算机文件等。文本源212a, 212b可以包括将被合成为语音的词语、数字、符号和/或标点,并且用于输出到文本转换器214。可以使用任何适当量的文本源。但是在一个示例性实施例中,第一文本源212a可以来自第一服务提供者,第二文本源212b可以来自第二服务提供者。例如,第一服务提供者可以是导航服务提供者,第二服务提供者可以是地图数据服务提供者。
预处理器214将来自文本源212的文本转换成词语、标识符等。例如,在文本是数字格式的情况下,预处理器214可以将数字转换为相应的词语。在另一示例中,在文本是标点、具有帽(cap)、下划线或粗体的强调的情况下,预处理器214可以将其转换成适合于合成引擎216和/或单元选择器220使用的输出。
合成引擎216从文本转换器214接收输出,并且将该输出布置为语言单元,其可以包括一个或多个句子,从句、短语、词语、子词等。引擎216可以使用语言模型224,以便辅助协调最可能的语言单元排列。在将来自文本转换器214的输出排列为语言单元时,语言模型224提供规则、语法和/或语义。语言模型224还可以限定处于任意给定时间任何给定TTS模式***210期望的语言单元的领域,和/或可以提供规则等,从而管理哪种类型的语言单元和/或语调可以在逻辑上跟随其他类型语言单元和/或语调,以形成自然的发声语音。语言单元可以包括语音等同物,例如,音素串等,并且可以是音素HMM的形式。
语音数据库218a, 218b包括从一个或多个人预先记录的语音。语音可以包括预先记录的句子、从句、短语、词语、预先记录的词语的子词等。语音数据库218a, 218b还可以包括与预先记录的语音相关联的数据,例如,元数据,以识别所记录的语音段,以便由单元选择器220使用。可以使用任何适当量的语音数据库。但是在一个示例性实施例中,第一语音数据库218a可以来自第一服务提供者,第二语音数据库218b可以来自第二服务提供者。在此实施例中,第二文本源212b和第二语音数据库218b中的一个或两个可以是***210的集成部分,或者分别连接到***210,如相对于第二语音数据库218b所示,并且可以是独立于TTS***210的产品的一部分,例如,来自地图提供者的地图数据库产品215。
单元选择器220将来自合成引擎216的输出与存储的语音数据进行比较,并且选择与合成引擎输出最好地对应的存储的语音。由单元选择器220选择的语音可以包括预先记录的句子、从句、短语、词语、预先记录的词语的子词等。选择器220可以使用声学模型226,以便辅助比较和选择最可能或最好地对应的存储语音的候选。可以结合选择器220使用声学模型226,以比较和对比合成引擎输出的数据与存储的语音数据,评估它们之间的差异或类似度的幅度,并且最终使用决策逻辑来识别最佳匹配的所存储的语音数据并输出相应的所记录的语音。
通常,最佳匹配的语音数据是与合成引擎216的输出具有最小差异或最大可能为合成引擎216的输出,如通过对本领域的技术人员所知的多种技术中的任何一种所确定。这些技术可以包括动态时间-规整(time-warping)分类器、人工智能技术、神经网络、自由音素识别器、和/或概率模式匹配器,诸如隐马尔可夫模型(HMM)引擎。HMM引擎是本领域的技术人员公知的用于产生多个TTS模型候选或假设。可以在通过语音的声学特征分析最终识别和选择表示合成引擎输出的最可能的正确解释的所存储的语音数据中考虑所述假设。更具体地,HMM引擎例如通过应用贝叶斯定理根据给定一个或另一个语言单元的声学数据的所观察序列的经HMM计算的信任值或概率所排序的语言单元假设的“N最佳”列表的形式产生静态模型。
在一个实施例中,来自单元选择器220的输出可以直接通过到达声学接口228或者不经过后处理而通过后处理器222。在另一实施例中,后处理器222可以接收来自单元选择器220的输出用于进一步处理。
在这两种情况下,声学接口228将数字音频数据转换成模拟音频数据。接口228可以是数字-模拟转换设备、电路和/或软件等。扬声器230是将模拟音频数据转换成用户可听的且麦克风32可接收的语音的电声换能器。
在一个实施例中,麦克风32可以用于将来自扬声器230的语音输出转换成电信号,并且将此信号通信到声学接口232。声学接口232接收模拟电信号,该模拟电信号首先被采样,使得模拟信号值在离散时刻被捕获,然后被量化,从而在每个采样点将模拟信号的幅度转换成数字语音数据的连续流。换句话说,声学接口232将模拟电信号转换成数字电信号。数字数据是二进制比特,其在存储器54中缓冲,然后由处理器52进行处理,或者在它们由处理器52初始接收时被实时处理。
类似地,在此实施例中,后处理器模块222可以将来自接口232的数字语音数据的连续流变换成声学参数的离散序列。更具体地,处理器52可以执行后处理器模块222,以将数字语音数据分段成例如持续时间为10-30 ms的重叠语音或声学帧。所述帧对应于声学子词,诸如音节、半音节、单音、双音、音素等。后处理器模块222还可以执行语音分析,以从每帧内的数字化的语音(诸如时间变化特征的向量)提取声学参数表示。语音内的话语可以被表示为这些特征向量的序列。例如,并如本领域的技术人员所知,特征向量可以提取,并且例如,可以包括通过执行帧的傅里叶变换和使用余弦变换对声学谱解相关所获得的音高、能源轮廓、谱特性和/或倒频谱系数。可以存储和处理覆盖特定语音持续时间的声学帧以及相应参数。
在优选实施例中,后处理器222可以按照任何适当的方式修改存储的语音。例如,存储的语音可以被修改,从而使从一个说话者记录的语音调节成听起来类似于从另一说话者记录的语音,或者使从说话者的一种语言记录的语音调节成听起来类似于从相同说话者的另一种语言记录的语音。后处理器222可以将来自一个说话者的语音数据与来自另一说话者的语音数据转换。更具体地,对于一个说话者的说话者具体特性,后处理器222可以从该说话者提取或以其他方式处理倒频谱的声学特征,并且对那些特征进行倒频谱分析。在另一示例中,对于一个说话者的说话者具体特性,后处理器222可以从该说话者提取声学特征,并且对那些特征进行归一化变换。如在此使用,术语一个说话者和另一说话者或者两个不同说话者,可以包括两个不同人说相同语言或者一个人说两种不同语言。
另外,在此实施例中,后处理器222可以用于适当地特征滤波第二说话者的语音。然而,在执行这种特征滤波之前,第一说话者的说话特定特征用于调整在第二说话者的语音的声学特征滤波中使用的滤波器组的一个或多个参数。例如,可以在基于人耳的心理声学模型模拟频率范围的一个或多个滤波器组的频率规整中使用说话者特定特性。更具体地,频率规整可以包括梅尔频率倒频谱滤波器组的中心频率的调整,改变到这种滤波器组的上截止频率和下截止频率,修改这些滤波器组的形状(例如,抛物线形,梯形),调整滤波器增益等。一旦已经修改滤波器组,它们就用于滤波来自第二说话者的语音的声学特征。当然,从第二说话者的语音所滤波的声学特征从其在没有滤波器组修改的情况下被修改,因此,可以促进来自第二说话者的调节语音的输出,和/或调节或再训练HMM,以便用于选择或处理第二说话者的语音。
方法:
现在转到图3,示出语音合成方法300。可以使用在车辆远程信息处理单元30的操作环境内适当编程的图2的TTS***210以及使用适当硬件和对图1所示的其他组件编程来实施图3的方法300。基于上述***描述以及下面结合其他附图描述的方法讨论,本领域的技术人员将知道任何特定实施方式的这些特征。本领域的技术人员还将认识到,可以使用其他操作环境内的其他TTS***实施所述方法。
通常,方法300包括在TTS***中接收第一和第二文本输入,使用***处理器将第一和第二文本输入处理为与分别来自第一和第二说话者的所存储的语音相应的各自的第一和第二语音输出,并且使第二说话者的第二语音输出调节成听起来像第一说话者的第一语音输出。
再参照图3,方法300在步骤305以任何适当的方式开始。例如,车辆用户开始与远程信息处理单元30的用户接***互,优选地,通过按下用户接口按钮34,以开始会话,其中,在TTS模式下操作的同时用户从远程信息处理单元30接收TTS音频。在一个示例性实施例中,方法300可以作为远程信息处理单元30的导航路由应用的一部分而开始。
在步骤310,在TTS***中接收第一文本输入。例如,第一文本输入可以包括来自TTS***210的第一文本源212a的导航指令。导航指令可以包括定向调动,例如,IN 500’ TURN RIGHT ONTO(在 500’,右转到)…。
在步骤315,对第一文本输入进行预处理,以将文本转换成适合于语音合成的输出。例如,预处理器214可以将从文本源212a接收的文本转换成词语、标识符等,以便供合成引擎216使用。更具体地,可以将来自步骤310的示例导航指令转换成“在500英尺,右转到…”。
在步骤320,来自步骤315的输出被排列为语言单元。例如,合成引擎216可以从文本转换器214接收输出,并且使用语言模型224可以将输出排列为语言单元,所述语言单元可以包括一个或多个句子、从句、短语、词语、子词等。语言单元可以包括语音等同物,例如,音素串等。
在步骤325,将语言单元与存储的语音数据进行比较,选择与语言单元最好地对应的语音被选择作为代表输入文本的语音。例如,单元选择器220可以使用声学模型228,以将从合成引擎216输出的语言单元与存储在第一语音数据库218a中的语音数据进行比较,并且选择具有与合成引擎输出最好地对应的相关联数据的所存储的语音。步骤320和325一起可以构成使用所存储的来自第一说话者的语音将第一文本输入处理或合成为第一语音输出的示例。
在步骤330,在TTS***中接收第二文本输入。例如,第二文本输入可以包括来自TTS***210的第二文本源212b的导航变量。导航变量可以包括街道名称,例如,“S. M-24”。
在步骤335,将第二文本输入进行预处理,以将文本转换成可合成输出或适合于语音合成的输出。例如,预处理器214可以将从第二文本源212b接收的文本转换成词语、标识符等,以便供合成引擎216使用。更具体地,来自步骤330的示例导航变量可以被转换成“(向南M二十四)Southbound M Twenty Four ”。导航指令和变量一起可以构成TTS塑造提示。
在步骤340,将来自步骤335的输出排列为语言单元。例如,合成引擎216可以从文本转换器214接收输出,并且使用语言模型224可以将输出排列为语言单元,所述语言单元可以包括一个或多个句子、从句、短语、词语、子词等。语言单元可以包括语音等同物,例如,音素串等。
在步骤345,将语言单元与存储的语音数据进行比较,并且与语言单元最好地对应的语音被选择作为代表输入文本的语音。例如,单元选择器220可以使用声学模型228,以将从合成引擎216输出的语言单元与存储在第二语音数据库218b中的语音数据进行比较,并且选择具有与合成引擎输出最好地对应的相关联数据的所存储的语音。步骤340和345一起可以构成使用存储的来自第二说话者的语音将第二文本输入处理或合成为第二语音输出的示例。
在步骤350,第二说话者的第二语音输出调节成听起来像第一说话者的第一语音输出。例如,对于第一说话者的一个或多个说话者特定特性可分析第一语音输出的声学特征,然后可以基于第一说话者的(多个)说话者特定特性调整用于从第二语音输出滤波声学特征的声学特征滤波器,其后,可使用调整的滤波器对来自从第二语音输出的声学特征进行滤波。
在一个实施例中,可以通过调整梅尔频率倒频谱滤波器的一个或多个参数来调整滤波器。所述参数可以包括滤波器组中心频率、滤波器组截止频率、滤波器组带宽、滤波器组形状、滤波器增益等。说话者特定特性包括声道或鼻腔相关特性中的至少一个。更具体地,所述特性可包括长度、形状、转换函数、格式、音调频率等。
在一个实施例中,可以从预先记录的语音预先提取第一语音输出的声学特征,且将该声学特征与该语音相关联地存储在例如语音数据库218a, 218b中。在另一实施例中,可以通过后处理器222从TTS***210内的选择的预先记录的语音提取声学特征。在另一实施例中,可以在声学特征从扬声器230输出、由麦克风32接收且经由接口232反馈到后处理器222之后,从选择的预先记录的语音提取声学特征。通常,声学特征提取对于本领域的普通技术人员来说是公知的,并且声学特征可以包括梅尔频率倒频谱系数(MFCC),相关频谱变换-感知线性预测特征(RASTA-PLP特征),或者任何其他合适声学特征。
在步骤355,输出来自第一说话者的第一语音输出。例如,可以通过接口228和扬声器230输出由选择器220从数据库218a选择的来自第一说话者的预先记录的语音。
在步骤360,输出来自第二说话者的经调节的第二语音。例如,可以通过接口228和扬声器230输出由选择器220从数据库218b选择的并且通过后处理器222调节的来自第二说话者的预先记录的语音。
在步骤365,可以修改与处理来自第二说话者的所存储语音结合使用的模型。例如,声学模型226可以包括可以按照任何适当方式调节的TTS隐马尔可夫模型(HMM),使得来自第二说话者的随后的语音听起来越来越像来自第一说话者的。如这里相对于TTS***21先前所述,后处理器222可用于以任何适当的方式修改存储的语音。如虚线所示,经调节的TTS HMM可以反馈上游以改善随后的语音的选择。
在步骤370,方法可以以任何适当的方式结束。
与用于在说话者声音听起来不同的TTS***中输出来自多个不同说话者的语音的现有技术相比,当前公开的语音合成方法,使得来自说话者之一的语音调节成听起来像说话者中另一个的语音。
尽管结合在导航背景中的示例塑造提示(sculpted prompt)或指令描述了当前公开的方法,但是,可以在任何其他适当背景中使用所述方法。例如,可以在免提呼叫背景中使用所述方法,以使存储的标签调节成听起来像发音的命令,或者反之亦然。在其他示例中,可以在自动语音菜单、语音控制设备等中在调节来自不同说话者的指令时使用所述方法。
所述方法或其一部分可以在包括计算机可读介质上实施的指令的计算机程序产品中来实施,以便由一个或多个计算机的一个或多个处理器使用来实施一个或多个所述方法步骤。计算机程序产品可以包括一个或多个软件程序,包括源代码、目标代码、可执行代码或其他格式的程序指令;一个或多个固件程序;或者硬件描述语言(HDL)文件;以及任何程序相关数据。所述数据可以包括数据结构、查找表、或任何其他适当格式的数据。所述程序指令可以包括程序模块、例程、程序、对象、分量等。可以在一台计算机上或者在彼此通信的多台计算机上执行计算机程序。
(多个)程序可以体现在计算机可读介质上,其可以包括一个或多个存储设备、制造物品等。示例性计算机可读介质包括计算机***存储器,例如,RAM(随机访问存储器)、ROM(只读存储器);半导体存储器,例如,EPROM(可擦除可编程ROM)、EEPROM(电可擦除可编程ROM)、闪存;磁或光盘或带等。计算机可读介质还可以包括计算机到计算机连接件,例如,当通过网络或另一通信连接(有线、无线或其组合)传递或提供数据时。上述示例的任何组合也包括在计算机可读介质的范围内。因此,应理解,可以通过能够执行与所公开方法的一个或多个步骤相应的指令的任何电子物品和/或设备至少部分地执行所述方法。
应理解,上面是本发明的一个或多个优选示例性实施例的描述。本发明不限于在此公开的(多个)具体实施例,而是仅由所附权利要求限定。此外,上述描述中包含的陈述涉及具体实施例,并且不被解释为限制本发明的范围或者限制权利要求中使用的术语的定义,除非其中上面明确限定术语或短语。各种其他实施例以及对所公开的(多个)实施例的各种改变和修改对于本领域的技术人员将是明显的。例如,本发明可应用于语音信号处理的其他领域,诸如移动通信、通过因特网协议应用的语音等。所有这些其他实施例、改变和修改意在落入所附权利要求的范围内。
如在此说明书和权利要求中所使用,当结合一个或多个组件或其他项的列表使用时,术语“例如”,“比如”,“诸如”和“等”以及动词“包括”,“具有”,“包含”以及其他动词形式,每个被解释为开放式,意味着所述列表不被认为是排除其他额外组件或项。其他术语被解释为使用它们的最广泛的合理含义,除非它们使用在需要不同的解释的背景中。

Claims (10)

1. 一种语音合成的方法,其包括步骤:
(a)在文本至语音***中接收第一文本输入和第二文本输入;
(b)使用所述***的处理器将第一文本输入和第二文本输入处理为与分别来自第一说话者和第二说话者的所存储语音相应的各自的第一语音输出和第二语音输出;以及
(c)使第二说话者的第二语音输出调节成听起来像第一说话者的第一语音输出。
2. 如权利要求1所述的方法,还包括步骤:
(d)输出第一说话者的第一语音输出;以及
(e)输出第二说话者的经调解的第二语音输出。
3. 如权利要求2所述的方法,其中,所述第一语音输出是导航指令,而所述第二语音输出是导航变量。
4. 如权利要求3所述的方法,其中,所述导航指令是定向调动,而所述导航变量是街道名称。
5. 如权利要求2所述的方法,还包括步骤:(f)修改结合处理来自第二说话者的所存储语音使用的模型。
6. 如权利要求5所述的方法,其中,步骤(f)包括修改隐马尔可夫模型。
7. 如权利要求1所述的方法,其中,步骤(c)包括:
(c1)对于第一说话者的至少一个说话者特定特性分析第一语音输出的声学特征;
(c2)基于第一说话者的所述至少一个说话者特定特性,调整用于滤波来自第二语音输出的声学特征的声学特征滤波器;以及
(c3)使用步骤(c2)中调整的滤波器滤波来自第二语音输出的声学特征。
8. 如权利要求7所述的方法,其中,步骤(c3)包括:调整梅尔频率倒频谱滤波器的至少一个参数,数包括滤波器组中心频率、滤波器组截止频率、滤波器组带宽、滤波器组形状或滤波器增益的至少一个。
9. 一种计算机程序产品,其包括在计算机可读介质上且由语音合成***的计算机处理器可执行以使***实施下述步骤的指令,所述步骤包括:
(a)在文本至语音***中接收第一文本输入和第二文本输入;
(b)使用所述***的处理器将第一文本输入和第二文本输入处理为与分别来自第一说话者和第二说话者的所存储语音相应的各自的第一语音输出和第二语音输出;以及
(c)使第二说话者的第二语音输出调节成听起来像第一说话者的第一语音输出。
10. 一种语音合成***,其包括:
第一文本源;
第二文本源;
第一语音数据库,包括预先记录的来自第一说话者的语音;
第二语音数据库,包括预先记录的来自第二说话者的语音;
预处理器,其将文本转换成能够合成的输出;
处理器,其将来自第一文本源和第二文本源的第一文本输入和第二文本输入转换为与分别来自第一说话者和第二说话者的预先记录的语音相应的各自的第一语音输出和第二语音输出;以及
后处理器,其使第二说话者的第二语音输出调节成听起来像第一说话者的第一语音输出。
CN2011101236709A 2010-05-14 2011-05-13 语音合成中的语音调节 Pending CN102243870A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/780402 2010-05-14
US12/780,402 US9564120B2 (en) 2010-05-14 2010-05-14 Speech adaptation in speech synthesis

Publications (1)

Publication Number Publication Date
CN102243870A true CN102243870A (zh) 2011-11-16

Family

ID=44912545

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2011101236709A Pending CN102243870A (zh) 2010-05-14 2011-05-13 语音合成中的语音调节

Country Status (2)

Country Link
US (1) US9564120B2 (zh)
CN (1) CN102243870A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109074803A (zh) * 2017-03-21 2018-12-21 北京嘀嘀无限科技发展有限公司 语音信息处理***和方法
CN112041905A (zh) * 2018-04-13 2020-12-04 德沃特奥金有限公司 家具驱动器的控制装置和控制家具驱动器的方法
CN113436606A (zh) * 2021-05-31 2021-09-24 引智科技(深圳)有限公司 一种原声语音翻译方法
CN113678200A (zh) * 2019-02-21 2021-11-19 谷歌有限责任公司 端到端语音转换

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8914290B2 (en) 2011-05-20 2014-12-16 Vocollect, Inc. Systems and methods for dynamically improving user intelligibility of synthesized speech in a work environment
CN104104696A (zh) * 2013-04-02 2014-10-15 深圳中兴力维技术有限公司 基于b/s结构的语音告警实现方法及***
US9613620B2 (en) * 2014-07-03 2017-04-04 Google Inc. Methods and systems for voice conversion
KR20160029587A (ko) * 2014-09-05 2016-03-15 삼성전자주식회사 단위 또는 약어의 풀네임 음성출력 방법 및 장치
US9384728B2 (en) 2014-09-30 2016-07-05 International Business Machines Corporation Synthesizing an aggregate voice
US10714121B2 (en) 2016-07-27 2020-07-14 Vocollect, Inc. Distinguishing user speech from background speech in speech-dense environments
US10650621B1 (en) 2016-09-13 2020-05-12 Iocurrents, Inc. Interfacing with a vehicular controller area network
WO2019191251A1 (en) * 2018-03-28 2019-10-03 Telepathy Labs, Inc. Text-to-speech synthesis system and method
CN111768755A (zh) * 2020-06-24 2020-10-13 华人运通(上海)云计算科技有限公司 信息处理方法、装置、车辆和计算机存储介质
JP7181332B2 (ja) * 2020-09-25 2022-11-30 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 音声変換方法、装置及び電子機器
CN112820268A (zh) * 2020-12-29 2021-05-18 深圳市优必选科技股份有限公司 个性化语音转换训练方法、装置、计算机设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6546369B1 (en) * 1999-05-05 2003-04-08 Nokia Corporation Text-based speech synthesis method containing synthetic speech comparisons and updates
CN101178895A (zh) * 2007-12-06 2008-05-14 安徽科大讯飞信息科技股份有限公司 基于生成参数听感误差最小化的模型自适应方法
CN101359473A (zh) * 2007-07-30 2009-02-04 国际商业机器公司 自动进行语音转换的方法和装置
CN101578659A (zh) * 2007-05-14 2009-11-11 松下电器产业株式会社 音质转换装置及音质转换方法

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3573907B2 (ja) * 1997-03-10 2004-10-06 株式会社リコー 音声合成装置
US6144938A (en) * 1998-05-01 2000-11-07 Sun Microsystems, Inc. Voice user interface with personality
US6865533B2 (en) * 2000-04-21 2005-03-08 Lessac Technology Inc. Text to speech
GB0029576D0 (en) * 2000-12-02 2001-01-17 Hewlett Packard Co Voice site personality setting
US20020077819A1 (en) * 2000-12-20 2002-06-20 Girardo Paul S. Voice prompt transcriber and test system
US6487494B2 (en) * 2001-03-29 2002-11-26 Wingcast, Llc System and method for reducing the amount of repetitive data sent by a server to a client for vehicle navigation
US7668718B2 (en) * 2001-07-17 2010-02-23 Custom Speech Usa, Inc. Synchronized pattern recognition source data processed by manual or automatic means for creation of shared speaker-dependent speech user profile
US20060069567A1 (en) * 2001-12-10 2006-03-30 Tischer Steven N Methods, systems, and products for translating text to speech
US7483832B2 (en) * 2001-12-10 2009-01-27 At&T Intellectual Property I, L.P. Method and system for customizing voice translation of text to speech
US20040054534A1 (en) * 2002-09-13 2004-03-18 Junqua Jean-Claude Client-server voice customization
AU2003260854A1 (en) * 2002-10-04 2004-04-23 Koninklijke Philips Electronics N.V. Speech synthesis apparatus with personalized speech segments
GB0229860D0 (en) * 2002-12-21 2003-01-29 Ibm Method and apparatus for using computer generated voice
US7548858B2 (en) * 2003-03-05 2009-06-16 Microsoft Corporation System and method for selective audible rendering of data to a user based on user input
JP3962763B2 (ja) * 2004-04-12 2007-08-22 松下電器産業株式会社 対話支援装置
WO2006040971A1 (ja) * 2004-10-08 2006-04-20 Matsushita Electric Industrial Co., Ltd. 対話支援装置
JP3962766B2 (ja) * 2004-10-08 2007-08-22 松下電器産業株式会社 対話支援装置
US7693719B2 (en) * 2004-10-29 2010-04-06 Microsoft Corporation Providing personalized voice font for text-to-speech applications
JP2008545995A (ja) * 2005-03-28 2008-12-18 レサック テクノロジーズ、インコーポレーテッド ハイブリッド音声合成装置、方法および用途
JP3910628B2 (ja) * 2005-06-16 2007-04-25 松下電器産業株式会社 音声合成装置、音声合成方法およびプログラム
US8326629B2 (en) * 2005-11-22 2012-12-04 Nuance Communications, Inc. Dynamically changing voice attributes during speech synthesis based upon parameter differentiation for dialog contexts
US20080004879A1 (en) * 2006-06-29 2008-01-03 Wen-Chen Huang Method for assessing learner's pronunciation through voice and image
US8131549B2 (en) * 2007-05-24 2012-03-06 Microsoft Corporation Personality-based device
US8244534B2 (en) * 2007-08-20 2012-08-14 Microsoft Corporation HMM-based bilingual (Mandarin-English) TTS techniques
US7565293B1 (en) * 2008-05-07 2009-07-21 International Business Machines Corporation Seamless hybrid computer human call service
US20090326948A1 (en) * 2008-06-26 2009-12-31 Piyush Agarwal Automated Generation of Audiobook with Multiple Voices and Sounds from Text
US8655660B2 (en) * 2008-12-11 2014-02-18 International Business Machines Corporation Method for dynamic learning of individual voice patterns
US20100153116A1 (en) * 2008-12-12 2010-06-17 Zsolt Szalai Method for storing and retrieving voice fonts
US8401849B2 (en) * 2008-12-18 2013-03-19 Lessac Technologies, Inc. Methods employing phase state analysis for use in speech synthesis and recognition
US8370151B2 (en) * 2009-01-15 2013-02-05 K-Nfb Reading Technology, Inc. Systems and methods for multiple voice document narration
US20100198577A1 (en) * 2009-02-03 2010-08-05 Microsoft Corporation State mapping for cross-language speaker adaptation
US8949125B1 (en) * 2010-06-16 2015-02-03 Google Inc. Annotating maps with user-contributed pronunciations

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6546369B1 (en) * 1999-05-05 2003-04-08 Nokia Corporation Text-based speech synthesis method containing synthetic speech comparisons and updates
CN101578659A (zh) * 2007-05-14 2009-11-11 松下电器产业株式会社 音质转换装置及音质转换方法
CN101359473A (zh) * 2007-07-30 2009-02-04 国际商业机器公司 自动进行语音转换的方法和装置
CN101178895A (zh) * 2007-12-06 2008-05-14 安徽科大讯飞信息科技股份有限公司 基于生成参数听感误差最小化的模型自适应方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109074803A (zh) * 2017-03-21 2018-12-21 北京嘀嘀无限科技发展有限公司 语音信息处理***和方法
CN109074803B (zh) * 2017-03-21 2022-10-18 北京嘀嘀无限科技发展有限公司 语音信息处理***和方法
CN112041905A (zh) * 2018-04-13 2020-12-04 德沃特奥金有限公司 家具驱动器的控制装置和控制家具驱动器的方法
CN113678200A (zh) * 2019-02-21 2021-11-19 谷歌有限责任公司 端到端语音转换
CN113436606A (zh) * 2021-05-31 2021-09-24 引智科技(深圳)有限公司 一种原声语音翻译方法

Also Published As

Publication number Publication date
US20110282668A1 (en) 2011-11-17
US9564120B2 (en) 2017-02-07

Similar Documents

Publication Publication Date Title
CN102243870A (zh) 语音合成中的语音调节
CN102543077B (zh) 基于语言独立女性语音数据的男性声学模型适应方法
CN106816149A (zh) 车辆自动语音识别***的优先化内容加载
US9082414B2 (en) Correcting unintelligible synthesized speech
US10083685B2 (en) Dynamically adding or removing functionality to speech recognition systems
US9202465B2 (en) Speech recognition dependent on text message content
US8738368B2 (en) Speech processing responsive to a determined active communication zone in a vehicle
US10255913B2 (en) Automatic speech recognition for disfluent speech
CN101462522B (zh) 交通工具内根据状况的语音识别
US9570066B2 (en) Sender-responsive text-to-speech processing
CN103124318B (zh) 开始免提会议呼叫的方法
CN102097096B (zh) 在语音识别后处理过程中使用音调来改进识别精度
CN107819929A (zh) 优选表情符号的识别和生成
US9997155B2 (en) Adapting a speech system to user pronunciation
CN105609109A (zh) 混合式自动语音识别
CN110232912A (zh) 语音识别仲裁逻辑
US10269350B1 (en) Responsive activation of a vehicle feature
US20130211828A1 (en) Speech processing responsive to active noise control microphones
US20120323577A1 (en) Speech recognition for premature enunciation
US10008205B2 (en) In-vehicle nametag choice using speech recognition
CN108447488A (zh) 增强语音识别任务完成
US20180075842A1 (en) Remote speech recognition at a vehicle
US9473094B2 (en) Automatically controlling the loudness of voice prompts
CN109785827A (zh) 在语音识别仲裁中使用的神经网络
CN102623006A (zh) 阻塞音语音能量到较低频率的映射

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C12 Rejection of a patent application after its publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20111116