CN102203853A - 合成语音的方法和装置 - Google Patents

合成语音的方法和装置 Download PDF

Info

Publication number
CN102203853A
CN102203853A CN2010800009275A CN201080000927A CN102203853A CN 102203853 A CN102203853 A CN 102203853A CN 2010800009275 A CN2010800009275 A CN 2010800009275A CN 201080000927 A CN201080000927 A CN 201080000927A CN 102203853 A CN102203853 A CN 102203853A
Authority
CN
China
Prior art keywords
mentioned
information
unit
parameter
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2010800009275A
Other languages
English (en)
Other versions
CN102203853B (zh
Inventor
汪曦
栾剑
李健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of CN102203853A publication Critical patent/CN102203853A/zh
Application granted granted Critical
Publication of CN102203853B publication Critical patent/CN102203853B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/018Audio watermarking, i.e. embedding inaudible data in the audio signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Document Processing Apparatus (AREA)
  • Telephonic Communication Services (AREA)
  • Telephone Function (AREA)

Abstract

本发明提供了合成语音的方法和装置。根据本发明的一个方面,提供了一种合成带有信息的语音的装置,包括:输入单元,其输入文本句;文本分析单元,其对上述输入单元输入的文本句进行文本分析,以提取语言学信息;参数生成单元,其利用上述文本分析单元提取的语言学信息和预先训练好的统计参数模型,生成语音参数;嵌入单元,其在上述语音参数中嵌入预定的信息;以及语音合成单元,其将利用上述嵌入单元嵌入了上述信息的上述语音参数合成为带有上述信息的语音。

Description

合成语音的方法和装置
技术领域
本发明涉及信息处理技术,具体地涉及语音合成技术,更具体地涉及在语音合成的过程中嵌入信息的技术。
背景技术
目前,语音合成***已经应用于很多方面,为人们的生活提供了便利。但是,这些合成的语音很少进行版权保护,而不像很多其他的音频产品通过数字水印技术进行了很好的版权保护。合成的语音通常是来源于专业的播音员录制的语音数据库经过复杂的合成算法形成所需要的语音,其实他/她们的声音本身也应该受到版权保护。另外,合成的语音在许多应用中需要嵌入一些补充信息来丰富用途并且要保证嵌入的信息对语音信号影响最小,例如在互联网应用中的语音中嵌入文本信息。但是由于语音合成***本身已经很复杂了,再加入水印嵌入模块则对目前的***复杂度和硬件要求提出了更高的挑战。
统计参数语音合成方法是语音合成的一种重要方法(具体细节参见非专利文献1,其介绍了一种统计参数语音合成***的框架)。在统计参数语音合成***中,首先对语音信号进行分析提取参数,然后对这些参数进行训练,获得统计参数模型,最后从统计参数模型中直接合成语音。这种语音合成的框架有很多优点。它只需要很小的资源存储,并且很容易对语音进行各种修改。参数合成一般采用源-滤波器语音模型。该模型主要由两部分组成:源表示语音的激励部分,描述了语音的时频结构,滤波器表示语音的幅频响应。
数字水印技术已经用于多媒体应用很多年,用来保护版权信息或者隐藏一些有用的信息。语音水印技术是专门用来针对语音数据一项技术。为了合理地隐藏信息于数据中,很多水印算法对语音信号进行了深层的分析得到语音参数,然后在参数中加入数字水印数据再通过合成算法恢复出语音,使得水印算法的过程看起来与语音分析-合成的过程很像(具体细节参见非专利文献2,其介绍了一种基于语音分析合成方法的水印技术)。然而,一般观点看来语音合成和数字水印是两个不同的***完成不同的功能,即语音水印技术都是在合成的语音的基础上分析语音再加入水印后再恢复或者采用其他的一些方法,而没有在语音合成的同时加入水印。
非专利文献1:H.Zen,T.Nose,J.Yamagishi,S.Sako,T.Masuko,A.W. Black,K.Tokuda,“The HMM-based Speech Synthesis System(HTS) Version 2.0”,Proc.of ISCA SSW6,Bonn,Germany,Aug.2007,在此通过参考引入其整个内容。
非专利文献2:Hofbauer,Konrad,Kubin,Gernot,“High-Rate Data Embedding in Unvoiced Speech”,In INTERSPEECH-2006,paper 1906-Mon1FoP.10,在此通过参考引入其整个内容。
发明内容
本发明正是鉴于上述现有技术中的问题而提出了一种在基于参数的语音合成的过程中嵌入信息的方法和装置,其可以在语音合成***中很巧妙且合理地嵌入这一信息,得到高质量的语音,具有复杂度低,安全可靠等许多优点。
根据本发明的一个方面,提供了一种合成带有信息的语音的方法,包括以下步骤:输入文本句;对输入的文本句进行文本分析,以提取语言学信息;利用上述语言学信息和预先训练好的统计参数模型,生成语音参数;在上述语音参数中嵌入预定的信息;以及将嵌入了上述信息的上述语音参数合成为带有上述信息的语音。
优选,在上述合成带有信息的语音的方法中,上述语音参数包括基频参数和谱参数,上述在上述语音参数中嵌入预定的信息的步骤包括以下步骤:基于上述基频参数生成浊音激励;生成清音激励;将上述浊音激励和上述清音激励组合成激励源;以及在上述激励源中嵌入上述信息。
另外,优选,在上述合成带有信息的语音的方法中,上述语音参数包括基频参数和谱参数,上述在上述语音参数中嵌入预定的信息的步骤包括以下步骤:基于上述基频参数生成浊音激励;生成清音激励;在上述清音激励中嵌入上述信息;以及将上述浊音激励和嵌入了上述信息的上述清音激励组合成激励源。
优选,在上述合成带有信息的语音的方法中,上述合成带有上述信息的语音的步骤包括以下步骤:基于上述谱参数构建合成滤波器;以及利用上述合成滤波器将嵌入了上述信息的上述激励源合成为带有上述信息的语音。
优选,上述合成带有信息的语音的方法还包括在合成带有上述信息的语音的步骤之后检测上述信息的步骤。
优选,在上述合成带有信息的语音的方法中,上述检测上述信息的步骤包括以下步骤:基于上述谱参数构建逆滤波器;利用上述逆滤波器从带有上述信息的上述语音中分离出带有上述信息的上述激励源;对带有上述信息的上述激励源与在上述激励源中嵌入上述信息时使用的伪随机序列之间的相关函数进行解码得到上述信息。
另外,优选,在上述合成带有信息的语音的方法中,上述检测上述信息的步骤包括以下步骤:基于上述谱参数构建逆滤波器;利用上述逆滤波器从上述带有上述信息的语音中分离出带有上述信息的上述激励源;从带有上述信息的激励源中分离出带有上述信息的清音激励;以及对带有上述信息的上述清音激励与在上述清音激励中嵌入上述信息时使用的伪随机序列之间的相关函数进行解码得到上述信息。
根据本发明的另一个方面,提供了一种合成带有信息的语音的装置,包括:输入单元,其输入文本句;文本分析单元,其对上述输入单元输入的文本句进行文本分析,以提取语言学信息;参数生成单元,其利用上述文本分析单元提取的语言学信息和预先训练好的统计参数模型,生成语音参数;嵌入单元,其在上述语音参数中嵌入预定的信息;以及语音合成单元,其将利用上述嵌入单元嵌入了上述信息的上述语音参数合成为带有上述信息的语音。
优选,在上述合成带有信息的语音的装置中,上述语音参数包括基频参数和谱参数,上述嵌入单元包括:浊音激励生成单元,其基于上述基频参数生成浊音激励;清音激励生成单元,其生成清音激励;组合单元,其将上述浊音激励和上述清音激励组合成激励源;以及信息嵌入单元,其在上述激励源中嵌入上述信息。
另外,优选,在上述合成带有信息的语音的装置中,上述语音参数包括基频参数和谱参数,上述嵌入单元包括:浊音激励生成单元,其基于上述基频参数生成浊音激励;清音激励生成单元,其生成清音激励;信息嵌入单元,其在上述清音激励中嵌入上述信息;以及组合单元,其将上述浊音激励和嵌入了上述信息的上述清音激励组合成激励源。
优选,在上述合成带有信息的语音的装置中,上述语音合成单元包括:滤波器构建单元,其基于上述谱参数构建合成滤波器;其中,上述语音合成单元利用上述合成滤波器将嵌入了上述信息的上述激励源合成为带有上述信息的语音。
优选,上述合成带有信息的语音的装置还包括检测单元,其在上述语音合成单元合成带有上述信息的语音之后检测上述信息。
优选,在上述合成带有信息的语音的装置中,上述检测单元包括:逆滤波器构建单元,其基于上述谱参数构建逆滤波器;分离单元,其利用上述逆滤波器从带有上述信息的上述语音中分离出带有上述信息的上述激励源;以及解码单元,其对带有上述信息的上述激励源与上述信息嵌入单元在上述激励源中嵌入上述信息时使用的伪随机序列之间的相关函数进行解码得到上述信息。
另外,优选,在上述合成带有信息的语音的装置中,上述检测单元包括:逆滤波器构建单元,其基于上述谱参数构建逆滤波器;第一分离单元,其利用上述逆滤波器从上述带有上述信息的语音中分离出带有上述信息的上述激励源;第二分离单元,其从带有上述信息的激励源中分离出带有上述信息的清音激励;以及解码单元,其对带有上述信息的上述清音激励与在上述清音激励中嵌入上述信息时使用的伪随机序列之间的相关函数进行解码得到上述信息。
通过本发明的合成带有信息的语音的方法和装置,可以在基于参数的语音合成***中很巧妙且合理的地嵌入所需信息,得到高质量的语音,具有低复杂度,安全可靠等许多优点。此外,相比于一般在语音合成之后再加入信息的通行做法,本发明的方法和装置能够保证信息嵌入算法的隐秘性,同时能够很大程度地减少计算量,特别是满足了对于嵌入式合成芯片资源有限的需求。另外,由于嵌入信息的过程处于语音合成算法之中难于分离,使得信息嵌入模块变得更加安全。再者,如果仅将信息添加到清音激励中,则人耳在听觉上更不易感知所嵌入的信息。
附图说明
相信通过以下结合附图对本发明具体实施方式的说明,能够使人们更好地了解本发明上述的特点、优点和目的。
图1是根据本发明的一个实施例的合成带有信息的语音的方法的流程图。
图2是根据本发明的一个实施例的在语音参数中嵌入信息的一个实例。
图3是根据本发明的一个实施例的在语音参数中嵌入信息的另一个实例。
图4是根据本发明的另一个实施例的合成带有信息的语音的装置的框图。
图5是根据本发明的另一个实施例的在语音参数中嵌入信息的嵌入单元的一个实例。
图6是根据本发明的另一个实施例的在语音参数中嵌入信息的嵌入单元的一个实例。
具体实施方式
下面就结合附图对本发明的各个优选实施例进行详细的说明。
合成带有信息的语音的方法
图1是根据本发明的一个实施例的合成带有信息的语音的方法的流程图。下面就结合该图,对本实施例进行描述。
如图1所示,首先,在步骤101,输入文本句。在本实施例中,输入的文本句可以是本领域的技术人员公知的任何文本的句子,也可以是各种语言的文本句,例如汉语、英语、日语等,本发明对此没有任何限制。
接着,在步骤105,对输入的文本句进行文本分析以从输入的文本句中提取语言学信息。在本实施例中,语言学信息包括上下文信息,具体地包括上述文本句的句长,句中各字(词)的字形、拼音、音素类型、声调、词性、句中位置、与前后字(词)之间的边界类型以及与前后停顿之间的距离等等。此外,在本实施例中,用于从输入的文本句中提取语言学信息的文本分析方法可以是本领域的技术人员公知的任何方法,本发明对此没有任何限制。
接着,在步骤110中,利用在步骤105中提取出的语言学信息以及预先训练好的统计参数模型10,生成语音参数。
在本实施例中,统计参数模型10是利用训练数据预先训练好的。下面对统计参数模型的训练过程进行简单描述。首先,由一个或多个说话者,例如专业的播音员录音得到语音数据库,作为训练数据。在语音数据库中包括多个文本句和与每个文本句对应的语音。接着,对语音数据库中的文本句进行文本分析,提取出语言学信息,即上下文信息。同时,对与每个文本句对应的语音进行语音分析,得到语音参数。这里,语音参数包括基频参数和谱参数。基频参数描述了基音频率,即基音周期的倒数,是指发浊音时声带振动所引起的周期性。谱参数描述了经过短时分析的声道幅频响应特性。更为精细的语音分析还进行了非周期分析,描述了周期信号中的非周期成分,为以后的合成生成更为准确的激励。接着,通过统计方法对上下文信息和语音参数进行聚类,从而形成统计参数模型。该统计参数模型包含了对与上下文信息相关的模型单元(单元例如包括音素,字等)参数的描述,通常描述为参数的分布,例如HMM(Hidden Markov Model,隐马尔科夫模型)的高斯分布或其他数学形式。通常统计参数模型包含有关基频、谱、时长等的信息。
在本实施例中,对于统计参数模型的训练方法没有任何限制,可以利用本领域的技术人员公知的任何训练方法,例如上述非专利文献1中记载的训练方法,得到统计参数模型。此外,在本实施例中,训练得到的统计参数模型可以是基于参数的语音合成***中使用的任何模型,例如HMM模型等,本发明对此没有任何限制。
在本实施例中,在步骤110中,基于在步骤105中提取出的语言学信息以及上述统计参数模型,利用参数恢复算法生成语音参数。在本实施例中,参数恢复算法可以是本领域的技术人员公知的任何参数恢复算法,例如在非专利文献3(“Speech Parameter Generation Algorithm for HMM-based Speech Synthesis”,Keiichi Tokuda,etc.ICASSP2000,在此通过参考引入其整个内容)中记载的参数恢复算法,本发明对此没有任何限制。此外,在本实施例中,在步骤110中生成的语音参数包括基频参数和谱参数。
接着,在步骤115中,在步骤110中生成的语音参数中嵌入预定的信息。在本实施例中,所要嵌入的信息可以是任何需要在语音中嵌入的信息,例如版本信息或文本信息等,本发明对此没有任何限制。另外,版本信息例如包括数字水印等,本发明对此也没有任何限制。
下面参照附图2和3对本发明的在语音参数中嵌入信息的方法进行详细描述。
图2是根据本发明的一个实施例的在语音参数中嵌入信息的一个实例。如图2所示,首先,在步骤1151中,利用在步骤110中生成的语音参数中的基频参数,生成浊音激励。具体地,使基频参数经过脉冲序列发生器生成基频脉冲串,作为浊音激励。另外,在步骤1152,生成清音激励。具体地,由伪随机数字发生器生成伪随机噪声,作为清音激励。在本实施例中,可以理解,对于生成浊音激励和生产清音激励的先后顺序没有任何限制。
接着,在步骤1154,通过在时间上的清浊判断,将清音激励和浊音激励组合成激励源。通常,激励源在时间上由浊音部分和清音部分共同组成,清浊判断由是否有基音频率决定。浊音部分的激励通常表示为基音频率脉冲序列,或者由非周期噪声与周期的基频脉冲序列混合而成的混合激励,清音部分的激励通常由白噪声模拟生成。
在本实施例中,对于清音激励和浊音激励的生成方法以及二者的组合方法没有任何限制,具体细节参见非专利文献4(“Mixed Excitation for HMM-base Speech Synthesis”,T.Yoshimura,etc.in Eurospeech 2001,在此通过参考引入其整个内容)。
接着,在步骤1155,在步骤1154中组合得到的激励源中嵌入预定的信息30。在本实施例中,信息30例如是版本信息或文本信息等。在进行嵌入之前,首先将信息30编码为一个二维码序列m={-1,+1}。然后利用伪随机数发生器生成伪随机噪声PRN。然后将二维码序列m与伪随机噪声PRN相乘,即将信息30转变为序列d。在嵌入的过程中,将激励源作为信息嵌入的宿主信号S,并将序列d加入宿主信号S即可生成携带信息30的激励源S′。具体地,如以下公式(1)和公式(2)所表示。
S′=S+d     (1)
d=m*PRN    (2)
应该理解,上述嵌入信息30的方法只是本发明的在语音参数中嵌入信息的一个例子,在本实施例中可以使用本领域的技术人员公知的任何嵌入方法,例如上述非专利文献2中记载的水印嵌入技术,本发明对此没有任何限制。
上述参考图2的嵌入方法是在组合后的激励源中嵌入所需信息,下面参考图3描述本发明的另一个实例,其中,在组合之前的清音激励中嵌入所需信息。
图3是根据本发明的一个实施例的在语音参数中嵌入信息的另一个实例。如图3所示,首先,与上述参考图2的实例相同,在步骤1151,利用在步骤110中生成的语音参数中的基频参数,生成浊音激励,在步骤1152,生成清音激励,在此省略其详细描述。
接着,在步骤1153,在步骤1152中生成的清音激励中嵌入预定的信息30。在本实施例中,在清音激励中嵌入信息30的方法与上述在激励源中嵌入信息30的方法类似,也是在进行嵌入之前,首先将信息30编码为二维码序列m={-1,+1}。然后利用伪随机数发生器生成伪随机噪声PRN。然后将二维码序列m与伪随机噪声PRN相乘,即将信息30转变为序列d。在嵌入的过程中,将清音激励作为信息嵌入的宿主信号U,并将序列d加入宿主信号U即可生成携带信息30的清音激励U′。具体地,如以下公式(3)和公式(4)所表示。
U′=U+d     (3)
d=m*PRN    (4)
接着,在步骤1154,通过在时间上的清浊判断,将携带信息30的清音激励和浊音激励组合成激励源。
返回图1,在通过上述参考图2和图3的方法将所需信息嵌入语音参数之后,在步骤120中,将嵌入了信息30的语音参数合成为带有信息30的语言。
在本实施例中,在步骤120,首先基于在步骤110中生成的语音参数中的谱参数构建合成滤波器,接着,利用合成滤波器将嵌入了上述信息的上述激励源合成为带有上述信息的语音,即将上述激励源通过合成滤波器即可得到带有上述信息的语音。在本实施例中,对于构建合成滤波器的方法以及利用合成滤波器将激励源合成为语音的方法没有任何限制,可以利用本领域的技术人员公知的任何方法,例如在上述非专利文献1中记载的方法。
此外,在本实施例中,在合成带有上述信息的语音之后还可以对合成的语言中所包含的信息进行检测。
具体地,在通过上述参考图2的方法将信息嵌入激励源中的情况下,可以通过以下方法检测上述信息。
首先,基于在步骤110中生成的语音参数中的谱参数构建逆滤波器,逆滤波器的构建方法与上述构建合成滤波器的方法相反,目的在于利用该逆滤波器从语音中分离出激励源,可以利用本领域的技术人员公知的任何方法来构建逆滤波器。
接着,利用逆滤波器从带有上述信息的语音中分离出带有上述信息的激励源,即将带有上述信息的语音通过逆滤波器,得到在步骤120进行合成之前的带有上述信息30的激励源S′。
接着,利用公式(5)计算带有上述信息30的激励源S′与在上述激励源S中嵌入上述信息30时使用的伪随机序列PRN之间的相关函数,得到二维码序列m。
m = sign ( Cor ( PRN , S ′ ) ) = + 1 . . . . . . Cor ( PRN , S ′ ) - 1 . . . . . . . . . . . . otherwise - - - ( 5 )
最后,对二维码序列m进行解码即可得到上述信息30。这里,在上述激励源S中嵌入上述信息30时使用的伪随机序列PRN即为检测上述信息30的密钥。
另外,在通过上述参考图3的方法将信息嵌入清音激励中的情况下,可以通过以下方法检测上述信息。
首先,基于在步骤110中生成的语音参数中的谱参数构建逆滤波器,逆滤波器的构建方法与上述构建合成滤波器的方法相反,目的在于利用该逆滤波器从语音中分离出激励源,可以利用本领域的技术人员公知的任何方法来构建逆滤波器。
接着,利用逆滤波器从带有上述信息的语音中分离出带有上述信息的激励源,即将带有上述信息的语音通过逆滤波器,得到在步骤120进行合成之前的带有上述信息30的激励源S′。
接着,对带有上述信息30的激励源S′进行清浊判断,从激励源S′中分离出带有上述信息30的清音激励U′。这里进行的清浊判断与上面描述的相同,在此不再赘述。
接着,利用公式(6)计算带有上述信息30的清音激励U′与在清音激励U中嵌入上述信息30时使用的伪随机序列PRN之间的相关函数,得到二维码序列m。
m = sign ( Cor ( PRN , U ′ ) ) = + 1 . . . . . . Cor ( PRN , U ′ ) - 1 . . . . . . . . . . . . otherwise - - - ( 6 )
最后,对二维码序列m进行解码即可得到上述信息30。这里,在清音激励U中嵌入上述信息30时使用的伪随机序列PRN即为检测上述信息30的密钥。
通过本实施例的合成带有信息的语音的方法,可以在基于参数的语音合成方法中很巧妙且合理的地嵌入所需信息,得到高质量的语音,具有低复杂度,安全可靠等许多优点。此外,相比于一般在语音合成之后再加入信息的通行做法,本实施例的方法能够保证信息嵌入算法的隐秘性,同时能够很大程度地减少计算量,特别是满足了对于嵌入式合成芯片资源有限的需求。另外,由于嵌入信息的过程处于语音合成算法之中难于分离,使得水印嵌入模块变得更加安全。再者,如果仅将信息添加到清音激励中,则人耳在听觉上更不易感知所嵌入的信息。
合成带有信息的语音的装置
在同一发明构思下,图4是根据本发明的另一个实施例的合成带有信息的语音的装置的框图。下面就结合该图,对本实施例进行描述。对于那些与前面实施例相同的部分,适当省略其说明。
如图4所示,本实施例的合成带有信息的语音的装置400包括:输入单元401,其输入文本句;文本分析单元405,其对上述输入单元401输入的文本句进行文本分析,以提取语言学信息;参数生成单元410,其利用上述文本分析单元405提取的语言学信息和预先训练好的统计参数模型,生成语音参数;嵌入单元415,其在上述语音参数中嵌入预定的信息30;以及语音合成单元420,其将利用上述嵌入单元嵌入了上述信息30的上述语音参数合成为带有上述信息30的语音
在本实施例中,输入单元401输入的文本句可以是本领域的技术人员公知的任何文本的句子,也可以是各种语言的文本句,例如汉语、英语、日语等,本发明对此没有任何限制。
文本分析单元405对输入的文本句进行文本分析以从输入的文本句中提取语言学信息。在本实施例中,语言学信息包括上下文信息,具体地包括上述文本句的句长,句中各字(词)的字形、拼音、音素类型、声调、词性、句中位置、与前后字(词)之间的边界类型以及与前后停顿之间的距离等等。此外,在本实施例中,用于从输入的文本句中提取语言学信息的文本分析方法可以是本领域的技术人员公知的任何方法,本发明对此没有任何限制。
参数生成单元410利用文本分析单元405提取出的语言学信息以及预先训练好的统计参数模型10,生成语音参数。
在本实施例中,统计参数模型10是利用训练数据预先训练好的。下面对统计参数模型的训练过程进行简单描述。首先,由一个或多个说话者,例如专业的播音员录音得到语音数据库,作为训练数据。在语音数据库中包括多个文本句和与每个文本句对应的语音。接着,对语音数据库中的文本句进行文本分析,提取出语言学信息,即上下文信息。同时,对与每个文本句对应的语音进行语音分析,得到语音参数。这里,语音参数包括基频参数和谱参数。基频参数描述了基音频率,即基音周期的倒数,是指发浊音时声带振动所引起的周期性。谱参数描述了经过短时分析的声道幅频响应特性。更为精细的语音分析还进行了非周期分析,描述了周期信号中的非周期成分,为以后的合成生成更为准确的激励。接着,通过统计方法对上下文信息和语音参数进行聚类,从而形成统计参数模型。该统计参数模型包含了对与上下文信息相关的模型单元(单元例如包括音素,字等)参数的描述,通常描述为参数的分布,例如HMM(Hidden Markov Model,隐马尔科夫模型)的高斯分布或其他数学形式。通常统计参数模型包含有关基频、谱、时长等的信息。
在本实施例中,对于统计参数模型的训练方法没有任何限制,可以利用本领域的技术人员公知的任何训练方法,例如上述非专利文献1中记载的训练方法,得到统计参数模型。此外,在本实施例中,训练得到的统计参数模型可以是基于参数的语音合成***中使用的任何模型,例如HMM模型等,本发明对此没有任何限制。
在本实施例中,参数生成单元410,基于文本分析单元405提取出的语言学信息以及上述统计参数模型,利用参数恢复算法生成语音参数。在本实施例中,参数恢复算法可以是本领域的技术人员公知的任何参数恢复算法,例如在非专利文献3(“Speech Parameter Generation Algorithm for HMM-based Speech Synthesis”,Keiichi Tokuda,etc.ICASSP2000,在此通过参考引入其整个内容)中记载的参数恢复算法,本发明对此没有任何限制。此外,在本实施例中,参数生成单元410生成的语音参数包括基频参数和谱参数。
嵌入单元415在参数生成单元410生成的语音参数中嵌入预定的信息。在本实施例中,所要嵌入的信息可以是任何需要在语音中嵌入的信息,例如版本信息或文本信息等,本发明对此没有任何限制。另外,版本信息例如包括数字水印等,本发明对此也没有任何限制。
下面参照附图5和6对本实施例的在语音参数中嵌入信息的嵌入单元415进行详细描述。
图5是根据本发明的一个实施例的在语音参数中嵌入信息的嵌入单元415的一个实例。如图5所示,嵌入单元415包括:浊音激励生成单元4151,其基于上述基频参数生成浊音激励;清音激励生成单元4152,其生成清音激励;组合单元4154,其将上述浊音激励和上述清音激励组合成激励源;以及信息嵌入单元4155,其在上述激励源中嵌入上述信息。
具体地,浊音激励生成单元4151使基频参数经过脉冲序列发生器生成基频脉冲串,作为浊音激励。另外,清音激励生成单元4152包括伪随机数字发生器,由伪随机数字发生器生成伪随机噪声,作为清音激励。
组合单元4154通过在时间上的清浊判断,将清音激励和浊音激励组合成激励源。通常,激励源在时间上由浊音部分和清音部分共同组成,清浊判断由是否有基音频率决定。浊音部分的激励通常表示为基音频率脉冲序列,或者由非周期噪声与周期的基频脉冲序列混合而成的混合激励,清音部分的激励通常由白噪声模拟生成。
在本实施例中,对于浊音激励生成单元4151、清音激励生成单元4152以及组合清音激励和浊音激励的组合单元4154没有任何限制,具体细节参见非专利文献4(“Mixed Excitation for HMM-base Speech Synthesis”,T. Yoshimura,etc.in Eurospeech 2001,在此通过参考引入其整个内容)。
信息嵌入单元4155,在组合单元4154组合得到的激励源中嵌入预定的信息30。在本实施例中,信息30例如是版本信息或文本信息等。在进行嵌入之前,首先将信息30编码为二维码序列m={-1,+1}。然后利用伪随机数发生器生成伪随机噪声PRN。然后将二维码序列m与伪随机噪声PRN相乘,即将信息30转变为序列d。在信息嵌入单元4155进行嵌入的过程中,将激励源作为信息嵌入的宿主信号S,并将序列d加入宿主信号S即可生成携带信息30的激励源S′。具体地,如以上公式(1)和公式(2)所表示。
应该理解,上述信息嵌入单元4155嵌入信息30的方法只是本发明的在语音参数中嵌入信息的一个例子,在本实施例中可以使用本领域的技术人员公知的任何嵌入方法,例如上述非专利文献2中记载的水印嵌入技术,本发明对此没有任何限制。
上述参考图5的嵌入单元是在组合后的激励源中嵌入所需信息,下面参考图6描述本发明的嵌入单元415的另一个实例,其在组合之前的清音激励中嵌入所需信息。
图6是根据本发明的一个实施例的在语音参数中嵌入信息的嵌入单元415的另一个实例。如图6所示,嵌入单元415包括:浊音激励生成单元4151,其基于上述基频参数生成浊音激励;清音激励生成单元4152,其生成清音激励;信息嵌入单元4153,其在上述清音激励中嵌入上述信息;以及组合单元4154,其将上述浊音激励和嵌入了上述信息的上述清音激励组合成激励源
在本实例中,浊音激励生成单元4151和清音激励生成单元4152与上述参考图5的实例中的浊音激励生成单元和清音激励生成单元相同,在此省略其详细描述并赋予相同的参考标号。
信息嵌入单元4153,在清音激励生成单元4152生成的清音激励中嵌入预定的信息30。在本实施例中,在清音激励中嵌入信息30的方法与上述信息嵌入单元4155在激励源中嵌入信息30的方法类似,也是在进行嵌入之前,首先将信息30编码为二维码序列m={-1,+1}。然后利用伪随机数发生器生成伪随机噪声PRN。然后将二维码序列m与伪随机噪声PRN相乘,即将信息30转变为序列d。在嵌入的过程中,将清音激励作为信息嵌入的宿主信号U,并将序列d加入宿主信号U即可生成携带信息30的清音激励U′。具体地,如以上公式(3)和公式(4)所表示。
在本实例中,组合单元4154与上述参考图5的实例中的组合单元相同,在此省略其详细描述并赋予相同的参考标号。
返回图4,在本实施例中,语音合成单元420包括滤波器构建单元,其基于参数生成单元410生成的语音参数中的谱参数构建合成滤波器,语音合成单元420利用合成滤波器将嵌入了上述信息的上述激励源合成为带有上述信息的语音,即将上述激励源通过合成滤波器即可得到带有上述信息的语音。在本实施例中,对于滤波器构建单元以及利用合成滤波器将激励源合成为语音的方法没有任何限制,可以利用本领域的技术人员公知的任何方法,例如在上述非专利文献1中记载的方法。
此外,可选地,本实施例的合成带有信息的语音的装置400还可以包括未图示的检测单元,其可以对语音合成单元420合成的语言中所包含的信息进行检测。
具体地,在通过上述参考图5的嵌入单元将信息嵌入激励源中的情况下,检测单元包括逆滤波器构建单元,其基于参数生成单元410生成的语音参数中的谱参数构建逆滤波器,逆滤波器构建单元与上述滤波器构建类似,其目的在于利用该逆滤波器构建单元构建的逆滤波器从语音中分离出激励源,可以利用本领域的技术人员公知的任何方法来构建逆滤波器。
检测单元还包括分离单元,其利用逆滤波器从带有上述信息的语音中分离出带有上述信息的激励源,即将带有上述信息的语音通过逆滤波器,得到带有上述信息30的激励源S′。
检测单元还包括解码单元,其利用上述公式(5)计算带有上述信息30的激励源S′与上述信息嵌入单元4155在激励源S中嵌入上述信息30时使用的伪随机序列PRN之间的相关函数,得到二维码序列m,并对二维码序列m进行解码即可得到上述信息30。这里,上述信息嵌入单元4155在激励源S中嵌入上述信息30时使用的伪随机序列PRN即为检测单元检测上述信息30的密钥。
另外,在通过上述参考图6的嵌入单元将信息嵌入清音激励中的情况下,检测单元包括逆滤波器构建单元,基于参数生成单元410生成的语音参数中的谱参数构建逆滤波器,逆滤波器构建单元与上述滤波器构建类似,其目的在于利用该逆滤波器构建单元构建的逆滤波器从语音中分离出激励源,可以利用本领域的技术人员公知的任何方法来构建逆滤波器。
检测单元还包括第一分离单元,其利用逆滤波器从带有上述信息的语音中分离出带有上述信息的激励源,即将带有上述信息的语音通过逆滤波器,得到带有上述信息30的激励源S′。
检测单元还包括第二分离单元,其对带有上述信息30的激励源S′进行清浊判断,从激励源S′中分离出带有上述信息30的清音激励U′。这里进行的清浊判断与上面描述的相同,在此不再赘述。
检测单元还包括解码单元,其利用上述公式(6)计算带有上述信息30的清音激励U′与上述信息嵌入单元4153在清音激励U中嵌入上述信息30时使用的伪随机序列PRN之间的相关函数,得到二维码序列m,并对二维码序列m进行解码即可得到上述信息30。这里,上述信息嵌入单元4153在清音激励U中嵌入上述信息30时使用的伪随机序列PRN即为检测单元检测上述信息30的密钥。
通过本实施例的合成带有信息的语音的装置400,可以在基于参数的语音合成***中很巧妙且合理的地嵌入所需信息,得到高质量的语音,具有复杂度低,安全可靠等许多优点。此外,相比于一般在语音合成之后再加入信息的通行做法,本实施例的装置400能够保证信息嵌入算法的隐秘性,同时能够很大程度地减少计算量,特别是满足了对于嵌入式合成芯片资源有限的需求。另外,由于嵌入信息的过程处于语音合成算法之中难于分离,使得水印嵌入模块变得更加安全。再者,如果仅将信息添加到清音激励中,则人耳在听觉上更不易感知所嵌入的信息。
以上虽然通过一些示例性的实施例对本发明的合成带有信息的语音的方法和装置进行了详细的描述,但是以上这些实施例并不是穷举的,本领域技术人员可以在本发明的精神和范围内实现各种变化和修改。因此,本发明并不限于这些实施例,本发明的范围仅由所附权利要求为准。
具体地,本发明能够用于基于统计参数合成算法的任何语音合成的商业产品中,对***进行版权保护。特别是对于嵌入式语音交互应用于电视,汽车导航,手机,情感语音模拟的机器人等,能够很容易的实现。而且,本发明也可用于嵌入一些有用的信息,例如嵌入声音文本信息用于互联网应用。

Claims (10)

1.一种合成语音的装置,包括:
输入单元,其输入文本句;
文本分析单元,其对上述文本句进行文本分析,以提取语言学信息;
参数生成单元,其利用上述语言学信息和预先训练好的统计参数模型,生成语音参数;
嵌入单元,其在上述语音参数中嵌入信息;以及
语音合成单元,其将利用上述嵌入单元嵌入了上述信息的上述语音参数合成为带有上述信息的语音。
2.根据权利要求1所述的合成语音的装置,其中,上述语音参数包括基频参数和谱参数,上述嵌入单元包括:
浊音激励生成单元,其基于上述基频参数生成浊音激励;
清音激励生成单元,其生成清音激励;
组合单元,其将上述浊音激励和上述清音激励组合成激励源;以及
信息嵌入单元,其在上述激励源中嵌入上述信息。
3.根据权利要求2所述的合成语音的装置,其中,上述语音合成单元包括:
滤波器构建单元,其基于上述谱参数构建合成滤波器;
其中,上述语音合成单元利用上述合成滤波器将嵌入了上述信息的上述激励源合成为带有上述信息的语音。
4.根据权利要求3所述的合成语音的装置,还包括检测单元,其在上述语音合成单元合成带有上述信息的语音之后检测上述信息。
5.根据权利要求4所述的合成语音的装置,其中,上述检测单元包括:
逆滤波器构建单元,其基于上述谱参数构建逆滤波器;
分离单元,其利用上述逆滤波器从带有上述信息的上述语音中分离出带有上述信息的上述激励源;以及
解码单元,其对带有上述信息的上述激励源与上述信息嵌入单元在上述激励源中嵌入上述信息时使用的伪随机序列之间的相关函数进行解码得到上述信息。
6.根据权利要求1所述的合成语音的装置,其中,上述语音参数包括基频参数和谱参数,上述嵌入单元包括:
浊音激励生成单元,其基于上述基频参数生成浊音激励;
清音激励生成单元,其生成清音激励;
信息嵌入单元,其在上述清音激励中嵌入上述信息;以及
组合单元,其将上述浊音激励和嵌入了上述信息的上述清音激励组合成激励源。
7.根据权利要求6所述的合成语音的装置,其中,上述语音合成单元包括:
滤波器构建单元,其基于上述谱参数构建合成滤波器;
其中,上述语音合成单元利用上述合成滤波器将嵌入了上述信息的上述激励源合成为带有上述信息的语音。
8.根据权利要求7所述的合成语音的装置,还包括检测单元,其在上述语音合成单元合成带有上述信息的语音之后检测上述信息。
9.根据权利要求8所述的合成语音的装置,其中,上述检测单元包括:
逆滤波器构建单元,其基于上述谱参数构建逆滤波器;
第一分离单元,其利用上述逆滤波器从上述带有上述信息的语音中分离出带有上述信息的上述激励源;
第二分离单元,其从带有上述信息的激励源中分离出带有上述信息的清音激励;以及
解码单元,其对带有上述信息的上述清音激励与在上述清音激励中嵌入上述信息时使用的伪随机序列之间的相关函数进行解码得到上述信息。
10.一种合成语音的方法,包括以下步骤:
输入文本句;
对输入的文本句进行文本分析,以提取语言学信息;
利用上述语言学信息和预先训练好的统计参数模型,生成语音参数;
在上述语音参数中嵌入信息;以及
将嵌入了上述信息的上述语音参数合成为带有上述信息的语音。
CN2010800009275A 2010-01-04 2010-01-04 合成语音的方法和装置 Active CN102203853B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2010/050002 WO2011080597A1 (en) 2010-01-04 2010-01-04 Method and apparatus for synthesizing a speech with information

Publications (2)

Publication Number Publication Date
CN102203853A true CN102203853A (zh) 2011-09-28
CN102203853B CN102203853B (zh) 2013-02-27

Family

ID=44225223

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2010800009275A Active CN102203853B (zh) 2010-01-04 2010-01-04 合成语音的方法和装置

Country Status (4)

Country Link
US (1) US20110166861A1 (zh)
JP (1) JP5422754B2 (zh)
CN (1) CN102203853B (zh)
WO (1) WO2011080597A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103854643A (zh) * 2012-11-29 2014-06-11 株式会社东芝 用于合成语音的方法和装置
CN106211799A (zh) * 2014-03-31 2016-12-07 唐泽培雄 使用声响的任意信号的传递方法
CN106688034A (zh) * 2014-09-11 2017-05-17 微软技术许可有限责任公司 具有情感内容的文字至语音转换
CN109801618A (zh) * 2017-11-16 2019-05-24 深圳市腾讯计算机***有限公司 一种音频信息的生成方法和装置
CN111954903A (zh) * 2018-12-11 2020-11-17 微软技术许可有限责任公司 多说话者神经文本到语音合成
CN112767913A (zh) * 2019-10-21 2021-05-07 百度(美国)有限责任公司 支持听不见的水印的文本到语音框架
CN117995165A (zh) * 2024-04-03 2024-05-07 中国科学院自动化研究所 基于隐变量空间添加水印的语音合成方法、装置及设备

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102651217A (zh) * 2011-02-25 2012-08-29 株式会社东芝 用于合成语音的方法、设备以及用于语音合成的声学模型训练方法
CN108417199B (zh) 2013-01-18 2022-11-22 株式会社东芝 音频水印信息检测装置及音频水印信息检测方法
US9147393B1 (en) 2013-02-15 2015-09-29 Boris Fridman-Mintz Syllable based speech processing method
CN105283916B (zh) * 2013-06-11 2019-06-07 株式会社东芝 电子水印嵌入装置、电子水印嵌入方法及计算机可读记录介质
US9607610B2 (en) 2014-07-03 2017-03-28 Google Inc. Devices and methods for noise modulation in a universal vocoder synthesizer
CN108091321B (zh) * 2017-11-06 2021-07-16 芋头科技(杭州)有限公司 一种语音合成方法
TWI790718B (zh) * 2021-08-19 2023-01-21 宏碁股份有限公司 會議終端及用於會議的回音消除方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0162479B1 (en) * 1980-02-04 1990-03-21 Texas Instruments Incorporated Speech synthesis system
JPH086591A (ja) * 1994-06-15 1996-01-12 Sony Corp 音声出力装置
JP3355521B2 (ja) * 1998-03-23 2002-12-09 東洋通信機株式会社 音声符号化時の透かしビットの埋込方法
AU772874B2 (en) * 1998-11-13 2004-05-13 Scansoft, Inc. Speech synthesis using concatenation of speech waveforms
JP2000298667A (ja) * 1999-04-15 2000-10-24 Matsushita Electric Ind Co Ltd 構文情報による漢字変換装置
JP2001265375A (ja) * 2000-03-17 2001-09-28 Oki Electric Ind Co Ltd 規則音声合成装置
US6542867B1 (en) * 2000-03-28 2003-04-01 Matsushita Electric Industrial Co., Ltd. Speech duration processing method and apparatus for Chinese text-to-speech system
US6892175B1 (en) * 2000-11-02 2005-05-10 International Business Machines Corporation Spread spectrum signaling for speech watermarking
JP2003099077A (ja) * 2001-09-26 2003-04-04 Oki Electric Ind Co Ltd 電子透かし埋込装置、抽出装置及び方法
JP4527369B2 (ja) * 2003-07-31 2010-08-18 富士通株式会社 データ埋め込み装置及びデータ抽出装置
US20050144002A1 (en) * 2003-12-09 2005-06-30 Hewlett-Packard Development Company, L.P. Text-to-speech conversion with associated mood tag
WO2005119650A1 (ja) * 2004-06-04 2005-12-15 Matsushita Electric Industrial Co., Ltd. 音声合成装置
US7269561B2 (en) * 2005-04-19 2007-09-11 Motorola, Inc. Bandwidth efficient digital voice communication system and method
WO2006134736A1 (ja) * 2005-06-16 2006-12-21 Matsushita Electric Industrial Co., Ltd. 音声合成装置、音声合成方法およびプログラム
CN1953052B (zh) * 2005-10-20 2010-09-08 株式会社东芝 训练时长预测模型、时长预测和语音合成的方法及装置
JP2007333851A (ja) * 2006-06-13 2007-12-27 Oki Electric Ind Co Ltd 音声合成方法、音声合成装置、音声合成プログラム、音声合成配信システム
JP4878538B2 (ja) * 2006-10-24 2012-02-15 株式会社日立製作所 音声合成装置
JP2008185805A (ja) * 2007-01-30 2008-08-14 Internatl Business Mach Corp <Ibm> 高品質の合成音声を生成する技術
WO2008114432A1 (ja) * 2007-03-20 2008-09-25 Fujitsu Limited データ埋め込み装置、データ抽出装置、及び音声通信システム
JP4455633B2 (ja) * 2007-09-10 2010-04-21 株式会社東芝 基本周波数パターン生成装置、基本周波数パターン生成方法及びプログラム
CN101452699A (zh) * 2007-12-04 2009-06-10 株式会社东芝 韵律自适应及语音合成的方法和装置
WO2009144368A1 (en) * 2008-05-30 2009-12-03 Nokia Corporation Method, apparatus and computer program product for providing improved speech synthesis
US7977562B2 (en) * 2008-06-20 2011-07-12 Microsoft Corporation Synthesized singing voice waveform generator
US8457967B2 (en) * 2009-08-15 2013-06-04 Nuance Communications, Inc. Automatic evaluation of spoken fluency

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103854643A (zh) * 2012-11-29 2014-06-11 株式会社东芝 用于合成语音的方法和装置
CN103854643B (zh) * 2012-11-29 2017-03-01 株式会社东芝 用于合成语音的方法和装置
CN106211799A (zh) * 2014-03-31 2016-12-07 唐泽培雄 使用声响的任意信号的传递方法
CN106211799B (zh) * 2014-03-31 2019-11-29 唐泽培雄 使用声响的任意信号的传递方法
CN106688034A (zh) * 2014-09-11 2017-05-17 微软技术许可有限责任公司 具有情感内容的文字至语音转换
CN106688034B (zh) * 2014-09-11 2020-11-13 微软技术许可有限责任公司 具有情感内容的文字至语音转换
CN109801618A (zh) * 2017-11-16 2019-05-24 深圳市腾讯计算机***有限公司 一种音频信息的生成方法和装置
CN111954903A (zh) * 2018-12-11 2020-11-17 微软技术许可有限责任公司 多说话者神经文本到语音合成
CN111954903B (zh) * 2018-12-11 2024-03-15 微软技术许可有限责任公司 多说话者神经文本到语音合成
CN112767913A (zh) * 2019-10-21 2021-05-07 百度(美国)有限责任公司 支持听不见的水印的文本到语音框架
CN117995165A (zh) * 2024-04-03 2024-05-07 中国科学院自动化研究所 基于隐变量空间添加水印的语音合成方法、装置及设备
CN117995165B (zh) * 2024-04-03 2024-05-31 中国科学院自动化研究所 基于隐变量空间添加水印的语音合成方法、装置及设备

Also Published As

Publication number Publication date
US20110166861A1 (en) 2011-07-07
CN102203853B (zh) 2013-02-27
WO2011080597A1 (en) 2011-07-07
JP2013516639A (ja) 2013-05-13
JP5422754B2 (ja) 2014-02-19

Similar Documents

Publication Publication Date Title
CN102203853B (zh) 合成语音的方法和装置
Wu et al. Anti-spoofing for text-independent speaker verification: An initial database, comparison of countermeasures, and human performance
Gold et al. Speech and audio signal processing: processing and perception of speech and music
JP3812848B2 (ja) 音声合成装置
Servetti et al. Perception-based partial encryption of compressed speech
Wan et al. Google's Next-Generation Real-Time Unit-Selection Synthesizer Using Sequence-to-Sequence LSTM-Based Autoencoders.
CN105206257B (zh) 一种声音转换方法及装置
CN105304080A (zh) 语音合成装置及方法
Hong et al. Speech reconstruction with reminiscent sound via visual voice memory
Aryal et al. Accent conversion through cross-speaker articulatory synthesis
EP2507794B1 (en) Obfuscated speech synthesis
CN105283916B (zh) 电子水印嵌入装置、电子水印嵌入方法及计算机可读记录介质
CN111916054A (zh) 基于唇形的语音生成方法、装置和***及存储介质
Yu et al. {SMACK}: Semantically Meaningful Adversarial Audio Attack
Cernak et al. On the (UN) importance of the contextual factors in HMM-based speech synthesis and coding
Prahallad et al. Automatic building of synthetic voices from large multi-paragraph speech databases.
Yu et al. Antifake: Using adversarial audio to prevent unauthorized speech synthesis
Williams et al. Revisiting speech content privacy
CN112634861B (zh) 数据处理方法、装置、电子设备和可读存储介质
Win et al. Myanmar text-to-speech system with rule-based tone synthesis
Tunalı A speaker dependent, large vocabulary, isolated word speech recognition system for turkish
Ueda et al. Individuality-preserving voice reconstruction for articulation disorders using text-to-speech synthesis
Chen Practical Adversarial Attacks Against Black Box Speech Recognition Systems and Devices
Saha et al. An Approach for Speech Enhancement in Low SNR Environments using Granular Speaker Embedding
Nema Automatic passkey generator using speech biometric features

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant