CN112967717B - 一种高准确性的英语语音翻译的模糊匹配训练方法 - Google Patents
一种高准确性的英语语音翻译的模糊匹配训练方法 Download PDFInfo
- Publication number
- CN112967717B CN112967717B CN202110223114.2A CN202110223114A CN112967717B CN 112967717 B CN112967717 B CN 112967717B CN 202110223114 A CN202110223114 A CN 202110223114A CN 112967717 B CN112967717 B CN 112967717B
- Authority
- CN
- China
- Prior art keywords
- voice
- programmable device
- fuzzy
- matching
- online
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013519 translation Methods 0.000 title claims abstract description 32
- 238000000034 method Methods 0.000 title claims abstract description 13
- 238000012549 training Methods 0.000 title description 2
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 29
- 230000002068 genetic effect Effects 0.000 claims abstract description 18
- 238000001514 detection method Methods 0.000 claims abstract description 6
- 210000000349 chromosome Anatomy 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 238000010183 spectrum analysis Methods 0.000 claims description 4
- 238000007619 statistical method Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000035772 mutation Effects 0.000 claims description 3
- 230000014616 translation Effects 0.000 description 28
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/12—Computing arrangements based on biological models using genetic models
- G06N3/126—Evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/33—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using fuzzy logic
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Signal Processing (AREA)
- Molecular Biology (AREA)
- Machine Translation (AREA)
- Physiology (AREA)
- Genetics & Genomics (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Automation & Control Theory (AREA)
- Computing Systems (AREA)
- Fuzzy Systems (AREA)
Abstract
本发明公开了一种高准确性的英语语音翻译的模糊匹配方法,所述模糊匹配方法包括以下步骤:S1、获取语音信息并转换成数字语音信号;S2、将所述数字语音信号采用模糊声像规则进行语音检测,得到对应的匹配参数,根据所述匹配参数采用遗传算法运算得到可编程器件的重配置数据流;S3、采用所述重配置数据流重新配置可编程器件;S4、所述在线语音接收模块可将匹配参数作为导引来检索在线语音数据,并将所述在线语音数据进行粗略排序;将检索到的在线语音数据输入可编程器件进行模糊匹配;S5、找到最为匹配的在线语音数据输出。
Description
技术领域
本发明涉及英文翻译领域,具体涉及一种高准确性的英语语音翻译的模糊匹配方法。
背景技术
随着互联网技术的发展,英文翻译的智能化也在不断推进,如计算机辅助翻译***,文本翻译以及语音翻译都逐一实现,特别是掌上设备如手机APP均能实现语音在线翻译。
现有技术中一般采用将语音转换成文本,再将采用算法将文本信息与翻译库中的语句进行相似性匹配,将相似度最高的结果作为输出。如CN201710532235.9公开了一种云翻译记忆库快速增量式模糊匹配的方法,采用信息检索技术对大规模翻译记忆库构建索引,采用粗选和精选策略,即首先从索引库中根据输入的待译句子得到匹配的子集,然后利用句子语义向量相似度和编辑距离线性组合的模糊匹配方法得到最终的翻译输出,最后将人工后编辑后的译文及其源语言句段返回翻译记忆库增量式更新。
这样翻译出的效率并不高,而且文本识别率也跟英文发音是否准确有关,文本匹配后得出翻译结果还需要再次查看文本信息,根据文本信息再理解其中含义,影响交流效率。
发明内容
为背景技术中的问题,本发明提供了如下技术方案:一种高准确性的英语语音翻译的模糊匹配方法,具体的步骤如下:
S1、获取语音信息并转换成数字语音信号;
S2、将所述数字语音信号采用模糊声像规则进行语音检测,得到对应的匹配参数,根据所述匹配参数采用遗传算法运算得到可编程器件的重配置数据流;
S3、采用所述重配置数据流重新配置可编程器件;
S4、所述在线语音接收模块可将匹配参数作为导引来检索在线语音数据,并将所述在线语音数据进行粗略排序;将检索到的在线语音数据输入可编程器件进行模糊匹配;
S5、找到最为匹配的在线语音数据输出。
所述步骤S4中的模糊匹配算法为:将若干个匹配参数作为模糊规则R,数字化语音作为输入量X,当输入量X激活若干条模糊规则R时,输出U则由若干条模糊规则的输出决定。
所述步骤S2中的遗传算法具体如下:
S21、随机生成染色体个体;
S22、计算所述个体的适应度值;
S23、对个体随机实施变异操作,生成子代个体;
S24、执行选择操作,若子代个体的适应度值高于个体的适应度值,则将子代个体复制到下一代,否则以一个较小的概率复制子代个体到下一代,依次类推直至满足终止条件。
所述步骤S2中的所述模糊声像规则包括梅尔倒谱系数分析、短时能量以及短时平均过零率统计方法、基于谱分析得到的共振峰提取方法等方法共同组成的规则实现的“声音画像”特征描述,将上述规则的输出如梅尔倒谱系数、短时能量、短时平均过零率、共振峰等作为匹配参数。
把可编程器件中的可配置逻辑模块(LUT)作为染色体,通过遗传算法,找出最优的染色体,生成重配置数据流配置到可编程器件上,从而对电路重新配置,以实现根据输入语音的变化而变化自身以更有效率的匹配语音数据。
本发明还提供一种英语语音的翻译模糊匹配***,能够更为准确的翻译,其中一个技术方案为:一种英语语音的翻译模糊匹配***,包括处理器、存储器、可编程器件、在线语音接收模块、语音获取模块以及显示播放模块;
所述处理器和可编程器件分别与语音获取模块连接;所述处理器分别和存储器、可编程器件、在线语音接收模块、语音获取模块以及显示播放模块电性连接;
所述在线语音接收模块、存储器与可编程器件连接;
所述语音获取模块获取语音信息并转换成数字语音信号。
所述处理器接收所述数字语音信号,并将所述数字语音信号采用模糊声像规则进行语音检测,得到对应的匹配参数,根据所述匹配参数采用遗传算法运算得到可编程器件的重配置数据流,并将所述重配置数据流存储至存储器,所述处理器控制所述存储器以及可编程器件对可编程器件进行重新配置。
所述匹配参数还用于通过在线语音接收模块检索在线语音数据,所述在线语音接收模块可将匹配参数作为导引来检索在线语音数据,并将所述在线语音数据进行粗略排序;将检索到的在线语音数据输入可编程器件进行模糊匹配。
所述可编程器件被配置成实现模糊匹配算法,将若干个匹配参数作为模糊规则R,数字化语音作为输入量X,当输入量X激活若干条模糊规则R时,输出U则由若干条模糊规则的输出决定。
所述可编程器件以数字语音信号以及在线语音数据作为输入,经过模糊匹配算法的计算,最后找到最为匹配的在线语音数据输出到处理器再进行组合以及文本翻译送至显示播放模块播放与显示。
本发明根据接收到的语音信息特点,得到匹配参数,再运用遗传算法得到最佳的匹配策略生成用于配置可编程器件的重配置数据流,进而便于匹配在线语音数据与输入的数字语音信号,最后采用模糊匹配算法直接进行语音信号的匹配,根据模糊规则得到准确的匹配数据后进行翻译的语音以及文本输出。这样就能够根据语音输入特点得到最为匹配的语音翻译信息,也能够快速实现语音输出。
附图说明
图1为翻译模糊匹配***框图。
图2为翻译模糊匹配***电路示意图。
图3为英语语音的翻译模糊匹配***的步骤图。
图4为遗传算法实现步骤图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
如图3所示,本发明提供了一种具体的实施方式:一种高准确性的英语语音翻译的模糊匹配方法,具体的步骤如下:
S1、获取语音信息并转换成数字语音信号;
S2、将所述数字语音信号采用模糊声像规则进行语音检测,得到对应的匹配参数,根据所述匹配参数采用遗传算法运算得到可编程器件的重配置数据流;
S3、采用所述重配置数据流重新配置可编程器件;
S4、所述在线语音接收模块可将匹配参数作为导引来检索在线语音数据,并将所述在线语音数据进行粗略排序;将检索到的在线语音数据输入可编程器件进行模糊匹配;
S5、找到最为匹配的在线语音数据输出。
所述S4中的模糊匹配算法为:将若干个匹配参数作为模糊规则R,数字化语音作为输入量X,当输入量X激活若干条模糊规则R时,输出U则由若干条模糊规则的输出决定。
所述S2中的遗传算法具体如下:
S21、随机生成染色体个体;
S22、计算所述个体的适应度值;
S23、对个体随机实施变异操作,生成子代个体;
S24、执行选择操作,若子代个体的适应度值高于个体的适应度值,则将子代个体复制到下一代,否则以一个较小的概率复制子代个体到下一代,依次类推直至满足终止条件。
所述S2中的所述模糊声像规则包括梅尔倒谱系数分析、短时能量以及短时平均过零率统计方法、基于谱分析得到的共振峰提取方法等方法共同组成的规则实现的“声音画像”特征描述,将上述规则的输出如梅尔倒谱系数、短时能量、短时平均过零率、共振峰等作为匹配参数。
把可编程器件3中的可配置逻辑模块(LUT)作为染色体,通过遗传算法,找出最优的染色体,生成重配置数据流配置到可编程器件3上,从而对电路重新配置,以实现根据输入语音的变化而变化自身以更有效率的匹配语音数据。
实施例2
如图1所示,本发明提供的一种具体实施方式为一种英语语音的翻译模糊匹配***,包括处理器1、存储器2、可编程器件3、在线语音接收模块4、语音获取模块5以及显示播放模块6。
所述处理器1和可编程器件3分别与语音获取模块5连接;所述处理器1分别和存储器2、可编程器件3、在线语音接收模块4、语音获取模块5以及显示播放模块6电性连接。
所述在线语音接收模块4、存储器2与可编程器件3连接;
所述语音获取模块5获取语音信息并转换成数字语音信号;
所述处理器1接收所述数字语音信号,并将所述数字语音信号采用模糊声像规则进行语音检测,得到对应的匹配参数,根据所述匹配参数采用遗传算法运算得到可编程器件3的重配置数据流,并将所述重配置数据流存储至存储器2,所述处理器1控制所述存储器2以及可编程器件3对可编程器件3进行重新配置。
所述匹配参数还用于通过在线语音接收模块4检索在线语音数据,所述在线语音接收模块4可将匹配参数作为导引来检索在线语音数据,并将所述在线语音数据进行粗略排序;将检索到的在线语音数据输入可编程器件3进行模糊匹配。
所述可编程器件3被配置成实现模糊匹配算法,将若干个匹配参数作为模糊规则R,数字化语音作为输入量X,当输入量X激活若干条模糊规则R时,输出U则由若干条模糊规则的输出决定。
所述可编程器件3以数字语音信号以及在线语音数据作为输入,经过模糊匹配算法的计算,最后找到最为匹配的在线语音数据输出到处理器1再进行组合以及文本翻译送至显示播放模块6播放与显示。
如图2所示,作为一种优选的实施方式,所述可编程器件3可采用FPGA 3’实现,而处理器1在启动程序时即能控制存储在存储器中的配置数据流完成对FPGA 3’芯片的上电后配置;在处理器1运行的过程中也能重新生成重配置数据流以实现对FPGA3’的重配置,以便于对不同的英文语音进行个性化翻译。
作为一种优选的实施方式,所述遗传算法可采用趋向型紧凑遗传算法;
作为一种优选的实施方式,所述模糊声像规则包括梅尔倒谱系数分析、短时能量以及短时平均过零率统计方法、基于谱分析得到的共振峰提取方法等方法共同组成的规则实现的“声音画像”特征描述,将上述规则的输出如梅尔倒谱系数、短时能量、短时平均过零率、共振峰等作为匹配参数。
作为一种优选的实施方式,所述处理器1可采用STM32系列单片机1’或者DSP实现。
作为一种优选的实施方式,所述在线语音接收模块4可远程获取服务器中的在线语音特征库,并根据匹配参数以及将数字语音信号转换文本的方式实现在线语音特征的检索;并将检索结果排序后发送至可编程器件3中进行模糊匹配;可配合处理器1搭建Websocket服务器4’。
上述实施方式根据接收到的语音信息特点,得到匹配参数,再运用遗传算法得到最佳的匹配策略生成用于配置可编程器件3的重配置数据流,进而便于匹配在线语音数据与输入的数字语音信号,最后采用模糊匹配算法直接进行语音信号的匹配,根据模糊规则得到准确的匹配数据后进行翻译的语音以及文本输出。这样就能够根据语音输入特点得到最为匹配的语音翻译信息,也能够快速实现语音输出。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (1)
1.一种高准确性的英语语音翻译的模糊匹配方法,其特征在于:该匹配方法采用的匹配***包括处理器、存储器、可编程器件、在线语音接收模块、语音获取模块以及显示播放模块;所述处理器和可编程器件分别与语音获取模块连接;所述处理器分别和存储器、可编程器件、在线语音接收模块、语音获取模块以及显示播放模块电性连接;所述在线语音接收模块、存储器与可编程器件连接;
所述的模糊匹配方法包括如下步骤:
S1、所述语音获取模块获取语音信息并转换成数字语音信号;
S2、将所述数字语音信号采用模糊声像规则进行语音检测,得到对应的匹配参数,根据所述匹配参数采用遗传算法运算得到可编程器件的重配置数据流;根据所述匹配参数采用遗传算法运算得到可编程器件的重配置数据流具体为:把可编程器件中的可配置逻辑模块作为染色体,通过遗传算法,找出最优的染色体,生成重配置数据流配置到可编程器件上,从而对电路重新配置,以实现根据输入语音的变化而变化自身以更有效率的匹配语音数据;模糊声像规则包括梅尔倒谱系数分析、短时能量以及短时平均过零率统计方法、基于谱分析得到的共振峰提取方法共同组成的规则实现的“声音画像”特征描述,将上述规则的输出如梅尔倒谱系数、短时能量、短时平均过零率、共振峰作为匹配参数;
所述遗传算法具体实现步骤如下:
S21、随机生成染色体个体;
S22、计算所述个体的适应度值;
S23、对个体随机实施变异操作,生成子代个体;
S24、执行选择操作,若子代个体的适应度值高于个体的适应度值,则将子代个体复制到下一代,否则以一个较小的概率复制子代个体到下一代,依次类推直至满足终止条件;
S3、采用所述重配置数据流重新配置可编程器件,实现根据输入语音的变化而变化自身以匹配语音数据;
S4、所述在线语音接收模块将匹配参数作为导引来检索在线语音数据,并将所述在线语音数据进行粗略排序;将检索到的在线语音数据输入可编程器件进行模糊匹配;所述可编程器件被配置成实现模糊匹配算法,将若干个匹配参数作为模糊规则R,数字语音信号作为输入量X,当输入量X激活若干条模糊规则R时,输出U则由若干条模糊规则的输出决定;所述可编程器件以数字语音信号以及在线语音数据作为输入,经过模糊匹配算法的计算,最后找到最为匹配的在线语音数据,输出到处理器再进行组合以及文本翻译送至显示播放模块播放与显示;
S5、将最为匹配的在线语音数据输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110223114.2A CN112967717B (zh) | 2021-03-01 | 2021-03-01 | 一种高准确性的英语语音翻译的模糊匹配训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110223114.2A CN112967717B (zh) | 2021-03-01 | 2021-03-01 | 一种高准确性的英语语音翻译的模糊匹配训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112967717A CN112967717A (zh) | 2021-06-15 |
CN112967717B true CN112967717B (zh) | 2023-08-22 |
Family
ID=76277532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110223114.2A Active CN112967717B (zh) | 2021-03-01 | 2021-03-01 | 一种高准确性的英语语音翻译的模糊匹配训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112967717B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101464896A (zh) * | 2009-01-23 | 2009-06-24 | 安徽科大讯飞信息科技股份有限公司 | 语音模糊检索方法及装置 |
CN103811008A (zh) * | 2012-11-08 | 2014-05-21 | ***通信集团上海有限公司 | 一种音频内容识别方法和装置 |
CN105118501A (zh) * | 2015-09-07 | 2015-12-02 | 徐洋 | 语音识别的方法及*** |
CN106528599A (zh) * | 2016-09-23 | 2017-03-22 | 深圳凡豆信息科技有限公司 | 一种海量音频数据中的字符串快速模糊匹配算法 |
CN107329961A (zh) * | 2017-07-03 | 2017-11-07 | 西安市邦尼翻译有限公司 | 一种云翻译记忆库快速增量式模糊匹配的方法 |
CN109074804A (zh) * | 2018-07-18 | 2018-12-21 | 深圳魔耳智能声学科技有限公司 | 基于口音的语音识别处理方法、电子设备和存储介质 |
CN109471953A (zh) * | 2018-10-11 | 2019-03-15 | 平安科技(深圳)有限公司 | 一种语音数据检索方法及终端设备 |
CN109616120A (zh) * | 2019-02-20 | 2019-04-12 | 上海昊沧***控制技术有限责任公司 | 一种基于语音的应用内交互方法及*** |
CN112101111A (zh) * | 2020-08-13 | 2020-12-18 | 吕梁学院 | 一种英语识别翻译方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101537370B1 (ko) * | 2013-11-06 | 2015-07-16 | 주식회사 시스트란인터내셔널 | 녹취된 음성 데이터에 대한 핵심어 추출 기반 발화 내용 파악 시스템과, 이 시스템을 이용한 인덱싱 방법 및 발화 내용 파악 방법 |
-
2021
- 2021-03-01 CN CN202110223114.2A patent/CN112967717B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101464896A (zh) * | 2009-01-23 | 2009-06-24 | 安徽科大讯飞信息科技股份有限公司 | 语音模糊检索方法及装置 |
CN103811008A (zh) * | 2012-11-08 | 2014-05-21 | ***通信集团上海有限公司 | 一种音频内容识别方法和装置 |
CN105118501A (zh) * | 2015-09-07 | 2015-12-02 | 徐洋 | 语音识别的方法及*** |
CN106528599A (zh) * | 2016-09-23 | 2017-03-22 | 深圳凡豆信息科技有限公司 | 一种海量音频数据中的字符串快速模糊匹配算法 |
CN107329961A (zh) * | 2017-07-03 | 2017-11-07 | 西安市邦尼翻译有限公司 | 一种云翻译记忆库快速增量式模糊匹配的方法 |
CN109074804A (zh) * | 2018-07-18 | 2018-12-21 | 深圳魔耳智能声学科技有限公司 | 基于口音的语音识别处理方法、电子设备和存储介质 |
CN109471953A (zh) * | 2018-10-11 | 2019-03-15 | 平安科技(深圳)有限公司 | 一种语音数据检索方法及终端设备 |
CN109616120A (zh) * | 2019-02-20 | 2019-04-12 | 上海昊沧***控制技术有限责任公司 | 一种基于语音的应用内交互方法及*** |
CN112101111A (zh) * | 2020-08-13 | 2020-12-18 | 吕梁学院 | 一种英语识别翻译方法 |
Non-Patent Citations (1)
Title |
---|
英文语义机器翻译中的模糊语义选取技术;皮谨煜;;现代电子技术(第22期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112967717A (zh) | 2021-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110491382B (zh) | 基于人工智能的语音识别方法、装置及语音交互设备 | |
CN107369439B (zh) | 一种语音唤醒方法和装置 | |
CN101937431A (zh) | 情感语音翻译装置及处理方法 | |
JP2007249212A (ja) | テキスト音声合成のための方法、コンピュータプログラム及びプロセッサ | |
US20220262352A1 (en) | Improving custom keyword spotting system accuracy with text-to-speech-based data augmentation | |
CN111105785B (zh) | 一种文本韵律边界识别的方法及装置 | |
CN106935239A (zh) | 一种发音词典的构建方法及装置 | |
CN101504643A (zh) | 声音处理***、声音处理程序以及声音处理方法 | |
CN110767210A (zh) | 一种生成个性化语音的方法及装置 | |
CN110459202B (zh) | 一种韵律标注方法、装置、设备、介质 | |
CN112349289B (zh) | 一种语音识别方法、装置、设备以及存储介质 | |
CN110853616A (zh) | 一种基于神经网络的语音合成方法、***与存储介质 | |
KR101424193B1 (ko) | 타 언어권 화자음성에 대한 음성인식 시스템의 성능 향상을위한 비직접적 데이터 기반 발음변이 모델링 시스템 및방법 | |
Narendra et al. | Optimal weight tuning method for unit selection cost functions in syllable based text-to-speech synthesis | |
CN114783424A (zh) | 文本语料筛选方法、装置、设备及存储介质 | |
Huang et al. | On prosody modeling for ASR+ TTS based voice conversion | |
CN112530402B (zh) | 一种语音合成方法、语音合成装置及智能设备 | |
Dumpala et al. | Analysis of constraints on segmental DTW for the task of query-by-example spoken term detection | |
CN112967717B (zh) | 一种高准确性的英语语音翻译的模糊匹配训练方法 | |
CN112966528B (zh) | 一种英语语音的翻译模糊匹配*** | |
US20040181407A1 (en) | Method and system for creating speech vocabularies in an automated manner | |
Sefara et al. | Web-based automatic pronunciation assistant | |
CN113870826A (zh) | 基于时长预测模型的发音时长预测方法及相关设备 | |
Djeffal et al. | Automatic speech recognition with BERT and CTC transformers: A review | |
JP2001092482A (ja) | 音声合成システム、および音声合成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |