CN101329667A - 多语言语音互译的智能翻译设备及其控制方法 - Google Patents
多语言语音互译的智能翻译设备及其控制方法 Download PDFInfo
- Publication number
- CN101329667A CN101329667A CNA2008101427649A CN200810142764A CN101329667A CN 101329667 A CN101329667 A CN 101329667A CN A2008101427649 A CNA2008101427649 A CN A2008101427649A CN 200810142764 A CN200810142764 A CN 200810142764A CN 101329667 A CN101329667 A CN 101329667A
- Authority
- CN
- China
- Prior art keywords
- statement
- comparisons
- language
- translation
- variable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Machine Translation (AREA)
Abstract
本发明涉及多语言语音互译的智能翻译设备及控制方法。设备由处理器、存储器、输入输出设备、录音设备、电源分别与处理器连接,控制方法:建对照表;选场景;选录入和目标语种;录音;语音识别;判断是否是固定语句;是,则依目标语种选择语句,将结果语音合成;目标语种发音显示;判断识别是否停止;否,则判断是否是带变量语句;是,将带变量语句及相应的语对提取,并依批注名称搜索变量批注对照表中和语音识别一致的变量句子及语对组合成符合语音识别结果的句子,依目标语种选择语句,将其结果语音合成;否,则判断是否有可对照的变量批注句子;是,则依目标语种选择语句,将结果语音合成;否,则经“提示未查找到”转入判断识别是否停止;否,则返回;是,结束。
Description
技术领域
本发明涉及一种以声音为输入体、智能型双向多语言语音互译的智能翻译设备以及通过两种以上多语种的语言翻译对照表形成查找、搜索、组成建立语句及匹配此语句相对应其它语种智能翻译的控制方法。
背景技术
传统的语音互译、语言互译是建立庞大的语音、语料库,通过计算机计算给出语音识别结果或语言翻译结果,这样的文字翻译方式效果较差,语音翻译的效果很差。通常采用的方法是:
1、语言翻译:随着人们对语言学认识的深入和计算机技术的发展,机器翻译技术得到迅速发展,涌现出了一批实用化的机器翻译***,特别是INTERNET的发展使得网络机器翻译***应运而生。鉴于机器翻译是一个涉及语言学、计算数学、计算机技术、认知科学等多个领域综合性的交叉科学,由于语言本身固有的复杂性和受目前人工智能发展水平的限制,机器翻译译文质量仍然与客观需要有一定的差距,往往需要人工进行译后编辑,且翻译速度因需用词典、规则做大量的语法、语义分析而与用户的需求也存在差距。
2、语音翻译:语音翻译必须整合语音识别、语音合成、机器翻译等技术,目前机器翻译的效果不尽人意。目前任意的语句、语言的语音识别效果和机器翻译一样与客观需求还有相当大的差距,所以语音翻译的准确性依赖的两大技术基础都存在着技术瓶颈,其语音识别翻译的效果准确性比较低。
发明内容
本发明的目的在于克服上述现有技术中的不足之处,提供一种通过两种以上多语种的语言翻译对照表形成查找、搜索、组成建立语句及匹配此语句相对应其它语种的多语言语音互译的智能翻译设备。本发明的另一目的是提供一种语音智能翻译设备的控制方法。
本发明的目的可以通过以下措施来达到:
这种多语言语音互译的智能翻译设备,包括处理器、存储器、输入设备、输出设备、录音设备、电源,其特殊之处在于:所述智能翻译设备的各设备分别与处理器连接,用于声音录入、语音识别、多语种数据库对照表查找、智能翻译、结果显示和语音合成。
所述处理器、存储器、输入设备集成在主板上,并与电源、输出设备组装在机壳内,成型为手持终端设备。
本发明的目的还可以通过以下措施来达到:
这种多语言语音互译智能翻译的控制方法,其特殊之处在于,包括以下步骤:
(1)在多语种数据库中建立对照表(步骤101);
(2)选择语言场景(步骤102);
(3)选择录入语种和目标语种(步骤103);
(4)录音输入(步骤104);
(5)语音识别(步骤105);
(6)判断是否有可对照的固定语句(步骤106);
(7)若步骤106的判断结果为是,则根据用户选择的目标语种选择语句,然后将其结果进行语音合成(步骤107);
(8)目标语种发音显示(步骤108);
(9)判断识别是否停止(步骤109);
(10)若步骤106的判断结果为否,则判断是否有可对照的带变量语句(步骤110);
(11)若步骤110的判断结果为是,则将带变量语句对照表的语句及相应的语对提取,并根据此语对中批注名称搜索变量批注对照表中和语音识别结果一致的变量字、词、词组、短语或句子及其语对组合成符合语音识别结果的句子,并根据用户选择的目标语种选择语句,然后将其结果语音合成(步骤107);
(12)若步骤110的判断结果为否,则进一步判断是否有可对照的变量批注的变量字、词、词组、短语或句子(步骤111);
(13)若步骤111的判断结果为是,则根据用户选择的目标语种选择语句,然后将其结果进行语音合成(步骤107);
(14)若步骤111的判断结果为否,则经步骤112“提示未查找到”转入判断识别是否停止(步骤109);
(15)若步骤109的判断结果为否,则返回步骤104;
(16)若步骤109的判断结果为是,结束(步骤113)。
所述语音识别场景对照表搜索匹配翻译结果、语音合成及输出的过程进一步包括以下步骤:
(1)若匹配的结果是固定语句对照表的语句,则将固定语句对照表中匹配的语句及相应的语对提取,从提取的语对中根据用户选择的目标语种选择句子,并将此结果输送到语音合成工具中进行语音合成输出;
(2)若匹配的结果是带变量语句对照表的语句,则将带变量语句对照表的语句及相应的语对提取,并根据此语对中标注名称搜索变量批注对照表中和语音识别结果一致的变量字、词、词组、短语或语句及其语对组合成句子,并根据用户选择的目标语种提取句子,然后将此结果输送到语音合成工具中进行语音合成后输出;
(3)若匹配的结果是变量批注对照表中的字、词、词组、短语或句子,将变量批注对照表中匹配的字、词、词组、短语或句子及相应的语对提取,从提取的语对中根据用户选择的目标语种并将此结果输送到语音合成工具中进行语音合成后输出。
所述语言场景包含固定语句对照表、内含变量批注对照表的带变量语句对照表;变量批注对照表。
所述语言场景的建立模式包括:
第一层:人类生活场景;
第二层:场景1……场景n(n>0);
第三层:场景1……场景n分别细分为子场景1,子场景2……子场景n(n>0);
第m层:子场景1进一步细分为m层子场景(m>0);以此类推至子场景n(n>0)进一步细分为m层子场景(m>0)。
所述固定语句对照表的建立模式包括:
将场景或子场景常用或需要用到的很少有或没有变化的中文口语语句录入固定语句对照表,每个中文语句与一种或一种以上其它语种的翻译语句相对应,并标注相同的记号,形成语对;若一语种的某个语句在翻译成其它语种的过程中有多种表达形式,可一一列举,以一种记号标注。
所述带变量语句对照表的建立模式包括:
将场景或子场景中常用或需用的经常会发生变化的中文句型作为带变量语句录入带变量语句对照表,并在语句中的变量部分加入标注名称;每一中文语句与一种或一种以上其它语种的翻译语句相对应,并标注相同记号;若一种语种的某个语句在翻译成其它语种的过程中有多种表达形式,可一一列举,以一种记号标注。
所述变量批注对照表的建立模式包括:
将带变量语句对照表中的语句中变量部分需要替代的字、词、词组、短语或句子按照带变量语句中的标注名称建立变量批注对照表,每一中文字、词、词组、短语或句子与一种以上语言的字、词、词组、短语或句子翻译语句相对应,并标注相同的记号,形成语对;如果一种语种的一个字、词、词组在翻译成其它语种的过程中有多种表达方式,可一一列举,但以一种记号标注
本发明相比现有技术,具有如下优点:
1、应用范围广,可应用在PC、笔记本电脑、嵌入式手持设备以及通讯设备上。
2、该智能翻译设备,可大大提高语音识别和语音翻译的正确率,并可以在不同的场景中细化语句,增加语音识别语音翻译的范围。
附图说明
图1是本发明硬件设备的电路框图。
图2是本发明智能翻译控制方法的流程图。
图3是本发明语音识别、对照表搜索匹配翻译结果、语音合成及输出步骤的示意图。
图4是本发明语音场景建立模式的功能图。
图5是本发明对照表架构示意图。
图6是本发明对照表内容示意图。
具体实施方式
本发明下面将结合附图作进一步详述:
请参阅图1所示,
该多语言语音互译的智能翻译设备,包括处理器、存储器、输入设备、输出设备、录音设备、电源,所述智能翻译设备的各设备分别与处理器连接,用于声音录入、语音识别、多语种数据库对照表查找、智能翻译、结果显示和语音合成。
所述处理器、存储器、输入设备集成在主板上,并与电源、输出设备组装在机壳内,成型为手持终端设备。
请参阅图2所示,该多语言语音互译智能翻译的控制方法,包括以下步骤:
(1)在多语种数据库中建立对照表(步骤101);
(2)选择语言场景(步骤102);
(3)选择录入语种和目标语种(步骤103);
(4)录音输入(步骤104);
(5)语音识别(步骤105);
(6)判断是否有可对照的固定语句(步骤106);
(7)若步骤106的判断结果为是,则根据用户选择的目标语种选择语句,然后将其结果进行语音合成(步骤107);
(8)目标语种发音显示(步骤108);
(9)判断识别是否停止(步骤109);
(10)若步骤106的判断结果为否,则判断是否有可对照的带变量语句(步骤110);
(11)若步骤110的判断结果为是,则将带变量语句对照表的语句及相应的语对提取,并根据此语对中批注名称搜索变量批注对照表中和语音识别结果一致的变量字、词、词组、短语或句子及其语对组合成符合语音识别结果的句子,并根据用户选择的目标语种选择语句,然后将其结果语音合成(步骤107);
(12)若步骤110的判断结果为否,则进一步判断是否有可对照的变量批注的变量字、词、词组、短语或句子(步骤111);
(13)若步骤111的判断结果为是,则根据用户选择的目标语种选择语句,然后将其结果进行语音合成(步骤107);
(14)若步骤111的判断结果为否,则经步骤112“提示未查找到”转入判断识别是否停止(步骤109);
(15)若步骤109的判断结果为否,则返回步骤104;
(16)若步骤109的判断结果为是,结束(步骤113)。
所述语音识别场景对照表搜索匹配翻译结果、语音合成及输出的过程进一步包括以下步骤:
(1)若匹配的结果是固定语句对照表的语句,则将固定语句对照表中匹配的语句及相应的语对提取,从提取的语对中根据用户选择的目标语种选择句子,并将此结果输送到语音合成工具中进行语音合成输出;
(2)若匹配的结果是带变量语句对照表的语句,则将带变量语句对照表的语句及相应的语对提取,并根据此语对中标注名称搜索变量批注对照表中和语音识别结果一致的变量字、词、词组、短语或语句及其语对组合成句子,并根据用户选择的目标语种提取句子,然后将此结果输送到语音合成工具中进行语音合成后输出;
(3)若匹配的结果是变量批注对照表中的字、词、词组、短语或句子,将变量批注对照表中匹配的字、词、词组、短语或句子及相应的语对提取,从提取的语对中根据用户选择的目标语种并将此结果输送到语音合成工具中进行语音合成后输出。
请参阅图5、图6所示,所述语言场景包含固定语句对照表、内含变量批注对照表的带变量语句对照表;变量批注对照表。
请参阅图4所示,所述语言场景的建立模式包括:
第一层:人类生活场景;
第二层:场景1……场景n(n>0);
第三层:场景1……场景n分别细分为子场景1,子场景2……子场景n(n>0);
第m层:子场景1进一步细分为m层子场景(m>0);以此类推至子场景n(n>0)进一步细分为m层子场景(m>0)。
请参阅图3所示,所述固定语句对照表的建立模式包括:
将场景或子场景常用或需要用到的很少有或没有变化的中文口语语句录入固定语句对照表,每个中文语句与一种或一种以上其它语种的翻译语句相对应,并标注相同的记号,形成语对;若一语种的某个语句在翻译成其它语种的过程中有多种表达形式,可一一列举,以一种记号标注。
所述带变量语句对照表的建立模式包括:
将场景或子场景中常用或需用的经常会发生变化的中文句型作为带变量语句录入带变量语句对照表,并在语句中的变量部分加入标注名称;每一中文语句与一种或一种以上其它语种的翻译语句相对应,并标注相同记号;若一种语种的某个语句在翻译成其它语种的过程中有多种表达形式,可一一列举,以一种记号标注。
所述变量批注对照表的建立模式包括:
将带变量语句对照表中的语句中变量部分需要替代的字、词、词组、短语或句子按照带变量语句中的标注名称建立变量批注对照表,每一中文字、词、词组、短语或句子与一种以上语言的字、词、词组、短语或句子翻译语句相对应,并标注相同的记号,形成语对;如果一种语种的一个字、词、词组在翻译成其它语种的过程中有多种表达方式,可一一列举,但以一种记号标注。
以上所述仅为本发明的较佳实施例,凡依本发明权利要求范围所做的均等变化与修饰,皆应属本发明权利要求的涵盖范围。
Claims (9)
1、一种多语言语音互译的智能翻译设备,包括处理器、存储器、输入设备、输出设备、录音设备、电源,其特征在于:所述智能翻译设备的各设备分别与处理器连接,用于声音录入、语音识别、多语种数据库对照表查找、智能翻译、结果显示和语音合成。
2、根据权利要求1所述多语言语音互译的智能翻译设备,其特征在于,所述处理器、存储器、输入设备集成在主板上,并与电源、输出设备组装在机壳内,成型为手持终端设备。
3、一种多语言语音互译智能翻译的控制方法,其特征在于,包括以下步骤:
(1)在多语种数据库中建立对照表(步骤101);
(2)选择语言场景(步骤102);
(3)选择录入语种和目标语种(步骤103);
(4)录音输入(步骤104);
(5)语音识别(步骤105);
(6)判断是否有可对照的固定语句(步骤106);
(7)若步骤106的判断结果为是,则根据用户选择的目标语种选择语句,然后将其结果进行语音合成(步骤107);
(8)目标语种发音显示(步骤108);
(9)判断识别是否停止(步骤109);
(10)若步骤106的判断结果为否,则判断是否有可对照的带变量语句(步骤110);
(11)若步骤110的判断结果为是,则将带变量语句对照表的语句及相应的语对提取,并根据此语对中批注名称搜索变量批注对照表中和语音识别结果一致的变量字、词、词组、短语或句子及其语对组合成符合语音识别结果的句子,并根据用户选择的目标语种选择语句,然后将其结果语音合成(步骤107);
(12)若步骤110的判断结果为否,则进一步判断是否有可对照的变量批注的变量字、词、词组、短语或句子(步骤111);
(13)若步骤111的判断结果为是,则根据用户选择的目标语种选择语句,然后将其结果进行语音合成(步骤107);
(14)若步骤111的判断结果为否,则经步骤112“提示未查找到”转入判断识别是否停止(步骤109);
(15)若步骤109的判断结果为否,则返回步骤104;
(16)若步骤109的判断结果为是,结束(步骤113)。
4、根据权利要求3所述多语言语音互译智能翻译的控制方法,其特征在于:所述语音识别场景对照表搜索匹配翻译结果、语音合成及输出的过程进一步包括以下步骤:
(1)若匹配的结果是固定语句对照表的语句,则将固定语句对照表中匹配的语句及相应的语对提取,从提取的语对中根据用户选择的目标语种选择句子,并将此结果输送到语音合成工具中进行语音合成输出;
(2)若匹配的结果是带变量语句对照表的语句,则将带变量语句对照表的语句及相应的语对提取,并根据此语对中标注名称搜索变量批注对照表中和语音识别结果一致的变量字、词、词组、短语或语句及其语对组合成句子,并根据用户选择的目标语种提取句子,然后将此结果输送到语音合成工具中进行语音合成后输出;
(3)若匹配的结果是变量批注对照表中的字、词、词组、短语或句子,将变量批注对照表中匹配的字、词、词组、短语或句子及相应的语对提取,从提取的语对中根据用户选择的目标语种并将此结果输送到语音合成工具中进行语音合成后输出。
5、根据权利要求3所述多语言语音互译智能翻译的控制方法,其特征在于,所述语言场景包含固定语句对照表、内含变量批注对照表的带变量语句对照表;变量批注对照表。
6、根据权利要求5所述多语言语音互译智能翻译的控制方法,其特征在于,所述语言场景的建立模式包括:
第一层:人类生活场景;
第二层:场景1……场景n(n>0);
第三层:场景1……场景n分别细分为子场景1,子场景2……子场景n(n>0);
第m层:子场景1进一步细分为m层子场景(m>0);以此类推至子场景n(n>0)进一步细分为m层子场景(m>0)。
7、根据权利要求5所述多语言语音互译智能翻译的控制方法,其特征在于,所述固定语句对照表的建立模式包括:
将场景或子场景常用或需要用到的很少有或没有变化的中文口语语句录入固定语句对照表,每个中文语句与一种或一种以上其它语种的翻译语句相对应,并标注相同的记号,形成语对;若一语种的某个语句在翻译成其它语种的过程中有多种表达形式,可一一列举,以一种记号标注。
8、根据权利要求5所述多语言语音互译智能翻译的控制方法,其特征在于:所述带变量语句对照表的建立模式包括:
将场景或子场景中常用或需用的经常会发生变化的中文句型作为带变量语句录入带变量语句对照表,并在语句中的变量部分加入标注名称;每一中文语句与一种或一种以上其它语种的翻译语句相对应,并标注相同记号;若一种语种的某个语句在翻译成其它语种的过程中有多种表达形式,可一一列举,以一种记号标注。
9、根据权利要求5所述多语言语音互译智能翻译的控制方法,其特征在于:所述变量批注对照表的建立模式包括:
将带变量语句对照表中的语句中变量部分需要替代的字、词、词组、短语或句子按照带变量语句中的标注名称建立变量批注对照表,每一中文字、词、词组、短语或句子与一种以上语言的字、词、词组、短语或句子翻译语句相对应,并标注相同的记号,形成语对;如果一种语种的一个字、词、词组在翻译成其它语种的过程中有多种表达方式,可一一列举,但以一种记号标注。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNA2008101427649A CN101329667A (zh) | 2008-08-04 | 2008-08-04 | 多语言语音互译的智能翻译设备及其控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNA2008101427649A CN101329667A (zh) | 2008-08-04 | 2008-08-04 | 多语言语音互译的智能翻译设备及其控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101329667A true CN101329667A (zh) | 2008-12-24 |
Family
ID=40205480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNA2008101427649A Pending CN101329667A (zh) | 2008-08-04 | 2008-08-04 | 多语言语音互译的智能翻译设备及其控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101329667A (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102237083A (zh) * | 2010-04-23 | 2011-11-09 | 广东外语外贸大学 | 一种基于WinCE平台的便携式口语翻译***及其语言识别方法 |
CN103164396A (zh) * | 2011-12-19 | 2013-06-19 | 新疆新能信息通信有限责任公司 | 汉维哈柯电子辞典及其自动转译汉维哈柯语的方法 |
CN103164398A (zh) * | 2011-12-19 | 2013-06-19 | 新疆新能信息通信有限责任公司 | 汉维电子辞典及其自动转译汉维语的方法 |
WO2015014122A1 (zh) * | 2013-07-31 | 2015-02-05 | 深圳创维-Rgb电子有限公司 | 语音交互的方法、***以及交互终端 |
CN106157200A (zh) * | 2015-04-09 | 2016-11-23 | 杨宗元 | 一种基于多属性分级的多语言词汇学习辅助方法与*** |
CN106202063A (zh) * | 2016-06-29 | 2016-12-07 | 宁波市由乐讯通讯科技有限公司 | 一种改进型无线通信过程中语言转换方法及*** |
CN106202064A (zh) * | 2016-06-29 | 2016-12-07 | 宁波市由乐讯通讯科技有限公司 | 一种可反馈的无线通信过程中语言转换方法及*** |
CN106202062A (zh) * | 2016-06-29 | 2016-12-07 | 宁波市由乐讯通讯科技有限公司 | 一种无线通信过程中语言转换方法及*** |
CN106599284A (zh) * | 2016-12-23 | 2017-04-26 | 陈勇 | 音到字的对应生成新原则 |
CN103164395B (zh) * | 2011-12-19 | 2017-06-23 | 新疆信息产业有限责任公司 | 汉柯电子辞典及其自动转译汉柯语的方法 |
CN106991086A (zh) * | 2017-06-08 | 2017-07-28 | 黑龙江工业学院 | 一种英语和俄语的互译方法 |
CN107221329A (zh) * | 2017-07-06 | 2017-09-29 | 上海思依暄机器人科技股份有限公司 | 一种对话控制方法、装置及机器人 |
CN107632982A (zh) * | 2017-09-12 | 2018-01-26 | 郑州科技学院 | 语音控制外语翻译设备用的方法和装置 |
CN103164397B (zh) * | 2011-12-19 | 2018-02-02 | 新疆信息产业有限责任公司 | 汉哈电子辞典及其自动转译汉哈语的方法 |
-
2008
- 2008-08-04 CN CNA2008101427649A patent/CN101329667A/zh active Pending
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102237083A (zh) * | 2010-04-23 | 2011-11-09 | 广东外语外贸大学 | 一种基于WinCE平台的便携式口语翻译***及其语言识别方法 |
CN103164395B (zh) * | 2011-12-19 | 2017-06-23 | 新疆信息产业有限责任公司 | 汉柯电子辞典及其自动转译汉柯语的方法 |
CN103164396A (zh) * | 2011-12-19 | 2013-06-19 | 新疆新能信息通信有限责任公司 | 汉维哈柯电子辞典及其自动转译汉维哈柯语的方法 |
CN103164398A (zh) * | 2011-12-19 | 2013-06-19 | 新疆新能信息通信有限责任公司 | 汉维电子辞典及其自动转译汉维语的方法 |
CN103164396B (zh) * | 2011-12-19 | 2016-09-14 | 国网新疆电力公司信息通信公司 | 使用汉维哈柯电子辞典自动转译汉维哈柯语的方法 |
CN103164398B (zh) * | 2011-12-19 | 2016-09-21 | 国网新疆电力公司信息通信公司 | 利用汉维电子辞典自动转译汉维语的方法 |
CN103164397B (zh) * | 2011-12-19 | 2018-02-02 | 新疆信息产业有限责任公司 | 汉哈电子辞典及其自动转译汉哈语的方法 |
WO2015014122A1 (zh) * | 2013-07-31 | 2015-02-05 | 深圳创维-Rgb电子有限公司 | 语音交互的方法、***以及交互终端 |
CN106157200A (zh) * | 2015-04-09 | 2016-11-23 | 杨宗元 | 一种基于多属性分级的多语言词汇学习辅助方法与*** |
CN106202064A (zh) * | 2016-06-29 | 2016-12-07 | 宁波市由乐讯通讯科技有限公司 | 一种可反馈的无线通信过程中语言转换方法及*** |
CN106202062A (zh) * | 2016-06-29 | 2016-12-07 | 宁波市由乐讯通讯科技有限公司 | 一种无线通信过程中语言转换方法及*** |
CN106202063A (zh) * | 2016-06-29 | 2016-12-07 | 宁波市由乐讯通讯科技有限公司 | 一种改进型无线通信过程中语言转换方法及*** |
CN106202062B (zh) * | 2016-06-29 | 2019-02-12 | 宁波市由乐讯通讯科技有限公司 | 一种无线通信过程中语言转换方法及*** |
CN106202063B (zh) * | 2016-06-29 | 2019-02-12 | 宁波市由乐讯通讯科技有限公司 | 一种改进型无线通信过程中语言转换方法及*** |
CN106202064B (zh) * | 2016-06-29 | 2019-02-12 | 宁波市由乐讯通讯科技有限公司 | 一种可反馈的无线通信过程中语言转换方法及*** |
CN106599284A (zh) * | 2016-12-23 | 2017-04-26 | 陈勇 | 音到字的对应生成新原则 |
CN106991086A (zh) * | 2017-06-08 | 2017-07-28 | 黑龙江工业学院 | 一种英语和俄语的互译方法 |
CN107221329A (zh) * | 2017-07-06 | 2017-09-29 | 上海思依暄机器人科技股份有限公司 | 一种对话控制方法、装置及机器人 |
CN107632982A (zh) * | 2017-09-12 | 2018-01-26 | 郑州科技学院 | 语音控制外语翻译设备用的方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101329667A (zh) | 多语言语音互译的智能翻译设备及其控制方法 | |
Liu et al. | Asgard: A portable architecture for multilingual dialogue systems | |
Almohimeed et al. | Arabic text to Arabic sign language translation system for the deaf and hearing-impaired community | |
Harrat et al. | Building resources for algerian arabic dialects | |
RU2011122784A (ru) | Способ семантической обработки естественного языка с использованием графического языка-посредника | |
CN110991180A (zh) | 一种基于关键词和Word2Vec的命令识别方法 | |
CN109271492A (zh) | 一种语料正则表达式的自动生成方法及*** | |
Adiga et al. | Automatic speech recognition in Sanskrit: A new speech corpus and modelling insights | |
US8170865B2 (en) | Speech recognition device and method thereof | |
Dogan-Schönberger et al. | Swissdial: Parallel multidialectal corpus of spoken swiss german | |
Ablimit et al. | A multilingual language processing tool for Uyghur, Kazak and Kirghiz | |
CN107424612A (zh) | 处理方法、装置和机器可读介质 | |
Prochazka et al. | Performance of Czech Speech Recognition with Language Models Created from Public Resources. | |
Rosso et al. | On the voice-activated question answering | |
Kwong | Natural language processing | |
Bangalore et al. | Balancing data-driven and rule-based approaches in the context of a multimodal conversational system | |
KR101757222B1 (ko) | 한글 문장에 대한 의역 문장 생성 방법 | |
Stepanov et al. | Language style and domain adaptation for cross-language SLU porting | |
Yang et al. | German speech recognition: A solution for the analysis and processing of lecture recordings | |
CN103164396A (zh) | 汉维哈柯电子辞典及其自动转译汉维哈柯语的方法 | |
Makhija et al. | hinglishNorm--A Corpus of Hindi-English Code Mixed Sentences for Text Normalization | |
CN115019787A (zh) | 一种交互式同音异义词消歧方法、***、电子设备和存储介质 | |
Eidelman et al. | Lessons learned in part-of-speech tagging of conversational speech | |
Rayner et al. | Handling ellipsis in a spoken medical phraselator | |
Bansal et al. | Development of Text and Speech Corpus for Designing the Multilingual Recognition System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C12 | Rejection of a patent application after its publication | ||
RJ01 | Rejection of invention patent application after publication |
Open date: 20081224 |