CN107293296A - 语音识别结果纠正方法、装置、设备及存储介质 - Google Patents
语音识别结果纠正方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN107293296A CN107293296A CN201710508531.5A CN201710508531A CN107293296A CN 107293296 A CN107293296 A CN 107293296A CN 201710508531 A CN201710508531 A CN 201710508531A CN 107293296 A CN107293296 A CN 107293296A
- Authority
- CN
- China
- Prior art keywords
- hidden state
- state vector
- vector
- nmt
- source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000003860 storage Methods 0.000 title claims abstract description 21
- 238000012937 correction Methods 0.000 claims abstract description 24
- 230000001537 neural effect Effects 0.000 claims abstract description 18
- 238000013519 translation Methods 0.000 claims abstract description 18
- 230000007246 mechanism Effects 0.000 claims description 25
- 238000005520 cutting process Methods 0.000 claims description 14
- 238000012549 training Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 12
- 230000015654 memory Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000005291 magnetic effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
Abstract
本发明实施例公开了一种语音识别结果纠正方法、装置、设备及存储介质。所述语音识别结果纠正方法包括:对获取的语音数据进行语音识别,得到初始文本信息;采用神经机器翻译NMT模型对所述初始文本信息进行识别纠正,得到最终的文本识别结果。本发明实施例通过采用神经机器翻译NMT模型对语音识别得到的初始文本信息,进行再次识别纠正,能够得到较为准确的文本识别结果,可以提高语音识别的准确率。
Description
技术领域
本发明实施例涉及语音识别技术领域,尤其涉及一种语音识别结果纠正方法、装置、设备及存储介质。
背景技术
随着计算机处理能力的迅速提高,语音识别技术得到了飞速发展,语音识别技术是通过识别和解析过程把语音信号转变为相应的文本或命令的技术。语音识别技术的应用正在日益改变人类的生产和生活方式,被广泛应用于诸如语音输入***、语音控制***和智能对话查询***等领域。
语音交互作为最自然的交互方式日益推广,对语音识别准确率的要求要来越高。目前,语音识别技术主要是通过大量的训练数据训练更复杂的声学模型,通过声学模型对输入语音进行识别,以提高识别性能。
但是,声学模型的识别准确率还有待进一步提升。
发明内容
本发明实施例提供一种语音识别结果纠正方法、装置、设备及存储介质,可以提高语音识别的准确率。
第一方面,本发明实施例提供了一种语音识别结果纠正方法,该方法包括:
对获取的语音数据进行语音识别,得到初始文本信息;
采用神经机器翻译NMT模型对所述初始文本信息进行识别纠正,得到最终的文本识别结果。
第二方面,本发明实施例还提供了一种语音识别结果纠正装置,该装置包括:
语音识别模块,用于对获取的语音数据进行语音识别,得到初始文本信息;
文本纠正模块,用于采用神经机器翻译NMT模型对所述初始文本信息进行识别纠正,得到最终的文本识别结果。
第三方面,本发明实施例还提供了一种设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明实施例任一所述的语音识别结果纠正方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本发明实施例任一所述的语音识别结果纠正方法。
本发明实施例通过采用神经机器翻译NMT模型对语音识别得到的初始文本信息,进行再次识别纠正,能够得到较为准确的文本识别结果,可以提高语音识别的准确率。
附图说明
图1是本发明实施例一提供的一种语音识别结果纠正方法的流程图;
图2A是本发明实施例二提供的一种语音识别结果纠正方法的流程图;
图2B是本发明实施例二提供的一种语音识别结果纠正方法中的编码解码过程示意图;
图3A是本发明实施例三提供的一种语音识别结果纠正方法的流程图;
图3B是本发明实施例三提供的一种语音识别结果纠正方法中的计算节点示意图;
图3C是本发明实施例三提供的一种语音识别结果纠正方法中的加入attention机制后的隐状态计算示意图;
图3D是本发明实施例三提供的一种语音识别结果纠正方法中的加入反馈后的attention机制的隐状态计算示意图;
图4是本发明实施例四提供的一种语音识别结果纠正装置的结构图;
图5是本发明实施例五提供的一种计算机设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图对本发明具体实施例作进一步的详细描述。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。
另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部内容。在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作(或步骤)描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
实施例一
图1为本发明实施例一提供的一种语音识别结果纠正方法的流程图,本实施例可适用于对语音识别结果进行纠正的情况,该方法可以由本发明实施例提供的语音识别结果纠正装置来执行,该装置可采用软件和/或硬件的方式实现,该装置可集成在终端设备中或终端设备的应用端中。其中,终端设备可以为但不限于为移动终端(平板电脑或智能手机)。
其中,应用端可以为内嵌于终端设备中的某个客户端的插件,或者为所述终端设备的操作***的插件,与内嵌于终端设备中的语音识别结果纠正客户端或者终端设备的操作***中的语音识别结果纠正应用程序配合使用;应用端也可以为所述终端设备中一个独立的可提供语音识别结果纠正的客户端,本实施例对此不进行限制。
如图1所述,本实施例的方法具体包括:
S101、对获取的语音数据进行语音识别,得到初始文本信息。
其中,语音数据为通过终端设备获取的语音信号,可以为原始语音信号,也可以为经过去噪、特征提取后的语音信号。
具体的,可通过终端设备的麦克风、语音输入装置或录音装置获取语音数据。其中,终端设备包括但不限于为移动终端设备(例如,iPhone、平板电脑、手机等)、固定终端设备(例如,台式电脑和电视等)和穿戴设备(例如,智能手表、智能手环等)。
在获取到语音数据后,采用语音识别算法对语音数据进行初步识别,得到初始文本信息。具体可采用的语音识别算法包括但不限于为深层神经网络(Deep NeuralNetwork,DNN)算法、时间递归神经网络(Long Short-Term Memory,LSTM)算法、卷积神经网络(Convolutional Neural Network,CNN)算法,其中DNN算法具有良好的分类能力,LSTM算法有长时记忆能力,CNN算法能够学习到语音特征当中一些不变的特征。此外,也可以将上述三个算法联合使用,得到初始文本信息。
S102、采用神经机器翻译(Neural Machine Translation,NMT)模型对初始文本信息进行识别纠正,得到最终的文本识别结果。
其中,NMT模型是根据已知语音数据训练得到,即通过神经网络自动从大量的已知语音数据中学习得到,从而使得文本识别纠正的质量得到大幅跃升。
具体的,可采用如下方法训练得到NMT模型:对已知语音数据进行语音识别,将识别得到的文本信息作为源数据;对已知语音数据对应的正确文本信息进行标注,将标注后的文本信息作为目标数据;根据源数据和目标数训练得到NMT模型。
具体的,分别对已知语音数据语音识别得到的文本信息和正确文本信息进行字词切分处理,得到至少一个字词,并进行对齐处理,然后将对齐后的字词作为训练数据,输入NMT模型中进行学习训练,得到具备文本识别纠正能力的NMT模型。
然后,将初始文本信息输入NMT模型中,NMT模型会根据预先学习到的文本识别纠正能力对初始文本信息中不正确的字词进行纠正处理。
本实施例通过采用神经机器翻译NMT模型对语音识别得到的初始文本信息,进行再次识别纠正,能够得到较为准确的文本识别结果,可以提高语音识别的准确率。
实施例二
图2A是本发明实施例二提供的一种语音识别结果纠正方法的流程图。本实施例以上述实施例为基础进行优化,在本实施例中,进一步将步骤采用神经机器翻译NMT模型对初始文本信息进行识别纠正,得到最终的文本识别结果优化为:将初始文本信息中包含的文字进行切分,得到至少一个字词;通过NMT模型中的编码器将字词编码为稠密向量,通过NMT模型中的解码器对稠密向量进行解码,得到最终的文本识别结果。
相应的,如图2A所示,本实施例的方法具体包括:
S201、对获取的语音数据进行语音识别,得到初始文本信息。
S202、将初始文本信息中包含的文字进行切分,得到至少一个字词。
具体的,可通过语义分析对初始文本信息中包含的文字进行切分。例如,如果初始文本信息中包含的文字为“我喜欢百度地图”,那么通过语义分析,可将文字切分为“我”、“喜欢”、“百度地图”。
S203、通过NMT模型中的编码器将字词编码为稠密向量,通过NMT模型中的解码器对稠密向量进行解码,得到最终的文本识别结果。
其中,NMT模型中包含编码器和解码器,编码器和解码器均是根据已知语音数据训练得到,即通过神经网络自动从大量的已知语音数据中学习得到。使得其中的编码器和解码器学习到已知语音数据对应的识别文本和正确文本当中的一些信息,从而使得采用神经机器翻译NMT模型对初始文本信息进行识别纠正时,根据学习到的文本信息得到最终的文本识别结果,从而使得文本识别的质量得到大幅跃升。
其中,稠密向量为非0元素占所有元素比例超过预设比例(例如90%)的向量,即非0元素占比比较大的向量。
具体的,如图2B所示,在得到初始文本信息对应的字词(例如,图中A、B)之后,将其依次输入NMT模型中的编码器,编码器针对每个字词编码分别生成对应的稠密向量,然后依次将稠密向量输入解码器中进行解码,得到解码结果X、Y、Z。
本实施例通过将初始文本信息中包含的文字进行切分,得到至少一个字词,通过NMT模型中的编码器将字词编码为稠密向量,并通过NMT模型中的解码器对稠密向量进行解码,能够得到较为准确的文本识别结果,可以提高语音识别的准确率。
实施例三
图3A是本发明实施例三提供的一种语音识别结果纠正方法的流程图。本实施例以上述实施例为基础进行优化,在本实施例中,进一步将步骤通过NMT模型中的编码器将字词编码为稠密向量,通过NMT模型中的解码器对稠密向量进行解码,得到最终的文本识别结果优化为:通过NMT模型中的编码器将至少一个字词转换为源隐状态向量;将源隐状态向量输入NMT模型中的解码器,通过NMT模型中的解码器输出目标隐状态向量;根据目标隐状态向量和源隐状态向量确定注意力attention机制的隐状态向量;根据attention机制的隐状态向量,得到最终的文本识别结果。
相应的,如图3A所示,本实施例的方法具体包括:
S301、对获取的语音数据进行语音识别,得到初始文本信息。
S302、将初始文本信息中包含的文字进行切分,得到至少一个字词。
S303、通过NMT模型中的编码器将至少一个字词转换为源隐状态向量。
其中,NMT模型中还包含至少一个计算节点,该计算节点用于将至少一个字词转换为源隐状态向量。可选的,其中包含的编码器和解码器在对字词处理的过程中均需要通过该计算节点。或者,在编码器和解码器中均包含至少一个计算节点。
其中,计算节点的结构如图3B所示,其中,x为输出数据,h为输出数据即隐状态向量。也就是,通过将输入数据输入上述计算节点,通过计算节点进行函数、乘法等一系列计算,然后输出隐状态向量。其中,tanh为双曲正切函数,×为乘法计算,∑为加和计算,σ为sigmoid函数,a、i、f、c、o为计算过程中产生的中间变量。
在本实施例中,针对编码器和解码器其对应的输入数据和输出数据均不相同。编码器对应的输入数据x为字词,输出数据h为源隐状态向量,解码器对应的输入数据x为源隐状态向量,输出数据h为目标隐状态向量。因此,通过将编码器对应的输入数据输入上述计算节点即可得到源隐状态向量,通过将解码器对应的输入数据输入上述计算节点即可得到目标隐状态向量。
S304、将源隐状态向量输入NMT模型中的解码器,通过NMT模型中的解码器输出目标隐状态向量。
S305、根据目标隐状态向量和源隐状态向量确定注意力attention机制的隐状态向量。
由于注意力attention机制在序列学习任务上具有巨大的提升作用,在NMT模型中的编码器中加入attention机制,可以对编码数据进行数据加权变换,和/或者在NMT模型中的解码器中加入attention机制,可以对解码数据进行加权变化,可以有效提高序列对序列的自然方式下的***表现。因此,在本实施例中加入attention机制,可以进一步提高文字识别准确率。
可选的,通过NMT模型中的解码器输出源隐状态向量的中心位置,并根据中心位置获取至少一个预设位置上的字词的源隐状态向量;根据至少一个预设位置上的字词的源隐状态向量和目标隐状态向量计算得到对齐权重,并根据对齐权重得到上下文向量;根据上下文向量和目标隐状态向量计算得到attention的隐状态向量。
其中,预设位置可选取距离中心位置临近的位置。
具体的,如图3C所示,先有当前时刻t的目标隐状态向量得到一个输出pt,即源隐状态向量的中心位置。然后由这个中心位置及其左右各10个位置上的字词的源隐状态向量以及目标隐状态向量计算得到一个对齐权重at,再由at作为权重值得到上下文向量ct,上下文向量ct和目标隐状态向量共同计算得到attention的隐状态向量由得到最后的输出。
此外,为了进一步提高文字识别准确率,可将attention的隐状态向量作为反馈,重新输入NMT模型中的解码器。
具体的,将当前时刻t对应的attention的隐状态向量作为解码器的输入,用于计算下一时刻的attention的隐状态向量。如图3D所示,将attention的隐状态连接到解码器的输入端,以提高解码性能。
S306、根据attention机制的隐状态向量,得到最终的文本识别结果。
具体的,通过解析attention机制的隐状态向量,即可得到最终的文本识别结果。
本实施例通过根据编码器输出的源隐状态向量,和解码器输出的目标隐状态向量,确定注意力attention机制的隐状态向量,并根据attention机制的隐状态向量,得到最终的文本识别结果,可以进一步提高文本识别准确率。
实施例四
图4是本发明实施例四提供的一种语音识别结果纠正装置的结构图。本实施例可适用于对语音识别结果进行纠正的情况,该装置可采用软件和/或硬件的方式实现,该装置可集成在终端设备中或终端设备的应用端中。其中,终端设备可以为但不限于为移动终端(平板电脑或智能手机)。
其中,应用端可以为内嵌于终端设备中的某个客户端的插件,或者为所述终端设备的操作***的插件,与内嵌于终端设备中的语音识别结果纠正客户端或者终端设备的操作***中的语音识别结果纠正应用程序配合使用;应用端也可以为所述终端设备中一个独立的可提供语音识别结果纠正的客户端,本实施例对此不进行限制。
如图4所示,所述装置包括:语音识别模块401和文本纠正模块402,其中:
语音识别模块401用于对获取的语音数据进行语音识别,得到初始文本信息;
文本纠正模块402用于采用神经机器翻译NMT模型对初始文本信息进行识别纠正,得到最终的文本识别结果。
本实施例的语音识别结果纠正装置用于执行上述各实施例的语音识别结果纠正方法,其技术原理和产生的技术效果类似,这里不再赘述。
在上述各实施例的基础上,文本纠正模块402包括:字词切分单元4021和文本纠正单元4022;
字词切分单元4021用于将初始文本信息中包含的文字进行切分,得到至少一个字词;
文本纠正单元4022用于通过NMT模型中的编码器将字词编码为稠密向量,通过NMT模型中的解码器对稠密向量进行解码,得到最终的文本识别结果。
在上述各实施例的基础上,文本纠正单元4022具体用于:通过NMT模型中的编码器将至少一个字词转换为源隐状态向量;将源隐状态向量输入NMT模型中的解码器,通过NMT模型中的解码器输出目标隐状态向量;根据目标隐状态向量和源隐状态向量确定注意力attention机制的隐状态向量;根据attention机制的隐状态向量,得到最终的文本识别结果。
在上述各实施例的基础上,文本纠正单元4022具体用于:通过NMT模型中的解码器输出源隐状态向量的中心位置,并根据中心位置获取至少一个预设位置上的字词的源隐状态向量;根据至少一个预设位置上的字词的源隐状态向量和目标隐状态向量计算得到对齐权重,并根据对齐权重得到上下文向量;根据上下文向量和目标隐状态向量计算得到attention的隐状态向量。
在上述各实施例的基础上,所述装置还包括:反馈模块403;
反馈模块403用于将attention的隐状态向量作为反馈,重新输入NMT模型中的解码器。
在上述各实施例的基础上,所述装置还包括:NMT模型训练模块404;
NMT模型训练模块404用于对已知语音数据进行语音识别,将识别得到的文本信息作为源数据;对已知语音数据对应的正确文本信息进行标注,将标注后的文本信息作为目标数据;根据源数据和目标数训练得到NMT模型。
上述各实施例所提供的语音识别结果纠正装置可执行本发明任意实施例所提供的语音识别结果纠正方法,具备执行语音识别结果纠正方法相应的功能模块和有益效果。
实施例五
图5为本发明实施例五提供的一种设备的结构示意图。图5示出了适于用来实现本发明实施方式的示例性计算机设备12的框图。图5显示的计算机设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,计算机设备12以通用计算设备的形式表现。计算机设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,***存储器28,连接不同***组件(包括***存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,***总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及***组件互连(PCI)总线。
计算机设备12典型地包括多种计算机***可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
***存储器28可以包括易失性存储器形式的计算机***可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。计算机设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机***存储介质。仅作为举例,存储***34可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括——但不限于——操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图5所示,网络适配器20通过总线18与计算机设备12的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
处理单元16通过运行存储在***存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的语音识别结果纠正方法:
对获取的语音数据进行语音识别,得到初始文本信息;
采用神经机器翻译NMT模型对所述初始文本信息进行识别纠正,得到最终的文本识别结果。
进一步的,所述采用神经机器翻译NMT模型对所述初始文本信息进行识别纠正,得到最终的文本识别结果包括:
将所述初始文本信息中包含的文字进行切分,得到至少一个字词;
通过NMT模型中的编码器将所述字词编码为稠密向量,通过NMT模型中的解码器对所述稠密向量进行解码,得到最终的文本识别结果。
进一步的,所述通过NMT模型中的编码器将所述字词编码为稠密向量,通过NMT模型中的解码器对所述稠密向量进行解码,得到最终的文本识别结果包括:
通过NMT模型中的编码器将所述至少一个字词转换为源隐状态向量;
将所述源隐状态向量输入NMT模型中的解码器,通过所述NMT模型中的解码器输出目标隐状态向量;
根据所述目标隐状态向量和所述源隐状态向量确定注意力attention机制的隐状态向量;
根据所述attention机制的隐状态向量,得到最终的文本识别结果。
进一步的,所述根据所述目标隐状态向量和所述源隐状态向量确定注意力attention机制的隐状态向量包括:
通过所述NMT模型中的解码器输出源隐状态向量的中心位置,并根据所述中心位置获取至少一个预设位置上的字词的源隐状态向量;
根据所述至少一个预设位置上的字词的源隐状态向量和目标隐状态向量计算得到对齐权重,并根据所述对齐权重得到上下文向量;
根据所述上下文向量和目标隐状态向量计算得到attention的隐状态向量。
实施例六
本发明实施例6还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请所有发明实施例提供的语音识别结果纠正方法:
对获取的语音数据进行语音识别,得到初始文本信息;
采用神经机器翻译NMT模型对所述初始文本信息进行识别纠正,得到最终的文本识别结果。
进一步的,所述采用神经机器翻译NMT模型对所述初始文本信息进行识别纠正,得到最终的文本识别结果包括:
将所述初始文本信息中包含的文字进行切分,得到至少一个字词;
通过NMT模型中的编码器将所述字词编码为稠密向量,通过NMT模型中的解码器对所述稠密向量进行解码,得到最终的文本识别结果。
进一步的,所述通过NMT模型中的编码器将所述字词编码为稠密向量,通过NMT模型中的解码器对所述稠密向量进行解码,得到最终的文本识别结果包括:
通过NMT模型中的编码器将所述至少一个字词转换为源隐状态向量;
将所述源隐状态向量输入NMT模型中的解码器,通过所述NMT模型中的解码器输出目标隐状态向量;
根据所述目标隐状态向量和所述源隐状态向量确定注意力attention机制的隐状态向量;
根据所述attention机制的隐状态向量,得到最终的文本识别结果。
进一步的,所述根据所述目标隐状态向量和所述源隐状态向量确定注意力attention机制的隐状态向量包括:
通过所述NMT模型中的解码器输出源隐状态向量的中心位置,并根据所述中心位置获取至少一个预设位置上的字词的源隐状态向量;
根据所述至少一个预设位置上的字词的源隐状态向量和目标隐状态向量计算得到对齐权重,并根据所述对齐权重得到上下文向量;
根据所述上下文向量和目标隐状态向量计算得到attention的隐状态向量。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (14)
1.一种语音识别结果纠正方法,其特征在于,包括:
对获取的语音数据进行语音识别,得到初始文本信息;
采用神经机器翻译NMT模型对所述初始文本信息进行识别纠正,得到最终的文本识别结果。
2.根据权利要求1所述的方法,其特征在于,所述采用神经机器翻译NMT模型对所述初始文本信息进行识别纠正,得到最终的文本识别结果包括:
将所述初始文本信息中包含的文字进行切分,得到至少一个字词;
通过NMT模型中的编码器将所述字词编码为稠密向量,通过NMT模型中的解码器对所述稠密向量进行解码,得到最终的文本识别结果。
3.根据权利要求2所述的方法,其特征在于,所述通过NMT模型中的编码器将所述字词编码为稠密向量,通过NMT模型中的解码器对所述稠密向量进行解码,得到最终的文本识别结果包括:
通过NMT模型中的编码器将所述至少一个字词转换为源隐状态向量;
将所述源隐状态向量输入NMT模型中的解码器,通过所述NMT模型中的解码器输出目标隐状态向量;
根据所述目标隐状态向量和所述源隐状态向量确定注意力attention机制的隐状态向量;
根据所述attention机制的隐状态向量,得到最终的文本识别结果。
4.根据权利要求3所述的方法,其特征在于,所述根据所述目标隐状态向量和所述源隐状态向量确定注意力attention机制的隐状态向量包括:
通过所述NMT模型中的解码器输出源隐状态向量的中心位置,并根据所述中心位置获取至少一个预设位置上的字词的源隐状态向量;
根据所述至少一个预设位置上的字词的源隐状态向量和目标隐状态向量计算得到对齐权重,并根据所述对齐权重得到上下文向量;
根据所述上下文向量和目标隐状态向量计算得到attention的隐状态向量。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
将所述attention的隐状态向量作为反馈,重新输入所述NMT模型中的解码器。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述方法还包括:
对已知语音数据进行语音识别,将识别得到的文本信息作为源数据;
对所述已知语音数据对应的正确文本信息进行标注,将标注后的文本信息作为目标数据;
根据所述源数据和所述目标数训练得到所述NMT模型。
7.一种语音识别结果纠正装置,其特征在于,包括:
语音识别模块,用于对获取的语音数据进行语音识别,得到初始文本信息;
文本纠正模块,用于采用神经机器翻译NMT模型对所述初始文本信息进行识别纠正,得到最终的文本识别结果。
8.根据权利要求7所述的装置,其特征在于,所述文本纠正模块包括:
字词切分单元,用于将所述初始文本信息中包含的文字进行切分,得到至少一个字词;
文本纠正单元,用于通过NMT模型中的编码器将所述字词编码为稠密向量,通过NMT模型中的解码器对所述稠密向量进行解码,得到最终的文本识别结果。
9.根据权利要求8所述的装置,其特征在于,所述文本纠正单元具体用于:通过NMT模型中的编码器将所述至少一个字词转换为源隐状态向量;将所述源隐状态向量输入NMT模型中的解码器,通过所述NMT模型中的解码器输出目标隐状态向量;根据所述目标隐状态向量和所述源隐状态向量确定注意力attention机制的隐状态向量;根据所述attention机制的隐状态向量,得到最终的文本识别结果。
10.根据权利要求9所述的装置,其特征在于,所述文本纠正单元具体用于:通过所述NMT模型中的解码器输出源隐状态向量的中心位置,并根据所述中心位置获取至少一个预设位置上的字词的源隐状态向量;根据所述至少一个预设位置上的字词的源隐状态向量和目标隐状态向量计算得到对齐权重,并根据所述对齐权重得到上下文向量;根据所述上下文向量和目标隐状态向量计算得到attention的隐状态向量。
11.根据权利要求10所述的装置,其特征在于,所述装置还包括:
反馈模块,用于将所述attention的隐状态向量作为反馈,重新输入所述NMT模型中的解码器。
12.根据权利要求7-11任一项所述的装置,其特征在于,所述装置还包括:
NMT模型训练模块,用于对已知语音数据进行语音识别,将识别得到的文本信息作为源数据;对所述已知语音数据对应的正确文本信息进行标注,将标注后的文本信息作为目标数据;根据所述源数据和所述目标数训练得到所述NMT模型。
13.一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的语音识别结果纠正方法。
14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-6中任一所述的语音识别结果纠正方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710508531.5A CN107293296B (zh) | 2017-06-28 | 2017-06-28 | 语音识别结果纠正方法、装置、设备及存储介质 |
US15/938,286 US10380996B2 (en) | 2017-06-28 | 2018-03-28 | Method and apparatus for correcting speech recognition result, device and computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710508531.5A CN107293296B (zh) | 2017-06-28 | 2017-06-28 | 语音识别结果纠正方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107293296A true CN107293296A (zh) | 2017-10-24 |
CN107293296B CN107293296B (zh) | 2020-11-20 |
Family
ID=60099813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710508531.5A Active CN107293296B (zh) | 2017-06-28 | 2017-06-28 | 语音识别结果纠正方法、装置、设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10380996B2 (zh) |
CN (1) | CN107293296B (zh) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107888479A (zh) * | 2017-10-31 | 2018-04-06 | 深圳云之家网络有限公司 | 语音通信方法、装置、计算机设备及存储介质 |
CN108682421A (zh) * | 2018-04-09 | 2018-10-19 | 平安科技(深圳)有限公司 | 一种语音识别方法、终端设备及计算机可读存储介质 |
CN108831479A (zh) * | 2018-06-27 | 2018-11-16 | 努比亚技术有限公司 | 一种语音识别方法、终端及计算机可读存储介质 |
CN108962228A (zh) * | 2018-07-16 | 2018-12-07 | 北京百度网讯科技有限公司 | 模型训练方法和装置 |
CN109036410A (zh) * | 2018-08-30 | 2018-12-18 | Oppo广东移动通信有限公司 | 语音识别方法、装置、存储介质及终端 |
CN109308895A (zh) * | 2018-12-04 | 2019-02-05 | 百度在线网络技术(北京)有限公司 | 声学模型训练方法、装置、设备及计算机可读介质 |
CN109410957A (zh) * | 2018-11-30 | 2019-03-01 | 福建实达电脑设备有限公司 | 基于计算机视觉辅助的正面人机交互语音识别方法及*** |
CN109933788A (zh) * | 2019-02-14 | 2019-06-25 | 北京百度网讯科技有限公司 | 类型确定方法、装置、设备和介质 |
CN109979450A (zh) * | 2019-03-11 | 2019-07-05 | 青岛海信电器股份有限公司 | 信息处理方法、装置及电子设备 |
CN110059705A (zh) * | 2019-04-22 | 2019-07-26 | 厦门商集网络科技有限责任公司 | 一种基于建模的ocr识别结果判决方法和设备 |
CN110473523A (zh) * | 2019-08-30 | 2019-11-19 | 北京大米科技有限公司 | 一种语音识别方法、装置、存储介质及终端 |
CN110797018A (zh) * | 2019-08-28 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 语音识别方法及装置、介质和设备 |
CN110827806A (zh) * | 2019-10-17 | 2020-02-21 | 清华大学深圳国际研究生院 | 一种语音关键词检测方法及*** |
CN110956959A (zh) * | 2019-11-25 | 2020-04-03 | 科大讯飞股份有限公司 | 语音识别纠错方法、相关设备及可读存储介质 |
CN111009235A (zh) * | 2019-11-20 | 2020-04-14 | 武汉水象电子科技有限公司 | 一种基于cldnn+ctc声学模型的语音识别方法 |
CN111344779A (zh) * | 2017-12-15 | 2020-06-26 | 谷歌有限责任公司 | 训练和/或使用编码器模型确定自然语言输入的响应动作 |
CN111539199A (zh) * | 2020-04-17 | 2020-08-14 | 中移(杭州)信息技术有限公司 | 文本的纠错方法、装置、终端、及存储介质 |
CN111563388A (zh) * | 2019-02-14 | 2020-08-21 | 阿里巴巴集团控股有限公司 | 信息处理方法及装置 |
CN111640424A (zh) * | 2019-03-01 | 2020-09-08 | 北京搜狗科技发展有限公司 | 一种语音识别方法、装置和电子设备 |
CN111862967A (zh) * | 2020-04-07 | 2020-10-30 | 北京嘀嘀无限科技发展有限公司 | 一种语音识别方法、装置、电子设备及存储介质 |
CN111883133A (zh) * | 2020-07-20 | 2020-11-03 | 深圳乐信软件技术有限公司 | 客服语音识别方法、装置、服务器及存储介质 |
CN113168498A (zh) * | 2018-12-31 | 2021-07-23 | 语享路有限责任公司 | 语言校正***及其方法以及***中的语言校正模型学习方法 |
CN114022668A (zh) * | 2021-10-29 | 2022-02-08 | 北京有竹居网络技术有限公司 | 一种文本对齐语音的方法、装置、设备及介质 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11514914B2 (en) * | 2019-02-08 | 2022-11-29 | Jpmorgan Chase Bank, N.A. | Systems and methods for an intelligent virtual assistant for meetings |
CN111862945A (zh) * | 2019-05-17 | 2020-10-30 | 北京嘀嘀无限科技发展有限公司 | 一种语音识别方法、装置、电子设备及存储介质 |
CN110298037B (zh) * | 2019-06-13 | 2023-08-04 | 同济大学 | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 |
CN110580292B (zh) * | 2019-08-28 | 2023-11-03 | 腾讯科技(深圳)有限公司 | 一种文本标签生成方法、装置和计算机可读存储介质 |
CN110750677B (zh) * | 2019-10-12 | 2023-11-14 | 腾讯科技(深圳)有限公司 | 基于人工智能的音视频识别方法、***及存储介质和服务器 |
CN112749553B (zh) * | 2020-06-05 | 2023-07-25 | 腾讯科技(深圳)有限公司 | 视频文件的文本信息处理方法、装置和服务器 |
CN112651231B (zh) * | 2020-12-08 | 2023-10-27 | 北京有竹居网络技术有限公司 | 口语信息处理方法、装置和电子设备 |
CN113066494B (zh) * | 2021-03-15 | 2024-03-08 | 上海云从汇临人工智能科技有限公司 | 文本纠错模型生成方法及***、文本纠错方法、***、设备及介质 |
CN113421547B (zh) * | 2021-06-03 | 2023-03-17 | 华为技术有限公司 | 一种语音处理方法及相关设备 |
US11657803B1 (en) * | 2022-11-02 | 2023-05-23 | Actionpower Corp. | Method for speech recognition by using feedback information |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104252864A (zh) * | 2013-06-28 | 2014-12-31 | 国际商业机器公司 | 实时语音分析方法和*** |
CN105912533A (zh) * | 2016-04-12 | 2016-08-31 | 苏州大学 | 面向神经机器翻译的长句切分方法及装置 |
CN106486126A (zh) * | 2016-12-19 | 2017-03-08 | 北京云知声信息技术有限公司 | 语音识别纠错方法及装置 |
CN106875943A (zh) * | 2017-01-22 | 2017-06-20 | 上海云信留客信息科技有限公司 | 一种用于大数据分析的语音识别*** |
CN106875949A (zh) * | 2017-04-28 | 2017-06-20 | 深圳市大乘科技股份有限公司 | 一种语音识别的校正方法及装置 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6658377B1 (en) * | 2000-06-13 | 2003-12-02 | Perspectus, Inc. | Method and system for text analysis based on the tagging, processing, and/or reformatting of the input text |
JP4705023B2 (ja) * | 2004-06-10 | 2011-06-22 | パナソニック株式会社 | 音声認識装置、音声認識方法、及びプログラム |
US9842585B2 (en) * | 2013-03-11 | 2017-12-12 | Microsoft Technology Licensing, Llc | Multilingual deep neural network |
KR102380833B1 (ko) * | 2014-12-02 | 2022-03-31 | 삼성전자주식회사 | 음성 인식 방법 및 음성 인식 장치 |
KR102167719B1 (ko) * | 2014-12-08 | 2020-10-19 | 삼성전자주식회사 | 언어 모델 학습 방법 및 장치, 음성 인식 방법 및 장치 |
KR102505347B1 (ko) * | 2015-07-16 | 2023-03-03 | 삼성전자주식회사 | 사용자 관심 음성 알림 장치 및 방법 |
KR102195627B1 (ko) * | 2015-11-17 | 2020-12-28 | 삼성전자주식회사 | 통역 모델 생성 장치 및 방법과, 자동 통역 장치 및 방법 |
US10019438B2 (en) * | 2016-03-18 | 2018-07-10 | International Business Machines Corporation | External word embedding neural network language models |
US9984683B2 (en) * | 2016-07-22 | 2018-05-29 | Google Llc | Automatic speech recognition using multi-dimensional models |
CA3037090A1 (en) * | 2016-10-24 | 2018-05-03 | Semantic Machines, Inc. | Sequence to sequence transformations for speech synthesis via recurrent neural networks |
KR20180071029A (ko) * | 2016-12-19 | 2018-06-27 | 삼성전자주식회사 | 음성 인식 방법 및 장치 |
US10347244B2 (en) * | 2017-04-21 | 2019-07-09 | Go-Vivace Inc. | Dialogue system incorporating unique speech to text conversion method for meaningful dialogue response |
-
2017
- 2017-06-28 CN CN201710508531.5A patent/CN107293296B/zh active Active
-
2018
- 2018-03-28 US US15/938,286 patent/US10380996B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104252864A (zh) * | 2013-06-28 | 2014-12-31 | 国际商业机器公司 | 实时语音分析方法和*** |
CN105912533A (zh) * | 2016-04-12 | 2016-08-31 | 苏州大学 | 面向神经机器翻译的长句切分方法及装置 |
CN106486126A (zh) * | 2016-12-19 | 2017-03-08 | 北京云知声信息技术有限公司 | 语音识别纠错方法及装置 |
CN106875943A (zh) * | 2017-01-22 | 2017-06-20 | 上海云信留客信息科技有限公司 | 一种用于大数据分析的语音识别*** |
CN106875949A (zh) * | 2017-04-28 | 2017-06-20 | 深圳市大乘科技股份有限公司 | 一种语音识别的校正方法及装置 |
Non-Patent Citations (1)
Title |
---|
赵珊珊: "深度学习与多元特征相结合的答案选择排序研究", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107888479A (zh) * | 2017-10-31 | 2018-04-06 | 深圳云之家网络有限公司 | 语音通信方法、装置、计算机设备及存储介质 |
CN111344779A (zh) * | 2017-12-15 | 2020-06-26 | 谷歌有限责任公司 | 训练和/或使用编码器模型确定自然语言输入的响应动作 |
US11842253B2 (en) | 2017-12-15 | 2023-12-12 | Google Llc | Training encoder model and/or using trained encoder model to determine responsive action(s) for natural language input |
CN111344779B (zh) * | 2017-12-15 | 2024-01-23 | 谷歌有限责任公司 | 训练和/或使用编码器模型确定自然语言输入的响应动作 |
CN108682421A (zh) * | 2018-04-09 | 2018-10-19 | 平安科技(深圳)有限公司 | 一种语音识别方法、终端设备及计算机可读存储介质 |
CN108831479A (zh) * | 2018-06-27 | 2018-11-16 | 努比亚技术有限公司 | 一种语音识别方法、终端及计算机可读存储介质 |
CN108962228A (zh) * | 2018-07-16 | 2018-12-07 | 北京百度网讯科技有限公司 | 模型训练方法和装置 |
CN108962228B (zh) * | 2018-07-16 | 2022-03-15 | 北京百度网讯科技有限公司 | 模型训练方法和装置 |
CN109036410A (zh) * | 2018-08-30 | 2018-12-18 | Oppo广东移动通信有限公司 | 语音识别方法、装置、存储介质及终端 |
CN109410957A (zh) * | 2018-11-30 | 2019-03-01 | 福建实达电脑设备有限公司 | 基于计算机视觉辅助的正面人机交互语音识别方法及*** |
CN109308895A (zh) * | 2018-12-04 | 2019-02-05 | 百度在线网络技术(北京)有限公司 | 声学模型训练方法、装置、设备及计算机可读介质 |
CN113168498A (zh) * | 2018-12-31 | 2021-07-23 | 语享路有限责任公司 | 语言校正***及其方法以及***中的语言校正模型学习方法 |
CN109933788A (zh) * | 2019-02-14 | 2019-06-25 | 北京百度网讯科技有限公司 | 类型确定方法、装置、设备和介质 |
CN109933788B (zh) * | 2019-02-14 | 2023-05-23 | 北京百度网讯科技有限公司 | 类型确定方法、装置、设备和介质 |
CN111563388A (zh) * | 2019-02-14 | 2020-08-21 | 阿里巴巴集团控股有限公司 | 信息处理方法及装置 |
CN111640424B (zh) * | 2019-03-01 | 2024-02-13 | 北京搜狗科技发展有限公司 | 一种语音识别方法、装置和电子设备 |
CN111640424A (zh) * | 2019-03-01 | 2020-09-08 | 北京搜狗科技发展有限公司 | 一种语音识别方法、装置和电子设备 |
CN109979450A (zh) * | 2019-03-11 | 2019-07-05 | 青岛海信电器股份有限公司 | 信息处理方法、装置及电子设备 |
CN109979450B (zh) * | 2019-03-11 | 2021-12-07 | 海信视像科技股份有限公司 | 信息处理方法、装置及电子设备 |
CN110059705A (zh) * | 2019-04-22 | 2019-07-26 | 厦门商集网络科技有限责任公司 | 一种基于建模的ocr识别结果判决方法和设备 |
CN110797018B (zh) * | 2019-08-28 | 2022-03-25 | 腾讯科技(深圳)有限公司 | 语音识别方法及装置、介质和设备 |
CN110797018A (zh) * | 2019-08-28 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 语音识别方法及装置、介质和设备 |
CN110473523A (zh) * | 2019-08-30 | 2019-11-19 | 北京大米科技有限公司 | 一种语音识别方法、装置、存储介质及终端 |
CN110827806A (zh) * | 2019-10-17 | 2020-02-21 | 清华大学深圳国际研究生院 | 一种语音关键词检测方法及*** |
CN111009235A (zh) * | 2019-11-20 | 2020-04-14 | 武汉水象电子科技有限公司 | 一种基于cldnn+ctc声学模型的语音识别方法 |
CN110956959A (zh) * | 2019-11-25 | 2020-04-03 | 科大讯飞股份有限公司 | 语音识别纠错方法、相关设备及可读存储介质 |
CN110956959B (zh) * | 2019-11-25 | 2023-07-25 | 科大讯飞股份有限公司 | 语音识别纠错方法、相关设备及可读存储介质 |
CN111862967A (zh) * | 2020-04-07 | 2020-10-30 | 北京嘀嘀无限科技发展有限公司 | 一种语音识别方法、装置、电子设备及存储介质 |
CN111862967B (zh) * | 2020-04-07 | 2024-05-24 | 北京嘀嘀无限科技发展有限公司 | 一种语音识别方法、装置、电子设备及存储介质 |
CN111539199A (zh) * | 2020-04-17 | 2020-08-14 | 中移(杭州)信息技术有限公司 | 文本的纠错方法、装置、终端、及存储介质 |
CN111539199B (zh) * | 2020-04-17 | 2023-08-18 | 中移(杭州)信息技术有限公司 | 文本的纠错方法、装置、终端、及存储介质 |
CN111883133B (zh) * | 2020-07-20 | 2023-08-29 | 深圳乐信软件技术有限公司 | 客服语音识别方法、装置、服务器及存储介质 |
CN111883133A (zh) * | 2020-07-20 | 2020-11-03 | 深圳乐信软件技术有限公司 | 客服语音识别方法、装置、服务器及存储介质 |
CN114022668A (zh) * | 2021-10-29 | 2022-02-08 | 北京有竹居网络技术有限公司 | 一种文本对齐语音的方法、装置、设备及介质 |
CN114022668B (zh) * | 2021-10-29 | 2023-09-22 | 北京有竹居网络技术有限公司 | 一种文本对齐语音的方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN107293296B (zh) | 2020-11-20 |
US20190005946A1 (en) | 2019-01-03 |
US10380996B2 (en) | 2019-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107293296A (zh) | 语音识别结果纠正方法、装置、设备及存储介质 | |
WO2020182153A1 (zh) | 基于自适应语种进行语音识别的方法及相关装置 | |
CN110288980A (zh) | 语音识别方法、模型的训练方法、装置、设备及存储介质 | |
CN113205817B (zh) | 语音语义识别方法、***、设备及介质 | |
CN107134279A (zh) | 一种语音唤醒方法、装置、终端和存储介质 | |
CN107767870A (zh) | 标点符号的添加方法、装置和计算机设备 | |
CN110110041A (zh) | 错词纠正方法、装置、计算机装置及存储介质 | |
EP4134865A1 (en) | Language representation model system, pre-training method and apparatus, device and medium | |
CN108647207A (zh) | 自然语言修正方法、***、设备及存储介质 | |
CN108846130A (zh) | 一种问题文本生成方法、装置、设备和介质 | |
CN107273487A (zh) | 基于人工智能的聊天数据的生成方法、装置及计算机设备 | |
CN107240395A (zh) | 一种声学模型训练方法和装置、计算机设备、存储介质 | |
CN107180628A (zh) | 建立声学特征提取模型的方法、提取声学特征的方法、装置 | |
CN107220355A (zh) | 基于人工智能的新闻质量判断方法、设备及存储介质 | |
CN113674732B (zh) | 语音置信度检测方法、装置、电子设备和存储介质 | |
CN113793398A (zh) | 基于语音交互的绘画方法与装置、存储介质和电子设备 | |
CN111598979A (zh) | 虚拟角色的面部动画生成方法、装置、设备及存储介质 | |
CN114242113B (zh) | 语音检测方法、训练方法、装置和电子设备 | |
CN110147554A (zh) | 同声翻译方法、装置和计算机设备 | |
US20230014105A1 (en) | Image description generation method, apparatus and system, and medium and electronic device | |
CN116993876B (zh) | 生成数字人形象的方法、装置、电子设备及存储介质 | |
CN107240396A (zh) | 说话人自适应方法、装置、设备及存储介质 | |
CN110032736A (zh) | 一种文本分析方法、装置及存储介质 | |
JP2021081713A (ja) | 音声信号を処理するための方法、装置、機器、および媒体 | |
CN115394321A (zh) | 音频情感识别方法、装置、设备、存储介质及产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |