CN113571041A - 语音识别文本处理方法、装置和电子设备 - Google Patents

语音识别文本处理方法、装置和电子设备 Download PDF

Info

Publication number
CN113571041A
CN113571041A CN202110824623.0A CN202110824623A CN113571041A CN 113571041 A CN113571041 A CN 113571041A CN 202110824623 A CN202110824623 A CN 202110824623A CN 113571041 A CN113571041 A CN 113571041A
Authority
CN
China
Prior art keywords
text
text processing
speech recognition
neural network
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110824623.0A
Other languages
English (en)
Inventor
郑渊中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Qiyu Information Technology Co Ltd
Original Assignee
Beijing Qiyu Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Qiyu Information Technology Co Ltd filed Critical Beijing Qiyu Information Technology Co Ltd
Priority to CN202110824623.0A priority Critical patent/CN113571041A/zh
Publication of CN113571041A publication Critical patent/CN113571041A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种语音识别文本处理方法、装置、电子设备及计算机可读介质,该方法包括:获取对用户的语音进行识别得到的第一文本;将第一文本输入已训练的文本处理模型,文本处理模型使用的训练数据标注有音素信息,文本处理模型中包括卷积神经网络和门控循环单元,卷积神经网络用于根据第一文本的音素信息提取第一文本的特征,门控循环单元用于根据第一文本的特征生成第二文本,作为语音的识别结果。本发明采用了卷积神经网络与门控循环单元结合的处理模型,卷积神经网络适于准确、快速提取文本中能够反映音素特点的深层次特征,该特征是提升文本准确性的基础,而门控循环单元适于对提取的特征进行快速处理,有利于提高对文本进行修正的效率。

Description

语音识别文本处理方法、装置和电子设备
技术领域
本发明涉及计算机信息处理领域,具体而言,涉及一种语音识别文本处理方法、装置、电子设备及计算机可读介质。
背景技术
语音识别是一种基于语音特征参数(例如常用的梅尔倒谱系数、FBank等)的模式识别,即通过学习,语音识别***能够把输入的语音按一定模式进行分类,进而依据判定准则找出最佳匹配文本。
当前市面上的中文语音识别***,受制于不标准的普通话或同音字、多音字等情况,识别结果准确率往往较低。因此,需要对不准确的语音识别结果进行纠错,并确保纠错的质量和效率。
发明内容
本发明旨在对不准确的语音识别结果进行纠错,并确保纠错的质量和效率。
为了解决上述技术问题,本发明第一方面提出一种语音识别文本处理方法,包括:获取对用户的语音进行识别得到的第一文本;将所述第一文本输入已训练的文本处理模型,所述文本处理模型使用的训练数据标注有音素信息,所述文本处理模型中包括卷积神经网络和门控循环单元,所述卷积神经网络用于根据所述第一文本的音素信息提取所述第一文本的特征,所述门控循环单元用于根据所述第一文本的特征生成第二文本,作为所述语音的识别结果。
根据本发明的一种优选实施方式,所述文本处理模型使用与用户所在业务场景的语言特性相匹配的训练数据进行训练。
根据本发明的一种优选实施方式,所述业务场景的语言特性包括所述业务场景所在地域人群的口音、教育水平,或所述业务场景对应业务的术语。
根据本发明的一种优选实施方式,在所述将所述第一文本输入已训练的文本处理模型之前,还包括:识别所述用户所在的业务场景,根据所述业务场景从预设的多个文本处理模型中选择用于处理所述第一文本的文本处理模型。
根据本发明的一种优选实施方式,所述卷积神经网络和/或所述门控循环单元为单层或多层结构,所述卷积神经网络和/或所述门控循环单元的层数根据所述业务场景对语音识别效率和/或准确性的要求预先设置。
为了解决上述技术问题,本发明第二方面提出一种语音识别文本处理装置,所述装置包括:文本获取模块,获取对用户的语音进行识别得到的第一文本;文本处理模块,将所述第一文本输入已训练的文本处理模型,所述文本处理模型使用的训练数据标注有音素信息,所述文本处理模型中包括卷积神经网络和门控循环单元,所述卷积神经网络用于根据所述第一文本的音素信息提取所述第一文本的特征,所述门控循环单元用于根据所述第一文本的特征生成第二文本,作为所述语音的识别结果。
根据本发明的一种优选实施方式,所述文本处理模型使用与用户所在业务场景的语言特性相匹配的训练数据进行训练。
根据本发明的一种优选实施方式,所述业务场景的语言特性包括所述业务场景所在地域人群的口音、教育水平,或所述业务场景对应业务的术语。
根据本发明的一种优选实施方式,还包括:模型选择模块,在所述将所述第一文本输入已训练的文本处理模型之前,识别所述用户所在的业务场景,根据所述业务场景从预设的多个文本处理模型中选择用于处理所述第一文本的文本处理模型。
根据本发明的一种优选实施方式,所述卷积神经网络和/或所述门控循环单元为单层或多层结构,所述卷积神经网络和/或所述门控循环单元的层数根据所述业务场景对语音识别效率和/或准确性的要求预先设置。
为了解决上述技术问题,本发明第三方面提出一种电子设备,其包括处理器以及存储计算机可执行指令的存储器,所述计算机可执行指令在被执行时使所述处理器执行上述的方法。
为了解决上述技术问题,本发明第四方面提出一种计算机可读存储介质,该所述计算机可读存储介质存储一个或多个程序,当所述一个或多个程序被处理器执行时,实现上述的方法。
本发明的技术方案采用了卷积神经网络与门控循环单元结合的处理模型,对于从用户语音中识别出的文本,卷积神经网络适于准确、快速提取文本中能够反映音素特点的深层次特征,该特征是提升文本准确性的基础,而门控循环单元适于对提取的特征进行快速处理,有利于提高对文本进行修正的效率。
附图说明
为了使本发明所解决的技术问题、采用的技术手段及取得的技术效果更加清楚,下面将参照附图详细描述本发明的具体实施例。但需声明的是,下面描述的附图仅仅是本发明的示例性实施例的附图,对于本领域的技术人员来讲,在不付出创造性劳动的前提下,可以根据这些附图获得其他实施例的附图。
图1是根据本发明的一个实施例的语音识别文本处理方法的流程图;
图2是根据本发明的一个实施例的语音识别文本处理方法的流程图;
图3是根据本发明的一个实施例的语音识别文本处理装置的框图;
图4是根据本发明的一个实施例的语音识别文本处理装置的框图;
图5是根据本发明的一个实施例的电子设备的框图;
图6是根据本发明的一个实施例的计算机可读存储介质的示意图。
具体实施方式
现在将参考附图来更加全面地描述本发明的示例性实施例,虽然各示例性实施例能够以多种具体的方式实施,但不应理解为本发明仅限于在此阐述的实施例。相反,提供这些示例性实施例是为了使本发明的内容更加完整,更加便于将发明构思全面地传达给本领域的技术人员。
在符合本发明的技术构思的前提下,在某个特定的实施例中描述的结构、性能、效果或者其他特征可以以任何合适的方式结合到一个或更多其他的实施例中。
在对于具体实施例的介绍过程中,对结构、性能、效果或者其他特征的细节描述是为了使本领域的技术人员对实施例能够充分理解。但是,并不排除本领域技术人员可以在特定情况下,以不含有上述结构、性能、效果或者其他特征的技术方案来实施本发明。
附图中的流程图仅是一种示例性的流程演示,不代表本发明的方案中必须包括流程图中的所有的内容、操作和步骤,也不代表必须按照图中所显示的的顺序执行。例如,流程图中有的操作/步骤可以分解,有的操作/步骤可以合并或部分合并,等等,在不脱离本发明的发明主旨的情况下,流程图中显示的执行顺序可以根据实际情况改变。
附图中的框图一般表示的是功能实体,并不一定必然与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
各附图中相同的附图标记表示相同或类似的元件、组件或部分,因而下文中可能省略了对相同或类似的元件、组件或部分的重复描述。还应理解,虽然本文中可能使用第一、第二、第三等表示编号的定语来描述各种器件、元件、组件或部分,但是这些器件、元件、组件或部分不应受这些定语的限制。也就是说,这些定语仅是用来将一者与另一者区分。例如,第一器件亦可称为第二器件,但不偏离本发明实质的技术方案。此外,术语“和/或”、“及/或”是指包括所列出项目中的任一个或多个的所有组合。
目前市面上的语言纠错模型多数使用NLP(自然语言处理)技术,NLP方案存在以下几个缺点:首先是NLP模型训练周期长,数据需求大;其次NLP推理过程存在一定的黑箱(即不可解释性);最后就是NLP模型的训练成本和部署成本远高于收益。因此,本发明中使用了新的语音纠错方法:获取对用户的语音进行识别得到的第一文本;将第一文本输入已训练的文本处理模型,文本处理模型使用的训练数据标注有音素信息,文本处理模型中包括卷积神经网络和门控循环单元,卷积神经网络用于根据第一文本的音素信息提取第一文本的特征,门控循环单元用于根据第一文本的特征生成第二文本,作为语音的识别结果。该纠错方案与ASR(自动语音识别技术)语言模型重打分技术和NLP方案不同。ASR语言模型重打分技术本质上是基于词格进行修正,无法修正“这种方法往往使创立越多的公司……/这种方法往往使创利越多的公司……”这类同音词混淆。而相比NLP,C-GRU模型更适合语音纠错,其不仅仅可以修正音素的混淆,还可以根据上下文语义进行纠错,其只需收集常常混用的音素字,例如in/ing、un/ong等,数据量和训练周期远远少于NLP技术,同时C-GRU网络结构相对简洁,便于用户理解每一层网络的效果,在训练成本和部署成本方面,C-GRU亦优于绝大多数NLP模型,最小的C-GRU模型仅仅不到5000个参数,使得部署成本和训练成本都很低廉。由于C-GRU模型较小,相较于NLP的纠错模型,整个ASR***仍然可以保持较高的实时率。
如图1所示,本发明的一个实施例中提供了一种语音识别文本处理方法,包括:
步骤S110,获取对用户的语音进行识别得到的第一文本。
在本实施例中,对识别第一文本的方式不进行限制,例如,可以使用深度学习或深置信网络和隐马尔科夫模型的结合体进行识别,受限于普通话不标准、地方口音、多音字情况,往往识别出的文本准确性存在缺陷。
步骤S120,将第一文本输入已训练的文本处理模型,文本处理模型使用的训练数据标注有音素信息,文本处理模型中包括卷积神经网络和门控循环单元,卷积神经网络用于根据第一文本的音素信息提取第一文本的特征,门控循环单元用于根据第一文本的特征生成第二文本,作为语音的识别结果。
在对模型训练时,首先要收集符合要求的样本数据,确保音素标注的准确性,之后对模型进行训练;训练完成后,再使用实际应用场景的真实数据进行测试,收集并分析错误样例,根据这些错误样例再重复对模型进行训练,完成对模型的微调并投入实际应用。音素标注的准确性,对于文本纠错具有重要意义,例如:
Figure BDA0003173243130000061
由于本实施例用于对语音识别文本纠错,而普通话不标准、地方口音、多音字情况造成的仅仅是几个字的纠错,因此没有使用常用于处理长序列信息的RNN(循环神经模型),而采用了是卷积神经网络(CNN)和门控循环单元(GRU)结合的模型(C-GRU),相较于传统的RNN模型,C-GRU的好处在于CNN可以根据文本的音素信息,进行深层次的特征提取,而GRU则适于处理序列特征,相对于RNN模型,在语音识别文本纠错的准确性和效率性都有显著优势。
根据本实施例的技术方案,针对普通话不标准、地方口音、多音字情况造成的语音识别错误,使用标注有音素信息的数据,利用C-GRU模型进行音素级别的建模,从而对中文语音识别***的第一次结果进行二次修正,通过修改不标准的普通话和同音字、多音字,使得识别结果更加准确。
如图2所示,本发明的一个实施例中提供了一种语音识别文本处理方法,包括:
步骤S210,获取对用户的语音进行识别得到的第一文本。
步骤S220,识别用户所在的业务场景,根据业务场景从预设的多个文本处理模型中选择用于处理第一文本的文本处理模型,该文本处理模型使用与用户所在业务场景的语言特性相匹配的训练数据进行训练,且训练数据标注有音素信息。
本实施例中,为提升语音识别文本纠错的准确程度,根据业务场景的不同训练了多种处理模型,每种处理模型使用具有对应业务场景特点的数据来训练。一般地,业务场景的语言特性包括业务场景所在地域人群的口音、教育水平,或业务场景对应业务的术语。不同的业务场景下用户具有不同的语言特点,要准确识别用户语音就不能对其忽略。例如,业务场景在湖南地区,那么就需要对例如“n/l”发音混淆的情况准备训练数据;如果在业务场景中,用户文化水平普遍不高,那么就需要对多音字(如“角色”中的“角”应该念“jue”而不是“jiao”)情况准备训练数据;如果业务场景涉及金融领域,那么用户提及的“chuangli”更有可能是“创利”,而非常见的“创立”。此处,对具体场景进行深研,分析训练数据特点,针对性准备训练数据,有利于减少模型所需的训练数据。
步骤S230,将第一文本输入已训练的文本处理模型,文本处理模型中包括卷积神经网络和门控循环单元,卷积神经网络和/或门控循环单元为单层或多层结构,卷积神经网络和/或门控循环单元的层数根据业务场景对语音识别效率和/或准确性的要求预先设置,卷积神经网络用于根据第一文本的音素信息提取第一文本的特征,门控循环单元用于根据第一文本的特征生成第二文本,作为语音的识别结果。
在本实施例中,根据具体场景设计CNN的层数和GRU的层数,当业务场景对文本纠错的质量要求较高时,CNN和GRU的层数可以增加,当业务场景对文本纠错的效率要求较高时,CNN和GRU的层数可以降低,若具体场景较为简单,最少仅用两层CNN和一层GRU即可完成任务。
根据本实施例的技术方案,针对具体业务场景进行训练数据的研究、分析、收集、训练,适用于不同业务场景下的语音识别纠错,使得语音识别准确率得到有效提升。
本领域技术人员可以理解,实现上述实施例的全部或部分步骤被实现为由数据处理设备(包括计算机)执行的程序,即计算机程序。在该计算机程序被执行时,可以实现本发明提供的上述方法。而且,所述的计算机程序可以存储于计算机可读存储介质中,该存储介质可以是磁盘、光盘、ROM、RAM等可读存储介质,也可以是多个存储介质组成的存储阵列,例如磁盘或磁带存储阵列。所述的存储介质不限于集中式存储,其也可以是分布式存储,例如基于云计算的云存储。
下面描述本发明的装置实施例,该装置可以用于执行本发明的方法实施例。对于本发明装置实施例中描述的细节,应视为对于上述方法实施例的补充;对于在本发明装置实施例中未披露的细节,可以参照上述方法实施例来实现。
如图3所示,本发明的一个实施例中提供了一种语音识别文本处理装置,包括:
文本获取模块310,获取对用户的语音进行识别得到的第一文本。
在本实施例中,对识别第一文本的方式不进行限制,例如,可以使用深度学习或深置信网络和隐马尔科夫模型的结合体进行识别,受限于普通话不标准、地方口音、多音字情况,往往识别出的文本准确性存在缺陷。
文本处理模块320,将第一文本输入已训练的文本处理模型,文本处理模型使用的训练数据标注有音素信息,文本处理模型中包括卷积神经网络和门控循环单元,卷积神经网络用于根据第一文本的音素信息提取第一文本的特征,门控循环单元用于根据第一文本的特征生成第二文本,作为语音的识别结果。
在对模型训练时,首先要收集符合要求的样本数据,确保音素标注的准确性,之后对模型进行训练;训练完成后,再使用实际应用场景的真实数据进行测试,收集并分析错误样例,根据这些错误样例再重复对模型进行训练,完成对模型的微调并投入实际应用。音素标注的准确性,对于文本纠错具有重要意义,例如:
Figure BDA0003173243130000081
Figure BDA0003173243130000091
由于本实施例用于对语音识别文本纠错,而普通话不标准、地方口音、多音字情况造成的仅仅是几个字的纠错,因此没有使用常用于处理长序列信息的RNN(循环神经模型),而采用了是卷积神经网络(CNN)和门控循环单元(GRU)结合的模型(C-GRU),相较于传统的RNN模型,C-GRU的好处在于CNN可以根据文本的音素信息,进行深层次的特征提取,而GRU则适于处理序列特征,相对于RNN模型,在语音识别文本纠错的准确性和效率性都有显著优势。
根据本实施例的技术方案,针对普通话不标准、地方口音、多音字情况造成的语音识别错误,使用标注有音素信息的数据,利用C-GRU模型进行音素级别的建模,从而对中文语音识别***的第一次结果进行二次修正,通过修改不标准的普通话和同音字、多音字,使得识别结果更加准确。
如图4所示,本发明的一个实施例中提供了一种语音识别文本处理装置,包括:
文本获取模块410,获取对用户的语音进行识别得到的第一文本。
模型选择模块420,识别用户所在的业务场景,根据业务场景从预设的多个文本处理模型中选择用于处理第一文本的文本处理模型,该文本处理模型使用与用户所在业务场景的语言特性相匹配的训练数据进行训练,且训练数据标注有音素信息。
本实施例中,为提升语音识别文本纠错的准确程度,根据业务场景的不同训练了多种处理模型,每种处理模型使用具有对应业务场景特点的数据来训练。一般地,业务场景的语言特性包括业务场景所在地域人群的口音、教育水平,或业务场景对应业务的术语。不同的业务场景下用户具有不同的语言特点,要准确识别用户语音就不能对其忽略。例如,业务场景在湖南地区,那么就需要对例如“n/l”发音混淆的情况准备训练数据;如果在业务场景中,用户文化水平普遍不高,那么就需要对多音字(如“角色”中的“角”应该念“jue”而不是“jiao”)情况准备训练数据;如果业务场景涉及金融领域,那么用户提及的“chuangli”更有可能是“创利”,而非常见的“创立”。此处,对具体场景进行深研,分析训练数据特点,针对性准备训练数据,有利于减少模型所需的训练数据。
文本处理模块430,将第一文本输入已训练的文本处理模型,文本处理模型中包括卷积神经网络和门控循环单元,卷积神经网络和/或门控循环单元为单层或多层结构,卷积神经网络和/或门控循环单元的层数根据业务场景对语音识别效率和/或准确性的要求预先设置,卷积神经网络用于根据第一文本的音素信息提取第一文本的特征,门控循环单元用于根据第一文本的特征生成第二文本,作为语音的识别结果。
在本实施例中,根据具体场景设计CNN的层数和GRU的层数,当业务场景对文本纠错的质量要求较高时,CNN和GRU的层数可以增加,当业务场景对文本纠错的效率要求较高时,CNN和GRU的层数可以降低,若具体场景较为简单,最少仅用两层CNN和一层GRU即可完成任务。
根据本实施例的技术方案,针对具体业务场景进行训练数据的研究、分析、收集、训练,适用于不同业务场景下的语音识别纠错,使得语音识别准确率得到有效提升。
本领域技术人员可以理解,上述装置实施例中的各模块可以按照描述分布于装置中,也可以进行相应变化,分布于不同于上述实施例的一个或多个装置中。上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
下面描述本发明的电子设备实施例,该电子设备可以视为对于上述本发明的方法和装置实施例的实体形式的实施方式。对于本发明电子设备实施例中描述的细节,应视为对于上述方法或装置实施例的补充;对于在本发明电子设备实施例中未披露的细节,可以参照上述方法或装置实施例来实现。
图5是根据本发明的一种电子设备的示例性实施例的结构框图。图5显示的电子设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,该示例性实施例的电子设备200以通用数据处理设备的形式表现。电子设备200的组件可以包括但不限于:至少一个处理单元210、至少一个存储单元220、连接不同***组件(包括存储单元220和处理单元210)的总线230、显示单元240等。
其中,所述存储单元220存储有计算机可读程序,其可以是源程序或都只读程序的代码。所述程序可以被处理单元210执行,使得所述处理单元210执行本发明各种实施方式的步骤。例如,所述处理单元210可以执行如图1或图2所示的步骤。
所述存储单元220可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)2201和/或高速缓存存储单元2202,还可以进一步包括只读存储单元(ROM)2203。所述存储单元220还可以包括具有一组(至少一个)程序模块2205的程序/实用工具2204,这样的程序模块2205包括但不限于:操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线230可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、***总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备200也可以与一个或多个外部设备300(例如键盘、显示器、网络设备、蓝牙设备等)通信,使得用户能经由这些外部设备300与该电子设备200交互,和/或使得该电子设备200能与一个或多个其它数据处理设备(例如路由器、调制解调器等等)进行通信。这种通信可以通过输入/输出(I/O)接口250进行,还可以通过网络适配器260与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)进行。网络适配器260可以通过总线230与电子设备200的其它模块通信。应当明白,尽管图中未示出,电子设备200中可使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
图6是本发明的一个计算机可读介质实施例的示意图。如图6所示,所述计算机程序可以存储于一个或多个计算机可读介质上。计算机可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。当所述计算机程序被一个或多个数据处理设备执行时,使得该计算机可读介质能够实现本发明的上述方法,即:获取对用户的语音进行识别得到的第一文本;将所述第一文本输入已训练的文本处理模型,所述文本处理模型使用的训练数据标注有音素信息,所述文本处理模型中包括卷积神经网络和门控循环单元,所述卷积神经网络用于根据所述第一文本的音素信息提取所述第一文本的特征,所述门控循环单元用于根据所述第一文本的特征生成第二文本,作为所述语音的识别结果。
通过以上的实施方式的描述,本领域的技术人员易于理解,本发明描述的示例性实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个计算机可读的存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台数据处理设备(可以是个人计算机、服务器、或者网络设备等)执行根据本发明的上述方法。
所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
综上所述,本发明可以执行计算机程序的方法、装置、电子设备或计算机可读介质来实现。可以在实践中使用微处理器或者数字信号处理器(DSP)等通用数据处理设备来实现本发明的一些或者全部功能。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,本发明不与任何特定计算机、虚拟装置或者电子设备固有相关,各种通用装置也可以实现本发明。以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (12)

1.一种语音识别文本处理方法,其特征在于,包括:
获取对用户的语音进行识别得到的第一文本;
将所述第一文本输入已训练的文本处理模型,所述文本处理模型使用的训练数据标注有音素信息,所述文本处理模型中包括卷积神经网络和门控循环单元,所述卷积神经网络用于根据所述第一文本的音素信息提取所述第一文本的特征,所述门控循环单元用于根据所述第一文本的特征生成第二文本,作为所述语音的识别结果。
2.根据权利要求1所述的语音识别文本处理方法,其特征在于,
所述文本处理模型使用与用户所在业务场景的语言特性相匹配的训练数据进行训练。
3.根据权利要求2所述的语音识别文本处理方法,其特征在于,
所述业务场景的语言特性包括所述业务场景所在地域人群的口音、教育水平,或所述业务场景对应业务的术语。
4.根据权利要求2所述的语音识别文本处理方法,其特征在于,在所述将所述第一文本输入已训练的文本处理模型之前,还包括:
识别所述用户所在的业务场景,根据所述业务场景从预设的多个文本处理模型中选择用于处理所述第一文本的文本处理模型。
5.根据权利要求2所述的语音识别文本处理方法,其特征在于,
所述卷积神经网络和/或所述门控循环单元为单层或多层结构,所述卷积神经网络和/或所述门控循环单元的层数根据所述业务场景对语音识别效率和/或准确性的要求预先设置。
6.一种语音识别文本处理装置,其特征在于,包括:
文本获取模块,获取对用户的语音进行识别得到的第一文本;
文本处理模块,将所述第一文本输入已训练的文本处理模型,所述文本处理模型使用的训练数据标注有音素信息,所述文本处理模型中包括卷积神经网络和门控循环单元,所述卷积神经网络用于根据所述第一文本的音素信息提取所述第一文本的特征,所述门控循环单元用于根据所述第一文本的特征生成第二文本,作为所述语音的识别结果。
7.根据权利要求6所述的语音识别文本处理装置,其特征在于,
所述文本处理模型使用与用户所在业务场景的语言特性相匹配的训练数据进行训练。
8.根据权利要求7所述的语音识别文本处理装置,其特征在于,
所述业务场景的语言特性包括所述业务场景所在地域人群的口音、教育水平,或所述业务场景对应业务的术语。
9.根据权利要求7所述的语音识别文本处理装置,其特征在于,还包括:
模型选择模块,在所述将所述第一文本输入已训练的文本处理模型之前,识别所述用户所在的业务场景,根据所述业务场景从预设的多个文本处理模型中选择用于处理所述第一文本的文本处理模型。
10.根据权利要求7所述的语音识别文本处理装置,其特征在于,
所述卷积神经网络和/或所述门控循环单元为单层或多层结构,所述卷积神经网络和/或所述门控循环单元的层数根据所述业务场景对语音识别效率和/或准确性的要求预先设置。
11.一种电子设备,包括:
处理器;以及
存储计算机可执行指令的存储器,所述计算机可执行指令在被执行时使所述处理器执行根据权利要求1-5中任一项所述的方法。
12.一种计算机可读存储介质,其中,所述计算机可读存储介质存储一个或多个程序,当所述一个或多个程序被处理器执行时,实现权利要求1-5中任一项所述的方法。
CN202110824623.0A 2021-07-21 2021-07-21 语音识别文本处理方法、装置和电子设备 Pending CN113571041A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110824623.0A CN113571041A (zh) 2021-07-21 2021-07-21 语音识别文本处理方法、装置和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110824623.0A CN113571041A (zh) 2021-07-21 2021-07-21 语音识别文本处理方法、装置和电子设备

Publications (1)

Publication Number Publication Date
CN113571041A true CN113571041A (zh) 2021-10-29

Family

ID=78166048

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110824623.0A Pending CN113571041A (zh) 2021-07-21 2021-07-21 语音识别文本处理方法、装置和电子设备

Country Status (1)

Country Link
CN (1) CN113571041A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111523306A (zh) * 2019-01-17 2020-08-11 阿里巴巴集团控股有限公司 文本的纠错方法、装置和***
CN111783471A (zh) * 2020-06-29 2020-10-16 中国平安财产保险股份有限公司 自然语言的语义识别方法、装置、设备及存储介质
CN111951805A (zh) * 2020-07-10 2020-11-17 华为技术有限公司 一种文本数据处理方法及装置
CN112232062A (zh) * 2020-12-11 2021-01-15 北京百度网讯科技有限公司 文本纠错方法、装置、电子设备和存储介质
CN112447172A (zh) * 2019-08-12 2021-03-05 云号(北京)科技有限公司 一种语音识别文本的质量提升方法和装置
CN113051895A (zh) * 2021-03-18 2021-06-29 中国工商银行股份有限公司 语音识别的方法、装置、电子设备、介质和程序产品

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111523306A (zh) * 2019-01-17 2020-08-11 阿里巴巴集团控股有限公司 文本的纠错方法、装置和***
CN112447172A (zh) * 2019-08-12 2021-03-05 云号(北京)科技有限公司 一种语音识别文本的质量提升方法和装置
CN111783471A (zh) * 2020-06-29 2020-10-16 中国平安财产保险股份有限公司 自然语言的语义识别方法、装置、设备及存储介质
CN111951805A (zh) * 2020-07-10 2020-11-17 华为技术有限公司 一种文本数据处理方法及装置
CN112232062A (zh) * 2020-12-11 2021-01-15 北京百度网讯科技有限公司 文本纠错方法、装置、电子设备和存储介质
CN113051895A (zh) * 2021-03-18 2021-06-29 中国工商银行股份有限公司 语音识别的方法、装置、电子设备、介质和程序产品

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PRAVALLIKA ETOORI等: ""Automatic Spelling Correction for Resource-Scarce Languages using Deep Learning"", PROCEEDINGS OF ACL 2018, STUDENT RESEARCH WORKSHOP, pages 149 *

Similar Documents

Publication Publication Date Title
CN111933129B (zh) 音频处理方法、语言模型的训练方法、装置及计算机设备
CN109523989B (zh) 语音合成方法、语音合成装置、存储介质及电子设备
CN109003624B (zh) 情绪识别方法、装置、计算机设备及存储介质
CN111613212B (zh) 语音识别方法、***、电子设备和存储介质
CN108984529A (zh) 实时庭审语音识别自动纠错方法、存储介质及计算装置
CN109686383B (zh) 一种语音分析方法、装置及存储介质
US20200311207A1 (en) Automatic text segmentation based on relevant context
WO2020186712A1 (zh) 一种语音识别方法、装置及终端
JP7266683B2 (ja) 音声対話に基づく情報検証方法、装置、デバイス、コンピュータ記憶媒体、およびコンピュータプログラム
CN109448704A (zh) 语音解码图的构建方法、装置、服务器和存储介质
CN112992125B (zh) 一种语音识别方法、装置、电子设备、可读存储介质
CN110010136B (zh) 韵律预测模型的训练和文本分析方法、装置、介质和设备
CN112818089B (zh) 文本注音方法、电子设备及存储介质
CN110852075B (zh) 自动添加标点符号的语音转写方法、装置及可读存储介质
US11961515B2 (en) Contrastive Siamese network for semi-supervised speech recognition
CN104538025A (zh) 手势到汉藏双语语音转换方法及装置
van Esch et al. Future directions in technological support for language documentation
CN114330371A (zh) 基于提示学习的会话意图识别方法、装置和电子设备
CN110853669B (zh) 音频识别方法、装置及设备
CN110647613A (zh) 一种课件构建方法、装置、服务器和存储介质
CN114999463A (zh) 语音识别方法、装置、设备及介质
CN113327575B (zh) 一种语音合成方法、装置、计算机设备和存储介质
US11682318B2 (en) Methods and systems for assisting pronunciation correction
CN116978367A (zh) 语音识别方法、装置、电子设备和存储介质
Zahariev et al. Semantic analysis of voice messages based on a formalized context

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination