CN112017645A - 一种语音识别方法及装置 - Google Patents
一种语音识别方法及装置 Download PDFInfo
- Publication number
- CN112017645A CN112017645A CN202010900446.5A CN202010900446A CN112017645A CN 112017645 A CN112017645 A CN 112017645A CN 202010900446 A CN202010900446 A CN 202010900446A CN 112017645 A CN112017645 A CN 112017645A
- Authority
- CN
- China
- Prior art keywords
- language model
- target
- model
- text data
- domain
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000013145 classification model Methods 0.000 claims description 29
- 239000013598 vector Substances 0.000 claims description 23
- 238000012549 training Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 5
- 238000013526 transfer learning Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000010845 search algorithm Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006854 communication Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/065—Adaptation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3346—Query execution using probabilistic model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
- G06F18/295—Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了一种语音识别方法及装置,其中所述方法包括:获取当前通话的各客户端的语音信号分别经由语音识别器进行语音识别后输出的文本数据,其中,所述语音识别器包括目标领域语言模型;根据各客户端的所述文本数据确定当前通话的目标话题领域;判断所述目标领域语言模型是否与所述目标话题领域适配,若不适配,则将所述目标领域语言模型切换为与所述目标话题领域适配的领域语言模型,从而实现动态地选择与当前通话内容的话题领域适配的目标领域语言模型,利用适配的目标领域语言模型选出最优的识别结果可以提高语音识别器的识别率,适于端内动态变化的通话内容的场景。
Description
技术领域
本申请实施例涉及自然语言处理技术,尤其涉及一种语音识别方法及装置。
背景技术
语音识别(Automatic Speech Recognition,简称ASR)是以语音为研究对象,通过语音信号处理和模式识别让机器自动识别和理解人类口述的语言。语音识别技术就是让机器通过识别和理解过程把语音信号转换为相应的文本或命令的技术。随着信息技术的发展,语音识别技术正逐步成为计算机信息处理技术中的关键技术,语音识别技术的应用场景也变得越来越广泛,例如语音识别技术可以应用在字幕添加、识别谈话中的敏感内容、人机交互等场景。
当ASR语音识别器的训练和测试场景的领域一致时则识别率会比较高,否则识别率就比较差。例如,用游戏场景语料训练的语言模型(Language Model,简称LM)用在政治场景时ASR的识别率就会较差。为了解决这个问题,现有技术是基于先验知识定制匹配的LM模型,为特定的使用场景快速构建领域依赖的模型。这样做的优点是灵活可控、定制性强,适合清晰明确的场景,如智能家居、医疗机器人或是点餐***等。但其缺点是在语境偏离场景时识别率会降低,例如针对动态变化的聊天内容,其识别率会比较低。
相关技术还提出一种用数据量大覆盖广的文本训练的通用LM模型,但由于有内存限制以及超出模型建模能力,通用LM模型性能仍会差于领域依赖模型。
发明内容
本申请提供一种语音识别方法及装置,以解决现有技术中采用领域语言模型进行语音识别时对偏离场景的语境识别率较低,以及采用通用语言模型进行语音识别时模型性能较弱的问题。
第一方面,本申请实施例提供了一种语音识别方法,所述方法包括:
获取当前通话的各客户端的语音信号分别经由语音识别器进行语音识别后输出的文本数据,其中,所述语音识别器包括目标领域语言模型;
根据各客户端的所述文本数据确定当前通话的目标话题领域;
判断所述目标领域语言模型是否与所述目标话题领域适配,若不适配,则将所述目标领域语言模型切换为与所述目标话题领域适配的领域语言模型。
第二方面,本申请实施例还提供了一种语音识别装置,所述装置包括:
文本数据获取模块,用于获取当前通话的各客户端的语音信号分别经由语音识别器进行语音识别后输出的文本数据,其中,所述语音识别器包括目标领域语言模型;
目标话题领域确定模块,用于根据各客户端的所述文本数据确定当前通话的目标话题领域;
领域语言模型切换模块,用于判断所述目标领域语言模型是否与所述目标话题领域适配,若不适配,则将所述目标领域语言模型切换为与所述目标话题领域适配的领域语言模型。
第三方面,本申请实施例还提供了一种服务器,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述的语音识别方法。
第四方面,本申请实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述的语音识别方法。
本申请具有如下有益效果:
在本实施例中,当获得当前通话的各客户端的语音信号分别经由语音识别器进行语音识别后输出的文本数据以后,可以根据各客户端的文本数据确定当前通话的目标话题领域,如果语音识别器当前使用的目标领域语言模型与该目标话题领域不适配,则可以实时将该目标领域语言模型切换为与目标话题领域适配的领域语言模型,从而实现动态地选择与当前通话内容的话题领域适配的目标领域语言模型,利用适配的目标领域语言模型选出最优的识别结果可以提高语音识别器的识别率,适于端内动态变化的通话内容的场景。
附图说明
图1是本申请实施例一提供的一种语音识别方法实施例的流程图;
图2是本申请实施例二提供的另一种语音识别方法实施例的流程图;
图3是本申请实施例二提供的语音识别器使用的模型示意图;
图4是本申请实施例二提供的双人通话场景示意图;
图5是本申请实施例三提供的一种语音识别装置实施例的结构框图;
图6是本申请实施例六提供的一种服务器的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本申请,而非对本申请的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本申请相关的部分而非全部结构。
实施例一
图1为本申请实施例一提供的一种语音识别方法实施例的流程图,本实施例可以由语音识别装置实现,该语音识别装置可以位于服务器中,具体可以包括如下步骤:
步骤110,获取当前通话的各客户端的语音信号分别经由语音识别器进行语音识别后输出的文本数据,其中,所述语音识别器包括目标领域语言模型。
在该步骤中,当客户端采集到用户发出的语音信号时,可以将语音信号发送至服务器中。在服务器中,通过语音识别器对客户端发送的语音信号进行语音识别,获得语音识别结果,即该语音信号对应的文本数据。
对于正在进行通信的各客户端而言,都可以通过服务器的语音识别器进行语音识别。
在语音识别器中,最后输出文本数据的模型为目标领域语言模型,该目标领域语言模型与文本数据所处的话题领域相适配。
步骤120,根据各客户端的所述文本数据确定当前通话的目标话题领域。
在一种实施方式中,可以结合各客户端的文本数据进行综合分析,通过提取文本数据中的上下文语义信息来确定各客户端当前聊天的话题领域。示例性地,话题领域可以包括预先定义的各种领域的话题,例如政治领域、经济领域、游戏领域、娱乐领域等。
步骤130,判断所述目标领域语言模型是否与所述目标话题领域适配,若不适配,则将所述目标领域语言模型切换为与所述目标话题领域适配的领域语言模型。
在该步骤中,当确定当前通话的目标话题领域以后,可以比较该目标话题领域与语音识别器当前使用的目标领域语言模型对应的领域是否一致,如果两者一致,则无需进行领域语言模型的切换;否则,如果两者不一致,则需要实时切换目标领域语言模型到目标话题领域对应的领域语言模型。
例如,假设当前通话的客户端包括客户端A和客户端B,客户端A输出的第一语音信号经过语音识别器进行语音识别后转换成第一文本数据,客户端B输出的第二语音信号经过语音识别器进行语音识别后转换成第二文本数据。然后根据通话双方的语音识别结果,即第一文本数据和第二文本数据,可以分析出客户端A和客户端B当前通话的目标话题领域,比如,游戏领域、政治领域、经济领域、科技领域、八卦领域等。然后可以判断语音识别器当前使用的目标领域语言模型与该目标话题领域是否适配,如果不适配,则可以将该目标领域语言模型切换为与目标话题领域适配的领域语言模型,比如,假设语音识别器当前使用的目标领域语言模型为政治领域的语言模型,但目标话题领域为游戏领域,则可以实时将该目标领域语言模型切换为游戏领域的语言模型。
又如,假设当前聊天的场景为群聊场景,可以获取群聊中各客户端的语音信号经过语音识别器进行语音识别后转换成的文本数据,然后根据群聊的各客户端的语音识别结果,分析出当前群聊话题的目标话题领域,然后可以判断语音识别器当前使用的目标领域语言模型与该目标话题领域是否适配,如果不适配,则可以将该目标领域语言模型切换为与目标话题领域适配的领域语言模型,比如,假设语音识别器当前使用的目标领域语言模型为游戏领域的语言模型,但群聊的目标话题领域为科技领域,则可以实时将该目标领域语言模型切换为科技领域的语言模型。
在本实施例中,当获得当前通话的各客户端的语音信号分别经由语音识别器进行语音识别后输出的文本数据以后,可以根据各客户端的文本数据确定当前通话的目标话题领域,如果语音识别器当前使用的目标领域语言模型与该目标话题领域不适配,则可以实时将该目标领域语言模型切换为与目标话题领域适配的领域语言模型,从而实现动态地选择与当前通话内容的话题领域适配的目标领域语言模型,利用适配的目标领域语言模型选出最优的识别结果可以提高语音识别器的识别率,适于端内动态变化的通话内容的场景。
实施例二
图2为本申请实施例二提供的另一种语音识别方法实施例的流程图,本实施例在实施例一的基础上,对语音识别器中使用的模型进行说明。在本实施例中,如图3语音识别器使用的模型示意图所示,语音识别器使用的模型至少可以包括如下模型:声学模型、通用语言模型、目标领域语言模型以及文本分类模型。
声学模型(Acoustic Model,简称AM)是对声学、语音学、环境的变量、说话人性别、口音等的差异的知识表示。声学模型的主要功能是对语音特征向量序列进行音素标记,利用词典({词:音素})生成字符串序列,即,实现语音特征到音素的映射。声学模型的类型可以包括但不限于:混合声学模型、端到端声学模型、Seq2Seq(序列到序列模型)声学模型等。其中,混合声学模型可以包括但不限于:GMM(高斯混合模型)-HMM(隐马尔科夫模型)、DNN(深度神经网络)-HMM、RNN(循环神经网络)-HMM、CNN(卷积神经网络)-HMM等模型。端到端声学模型可以包括LAS(Listen Attend and Spell)模型等。
语言模型是对一组字序列构成的知识表示,语言模型的目的是根据声学模型输出的结果,给出最大概率的文字序列。在一种实施例中,语言模型可以表示为采用链式法则把一个句子的概率拆解成其中的每个词的概率之积。由马尔卡夫模型的思想,一种示例性的做法就是用N-元文法,即假定某一个字的输出只与前面N-1个字出现的概率有关系,这种语言模型叫做n-gram模型。
在本实施例中,语言模型可以包括通用语言模型和领域语言模型。通用语言模型为使用数据量大、覆盖广的文本训练的通用的语言模型,由于通用语言模型没有针对特定领域优化,因此在政治、游戏、体育、新闻和娱乐等细致领域无法发挥出色性能,但可作为语音识别器的第一级输出n-best列表。
领域语言模型可以有多个,各领域语言模型在训练时基于对应领域场景的训练数据并对通用语言模型进行迁移学习生成。具体的,为了提高语音转文本在不同领域的准确率,可以根据不同领域场景采集对应的文本数据作为训练数据,并基于通用语言模型做迁移学习,最终得到多个领域语言模型。目标领域语言模型则为语音识别器从预先训练的多个领域语言模型中选择的一个与当前通话场景适配的领域语言模型。
文本分类模型为一个根据短文本可判定所属场景的领域的分类器,其目标是模型能将语义相近的字/词投影到距离接近的文本向量上,则文本向量也能包含更精确的语义信息。在一种实施例中,文本分类模型可以包括BERT(Bidirectional EncoderRepresentations from Transformers,来自变换器的双向编码器)模型以及位于BERT模型顶部的分类器(softmax),BERT模型用于根据输入的各客户端的文本数据的向量表示,确定融合了上下文语义信息的语义向量,作为隐层状态信息输出至分类器。该分类器用于根据接收到的隐层状态信息确定当前通话对应于各话题标签的概率,并根据各话题标签的概率确定目标话题领域。
在一种例子中,文本分类模型的架构可以采用如下公式表示:
p(c|h)=softmax(Wh)
其中,h表示BERT模型针对文本向量输出的融合了语义信息的语义向量,该语义向量可以作为文本分类模型的隐层状态信息,W是特定任务的参数矩阵,p(c|h)表示分类器基于h预测话题标签c的概率。在确定目标话题领域时,可以选择p(c|h)最大的c作为目标话题领域。
为了得到更高性能的文本分类模型,可以通过拟合配对的{文本,类别}数据,比如:{这鬼谷这鬼谷经济咋这么高,妲己在中路,游戏}、{国家政策,政治}、{那苹果三星好用,华为也行,科技}、{你有啥要求呀,这样我问你答吧,其他}等,微调来自BERT的h和W参数,可以最大化正确标签的概率。
基于上述的语音识别器架构,本实施例具体可以包括如下步骤:
步骤210,获取各客户端发出的语音信号经过声学模型以及通用语言模型后,由所述通用语言模型输出的多个候选识别结果。
在该步骤中,在对当前通话的各客户端发出的语音信号进行语音识别时,可以首先对语音信号进行特征工程,提取语音信号的语音特征信息。作为一种示例,语音特征信息可以包括但不限于MFCC(Mel Frequency Cepstrum Coefficient,梅尔频率倒谱系数)特征。
针对语音信号提取出的语音特征信息序列,首先输入至语音识别器中的声学模型,由声学模型对语音特征信息序列进行音素标记,利用词典({词:音素})生成字符串序列。然后声学模型将字符串序列输出至通用语言模型,由通用语言模型对字符串序列进行第一遍解码,生成多个识别假设,并从该多个识别假设中提取多个候选识别结果组成n-best列表。
在一种实现中,语音识别器可以采用集束搜索算法对语音特征信息进行解码识别,在集束搜索算法的每个解码步上,声学模型Attention-Decoder(注意力解码器)和CTC(Connectionist Temporal Classification,联结主义时间分类)根据编码结果h给出当前解码步的语言学单位的后验概率,然后通用语言模型也根据之前的解码结果“y<”给出当前解码步的后验概率,两者结合起来得到的n-best列表可以采用如下公式表示:
其中,wi为各个部件的解码权重超参,y<为上一个解码步的1-best序列。
步骤220,分别将所述多个候选识别结果输入至所述目标领域语言模型中,并获得所述目标领域语言模型对各候选识别结果进行重打分后输出的各候选识别结果的分数。
在该步骤中,通用语言模型将多个候选识别结果组成的n-best列表输出至目标领域语言模型中,该目标领域语言模型为根据前一次的语音识别结果确定的、与前一次通话内容的领域匹配的领域语言模型。
目标领域语言模型接收到通用语言模型发送的n-best列表以后,进行第二遍解码,此时目标领域语言模型可以采用重打分机制,对n-best列表中各候选识别结果进行重打分,得到各候选识别结果的分数。
在一种实现中,根据步骤210得到的n-best列表送入目标领域语言模型中进行重打分得到1-best列表,使用重打分机制重写的公式可以表示如下:
y*=argNmax(CTC-ATT(y**|hy<)+wngramfngram(y**|y<))
其中,y**为N-best列表,再利用重打分得到1-best的y*。
步骤230,根据所述分数从所述候选识别结果中确定最终识别结果,作为所述语音信号对应的文本数据。
在获得各候选识别结果的分数以后,可以按照分数对各候选识别结果进行排序,并从n个候选识别结果中选取分数最高的候选识别结果作为最终识别结果,该最终识别结果就是当前语音信号对应的文本数据。
步骤240,将各客户端的所述文本数据输入至已训练的文本分类模型,并获取所述文本分类模型依据各客户端的文本数据进行处理后输出的当前通话的目标话题领域。
在该步骤中,获得目标领域语言模型输出文本数据以后,则可以获取各文本数据的文本向量表示,并将各客户端的文本向量表示均输入至已训练的文本分类模型,由文本分类模型结合各客户端的文本向量表示确定上下文的语义向量,并根据上述语义向量预测各领域标签的概率,然后选取概率最大的领域标签作为当前通话的目标话题领域。
步骤250,判断所述目标领域语言模型是否与所述目标话题领域适配,若不适配,则将所述目标领域语言模型切换为与所述目标话题领域适配的领域语言模型。
在该步骤中,当确定当前通话的目标话题领域以后,则可以判断语言识别器当前使用的目标领域语言模型是否与目标话题领域相适配,例如,若当前使用的目标领域语言模型为游戏领域的语言模型,目标话题领域为游戏领域,则可以判定两者是适配的;若当前使用的目标领域语言模型为游戏领域的语言模型,目标话题领域为科技领域,则可以判定两者是不适配的。
如果语言识别器当前使用的目标领域语言模型与目标话题领域相适配,则可以保持当前的目标领域语言模型。否则,如果语言识别器当前使用的目标领域语言模型与目标话题领域不适配,则可以将当前的目标领域语言模型切换为与目标话题领域适配的领域语言模型,例如,若当前使用的目标领域语言模型为游戏领域的语言模型,目标话题领域为科技领域,则可以将当前使用的目标领域语言模型切换为科技领域的语言模型。
为了使得本领域技术人员更好地理解本申请实施例,以下以两人通话为例对本实施例进行示例性说明,当然,本申请并不限于两人通话的场景,也可以适用于群聊的场景,两者的处理逻辑是相似的。
例如,如图4的双人通话场景示意图所示,假设领域语言模型包括领域LM1、领域LM2和领域LM3,在客户端A和客户端B通信的过程中,针对客户端A发送的语音信号,输入至服务器以后,服务器提取该语音信号的语音特征信息,语音特征信息经过声学模型以及通用语言模型后,由通用语言模型输出n-best列表,n-best列表输入至在先动态选择的目标领域语言模型,例如图4中的领域LM3,领域LM3按照重打分算法对n-best列表中各候选识别结果进行重打分,其中,重打分算法是一种先由第一级语言学模型选出N个最佳句子接着根据第二级模型重新排序求出最佳文本序列的算法。然后,领域LM3根据各候选识别结果经过重打分后得到的分数选取分数最高的1-best列表作为识别出的文字。如图4所示,该识别出的文字一方面可以作为字幕显示在客户端B的界面中,另一方面也可以作为文本分类模型的输入。
同理,针对客户端B发送的语音信号,经过上述的类似处理过程得到对应的文字,该文字一方面可以作为字幕显示在客户端A的界面中,另一方面也可以作为文本分类模型的输入。
如图4所示,对于文本分类模型而言,其利用双向输出的文字识别出客户端A和客户端B的对话的目标话题领域,并将该目标话题领域对应的领域语言模型确定为目标领域语言模型,使用ASR的双向通话链路皆能动态选用接近于目标话题领域的目标领域语言模型,例如,假设客户端A和客户端B一开始在聊王者荣耀话题会匹配到游戏LM,接着切换到政治话题时会匹配到政治LM,以此可以提高语言模型的识别率,满足端内动态变化的对话内容。
在本实施例中,语音识别器采用通用语言模型以及目标领域语言模型结合的方式,对当前通话的各客户端的语音信号进行语音识别,得到各客户端的语音信号对应的文本数据,解决通用语言模型无法覆盖所有主题领域的问题。
另外,本实施例由文本分类模型来根据各客户端的文本数据确定当前通话的目标话题领域,如果语音识别器当前使用的目标领域语言模型与目标话题领域不适配,则可以将目标领域语言模型切换为与目标话题领域适配的领域语言模型,从而实现动态选择与当前话题领域适配的领域语言模型,利用适配的领域语言模型搭配重打分机制可以选择出最优的识别结果,提高语言识别器的识别率。
实施例三
图5为本申请实施例三提供的一种语音识别装置实施例的结构框图,该语音识别装置位于服务器中,可以包括如下模块:
文本数据获取模块510,用于获取当前通话的各客户端的语音信号分别经由语音识别器进行语音识别后输出的文本数据,其中,所述语音识别器包括目标领域语言模型;
目标话题领域确定模块520,用于根据各客户端的所述文本数据确定当前通话的目标话题领域;
领域语言模型切换模块530,用于判断所述目标领域语言模型是否与所述目标话题领域适配,若不适配,则将所述目标领域语言模型切换为与所述目标话题领域适配的领域语言模型。
在一种实施方式中,所述语音识别器还包括文本分类模型;所述目标话题领域确定模块520还用于:
将各客户端的所述文本数据输入至已训练的文本分类模型,并获取所述文本分类模型依据各客户端的文本数据进行处理后输出的当前通话的目标话题领域。
在一种实施方式中,所述文本分类模型包括BERT模型以及位于所述BERT模型顶部的分类器,所述BERT模型用于根据输入的各客户端的文本数据的向量表示,确定融合了上下文语义信息的语义向量,作为隐层状态信息输出至所述分类器,所述分类器用于根据所述隐层状态信息确定当前通话对应于各话题标签的概率,并根据所述概率确定目标话题领域。
在一种实施方式中,所述语音识别器还包括声学模型以及通用语言模型;
所述文本数据获取模块510还用于:
获取各客户端发出的语音信号经过声学模型以及通用语言模型后,由所述通用语言模型输出的多个候选识别结果;
分别将所述多个候选识别结果输入至所述目标领域语言模型中,并获得所述目标领域语言模型对各候选识别结果进行重打分后输出的各候选识别结果的分数;
根据所述分数从所述候选识别结果中确定最终识别结果,作为所述语音信号对应的文本数据。
在一种实施方式中,所述领域语言模型有多个,各领域语言模型在训练时基于对应领域场景的训练数据并对所述通用语言模型进行迁移学习生成。
需要说明的是,本申请实施例所提供的上述语音识别装置可执行本申请任意实施例所提供的语音识别方法,具备执行方法相应的功能模块和有益效果。
实施例四
图6为本申请实施例四提供的一种服务器的结构示意图,如图6所示,该服务器包括处理器610、存储器620、输入装置630和输出装置640;服务器中处理器610的数量可以是一个或多个,图6中以一个处理器610为例;服务器中的处理器610、存储器620、输入装置630和输出装置640可以通过总线或其他方式连接,图6中以通过总线连接为例。
存储器620作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本申请实施例中的语音识别方法对应的程序指令/模块。处理器610通过运行存储在存储器620中的软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述的方法。
存储器620可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器620可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器620可进一步包括相对于处理器610远程设置的存储器,这些远程存储器可以通过网络连接至服务器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置630可用于接收输入的数字或字符信息,以及产生与服务器的用户设置以及功能控制有关的键信号输入。输出装置640可包括显示屏等显示设备。
实施例五
本申请实施例五还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由服务器的处理器执行时用于执行实施例一至实施例二中任一实施例中的方法。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本申请可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
值得注意的是,上述装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。
注意,上述仅为本申请的较佳实施例及所运用技术原理。本领域技术人员会理解,本申请不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本申请的保护范围。因此,虽然通过以上实施例对本申请进行了较为详细的说明,但是本申请不仅仅限于以上实施例,在不脱离本申请构思的情况下,还可以包括更多其他等效实施例,而本申请的范围由所附的权利要求范围决定。
Claims (10)
1.一种语音识别方法,其特征在于,所述方法包括:
获取当前通话的各客户端的语音信号分别经由语音识别器进行语音识别后输出的文本数据,其中,所述语音识别器包括目标领域语言模型;
根据各客户端的所述文本数据确定当前通话的目标话题领域;
判断所述目标领域语言模型是否与所述目标话题领域适配,若不适配,则将所述目标领域语言模型切换为与所述目标话题领域适配的领域语言模型。
2.根据权利要求1所述的方法,其特征在于,所述语音识别器还包括文本分类模型;所述根据各客户端的所述文本数据确定当前通话的目标话题领域包括:
将各客户端的所述文本数据输入至已训练的文本分类模型,并获取所述文本分类模型依据各客户端的文本数据进行处理后输出的当前通话的目标话题领域。
3.根据权利要求2所述的方法,其特征在于,所述文本分类模型包括BERT模型以及位于所述BERT模型顶部的分类器,所述BERT模型用于根据输入的各客户端的文本数据的向量表示,确定融合了上下文语义信息的语义向量,作为隐层状态信息输出至所述分类器,所述分类器用于根据所述隐层状态信息确定当前通话对应于各话题标签的概率,并根据所述概率确定目标话题领域。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述语音识别器还包括声学模型以及通用语言模型;
所述获取当前通话的各客户端的语音信号分别经由语音识别器进行语音识别后输出的文本数据,包括:
获取各客户端发出的语音信号经过声学模型以及通用语言模型后,由所述通用语言模型输出的多个候选识别结果;
分别将所述多个候选识别结果输入至所述目标领域语言模型中,并获得所述目标领域语言模型对各候选识别结果进行重打分后输出的各候选识别结果的分数;
根据所述分数从所述候选识别结果中确定最终识别结果,作为所述语音信号对应的文本数据。
5.根据权利要求4所述的方法,其特征在于,所述领域语言模型有多个,各领域语言模型在训练时基于对应领域场景的训练数据并对所述通用语言模型进行迁移学习生成。
6.一种语音识别装置,其特征在于,所述装置包括:
文本数据获取模块,用于获取当前通话的各客户端的语音信号分别经由语音识别器进行语音识别后输出的文本数据,其中,所述语音识别器包括目标领域语言模型;
目标话题领域确定模块,用于根据各客户端的所述文本数据确定当前通话的目标话题领域;
领域语言模型切换模块,用于判断所述目标领域语言模型是否与所述目标话题领域适配,若不适配,则将所述目标领域语言模型切换为与所述目标话题领域适配的领域语言模型。
7.根据权利要求6所述的装置,其特征在于,所述语音识别器还包括文本分类模型;所述目标话题领域确定模块还用于:
将各客户端的所述文本数据输入至已训练的文本分类模型,并获取所述文本分类模型依据各客户端的文本数据进行处理后输出的当前通话的目标话题领域。
8.根据权利要求7所述的装置,其特征在于,所述文本分类模型包括BERT模型以及位于所述BERT模型顶部的分类器,所述BERT模型用于根据输入的各客户端的文本数据的向量表示,确定融合了上下文语义信息的语义向量,作为隐层状态信息输出至所述分类器,所述分类器用于根据所述隐层状态信息确定当前通话对应于各话题标签的概率,并根据所述概率确定目标话题领域。
9.一种服务器,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-5中任一所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-5中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010900446.5A CN112017645B (zh) | 2020-08-31 | 2020-08-31 | 一种语音识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010900446.5A CN112017645B (zh) | 2020-08-31 | 2020-08-31 | 一种语音识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112017645A true CN112017645A (zh) | 2020-12-01 |
CN112017645B CN112017645B (zh) | 2024-04-26 |
Family
ID=73515272
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010900446.5A Active CN112017645B (zh) | 2020-08-31 | 2020-08-31 | 一种语音识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112017645B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112259081A (zh) * | 2020-12-21 | 2021-01-22 | 北京爱数智慧科技有限公司 | 语音的处理方法和装置 |
CN112542162A (zh) * | 2020-12-04 | 2021-03-23 | 中信银行股份有限公司 | 语音识别方法、装置、电子设备及可读存储介质 |
CN112599128A (zh) * | 2020-12-31 | 2021-04-02 | 百果园技术(新加坡)有限公司 | 一种语音识别方法、装置、设备和存储介质 |
CN113436616A (zh) * | 2021-05-28 | 2021-09-24 | 中国科学院声学研究所 | 一种多领域自适应的端到端语音识别方法、***及电子装置 |
CN113518153A (zh) * | 2021-04-25 | 2021-10-19 | 上海淇玥信息技术有限公司 | 一种识别用户通话响应状态的方法、装置和电子设备 |
CN113763925A (zh) * | 2021-05-26 | 2021-12-07 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、计算机设备及存储介质 |
CN113782001A (zh) * | 2021-11-12 | 2021-12-10 | 深圳市北科瑞声科技股份有限公司 | 一种特定领域语音识别方法、装置、电子设备及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101034390A (zh) * | 2006-03-10 | 2007-09-12 | 日电(中国)有限公司 | 用于语言模型切换和自适应的装置和方法 |
CN105679314A (zh) * | 2015-12-28 | 2016-06-15 | 百度在线网络技术(北京)有限公司 | 语音识别方法和装置 |
CN105869629A (zh) * | 2016-03-30 | 2016-08-17 | 乐视控股(北京)有限公司 | 语音识别方法及装置 |
CN106328147A (zh) * | 2016-08-31 | 2017-01-11 | 中国科学技术大学 | 语音识别方法和装置 |
CN108538286A (zh) * | 2017-03-02 | 2018-09-14 | 腾讯科技(深圳)有限公司 | 一种语音识别的方法以及计算机 |
US20190096396A1 (en) * | 2016-06-16 | 2019-03-28 | Baidu Online Network Technology (Beijing) Co., Ltd. | Multiple Voice Recognition Model Switching Method And Apparatus, And Storage Medium |
CN110111780A (zh) * | 2018-01-31 | 2019-08-09 | 阿里巴巴集团控股有限公司 | 数据处理方法和服务器 |
CN111191428A (zh) * | 2019-12-27 | 2020-05-22 | 北京百度网讯科技有限公司 | 评论信息处理方法、装置、计算机设备和介质 |
CN111402861A (zh) * | 2020-03-25 | 2020-07-10 | 苏州思必驰信息科技有限公司 | 一种语音识别方法、装置、设备及存储介质 |
-
2020
- 2020-08-31 CN CN202010900446.5A patent/CN112017645B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101034390A (zh) * | 2006-03-10 | 2007-09-12 | 日电(中国)有限公司 | 用于语言模型切换和自适应的装置和方法 |
CN105679314A (zh) * | 2015-12-28 | 2016-06-15 | 百度在线网络技术(北京)有限公司 | 语音识别方法和装置 |
CN105869629A (zh) * | 2016-03-30 | 2016-08-17 | 乐视控股(北京)有限公司 | 语音识别方法及装置 |
US20190096396A1 (en) * | 2016-06-16 | 2019-03-28 | Baidu Online Network Technology (Beijing) Co., Ltd. | Multiple Voice Recognition Model Switching Method And Apparatus, And Storage Medium |
CN106328147A (zh) * | 2016-08-31 | 2017-01-11 | 中国科学技术大学 | 语音识别方法和装置 |
CN108538286A (zh) * | 2017-03-02 | 2018-09-14 | 腾讯科技(深圳)有限公司 | 一种语音识别的方法以及计算机 |
CN110111780A (zh) * | 2018-01-31 | 2019-08-09 | 阿里巴巴集团控股有限公司 | 数据处理方法和服务器 |
CN111191428A (zh) * | 2019-12-27 | 2020-05-22 | 北京百度网讯科技有限公司 | 评论信息处理方法、装置、计算机设备和介质 |
CN111402861A (zh) * | 2020-03-25 | 2020-07-10 | 苏州思必驰信息科技有限公司 | 一种语音识别方法、装置、设备及存储介质 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112542162A (zh) * | 2020-12-04 | 2021-03-23 | 中信银行股份有限公司 | 语音识别方法、装置、电子设备及可读存储介质 |
CN112259081A (zh) * | 2020-12-21 | 2021-01-22 | 北京爱数智慧科技有限公司 | 语音的处理方法和装置 |
CN112259081B (zh) * | 2020-12-21 | 2021-04-16 | 北京爱数智慧科技有限公司 | 语音的处理方法和装置 |
CN112599128A (zh) * | 2020-12-31 | 2021-04-02 | 百果园技术(新加坡)有限公司 | 一种语音识别方法、装置、设备和存储介质 |
CN112599128B (zh) * | 2020-12-31 | 2024-06-11 | 百果园技术(新加坡)有限公司 | 一种语音识别方法、装置、设备和存储介质 |
CN113518153A (zh) * | 2021-04-25 | 2021-10-19 | 上海淇玥信息技术有限公司 | 一种识别用户通话响应状态的方法、装置和电子设备 |
CN113763925A (zh) * | 2021-05-26 | 2021-12-07 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、计算机设备及存储介质 |
CN113763925B (zh) * | 2021-05-26 | 2024-03-12 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、计算机设备及存储介质 |
CN113436616A (zh) * | 2021-05-28 | 2021-09-24 | 中国科学院声学研究所 | 一种多领域自适应的端到端语音识别方法、***及电子装置 |
CN113782001A (zh) * | 2021-11-12 | 2021-12-10 | 深圳市北科瑞声科技股份有限公司 | 一种特定领域语音识别方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112017645B (zh) | 2024-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111933129B (zh) | 音频处理方法、语言模型的训练方法、装置及计算机设备 | |
CN112017645B (zh) | 一种语音识别方法及装置 | |
CN107154260B (zh) | 一种领域自适应语音识别方法和装置 | |
CN108417202A (zh) | 语音识别方法及*** | |
CN111145729B (zh) | 语音识别模型训练方法、***、移动终端及存储介质 | |
CN108735201B (zh) | 连续语音识别方法、装置、设备和存储介质 | |
CN110111775A (zh) | 一种流式语音识别方法、装置、设备及存储介质 | |
US20240021202A1 (en) | Method and apparatus for recognizing voice, electronic device and medium | |
EP4018437B1 (en) | Optimizing a keyword spotting system | |
CN111090727B (zh) | 语言转换处理方法、装置及方言语音交互*** | |
CN108305634A (zh) | 解码方法、解码器及存储介质 | |
CN111210807B (zh) | 语音识别模型训练方法、***、移动终端及存储介质 | |
CN110634469B (zh) | 基于人工智能的语音信号处理方法、装置及存储介质 | |
US11355113B2 (en) | Method, apparatus, device and computer readable storage medium for recognizing and decoding voice based on streaming attention model | |
CN111402861A (zh) | 一种语音识别方法、装置、设备及存储介质 | |
CN106875936A (zh) | 语音识别方法及装置 | |
CN114596844A (zh) | 声学模型的训练方法、语音识别方法及相关设备 | |
CN113793599B (zh) | 语音识别模型的训练方法和语音识别方法及装置 | |
Thukroo et al. | Spoken language identification system for kashmiri and related languages using mel-spectrograms and deep learning approach | |
CN115132196A (zh) | 语音指令识别的方法、装置、电子设备及存储介质 | |
CN114944149A (zh) | 语音识别方法、语音识别设备及计算机可读存储介质 | |
CN114495905A (zh) | 语音识别方法、装置及存储介质 | |
JP2000172294A (ja) | 音声認識方法、その装置及びプログラム記録媒体 | |
CN116978367A (zh) | 语音识别方法、装置、电子设备和存储介质 | |
CN113724690B (zh) | Ppg特征的输出方法、目标音频的输出方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |