JP6646337B2 - Audio data processing device, audio data processing method, and audio data processing program - Google Patents

Audio data processing device, audio data processing method, and audio data processing program Download PDF

Info

Publication number
JP6646337B2
JP6646337B2 JP2016161849A JP2016161849A JP6646337B2 JP 6646337 B2 JP6646337 B2 JP 6646337B2 JP 2016161849 A JP2016161849 A JP 2016161849A JP 2016161849 A JP2016161849 A JP 2016161849A JP 6646337 B2 JP6646337 B2 JP 6646337B2
Authority
JP
Japan
Prior art keywords
feature
feature value
input
voice
adaptive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016161849A
Other languages
Japanese (ja)
Other versions
JP2018031812A (en
Inventor
トラン デュング
トラン デュング
マーク デルクロア
マーク デルクロア
小川 厚徳
厚徳 小川
中谷 智広
智広 中谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016161849A priority Critical patent/JP6646337B2/en
Publication of JP2018031812A publication Critical patent/JP2018031812A/en
Application granted granted Critical
Publication of JP6646337B2 publication Critical patent/JP6646337B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、音声データ処理装置、音声データ処理方法および音声データ処理プログラムに関する。   The present invention relates to an audio data processing device, an audio data processing method, and an audio data processing program.

従来、音声データに基づき、音声認識モデルの学習および音声認識モデルを用いた音声認識を行う音声データ処理装置が知られている。音声認識用の音声データが作成された環境が、学習用の音声データが作成された環境と異なる場合、音声データ処理装置による音声認識の精度が低下する場合がある。例えば、周囲の雑音や話者の違いが音声認識の精度を低下させる場合がある。そのため、環境の違い、すなわち音響条件に対して頑健(ロバスト)な音声認識技術が知られている(例えば非特許文献1または2を参照)。   2. Description of the Related Art Conventionally, there has been known a voice data processing device that performs learning of a voice recognition model and voice recognition using the voice recognition model based on voice data. If the environment in which the voice data for voice recognition is created is different from the environment in which the voice data for learning is created, the accuracy of voice recognition by the voice data processing device may be reduced. For example, ambient noise and speakers may reduce the accuracy of speech recognition. For this reason, a speech recognition technique that is robust against environmental differences, that is, acoustic conditions, is known (for example, see Non-Patent Document 1 or 2).

R.Gemello, F.Mana, S.Scanzio, P.Laface, and R.De Mori,“Adaptation of hybrid ANN/HMM models using linear hidden transformations and conservative training,” in Proc. Of ICASSP’06, vol.1, 2006, pp.1189-1192.R. Gemello, F. Mana, S. Scanzio, P. Laface, and R. De Mori, “Adaptation of hybrid ANN / HMM models using linear hidden transformations and conservative training,” in Proc. Of ICASSP'06, vol.1 , 2006, pp. 1189-1192. D.Yu and L.Deng,“Automatic speech recognition:A deep learning approach,”Springer,2015.D. Yu and L. Deng, “Automatic speech recognition: A deep learning approach,” Springer, 2015.

しかしながら、従来の技術には、音声認識用の音声データが作成された環境と学習用の音声データが作成された環境との間で、複数の音響条件に違いがある場合、高い精度で音声認識を行うことができない場合があるという問題があった。   However, in the conventional technology, when there is a difference in a plurality of acoustic conditions between an environment in which speech data for speech recognition is created and an environment in which speech data for learning is created, speech recognition is performed with high accuracy. There is a problem that it may not be possible to do.

例えば、従来の技術では、音声データの特徴量を音声認識モデルに適応させるため、音響条件に基づくパラメータを用いて音声データの特徴量を変換していた。しかし、従来の技術において変換に用いられるパラメータは、1つの音響条件にのみ基づくものであったため、音声認識用の音声データが作成された環境と学習用の音声データが作成された環境との間で、複数の音響条件に違いがある場合、高い精度で音声認識を行うことができない場合があった。   For example, in the related art, in order to adapt a feature amount of speech data to a speech recognition model, the feature amount of speech data is converted using a parameter based on acoustic conditions. However, since the parameters used for conversion in the conventional technology are based on only one acoustic condition, the parameters between the environment in which the speech data for speech recognition is created and the environment in which the speech data for learning are created. When there is a difference between a plurality of acoustic conditions, there is a case where speech recognition cannot be performed with high accuracy.

また、本発明の音声データ処理装置は、所定の環境における音声を基に作成された適応用の音声データから、前記音声の特徴を示す特徴量である第1の入力特徴量、および前記環境の特徴を示す特徴量である第2の入力特徴量を抽出する抽出部と、ニューラルネットワークを用いた計算モデルである条件特徴量計算モデルに前記第2の入力特徴量を入力し、前記所定の環境を特徴付ける複数の条件のそれぞれに対応した要素を含んだ特徴量である条件特徴量を計算する条件特徴量計算部と、前記条件特徴量に含まれる複数の要素のそれぞれに対応したパラメータの組を含んだ計算モデルである適応特徴量計算モデルに前記第1の入力特徴量および前記条件特徴量を入力し、前記要素ごとに、ニューラルネットワークを用いた計算モデルである音声認識モデルに適応した特徴量である適応特徴量を計算する適応特徴量計算部と、前記音声認識モデルに前記適応特徴量を入力して得られた出力結果を基に、前記条件特徴量計算モデルのパラメータおよび前記適応特徴量計算モデルのパラメータの更新を行う更新部と、を有することを特徴とする。   Further, the audio data processing device of the present invention includes a first input characteristic amount that is a characteristic amount indicating a characteristic of the audio, and a first input characteristic amount, An extraction unit that extracts a second input feature value that is a feature value indicating a feature; and a second input feature value that is input to a conditional feature value calculation model that is a calculation model using a neural network; A condition feature value calculation unit that calculates a condition feature value that is a feature value including an element corresponding to each of a plurality of conditions characterizing a plurality of conditions; and a parameter set corresponding to each of the plurality of elements included in the condition feature value. The first input feature value and the condition feature value are input to an adaptive feature value calculation model that is a calculation model including the calculation model, and a neural network is used for each of the elements. An adaptive feature amount calculating unit that calculates an adaptive feature amount that is a feature amount adapted to a voice recognition model; and the conditional feature amount calculation based on an output result obtained by inputting the adaptive feature amount to the speech recognition model. An updating unit that updates a parameter of the model and a parameter of the adaptive feature amount calculation model.

また、本発明の音声データ処理方法は、音声データ処理装置で実行される音声データ処理方法であって、所定の環境における音声を基に作成された適応用の音声データから、前記音声の特徴を示す特徴量である第1の入力特徴量、および前記環境の特徴を示す特徴量である第2の入力特徴量を抽出する抽出工程と、ニューラルネットワークを用いた計算モデルである条件特徴量計算モデルに前記第2の入力特徴量を入力し、前記所定の環境を特徴付ける複数の条件のそれぞれに対応した要素を含んだ特徴量である条件特徴量を計算する条件特徴量計算工程と、前記条件特徴量に含まれる複数の要素のそれぞれに対応したパラメータの組を含んだ計算モデルである適応特徴量計算モデルに前記第1の入力特徴量および前記条件特徴量を入力し、前記要素ごとに、ニューラルネットワークを用いた計算モデルである音声認識モデルに適応した特徴量である適応特徴量を計算する適応特徴量計算工程と、前記音声認識モデルに前記適応特徴量を入力して得られた出力結果を基に、前記条件特徴量計算モデルのパラメータおよび前記適応特徴量計算モデルのパラメータの更新を行う更新工程と、を含んだことを特徴とする。   Further, the audio data processing method of the present invention is an audio data processing method executed by an audio data processing device, wherein the characteristic of the audio is obtained from adaptation audio data created based on audio in a predetermined environment. An extraction step of extracting a first input feature quantity which is a feature quantity to be shown and a second input feature quantity which is a feature quantity showing the feature of the environment; Inputting the second input feature value to the condition information, and calculating a condition feature value which is a feature value including an element corresponding to each of the plurality of conditions characterizing the predetermined environment; Inputting the first input feature quantity and the condition feature quantity to an adaptive feature quantity calculation model that is a calculation model including a set of parameters corresponding to each of a plurality of elements included in the quantity; For each element, an adaptive feature calculation step of calculating an adaptive feature that is a feature adapted to a speech recognition model that is a calculation model using a neural network; and inputting the adaptive feature to the speech recognition model. An updating step of updating the parameters of the conditional feature calculation model and the parameters of the adaptive feature calculation model based on the obtained output result.

本発明によれば、音声認識用の音声データが作成された環境と学習用の音声データが作成された環境との間で、複数の音響条件に違いがある場合であっても、高い精度で音声認識を行うことができる。   According to the present invention, even if there are differences in a plurality of acoustic conditions between an environment in which speech data for speech recognition is created and an environment in which speech data for learning is created, high accuracy is achieved. Voice recognition can be performed.

図1は、従来技術に係る音声データ処理装置の構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a configuration of a voice data processing device according to a conventional technique. 図2は、従来技術に係る音声データ処理装置の処理の概要について説明するための図である。FIG. 2 is a diagram for explaining an outline of the processing of the audio data processing device according to the related art. 図3は、従来技術に係る音声認識処理の一例を示すフローチャートである。FIG. 3 is a flowchart illustrating an example of a voice recognition process according to the related art. 図4は、第1の実施形態に係る音声データ処理装置の構成の一例を示す図である。FIG. 4 is a diagram illustrating an example of a configuration of the audio data processing device according to the first embodiment. 図5は、第1の実施形態に係る音声データ処理装置の処理の概要について説明するための図である。FIG. 5 is a diagram for explaining an outline of the processing of the audio data processing device according to the first embodiment. 図6は、第1の実施形態に係る音声データ処理装置の適応処理について説明するための図である。FIG. 6 is a diagram for explaining the adaptive processing of the audio data processing device according to the first embodiment. 図7は、第1の実施形態に係る音声データ処理装置の音声認識処理について説明するための図である。FIG. 7 is a diagram for describing a voice recognition process of the voice data processing device according to the first embodiment. 図8は、第1の実施形態に係る音声データ処理装置の適応処理の流れを示すフローチャートである。FIG. 8 is a flowchart illustrating a flow of the adaptive processing of the audio data processing device according to the first embodiment. 図9は、第1の実施形態に係る音声データ処理装置の音声認識処理の流れを示すフローチャートである。FIG. 9 is a flowchart illustrating a flow of a voice recognition process of the voice data processing device according to the first embodiment. 図10は、プログラムが実行されることにより、第1の実施形態に係る音声データ処理装置が実現されるコンピュータの一例を示す図である。FIG. 10 is a diagram illustrating an example of a computer that implements the audio data processing device according to the first embodiment by executing a program.

以下、本願が開示する音声データ処理装置、音声データ処理方法および音声データ処理プログラムの実施形態の一例の説明に先立ち、実施形態の一例が前提とする従来技術を説明する。その後、本願が開示する音声データ処理装置、音声データ処理方法および音声データ処理プログラムの実施形態の一例を説明する。   Prior to the description of an example of an embodiment of the audio data processing device, the audio data processing method, and the audio data processing program disclosed in the present application, a conventional technique based on the example of the embodiment will be described. Thereafter, an example of an embodiment of the audio data processing device, the audio data processing method, and the audio data processing program disclosed in the present application will be described.

なお、以下では、例えばAがベクトルである場合には“ベクトルA”と表記し、例えばAが行列である場合には“行列A”と表記し、例えばAがスカラーである場合には単に“A”と表記する。また、例えばAが集合である場合には、“集合A”と表記する。また、例えばベクトルAの関数fは、f(ベクトルA)と表記する。また、ベクトル、行列またはスカラーであるAに対し、“^A”と記載する場合は「“A”の直上に“^”が記された記号」と同等であるとする。また、ベクトル、行列またはスカラーであるAに対し、“−A”と記載する場合は「“A”の直上に“−”が記された記号」と同等であるとする。また、ベクトルまたは行列であるAに対し、AはAの転置を表す。 In the following, for example, when A is a vector, it is represented as "vector A", for example, when A is a matrix, it is represented as "matrix A", and when A is a scalar, for example, it is simply referred to as "matrix A". A ". For example, when A is a set, it is described as “set A”. Also, for example, the function f of the vector A is expressed as f (vector A). In addition, when “^ A” is described for A that is a vector, a matrix, or a scalar, it is assumed that this is equivalent to “a symbol in which“ ^ ”is written immediately above“ A ””. In addition, when "-A" is described for A which is a vector, matrix, or scalar, it is assumed to be equivalent to "symbol in which"-"is written immediately above" A "". AT represents transposition of A with respect to A which is a vector or a matrix.

従来技術は、例えば文献1「G. Hinton et al., “Deep Neural Networks for Acoustic Modeling in Speech Recognition, The shared views of four research groups,” IEEE SIGNAL PROCESSING MAGAZINE, Vol. 29,No. 6, pp. 82−97, 2012.」に示される音声認識技術である。   The prior art is described in, for example, Reference 1 "G. Hinton et al.," Deep Neural Networks for Acoustic Modeling in Speech Recognition, The shared views of four research groups, "IEEE SIGNAL PROCESSING MAGAZINE, Vol. 29, No. 6, pp. 82-97, 2012. "

まず、図1を用いて従来技術に係る音声データ処理装置の構成について説明する。図1は、従来技術に係る音声データ処理装置の構成の一例を示す図である。図1に示すように、第1の従来技術に係る音声データ処理装置10aは、特徴量抽出部21a、事後確率計算部22a、単語列検索部23aを有する。また、音声データ処理装置10aは、記憶部30aを有する。   First, a configuration of a conventional audio data processing device will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of a configuration of a voice data processing device according to a conventional technique. As shown in FIG. 1, an audio data processing device 10a according to a first related art includes a feature amount extraction unit 21a, a posterior probability calculation unit 22a, and a word string search unit 23a. The audio data processing device 10a has a storage unit 30a.

記憶部30aは、音響モデルおよび言語モデルをあらかじめ記憶する。音響モデルは、音声の音響的特徴をモデル化したものである。言語モデルは、音素や単語といった多数のシンボル系列から構成されている。一般的に、音声認識用の音響モデルは、各音素のLeft to rightのHMM(Hidden Markov Model:隠れマルコフモデル)であり、ニューラルネットワーク(NN:Neural Network)で計算されたHMMの各状態の出力確率分布を含む。   The storage unit 30a stores an acoustic model and a language model in advance. The acoustic model is a model of acoustic characteristics of speech. The language model is composed of many symbol sequences such as phonemes and words. Generally, an acoustic model for speech recognition is a left-to-right HMM (Hidden Markov Model) of each phoneme, and the output of each state of the HMM calculated by a neural network (NN). Includes probability distribution.

すなわち、記憶部30aに記憶されている音響モデルは、音素等の各シンボルにおけるHMMの状態遷移確率、i番目の隠れ層に関する重み行列Wおよびバイアスベクトルb、アクティベーション関数のパラメータ等を含むニューラルネットワークのパラメータである。ここで、iは、隠れ層のインデックスである。これらを音響モデルパラメータと称し、その集合をΩ={W,b,・・・,W,b}(Iは、隠れ層の総数)とする。言語モデルは、音素や単語といった多数のシンボル系列sから構成されており、p(s)は言語モデルによって得られるシンボル系列sの確率(言語確率)である。なお、シンボル系列sとは、音声認識結果となりうる、音素や単語等からなるシンボルの系列である。 That is, the acoustic model stored in the storage unit 30a includes a state transition probabilities of the HMM for each symbol of the phoneme, etc., the weight matrix for the i-th hidden layer W i and the bias vector b i, a parameter such as the activation function These are the parameters of the neural network. Here, i is the index of the hidden layer. These are referred to as acoustic model parameters, and a set thereof is Ω = {W 1 , b 1 ,..., W I , b I } (I is the total number of hidden layers). The language model is composed of many symbol sequences s j such as phonemes and words, and p (s j ) is the probability (language probability) of the symbol sequence s j obtained by the language model. Note that the symbol sequence s j is a sequence of symbols that can be a speech recognition result and includes phonemes, words, and the like.

特徴量抽出部21aは、認識用の音声データから音声の特徴量を抽出する。特徴量としては、例えば、MFCC(Mel Frequency Cepstral Coefficient)、LMFC(log Mel Filterbank coefficients)、ΔMFCC(MFCCの1回微分)、ΔΔMFCC(MFCCの2回微分)、対数(スペクトル)パワー、Δ対数パワー(対数パワーの1回微分)等がある。   The feature amount extraction unit 21a extracts a feature amount of speech from speech data for recognition. As the feature amount, for example, MFCC (Mel Frequency Cepstral Coefficient), LMFC (log Mel Filterbank coefficients), ΔMFCC (one-time differentiation of MFCC), ΔΔMFCC (two-time differentiation of MFCC), logarithmic (spectral) power, Δlogarithmic power (One-time differentiation of logarithmic power).

そして、特徴量抽出部21aは、フレームごとに当該フレームおよびその前後5フレーム程度の連続する各フレームから得られる特徴量を連結し、10〜2000次元程度の時系列特徴量ベクトルx(tは、1,・・・,Mの自然数)を生成する。そして、特徴量抽出部21aは、下記(1)式のように、全てのフレームについての時系列特徴量ベクトルxをまとめた特徴量ベクトルxを生成する。特徴量ベクトルxは、1からMフレーム目までのD次元ベクトルで表現されるデータである。例えば、フレーム長は、30ms程度、フレームシフト長は、10ms程度である。 Then, the feature extraction unit 21a concatenates the feature amount obtained from each frame consecutive in the order of the frame and its front and rear 5 frame for each frame, the time series feature vector x t (t of about 10 to 2,000 D , 1,..., M). Then, the feature extraction unit 21a, as in the following equation (1), and generates a feature vector x summarizes the time series feature vector x t for all frames. The feature vector x is data represented by a D-dimensional vector from the first to the M-th frame. For example, the frame length is about 30 ms, and the frame shift length is about 10 ms.

Figure 0006646337
Figure 0006646337

事後確率計算部22aは、記憶部30aから音響モデルを取得し、音響モデルパラメータΩに基づき、特徴量ベクトルxの各フレームtに対する音響モデルの各HMM状態の出力確率を計算する。HMM状態の出力確率は、例えば文献1「G. Hinton et al., “Deep Neural Networks for Acoustic Modeling in Speech Recognition, The shared views of four research groups,” IEEE SIGNAL PROCESSING MAGAZINE, Vol. 29,No. 6, pp. 82−97, 2012.」の数式(2)で表されるようなニューラルネットワークの出力である。   The posterior probability calculation unit 22a acquires the acoustic model from the storage unit 30a, and calculates the output probability of each HMM state of the acoustic model for each frame t of the feature vector x based on the acoustic model parameter Ω. The output probability of the HMM state is described in, for example, Reference 1 “G. Hinton et al.,“ Deep Neural Networks for Acoustic Modeling in Speech Recognition, The shared views of four research groups, ”IEEE SIGNAL PROCESSING MAGAZINE, Vol. , pp. 82-97, 2012. "is the output of a neural network as represented by equation (2).

図2は、従来技術に係る音声データ処理装置の処理の概要について説明するための図である。図2に示すように、従来技術の音声認識に音響モデルを表すニューラルネットワークは、入力と出力との間に、1以上の隠れ層を有する。ニューラルネットワークの入力は、時系列特徴量ベクトルxであり、最前段の隠れ層へ入力される。ニューラルネットワークの出力は、最後段の隠れ層によるHMM状態の出力確率である。事後確率計算部22aが行う各隠れ層における計算は、線形変換による処理およびアクティベーション関数による処理の2つの処理を含む。各隠れ層における線形変換は、下記(2)式のようになる。 FIG. 2 is a diagram for explaining an outline of the processing of the audio data processing device according to the related art. As shown in FIG. 2, prior art neural networks representing acoustic models for speech recognition have one or more hidden layers between inputs and outputs. The input of the neural network is a time-series feature vector xt, which is input to the forefront hidden layer. The output of the neural network is the output probability of the HMM state due to the last hidden layer. The calculation in each hidden layer performed by the posterior probability calculation unit 22a includes two processes of a process by a linear transformation and a process by an activation function. The linear transformation in each hidden layer is as shown in the following equation (2).

Figure 0006646337
Figure 0006646337

ただし、上記(2)式において、ベクトルzi,tは、i番目(iは自然数であり、i=1,2,・・・,I(ただしIは隠れ層の総数))の隠れ層における線形変換の出力であり、ベクトルxi−1,tは(i−1)番目の隠れ層の出力である。なお、ベクトルx0,tは、ニューラルネットワークの入力である時系列特徴量ベクトルxである。また、アクティベーション関数の出力は、下記(3)式のようになる。 However, in the above equation (2), the vector z i, t is the vector in the i-th (i is a natural number, i = 1, 2,..., I (where I is the total number of hidden layers)) hidden layer. The output of the linear transformation, and the vector x i−1, t is the output of the (i−1) th hidden layer. Note that the vector x 0, t is the time series feature vector x t is the input of the neural network. The output of the activation function is as shown in the following equation (3).

Figure 0006646337
Figure 0006646337

ただし、上記(3)式において、ベクトルxi,tはi番目の隠れ層の出力であり、f()は、例えばsigmoid関数等のアクティベーション関数であり、ベクトルの要素ごとに計算される。すなわち、事後確率計算部22aは、i番目の隠れ層において、前段の隠れ層である(i−1)番目の隠れ層の出力であるベクトルxi−1,tに対し上記(2)式による線形変換を行った結果であるベクトルzi,tに対して、上記(2)式による処理を行った結果であるベクトルxi,tを出力する。そして、事後確率計算部22aは、各ベクトルxi,t(i=1,2,・・・,I)に基づき、特徴量ベクトルxの各フレームに対する音響モデルの各HMM状態の出力確率を計算する。 However, in the above equation (3), the vector x i, t is the output of the i-th hidden layer, and f () is an activation function such as a sigmoid function, which is calculated for each element of the vector. That is, the posterior probability calculation unit 22a calculates the vector x i−1, t that is the output of the (i−1) th hidden layer that is the preceding hidden layer in the i-th hidden layer according to the above equation (2). is a result of the linear transformation vector z i, with respect to t, (2) that is the result of processing by the expression vector x i, and outputs the t. Then, the posterior probability calculation unit 22a calculates the output probability of each HMM state of the acoustic model for each frame of the feature amount vector x based on each vector x i, t (i = 1, 2,..., I). I do.

単語列検索部23aは、事後確率計算部22aにより計算された各HMM状態の出力確率に基づき、J個(Jは自然数)の対立候補シンボル系列sを生成し、対立候補シンボル系列sごとに、音響モデルとの適合尤度を示す音響スコアを計算する。シンボルは、例えば、音素である。ここで、j=1,2,・・・,Jである。 Word string searching unit 23a, based on the output probability of each HMM state calculated by the posterior probability calculation unit 22a, J pieces (J is a natural number) to generate conflicts candidate symbol sequence s j of each opposition candidate symbol sequence s j Next, an acoustic score indicating the likelihood of matching with the acoustic model is calculated. The symbol is, for example, a phoneme. Here, j = 1, 2,..., J.

次に、単語列検索部23aは、記憶部30aから読み込んだ言語モデルに基づき、対立候補シンボル系列sごとに、言語モデルとの適合尤度を示す言語スコアを計算する。そして、単語列検索部23aは、計算した音響スコアおよび言語スコアに基づき、J個の対立候補シンボル系列sの中から、認識用の音声データに対応する単語列として最も確からしい、つまり、音響スコアおよび言語スコアを統合したスコアが最も高い対立候補シンボル系列を、記憶部30aに記憶される言語モデルから検索し、検索した対立候補シンボル系列を、認識結果である単語列^Sとして出力する。 Next, the word string search unit 23a calculates a language score indicating the likelihood of matching with the language model for each of the alternative candidate symbol sequences sj based on the language model read from the storage unit 30a. Then, based on the calculated acoustic score and linguistic score, the word string search unit 23a determines the most probable word string corresponding to the speech data for recognition from among the J candidate symbol sequences s j , that is, A search is made for the contended candidate symbol sequence having the highest score obtained by integrating the score and the linguistic score from the language model stored in the storage unit 30a, and the retrieved contended candidate symbol sequence is output as a word string ^ S as a recognition result.

図3は、従来技術に係る音声認識処理の一例を示すフローチャートである。まず、音声データ処理装置10aは、記憶部30aから、音響モデルおよび言語モデルを読み込む(ステップS101a)。次に、音声データ処理装置10aは、認識用の音声データを読み込む(ステップS102a)。次に、音声データ処理装置10aは、読み込んだ認識用の音声データから音声の特徴量を抽出し、特徴量ベクトルxを生成する(ステップS103a)。 FIG. 3 is a flowchart illustrating an example of a voice recognition process according to the related art. First, the audio data processing device 10a reads an acoustic model and a language model from the storage unit 30a (Step S101a). Next, the voice data processing device 10a reads voice data for recognition (step S102a). Next, the audio data processing device 10a extracts the feature quantity of the speech from the speech data for recognizing read, generates a feature vector x t (step S103a).

次に、音声データ処理装置10aは、読み込んだ音響モデルに基づき、特徴量ベクトルxの各フレームに対する音響モデルの各HMM状態の出力確率を事後確率として計算する(ステップS104a)。次に、音声データ処理装置10aは、事後確率計算部22aにより計算された各HMM状態の出力確率に基づき、対立候補シンボル系列sを生成し、対立候補シンボル系列sごとの音響スコアおよび言語スコアを統合したスコアが最も高い対立候補シンボル系列を言語モデルから検索する(ステップS105a)。次に、音声データ処理装置10aは、ステップS105aの検索結果を、認識結果である単語列^Sとして出力する(ステップS106a)。 Next, the audio data processing device 10a, based on the read acoustic model, calculates the output probability of each HMM state of the acoustic model for each frame of the feature vector x t as posterior probability (step S104a). Next, the audio data processing device 10a based on the output probability of each HMM state calculated by the posterior probability calculation unit 22a, and generates an opposition candidate symbol sequence s j, acoustic score and language for each allele candidate symbol sequence s j A search is made from the language model for an opponent candidate symbol sequence having the highest score obtained by integrating the scores (step S105a). Next, the voice data processing device 10a outputs the search result of step S105a as a word string ^ S as a recognition result (step S106a).

[第1の実施形態の構成]
以下、本願が開示する音声データ処理装置、音声データ処理方法および音声データ処理プログラムの実施形態を説明する。以下の実施形態は、一例を示すに過ぎず、本願が開示する技術を限定するものではない。また、以下に示す実施形態およびその他の実施形態は、矛盾しない範囲で適宜組み合わせてもよい。
[Configuration of First Embodiment]
Hereinafter, embodiments of an audio data processing device, an audio data processing method, and an audio data processing program disclosed by the present application will be described. The following embodiments are merely examples, and do not limit the technology disclosed in the present application. Further, the embodiments described below and other embodiments may be appropriately combined within a range that does not contradict.

まず、図4を用いて、第1の実施形態に係る音声データ処理装置の構成について説明する。図4は、第1の実施形態に係る音声データ処理装置の構成の一例を示す図である。図1に示すように、音声データ処理装置10は、制御部20および記憶部30を有する。   First, the configuration of the audio data processing device according to the first embodiment will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of a configuration of the audio data processing device according to the first embodiment. As shown in FIG. 1, the audio data processing device 10 has a control unit 20 and a storage unit 30.

制御部20は、音声データ処理装置10全体を制御する。制御部20は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。また、制御部20は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部20は、各種のプログラムが動作することにより各種の処理部として機能する。例えば、抽出部21、計算部22、更新部23および認識部24を有する。   The control unit 20 controls the entire audio data processing device 10. The control unit 20 is, for example, an electronic circuit such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit), or an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 20 has an internal memory for storing programs and control data defining various processing procedures, and executes each process using the internal memory. The control unit 20 also functions as various processing units when various programs operate. For example, it has an extracting unit 21, a calculating unit 22, an updating unit 23, and a recognizing unit 24.

記憶部30は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置である。なお、記憶部30は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。記憶部30は、音声データ処理装置10で実行されるOS(Operating System)や各種プログラムを記憶する。さらに、記憶部30は、プログラムの実行で用いられる各種情報を記憶する。また、記憶部30は、音声認識モデル31、条件特徴量計算モデル32および適応特徴量計算モデル33を記憶する。具体的には、記憶部30は、例えば、各計算モデルを用いて計算を実行するためのパラメータを記憶する。   The storage unit 30 is a storage device such as a hard disk drive (HDD), a solid state drive (SSD), and an optical disk. The storage unit 30 may be a rewritable semiconductor memory such as a random access memory (RAM), a flash memory, or a non-volatile random access memory (NVSRAM). The storage unit 30 stores an OS (Operating System) executed by the audio data processing device 10 and various programs. Further, the storage unit 30 stores various information used in executing the program. In addition, the storage unit 30 stores a speech recognition model 31, a condition feature amount calculation model 32, and an adaptive feature amount calculation model 33. Specifically, the storage unit 30 stores, for example, parameters for executing a calculation using each calculation model.

音声データ処理装置10は、適応用の音声データを用いて、条件特徴量計算モデル32および適応特徴量計算モデル33を音響条件に適応させる。条件特徴量計算モデル32は、音声認識に用いられる音声データから抽出された特徴量を、音響条件にあわせた特徴量に変換するためのパラメータを計算するための、ニューラルネットワークを用いた計算モデルである。   The audio data processing device 10 adapts the condition feature amount calculation model 32 and the adaptive feature amount calculation model 33 to acoustic conditions using the audio data for adaptation. The condition feature amount calculation model 32 is a calculation model using a neural network for calculating a parameter for converting a feature amount extracted from speech data used for speech recognition into a feature amount corresponding to acoustic conditions. is there.

この場合、まず、抽出部21は、所定の環境における音声を基に作成された適応用の音声データから、音声の特徴を示す特徴量である第1の入力特徴量、および環境の特徴を示す特徴量である第2の入力特徴量を抽出する。   In this case, first, the extraction unit 21 indicates a first input feature amount, which is a feature amount indicating a feature of the sound, and a feature of the environment from the adaptation sound data created based on the sound in the predetermined environment. A second input feature value, which is a feature value, is extracted.

適応用の音声データから抽出された特徴量には、音声の特徴および環境の特徴の両方が含まれている。抽出部21は、第1の入力特徴量と第2の入力特徴量を同一の特徴量としてもよい。また、抽出部21は、第1の入力特徴量と第2の入力特徴量を異なる特徴量としてもよい。例えば、抽出部21は、第1の入力特徴量と、雑音抑圧処理が行われた音声データの音声の特徴を示す特徴量と、の差を基に特徴量を計算し、計算した特徴量を第2の入力特徴量として抽出してもよい。   The features extracted from the adaptation speech data include both speech features and environment features. The extraction unit 21 may set the first input feature and the second input feature as the same feature. The extraction unit 21 may set the first input feature and the second input feature as different feature. For example, the extraction unit 21 calculates a feature value based on a difference between the first input feature value and a feature value indicating a voice feature of the voice data on which the noise suppression processing has been performed, and calculates the calculated feature value. You may extract as a 2nd input feature-value.

例えば、第1の入力特徴量をxとし、雑音抑圧処理が行われた音声データの音声の特徴を示す特徴量をyとすると、抽出部21は、第2の入力特徴量を下記(4)式により計算することができる。 For example, the first input feature amount is x t, the feature quantity indicating the feature of the sound of the audio data noise suppression process is performed and y t, extractor 21, following the second input feature value ( It can be calculated by equation 4).

Figure 0006646337
Figure 0006646337

そして、計算部22は、ニューラルネットワークを用いた計算モデルである条件特徴量計算モデル32に第2の入力特徴量を入力し、所定の環境を特徴付ける複数の条件のそれぞれに対応した要素を含んだ特徴量である条件特徴量を計算する。条件特徴量計算モデル32に含まれる条件は、例えば、話者の性別、年齢、国籍、また、雑音の種類、強さ等を条件とすることができる。   Then, the calculation unit 22 inputs the second input feature amount to the condition feature amount calculation model 32 which is a calculation model using a neural network, and includes elements corresponding to each of a plurality of conditions characterizing a predetermined environment. Calculate the condition feature quantity that is the feature quantity. The conditions included in the condition feature amount calculation model 32 can be, for example, the speaker's sex, age, nationality, noise type, strength, and the like.

また、計算部22は、条件特徴量に含まれる複数の要素のそれぞれに対応したパラメータの組を含んだ計算モデルである適応特徴量計算モデル33に第1の入力特徴量および条件特徴量を入力し、要素ごとに、ニューラルネットワークを用いた計算モデルである音声認識モデル31に適応した特徴量である適応特徴量を計算する。このように、計算部22は、適応特徴量計算モデル33を用いて、条件特徴量の要素の数、すなわち環境を特徴付ける条件の数と同数の適応特徴量を計算する。   The calculation unit 22 also inputs the first input feature value and the condition feature value to the adaptive feature value calculation model 33 which is a calculation model including a set of parameters corresponding to each of a plurality of elements included in the condition feature value. Then, an adaptive feature amount, which is a feature amount adapted to the speech recognition model 31, which is a calculation model using a neural network, is calculated for each element. As described above, the calculation unit 22 uses the adaptive feature amount calculation model 33 to calculate the same number of adaptive feature amounts as the number of elements of the condition feature amount, that is, the number of conditions characterizing the environment.

そして、更新部23は、音声認識モデル31に適応特徴量を入力して得られた出力結果を基に、条件特徴量計算モデル32のパラメータおよび適応特徴量計算モデル33のパラメータの更新を行う。更新部23は、ニューラルネットワークの誤差逆伝搬等の手法を用いてパラメータの更新を行う。このとき、更新部23は、条件特徴量計算モデル32のパラメータおよび適応特徴量計算モデル33のパラメータの更新に、音声認識モデル31の出力結果を反映させているため、音響条件を考慮した音声認識モデル31の音声認識精度が向上していくことになる。   Then, the updating unit 23 updates the parameters of the conditional feature calculation model 32 and the parameters of the adaptive feature calculation model 33 based on the output result obtained by inputting the adaptive feature to the speech recognition model 31. The updating unit 23 updates the parameters using a method such as back propagation of the error of the neural network. At this time, since the update unit 23 reflects the output result of the speech recognition model 31 in updating the parameters of the conditional feature calculation model 32 and the parameters of the adaptive feature calculation model 33, the speech recognition considering the acoustic conditions is performed. The speech recognition accuracy of the model 31 will be improved.

なお、音声認識モデル31自体の学習は、適応特徴量計算モデル33の適応と同時に行われてもよいし、別に行われてもよい。以降、音声認識モデル31の学習のための音声データを学習用の音声データとよび、条件特徴量計算モデル32の適応のための音声データを適応用の音声データとよぶ。   The learning of the speech recognition model 31 itself may be performed at the same time as the adaptation of the adaptive feature amount calculation model 33, or may be performed separately. Hereinafter, the speech data for learning the speech recognition model 31 will be referred to as training speech data, and the speech data for adapting the conditional feature calculation model 32 will be referred to as adaptation speech data.

なお、音声認識モデル31および条件特徴量計算モデル32はいずれもニューラルネットワークを用いた計算モデルとすることができるため、音声認識モデル31の学習、条件特徴量計算モデル32の適応および音声認識は、従来技術と同様の方法で行うこととしてもよい。   Since both the speech recognition model 31 and the condition feature calculation model 32 can be calculation models using a neural network, learning of the speech recognition model 31, adaptation of the condition feature calculation model 32, and speech recognition are performed by: This may be performed in the same manner as in the related art.

また、適応用の音声データに対応した書き起こし等の正解データが存在する場合、音声データ処理装置10は、教師あり適応を行うことができる。また、音声データ処理装置10は、音声認識の出力等に基づき教師なし適応を行うことができる。   When there is correct data such as a transcription corresponding to the audio data for adaptation, the audio data processing device 10 can perform supervised adaptation. Further, the voice data processing device 10 can perform unsupervised adaptation based on the output of voice recognition and the like.

音声データ処理装置10は、音声認識用の音声データを用いて音声認識を行う。この場合、まず、抽出部21は、所定の環境における音声を基に作成された音声認識用の音声データから、第1の入力特徴量、および第2の入力特徴量を抽出する。抽出部21は、第1の入力特徴量および第2の入力特徴量を、適応の場合と同様の方法で抽出する。   The voice data processing device 10 performs voice recognition using voice data for voice recognition. In this case, first, the extracting unit 21 extracts a first input feature amount and a second input feature amount from speech recognition voice data created based on speech in a predetermined environment. The extraction unit 21 extracts the first input feature amount and the second input feature amount in the same manner as in the case of adaptation.

そして、計算部22は、条件特徴量計算モデル32に第2の入力特徴量を入力し、条件特徴量を計算する。そして、計算部22は、適応特徴量計算モデル33に第1の入力特徴量および条件特徴量を入力し、適応特徴量を計算する。そして、認識部24は、音声認識モデル31に適応特徴量を入力して得られた出力結果を基に、音声の認識を行う。これにより、音声データ処理装置10は、音響条件を考慮した音声認識を行うことができる。   Then, the calculation unit 22 inputs the second input feature value to the condition feature value calculation model 32 and calculates the condition feature value. Then, the calculation unit 22 inputs the first input feature value and the condition feature value to the adaptive feature value calculation model 33, and calculates the adaptive feature value. Then, the recognition unit 24 performs speech recognition based on an output result obtained by inputting the adaptive feature amount to the speech recognition model 31. Thereby, the voice data processing device 10 can perform voice recognition in consideration of the acoustic conditions.

図5を用いて、音声データ処理装置10の処理の概要について説明する。図5は、第1の実施形態に係る音声データ処理装置の処理の概要について説明するための図である。図5に示すように、計算部22は、第2の入力特徴量σx,tを、条件特徴量計算モデル32に入力する。そして、計算部22は、条件特徴量計算モデル32を用いて計算した条件特徴量の要素α、α、α、および、要素のそれぞれに対応したパラメータ(U,v)、(U,v)、(U,v)を用いて、第1の入力特徴量xから、適応特徴量−xを計算する。ここで、Uは変換行列であり、vはバイアスベクトルである。 The outline of the processing of the audio data processing device 10 will be described with reference to FIG. FIG. 5 is a diagram for explaining an outline of the processing of the audio data processing device according to the first embodiment. As shown in FIG. 5, the calculation unit 22 inputs the second input feature amount σ x, t to the condition feature amount calculation model 32. Then, the calculation unit 22 calculates the elements α 1 , α 2 , α 3 of the condition feature calculated using the condition feature calculation model 32, and the parameters (U 1 , v 1 ) corresponding to each of the elements, ( U 2, v 2), using (U 3, v 3), from the first input feature amount x t, calculates the adaptive feature amount -x t. Here, U is a transformation matrix, and v is a bias vector.

また、更新部23は、音声認識モデル31に適応特徴量−xを入力して得られた音声認識結果を基に、条件特徴量計算モデル32のパラメータおよび適応特徴量計算モデル33のパラメータの更新を行う。図5に示すように、音声認識モデル31は、ソフトマクス層に至るまでの各層にパラメータ(W,b)、(W,b)、(W,b)、(W,b)が設定されたDNN(Deep Neural Network)である。 Further, the updating unit 23 updates the parameters of the conditional feature calculation model 32 and the parameters of the adaptive feature calculation model 33 based on the speech recognition result obtained by inputting the adaptive feature −x t to the speech recognition model 31. Perform an update. As shown in FIG. 5, the speech recognition model 31 includes parameters (W 1 , b 1 ), (W 2 , b 2 ), (W 3 , b 3 ), (W 4 ) for each layer up to the softmax layer. , B 4 ) is a set DNN (Deep Neural Network).

ここで、図6および7を用いて、第1の実施形態に係る音声データ処理装置10の適応処理および音声認識処理について説明する。図6は、第1の実施形態に係る音声データ処理装置の適応処理について説明するための図である。また、図7は、第1の実施形態に係る音声データ処理装置の音声認識処理について説明するための図である。   Here, the adaptive processing and the voice recognition processing of the voice data processing apparatus 10 according to the first embodiment will be described with reference to FIGS. FIG. 6 is a diagram for explaining the adaptive processing of the audio data processing device according to the first embodiment. FIG. 7 is a diagram for describing a voice recognition process of the voice data processing device according to the first embodiment.

以降の説明では、データの流れを明確にするため、音声データ処理装置10の各処理部が、それぞれさらに処理部を有することとして説明する。具体的には、図6および7に示すように、抽出部21は、第1の入力特徴量抽出部211および第2の入力特徴量抽出部212を有する。また、計算部22は、条件特徴量計算部221、特徴量変換部222、事後確率計算部223を有する。また、更新部23は、エラー計算部231、微分値計算部232、パラメータ更新部233および収束判定部234を有する。また、認識部24は、単語列検索部241を有する。   In the following description, in order to clarify the flow of data, it is assumed that each processing unit of the audio data processing device 10 further has a processing unit. Specifically, as shown in FIGS. 6 and 7, the extraction unit 21 includes a first input feature amount extraction unit 211 and a second input feature amount extraction unit 212. The calculating unit 22 includes a conditional feature calculating unit 221, a feature converting unit 222, and a posterior probability calculating unit 223. The updating unit 23 includes an error calculating unit 231, a differential value calculating unit 232, a parameter updating unit 233, and a convergence determining unit 234. The recognition unit 24 has a word string search unit 241.

まず、図6を用いて、音声データ処理装置10の適応処理について説明する。図6に示すように、第1の入力特徴量抽出部211は、適応用の音声データから各フレームの第1の入力特徴量xを抽出する。また、第2の入力特徴量抽出部212は、適応用の音声データから各フレームの第2の入力特徴量σx,tを抽出する。 First, the adaptive processing of the audio data processing device 10 will be described with reference to FIG. As shown in FIG. 6, the first input feature amount extraction unit 211 extracts the first input feature amount x t of each frame from the audio data for the adaptation. Further, the second input feature amount extraction unit 212 extracts the second input feature amount σ x, t of each frame from the audio data for adaptation.

次に、条件特徴量計算部221は、記憶部30から条件特徴量計算モデル32を取得し、第2の入力特徴量σx,tを用いて、各フレームの条件特徴量αn,tを計算する。下記(5)式に示すように、条件特徴量計算部221は、ニューラルネットワークである条件特徴量計算モデル32の出力として条件特徴量αn,tを計算する。なお、Ω´は、条件特徴量計算モデル32の各層における線形変換のためのパラメータの集合であり、Ω´={W´,b´,・・・,W´I´,b´I´}(I´は、隠れ層の総数)とする。また、各層における線形変換の方法は、従来技術と同様である。 Next, the condition feature value calculation unit 221 acquires the condition feature value calculation model 32 from the storage unit 30 , and uses the second input feature value σ x, t to convert the condition feature value α n, t of each frame. calculate. As shown in the following equation (5), the condition feature quantity calculation unit 221 calculates the condition feature quantity α n, t as an output of the condition feature quantity calculation model 32 which is a neural network. Incidentally, Omega' is a set of parameters for the linear transformation in layers of the conditions characteristic quantity calculation model 32, Ω'= {W'1, b'1, ···, W'I', b'I '} (I'the total number of hidden layers) to. Also, the method of linear conversion in each layer is the same as in the prior art.

Figure 0006646337
Figure 0006646337

次に、特徴量変換部222は、記憶部30から適応特徴量計算モデル33を取得し、第1の入力特徴量x、条件特徴量αn,t、パラメータの組U,v,・・・,U,vに基づいて、下記(6)式を用いて、各フレームの適応特徴量−xを計算する。ここで、前述の通り、Uは変換行列であり、vはバイアスベクトルである。 Next, the feature value conversion unit 222 acquires the adaptive feature value calculation model 33 from the storage unit 30, and acquires the first input feature value x t , the condition feature value α n, t , the parameter set U 1 , v 2 , ... on the basis of the U N, v N, using the following equation (6), to calculate the adaptive feature amount -x t of each frame. Here, as described above, U is a transformation matrix, and v is a bias vector.

Figure 0006646337
Figure 0006646337

次に、事後確率計算部223は、記憶部30から音声認識モデル31を取得し、適応特徴量−xに基づいて、下記(7)式のように、HMM状態の出力確率を各フレームの事後確率oとして計算する。なお、Ωは、音声認識モデル31の各層における線形変換のためのパラメータの集合であり、Ω={W,b,・・・,W,b}(Iは、隠れ層の総数)とする。また、各層における線形変換の方法は、従来技術と同様である。 Next, the posterior probability calculation unit 223 acquires the speech recognition model 31 from the storage unit 30, based on the adaptive feature amount -x t, as follows (7), the output probability of the HMM state of each frame It is calculated as the posterior probability o t. Here, Ω is a set of parameters for linear transformation in each layer of the speech recognition model 31, and Ω = {W 1 , b 1 ,..., W I , b I } (I is the total number of hidden layers) ). Also, the method of linear conversion in each layer is the same as in the prior art.

Figure 0006646337
Figure 0006646337

更新部23は、条件特徴量計算モデル32のパラメータΩ´、および適応特徴量計算モデル33のパラメータU,v,・・・,U,vの最適化を行う。更新部23は、ニューラルネットワークの学習手順に従い、誤差逆伝搬とSGDを用いてパラメータを更新し最適化する。 Updating unit 23, the parameter Ω'condition feature quantity calculation model 32, and the parameters U 1, v 2 of the adaptive feature quantity calculation model 33, · · ·, U N, the optimization of the v N performed. The updating unit 23 updates and optimizes parameters using error backpropagation and SGD according to a neural network learning procedure.

まず、エラー計算部231は、下記(8)式の通りエラー、すなわち各層における逆伝搬した誤差δi,tを計算する。また、エラー計算部231は、δI,tを下記(9)式の通り計算する。なお、dは、正解データから得られる正解HMM状態である。 First, the error calculator 231 calculates an error according to the following equation (8), that is, an error δ i, t that is back-propagated in each layer. Further, the error calculation unit 231 calculates δI , t according to the following equation (9). Note that dt is the correct HMM state obtained from the correct data.

Figure 0006646337
Figure 0006646337

Figure 0006646337
Figure 0006646337

ここで、微分値計算部232は、下記(10)式で表されるCross Entropy関数を各パラメータで微分した値を、それぞれ下記(11)〜(14)式により計算する。   Here, the differential value calculation unit 232 calculates values obtained by differentiating the Cross Entropy function represented by the following equation (10) with each parameter according to the following equations (11) to (14).

Figure 0006646337
Figure 0006646337

Figure 0006646337
Figure 0006646337

Figure 0006646337
Figure 0006646337

Figure 0006646337
Figure 0006646337

Figure 0006646337
Figure 0006646337

また、微分値計算部232は、δ´I´,tを、下記(15)式により計算する。なお、(15)式中の各インデクス0,t,pのうち、1番目のインデクスは層のインデクスである。また、2番目のインデクスは時間フレームのインデクスである。また、3番目のインデクスは各ベクトル内の次元のインデクスである。例えば、z0,t,pは、0番目の層の時間フレームtにおける出力であるベクトルのp次元目の要素である。また、(15)式の層のインデクスが0である層は、変換層、すなわち特徴量変換部222によって適応特徴量計算モデル33を用いた変換が行われる層である。 Further, the differential value calculation section 232 calculates δ′I ′, t by the following equation (15). The first index among the indexes 0, t, and p in the expression (15) is a layer index. The second index is a time frame index. The third index is a dimension index in each vector. For example, z 0, t, p is a p-dimensional element of a vector that is an output in the time frame t of the 0th layer. The layer in which the index of the layer of Expression (15) is 0 is a conversion layer, that is, a layer in which the conversion using the adaptive feature calculation model 33 is performed by the feature conversion unit 222.

Figure 0006646337
Figure 0006646337

また、微分値計算部232は、(15)式中のzn,0,tを、下記(16)式により計算する。 Further, the differential value calculation unit 232 calculates z n, 0, t in the equation (15) according to the following equation (16).

Figure 0006646337
Figure 0006646337

パラメータ更新部233は、微分値計算部232による計算結果を基に、下記(17)〜(20)式により各パラメータを更新する。なお、ηは、音響モデルパラメータ補正用パラメータであり、例えば0.1〜0.0001等の微小値である。   The parameter update unit 233 updates each parameter by the following equations (17) to (20) based on the calculation result by the differential value calculation unit 232. Here, η is an acoustic model parameter correction parameter, and is a minute value such as 0.1 to 0.0001.

Figure 0006646337
Figure 0006646337

Figure 0006646337
Figure 0006646337

Figure 0006646337
Figure 0006646337

Figure 0006646337
Figure 0006646337

収束判定部234は、パラメータ更新部233により更新されたパラメータが収束したか否かを判定する。収束判定部234がパラメータが収束していないと判定した場合、計算部22および更新部23は、さらにパラメータ更新のための処理を実行する。また、収束判定部234は、パラメータが収束したと判定した場合、更新後のパラメータを記憶部30に格納する。   The convergence determination unit 234 determines whether the parameters updated by the parameter update unit 233 have converged. When the convergence determination unit 234 determines that the parameters have not converged, the calculation unit 22 and the update unit 23 further execute a process for updating the parameters. When determining that the parameters have converged, the convergence determination unit 234 stores the updated parameters in the storage unit 30.

収束判定部234は、例えば、1つ前のステップで得られていたパラメータと新たに求めたパラメータとの差分が閾値以下になった場合、繰り返し回数が所定の回数以上になった場合、所定の評価基準に基づく音声認識の評価が悪化した場合等に、パラメータが収束したと判定する。   For example, when the difference between the parameter obtained in the previous step and the newly obtained parameter is equal to or less than a threshold, when the number of repetitions is equal to or more than a predetermined number, It is determined that the parameters have converged, for example, when the evaluation of speech recognition based on the evaluation criterion deteriorates.

次に、図7を用いて、音声データ処理装置10の音声認識処理について説明する。図7に示すように、音声認識を行う場合、音声データ処理装置10は、認識用の音声データの入力を受け付ける。その後、抽出部21および計算部22は、適応処理の場合と同様の処理を行う。そして、認識部24の単語列検索部241は、事後確率oに基づき、従来技術と同様の方法により認識結果である単語列^Sを検索し出力する。 Next, the speech recognition processing of the speech data processing device 10 will be described with reference to FIG. As shown in FIG. 7, when performing voice recognition, the voice data processing device 10 accepts input of voice data for recognition. After that, the extraction unit 21 and the calculation unit 22 perform the same processing as in the case of the adaptive processing. Then, the word string search unit 241 of the recognition unit 24, based on the posterior probability o t, to search a word string ^ S is a recognition result by the same method as the prior art output.

[第1の実施形態の処理]
図8を用いて、音声データ処理装置10の適応処理の流れについて説明する。図8は、第1の実施形態に係る音声データ処理装置の適応処理の流れを示すフローチャートである。
[Processing of First Embodiment]
The flow of the adaptive processing of the audio data processing device 10 will be described with reference to FIG. FIG. 8 is a flowchart illustrating a flow of the adaptive processing of the audio data processing device according to the first embodiment.

まず、音声データ処理装置10は、記憶部30から、音声認識モデル31、条件特徴量計算モデル32および適応特徴量計算モデル33を読み込む(ステップS101)。次に、音声データ処理装置10は、適応用の音声データを読み込む(ステップS102)。次に、音声データ処理装置10は、正解データを読み込む(ステップS103)。   First, the speech data processing apparatus 10 reads the speech recognition model 31, the condition feature quantity calculation model 32, and the adaptive feature quantity calculation model 33 from the storage unit 30 (Step S101). Next, the audio data processing device 10 reads the audio data for adaptation (Step S102). Next, the audio data processing device 10 reads the correct answer data (step S103).

次に、抽出部21は、適応用の音声データから音声の特徴を示す第1の入力特徴量を抽出する(ステップS104)。次に、抽出部21は、適応用の音声データから環境の特徴を示す第2の入力特徴量を抽出する(ステップS105)。   Next, the extracting unit 21 extracts a first input feature amount indicating a feature of the voice from the voice data for adaptation (Step S104). Next, the extraction unit 21 extracts a second input feature amount indicating a feature of the environment from the audio data for adaptation (Step S105).

そして、計算部22は、ニューラルネットワークである条件特徴量計算モデル32に第2の入力特徴量を入力し、条件特徴量を計算する(ステップS106)。次に、計算部22は、第1の入力特徴量および条件特徴量に基づき、適応特徴量を計算する(ステップS107)。次に、計算部22は、ニューラルネットワークである音声認識モデル31に、適応特徴量を入力し、事後確率を計算する(ステップS108)。   Then, the calculation unit 22 inputs the second input feature value to the condition feature value calculation model 32, which is a neural network, and calculates the condition feature value (Step S106). Next, the calculation unit 22 calculates an adaptive feature based on the first input feature and the condition feature (step S107). Next, the calculation unit 22 inputs the adaptive features to the speech recognition model 31 which is a neural network, and calculates the posterior probability (Step S108).

そして、更新部23は、事後確率に基づいて、条件特徴量計算モデル32および適応特徴量計算モデル33のパラメータを更新する(ステップS109)。さらに、更新部23は、パラメータの更新の結果、パラメータが収束していると判定した場合、処理を終了させる(ステップS110、Yes)。一方、更新部23は、パラメータの更新の結果、パラメータが収束していないと判定した場合、処理をステップS106に戻す(ステップS110、No)。   Then, the updating unit 23 updates the parameters of the conditional feature calculation model 32 and the adaptive feature calculation model 33 based on the posterior probability (Step S109). Further, when the updating unit 23 determines that the parameters have converged as a result of updating the parameters, the updating unit 23 ends the process (Step S110, Yes). On the other hand, when the updating unit 23 determines that the parameters have not converged as a result of updating the parameters, the updating unit 23 returns the process to step S106 (No in step S110).

次に、図9を用いて、音声データ処理装置10の音声認識処理の流れについて説明する。図9は、第1の実施形態に係る音声データ処理装置の音声認識処理の流れを示すフローチャートである。   Next, the flow of the voice recognition process of the voice data processing device 10 will be described with reference to FIG. FIG. 9 is a flowchart illustrating a flow of a voice recognition process of the voice data processing device according to the first embodiment.

まず、音声データ処理装置10は、記憶部30から、音声認識モデル31、条件特徴量計算モデル32および適応特徴量計算モデル33を読み込む(ステップS201)。次に、音声データ処理装置10は、音声認識用の音声データを読み込む(ステップS202)。   First, the speech data processing device 10 reads the speech recognition model 31, the condition feature calculation model 32, and the adaptive feature calculation model 33 from the storage unit 30 (step S201). Next, the voice data processing device 10 reads voice data for voice recognition (step S202).

次に、抽出部21は、音声認識用の音声データから音声の特徴を示す第1の入力特徴量を抽出する(ステップS203)。次に、抽出部21は、音声認識用の音声データから環境の特徴を示す第2の入力特徴量を抽出する(ステップS204)。   Next, the extracting unit 21 extracts a first input feature amount indicating a feature of the voice from the voice data for voice recognition (step S203). Next, the extracting unit 21 extracts a second input feature quantity indicating a feature of the environment from the speech data for speech recognition (step S204).

そして、計算部22は、ニューラルネットワークである条件特徴量計算モデル32に第2の入力特徴量を入力し、条件特徴量を計算する(ステップS205)。次に、計算部22は、第1の入力特徴量および条件特徴量に基づき、適応特徴量を計算する(ステップS206)。次に、計算部22は、ニューラルネットワークである音声認識モデル31に、適応特徴量を入力し、事後確率を計算する(ステップS207)。そして、認識部24は、事後確率に基づいて、スコアが最も大きくなる単語列を検索し(ステップS208)、検索結果を出力する(ステップS209)。   Then, the calculation unit 22 inputs the second input feature value to the condition feature value calculation model 32, which is a neural network, and calculates the condition feature value (step S205). Next, the calculation unit 22 calculates an adaptive feature based on the first input feature and the condition feature (step S206). Next, the calculation unit 22 inputs the adaptive features to the speech recognition model 31 which is a neural network, and calculates the posterior probability (Step S207). Then, based on the posterior probability, the recognizing unit 24 searches for a word string having the highest score (Step S208), and outputs a search result (Step S209).

なお、第1の実施形態では、音声認識モデル31および条件特徴量計算モデル32がFully connectedニューラルネットワークである場合の例を説明したが、音声認識モデル31および条件特徴量計算モデル32は、RNN/LSTM、またはCNN等の他のニューラルネットワークであってもよい。   In the first embodiment, an example in which the speech recognition model 31 and the condition feature amount calculation model 32 are a fully connected neural network has been described. However, the speech recognition model 31 and the condition feature amount calculation model 32 Other neural networks such as LSTM or CNN may be used.

[第1の実施形態の効果]
抽出部21は、所定の環境における音声を基に作成された適応用の音声データから、音声の特徴を示す特徴量である第1の入力特徴量、および環境の特徴を示す特徴量である第2の入力特徴量を抽出する。そして、計算部22は、ニューラルネットワークを用いた計算モデルである条件特徴量計算モデル32に第2の入力特徴量を入力し、所定の環境を特徴付ける複数の条件のそれぞれに対応した要素を含んだ特徴量である条件特徴量を計算する。そして、計算部22は、条件特徴量に含まれる複数の要素のそれぞれに対応したパラメータの組を含んだ計算モデルである適応特徴量計算モデル33に第1の入力特徴量および条件特徴量を入力し、ニューラルネットワークを用いた計算モデルである音声認識モデル31に適応した特徴量である適応特徴量を計算する。そして、更新部23は、音声認識モデル31に適応特徴量を入力して得られた出力結果を基に、条件特徴量計算モデル32のパラメータおよび適応特徴量計算モデル33のパラメータの更新を行う。
[Effect of First Embodiment]
The extraction unit 21 extracts a first input feature amount that is a feature amount indicating a feature of a sound and a first input feature amount that is a feature amount that indicates a feature of an environment from adaptation speech data created based on the speech in a predetermined environment. 2 is extracted. Then, the calculation unit 22 inputs the second input feature value to the condition feature value calculation model 32 which is a calculation model using a neural network, and includes elements corresponding to each of a plurality of conditions characterizing a predetermined environment. Calculate the condition feature quantity that is the feature quantity. Then, the calculation unit 22 inputs the first input feature amount and the condition feature amount to the adaptive feature amount calculation model 33 which is a calculation model including a set of parameters corresponding to each of the plurality of elements included in the condition feature amount. Then, an adaptive feature amount, which is a feature amount adapted to the speech recognition model 31, which is a calculation model using a neural network, is calculated. Then, the updating unit 23 updates the parameters of the conditional feature calculation model 32 and the parameters of the adaptive feature calculation model 33 based on the output result obtained by inputting the adaptive feature to the speech recognition model 31.

このように、第1の実施形態では、音声認識用の音声データが作成された環境と学習用の音声データが作成された環境との間で、複数の音響条件に違いがある場合であっても、それぞれの音響条件に対応した特徴量を生成することができる。これにより、第1の実施形態によれば、複数の音響条件を考慮し、音声認識モデルの精度を高めることができるようになる。   As described above, in the first embodiment, there is a case where there is a difference in a plurality of acoustic conditions between the environment in which the voice data for voice recognition is created and the environment in which the voice data for learning is created. Also, it is possible to generate a feature amount corresponding to each acoustic condition. Thus, according to the first embodiment, the accuracy of the speech recognition model can be improved in consideration of a plurality of acoustic conditions.

また、認識部24は、音声認識モデル31を用いて音声認識を行う。このとき、抽出部21は、所定の環境における音声を基に作成された音声認識用の音声データから、第1の入力特徴量、および第2の入力特徴量を抽出する。そして、計算部22は、条件特徴量計算モデル32に第2の入力特徴量を入力し、条件特徴量を計算する。そして、計算部22は、適応特徴量計算モデル33に第1の入力特徴量および条件特徴量を入力し、適応特徴量を計算する。そして、認識部24は、音声認識モデル31に適応特徴量を入力して得られた出力結果を基に、音声の認識を行う。これにより、複数の音響条件を考慮した、音声認識モデルを用いた音声認識を行うことができる。   The recognition unit 24 performs voice recognition using the voice recognition model 31. At this time, the extraction unit 21 extracts a first input feature and a second input feature from voice data for voice recognition created based on voice in a predetermined environment. Then, the calculation unit 22 inputs the second input feature value to the condition feature value calculation model 32 and calculates the condition feature value. Then, the calculation unit 22 inputs the first input feature value and the condition feature value to the adaptive feature value calculation model 33, and calculates the adaptive feature value. Then, the recognition unit 24 performs speech recognition based on an output result obtained by inputting the adaptive feature amount to the speech recognition model 31. This makes it possible to perform speech recognition using the speech recognition model in consideration of a plurality of acoustic conditions.

また、抽出部21は、第1の入力特徴量と、雑音抑圧処理が行われた音声データの音声の特徴を示す特徴量と、の差を基に特徴量を計算し、計算した特徴量を第2の入力特徴量として抽出してもよい。これにより、雑音に基づく音響条件を考慮した音声認識を行うことができるようになる。   Further, the extraction unit 21 calculates a feature value based on a difference between the first input feature value and a feature value indicating a voice feature of the voice data on which the noise suppression processing has been performed, and calculates the calculated feature value. You may extract as a 2nd input feature-value. This makes it possible to perform speech recognition in consideration of acoustic conditions based on noise.

ここで、従来の技術と第1の実施形態との音声認識精度の比較結果について説明する。比較対象の従来の技術は、音響条件への適応を行わないベースラインである従来技術1(DNN)、および、1つの条件に対する適応のみ行う従来技術2(LIN)である。なお、LINは、linear input networkの略称である。また、本発明の技術をFactorizeLINとよぶ。   Here, a comparison result of the speech recognition accuracy between the conventional technique and the first embodiment will be described. The conventional technologies to be compared are Conventional Technology 1 (DNN), which is a baseline without adaptation to acoustic conditions, and Conventional Technology 2 (LIN), which adapts only to one condition. LIN is an abbreviation for linear input network. Further, the technology of the present invention is called FactorizeLIN.

表1は、従来技術1、従来技術2および本発明を用いて、音声認識タスクCHIME 3に対し音声認識を行った際の単語誤り率を示している。なお、従来技術2および本発明の音響環境への適応は教師なし適応により行った。表1に示すように、本発明は、従来技術1および2のいずれよりも単語誤り率が小さくなった。これより、本発明は、従来技術1および2と比較して音声認識精度が高いといえる。   Table 1 shows a word error rate when speech recognition is performed on the speech recognition task CTIME 3 using the related art 1, the related art 2, and the present invention. The adaptation of the prior art 2 and the present invention to the acoustic environment was performed by unsupervised adaptation. As shown in Table 1, in the present invention, the word error rate was smaller than in either of the prior arts 1 and 2. From this, it can be said that the present invention has higher speech recognition accuracy than the prior arts 1 and 2.

Figure 0006646337
Figure 0006646337

[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[System configuration, etc.]
Each component of each device illustrated is a functional concept, and does not necessarily need to be physically configured as illustrated. In other words, the specific mode of distribution / integration of each device is not limited to the illustrated one, and all or a part of each device may be functionally or physically distributed / arbitrarily divided into arbitrary units according to various loads and usage conditions. Can be integrated and configured. Further, all or any part of each processing function performed by each device can be realized by a CPU and a program analyzed and executed by the CPU, or can be realized as hardware by wired logic.

また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。   Further, of the processes described in the present embodiment, all or a part of the processes described as being performed automatically can be manually performed, or the processes described as being performed manually can be performed. All or part can be performed automatically by a known method. In addition, the processing procedures, control procedures, specific names, and information including various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified.

[プログラム]
一実施形態として、音声データ処理装置10は、パッケージソフトウェアやオンラインソフトウェアとして上記の適応および音声認識を実行する音声データ処理プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の音声データ処理プログラムを情報処理装置に実行させることにより、情報処理装置を音声データ処理装置10として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。
[program]
As one embodiment, the audio data processing apparatus 10 can be implemented by installing an audio data processing program that performs the above-described adaptation and audio recognition as package software or online software on a desired computer. For example, the information processing device can be caused to function as the audio data processing device 10 by causing the information processing device to execute the above-described audio data processing program. The information processing device referred to here includes a desktop or notebook personal computer. In addition, the information processing apparatus includes a mobile communication terminal such as a smartphone, a mobile phone, and a PHS (Personal Handyphone System), and a slate terminal such as a PDA (Personal Digital Assistant).

また、音声データ処理システムは、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の適応および音声認識に関するサービスを提供する音声データ処理サーバ装置として実装することもできる。例えば、音声データ処理サーバ装置は、音声データを入力とし、音声認識結果を出力とする音声データ処理サービスを提供するサーバ装置として実装される。この場合、音声データ処理サーバ装置は、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の音声データ処理に関するサービスを提供するクラウドとして実装することとしてもかまわない。   Further, the voice data processing system can be implemented as a voice data processing server device that uses a terminal device used by a user as a client and provides the client with the above-described service related to adaptation and voice recognition. For example, the voice data processing server device is implemented as a server device that provides a voice data processing service that receives voice data as input and outputs voice recognition results. In this case, the audio data processing server device may be implemented as a Web server, or may be implemented as a cloud that provides the services related to the audio data processing by outsourcing.

図10は、プログラムが実行されることにより、第1の実施形態に係る音声データ処理装置が実現されるコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。   FIG. 10 is a diagram illustrating an example of a computer that implements the audio data processing device according to the first embodiment by executing a program. The computer 1000 has, for example, a memory 1010 and a CPU 1020. Further, the computer 1000 has a hard disk drive interface 1030, a disk drive interface 1040, a serial port interface 1050, a video adapter 1060, and a network interface 1070. These components are connected by a bus 1080.

メモリ1010は、ROM(Read Only Memory)1011およびRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。   The memory 1010 includes a ROM (Read Only Memory) 1011 and a RAM 1012. The ROM 1011 stores, for example, a boot program such as a BIOS (Basic Input Output System). The hard disk drive interface 1030 is connected to the hard disk drive 1090. The disk drive interface 1040 is connected to the disk drive 1100. For example, a removable storage medium such as a magnetic disk or an optical disk is inserted into the disk drive 1100. The serial port interface 1050 is connected to, for example, a mouse 1110 and a keyboard 1120. The video adapter 1060 is connected to the display 1130, for example.

ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、音声データ処理装置10の各処理を規定するプログラムは、コンピュータにより実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、音声データ処理装置10における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSDにより代替されてもよい。   The hard disk drive 1090 stores, for example, the OS 1091, the application program 1092, the program module 1093, and the program data 1094. That is, a program that defines each process of the audio data processing device 10 is implemented as a program module 1093 in which codes executable by a computer are described. The program module 1093 is stored in, for example, the hard disk drive 1090. For example, a program module 1093 for executing the same processing as the functional configuration in the audio data processing device 10 is stored in the hard disk drive 1090. Note that the hard disk drive 1090 may be replaced by an SSD.

また、上述した実施形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して実行する。   The setting data used in the processing of the above-described embodiment is stored as the program data 1094 in, for example, the memory 1010 or the hard disk drive 1090. Then, the CPU 1020 reads out the program module 1093 and the program data 1094 stored in the memory 1010 and the hard disk drive 1090 to the RAM 1012 as needed, and executes them.

なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093およびプログラムデータ1094は、ネットワーク(LAN、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093およびプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。   The program module 1093 and the program data 1094 are not limited to being stored in the hard disk drive 1090, but may be stored in, for example, a removable storage medium and read by the CPU 1020 via the disk drive 1100 or the like. Alternatively, the program module 1093 and the program data 1094 may be stored in another computer connected via a network (LAN, WAN (Wide Area Network) or the like). Then, the program module 1093 and the program data 1094 may be read from another computer by the CPU 1020 via the network interface 1070.

10 音声データ処理装置
20 制御部
21 抽出部
22 計算部
23 更新部
24 認識部
30 記憶部
31 音声認識モデル
32 条件特徴量計算モデル
33 適応特徴量計算モデル
211 第1の入力特徴量抽出部
212 第2の入力特徴量抽出部
221 条件特徴量計算部
222 特徴量変換部
223 事後確率計算部
231 エラー計算部
232 微分値計算部
233 パラメータ更新部
234 収束判定部
241 単語列検索部
Reference Signs List 10 voice data processing device 20 control unit 21 extraction unit 22 calculation unit 23 update unit 24 recognition unit 30 storage unit 31 voice recognition model 32 conditional feature calculation model 33 adaptive feature calculation model 211 first input feature extraction unit 212 first Input feature amount extraction unit 221 Condition feature amount calculation unit 222 Feature amount conversion unit 223 Posterior probability calculation unit 231 Error calculation unit 232 Differential value calculation unit 233 Parameter update unit 234 Convergence determination unit 241 Word string search unit

Claims (5)

所定の環境における音声を基に作成された適応用の音声データから、前記音声の特徴を示す特徴量である第1の入力特徴量、および前記第1の入力特徴量と、雑音抑圧処理が行われた前記音声データの音声の特徴を示す特徴量と、の差を基に計算された第2の入力特徴量を抽出する抽出部と、
ニューラルネットワークを用いた計算モデルである条件特徴量計算モデルに前記第2の入力特徴量を入力し、前記所定の環境を特徴付ける複数の条件のそれぞれに対応した要素を含んだ特徴量である条件特徴量を計算する条件特徴量計算部と、
前記条件特徴量に含まれる複数の要素のそれぞれに対応したパラメータの組を含んだ計算モデルである適応特徴量計算モデルに前記第1の入力特徴量および前記条件特徴量を入力し、前記要素ごとに、ニューラルネットワークを用いた計算モデルである音声認識モデルに適応した特徴量である適応特徴量を計算する適応特徴量計算部と、
前記音声認識モデルに前記適応特徴量を入力して得られた出力結果を基に、前記条件特徴量計算モデルのパラメータおよび前記適応特徴量計算モデルのパラメータの更新を行う更新部と、
を有することを特徴とする音声データ処理装置。
A first input feature value, which is a feature value indicating the feature of the voice, and the first input feature value, and a noise suppression process are performed from the voice data for adaptation created based on the voice in a predetermined environment. An extraction unit that extracts a second input feature value calculated based on a difference between a feature value indicating a feature of a voice of the obtained voice data ,
The second input feature value is input to a condition feature value calculation model, which is a calculation model using a neural network, and the condition feature is a feature value including an element corresponding to each of the plurality of conditions characterizing the predetermined environment. A condition feature quantity calculation unit for calculating the quantity,
The first input feature amount and the condition feature amount are input to an adaptive feature amount calculation model, which is a calculation model including a set of parameters corresponding to each of a plurality of elements included in the condition feature amount, and An adaptive feature calculator that calculates an adaptive feature that is a feature adapted to a speech recognition model that is a calculation model using a neural network;
An update unit that updates parameters of the conditional feature calculation model and parameters of the adaptive feature calculation model based on an output result obtained by inputting the adaptive feature to the speech recognition model;
An audio data processing device comprising:
前記音声認識モデルを用いて音声認識を行う認識部をさらに有し、
前記抽出部は、所定の環境における音声を基に作成された音声認識用の音声データから、前記第1の入力特徴量、および前記第2の入力特徴量を抽出し、
前記条件特徴量計算部は、前記条件特徴量計算モデルに前記第2の入力特徴量を入力し、前記条件特徴量を計算し、
前記適応特徴量計算部は、前記適応特徴量計算モデルに前記第1の入力特徴量および前記条件特徴量を入力し、前記適応特徴量を計算し、
前記認識部は、前記音声認識モデルに前記適応特徴量を入力して得られた出力結果を基に、音声の認識を行うことを特徴とする請求項1に記載の音声データ処理装置。
Further comprising a recognition unit that performs voice recognition using the voice recognition model,
The extraction unit extracts the first input feature and the second input feature from voice data for voice recognition created based on voice in a predetermined environment,
The condition feature value calculation unit inputs the second input feature value to the condition feature value calculation model, calculates the condition feature value,
The adaptive feature value calculation unit inputs the first input feature value and the condition feature value to the adaptive feature value calculation model, calculates the adaptive feature value,
The speech data processing device according to claim 1, wherein the recognition unit performs speech recognition based on an output result obtained by inputting the adaptive feature amount to the speech recognition model.
音声データ処理装置で実行される音声データ処理方法であって、
所定の環境における音声を基に作成された適応用の音声データから、前記音声の特徴を示す特徴量である第1の入力特徴量、および前記第1の入力特徴量と、雑音抑圧処理が行われた前記音声データの音声の特徴を示す特徴量と、の差を基に計算された第2の入力特徴量を抽出する抽出工程と、
ニューラルネットワークを用いた計算モデルである条件特徴量計算モデルに前記第2の入力特徴量を入力し、前記所定の環境を特徴付ける複数の条件のそれぞれに対応した要素を含んだ特徴量である条件特徴量を計算する条件特徴量計算工程と、
前記条件特徴量に含まれる複数の要素のそれぞれに対応したパラメータの組を含んだ計算モデルである適応特徴量計算モデルに前記第1の入力特徴量および前記条件特徴量を入力し、前記要素ごとに、ニューラルネットワークを用いた計算モデルである音声認識モデルに適応した特徴量である適応特徴量を計算する適応特徴量計算工程と、
前記音声認識モデルに前記適応特徴量を入力して得られた出力結果を基に、前記条件特徴量計算モデルのパラメータおよび前記適応特徴量計算モデルのパラメータの更新を行う更新工程と、
を含んだことを特徴とする音声データ処理方法。
An audio data processing method executed by the audio data processing device,
A first input feature value, which is a feature value indicating the feature of the voice, and the first input feature value, and a noise suppression process are performed from the voice data for adaptation created based on the voice in a predetermined environment. An extraction step of extracting a second input feature amount calculated based on a difference between a feature amount indicating a feature of a voice of the obtained voice data ,
The second input feature value is input to a condition feature value calculation model, which is a calculation model using a neural network, and the condition feature is a feature value including an element corresponding to each of the plurality of conditions characterizing the predetermined environment. A condition feature amount calculating step of calculating the amount,
The first input feature amount and the condition feature amount are input to an adaptive feature amount calculation model, which is a calculation model including a set of parameters corresponding to each of a plurality of elements included in the condition feature amount, and An adaptive feature amount calculating step of calculating an adaptive feature amount which is a feature amount adapted to a speech recognition model which is a calculation model using a neural network;
An updating step of updating the parameters of the conditional feature calculation model and the parameters of the adaptive feature calculation model based on an output result obtained by inputting the adaptive feature to the speech recognition model;
A voice data processing method comprising:
前記音声認識モデルを用いて音声認識を行う認識工程をさらに含み、
前記抽出工程は、所定の環境における音声を基に作成された音声認識用の音声データから、前記第1の入力特徴量、および前記第2の入力特徴量を抽出し、
前記条件特徴量計算工程は、前記条件特徴量計算モデルに前記第2の入力特徴量を入力し、前記条件特徴量を計算し、
前記適応特徴量計算工程は、前記適応特徴量計算モデルに前記第1の入力特徴量および前記条件特徴量を入力し、前記適応特徴量を計算し、
前記認識工程は、前記音声認識モデルに前記適応特徴量を入力して得られた出力結果を基に、音声の認識を行うことを特徴とする請求項に記載の音声データ処理方法。
The method further includes a recognition step of performing voice recognition using the voice recognition model,
The extracting step extracts the first input feature and the second input feature from voice data for voice recognition created based on voice in a predetermined environment,
The condition feature value calculation step is to input the second input feature value to the condition feature value calculation model, calculate the condition feature value,
The adaptive feature value calculating step includes inputting the first input feature value and the condition feature value to the adaptive feature value calculation model, calculating the adaptive feature value,
The speech data processing method according to claim 3 , wherein the recognition step performs speech recognition based on an output result obtained by inputting the adaptive feature amount to the speech recognition model.
請求項1または2に記載の音声データ処理装置としてコンピュータを機能させる音声データ処理プログラム。 An audio data processing program that causes a computer to function as the audio data processing device according to claim 1.
JP2016161849A 2016-08-22 2016-08-22 Audio data processing device, audio data processing method, and audio data processing program Active JP6646337B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016161849A JP6646337B2 (en) 2016-08-22 2016-08-22 Audio data processing device, audio data processing method, and audio data processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016161849A JP6646337B2 (en) 2016-08-22 2016-08-22 Audio data processing device, audio data processing method, and audio data processing program

Publications (2)

Publication Number Publication Date
JP2018031812A JP2018031812A (en) 2018-03-01
JP6646337B2 true JP6646337B2 (en) 2020-02-14

Family

ID=61302985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016161849A Active JP6646337B2 (en) 2016-08-22 2016-08-22 Audio data processing device, audio data processing method, and audio data processing program

Country Status (1)

Country Link
JP (1) JP6646337B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7274441B2 (en) * 2020-04-02 2023-05-16 日本電信電話株式会社 LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM
KR102421488B1 (en) 2020-04-08 2022-07-15 엘지전자 주식회사 An artificial intelligence apparatus using multi version classifier and method for the same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6506074B2 (en) * 2015-03-30 2019-04-24 日本電信電話株式会社 Acoustic model learning device, speech recognition device, acoustic model learning method, speech recognition method and program
JP6637078B2 (en) * 2016-02-02 2020-01-29 日本電信電話株式会社 Acoustic model learning device, acoustic model learning method and program

Also Published As

Publication number Publication date
JP2018031812A (en) 2018-03-01

Similar Documents

Publication Publication Date Title
JP6637078B2 (en) Acoustic model learning device, acoustic model learning method and program
JP6671020B2 (en) Dialogue act estimation method, dialogue act estimation device and program
JP6222821B2 (en) Error correction model learning device and program
JP6831343B2 (en) Learning equipment, learning methods and learning programs
US8494847B2 (en) Weighting factor learning system and audio recognition system
JP2017058877A (en) Learning device, voice detection device, learning method, and program
JP7209330B2 (en) classifier, trained model, learning method
JP2016188944A (en) Acoustic model learning apparatus, voice recognition equipment, acoustic model learning method, voice recognition method, acoustic model learning program and voice recognition program
JP2017228272A (en) Semantic generation method, semantic generation device, and program
JP7329393B2 (en) Audio signal processing device, audio signal processing method, audio signal processing program, learning device, learning method and learning program
JP6646337B2 (en) Audio data processing device, audio data processing method, and audio data processing program
JP6910002B2 (en) Dialogue estimation method, dialogue activity estimation device and program
Chen et al. Acoustic data-driven pronunciation lexicon generation for logographic languages
JP6158105B2 (en) Language model creation device, speech recognition device, method and program thereof
JP4964194B2 (en) Speech recognition model creation device and method thereof, speech recognition device and method thereof, program and recording medium thereof
JP4950600B2 (en) Acoustic model creation apparatus, speech recognition apparatus using the apparatus, these methods, these programs, and these recording media
JP6612796B2 (en) Acoustic model learning device, speech recognition device, acoustic model learning method, speech recognition method, acoustic model learning program, and speech recognition program
JP6235922B2 (en) Weighted finite state automaton creation device, symbol string conversion device, speech recognition device, method and program thereof
JP5308102B2 (en) Identification score / posterior probability calculation method by number of errors, error number weighted identification learning device using the method, method thereof, speech recognition device using the device, program, and recording medium
JP2021039216A (en) Speech recognition device, speech recognition method and speech recognition program
JP6078435B2 (en) Symbol string conversion method, speech recognition method, apparatus and program thereof
WO2023181223A1 (en) Speech recognition method, speech recognition device, and speech recognition program
JP2019032408A (en) Acoustic model learning device, voice recognition device, acoustic model learning method, voice recognition method, and program
JP4571921B2 (en) Acoustic model adaptation apparatus, acoustic model adaptation method, acoustic model adaptation program, and recording medium thereof
Moattar et al. Variational conditional random fields for online speaker detection and tracking

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20160831

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200109

R150 Certificate of patent or registration of utility model

Ref document number: 6646337

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150