JP2021135313A - Collation device, collation method, and collation program - Google Patents
Collation device, collation method, and collation program Download PDFInfo
- Publication number
- JP2021135313A JP2021135313A JP2020028867A JP2020028867A JP2021135313A JP 2021135313 A JP2021135313 A JP 2021135313A JP 2020028867 A JP2020028867 A JP 2020028867A JP 2020028867 A JP2020028867 A JP 2020028867A JP 2021135313 A JP2021135313 A JP 2021135313A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- audio signal
- speaker
- collation
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 31
- 238000013459 approach Methods 0.000 claims abstract description 17
- 230000005236 sound signal Effects 0.000 claims description 103
- 238000013528 artificial neural network Methods 0.000 claims description 59
- 239000013598 vector Substances 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 7
- 238000012795 verification Methods 0.000 abstract description 6
- 238000012545 processing Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 238000002474 experimental method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、照合装置、照合方法、および、照合プログラムに関する。 The present invention relates to a collation device, a collation method, and a collation program.
発話内容が異なる2つの音声発話が、同じ話者による音声か異なる話者による音声かを識別する話者照合のタスクは、音声認識を活用した自動議事録作成システムや、音声による認証等への応用が期待される。 The task of speaker verification to identify whether two voice utterances with different utterances are voices of the same speaker or voices of different speakers is to be assigned to an automatic minutes creation system utilizing voice recognition, voice authentication, etc. Expected to be applied.
話者照合では、まず、入力音声および予め登録された照合用音声それぞれの特徴量(話者ベクトル)を抽出し、抽出した特徴量の類似度に基づいて、2つの音声発話が同じ話者による音声か、異なる話者による音声かを判定する。 In speaker matching, first, the feature amounts (speaker vectors) of the input voice and the pre-registered matching voice are extracted, and based on the similarity of the extracted feature amounts, the two voice utterances are made by the same speaker. Determine if it is voice or voice from a different speaker.
上記の話者照合と同様に、話者ベクトルを利用するタスクとして、話者認識が知られている。話者認識は、学習用に与えられた複数話者の音声から話者ベクトルを抽出し、その話者ベクトルを分類するモデルを学習させておき、学習後のモデルを用いて、入力された音声信号がどの話者によるものかを認識する。 Similar to the above speaker verification, speaker recognition is known as a task that uses the speaker vector. In speaker recognition, a speaker vector is extracted from the voices of a plurality of speakers given for learning, a model for classifying the speaker vectors is trained, and the input voice is used using the model after learning. Recognize which speaker the signal is from.
近年、ニューラルネットワーク(以下、適宜NNと略す)を用いた話者認識技術として、セグメント単位(発話単位)の話者認識の手法(非特許文献1参照)が知られている。上記の手法は、音声信号を話者ベクトルに変換するNNに、話者認識のNNと音素認識を行うNNとを連結し、話者認識NNの出力と音素認識NNの出力との両方が教師データに近づくように各NNのパラメータを同時に学習させる手法である。この手法によれば、話者認識性能が従来よりも高くなることが開示されている。 In recent years, as a speaker recognition technique using a neural network (hereinafter, abbreviated as NN as appropriate), a method of speaker recognition in segment units (utterance units) (see Non-Patent Document 1) has been known. In the above method, a speaker recognition NN and a phoneme recognition NN are connected to a NN that converts a voice signal into a speaker vector, and both the speaker recognition NN output and the phoneme recognition NN output are teachers. This is a method of learning the parameters of each NN at the same time so as to approach the data. According to this method, it is disclosed that the speaker recognition performance is higher than before.
ここで、例えば、スマートスピーカを経由した音声による機器操作等においては、非常に短時間の発話から発話者の照合を行うことが要求される場合がある。非特許文献1等に記載の手法は、発話単位で話者ベクトルを抽出し、話者認識を行うことを前提とした手法であるので、充分に長い時間の発話については話者認識の性能が高まる一方で、短時間の発話については話者認識の性能が低下するという問題があった。そこで、本発明は、前記した問題を解決し、短時間の発話について話者照合の精度を向上させることを課題とする。
Here, for example, in device operation by voice via a smart speaker, it may be required to collate the speaker from a very short utterance. Since the method described in
前記した課題を解決するため、本発明は、音声信号をフレームごとの特徴量に変換する第1のニューラルネットワークと、変換された前記フレームの特徴量に基づき当該フレームの話者の認識結果を出力する第2のニューラルネットワークとを備えた第1のモデルと、前記第1のモデルに第1の音声信号と第2の音声信号とを入力する入力部と、前記第1のモデルにおける、前記第2のニューラルネットワークの中間層または前記第1のニューラルネットワークから出力される、前記第1の音声信号および前記第2の音声信号それぞれの特徴量に基づき、前記第1の音声信号の話者が、前記第2の音声信号の話者と同じか否かを示す照合結果を出力する照合部とを備え、前記第1のモデルは、前記第1のニューラルネットワークと、前記第2のニューラルネットワークと、前記第1のニューラルネットワークで変換された前記フレームの特徴量に基づき当該フレームの音素の認識結果を出力する第3のニューラルネットワークとを備える第2のモデルについて、学習用の音声信号と、前記学習用の音声信号の話者および当該音声信号に含まれる音素の正解データとを対応付けた教師データに基づき前記第2のモデルの学習を行う際、前記第2のニューラルネットワークによる出力結果は前記正解データに近づき、前記第3のニューラルネットワークによる出力結果は前記正解データに近づかないように学習させたものであることを特徴とする。 In order to solve the above-mentioned problems, the present invention outputs a first neural network that converts an audio signal into a feature amount for each frame, and outputs a recognition result of a speaker of the frame based on the converted feature amount of the frame. A first model including a second neural network to be used, an input unit for inputting a first voice signal and a second voice signal to the first model, and the first model in the first model. Based on the feature quantities of the first voice signal and the second voice signal output from the intermediate layer of the two neural networks or the first neural network, the speaker of the first voice signal The first model includes the first neural network, the second neural network, and a collation unit that outputs a collation result indicating whether or not the second voice signal is the same as the speaker. Regarding a second model including a third neural network that outputs a recognition result of a phonetic element of the frame based on the feature amount of the frame converted by the first neural network, an audio signal for learning and the learning When training the second model based on the teacher data associated with the speaker of the voice signal for use and the correct answer data of the phonemes contained in the voice signal, the output result by the second neural network is the correct answer. It is characterized in that the data is approached and the output result by the third neural network is trained so as not to approach the correct answer data.
本発明によれば、短時間の発話について話者照合の精度を向上させることができる。 According to the present invention, it is possible to improve the accuracy of speaker collation for short-time utterances.
以下、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。本発明は、以下に説明する実施形態に限定されない。 Hereinafter, embodiments (embodiments) for carrying out the present invention will be described with reference to the drawings. The present invention is not limited to the embodiments described below.
[構成]
図1を用いて本実施形態の照合装置の構成例を説明する。照合装置10は、入力部11と、出力部12と、記憶部13と、制御部14とを備える。
[composition]
A configuration example of the collation device of the present embodiment will be described with reference to FIG. The
入力部11は、制御部14が各種処理を行う際に用いるデータの入力を受け付ける。例えば、入力部11は、話者認識モデル(話者認識部141)の学習に用いる教師データの入力を受け付ける。出力部12は、制御部14が行った処理の結果を出力する。例えば、出力部12は、照合部146による音声の話者の照合結果等を出力する。
The input unit 11 receives input of data used when the
記憶部13は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、照合装置10を動作させるプログラムや、当該プログラムの実行中に使用されるデータなどが記憶される。例えば、記憶部13は、話者認識部141の学習に用いる教師データを記憶する。また、記憶部13は、話者認識部141に設定されるパラメータの値等を記憶する。
The
教師データは、複数の話者の音声信号について、当該音声信号の示す音素および当該音声信号の話者(正解データ)を対応付けたデータである。この教師データは、学習部145が話者認識部141の各NNの学習を行う際に用いられる。
The teacher data is data in which the phonemes indicated by the audio signals and the speakers (correct answer data) of the audio signals are associated with the audio signals of a plurality of speakers. This teacher data is used when the
制御部14は、照合装置10全体の制御を司る。制御部14は、例えば、話者認識部141の学習等を行う。
The
制御部14は、話者認識部141と、学習部145と、照合部146とを備える。
The
話者認識部141は、話者認識モデルに基づき、入力された音声データの話者の認識を行う。話者認識部141は、第1のNN142と、第2のNN143と、第3のNN144とを備える。
The speaker recognition unit 141 recognizes the speaker of the input voice data based on the speaker recognition model. The speaker recognition unit 141 includes a
第1のNN142は、入力された音声信号を、当該音声信号を構成するフレームごとの中間特徴量に変換する。なお、フレームの長さは、例えば、10msである。
The
第2のNN143は、第1のNN142から出力されたフレーム単位の中間特徴量に基づき、各フレームの話者の認識を行い、各フレームの話者の認識結果を出力する。例えば、第2のNN143は、第1のNN142から出力されたフレーム単位の中間特徴量に基づき、各フレームの話者がどの話者であるかを推定し、推定した話者のIDを出力する。
The second NN 143 recognizes the speaker of each frame based on the intermediate feature amount of each frame output from the
第3のNN144は、第1のNN142から出力されたフレーム単位の中間特徴量に基づき、各フレームの音素の認識を行い、各フレームの音素の認識の結果を出力する。
The third NN 144 recognizes the phonemes of each frame based on the intermediate feature amount of each frame output from the
学習部145は、教師データを用いて話者認識部141を構成する第1のNN142、第2のNN143および第3のNN144の学習を行う。学習部145は、更新部1451と更新制御部1452とを備える。
The
更新部1451は、教師データを用いて話者認識部141を構成する第1のNN142、第2のNN143および第3のNN144それぞれのパラメータを更新する。例えば、更新部1451は、第2のNN143の出力と教師データにおける正解データとの損失(距離)が小さくなり、かつ、第3のNN144の出力と教師データにおける正解データとの損失(距離)が大きくなるように、各NNのパラメータを更新する。更新された各NNのパラメータの値は、例えば、記憶部13に記憶される。
The
例えば、更新部1451は、第2のNN143の出力と正解データとの損失(Ls)と、第3のNN144の出力と正解データとの損失(Lp)とを用いて、以下の式(1)に基づき更新対象のパラメータθfを更新する。
For example, the
式(1)において、μとλは予め設定する学習重みであり、いずれも正の定数である。更新部1451が、上記の式(1)に基づき、パラメータを更新すると、結果として、パラメータは、Lsに対して減少し、Lpに対して増加する値で更新されることになる。
In equation (1), μ and λ are preset learning weights, both of which are positive constants. When the
更新制御部1452は、所定の条件を満たすまで、教師データを用いた第1のNN142、第2のNN143および第3のNN144による演算と、当該演算の結果に基づく更新部1451による各NNのパラメータの更新処理とを繰り返し実行させる。なお、上記の所定の条件は、例えば、各NNのパラメータの更新回数が所定の繰り返し回数に達したこと、各NNのパラメータの更新量が所定の閾値未満となったこと等である。所定の条件は、各NNの学習が充分に行われた状態になったことを示す条件であれば、上記の条件に限定されない。
The
照合部146は、入力された音声信号の話者の照合を行う。例えば、照合部146は、学習部145による学習後の話者認識部141の第2のNN143の中間層から出力される特徴量を用いて、入力された音声信号の話者の照合を行う。
The
上記の話者の照合処理を、図2を用いて説明する。なお、図2に示す第1のNN142および第2のNN143は、学習部145による学習後の話者認識部141における第1のNN142および第2のNN143である。まず、第1のNN142は、入力部11(図1参照)経由で入力された音声信号(第1の音声信号)についてフレーム単位で中間特徴量に変換する。また、第1のNN142は、入力部11経由で入力された照合用の音声信号(第2の音声信号)についてフレーム単位で中間特徴量に変換する。
The above speaker collation process will be described with reference to FIG. The
第2のNN143は、第1のNN142から出力された、入力された音声信号の中間特徴量に基づき、入力された音声信号の話者の識別処理を行う。また、第2のNN143は、第1のNN142から出力された、照合用の音声信号の中間特徴量に基づき、照合用の音声信号の話者の識別処理を行う。
The
ここで、照合部146は、上記の第2のNN143の中間層が出力する、入力された音声信号の特徴量と照合用の音声信号の特徴量とを取得する。このとき、入力された音声信号が複数のフレームからなる場合、照合部146は、上記の入力された音声信号の特徴量の平均ベクトルと照合用の音声信号の特徴量の平均ベクトルを算出し、それをそれぞれの音声信号の特徴量とする。そして、照合部146は、入力された音声信号の特徴量と、照合用の音声信号の特徴量との類似度に基づいて、入力された音声信号の話者と照合用音声信号の話者とが同じであるか否かを示す照合結果を出力する。例えば、上記の類似度が所定の閾値以上であれば、照合部146は、入力された音声信号の話者が、照合用の音声信号の話者と同じであると判定する。一方、類似度が所定の閾値未満であれば、照合部146は、入力された音声信号の話者が、照合用の音声信号の話者とは異なると判定する。そして、照合部146は、上記の判定結果を照合結果として出力する。
Here, the collating
[処理手順]
次に、図3および図4を用いて、照合装置10の処理手順を説明する。まず、照合装置10は、教師データを用いて話者認識モデルの学習を行う(S1)。つまり、照合装置10の学習部145は、教師データを用いて、話者認識部141の第2のNN143の出力と、教師データにおける正解データとの損失が小さくなり、かつ、話者認識部141の第3のNN144の出力と教師データにおける正解データとの損失が大きくなるように、話者認識部141の各NNのパラメータを更新する。その後、照合装置10は、学習後の話者認識モデルを用いた話者の照合を行う(S2)。例えば、照合装置10の照合部146は、学習後の話者認識部141における第2のNN143の中間層から出力される特徴量を用いて、話者の照合を行う。
[Processing procedure]
Next, the processing procedure of the collating
図4を用いて、図3のS2における話者の照合処理を詳細に説明する。例えば、学習後の話者認識部141は、入力部11経由で入力された音声信号と照合用の音声信号の入力を受け付ける(図4のS21)。その後、学習後の話者認識部141の第1のNN142は、入力された音声信号の中間特徴量を出力し、また、照合用の音声信号の中間特徴量を出力する。次に、学習後の話者認識部141の第2のNN143は、第1のNN142から出力された、入力された音声信号の中間特徴量に基づき、入力された音声信号の話者の認識処理を行う。また、第2のNN143は、第1のNN142から出力された照合用の音声信号の中間特徴量に基づき、照合用の音声信号の話者の認識処理を行う。ここで、照合部146は、第2のNN143が上記の話者の認識処理を行う際、第2のNN143の中間層から出力される、入力された音声信号の特徴量および照合用の音声信号の特徴量を取得する(S22)。
The collation process of the speaker in S2 of FIG. 3 will be described in detail with reference to FIG. For example, the speaker recognition unit 141 after learning receives the input of the audio signal input via the input unit 11 and the audio signal for collation (S21 in FIG. 4). After that, the
S22の後、照合部146は、S22で取得した、入力された音声信号の特徴量と照合用の音声信号との類似度を計算する(S23)。そして、計算した類似度が所定の閾値以上であれば(S24でYes)、照合部146は、入力された音声信号の話者は照合用の音声信号の話者と同じと判定し、その判定の結果を出力する(S25)。一方、計算した類似度が所定の閾値未満であれば(S24でNo)、照合部146は、入力された音声信号の話者は照合用の音声信号の話者とは異なると判定し、その判定の結果を出力する(S26)。
After S22, the
このようにすることで、照合装置10は、学習後の話者認識部141の第2のNN143の中間層から出力される特徴量を用いて、話者照合を行うことができる。
By doing so, the
[その他の実施形態]
なお、照合部146は、学習後の話者認識部141の第2のNN143の中間層から出力された音声信号の特徴量を用いて話者照合を行うこととしたがこれに限定されない。例えば、図1の破線矢印に示すように学習後の話者認識部141の第1のNN142から出力された音声信号の特徴量を用いて話者照合を行ってもよい。
[Other Embodiments]
It should be noted that the
また、照合装置10で学習された話者認識部141の第1のNN142および第2のNN143は、当該照合装置10により用いられてもよいし、他の装置により用いられてもよい。
Further, the
例えば、照合装置10で学習された第1のNN142および第2のNN143が、他の照合装置において用いられる場合、例えば、図5に示す構成となる。
For example, when the
図5に示す照合装置100は、入力部11と、出力部12と、制御部14aとを備える。制御部14aは、照合装置10により学習された第1のNN142および第2のNN143と、照合部146とを備える。
The collation device 100 shown in FIG. 5 includes an input unit 11, an output unit 12, and a control unit 14a. The control unit 14a includes a
照合装置100の入力部11において入力された音声信号と、照合用の音声信号とを受け付けると、学習後の第1のNN142がそれぞれの音声信号の特徴量を出力し、第2のNN143は第1のNN142から出力された音声信号の特徴量に基づき、それぞれの音声信号の話者の認識処理を行う。ここで照合部146は、第2のNN143が音声信号の話者の認識処理を行う際、当該第2のNN143の中間層から出力される音声信号の特徴量を用いて、入力された音声信号の話者が、照合用の音声信号の話者と同じか否かの照合を行う。そして、照合部146は照合の結果を出力部12へ出力する。
When the audio signal input by the input unit 11 of the collation device 100 and the audio signal for collation are received, the
上記のように学習後の第1のNN142および第2のNN143を照合装置100が用いる場合、照合装置10は照合部146を含まない構成としてもよい。
When the collation device 100 uses the
[効果]
照合装置10が学習対象とする話者認識部141のNNの構成は、非特許文献1に記載のNNと同様に、音声信号を中間特徴量に変換するNN(第1NN)に、話者認識のNN(第2NN)と音素認識を行うNN(第3NN)とを連結したものである。しかし、照合装置10が学習対象とする話者認識部141と非特許文献1とでは、以下の点において相違する。
[effect]
Similar to the NN described in
第1に、照合装置10による学習対象の第1のNN142は、セグメント単位の音声信号をフレーム単位で中間特徴量に変換するのに対し、非特許文献1に記載の技術においては、セグメント単位で、つまり、第1のNN142よりも長い単位の音声信号を入力として中間特徴量に変換する点が異なる。
First, the first NN142 to be learned by the
第2に、非特許文献1では、話者認識のNNの出力と音素認識を行うNNの出力とが、いずれも正解データに近づくように学習する。これに対して、照合装置10は、第2のNN143については正解データとの損失(距離)が小さくなるが、第3のNN144と正解データとの損失(距離)が大きくなるように、つまり、音素認識のタスクについては不正解となる方向に、パラメータを学習させる点が異なる。
Second, in
非特許文献1に記載の技術は、話者認識モデルについて話者認識と音素認識の両方が正解データに近づくようにパラメータを学習させる。この結果、学習後の話者認識モデルの第1NNから出力される中間特徴量(話者ベクトル)は、話者認識に適した特徴を含み、かつ、音素認識にも適した特徴を含むようなものが抽出されるようになる。
The technique described in
一方、照合装置10が目的とする話者照合のタスクは、入力される2つの音声信号が同じ話者によるものか否かを判定するタスクであり、これら2つの音声信号の内容が異なることが前提となる。ここで、音声信号の内容が異なるということは、各音声に含まれる「音素が何であるか」という情報は、話者照合においては不要な情報と言える。
On the other hand, the speaker collation task aimed at by the
ところが、非特許文献1に記載の技術は、音素に係る情報が特徴として含まれるように第1NNを学習させてしまう。結果として、非特許文献1に記載の技術は、特に短い発話においては音素の特徴が強く表出され、話者の照合に必要な特徴が充分に得られないため、学習後のモデルの話者認識や話者照合の性能は低下すると考えられる。
However, the technique described in
そこで、照合装置10では、学習部145において、音素の特徴が含まれにくくなるように、話者認識部141の各NNのパラメータを学習させる。これにより、学習後の話者認識部141の第1のNN142および第2のNN143は短い時間区間の発話から、話者の音素に依存しない特性を効率的に抽出することができるようになる。その結果、照合装置10は、話者照合タスクの精度向上に資する中間特徴量の抽出が可能となることが期待できる。
Therefore, in the
[実験結果]
次に、照合装置10により学習された第1のNN142および第2のNN143を用いた話者照合の実験結果を説明する。本実験における実験条件は、図6に示すとおり、教師データの発話者数は、2620人、発話数は2.8M、発話のトータル時間は960hであり、実験データの発話者数は、40人、発話数は2.6k、発話のトータル時間は5.3hである。それぞれのデータの特徴量は13次元のMFCCであり、音素は39音素である。また、評価方法は、各発話の音素セグメントの話者ベクトルを算出し、得られた話者ベクトル同士の類似度をProbabilistic Linear Discriminant Analysis(PLDA)で算出した。また、話者照合の精度はEqual Error Rate(EER)で評価した。
[Experimental result]
Next, the experimental results of speaker collation using the
図7および図8に実験結果を示す。なお、以下における「マルチタスク学習」とは、話者認識モデルにおける、話者認識を行うNNおよび音素認識を行うNNそれぞれの出力データが教師データの示す正解データに近づくように学習を行うことである。また、「敵対的学習」とは、話者認識モデルにおける、話者認識を行うNNの出力データは教師データの示す正解データに近づくように学習するが、音素認識を行うNNの出力データは教師データの示す正解データに近づかないように学習することである。 The experimental results are shown in FIGS. 7 and 8. In the following, "multi-task learning" means learning so that the output data of each of the speaker recognition NN and the phoneme recognition NN in the speaker recognition model approaches the correct answer data indicated by the teacher data. be. In addition, "hostile learning" means that in the speaker recognition model, the output data of the NN that performs speaker recognition is learned so as to approach the correct answer data indicated by the teacher data, but the output data of the NN that performs phonetic recognition is the teacher. It is to learn so as not to approach the correct answer data indicated by the data.
本実験では比較例として、図7の(1)〜(4)に示す話者認識モデルのNNを用いて話者照合を行った。なお、話者認識モデルはいずれも、音声信号から中間特徴量を出力するNN、当該中間特徴量に基づき話者認識を行うNNおよび当該音素認識を行うNNを備えるものとする。また、(5)フレーム単位で処理を行うNNに敵対的学習を実施(FRM-AT)は、本実施形態の照合装置10による学習を実施したモデルに相当する。
In this experiment, as a comparative example, speaker matching was performed using the NN of the speaker recognition model shown in FIGS. 7 (1) to (4). It should be noted that each speaker recognition model includes an NN that outputs an intermediate feature amount from an audio signal, an NN that performs speaker recognition based on the intermediate feature amount, and an NN that performs the phoneme recognition. Further, (5) hostile learning to the NN that performs processing in frame units (FRM-AT) corresponds to a model in which learning is performed by the collating
(1)セグメント(発話)単位で処理を行うNNにマルチタスク学習を実施(SEG-MT)
(2)セグメント単位で処理を行うNNに敵対的学習を実施(SEG-AT)
(3)フレーム単位で処理を行うNN(FRM)
(4)フレーム単位で処理を行うNNにマルチタスク学習を実施(FRM-MT)
(1) Multitask learning is performed on NNs that process in segment (utterance) units (SEG-MT)
(2) Conduct hostile learning to NNs that process segment by segment (SEG-AT)
(3) NN (FRM) that processes on a frame-by-frame basis
(4) Multitask learning is performed on NNs that process on a frame-by-frame basis (FRM-MT)
図7に示すように、セグメント単位で処理を行うNNを備えるモデルよりも、フレーム単位で処理を行うNNを備えるモデルの方が、フレーム単位での話者照合の精度が高くなることが確認できた。また、フレーム単位で処理を行うNNに対し、マルチタスク学習を行うよりも、敵対的学習を行った方が、フレーム単位の話者照合が高くなることが確認できた。 As shown in FIG. 7, it can be confirmed that the accuracy of speaker matching on a frame-by-frame basis is higher in the model having an NN that processes on a frame-by-frame basis than on the model having an NN that performs processing on a segment-by-segment basis. rice field. In addition, it was confirmed that for NNs that perform processing in frame units, speaker matching in frame units is higher when hostile learning is performed than when multitask learning is performed.
また、照合対象の音声信号の発話長と、上記の(1)〜(5)に示すモデルによる話者照合の精度との関係を、図8に示す。図8に示すように、発話長が1400ms以下の発話について、(5)フレーム単位のNNに敵対的学習を実施したモデル(FRM-AT)の方が、(1)〜(4)に示すモデルによりも話者照合の精度が高いことが確認できた。 Further, FIG. 8 shows the relationship between the utterance length of the audio signal to be collated and the accuracy of speaker collation by the models shown in (1) to (5) above. As shown in FIG. 8, for utterances with a utterance length of 1400 ms or less, (5) the model (FRM-AT) in which hostile learning is performed on the NN in frame units is the model shown in (1) to (4). It was also confirmed that the accuracy of speaker verification was high.
[プログラム]
図9を用いて、上記のプログラム(照合プログラム)を実行するコンピュータの一例を説明する。図9に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
[program]
An example of a computer that executes the above program (verification program) will be described with reference to FIG. As shown in FIG. 9, the
メモリ1010は、ROM(Read Only Memory)1011およびRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。ディスクドライブ1100には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。
The
ここで、図9に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。前記した実施形態で説明した記憶部13は、例えばハードディスクドライブ1090やメモリ1010に装備される。
Here, as shown in FIG. 9, the hard disk drive 1090 stores, for example, the
そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
Then, the
なお、上記の照合プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、上記のプログラムに係るプログラムモジュール1093やプログラムデータ1094は、LANやWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
The
10 照合装置
11 入力部
12 出力部
13 記憶部
14 制御部
141 話者認識部
142 第1のNN
143 第2のNN
144 第3のNN
145 学習部
146 照合部
1451 更新部
1452 更新制御部
10 Collation device 11 Input unit 12
143 Second NN
144 Third NN
145
Claims (7)
前記第1のモデルにおける、前記第2のニューラルネットワークの中間層または前記第1のニューラルネットワークから出力される、前記第1の音声信号および前記第2の音声信号それぞれの特徴量に基づき、前記第1の音声信号の話者が、前記第2の音声信号の話者と同じか否かを示す照合結果を出力する照合部と
を備え、
前記第1のモデルは、前記第1のニューラルネットワークと、前記第2のニューラルネットワークと、前記第1のニューラルネットワークで変換された前記フレームの特徴量に基づき当該フレームの音素の認識結果を出力する第3のニューラルネットワークとを備える第2のモデルについて、学習用の音声信号と、前記学習用の音声信号の話者および当該音声信号に含まれる音素の正解データとを対応付けた教師データに基づき前記第2のモデルの学習を行う際、前記第2のニューラルネットワークによる出力結果は前記正解データに近づき、前記第3のニューラルネットワークによる出力結果は前記正解データに近づかないように学習させたものであることを特徴とする照合装置。 A first neural network including a first neural network that converts an audio signal into a feature amount for each frame and a second neural network that outputs a recognition result of a speaker of the frame based on the converted feature amount of the frame. Model, an input unit for inputting a first audio signal and a second audio signal to the first model, and
Based on the feature quantities of the first audio signal and the second audio signal output from the intermediate layer of the second neural network or the first neural network in the first model, the first A collation unit for outputting a collation result indicating whether or not the speaker of the first audio signal is the same as the speaker of the second audio signal is provided.
The first model outputs the recognition result of the sound element of the frame based on the feature amount of the frame converted by the first neural network, the second neural network, and the first neural network. Regarding the second model including the third neural network, based on the teacher data in which the voice signal for learning is associated with the speaker of the voice signal for learning and the correct answer data of the phonemes included in the voice signal. When training the second model, the output result by the second neural network is trained so as to approach the correct answer data, and the output result by the third neural network is trained so as not to approach the correct answer data. A collation device characterized by being present.
前記入力された第1の音声信号および前記第2の音声信号が複数のフレームから構成される音声信号である場合、前記第1の音声信号および前記第2の音声信号それぞれについてフレームごとの特徴量の平均ベクトルを算出し、前記算出した平均ベクトルを、当該音声信号の特徴量として用いる
ことを特徴とする請求項1に記載の照合装置。 The collation unit
When the input first audio signal and the second audio signal are audio signals composed of a plurality of frames, the feature amount for each frame for each of the first audio signal and the second audio signal. The collation apparatus according to claim 1, wherein the average vector of the above is calculated, and the calculated average vector is used as a feature amount of the audio signal.
前記第2のモデルの学習を行う際、前記第2のニューラルネットワークによる出力結果と前記正解データとの距離が小さくなり、かつ、前記第3のニューラルネットワークによる出力結果と前記正解データとの距離が大きくなるよう、前記第1のニューラルネットワーク、第2のニューラルネットワークおよび第3のニューラルネットワークのパラメータが更新されたものである
ことを特徴とする請求項1に記載の照合装置。 The first model is
When training the second model, the distance between the output result by the second neural network and the correct answer data becomes small, and the distance between the output result by the third neural network and the correct answer data becomes smaller. The collation device according to claim 1, wherein the parameters of the first neural network, the second neural network, and the third neural network are updated so as to be larger.
前記第1の音声信号および前記第2の音声信号それぞれの特徴量の類似度を計算し、前記計算した類似度が所定値以上である場合、前記第1の音声信号の話者が、前記第2の音声信号の話者と同じであると判定し、前記判定の結果を照合結果として出力する
ことを特徴とする請求項1に記載の照合装置。 The collation unit
The similarity between the feature amounts of the first audio signal and the second audio signal is calculated, and when the calculated similarity is equal to or higher than a predetermined value, the speaker of the first audio signal is the first. The collation device according to claim 1, wherein it is determined that the speaker is the same as the speaker of the audio signal of 2, and the result of the determination is output as a collation result.
前記学習後の前記第1のニューラルネットワークと前記第2のニューラルネットワークとを有する第1のモデルに、第1の音声信号と第2の音声信号とを入力する入力部と、
前記学習後の第1のモデルにおける、前記第2のニューラルネットワークの中間層または前記第1のニューラルネットワークから出力される、前記第1の音声信号および前記第2の音声信号それぞれの特徴量に基づき、前記第1の音声信号の話者が、前記第2の音声信号の話者と同じか否かを示す照合結果を出力する照合部と
を備えることを特徴とする照合装置。 A first neural network that converts an audio signal into a feature amount for each frame, a second neural network that outputs a recognition result of a speaker of the frame based on the converted feature amount of the frame, and the converted neural network. Regarding a speaker recognition model including a third neural network that outputs the recognition result of the sound element of the frame based on the feature amount of the frame, the voice signal, the speaker of the voice indicated by the voice signal, and the sound element indicated by the voice signal. When training the speaker recognition model based on the teacher data associated with the correct answer data, the output result by the second neural network approaches the correct answer data, and the output result by the third neural network is the above. A learning unit that learns the speaker recognition model so as not to approach the correct answer data,
An input unit for inputting a first audio signal and a second audio signal into a first model having the first neural network and the second neural network after learning.
Based on the feature quantities of the first audio signal and the second audio signal output from the intermediate layer of the second neural network or the first neural network in the first model after the training. A collation device including a collation unit that outputs a collation result indicating whether or not the speaker of the first audio signal is the same as the speaker of the second audio signal.
音声信号をフレームごとの特徴量に変換する第1のニューラルネットワークと、変換された前記フレームの特徴量に基づき当該フレームの話者の認識結果を出力する第2のニューラルネットワークとを備えた第1のモデルに、第1の音声信号と第2の音声信号とを入力する入力ステップと、
前記第1のモデルにおける、前記第2のニューラルネットワークの中間層または前記第1のニューラルネットワークから出力される、前記第1の音声信号および前記第2の音声信号それぞれの特徴量に基づき、前記第1の音声信号の話者が、前記第2の音声信号の話者と同じか否かを示す照合結果を出力する照合ステップと
を含み、
前記第1のモデルは、前記第1のニューラルネットワークと、前記第2のニューラルネットワークと、前記第1のニューラルネットワークで変換された前記フレームの特徴量に基づき当該フレームの音素の認識結果を出力する第3のニューラルネットワークとを備える第2のモデルについて、学習用の音声信号と、前記学習用の音声信号の話者および当該音声信号に含まれる音素の正解データとを対応付けた教師データに基づき前記第2のモデルの学習を行う際、前記第2のニューラルネットワークによる出力結果は前記正解データに近づき、前記第3のニューラルネットワークによる出力結果は前記正解データに近づかないように学習させたものであることを特徴とする照合方法。 A collation method performed by a collation device
A first neural network including a first neural network that converts an audio signal into a feature amount for each frame and a second neural network that outputs a recognition result of a speaker of the frame based on the converted feature amount of the frame. An input step for inputting a first audio signal and a second audio signal into the model of
Based on the feature quantities of the first audio signal and the second audio signal output from the intermediate layer of the second neural network or the first neural network in the first model, the first A collation step for outputting a collation result indicating whether or not the speaker of the first audio signal is the same as the speaker of the second audio signal is included.
The first model outputs the recognition result of the sound element of the frame based on the feature amount of the frame converted by the first neural network, the second neural network, and the first neural network. Regarding the second model including the third neural network, based on the teacher data in which the voice signal for learning is associated with the speaker of the voice signal for learning and the correct answer data of the phonemes included in the voice signal. When training the second model, the output result by the second neural network is trained so as to approach the correct answer data, and the output result by the third neural network is trained so as not to approach the correct answer data. A collation method characterized by being.
前記第1のモデルにおける、前記第2のニューラルネットワークの中間層または前記第1のニューラルネットワークから出力される、前記第1の音声信号および前記第2の音声信号それぞれの特徴量に基づき、前記第1の音声信号の話者が、前記第2の音声信号の話者と同じか否かを示す照合結果を出力する照合ステップと
をコンピュータに実行させ、
前記第1のモデルは、前記第1のニューラルネットワークと、前記第2のニューラルネットワークと、前記第1のニューラルネットワークで変換された前記フレームの特徴量に基づき当該フレームの音素の認識結果を出力する第3のニューラルネットワークとを備える第2のモデルについて、学習用の音声信号と、前記学習用の音声信号の話者および当該音声信号に含まれる音素の正解データとを対応付けた教師データに基づき前記第2のモデルの学習を行う際、前記第2のニューラルネットワークによる出力結果は前記正解データに近づき、前記第3のニューラルネットワークによる出力結果は前記正解データに近づかないように学習させたものである
ことを特徴とする照合プログラム。 A first neural network including a first neural network that converts an audio signal into a feature amount for each frame and a second neural network that outputs a recognition result of a speaker of the frame based on the converted feature amount of the frame. An input step for inputting a first audio signal and a second audio signal into the model of
Based on the feature quantities of the first audio signal and the second audio signal output from the intermediate layer of the second neural network or the first neural network in the first model, the first The computer is made to execute a collation step for outputting a collation result indicating whether or not the speaker of the first audio signal is the same as the speaker of the second audio signal.
The first model outputs the recognition result of the sound element of the frame based on the feature amount of the frame converted by the first neural network, the second neural network, and the first neural network. Regarding the second model including the third neural network, based on the teacher data in which the voice signal for learning is associated with the speaker of the voice signal for learning and the correct answer data of the phonemes included in the voice signal. When training the second model, the output result by the second neural network is trained so as to approach the correct answer data, and the output result by the third neural network is trained so as not to approach the correct answer data. A collation program characterized by being.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020028867A JP7388239B2 (en) | 2020-02-21 | 2020-02-21 | Verification device, verification method, and verification program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020028867A JP7388239B2 (en) | 2020-02-21 | 2020-02-21 | Verification device, verification method, and verification program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021135313A true JP2021135313A (en) | 2021-09-13 |
JP7388239B2 JP7388239B2 (en) | 2023-11-29 |
Family
ID=77661060
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020028867A Active JP7388239B2 (en) | 2020-02-21 | 2020-02-21 | Verification device, verification method, and verification program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7388239B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10347241B1 (en) * | 2018-03-23 | 2019-07-09 | Microsoft Technology Licensing, Llc | Speaker-invariant training via adversarial learning |
JP2019159824A (en) * | 2018-03-13 | 2019-09-19 | 富士通株式会社 | Learning program, learning method and learning device |
JP2019530888A (en) * | 2016-07-15 | 2019-10-24 | グーグル エルエルシー | Speaker verification |
JP2019219574A (en) * | 2018-06-21 | 2019-12-26 | 株式会社東芝 | Speaker model creation system, recognition system, program and control device |
-
2020
- 2020-02-21 JP JP2020028867A patent/JP7388239B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019530888A (en) * | 2016-07-15 | 2019-10-24 | グーグル エルエルシー | Speaker verification |
JP2019159824A (en) * | 2018-03-13 | 2019-09-19 | 富士通株式会社 | Learning program, learning method and learning device |
US10347241B1 (en) * | 2018-03-23 | 2019-07-09 | Microsoft Technology Licensing, Llc | Speaker-invariant training via adversarial learning |
JP2019219574A (en) * | 2018-06-21 | 2019-12-26 | 株式会社東芝 | Speaker model creation system, recognition system, program and control device |
Non-Patent Citations (2)
Title |
---|
ZHONG MENG ET AL.: "Adversarial Speaker Verification", ICASSP 2019 - 2019 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING, [ONLINE, JPN6023012372, 17 April 2019 (2019-04-17), pages 6216 - 6220, ISSN: 0005021763 * |
上西 遼大, 外2名: "x-vectorに基づく話者照合における非線形帯域拡張法の評価", 電子情報通信学会技術研究報告, vol. 第118巻、第497号, JPN6023012373, March 2019 (2019-03-01), JP, pages 347 - 352, ISSN: 0005021764 * |
Also Published As
Publication number | Publication date |
---|---|
JP7388239B2 (en) | 2023-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11170788B2 (en) | Speaker recognition | |
Arik et al. | Neural voice cloning with a few samples | |
US10008209B1 (en) | Computer-implemented systems and methods for speaker recognition using a neural network | |
US20090119103A1 (en) | Speaker recognition system | |
EP2216775B1 (en) | Speaker recognition | |
US7447633B2 (en) | Method and apparatus for training a text independent speaker recognition system using speech data with text labels | |
EP1465154B1 (en) | Method of speech recognition using variational inference with switching state space models | |
JP4340685B2 (en) | Speech recognition apparatus and speech recognition method | |
KR101618512B1 (en) | Gaussian mixture model based speaker recognition system and the selection method of additional training utterance | |
US11837236B2 (en) | Speaker recognition based on signal segments weighted by quality | |
US11367451B2 (en) | Method and apparatus with speaker authentication and/or training | |
EP3501024B1 (en) | Systems, apparatuses, and methods for speaker verification using artificial neural networks | |
Herbig et al. | Self-learning speaker identification for enhanced speech recognition | |
JPWO2007105409A1 (en) | Standard pattern adaptation device, standard pattern adaptation method, and standard pattern adaptation program | |
Mingote et al. | Knowledge distillation and random erasing data augmentation for text-dependent speaker verification | |
CN112542170A (en) | Dialogue system, dialogue processing method, and electronic device | |
Soldi et al. | Short-Duration Speaker Modelling with Phone Adaptive Training. | |
KR20220047080A (en) | A speaker embedding extraction method and system for automatic speech recognition based pooling method for speaker recognition, and recording medium therefor | |
Gade et al. | A comprehensive study on automatic speaker recognition by using deep learning techniques | |
KR102113879B1 (en) | The method and apparatus for recognizing speaker's voice by using reference database | |
JP7388239B2 (en) | Verification device, verification method, and verification program | |
CN111883109B (en) | Voice information processing and verification model training method, device, equipment and medium | |
KR101229108B1 (en) | Apparatus for utterance verification based on word specific confidence threshold | |
JP4638970B2 (en) | Method for adapting speech recognition apparatus | |
Sarkar et al. | Self-segmentation of pass-phrase utterances for deep feature learning in text-dependent speaker verification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20200225 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220525 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20220525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20220525 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230316 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231006 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231030 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7388239 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |