JP6985221B2 - 音声認識装置及び音声認識方法 - Google Patents

音声認識装置及び音声認識方法 Download PDF

Info

Publication number
JP6985221B2
JP6985221B2 JP2018136203A JP2018136203A JP6985221B2 JP 6985221 B2 JP6985221 B2 JP 6985221B2 JP 2018136203 A JP2018136203 A JP 2018136203A JP 2018136203 A JP2018136203 A JP 2018136203A JP 6985221 B2 JP6985221 B2 JP 6985221B2
Authority
JP
Japan
Prior art keywords
voice
feature amount
recognition
utterance
speakers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018136203A
Other languages
English (en)
Other versions
JP2020013034A (ja
Inventor
直之 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018136203A priority Critical patent/JP6985221B2/ja
Publication of JP2020013034A publication Critical patent/JP2020013034A/ja
Application granted granted Critical
Publication of JP6985221B2 publication Critical patent/JP6985221B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、複数の話者の音声を認識するための音声認識装置及び音声認識方法に関する。
複数の話者の音声が混合された音声データについて音声認識を行う際には、話者毎に音源を分離することが望まれている。音源を分離する技術としては、非特許文献1〜6や特許文献1が知られている。
非特許文献1には、音量の大きい音声を認識する音源モデルと、音量の小さい音声を認識する音源モデルの2つの音響モデルを学習する技術が開示されている。
非特許文献2には、複数の話者の音声が混在した音声データについて、FFT(Fast Fourier Transform)を用いて周波数と時間の空間を生成し、空間内の所定領域をクラスタリングして異なる話者を特定する技術が開示されている。
非特許文献3には、音声と雑音が混在した音声データについて、FFTを用いて周波数と時間の空間を生成し、空間内の所定領域をニューラルネットワークで学習させ、音声と雑音を分離する技術が開示されている。
非特許文献4には、複数の話者の音声が混在した音声データの特徴量と、抽出したい話者の音声特徴量をニューラルネットワークで学習させて、特定の話者の音声を抽出する技術が開示されている。
非特許文献5には、複数の話者の音声が混在した音声データの特徴量を、2つの出力を有するニューラルネットワークで学習させて、2つの音源分離または2つの音声認識結果が最善となるモデルを生成する技術が開示されている。
非特許文献6には、複数の話者の音声が混在した音声データの特徴量を、ニューラルネットワークで繰り返して学習させて、複数の話者を探索する技術が開示されている。
特許文献1には、特定の話者の特定の発話を除外するようにニューラルネットワークで学習させておき、複数の話者の音声が混在した音声データから特定の話者の特定の発話を除外して音声認識を行う技術が開示されている。
特開2016−042152号公報
Chao Weng 他著、"Deep Neural Networks for Single-Channel Multi-Talker Speech Recognition"、IEEE/ACM TRANSACTIONS ON AUDIO, SPEECH, AND LANGUAGE PROCESSING, VOL. 23, NO. 10, OCTOBER 2015 John R. Hershey、Zhuo Chen、Jonathan Le Roux、Shinji Watanabe著、"Deep clustering: Discriminative embeddings for segmentation and separation" Jahn Heymann、 Lukas Drude、 Reinhold Haeb-Umbach、Shinji Watanabe著、"NEURAL NETWORK BASED SPECTRAL MASK ESTIMATION FOR ACOUSTIC BEAMFORMING"、University of Paderborn, Department of Communications Engineering Katerina Zmolikova, Marc Delcroix, Keisuke Kinoshita, Takuya Higuchi,Atsunori Ogawa, Tomohiro Nakatani著、"LEARNING SPEAKER REPRESENTATION FOR NEURAL NETWORK BASED MULTICHANNEL SPEAKER EXTRACTION"、NTT Communication Science Laboratories, NTT Corporation, Kyoto, Japan Dong Yu, Morten Kolbak, Zheng-Hua Tan, Jesper Jensen著、"PERMUTATION INVARIANT TRAINING OF DEEP MODELS FOR SPEAKER-INDEPENDENT MULTI-TALKER SPEECH SEPARATION" Keisuke Kinoshita, Lukas Drude, Marc Delcroix, Tomohiro Nakatani著、"LISTENING TO EACH SPEAKER ONE BY ONE WITH RECURRENT SELECTIVE HEARING NETWORKS"、NTT Communication Science Laboratories, NTT Corporation, Kyoto, Japan
しかし、上記非特許文献1の技術では、2つを超える音源について音声認識を行うことは難しい。また、非特許文献2の技術では、任意の数の話者を分離することが可能ではあるが、音声認識に適した音源の分離とはならない、という問題があった。
非特許文献3の技術では、音声と雑音の分離は可能であるが、複数の話者の音声を分離することは考慮されていない、という問題があった。非特許文献4の技術では、複数の音声の中から抽出対象の話者の発話を認識することはできるが、抽出対象以外の話者の音声については認識できない、という問題があった。
また、非特許文献5の技術では、ニューラルネットワークに設定した出力の数に応じて複数の音声を分離して認識することはできるが、予め設定された出力の数を超える音声については分離することができない、という問題があった。
非特許文献6の技術では、任意の数の話者を探索することはできるが、音声認識に適した音源の分離とはならない、という問題があった。また、特許文献1の技術では、複数の話者の音声から、特定の話者の特定の単語を除外することはできるが、任意の数の話者の音声を分離することは難しい、という問題があった。
そこで本発明は、上記問題点に鑑みてなされたもので、複数の話者の音声を分離して音声認識を実現することを目的とする。
本発明は、プロセッサとメモリを有する音声認識装置であって、複数の話者の音声が混合された第1の音声データから第1の音声特徴量を算出する音声特徴量算出部と、前記第1の音声データに含まれる各音声の書き起こしデータおよび各音声の発話の順序を格納した発話順序情報と、前記第1の音声特徴量と前記発話順序情報に基づいて音響モデルを学習する学習部と、を有する。
したがって、本発明によれば、複数の話者の音声から話者毎に音声を分離して、音声認識を実行することが可能となる。
本発明の実施例1を示し、音声認識装置の一例を示すブロック図である。 本発明の実施例1を示し、音声認識装置で行われる学習処理の一例を示す図である。 本発明の実施例1を示し、学習処理の一例を示すフローチャートである。 本発明の実施例1を示し、ニューラルネットワークの一例を示す図である。 本発明の実施例1を示し、音声認識装置で行われる音声認識処理の一例を示す図である。 本発明の実施例1を示し、音声認識処理の一例を示すフローチャートである。 本発明の実施例2を示し、ニューラルネットワークの音声認識処理の一例を示す図である。 本発明の実施例2の変形例を示し、音声認識処理の一例を示すフローチャートである。 本発明の実施例3を示し、音声認識システムの一例を示すブロック図である。 本発明の実施例3を示し、音声認識装置の一例を示すブロック図である。 本発明の実施例3を示し、ニューラルネットワークの学習処理の一例を示す図である。
以下、本発明の実施形態を添付図面に基づいて説明する。
図1は、本発明の実施例1を示し、音声認識装置100の一例を示すブロック図である。音声認識装置100は、プロセッサ1と、メモリ2と、ストレージ装置3と、入力装置4と、出力装置5と、ネットワークインタフェース6を含む計算機で構成される。
メモリ2には、前処理部10と、特徴量算出部20と、学習部30と、認識部40がプログラムとしてロードされ、プロセッサ1によって実行される。ストレージ装置3には、各プログラムが利用するデータ等が格納され、本実施例1では、学習用音声データ31と、認識用音声データ32と、音響モデル33と、言語モデル34が格納される。
入力装置4は、マウスやキーボードあるいはタッチパネルなどで構成される。出力装置5は、ディスプレイなどで構成される。ネットワークインタフェース6は、図示しないネットワークに接続される。
前処理部10は、学習部30や認識部40へ入力するデータを、音声データと発話順序情報に分離する。学習部30は、学習用音声データ31を入力して特徴量算出部20で音声特徴量を算出し、当該音声特徴量をニューラルネットワークで学習し、音響モデル33を生成する。ニューラルネットワークとしては、例えば、RNN(Recurrent Neural Network)やLSTM(Long short−term memory)を用いることができる。
また、音響モデル33は、ニューラルネットワークによって算出されたHMM(Hidden Markov Model:隠れマルコフモデル)の各状態の出力確率分布を含む。なお、音響モデル33は、DNN(Deep Neural Network:ディープニューラルネットワーク)であってもよい。
認識部40は、認識用音声データ32を入力して特徴量算出部20で音声特徴量を算出し、音響モデル33を用いて音素の確率を出力する。認識部40は、さらに各音素の確率と、言語モデル34から算出される言語スコアを用いて、最も確率の高い単語列を認識結果のテキストとして出力する。
学習部30及び認識部40で利用される特徴量算出部20は、例えば、入力された認識用音声データ32をFFTで処理し、FFTの処理結果に基づいてMFCC(Mel Frequency Cepstral Coefficient:メル周波数ケプストラム係数)を計算し、所定の時間区間(例えば、10msec)の単位(フレーム)で差分を算出して音声特徴量とすることができる。なお、音声データの特徴量については、上記に限定されるものではなく周知または公知の手法を適用すれば良い。
学習用音声データ31は、後述するように複数の話者の音声を混合(または合成)した音声データと、発話(話者)の順序と発話の内容(書き起こしデータ)を特定した発話順序情報を含む学習用データである。認識用音声データ32は、複数の話者の音声が混在する音声データである。
音響モデル33は、ニューラルネットワークで算出された音素の出力確率分布を含む数学モデルである。言語モデル34は、音素や単語等のシンボル系列で構成される。
前処理部10と、特徴量算出部20と、学習部30と、認識部40の各機能部はプログラムとしてメモリ2にロードされる。
プロセッサ1は、各機能部のプログラムに従って処理することによって、所定の機能を提供する機能部として稼働する。例えば、プロセッサ1は、学習プログラムに従って処理することで学習部30として機能する。他のプログラムについても同様である。さらに、プロセッサ1は、各プログラムが実行する複数の処理のそれぞれの機能を提供する機能部としても稼働する。計算機及び計算機システムは、これらの機能部を含む装置及びシステムである。
音声認識装置100の各機能を実現するプログラム、テーブル等の情報は、ストレージ装置3や不揮発性半導体メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶デバイス、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。
図2は、音声認識装置100の学習処理の一例を示す図である。本実施例1では、予め学習用音声データ31を生成してストレージ装置3に格納しておく例を示す。
まず、学習用音声データ31の生成について説明する。学習用音声データ31は、複数の話者の発話を合成した音声データである。図示の例では、話者1の発話「こんにちは」(S1)と、話者2の発話「ありがとう」(S2)と、話者3の発話「元気ですか?」(S3)の音声データを合成して、学習用音声データ31とする。また、各発話の合成は、音声データの足し合わせによって行えば良い。
次に、合成された学習用音声データ31の発話始端を検出して、発話(S1〜S3)の順序と発話のテキスト(書き起こしデータ)を発話順序情報D2として生成する。図示の例では、発話(S1)が順序=1、発話(S2)が順序=2、発話(S3)が順序=3となった例を示す。学習用音声データ31は、複数の発話が合成された音声データに発話順序情報D2が付加されてストレージ装置3に予め格納される。なお、発話始端とは、合成前の音声データに対し各時間フレームでの音量を求め、当該音量が一定時間、一定音量を上回る時刻を検出することにより検出した発話(単語)の開始位置または開始時刻を示す。ただし必ずしもこの方法によらず、発話(単語)の開始位置または開始時刻が検出できていればよい。さらに、学習用音声データ31に対し人間の聴取により付与しておいた発話時刻情報を、あらかじめ学習用音声データ31と紐づけて保存しておき、当該発話時刻情報を呼び出す方法でも構わない。
学習処理を行う際には、まず、前処理部10が学習用音声データ31をストレージ装置3から読み込んで、合成された音声データと発話順序情報D2を学習部30へ入力する。
学習部30は、学習用音声データ31の合成された音声データを特徴量算出部20へ入力して、所定の時間区間(フレーム)毎に音声特徴量D1を算出する。音声特徴量D1は、例えば、数百次元の特徴量ベクトルで構成される。
学習部30は、特徴量算出部20で算出された音声特徴量D1を取得すると、当該音声特徴量D1と、発話順序情報D2をニューラルネットワーク50で学習し、複数の話者と発話順序の音響モデル33を生成する。学習部30は、生成された音響モデル33をストレージ装置3に格納する。
本実施例1の音響モデル33は、話者1の音声特徴量に反応するモデルと、話者2の音声特徴量に反応するモデルと、話者3の音声特徴量に反応するモデルを内包する。音響モデル33に内包される話者の数は、発話順序情報D2の発話(話者)の数に対応する。
図3は、学習処理の一例を示すフローチャートである。このフローチャートは、音声認識装置100の利用者が、入力装置4を操作して学習の開始を指示したときに実行される。
まず、前処理部10が、学習用音声データ31をストレージ装置3から読み込んで(S101)、学習用音声データ31から合成された音声データと発話順序情報D2を分離する(S102)。
前処理部10は、合成された音声データと発話順序情報D2を学習部30へ入力する。学習部30は、合成された音声データを特徴量算出部20に入力して音声特徴量D1を計算させる(S103)。特徴量算出部20は、所定のフレーム単位で音声特徴量D1を算出して学習部30に出力する。
学習部30は、ニューラルネットワーク50を利用して音声特徴量D1と発話順序情報D2の学習を実施して(S104)、HMMの各状態の出力確率分布を含む音響モデル33を生成する。そして、学習部30は、音響モデル33をストレージ装置3へ格納する。生成された音響モデル33は、上述のように各話者を識別可能なモデルとなる。
図4は、ニューラルネットワーク50の一例を示す図である。本実施例1のニューラルネットワーク50は、入力層51と、隠れ層52と、出力層53に加えてサブネットワーク60を含む。
サブネットワーク60は、入力層61と、隠れ層62と、出力層63を含む。入力層61には発話順序情報D2が入力され、出力層63の出力は、隠れ層52の出力側に加えられる。ただし、必ずしも出力層63の出力と隠れ層52の出力は加算である必要はなく、例えば、出力層63の出力と隠れ層52の出力を掛け合わせるなど、深層学習手法で一般的な組み合わせであれば適用できる。また発話順序情報D2の入力としては、例えば予め規定した最大発話者数に応じた要数のベクトルで、発話順序に該当する要素を1、それ以外の要素を0とするようなベクトルを用いることが考えられる。
ニューラルネットワーク50の入力層51には、音声特徴量D1が入力され、サブネットワーク60の発話順序情報D2を掛け合わせることで認識の際には出力層53に音素の確率が出力される。
なお、上記では、隠れ層52、62を1層で構成する例を示したが、これに限定されるものではなく、所望の数の隠れ層を用いることができる。
図5は、音声認識装置100で行われる音声認識処理の一例を示す図である。本実施例1では、複数の話者の音声を含む認識用音声データ32を予め生成してストレージ装置3に格納しておく例を示す。
音声認識装置100の前処理部10は、認識用音声データ32をストレージ装置3から読み込む。また、前処理部10は、入力装置4を介して認識する話者の発話の順序D4を受け付ける。なお、発話の順序D4は、認識用音声データ32に付加するようにしても良い。
前処理部10は、認識部40に認識用音声データ32と発話の順序D4を入力する。学習部30は、特徴量算出部20を用いて認識用音声データ32の音声特徴量(第2の音声特徴量)を所定のフレーム単位で算出する。特徴量算出部20は、上述したように、認識用音声データ32にFFTを実施し、さらにFFTの結果に基づいてMFCCを音声特徴量D3として算出し、認識部40に出力する。
認識部40は、音響モデル33を読み込んで、認識用音声データ32の音声特徴量D3と発話の順序を受け付けて音響モデルの出力を計算する。具体的には、音響モデル33は、図4のニューラルネットワーク50のように構成され、入力層51に認識用音声データ32の音声特徴量D3が入力され、サブネットワーク60の入力層61には発話の順序2が入力される。ニューラルネットワーク50は、サブネットワーク60の発話の順序を重みに掛け合わせることで、話者の発話に対応する音素の確率を出力する。
認識部40は、出力された各音素の確率と、言語モデル34から算出される言語スコアを用いて、最も確率の高い単語列を認識結果のテキストとして出力する。
図示の例では、複数の話者の音声を含む認識用音声データ32から、発話の順序D4=2で指定された話者の「ありがとう」の発話を分離して音声認識を実現することができる。
図6は、音声認識処理の一例を示すフローチャートである。このフローチャートは、音声認識装置100の利用者が、入力装置4を操作して音声認識の開始を指示したときに実行される。
まず、前処理部10が、複数の話者の音声を含む認識用音声データ32をストレージ装置3から読み込む(S111)。また、前処理部10は、発話の順序D4を受け付けて、音声認識の対象を特定する(S112)。
前処理部10は、認識用音声データ32と発話の順序D4を認識部40へ入力する。認識部40は、特徴量算出部20に認識用音声データ32を入力して音声特徴量D3を計算させる(S113)。特徴量算出部20は、所定のフレーム単位で音声特徴量D3を算出して認識部40に出力する。
認識部40は、音響モデル33を読み込んで、音声特徴量D3から発話の順序D4の話者に対応する音素の確率を計算する(S114)。認識部40は、さらに各音素の確率と、言語モデル34から算出される言語スコアを用いて、最も確率の高い単語列を認識結果のテキストとして出力する(S115)。
上記の処理によって、複数の話者の音声を含む認識用音声データ32から、発話の順序D4で指定された話者の発話を分離して音声認識を実現することができる。さらに、発話の順序D4で指定する話者を変更することで、任意の話者の発話を認識することが可能となる。
以上のように、本実施例1では、特徴量算出部20が、複数の発話を合成した学習用音声データ31の音声信号を周波数分析を用いて音声特徴量D1を算出し、さらに、前処理部10では複数の発話の順序と発話の内容(テキスト)を発話順序情報D2を取得し、学習部30は、音声特徴量D1と発話順序情報D2を入力としてニューラルネットワーク50に学習させて音響モデル33を生成する。
複数の発話を含む認識用音声データ32の音声特徴量D3と、認識対象の発話の順序D4を指定して認識部40へ入力し、認識部40は、音響モデル33を利用して発話の順序D4で指定された話者の発話を認識して音素の確率を出力することができる。本実施例1の音声認識装置100では、発話の順序D4で指定する発話(話者)を変更することで、複数の発話を含む認識用音声データ32から所望の話者の発話を抽出する。これにより、複数の話者の音声を分離して音声認識を行うことが可能となる。
図7は、本発明の実施例2を示し、ニューラルネットワーク50の音声認識処理の一例を示す図である。本実施例2のニューラルネットワーク50は、前記実施例1の図4に示したサブネットワーク60を削除したもので、その他の構成は前記実施例1と同様である。
本実施例2では、ニューラルネットワーク50をパイプラインとして利用する例を示し、特徴量算出部20から得られた音声特徴量D3を1フレーム分ずつ入力し、発話の順序D4の話者の数に応じてループを繰り返す。なお、話者の数は、発話の順序D4に含まれる順序の最大値とする。なお、図中「Delay」は、予め設定した遅延時間(例えば、1フレーム分など)を示す。なお、ネットワーク構成はこの構成に限らず、深層学習で一般的に用いられるどのような構成を用いても良い。
図示では、認識用音声データ32に話者が3人含まれる例を示し、認識部40は1回目の処理で話者1の音声認識結果を出力し、2回目の処理で話者2の音声認識結果を出力し、3回目の処理で話者3の音声認識結果を出力する例を示す。
以上の処理によって、複数の話者の音声が含まれる認識用音声データ32から、複数の話者の発話を分離して認識することが可能となる。
図8は、本発明の実施例2の変形例を示し、音声認識処理の一例を示すフローチャートである。
前処理部10が、複数の話者の音声を含む認識用音声データ32をストレージ装置3から読み込む(S121)。また、前処理部10は、発話の順序D4の値を0に設定する(S122)。
前処理部10は、認識用音声データ32と発話順序情報D2を認識部40へ入力する。認識部40は、特徴量算出部20に認識用音声データ32を入力して音声特徴量D3を計算させる(S123)。特徴量算出部20は、所定のフレーム単位で音声特徴量D3を算出して認識部40に出力する。
認識部40は、発話の順序D4の値に1を加算する(S124)。認識部40は、音響モデル33と言語モデル34を用いて発話の順序D4に該当する話者の音声を音声特徴量D3から認識する(S25)。
認識部40は、音声認識の結果の有無を判定し(S126)、音声認識の結果が算出されなければ処理を終了し、音声認識の結果が算出された場合には、ステップS124へ戻って、次の話者について上記処理を繰り返す。
上記処理によって、認識結果が出力されなくなるまで音声認識処理を繰り返すことにより、認識用音声データ32に含まれる全て(N人)の話者の発話を分離して認識することができる。
図9は、本発明の実施例3を示し、音声認識装置100を用いた音声認識システムの一例を示すブロック図である。
本実施例3の音声認識システムでは、前記実施例1に示した音声認識装置100の一部を変更して、サービスロボット200−1、200−2の対話処理を制御する例を示す。サービスロボット200−1と200−2は、同一の空間に配置されて、サービスロボット200−1は、利用者300−1と対話を行い、サービスロボット200−2は、利用者300−2と対話を行う。なお、以下では、サービスロボットを特定しない場合には、「−」以降を省略した符号「200」を使用する。利用者の符号についても同様である。
サービスロボット200は、ネットワーク150を介して音声認識装置100に接続される。サービスロボット200は、図示はしないが制御装置とマイクとスピーカを含み、利用者300の発話をマイクで取得して音声認識装置100へ送信し、音声認識を実行する。なお、音声認識の結果は、図示しない対話装置に送信され、対話装置は利用者300の発話に対する応答を生成してサービスロボット200へ送信する。サービスロボット200は、受信した応答をスピーカから出力する。
複数のサービスロボット200が、同一の空間に配置されて対話サービスを提供する場合、サービスロボット200−1が利用者300−1の発話を聴取しているときに、近傍で稼働するサービスロボット200−2が発話すると、サービスロボット200−2の発話がサービスロボット200−1のマイクへ入力される。
サービスロボット200−1のマイクが取得した音声データは、利用者300−1の発話とサービスロボット200−2の発話が合成された音声データとなる。音声認識装置100は、利用者300−1の発話について音声認識を行う必要があるが、サービスロボット200−2の発話を音声認識する必要はない。
そこで、本実施例3では、音声認識の対象から除外する話者の音声から除外対象の話者特徴量を算出し、ニューラルネットワーク50で学習させる例を示す。
図10は、実施例3の音声認識装置100の一例を示すブロック図である。音声認識装置100は、前記実施例1の図1の構成に話者特徴量算出部25を加えたもので、その他の構成は前記実施例1と同様である。
話者特徴量算出部25は、音声認識の対象から除外する話者の音声データを入力として、除外対象の話者特徴量D5を算出する。除外対象の話者特徴量D5としては、例えば、iVectorを利用することができる。なお、iVectorは、DEHAK, Najim, 他著の、「Front-end factor analysis for speaker verification」として知られている。
本実施例3では、iVectorを利用する例を示すが、これに限定されるものではなく、2つの話者特徴量の距離(ベクトル間距離、例えばコサイン距離など)を比較することで、話者特徴量の抽出元となる2つの音声波形が同一話者のものか否かを判定できるような話者の特性を表す特徴量であればよい。
図11は、実施例3の学習部30で行われる学習処理の一例を示す図である。特徴量算出部20には、前記実施例1と同様に、複数の発話が合成された学習用音声データ31を入力して、所定のフレーム毎に音声特徴量D1を算出する。
一方、話者特徴量算出部25は、音声認識の対象から除外する話者の音声データS5を入力として、除外対象の話者特徴量D5を上述のiVectorによって算出する。そして、学習部30は、音声特徴量D1をニューラルネットワーク50の入力層51へ入力し、除外対象の話者特徴量D5をサブネットワーク60の入力層61へ入力して、音響モデル33の学習を実施する。
学習の結果として生成される音響モデル33は、除外対象以外の話者の音声について認識を実施することができる。
音声認識処理では、まず、音声認識装置100が、サービスロボット200から取得した複数の話者の音声を含む認識用音声データ32を取得し、認識部40が特徴量算出部20で音声特徴量D1を算出させる。さらにサービスロボット200が発話した音声データを、話者特徴量算出部25へ入力して話者特徴量D5を生成する。
認識部40は、音響モデル33を読み込んで、サービスロボット200が取得した複数の話者の音声を含む認識用音声データ32の音声特徴量D1と除外話者の話者特徴量D5を入力として音声認識を実施する。認識部40は、話者特徴量D5に対応するサービスロボット200の発話を除外して、利用者300の発話について音声認識を実施することができる。
以上のように、本実施例3によれば、音声認識の不要な音源を除外対象の話者特徴量D5としてニューラルネットワーク50に学習させることで、認識部40は、複数の話者の発話が合成された音声データから対象の話者の音声を分離して音声認識を行うことが可能となる。
<まとめ>
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に記載したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加、削除、又は置換のいずれもが、単独で、又は組み合わせても適用可能である。
また、上記の各構成、機能、処理部、及び処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、及び機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
<補足>
特許請求の範囲に記載した以外の本発明の観点の代表的なものとして、次のものがあげ
られる。
<9>
プロセッサとメモリを有する計算機で音声の認識を行う音声認識方法であって、
前記計算機が、複数の話者の音声が混合された第1の音声データから第1の音声特徴量を算出する第1のステップと、
前記計算機が、認識対象外の話者の音声データから話者の特性を表す話者特徴量を算出する第2のステップと、
前記計算機が、前記第1の音声特徴量と前記話者特徴量に基づいて音響モデルを学習する第3のステップと、
を含むことを特徴とする音声認識方法。
<10>
上記<9>に記載の音声認識方法であって、
前記計算機が、複数の話者の音声が混合された第2の音声データから第2の音声特徴量を算出する第4のステップと、
前記計算機が、前記音響モデルを用いて前記第2の音声特徴量と前記話者特徴量に基づいて音声認識を実施する第5のステップと、
をさらに含むことを特徴とする音声認識方法。
1 プロセッサ
2 メモリ
3 ストレージ装置
10 前処理部
20 特徴量算出部
25 話者特徴量算出部
30 学習部
31 学習用音声データ
32 認識用音声データ
33 音響モデル
34 言語モデル
40 認識部
50 ニューラルネットワーク
60 サブネットワーク
100 音声認識装置

Claims (6)

  1. プロセッサとメモリを有する音声認識装置であって、
    複数の話者の音声が混合された第1の音声データから第1の音声特徴量を算出する音声特徴量算出部と、
    前記第1の音声データに含まれる各音声の書き起こしデータおよび各音声の発話の順序を格納した発話順序情報と、
    前記第1の音声特徴量と前記発話順序情報に基づいて音響モデルを学習する学習部と、
    を有することを特徴とする音声認識装置。
  2. 請求項1に記載の音声認識装置であって、
    前記音声特徴量算出部に複数の話者の音声が混合された第2の音声データから第2の音声特徴量を算出させ、発話の順序を受け付けて、前記音響モデルを用いて前記第2の音声特徴量と前記発話の順序に基づいて音声認識を実施する認識部を、さらに有することを特徴とする音声認識装置。
  3. 請求項1に記載の音声認識装置であって、
    前記音声特徴量算出部に複数の話者の音声が混合された第2の音声データから第2の音声特徴量を算出させ、前記音響モデルを用いて前記第2の音声特徴量に対して音声認識を実施して前記発話の順序毎に音声認識結果を算出し、当該音声認識結果が算出されなくなるまで前記音声認識を実施する認識部を、さらに有することを特徴とする音声認識装置。
  4. プロセッサとメモリを有する計算機で音声の認識を行う音声認識方法であって、
    前記計算機が、複数の話者の音声が混合された第1の音声データから第1の音声特徴量を算出する第1のステップと、
    前記計算機が、前記第1の音声データに含まれる各音声の書き起こしデータおよび各音声の発話の順序を格納した発話順序情報を取得する第2のステップと、
    前記計算機が、前記第1の音声特徴量と前記発話順序情報に基づいて音響モデルを学習する第3のステップと、
    を含むことを特徴とする音声認識方法。
  5. 請求項4に記載の音声認識方法であって、
    前記計算機が、複数の話者の音声が混合された第2の音声データから第2の音声特徴量を算出する第4のステップと、
    前記計算機が、発話の順序を受け付ける第5のステップと、
    前記計算機が、前記音響モデルを用いて前記第2の音声特徴量と前記発話の順序に基づいて音声認識を実施する第6のステップと、
    をさらに含むことを特徴とする音声認識方法。
  6. 請求項4に記載の音声認識方法であって、
    前記計算機が、複数の話者の音声が混合された第2の音声データから第2の音声特徴量を算出する第4のステップと、
    前記計算機が、前記音響モデルを用いて前記第2の音声特徴量に対して音声認識を実施して前記発話の順序毎に音声認識結果を算出し、当該音声認識結果が算出されなくなるまで前記音声認識を実施する第7のステップと、
    をさらに含むことを特徴とする音声認識方法。
JP2018136203A 2018-07-19 2018-07-19 音声認識装置及び音声認識方法 Active JP6985221B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018136203A JP6985221B2 (ja) 2018-07-19 2018-07-19 音声認識装置及び音声認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018136203A JP6985221B2 (ja) 2018-07-19 2018-07-19 音声認識装置及び音声認識方法

Publications (2)

Publication Number Publication Date
JP2020013034A JP2020013034A (ja) 2020-01-23
JP6985221B2 true JP6985221B2 (ja) 2021-12-22

Family

ID=69169243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018136203A Active JP6985221B2 (ja) 2018-07-19 2018-07-19 音声認識装置及び音声認識方法

Country Status (1)

Country Link
JP (1) JP6985221B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10811000B2 (en) * 2018-04-13 2020-10-20 Mitsubishi Electric Research Laboratories, Inc. Methods and systems for recognizing simultaneous speech by multiple speakers
JP7112348B2 (ja) * 2019-02-13 2022-08-03 日本電信電話株式会社 信号処理装置、信号処理方法及び信号処理プログラム
CN111292716A (zh) * 2020-02-13 2020-06-16 百度在线网络技术(北京)有限公司 语音芯片和电子设备
WO2022145015A1 (ja) * 2020-12-28 2022-07-07 日本電信電話株式会社 信号処理装置、信号処理方法及び信号処理プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9390712B2 (en) * 2014-03-24 2016-07-12 Microsoft Technology Licensing, Llc. Mixed speech recognition

Also Published As

Publication number Publication date
JP2020013034A (ja) 2020-01-23

Similar Documents

Publication Publication Date Title
Žmolíková et al. Speakerbeam: Speaker aware neural network for target speaker extraction in speech mixtures
Haeb-Umbach et al. Speech processing for digital home assistants: Combining signal processing with deep-learning techniques
JP6985221B2 (ja) 音声認識装置及び音声認識方法
EP3114679B1 (en) Predicting pronunciation in speech recognition
US8417527B2 (en) Speaker adaptation of vocabulary for speech recognition
Hori et al. The MERL/SRI system for the 3rd CHiME challenge using beamforming, robust feature extraction, and advanced speech recognition
JP6980603B2 (ja) 話者モデル作成システム、認識システム、プログラムおよび制御装置
US20090150146A1 (en) Microphone array based speech recognition system and target speech extracting method of the system
JP2002014692A (ja) 音響モデル作成装置及びその方法
JPH0876788A (ja) 音声認識における混同しやすい語の検出方法
JP2007500367A (ja) 音声認識方法およびコミュニケーション機器
Shaikh Naziya et al. Speech recognition system—a review
WO2020044543A1 (ja) 情報処理装置、情報処理方法及びプログラム
KR20210036169A (ko) 대화 시스템, 대화 처리 방법, 번역 장치 및 번역 방법
US11580989B2 (en) Training method of a speaker identification model based on a first language and a second language
JP6487650B2 (ja) 音声認識装置及びプログラム
JP3837061B2 (ja) 音信号認識システムおよび音信号認識方法並びに当該音信号認識システムを用いた対話制御システムおよび対話制御方法
CN112420021A (zh) 学习方法、说话者识别方法以及记录介质
KR101023211B1 (ko) 마이크배열 기반 음성인식 시스템 및 그 시스템에서의 목표음성 추출 방법
JP2007133413A (ja) 話者テンプレート圧縮方法および装置、複数の話者テンプレートをマージする方法および装置、ならびに話者認証
JP7222828B2 (ja) 音声認識装置、音声認識方法及び記憶媒体
WO2020195924A1 (ja) 信号処理装置および方法、並びにプログラム
Wolf et al. Channel selection using n-best hypothesis for multi-microphone ASR.
KR20210081166A (ko) 다국어 음성 환경에서의 언어 식별 장치 및 방법
Joshi et al. Mfcc-based voice recognition system for home automation using dynamic programming

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211125

R150 Certificate of patent or registration of utility model

Ref document number: 6985221

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150