JP3251460B2 - 話者照合方法および装置 - Google Patents

話者照合方法および装置

Info

Publication number
JP3251460B2
JP3251460B2 JP08728995A JP8728995A JP3251460B2 JP 3251460 B2 JP3251460 B2 JP 3251460B2 JP 08728995 A JP08728995 A JP 08728995A JP 8728995 A JP8728995 A JP 8728995A JP 3251460 B2 JP3251460 B2 JP 3251460B2
Authority
JP
Japan
Prior art keywords
speaker
codebook
voice
text
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP08728995A
Other languages
English (en)
Other versions
JPH08286692A (ja
Inventor
雄偉 閔
宣夫 小泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Data Corp
Original Assignee
NTT Data Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Data Corp filed Critical NTT Data Corp
Priority to JP08728995A priority Critical patent/JP3251460B2/ja
Publication of JPH08286692A publication Critical patent/JPH08286692A/ja
Application granted granted Critical
Publication of JP3251460B2 publication Critical patent/JP3251460B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、話者照合方式に関し、
特に、入力された音声が登録利用者による自然音声か、
あるいは録音音声や合成音声かを判別する技術に関す
る。
【0002】
【従来の技術】従来、話者認識装置等に用いられる話者
照合方式として、テキスト依存型あるいはテキスト独立
型の方式が採用されていた。
【0003】テキスト依存型の話者照合方式の概念図を
図5及び図6に示す。図5に示す第1の方式では、話者
登録時に入力されたテキスト指定学習音声を入力してそ
の特徴抽出を行い(S51,S52)、コードブックを
作成しておく(S53)。そして話者照合時には、当該
テキストについて入力されたテスト音声の特徴抽出を行
い(S54,S55)、これを対応するコードブックで
量子化して量子化距離を算出し(S56)、算出した距
離と所定の閾値との照合によって音声を発した者の正当
性を判定する。図6に示す第2の方式も閾値による照合
を行う点で図5の方式と共通であるが、学習音声の特徴
抽出後(S61,S62)、時系列標準パタンを作成す
る点が異なる(S63)。このような方式では、入力テ
スト音声の特徴抽出後(S64,S65)、閾値による
照合(S67)前に、動的時間伸縮(DTW)処理を行
う(S66)。DTW処理は、例えば同一テキストに基
づく音声であっても発話者や発話タイミング等によって
異なってくるピッチ時間を、共通のピッチ時間に換算す
るものである。上述のようなテキスト依存型話者照合方
式については、例えば、D.K.Burton,“Text−Dependent
Speaker Verification Using Source Coding,"IEEE Tr
ans.Acous., Speech,Signal Processing,vol.ASSP-35,p
p.133-143,Feb.1987.等の記載が参考になる。
【0004】また、テキスト独立型の話者照合方式の概
念図を図7に示す。この方式では、図5に示すテキスト
依存型の方式において、テキストの内容(発話内容)を
利用者が自分の意志によって決めるようにした点が異な
る(S71〜S77)。このような方式については、例
えば、F.K.Soong,A.E.Rosenberg,L.R.Rabiner,B.H.Ju
ang,“A Vector Quantization Approach to Speaker R
ecognition.“Proc.IEEE ICASSP,vol.1, pp.387-390.Ma
rch 1985.等の記載が参考になる。
【0005】しかし、テキスト依存型による話者照合
も、テキスト独立型による話者照合も、登録利用者の音
声が事前に何らかの方法で他人に録音されれば、その録
音の音声データを使って、本人を詐称して、話者照合シ
ステムに不正侵入できるという共通の危険性が存在して
いる。
【0006】そこで、このような問題点を解消する手法
として、テキスト指定型の話者照合方式が提案されるこ
とになった。この方式は、図8に示すように、話者照合
システム側で予め不特定話者音韻モデルと話者適応音韻
モデルを作成し(S81〜S84)、照合時にシステム
側で発話内容を指定する。そして利用者からのテスト音
声を入力して特徴抽出を行い(S86)、利用者が指定
内容通りの発話を行った否かを音韻モデル連結と尤度計
算によって判定する(S87,S88)。入力テスト音
声の内容が確かに指定したテキストの内容と合致してい
れば、話者照合を開始する(S89)。このようにして
録音等による詐称を防いでいる。このテキスト指定型の
話者照合方式については、例えば“話者認識技術”(松
井、古井、NTT R&D vol.43 No.101994.)の記載を
参考にすることができる。
【0007】
【発明が解決しようとする課題】上述のように、テキス
ト指定型の話者照合方式は、事前にシステム側が発話内
容を指定するので、録音再生音声による不正侵入への対
応が可能となる効果がある。しかし、高度に進化した音
声合成技術やコンピュータ技術を組み合わせた場合に
は、テキスト指定型の話者照合方式と雖も万全を期し難
い場合がある。
【0008】例えば、図9に示すように、テキスト指定
型の処理を行う話者照合システム90と、予め採取した
登録利用者の音声に基づいて各種音素波形を記憶した音
声合成装置91とを組み合わせた場合において、音声合
成装置91が瞬時に指定テキストに基づく音素波形を選
択して連結し、対応する合成音を生成してシステムに入
力した場合には、システム側では不正利用者によるアク
セスか否かを判別することができない。
【0009】本発明の課題は、上記問題点に鑑み、テキ
スト指定型の話者照合において、入力されたテスト音声
が登録利用者本人による自然音声か、あるいは録音再生
音声や合成音声かを自動判別してシステム利用上のセキ
ュリティ性を高める技術を提供することにある。
【0010】
【課題を解決するための手段】音声は、音源信号のほか
に声道特徴によって意味形成されており、また、録音再
生音声あるいは合成音声には、必ず録音機器や再生機器
等の電気回路の特性が含まれるようになる。しかも音声
の声道特徴は、たとえ同じ内容であっても時期や環境等
によって常に変化しているのが通常なので、該入力音声
に上記電気回路の特性が仮に含まれていてもそれを直接
検出することができない。しかし、図3に示すように、
電気回路を一旦通った音声の声道特徴31は、オリジナ
ルの自然音声の声道特徴30との間で特徴空間における
位置ずれが必然的に生じる。これは、どのような周波数
についても共通であり、各特徴空間の相対的位置も変わ
らないことが理論的に確認されている。なお、図3には
便宜上二次元の場合を示してあるが、実際には多次元と
なる場合が多い。本発明は、照合対象となる入力テスト
音声の上記性質を利用して該音声が発話者の自然音声な
のか、録音再生あるいは合成音声なのかを判別する新た
な話者照合方法、およびその方法を実施するための装置
を提供する。
【0011】本発明の話者照合方法は、話者登録時に、
第1の指定テキストに対応する第1の話者別コードブッ
クおよび第2の指定テキストに対応する第2の話者別コ
ードブックを各話者別コードブックから出現するコード
ベクトルの頻度情報と共に格納しておく。話者照合時、
第1および第2の指定テキストに対応する音声がそれぞ
れ入力されたときは、第1の指定テキストに対応する入
力音声の特徴を前記第1の話者別コードブックで量子化
して話者内歪み距離を導出するとともに、各入力音声の
特徴差と各入力音声に対応する話者別コードブックとに
基づいて音声種別の基準値となる相対的閾値を導出し、
前記導出した話者内歪み距離と相対的閾値とを比較する
ことにより前記入力音声が自然音声かそれ以外の音かの
種別判定を行う。
【0012】この入力音声の種別判定は、具体的には、
前記第1の話者別コードブックのi番目のクラスタをC
i、該クラスタCiのセントロイドをXi、該クラスタCi
に属するj番目の第1の指定テキストに対応する特徴ベ
クトルをV1(i,j)、該クラスタCiに属するj番目の
第2の指定テキストに対応する特徴ベクトルをV2(i,
j)として下記条件式の成立性を判定する。
【数2】 Σ[V1(i,j)−Xi]2 ≦Σ[V2(i,j)−Xi]2−Σ[V1(i,j)−V2(i,j)]2
【0013】上式の左辺は、第1の指定テキストに対応
する自然音声を第1の話者別コードブックで量子化した
話者内歪み距離である。また、右辺第2項は、同じクラ
スタに属する二つの声道特徴のユークリッド距離の平方
和(平均値)を表している。右辺の値が閾値の役割を果
たす。入力音声が自然音声であれば常に上式が成立する
ことが確認されている。一方、自然音声以外であれば話
者内歪み距離が相対的に大きくなり、上式が常に成立し
なくなるので、アクティブな閾値による話者照合が可能
になる。
【0014】上式において、右辺第1項は、本来、第2
の指定テキストに対応する自然音声を第1の話者別コー
ドブックで量子化して求める必要があるが、実際上はそ
れが不可能である。そこで、第2の話者別コードブック
と第1の話者別コードブックのコードブック間距離を用
いて、右辺第1項を近似する。このような近似手法ない
し閾値決定手法については、本出願人が先に提案した話
者照合方法及び装置(特願平6−265856号明細
書、特願平6−41615号明細書)、あるいは“話者
別コードブックに基づく話者照合のしきい値の一決定方
法”(閔、村上、平成6年度音響学会春季研究発表会講
演論文集I、3-7-1、1994年3月)に詳細に記載されてい
る。なお、上式から明らかなように、右辺と左辺との相
対関係が、入力音声の特徴や入力音声に対応する話者別
コードブックによってアクティブに変わるので、以下の
説明では、右辺に相当する閾値を相対的閾値と称するこ
ととする。
【0015】また、上記方法の実施に適した本発明の話
者照合装置は、第1の指定テキストに対応する第1の話
者別コードブックおよび第2の指定テキストに対応する
第2の話者別コードブックを各々の話者別コードブック
から出現するコードベクトルの頻度情報と共に格納した
コードブック格納手段と、第1および第2の指定テキス
トに対応する入力音声を認識して各入力音声の特徴を抽
出する特徴抽出手段と、抽出された各音声特徴に対応す
る話者別コードブックをそれぞれ前記コードブック格納
手段より選択するコードブック選択手段と、前記第1の
指定テキストに対応する入力音声の特徴を前記選択した
第1の話者別コードブックで量子化して話者内歪み距離
を導出する手段と、前記第1および第2の指定テキスト
に対応する入力音声の特徴差と前記選択した第1および
第2の話者別コードブックとに基づいて音声種別の基準
となる相対的閾値を決定する閾値決定手段と、前記話者
内歪み距離と前記決定した相対的閾値とを比較すること
により前記入力音声が自然音声かそれ以外の音かの種別
判定を行う手段と、を備えることを特徴とする。
【0016】上記構成において、閾値決定手段は、例え
ば、前記特徴差を前記選択した第1の話者別コードブッ
クでクラスタリングして各クラスタに属する距離の平方
和平均値を導出する手段と、前記選択した第2の話者別
コードブックを第1の話者別コードブックで量子化して
コードブック間距離を導出する手段とを有し、このコー
ドブック間距離と前記平方和平均値との差分値を前記相
対的閾値として決定するものとする。
【0017】
【作用】本発明では、例えばマイクロフォン等の音声入
力手段の特性がほぼ同一となる時間内に発話者からの二
種類の指定テキストに対応する音声を入力する。そし
て、各入力音声の特徴抽出後にその差を求めて、電気回
路特性などの影響の除去を図る。即ち、図4に示すよう
に、二つの入力音声(音声信号)の特徴には、声道特
徴,回路特性,マイクロフォン特性が含まれるが、両者
の差は、結局声道特徴の差分となる。この声道特徴差
を、指定テキストに対応する話者別コードブックによっ
てクラスタリングし、同一クラスタに属する声道特徴差
(ユークリッド距離)の平方和平均値を導出する。上記
コードブック間距離から平方和平均値を差し引いた値
を、自然音声であるか否かを判断するときの相対的閾値
として決定する。そして、話者内歪み距離が上記相対的
閾値を越えた場合、入力音声が録音再生音声あるいは合
成音声と判定し、後続の処理をこの時点で拒否する。上
記相対的閾値を越えない場合、入力音声が利用者の自然
音声と判断し、以後の処理を継続する。このようにすれ
ば、自然音声と録音再生あるいは合成音声の種別を判定
することができ、合成音声装置等を用いたシステムへの
不正侵入を防ぐことができる。
【0018】
【実施例】以下、図面を参照して本発明の好適な実施例
を詳細に説明する。図1は、本発明の一実施例に係る話
者照合装置1のブロック構成図であり、前述のテキスト
指定型話者照合方式を応用した装置の例を示す。
【0019】この話者照合装置1は、指定テキストに対
応する音声を入力する、例えばマイクロフォン等の音声
入力部10と、入力された音声の内容を認識する音声認
識部11と、各入力音声の特徴、即ち声道特徴(回路特
性およびマイクロフォン特性を含む)を抽出する特徴抽
出部12と、抽出した特徴量を話者別コードブックで量
子化するベクトル量子化部13と、特徴抽出部12の出
力と話者別コードブックとに基づいてアクティブな相対
的閾値を決定する閾値決定部14と、特徴抽出部12お
よびベクトル量子化部13の出力を比較する比較部15
と、比較部15の出力によって話者照合を行う話者照合
部16とを備えている。また、話者登録時にテキスト学
習音声データに対応する話者別のコードブックを作成す
る話者別コードブック作成部17と、作成された話者別
コードブックを格納するコードブック格納部18とを備
えている。コードブック格納部18は、閾値決定部14
に随時出力可能に接続されている。
【0020】次に、上記構成の話者照合装置1の動作を
説明する。本実施例では、話者登録時に、話者照合装置
1が二種類の指定テキスト、即ち指定テキスト1と指定
テキスト2とを任意に定め、これらテキストに対応する
学習用音声(自然音声)を登録対象話者に発声させる。
入力された各々の発声内容から話者別コードブックを話
者別コードブック作成部17で作成するとともに、作成
された話者別コードブックに基づいて学習用音声をベク
トル量子化し、各話者別コードブックのコードワード
(コードベクトル)の出現頻度を求める。そしてこの出
現頻度情報を当該話者別コードブックと共にコードブッ
ク格納部18に格納しておく。
【0021】話者照合に際しては、利用者に対して指定
テキスト1,2に対応するテスト音声の入力を促す。こ
れら音声の入力間隔は、マイクロフォン等の特性がほぼ
同一となる短時間に入力されることが好ましい。入力さ
れた各テスト音声に対して音声認識部11で音声認識処
理を施し、指定テキスト1,2に対応するテスト音声で
あるか否かを判定する。指定した内容に合致するテスト
音声であることが認識できたときは、特徴抽出処理部1
2で各テスト音声の特徴抽出を行う。テスト音声特徴の
抽出後は、指定テキスト1,2に対応する話者別コード
ブックをそれぞれコードブック格納部18から選び出
す。
【0022】選び出した話者別コードブックのうち、指
定テキスト1に対応する話者別コードブックをベクトル
量子化部13に入力する。そして対応する入力テスト音
声の特徴に対してベクトル量子化を施し、前掲の式の左
辺に相当する話者内歪み距離を求める。なお、この話者
内歪み距離は、実際には平均量子化歪み距離となる。ま
た、指定テキスト1および指定テキスト2に対応する話
者別コードブックを閾値決定部14に入力する。閾値決
定部15には、特徴抽出部12で抽出した各指定テキス
ト1,2の対応音声の特徴をも入力する。閾値決定部1
4では、これら入力情報に基づいて自然音声か否かを表
す相対的閾値を決定する。この閾値決定部14における
処理手順を図2を参照して詳細に説明する。
【0023】図2を参照すると、閾値決定部14では、
各指定テキストの対応音声の声道特徴差を求め(S2
1)、この声道特徴差を入力された話者別コードブック
(S22,S23)の任意の一つ、例えば指定テキスト
1対応の話者別コードブックに入力して、クラスタリン
グ処理を施す(S24)。そしてこれにより得られた複
数のクラスタ1〜Nに属する差分特徴量の距離平方の総
和を計算し、その平均値を求めて図示しないメモリに記
憶しておく(S25)。一方、他の話者別コードブック
(指定テキスト2対応の話者別コードブック)から各コ
ードベクトルを上記出現頻度情報に従って出現させ(S
26)、指定テキスト1対応の話者別コードブックで量
子化してコードブック間距離を求める(S27,S2
8)。これにより得られたコードブック間距離を上記差
分特徴量の距離平方の平均距離から差し引いて相対的閾
値を導出する(S29,S30)。この相対的閾値が前
掲の式の右辺に相当する。
【0024】図1に戻り、比較部15では、ベクトル量
子化部13で得られた話者内歪み距離と閾値決定部14
で決定した相対的閾値とを比較する。前述のように、話
者内歪み距離は、入力音声が録音再生音声か合成音声の
場合は相対的閾値より常に大きく、自然音声の場合は、
常に小さくなる。従って、両者の値の大小によって入力
音声の種別、即ち自然音声かそれ以外の音かを判定する
ことができるので、例えば入力音声が自然音声以外のと
きに話者照合部16での以後の処理を拒否するようにす
れば、他人の音声を悪用した不正侵入を阻止することが
できる。
【0025】
【発明の効果】以上の説明から明らかなように、本発明
によれば、指定テキストに対応する音声が音声合成装置
等によって作成され、話者照合装置内に入力された場合
であっても、装置内でそれを瞬時に検出できるので、話
者照合の際のセキュリティ性および照合の信頼性が格段
に高まる効果がある。
【0026】また、入力音声が自然音声であるかそれ以
外の音声であるかの種別判定に用いる相対的閾値が、二
つの入力音声の声道特徴差と各音声に対応する話者別コ
ードブックのコードブック間距離によってアクティブに
得られ、さらに相対的閾値との比較対象となる話者内歪
み距離が、第1の指定テキストに対応する入力音声およ
び話者別コードブックにより得られるので、複数の登録
話者が任意の時期に発話する場合であっても各々の入力
音声の種別判定が可能となる効果がある。これにより、
この種の話者照合処理を行うシステムに対する犯罪防止
の効果が期待できる。
【図面の簡単な説明】
【図1】本発明の一実施例に係る話者照合システムのブ
ロック構成図。
【図2】本実施例による閾値決定部の処理手順説明図。
【図3】本発明の原理を説明するための特徴空間の移動
概念図。
【図4】本発明により電気回路特性やマイクロフォン特
性等を除去する場合の概念図。
【図5】第1のテキスト依存型話者照合方式の処理概念
図。
【図6】第2のテキスト依存型話者照合方式の処理概念
図。
【図7】テキスト独立型話者照合方式の処理概念図。
【図8】従来のテキスト指定型話者照合方式の処理概念
図。
【図9】従来の話者照合システムへの不正侵入処理概念
図。
【符号の説明】
1 話者照合装置 10 音声入力部 11 音声認識部 12 特徴抽出処理部 13 ベクトル量子化部 14 閾値決定部 15 比較部 16 話者照合部 17 話者別コードブック作成部 18 コードブック格納部
フロントページの続き (56)参考文献 特開 平5−323900(JP,A) 特開 平1−302297(JP,A) 特開 平7−49696(JP,A) 特開 平6−167990(JP,A) 特開 昭61−272798(JP,A) 特開 昭59−53900(JP,A) 特開 平3−274596(JP,A) 実開 昭58−180600(JP,U) 実開 昭59−178698(JP,U) 実開 昭59−178696(JP,U) 特表 平2−501597(JP,A) (58)調査した分野(Int.Cl.7,DB名) G10L 17/00

Claims (5)

    (57)【特許請求の範囲】
  1. 【請求項1】 第1の指定テキストに対応する第1の話
    者別コードブックおよび第2の指定テキストに対応する
    第2の話者別コードブックを各話者別コードブックから
    出現するコードベクトルの頻度情報と共に格納してお
    き、前記第1および第2の指定テキストに対応する音声
    がそれぞれ入力されたときに、第1の指定テキストに対
    応する入力音声の特徴を前記第1の話者別コードブック
    で量子化して話者内歪み距離を導出するとともに、各入
    力音声の特徴差と各入力音声に対応する話者別コードブ
    ックとに基づいて音声種別の基準値となる相対的閾値を
    導出し、前記導出した話者内歪み距離と相対的閾値とを
    比較することにより前記入力音声が自然音声かそれ以外
    の音かの種別判定を行うことを特徴とする話者照合方
    法。
  2. 【請求項2】 前記種別判定は、前記第1の話者別コー
    ドブックのi番目のクラスタをCi、該クラスタCiのセ
    ントロイドをXi、該クラスタCiに属するj番目の第1
    の指定テキストに対応する特徴ベクトルをV1(i,j)、
    該クラスタCiに属するj番目の第2の指定テキストに
    対応する特徴ベクトルをV2(i,j)とし、 【数1】 Σ[V1(i,j)−Xi]2 ≦Σ[V2(i,j)−Xi]2−Σ[V1(i,j)−V2(i,j)]2 の条件式が成立すれば該入力音声を自然音声と判定し、
    成立しない場合は自然音声以外の音と判定することを特
    徴とする請求項1記載の話者照合方法。
  3. 【請求項3】 前記条件式において、Σ[V2(i,j)−
    Xi]2の項を、前記各入力音声に対応する話者別コード
    ブックのコードブック間距離で近似することを特徴とす
    る請求項2記載の話者照合方法。
  4. 【請求項4】 第1の指定テキストに対応する第1の話
    者別コードブックおよび第2の指定テキストに対応する
    第2の話者別コードブックを各々の話者別コードブック
    から出現するコードベクトルの頻度情報と共に格納した
    コードブック格納手段と、 第1および第2の指定テキストに対応する入力音声を認
    識して各入力音声の特徴を抽出する特徴抽出手段と、 抽出された各音声特徴に対応する話者別コードブックを
    それぞれ前記コードブック格納手段より選択するコード
    ブック選択手段と、 前記第1の指定テキストに対応する入力音声の特徴を前
    記選択した第1の話者別コードブックで量子化して話者
    内歪み距離を導出する手段と、 前記第1および第2の指定テキストに対応する入力音声
    の特徴差と前記選択した第1および第2の話者別コード
    ブックとに基づいて音声種別の基準となる相対的閾値を
    決定する閾値決定手段と、 前記話者内歪み距離と前記決定した相対的閾値とを比較
    することにより前記入力音声が自然音声かそれ以外の音
    かの種別判定を行う手段と、 を備えることを特徴とする話者照合装置。
  5. 【請求項5】 前記閾値決定手段は、 前記特徴差を前記選択した第1の話者別コードブックで
    クラスタリングして各クラスタに属する距離の平方和平
    均値を導出する手段と、 前記選択した第2の話者別コードブックを第1の話者別
    コードブックで量子化してコードブック間距離を導出す
    る手段とを有し、 このコードブック間距離と前記平方話平均値との差分値
    を前記相対的閾値として決定することを特徴とする請求
    項4記載の話者照合装置。
JP08728995A 1995-04-12 1995-04-12 話者照合方法および装置 Expired - Fee Related JP3251460B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP08728995A JP3251460B2 (ja) 1995-04-12 1995-04-12 話者照合方法および装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP08728995A JP3251460B2 (ja) 1995-04-12 1995-04-12 話者照合方法および装置

Publications (2)

Publication Number Publication Date
JPH08286692A JPH08286692A (ja) 1996-11-01
JP3251460B2 true JP3251460B2 (ja) 2002-01-28

Family

ID=13910652

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08728995A Expired - Fee Related JP3251460B2 (ja) 1995-04-12 1995-04-12 話者照合方法および装置

Country Status (1)

Country Link
JP (1) JP3251460B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0896712A4 (en) * 1997-01-31 2000-01-26 T Netix Inc SYSTEM AND METHOD FOR DISCOVERING RECORDED LANGUAGE
JP2002297199A (ja) * 2001-03-29 2002-10-11 Toshiba Corp 合成音声判別方法と装置及び音声合成装置
JP4967928B2 (ja) * 2007-08-27 2012-07-04 ヤマハ株式会社 音声処理装置およびプログラム
JP5201053B2 (ja) * 2009-03-31 2013-06-05 沖電気工業株式会社 合成音声判別装置、方法及びプログラム
JP5672487B2 (ja) * 2010-11-11 2015-02-18 株式会社国際電気通信基礎技術研究所 音声言語識別装置の学習装置、音声言語の識別装置、及びそれらのためのプログラム
JP2020181044A (ja) * 2019-04-24 2020-11-05 コニカミノルタ株式会社 情報処理装置、その制御方法、およびプログラム

Also Published As

Publication number Publication date
JPH08286692A (ja) 1996-11-01

Similar Documents

Publication Publication Date Title
Sahidullah et al. Introduction to voice presentation attack detection and recent advances
Wu et al. Spoofing and countermeasures for speaker verification: A survey
Kinnunen et al. Vulnerability of speaker verification systems against voice conversion spoofing attacks: The case of telephone speech
Shiota et al. Voice liveness detection algorithms based on pop noise caused by human breath for automatic speaker verification
Wu et al. A study on spoofing attack in state-of-the-art speaker verification: the telephone speech case
US6272463B1 (en) Multi-resolution system and method for speaker verification
Huang et al. Audio replay spoof attack detection by joint segment-based linear filter bank feature extraction and attention-enhanced DenseNet-BiLSTM network
Wu et al. On the study of replay and voice conversion attacks to text-dependent speaker verification
Shah et al. Biometric voice recognition in security system
Wu et al. Voice conversion versus speaker verification: an overview
JPH10214095A (ja) 話者認識装置
JP2002514318A (ja) 録音された音声を検出するシステムおよび方法
Gao et al. Detection and evaluation of human and machine generated speech in spoofing attacks on automatic speaker verification systems
Lau et al. Testing voice mimicry with the YOHO speaker verification corpus
Chakroun et al. Improving text-independent speaker recognition with GMM
Orken et al. Development of security systems using DNN and i & x-vector classifiers
Ozaydin Design of a text independent speaker recognition system
JP3251460B2 (ja) 話者照合方法および装置
Lin et al. Selective use of the speech spectrum and a VQGMM method for speaker identification
Singh et al. A critical review on automatic speaker recognition
Jayanna et al. Fuzzy vector quantization for speaker recognition under limited data conditions
JP2009116278A (ja) 話者認証の登録及び評価のための方法及び装置
JP4245948B2 (ja) 音声認証装置、音声認証方法及び音声認証プログラム
Wu et al. Identification of reconstructed speech
Hu et al. Fusion of two classifiers for speaker identification: removing and not removing silence

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071116

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081116

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091116

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091116

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101116

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111116

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121116

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees