DE69512961T2 - Spracherkennung auf Grundlage von "HMMs" - Google Patents

Spracherkennung auf Grundlage von "HMMs"

Info

Publication number
DE69512961T2
DE69512961T2 DE69512961T DE69512961T DE69512961T2 DE 69512961 T2 DE69512961 T2 DE 69512961T2 DE 69512961 T DE69512961 T DE 69512961T DE 69512961 T DE69512961 T DE 69512961T DE 69512961 T2 DE69512961 T2 DE 69512961T2
Authority
DE
Germany
Prior art keywords
speech
parameters
spectral
hmm
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69512961T
Other languages
English (en)
Other versions
DE69512961D1 (de
Inventor
Jari Ranta
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tecnomen Oy
Original Assignee
Tecnomen Oy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tecnomen Oy filed Critical Tecnomen Oy
Application granted granted Critical
Publication of DE69512961D1 publication Critical patent/DE69512961D1/de
Publication of DE69512961T2 publication Critical patent/DE69512961T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • G10L15/144Training of HMMs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/12Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)
  • Telephone Function (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Description

    Problem, das gelöst werden soll
  • Die Genauigkeit der sprecherunabhängigen Spracherkennung ist mit den gegenwärtig benutzten Algorithmen unzureichend, insbesondere dann, wenn die Erkennung durch angewählte Telefonverbindungen erfolgt. Die Genauigkeit eines Spracherkenners bedeutet, daß er die Fähigkeit hat, eine Äußerung dadurch zu erkennen, daß sie mit den vom System vorberechneten Wortschablonen verglichen wird.
  • Gegenwärtige Lösungen und ihre Nachteile
  • Herkömmlich verdeckte Markow-Modelle (HMM), die auf der Wahrscheinlichkeitstheorie beruhen, werden bei Spracherkennern benutzt. Während der Erkennungsphase wird die Wahrscheinlichkeit, daß ein bestimmtes Muster die Äußerung erzeugen kann, berechnet. Das Muster, das die höchste Wahrscheinlichkeit hat, wird als das erkannte Wort gewählt.
  • Quellenangabe [2] stellt eine Spracherkennungsmethode vor, die Vektorquantisierung (VQ) mit HMM's benutzt anstelle der statistischen Mustererkennung. Während der Erkennungsphase wird das Fehlerquadrat zwischen der Wortschablone und der vorgegebenen Äußerung berechnet. Wortschablonen sind HMM's, wobei jeder Zustand sein eigenes VQ-Referenzbuch hat. Jedes VQ-Referenzbuch wird aus Ubungsdaten mit einem LBG-Vektorquantisierungsalgorithmus [5] berechnet und enthält die typischen Sprachparameter, die in diesem Zustand auftreten. Eine Schablone, die das kleinste Fehlerquadrat ergibt, wird als das erkannte Wort gewählt. Der modifizierte Viterbialgorithmus, der benutzt wird, um den Abstand zu berechnen, ist ebenfalls in [2] beschrieben. Ein Spracherkener, der HMM's mit kontinuierlichen Mischdichten verwendet, wird in [3] vorgestellt. Er benutzt das Cepstrum, das von der LPC-Analyse abgeleitet ist, und seine Ableitung als den Sprachparameter (Spektralableitung). Der Vektor, der aus der Sprache berechnet ist, enthält Kurzzeitinformation über spektrale Änderungen im Signal (über das Cepstrum) und die Kurzzeitspektralableitung enthält Information über einen längeren Zeitraum (über das Delta-Cepstrum). Zählt man die Spektralableitung zu den Sprachparametern dazu, so erhält man eine genauere, zweidimensionale Darstellung des zeitabhängigen Sprachsignals (Frequenz und Zeit). Wie aus [3] ersichtlich, verbessert das die Erkennungsgenauigkeit des HMM-Modells, das kontinuierliche Mischdichten verwendet.
  • Allerdings ist die Erkennungsgenauigkeit mit jeder dieser beiden Methoden unzureichend.
  • Der patentierte Algorithmus [4], der für die Sprecherverifizierung benutzt wird, ergibt eine 1%ige falsche Erkennung und eine falsche Zurückweisungsrate, wenn man die Zahlen von 0 bis 9 benutzt, um die Verifizierung durchzuführen (in der Quellenangabe wird nicht erwähnt, wieviele Zahlen der Benutzer während des Verifizierungsvorganges sprechen muß).
  • Erfindung
  • Der Grundgedanken ist, die Methoden aus [2] und [3] miteinander zu kombinieren, das heißt die Spektralableitung, die in [3] gezeigt wird, zu den Sprachparametern des HMM-VQ-Algorithmus in [2] zu addieren und eine bessere Erkennungsgenauigkeit zu erhalten.
  • Die Erfindung sieht eine Spracherkennungsmethode vor, wie in Anspruch 1 festgelegt.
  • Der Spracherkenner in [2], der VQ-Verzerrungsmessung benutzt, wird mit den bekannten statistischen HMM's verglichen, die kontinuierliche oder diskrete Mischdichten benutzen, und die Überlegenheit des HMM-VQ über das herkömmliche HMM wird deutlich aufgezeigt. Da der Gebrauch der Spektralableitung bei statistischen HMM's die Erkennungsgenauigkeit verbessert, kann durch das Addieren der Spektralableitung zum HMM-VQ-Modell die Erkennungsgenauigkeit sogar noch mehr verbessert werden. Die Spektralableitungen enthalten Information über einen längeren Zeitraum. Durch die Kombination der beiden Parametersätze kann eine höhere Erkennungsrate erhalten werden, als durch den Gebrauch des Sprachspektrums allein wie in [2]. Während des Einübungsprozesses werden separate VQ-Referenzbücher für Sprach spektrum und Spektralableitungen berechnet.
  • Bei der Verwendung von Testdaten, erhalten durch angewählte Telefonleitungen, war die Erkennungsgenauigkeit höher, verglichen mit der Methode von [2]. Hundert Sprecher wurden zum Einüben benutzt und 25 verschiedene Sprecher wurden zum Testen benutzt. Der Wortschatz bestand aus 11 finnischen Worten, und es wurde eine Genauigkeit von 98,85% erhalten. Wenn ein Schwellenwert angelegt wurde, so daß die relative Entfernung zwischen dem besten und dem zweitbesten Wort größer als 10% sein mußte, bevor ein gültiges Wort erkannt wurde, so wurde eine 100%ige Genauigkeit erreicht, wobei 1,5% der Eingabe zurückgewiesen wurden. Die Quellenangabe gibt eine Erkennungsgenauigkeit von 100% an, doch wurden die Testdaten über ein Mikrophon höchster Qualität aufgenommen. Die Sprache aus dem Telefon ist viel schwieriger zu erkennen, da die Bandbreite begrenzt ist und die Antwortfrequenzen der Telefonleitungen sehr verschieden sein können.
  • Anwendungsbeispiel der Erfindung
  • Die vorgeschlagene Methode kann in gleicher Weise zur Spracherkennung verwendet werden wie statistische HMN's. Die Einheiten der Sprache, die erkannt werden sollen, können entweder Worte, Phoneme, Triphone und dergleichen sein.
  • Bei der Anwendung kann es sich zum Beispiel um ein Voice-Mail- System handeln, bei dem die Menübefehle durch Sprache anstatt durch Drucken gegeben werden ("... wenn Sie eine Nachricht hören wollen, drücken Sie 3 ..."). Das System hat gelernt, einen kleinen Wortschatz von Befehlsworten zu erkennen, der mit der Sprache des Benutzers verglichen wird.
  • Derselbe Algorithmus kann auch für die Sprecherverifizierung benutzt werden, und erste Versuche ergaben vielversprechende Ergebnisse. Wurde nur ein Wort zur Verifizierung benutzt, so war die Fehlerrate 0,21%. Der Fehler wird berechnet durch Multiplizieren der Zahl der falschen Zurückweisungen und der Zahl der falschen Erkennungen und das Ermitteln der Quadratwurzel des Ergebnisses [6]. Fünf verschiedene "richtige" Sprecher wurden beim Test benutzt, der mit 185 vorgeblichen Sprechern verglichen wurde. Die Wortmodelle wurden aus fünf Wiederholungen eines Wortes berechnet (vergleiche mit [4], was eine falsche Zurückweisungsrate von weniger als 1% ergibt). Die Fehlerrate, die in [6] erhalten wurde, betrug 3,2%, und zum Test wurden Sprachproben von hoher Qualität benutzt.
  • Die Fähigkeit, den Sprecher durch das Telefon zu erkennen, ist wichtig bei Voice-Mail-Anwendungen, wenn das Telefon keine DTMF-Töne übermitteln kann. In solch einem Fall gibt es keine andere verläßliche Methode, um den Anrufer zu erkennen als seine eigene Stimme.
  • Beschreibung der Vorgehensweise
  • Eine Methode zur diskreten, sprecherunabhängigen Spracherkennung wird im folgenden dargestellt:
  • Die Erkennungsmethode benutzt HMM's mit Vektorquantisierung zur Darstellung der Sprachparameter. Das HMM ist eine einfache Zustandsmaschine, bei der der Übergang nur zum gegenwärtigen oder zum nächsten Zustand auftreten kann. Ein Blockdiagramm der verschiedenen Phasen bei der Spracherkennung ist in Fig. 1 wiedergegeben. Der neue Spracherkenner benutzt HMM-Modelle, so daß jeder Zustand von zwei verschiedenen VQ-Referenzbüchern beschrieben wird. Das eine wird durch die Anwendung der Spektralparameter erhalten, die mit Hilfe der PLP-Analyse [1] berechnet werden, und das andere wird erhalten durch die Anwen dung der Spektralableitungsparameter.
  • Verschiedene Phasen der Erkennung 1. Sprachanalyse
  • Sprache, die erkannt werden soll, wird mit PLP-Analyse [1] in 30 ms-Teilen und unter Verwendung von 15 ms-Intervallen analysiert. Die Phasenanalyse ergibt die Sprachparameter ccl(m), wobei 1 ≤ m ≤ 5, was dieses 15 ms-Phonem darstellt. Der Vektor ccl(m) zum Zeitpunkt 1 wird mit dem Fenster Wc(m) gewichtet, was folgende Gleichung ergibt:
  • c&sub1;(m) = cc&sub1;(m)*Wc(m) (1)
  • 2. Berechnung der Parameter
  • Die Quellenangabe [3] beschreibt, wie der Gebrauch der Spektralableitung die Erkennungsgenauigkeit eines statistischen HMM's erhöht. Spektralableitung bedeutet den gewichteten Durchschnitt der Spektralparameter, die aus der Phasenanalyse erhalten werden. Der Durchschnitt wird über ein kurzes Zeitfenster berechnet, entsprechend der Gleichung (2)
  • wobei G ein Verstärkungsfaktor ist, der so gewählt ist, daß die Abweichungen der Vektoren c&sub1;(m) und c&sub1;(m) gleich sind. Der Wert, der hier gewählt wurde, war 0,2. Durch die Kombination dieser beiden Vektoren wird ein Parametersatz erhalten, der das Zeitphonem 1 beschreibt
  • O&sub1; = {c&sub1;(m), c&sub1;(m)} (3),
  • das aus zehn Elementen besteht. Der Sprachparametersatz wird mit C bezeichnet und der spektrale Ableitungsparameter wird mit C bezeichnet, das heißt
  • C = {c&sub1;(m)} und C = { c&sub1;(m)} (4)
  • 3. Einübungsphase
  • Die Wortschablonen werden für die Spektralparameter C und für die abgeleiteten Spektralparameter C getrennt eingeübt. Die Schablonen werden durch die Verwendung eines Vektorquantisierungsalgorithmusses eingeübt, und der Einübungsprozeß ist in Fig. 2 dargestellt.
  • 1. Sprachproben, die zum Einüben benutzt werden, werden zuerst mit Hilfe der PLP-Analyse analysiert, und die Vektoren C und C werden erhalten. Diese Vektoren beschreiben die Sprache in 15 ms-Intervallen. Jede analysierte Sprachprobe wird zuerst linear in Zustände eingeteilt, so daß jeder Zustand die gleiche Anzahl von Vektoren hat. Die Zustände entsprechen den Zuständen in einem HMM. Wenn ein HMM mit acht Zuständen gebraucht wird, so wird jede analysierte Sprachprobe in acht Teile von gleicher Länge eingeteilt. Diese lineare Einteilung ergibt einen Startpunkt für den Einübungsalgorithmus.
  • 2. Ein getrenntes Referenzbuch wird für jeden Zustand in einem HMM berechnet. Der Vektorquantisierungsalgorithmus wird auf jeden Vektor in jedem Zustand von jeder Probe angewendet. Beispielsweise werden alle Vektoren, die zum Zustand eins in jeder Sprechprobe gehören, dazu benutzt, ein Referenzbuch für den Zustand eins zu erzeugen. Das gleiche geschieht für die Zustände von zwei bis acht. Die Referenzbücher enthalten einen Satz von Vektoren, die das kleinste Abstandsquadrat zwischen den Vektoren, die zum Einüben benutzt werden, ergeben. Es gibt verschiedene Algorithmen, um einen Vektorenquantisierer zu entwerfen. Eine Methode, die in [5] dargestellt wird, wird hier angewendet.
  • 3. Wenn die optimalen Referenzbücher aus den Übungsvektoren berechnet sind, wird die VQ-Verzerrung jeder Sprachprobe aus dem Modell berechnet. Die Summe bezeichnet die "Güte" des Modells. Je kleiner die totale Verzerrung, um so besser stellt das Modell die Worte dar, die benutzt wurden, als das Modell entstand.
  • 4. Die Summe wird verglichen mit der Summe, die aus der vorherigen Wiederholung erhalten wurde. Ist die Summe größer als die vorhergehende Summe, dann endet der Einübervorgang.
  • 5. Ist die neue Summe kleiner, so werden die Sprachproben in einen neuen Satz von Zuständen geteilt, und der Lernprozeß beginnt bei Schritt 2. Die beste Zustandssequenz wird durch die Anwendung des Viterbialgorithmus gefunden.
  • Es ist wichtig, daß die Sprachproben unter denselben Bedingungen gesammelt werden, bei denen der Spracherkenner eingesetzt werden soll. Wenn Sprache durch das Telefon erkannt werden soll, dann müssen die Wortschablonen mit Worten, die aus dem Telefon gesammelt wurden, eingeübt werden. Falls verschiedene Bedingungen beim Einüben und beim Erkennen eingesetzt werden, so wird die Erkennungsgenauigkeit beträchtlich zurückgehen.
  • 4. Abstandsberechnung
  • Der Abstand eines Wortes wird zwischen der gesprochenen Sprache und der Wortschablone berechnet. Der Abstand D von jeder Wortschablone wird durch den modifizierten Viterbialgorithmus [2] berechnet entsprechend der folgenden Gleichung:
  • Hier bedeutet x&sub0;x&sub1; ... xL die Zustandssequenz eines HMM's, und VQxi bedeutet Referenzbuch am Zustand xi. Die Anzahl der Zustände im HMM wird mit S bezeichnet, das heißt: 1 ≤ xi ≤ S. L ist die Anzahl der Phoneme in einem Wort. d(xi-1, xi) ist null, wenn es einen Übergang vom Zustand xi-1 zum Zustand xi gibt. Andernfalls gilt d(xi-1, xi) = ∞. d(ci, VQxi) bezeichnet den kleinsten Abstand zwischen den Vektoren ci und VQxi, der definiert ist als
  • Hier ist vqj eine Komponente im Referenzbuch. Die Anzahl der Komponenten in einem Referenzbuch VQxi ist eine Potenzzahl von zwei, normalerweise 16 oder 32. Die Gleichung (7) berechnet das kleinste Fehlerquadrat zwischen dem Vektor ci und der Referenzbuchkomponente vqj. Die Gleichung (6) berechnet das kleinste Fehlerquadrat zwischen dem Vektor ci und dem Referenzbuch VQxi. In ähnlicher Weise bezeichnet d( ci, VQxi) die kleinste Entfernung zwischen den Vektoren ci und VQxi. Der Viterbialgorithmus, der in (5) angegeben ist, wird rekursiv berechnet, so daß die VQ-Verzerrung gleichzeitig zu beiden Parametersätzen dazugezählt wird, das heißt das kleinste Abstandsquadrat, das für die Spektralparameter und für die Spektralableitungsparameter berechnet wird. Das kann geschrieben werden als
  • Hier ist die Idee der Erfindung in mathematischer Form. Der Term d( ct,VQj) wird zum Viterbialgorithmus dazugezählt, und Gleichung (8) wird für jedes 15 ms-Zeitphonem t berechnet. Es besteht auch die Möglichkeit, zwei HMN's zu verwenden, wobei das erste unter Verwendung der Spektralparameter berechnet wird und das zweite unter Verwendung der Spektralableitungsparameter. Die Ergebnisse aus diesen beiden Modellen werden dann zusammengezählt, wobei entsprechend gewichtet wird, um das endgültige Erkennungsergebnis zu erhalten.
  • Quellenangaben:
  • [1] H. Hermansky, "Perceptual linear predictive (PLP) analysis of speech (Wahrnehmbare, lineare, vorhersagbare Sprachanalyse)", Journal of Acoustical Society of America, Band 87, Nr. 4, April 1990, Seiten 1738-1752.
  • [2] S. Nakagawa and H. Suzuki, "A new speech recognition method based an VQ-distortion measure and HMM (Eine neue Spracherkennungsmethode, die auf VQ-Verzerrungsmessung und HMM beruht)", ICASSP-93, Seiten II-676-II-679.
  • [3] L. R. Rabiner, J. G. Wilpon und F. K. Soong, "High performance connected digit recognition using hidden Markov models (Hochleistungsverbundzeichenerkennung unter Verwendung von verdeckten Markowmodellen)", IEEE Transactions an Acoustics Speech and Signal Processing, Band 37, Seiten 1214-1225, August 1989.
  • [4] High Accuracy Speaker Verification System (Sprechererkennungssystem mit hoher Genauigkeit), Ensigma Ltd.
  • [5] Y. Linde, A. Buzo, R. M. Gray, "An Algorithm of Vector Quantizer Design (Ein Algorithmus für den Entwurf eines Vectorquantisierers)", IEEE Transactions an Communications, Band COM-28, Nr. 1, Januar 1980.
  • [6] D. K. Burton, "Text-Dependent Speaker Verification Using Vector Quantization Source Coding (Textabhängige Sprecherverifizierung unter Verwendung von Vectorquantisierungsquellenreferenzen)", IEEE Transactions an Acoustics, Speech and Signal Processing, Band ASSP-35, Nr. 2, Seiten 133-143, Februar 1987.

Claims (1)

1. Spracherkennungsmethode, die auf Hidden-Markow-Modellen (HMM, verdeckte Markow-Modelle) beruht, die wahrnehmbare, lineare, vorhersagbare (Perceptual Linear Predictive PLP) Analyse benutzt, um die Sprachparameter der geäußerten Sprache zu berechnen, wobei die VQ-Verzerrung (= Vector Quantisation) der Sprachparameter aus den Referenzbüchern berechnet wird, wobei die Referenzbücher durch die Anwendung des LBG Algorithmus erzeugt werden, wobei die Wortschablone, die die geringste VQ-Verzerrung ergibt, als das erkannte Wort gewählt wird, dadurch gekennzeichnet, daß der LBG-Algorithmus angewandt wird, um Wortmodelle getrennt für Spektralparameter und für Spektraldifferentialparameter einzuüben und daß getrennte Referenzbücher für beide Parametersätze angewandt werden, die der Reihe nach angewandt werden, um jeden Zustand eines HMM nachzubilden.
DE69512961T 1994-05-30 1995-05-19 Spracherkennung auf Grundlage von "HMMs" Expired - Fee Related DE69512961T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FI942518A FI98162C (fi) 1994-05-30 1994-05-30 HMM-malliin perustuva puheentunnistusmenetelmä

Publications (2)

Publication Number Publication Date
DE69512961D1 DE69512961D1 (de) 1999-12-02
DE69512961T2 true DE69512961T2 (de) 2000-07-13

Family

ID=8540797

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69512961T Expired - Fee Related DE69512961T2 (de) 1994-05-30 1995-05-19 Spracherkennung auf Grundlage von "HMMs"

Country Status (10)

Country Link
US (1) US5943647A (de)
EP (1) EP0685835B1 (de)
AT (1) ATE186150T1 (de)
DE (1) DE69512961T2 (de)
DK (1) DK0685835T3 (de)
ES (1) ES2139112T3 (de)
FI (1) FI98162C (de)
GR (1) GR3032375T3 (de)
NO (1) NO307394B1 (de)
PT (1) PT685835E (de)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7630895B2 (en) * 2000-01-21 2009-12-08 At&T Intellectual Property I, L.P. Speaker verification method
US6076055A (en) * 1997-05-27 2000-06-13 Ameritech Speaker verification method
US6246978B1 (en) * 1999-05-18 2001-06-12 Mci Worldcom, Inc. Method and system for measurement of speech distortion from samples of telephonic voice signals
KR20010055168A (ko) * 1999-12-09 2001-07-04 윤덕용 인터넷 환경에서의 화자확인
US6801656B1 (en) 2000-11-06 2004-10-05 Koninklijke Philips Electronics N.V. Method and apparatus for determining a number of states for a hidden Markov model in a signal processing system
US20030225719A1 (en) * 2002-05-31 2003-12-04 Lucent Technologies, Inc. Methods and apparatus for fast and robust model training for object classification
US7970613B2 (en) 2005-11-12 2011-06-28 Sony Computer Entertainment Inc. Method and system for Gaussian probability data bit reduction and computation
US20070129945A1 (en) * 2005-12-06 2007-06-07 Ma Changxue C Voice quality control for high quality speech reconstruction
US8010358B2 (en) * 2006-02-21 2011-08-30 Sony Computer Entertainment Inc. Voice recognition with parallel gender and age normalization
US7778831B2 (en) * 2006-02-21 2010-08-17 Sony Computer Entertainment Inc. Voice recognition with dynamic filter bank adjustment based on speaker categorization determined from runtime pitch
KR100932538B1 (ko) * 2007-12-12 2009-12-17 한국전자통신연구원 음성 합성 방법 및 장치
US8788256B2 (en) * 2009-02-17 2014-07-22 Sony Computer Entertainment Inc. Multiple language voice recognition
US8442829B2 (en) * 2009-02-17 2013-05-14 Sony Computer Entertainment Inc. Automatic computation streaming partition for voice recognition on multiple processors with limited memory
US8442833B2 (en) * 2009-02-17 2013-05-14 Sony Computer Entertainment Inc. Speech processing with source location estimation using signals from two or more microphones
US9153235B2 (en) 2012-04-09 2015-10-06 Sony Computer Entertainment Inc. Text dependent speaker recognition with long-term feature based on functional data analysis
CN107039036B (zh) * 2017-02-17 2020-06-16 南京邮电大学 一种基于自动编码深度置信网络的高质量说话人识别方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4815134A (en) * 1987-09-08 1989-03-21 Texas Instruments Incorporated Very low rate speech encoder and decoder
US5274739A (en) * 1990-05-22 1993-12-28 Rockwell International Corporation Product code memory Itakura-Saito (MIS) measure for sound recognition
CA2483322C (en) * 1991-06-11 2008-09-23 Qualcomm Incorporated Error masking in a variable rate vocoder
US5371853A (en) * 1991-10-28 1994-12-06 University Of Maryland At College Park Method and system for CELP speech coding and codebook for use therewith
KR0132894B1 (ko) * 1992-03-13 1998-10-01 강진구 영상압축부호화 및 복호화 방법과 그 장치
JPH05257492A (ja) * 1992-03-13 1993-10-08 Toshiba Corp 音声認識方式
EP0562138A1 (de) * 1992-03-25 1993-09-29 International Business Machines Corporation Methode und Einrichtung zur automatischen Erzeugung von Markov-Modellen von neuen Wörtern zur Aufnahme in einem Wortschatz zur Spracherkennung
JPH0772840B2 (ja) * 1992-09-29 1995-08-02 日本アイ・ビー・エム株式会社 音声モデルの構成方法、音声認識方法、音声認識装置及び音声モデルの訓練方法
US5455888A (en) * 1992-12-04 1995-10-03 Northern Telecom Limited Speech bandwidth extension method and apparatus
US5590242A (en) * 1994-03-24 1996-12-31 Lucent Technologies Inc. Signal bias removal for robust telephone speech recognition

Also Published As

Publication number Publication date
NO307394B1 (no) 2000-03-27
US5943647A (en) 1999-08-24
EP0685835B1 (de) 1999-10-27
ES2139112T3 (es) 2000-02-01
EP0685835A1 (de) 1995-12-06
DK0685835T3 (da) 2000-02-14
ATE186150T1 (de) 1999-11-15
DE69512961D1 (de) 1999-12-02
NO952049D0 (no) 1995-05-23
FI98162C (fi) 1997-04-25
PT685835E (pt) 2000-04-28
FI942518A0 (fi) 1994-05-30
FI98162B (fi) 1997-01-15
NO952049L (no) 1995-12-01
FI942518A (fi) 1995-12-01
GR3032375T3 (en) 2000-04-27

Similar Documents

Publication Publication Date Title
DE69311303T2 (de) Sprachtrainingshilfe für kinder.
DE69127961T2 (de) Verfahren zur Spracherkennung
DE69705830T2 (de) Sprachverarbeitung
DE69432943T2 (de) Verfahren und Vorrichtung zur Sprachdetektion
DE69514382T2 (de) Spracherkennung
DE69226796T2 (de) Zeitliche Dekorrelationsverfahren zur störsicheren Sprechererkennung
DE69616568T2 (de) Mustererkennung
DE69519297T2 (de) Verfahren und vorrichtung zur spracherkennung mittels optimierter partieller buendelung von wahrscheinlichkeitsmischungen
DE69523219T2 (de) Anpassungsfähiges Lernverfahren zur Mustererkennung
DE69512961T2 (de) Spracherkennung auf Grundlage von "HMMs"
DE69719236T2 (de) Verfahren und System zur Spracherkennung mittels verborgener Markoff-Modelle mit kontinuierlichen Ausgangswahrscheinlichkeiten
DE69032777T2 (de) Spracherkennung unter Anwendung von Stichwörtern und Nichtstichwörter-Modellierung
DE69427083T2 (de) Spracherkennungssystem für mehrere sprachen
DE69831114T2 (de) Integration mehrfacher Modelle für die Spracherkennung in verschiedenen Umgebungen
DE3884880T2 (de) Billige Spracherkennungseinrichtung und Verfahren.
DE60125542T2 (de) System und verfahren zur spracherkennung mit einer vielzahl von spracherkennungsvorrichtungen
DE69425776T2 (de) Spracherkennungseinrichtung mit verbesserter Ausschliessung von Wörtern und Tönen welche nicht im Vokabular enthalten sind
DE69800006T2 (de) Verfahren zur Durchführung stochastischer Mustervergleiche für die Sprecherverifizierung
DE69613646T2 (de) Verfahren zur Sprachdetektion bei starken Umgebungsgeräuschen
DE60124559T2 (de) Einrichtung und verfahren zur spracherkennung
DE69220825T2 (de) Verfahren und System zur Spracherkennung
DE69423692T2 (de) Sprachkodiergerät und Verfahren unter Verwendung von Klassifikationsregeln
DE60004331T2 (de) Sprecher-erkennung
DE4310190A1 (de) Sprecher-Verifizierungssystem unter Verwendung der Abstandsmessung nächster Nachbarn
EP1649450A1 (de) Verfahren zur spracherkennung und kommunikationsger t

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee