DE60212477T2 - Spracherkennung mit Kompensation konvolutiver Verzerrung und additiven Rauschens - Google Patents

Spracherkennung mit Kompensation konvolutiver Verzerrung und additiven Rauschens Download PDF

Info

Publication number
DE60212477T2
DE60212477T2 DE60212477T DE60212477T DE60212477T2 DE 60212477 T2 DE60212477 T2 DE 60212477T2 DE 60212477 T DE60212477 T DE 60212477T DE 60212477 T DE60212477 T DE 60212477T DE 60212477 T2 DE60212477 T2 DE 60212477T2
Authority
DE
Germany
Prior art keywords
vector
noise
mean
speech
models
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60212477T
Other languages
English (en)
Other versions
DE60212477D1 (de
Inventor
Yifan Plano Gong
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Texas Instruments Inc
Original Assignee
Texas Instruments Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Texas Instruments Inc filed Critical Texas Instruments Inc
Publication of DE60212477D1 publication Critical patent/DE60212477D1/de
Application granted granted Critical
Publication of DE60212477T2 publication Critical patent/DE60212477T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)
  • Complex Calculations (AREA)
  • Time-Division Multiplex Systems (AREA)

Description

  • GEBIET DER ERFINDUNG
  • Diese Erfindung betrifft die Spracherkennung und insbesondere die Kompensation von Hintergrundrauschen und Kanalverzerrung.
  • HINTERGRUND DER ERFINDUNG
  • Eine Spracherkennungseinrichtung, die mit Sprachdaten aus einer verhältnismäßig leisen Büroumgebung trainiert ist und in einer mobilen Umgebung betrieben wird, kann mindestens auf Grund von Hintergrundgeräuschen und das Mikrophon betreffenden Veränderungen, die als Quellen für Verzerrungen wirksam werden, versagen. Das Hintergrundgeräusch kann von einem Computer-Ventilator, von einem Kraftfahrzeugmotor und/oder Straßenlärm sein. Die Mikrophonveränderungen können auf die Qualität des Mikrophons, handgehalten oder nicht, und seine Position in Bezug auf den Mund zurückzuführen sein. Bei einer Anwendung der Spracherkennung in einer mobilen Umgebung unterliegen sowohl die Mikrophon-Vorbehandlung als auch das Hintergrundrauschen Veränderungen.
  • Eine Cepstral-Mittelwertnormierung (CMN) setzt den Mittelwert einer Äußerung zurück und ist eine einfache und wirksame Methode, um mit einer Faltungsverzerrungen wie etwa einer Fernsprechkanalverzerrung umzugehen, siehe B. Atal: Effectiveness of Linear Prediction Characteristics of the Speech Wave for Automatic Speaker Identification and Verification, in: Journal of Acoustics Society of America, Bd. 55, 1974, S. 1304–1312. Eine spektrale Subtraktion (SS) vermindert das Hintergrundrauschen im Merkmalraum; siehe den Artikel von S. F. Boll: Suppression of Acoustic Noise in Speech Using Spectral Subtraction, in: IEEE Transactions on Acoustics, Speech and Signal Processing, ASSP-27(2), April 1979, S. 113–129. Die so genannte Parallel Model Combination (PMC, engl.) ergibt eine Approximation von Sprachmodellen unter Rauschbedingungen ausgehend von rauschfreien Sprachmodellen und Schätzungen für das Rauschen; siehe M. J. F. Ges and S. Young: An Improved Approach to the Hidden Markov Model Decomposition of Speech and Noise, in: Proceedings of IEEE International Conference on Acoustics, Speech and Signal Processing, Bd. 1, USA, April 1992, S. 233–236. Das Verfahren erfordert keine Trainingsdaten.
  • Eine gemeinsame Kompensation von Zusatzrauschen und faltungsbedingtem Rauschen kann durch die Einführung eines Kanalmodells und eines Rauschmodells erzielt werden. Ein systematischer spektraler Fehler durch additives Rauschen und eine cepstrale Verzerrung für faltungsbedingtes Rauschen werden in einem Artikel von Afify, Y. Gong und J. P. Haton eingeführt. Dieser Artikel erschien unter dem Titel "A General Joint Additive and Convolutive Bias Compensation Approach Applied to Noisy Lombard Speech Recognition" in IEEE Trans. on Speech and Audio Processing, 6(6), November 1998, S. 524–538. Die fünf Arten der systematischen Fehler können durch Anwenden einer Erwartungswertmaximierung (EM) sowohl im Spektral- als auch im Faltungsbereich berechnet werden. Ein Verfahren, um die Faltungskomponente zu berechnen, wobei ein erneutes Abtasten von Trainingsdaten erforderlich ist, ist von J. L. Gauvain u. a. präsentiert worden; siehe J. L. Gauvain, L. Lamel, M. Adda-Decker und D. Matrouf: Developments in Continuous Speech Dictation using the ARPA NAB News Task, in: Proc. of IEEE International Conference on Acoustics, Speech, and Signal Processing, Detroit, 1996, S. 73–76. Außerdem ist eine Lösung für die Faltungskomponente durch ein Verfahren des steilstmöglichen Abfalls berichtet worden; siehe Y. Minami und S. Furui: A Maximum Likelihood Procedure for a Universal Adaptation Method Based on HMM Composition, in: Proc. of IEEE International Conference on Acoustics, Speech and Signal Processing, Detroit, 1995, S. 129–132. Ein Verfahren von Y. Minami und S. Furui erfordert zusätzliche allgemein gültige Sprachmodelle sowie eine Neubestimmung der Kanalverzerrung mit den allgemein gültigen Modellen, wenn Kanalveränderungen auftreten; siehe Y. Minami und S. Furui: Adaptation Method Based on HMM Composition and EM Algorithm, in: Proceedings of IEEE International Conference on Acoustics, Speech and Signal Processing, Atlanta 1996, S. 327–330.
  • Die Verfahren, die von M. F. J. Gales in: PMC for Speech Recognition in Additive and Convolutional Noise, Technical Report TR-154, CUED/F-INFENG, Dezember 1993, vorgestellt wurden, erfordern zwei Durchläufe der Testäußerung, z. B. eine Parameterschätzung gefolgt von der Erkennung, mehrere Transformationen zwischen Cepstral- und Spektralbereich und ein Gaußsches Mischungsmodell für unverfälschte Sprache.
  • Alternativ können die nichtlinearen Veränderungen durch beide Verzerrungstypen durch lineare Gleichungen genähert werden, vorausgesetzt, die Veränderungen sind gering. Der Jacobi-Ansatz, der Sprachmodell-Parameteränderungen als das Produkt aus einer Jacobi-Matrix und dem Unterschied in verrauschten Zuständen modelliert, und eine statistische lineare Approximation gehen beide in diese Richtung; siehe S. Sagayama, Y. Yamaguchi und S. Takahashi: Jacobian Adaptation of Noisy Speech Models, in: Proceedings of IEEE Automatic Speech Recognition Workshop, Santa Barbara, CA, USA, Dezember 1997, IEEE Signal Processing Society, S. 396–403, und außerdem N. S. Kim: Statistical Linear Approximation for Environment Compensation, IEEE Signal Processing Letters, 5(1): 8.-10. Januar 1998.
  • Eine Maximum Likelihood Linear Regression (MLLR, engl.) transformiert HMM-Parameter so, dass sie an die Verzerrungsfaktoren angepasst sind; siehe C. J. Leggetter und P. C. Woodland: Maximum Likelihood Linear Regression for Speaker Adaptation of Continuous Density HMMs, in: Computer, Speech and Language, 9(2), 1995, S. 171–185. Dieses Verfahren ist bei beiden Quellen wirksam, erfordert jedoch Trainingsdaten und führt die Abhängigkeit von Sprechern ein.
  • Yamamoto H. u. a.: Fast speech recognition algorithm under noisy environment using modified CMS-PMC and improved IDMM + SQ, ICASSP 1997, offenbart eine Modellanpassung durch Kombinieren von PMC und CMN.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die Erfindung ist durch die unabhängigen Ansprüche definiert. Ausführungsformen sind wie in den abhängigen Ansprüchen dargelegt beschaffen.
  • Gemäß der vorliegenden Erfindung wird ein neues Verfahren geschaffen, das Rauschen und Kanalverzerrungen gleichzeitig bearbeitet, um ein sprecherunabhängiges System gegen verschiedenste Arten des Rauschens und der Kanalverzerrungen robust zu machen.
  • BESCHREIBUNG DER ZEICHNUNG
  • 1 veranschaulicht eine Spracherkennungseinrichtung gemäß einer Ausführungsform der vorliegenden Erfindung; und
  • 2 veranschaulicht das Verfahren der vorliegenden Erfindung.
  • BESCHREIBUNG BEVORZUGTER AUSFÜHRUNGSFORMEN DER VOR-LIEGENDEN ERFINDUNG
  • In 1 ist eine Spracherkennungseinrichtung gemäß der vorliegenden Erfindung veranschaulicht. Die Sprache wird der Erkennungseinrichtung 11 zugeführt. Um den Wortlaut zu erkennen, wird die Sprache mit Hidden-Markov-Modellen (HMMs) 13 verglichen. Die Modelle wurden zunächst auf der Grundlage von Sprache geschaffen, die in einer ruhigen Umgebung und mit einem Mikrophon guter Qualität aufgezeichnet wurde. Es besteht die Aufgabe, eine Sprachmodellmenge zu entwickeln, die für einen Betrieb bei gleichzeitigem Vorhandensein von Kanal-/Mikrophon-Verzerrungen und Hintergrundrauschen geeignet ist. Gemäß der vorliegenden Erfindung wird eine Sprachmodellmenge unter Verwendung einer Statistik über das Rauschen und Sprache geschaffen. Ein Verfahren mit geringem Rechenaufwand integriert sowohl PMC als auch CMN.
  • Wie 2 zeigt, ist der erste Schritt 1 das Starten mit HMM-Modellen, die an unverfälschter Sprache mit Cepstral-Mittelwertnormierung trainiert sind. Diese Modelle werden modifiziert, um Modelle für die Kompensation einer Kanal/Mikrophon-Verzerrung (Faltungsverzerrung) und eines gleichzeitigen Hintergrundrauschens (additiven Rauschens) zu erhalten. Bei einem HMM-Modell gibt es eine Menge Parameter, wovon jedoch nur eine Teilmenge geändert wird, und zwar die mittleren Vektoren mp,j,k. Die mittleren Vektoren mp,j,k des originalen Modellraums werden modifiziert, wobei p der Index der Wahrscheinlichkeitsdichtefunktion (PDF: Probability Density Function (engl.)), j der Zustand und k die Mischungskomponente ist.
  • Der zweite Schritt 2 ist die Berechnung des so genannten mittleren mel-skalierten Cepstrumkoeffizienten-Vektors (MFCC-Vektors) über die trainierte Datenbank: Frage alle Daten ab und berechne den Mittelwert, um b zu erhalten.
  • Der dritte Schritt 3 besteht darin, den Mittelwert b zu jedem Vorrat mittlerer Vektoren, der durch mp,j,k repräsentiert ist, zu addieren, Gleichung (1), um Folgendes zu erhalten: m p,j,k = mp,j,k + b (1)
  • Beispielsweise könnte es 100 PDFs, 3 Zustände pro PDF und 2 Vektoren pro Zustand oder insgesamt 600 Vektoren geben.
  • Im vierten Schritt 4 wird für eine bestimmte eingegebene Testäußerung ein Schätzwert des Hintergrundrauschvektors X ~ berechnet.
  • Es sei ul Δ[ul1 , ul2 , ... ulD ] und vl Δ[vl1 , vl2 , ... vlD ], wobei l bedeutet, dass die Werte im Log-Spektral-Bereich dargestellt sind.
  • Es wird der Kombinationsoperator ⊕ eingeführt, so dass: wl Δul ⊕ vl = [wl1 ,wl2 , ... wlD ] (2) mit wlj = log(exp(ulj ) + exp(vlj )) (3)
  • Im Schritt 5 werden die an das Rauschen X ~ angepassten mittleren Vektoren unter Verwendung der Gleichung 4 berechnet: m ⌢p,j,k = IDFT(DFT(m p,j,k) ⊕ DFT(X ⌢)) (4)wobei DFT die DFT-Operation, IDFT die zur DFT inverse Operation und m p,j,k der rauschkompensierte mittlere Vektor ist.
  • Die Gleichung 4 umfasst mehrere Operatoren. DFT ist die diskrete Fourier-Transformation und IDFT ist die inverse diskrete Fourier-Transformation. ⊕ ist eine Operation mit zwei Vektoren, A ⊕ B = C. Wie ⊕ definiert ist, ist aus den Gleichungen 2 und 3 ersichtlich. Die Gleichung 2 sagt aus, dass die Operation ⊕ auf zwei Vektoren u und v wirkt und das Ergebnis ein Vektor der Dimension D oder [wl1 , wl2 , ... wlD ]T ist, wobei T die Transposition ist. Aus zwei Vektoren wird ein weiterer Vektor erzeugt. Es ist nun jedes Element in dem resultierenden Vektor zu bestimmen. Die Gleichung 3 sagt aus, dass das j-te Element in diesem Vektor (w l / j) als Logarithmus der Summe der Exponentialfunktion des Elements von u und der Exponentialfunktion des j-ten Elements von v definiert ist. Dies vervollständigt die Definition der Gleichung 4.
  • In den folgenden Schritten soll der mittlere Vektor b ^ der verrauschten Daten y über dem verrauschten Sprachraum N (des resultierenden Modells) entfernt werden. Es könnten genügend verrauschte Daten von kompensierten Modellen synthetisiert werden, dies erfordert jedoch sehr viele Berechnungen. Gemäß der vorliegenden Erfindung wird der Vektor unter Verwendung einer Statistik verrauschter Modelle berechnet. Die gesamte Erkennungseinrichtung wird mit CMN (Cepstral-Mittelwertnormierungsmodus) betrieben, wobei jedoch die Modelle in Gleichung 4 nicht länger mittelwertnormiert sind. Das Problem des additiven Rauschens ist damit erledigt. Die zweite Hälfte der Verarbeitung ist das Entfernen der Cepstral-Mittelwerte aus den in Gleichung 4 definierten Modellen. Dies ist nicht schwierig, da die Modelle in Gleichung 4 vorliegen. Im Schritt 6 ist über alle Samples, die durch die Gleichung 4 erzeugt werden, zu integrieren, um den Mittelwert zu erhalten. Der Mittelwert ist b ^. Die Gleichung 5 ist diese Integration.
  • Es sei P die Variable, die den PDF-Index bezeichnet, J die Variable für den Zustandsindex und K die Variable für den Mischungskomponenten-Index. b ^ = E{y} = NyΣpΣjΣk P,(p)PJ|,(j,p)PK|,,J(k|p,j)PY|,,,J,K(y|p,j,k)dy (5)Da p(y|p,j,k) = N(y,IDFT(DFT(m p,j,k) ⊕ DFT(X ~)),Ep,j,k) (6)gilt: b ⌢ = ΣpΣjΣkPH(p)PJ|H(j|p)PK|H,J(k|p,j)m ⌢p,j,k) (7)
  • Die Gleichung 7 zeigt, dass b ^ analytisch berechnet werden kann und es nicht erforderlich ist, die physikalische Erzeugung und Integration auszuführen. Das Endergebnis ist die Gleichung 7, welche die Integration in mehrere Summen überführt hat: Summen über die Wahrscheinlichkeitsdichtefunktionen und die Summe über Zustände und die Summe über Mischungskomponenten. Dann gibt es mehrere Größen: PH ist die Wahrscheinlichkeit, den PDF-Index zu haben, PJ für ein gegebenes H ist die Wahrscheinlichkeit, in dem Zustand zu sein, wenn PDFp gegeben ist. Die nächste ist die Wahrscheinlichkeit, bei den gegebenen Mischungskomponenten p, j den PDF-Index zu haben. Der mittlere Vektor des kompensierten Modus. Abschließend wird dieses b ^ aus dem kompensierten Mo dell entfernt, um das Zielmodell zu erhalten. Dies erfolgt im Schritt 7. Das Zielmodell ist: m .p,j,k = m ^p,j,k – b ^ (8)
  • Dieses Zielmodell soll in die Erkennungsvorrichtung geladen werden. Diese Operation wird für jede Äußerung durchgeführt.
  • Die Berechnung von b ^ erfordert folglich die Kenntnis der Wahrscheinlichkeit jeder PDF. Es gibt zwei Probleme mit P (, = p):
    • – den zusätzlich erforderlichen Speicherplatz;
    • – die Abhängigkeit von der Erkennungsaufgabe, z. B. Vokabular, Grammatik.
  • Obwohl es möglich ist, diese Wahrscheinlichkeit zu erhalten, sollen die folgenden vereinfachten Fälle betrachtet werden.
  • Die Operation zur Berechnung von b ^ kann mit drei Näherungen vereinfacht werden. Die erste verwendet gleiche Wahrscheinlichkeiten für PH(p) oder die Zwangsbedingung C.
    • 1. Verwendung gleicher Wahrscheinlichkeiten für PH(p): PH(p)= C (9)
    • 2. Verwendung gleicher Wahrscheinlichkeiten für PH(p), PJ|H(j|p) und PK|H,J(k|p,j): PH(p) = C, PJ|H(j|p) = D, PK|H,J(k|p,j) = E (10)
    • 3. Der mit der Gleichung 10 beschriebene Fall besteht eigentlich darin, über die kompensierten mittleren Vektoren m p,j,k zu mitteln. Bezug nehmend auf die Gleichungen 4 und 1 kann erwartet werden, dass durch das Mitteln der Sprachanteil m p,j,k ebenso wie die CMN vermindert wird. Folglich könnte die Gleichung 7 weiter vereinfacht werden zu: b ⌢ = IDFT(DFT(b) ⊕ DFT(X ⌢)) (11)
  • Das Modell mTp ,j,k,t wird dann mit einer CMN auf verrauschte Sprache angewendet. Leider ist b ^ in allen obigen Fällen eine Funktion sowohl des Kanal- als auch des Hintergrundrauschens. Mit anderen Worten: In Gegenwart von Rauschen gibt es keine Garantie, dass der Kanal durch solch einen Vektor wie für eine CMN zurückgesetzt wird.
  • Es wurde eine Teilmenge der Freisprech-Aufzeichnungen enthaltenden WAVE-Datenbank benutzt, die aus drei Aufzeichnungssitzungen besteht: geparkttrn (Fahrzeug geparkt, Motor aus), geparkt (Fahrzeug geparkt, Motor aus) und Stadtfahrt (Fahrzeug im stockenden Verkehr).
  • In jeder Sitzung lasen 20 Sprecher (10 davon männlich) 40 Sätze bzw. Aussprüche, was 800 Äußerungen ergibt. Jeder Ausspruch ist eine Folge von 10, 7 oder 4 Zeichen, mit gleichen Wahrscheinlichkeiten. Die Datenbank wird mit 8 kHz abgetastet, bei einer MFCC-Analyserahmendauer von 20 ms. Der Merkmalsvektor besteht aus 10 statistischen und 10 dynamischen Koeffizienten.
  • Die in allen Versuchen verwendeten Hidden-Markov-Modelle (HMMs) sind an unverfälschten TIDIGITS-Sprachdaten trainiert worden. Es wird eine auf der Äußerung basierende Cepstral-Mittelwertnormierung angewendet. Die HMMs enthalten 1957 mittlere Vektoren und 270 diagonale Varianzen. Auf der Grund lage der TIGIDIT-Testmenge bewertet weist die Erkennungseinrichtung eine Wortfehlerrate von 0,36 % auf.
  • Um die Leistungsfähigkeit in einer geräuschvollen Umgebung zu verbessern, können die Varianzen der Gaußschen PDFs an einige schwach verrauschte Daten, z. B. WAVES-parked_eval-Daten MAP-angepasst werden. Eine solche Anpassung wird sich nicht auf die Erkennung von unverfälschter Sprache auswirken, jedoch den Varianz-Unterschied zwischen HMMs verrauschter Sprache verringern. Der neue Algorithmus wird als "gemeinsame Kompensation von additivem Rauschen und Faltungsverzerrung" (JAC: joint compensation of additive noise and convolutive distortion (engl.)) bezeichnet.
  • Figure 00100001
    Tabelle 1: Wortfehlerrate (WER)(%) in Abhängigkeit von Fahrzuständen und Kompensationsverfahren
  • Die Tabelle 1 zeigt, dass:
    • • im Vergleich zur rauschfreien Erkennung (WER 0,36 %) ohne jede Kompensation (BASELINE) die Leistungsfähigkeit der Erkennung stark nachlässt;
    • • die CMN die Wortfehlerrate für Daten aus dem geparkten Zustand wirksam verringert, jedoch bei Fahrzuständen, in denen additives Rauschen dominierend wird, unwirksam ist;
    • • die PMC die Wortfehlerrate für Fahrzustände wesentlich verringert, jedoch für Daten aus dem geparkten Zustand, in dem die Mikrophon-Fehlanpassung dominierend ist, zu schlechten Ergebnissen führt;
    • • alle gemeinsamen Kompensationen von additivem Rauschen und Faltungsverzerrung (JAC) zu geringeren Wortfehlerraten als die nicht auf diesem Prinzip beruhenden Verfahren führen;
    • • eine Vereinfachung der Gleichung 7 zur Gleichung 9 und dann zur Gleichung 10 eine schrittweise Zunahme der Wortfehlerrate zur Folge hat, wenngleich die Verschlechterung nicht schwerwiegend ist. Insbesondere sind die Informationen in der PDF-Wahrscheinlichkeit für die Leistungsfähigkeit unkritisch;
    • • eine vereinfachte gemeinsame Kompensation von additivem Rauschen und Faltungsverzerrung (JAC) in allen Tests die niedrigste Wortfehlerrate bietet. Für diese Freisprech-Spracherkennung vermindert das neue Verfahren die Wortfehlerrate um 61 % für den geparkten Zustand und 94 % für den Zustand der Stadtfahrt.

Claims (12)

  1. Verfahren zum Modifizieren originaler Hidden-Markov-Modelle (HMM), die an unverfälschter Sprache mit Cepstral-Mittelwertnormierung trainiert sind, um angepasste Modelle zu schaffen, die gleichzeitig eine Faltungsverzerrung und additives Rauschen kompensieren, das die folgenden Schritte umfasst: für jede Sprachäußerung: Berechnen (2) eines mittleren mel-skalierten Cepstrumkoeffizienten-Vektors (MFCC-Vektor) b über die unverfälschte Datenbank; Addieren (3) des mittleren MFCC-Vektors b zu den mittleren Vektoren mp,j,k der originalen HMM-Modelle, wobei p der Index der Wahrscheinlichkeitsdichtefunktion (PDF) ist, j der Zustand ist und k die Mischungskomponente ist, um m p,j,k zu erhalten; Berechnen (4) eines Schätzwerts des Hintergrundrauschvektors X ~ für die gegebene Sprachäußerung; Berechnen (5) von an das Rauschen angepassten mittleren Modellvektoren m ⌢p,j,k = IDFT(DFT(m p,j,k) ⊕ DFT(X ⌢)), wobei die inverse diskrete Fourier-Transformation aus der Kombination ⊕ der diskreten Fourier-Transformation der mittleren Vektoren m p,j,k und aus der diskreten Fourier-Transformation des geschätzten Rauschens X ~ gebildet wird, wobei der Kombinationsoperator ⊕ definiert ist durch wl Δ ul ⊕ vl = [wl1 , wl2 , ... wlD ]T , mit ul Δ [ul1 , ul2 , ...ulD ]T , vl Δ [vl1 , vl2 , ... vlD ]T ; und wlj = log(exp(ulj ) + exp(vlj )); und Berechnen (6) eines mittleren Vektors b ⌢ der verrauschten Daten über dem verrauschten Sprachraum und Entfernen (7) des mittleren Vektors b ⌢ der verrauschten Daten aus den an das Rauschen angepassten mittleren Modellvektoren m ⌢p,j,k , um die angepassten Modelle zu erhalten.
  2. Verfahren nach Anspruch 1, bei dem der Schritt des Berechnens des mittleren Vektors b ⌢ der verrauschten Daten über den verrauschten Sprachraum den Vektor unter Verwendung einer Statistik des verrauschten Modells unter Verwendung von b ⌢ = ΣpΣjΣkPH(p)PJ|H(j|p)PK|H,J(k|p,j)m ⌢p,j,k)berechnet, wobei H die Variable ist, die den PDF-Index bezeichnet, J die Variable für den Zustandsindex ist und K die Variable für den Mischungskomponenten-Index ist.
  3. Verfahren nach Anspruch 2, bei dem das Berechnen des mittleren Vektors b ⌢ gleiche Wahrscheinlichkeiten für PH(p) verwendet: PH(p) =C
  4. Verfahren nach Anspruch 2, bei dem für PH(p), PJ|H(j|p) und PK|H,J(k|p,j) gleiche Wahrscheinlichkeiten verwendet werden: PH(p) = C, PJ|H(j|p) = D, PK|H,J(k|p,j) = E.
  5. Verfahren nach Anspruch 3, bei dem der mittlere Vektor b ⌢ gleich b ⌢ = IDFT(DFT(b) ⊕ DFT(X ⌢)) wird.
  6. Verfahren zur Spracherkennung mit gleichzeitiger Kompensation einer Faltungsverzerrung und eines additiven Rauschens, das die folgenden Schritte umfasst: Bereitstellen von Hidden-Markov-Modellen (HMM), die an unverfälschter Sprache mit Cepstral-Mittelwertnormierung trainiert sind; und Modifizieren der Modelle durch das Verfahren nach einem der vorhergehenden Ansprüche.
  7. Spracherkennungseinrichtung mit gleichzeitiger Kompensation einer Faltungsverzerrung und des additiven Rauschens, die in Kombination umfasst: – Mittel zum Erzeugen angepasster Hidden-Markov-Modelle (HMM) durch Modifizieren originaler HMM-Modelle, die an unverfälschter Sprache mit Cepstral-Mittelwertnormierung trainiert sind, wobei die Erzeugungsmittel umfassen: – Mittel, die für jede Sprachäußerung einen mittleren mel-skalierten Cepstrumkoeffizienten-Vektors (MFCC-Vektor) b über die unverfälschte Datenbank berechnen; – Mittel zum Addieren des mittleren MFCC-Vektors b zu den mittleren Vektoren mp,j,k der originalen HMM-Modelle, wobei p der Index der Wahrscheinlichkeitsdichtefunktion (PDF) ist, j der Zustand ist und k die Mischungskomponente ist, um m p,j,k zu erhalten; – Mittel, die für eine gegebene Sprachäußerung einen Schätzwert des Hintergrundrauschvektors X ~ berechnen; – Mittel zum Berechnen von an das Rauschen angepassten mittleren Modellvektoren m ⌢p,j,k = IDFT(DFT(m p,j,k) ⊕ DFT(X ⌢)), wobei die inverse diskrete Fourier-Transformation aus der Kombination ⊕ der diskreten Fourier-Transformation der mittleren Vektoren m p,j,k und aus der diskreten Fourier-Transformation des geschätzten Rauschens X ~ gebildet wird, wobei der Kombinationsoperator ⊕ definiert ist durch wl Δ ul ⊕ vl = [wl1 , wl2 , ... wlD ]T , mit ul Δ [ul1 , ul2 , ... ulD ]T , vl Δ [vl1 , vl2 , ... vlD ]T ; und wlj = log(exp(ulj ) + exp(vlj )); und – Mittel zum Berechnen des mittleren Vektors b ⌢ der verrauschten Daten über den verrauschten Sprachraum und Mittel zum Entfernen des mittleren Vektors b ⌢ der verrauschten Daten aus den an das Rauschen angepassten mittleren Modellvektoren m p,j,k , um die angepassten Modelle zu erhalten; und – Mittel zum Vergleichen der angepassten Modelle mit der Sprachäußerung, um die Eingangssprache zu erkennen.
  8. Erkennungseinrichtung nach Anspruch 7, bei der die Mittel zum Berechnen des mittleren Vektors b ⌢ der verrauschten Daten über den verrauschten Sprachraum den Vektor unter Verwendung einer Statistik des verrauschten Modells unter Verwendung von: b ⌢ = ΣpΣjΣkPH(p)PJ|H(j|p)PK|H,J(k|p,j)m ⌢p,j,k)berechnen, wobei H die Variable ist, die den PDF-Index bezeichnet, J die Variable für den Zustandsindex ist und K die Variable für den Mischungskomponenten-Index ist.
  9. Erkennungseinrichtung nach Anspruch 8, bei der die Mittel zum Berechnen des mittleren Vektors b ⌢ für PH(p) gleiche Wahrscheinlichkeiten verwendet: PH(p) = C
  10. Erkennungseinrichtung nach Anspruch 8, bei der für PH(p), PJ|H(j|p) und PK|H,J(k|p,j) gleiche Wahrscheinlichkeiten verwendet werden: PH(p) = C PJ|H(j|p) = D, PK|H,J(k|p,j) = E
  11. Erkennungseinrichtung nach Anspruch 8, bei der der mittlere Vektor gleich b ⌢ = IDFT(DFT(b) ⊕ DFT(X ⌢)) wird.
  12. Verfahren zur Spracherkennung mit gleichzeitiger Kompensation sowohl der Faltungsverzerrung als auch des additiven Rauschens, das die folgenden Schritte umfasst: Modifizieren von HMM-Modellen durch ein Verfahren nach einem der Ansprüche 1 bis 5.
DE60212477T 2001-03-14 2002-03-14 Spracherkennung mit Kompensation konvolutiver Verzerrung und additiven Rauschens Expired - Lifetime DE60212477T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US27548701P 2001-03-14 2001-03-14
US275487P 2001-03-14

Publications (2)

Publication Number Publication Date
DE60212477D1 DE60212477D1 (de) 2006-08-03
DE60212477T2 true DE60212477T2 (de) 2007-07-05

Family

ID=23052506

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60212477T Expired - Lifetime DE60212477T2 (de) 2001-03-14 2002-03-14 Spracherkennung mit Kompensation konvolutiver Verzerrung und additiven Rauschens

Country Status (4)

Country Link
US (1) US7062433B2 (de)
EP (1) EP1241662B1 (de)
JP (1) JP2002311989A (de)
DE (1) DE60212477T2 (de)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6985858B2 (en) * 2001-03-20 2006-01-10 Microsoft Corporation Method and apparatus for removing noise from feature vectors
US20040148160A1 (en) * 2003-01-23 2004-07-29 Tenkasi Ramabadran Method and apparatus for noise suppression within a distributed speech recognition system
JP4357867B2 (ja) * 2003-04-25 2009-11-04 パイオニア株式会社 音声認識装置、音声認識方法、並びに、音声認識プログラムおよびそれを記録した記録媒体
JP4682154B2 (ja) * 2004-01-12 2011-05-11 ヴォイス シグナル テクノロジーズ インコーポレーティッド 自動音声認識チャンネルの正規化
US7236930B2 (en) * 2004-04-12 2007-06-26 Texas Instruments Incorporated Method to extend operating range of joint additive and convolutive compensating algorithms
JP2006084732A (ja) * 2004-09-15 2006-03-30 Univ Of Tokyo 多項式近似に基づく雑音下音声認識のためのモデル適応法
US20070033027A1 (en) * 2005-08-03 2007-02-08 Texas Instruments, Incorporated Systems and methods employing stochastic bias compensation and bayesian joint additive/convolutive compensation in automatic speech recognition
US7877255B2 (en) * 2006-03-31 2011-01-25 Voice Signal Technologies, Inc. Speech recognition using channel verification
CN1897109B (zh) * 2006-06-01 2010-05-12 电子科技大学 一种基于mfcc的单一音频信号识别方法
US7664643B2 (en) * 2006-08-25 2010-02-16 International Business Machines Corporation System and method for speech separation and multi-talker speech recognition
CN101030369B (zh) * 2007-03-30 2011-06-29 清华大学 基于子词隐含马尔可夫模型的嵌入式语音识别方法
US8180637B2 (en) * 2007-12-03 2012-05-15 Microsoft Corporation High performance HMM adaptation with joint compensation of additive and convolutive distortions
WO2009078093A1 (ja) 2007-12-18 2009-06-25 Fujitsu Limited 非音声区間検出方法及び非音声区間検出装置
US8306817B2 (en) * 2008-01-08 2012-11-06 Microsoft Corporation Speech recognition with non-linear noise reduction on Mel-frequency cepstra
US8145488B2 (en) * 2008-09-16 2012-03-27 Microsoft Corporation Parameter clustering and sharing for variable-parameter hidden markov models
US8214215B2 (en) * 2008-09-24 2012-07-03 Microsoft Corporation Phase sensitive model adaptation for noisy speech recognition
EP2182512A1 (de) * 2008-10-29 2010-05-05 BRITISH TELECOMMUNICATIONS public limited company Sprecherüberprüfung
US8639502B1 (en) 2009-02-16 2014-01-28 Arrowhead Center, Inc. Speaker model-based speech enhancement system
CN103811008A (zh) * 2012-11-08 2014-05-21 ***通信集团上海有限公司 一种音频内容识别方法和装置
US9489965B2 (en) * 2013-03-15 2016-11-08 Sri International Method and apparatus for acoustic signal characterization
CN106057195A (zh) * 2016-05-25 2016-10-26 东华大学 一种基于嵌入式音频识别的无人机探测***
US10720165B2 (en) * 2017-01-23 2020-07-21 Qualcomm Incorporated Keyword voice authentication
US20210201928A1 (en) * 2019-12-31 2021-07-01 Knowles Electronics, Llc Integrated speech enhancement for voice trigger application

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5450522A (en) * 1991-08-19 1995-09-12 U S West Advanced Technologies, Inc. Auditory model for parametrization of speech
US5924065A (en) * 1997-06-16 1999-07-13 Digital Equipment Corporation Environmently compensated speech processing
US6529872B1 (en) * 2000-04-18 2003-03-04 Matsushita Electric Industrial Co., Ltd. Method for noise adaptation in automatic speech recognition using transformed matrices
US6912497B2 (en) * 2001-03-28 2005-06-28 Texas Instruments Incorporated Calibration of speech data acquisition path

Also Published As

Publication number Publication date
EP1241662B1 (de) 2006-06-21
US7062433B2 (en) 2006-06-13
US20020173959A1 (en) 2002-11-21
DE60212477D1 (de) 2006-08-03
JP2002311989A (ja) 2002-10-25
EP1241662A3 (de) 2004-02-18
EP1241662A2 (de) 2002-09-18

Similar Documents

Publication Publication Date Title
DE60212477T2 (de) Spracherkennung mit Kompensation konvolutiver Verzerrung und additiven Rauschens
DE69831288T2 (de) An Umgebungsgeräusche angepasste Sprachverarbeitung
DE69726526T2 (de) Schema und Modelladaption bei Mustererkennung welche auf Taylorausdehnung basiert
DE69823954T2 (de) Quellen-normalisierendes Training zur Sprachmodellierung
DE69705891T2 (de) Verfahren und Vorrichtung zur entzerrenden Filterung eines Sprachsignals unter Verwendung eines statistischen Signalmodells
DE60207784T2 (de) Sprecheranpassung für die Spracherkennung
DE60314128T2 (de) Parametrische online-histogramm normierung zur rauschrobusten spracherkennung
US20030115055A1 (en) Method of speech recognition resistant to convolutive distortion and additive distortion
DE69806557T2 (de) Verfahren und Vorrichtung zur Spracherkennung
DE69524994T2 (de) Verfahren und Vorrichtung zur Signalerkennung unter Kompensation von Fehlzusammensetzungen
DE69831114T2 (de) Integration mehrfacher Modelle für die Spracherkennung in verschiedenen Umgebungen
DE69800006T2 (de) Verfahren zur Durchführung stochastischer Mustervergleiche für die Sprecherverifizierung
DE69423588T2 (de) Spracherkennungsgerät
US6202047B1 (en) Method and apparatus for speech recognition using second order statistics and linear estimation of cepstral coefficients
DE60000403T2 (de) Vorrichtung und Verfahren zur Modelladaption, Speichervorrichtung und Mustererkennungsvorrichtung
DE602004000716T2 (de) Rauschadaptierungssystem für ein Sprachmodell, Verfahren zur Rauschadaptierung und Programm zur Rauschadaptierung für Spracherkennung
WO2009140781A1 (de) Verfahren zur klassifizierung und entfernung unerwünschter anteile aus einer äusserung bei einer spracherkennung
DE69819438T2 (de) Verfahren zur Spracherkennung
Huang et al. An energy-constrained signal subspace method for speech enhancement and recognition in white and colored noises
DE69228034T2 (de) Sprachverarbeitungsverfahren bei Geräuschanwesenheit unter Verwendung eines nicht linearen spektralen Subtraktionsverfahrens und Hidden-Markov-Modellen
DE102004017486A1 (de) Verfahren zur Geräuschreduktion bei einem Sprach-Eingangssignal
Nisa et al. The speech signal enhancement approach with multiple sub-frames analysis for complex magnitude and phase spectrum recompense
Shao et al. A versatile speech enhancement system based on perceptual wavelet denoising
Harvilla et al. Histogram-based subband powerwarping and spectral averaging for robust speech recognition under matched and multistyle training
Arakawa et al. Model-basedwiener filter for noise robust speech recognition

Legal Events

Date Code Title Description
8364 No opposition during term of opposition