DE69814517T2 - Sprachkodierung - Google Patents

Sprachkodierung Download PDF

Info

Publication number
DE69814517T2
DE69814517T2 DE69814517T DE69814517T DE69814517T2 DE 69814517 T2 DE69814517 T2 DE 69814517T2 DE 69814517 T DE69814517 T DE 69814517T DE 69814517 T DE69814517 T DE 69814517T DE 69814517 T2 DE69814517 T2 DE 69814517T2
Authority
DE
Germany
Prior art keywords
frame
frames
function
signal
pitch shift
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69814517T
Other languages
English (en)
Other versions
DE69814517D1 (de
Inventor
Ari Lakaniemi
Janne Vainio
Pasi Ojala
Petri Haavisto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Oyj
Original Assignee
Nokia Oyj
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from FI971976A external-priority patent/FI971976A/fi
Application filed by Nokia Oyj filed Critical Nokia Oyj
Publication of DE69814517D1 publication Critical patent/DE69814517D1/de
Application granted granted Critical
Publication of DE69814517T2 publication Critical patent/DE69814517T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/09Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/15Correlation function computation including computation of convolution operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0011Long term prediction filters, i.e. pitch estimation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/06Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

  • Die v orliegende Erfindung bezieht sich auf die Sprachcodierung und ist insbesondere auf Verfahren und Vorrichtungen für die Sprachcodierung anwendbar ist, die einen Langzeitvorhersage-Parameter (LTP-Parameter) verwenden.
  • Die Sprachcodierung wird in vielen Kommunikationsanwendungen verwendet, wo es wünschenswert ist, ein Audio-Sprachsignal zu komprimieren, um die Menge der zu übertragenden, zu verarbeitenden oder zu speichernden Daten zu verringern. Insbesondere wird die Sprachcodierung allgemein in Zellentelephonnetzen angewendet, in denen die Mobiltelephone und die Kommunikations-Basissteuerstationen mit sogenannten "Audio-Codierern/Decodierern" versehen sind, die die Codierung und Decodierung an den Sprachsignalen ausführen. Die Datenkomprimierung durch die Sprachcodierung in Zellentelephonnetzen wird durch die Notwendigkeit notwendig gemacht, die Anrufkapazität des Netzes zu maximieren.
  • Die modernen Sprach-Codierer/Decodierer arbeiten typischerweise durch die Verarbeitung der Sprachsignale in kurzen Segmenten, die Rahmen genannt werden. In dem Fall des europäischen digitalen Zellentelephonsystems, das als GSM bekannt ist (definiert durch die Spezifikation 06.60 des Instituts für europäische Telekommunikationsstandards – ETSI) beträgt die Länge jedes derartigen Rahmens 20 ms, entsprechend 160 Sprachabtastwerten bei einer Abtastfrequenz von 8 kHz. In der sendenden Station wird jeder Sprachrahmen durch einen Sprachcodierer analysiert, um eine Menge der Codierungsparameter für die Übertragung zur empfangenden Station zu extrahieren. In der empfangenden Station erzeugt ein Decodierer basierend auf den empfangenen Parametern synthetisierte Sprachrahmen. Eine typische Menge extrahierter Codierungsparameter enthält die Spektralparameter (die als LPC-Parameter bekannt sind), die in der Kurzzeitvorhersage des Signals verwendet werden, die für die Langzeitvorhersage des Signals verwendeten Parameter (die als die LTP-Parameter bekannt sind), verschiedene Verstärkungsparameter, Anregungsparameter und Codebuchvektoren.
  • 1 zeigt schematisch den Codierer eines sogenannten CELP-Codierers/Decodierers (im wesentlichen völlig gleiche CELP-Codierer/Decodierer sind sowohl in den Mobilstationen als auch in den Basissteuerstationen vorgesehen). Jeder Rahmen eines empfangenen abgetasteten Sprachsignals s(n), wobei n die Nummer des Abtastwertes anzeigt, wird zuerst durch eine Kurzzeit-Vorhersageeinheit 1 analysiert, um die LPC-Parameter für den Rahmen zu bestimmen. Diese Parameter werden an einen Multiplexierer 2 geliefert, der die Codierungsparameter für die Übertragung über die Luftschnittstelle kombiniert. Das Restsignal r(n) aus der Kurzzeit-Vorhersageeinheit 1, d. h. der Sprachrahmen nach der Beseitigung der Kurzzeit-Redundanz, wird dann zu einer Langzeit-Vorhersageeinheit 3 geliefert, die die LTP-Parameter bestimmt. Diese Parameter werden wiederum dem Multiplexierer 2 bereitgestellt.
  • Der Codierer umfaßt ein LTP-Synthesefilter 4 und ein LPC-Synthesefilter 5, die die LTP- bzw. LPC-Parameter empfangen. Diese Filter führen die Kurzzeit- und Langzeit-Redundanzen in ein Signal c(n) ein, das unter Verwendung eines Codebuchs 6 erzeugt wird, um ein synthetisiertes Sprachsignal ss(n) zu erzeugen. Das synthetisierte Sprachsignal wird in einem Komparator 7 mit dern tatsächlichen Sprachsignal s(n) rahmenweise verglichen, um ein Fehlersignal e(n) zu erzeugen. Nach der Gewichtung des Fehlersignals mit einem Gewichtungsfilter 8 (das die 'Formanten' des Signals in einer bekannten Weise hervorhebt) wird das Signal an eine Codebuch-Sucheinheit 9 angelegt. Die Sucheinheit 9 führt eine Durchsuchung des Codebuchs 6 für jeden Rahmen aus, um den Eintrag im Codebuch zu identifizieren, der (nach der LTP- und LPG-Filterung und der Multiplikation mit einer Verstärkung g in einem Multiplizierer 10) mit dem tatsächlichen Sprachrahmen am genausten übereinstimmt, d. h., um das Signal c(n) zu bestimmen, das das Fehlersignal e(n) minimiert. Der Vektor, der den am besten übereinstimmenden Eintrag identifiziert, wird dem Multiplexierer 2 für die Übertragung über die Luftschnittstelle als Teil eines codierten Sprachsignals t(n) bereitgestellt.
  • 2 zeigt schematisch einen Decodierer eines CELP-Codierers/Decodierers. Das empfangene codierte Signal t(n) wird durch einen Demultiplexierer 11 in die getrennten Codierungsparameter demultiplexiert. Die Codebuch-Vektoren werden an ein Codebuch 12, das mit dem Codebuch 6 im Codierer völlig gleich ist, angelegt, um einen Strom der Codebuch-Einträge c(n) zu extrahieren. Das Signal c(n) wird dann in einem Multiplizierer 13 mit der empfangenen Verstärkung g multipliziert, bevor das Signal an ein LTP-Synthesefilter 14 und ein LPC-Synthesefilter 15, die in Reihe angeordnet sind, angelegt wird. Die LTPund LPC-Filter empfangen die zugeordneten Parameter aus dem Übertragungskanal und fügen die Kurzzeit- und Langzeit-Redundanzen wieder in das Signal ein, um am Ausgang ein synthetisiertes Sprachsignal ss(n) zu erzeugen.
  • Die LTP-Parameter enthalten den sogenannten Tonhöhenverschiebungs-Parameter, der die Grundfrequenz des Sprachsignals beschreibt. Die Bestimmung der Tonhöhenverschiebung für einen aktuellen Rahmen des Restsignals wird in zwei Stufen ausgeführt. Zuerst wird für einen Teil des Signals, der am besten mit dem aktuellen Rahmen übereinstimmt, eine Durchsuchung mit offener Schleife ausgeführt, die eine relativ grobe Durchsuchung des Restsignals umfaßt, das einer vorgegebenen maximalen und minimalen Verzögerung unterworfen ist. Dann wird eine Durchsuchung mit geschlossener Schleife über dem bereits synthetisierten Signal ausgeführt. Die Durchsuchung mit geschlossener Schleife wird über einem kleinen Bereich der Verzögerungen in der Umgebung des Schätzwertes bei offener Schleife der Tonhöhenverschiebung ausgeführt. Es ist wichtig anzumerken, daß, falls in der Durchsuchung mit offener Schleife ein Fehler gemacht wird, der Fehler in der Durchsuchung mit geschlossener Schleife nicht korrigiert werden kann.
  • In frühzeitig bekannten Codierern/Decodierern bestimmt die LTP-Analyse mit offener Schleife die Tonhöhenverschiebung für einen gegebenen Rahmen des Restsignals durch Bestimmung der Autokorrelationsfunktion des Rahmens innerhalb des restlichen Sprachsignals, d. h.:
    Figure 00030001
    wobei d die Verzögerung ist, r(n) ist das Restsignal, während dL und dH die Suchgrenzen der Verzögerung sind. N ist die Länge des Rahmens. Die Tonhöhenverschiebung dpl kann dann als die Verzögerung dmax identifiziert werden, die dem Maximum der Autorkorrelationsfunktion R^(d) entspricht. Dies ist in 3 veranschaulicht.
  • In derartigen Codierern/Decodierern gibt es jedoch die Möglichkeit, daß das Maximum der Autokorrelationsfunktion einem Vielfachen oder einer höheren Wurzel der Tonhöhenverschiebung entspricht, und daß die geschätzte Tonhöhenverschiebung deshalb nicht richtig sein wird. EP 0628947 widmet sich diesem Problem durch das Anwenden einer Gewichtsfunktion w(d) auf die Autokorrelationsfunktion R^(d) , d. h.
  • Figure 00040001
  • wobei die Gewichtsfunktion die folgende Form besitzt:
    Figure 00040002
  • K ist ein Abstimmungsparameter, der auf einen Wert gesetzt ist, der niedrig genug ist, um die Wahrscheinlichkeit des Erhaltens eines Maximums für R^ ω, (d) bei einem Vielfachen der Tonhöhenverschiebung zu verringern, der aber zur gleichen Zeit hoch genug ist, um die höheren Wurzeln der Tonhöhenverschiebung auszuschließen.
  • EP 0 628 947 schlägt außerdem vor, beim Bestimmen der Tonhöhenverschiebung für einen aktuellen Rahmen die für die vorhergehenden Rahmen bestimmten Tonhöhenverschiebungen zu berücksichtigen. Spezieller werden die Rahmen entweder als 'stimmhaft' oder 'stimmlos' klassifiziert, wobei für einen aktuellen Rahmen die Suche nach dem Maximum in der Umgebung der Tonhöhenverschiebung ausgeführt wird, die für den letzten stimmhaften Rahmen bestimmt wurde. Wenn das Gesamtmaximum von R^ ω(d) außerhalb dieser Umgebung liegt und das Maximum innerhalb der Umgebung um einen vorgegebenen Faktor (3/2) nicht überschreitet, dann wird das Umgebungsmaximum als der Tonhöhenverschiebung entsprechend identifiziert. In dieser Weise wird in die Kontinuität im Schätzwert der Tonhöhenverschiebung aufrechterhalten, dies verringert die Möglichkeit falscher Änderungen in der Tonhöhenverschiebung.
  • Gemäß einem ersten Aspekt der vorliegenden Erfindung wird ein Verfahren für die Sprachcodierung eines abgetasteten Signals unter Verwendung eines Tonhöhenverschiebungsparameters für jeden Rahmen aus einer Folge von Rahmen des Signals geschaffen, wobei das Verfahren für jeden Rahmen umfaßt:
    Bestimmen der Autokorrelationsfunktion für den Rahmen innerhalb des Signals zwischen vorgegebenen maximalen und minimalen Verzögerungen;
    Gewichten der Autokorrelationsfunktion, um die Funktion für die Verzögerungen in der Umgebung des für einen vorhergehenden Rahmen bestimmten Tonhöhenverschiebungsparameters hervorzuheben; und
    Identifizieren der Verzögerung, die dem Maximum der gewichteten Autokorrelationsfunktion entspricht, als den Tonhöhenverschiebungsparameter für den Rahmen.
  • Vorzugsweise ist das abgetastete Signal ein Restsignal, das aus einem Audiosignal erhalten wird, indem im wesentlichen die Kurzzeit-Redundanz aus dem Audiosignal beseitigt wird. Alternativ kann das abgetastete Signal ein Audiosignal sein.
  • Vorzugsweise wird die Gewichtung durch Kombinieren der Autokorrelations-funktion mit einer Gewichtsfunktion erreicht, die die Form:
    Figure 00050001
    besitzt, wobei Tprev ein auf der Grundlage von einem oder mehreren vorhergehenden Rahmen bestimmter Tonhöhenverschiebungsparameter ist, dL die minimale Verzögerung ist und Knw ein Abstimmungsparameter ist, der die Gewichtung der Umgebung definiert. Außerdem kann die Gewichtsfunktion die Autokorrelationsfunktion für kürzere Verzögerungen gegenüber längeren Verzögerungen hervorheben. In diesem Fall wird eine modifizierte Gewichtsfunktion verwendet:
    Figure 00050002
    wobei Kw, ein weiterer Abstimmungsparameter ist.
  • In bestimmten Ausführungsformen der Erfindung ist Tprev die Tonhöhenverschiebung eines vorhergehenden Rahmens Told. In anderen Ausführungsformen wird Tprev Jedoch aus den Tonhöhenverschiebungen einer Anzahl von vorhergehenden Rahmen abgeleitet. Insbesondere kann Tprev dem Medianwert der Tonhöhenverschiebungen einer vorgegebenen Anzahl vorhergehender Rahmen entsprechen. Eine weitere Gewichtung kann angewendet werden, die zur Standardabweichung der zum Bestimmen dieses Medianwertes verwendeten n Tonhöhenverschiebungen umgekehrt proportional ist. Unter Verwendung dieses letzteren Zugangs ist es möglich, die Auswirkung fehlerhafter Werte der Tonhöhenverschiebung auf die Gewichtung der Autokorrelationsfunktion zu verringern.
  • Vorzugsweise umfaßt das Verfahren das Klassifizieren dieser Rahmen in stimmhafte und stimmlose Rahmen, wobei der (die) vorhergehende(n) Rahmen der (die) jüngste(n) stimmhafte(n) Rahmen ist (sind). Die stimmlosen Rahmen können stimmlose Rahmen und Rahmen, die Ruhe oder Hintergrundgeräusche enthalten, umfassen. Stärker bevorzugt wird die Gewichtung verringert, wenn dieser (diese) vorhergehende(n) Rahmen nicht der (die) jüngste(n) Rahmen ist (sind). In einer Ausführungsform, in der eine Folge aufeinanderfolgender stimmloser Rahmen empfangen wird, wird die Gewichtung im wesentlichen im Verhältnis zur Anzahl der Rahmen in der Folge verringert. Für die im vorhergehenden Abschnitt gegebene Gewichtsfunktion wn(d) kann der Abstimmungsparameter Knw, so modifiziert werden, daß:
    Figure 00060001
    gilt, wobei A ein weiterer Abstimmungsfaktor ist, der nach dem Empfang jedes Rahmens in einer Folge aufeinanderfolgender stimmloser Rahmen vergrößert wird. Die Gewichtung wird für den nächsten stimmhaften Rahmen auf ihren Maximalwert wiederhergestellt, indem A auf seinen Minimalwert zurückgeführt wird. Der Wert von A kann ähnlich nach dem Empfang eines stimmhaften Rahmens vergrößert werden, der eine Leerlaufverstärkung verursacht, die kleiner als eine vorgegebene Schwellenverstärkung ist.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird eine Vorrichtung für die Sprachcodierung eines abgetasteten Signals unter Verwendung eines Tonhöhenverschiebungsparameters für jeden Rahmen aus einer Folge von Rahmen des Signals geschaffen, wobei die Vorrichtung umfaßt:
    Mittel, die die Autokorrelationsfunktion des Rahmens für jeden Rahmen innerhalb des Signals zwischen vorgegebenen maximalen und minimalen Verzögerungen bestimmen;
    Gewichtungsmittel, die die Autokorrelationsfunktion gewichten, um die Funktion für Verzögerungen in der Umgebung des für einen vorhergehenden Rahmen bestimmten Tonhöhenverschiebungsparameters hervorzuheben; und
    Mittel, die die Verzögerung, die dem Maximum der gewichteten Autokorrelationsfunktion entspricht, als den Tonhöhenverschiebungsparameter für den Rahmen identifizieren.
  • Gemäß einem dritten Aspekt der vorliegenden Erfindung wird eine Mobilkommunikationsvorrichtung geschaffen, die die Vorrichtung des obigen zweiten Aspekts der vorliegenden Erfindung umfaßt.
  • Gemäß einem vierten Aspekt der vorliegenden Erfindung wird ein Zellentelephonnetz geschaffen, das eine Basissteuerstation umfaßt, die eine Vorrichtung gemäß dem obigen zweiten Aspekt der vorliegenden Erfindung besitzt.
  • Für ein besseres Verständnis der vorliegenden Erfindung und um zu zeigen, wie dieselbe ausgeführt werden kann, wird nun beispielhaft auf die beigefügte Zeichnung Bezug genommen, worin:
  • 1 einen CELP-Sprachcodierer schematisch zeigt;
  • 2 einen CELP-Sprachdecodierer schematisch zeigt;
  • 3 einen Rahmen eines zu codierenden Sprachsignals und die beim Bestimmen der Autokorrelationsfunktion für den Rahmen verwendeten maximalen und minimalen Verzögerungen veranschaulicht;
  • 4 ein Ablaufplan der Hauptschritte der eines Sprachcodierungsverfahrens gemäß einer Ausführungsform der vorliegenden Erfindung ist; und
  • 5 ein System für das Implementieren des Verfahrens nach 4 schematisch zeigt.
  • Nun wird ein Verfahren und eine Vorrichtung für die Verwendung bei der Vorhersage mit offener Schleife der Tonhöhenverschiebungsparameter für die Rahmen eines abgetasteten Sprachsignals beschrieben. Die Hauptschritte des Verfahrens sind im Ablaufplan nach 4 gezeigt. Es wird klar sein, daß das beschriebene Verfahren und die beschriebene Vorrichtung in ansonsten herkömmliche Sprachcodierer/decodierer aufgenommen werden kann, wie z. B. in den bereits oben unter Bezugnahme auf 1 beschriebenen CELP-Codierer/ Decodierer.
  • Ein zu codierendes abgetastetes Sprachsignal wird in Rahmen mit einer festen Länge unterteilt. Wie oben beschrieben ist, wird nach dem Empfang ein Rahmen zuerst an eine LPC-Vorhersageeinheit 1 angelegt. Typischerweise wird dann eine LTP-Vorhersage mit offener Schleife auf das Restsignal angewendet, das der Teil des ursprünglichen Sprachsignals ist, der verbleibt, nachdem die LPC-Vorhersage angewendet worden ist und die Kurzzeit-Redundanz des Signals extrahiert worden ist. Dieses Restsignal kann durch r(n) dargestellt werden, wobei n die Nummer des Abtastwertes bezeichnet. Die Autokorrelations funktion ist für einen Rahmen durch
    Figure 00080001
    bestimmt, wobei w(d) eine durch
    Figure 00080002
    gegebene Gewichtsfunktion ist. Told ist die für den zuletzt empfangenen und verarbeiteten stimmhaften Rahmen bestimmte Tonhöhenverschiebung, während n, N, dL, dH oben identifiziert sind. Knw und K sind Abstimmungsparameter, die typischerweise einen Wert von 0,85 aufweisen. Der zusätzliche Abstimmungsparameter A ist im folgenden erörtert.
  • Nach dem die LTP-Parameter bei offener Schleife für einen Rahmen bestimmt sind, wird der Rahmen als stimmhaft oder stimmlos klassifiziert (um die Rückkopplung des Parameters Told für die Verwendung in der Gleichung {2} zu erlauben).
  • Die Klassifizierung kann in einer Anzahl von verschiedenen Arten ausgeführt werden. Ein geeignetes Verfahren besteht darin, die LTP-Leerlaufverstärkung b zu bestimmen und diese mit irgendeiner vorgegebenen Schwellenverstärkung oder bevorzugter mit einer adaptiven Schwellenverstärkung bthr, die durch bthr = (1 – α)Kbb + αbthr–1 {3} gegeben ist, zu vergleichen, wobei α eine Zerfallskonstante (0,995) ist, während Kb ein Skalierungsfaktor (0,15) ist. Der Term bthr–1 ist die für den unmittelbar vorhergehenden Rahmen bestimmte Schwellenverstärkung. Ein alternatives oder zusätzliches Kriterium für das Klassifizieren eines Rahmens entweder als stimmhaft oder stimmlos besteht darin, die 'Nulldurchgangs'-Rate des Restsignals innerhalb des Rahmens zu bestimmen. Eine relativ hohe Rate der Durchgänge zeigt an, daß ein Rahmen stimmlos ist, während eine niedrige Durchgangsrate anzeigt, daß der Rahmen stimmhaft ist. Eine geeignete Schwelle für die Rahmenlänge N beträgt 3/4.
  • Ein weiteres alternatives oder zusätzliches Kriterium für das Klassifizieren eines Rahmens als stimmhaft oder stimmlos besteht darin, die Rate zu betrachten, mit der sich die Tonhöhenverschiebung verändert. Wenn die für den Rahmen bestimmte Tonhöhenverschiebung signifikant von einer für eine letzte Menge von Rahmen bestimmten 'durchschnittlichen' Tonhöhenverschiebung abweicht, dann kann der Rahmen als stimmlos klassifiziert werden. Wenn nur eine relativ kleine Abweichung vorhanden ist, dann kann der Rahmen als stimmhaft klassifiziert werden.
  • Die durch {2} gegebene Gewichtsfunktion w d umfaßt einen ersten Term
    Figure 00090001
    der bewirkt, daß die gewichtete Autokorrelationsfunktion R^ ωd in der Umgebung der alten Tonhöhenverschiebung Told hervorgeho ben wird. Der zweite Term auf der linken Seite der Gleichung {2},
    Figure 00090002
    bewirkt, daß kleine Werte der Tonhöhenverschiebung hervorgehoben werden.
  • Die Kombination dieser zwei Terme hilft, die Möglichkeit signifikant zu verringern, daß Vielfache oder höhere Wurzeln der richtigen Tonhöhenverschiebung das Maximum der gewichteten Autokorrelationsfunktion verursachen.
  • Falls nach der Bestimmung der Tonhöhenverschiebung für einen aktuellen Rahmen i dieser Rahmen als stimmhaft klassifiziert wird und bestimmt wird, daß die Leerlaufverstärkung für den Rahmen größer als irgendein Schwellenwert (z. B. 0,4) ist, wird in der Gleichung {2} der Abstimmungsfaktor A für den nächsten Rahmen (i + 1) auf 1 gesetzt. Falls jedoch der aktuelle Rahmen als stimmlos klassifiziert wird oder wenn bestimmt wird, daß die Leerlaufverstärkung kleiner als der Schwellenwert ist, wird der Abstimmungsfaktor wie folgt modifiziert: Ai+1 = 1,01Ai. {4}
  • Der Abstimmungsfaktor A kann entsprechend Gleichung {4} für jeden Rahmen einer Folge aufeinanderfolgender stimmloser Rahmen (oder stimmhafter Rahmen, wenn die Leerlaufverstärkung kleiner als die Schwelle ist) modifiziert werden. Es ist jedoch bevorzugt, daß die Gleichung {4} nur angewendet wird, nachdem eine vorgegebene Anzahl aufeinanderfolgender stimmloser Rahmen empfangen wird, z. B. nach jeder Menge von drei aufeinanderfolgenden stimmlosen Rahmen. Der Gewichtungsfaktor Knw, der Umgebung ist typischerweise auf 0,85 gesetzt, wobei die obere Grenze für die kombinierte Gewichtung KnwA 1,0 beträgt, so daß in der Grenze die Gewichtung über alle Verzögerungen d = dL bis dH einheitlich ist.
  • Alternativ kann nur eine vorgegebene Anzahl von Gewichtsfunktionen w(d) verwendet werden, z. B. drei. Jeder Funktion ist ein Schwellenpegel zugeordnet, wobei eine spezielle Funktion der Funktionen ausgewählt wird, wenn ein adaptiver Term, wie er z. B. in {4} definiert ist, diesen Schwellenpegel überschreitet. Ein Vorteil des Definierens einer begrenzten Anzahl von Gewichtsfunktionen besteht darin, daß die definierten Funktionen im Speicher gespeichert werden können. Es ist deshalb nicht notwendig, die Gewichtsfunktion für jeden neuen Rahmen neu zu berechnen.
  • Ein vereinfachtes System zum Implementieren des obenbeschriebenen Verfahrens ist in 5 schematisch veranschaulicht, in der die Eingabe 16 in das System das durch die LPC-Vorhersageeinheit 1 bereitgestellte Restsignal ist. Dieses Restsignal 16 wird durch eine Rahmen-Korrelationseinrichtung 17 bereitgestellt, die die Korrelationsfunktion für jeden Rahmen des Restsignals erzeugt. Die Korrelationsfunktion für jeden Rahmen wird an eine erste Gewichtunseinheit 18 angelegt die die Korrelationsfunktion entsprechend dem zweiten Term in der Gleichung {2} gewichtet, d. h.
    Figure 00100001
    Die gewichtete Funktion wird dann an eine zweite Gewichtungseinheit 19 angelegt, die die Korrelationsfunktion entsprechend dem ersten Term der Gleichung {2},
    Figure 00100002
    zusätzlich gewichtet. Der Parameter Told wird in einem Puffer 20 gehalten, der nur unter Verwendung des Ausgangssignals des Systems aktualisiert wird, wenn die Klassifizierungseinheit 21 den aktuellen Rahmen als stimmhaft klassifiziert. Die gewichtete Korrelationsfunktion wird an eine Sucheinheit 22 angelegt, die das Maximum der gewichteten Funktion identifiziert und daraus die Tonhöhenverschiebung des aktuellen Rahmens bestimmt.
  • Es wird von einem Fachmann erkannt werden, daß verschiedene Modifikationen an den obenbeschriebenen Ausführungsformen vorgenommen werden können, ohne vom Umfang der vorliegenden Erfindung abzuweichen. Um eine für den letzten stimmhaften Rahmen erhaltene fehlerhafte Schätzung der Tonhöhenverschiebung zu verhindern, die eine aktuelle Schätzung im zu hohen Grade durcheinanderbringt, kann der Puffer 20 nach 5 beschaffen sein, um die für die letzten n stimmhaften Rahmen geschätzten Tonhöhenverschiebungen zu speichern, wobei n z. B. 4 betragen kann. Die durch die Gewichtungseinheit 19 angewendete Gewichtsfunktion wird modifiziert, indem der Parameter Told durch einen Parameter Tmed ersetzt wird, der der Medianwert der n gepufferten Tonhöhenverschiebungen ist.
  • In einer weiteren Modifikation ist die durch die Einheit 19 angewendete Gewichtung umgekehrt proportional zur Standardabweichung der im Puffer 20 gespeicherten n Werte der Tonhöhenverschiebung. Dies besitzt die Wirkung, die Gewichtung in der Umgebung der Median-Tonhöhenverschiebung hervorzuheben, wenn sich die n gepufferten Tonhöhenverschiebungen wenig verändern, und umgekehrt die Gewichtung abzusenken, wenn sich die n Tonhöhenverschiebungen in einem relativ großen Grade verändern. Es können z. B. drei Gewichtsfunktion wie folgt verwendet werden:
    Figure 00110001
    wobei Km1, Km2, Th1 und Th2 Abstimmungsparameter sind, die z. B. gleich 0,75, 0,95, 2 bzw. 6 sind. Um die größeren Variationen in der Standardabweichung aufzunehmen, die bei größeren Tonhöhenverschiebungen auftreten, können die Schwellen Th1 und Th2 in Gleichung {5} proportional zur Median-Tonhöhenverschiebung Tmed sein.

Claims (14)

  1. Verfahren für die Sprachcodierung eines abgetasteten Signals unter Verwendung eines Tonhöhenverschiebungsparameters für jeden Rahmen aus einer Folge von Rahmen des Signals, wobei das Verfahren für jeden Rahmen umfaßt: Bestimmen der Autokonelationsfunktion für den Rahmen innerhalb des Signals zwischen vorgegebenen maximalen und minimalen Verzögerungen; Gewichten der Autokonelationsfunktion, um die Funktion für die Verzögerungen in der Umgebung des für einen vorhergehenden Rahmen bestimmten Tonhöhenverschiebungsparameters hervorzuheben; und Identifizieren der Verzögerung, die dem Maximum der gewichteten Autokonelationsfunktion entspricht, als den Tonhöhenverschiebungsparameter für den Rahmen.
  2. Verfahren nach Anspruch 1, bei dem die Gewichtsfunktion die Form
    Figure 00120001
    besitzt, wobei Told die Tonhöhenverschiebung des vorhergehenden Rahmens ist, dL die minimale Verzögerung ist und Knw, ein Abstimmungsparameter ist, der die Gewichtung der Umgebung definiert.
  3. Verfahren nach Anspruch 1, bei dem die Autokonelationsfunktion gewichtet wird, um die Funktion für Verzögerungen in der Umgebung des Medianwertes mehrerer für die entsprechenden vorhergehenden Rahmen bestimmter Tonhöhenverschiebungen hervorzuheben.
  4. Verfahren nach Anspruch 3, bei dem die Gewichtsfunktion die Form
    Figure 00120002
    besitzt, wobei Tmed der Medianwert mehrerer für die entsprechenden vorhergehenden Rahmen bestimmter Tonhöhenverschiebungen ist, dL die minimale Verzögerung ist und Knw, ein Abstimmungsparameter ist, der die Gewichtung der Umgebung definiert.
  5. Verfahren nach Anspruch 4, bei dem die Gewichtsfunktion durch die Aufnahme eines Faktors modifiziert ist, der zur Standardabweichung der mehreren Tonhöhenverschiebungen umgekehrt proportional ist.
  6. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Gewichtung außerdem die kürzeren Verzögerungen gegenüber den längeren Verzögerungen hervorhebt.
  7. Verfahren nach Anspruch 4, bei dem die Hervorhebung durch den Faktor
    Figure 00130001
    gegeben ist, wobei Kw, ein weiterer Gewichtungsparameter ist.
  8. Verfahren nach einem der vorhergehenden Ansprüche, das die Klassifizierung der Rahmen in stimmhafte und stimmlose Rahmen umfaßt, wobei der (die) vorhergehende(n) Rahmen der (die) jüngste(n) stimmhafte(n) Rahmen ist (sind).
  9. Verfahren nach Anspruch 8, bei dem die Gewichtung verringert wird, falls der vorhergehende Rahmen oder der jüngste vorhergehende Rahmen nicht der jüngste Rahmen ist.
  10. Verfahren nach Anspruch 8 oder 9, bei dem dann, wenn eine Folge aufeinanderfolgender stimmloser Rahmen empfangen worden ist, die Gewichtung im wesentlichen im Verhältnis zu der Anzahl der Rahmen in der Folge verringert wird.
  11. Verfahren nach Anspruch 8, wenn abhängig von Anspruch 2 oder 4, bei dem der Abstimmungsparameter gemäß log2KnwA modifiziert ist, wobei A ein weiterer Abstimmungsfaktor ist, der nach dem Empfang jedes Rahmens oder nach einer vorgegebenen Vielzahl von Rahmen in einer Folge aufeinanderfolgender stimmloser Rahmen vergrößert wird, und der für den nächsten stimmhaften Rahmen auf seinen Minimalwert wiederhergestellt wird.
  12. Vorrichtung für die Sprachcodierung eines abgetasteten Signals unter Verwendung eines Tonhöhenverschiebungsparameters für jeden Rahmen aus einer Folge von Rahmen des Signals, wobei die Vorrichtung umfaßt: Mittel (17), die die Autokorrelationsfunktion des Rahmens für jeden Rah men innerhalb des Signals zwischen vorgegebenen maximalen und minimalen Verzögerungen bestimmen; Gewichtungsmittel (19), die die Autokorrelationsfunktion gewichten, um die Funktion für Verzögerungen in der Umgebung des für einen vorhergehenden Rahmen bestimmten Tonhöhenverschiebungsparameters hervorzuheben; und Mittel (22), die die Verzögerung, die dem Maximum der gewichteten Autokorrelationsfunktion entspricht, als den Tonhöhenverschiebungsparameter für den Rahmen identifizieren.
  13. Mobilkommunikationsvorrichtung, die die Vorrichtung nach Anspruch 12 umfaßt.
  14. Zellentelephonnetz, das eine Basissteuerstation umfaßt, die eine Vorrichtung nach Anspruch 12 besitzt.
DE69814517T 1997-05-07 1998-03-17 Sprachkodierung Expired - Lifetime DE69814517T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
FI971976 1997-05-07
FI971976A FI971976A (fi) 1997-05-07 1997-05-07 Puhekoodaus
FI980502A FI113903B (fi) 1997-05-07 1998-03-05 Puheen koodaus
FI980502 1998-03-05

Publications (2)

Publication Number Publication Date
DE69814517D1 DE69814517D1 (de) 2003-06-18
DE69814517T2 true DE69814517T2 (de) 2004-04-08

Family

ID=26160386

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69814517T Expired - Lifetime DE69814517T2 (de) 1997-05-07 1998-03-17 Sprachkodierung

Country Status (10)

Country Link
US (1) US6199035B1 (de)
EP (1) EP0877355B1 (de)
JP (3) JPH1124699A (de)
KR (2) KR100653932B1 (de)
CN (1) CN1120471C (de)
AU (1) AU739238B2 (de)
DE (1) DE69814517T2 (de)
ES (1) ES2198615T3 (de)
FI (1) FI113903B (de)
WO (1) WO1998050910A1 (de)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6415252B1 (en) * 1998-05-28 2002-07-02 Motorola, Inc. Method and apparatus for coding and decoding speech
US6507814B1 (en) * 1998-08-24 2003-01-14 Conexant Systems, Inc. Pitch determination using speech classification and prior pitch estimation
US7072832B1 (en) * 1998-08-24 2006-07-04 Mindspeed Technologies, Inc. System for speech encoding having an adaptive encoding arrangement
JP3180786B2 (ja) * 1998-11-27 2001-06-25 日本電気株式会社 音声符号化方法及び音声符号化装置
US7117149B1 (en) * 1999-08-30 2006-10-03 Harman Becker Automotive Systems-Wavemakers, Inc. Sound source classification
US6782360B1 (en) * 1999-09-22 2004-08-24 Mindspeed Technologies, Inc. Gain quantization for a CELP speech coder
US6959274B1 (en) * 1999-09-22 2005-10-25 Mindspeed Technologies, Inc. Fixed rate speech compression system and method
US7124075B2 (en) * 2001-10-26 2006-10-17 Dmitry Edward Terez Methods and apparatus for pitch determination
KR100463417B1 (ko) * 2002-10-10 2004-12-23 한국전자통신연구원 상관함수의 최대값과 그의 후보값의 비를 이용한 피치검출 방법 및 그 장치
US8073689B2 (en) 2003-02-21 2011-12-06 Qnx Software Systems Co. Repetitive transient noise removal
US7949522B2 (en) * 2003-02-21 2011-05-24 Qnx Software Systems Co. System for suppressing rain noise
US7895036B2 (en) * 2003-02-21 2011-02-22 Qnx Software Systems Co. System for suppressing wind noise
US7885420B2 (en) * 2003-02-21 2011-02-08 Qnx Software Systems Co. Wind noise suppression system
US7725315B2 (en) * 2003-02-21 2010-05-25 Qnx Software Systems (Wavemakers), Inc. Minimization of transient noises in a voice signal
US8271279B2 (en) 2003-02-21 2012-09-18 Qnx Software Systems Limited Signature noise removal
US8326621B2 (en) 2003-02-21 2012-12-04 Qnx Software Systems Limited Repetitive transient noise removal
TWI241557B (en) * 2003-07-21 2005-10-11 Ali Corp Method for estimating a pitch estimation of the speech signals
JP4490090B2 (ja) 2003-12-25 2010-06-23 株式会社エヌ・ティ・ティ・ドコモ 有音無音判定装置および有音無音判定方法
US7680652B2 (en) 2004-10-26 2010-03-16 Qnx Software Systems (Wavemakers), Inc. Periodic signal enhancement system
US7610196B2 (en) * 2004-10-26 2009-10-27 Qnx Software Systems (Wavemakers), Inc. Periodic signal enhancement system
US7716046B2 (en) * 2004-10-26 2010-05-11 Qnx Software Systems (Wavemakers), Inc. Advanced periodic signal enhancement
US7949520B2 (en) 2004-10-26 2011-05-24 QNX Software Sytems Co. Adaptive filter pitch extraction
US8306821B2 (en) * 2004-10-26 2012-11-06 Qnx Software Systems Limited Sub-band periodic signal enhancement system
US8543390B2 (en) * 2004-10-26 2013-09-24 Qnx Software Systems Limited Multi-channel periodic signal enhancement system
US8170879B2 (en) * 2004-10-26 2012-05-01 Qnx Software Systems Limited Periodic signal enhancement system
US8284947B2 (en) * 2004-12-01 2012-10-09 Qnx Software Systems Limited Reverberation estimation and suppression system
US7933767B2 (en) * 2004-12-27 2011-04-26 Nokia Corporation Systems and methods for determining pitch lag for a current frame of information
US7386445B2 (en) * 2005-01-18 2008-06-10 Nokia Corporation Compensation of transient effects in transform coding
US8027833B2 (en) * 2005-05-09 2011-09-27 Qnx Software Systems Co. System for suppressing passing tire hiss
US8170875B2 (en) 2005-06-15 2012-05-01 Qnx Software Systems Limited Speech end-pointer
US8311819B2 (en) 2005-06-15 2012-11-13 Qnx Software Systems Limited System for detecting speech with background voice estimates and noise estimates
US9058812B2 (en) * 2005-07-27 2015-06-16 Google Technology Holdings LLC Method and system for coding an information signal using pitch delay contour adjustment
US8386245B2 (en) * 2006-03-20 2013-02-26 Mindspeed Technologies, Inc. Open-loop pitch track smoothing
US7844453B2 (en) 2006-05-12 2010-11-30 Qnx Software Systems Co. Robust noise estimation
US8010350B2 (en) * 2006-08-03 2011-08-30 Broadcom Corporation Decimated bisectional pitch refinement
US7752038B2 (en) * 2006-10-13 2010-07-06 Nokia Corporation Pitch lag estimation
US8326620B2 (en) 2008-04-30 2012-12-04 Qnx Software Systems Limited Robust downlink speech and noise detector
US8335685B2 (en) 2006-12-22 2012-12-18 Qnx Software Systems Limited Ambient noise compensation system robust to high excitation noise
US8386246B2 (en) * 2007-06-27 2013-02-26 Broadcom Corporation Low-complexity frame erasure concealment
US8850154B2 (en) 2007-09-11 2014-09-30 2236008 Ontario Inc. Processing system having memory partitioning
US8904400B2 (en) * 2007-09-11 2014-12-02 2236008 Ontario Inc. Processing system having a partitioning component for resource partitioning
US8694310B2 (en) 2007-09-17 2014-04-08 Qnx Software Systems Limited Remote control server protocol system
US8209514B2 (en) * 2008-02-04 2012-06-26 Qnx Software Systems Limited Media processing system having resource partitioning
GB2466669B (en) * 2009-01-06 2013-03-06 Skype Speech coding
GB2466672B (en) 2009-01-06 2013-03-13 Skype Speech coding
GB2466671B (en) 2009-01-06 2013-03-27 Skype Speech encoding
GB2466674B (en) 2009-01-06 2013-11-13 Skype Speech coding
GB2466675B (en) 2009-01-06 2013-03-06 Skype Speech coding
GB2466673B (en) 2009-01-06 2012-11-07 Skype Quantization
GB2466670B (en) 2009-01-06 2012-11-14 Skype Speech encoding
CN102016530B (zh) * 2009-02-13 2012-11-14 华为技术有限公司 一种基音周期检测方法和装置
US8452606B2 (en) 2009-09-29 2013-05-28 Skype Speech encoding using multiple bit rates
US9437213B2 (en) 2012-03-05 2016-09-06 Malaspina Labs (Barbados) Inc. Voice signal enhancement
US9384759B2 (en) 2012-03-05 2016-07-05 Malaspina Labs (Barbados) Inc. Voice activity detection and pitch estimation
US9015044B2 (en) 2012-03-05 2015-04-21 Malaspina Labs (Barbados) Inc. Formant based speech reconstruction from noisy signals
US9123328B2 (en) * 2012-09-26 2015-09-01 Google Technology Holdings LLC Apparatus and method for audio frame loss recovery
WO2015008783A1 (ja) * 2013-07-18 2015-01-22 日本電信電話株式会社 線形予測分析装置、方法、プログラム及び記録媒体
CN110265059B (zh) 2013-12-19 2023-03-31 瑞典爱立信有限公司 估计音频信号中的背景噪声

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4486900A (en) 1982-03-30 1984-12-04 At&T Bell Laboratories Real time pitch detection by stream processing
JP2585214B2 (ja) * 1986-02-21 1997-02-26 株式会社日立製作所 ピッチ抽出方法
US4969192A (en) 1987-04-06 1990-11-06 Voicecraft, Inc. Vector adaptive predictive coder for speech and audio
CA2010830C (en) 1990-02-23 1996-06-25 Jean-Pierre Adoul Dynamic codebook for efficient speech coding based on algebraic codes
JPH04264600A (ja) * 1991-02-20 1992-09-21 Fujitsu Ltd 音声符号化装置および音声復号装置
US5179594A (en) * 1991-06-12 1993-01-12 Motorola, Inc. Efficient calculation of autocorrelation coefficients for CELP vocoder adaptive codebook
US5339384A (en) * 1992-02-18 1994-08-16 At&T Bell Laboratories Code-excited linear predictive coding with low delay for speech or audio signals
FI95085C (fi) 1992-05-11 1995-12-11 Nokia Mobile Phones Ltd Menetelmä puhesignaalin digitaaliseksi koodaamiseksi sekä puhekooderi menetelmän suorittamiseksi
US5327520A (en) * 1992-06-04 1994-07-05 At&T Bell Laboratories Method of use of voice message coder/decoder
FI91345C (fi) 1992-06-24 1994-06-10 Nokia Mobile Phones Ltd Menetelmä kanavanvaihdon tehostamiseksi
CA2102080C (en) * 1992-12-14 1998-07-28 Willem Bastiaan Kleijn Time shifting for generalized analysis-by-synthesis coding
IT1270438B (it) * 1993-06-10 1997-05-05 Sip Procedimento e dispositivo per la determinazione del periodo del tono fondamentale e la classificazione del segnale vocale in codificatori numerici della voce
JP3321933B2 (ja) * 1993-10-19 2002-09-09 ソニー株式会社 ピッチ検出方法
US5517595A (en) * 1994-02-08 1996-05-14 At&T Corp. Decomposition in noise and periodic signal waveforms in waveform interpolation
FI98163C (fi) 1994-02-08 1997-04-25 Nokia Mobile Phones Ltd Koodausjärjestelmä parametriseen puheenkoodaukseen
JP3418005B2 (ja) * 1994-08-04 2003-06-16 富士通株式会社 音声ピッチ検出装置
US5781880A (en) * 1994-11-21 1998-07-14 Rockwell International Corporation Pitch lag estimation using frequency-domain lowpass filtering of the linear predictive coding (LPC) residual
US5664053A (en) 1995-04-03 1997-09-02 Universite De Sherbrooke Predictive split-matrix quantization of spectral parameters for efficient coding of speech
US5699485A (en) * 1995-06-07 1997-12-16 Lucent Technologies Inc. Pitch delay modification during frame erasures

Also Published As

Publication number Publication date
FI980502A (fi) 1998-11-08
EP0877355B1 (de) 2003-05-14
AU6403298A (en) 1998-11-27
KR20010006394A (ko) 2001-01-26
JP2009223326A (ja) 2009-10-01
CN1255226A (zh) 2000-05-31
JP2004038211A (ja) 2004-02-05
JP4866438B2 (ja) 2012-02-01
KR100653926B1 (ko) 2006-12-05
CN1120471C (zh) 2003-09-03
FI113903B (fi) 2004-06-30
JPH1124699A (ja) 1999-01-29
ES2198615T3 (es) 2004-02-01
KR20040037265A (ko) 2004-05-04
FI980502A0 (fi) 1998-03-05
DE69814517D1 (de) 2003-06-18
KR100653932B1 (ko) 2006-12-04
EP0877355A2 (de) 1998-11-11
EP0877355A3 (de) 1999-06-16
US6199035B1 (en) 2001-03-06
WO1998050910A1 (en) 1998-11-12
AU739238B2 (en) 2001-10-04

Similar Documents

Publication Publication Date Title
DE69814517T2 (de) Sprachkodierung
DE19604273C5 (de) Verfahren und Vorrichtung zum Durchführen einer Suche in einem Kodebuch im Hinblick auf das Kodieren eines Klangsignales, Zellkommunikationssystem, Zellnetzwerkelement und mobile Zell-Sender-/Empfänger-Einheit
DE69910239T2 (de) Verfahren und vorrichtung zur adaptiven bandbreitenabhängigen grundfrequenzsuche für die kodierung breitbandiger signale
DE3856211T2 (de) Verfahren zur adaptiven Filterung von Sprach- und Audiosignalen
DE69727895T2 (de) Verfahren und Vorrichtung zur Sprachkodierung
DE69634645T2 (de) Verfahren und Vorrichtung zur Sprachkodierung
DE69029232T2 (de) System und Methode zur Sprachkodierung
DE69531642T2 (de) Synthese eines Anregungssignals bei Ausfall von Datenrahmen oder Verlust von Datenpaketen
DE60201766T2 (de) Verbesserung der Periodizität der CELP-Anregung für die Sprachkodierung und -dekodierung
DE60121405T2 (de) Transkodierer zur Vermeidung einer Kaskadenkodierung von Sprachsignalen
DE69628103T2 (de) Verfahren und Filter zur Hervorbebung von Formanten
DE69932460T2 (de) Sprachkodierer/dekodierer
DE19647298C2 (de) Kodiersystem
DE69029120T2 (de) Stimmenkodierer
DE69827667T2 (de) Vokoder basierter spracherkenner
DE69731588T2 (de) Coderienrichtung mit verringerter komplexität für ein signalübertragungssystem
DE69214969T2 (de) Verfahren und Vorrichtung zur Erzeugung von Hilfsinformationen zur Ausführung einer Suche in einem Kodebuch mit geringer Dichte
DE69724739T2 (de) Verfahren zur Erzeugung von Hintergrundrauschen während einer diskontinuierlichen Übertragung
DE60124274T2 (de) Codebuchstruktur und suchverfahren für die sprachkodierung
DE3883799T2 (de) Codierungseinrichtung zur Sprachübertragung.
DE60121201T2 (de) Verfahren und vorrichtung zur verschleierung von fehlerhaften rahmen während der sprachdekodierung
DE3853161T2 (de) Vektorquantisierungscodierer.
DE60133757T2 (de) Verfahren und vorrichtung zur kodierung von stimmloser sprache
DE69636209T2 (de) Vorrichtung zur Sprachkodierung
DE60012760T2 (de) Multimodaler sprachkodierer

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8328 Change in the person/name/address of the agent

Representative=s name: BECKER, KURIG, STRAUS, 80336 MUENCHEN