DE3883799T2 - Codierungseinrichtung zur Sprachübertragung. - Google Patents

Codierungseinrichtung zur Sprachübertragung.

Info

Publication number
DE3883799T2
DE3883799T2 DE88102446T DE3883799T DE3883799T2 DE 3883799 T2 DE3883799 T2 DE 3883799T2 DE 88102446 T DE88102446 T DE 88102446T DE 3883799 T DE3883799 T DE 3883799T DE 3883799 T2 DE3883799 T2 DE 3883799T2
Authority
DE
Germany
Prior art keywords
period
speech
pitch period
time domain
speech signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE88102446T
Other languages
English (en)
Other versions
DE3883799D1 (de
Inventor
Fumio Amano
Kohei Fujitsu Aobadai-Ry Iseda
Koji Dai Morozumi-So Okazaki
Tomohiko Taniguchi
Shigeyuki Unagami
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Application granted granted Critical
Publication of DE3883799D1 publication Critical patent/DE3883799D1/de
Publication of DE3883799T2 publication Critical patent/DE3883799T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/66Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission for reducing bandwidth of signals; for improving efficiency of transmission
    • H04B1/662Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission for reducing bandwidth of signals; for improving efficiency of transmission using a time/frequency relationship, e.g. time compression or expansion

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)

Description

    Hintergrund der Erfindung 1. Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf ein Sprachcodier-Übertragungsgerät. Spezieller bezieht sie sich auf ein hocheffizientes Sprachcodier-Übertragungsgerät vom Typ mit harmonischer Skalierung im Zeitbereich (TDHS), worin eine harmonische Skalierung im Zeitbereich durch Verwendung einer Wiederholung eines Sprachsignales bei jeder Tonhöhenperiode angewendet wird.
  • 2. Beschreibung des Standes der Technik
  • TDHS ist ein Codiersystem, worin eine Bandbreitenkompression- und -expansion im Zeitbereich durch Verwendung einer periodischen Charakteristik einer Sprachsignalform bei jeder Tonlagenperiode durchgeführt wird. Die TDHS ist detailliert in den nachfolgend angegebenen Veröffentlichungen (1) und (2) beschrieben, in Veröffentlichung (3) zusammengefaßt, und eine Verbesserung derselben in Veröffentlichung (4) offenbart.
  • Ein hocheffizientes Sprachcodier-Übertragungsgerät verwendet das TDHS-System, um das Sprachsignal im Zeitbereich zu komprimieren und zu expandieren, und somit die Qualität des Signals zu erhalten.
  • Bei der Ubertragung eines Sprachsignals mittels beispielsweise mobiler Kommunikation, Satelliten-Kommunikation, Kommunikation zwischen Firmen, oder ähnlich, müssen die Kommunikationskosten so niedrig wie möglich gehalten werden, und für die Speicherung von Sprachdaten in beispielsweise einer Sprachsignalspeichereinheit, einem Sprachantwortsystem oder ähnlichem muß die Speicherkapazität so klein wie möglich sein. Die obige hocheffiziente Sprachcodier-Übertragungsvorrichtung erfüllt diese Anforderungen.
  • In einem die TDHS verwendenden, hocheffizienten Sprachcodier-Übertragungsgerät ergibt sich jedoch ein Problem darin, daß beim Decodieren eines Sprachsignals die Klarheit der stimmlosen Sprache darin häufig verschlechtert ist, und demgemäß besteht eine wachsende Nachfrage für ein Sprachcodier-Übertragungsgerät, in welchem diese Qualitätsverschlechterung des Sprachsignals insgesamt vermieden wird.
  • In Bezug genommene Entgegenhaltungen:
  • (1) D. Malah, "Time-domain algorithms for harmonic bandwidth reduction and time scaling of speech signals" IEEE Trans. Acoust. Speech Signal Processing, Vol. ASSP-27, Seiten 121-133, April 1979
  • (2) R.V. Cox et al., "An Implemantation of Time Domain Harmonic Scaling with Application to Speech Coding" ICC 82, Seiten 4G. 1. 1-4
  • (3) S Furui, "Digital Speech Processing", Seiten 122-124, Tokai Daigaku Shuppankai (Veröffentlichung in japanischer Sprache)
  • (4) Morita, Itakura, "A Compression and Expansion System in Time Domain for Speech Signals using a Self-correlative Method, and an Evaluation thereof", Electric Acoustic Research Committee Material EA 86-5 (Veröffentlichung in japanischer Sprache)
  • Bei einer herkömmlichen TDHS werden Auswertungsfunktionen für eine Extraktion der periodischen Charakteristik von Sprachsignalen mittels einer Signalformkorrelation unter Verwendung der folgenden Gleichung (1) oder mittels einer Signalformähnlichkeit unter Verwendung der folgenden Gleichung (2) berechnet, und die Periode, welche die stärkste Korrelation aufweist, wird bestimmt, eine Tonlagenperiode (pitch period) zu sein.
  • Das Ausmaß der Suche nach der Tonlagenperiode wird zwischen einer oberen Grenze und einer unteren Grenze der Tonlagenfrequenz definiert. Beispielsweise wird die Suche erstreckt auf 16≤N≤200.
  • Jedoch kann von stimmloser Sprache, die keine periodischen Charakteristiken aufweist, mittels dem obigen Suchverfahren eine geeignete Periode nicht extrahiert werden. Weil Kompression und Expansion in Übereinstimmung mit einer Zufallstonlagenperiode ausgeführt wird, kann deshalb die Charakteristik der Signalform nicht bewahrt werden, und das decodierte Sprachsignal ist deshalb nicht klar, und eine Qualitätsverschlechterung der Übertragungscharakteristiken kann somit nicht vermieden werden.
  • Die vorliegende Erfindung beabsichtigt, die oben erwähnten Probleme der herkömmlichen Technologie auf diesem Gebiet zu lösen.
  • Zusammenfassung der Erfindung
  • Eine Aufgabe der vorliegenden Erfindung ist es, ein Sprachcodier-Übertragungsgerät vorzusehen, worin eine Kompression und Expansion in einer harmonischen Skalierung im Zeitbereich während des Empfangs von stimmloser Sprache, welche keine Periodische Charakteristik aufweist, in Übereinstimmung mit einer Abtastperiode verarbeitet werden, und worin die Qualität der stimmlosen Sprache in der decodierten Sprache verbessert ist und die Klarheit der gesamten decodierten Sprache erhöht werden kann.
  • Gemäß der Erfindung ist ein Sprachcodier-Übertragungsgerät mit einem Übertragungsabschnitt vorgesehen, welcher mittels harmonischer Kompression im Zeitbereich verarbeitete und codierte Sprachsignale überträgt, und mit einem Empfangsabschnitt, welcher das übertragene codierte Signal decodiert, und das decodierte Signal auf eine vor der Kompression des Signals vorhandene Bandbreite expandiert und reproduziert,
  • wobei der Übertragungsabschnitt umfaßt:
  • eine Tonlagenperioden-Extraktionseinrichtung zum Extrahieren einer Tonlagenperiode des Sprachsignals während der stimmhaften Periode, und
  • eine Einrichtung zur harmonischen Kompression im Zeitbereich, um ein Sprachsignal entsprechend einer Tonlagenperiode von einem in eine Vielzahl von Tonlagenperioden eingeschlossenen Sprachsignal zu erhalten und auszugeben, wobei der Empfangsabschnitt umfaßt:
  • eine Einrichtung zur harmonischen Expansion im Zeitbereich zum Expandieren im Zeitbereich des Sprachsignals entsprechend einer Tonlagenperiode in eine Vielzahl von Tonlagenperioden,
  • gekennzeichnet dadurch, daß es in dem Übertragungsabschnitt
  • eine Stimmhaft/Stimmlos-Bestimmungseinrichtung zum Unterscheiden, ob das Sprachsignal in einer stimmhaften Periode oder einer stimmlosen Periode ist, und
  • eine Kompressionseinrichtung zum Erhalten und Ausgeben eines Sprachsignals, entsprechend einer Abtastperiode von einem Sprachsignal mit einer Vielzahl von Abtastperioden während einer stimmlosen Periode umfaßt, und
  • in dem Empfangsabschnitt eine Expansionseinrichtung zum Expandieren im Zeitbereich des Sprachsignals entsprechend der einen Abtastperiode in eine Vielzahl von Abtastperioden.
  • Die Stimmhaft/Stimmlos-Erfassungseinrichtung unterscheidet eine Periode stimmhafter Sprache und eine Periode stimmloser Sprache in dem Sprachsignal. Die stimmhafte Sprache wird erzeugt, wenn die Buchstaben A, E, I, O, U, M, N, R, B, D, G, usw. ausgesprochen werden. Die stimmlose Sprache wird erzeugt, wenn die Buchstaben S, H, P, t, K, usw. ausgesprochen werden.
  • Die Tonlagenperiod-Extraktionseinheit extrahiert die Tonlagenperiode des Sprachsignals während der Periode stimmhafter Sprache.
  • Die Einrichtung zur harmonischen Kompression im zeitbereich erzeugt ein Sprachsignal entsprechend einer Tonlagenperiode aus einem Sprachsignal in einer Vielzahl von Tonlagenperioden und gibt dieses Signal aus.
  • Die Kompressionseinrichtung erzeugt ein Sprachsignal entsprechend einer Abtastperiode von dem Sprachsignal in einer Vielzahl von Abtastperioden während einer Periode stimmloser Sprache und gibt dieses Signal aus.
  • Gemäß einem bevorzugten Ausführungsbeispiel ist die Kompressionseinrichtung eine Dezimierungseinrichtung.
  • Die Einrichtung für harmonische Expansion im Zeitbereich expandiert das Sprachsignal entsprechend einer Tonlagenperiode auf die Vielzahl von Tonlagenperioden, die vor der Kompression vorlagen, und die Expansionseinrichtung expandiert das einer Abtastperiode entsprechende Sprachsignal auf die Vielzahl von Abtastperioden, die vor der Kompression existierten. Vorteilhafterweise ist die Expansionseinrichtung eine Interpolationseinrichtung.
  • Vorteilhafterweise umfaßt der Übertragungsabschnitt, welcher ein Sprachsignal mit einer komprimierten Bandbreite überträgt, eine Kompressions-/Expansions-Steuerungseinrichtung (C/E) und eine Einrichtung für harmonische Kompression im Zeitbereich. Der Empfangsabschnitt, welcher das übertragene, codierte Signal decodiert, umfaßt eine Einrichtung zur harmonischen Expansion im Zeitbereich, in welcher das decodierte Signal auf die Bandbreite vor der Kompression expandiert wird, und somit das Sprachsignal reproduziert. Die C/E-Steuerungseinrichtung unterscheidet die Perioden stimmhafter Sprache und stimmloser Sprache. Wenn eine Periode stimmhafter Sprache ausgemacht wird, wird die Tonlagenperiode des Sprachsignals extrahiert und ausgegeben. Wenn eine Periode stimmloser Sprache ausgemacht wird, wird das Abtastperiodensignal, mit welchem das Sprachsignal abgetastet wird, ausgegeben. Die Einrichtung zur harmonischen Kompression im Zeitbereich empfängt die Tonlagenperiodendaten von der C/E-Steuerung, erhält das Sprachsignal entsprechend einer Tonlagenperiode von dem Sprachsignal in einer Vielzahl von Tonlagenperioden, empfängt die Abtastperiodendaten von der C/E-Steuerung, erhält das Sprachsignal entsprechend einer Abtastperiode von dem Sprachsignal in einer Vielzahl von Abtastperioden und gibt das komprimierte Sprachsignal aus. Die Einrichtung zur harmonischen Expansion im Zeitbereich empfängt das Tonlagenperiodensignal von der C/E-Steuerung, expandiert das Sprachsignal entsprechend einer Tonlagenperiode auf eine Vielzahl von Tonlagenperioden und empfängt das Abtastperiodensignal von der C/E-Steuerungseinrichtung und expandiert das Sprachsignal entsprechend einer Abtastperiode auf eine Vielzahl von Abtastperioden.
  • Im Betrieb des Gerätes gemäß der Erfindung wird zuerst erfaßt, ob ein Sprachsignal stimmhafte Sprache oder stimmlose Sprache ist. In einer stimmhaften Periode extrahiert der Übertragungsabschnitt die Tonlagenperiode, erhält ein Sprachsignal entsprechend einer Tonlagenperiode von einem Sprachsignal entsprechend einer Vielzahl von Tonlagenperioden, führt eine harmonische Kompression im Zeitbereich durch und gibt ein komprimiertes Sprachsignal aus. Im Empfangsabschnitt wird eine harmonische Expansion im Zeitbereich durchgeführt und das übertragene Signal einer Tonlagenperiode wird expandiert, um ein Signal mit einer Vielzahl von Tonlagenperioden zu erhalten.
  • In einer stimmlosen Periode erhält der Übertragungsabschnitt ein Sprachsignal entsprechend einer Abtastperiode von einem Sprachsignal entsprechend einer Vielzahl von Abtastperioden, führt bevorzugterweise eine harmonische Kompression im Zeitbereich durch und gibt ein komprimiertes Signal aus. Im Empfangsabschnitt wird eine harmonische Expansion im Zeitbereich durchgeführt und das übertragene Sprachsignal entsprechend einer Abtastperiode wird expandiert, um ein Sprachsignal mit einer Vielzahl von Abtastperioden zu erhalten.
  • Der oben beschriebene Betrieb ermöglicht, daß eine harmonische Kompression und Expansion des Sprachsignals im Zeitbereich in geeigneter Weise sowohl für die stimmhaften als auch die stimmlosen Sprachen durchgeführt wird, und erhöht somit die Klarheit des gesamten, übertragenen, decodierten Signals.
  • Andere Merkmale und Vorteile der Erfindung ergeben sich aus der folgenden Beschreibung unter Bezug auf die begleitenden Zeichnungen.
  • Kurzbeschreibung der Zeichnungen
  • Fig. 1 ist ein Blockdiagramm eines Sprachcodier-Übertragungsgerätes;
  • Fig. 2 ist ein Diagramm, welches eine harmonische Kompression im Zeitbereich erläutert;
  • Fig. 3 ist ein Diagramm, welches eine harmonische Expansion im Zeitbereich erläutert;
  • Fig. 4 ist ein Blockdiagramm, welches eine erste Konstitution der vorliegenden Erfindung zeigt;
  • Fig. 5 ist ein Blockdiagramm, welches eine zweite Konstitution der vorliegenden Erfindung zeigt;
  • Fig. 6 ist ein Blockdiagramm eines ersten Ausführungsbeispiels gemäß der vorliegenden Erfindung;
  • Fig. 7 ist ein Diagramm zur Erläuterung eines Dezimierungsvorganges;
  • Fig. 8 ist ein Diagramm, welches einen Interpolationsvorgang erläutert;
  • Fig. 9 ist ein Blockdiagramm, welches eine Konstitution einer Tonlagenperioden-Extraktionseinheit in Fig. 6 zeigt;
  • Fig. 10 ist ein Diagramm zur Erläuterung einer ersten Rahmenkonstitution als ein Beispiel für Übertragungsdaten in dem TDHS-System;
  • Fig. 11 ist ein Diagramm, welches eine zweite Rahmenkonstitution als ein anderes Beispiel von Übertragungsdaten in dem TDHS-System zeigt;
  • Fig. 12 ist ein Flußdiagramm, welches einen Betrieb eines herkömmlichen Multiplexers zeigt, der die Rahmenkonstitution verwendet;
  • Fig. 13 ist ein Flußdiagramm, welches einen Betrieb eines herkömmlichen Multiplexers unter Verwendung der zweiten Rahmenkonstitution;
  • Fig. 14 ist ein partielles Blockdiagramm, welches eine Konstitution eines Gerätes nach einem zweiten Ausführungsbeispiel gemäß der vorliegenden Erfindung zeigt;
  • Fig. 15 ist ein Diagramm, welches eine Beziehung zwischen Tonlagenperioden und Rahmen erläutert;
  • Fig. 16 ist ein Diagramm, welches eine Datenzuteilung in einem Rahmen erläutert;
  • Fig. 17 ist ein Flußdiagramm, welches einen Betrieb in einer Randinformationserzeugung und einem Multiplexverfahren zeigt;
  • Fig. 18 ist ein schematisches Blockdiagramm des Gerätes nach einem dritten Ausführungsbeispiel der vorliegenden Erfindung;
  • Fig. 19 ist ein detailliertes Blockdiagramm des Gerätes in Fig. 18; und
  • Fig. 20 und 21 sind Diagramme, welche Rahmenbildungen in dem Gerät von Fig. 18 zeigen.
  • Beschreibung der bevorzugten Ausführungsbeispiele
  • Vor der Beschreibung der bevorzugten Ausführungsbeispiele wird der diesbezügliche Stand der Technik unter Bezugnahme auf die Zeichnungen zu Vergleichszwecken erläutert.
  • Fig. 1 zeigt eine Bildung eines herkömmlichen TDHS-Sprachcodier-Übertragungsgerätes. Das Gerät umfaßt eine Einheit 1 zur harmonischen Kompression im Zeitbereich (TDHC), eine Tonlagenperioden-Extraktionseinheit 2, einen Codierer 3, eine Übertragungsleitung 4, einen Decoder 5 und eine Einheit 6 zur harmonischen Expansion im Zeitbereich (TDHE).
  • In Fig. 1 wird eine Tonlagenperiode eines eingegebenen Sprachsignals S(n) in der Tonlagenperioden-Extraktionseinheit 2 extrahiert und an die TDHC-Einheit 1 gesendet. Die TDHC-Einheit 1 komprimiert die Eingabe S(n) auf die Eingabe der extrahierten Tonlagenperiode hin um die harmonische Skalierung im Zeitbereich und gibt ein komprimiertes Signal Sc(n) aus. Das komprimierte Signal Sc(n) wird an den Codierer 3 gesendet und mittels einer beliebigen Codierung codiert. Dann wird das codierte Signal über die Übertragungsleitung 4 übertragen, und im Empfangsabschnitt decodiert der Decoder 5 das übertragene Signal und gibt ein komprimiertes Empfangssignal (n) aus. Das Signal (n) wird an die TDHE-Einheit 6 gesendet und von der TDHE in ein reproduziertes Ausgangssignal (n) expandiert, unter Verwendung des Tonlagenperiodensignals, welches separat übertragen wird.
  • In Fig. 2 und 3 werden Beispiele der TDHC und der TDHE des Sprachcodier-Übertragungsgerätes in Fig. 1 erläutert. Fig. 2 zeigt das harmonische Kornpressionsverfahren im Zeitbereich und Fig. 3 zeigt das harmonische Expansionsverfahren im Zeitbereich.
  • Wie in Fig. 2 gezeigt ist, wird bei dem harmonischen Kompressionsverfahren im Zeitbereich die Eingabe S(n) für jede von der Einheit 2 extrahierte Tonlagenperiode P herausgenommen, die herausgenommenen Signale werden gewichtet und als ein Satz von zwei Perioden angeordnet, d.h., das erste Periodensignal wird von einem Gewichtungsfenster W(m) gewichtet, und das zweite Periodensignal wird mit einem Gewichtungsfenster (1-W(m)) mit einer Charakteristik entgegengesetzt derjenigen des Fensters W(m) gewichtet. Das gewichtete erste Periodensignal wird dann zu dem gewichteten zweiten Periodensignal addiert und somit ein Signal einer Periode erhalten. Demgemäß wird ein komprimiertes Signal Sc(n) erzeugt, dessen Zeitbereich um 1/2 komprimiert ist.
  • Andererseits werden in der harmonischen Expansion im Zeitbereich, wie in Fig. 3 gezeigt, drei Perioden des komprimierten, übertragenen Signals (n) benötigt, und die vorangehenden zwei Perioden werden mit einem Gewichtungsfenster (1-W(m)) gewichtet, und die nächten beiden Perioden werden mit einem Gewichtungsfenser W(m) gewichtet. Die erhaltenen zwei Ausgaben werden zusammenaddiert, und zwei Perioden des reproduzierten Signals (n) werden erhalten, und somit wird die Bandbreite des Signals (n) auf die Bandbreite expandiert, die vor der Kompression des Signals existierte.
  • Fig. 4 ist ein schematisches Blockdiagramm eines ersten Ausführungsbeispiels des Sprachcodier-Übertragungsgerätes der vorliegenden Erfindung. Dieses Gerät umfaßt eine TDHC 1, eine Tonlagenperioden-Extraktion 2, eine TDHE 6, eine Dezimierung 7, eine Interpolation 8 und eine Stimmhaft/Stimmlos-Erfassung 10. Es ist anzumerken, daß der Betrieb von diesen bereits in der Zusammenfassung der Erfindung beschrieben worden ist.
  • Fig. 5 ist ein schematisches Blockdiagramm eines zweiten Ausführungsbeispiels des Sprachcodier-Übertragungsgerätes der vorliegenden Erfindung. Dieses Gerät umfaßt eine TDHC 101, eine Kompressions-Expansions-(C/E)Steuerungseinrichtung 102, einen Codierer 3, einen Decoder 5 und eine TDHE-Einrichtung 106. Es ist anzumerken, daß der Betrieb dieses Gerätes bereits in der Zusammenfassung der Erfindung beschrieben worden ist.
  • Fig. 6 zeigt eine Bildung eines Gerätes eines ersten Ausführungsbeispiels der vorliegenden Erfindung. In der Figur wird denselben Elementen, die in Fig. 1 gezeigt sind, dieselben Bezugsziffern gegeben. Dieses Gerät schließt ferner eine Dezimierungseinheit 7, eine Interpolationseinheit 8 und Schalter 91 und 92 ein.
  • Fig. 7 und 8 erläutern die Verfahren in der Dezimierungseinheit 7 und der Interpolationseinheit 8 des Ausführungsbeispiels der Fig. 6.
  • Fig. 9 zeigt ein Beispiel einer Tonlagenperioden-Extraktionseinheit 2 in diesem Ausführungsbeispiel. Die Einheit 2 umfaßt eine Covarianzberechnungseinheit 11, eine Maximalwert-Detektoreinheit 12, eine Covarianz-Schwellwert-Einstelleinheit 13, einen Komparator 14, eine Erfassungseinheit 15 und Schalter 161 und 162.
  • In Fig. 6 erfaßt die Tonlagenperioden-Extraktionseinheit 2 die Periode der Eingabe S(n). Ebenso ist eine Einrichtung (10) zum Unterscheiden, ob das Sprachsignal in einer stimmhaften oder stimmlosen Periode ist, vorhanden (nicht gezeigt). In der Periode stimmhafter Sprache, welche eine periodische Charakterstik einer bestimmten Länge aufweist, wird die Tonlagenperiode p als ein Wert der Tonlagenperiode P extrahiert, wobei p eine Anzahl von Abtastperioden entsprechend der Tonlagenperiode ist. In der Periode stimmloser Sprache, welche keine periodische Charakteristik aufweist, wird der Wert 1 als eine Tonlagenperiode P ausgegeben.
  • Wenn die Tonlagenperiode P ungleich 1 ist, verbindet der Schalter 91 den Ausgang der TDHC-Einheit 1 mit dem Codierer 3, und der Schalter 92 verbindet den Ausgang der TDHE-Einrichtung 6 mit einer Ausgabeleitung. Die TDHC-Einheit 1 führt eine Kompression im Zeitbereich unter Verwendung der Tonlagenperiode P=p durch, wie in Fig. 1, und die TDHE-Einheit 6 führt eine Expansion im Zeitbereich unter Verwendung der Tonlagenperiode P=p durch, wie in Fig. 1.
  • Wenn andererseits die Tonlagenperiode P gleich 1 ist, verbindet der Schalter 91 die Dezimierungseinheit 7 mit dem Codierer 3, und der Schalter 92 verbindet die Interpolationseinheit 8 mit der Ausgangsleitung, und die Dezimierung und die Interpolation werden unter Verwendung der Tonlagenperiode P = 1 durchgeführt. Wenn P = 1, wird die Verarbeitung unter Verwendung der Abtastperiode für das Sprachsignal durchgeführt. In dem Dezimierungsverfahren, wie in Gleichung (3) gezeigt, wird der Mittelwert des Sprachsignals für zwei Abtastperioden berechnet, und das Kompressionssignal Sc(n) entsprechend einer Abtastperiode wird erzeugt. Somit wird das Kompressionssignal Sc(n) erhalten, welches um 1/2 komprimiert ist.
  • Sc(i) = (S(2i - 1) + S(2i))/2 ... (3)
  • i = 1, 2, 3, ...
  • Fig. 7 ist ein Graph, welcher dieses Verfahren zeigt.
  • In der Interpolationseinheit 8 wird das komprimierte, übertragene Signal (i) verarbeitet, wobei ein Interpolationsverfahren verwendet wird und ein Sprachsignal iriit einer Abtastperiode auf die folgende Gleichung (4) und (5) angewendet wird. Dann wird von dem komprimierten, iibertragenen Signal (n) entsprechend einer Abtastperiode eine Reproduktionsausgabe (n) entsprechend zwei Abtastperioden erzeugt, und somit die Bandbreite des komprimierten Sprachsignals auf die Breite der Bandbreite vor der Kompression expandiert.
  • Fig. 8 ist ein Graph, welcher dieses Verfahren zeigt.
  • In diesem Fall wird die Extraktion der Tonlagenperiode, wie in Fig. 9 gezeigt, durchgeführt. Die Covarianz-Berechnungseinheit 11 empfängt nämlich eine Eingabe S(n) und berechnet die in einer Gleichung (6) definierte Covarianz C(n) von der Ordnung M&sub1; bis M&sub2;.
  • worin M&sub1; = 16, M&sub2; = 200 näherungsweise, wie bei 6,4 KHz Abtastung wohl bekannt ist. Die Maximalwert-Erfassungseinheit 12 erfaßt den Maximalwert max C(i) (i = M&sub1; bis M&sub2;) der C(M&sub1;) bis C(M&sub2;), die durch die obige Berechnung erhalten werden. Der Maximalwert ist ein Covarianzwert C(P), worin P eine Tonlagenperiode ist.
  • Der durch dieses Verfahren erfaßte Covarianzwert C(P) wird an den Komparator 14 gesendet und mit einem vorbestimmten Schwellwert Cth verglichen, der in der Covarianz-Schwellwert-Einstelleinheit 13 eingestellt wird. Der Komparator 14 erzeugt Ausgaben auf C(P) < Cth oder C(P) &ge; Cth hin. Falls C(P) < Cth, ist die periodische Charakteristik schwach und somit das Eingangssignal stimmlose Sprache. Falls C(P) &ge; Cth, ist die periodische Charakteristik stark und somit das Eingangssignal stimmhafte Sprache. Deshalb unterscheidet die Erfassungseinheit 15 stimmhafte Sprache von stimmloser Sprache auf die Ausgaben des Komparators 14 hin. Im Falle stimmhafter Sprache wird die Tonlagenperiode P=p ausgegeben, und im Fall stimmloser Sprache wird die Tonlagenperiode P = 1 ausgegeben; worin p die Tonlagenperiode ausgedrückt als ein Vielfaches der Abtastperiode ist. Der Wert von Cth, der in der Covarianz-Schwellwert-Einstelleinheit 13 eingestellt wird, ist näherungsweise 0,6 bis 0,7, wie wohl bekannt ist.
  • Nun wird ein Gerät eines zweiten Ausführungsbeispiels gemäß der vorliegenden Erfindung erläutert, nachdem ein Beispiel einer herkömmlichen Einheit entsprechend diesem Ausführungsbeispiel gegeben wird.
  • Herkömmlicherweise werden in dem hocheffizienten Sprachcodier-Übertragungsgerät vom TDHS-Typ zwei Typen von Rahmendaten verwendet, die von einem Multiplexer in dem Gerät ausgegeben werden.
  • Fig. 10 und 11 zeigen die Anordnungen von verschiedenen Signalen in dem Rahmendatenformat. In diesem Rahmenformat sind die im Zeitbereich komprimierten Sprachsignale in einem ersten Teil angeordnet, die Tonlagenperioden sind in dem zweiten Teil angeordnet, die Rahmendatenlängen sind in dem dritten Teil angeordnet, und die Übertragungsrahmen sind im letzten Teil angeordnet.
  • Eine erste von dem Multiplexer 21 ausgegebene Rahmenbildung ist in Fig. 10 gezeigt. Eine Tonlagenperiode (P&sub1;, P&sub2;, ...) des komprimierten Sprachsignals bildet einen Rahmen (F&sub1;, F&sub2;, ...), die Abtastdaten einer Tonlagenperiode (P&sub1;, P&sub2;, ...) sind die Rahmendaten, und die Länge der Abtastperiode (P&sub1;, P&sub2;, ...) Daten ist einem Vorsatz (header) beigefügt.
  • Der Betrieb des Multiplexers 21, welcher diesen Rahmen bildet, ist im Flußdiagramm der Fig. 12 gezeigt.
  • In Schritt 11 (ST 11) multiplext der Multiplexer (MUX.) 21 Abtastdaten während einer Tonlagenperiode von dem Codierer 3 und die Tonlagenperiodendaten von der Tonlagenperiodenextraktionseinheit 2; in Schritt 12 (ST 12) werden die gemultiplexLen Daten ausgegeben; und in Schritt 13 (ST 13) werden Daten von dem Codierer 3 um eine Tonlagenperiode verschoben.
  • Fig. 11 zeigt eine zweite Rahmenbildung, die von dem Multiplexer 21 ausgegeben wird. In dem zweiten Rahmenformat sind die Rahmen F&sub1;, F&sub2;, ... auf eine vorbestimmte Zeit festgelegt, und eine typische Tonlagenperiode unter den Tonlagenperioden P&sub1;, P&sub2;, P&sub3;, die in dem Rahmen F&sub1; eingeschlossen sind, beispielsweise P&sub1;, wird erfaßt, die Daten der Tonlagenperiode P&sub1; dem Rahmen F&sub1; als Tonlagenperiodendaten der Rahmendaten beigefügt, und die Rahmendaten, wie in dem vierten Teil gezeigt, übertragen.
  • Die typische Tonlage wird erfaßt und der Rahmen in der gleichen Weise im Rahmen F&sub2; erstellt.
  • Der Betrieb des Multiplexers 21, welcher den Rahmen bildet, wird im Flußdiagramm der Fig. 13 gezeigt.
  • In Schritt 21 (ST 21) wird die typische Tonlagenperiode in dem Rahmen aus den von dem Codierer 3 in dem einen Rahmen gesendeten Abtastdaten berechnet; in Schritt 22 (ST 22) werden die Abtastdaten von dem Codierer 3 und die berechneten, typischen Tonlagenperiodendaten gemultiplext; in Schritt 23 (ST 23) werden die gemultiplexten Daten ausgegeben; und in Schritt 24 (ST 24) werden die Daten von dem Codierer 3 um eine Rahmenperiode verschoben.
  • Die folgende Veröffentlichung erörtert das obige technische Verfahren.
  • R.E. Chrochier et al. "A 9.6 kB/S Speech Coder Using the Bell Laboratories DSP Integrated Circuit", ICASSP 82, Seiten 1692-1695.
  • Fig. 14 ist ein Blockdiagramm des zweiten Ausführungsbeispiels der Erfindung. Fig. 14 zeigt nur den Übertragungsabschnitt des Geräts. Der in Fig. 14 gezeigte Multiplexer 21 unterscheidet sich von demjenigen der Fig. 6 darin, daß das Gerät in Fig. 14 ferner eine Randinformationserzeugungseinheit 20 umfaßt.
  • Fig. 15 zeigt ein Diagramm, welches einen Betrieb eines zweiten Ausführungsbeispiels erläutert. In Fig. 15 zeigt der obere Teil ein komprimiertes Sprachsignal, welches von der TDHC-Einheit 1 ausgegeben wird, und die Tonlagenperioden davon sind durch P&sub1;, P&sub2;, ... im Mittelteil der Fig. 15 gezeigt. Die Tonlagenperiode eines Sprachsignals liegt im allgemeinen bei ungefähr 67 Hz bis 320 Hz, und deshalb schließt eine Tonlagenperiode 20 bis 96 Abtastwerte ein, wenn ein Sprachsignal mit einem Signal von 6,4 KHz abgetastet wird.
  • In diesem Ausführungsbeispiel werden Abtastsprachsignaldaten, welche aus einer Rahmenperiode mit fester Länge bestehen, die kürzer ist als die kleinste Tonlagenperiode P&sub2; (20 Abtastwerte) als ein Datenrahmen übertragen. Die Rahmenperiode fester Länge wird als 16 Abtastwerte der Übertragungsperiode bestimmt und wenn ein Sprachsignal im Zeitbereich komprimiert wird, wie im unteren Teil der Fig. 15 gezeigt ist, werden somit die Daten (ausgedrückt als F&sub1;, F&sub2;, F&sub3;, ... der Einfachheit halber) als ein Datenrahmen übertragen, worin jeder einzelne Datenrahmen Sprachsignaldaten sind, welche aus 16 Abtastwerten bestehen.
  • Die Rahmenperiode ist kürzer als die kleinste Tonlagenperiode, und deshalb kann in einem Rahmen höchstens ein Verbindungspunkt (Rand) der Tonlagenperiode des im Mittelteil der Fig. 15 gezeigten, komprimierten Sprachsignals existieren. Die Ränder sind als C&sub1; bis C&sub5; in jedem Rahmen in dem unteren Teil der Fig. 15 gezeigt. Demgemäß betragen Unterscheidungsdaten, ob der Rand einer Tonlagenperiode in einem Datenrahmen enthalten ist, ein Bit.
  • Weil ein Datenrahmen 16 Abtastwerte umfaßt, können zusätzlich Positionsunterscheidungsdaten, welche eine Randposition der Tonlagenperiode, die als eine Abtastordnung angedeutet ist, zeigen, 4 Bits betragen.
  • Um einen solchen Rahmen zu bilden, wie in Fig. 14 gezeigt ist, sind eine Randdatenerzeugungseinheit 20 und der Multiplexer 21 vorgesehen. Die Arbeitsweisen der Randdatenerzeugungseinheit 20 und des Multiplexers 21 sind in dem Flußdiagramm der Fig. 17 gezeigt.
  • In Schritt 30 (ST 30) wird das Sprachsignal eingegeben und das Sprachcodier-Übertragungsgerät beginnt den Betrieb. Dann wird in Schritt 31 (ST 31) ein Zeigerwert auf Null gesetzt. Der Zeigerwert ist das Positionsunterscheidungsdatum, welches eine Randposition der Tonlagenperiode als eine Abtastordnung zeigt.
  • In Schritt 32 (ST 32) werden der Zeigerwert und der Tonlagenperiodenwert von der Tonlagenperioden-Extraktionseinheit 2 zusammenaddiert, und der Zeigerwert des nächsten Randes der Tonlagenperiode wird berechnet. Dann wird in Schritt 33 (ST 33) der in Schritt 32 berechnete Zeigerwert verglichen, um zu bestimmen, ob dessen Wert größer als 16 ist.
  • In Schritt 34 (ST 34) wird, wenn der Zeigerwert kleiner ist als 16, das Randdatum 1 an den Multiplexer 21 von der Randdatenerzeugungseinheit 20 ausgegeben. Dann multiplext in Schritt 35 (ST 35) der Multiplexer 21 die Daten von dem Codierer 3, welche Daten 16 Abtastwerte umfassen, die Randinformationsdaten von der Randdaten-Erzeugungseinheit 20, und den Zeigerwert. Dann werden in Schritt 36 (ST 36) die gemultiplexten Rahmen an die Übertragungsleitung ausgegeben.
  • In Schritt 37 (ST 37) wird von dem Zeigerwert 16 subtrahiert, und in Schritt 38 (ST 38) kehrt der Vorgang zurück nach Schritt 32, nachdem die Daten einschließlich 16 Abtastwerte von dem Codierer 3 verschoben worden sind. Dann werden in Schritt 41 (ST 41), wenn der Zeigerwert in Schritt 33 größer ist als 16, die Randdaten auf Null gesetzt und die Ausgabe der Randdaten-Erzeugungseinheit 20 an den Multiplexer 21 geliefert.
  • In Schritt 42 (ST 42) multiplext der Multiplexer 21 die von dem Codierer 3 um 16 Abtastwerte ausgelesenen Daten und die Randdaten von der Randdaten-Erzeugungseinheit 20 an einer vorbestimmten Bitposition des Rahmens, und in Schritt 43 (ST 43) wird der gemultiplexte Rahmen an die Übertragungsleitung ausgegeben; in Schritt 44 (ST 44) wird von dem Zeigerwert 16 abgezogen; und in Schritt 45 (ST 45) kehrt der Vorgang zurück zu Schritt 33.
  • Wie oben erwähnt, werden in diesem Ausführungsbeispiel die Daten mit einem in Fig. 16 gezeigten Format von dem Multiplexer 21 ausgegeben. Die Daten werden in zeitlicher Abfolge zu dem einen Datenrahmen kombiniert, der eine feste Gesamtzahl von 16 Abtastwerten von Sprachsignaldaten umfaßt, die Randpräsenzdaten, welche unterscheiden, ob der Rand der Tonlagenperiode in dem einen Datenrahmen eingeschlossen ist oder nicht, und die Randpositionsdaten, welche die Randposition anzeigen.
  • Weil die Randpräsenzdaten ein Bit betragen, betragen die Randpositionsdaten 4 Bits, wie oben erwähnt, und diese beiden haben eine fest Länge. Deshalb erhält das gesamte, codierte Übertragungssignal in Fig. 16 eine feste Länge, und die Übertragung einer konstanten Information pro Zeiteinheit ist möglich. Weil die Randpositionsinformation der Tonlagenperiode zusammen übertragen wird, kann zusätzlich die Information der Tonlagenperiode mit der Rate von fünf Bits/16 Abtastwerte (= 1,0 kbps) auf der Empfängerseite unterschieden werden, und eine harmonische Expansion im Zeitbereich kann auf der Grundlage einer korrekten Tonlagenperiode durchgeführt werden.
  • Wenn der Rand der Tonlagenperiode in dem einen Datenrahmen nicht vorhanden ist, werden anstelle der Randpositionsdaten beispielsweise Abtastdaten übertragen, und somit kann ein Codiersignal mit höherer Qualität übertragen werden.
  • Der Betrieb des oben erwähnten, zweiten Ausführungsbeispiels wird wie folgt zusammengefaßt.
  • Die Randdatenerzeugungseinheit 20 und der Miltiplexer 21 kombiniert Sprachsignaldaten mit einer vorbestimmten, festen Rahmenperiode, feste Randpräsenzdaten, und Randinformationsdaten fester Länge, welche eine Position des Randes der Tonlagenperiode zeigen, und gibt diese aus. In dieser Beschreibung ist die vorbestimmte, feste Rahmenperiode kürzer als die minimale Tonlagenperiode des im Zeitbereich harmonisch komprimierten Sprachsignals. Die Randpräsenzdaten unterscheiden, ob der Rand der Tonlagenperiode des komprimierten Sprachsignals enthalten ist.
  • Weil die Rahmendatenlänge kürzer ist als die der Minimalperiode der Tonlagenperiode des Sprachsignals, schließen deshalb die Rahmendaten entweder einen Rand der Tonlagenperiode oder keinen ein. In den Tonlagenperiodendaten in dem Rahmen sind die Randpräsenzdaten und die Randpositionsdaten enthalten, und die Daten werden empfängerseitig unterschieden, und deshalb wird jede Tonlagenperiode empfängerseitig korrekt erkannt.
  • Aus diesem Grund kann empfängerseitig Übertragungsjitter reduziert werden, weil der Rahmen eine feste Länge aufweist.
  • Wie oben erwähnt wurde, wird bei Verwendung dieses zweiten Ausführungsbeispieles der Datenrahmen mit einem Signalformat von fester Länge übertragen, die Übertragungsinformationen pro Zeiteinheit ist konstant, und eine Übertragungsleitung mit einem optimalen Übertragungsband mit geringerer Redundanz kann verwendet werden. Ebenso wird die Tonlagenperiode, welche vom Sprecher abhängt und zeitlichen Schwankungen unterliegt, übertragen und demgemäß kann eine optimale harmonische Expansion im Zeitbereich durch Verfolgen der Varianz der Tonlagenperiode durchgeführt werden. Somit ergibt diese Erfindung die Vorteile einer erhöhten Qualität und Klarheit eines regenerierten Sprachsignals im Vergleich mit dem herkömmlichen Festrahmen-übertragungsgerät.
  • Das Sprachcodier-Übertragungsgerät eines dritten Ausführungsbeispiels gemäß der vorliegenden Erfindung wird im folgenden erklärt. Zuerst wird der Stand der Technik für dieses Ausführungsbeispiel beschrieben.
  • In Fig. 14, welche ein partielles Blockdiagramm der Übertragungsseite des obigen Gerätes ist, ist eine Randdatenerzeugungseinheit 20 und ein Multiplexer 21 gezeigt. Die Randdatenerzeugungseinheit 20 und der Multiplexer 21 sind dieselben wie jene des zweiten Ausführungsbeispiels. Die Beziehung zwischen einem Rahmen und einer Tonlagenperiode ist in Fig. 15 gezeigt, und eine Datenzuweisung in einem festen Rahmen ist in Fig. 16 gezeigt.
  • Das dritte Ausführungsbeispiel der Erfindung wird nun unter Bezug auf Fig. 18 und 19 erlautert. Fig. 18 zeigt ein schematisches Blockdiagramm und Fig. 19 zeigt ein detailliertes Blockdiagramm. In diesem Ausführungsbeispiel wird ein Codierer 3 durch den ADPCM (adaptive differentielle Pulscodemodulation) Codierer 300 ersetzt. Wie in Fig. 19 gezeigt ist, sind die ADPCM Codierer 301 bis 30k in zwei Gruppen unterteilt, und diese Gruppen beziehen sich auf die Randinformation der Tonlagenperiode.
  • Das heißt, wie in Fig. 20 gezeigt ist, daß wenn der Rand präsent ist, ein Datenrahmen 16 Abtastwerte umfaßt und sieben gemultiplexte Bits hinzugefügt werden. Die 7 Bits sind ein Bit, welchem die Randpräsenz zeigt, 4 Bits, welche die Randposition zeigen, und 2 Bits, welche die Nummer eines ADPCM Codierers zeigen. Wie in Fig. 21 gezeigt ist, ist die Randpositionsinformation nicht nötig, wenn der Rand der Tonlagenperiode nicht vorliegt, und deshalb werden der Zahl eines ADPCM Codierers 6 Bits zugewiesen. Wenn der Rand präsent ist, wie in Fig. 20 gezeigt, wird somit ein optimaler Codierer aus Codierern von 2² = 4 ausgewählt, und im Fall von Fig. 21 wird ein optimaler Codierer aus Codierern 2&sup6; = 64 ausgewählt. Um die obige Auswahl zu treffen, ist ein Schalter (SW) vorgesehen, um den Ausgang der TDHC mit einer ersten Gruppe oder sowohl der ersten und einer zweiten Gruppe zu verbinden. Die erste Gruppe umfaßt die ADPCM Codierer 301 bis 304. Die zweite, in Fig. 19 gestrichelt gezeigte Gruppe umfaßt die ADPCM Codierer 305 bis 364. Die erste Gruppe wird gewöhnlich verwendet, und die zweite Gruppe wird nur verwendet, wenn sie durch die Schalter ausgewählt wird.
  • Der Betrieb des dritten Ausführungsbeispiels wird im folgenden erläutert. Wie unter Bezug auf Fig. 14 erläutert wurde, erzeugt die Randinformations-Erzeugungseinheit 20 die Randinformation, welche das Randpräsenzsignal und die Randpositionsdaten auf der Grundlage der von der Tonlagenperioden-Extraktionseinheit 2 ausgegebenen Tonlagenperiode enthält. Dann wird die Information von einem Bit, welches sich auf die Randpräsenz bezieht, auf den Schalter (SW) gegeben. Der Schalter (SW) gibt dann den Betrieb der ADPCM Codierer 301 bis 304 oder der ADPCM Codierer 301 bis 304 und 305 bis 364 auf "1" oder "0" des Randpräsenzsignals hin frei. Wenn der Rand der Tonlagenperiode vorliegt, wird die Ausgabe der TDHC-Einheit 1 gleichzeitig auf die ADPCM Codierer 301 bis 304 gegeben, und wenn der Rand nicht präsent ist, wird die Aufgabe der TDHC-Einheit 1 gleichzeitig an alle der ADPCM Codierer 301 bis 364 gegeben.
  • Jeder Codierer empfängt das kombinierte Signal und erzeugt einen quantisierten Wert Ii(n) eines Differenzsignals und einen Quantisierungsfehler ei(n), worin i = 1 bis 4, wenn der Rand präsent ist, und i = 1 bis 64 ist, wenn der Rand nicht vorliegt. Dann erhält eine Quantisierungsfehlerleistung-Berechnungseinheit 61 in einer Optimalcodierer-Bestimmungseinheit 60 eine Quantisierungsfehlerleistung in jedem Quantisierungsfehler ei(n) und gibt denselben an eine Optimalquantisierungs-Bestimmungseinheit 62 aus. Die Optimalquantisierungs-Bestimmungseinheit 62 bestimmt die kleinste der Quantisierungs-Fehlerleistungen und somit wird der ADPCM-Codierer COPT entsprechend dem kleinsten Fehler bestimmt. Die bestimmte Ziffer wird an einen Selektor 32 und den Multiplexer 21 gegeben.
  • Der Selektor 32 bestimmt die ADPCM Codiererausgabe Ii(n) auf die bestimmte ADPCM Codiererziffer hin als ein IOPT, und die Ausgabe wird an den Multiplexer 21 gesendet. Der Multiplexer 21 verwandelt die Codierungsausgabe IOPT in Daten mit einer festen Rahmenlänge, dessen Periode kürzer ist als die kürzeste Tonlagenperiode, wie oben erwähnt, und dann werden die Optimalcodierungsziffern COPT von der Optimalquantisierungs-Bestimmungseinheit 62 und die Randinformation von der Randdatenerzeugungseinheit 20 gemultiplext und an die Übertragungsleitung ausgegeben. Die Randinformation ist nur ein Randpräsenzsignal oder ein Randpräsenzsignal und Randpositionsdaten.
  • Empfangsseitig erfaßt ein ADPCM Decoder 35 eine Vielzahl von ADPCM Decodern entsprechend dem ADPCM Coder 300 und erzeugt ein komprimiertes, reproduziertes Signal Sc(n), wobei die Signale IOPT und COPT von einem Demultiplexer 22 empfangen werden. Eine TDHE-Einheit 6 empfängt das Signal Sc(n) und erzeugt die Reproduktionsausgabe S(n).
  • In dem Sprachcodier-Übertragungsgerät gemäß dem dritten Ausführungsbeispiel, wie in Fig. 18 gezeigt, extrahiert die Tonlagenperioden-Extraktionseinheit 2 die Tonlagenperiode des Eingangssprachsignals und liefert die Tonlagenperiodendaten an die TDHC-Einheit 1 und die Randdaten-Erzeugungseinheit 20. Die TDHC-Einheit 1 umfaßt das Sprachsignal im Zeitbereich auf der Grundlage der Tonlagenperiodendaten und sendet das Signal an den ADPCM Codierer 300. Die Randdaten-Erzeugungseinheit 20 erzeugt die Randpräsenzdaten und die Randpositionsdaten in dem festen Rahmen auf der Grundlage der Ausgabe der Tonlagenperiode von der Tonlagenperioden-Extraktionseinheit 2. Der ADPCM Codierer 300 schließt eine Vielzahl von ADPCM Codierern 301 bis 30k ein, und ein Teil der ADPCM Codierer 301 bis 30k oder alle der ADPCM Codierer 301 bis 30k codiert das komprimierte Signal von der TDHC-Einheit 1 auf die Randpräsenzdaten von der Randdatenerzeugungseinheit 20 hin. Dann gibt die Randdatenerzeugungseinheit 20 die Randdaten an den Multiplexer 21 aus.
  • Die Optimalcodierer-Bestimmungseinheit 60 bestimmt, welcher der ADPCM Codierer unter den ADPCM Codierern das komprimierte Signal von der TDHC-Einheit empfangen hat, und sendet dann die Ziffer dieses ADPCM Codierers an den Selektor 32 und den Multiplexer 21. Als Ergebnis wird die Ausgabe des optimalen ADPCM Codierers durch den Selektor 32 an den Multiplexer 21 gesendet. An dieser Stelle wird ein Rahmen mit einer festen Rahmenlänge erzeugt, dessen Periode kürzer ist als diejenige der kürzesten Tonlagenperiode. Die Randpositionsdaten werden in einem Rahmen, in welchem der Rand einer Tonlagenperiode nicht vorhanden ist, nicht benötigt, und der von den Randpositionsdaten belegte Platz wird den Codierauswahldaten zugewiesen, der optimale ADPCM Codierer unter allen dere Codierer 301 bis 30k wird ausgewählt, und die Ziffer des optimalen Codierers wird den Rahmendaten hinzugefügt. Wenn andererseits der Rand der Tonlagenperiode vorhanden ist, müssen die Randpositionsdaten in dem Rahmen untergebracht sein, der optimale ADPCM Codierer wird aus den partiellen Codierern unter allen Codierern 301 bis 30k in dem Codiererabschnitt 300 gewählt, und die Ziffer des optimalen Codierers wird den Rahmendaten hinzugefügt. Somit wird eine feste Rahmenlänge effizient genutzt.
  • Bei Verwendung dieses Sprachcodier-Übertragungsgerätes des dritten Ausführungsbeispieles werden die Vorteile, wenn eine Codierübertragung mit einer festen Rahmenlänge verwendet wird, die kleiner ist als diejenige der kleinsten Tonlagenperiode, vermehrt, der optimale ADPCM Codierer aus einer Vielzahl von ADPCM Codierern wird mittels Auswahldaten anstelle der Randpositionsdaten, falls nicht benötigt, gewählt, und die Auswahldaten werden damit gesendet. Als Ergebnis wird, wenn eine Tonlagenperiode lang ist und der Rand der Tonlagenperiode nicht vorhanden ist, eine adaptive, prädiktive Codierung mit mehr ADPCM Codierern durchgeführt, und somit eine effektive Codierungsübertragung und eine Reproduktion einer besseren Sprachqualität erreicht.

Claims (8)

1. Sprachcodier-Übertragungsgerät mit einem Übertragungsabschnitt, welcher mittels harmonischer Kompression im Zeitbereich verarbeitete und codierte Sprachsignale überträgt, und einem Empfangsabschnitt, welcher das übertragene, codierte Signal decodiert, und das decodierte Signal auf eine vor der Kompression des Signals vorhandene Bandbreite expandiert und reproduziert,
wobei der Übertragungsabschnitt umfaßt:
eine Tonlagenperioden-Extraktionseinrichtung (2) zum Extrahieren einer Tonlagenperiode des Sprachsignals während der stimmhaften Periode, und
eine Einrichtung (1, 101) zur harmonischen Kompression im Zeitbereich, um ein Sprachsignal entsprechend einer Tonlagenperiode von einem in eine Vielzahl von Tonlagenperioden eingeschlossenen Sprachsignal zu erhalten und auszugeben,
wobei der Empfangsabschnitt umfaßt:
eine Einrichtung (6, 106) zur harmonischen Expansion im Zeitbereich zum Expandieren im Zeitbereich des Sprachsignals entsprechend einer Tonlagenperiode in eine Vielzahl von Tonlagenperioden,
gekennzeichnet dadurch, daß es in dem Übertragungsabschnitt eine Stimmhaft/Stimmlos-Bestimmungseinrichtung (10) zum Unterscheiden, ob das Sprachsignal in einer stimmhaften Periode oder einer stimmlosen Periode ist, und
eine Kompressionseinrichtung (7, 101) zum Erhalten und Ausgeben eines Sprachsignals entsprechend einer Abtastperiode von einem Sprachsignal mit einer Vielzahl von Abtastperioden während einer stimmlosen Periode umfaßt, und
in dem Empfangsabschnitt eine Expansionseinrichtung (8, 106) zum Expandieren im Zeitbereich des Sprachsignals entsprechend der einen Abtastperiode in eine Vielzahl von Abtastperioden.
2. Sprachcodier-Übertragungsgerät nach Anspruch 1, gekennzeichnet durch
eine Codiereinrichtung (3), welche eine Ausgabe einer Einrichtung zur harmonischen Kompression im Zeitbereich empfängt und diese Ausgabe codiert,
einen Multiplexer (21) zum Multiplexen von von der Codiereinrichtung (3) ausgegebenen Daten und Daten mit einer festen Tonlagenperiode in einem festen Rahmen auf der Grundlage einer Ausgabe einer Tonlagenperiode von einer Tonlagenperioden-Extraktionseinrichtung (2),
eine Randdatenerzeugungseinrichtung (20) zum Erfassen der Präsenz eines Randes in dem Rahmen mit fester Länge, und zum Erfassen einer Randposition auf der Grundlage der Ausgabe der Tonlagenperiode, und wobei die Rahmenlänge kürzer gemacht wird als diejenige der kürzesten Tonlagenperiode, die Randpräsenzdaten und die Randpositionsdaten als feste Tonlagenperiodendaten in die feste Rahmenlänge von dem Multiplexer gemultiplext werden.
3. Sprachcodier-Übertragungsgerät nach Anspruch 2, dadurch gekennzeichnet, daß die Codiereinrichtung (3) eine Vielzahl von adaptiven, differentiellen Pulscodemodulationseinrichtungen (300 bis 30k) umfaßt, von denen ein Teil oder alle auf die Randpräsenzdaten von der Randdatenerzeugungseinrichtung (20) hin ausgewählt werden,
wobei das Gerät umfaßt:
eine Optimalcodierer-Bestimmungseinrichtung (16) zum Bestimmen eines Optimalcodierers unter der Vielzahl von adaptiven, differentiellen Pulscodemodulationseinrichtungen (300 bis 30k),
eine Selektionseinrichtung (32) zum Auswählen der Ausgabe des optimalen Codierers (60),
wobei die Multiplexeinrichtung (21) ferner die Optimalcodiererdaten multiplext.
4. Sprachcodier-Übertragungsgerät nach Anspruch 3, dadurch gekennzeichnet, daß
wenn der Rand der Tonlagenperiode nicht vorhanden ist, alle der adaptiven, differentiellen Pulscodemodulationseinrichtungen (300 bis 30k) mit der Einrichtung (1) zur harmonischen Kompression im Zeitbereich verbunden werden, und
wenn der Rand der Tonrandperiode vorhanden ist, ein Teil der adaptiven, differentiellen Pulscodemodulationseinrichtungen (300 bis 30k) mit der Einrichtung (1) zur harmonischen Kompression im Zeitbereich verbunden ist, und überschüssige Bits durch Reduzierung einer Zuweisung der adaptiven, differentiellen Pulscodemodulationseinrichtungen (300 bis 30k) den Randpositionsdaten der Tonlagenperiode zugewiesen werden.
5. Sprachcodier-Übertragungsgerät nach Anspruch 3, dadurch gekennzeichnet, daß die Optimalcodierer-Bestimmungseinrichtung (60) eine Quantisierungsfehlerleistung-Berechnungseinrichtung (61) zum Berechnen einer Quantisierungsfehlerleistung jeder adaptiven differentiellen Pulscodemodulationseinrichtung (300 bis 30k) und eine Optimalquantisierungs-Bestimmungseinrichtung (63) zum Bestimmen des optimalen Codierers (60) als eine optimale Quantisierungseinrichtung (62) umfaßt.
6. Sprachcodier-Übertragungsgerät nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, daß in dem Übertragungsabschnitt die Stimmhaft/Stimmlos-Bestimmungseinrichtung und die Tonlagenperioden-Extraktionseinrichtung durch eine Steuerungseinrichtung (102) für harmonische Kompression und Expansion im Zeitbereich gebildet werden, wodurch, wenn das Sprachsignal in einer Periode stimmhafter Sprache ist, eine Tonlagenperiode des Sprachsignals extrahiert und ausgegeben wird, und wenn das Sprachsignal in einer Periode stimmloser Sprache ist, ein Abtastperiodensignal ausgegeben wird, welches die Abtastperiode des Sprachsignals anzeigt;
die Kompressionseinrichtung (7) durch die Einrichtung (101) zur harmonischen Kompression im Zeitbereich gebildet ist, welche betreibbar ist,
während Perioden stimmhafter Sprache die Ausgabe der Tonlagenperiode von der Steuerungseinrichtung (102) für harmonische Kompression und Expansion im Zeitbereich zu empfangen;
das Sprachsignal entsprechend einer Tonlagenperiode von dem Sprachsignal, welches in einer Vielzahl von Tonlagenperioden enthalten ist, zu erhalten;
während Perioden stimmloser Sprache die Ausgabe der Abtastperiode von der Steuerungseinrichtung (102) für harmonische Kompression und Expansion im Zeitbereich zu empfangen; und
das Sprachsignal entsprechend einer Abtastperiode von dem in eine Vielzahl von Abtastperioden enthaltenen Sprachsignal zu erhalten und aus zugeben; und
die Expansionseinrichtung durch die Einrichtung (106) zur harmonischen Expansion im Zeitbereich gebildet wird, welche betreibbar ist,
die Ausgabe der Tonlagenperiode von der Steuerungseinrichtung (102) für harmonische Kompression und Expansion im Zeitbereich zu empfangen;
das Sprachsignal entsprechend einer Tonlagenperiode in eine Vielzahl von Tonlagenperioden zu expandieren;
die Ausgabe der Abtastperiode von der Steuerungseinrichtung (102) für harmonische Kompression und Expansion im Zeitbereich zu empfangen; und
das Sprachsignal entsprechend einer Abtastperiode in eine Vielzahl von Abtastperioden zu expandieren.
7. Sprachcodier-Übertragungsgerät nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß die Kompressionseinrichtung eine Dezimierungseinrichtung (7) umfaßt.
8. Sprachcodier-Übertragungsgerät nach einem der Ansprüche 1 bis 5 und 7, dadurch gekennzeichnet, daß die Expansionseinrichtung eine Interpolationseinrichtung (8) umfaßt.
DE88102446T 1987-02-20 1988-02-19 Codierungseinrichtung zur Sprachübertragung. Expired - Fee Related DE3883799T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62037304A JP2884163B2 (ja) 1987-02-20 1987-02-20 符号化伝送装置

Publications (2)

Publication Number Publication Date
DE3883799D1 DE3883799D1 (de) 1993-10-14
DE3883799T2 true DE3883799T2 (de) 1994-02-24

Family

ID=12493963

Family Applications (1)

Application Number Title Priority Date Filing Date
DE88102446T Expired - Fee Related DE3883799T2 (de) 1987-02-20 1988-02-19 Codierungseinrichtung zur Sprachübertragung.

Country Status (5)

Country Link
US (1) US4890325A (de)
EP (1) EP0279451B1 (de)
JP (1) JP2884163B2 (de)
CA (1) CA1301072C (de)
DE (1) DE3883799T2 (de)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU6877791A (en) * 1989-10-25 1991-05-31 Motorola, Inc. Speech waveform compression technique
US5216744A (en) * 1991-03-21 1993-06-01 Dictaphone Corporation Time scale modification of speech signals
US5175769A (en) * 1991-07-23 1992-12-29 Rolm Systems Method for time-scale modification of signals
WO1993006590A1 (en) * 1991-09-20 1993-04-01 Lernout & Hauspie Speechproducts A speech coding device
US5717818A (en) * 1992-08-18 1998-02-10 Hitachi, Ltd. Audio signal storing apparatus having a function for converting speech speed
FR2697101B1 (fr) * 1992-10-21 1994-11-25 Sextant Avionique Procédé de détection de la parole.
US6330334B1 (en) 1993-03-15 2001-12-11 Command Audio Corporation Method and system for information dissemination using television signals
KR100372208B1 (ko) * 1993-09-09 2003-04-07 산요 덴키 가부시키가이샤 음성신호의시간축압축/신장방법
JP3328080B2 (ja) * 1994-11-22 2002-09-24 沖電気工業株式会社 コード励振線形予測復号器
US5694521A (en) * 1995-01-11 1997-12-02 Rockwell International Corporation Variable speed playback system
JP4132109B2 (ja) * 1995-10-26 2008-08-13 ソニー株式会社 音声信号の再生方法及び装置、並びに音声復号化方法及び装置、並びに音声合成方法及び装置
EP1164577A3 (de) * 1995-10-26 2002-01-09 Sony Corporation Verfahren und Einrichtung zur Wiedergabe von Sprachsignalen
US5809472A (en) * 1996-04-03 1998-09-15 Command Audio Corporation Digital audio data transmission system based on the information content of an audio signal
US5815671A (en) * 1996-06-11 1998-09-29 Command Audio Corporation Method and apparatus for encoding and storing audio/video information for subsequent predetermined retrieval
US5956629A (en) * 1996-08-14 1999-09-21 Command Audio Corporation Method and apparatus for transmitter identification and selection for mobile information signal services
JP3439307B2 (ja) * 1996-09-17 2003-08-25 Necエレクトロニクス株式会社 発声速度変換装置
GB2344982A (en) * 1997-09-26 2000-06-21 Peter William Barnett Method and apparatus for improving speech intelligibility
GB9720544D0 (en) * 1997-09-26 1997-11-26 Barnett Peter W Method and apparatus for inputting speech intelligibility
JP3639461B2 (ja) * 1998-09-29 2005-04-20 三洋電機株式会社 音声信号のピッチ周期抽出方法、及び音声信号のピッチ周期抽出装置、音声信号の時間軸圧縮装置、音声信号の時間軸伸長装置、音声信号の時間軸圧縮伸長装置
US6604071B1 (en) * 1999-02-09 2003-08-05 At&T Corp. Speech enhancement with gain limitations based on speech activity
US6775372B1 (en) 1999-06-02 2004-08-10 Dictaphone Corporation System and method for multi-stage data logging
US6252946B1 (en) * 1999-06-08 2001-06-26 David A. Glowny System and method for integrating call record information
US6249570B1 (en) 1999-06-08 2001-06-19 David A. Glowny System and method for recording and storing telephone call information
US6246752B1 (en) 1999-06-08 2001-06-12 Valerie Bscheider System and method for data recording
US6252947B1 (en) 1999-06-08 2001-06-26 David A. Diamond System and method for data recording and playback
US6959274B1 (en) * 1999-09-22 2005-10-25 Mindspeed Technologies, Inc. Fixed rate speech compression system and method
WO2001095496A1 (fr) * 2000-06-06 2001-12-13 Sakai, Yasue Procede et appareil de compression, procede et appareil d'expansion, systeme de compression expansion
US6869644B2 (en) * 2000-10-24 2005-03-22 Ppg Industries Ohio, Inc. Method of making coated articles and coated articles made thereby
JP2002217740A (ja) * 2001-01-19 2002-08-02 Sakai Yasue 圧縮方法及び装置、伸長方法及び装置、圧縮伸長システム、記録媒体
JP2002312000A (ja) * 2001-04-16 2002-10-25 Sakai Yasue 圧縮方法及び装置、伸長方法及び装置、圧縮伸長システム、ピーク検出方法、プログラム、記録媒体
EP1382143B1 (de) * 2001-04-24 2007-02-07 Nokia Corporation Verfahren zum ändern der grösse eines zitlerpuffers zur zeitausrichtung, kommunikationssystem, empfängerseite und transcoder
US7412376B2 (en) * 2003-09-10 2008-08-12 Microsoft Corporation System and method for real-time detection and preservation of speech onset in a signal
US7596488B2 (en) * 2003-09-15 2009-09-29 Microsoft Corporation System and method for real-time jitter control and packet-loss concealment in an audio signal
US9058812B2 (en) * 2005-07-27 2015-06-16 Google Technology Holdings LLC Method and system for coding an information signal using pitch delay contour adjustment
DE102010041644B4 (de) 2010-09-29 2019-07-11 Sivantos Pte. Ltd. Verfahren zur Frequenzkompression mit harmonischer Korrektur und Vorrichtung

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5758198A (en) * 1980-09-25 1982-04-07 Suwa Seikosha Kk Voice synthesizer
US4475227A (en) * 1982-04-14 1984-10-02 At&T Bell Laboratories Adaptive prediction
US4550425A (en) * 1982-09-20 1985-10-29 Sperry Corporation Speech sampling and companding device
JPS5982608A (ja) * 1982-11-01 1984-05-12 Nippon Telegr & Teleph Corp <Ntt> 音声の再生速度制御方式
US4622680A (en) * 1984-10-17 1986-11-11 General Electric Company Hybrid subband coder/decoder method and apparatus

Also Published As

Publication number Publication date
US4890325A (en) 1989-12-26
JP2884163B2 (ja) 1999-04-19
JPS63204300A (ja) 1988-08-23
EP0279451A2 (de) 1988-08-24
EP0279451A3 (en) 1990-05-23
DE3883799D1 (de) 1993-10-14
EP0279451B1 (de) 1993-09-08
CA1301072C (en) 1992-05-19

Similar Documents

Publication Publication Date Title
DE3883799T2 (de) Codierungseinrichtung zur Sprachübertragung.
DE68911287T2 (de) Codierer/decodierer.
DE69915400T2 (de) Vorrichtung zur Kodierung und Dekodierung von Audiosignalen
DE69331079T2 (de) CELP-Vocoder
DE3883519T2 (de) Verfahren und Einrichtung zur Sprachkodierung mit mehreren Datenraten.
DE69724126T2 (de) Audiosignalkodier- und dekodierverfahren und audiosignalkodierer und -dekodierer
DE69814517T2 (de) Sprachkodierung
DE69020269T2 (de) Sprachkodierungsgerät mit mehreren Kodierungsverfahren.
DE69727895T2 (de) Verfahren und Vorrichtung zur Sprachkodierung
DE69631318T2 (de) Verfahren und Vorrichtung zur Erzeugung von Hintergrundrauschen in einem digitalen Übertragungssystem
DE69530442T2 (de) Vorrichtung zur Sprachkodierung
DE60006271T2 (de) Celp sprachkodierung mit variabler bitrate mittels phonetischer klassifizierung
DE68912692T2 (de) Zur Sprachqualitätsmodifizierung geeignetes Übertragungssystem durch Klassifizierung der Sprachsignale.
DE69932460T2 (de) Sprachkodierer/dekodierer
DE69828725T2 (de) Sprachcodier- und -decodiersystem
DE69531642T2 (de) Synthese eines Anregungssignals bei Ausfall von Datenrahmen oder Verlust von Datenpaketen
DE69005010T2 (de) Einrichtung zur Sprachkodierung und -Dekodierung.
DE69531471T2 (de) Mehrkanalsignalkodierung unter Verwendung gewichteter Vektorquantisierung
DE69736446T2 (de) Audio Dekodierverfahren und -vorrichtung
DE69634645T2 (de) Verfahren und Vorrichtung zur Sprachkodierung
DE69028176T2 (de) Adaptive Transformationskodierung durch optimale Blocklängenselektion in Abhängigkeit von Unterschieden zwischen aufeinanderfolgenden Blöcken
DE69024033T2 (de) Kodierungssystem mit variabler Bitrate.
DE60201766T2 (de) Verbesserung der Periodizität der CELP-Anregung für die Sprachkodierung und -dekodierung
DE69810361T2 (de) Verfahren und Vorrichtung zur mehrkanaligen akustischen Signalkodierung und -dekodierung
DE69029232T2 (de) System und Methode zur Sprachkodierung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee