DE68926749T2 - Sprachtraining - Google Patents

Sprachtraining

Info

Publication number
DE68926749T2
DE68926749T2 DE68926749T DE68926749T DE68926749T2 DE 68926749 T2 DE68926749 T2 DE 68926749T2 DE 68926749 T DE68926749 T DE 68926749T DE 68926749 T DE68926749 T DE 68926749T DE 68926749 T2 DE68926749 T2 DE 68926749T2
Authority
DE
Germany
Prior art keywords
speech
student
pronunciation
utterance
models
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE68926749T
Other languages
English (en)
Other versions
DE68926749D1 (de
Inventor
Frederick Warwick M Stentiford
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
British Telecommunications PLC
Original Assignee
British Telecommunications PLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by British Telecommunications PLC filed Critical British Telecommunications PLC
Publication of DE68926749D1 publication Critical patent/DE68926749D1/de
Application granted granted Critical
Publication of DE68926749T2 publication Critical patent/DE68926749T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/04Electrically-operated educational appliances with audible presentation of the material to be studied
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/25Arrangements specific to fibre transmission
    • H04B10/2589Bidirectional transmission

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Devices For Executing Special Programs (AREA)
  • Executing Machine-Instructions (AREA)
  • Optical Communication System (AREA)
  • Medicines Containing Material From Animals Or Micro-Organisms (AREA)

Description

  • Diese Erfindung bezieht sich auf Vorrichtungen und Verfahren zum Aussprachetraining, insbesondere, jedoch nicht ausschließlich, zum Trainieren der Aussprache zweiter oder fremder Sprachen.
  • Solch eine Vorrichtung und ein Verfahren sind z. B. aus der EP-A-0 094 502 bekannt.
  • Ein Systemtyp, der zur automatischen Übersetzung von Sprache zwischen unterschiedlichen Fremdsprachen verwendet wird, ist in unserer europäischen Patentanmeldung Nr. 026293BA beschrieben. Diese Ausrüstung verwendet Spracherkennung, um in den Äußerungen des Sprechers Wörter zu erkennen, Mustererkennungstechniken, um aus den Sprachäußerungen Bedeutungen abzuleiten, sowie Sprachcodierung, um in einer Fremdsprache Sprache zu erzeugen.
  • Diese Erfindung verwendet eine ähnliche Technologie, ist jedoch auf eine andere Weise für einen neuen Zweck konfiguriert, nämlich zum Training eines Benutzers zum Sprechen einer Fremdsprache.
  • Diese Erfindung verwendet Spracherkennung nicht nur, um die gesprochenen Worte zu erkennen, sondern auch, um die Konsistenz der Aussprache zu überprüfen. Es ist ein Merkmal angehender Sprachschüler, daß sie, obwohl sie eine Aussprache nachahmen können, diese leicht vergessen und eine unkorrekte Aussprache behalten, bis sie von einem Fachmann überprüft werden. Eine Maschine, die eine Falschaussprache sowie Übersetzungsungenauigkeiten erkennt, würde einen Schüler befähigen, einen hohen Grad an Fertigkeit zu erreichen, bevor er die Unterstützung eines herkömmlichen Sprachlehrers benötigt, um weitere Fortschritte zu machen. In der Tat sind sehr hohe Ebenen einer linguistischen Fertigkeit möglich, die in den meisten Konversationen, wie z. B. auf kurzen Reisen oder bei der Benutzung des Telephons, nicht erforderlich sind, wobei in diesen Fällen das rechnerunterstützte Aussprachetraining an sich ausreichend ist.
  • Herkömmliche Verfahren verwenden entweder teuere ausgebildete Lehrkräfte oder passive Aufzeichnungen der Fremdsprache, die nicht die Qualität der Aussprache des Schüler überprüfen.
  • Einige automatische Systeme erzeugen eine visuelle Anzeige einer Darstellung der Sprache des Schülers, wobei vom Schüler erwartet wird, daß er seine Aussprache ändert, bis die Anzeige einem Standard entspricht. Diese Technik besitzt den Nachteil, daß die Benutzer sehr viel Zeit aufwenden müssen, um auszuprobieren und zu verstehen, wie ihre Sprache mit der visuellen Darstellung zusammenhängt.
  • Ein weiterer Ansatz (z. B. in Revue de Physique Appliqu e, Bd. 19, Nr. 9, 9. September 1983, S. 595-610, M.T. Janot-Giorgetti u. a. "Utilisation d'un systeme de reconnaissance de la parole comme aide à l'acquisition orale d'une langue etrangere" beschrieben) verwendet eine sprecherunabhängige Erkennung, um Sprachäußerungen mit Standardmustern zu vergleichen. Eine dem Schüler ausgegebene Punktzahl zeigt an, wie gut seine Aussprache mit dem Ideal übereinstimmt. Bis jedoch die sprecherunabhängige Erkennungstechnik perfektioniert ist, können bestimmte Merkmale der Sprecherstimme, wie z. B. die Tonlage, die Vergleichspunkt zahlen nachteilig beeinflussen, wobei diese Merkmale keine relevante Verbindung zur Qualität der Aussprache haben. Ein Schüler kann somit dazu veranlaßt werden, die Tonlage seiner Stimme zu erhöhen, um seine Punktzahl zu verbessern, wobei er eine wichtige Fehlaussprache noch nicht korrigiert hat.
  • Ferner kann die aktuelle sprecherunabhängige Erkennungstechnik nur ein kleines Vokabular von Wörtern handhaben, ohne eine sehr hohe Fehlerrate zu erzeugen. Dies bedeutet, daß Trainingssysteme auf der Grundlage dieser Technologie keine längeren Sprachäußerungen und Sätze verarbeiten und interpretieren können. Ein Verfahren zum Aussprachetraining von gehörlosen Sprechern ist in Proceedings ICASSP 87, Bd. 1, S. 372-375, D. Kewley-Port u. a. "Speaker-dependant Recognition as the Basis for a Speech Training Aid" beschrieben. Bei diesem Verfahren wählt ein Betreuer die am besten ausgesprochenen Sprachäußerungen eines Sprechers aus, welche dann in Modelle umgesetzt werden. Die Genauigkeit der anschließenden Aussprache des Sprechers wird als eine Funktion der Ähnlichkeit zu diesen Modellen angezeigt (je ähnlicher, desto besser). Dieses System besitzt zwei Nachteile; erstens erfordert es eine menschliche Intervention seitens des Betreuers und zweitens kann der Sprecher seine Aussprache nicht über seine vorangehenden besten Sprachäußerungen hinaus verbessern, sondern lediglich versuchen, diese zu erreichen.
  • Gemäß der vorliegenden Erfindung wird eine Vorrichtung zum Aussprachetraining geschaffen, mit
  • - einer Spracherzeugungsvorrichtung zum Erzeugen von Sprachäußerungen; und
  • - einer Spracherkennungsvorrichtung, die dazu dient, in den Sprachäußerungen eines Schülers Wörter aus einer vorgegebenen ausgewählten Gruppe von Wörtern zu erkennen, wobei die Spracherkennungsvorrichtung eine sprecherabhängige Erkennung verwendet, indem die Sprachäußerungen des Schülers für jedes Wort der Gruppe mit Modellen verglichen werden, wobei die Vorrichtung anfangs die Modelle erzeugt, indem der Schüler aufgefordert wird, jedes Wort der Gruppe auszusprechen, und aus solchen Sprachäußerungen die Modelle gebildet werden, und wobei die Vorrichtung ferner Verbesserungen der Aussprache mit zunehmender Abweichung der nachfolgenden Sprachäußerungen des Schülers von diesen Modellen anzeigt.
  • Im folgenden werden einige nicht einschränkende Beispiele von Ausführungsformen der Erfindung mit Bezug auf die Zeichnungen beschrieben, in welchen:
  • Fig. 1 Schritte in einem Verfahren zum Sprachtraining gemäß einem Aspekt der Erfindung zeigt;
  • Fig. 2 eine Vorrichtung schematisch erläutert, die zur Durchführung eines Aspekts der Erfindung geeignet ist;
  • Fig. 3 eine Anzeige in einer Vorrichtung zum Sprachtraining gemäß einem weiteren Aspekt der Erfindung zeigt.
  • Wie in den Fig. 1 und 2 gezeigt, wird bei der ersten Verwendung des dargestellten Systems der Schüler vom System gefragt (entweder unter Verwendung eines Bildschirms und einer Tastatur oder unter Verwendung eines herkömmlichen Sprachsynthesizers und einer sprecherunabhängigen Erkennungsvorrichtung), welche Sprache er lernen möchte und welchen Fachbereich (z. B. Bedienung des Telephons oder Buchung von Hotels) er benötigt. Der Schüler muß dann eine Trainingsprozedur durchführen, so daß die sprecherabhängige Spracherkennungsvorrichtung 1 seine Stimme erkennen kann. Zu diesem Zweck wird der Schüler in der Fremdsprache von einem Sprachgenerator 3, der eine vorher aufgezeichnete Stimme eines Muttersprachlers verwendet, aufgefordert, eine Gruppe von Schlüsselwörtern, die für diesen Fachbereich relevant sind, zu wiederholen. Da gleichzeitig die Quellensprachübersetzung jedes Wortes angezeigt wird, bietet sich dem Schüler die Gelegenheit, das Vokabular zu lernen. Dieser Prozeß dient als passiver Lernschritt, während dem der Schüler seine Aussprache üben kann und Wörter beliebig oft wiederholen kann, bis er glaubt, daß er die Sprachäußerung so genau nachgeahmt hat, wie es ihm möglich erscheint.
  • Eine Steuereinheit 2 steuert die Folge von Aufforderungen und Antworten. Die Steuereinheit kann günstigerweise ein Personalcomputer (z. B. ein IBM PC) sein.
  • Diese Sprachäußerungen werden nun als erste Gruppe von Modellen verwendet oder zur Erzeugung derselben verwendet, die in einem Modellspeicher 1a gespeichert sind, um von der Spracherkennungsvorrichtung 1 zur Verarbeitung der Stimme des Schülers verwendet zu werden. Diese Modelle stellen den ersten Versuch des Schülers dar, die perfekte Aussprache des aufgezeichneten Muttersprachlers zu nachzuahmen.
  • Der zweite Schritt des Trainingsprozesses überprüft einfach die Fähigkeit des Schülers, sich an die Übersetzungen und die Aussprachen des Schlüsselwortvokabulars zu erinnern. Er wird in seiner Quellensprache (entweder visuell auf dem Bildschirm 4 oder verbal vom Sprachgenerator 3) aufgefordert, die Übersetzungen der Schlüsselwörter auszusprechen, die er in der vorangehenden Stufe geübt hat. Nachdem jedes Wort ausgesprochen ist, wiederholt der Sprachgenerator 3 für den Schüler die Fremdwörter, die von der Erkennungsvorrichtung 1 erkannt worden sind, und zeigt das Quellensprachäquivalent an. Falsche Übersetzungen werden registriert, um später im Trainingszyklus wiederholt zu werden. Der Schüler kann die Wörter beliebig oft wiederholen, entweder um seine Aussprache zu verfeinern oder um eine Maschinenfehlerkennung zu korrigieren. Wenn die Erkennungsvorrichtung 1 ein Fremdwort fortlaufend (z. B. öfter als fünfmal) falsch erkennt, entweder aufgrund einer niedrigen Abstandspunktzahl oder weil zwei Wörter mit nahezu gleichen Abständen erkannt worden sind, wird der Schüler aufgefordert, dieses Wort erneut zu wiederholen (vorzugsweise mehrere Male), gefolgt von einer Äußerung eines Muttersprachlers vom Generator 3, so daß ein neues Spracherkennungsmodell erzeugt werden kann, um das ursprüngliche Modell im Speicher 1a zu ersetzen. Eine solche Aktion zeigt in der Tat an, daß der Schüler seine Aussprache verändert hat, nachdem er die Aufforderung mehrere Male gehört hat, und eine genauere Nachahmung des Muttersprachlers erreicht hat. Dieses Verfahren hat gegenüber dem Stand der Technik den Vorteil, daß der Fortschritt des Schülers anhand seiner Abweichung von seinem ursprünglichen (und/oder aktualisierten) Modell gemessen wird, statt anhand seiner Konvergenz zum Modell des Muttersprachlers, wodurch die Probleme aufgrund der Tonlage oder anderer Unterschiede zwischen den zwei Stimmen beseitigt werden. Wenn der Schüler glaubt, daß er das Schlüsselwortvokabular beherrscht, kann er zum dritten Trainingsschritt übergehen.
  • Der Schüler wird in seiner eigenen Sprache (entweder visuell auf dem Bildschirm 4 oder verbal durch den Generator 3) aufgefordert, verbale Übersetzungen von Wörtern oder vollständigen Sprachäußerungen durchzuführen, die für seinen Interessenbereich relevant sind. Alternativ können diese Aufforderungen die Form eines Dialoges in der Fremdsprache annehmen, auf die der Schüler antworten muß. Ein brauchbares Verfahren zum auffordern ist eine "Lückentext"-Übung, die eine Bildschirmanzeige eines Textabschnitts verwendet, in dem mehrere Wörter fehlen, die der Schüler vervollständigen soll, indem er ausspricht, was er für die fehlenden Wörter hält. Das System funktioniert vorzugsweise auf die gleiche Weise wie das sprachäußerungsbasierte Sprachübersetzungssystem (europäische Anmeldung Nr. 0262938) und erkennt die im voraus trainierten Schlüsselwörter, um die ausgesprochenen Sprachäußerungen zu identifizieren. Das System gibt anschließend die korrekte Antwort/Übersetzung an den Schüler in einer Stimme eines Muttersprachlers zurück und gibt dem Schüler eine Gelegenheit, seine Übersetzung zu wiederholen, falls sie falsch war, falls er mit der Aussprache nicht zufrieden war oder falls die Erkennungsvorrichtung 1 nicht fähig war, die korrekte fremde Sprachäußerung zu identifizieren. In dem Fall, in dem der Schüler nicht entscheiden kann, ob die Erkennungsvorrichtung 1 seine beabsichtigte Bedeutung erkannt hat, kann gleichzeitig die Quellensprachversion der erkannten fremden Sprachäußerung angezeigt werden. Falsch übersetzte Sprachäußerungen werden dem Schüler später im Trainingszyklus erneut (visuell oder verbal) für einen weiteren Übersetzungsversuch vorgelegt.
  • Wenn die Erkennungsvorrichtung 1 die korrekte Sprachäußerung aufgrund einer schlechten Schlüsselworterkennung und eine Verschiebung der Aussprache des Schülers wiederholt nicht identifizieren kann, wird der Schüler aufgefordert, jedes Schlüsselwort, daß in der richtigen Übersetzung vorliegt, für eine getrennte Erkennung zu wiederholen. Wenn eines oder mehrere dieser Schlüsselwörter fortlaufend falsch erkannt wird, werden wie oben beschrieben neue Modelle erzeugt.
  • Die Sprachäußerungen werden dem Schüler in einer Reihenfolge zur Übersetzung vorgelegt, die sich nach der Häufigkeit ihrer Verwendung im Interessenbereich richtet. Vorzugsweise ermöglicht das System dem Schüler, das Training an einem beliebigen Punkt zu unterbrechen und zu einem späteren Zeitpunkt fortzusetzen, so daß er so schnell oder so langsam Fortschritte machen kann wie er will.
  • Der bevorzugte Typ einer Sprachäußerungserkennung (beschrieben in der europäischen Patentanmeldung Nr. 0262938 und in "Machine Translation of Speech". Stentiford & Steer, British Telecom Technology Journal, Bd. 6, Nr. 2, April 1988, S. 116-123) erfordert, daß in ihr enthaltene Sprachäußerungen mit veränderlichen Parametern, z. B. Daten, Zeiten, Orte oder andere Teilsprachäußerungen, in einer hierarchischen Weise behandelt werden sollten. Die Form der Sprachäußerung wird zuerst unter Verwendung eines allgemeinen Satzes von Schlüsselwörtern identifiziert. Ist dies erledigt, kann der Typ des in der Sprachäußerung vorliegenden Parameters abgeleitet und ein spezieller Satz von Schlüsselwörtern verwendet werden, um die Parameterinhalte zu identifizieren. Parameter können in anderen Parametern geschachtelt sein. Als ein einfaches Beispiel kann sich ein Parameter auf eine Hauptstadt beziehen, wobei in diesem Fall die speziellen Schlüsselwörter nur diese Städte umfassen. Während der Schüler die Übersetzung trainiert, können Fehler in Parameterinhalten ebenfalls hierarchisch behandelt werden. Wenn das System die korrekte Form der vom Schüler ausgesprochenen Sprachäußerung identifiziert hat, dieser jedoch eine falsche Parameterübersetzung erzeugt hat, kann der Schüler angewiesen werden, die richtige Übersetzung des Parameters isoliert anzugeben, ohne zur ganzen Sprachäußerung zurückkehren zu müssen.
  • Die Parameter werden aufgrund ihres Auftretens über einen weiten Bereich von Sprachäußerungen normalerweise aus einem Diskussionsbereich ausgewählt. Es ist daher selbstverständlich, daß der Schüler das spezielle Training für diese Äußerungen durchführen sollte, wenn er mit diesen Probleme zu haben scheint.
  • Die Schlüsselwörter werden gemäß der Information, die sie enthalten, sowie danach ausgewählt, wie gut sie sich von den in jedem Fachbereich verwendeten Sprachäußerungen unterscheiden. Dies bedeutet, daß es für das System nicht erforderlich ist, jedes Wort zu erkennen, um die ausgesprochene Sprachäußerung zu identifizieren. Dies hat den Vorteil, daß eine Anzahl von Spracherkennungsfehlern toleriert werden kann, bevor die Sprachäußerungsidentifizierung verloren geht. Ferner können richtige Sprachäußerungen trotz der Fehler in der Aussprache, die ein Anfänger erzeugen kann, identifiziert werden. Es ist vernünftig anzunehmen, daß dann, wenn das System Übersetzungversuche mit ihren korrigierten Versionen in Übereinstimmung bringen kann, solche Sprachäußerungen, die aus dem Zusammenhang herausgenommen sind, in der Praxis verständlich sein sollten, wenn Muttersprachler verwendet werden. Dies bedeutet, daß das System dazu neigt, das Training auf gerade jene Abschnitte des Schülerwortschatzes zu konzentrieren, die die größte Mehrdeutigkeit in der Fremdsprache ergeben. Dies kann durch schlechte Aussprache wichtiger Schlüsselwörter oder einfach durch deren Weglassen hervorgerufen werden.
  • Das beschriebene System schafft daher ein automatisiertes Lernschema, das Sprachschüler schnell auf ein minimales Niveau von Verständlichkeit bringen kann und das insbesondere für beschäftigte Geschäftsleute, die einfach ihre Transaktionen ausführen wollen, oder für Urlauber brauchbar ist, die sich nicht zu sehr um die grammatikalische Genauigkeit kümmern.
  • Die richtige Aussprache der Sprachäußerungen ist durch die aufgezeichnete Stimme eines Muttersprachlers gegeben, der die geeignete Intonation und Artikulation zwischen Wörtern mitbringt. Der fortgeschrittene Schüler wird aufgefordert, in der gleichen Weise zu sprechen, wobei das System mit der Überprüfung jeder Sprachäußerung fort fährt und die verwendete wortorientierte Technologie fähig ist, mit der zunehmend flüssigen Sprache Schritt zu halten.
  • Wie in Fig. 3 gezeigt, ist gemäß einem weiteren Aspekt der Erfindung eine visuelle Darstellung des Mundes des Muttersprachlers vorgesehen, um die Artikulation jedes gesprochenen Wortes darzustellen. Diese Anzeige kann herkömmlicher Weise auf einer CRT-Anzeigevorrichtung unter Verwendung einer Gruppe quantisierter Mundformen dargestellt werden, wie in unserer vorangehenden europäischen Patentanmeldung Nr. 0225729A offenbart ist. Ferner kann eine vollständige Gesichtdarstellung verwendet werden.
  • In einer einfachen Ausführungsform kann die Anzeigevorrichtung in Verbindung mit einem Spiegel montiert sein, so daß der Anwender den Muttersprachler nachahmen kann.
  • In einer zweiten Ausführungsform kann eine Bildtelephon- Codierungsvorrichtung des in unserem vorangehenden europäischen Patent Nr. 0225729 offenbarten Typs verwendet werden, um eine entsprechende Anzeige des Mundes des Schülers zu erzeugen, so daß er seine Artikulation genau mit derjenigen des Muttersprachlers vergleichen kann. Die zwei Anzeigen können vom Schüler gleichzeitig wiederholt werden, entweder Seite für Seite oder überlagert (wobei in diesem Fall verschiedene Farben verwendet werden können), wobei ein Zeitsprungverfahren verwendet wird, um die Anzeigen auf einander auszurichten.

Claims (11)

1. Vorrichtung zum Aussprachetraining, mit
- einer Spracherzeugungseinrichtung (3) zum Erzeugen von Sprachäußerungen; und
- einer Spracherkennungseinrichtung (1), die so beschaffen ist, daß sie die Sprachäußerungen eines Schülers wortweise mit Modellen einer vorgegebenen ausgewählten Gruppe von Wörtern vergleicht und eine Punktzahl erzeugt, die die Ähnlichkeit zwischen den Sprachäußerungen des Schülers und den Modellen angibt;
dadurch gekennzeichnet, daß die Spracherkennungseinrichtung (1) so beschaffen ist, daß sie eine sprecherabhängige Erkennung verwendet, wobei die Vorrichtung so beschaffen ist, daß sie anfangs die Modelle erzeugt, indem sie den Schüler auffordert, jedes Wort aus der Gruppe auszusprechen, und die Modelle aus diesen Sprachäußerungen bildet, und wobei die Vorrichtung ferner so beschaffen ist, daß sie mit zunehmender Abweichung der folgenden Sprachäußerungen des Schülers von den Modellen die Verbesserungen der Aussprache anzeigt.
2. Vorrichtung nach Anspruch 1, die so beschaffen ist, daß sie die Modelle anhand der folgenden Sprachausdrücke aktualisiert, wenn die Abweichung einen vorgegebenen Schwellenwert überschreitet.
3. Vorrichtung nach Anspruch 1 oder Anspruch 2, die ferner eine Steuereinrichtung (2) enthält, die mit der Spracherzeugungseinrichtung (3) und der Spracherkennungseinrichtung (1) verbunden ist und so beschaffen ist, daß die Vorrichtung im Gebrauch eine Aufforderung erzeugt, auf die ein Schüler durch Sprechen antworten kann, wobei die Spracherkennungseinrichtung so beschaffen ist, daß sie in der Antwort des Schülers das Vorhandensein von Wörtern aus der Gruppe erkennt, und wobei die Spracherzeugungseinrichtung so beschaffen ist, daß sie einen Sprachausdruck in Abhängigkeit davon erzeugt, was die Spracherkennungseinrichtung erkannt hat.
4. Vorrichtung zum Aussprachetraining nach Anspruch 3, die ferner enthält
- eine Redewendungserkennungseinrichtung zum Identifizieren von Redewendungen anhand der Kombination und der Reihenfolge von Wörtern aus der vorgegebenen ausgewählten Gruppe,
wobei im Gebrauch der Schüler aufgefordert wird, durch Aussprechen einer Redewendung zu antworten, und wobei die Redewendungserkennungseinrichtung die Redewendung erkennt und der von die Spracherzeugungseinrichtung erzeugte Sprachäußerung so ausgewählt wird, daß sie eine Antwort auf die Redewendung darstellt.
5. Vorrichtung zum Aussprachetraining nach Anspruch 3 oder Anspruch 4, bei der die Aufforderung eine von der Spracherzeugungseinrichtung (3) erzeugte Sprachäußerung ist.
6. Vorrichtung zum Aussprachetraining nach irgendeinem der vorangehenden Ansprüche, die ferner eine Bilderzeugungseinrichtung zum Erzeugen entsprechender Videobilder eines Mundes umfaßt, wobei ein Schüler aufgefordert wird, die korrekte Aussprache der Sprachäußerungen nachzuahmen.
7. Vorrichtung nach Anspruch 6, die ferner eine Videoanalyseeinrichtung enthält, die so beschaffen ist, daß sie die Mundbewegungen des Schülers analysiert und die entsprechenden synthetisierten und analysierten Mundbewegungen anzeigt.
8. Sprachtrainingsvorrichtung nach irgendeinem der vorangehenden Ansprüche, bei der die Spracherzeugungseinrichtung (3) so beschaffen ist, daß sie Sprachäußerungen einer Sprache im Akzent eines Muttersprachlers dieser Sprache erzeugt.
9. Verfahren zum Aussprachetraining, das umfaßt:
- Auffordern eines Schülers, eine Sprachäußerung auszusprechen, gekennzeichnet durch
- Analysieren der Sprachäußerung unter Verwendung einer sprecherabhängigen Spracherkennung, die Modelle verwendet, die aus den vorangehenden Sprachäußerungen des Schülers abgeleitet sind;
wobei Verbesserungen in der Aussprache durch Messen des Abstandes zwischen der Sprachäußerung und dem Modell gemessen werden; wobei die Bewertung so beschaffen ist, daß eine Vergrößerung des Abstandes einer Ausspracheverbesserung entspricht.
10. Verfahren nach Anspruch 9, das ferner den Schritt enthält: Aktualisieren der Modelle, wenn der Abstand einen vorgegebenen Schwellenwert überschreitet.
11. Verfahren zum Aussprachetraining, das eine Vorrichtung nach irgendeinem der Ansprüche 1 bis 8 verwendet.
DE68926749T 1988-07-25 1989-07-25 Sprachtraining Expired - Fee Related DE68926749T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB888817705A GB8817705D0 (en) 1988-07-25 1988-07-25 Optical communications system
PCT/GB1989/000846 WO1990001203A1 (en) 1988-07-25 1989-07-25 Language training

Publications (2)

Publication Number Publication Date
DE68926749D1 DE68926749D1 (de) 1996-08-01
DE68926749T2 true DE68926749T2 (de) 1996-10-31

Family

ID=10641072

Family Applications (1)

Application Number Title Priority Date Filing Date
DE68926749T Expired - Fee Related DE68926749T2 (de) 1988-07-25 1989-07-25 Sprachtraining

Country Status (11)

Country Link
US (1) US5503560A (de)
EP (1) EP0446208B1 (de)
JP (1) JPH04501617A (de)
KR (1) KR900702495A (de)
AT (1) ATE139856T1 (de)
AU (1) AU634720B2 (de)
DE (1) DE68926749T2 (de)
DK (1) DK11591D0 (de)
FI (1) FI910360A0 (de)
GB (2) GB8817705D0 (de)
WO (1) WO1990001203A1 (de)

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4018078A1 (de) * 1990-06-06 1991-12-12 Udo Heitmann Lernsystem
DE4018080A1 (de) * 1990-06-06 1991-12-12 Udo Heitmann Lernsystem
DE4018079A1 (de) * 1990-06-06 1991-12-12 Udo Heitmann Lernsystem
GB2272097B (en) * 1992-10-30 1995-12-13 Visible Sound Ltd Improvements relating to teaching aids for the deaf
US5487671A (en) 1993-01-21 1996-01-30 Dsp Solutions (International) Computerized system for teaching speech
GB2298514A (en) * 1995-03-03 1996-09-04 Ghazala Shaheen Jamil Malik Learning the Quran Karim
US5717828A (en) * 1995-03-15 1998-02-10 Syracuse Language Systems Speech recognition apparatus and method for learning
US6109923A (en) * 1995-05-24 2000-08-29 Syracuase Language Systems Method and apparatus for teaching prosodic features of speech
US6656137B1 (en) * 1995-11-29 2003-12-02 Omega Assembly Trust Vestibular and RAS enhancing device
WO1997021201A1 (en) * 1995-12-04 1997-06-12 Bernstein Jared C Method and apparatus for combined information from speech signals for adaptive interaction in teaching and testing
IL120622A (en) * 1996-04-09 2000-02-17 Raytheon Co System and method for multimodal interactive speech and language training
US5766015A (en) * 1996-07-11 1998-06-16 Digispeech (Israel) Ltd. Apparatus for interactive language training
WO1998014934A1 (en) 1996-10-02 1998-04-09 Sri International Method and system for automatic text-independent grading of pronunciation for language instruction
US6157913A (en) * 1996-11-25 2000-12-05 Bernstein; Jared C. Method and apparatus for estimating fitness to perform tasks based on linguistic and other aspects of spoken responses in constrained interactions
US5857173A (en) * 1997-01-30 1999-01-05 Motorola, Inc. Pronunciation measurement device and method
US5933804A (en) * 1997-04-10 1999-08-03 Microsoft Corporation Extensible speech recognition system that provides a user with audio feedback
US5920838A (en) * 1997-06-02 1999-07-06 Carnegie Mellon University Reading and pronunciation tutor
GB9716690D0 (en) 1997-08-06 1997-10-15 British Broadcasting Corp Spoken text display method and apparatus for use in generating television signals
JP4267101B2 (ja) * 1997-11-17 2009-05-27 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声識別装置、発音矯正装置およびこれらの方法
US6159014A (en) * 1997-12-17 2000-12-12 Scientific Learning Corp. Method and apparatus for training of cognitive and memory systems in humans
US5995932A (en) * 1997-12-31 1999-11-30 Scientific Learning Corporation Feedback modification for accent reduction
US6134529A (en) * 1998-02-09 2000-10-17 Syracuse Language Systems, Inc. Speech recognition apparatus and method for learning
US8202094B2 (en) * 1998-02-18 2012-06-19 Radmila Solutions, L.L.C. System and method for training users with audible answers to spoken questions
US6077085A (en) * 1998-05-19 2000-06-20 Intellectual Reserve, Inc. Technology assisted learning
US6192215B1 (en) * 1998-10-23 2001-02-20 Mai Wang Interactive and animated mini-theater and method of use
US6039625A (en) * 1998-10-23 2000-03-21 Wang; Mai Interactive and animated mini-theater
US6266642B1 (en) 1999-01-29 2001-07-24 Sony Corporation Method and portable apparatus for performing spoken language translation
US6442524B1 (en) 1999-01-29 2002-08-27 Sony Corporation Analyzing inflectional morphology in a spoken language translation system
US6356865B1 (en) * 1999-01-29 2002-03-12 Sony Corporation Method and apparatus for performing spoken language translation
US6282507B1 (en) 1999-01-29 2001-08-28 Sony Corporation Method and apparatus for interactive source language expression recognition and alternative hypothesis presentation and selection
US6243669B1 (en) 1999-01-29 2001-06-05 Sony Corporation Method and apparatus for providing syntactic analysis and data structure for translation knowledge in example-based language translation
US6278968B1 (en) 1999-01-29 2001-08-21 Sony Corporation Method and apparatus for adaptive speech recognition hypothesis construction and selection in a spoken language translation system
US6374224B1 (en) 1999-03-10 2002-04-16 Sony Corporation Method and apparatus for style control in natural language generation
US7149690B2 (en) 1999-09-09 2006-12-12 Lucent Technologies Inc. Method and apparatus for interactive language instruction
GB9926134D0 (en) * 1999-11-05 2000-01-12 Ibm Interactive voice response system
US6302695B1 (en) * 1999-11-09 2001-10-16 Minds And Technologies, Inc. Method and apparatus for language training
GB2360389A (en) * 1999-12-20 2001-09-19 James Emsley Thomas Hooton Question and answer apparatus for training or analysis
US6652283B1 (en) 1999-12-30 2003-11-25 Cerego, Llc System apparatus and method for maximizing effectiveness and efficiency of learning retaining and retrieving knowledge and skills
WO2001082264A1 (en) * 2000-04-26 2001-11-01 Jrl Enterprises, Inc. An interactive, computer-aided speech education method and apparatus
US6644973B2 (en) * 2000-05-16 2003-11-11 William Oster System for improving reading and speaking
US6850882B1 (en) 2000-10-23 2005-02-01 Martin Rothenberg System for measuring velar function during speech
US6728679B1 (en) * 2000-10-30 2004-04-27 Koninklijke Philips Electronics N.V. Self-updating user interface/entertainment device that simulates personal interaction
EP1217609A3 (de) * 2000-12-22 2004-02-25 Hewlett-Packard Company Spracherkennung
US6435876B1 (en) * 2001-01-02 2002-08-20 Intel Corporation Interactive learning of a foreign language
US20020115044A1 (en) * 2001-01-10 2002-08-22 Zeev Shpiro System and method for computer-assisted language instruction
US6882707B2 (en) * 2001-02-21 2005-04-19 Ultratec, Inc. Method and apparatus for training a call assistant for relay re-voicing
GB2376554B (en) * 2001-06-12 2005-01-05 Hewlett Packard Co Artificial language generation and evaluation
GB0114236D0 (en) * 2001-06-12 2001-08-01 Hewlett Packard Co Artificial language generation
US7881441B2 (en) 2005-06-29 2011-02-01 Ultratec, Inc. Device independent text captioned telephone service
US7249011B2 (en) * 2002-08-12 2007-07-24 Avaya Technology Corp. Methods and apparatus for automatic training using natural language techniques for analysis of queries presented to a trainee and responses from the trainee
US7752045B2 (en) * 2002-10-07 2010-07-06 Carnegie Mellon University Systems and methods for comparing speech elements
US7359859B2 (en) * 2003-05-27 2008-04-15 Inventec Corporation Computer-based training system and method for enhancing language listening comprehension
US8182270B2 (en) * 2003-07-31 2012-05-22 Intellectual Reserve, Inc. Systems and methods for providing a dynamic continual improvement educational environment
US7524191B2 (en) * 2003-09-02 2009-04-28 Rosetta Stone Ltd. System and method for language instruction
US7542907B2 (en) * 2003-12-19 2009-06-02 International Business Machines Corporation Biasing a speech recognizer based on prompt context
US20050144010A1 (en) * 2003-12-31 2005-06-30 Peng Wen F. Interactive language learning method capable of speech recognition
US7660398B2 (en) 2004-02-18 2010-02-09 Ultratec, Inc. Captioned telephone service
US20060057545A1 (en) * 2004-09-14 2006-03-16 Sensory, Incorporated Pronunciation training method and apparatus
US20060088805A1 (en) * 2004-10-27 2006-04-27 Narda Pitkethly Reading instruction system and method
US7762816B2 (en) * 2005-02-22 2010-07-27 Educational Testing Service Method and system for automated item development for language learners
US20070048694A1 (en) * 2005-08-15 2007-03-01 Tepper Daniel A System and method for simultaneous demonstration mouth movements together with visual presentation of an image that represents a letter(s) or word(s) being pronounced
US20070052799A1 (en) * 2005-09-06 2007-03-08 International Business Machines Corporation System and method for assisting speech development for the hearing-challenged
US7657221B2 (en) * 2005-09-12 2010-02-02 Northwest Educational Software, Inc. Virtual oral recitation examination apparatus, system and method
US20090220926A1 (en) * 2005-09-20 2009-09-03 Gadi Rechlis System and Method for Correcting Speech
WO2007120418A2 (en) * 2006-03-13 2007-10-25 Nextwire Systems, Inc. Electronic multilingual numeric and language learning tool
US20070255570A1 (en) * 2006-04-26 2007-11-01 Annaz Fawaz Y Multi-platform visual pronunciation dictionary
US20080004879A1 (en) * 2006-06-29 2008-01-03 Wen-Chen Huang Method for assessing learner's pronunciation through voice and image
US7818164B2 (en) * 2006-08-21 2010-10-19 K12 Inc. Method and system for teaching a foreign language
US7869988B2 (en) 2006-11-03 2011-01-11 K12 Inc. Group foreign language teaching system and method
US20100015582A1 (en) * 2008-07-21 2010-01-21 Noureddin Zahmoul 421 Tunsi-nippon cognations
US9361908B2 (en) * 2011-07-28 2016-06-07 Educational Testing Service Computer-implemented systems and methods for scoring concatenated speech responses
KR101493006B1 (ko) * 2013-03-21 2015-02-13 디노플러스 (주) 멀티미디어 콘텐츠 편집장치 및 그 방법
US20150121246A1 (en) * 2013-10-25 2015-04-30 The Charles Stark Draper Laboratory, Inc. Systems and methods for detecting user engagement in context using physiological and behavioral measurement
US20170287356A1 (en) * 2014-09-26 2017-10-05 Accessible Publishing Systems Pty Ltd Teaching systems and methods
US20210350722A1 (en) * 2020-05-07 2021-11-11 Rosetta Stone Llc System and method for an interactive language learning platform

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3703602A (en) * 1970-11-04 1972-11-21 Leonid Valdimirovich Shenshev Machine for teaching foreign languages
JPS5754792B2 (de) * 1974-03-01 1982-11-19
EP0094502A1 (de) * 1982-05-13 1983-11-23 Texas Instruments Incorporated Elektronisches Lernhilfegerät zur Unterstützung der Aussprache
US4507750A (en) * 1982-05-13 1985-03-26 Texas Instruments Incorporated Electronic apparatus from a host language
FR2546323B1 (fr) * 1983-05-20 1985-08-30 Tomatis Alfred Appareil d'entrainement a la pratique d'une langue maternelle ou etrangere, en vue de son assimilation integrale
US4650423A (en) * 1984-10-24 1987-03-17 Robert Sprague Method of teaching and transcribing of language through the use of a periodic code of language elements
GB8528143D0 (en) * 1985-11-14 1985-12-18 British Telecomm Image encoding & synthesis
CA1294056C (en) * 1986-10-03 1992-01-07 Frederick Warwick Michael Stentiford Language translation system
US4884972A (en) * 1986-11-26 1989-12-05 Bright Star Technology, Inc. Speech synchronized animation

Also Published As

Publication number Publication date
AU634720B2 (en) 1993-03-04
US5503560A (en) 1996-04-02
KR900702495A (ko) 1990-12-07
AU4049389A (en) 1990-02-19
EP0446208A1 (de) 1991-09-18
DK11591A (da) 1991-01-23
EP0446208B1 (de) 1996-06-26
DE68926749D1 (de) 1996-08-01
GB2242772B (en) 1993-01-27
ATE139856T1 (de) 1996-07-15
FI910360A0 (fi) 1991-01-24
WO1990001203A1 (en) 1990-02-08
GB9004534D0 (en) 1991-02-27
DK11591D0 (da) 1991-01-23
GB8817705D0 (en) 1988-09-01
GB2242772A (en) 1991-10-09
JPH04501617A (ja) 1992-03-19

Similar Documents

Publication Publication Date Title
DE68926749T2 (de) Sprachtraining
DE60203705T2 (de) Umschreibung und anzeige eines eingegebenen sprachsignals
De Bot Visual feedback of intonation I: Effectiveness and induced practice behavior
DE60200857T2 (de) Erzeugung einer künstlichen Sprache
DE10306599B4 (de) Benutzeroberfläche, System und Verfahren zur automatischen Benennung von phonischen Symbolen für Sprachsignale zum Korrigieren von Aussprache
Azizifar et al. An Analytical Evaluation of Locally Produced Iranian High School ELT Textbooks from 1970 to the Present.
Wilske Form and meaning in dialog-based computer-assisted language learning
Febrianto Analyzing Elementary English Teachers’ Pronunciation Errors: Are We Intelligible?
Astina The analysis of teaching English pronunciation at young learners
DE69723449T2 (de) Verfahren und system zur sprache-in-sprache-umsetzung
EP2264685A1 (de) Verfahren zur entwicklung von fertigkeiten im behalten von wörtern
Mustafa Perception of American English Allophonic Variant/ɾ/by Arabic Speakers in an EFL Context.
Daly A description of the verbal behavior of students during two reading instruction methods
Ueno Teaching English pronunciation to Japanese English majors: A comparison of a suprasegmental-oriented and a segmental-oriented teaching approach
Kamran et al. Exploring ESL Learners’ Anxiety towards Silent Letters in Pronunciation: A Case Study of Undergraduates of University of Sialkot, Pakistan
Langi The natural approach: Approach, design, and procedure
Ahmadian et al. An investigation of EFL learners' mental processes in L2 writing: The case of Iranian EFL learners
Sawyer et al. The Utility of Translation and Written Symbols During the First Thirty Hours of Language Study
Pishkar et al. Metalinguistic Awareness on the Reading Comprehension Skills of EFL Learners
Lisan IMPROVING SPEAKING SKILLS THROUGH SPEECH ACTIVITY OF ENGLISH CLUB AT DARUNNAJAH BOARDING SCHOOL: IMPROVING SPEAKING SKILLS THROUGH SPEECH ACTIVITY OF ENGLISH CLUB AT DARUNNAJAH BOARDING SCHOOL
Assink et al. Learning to spell
Mashauri An Investigation of English Sound Production Among Nande Bilingual Students in the Democratic Republic of Congo: A Case of Bilingual Christian University of Congo
Barjesteh et al. Success with English: Three Who Achieved IT and What Worked for Them
Möller et al. Qualität von Sprachdialogsystemen
Jügler The impact of training procedures on the pronunciation of stops in second language acquisition: The case of German learners of French

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee