DE68926749T2 - Sprachtraining - Google Patents
SprachtrainingInfo
- Publication number
- DE68926749T2 DE68926749T2 DE68926749T DE68926749T DE68926749T2 DE 68926749 T2 DE68926749 T2 DE 68926749T2 DE 68926749 T DE68926749 T DE 68926749T DE 68926749 T DE68926749 T DE 68926749T DE 68926749 T2 DE68926749 T2 DE 68926749T2
- Authority
- DE
- Germany
- Prior art keywords
- speech
- student
- pronunciation
- utterance
- models
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012549 training Methods 0.000 title claims description 26
- 230000004044 response Effects 0.000 claims abstract description 4
- 238000000034 method Methods 0.000 claims description 20
- 230000001419 dependent effect Effects 0.000 claims description 5
- 230000014509 gene expression Effects 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 abstract description 4
- 230000002452 interceptive effect Effects 0.000 abstract 1
- 238000013519 translation Methods 0.000 description 18
- 230000014616 translation Effects 0.000 description 18
- 230000008569 process Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 206010011878 Deafness Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/04—Electrically-operated educational appliances with audible presentation of the material to be studied
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/06—Foreign languages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B10/00—Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
- H04B10/25—Arrangements specific to fibre transmission
- H04B10/2589—Bidirectional transmission
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Electrically Operated Instructional Devices (AREA)
- Devices For Executing Special Programs (AREA)
- Executing Machine-Instructions (AREA)
- Optical Communication System (AREA)
- Medicines Containing Material From Animals Or Micro-Organisms (AREA)
Description
- Diese Erfindung bezieht sich auf Vorrichtungen und Verfahren zum Aussprachetraining, insbesondere, jedoch nicht ausschließlich, zum Trainieren der Aussprache zweiter oder fremder Sprachen.
- Solch eine Vorrichtung und ein Verfahren sind z. B. aus der EP-A-0 094 502 bekannt.
- Ein Systemtyp, der zur automatischen Übersetzung von Sprache zwischen unterschiedlichen Fremdsprachen verwendet wird, ist in unserer europäischen Patentanmeldung Nr. 026293BA beschrieben. Diese Ausrüstung verwendet Spracherkennung, um in den Äußerungen des Sprechers Wörter zu erkennen, Mustererkennungstechniken, um aus den Sprachäußerungen Bedeutungen abzuleiten, sowie Sprachcodierung, um in einer Fremdsprache Sprache zu erzeugen.
- Diese Erfindung verwendet eine ähnliche Technologie, ist jedoch auf eine andere Weise für einen neuen Zweck konfiguriert, nämlich zum Training eines Benutzers zum Sprechen einer Fremdsprache.
- Diese Erfindung verwendet Spracherkennung nicht nur, um die gesprochenen Worte zu erkennen, sondern auch, um die Konsistenz der Aussprache zu überprüfen. Es ist ein Merkmal angehender Sprachschüler, daß sie, obwohl sie eine Aussprache nachahmen können, diese leicht vergessen und eine unkorrekte Aussprache behalten, bis sie von einem Fachmann überprüft werden. Eine Maschine, die eine Falschaussprache sowie Übersetzungsungenauigkeiten erkennt, würde einen Schüler befähigen, einen hohen Grad an Fertigkeit zu erreichen, bevor er die Unterstützung eines herkömmlichen Sprachlehrers benötigt, um weitere Fortschritte zu machen. In der Tat sind sehr hohe Ebenen einer linguistischen Fertigkeit möglich, die in den meisten Konversationen, wie z. B. auf kurzen Reisen oder bei der Benutzung des Telephons, nicht erforderlich sind, wobei in diesen Fällen das rechnerunterstützte Aussprachetraining an sich ausreichend ist.
- Herkömmliche Verfahren verwenden entweder teuere ausgebildete Lehrkräfte oder passive Aufzeichnungen der Fremdsprache, die nicht die Qualität der Aussprache des Schüler überprüfen.
- Einige automatische Systeme erzeugen eine visuelle Anzeige einer Darstellung der Sprache des Schülers, wobei vom Schüler erwartet wird, daß er seine Aussprache ändert, bis die Anzeige einem Standard entspricht. Diese Technik besitzt den Nachteil, daß die Benutzer sehr viel Zeit aufwenden müssen, um auszuprobieren und zu verstehen, wie ihre Sprache mit der visuellen Darstellung zusammenhängt.
- Ein weiterer Ansatz (z. B. in Revue de Physique Appliqu e, Bd. 19, Nr. 9, 9. September 1983, S. 595-610, M.T. Janot-Giorgetti u. a. "Utilisation d'un systeme de reconnaissance de la parole comme aide à l'acquisition orale d'une langue etrangere" beschrieben) verwendet eine sprecherunabhängige Erkennung, um Sprachäußerungen mit Standardmustern zu vergleichen. Eine dem Schüler ausgegebene Punktzahl zeigt an, wie gut seine Aussprache mit dem Ideal übereinstimmt. Bis jedoch die sprecherunabhängige Erkennungstechnik perfektioniert ist, können bestimmte Merkmale der Sprecherstimme, wie z. B. die Tonlage, die Vergleichspunkt zahlen nachteilig beeinflussen, wobei diese Merkmale keine relevante Verbindung zur Qualität der Aussprache haben. Ein Schüler kann somit dazu veranlaßt werden, die Tonlage seiner Stimme zu erhöhen, um seine Punktzahl zu verbessern, wobei er eine wichtige Fehlaussprache noch nicht korrigiert hat.
- Ferner kann die aktuelle sprecherunabhängige Erkennungstechnik nur ein kleines Vokabular von Wörtern handhaben, ohne eine sehr hohe Fehlerrate zu erzeugen. Dies bedeutet, daß Trainingssysteme auf der Grundlage dieser Technologie keine längeren Sprachäußerungen und Sätze verarbeiten und interpretieren können. Ein Verfahren zum Aussprachetraining von gehörlosen Sprechern ist in Proceedings ICASSP 87, Bd. 1, S. 372-375, D. Kewley-Port u. a. "Speaker-dependant Recognition as the Basis for a Speech Training Aid" beschrieben. Bei diesem Verfahren wählt ein Betreuer die am besten ausgesprochenen Sprachäußerungen eines Sprechers aus, welche dann in Modelle umgesetzt werden. Die Genauigkeit der anschließenden Aussprache des Sprechers wird als eine Funktion der Ähnlichkeit zu diesen Modellen angezeigt (je ähnlicher, desto besser). Dieses System besitzt zwei Nachteile; erstens erfordert es eine menschliche Intervention seitens des Betreuers und zweitens kann der Sprecher seine Aussprache nicht über seine vorangehenden besten Sprachäußerungen hinaus verbessern, sondern lediglich versuchen, diese zu erreichen.
- Gemäß der vorliegenden Erfindung wird eine Vorrichtung zum Aussprachetraining geschaffen, mit
- - einer Spracherzeugungsvorrichtung zum Erzeugen von Sprachäußerungen; und
- - einer Spracherkennungsvorrichtung, die dazu dient, in den Sprachäußerungen eines Schülers Wörter aus einer vorgegebenen ausgewählten Gruppe von Wörtern zu erkennen, wobei die Spracherkennungsvorrichtung eine sprecherabhängige Erkennung verwendet, indem die Sprachäußerungen des Schülers für jedes Wort der Gruppe mit Modellen verglichen werden, wobei die Vorrichtung anfangs die Modelle erzeugt, indem der Schüler aufgefordert wird, jedes Wort der Gruppe auszusprechen, und aus solchen Sprachäußerungen die Modelle gebildet werden, und wobei die Vorrichtung ferner Verbesserungen der Aussprache mit zunehmender Abweichung der nachfolgenden Sprachäußerungen des Schülers von diesen Modellen anzeigt.
- Im folgenden werden einige nicht einschränkende Beispiele von Ausführungsformen der Erfindung mit Bezug auf die Zeichnungen beschrieben, in welchen:
- Fig. 1 Schritte in einem Verfahren zum Sprachtraining gemäß einem Aspekt der Erfindung zeigt;
- Fig. 2 eine Vorrichtung schematisch erläutert, die zur Durchführung eines Aspekts der Erfindung geeignet ist;
- Fig. 3 eine Anzeige in einer Vorrichtung zum Sprachtraining gemäß einem weiteren Aspekt der Erfindung zeigt.
- Wie in den Fig. 1 und 2 gezeigt, wird bei der ersten Verwendung des dargestellten Systems der Schüler vom System gefragt (entweder unter Verwendung eines Bildschirms und einer Tastatur oder unter Verwendung eines herkömmlichen Sprachsynthesizers und einer sprecherunabhängigen Erkennungsvorrichtung), welche Sprache er lernen möchte und welchen Fachbereich (z. B. Bedienung des Telephons oder Buchung von Hotels) er benötigt. Der Schüler muß dann eine Trainingsprozedur durchführen, so daß die sprecherabhängige Spracherkennungsvorrichtung 1 seine Stimme erkennen kann. Zu diesem Zweck wird der Schüler in der Fremdsprache von einem Sprachgenerator 3, der eine vorher aufgezeichnete Stimme eines Muttersprachlers verwendet, aufgefordert, eine Gruppe von Schlüsselwörtern, die für diesen Fachbereich relevant sind, zu wiederholen. Da gleichzeitig die Quellensprachübersetzung jedes Wortes angezeigt wird, bietet sich dem Schüler die Gelegenheit, das Vokabular zu lernen. Dieser Prozeß dient als passiver Lernschritt, während dem der Schüler seine Aussprache üben kann und Wörter beliebig oft wiederholen kann, bis er glaubt, daß er die Sprachäußerung so genau nachgeahmt hat, wie es ihm möglich erscheint.
- Eine Steuereinheit 2 steuert die Folge von Aufforderungen und Antworten. Die Steuereinheit kann günstigerweise ein Personalcomputer (z. B. ein IBM PC) sein.
- Diese Sprachäußerungen werden nun als erste Gruppe von Modellen verwendet oder zur Erzeugung derselben verwendet, die in einem Modellspeicher 1a gespeichert sind, um von der Spracherkennungsvorrichtung 1 zur Verarbeitung der Stimme des Schülers verwendet zu werden. Diese Modelle stellen den ersten Versuch des Schülers dar, die perfekte Aussprache des aufgezeichneten Muttersprachlers zu nachzuahmen.
- Der zweite Schritt des Trainingsprozesses überprüft einfach die Fähigkeit des Schülers, sich an die Übersetzungen und die Aussprachen des Schlüsselwortvokabulars zu erinnern. Er wird in seiner Quellensprache (entweder visuell auf dem Bildschirm 4 oder verbal vom Sprachgenerator 3) aufgefordert, die Übersetzungen der Schlüsselwörter auszusprechen, die er in der vorangehenden Stufe geübt hat. Nachdem jedes Wort ausgesprochen ist, wiederholt der Sprachgenerator 3 für den Schüler die Fremdwörter, die von der Erkennungsvorrichtung 1 erkannt worden sind, und zeigt das Quellensprachäquivalent an. Falsche Übersetzungen werden registriert, um später im Trainingszyklus wiederholt zu werden. Der Schüler kann die Wörter beliebig oft wiederholen, entweder um seine Aussprache zu verfeinern oder um eine Maschinenfehlerkennung zu korrigieren. Wenn die Erkennungsvorrichtung 1 ein Fremdwort fortlaufend (z. B. öfter als fünfmal) falsch erkennt, entweder aufgrund einer niedrigen Abstandspunktzahl oder weil zwei Wörter mit nahezu gleichen Abständen erkannt worden sind, wird der Schüler aufgefordert, dieses Wort erneut zu wiederholen (vorzugsweise mehrere Male), gefolgt von einer Äußerung eines Muttersprachlers vom Generator 3, so daß ein neues Spracherkennungsmodell erzeugt werden kann, um das ursprüngliche Modell im Speicher 1a zu ersetzen. Eine solche Aktion zeigt in der Tat an, daß der Schüler seine Aussprache verändert hat, nachdem er die Aufforderung mehrere Male gehört hat, und eine genauere Nachahmung des Muttersprachlers erreicht hat. Dieses Verfahren hat gegenüber dem Stand der Technik den Vorteil, daß der Fortschritt des Schülers anhand seiner Abweichung von seinem ursprünglichen (und/oder aktualisierten) Modell gemessen wird, statt anhand seiner Konvergenz zum Modell des Muttersprachlers, wodurch die Probleme aufgrund der Tonlage oder anderer Unterschiede zwischen den zwei Stimmen beseitigt werden. Wenn der Schüler glaubt, daß er das Schlüsselwortvokabular beherrscht, kann er zum dritten Trainingsschritt übergehen.
- Der Schüler wird in seiner eigenen Sprache (entweder visuell auf dem Bildschirm 4 oder verbal durch den Generator 3) aufgefordert, verbale Übersetzungen von Wörtern oder vollständigen Sprachäußerungen durchzuführen, die für seinen Interessenbereich relevant sind. Alternativ können diese Aufforderungen die Form eines Dialoges in der Fremdsprache annehmen, auf die der Schüler antworten muß. Ein brauchbares Verfahren zum auffordern ist eine "Lückentext"-Übung, die eine Bildschirmanzeige eines Textabschnitts verwendet, in dem mehrere Wörter fehlen, die der Schüler vervollständigen soll, indem er ausspricht, was er für die fehlenden Wörter hält. Das System funktioniert vorzugsweise auf die gleiche Weise wie das sprachäußerungsbasierte Sprachübersetzungssystem (europäische Anmeldung Nr. 0262938) und erkennt die im voraus trainierten Schlüsselwörter, um die ausgesprochenen Sprachäußerungen zu identifizieren. Das System gibt anschließend die korrekte Antwort/Übersetzung an den Schüler in einer Stimme eines Muttersprachlers zurück und gibt dem Schüler eine Gelegenheit, seine Übersetzung zu wiederholen, falls sie falsch war, falls er mit der Aussprache nicht zufrieden war oder falls die Erkennungsvorrichtung 1 nicht fähig war, die korrekte fremde Sprachäußerung zu identifizieren. In dem Fall, in dem der Schüler nicht entscheiden kann, ob die Erkennungsvorrichtung 1 seine beabsichtigte Bedeutung erkannt hat, kann gleichzeitig die Quellensprachversion der erkannten fremden Sprachäußerung angezeigt werden. Falsch übersetzte Sprachäußerungen werden dem Schüler später im Trainingszyklus erneut (visuell oder verbal) für einen weiteren Übersetzungsversuch vorgelegt.
- Wenn die Erkennungsvorrichtung 1 die korrekte Sprachäußerung aufgrund einer schlechten Schlüsselworterkennung und eine Verschiebung der Aussprache des Schülers wiederholt nicht identifizieren kann, wird der Schüler aufgefordert, jedes Schlüsselwort, daß in der richtigen Übersetzung vorliegt, für eine getrennte Erkennung zu wiederholen. Wenn eines oder mehrere dieser Schlüsselwörter fortlaufend falsch erkannt wird, werden wie oben beschrieben neue Modelle erzeugt.
- Die Sprachäußerungen werden dem Schüler in einer Reihenfolge zur Übersetzung vorgelegt, die sich nach der Häufigkeit ihrer Verwendung im Interessenbereich richtet. Vorzugsweise ermöglicht das System dem Schüler, das Training an einem beliebigen Punkt zu unterbrechen und zu einem späteren Zeitpunkt fortzusetzen, so daß er so schnell oder so langsam Fortschritte machen kann wie er will.
- Der bevorzugte Typ einer Sprachäußerungserkennung (beschrieben in der europäischen Patentanmeldung Nr. 0262938 und in "Machine Translation of Speech". Stentiford & Steer, British Telecom Technology Journal, Bd. 6, Nr. 2, April 1988, S. 116-123) erfordert, daß in ihr enthaltene Sprachäußerungen mit veränderlichen Parametern, z. B. Daten, Zeiten, Orte oder andere Teilsprachäußerungen, in einer hierarchischen Weise behandelt werden sollten. Die Form der Sprachäußerung wird zuerst unter Verwendung eines allgemeinen Satzes von Schlüsselwörtern identifiziert. Ist dies erledigt, kann der Typ des in der Sprachäußerung vorliegenden Parameters abgeleitet und ein spezieller Satz von Schlüsselwörtern verwendet werden, um die Parameterinhalte zu identifizieren. Parameter können in anderen Parametern geschachtelt sein. Als ein einfaches Beispiel kann sich ein Parameter auf eine Hauptstadt beziehen, wobei in diesem Fall die speziellen Schlüsselwörter nur diese Städte umfassen. Während der Schüler die Übersetzung trainiert, können Fehler in Parameterinhalten ebenfalls hierarchisch behandelt werden. Wenn das System die korrekte Form der vom Schüler ausgesprochenen Sprachäußerung identifiziert hat, dieser jedoch eine falsche Parameterübersetzung erzeugt hat, kann der Schüler angewiesen werden, die richtige Übersetzung des Parameters isoliert anzugeben, ohne zur ganzen Sprachäußerung zurückkehren zu müssen.
- Die Parameter werden aufgrund ihres Auftretens über einen weiten Bereich von Sprachäußerungen normalerweise aus einem Diskussionsbereich ausgewählt. Es ist daher selbstverständlich, daß der Schüler das spezielle Training für diese Äußerungen durchführen sollte, wenn er mit diesen Probleme zu haben scheint.
- Die Schlüsselwörter werden gemäß der Information, die sie enthalten, sowie danach ausgewählt, wie gut sie sich von den in jedem Fachbereich verwendeten Sprachäußerungen unterscheiden. Dies bedeutet, daß es für das System nicht erforderlich ist, jedes Wort zu erkennen, um die ausgesprochene Sprachäußerung zu identifizieren. Dies hat den Vorteil, daß eine Anzahl von Spracherkennungsfehlern toleriert werden kann, bevor die Sprachäußerungsidentifizierung verloren geht. Ferner können richtige Sprachäußerungen trotz der Fehler in der Aussprache, die ein Anfänger erzeugen kann, identifiziert werden. Es ist vernünftig anzunehmen, daß dann, wenn das System Übersetzungversuche mit ihren korrigierten Versionen in Übereinstimmung bringen kann, solche Sprachäußerungen, die aus dem Zusammenhang herausgenommen sind, in der Praxis verständlich sein sollten, wenn Muttersprachler verwendet werden. Dies bedeutet, daß das System dazu neigt, das Training auf gerade jene Abschnitte des Schülerwortschatzes zu konzentrieren, die die größte Mehrdeutigkeit in der Fremdsprache ergeben. Dies kann durch schlechte Aussprache wichtiger Schlüsselwörter oder einfach durch deren Weglassen hervorgerufen werden.
- Das beschriebene System schafft daher ein automatisiertes Lernschema, das Sprachschüler schnell auf ein minimales Niveau von Verständlichkeit bringen kann und das insbesondere für beschäftigte Geschäftsleute, die einfach ihre Transaktionen ausführen wollen, oder für Urlauber brauchbar ist, die sich nicht zu sehr um die grammatikalische Genauigkeit kümmern.
- Die richtige Aussprache der Sprachäußerungen ist durch die aufgezeichnete Stimme eines Muttersprachlers gegeben, der die geeignete Intonation und Artikulation zwischen Wörtern mitbringt. Der fortgeschrittene Schüler wird aufgefordert, in der gleichen Weise zu sprechen, wobei das System mit der Überprüfung jeder Sprachäußerung fort fährt und die verwendete wortorientierte Technologie fähig ist, mit der zunehmend flüssigen Sprache Schritt zu halten.
- Wie in Fig. 3 gezeigt, ist gemäß einem weiteren Aspekt der Erfindung eine visuelle Darstellung des Mundes des Muttersprachlers vorgesehen, um die Artikulation jedes gesprochenen Wortes darzustellen. Diese Anzeige kann herkömmlicher Weise auf einer CRT-Anzeigevorrichtung unter Verwendung einer Gruppe quantisierter Mundformen dargestellt werden, wie in unserer vorangehenden europäischen Patentanmeldung Nr. 0225729A offenbart ist. Ferner kann eine vollständige Gesichtdarstellung verwendet werden.
- In einer einfachen Ausführungsform kann die Anzeigevorrichtung in Verbindung mit einem Spiegel montiert sein, so daß der Anwender den Muttersprachler nachahmen kann.
- In einer zweiten Ausführungsform kann eine Bildtelephon- Codierungsvorrichtung des in unserem vorangehenden europäischen Patent Nr. 0225729 offenbarten Typs verwendet werden, um eine entsprechende Anzeige des Mundes des Schülers zu erzeugen, so daß er seine Artikulation genau mit derjenigen des Muttersprachlers vergleichen kann. Die zwei Anzeigen können vom Schüler gleichzeitig wiederholt werden, entweder Seite für Seite oder überlagert (wobei in diesem Fall verschiedene Farben verwendet werden können), wobei ein Zeitsprungverfahren verwendet wird, um die Anzeigen auf einander auszurichten.
Claims (11)
1. Vorrichtung zum Aussprachetraining, mit
- einer Spracherzeugungseinrichtung (3) zum
Erzeugen von Sprachäußerungen; und
- einer Spracherkennungseinrichtung (1), die so
beschaffen ist, daß sie die Sprachäußerungen eines
Schülers wortweise mit Modellen einer vorgegebenen
ausgewählten Gruppe von Wörtern vergleicht und eine Punktzahl
erzeugt, die die Ähnlichkeit zwischen den
Sprachäußerungen des Schülers und den Modellen angibt;
dadurch gekennzeichnet, daß die
Spracherkennungseinrichtung (1) so beschaffen ist, daß sie eine
sprecherabhängige Erkennung verwendet, wobei die Vorrichtung so
beschaffen ist, daß sie anfangs die Modelle erzeugt,
indem sie den Schüler auffordert, jedes Wort aus der
Gruppe auszusprechen, und die Modelle aus diesen
Sprachäußerungen bildet, und wobei die Vorrichtung ferner so
beschaffen ist, daß sie mit zunehmender Abweichung der
folgenden Sprachäußerungen des Schülers von den Modellen
die Verbesserungen der Aussprache anzeigt.
2. Vorrichtung nach Anspruch 1, die so beschaffen
ist, daß sie die Modelle anhand der folgenden
Sprachausdrücke aktualisiert, wenn die Abweichung einen
vorgegebenen Schwellenwert überschreitet.
3. Vorrichtung nach Anspruch 1 oder Anspruch 2, die
ferner eine Steuereinrichtung (2) enthält, die mit der
Spracherzeugungseinrichtung (3) und der
Spracherkennungseinrichtung (1) verbunden ist und so beschaffen ist, daß
die Vorrichtung im Gebrauch eine Aufforderung erzeugt,
auf die ein Schüler durch Sprechen antworten kann, wobei
die Spracherkennungseinrichtung so beschaffen ist, daß
sie in der Antwort des Schülers das Vorhandensein von
Wörtern aus der Gruppe erkennt, und wobei die
Spracherzeugungseinrichtung so beschaffen ist, daß sie einen
Sprachausdruck in Abhängigkeit davon erzeugt, was die
Spracherkennungseinrichtung erkannt hat.
4. Vorrichtung zum Aussprachetraining nach Anspruch
3, die ferner enthält
- eine Redewendungserkennungseinrichtung zum
Identifizieren von Redewendungen anhand der Kombination
und der Reihenfolge von Wörtern aus der vorgegebenen
ausgewählten Gruppe,
wobei im Gebrauch der Schüler aufgefordert wird,
durch Aussprechen einer Redewendung zu antworten, und
wobei die Redewendungserkennungseinrichtung die
Redewendung erkennt und der von die Spracherzeugungseinrichtung
erzeugte Sprachäußerung so ausgewählt wird, daß sie eine
Antwort auf die Redewendung darstellt.
5. Vorrichtung zum Aussprachetraining nach Anspruch
3 oder Anspruch 4, bei der die Aufforderung eine von der
Spracherzeugungseinrichtung (3) erzeugte Sprachäußerung
ist.
6. Vorrichtung zum Aussprachetraining nach
irgendeinem der vorangehenden Ansprüche, die ferner eine
Bilderzeugungseinrichtung zum Erzeugen entsprechender
Videobilder eines Mundes umfaßt, wobei ein Schüler aufgefordert
wird, die korrekte Aussprache der Sprachäußerungen
nachzuahmen.
7. Vorrichtung nach Anspruch 6, die ferner eine
Videoanalyseeinrichtung enthält, die so beschaffen ist,
daß sie die Mundbewegungen des Schülers analysiert und
die entsprechenden synthetisierten und analysierten
Mundbewegungen anzeigt.
8. Sprachtrainingsvorrichtung nach irgendeinem der
vorangehenden Ansprüche, bei der die
Spracherzeugungseinrichtung (3) so beschaffen ist, daß sie Sprachäußerungen
einer Sprache im Akzent eines Muttersprachlers dieser
Sprache erzeugt.
9. Verfahren zum Aussprachetraining, das umfaßt:
- Auffordern eines Schülers, eine
Sprachäußerung auszusprechen, gekennzeichnet durch
- Analysieren der Sprachäußerung unter
Verwendung einer sprecherabhängigen Spracherkennung, die
Modelle verwendet, die aus den vorangehenden
Sprachäußerungen des Schülers abgeleitet sind;
wobei Verbesserungen in der Aussprache durch
Messen des Abstandes zwischen der Sprachäußerung und dem
Modell gemessen werden; wobei die Bewertung so beschaffen
ist, daß eine Vergrößerung des Abstandes einer
Ausspracheverbesserung entspricht.
10. Verfahren nach Anspruch 9, das ferner den Schritt
enthält: Aktualisieren der Modelle, wenn der Abstand
einen vorgegebenen Schwellenwert überschreitet.
11. Verfahren zum Aussprachetraining, das eine
Vorrichtung nach irgendeinem der Ansprüche 1 bis 8
verwendet.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB888817705A GB8817705D0 (en) | 1988-07-25 | 1988-07-25 | Optical communications system |
PCT/GB1989/000846 WO1990001203A1 (en) | 1988-07-25 | 1989-07-25 | Language training |
Publications (2)
Publication Number | Publication Date |
---|---|
DE68926749D1 DE68926749D1 (de) | 1996-08-01 |
DE68926749T2 true DE68926749T2 (de) | 1996-10-31 |
Family
ID=10641072
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE68926749T Expired - Fee Related DE68926749T2 (de) | 1988-07-25 | 1989-07-25 | Sprachtraining |
Country Status (11)
Country | Link |
---|---|
US (1) | US5503560A (de) |
EP (1) | EP0446208B1 (de) |
JP (1) | JPH04501617A (de) |
KR (1) | KR900702495A (de) |
AT (1) | ATE139856T1 (de) |
AU (1) | AU634720B2 (de) |
DE (1) | DE68926749T2 (de) |
DK (1) | DK11591D0 (de) |
FI (1) | FI910360A0 (de) |
GB (2) | GB8817705D0 (de) |
WO (1) | WO1990001203A1 (de) |
Families Citing this family (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4018078A1 (de) * | 1990-06-06 | 1991-12-12 | Udo Heitmann | Lernsystem |
DE4018080A1 (de) * | 1990-06-06 | 1991-12-12 | Udo Heitmann | Lernsystem |
DE4018079A1 (de) * | 1990-06-06 | 1991-12-12 | Udo Heitmann | Lernsystem |
GB2272097B (en) * | 1992-10-30 | 1995-12-13 | Visible Sound Ltd | Improvements relating to teaching aids for the deaf |
US5487671A (en) | 1993-01-21 | 1996-01-30 | Dsp Solutions (International) | Computerized system for teaching speech |
GB2298514A (en) * | 1995-03-03 | 1996-09-04 | Ghazala Shaheen Jamil Malik | Learning the Quran Karim |
US5717828A (en) * | 1995-03-15 | 1998-02-10 | Syracuse Language Systems | Speech recognition apparatus and method for learning |
US6109923A (en) * | 1995-05-24 | 2000-08-29 | Syracuase Language Systems | Method and apparatus for teaching prosodic features of speech |
US6656137B1 (en) * | 1995-11-29 | 2003-12-02 | Omega Assembly Trust | Vestibular and RAS enhancing device |
WO1997021201A1 (en) * | 1995-12-04 | 1997-06-12 | Bernstein Jared C | Method and apparatus for combined information from speech signals for adaptive interaction in teaching and testing |
IL120622A (en) * | 1996-04-09 | 2000-02-17 | Raytheon Co | System and method for multimodal interactive speech and language training |
US5766015A (en) * | 1996-07-11 | 1998-06-16 | Digispeech (Israel) Ltd. | Apparatus for interactive language training |
WO1998014934A1 (en) | 1996-10-02 | 1998-04-09 | Sri International | Method and system for automatic text-independent grading of pronunciation for language instruction |
US6157913A (en) * | 1996-11-25 | 2000-12-05 | Bernstein; Jared C. | Method and apparatus for estimating fitness to perform tasks based on linguistic and other aspects of spoken responses in constrained interactions |
US5857173A (en) * | 1997-01-30 | 1999-01-05 | Motorola, Inc. | Pronunciation measurement device and method |
US5933804A (en) * | 1997-04-10 | 1999-08-03 | Microsoft Corporation | Extensible speech recognition system that provides a user with audio feedback |
US5920838A (en) * | 1997-06-02 | 1999-07-06 | Carnegie Mellon University | Reading and pronunciation tutor |
GB9716690D0 (en) | 1997-08-06 | 1997-10-15 | British Broadcasting Corp | Spoken text display method and apparatus for use in generating television signals |
JP4267101B2 (ja) * | 1997-11-17 | 2009-05-27 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 音声識別装置、発音矯正装置およびこれらの方法 |
US6159014A (en) * | 1997-12-17 | 2000-12-12 | Scientific Learning Corp. | Method and apparatus for training of cognitive and memory systems in humans |
US5995932A (en) * | 1997-12-31 | 1999-11-30 | Scientific Learning Corporation | Feedback modification for accent reduction |
US6134529A (en) * | 1998-02-09 | 2000-10-17 | Syracuse Language Systems, Inc. | Speech recognition apparatus and method for learning |
US8202094B2 (en) * | 1998-02-18 | 2012-06-19 | Radmila Solutions, L.L.C. | System and method for training users with audible answers to spoken questions |
US6077085A (en) * | 1998-05-19 | 2000-06-20 | Intellectual Reserve, Inc. | Technology assisted learning |
US6192215B1 (en) * | 1998-10-23 | 2001-02-20 | Mai Wang | Interactive and animated mini-theater and method of use |
US6039625A (en) * | 1998-10-23 | 2000-03-21 | Wang; Mai | Interactive and animated mini-theater |
US6266642B1 (en) | 1999-01-29 | 2001-07-24 | Sony Corporation | Method and portable apparatus for performing spoken language translation |
US6442524B1 (en) | 1999-01-29 | 2002-08-27 | Sony Corporation | Analyzing inflectional morphology in a spoken language translation system |
US6356865B1 (en) * | 1999-01-29 | 2002-03-12 | Sony Corporation | Method and apparatus for performing spoken language translation |
US6282507B1 (en) | 1999-01-29 | 2001-08-28 | Sony Corporation | Method and apparatus for interactive source language expression recognition and alternative hypothesis presentation and selection |
US6243669B1 (en) | 1999-01-29 | 2001-06-05 | Sony Corporation | Method and apparatus for providing syntactic analysis and data structure for translation knowledge in example-based language translation |
US6278968B1 (en) | 1999-01-29 | 2001-08-21 | Sony Corporation | Method and apparatus for adaptive speech recognition hypothesis construction and selection in a spoken language translation system |
US6374224B1 (en) | 1999-03-10 | 2002-04-16 | Sony Corporation | Method and apparatus for style control in natural language generation |
US7149690B2 (en) | 1999-09-09 | 2006-12-12 | Lucent Technologies Inc. | Method and apparatus for interactive language instruction |
GB9926134D0 (en) * | 1999-11-05 | 2000-01-12 | Ibm | Interactive voice response system |
US6302695B1 (en) * | 1999-11-09 | 2001-10-16 | Minds And Technologies, Inc. | Method and apparatus for language training |
GB2360389A (en) * | 1999-12-20 | 2001-09-19 | James Emsley Thomas Hooton | Question and answer apparatus for training or analysis |
US6652283B1 (en) | 1999-12-30 | 2003-11-25 | Cerego, Llc | System apparatus and method for maximizing effectiveness and efficiency of learning retaining and retrieving knowledge and skills |
WO2001082264A1 (en) * | 2000-04-26 | 2001-11-01 | Jrl Enterprises, Inc. | An interactive, computer-aided speech education method and apparatus |
US6644973B2 (en) * | 2000-05-16 | 2003-11-11 | William Oster | System for improving reading and speaking |
US6850882B1 (en) | 2000-10-23 | 2005-02-01 | Martin Rothenberg | System for measuring velar function during speech |
US6728679B1 (en) * | 2000-10-30 | 2004-04-27 | Koninklijke Philips Electronics N.V. | Self-updating user interface/entertainment device that simulates personal interaction |
EP1217609A3 (de) * | 2000-12-22 | 2004-02-25 | Hewlett-Packard Company | Spracherkennung |
US6435876B1 (en) * | 2001-01-02 | 2002-08-20 | Intel Corporation | Interactive learning of a foreign language |
US20020115044A1 (en) * | 2001-01-10 | 2002-08-22 | Zeev Shpiro | System and method for computer-assisted language instruction |
US6882707B2 (en) * | 2001-02-21 | 2005-04-19 | Ultratec, Inc. | Method and apparatus for training a call assistant for relay re-voicing |
GB2376554B (en) * | 2001-06-12 | 2005-01-05 | Hewlett Packard Co | Artificial language generation and evaluation |
GB0114236D0 (en) * | 2001-06-12 | 2001-08-01 | Hewlett Packard Co | Artificial language generation |
US7881441B2 (en) | 2005-06-29 | 2011-02-01 | Ultratec, Inc. | Device independent text captioned telephone service |
US7249011B2 (en) * | 2002-08-12 | 2007-07-24 | Avaya Technology Corp. | Methods and apparatus for automatic training using natural language techniques for analysis of queries presented to a trainee and responses from the trainee |
US7752045B2 (en) * | 2002-10-07 | 2010-07-06 | Carnegie Mellon University | Systems and methods for comparing speech elements |
US7359859B2 (en) * | 2003-05-27 | 2008-04-15 | Inventec Corporation | Computer-based training system and method for enhancing language listening comprehension |
US8182270B2 (en) * | 2003-07-31 | 2012-05-22 | Intellectual Reserve, Inc. | Systems and methods for providing a dynamic continual improvement educational environment |
US7524191B2 (en) * | 2003-09-02 | 2009-04-28 | Rosetta Stone Ltd. | System and method for language instruction |
US7542907B2 (en) * | 2003-12-19 | 2009-06-02 | International Business Machines Corporation | Biasing a speech recognizer based on prompt context |
US20050144010A1 (en) * | 2003-12-31 | 2005-06-30 | Peng Wen F. | Interactive language learning method capable of speech recognition |
US7660398B2 (en) | 2004-02-18 | 2010-02-09 | Ultratec, Inc. | Captioned telephone service |
US20060057545A1 (en) * | 2004-09-14 | 2006-03-16 | Sensory, Incorporated | Pronunciation training method and apparatus |
US20060088805A1 (en) * | 2004-10-27 | 2006-04-27 | Narda Pitkethly | Reading instruction system and method |
US7762816B2 (en) * | 2005-02-22 | 2010-07-27 | Educational Testing Service | Method and system for automated item development for language learners |
US20070048694A1 (en) * | 2005-08-15 | 2007-03-01 | Tepper Daniel A | System and method for simultaneous demonstration mouth movements together with visual presentation of an image that represents a letter(s) or word(s) being pronounced |
US20070052799A1 (en) * | 2005-09-06 | 2007-03-08 | International Business Machines Corporation | System and method for assisting speech development for the hearing-challenged |
US7657221B2 (en) * | 2005-09-12 | 2010-02-02 | Northwest Educational Software, Inc. | Virtual oral recitation examination apparatus, system and method |
US20090220926A1 (en) * | 2005-09-20 | 2009-09-03 | Gadi Rechlis | System and Method for Correcting Speech |
WO2007120418A2 (en) * | 2006-03-13 | 2007-10-25 | Nextwire Systems, Inc. | Electronic multilingual numeric and language learning tool |
US20070255570A1 (en) * | 2006-04-26 | 2007-11-01 | Annaz Fawaz Y | Multi-platform visual pronunciation dictionary |
US20080004879A1 (en) * | 2006-06-29 | 2008-01-03 | Wen-Chen Huang | Method for assessing learner's pronunciation through voice and image |
US7818164B2 (en) * | 2006-08-21 | 2010-10-19 | K12 Inc. | Method and system for teaching a foreign language |
US7869988B2 (en) | 2006-11-03 | 2011-01-11 | K12 Inc. | Group foreign language teaching system and method |
US20100015582A1 (en) * | 2008-07-21 | 2010-01-21 | Noureddin Zahmoul | 421 Tunsi-nippon cognations |
US9361908B2 (en) * | 2011-07-28 | 2016-06-07 | Educational Testing Service | Computer-implemented systems and methods for scoring concatenated speech responses |
KR101493006B1 (ko) * | 2013-03-21 | 2015-02-13 | 디노플러스 (주) | 멀티미디어 콘텐츠 편집장치 및 그 방법 |
US20150121246A1 (en) * | 2013-10-25 | 2015-04-30 | The Charles Stark Draper Laboratory, Inc. | Systems and methods for detecting user engagement in context using physiological and behavioral measurement |
US20170287356A1 (en) * | 2014-09-26 | 2017-10-05 | Accessible Publishing Systems Pty Ltd | Teaching systems and methods |
US20210350722A1 (en) * | 2020-05-07 | 2021-11-11 | Rosetta Stone Llc | System and method for an interactive language learning platform |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3703602A (en) * | 1970-11-04 | 1972-11-21 | Leonid Valdimirovich Shenshev | Machine for teaching foreign languages |
JPS5754792B2 (de) * | 1974-03-01 | 1982-11-19 | ||
EP0094502A1 (de) * | 1982-05-13 | 1983-11-23 | Texas Instruments Incorporated | Elektronisches Lernhilfegerät zur Unterstützung der Aussprache |
US4507750A (en) * | 1982-05-13 | 1985-03-26 | Texas Instruments Incorporated | Electronic apparatus from a host language |
FR2546323B1 (fr) * | 1983-05-20 | 1985-08-30 | Tomatis Alfred | Appareil d'entrainement a la pratique d'une langue maternelle ou etrangere, en vue de son assimilation integrale |
US4650423A (en) * | 1984-10-24 | 1987-03-17 | Robert Sprague | Method of teaching and transcribing of language through the use of a periodic code of language elements |
GB8528143D0 (en) * | 1985-11-14 | 1985-12-18 | British Telecomm | Image encoding & synthesis |
CA1294056C (en) * | 1986-10-03 | 1992-01-07 | Frederick Warwick Michael Stentiford | Language translation system |
US4884972A (en) * | 1986-11-26 | 1989-12-05 | Bright Star Technology, Inc. | Speech synchronized animation |
-
1988
- 1988-07-25 GB GB888817705A patent/GB8817705D0/en active Pending
-
1989
- 1989-07-25 KR KR1019900700642A patent/KR900702495A/ko not_active Application Discontinuation
- 1989-07-25 AU AU40493/89A patent/AU634720B2/en not_active Ceased
- 1989-07-25 AT AT89909036T patent/ATE139856T1/de not_active IP Right Cessation
- 1989-07-25 JP JP1508488A patent/JPH04501617A/ja active Pending
- 1989-07-25 US US07/659,398 patent/US5503560A/en not_active Expired - Fee Related
- 1989-07-25 EP EP89909036A patent/EP0446208B1/de not_active Expired - Lifetime
- 1989-07-25 WO PCT/GB1989/000846 patent/WO1990001203A1/en active IP Right Grant
- 1989-07-25 DE DE68926749T patent/DE68926749T2/de not_active Expired - Fee Related
-
1990
- 1990-02-28 GB GB9004534A patent/GB2242772B/en not_active Expired - Fee Related
-
1991
- 1991-01-23 DK DK011591A patent/DK11591D0/da not_active Application Discontinuation
- 1991-01-24 FI FI910360A patent/FI910360A0/fi not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
AU634720B2 (en) | 1993-03-04 |
US5503560A (en) | 1996-04-02 |
KR900702495A (ko) | 1990-12-07 |
AU4049389A (en) | 1990-02-19 |
EP0446208A1 (de) | 1991-09-18 |
DK11591A (da) | 1991-01-23 |
EP0446208B1 (de) | 1996-06-26 |
DE68926749D1 (de) | 1996-08-01 |
GB2242772B (en) | 1993-01-27 |
ATE139856T1 (de) | 1996-07-15 |
FI910360A0 (fi) | 1991-01-24 |
WO1990001203A1 (en) | 1990-02-08 |
GB9004534D0 (en) | 1991-02-27 |
DK11591D0 (da) | 1991-01-23 |
GB8817705D0 (en) | 1988-09-01 |
GB2242772A (en) | 1991-10-09 |
JPH04501617A (ja) | 1992-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE68926749T2 (de) | Sprachtraining | |
DE60203705T2 (de) | Umschreibung und anzeige eines eingegebenen sprachsignals | |
De Bot | Visual feedback of intonation I: Effectiveness and induced practice behavior | |
DE60200857T2 (de) | Erzeugung einer künstlichen Sprache | |
DE10306599B4 (de) | Benutzeroberfläche, System und Verfahren zur automatischen Benennung von phonischen Symbolen für Sprachsignale zum Korrigieren von Aussprache | |
Azizifar et al. | An Analytical Evaluation of Locally Produced Iranian High School ELT Textbooks from 1970 to the Present. | |
Wilske | Form and meaning in dialog-based computer-assisted language learning | |
Febrianto | Analyzing Elementary English Teachers’ Pronunciation Errors: Are We Intelligible? | |
Astina | The analysis of teaching English pronunciation at young learners | |
DE69723449T2 (de) | Verfahren und system zur sprache-in-sprache-umsetzung | |
EP2264685A1 (de) | Verfahren zur entwicklung von fertigkeiten im behalten von wörtern | |
Mustafa | Perception of American English Allophonic Variant/ɾ/by Arabic Speakers in an EFL Context. | |
Daly | A description of the verbal behavior of students during two reading instruction methods | |
Ueno | Teaching English pronunciation to Japanese English majors: A comparison of a suprasegmental-oriented and a segmental-oriented teaching approach | |
Kamran et al. | Exploring ESL Learners’ Anxiety towards Silent Letters in Pronunciation: A Case Study of Undergraduates of University of Sialkot, Pakistan | |
Langi | The natural approach: Approach, design, and procedure | |
Ahmadian et al. | An investigation of EFL learners' mental processes in L2 writing: The case of Iranian EFL learners | |
Sawyer et al. | The Utility of Translation and Written Symbols During the First Thirty Hours of Language Study | |
Pishkar et al. | Metalinguistic Awareness on the Reading Comprehension Skills of EFL Learners | |
Lisan | IMPROVING SPEAKING SKILLS THROUGH SPEECH ACTIVITY OF ENGLISH CLUB AT DARUNNAJAH BOARDING SCHOOL: IMPROVING SPEAKING SKILLS THROUGH SPEECH ACTIVITY OF ENGLISH CLUB AT DARUNNAJAH BOARDING SCHOOL | |
Assink et al. | Learning to spell | |
Mashauri | An Investigation of English Sound Production Among Nande Bilingual Students in the Democratic Republic of Congo: A Case of Bilingual Christian University of Congo | |
Barjesteh et al. | Success with English: Three Who Achieved IT and What Worked for Them | |
Möller et al. | Qualität von Sprachdialogsystemen | |
Jügler | The impact of training procedures on the pronunciation of stops in second language acquisition: The case of German learners of French |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |