DE102005030967B4 - Verfahren und Vorrichtung zur Interaktion mit einem Spracherkennungssystem zur Auswahl von Elementen aus Listen - Google Patents

Verfahren und Vorrichtung zur Interaktion mit einem Spracherkennungssystem zur Auswahl von Elementen aus Listen Download PDF

Info

Publication number
DE102005030967B4
DE102005030967B4 DE102005030967A DE102005030967A DE102005030967B4 DE 102005030967 B4 DE102005030967 B4 DE 102005030967B4 DE 102005030967 A DE102005030967 A DE 102005030967A DE 102005030967 A DE102005030967 A DE 102005030967A DE 102005030967 B4 DE102005030967 B4 DE 102005030967B4
Authority
DE
Germany
Prior art keywords
speech
recognizer
list
recognition system
speech recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102005030967A
Other languages
English (en)
Other versions
DE102005030967A1 (de
Inventor
Harald Dr. Hüning
Susanne Dr.-Ing. Kronenberg
Michael Munz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
DaimlerChrysler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DaimlerChrysler AG filed Critical DaimlerChrysler AG
Priority to DE102005030967A priority Critical patent/DE102005030967B4/de
Priority to US11/478,929 priority patent/US20070005361A1/en
Publication of DE102005030967A1 publication Critical patent/DE102005030967A1/de
Application granted granted Critical
Publication of DE102005030967B4 publication Critical patent/DE102005030967B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Abstract

Verfahren zur Interaktion mit einem Spracherkennungssystem zur Auswahl von Elementen aus Listen,
bei welchem ein Nutzer dem Erkenner des Spracherkennungssystem ein Sprachmuster zuführt, um aus einem dem Spracherkennungssystem zugeordneten Vokabular mit zu erkennenden Listenelementen wenigstens ein Element auszuwählen,
bei welchem das dem System durch den Nutzer zugeführte Sprachmuster in einem Speicher 3 zwischengespeichert wird,
bei welchem das durch den Erkenner des Spracherkennungssystem aus dem Vokabular 5 ausgewählte, wenigstens eine Element 6 gemeinsam mit den Systemkommandos 7 zu einem temporären Erkennervokabular zusammengefasst wird,
bei welchem anschließend die zwischengespeicherte Spracheingabe erneut dem Erkenner 4 zugeführt wird, wobei dieser nun auf Basis des temporären Erkennervokabulars entscheidet,
wobei dann, wenn hierbei das Sprachmuster mit höherer Wahrscheinlichkeit als Element der Systemkommandos 7 denn als das wenigstens eine ausgewählte Element 6 der Liste 5 erkannt wurde, es in Folge durch das Spracherkennungssystem entsprechend als Systemkommando interpretiert wird,
und wobei dann,...

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Interaktion mit einem Spracherkennungssystems zur Auswahl von Elementen aus Listen, insbesondere von Text- oder Voiceenrollments, nach einem der Oberbegriffe der Patentansprüche 1 oder 5.
  • In vielen auf dem Markt befindlichen Spracherkennungssystemen ist es derzeit insbesondere auf Grund des großen zu erkennenden Vokabulars nicht möglich, bei gefordertem gutem Erkennungsergebnis parallel zu identifizierende Textelemente (meist abgelegt als dynamisches Vokabular) und Systembefehle zuzulassen. So ist es häufig nicht zulässig, neben der Eingabe von Städtenamen als Zieladressen auch Systembefehle einzugeben. Dies führt dazu, dass sich der Nutzer des Systems in diesem Eingabemodus in einer sprachlichen Sackgasse befindet. Ist er nun in diesen Zustand willentlich oder unwillentlich, beispielsweise durch eine Fehlerkennung, hineingeraten, so kommt er durch das Sprechen eines Systembefehls nicht mehr heraus. Die Eingabe des Systembefehls wird durch das Spracherkennungssystem automatisch als die Eingabe eines Städtenamens gewertet. Der Dialog kann somit auf dieser Stufe nur durch eine manuelle Eingabe abgebrochen werden.
  • Um dennoch einen sprach-gesteuerten Abbruch des Dialogs zu ermöglichen, wäre es denkbar, einen eindeutigen Sys tembefehl zu definieren, der sich grundsätzlich von zum Beispiel Städtenamen unterscheidet. Dafür könnte man einen unüblichen, sehr langen Befehl wählen, wie zum Beispiel „ich möchte den Stadtnamen buchstabieren". Das Problem dabei ist jedoch, dass ein derartiger Befehl nicht intuitiv vom Benutzer verwendet wird. Zumal wenn an anderen Stellen des Sprach Erkennungssystems mit anderen, intuitiven Befehlen korrigiert werden kann.
  • Aus der US 5,231,670 A1 ist ein Spracherkennungssystem bekannt, bei welchem ein Sprachsignal in Systemkommandos und Textelemente aufgeteilt wird. Hierbei beschreibt ein Systemkommando eine durch das System auszuführende Aktion und das innerhalb des Sprachsignals meist nachfolgende Textelement entspricht dem Text auf den diese Aktion angewandt werden soll. Dazu wird vorgeschlagen, die in den Kommando- und Textelementen enthaltene Information zu trennen und unabhängig voneinander einem Erkenner zu zuleiten und abzuarbeiten. Auf diese Weise fällt es dem Spracherkenner leichter, die in den Sprachsignalen enthaltene Systemkommandos bzw. Textelemente eindeutiger Elementen der jeweiligen Wortlisten zuzuordnen. Auf welcher Grundlage jedoch die Kommando- und Textelemente in dem Sprachsignal vor dessen Aufspaltung identifiziert werden sollen, wird dabei offen gelassen.
  • Ein Verfahren zur Identifikation von Kommando- und Textelementen in Sprachsignalen beschreibt das europäische Patent EP 0 785 540 B1 . Zur Unterscheidung wird vorgeschlagen, die Einzelelemente des Sprachsignals auf das Vorliegen einer für Kommandoelemente oder aber Textelemente typischen Struktur hin zu untersuchen. Speziell wird dabei vorgeschlagen, auf die Dauer von Sprechpausen vor oder nach den einzelnen Elementen zu achten, wobei davon ausgegangen wird, dann auf das Vorliegen eines Kommandoelementes zu schließen, wenn vor und/oder nach dem Element eine signifikante Sprechpause zu verzeichnen ist.
  • Um bei großem Vokabular das dem Spracherkenner zugrunde zu legende Wörterbuch zu optimieren wird in der deutschen Offenlegungsschrift DE 102 07 895 A1 vorgeschlagen, eine Spracheingabe als Gesamtwort zwischenzuspeichern und vor einer Weiterverarbeitung in eine Sequenz von Sprachuntereinheiten zu zerlegen, welche auf Zeichenfolgen abgebildet werden. Ausgehend von diesen Zeichenfolgen wird aus dem Gesamtvokabular des Spracherkenners in eine Teilliste generiert auf deren Basis das zwischengespeicherte Gesamtwort erneut einer Erkennung unterzogen wird.
  • Bei dem in der europäischen Offenlegungsschrift EP 1 162 602 A1 beschriebenen Verfahren wird eine Spracheingabe einem ersten Spracherkennungsschritt auf Basis des gesamten der Spracherkennung zugrunde liegenden Vokabulars unterworfen. Dieser Erkennungsschritt liefert sodann ein erstes Erkennungsergebnis. Dieses erste Erkennungsergebnis wird auf das Vorhandensein von Schlagwörtern untersucht. Wird kein Schlagwort identifiziert, so wird das erste Erkennungsergebnis als Endergebnis der Spracherkennung gewertet. Werden jedoch Schlagwörter identifiziert, so wird auf deren Basis das Erkennervokabular reduziert. Sodann wird die ursprüngliche Spracheingabe erneut einem zweiten Spracherkennungsschritt auf Basis dieses reduzierte Vokabular unterzogen. Das hieraus resultierende Erkennungsergebnis wird sodann als Endergebnis der Spracherkennung gewertet.
  • Aufgabe der Erfindung ist es, ein neuartiges Verfahren und eine geeignete Vorrichtung für ein Spracherkennungssystem zu finden, mittels welchem zwischen der Eingabe eines für diesen Dialogschritt typischen Listenelement, insbesondere einem Text- oder Voiceenrollment, und einem aus diesem Dialogschritt herausführenden Systemkommando unterschieden werden kann.
  • Die Aufgabe wird durch ein Verfahren und eine Vorrichtung zur Interaktion mit einem Spracherkennungssystems zur Auswahl von Listenelementen mit den Merkmalen eines der Patentansprüche 1 oder 5 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung werden durch die Unteransprüche beschrieben.
  • Das System zur Interaktion mit einem Spracherkennungssystem zur Auswahl von Listeneinträgen ist so gestaltet, dass ein Nutzer dem Erkenner des Spracherkennungssystem ein Sprachmuster zuführen kann, um aus einem dem Spracherkennungssystem zugeordneten Vokabular mit zu erkennenden Listeneinträgen wenigstens ein Element auszuwählen. Bei den Listen kann es sich sowohl um statische oder dynamische Listen handeln, welche teilweise auch vordefiniert sind; dies sind insbesondere Text- oder Voiceenrollments, welche in der Regel bei Spracherkennungssystemen recht große Umfänge annehmen. In erfinderischer Weise wird das dem System durch den Nutzer zugeführte Sprachmuster zwischengespeichert. Parallel dazu wird das durch den Spracherkenner aus der Liste ausgewählte, wenigstens eine Listenelement gemeinsam mit den Systemkommandos zu einem temporären Erkennervokabular zusammengefasst. Nach der Erzeugung dieses temporären Erkennervokabulars wird anschließend die zwischengespeicherte Spracheingabe erneut dem Erkenner zugeführt, wobei dieser nun auf Basis dieses Erkennervokabulars entscheidet. Dann, wenn hierbei das Sprachmuster mit höherer Wahrscheinlichkeit als Element der Systemkommandos, denn als das wenigstens eine ausgewähltes Listenelement erkannt wurde, wird es in Folge durch das Spracherkennungssystem entsprechend als Systemkommando interpretiert. Andererseits wird dann, wenn das Sprachmuster mit höherer Wahrscheinlichkeit als Listenelement erkannt wurde, das Sprachmuster als Auswahl dieses Listenelements aus dem Vokabular der zu erkennenden Listenelemente durch den Nutzer interpretiert.
  • Die Erfindung besteht folglich darin, dass bei einem ersten Erkennungsvorgang nur das dem Spracherkennungssystem zugeordnete Vokabular (Liste) mit zu erkennenden Listeneinträgen aktiviert wird, so zum Beispiel eine Städteliste; hierbei handelt es sich meist um ein großes, dynamisches Vokabular. Der Erkenner liefert als Erkennungsergebnis ein einzelnes oder aber auch mehrer Listeneinträge zurück. Danach wird der Erkenner auf Basis der parallel zu erkennenden Systemkommandos und den gerade vom Erkenner als Erkennungsergebnis gelieferten Listenelementen mit dem im ersten Erkennungsvorgang aufgezeichneten Sprachsignal noch einmal aufgerufen. Wird bei diesem zweiten Aufruf als Erkennungsergebnis ein Systemkommando zurückgeliefert, so wird das Sprachdialogsystem davon ausgehen, dass es sich bei der vorher vom Benutzer gesprochenen Äußerung um ein Systemkommando handelte, so dass es den weiteren Dialogablauf dementsprechend steuern wird.
  • Die Verbesserung der Erkennung basiert auf der Verkleinerung des dem Erkenner zugrunde gelegten Vokabulars. Gerade bei großen Listen wie bei Städtenamen oder Straßennamen müssen viele ähnliche Alternativen bewertet werden. Durch den ersten Erkennungsschritt werden die Einträge der ursprünglich großen Liste entsprechend dem Erkennungsergebnis auf meist wenige Listenelemente reduziert. Diese belasten im zweiten Erkennungsschritt die Ressourcen des Erkenners nicht so sehr und so dass eine Bessere Unterscheidung zwischen Listenelementen und Systemkommandos möglich wird.
  • Nachfolgend wird die Erfindung mit Hilfe einer Figur im Detail erläutert. Im Allgemeinen wird dem Spracherkennungssystem das Sprachsignal über ein Mikrofon 1 zugeführt; selbstverständlich wäre gleichsam auch eine elektronische Übertragung des Sprachsignals über eine geeignete elektronisch oder software-technisch realisierte Schnittstelle denkbar. Das dem Spracherkennungssystem zugeführte Sprachsignal wird zum einen in einem Speicher 3 zwischengespeichert und zum anderen dem Erkenner 4 zugeführt. Der Erkenner arbeitet auf Basis des diesem zugeordneten Vokabulars (Liste) 5 mit zu erkennenden Listeneinträgen. Als Erkennungsergebnis 6 liefert der Erkenner 4 wenigstens ein Element des Vokabulars 5 als nachfolgend zu beachtende Listeneinträge. Selbstverständlich kann der Erkenner auch so gestaltet werden, dass er als Ergebnis 6 auch mehrere Einträge des Vokabulars 5 liefert. Hierzu ist es in vorteilhafter Weise denkbar den Erkenner so zu gestalten, dass er um eine bessere Beurteilungsqualität zu ermöglichen den einzelnen ausgegebenen Textenrollments Wahrscheinlichkeiten, insbesondere Konfidenzmaße, zuordnet. Mit Hilfe dieser Wahrscheinlichkeiten kann nachfolgend dann über geeignete, aus dem Stand der Technik bekannte Verfahren eine bessere Bewertung und Weiterverarbeitung des Erkennungsergebnisses erfolgen.
  • Das mittels des Erkenners 4 und gegebenenfalls unter Beachtung von Wahrscheinlichkeiten aus dem Vokabular 5 ausgewählten Listenelemente 6 werden nun gemeinsam mit den System kommandos 7 zu einem temporären Erkennervokabular zusammengebracht. Dieses neue, temporäre Erkennervokabular bildet die Basis für den neuerlichen Erkennungsvorgang, bei welchem dem Erkenner 4 das im Speicher 3 zwischengespeicherte Sprachsignal zugeführt wird. Auf Grundlage des Erkennungsergebnisses 8 des neuerlichen Erkennungsvorgangs wird sodann beurteilt, inwieweit das ursprünglich dem Spracherkennungssystem zugeführte Sprachsignal ein Systemkommando 7 oder eine Auswahl aus dem Vokabular 5 mit den zu erkennenden Listenelementen darstellt. Auch bei diesem zweiten Lauf des Erkenners ist es selbstverständlich denkbar, dass dieser mehrere alternative Erkennungsergebnisse 8 liefert, welche auf Grund von diesen zugeordneten Wahrscheinlichkeiten einer qualitativen Bewertung und Auswahl unterzogen werden.

Claims (5)

  1. Verfahren zur Interaktion mit einem Spracherkennungssystem zur Auswahl von Elementen aus Listen, bei welchem ein Nutzer dem Erkenner des Spracherkennungssystem ein Sprachmuster zuführt, um aus einem dem Spracherkennungssystem zugeordneten Vokabular mit zu erkennenden Listenelementen wenigstens ein Element auszuwählen, bei welchem das dem System durch den Nutzer zugeführte Sprachmuster in einem Speicher 3 zwischengespeichert wird, bei welchem das durch den Erkenner des Spracherkennungssystem aus dem Vokabular 5 ausgewählte, wenigstens eine Element 6 gemeinsam mit den Systemkommandos 7 zu einem temporären Erkennervokabular zusammengefasst wird, bei welchem anschließend die zwischengespeicherte Spracheingabe erneut dem Erkenner 4 zugeführt wird, wobei dieser nun auf Basis des temporären Erkennervokabulars entscheidet, wobei dann, wenn hierbei das Sprachmuster mit höherer Wahrscheinlichkeit als Element der Systemkommandos 7 denn als das wenigstens eine ausgewählte Element 6 der Liste 5 erkannt wurde, es in Folge durch das Spracherkennungssystem entsprechend als Systemkommando interpretiert wird, und wobei dann, wenn hierbei das Sprachmuster mit höherer Wahrscheinlichkeit als Element der Liste erkannt wurde, das Sprachmuster als Auswahl dieses Listenelements aus dem Vokabular der zu erkennenden Listenelemente (Vokabular) 5 durch den Nutzer interpretiert wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Erkenner 4 als ausgewähltes Listenelement 6 mehrere alternative Erkennungsergebnisse liefert.
  3. Verfahren nach einem der Vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Erkenner 4 zur Qualitätsbeurteilung Wahrscheinlichkeiten, insbesondere Konfidenzmaße, hinsichtlich seiner Erkennungsergebnisse bereitstellt.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass dem Spracherkennungssystem das Sprachmuster durch Einsprechen in ein Mikrophon 1 zugeführt wird.
  5. Vorrichtung zur Interaktion mit einem Spracherkennungssystem zur Auswahl von Textenrollments, welche über ein Eingabemittel 1 verfügt, mittels welches ein Nutzer dem Erkenner 4 des Spracherkennungssystem ein Sprachmuster zuführt, um aus einer dem Spracherkennungssystem zugeordneten Liste (Vokabular) 5 ein Element 6 auszuwählen, welche einen Speicher 3 umfasst, in welchem das durch den Nutzer zugeführte Sprachmuster zwischengespeichert wird, und welche weiter ein Mittel umfasst, um das durch den Erkenner 4 des Spracherkennungssystem aus der Liste 5 ausgewählte Element 6 gemeinsam mit den Systemkommandos 7 zu einem temporären Erkennervokabular zusammenzufassen, wobei der Erkenner 4 eine Schnittstelle aufweist, über welchem die in dem Speicher 3 zwischengespeicherte Spracheingabe dem Erkenner zugeführt werden kann, so dass dieser diese Spracheingabe nun auf Basis des temporären Erkennervokabulars verarbeiten kann, und wobei dem Erkenner 4 eine Entscheidungseinheit 8 zugeordnet ist, welche ausgehend von dem Erkennungsergebnis dann, wenn das Sprachmuster mit höherer Wahrscheinlichkeit als Element der Systemkommandos 7 denn als das wenigstens eine ausgewählte Element der Liste 5 erkannt wurde, das Spracherkennungssystem dieses als Systemkommando interpretiert, und welche dann, wenn das Sprachmuster mit höherer Wahrscheinlichkeit als Element der Liste 5 erkannt wurde, das Sprachmuster als Auswahl eines Elementes der Liste 5 interpretiert.
DE102005030967A 2005-06-30 2005-06-30 Verfahren und Vorrichtung zur Interaktion mit einem Spracherkennungssystem zur Auswahl von Elementen aus Listen Expired - Fee Related DE102005030967B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102005030967A DE102005030967B4 (de) 2005-06-30 2005-06-30 Verfahren und Vorrichtung zur Interaktion mit einem Spracherkennungssystem zur Auswahl von Elementen aus Listen
US11/478,929 US20070005361A1 (en) 2005-06-30 2006-06-30 Process and device for interaction with a speech recognition system for selection of elements from lists

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102005030967A DE102005030967B4 (de) 2005-06-30 2005-06-30 Verfahren und Vorrichtung zur Interaktion mit einem Spracherkennungssystem zur Auswahl von Elementen aus Listen

Publications (2)

Publication Number Publication Date
DE102005030967A1 DE102005030967A1 (de) 2007-01-04
DE102005030967B4 true DE102005030967B4 (de) 2007-08-09

Family

ID=37545080

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005030967A Expired - Fee Related DE102005030967B4 (de) 2005-06-30 2005-06-30 Verfahren und Vorrichtung zur Interaktion mit einem Spracherkennungssystem zur Auswahl von Elementen aus Listen

Country Status (2)

Country Link
US (1) US20070005361A1 (de)
DE (1) DE102005030967B4 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006029755A1 (de) * 2006-06-27 2008-01-03 Deutsche Telekom Ag Verfahren und Vorrichtung zur natürlichsprachlichen Erkennung einer Sprachäußerung
EP2418589A4 (de) * 2009-04-06 2012-09-12 Mitsubishi Electric Corp Abfragevorrichtung
DE102010049869B4 (de) * 2010-10-28 2023-03-16 Volkswagen Ag Verfahren zum Bereitstellen einer Sprachschnittstelle in einem Fahrzeug und Vorrichtung dazu
DE102014017385B4 (de) * 2014-11-24 2016-06-23 Audi Ag Kraftfahrzeug-Gerätebedienung mit Bedienkorrektur
US10311862B2 (en) * 2015-12-23 2019-06-04 Rovi Guides, Inc. Systems and methods for conversations with devices about media using interruptions and changes of subjects

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5231670A (en) * 1987-06-01 1993-07-27 Kurzweil Applied Intelligence, Inc. Voice controlled system and method for generating text from a voice controlled input
EP1162602A1 (de) * 2000-06-07 2001-12-12 Sony International (Europe) GmbH Spracherkennung in zwei Durchgängen mit Restriktion des aktiven Vokabulars
DE10207895A1 (de) * 2002-02-23 2003-09-18 Harman Becker Automotive Sys Verfahren zur Spracherkennung und Spracherkennungssystem
EP0785540B1 (de) * 1995-11-13 2005-01-26 Dragon Systems Inc. Erkennung kontinuierlich gesprochener Texte und Befehle

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6185530B1 (en) * 1998-08-14 2001-02-06 International Business Machines Corporation Apparatus and methods for identifying potential acoustic confusibility among words in a speech recognition system
US6314402B1 (en) * 1999-04-23 2001-11-06 Nuance Communications Method and apparatus for creating modifiable and combinable speech objects for acquiring information from a speaker in an interactive voice response system
US7257537B2 (en) * 2001-01-12 2007-08-14 International Business Machines Corporation Method and apparatus for performing dialog management in a computer conversational interface
US20030115289A1 (en) * 2001-12-14 2003-06-19 Garry Chinn Navigation in a voice recognition system
US7299181B2 (en) * 2004-06-30 2007-11-20 Microsoft Corporation Homonym processing in the context of voice-activated command systems
US7321856B1 (en) * 2005-08-03 2008-01-22 Microsoft Corporation Handling of speech recognition in a declarative markup language

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5231670A (en) * 1987-06-01 1993-07-27 Kurzweil Applied Intelligence, Inc. Voice controlled system and method for generating text from a voice controlled input
EP0785540B1 (de) * 1995-11-13 2005-01-26 Dragon Systems Inc. Erkennung kontinuierlich gesprochener Texte und Befehle
EP1162602A1 (de) * 2000-06-07 2001-12-12 Sony International (Europe) GmbH Spracherkennung in zwei Durchgängen mit Restriktion des aktiven Vokabulars
DE10207895A1 (de) * 2002-02-23 2003-09-18 Harman Becker Automotive Sys Verfahren zur Spracherkennung und Spracherkennungssystem

Also Published As

Publication number Publication date
US20070005361A1 (en) 2007-01-04
DE102005030967A1 (de) 2007-01-04

Similar Documents

Publication Publication Date Title
DE60016722T2 (de) Spracherkennung in zwei Durchgängen mit Restriktion des aktiven Vokabulars
DE69829235T2 (de) Registrierung für die Spracherkennung
EP1611568B1 (de) Dreistufige einzelworterkennung
EP1466317B1 (de) Betriebsverfahren eines automatischen spracherkenners zur sprecherunabhängigen spracherkennung von worten aus verschiedenen sprachen und automatischer spracherkenner
DE102009051508B4 (de) Vorrichtung, System und Verfahren zur Sprachdialogaktivierung und -führung
DE60015531T2 (de) Client-server spracherkennungssystem
DE112010005959B4 (de) Verfahren und System zur automatischen Erkennung eines Endpunkts einer Tonaufnahme
EP1927980B1 (de) Verfahren zur Klassifizierung der gesprochenen Sprache in Sprachdialogsystemen
DE69634239T2 (de) Erkennung kontinuierlich gesprochener Texte und Befehle
DE69938374T2 (de) Verfahren und Vorrichtung zur Spracherkennung mittels sowohl eines neuralen Netzwerks als auch verborgener Markov-Modelle
DE60124559T2 (de) Einrichtung und verfahren zur spracherkennung
DE102005030963B4 (de) Verfahren und Vorrichtung zur Bestätigung und/oder Korrektur einer einem Spracherkennungssystems zugeführten Spracheingabe
DE19847419A1 (de) Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äußerung
EP1264301B1 (de) Verfahren zur erkennung von sprachäusserungen nicht-muttersprachlicher sprecher in einem sprachverarbeitungssystem
DE102005030380B4 (de) Verfahren zur Ermittlung einer Hypothesenliste aus einem Vokabular eines Spracherkennungssystems
DE102005030967B4 (de) Verfahren und Vorrichtung zur Interaktion mit einem Spracherkennungssystem zur Auswahl von Elementen aus Listen
WO2017157684A1 (de) Fortbewegungsmittel, system und verfahren zur anpassung einer länge einer erlaubten sprechpause im rahmen einer spracheingabe
DE102005030965B4 (de) Erweiterung des dynamischen Vokabulars eines Spracherkennungssystems um weitere Voiceenrollments
DE60029456T2 (de) Verfahren zur Online-Anpassung von Aussprachewörterbüchern
EP1136982A2 (de) Erzeugung eines Sprachmodells und eines akustischen Modells für ein Spracherkennungssystem
EP2034472A1 (de) Spracherkennungsverfahren und Spracherkennungsvorrichtung
DE10308611A1 (de) Ermittlung der Verwechslungsgefahr von Vokabulareinträgen bei der phonembasierten Spracherkennung
DE102008024257A1 (de) Verfahren zur Sprecheridentifikation bei einer Spracherkennung
EP1179818B1 (de) Automatische Erkennung von Unternehmensnamen in sprachlichen Äusserungen
DE10122087C1 (de) Verfahren zum Training und Betrieb eines Spracherkenners, Spracherkenner und Spracherkenner-Trainingssystem

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: DAIMLERCHRYSLER AG, 70327 STUTTGART, DE

8327 Change in the person/name/address of the patent owner

Owner name: DAIMLER AG, 70327 STUTTGART, DE

8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)
R081 Change of applicant/patentee

Owner name: AUDI AG, DE

Free format text: FORMER OWNER: DAIMLER AG, 70327 STUTTGART, DE

Effective date: 20130114

Owner name: AUDI AG, DE

Free format text: FORMER OWNER: VOLKSWAGEN AG, 38440 WOLFSBURG, DE

Effective date: 20130211

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee