DE102014201676B4 - Verfahren für das Steuern des Dialogs von Sprachsystemen - Google Patents

Verfahren für das Steuern des Dialogs von Sprachsystemen Download PDF

Info

Publication number
DE102014201676B4
DE102014201676B4 DE102014201676.2A DE102014201676A DE102014201676B4 DE 102014201676 B4 DE102014201676 B4 DE 102014201676B4 DE 102014201676 A DE102014201676 A DE 102014201676A DE 102014201676 B4 DE102014201676 B4 DE 102014201676B4
Authority
DE
Germany
Prior art keywords
list
differences
ambiguity
speech
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102014201676.2A
Other languages
English (en)
Other versions
DE102014201676A1 (de
Inventor
Eli Tzirkel-Hancock
Gaurav Talwar
Xufang Zhao
Greg T. Lindemann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102014201676A1 publication Critical patent/DE102014201676A1/de
Application granted granted Critical
Publication of DE102014201676B4 publication Critical patent/DE102014201676B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/086Recognition of spelled words
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Machine Translation (AREA)

Abstract

Verfahren für das Steuern eines Sprachdialoges eines Sprachsystems (10), welches aufweist:Empfangen (100) einer ersten Äußerung (47) eines Benutzers des Sprachsystems (10);Bestimmen (110) einer ersten Liste (52) von möglichen Ergebnissen aus der ersten Äußerung (47), wobei die erste Liste (52) wenigstens zwei Elemente beinhaltet, welche jedes ein mögliches Ergebnis repräsentiert;Analysieren (125) der wenigstens zwei Elemente der ersten Liste (52), um eine Mehrdeutigkeit der Elemente zu bestimmen;Erzeugen einer Sprachanfrage (56) an den Benutzer basierend auf einer partiellen Orthographie und der Mehrdeutigkeit;Empfangen einer zweiten Äußerung (47) von einem Benutzer in Antwort auf die Sprachanfrage (56);Bestimmen einer zweiten Liste (62) der möglichen Ergebnisse aus der zweiten Äußerung; undErzeugen (190) eines Ergebnisses basierend auf der ersten Liste (52) und der zweiten Liste (62), wobei das Erzeugen des Ergebnisses auf einem Zusammenlegen der möglichen Ergebnisse der ersten Liste (52) und der möglichen Ergebnisse der zweiten Liste (62) basiert.

Description

  • TECHNISCHER BEREICH
  • Der technische Bereich bezieht sich im Allgemeinen auf Sprachsysteme, und spezieller ausgedrückt bezieht er sich auf ein Verfahren für das Steuern des Dialoges innerhalb eines Sprachsystems, wobei partielle Orthographie benutzt wird.
  • HINTERGRUND
  • Fahrzeug-Spracherkennungssysteme führen die Spracherkennung oder das Verstehen der Sprache, welche durch Insassen des Fahrzeugs geäußert wird, durch. Die Sprachäußerungen beinhalten typischerweise Befehle, welche mit einem oder mehreren Merkmalen des Fahrzeugs oder anderen Systemen, welche über das Fahrzeug zugänglich sind, kommunizieren oder diese steuern. Ein Sprach-Dialogsystem erzeugt gesprochene Befehle in Antwort auf die Sprachäußerungen. In einigen Fällen werden die gesprochenen Befehle in Antwort auf die Spracherkennung erzeugt, wobei diese weitere Information benötigt, um die Spracherkennung durchzuführen. Zum Beispiel kann ein gesprochener Befehl den Benutzer fragen, die Sprachäußerung zu wiederholen, oder kann den Benutzer fragen, aus einer Liste von Möglichkeiten eine auszuwählen. Derartige gesprochene Befehle können unbeholfen sein, schwierig nachzuvollziehen sein, oder können fehlschlagen, die Erkennungsausgabe zu lösen.
  • Die US 2012/0158695 A1 beschreibt einen Suchalgorithmus zum Auffinden von Datensätzen in einer elektronischen Datenbank. Ein Systemoptimierer ist mit Datenbankplattformsystemen verbunden, um den Status jeder Datenbankabfrage dynamisch zu überwachen, zu steuern, zu verfolgen und zu kommunizieren. Der Systemoptimierer analysiert sprecher-abhängige und sprecher-unabhängige Vertrauensgrade und bestimmt die Anzahl der Datensätze in den ersten, nachfolgenden und letzten Teilmengen von Datensätzen, die durch alphabetische Kombinationen und statistische, subjektive und objektive virtuelle Suchparameter gebildet werden. Er wählt für jede Abfrage optimale Suchalgorithmen oder Suchsequenzen aus und überträgt die optimale Suchaktivität für jede Abfrage an Datenbank-Subsysteme.
  • Entsprechend kann es als Aufgabe betrachtet werden, verbesserte Verfahren für das Steuern eines Sprachdialoges bereitzustellen, um die Spracherkennung zu verbessern. Entsprechend ist es wünschenswert, Verfahren für das Steuern eines Sprachdialogs bereitzustellen, wobei partielle Orthographie benutzt wird, um die Spracherkennung zu verbessern. Außerdem werden andere wünschenswerte Merkmale und Charakteristika der vorliegenden Erfindung aus der nachfolgenden detaillierten Beschreibung und den angehängten Ansprüchen offensichtlich, welche in Verbindung mit den beigefügten Zeichnungen und dem vorhergegangenen technischen Bereich und Hintergrund gegeben werden.
  • ZUSAMMENFASSUNG
  • Es wird ein Verfahren für das Steuern des Sprachdialogs eines Sprachsystems bereitgestellt. Erfindungsgemäß beinhaltet ein Verfahren: Empfangen einer ersten Äußerung von einem Benutzer des Sprachsystems; Bestimmen einer ersten Liste von möglichen Ergebnissen aus der ersten Äußerung, wobei die erste Liste wenigstens zwei Elemente beinhaltet, welche jeweils ein mögliches Ergebnis repräsentieren; Analysieren der wenigstens zwei Elemente der ersten Liste, um eine Mehrdeutigkeit der Elemente zu bestimmen; und Erzeugen einer Sprachaufforderung an den Benutzer basierend auf der partiellen Orthographie und der Mehrdeutigkeit. In Antwort auf die Sprachanfrage wird eine zweite Sprachäußerung von einem Benutzer empfangen und eine zweite Liste der möglichen Ergebnisse aus der zweiten Äußerung bestimmt. Ein Ergebnis wird basierend auf der ersten Liste und der zweiten Liste erzeugt, wobei das Erzeugen des Ergebnisses auf einem Zusammenlegen der möglichen Ergebnisse der ersten Liste und der möglichen Ergebnisse der zweiten Liste basiert.
  • Figurenliste
  • Die beispielhaften Ausführungsformen werden hier nachfolgend in Verbindung mit den folgenden gezeichneten Figuren beschrieben, wobei gleiche Ziffern gleiche Elemente bezeichnen und wobei:
    • 1 ein Funktionsblockdiagramm eines Fahrzeuges ist, welches ein Sprachsystem beinhaltet;
    • 2 ein Datenflussdiagramm ist, welches ein Sprachsystem darstellt; und
    • 3-5 Ablaufdiagramme sind, welche Sprachverfahren darstellen, welche durch ein Sprachsystem durchgeführt werden können.
  • DETAILLIERTE BESCHREIBUNG
  • Die folgende detaillierte Beschreibung ist nur beispielhaft in ihrer Art, und es ist nicht beabsichtigt, die Anmeldung und das Gebrauchen zu begrenzen. Wie es hier benutzt wird, bezieht sich der Ausdruck „Modul“ auf eine anwendungsspezifische integrierte Schaltung (ASIC), eine elektronische Schaltung, einen Prozessor (gemeinsam genutzt, dediziert oder in einer Gruppe) und einen Speicher, welcher eine oder mehrere Software- oder Firmware-Programme ausführt, eine kombinierte logische Schaltung und/oder andere gebräuchliche Komponenten, welche die beschriebene Funktionalität bereitstellen.
  • Es wird ein Sprachsystem 10 gezeigt, welches in einem Fahrzeug 12 beinhaltet ist. In verschiedenen Varianten stellt das Sprachsystem 10 Spracherkennung oder - verständnis bzw. Sprachintelligenz und einen Dialog für eines oder mehrere Fahrzeugsysteme über ein Mensch-Maschine-Schnittstellenmodul-(HMI-)Modul 14 bereit. Derartige Fahrzeugsysteme können zum Beispiel beinhalten, sind jedoch nicht darauf begrenzt, ein Telefonsystem 16, ein Navigationssystem 18, ein Mediensystem 20, ein Telematiksystem 22, ein Netzsystem 24 oder irgendein anderes Fahrzeugsystem, welches eine sprachabhängige Anwendung beinhalten kann. Wie gewürdigt werden kann, können eine oder mehrere Varianten des Sprachsystems 10 für andere Nichtfahrzeug-Systeme anwendbar sein, welche sprachabhängige Anwendungen besitzen, und demnach ist diese nicht auf das vorliegende Fahrzeugbeispiel beschränkt.
  • Das Sprachsystem 10 kommuniziert mit den vielen Fahrzeugsystemen 14-24 über einen Kommunikationsbus und/oder andere Kommunikationseinrichtungen 26 (z.B. verdrahtete, Kurzbereichsfunk oder Fernbereichsfunk). Der Kommunikationsbus kann zum Beispiel sein, ist jedoch nicht darauf begrenzt, ein Steuerglied-Bereichsnetz-(CAN-)Bus, ein lokaler Zwischenverbindungsnetz-(LIN-)Bus oder irgendein anderer Typ von Bus.
  • Das Sprachsystem 10 beinhaltet ein Sprachintelligenzmodul 32, ein Dialog-Steuermodul 34 und ein Spracherzeugungsmodul 35. Wie gewürdigt werden kann, können das Sprachintelligenzmodul 32, das Dialog-Steuermodul 34 und das Spracherzeugungsmodul 35 als getrennte Systeme und/oder als ein kombiniertes System, wie gezeigt, implementiert sein. Im Allgemeinen empfängt das Sprachintelligenzmodul 32 die Sprachäußerungen von dem HMI-Modul 14 und bearbeitet sie, wobei eine oder mehrere Spracherkennungstechniken benutzt werden. Das Sprachintelligenzmodul 32 erzeugt eine oder mehrere Listen von möglichen Ergebnissen aus der Sprachäußerung (z.B. basierend auf einem Vertrauensschwellwert) und sendet die Liste(n) an das Dialog-Steuermodul 34. In verschiedenen Varianten erzeugt das Sprachintelligenz-Modul 32 die Liste, wobei vordefinierte Möglichkeiten benutzt werden, welche in einem Datenspeicher gespeichert sind. Zum Beispiel können die vordefinierten Möglichkeiten Namen oder Nummern sein, welche in einem Telefonbuch gespeichert sind, Namen oder Adressen sein, welche in einem Adressbuch gespeichert sind, Liedernamen oder Künstler sein, welche in einem Musikverzeichnis gespeichert sind, etc..
  • Das Dialog-Steuermodul 34 steuert eine Interaktionsfolge und eine Auswahl von Sprachanfragen, welche zu dem Benutzer zu sprechen sind, basierend auf der (den) Liste(n). Im Speziellen, wenn eine Liste mehr als ein mögliches Ergebnis beinhaltet, benutzt das Dialog-Steuermodul 34 Begriffserklärungsstrategien, um einen Dialog der Kommandos mit dem Benutzer zu steuern, so dass ein erkanntes Ergebnis bestimmt werden kann. Die Begriffserklärungsstrategien helfen eher, ein Benutzerziel zu erkennen, als die exakten Wörter, welche der Benutzer sagt, zu erkennen. Das Spracherzeugungsmodul 35 erzeugt die gesprochenen Kommandos für den Benutzer basierend auf dem Dialog, welcher durch das Dialog-Steuerglied 34 bestimmt ist.
  • Mit Bezug nun auf 2 stellt ein Datenflussdiagramm das Sprachintelligenzmodul 32 und das Dialog-Steuermodul 34 dar. Wie gewürdigt werden kann, können verschiedene Varianten des Sprachintelligenzmoduls 32 und des Dialog-Steuermoduls 34 jegliche Anzahl von Untermodulen beinhalten. In verschiedenen Varianten können die Untermodule, welche in 2 gezeigt werden, kombiniert und/oder weiter aufgeteilt werden, um in ähnlicher Weise den Dialog zu steuern, wobei Begriffserklärungsstrategien benutzt werden. In verschiedenen Varianten beinhaltet das Dialog-Steuermodul 34 ein Listen-Auswertungsmodul 40, ein Mehrdeutigkeit-Identifizierungsmodul 42, ein Kommando-Steuermodul 44 und ein Ergebnisbestimmungsmodul 45. Das Sprachintelligenzmodul 32 beinhaltet ein Erkennungsmodul 46.
  • Mit Bezug auf das Sprachintelligenzmodul 32 empfängt das Erkennungsgliedmodul 46 als Eingabe eine Sprachäußerung 47 von dem Benutzer (z.B. durch das HMI-Modul 14 (1)). Das Erkennungsgliedmodul 46 bearbeitet die Sprachäußerung 47, wobei ein oder mehrere Sprachmodelle benutzt werden, um eine Liste 50 von möglichen Ergebnissen zu bestimmen. Die Liste 50 beinhaltet ein oder mehrere Elemente, welche ein mögliches Ergebnis der Bearbeitung repräsentieren. In verschiedenen Varianten beinhaltet jedes Element der Liste eine oder mehrere Slots bzw. Positionen, welche jeweils mit einem Slot- bzw. Positionstyp verbunden sind, abhängig von der Anwendung. Wenn zum Beispiel eine Anwendung das Durchführen von Telefongesprächen zu Telefonbuchkontakten (z.B. „Rufe John Doe an“) unterstützt, dann kann jedes Element Positionen mit Positionstypen eines Vornamens, eines zweiten Vornamens und/oder eines Hauptnamens beinhalten. Wenn in einem anderen Beispiel die Anwendung eine Navigation unterstützt (z.B. „Gehe zu 1111 Sunshine Boulevard“), dann kann jedes Element Positionen mit Positionstypen einer Hausnummer und einem Straßennamen etc. beinhalten. In verschiedenen Varianten können die Positionen und Positionsarten in einem Datenspeicher gespeichert werden, und auf sie kann durch das Erkennungsmodul 46 zugegriffen werden. Jedes Element oder Position der Liste 50 gehört zu einer Vertrauensauswertung bzw. Vertrauenspunktzahl, welche als ein Ergebnis der Bearbeitung bestimmt ist.
  • Mit Bezug nun auf das Dialog-Steuermodul 34 empfängt das Listenauswertemodul 40 als Eingang die Liste 50 von dem Sprachintelligenzmodul 32. Das Listenauswertemodul 40 wertet die Liste 50 aus, um zu bestimmen, ob eine Begriffserklärung notwendig ist. Wenn zum Beispiel die Liste 50 mehr als ein Element enthält, wählt das Listen-Auswertungsmodul 40 diejenige Liste für das Weiterbearbeiten durch das Mehrdeutigkeit-Identifizierungsmodul 42 aus, welche als die ausgewählte Liste 52 bezeichnet wird. Wenn die Liste 50 nur ein Element beinhaltet oder wenn sie in Antwort auf eine Sprachanfrage 56 empfangen wird (wie das diskutiert werden wird), stellt das Listen-Auswertungsmodul 40 die Liste als eine aktualisierte Liste 62 für das Ergebnisbestimmungsmodul 45 bereit. Wie gewürdigt werden kann, wenn die Liste 50 nur ein Element beinhaltet und eine dazugehöriger Vertrauenspunktzahl ist niedrig, kann die Liste 50 für das weitere Bearbeiten ausgewählt werden. Jedoch wird die Offenbarung für beispielhafte Zwecke im Kontext der ausgewählten Liste 52 diskutiert, welche mehr als ein Element beinhaltet.
  • Das Mehrdeutigkeit-Identifizierungsmodul 42 empfängt als Eingang die ausgewählte Liste 52. Das Mehrdeutigkeit-Identifizierungsmodul 42 bearbeitet die Elemente der ausgewählten Liste 52, um die Mehrdeutigkeiten zwischen den Elementen zu identifizieren. Das Mehrdeutigkeit-Identifizierungsmodul 42 erzeugt einen Mehrdeutigkeitstyp 54, basierend auf den Mehrdeutigkeiten zwischen den Elementen. Zum Beispiel kann der Mehrdeutigkeitstyp auf den Positionstypen (z.B. erster Name, Zuname, Straßenname, Hausnummer, etc.) der zweideutigen Elemente basieren.
  • Das Mehrdeutigkeit-Identifizierungsmodul 42 identifiziert die Mehrdeutigkeiten zwischen den Elementen durch das Identifizieren der Mehrdeutigkeiten zwischen den Positionen der Elemente, welche einen speziellen Positionstyp besitzen. Zum Beispiel bearbeitet das Mehrdeutigkeit-Identifizierungsmodul 42 die erste Position der Elemente, um jegliche Mehrdeutigkeiten zu identifizieren, dann bearbeitet es die zweite Position der Elemente, um jegliche Mehrdeutigkeiten zu identifizieren, und so weiter, für die Anzahl der Positionen in dem Element. In verschiedenen Varianten identifiziert das Mehrdeutigkeit-Identifizierungsmodul 42 die Mehrdeutigkeiten zwischen einer Spitzennummer M der Elemente in der ausgewählten Liste 52, wobei M eine ganze Zahl größer als zwei ist. Zum Beispiel bearbeitet das Mehrdeutigkeit-Identifizierungsmodul 42 die Positionen von zwei Spitzenelementen der ausgewählten Liste 52, um die Mehrdeutigkeiten zu identifizieren, wobei die Elemente als die oberen zwei bzw. Top zwei in der Reihenfolge sind, basierend auf der (den) dazugehörigen Vertrauenspunktzahl(en).
  • Das Mehrdeutigkeit-Identifizierungsmodul 42 identifiziert ferner Mehrdeutigkeiten zwischen den Elementen durch das Bestimmen von Differenzen zwischen den Positionen des speziellen Positionstyps. In verschiedenen Varianten bestimmt das Mehrdeutigkeit-Identifizierungsmodul 42 die Differenzen basierend auf der Orthographie der Positionen. Zum Beispiel kann die Orthographie der Position entsprechend zu einer Sprache sein, welche zu der Position gehört, entweder gesprochen oder geschrieben. Das Mehrdeutigkeit-Identifizierungsmodul 42 evaluiert einen oder mehrere Gesichtspunkte der Orthographie, um die Differenz zu bestimmen (z.B. Buchstaben, Zahlwerte, Zeichen, Laute, Töne etc.). Wenn das Mehrdeutigkeit-Identifizierungsmodul 42 die Mehrdeutigkeiten basierend auf der Orthographie der Positionen identifiziert, wird ein Differenztyp 55 erzeugt, welcher den Gesichtspunkt der Orthographie identifiziert (z.B. Buchstaben, Ziffern, Zeichen, Laute, Töne etc.), welche die Differenz bzw. den Unterschied identifizierten.
  • Zum Beispiel vergleicht das Mehrdeutigkeit-Identifizierungsmodul 42 die ersten Positionen der Elemente (z.B. der Top-M-Elemente), um die orthographischen Unterschiede zwischen jeder der ersten Positionen zu bestimmen, vergleicht die zweiten Positionen der Elemente, um die orthographischen Unterschiede zwischen jeder der zweiten Positionen zu bestimmen, und so weiter, für alle die Positionen in den Elementen. Die Positionen der Elemente, welche den größten orthographischen Unterschied besitzen, werden als die zweideutigen Positionen identifiziert. Der Positionstyp, welcher zu den zweideutigen Positionen gehört, wird als der Mehrdeutigkeitstyp 54 ausgewählt. Der Gesichtspunkt der Orthographie, welcher als der größte Unterschied identifiziert ist, wird als der Unterschiedstyp 55 ausgewählt.
  • In verschiedenen Varianten bestimmt das Mehrdeutigkeit-Identifizierungsmodul 42 die Mehrdeutigkeiten zwischen den Elementen durch das Bestimmen eines Unterschieds in der Vertrauenspunktzahl, welche zu den Positionen oder Elementen gehört. Zum Beispiel vergleicht das Mehrdeutigkeit-Identifizierungsmodul 42 die Vertrauenspunktzahlen der ersten Positionen der Elemente (z.B. der Top-M-Elemente), um die Vertrauensunterschiede zu bestimmen, vergleicht die Vertrauenspunktzahlen der zweiten Positionen der Elemente, um die Vertrauensunterschiede zu bestimmen, und so weiter, für alle die Positionen in den Elementen. Die Positionen der Elemente, welche den kleinsten Vertrauensunterschied besitzen, werden als die zweideutigen Positionen identifiziert, und der Positionstyp, welcher zu den zweideutigen Positionen gehört, wird als der Mehrdeutigkeitstyp 54 ausgewählt. Wenn das Mehrdeutigkeit-Identifizierungsmodul 42 die Mehrdeutigkeiten identifiziert, und zwar basierend auf dem Vertrauenspegel, welcher zu den Positionen gehört, wird der Unterschiedstyp 55 auf einen vorher festgelegten Wert eingestellt, zum Beispiel basierend auf der Orthographie, welche zu den Positionen gehört.
  • In noch anderen Varianten identifiziert das Mehrdeutigkeit-Identifizierungsmodul 42 die Mehrdeutigkeiten zwischen den Elementen basierend auf den Vertrauenspunktzahlen und der Orthographie der Positionen. Zum Beispiel vergleicht das Mehrdeutigkeit-Identifizierungsmodul 42 die Vertrauenspunktzahlen der ersten Positionen der Elemente (z.B. der Top-M-elemente), um die Vertrauensunterschiede zu bestimmen, vergleicht die Vertrauenspunktzahlen der zweiten Positionen der Elemente, um die Vertrauensunterschiede zu bestimmen, und so weiter, für alle die Positionen in den Elementen. Die Positionen der Elemente, welche den kleinsten Vertrauensunterschied besitzen, werden als die zweideutigen Positionen identifiziert, und der Positionstyp, welcher zu den zweideutigen Positionen gehört, wird als der Mehrdeutigkeitstyp 54 ausgewählt. Das Mehrdeutigkeit-Identifizierungsmodul 42 bestimmt dann einen orthographischen Unterschied zwischen den Positionen, welche zu dem kleinsten Vertrauensunterschied gehören, und stellt den Unterschiedstyp 55 basierend auf dem orthographischen Unterschied ein. Wie gewürdigt werden kann, kann das Mehrdeutigkeit-Identifizierungsmodul 42 sowohl die Vertrauenspunktzahl als auch die Orthographie der Positionen auf andere Weise benutzen und ist damit nicht auf das vorliegende Beispiel begrenzt.
  • Das Kommando-Steuermodul 44 empfängt als Eingabe den Mehrdeutigkeitstyp 54 und den Unterschiedstyp 55. Das Kommando-Steuermodul 44 erzeugt eine Sprachanfrage 56, basierend auf dem ausgewählten Mehrdeutigkeitstyp 54 und dem Unterschiedstyp 55. In verschiedenen Varianten wird die Sprachanfrage 56 basierend auf der partiellen Orthographie erzeugt. Zum Beispiel fragt die Sprachanfrage 56 den Benutzer, die X-Anzahl des Unterschiedstyps 55 des Mehrdeutigkeitstyps 54 zu buchstabieren/zu sagen. Wenn zum Beispiel der Mehrdeutigkeitstyp 54, welcher identifiziert ist, der Hauptname ist und der Unterschiedstyp 55, welcher identifiziert ist, die Buchstaben sind, erzeugt das Kommando-Steuermodul 44 eine Sprachanfrage, welches „Buchstabiere bitte die ersten drei Buchstaben des Hauptnamens“, „Buchstabiere bitte die letzten vier Buchstaben des Hauptnamens“, „Buchstabiere bitte einige Buchstaben des Hauptnamens“ etc. beinhaltet. In einem anderen Beispiel, wenn der Mehrdeutigkeitstyp 54 die Hausnummer ist und der Unterschiedstyp 55 die Ziffern sind, erzeugt das Kommando-Steuermodul 44 eine Sprachanfrage, welches beinhaltet: „Nenne bitte die ersten drei Ziffern der Hausnummer“, „Nenne bitte die letzten drei Ziffern der Hausnummer“, „Nenne bitte einige Ziffern der Hausnummer“ etc.. Wie gewürdigt werden kann, kann die Anzahl X vordefiniert sein oder kann basierend auf den bestimmten orthographischen Unterschieden zwischen den Positionen bestimmt werden.
  • Das Ergebnis-Bestimmungsmodul 45 empfängt als Eingabe die aktualisierte Liste 62 und/oder die ausgewählte Liste 52. Das Ergebnis-Bestimmungsmodul 45 bestimmt ein Ergebnis 64 basierend auf der ausgewählten Liste 52 und/oder der aktualisierten Liste 62. In verschiedenen Varianten bestimmt das Ergebnis-Bestimmungsmodul 45 das Ergebnis 64 durch das Verbinden der ausgewählten Liste 52 mit der aktualisierten Liste 62. Zum Beispiel verbindet (oder kombiniert) das Ergebnis-Bestimmungsmodul 45 die Elemente und die Vertrauenspunktzahlen der Elemente der ausgewählten Liste 52 und der aktualisierten Liste 62, um eine zusammengefasste Liste zu erzeugen. Wenn zum Beispiel die ausgewählte Liste 52 ein Element enthält, welches das gleiche wie ein Element der aktualisierten Liste 62 ist, dann werden die Vertrauenspunktzahl(en) für dieses Element kombiniert (z.B. durch Addition oder eine andere Berechnung), und dieses Element wird zu der zusammengefassten Liste mit der kombinierten Vertrauenspunktzahl addiert. Die Vertrauenspunktzahlen der zusammengefassten Liste werden dann evaluiert, um das Ergebnis 64 zu bestimmen.
  • Mit Bezug nun auf 3-5 stellen Ablaufdiagramme die Sprachverfahren dar, welche von dem Sprachsystem 10 durchgeführt werden können. Wie in Hinsicht auf die Offenbarung gewürdigt werden kann, ist die Reihenfolge des Betriebs innerhalb der Verfahren nicht auf eine sequenzielle Ausführung begrenzt, wie sie in den 3-5 dargestellt ist, sondern kann in einer oder in mehreren variierenden Reihenfolgen durchgeführt werden, welche anwendbar und entsprechend zu der vorliegenden Offenbarung sind. Wie ferner gewürdigt werden kann, können einer oder mehrere Schritte des Verfahrens hinzugefügt oder weggelassen werden.
  • Wie gezeigt wird, kann das Verfahren bei 99 beginnen. Die Sprachäußerung 47 wird bei 100 empfangen. Ein oder mehrere Spracherkennungsverfahren werden an der Sprachäußerung 47 durchgeführt, um die Liste 50 der Ergebnisse bei 110 zu bestimmen. Wenn zum Beispiel die Sprachäußerung „Rufe Scott Rothestein an“ ist, kann der Name nicht direkt erkannt werden, und die Liste 50 der möglichen Ergebnisse für „Scott Rothestein“ wird erzeugt (z.B. aus den aufgeführten Namen in einem Adressbuch). In einem Beispiel beinhalten die Top-drei-Elemente der Liste 50 „Scott Austin“, „Scott Rothstein“ und „Tom Rothman“. Wie gewürdigt werden kann, wird das Verfahren im Kontext dieses Beispiels diskutiert, es ist jedoch nicht darauf begrenzt.
  • Da die Liste 50 mehr als ein Element enthält, wird die Liste 50 als die ausgewählte Liste 52 für die weitere Bearbeitung bei 120 ausgewählt. Die Mehrdeutigkeiten der Liste werden bei 125 bestimmt. Zum Beispiel werden die Unterschiede bei 130 bestimmt. Wird die beispielhafte Liste oben vorausgesetzt, basieren die Positionen auf dem ersten Wort und dem zweiten Wort und die Positionstypen sind der Vorname und der zweite Vorname. Die Unterschiede für die Positionen des ersten Vornamens werden basierend auf einem orthographischen Unterschied und/oder dem Vertrauensunterschied zwischen den Positionen bestimmt, welche zu dem ersten Vornamen gehören; und die Unterschiede für die Positionen des Hauptnamens werden basierend auf einem orthographischen Unterschied und/oder einem Vertrauensunterschied der Positionen bestimmt, welche zu dem Hauptnamen gehören. Zum Beispiel werden die orthographischen Unterschiede für den Vornamen zwischen „Scott“ und „Scott“, und „Scott“ und „Tom“ bestimmt; und die orthographischen Unterschiede für den Hauptnamen werden zwischen „Austin“ und „Rothstein“, „Rothstein“ und „Rothman“ und „Rothman“ und „Austin“ bestimmt.
  • Danach wird der Mehrdeutigkeitstyp 54 auf den Positionstyp der Positionen mit dem größten Unterschied bei 140 eingestellt, und der Unterschiedstyp 55 wird auf den Gesichtspunkt der Orthographie bei 150 eingestellt, welcher den größten Unterschied besitzt. In dem bereitgestellten Beispiel ist der Hauptname der Positionstyp, welcher den größten Unterschied besitzt, und die letzte Silbe des Hauptnamens ist ein Gesichtspunkt der Orthographie, welcher den größten Unterschied besitzt, basierend auf dem Mehrdeutigkeitstyp 54 und dem Unterschiedstyp 55. Zum Beispiel kann die Sprachanfrage 56 „Buchstabiere bitte einige der letzten Buchstaben des Hauptnamens“ beinhalten.
  • Danach fährt das Verfahren mit dem Empfangen einer zweiten Sprachäußerung 47 bei 100 fort. Ein oder mehrere Spracherkennungsverfahren werden an der zweiten Sprachäußerung 47 durchgeführt, um eine zweite Liste 50 der Ergebnisse bei 110 zu bestimmen. Da die Liste in Antwort auf die Sprachanfrage 56 empfangen wird, wird die Liste 50 auf die aktualisierte Liste 62 bei 120 eingestellt und nicht weiter nach Mehrdeutigkeiten bearbeitet. Das Ergebnis 64 wird basierend auf der ausgewählten Liste 52 und/oder der aktualisierten Liste 62 erzeugt, wobei entweder ein Zusammenfügen der Listen 52, 62 oder das Aktualisieren einer Grammatik benutzt werden, und zwar basierend auf der aktualisierten Liste 62, wie oben beschrieben, bei 180. Zum Beispiel, wie in 4 gezeigt wird, wird das Ergebnis 64 durch das Zusammenlegen der Listen 52, 62 bei 190 erzeugt, durch das Kombinieren der Elemente und der Vertrauenspunktzahlen der Listen 52, 62 in einer einzelnen zusammengefassten Liste bei 200, wobei die zusammengefasste Liste basierend auf den Vertrauenspunktzahlen bei 210 klassifiziert wird und das Top-Element der klassifizierten, zusammengefassten Liste als das Ergebnis 64 bei 220 ausgewählt wird.
  • In einem anderen Beispiel, wie dies in 5 gezeigt wird, wird das Ergebnis 64 basierend auf einer aktualisierten Grammatik erzeugt, welche aus der aktualisierten Liste 62 bei 230 bestimmt wird, und zwar durch das Erzeugen einer aktualisierten Grammatik, wobei die aktualisierte Liste 62 bei 240 benutzt wird, das Durchführen der Spracherkennung an der ersten Sprachäußerung 47, wobei die aktualisierte Grammatik benutzt wird, um eine aktualisierte Liste bei 250 zu erzeugen, und das Auswählen eines Top-Elementes (oder einer Top-Vertrauenspunktzahl) der aktualisierten Liste, als das Ergebnis 64 bei 260.
  • Mit Bezug zurück zu 3, nachdem das Ergebnis 64 bei 180 bestimmt ist, kann das Verfahren bei 270 enden.
  • Wie gewürdigt werden kann, kann das Verfahren jegliche Anzahl von Sprachäußerungen 47 wiederholen, da die Kriterien bei 120 auf der Anzahl der Elemente in der Liste basieren können, auf einer Anzahl von Antworten auf Sprachanfragen 56 basieren können, oder auf irgendwelchen anderen Kriterien. Wie ferner gewürdigt werden kann, können andere Verfahren durchgeführt werden, um ein Ergebnis zu bestimmen, wenn noch eine Mehrdeutigkeit in den Elementen nach dem Bearbeiten von wenigstens zwei Sprachäußerungen vorhanden ist.

Claims (7)

  1. Verfahren für das Steuern eines Sprachdialoges eines Sprachsystems (10), welches aufweist: Empfangen (100) einer ersten Äußerung (47) eines Benutzers des Sprachsystems (10); Bestimmen (110) einer ersten Liste (52) von möglichen Ergebnissen aus der ersten Äußerung (47), wobei die erste Liste (52) wenigstens zwei Elemente beinhaltet, welche jedes ein mögliches Ergebnis repräsentiert; Analysieren (125) der wenigstens zwei Elemente der ersten Liste (52), um eine Mehrdeutigkeit der Elemente zu bestimmen; Erzeugen einer Sprachanfrage (56) an den Benutzer basierend auf einer partiellen Orthographie und der Mehrdeutigkeit; Empfangen einer zweiten Äußerung (47) von einem Benutzer in Antwort auf die Sprachanfrage (56); Bestimmen einer zweiten Liste (62) der möglichen Ergebnisse aus der zweiten Äußerung; und Erzeugen (190) eines Ergebnisses basierend auf der ersten Liste (52) und der zweiten Liste (62), wobei das Erzeugen des Ergebnisses auf einem Zusammenlegen der möglichen Ergebnisse der ersten Liste (52) und der möglichen Ergebnisse der zweiten Liste (62) basiert.
  2. Verfahren nach Anspruch 1, wobei das Analysieren das Analysieren der wenigstens zwei Elemente der ersten Liste (52) aufweist, um Unterschiede zwischen den wenigstens zwei Elementen zu bestimmen.
  3. Verfahren nach einem der vorherigen Ansprüche, wobei das Analysieren ferner das Bestimmen der Unterschiede zwischen den Spalten eines ersten Elements und den Spalten eines zweiten Elements der ersten Liste (52) aufweist, um die Unterschiede zu bestimmen.
  4. Verfahren nach Anspruch 3, wobei das Bestimmen der Unterschiede das Bestimmen der orthographischen Unterschiede zwischen den Spalten des ersten Elementes und den Spalten des zweiten Elementes aufweist.
  5. Verfahren nach Anspruch 4, wobei die orthographischen Unterschiede auf einer Sprache basieren, welche zu der Spalte gehört.
  6. Verfahren nach Anspruch 4 oder 5, wobei die orthographischen Unterschiede auf wenigstens einem von Folgendem basieren: Buchstaben, Ziffern, Zeichen, Lauten und Töne der Spalten.
  7. Verfahren nach den Ansprüchen 3 bis 6, wobei das Bestimmen der Unterschiede das Bestimmen der Vertrauensunterschiede zwischen den Spalten des ersten Elementes und den Spalten des zweiten Elementes aufweist.
DE102014201676.2A 2013-04-19 2014-01-30 Verfahren für das Steuern des Dialogs von Sprachsystemen Active DE102014201676B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/866,829 US9202459B2 (en) 2013-04-19 2013-04-19 Methods and systems for managing dialog of speech systems
US13/866,829 2013-04-19

Publications (2)

Publication Number Publication Date
DE102014201676A1 DE102014201676A1 (de) 2014-10-23
DE102014201676B4 true DE102014201676B4 (de) 2023-03-30

Family

ID=51629100

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014201676.2A Active DE102014201676B4 (de) 2013-04-19 2014-01-30 Verfahren für das Steuern des Dialogs von Sprachsystemen

Country Status (3)

Country Link
US (1) US9202459B2 (de)
CN (1) CN104112448B (de)
DE (1) DE102014201676B4 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140358538A1 (en) * 2013-05-28 2014-12-04 GM Global Technology Operations LLC Methods and systems for shaping dialog of speech systems
CN104360897B (zh) * 2014-10-29 2017-09-22 百度在线网络技术(北京)有限公司 对话处理方法和对话管理***
US9858918B2 (en) * 2016-03-15 2018-01-02 GM Global Technology Operations LLC Root cause analysis and recovery systems and methods
US10824798B2 (en) 2016-11-04 2020-11-03 Semantic Machines, Inc. Data collection for a new conversational dialogue system
US10713288B2 (en) 2017-02-08 2020-07-14 Semantic Machines, Inc. Natural language content generator
US10762892B2 (en) * 2017-02-23 2020-09-01 Semantic Machines, Inc. Rapid deployment of dialogue system
US11069340B2 (en) 2017-02-23 2021-07-20 Microsoft Technology Licensing, Llc Flexible and expandable dialogue system
US10586530B2 (en) 2017-02-23 2020-03-10 Semantic Machines, Inc. Expandable dialogue system
US11132499B2 (en) 2017-08-28 2021-09-28 Microsoft Technology Licensing, Llc Robust expandable dialogue system
DE102018200088B3 (de) 2018-01-04 2019-06-13 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zum Verarbeiten einer Spracheingabe, Kraftfahrzeug und Nutzerendgerät mit einer Sprachverarbeitung
CN114020898B (zh) * 2022-01-07 2022-04-19 和美(深圳)信息技术股份有限公司 人机自动对话方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5638425A (en) 1992-12-17 1997-06-10 Bell Atlantic Network Services, Inc. Automated directory assistance system using word recognition and phoneme processing method
US20090216525A1 (en) 2008-02-22 2009-08-27 Vocera Communications, Inc. System and method for treating homonyms in a speech recognition system
US20120158695A1 (en) 2004-09-07 2012-06-21 Mr. Scott P. Stuart More efficient search algorithm (MESA) using: integrated system optimizer

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5903864A (en) 1995-08-30 1999-05-11 Dragon Systems Speech recognition
US6487532B1 (en) * 1997-09-24 2002-11-26 Scansoft, Inc. Apparatus and method for distinguishing similar-sounding utterances speech recognition
US5987411A (en) * 1997-12-17 1999-11-16 Northern Telecom Limited Recognition system for determining whether speech is confusing or inconsistent
US6964023B2 (en) * 2001-02-05 2005-11-08 International Business Machines Corporation System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input
US7526431B2 (en) 2001-09-05 2009-04-28 Voice Signal Technologies, Inc. Speech recognition using ambiguous or phone key spelling and/or filtering
US7246062B2 (en) * 2002-04-08 2007-07-17 Sbc Technology Resources, Inc. Method and system for voice recognition menu navigation with error prevention and recovery
WO2005098817A2 (en) 2004-03-25 2005-10-20 Ashwin Rao System and method for speech-to-text conversion using constrained dictation in a speak-and-spell mode
US7299181B2 (en) * 2004-06-30 2007-11-20 Microsoft Corporation Homonym processing in the context of voice-activated command systems
US8942985B2 (en) * 2004-11-16 2015-01-27 Microsoft Corporation Centralized method and system for clarifying voice commands
US7643985B2 (en) * 2005-06-27 2010-01-05 Microsoft Corporation Context-sensitive communication and translation methods for enhanced interactions and understanding among speakers of different languages
US20070043562A1 (en) * 2005-07-29 2007-02-22 David Holsinger Email capture system for a voice recognition speech application
US7904298B2 (en) 2006-11-17 2011-03-08 Rao Ashwin P Predictive speech-to-text input
US8099287B2 (en) * 2006-12-05 2012-01-17 Nuance Communications, Inc. Automatically providing a user with substitutes for potentially ambiguous user-defined speech commands
US7844456B2 (en) * 2007-03-09 2010-11-30 Microsoft Corporation Grammar confusability metric for speech recognition
US20080243504A1 (en) * 2007-03-30 2008-10-02 Verizon Data Services, Inc. System and method of speech recognition training based on confirmed speaker utterances
US8423362B2 (en) * 2007-12-21 2013-04-16 General Motors Llc In-vehicle circumstantial speech recognition
US8082148B2 (en) * 2008-04-24 2011-12-20 Nuance Communications, Inc. Testing a grammar used in speech recognition for reliability in a plurality of operating environments having different background noise
US9123341B2 (en) * 2009-03-18 2015-09-01 Robert Bosch Gmbh System and method for multi-modal input synchronization and disambiguation
KR20110072847A (ko) * 2009-12-23 2011-06-29 삼성전자주식회사 열려진 사용자 의도 처리를 위한 대화관리 시스템 및 방법
US8433570B2 (en) * 2010-01-06 2013-04-30 General Motors Llc Method of recognizing speech
US8626511B2 (en) * 2010-01-22 2014-01-07 Google Inc. Multi-dimensional disambiguation of voice commands
US20110307250A1 (en) * 2010-06-10 2011-12-15 Gm Global Technology Operations, Inc. Modular Speech Recognition Architecture
US8473289B2 (en) * 2010-08-06 2013-06-25 Google Inc. Disambiguating input based on context
US9418674B2 (en) * 2012-01-17 2016-08-16 GM Global Technology Operations LLC Method and system for using vehicle sound information to enhance audio prompting

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5638425A (en) 1992-12-17 1997-06-10 Bell Atlantic Network Services, Inc. Automated directory assistance system using word recognition and phoneme processing method
US20120158695A1 (en) 2004-09-07 2012-06-21 Mr. Scott P. Stuart More efficient search algorithm (MESA) using: integrated system optimizer
US20090216525A1 (en) 2008-02-22 2009-08-27 Vocera Communications, Inc. System and method for treating homonyms in a speech recognition system

Also Published As

Publication number Publication date
CN104112448A (zh) 2014-10-22
CN104112448B (zh) 2017-07-14
US20140316782A1 (en) 2014-10-23
DE102014201676A1 (de) 2014-10-23
US9202459B2 (en) 2015-12-01

Similar Documents

Publication Publication Date Title
DE102014201676B4 (de) Verfahren für das Steuern des Dialogs von Sprachsystemen
DE102013222507B4 (de) Verfahren zum Adaptieren eines Sprachsystems
DE102013223036B4 (de) Adaptionsverfahren für Sprachsysteme
JP6743300B2 (ja) ニューラルネットワークを用いてハイブリッド音声認識結果をランク付けするためのシステム及び方法
DE102017124264B4 (de) Computerimplementiertes Verfahren und Rechensystem zum Bestimmen phonetischer Beziehungen
DE69827988T2 (de) Sprachmodelle für die Spracherkennung
DE60201262T2 (de) Hierarchische sprachmodelle
DE602005004503T2 (de) Multilinguale Spracherkennung
EP0925578B1 (de) Sprachverarbeitungssystem und verfahren zur sprachverarbeitung
EP2176858B1 (de) Verfahren zur spracherkennung
DE112017004374T5 (de) System und Verfahren zur Spracherkennung
DE102014109122A1 (de) Systeme und Verfahren für ergebnisbezogene Arbitrierung in Sprachdialogsystemen
DE102020205786A1 (de) Spracherkennung unter verwendung von nlu (natural language understanding)-bezogenem wissen über tiefe vorwärtsgerichtete neuronale netze
DE102014109121A1 (de) Systeme und Verfahren zur Arbitrierung eines Sprachdialogdienstes
DE102018113034A1 (de) Stimmenerkennungssystem und stimmenerkennungsverfahren zum analysieren eines befehls, welcher mehrere absichten hat
DE102013222757A1 (de) Adaptionsverfahren und -systeme für Sprachsysteme
DE102015109379A1 (de) Systeme und Verfahren für ein Navigationssystem, das eine Suche mit Diktieren und Teilübereinstimmung verwendet
DE102015106280B4 (de) Systeme und Verfahren zum Kompensieren von Sprachartefakten in Spracherkennungssystemen
DE102016125141B4 (de) Suchergebnis unter vorherigem Abrufen von Sprachanfragen
RU2704746C2 (ru) Динамическая акустическая модель для транспортного средства
DE102005018174A1 (de) Verfahren zur gezielten Ermittlung eines vollständigen Eingabedatensatzes in einem Sprachdialog 11
EP1884924A1 (de) Verfahren zum Erzeugen einer kontextbasierten Sprachdialogausgabe in einem Sprachdialogsystem
EP1812930A1 (de) Verfahren zur spracherkennung aus einem aufgeteilten vokabular
EP1182646A2 (de) Verfahren zur Zuordnung von Phonemen
DE69920714T2 (de) Spracherkennung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: LKGLOBAL LORENZ UND KOPF PATENTANWALT, ATTORNE, DE

Representative=s name: LKGLOBAL | LORENZ & KOPF PARTG MBB PATENTANWAE, DE

Representative=s name: LKGLOBAL ] LORENZ & KOPF PARTG MBB PATENTANWAE, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final